JP6330093B1 - Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device - Google Patents

Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device Download PDF

Info

Publication number
JP6330093B1
JP6330093B1 JP2017158935A JP2017158935A JP6330093B1 JP 6330093 B1 JP6330093 B1 JP 6330093B1 JP 2017158935 A JP2017158935 A JP 2017158935A JP 2017158935 A JP2017158935 A JP 2017158935A JP 6330093 B1 JP6330093 B1 JP 6330093B1
Authority
JP
Japan
Prior art keywords
rgb data
unit
appearance frequency
time interval
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017158935A
Other languages
Japanese (ja)
Other versions
JP2019036257A (en
Inventor
渡嘉敷 守
守 渡嘉敷
寛 大澤
寛 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MIRAIAPURI CO., LTD.
Original Assignee
MIRAIAPURI CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MIRAIAPURI CO., LTD. filed Critical MIRAIAPURI CO., LTD.
Priority to JP2017158935A priority Critical patent/JP6330093B1/en
Application granted granted Critical
Publication of JP6330093B1 publication Critical patent/JP6330093B1/en
Priority to PCT/JP2018/030753 priority patent/WO2019039448A1/en
Publication of JP2019036257A publication Critical patent/JP2019036257A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

【課題】ウェアラブルデバイスの装着者の動作を、加速度信号から正確に判定可能な情報を生成する。【解決手段】ウェアラブルデバイスDからのX、Y、Zの3軸方向の加速度信号に基づいて、所定時間間隔における加速度信号のXY成分、YZ成分及びZX成分のうち、少なくとも2成分の出現頻度を生成する出現頻度生成部741と、出現頻度生成部741により生成された少なくとも2成分の出現頻度を、RGBの色信号のうちの少なくとも2色の値としたRGBデータを生成するRGBデータ生成部742と、ウェアラブルデバイスDの装着者の動作を表すラベルを、これに相当する時間におけるRGBデータに付与するラベル付与部75と、共通のラベルが付された複数のRGBデータの特徴に基づいて、RGBデータがラベルに相当する動作か否かを判定する判定部76と、を有する。【選択図】図4Information capable of accurately determining an operation of a wearable device wearer from an acceleration signal is generated. Based on acceleration signals in X, Y, and Z directions from wearable device D, the frequency of appearance of at least two of the XY, YZ, and ZX components of the acceleration signal at a predetermined time interval is determined. An appearance frequency generation unit 741 to be generated, and an RGB data generation unit 742 that generates RGB data in which the appearance frequencies of at least two components generated by the appearance frequency generation unit 741 are values of at least two colors of RGB color signals. And a label giving unit 75 for giving a label representing the wearer's movement of the wearable device D to the RGB data at a time corresponding to this, and based on the characteristics of a plurality of RGB data to which a common label is attached. And a determination unit 76 that determines whether or not the data is an operation corresponding to a label. [Selection] Figure 4

Description

本発明は、ウェアラブルデバイスの装着者の動作を判定するための動作判定プログラム、動作判定装置、動作判定用画像生成プログラム、動作判定用画像生成装置に関する。   The present invention relates to a motion determination program, a motion determination device, a motion determination image generation program, and a motion determination image generation device for determining the motion of a wearable device wearer.

従来から、個人や集団の行動を目的の状態にする等のために、各個人の動作を自動的に判定することが求められている。例えば、加速度センサを備えたウェアラブルデバイスを、各個人が装着し、それぞれの加速度センサから取得される加速度信号の波形を解析して、各個人の動作を判定する技術が提案されている。このような波形の解析の手法としては、波形がどの程度一致するかにより判定する波形マッピング、波形に含まれる周波数成分がどの程度一致するかにより判定する周波数分解などの手法などがある。   2. Description of the Related Art Conventionally, it has been required to automatically determine the actions of each individual in order to bring the behavior of individuals or groups into a target state. For example, a technique has been proposed in which each individual wears a wearable device including an acceleration sensor and analyzes the waveform of an acceleration signal acquired from each acceleration sensor to determine the operation of each individual. Examples of such waveform analysis methods include waveform mapping that is determined based on how much the waveforms match, and frequency decomposition that is determined based on how much the frequency components included in the waveforms match.

特開2006−209468号公報JP 2006-209468 A

しかしながら、共通の動作であっても、各個人が示す動きについてはばらつきがあり、同じ作業の繰り返しを含む動作であっても、同じ加速度値の変化を示すわけではない。特に、一定の時間間隔を経過する間に示す加速度の値及び方向は、速さの変化、作業を行う順番などによって大きく異なる。   However, even in a common operation, the movements shown by the individuals vary, and even an operation including repetition of the same work does not indicate the same change in acceleration value. In particular, the value and direction of acceleration shown during a certain time interval vary greatly depending on the change in speed, the order in which work is performed, and the like.

例えば、バーコードをセンサ(以下、バーコードリーダと呼ぶ)で読み取る動作において、バーコードリーダをバーコードに近づける動きは、同じ人間が繰り返し行っても、その都度異なった加速度の波形となり、同じ作業として特定できるほどの類似した波形を示すことはない。さらに、作業の途中で頭を掻くなど、本来の作業とは関係のない異常な動きが入った場合、波形から異常な動きに対応する部分を除去して共通の要素を抽出することはできない。   For example, in the operation of reading a barcode with a sensor (hereinafter referred to as a barcode reader), the movement of bringing the barcode reader closer to the barcode results in a different acceleration waveform each time even if the same person repeatedly performs the same operation. Does not show similar waveforms that can be specified as Furthermore, if an abnormal movement that is not related to the original work occurs, such as scratching the head in the middle of the work, it is not possible to extract a common element by removing a portion corresponding to the abnormal movement from the waveform.

本発明は、ウェアラブルデバイスの装着者の動作を、加速度信号から正確に判定可能な情報を生成できる動作判定プログラム、動作判定装置、動作判定用画像生成プログラム、動作判定用画像生成装置を提供することにある。   The present invention provides a motion determination program, a motion determination device, a motion determination image generation program, and a motion determination image generation device capable of generating information capable of accurately determining the motion of a wearable device wearer from an acceleration signal. It is in.

以上のような目的を達成するために、本発明の動作判定プログラムは、コンピュータに、ウェアラブルデバイスからのX、Y、Zの3軸方向の加速度信号に基づいて、所定時間間隔における前記加速度信号のXY成分、YZ成分及びZX成分のうち、少なくとも2成分の出現頻度を生成する出現頻度生成処理と、前記出現頻度生成処理により生成された少なくとも2成分の出現頻度を、RGBの色信号のうちの少なくとも2色の値としたRGBデータを生成するRGBデータ生成処理と、前記所定時間間隔における前記RGBデータに、前記ウェアラブルデバイスの装着者の動作を特定するためのラベルを付与するラベル付与処理と、共通のラベルが付された複数のRGBデータに基づいて、前記RGBデータに対応する前記ウェアラブルデバイスの装着者の動作を判定する判定処理と、を実行させる。   In order to achieve the above object, the operation determination program of the present invention causes a computer to store the acceleration signal at a predetermined time interval based on the acceleration signals in the X, Y, and Z axes from the wearable device. Of the XY components, the YZ component, and the ZX component, an appearance frequency generation process that generates an appearance frequency of at least two components, and an appearance frequency of at least two components generated by the appearance frequency generation process are expressed as RGB color signals. RGB data generation processing for generating RGB data having values of at least two colors, and label application processing for applying a label for identifying the wearer device wearer's operation to the RGB data at the predetermined time interval; The wearable device corresponding to the RGB data is based on a plurality of RGB data with a common label. A determination processing operation of the chair of the wearer, thereby to execute.

前記コンピュータに、前記加速度信号を所定のレートでサンプリングしたサンプリング値に基づいて、単位時間当たりのX、Y、Z軸方向の加速度値を生成する量子化処理と、前記加速度値に基づいて、少なくとも前記2成分の出現頻度を生成する出現頻度生成処理と、を実行させてもよい。   Based on a sampling value obtained by sampling the acceleration signal at a predetermined rate in the computer, a quantization process for generating acceleration values in the X, Y, and Z axis directions per unit time, and at least based on the acceleration value, Appearance frequency generation processing for generating the appearance frequency of the two components may be executed.

前記コンピュータに、前記所定時間間隔を設定する設定処理を実行させてもよい。前記設定処理は、外部の検出装置により検出された検出信号に基づいて、前記所定時間間隔を設定してもよい。前記設定処理は、長さの異なる複数の前記所定時間間隔を、階層的に設定してもよい。前記RGBの色信号のうちの1色の値を、外部の検出装置により検出された検出信号に基づく値としてもよい。   You may make the said computer perform the setting process which sets the said predetermined time interval. The setting process may set the predetermined time interval based on a detection signal detected by an external detection device. The setting process may hierarchically set a plurality of the predetermined time intervals having different lengths. A value of one color of the RGB color signals may be a value based on a detection signal detected by an external detection device.

本発明は、上記の各処理の機能を実現する動作判定装置として捉えることもできる。また、本発明は、コンピュータに、上記の出現頻度生成処理及びRGBデータ生成処理を実行させる動作判定用画像生成プログラム、上記の出現頻度生成部及びRGBデータ生成部を有する動作判定用画像生成装置として捉えることもできる。   The present invention can also be understood as an operation determination device that realizes the functions of the above-described processes. The present invention also provides an operation determination image generation program that causes a computer to execute the appearance frequency generation process and the RGB data generation process, and an operation determination image generation apparatus that includes the appearance frequency generation unit and the RGB data generation unit. It can also be captured.

以上のような本発明によれば、ウェアラブルデバイスの装着者の動作を、加速度信号から正確に判定可能な情報を生成できる。   According to the present invention as described above, it is possible to generate information that can accurately determine the operation of the wearer wearer from the acceleration signal.

実施形態における動作判定システムを示す全体構成図Overall configuration diagram showing an operation determination system in an embodiment バーコード検品に使用するウェアラブルデバイスとバーコードリーダを示す説明図Explanatory drawing showing a wearable device and barcode reader used for barcode inspection 実施形態におけるウェアラブルデバイスを示すブロック図A block diagram showing a wearable device in an embodiment 実施形態における動作判定装置を示すブロック図The block diagram which shows the operation | movement determination apparatus in embodiment 加速度信号の波形を示すグラフGraph showing acceleration signal waveform 加速度値の方向と範囲を示す説明図Explanatory diagram showing the direction and range of acceleration values 出現頻度マップを示す説明図Explanatory diagram showing the appearance frequency map RGBデータを示す説明図Explanatory drawing showing RGB data バーコード検品をする装着者を示す説明図Explanatory drawing showing the wearer who performs barcode inspection バーコード検品の時間間隔を示す説明図Explanatory drawing showing the time interval of barcode inspection 多層の時間間隔を示す説明図Explanatory diagram showing multi-layer time intervals 時間間隔の調整を示す説明図Explanatory drawing showing adjustment of time interval RGBデータの解像度の変換を示す説明図Explanatory diagram showing conversion of resolution of RGB data ラベル付与の態様を示す説明図Explanatory drawing which shows the aspect of label assignment 実施形態における動作判定用画像生成処理を示すフローチャートThe flowchart which shows the image generation process for operation | movement determination in embodiment 実施形態における学習処理を示すフローチャートThe flowchart which shows the learning processing in the embodiment 実施形態における判定処理を示すフローチャートFlowchart showing determination processing in the embodiment RGBデータの分類例を示す説明図Explanatory drawing which shows the classification example of RGB data 時間間隔の区切りをずらした例を示す説明図Explanatory drawing showing an example of shifting the interval of time intervals

[構成]
[概要]
本発明を実施するための形態(以下「本実施形態」と呼ぶ)について、図面を参照して具体的に説明する。なお、本実施形態は、ウェアラブルデバイスの装着者の動作を、加速度信号に基づいて判定する動作判定システムに適用される。
[Constitution]
[Overview]
A mode for carrying out the present invention (hereinafter referred to as “the present embodiment”) will be specifically described with reference to the drawings. Note that the present embodiment is applied to an operation determination system that determines an operation of a wearable device wearer based on an acceleration signal.

動作とは、装着者の動きによって示される装着者の状態をいう。移動を停止した状態、動きを静止した状態であっても、その前後に移動や動きに相当する動作があることと、加速度信号により検出される動きは存在することから、状態を特定できるため、動作に含まれる。つまり、作業、運動のみならず、停止、静止、休憩、睡眠、姿勢、調子、作業効率、集中度合、疲労度、熟練度等も動作に含まれる。つまり、本実施形態でいう動作には、装着者の状態の概念も含まれ、動作を状態と読み替えることも、動作判定を状態判定と読み替えることもできる。装着とは、装着者の動作を特定できる程度に、装着者の動きに追従できる状態であればよい。このため、装着者に直接接している場合のみならず、装着者との間に衣服や部材が介在していてもよい。   The action refers to the state of the wearer indicated by the wearer's movement. Even if the movement is stopped or the movement is in a stationary state, since there is an operation corresponding to movement or movement before and after that, and there is a movement detected by the acceleration signal, the state can be identified. Included in the action. That is, not only work and exercise, but also stop, rest, rest, sleep, posture, tone, work efficiency, concentration, fatigue, skill, etc. are included in the operation. That is, the operation referred to in this embodiment includes the concept of the wearer's state, and the operation can be read as a state, and the operation determination can be read as a state determination. The wearing may be a state that can follow the movement of the wearer to such an extent that the movement of the wearer can be specified. For this reason, not only the case where it is in direct contact with the wearer, but also clothes and members may be interposed between the wearer and the wearer.

動作を判定するとは、特定の動作であるか否かを示すことをいう。これは、特定の動作である確率を示す場合も含む。また、確率がしきい値を超えた場合に、特定の動作であることを示す場合も含む。   Determining the operation means indicating whether or not the operation is a specific operation. This includes the case where the probability is a specific action. It also includes a case where a specific action is indicated when the probability exceeds a threshold value.

図1に示すように、動作判定システムSは、ウェアラブルデバイスD1〜Dn(以下、単にウェアラブルデバイスDとする)、動作判定装置M、アクセスポイントPを有する。ウェアラブルデバイスDは、ネットワークNを介して相互に又は動作判定装置Mとの間で、情報を送受信可能な情報通信端末である。ウェアラブルデバイスDは、本体ユニットUと、人体に装着する装着部Bを有する。ウェアラブルデバイスDとしては、例えば、腕時計型の情報通信端末を用いる。この場合、本体ユニットUは、薄型の筐体内に、後述する処理部を備えたコンピュータを内蔵している。装着部Bは、図2に示すように、腕に巻いて止めるバンドである。   As illustrated in FIG. 1, the operation determination system S includes wearable devices D1 to Dn (hereinafter simply referred to as wearable devices D), an operation determination device M, and an access point P. The wearable device D is an information communication terminal capable of transmitting / receiving information to / from the operation determination apparatus M via the network N. The wearable device D has a main unit U and a mounting part B that is mounted on the human body. As the wearable device D, for example, a wristwatch type information communication terminal is used. In this case, the main unit U incorporates a computer including a processing unit described later in a thin casing. As shown in FIG. 2, the mounting portion B is a band that is wound around the arm and stopped.

動作判定装置Mは、ネットワークNを介して、ウェアラブルデバイスDと情報の送受信が可能な装置である。動作判定装置Mには、各ウェアラブルデバイスDからの情報が収集され、これに基づいて、装着者の動作を判定する。なお、ウェアラブルデバイスDからの情報には、外部の装置から入力された情報も含まれる。例えば、図1及び図2に示すように、ウェアラブルデバイスDに、Bluetооth(登録商標)のような近距離省電力無線で接続されたバーコードリーダRからの読み取り信号も、ウェアラブルデバイスDからの情報に含まれる。   The operation determination apparatus M is an apparatus that can transmit and receive information to and from the wearable device D via the network N. The operation determination device M collects information from each wearable device D, and determines the operation of the wearer based on this information. The information from the wearable device D includes information input from an external device. For example, as shown in FIG. 1 and FIG. 2, a reading signal from a barcode reader R connected to the wearable device D by short-range power-saving radio such as Bluetooth (registered trademark) is also received from the wearable device D. include.

アクセスポイントPは、ネットワークNとウェアラブルデバイスD、管理デバイスM1との通信の中継を行う中継装置である。このアクセスポイントPは、位置情報を発信する発信装置でもある。アクセスポイントPは、典型的には、WiFiの無線LANアクセスポイントである。各アクセスポイントPには、識別情報、設置場所に関する位置情報が登録され、発信されるビーコンには、識別情報及び設置場所に関する情報が含まれる。例えば、設置された施設が、複数のエリアに区分され、各エリアに設置されたアクセスポイントPに、エリア毎に異なる位置情報が付与されている。   The access point P is a relay device that relays communication between the network N, the wearable device D, and the management device M1. The access point P is also a transmission device that transmits position information. The access point P is typically a WiFi wireless LAN access point. Each access point P is registered with identification information and position information regarding the installation location, and the transmitted beacon includes identification information and information regarding the installation location. For example, the installed facility is divided into a plurality of areas, and different location information is given to each access point P installed in each area.

ウェアラブルデバイスD、動作判定装置M、アクセスポイントPは、主としてプログラムで制御されるコンピュータにより構成される。コンピュータは、CPU等のプロセッサ、メモリ等の記憶媒体などにより構成されるが、ハードウェアやプログラムの実現態様は各種変更可能である。   The wearable device D, the operation determination device M, and the access point P are mainly configured by a computer controlled by a program. The computer is configured by a processor such as a CPU and a storage medium such as a memory, but various implementations of hardware and programs can be changed.

動作判定装置Mは、サーバ装置により構成できる。後述する各部の処理に必要な各種の設定、演算式、パラメータ等は、あらかじめ内蔵の若しくはリムーバブルな記憶媒体が記憶している。後述する記憶部は、このような記憶媒体の記憶領域の一部として構成できる。   The operation determination device M can be configured by a server device. Various settings, arithmetic expressions, parameters, and the like necessary for processing of each unit described later are stored in advance in a built-in or removable storage medium. A storage unit to be described later can be configured as a part of the storage area of such a storage medium.

以下の説明では、各機能をブロックで図示した機能ブロック図を用いる。なお、本発明は、各機能を実行させるコンピュータプログラム、そのようなプログラムを記録したコンピュータ読取可能な記憶媒体としても把握できる。   In the following description, a functional block diagram in which each function is illustrated as a block is used. The present invention can also be understood as a computer program for executing each function and a computer-readable storage medium storing such a program.

[ウェアラブルデバイス]
ウェアラブルデバイスDは、上記のように、動作の主体が身体の一部に装着する装置である。このウェアラブルデバイスDは、図3に示すように、通信部1、現在位置判定部2、情報入力部3、情報変換部4、情報出力部5、通知情報出力部6を有する。
[Wearable device]
As described above, the wearable device D is a device that the subject of movement wears on a part of the body. As shown in FIG. 3, the wearable device D includes a communication unit 1, a current position determination unit 2, an information input unit 3, an information conversion unit 4, an information output unit 5, and a notification information output unit 6.

(通信部)
通信部1は、外部との情報の送受信を行う処理部である。通信部1は、ネットワークNを介して、動作判定装置M及び他のウェアラブルデバイスDとの間で情報を送受信できる。ネットワークNは、多対1、多対多、1対1のいずれの関係でもよい。たとえば、通信部1は、WiFi等の無線LAN、WiFi Direct等によって、管理デバイスM1、管理サーバM2、ウェアラブルデバイスD相互間の接続機能を有する。通信部1は、アクセスポイントPが発信するビーコンに含まれる位置情報を受信する。この受信処理を、ビーコンスキャンと呼び、ビーコンスキャンを行うタイミングをスキャンタイミングと呼ぶ。なお、上記のように、通信部1は、ウェアラブルデバイスDは、バーコードリーダRなどの外部の入力装置からの情報も受信する。
(Communication Department)
The communication unit 1 is a processing unit that transmits and receives information to and from the outside. The communication unit 1 can transmit / receive information to / from the operation determination device M and other wearable devices D via the network N. The network N may have any of many-to-one, many-to-many, and one-to-one relationships. For example, the communication unit 1 has a connection function between the management device M1, the management server M2, and the wearable device D by a wireless LAN such as WiFi, WiFi Direct, or the like. The communication unit 1 receives position information included in a beacon transmitted by the access point P. This reception process is called a beacon scan, and the timing for performing the beacon scan is called a scan timing. Note that, as described above, the communication unit 1 also receives information from an external input device such as the barcode reader R in the wearable device D.

(現在位置判定部)
現在位置判定部2は、通信部1が受信したアクセスポイントPからの位置情報に基づいて、ウェアラブルデバイスDが存在する位置、つまりスタッフの位置を判定する処理部である。現在位置判定部2は、信号検出部21、位置判定部22を有する。
(Current position determination unit)
The current position determination unit 2 is a processing unit that determines the position where the wearable device D exists, that is, the position of the staff, based on the position information from the access point P received by the communication unit 1. The current position determination unit 2 includes a signal detection unit 21 and a position determination unit 22.

信号検出部21は、アクセスポイントPから受信したビーコンに含まれる位置情報を検出する処理部である。この位置情報は、例えば、各アクセスポイントPが設置された所定のエリアを識別する情報である。位置判定部22は、位置情報に基づいて、ウェアラブルデバイスDの位置を判定する処理部である。つまり、位置判定部22は、ウェアラブルデバイスDを装着している所持者の位置を判定する。なお、アクセスポイントPの位置情報による位置の検出には、種々の手法が適用可能である。複数のエリアのアクセスポイントPからのビーコンを受信した場合には、電波強度等、他の情報を加味して判定してもよい。   The signal detection unit 21 is a processing unit that detects position information included in a beacon received from the access point P. This position information is information for identifying a predetermined area where each access point P is installed, for example. The position determination unit 22 is a processing unit that determines the position of the wearable device D based on the position information. That is, the position determination unit 22 determines the position of the holder who wears the wearable device D. Various methods can be applied to the position detection based on the position information of the access point P. When beacons are received from access points P in a plurality of areas, the determination may be made in consideration of other information such as radio wave intensity.

(情報入力部)
情報入力部3は、ウェアラブルデバイスDの装着者の情報を入力する処理部である。情報入力部3は、加速度センサ31、地磁気センサ32、タッチセンサ33、脈拍センサ34、温度センサ35、気圧センサ36、ジャイロセンサ37、カメラ38、マイク39を有する。
(Information input part)
The information input unit 3 is a processing unit that inputs information about the wearer of the wearable device D. The information input unit 3 includes an acceleration sensor 31, a geomagnetic sensor 32, a touch sensor 33, a pulse sensor 34, a temperature sensor 35, an atmospheric pressure sensor 36, a gyro sensor 37, a camera 38, and a microphone 39.

加速度センサ31は、傾き及び振動を感知して、傾きや振動の程度に応じた電気信号に変換するセンサである。加速度センサ31は、互いに直交するX軸方向、Y軸方向、Z軸方向の3軸方向の加速度を検出できるセンサである。地磁気センサ32は、磁場の大きさや方向を感知して、方向に応じた電気信号に変換するセンサである。   The acceleration sensor 31 is a sensor that senses inclination and vibration and converts it into an electrical signal corresponding to the degree of inclination and vibration. The acceleration sensor 31 is a sensor that can detect accelerations in three axial directions, ie, an X-axis direction, a Y-axis direction, and a Z-axis direction that are orthogonal to each other. The geomagnetic sensor 32 is a sensor that senses the magnitude and direction of a magnetic field and converts it into an electrical signal corresponding to the direction.

タッチセンサ33は、表面への接触を感知するセンサである。このタッチセンサ33は、所持者との接触を介して情報を入力する手段である。タッチセンサ33は、例えば、後述する表示部62に構成されたタッチパネルであり、タップ、スライド等の入力操作を可能とする。タップは、指で表面を短くタッチすることであり、スライドは表面を指で触れながら移動させることである。但し、タップは表面に触れている時間が短い操作、スライドは表面に触れている時間が長い操作を便宜的に示したに過ぎず、フリック、スワイプ等の他の呼び名であってもよい。   The touch sensor 33 is a sensor that senses contact with the surface. The touch sensor 33 is a means for inputting information through contact with the owner. The touch sensor 33 is, for example, a touch panel configured in the display unit 62 described later, and enables input operations such as tap and slide. A tap is a short touch of the surface with a finger, and a slide is a touch while moving the surface with a finger. However, the tap only indicates an operation with a short time of touching the surface, and the slide merely indicates an operation with a long time of touching the surface, and may be another name such as flick or swipe.

脈拍センサ34は、所持者に接触し、所持者の脈拍を検出するセンサである。この脈拍センサ34も、所持者との接触を介して情報を入力する手段である。脈拍センサ34としては、例えば、紫外線の照射と反射により脈拍を検出するセンサを用いることができる。   The pulse sensor 34 is a sensor that contacts the owner and detects the pulse of the owner. The pulse sensor 34 is also a means for inputting information through contact with the owner. As the pulse sensor 34, for example, a sensor that detects a pulse by irradiation and reflection of ultraviolet rays can be used.

温度センサ35は、所持者に接触して、所持者の体温に応じた電気信号に変換するセンサである。この温度センサ35も、所持者に接触して、情報を入力する手段である。気圧センサ36は、大気圧の検出するセンサである。例えば、圧電素子を用いた気圧センサを適用することができる。ジャイロセンサー37は、X、Y、Zの3軸方向の角速度を検出するセンサである。   The temperature sensor 35 is a sensor that contacts an owner and converts it into an electrical signal corresponding to the body temperature of the owner. The temperature sensor 35 is also a means for inputting information in contact with the owner. The atmospheric pressure sensor 36 is a sensor that detects atmospheric pressure. For example, a barometric sensor using a piezoelectric element can be applied. The gyro sensor 37 is a sensor that detects angular velocities in the X, Y, and Z axial directions.

カメラ38は、静止画若しくは動画を撮像して、画像データ、動画データとして入力する装置である。マイク39は、周囲の音声を電気信号に変換する入力装置である。   The camera 38 is a device that captures still images or moving images and inputs them as image data and moving image data. The microphone 39 is an input device that converts ambient sound into an electrical signal.

(情報変換部、情報出力部)
情報変換部4は、情報入力部3により入力された情報を、動作判定装置Mの処理に適した形式に変換する処理部である。情報の変換は、加速度センサ31、地磁気センサ32、脈拍センサ34、温度センサ35、気圧センサ36、ジャイロセンサ37からの信号の、加速度、振動、方向、脈拍、体温、角速度等のそれぞれの検出情報に応じたパラメータへの変換を含む。また、情報の変換は、タッチセンサ33から入力された信号のパルス信号への変換を含む。
(Information conversion unit, information output unit)
The information conversion unit 4 is a processing unit that converts the information input by the information input unit 3 into a format suitable for processing by the motion determination apparatus M. Information conversion includes detection information of acceleration, vibration, direction, pulse, body temperature, angular velocity, etc. of signals from the acceleration sensor 31, the geomagnetic sensor 32, the pulse sensor 34, the temperature sensor 35, the atmospheric pressure sensor 36, and the gyro sensor 37. Including conversion to parameters according to. The information conversion includes conversion of a signal input from the touch sensor 33 into a pulse signal.

また、情報の変換は、カメラ38により撮像された画像データ、動画データに基いて、所持者の姿勢、瞼の開閉度合い、表情等を示すパラメータへ変換する処理を含む。さらに、情報の変換は、マイク39により入力された信号を、音の大きさを示すパラメータへ変換する処理を含む。   The information conversion includes a process of converting the information into parameters indicating the posture of the holder, the degree of opening / closing of the heel, the facial expression, and the like based on the image data and moving image data captured by the camera 38. Further, the information conversion includes a process of converting the signal input from the microphone 39 into a parameter indicating the volume of sound.

なお、情報変換部4は、情報入力部3から入力された情報を、全て変換する必要はない。例えば、情報入力部3から入力された情報をそのまま情報出力部5に出力し、これを通信部1が動作判定装置Mに送信してもよい。この場合、動作判定装置Mが、上記のような情報の変換を行う情報変換部を有する。   The information conversion unit 4 does not need to convert all the information input from the information input unit 3. For example, the information input from the information input unit 3 may be output to the information output unit 5 as it is, and the communication unit 1 may transmit this to the operation determination device M. In this case, the motion determination apparatus M includes an information conversion unit that converts information as described above.

情報出力部5は、情報入力部3からの情報を、各ウェアラブルデバイスDの識別情報及び位置情報とともに出力し、通信部1に送信させる処理部である。この情報出力部5が出力する識別により、これを受信した動作判定装置Mを使用する管理者が、各ウェアラブルデバイスDの所持者の動作、位置、その他の状況を把握できる。   The information output unit 5 is a processing unit that outputs information from the information input unit 3 together with identification information and position information of each wearable device D, and causes the communication unit 1 to transmit the information. Based on the identification output by the information output unit 5, an administrator who uses the operation determination device M that has received the information can grasp the operation, position, and other conditions of the owner of each wearable device D.

(通知情報出力部)
通知情報出力部6は、動作判定装置Mから受信した通知情報を、ユーザが判定可能な態様で出力する処理部である。通知情報出力部6は、振動部61、表示部62を有する。振動部61は、所持者との接触を介して、通知情報を所持者に伝達する手段である。振動部61は、例えば、モータを駆動源として、振動を発生させるバイブレータを用いることができる。振動部61は、通知情報に応じて、連続した振動に限らず、パルス信号に応じた間欠した振動を出力することができる。
(Notification information output part)
The notification information output unit 6 is a processing unit that outputs the notification information received from the operation determination device M in a manner that can be determined by the user. The notification information output unit 6 includes a vibration unit 61 and a display unit 62. The vibration unit 61 is means for transmitting notification information to the owner through contact with the owner. As the vibration unit 61, for example, a vibrator that generates vibration using a motor as a drive source can be used. The vibration unit 61 can output not only continuous vibration but also intermittent vibration according to the pulse signal according to the notification information.

表示部62は、例えば、静止画、動画、テキストのように、ユーザが視覚的に判定する画像を表示するディスプレイである。表示部62は、上記のタッチセンサ33による入力のための画面インタフェースを表示することができる。   The display unit 62 is a display that displays an image visually determined by the user, such as a still image, a moving image, and text. The display unit 62 can display a screen interface for input by the touch sensor 33.

なお、ウェアラブルデバイスDは、図示はしないが、上記の各部の処理に必要な情報を記憶する記憶部を有する。記憶部が記憶する情報としては、上記の各部において入力、処理、出力される情報等を含む。   The wearable device D includes a storage unit that stores information necessary for the processing of each unit, although not shown. Information stored in the storage unit includes information input, processed, and output in each of the above-described units.

[動作判定装置]
動作判定装置Mは、上記のように、各ウェアラブルデバイスDからの情報に基づいて、各ウェアラブルデバイスDの装着者の動作を判定する装置である。動作判定装置Mは、図4に示すように、通信部71、入力部72、加速度値生成部73、画像生成部74、ラベル付与部75、判定部76、通知情報生成部77、表示部78を有する。
[Operation determination device]
The operation determination device M is a device that determines the operation of the wearer of each wearable device D based on information from each wearable device D as described above. As illustrated in FIG. 4, the motion determination device M includes a communication unit 71, an input unit 72, an acceleration value generation unit 73, an image generation unit 74, a label addition unit 75, a determination unit 76, a notification information generation unit 77, and a display unit 78. Have

[通信部]
通信部71は、ネットワークNを介して、各ウェアラブルデバイスDとの間で情報を送受信する処理部である。この通信部71は、ウェアラブルデバイスDからの情報及び位置情報を受信する受信部、ウェアラブルデバイスDへ通知する情報を送信する送信部として機能する。
[Communication Department]
The communication unit 71 is a processing unit that transmits / receives information to / from each wearable device D via the network N. The communication unit 71 functions as a reception unit that receives information and position information from the wearable device D and a transmission unit that transmits information notified to the wearable device D.

[入力部]
入力部72は、動作判定装置Mに必要な各種の情報を入力する処理部である。入力部72としては、タッチパネル、キーボード、マウス等を含む。タッチパネルは、後述する表示部78に構成されたものも含む。
[Input section]
The input unit 72 is a processing unit that inputs various types of information necessary for the motion determination apparatus M. The input unit 72 includes a touch panel, a keyboard, a mouse, and the like. The touch panel includes one configured in a display unit 78 described later.

[加速度値生成部]
加速度値生成部73は、各ウェアラブルデバイスDの加速度センサ31からの加速度信号に基づいて、X、Y、Z軸方向の加速度値を生成する処理部である。加速度信号は、各ウェアラブルデバイスDから、通信部71を介して継続的に受信される。この加速度信号は、図5に示すように、X軸方向、Y軸方向、Z軸方向に短時間に頻繁に変化する波形となる。加速度値生成部73は、サンプリング部731、量子化部732を有する。サンプリング部731は、加速度信号を所定のレートでサンプリングすることによりサンプリング値を求める処理部である。
[Acceleration value generator]
The acceleration value generation unit 73 is a processing unit that generates acceleration values in the X, Y, and Z axis directions based on the acceleration signal from the acceleration sensor 31 of each wearable device D. The acceleration signal is continuously received from each wearable device D via the communication unit 71. As shown in FIG. 5, the acceleration signal has a waveform that frequently changes in a short time in the X-axis direction, the Y-axis direction, and the Z-axis direction. The acceleration value generation unit 73 includes a sampling unit 731 and a quantization unit 732. The sampling unit 731 is a processing unit that obtains a sampling value by sampling the acceleration signal at a predetermined rate.

量子化部732は、サンプリング部731が求めたサンプリング値に基づいて、単位時間当たりのX、Y、Z軸方向のそれぞれの加速度値を生成する処理部である。例えば、2Hzでサンプリング値を平均化することにより、単位時間当たりの計測値を求める。つまり、0.5秒間で得られたサンプリング値を加算して回数で割る。これにより毎秒2回の計測値が得られる。計測値は、例えば、図6に示すように、−12〜12[m/s]の範囲とする。量子化部732は、計測値−12〜12を32ステップ(0〜31)の加速度値に変換する。つまり、計測値をaとすると、加速度値は、(a+12)/0.75の整数値から、1を引いた値とする。0.75は、(12+12)/32である。計測値a=0の場合には、中央の値である15になる。X、Y、Z軸方向の計測値が(0,9.8,0)の場合、加速度値は(15,28,15)となる。 The quantization unit 732 is a processing unit that generates acceleration values in the X, Y, and Z axis directions per unit time based on the sampling values obtained by the sampling unit 731. For example, the measurement value per unit time is obtained by averaging the sampling values at 2 Hz. That is, the sampling values obtained in 0.5 seconds are added and divided by the number of times. Thereby, a measurement value twice per second is obtained. For example, as shown in FIG. 6, the measured value is in a range of −12 to 12 [m / s 2 ]. The quantization unit 732 converts the measured values −12 to 12 into acceleration values of 32 steps (0 to 31). That is, when the measured value is a, the acceleration value is a value obtained by subtracting 1 from the integer value of (a + 12) /0.75. 0.75 is (12 + 12) / 32. When the measurement value a = 0, the center value is 15. When the measured values in the X, Y, and Z axis directions are (0, 9.8, 0), the acceleration value is (15, 28, 15).

[画像生成部]
画像生成部74は、動作判定用の画像を生成する処理部である。この画像生成部74は、動作判定用画像生成装置、動作判定用画像生成プログラムとして捉えることもできる。画像生成部74は、出現頻度生成部741、RGBデータ生成部742、時間間隔設定部743を有する。
[Image generator]
The image generation unit 74 is a processing unit that generates an image for motion determination. The image generation unit 74 can also be regarded as an operation determination image generation apparatus and an operation determination image generation program. The image generation unit 74 includes an appearance frequency generation unit 741, an RGB data generation unit 742, and a time interval setting unit 743.

(出現頻度生成部)
出現頻度生成部741は、加速度値に基づいて、所定時間間隔におけるXY成分、YZ成分、ZX成分の出現頻度を生成する処理部である。出現頻度は、各成分が座標に出現した回数である。出現頻度生成部741は、カウント部741a、マップ生成部741bを有する。カウント部741aは、各成分が座標に出現した回数をカウントする処理部である。カウント部741aは、例えば、加速度値(15,28,15)の場合、XY成分は座標(15,28)に1回、YZ成分は座標(28,15)に1回、ZY成分は座標(15,15)に1回、それぞれ出現したとカウントする。
(Appearance frequency generator)
The appearance frequency generation unit 741 is a processing unit that generates the appearance frequencies of the XY component, the YZ component, and the ZX component at a predetermined time interval based on the acceleration value. The appearance frequency is the number of times each component has appeared in the coordinates. The appearance frequency generation unit 741 includes a count unit 741a and a map generation unit 741b. The counting unit 741a is a processing unit that counts the number of times each component has appeared in coordinates. For example, in the case of the acceleration value (15, 28, 15), the count unit 741a has the XY component once at the coordinates (15, 28), the YZ component once at the coordinates (28, 15), and the ZY component at the coordinates ( 15 and 15) are counted once each.

マップ生成部741bは、カウント部741aによりカウントされた出現頻度を、所定の座標上にマッピングする処理部である。例えば、所定時間間隔を10秒間とすると、10秒間に20回、出現頻度がカウントされ、図7に示すような32×32の座標上に、XY成分、YZ成分、ZX成分毎に出現回数が記録されたマップを作成する。つまり、Xを横軸、Yを縦軸とする32×32の座標のマップ、Yを横軸、Zを縦軸とする32×32の座標のマップ、Zを横軸、Xを縦軸とする32×32の座標のマップの各座標毎に、出現回数を記録する。   The map generation unit 741b is a processing unit that maps the appearance frequency counted by the counting unit 741a onto predetermined coordinates. For example, if the predetermined time interval is 10 seconds, the appearance frequency is counted 20 times in 10 seconds, and the number of appearances for each of the XY component, YZ component, and ZX component on the 32 × 32 coordinates as shown in FIG. Create a recorded map. That is, a map of 32 × 32 coordinates with X as the horizontal axis and Y as the vertical axis, a map of 32 × 32 coordinates with Y as the horizontal axis and Z as the vertical axis, Z as the horizontal axis, and X as the vertical axis The number of appearances is recorded for each coordinate of the 32 × 32 coordinate map.

(RGBデータ生成部)
RGBデータ生成部742は、出現頻度生成部741により記録されたXY成分、YZ成分、ZX成分の出現頻度を、RGBの色信号のうちの3色の値としたRGBデータを生成する処理部である。RGBデータ生成部742は、まず、XY成分のマップ、YZ成分のマップ、ZY成分のマップの各座標における出現頻度を、R、G、Bの各色の輝度を示す0〜255の値に正規化する。これにより、図8に示すように、1つの画素(ピクセル)についてのR、G、Bの値が決まった3つのRGBの画像データが生成される。さらに、RGBデータ生成部742は、3つの画像データを1枚にまとめたRGBの画像データを生成する。
(RGB data generator)
The RGB data generation unit 742 is a processing unit that generates RGB data in which the appearance frequencies of the XY component, the YZ component, and the ZX component recorded by the appearance frequency generation unit 741 are values of three colors of the RGB color signals. is there. The RGB data generation unit 742 first normalizes the appearance frequency at each coordinate of the XY component map, the YZ component map, and the ZY component map to a value of 0 to 255 indicating the luminance of each color of R, G, and B. To do. As a result, as shown in FIG. 8, three RGB image data in which R, G, and B values for one pixel (pixel) are determined are generated. Further, the RGB data generation unit 742 generates RGB image data in which three pieces of image data are combined into one sheet.

(時間間隔設定部)
時間間隔設定部743は、所定の時間間隔を設定する処理部である。所定の時間間隔は、1枚のRGBデータを生成するために、出現頻度生成部741により出現頻度が生成される時間間隔である。この時間間隔の設定により、加速度信号の内容が異なってくるので、生成されるRGBデータが示す意味が異なってくる。時間間隔の設定には、以下のような態様が含まれる。
(Time interval setting part)
The time interval setting unit 743 is a processing unit that sets a predetermined time interval. The predetermined time interval is a time interval at which the appearance frequency is generated by the appearance frequency generation unit 741 in order to generate one piece of RGB data. Since the contents of the acceleration signal differ depending on the setting of this time interval, the meaning indicated by the generated RGB data differs. The setting of the time interval includes the following modes.

(1)基本的な時間間隔の設定
ウェアラブルデバイスD、動作判定装置Mの外部又は内部から得られる情報に基づいて、時間間隔を設定することができる。これは、比較的大まかな時間間隔の設定、概略的な時間間隔の設定となる。例えば、あらかじめ動作判定を行う時間帯を設定しておき、ウェアラブルデバイスDの時計又は動作判定装置Mの時計から得られる時間があらかじめ設定された時間帯の開始時点を、時間間隔の開始時点、あらかじめ設定された時間帯の終了時点を、時間間隔の終了時点としてもよい。
(1) Setting of basic time interval The time interval can be set based on information obtained from the outside or the inside of the wearable device D and the operation determination device M. This is a relatively rough time interval setting and a rough time interval setting. For example, a time zone for performing the operation determination is set in advance, and the start time of the time zone in which the time obtained from the watch of the wearable device D or the clock of the operation determination device M is set in advance is set as the start time of the time interval in advance. The end point of the set time zone may be set as the end point of the time interval.

工場などで、作業台毎に、異なる作業を行う場合には、ウェアラブルデバイスDの現在位置判定部22が判定したウェアラブルデバイスDの装着者の位置に基づいて、位置の変化があった時点を時間間隔の区切りの時点、つまり開始時点又は終了時点としてもよい。また、複数のエリアのアクセスポイントPからのビーコンを受信した場合の電波強度等から、ウェアラブルデバイスDを装着している所持者の姿勢を判定できる場合には、姿勢の変化があった時点を時間間隔の区切りとしてもよい。   When a different work is performed for each work table in a factory or the like, the time when the position has changed is determined based on the position of the wearer D wearer determined by the current position determination unit 22 of the wearable device D. It may be the time of the interval separation, that is, the start time or the end time. In addition, when the posture of the wearer wearing the wearable device D can be determined from the radio wave intensity when receiving the beacons from the access points P in a plurality of areas, the time when the posture has changed It is good also as an interval delimiter.

加速度センサ31からの加速度信号が、あらかじめ設定したしきい値を超えた又はしきい値以下の場合を、時間間隔の区切りとしてもよい。また、加速度センサ31からの加速度信号に基づいて情報変換部4が演算した歩数を受信できる場合に、装着者が徒歩で移動していて、所定時間内の歩数の変化がしきい値を超えた又はしきい値以下の場合を時間間隔の区切りとしてもよい。また、高低差の大きな場所を移動する場合には、気圧センサ36からの気圧信号が、あらかじめ設定したしきい値を超えた又はしきい値以下の場合を、時間間隔の区切りとしてもよい。   A case where the acceleration signal from the acceleration sensor 31 exceeds a preset threshold value or is equal to or less than the threshold value may be used as a time interval. In addition, when the number of steps calculated by the information conversion unit 4 based on the acceleration signal from the acceleration sensor 31 can be received, the wearer is moving on foot, and the change in the number of steps within a predetermined time exceeds the threshold value. Alternatively, the time interval or less may be set as a time interval or less. Further, when moving in a place with a large difference in elevation, the time interval may be set when the atmospheric pressure signal from the atmospheric pressure sensor 36 exceeds a preset threshold value or is equal to or less than the threshold value.

睡眠中の動作を対象とする場合には、時間帯、加速度センサ31により推測された姿勢、脈拍センサ34からの心拍数等の睡眠時の装着者の状態を示す情報をあらかじめ設定しておき、その情報に適合するか否かを時間間隔の区切りとしてもよい。例えば、睡眠の他、移動、デスクワーク、食事などの生活に関する時間間隔の区切りも、この手法で設定できる。   When the operation during sleep is targeted, information indicating the wearer's state during sleep, such as the time zone, the posture estimated by the acceleration sensor 31, and the heart rate from the pulse sensor 34, is set in advance. Whether or not this information is applicable may be used as a time interval. For example, in addition to sleep, time intervals for life such as movement, desk work, and meals can be set by this method.

ウェアラブルデバイスDに外部から情報が入力されたタイミングを、時間間隔の区切りとしてもよい。例えば、図9及び図10に示すように、箱から商品を取り出す「品出し」、商品に付された2つのバーコードを読み取って一致するかどうかを検査する「検品」、商品を箱に収容する「梱包」を行うバーコード検品の場合、バーコードリーダRによる読み取り前を品出し作業、バーコードリーダRによる読み取りデータが、1回目にウェアラブルデバイスDに入力されたタイミングを検品作業の開始、2回目にウェアラブルデバイスDに入力されたタイミングを検品作業の終了、その後を梱包作業とすることができる。   The timing at which information is externally input to the wearable device D may be used as a time interval delimiter. For example, as shown in FIG. 9 and FIG. 10, “goods out” for picking up products from the box, “inspection” for checking whether two barcodes attached to the products match, and storing the products in the box In the case of barcode inspection for performing “packing”, the product is extracted before reading by the barcode reader R, and the inspection operation is started when the reading data by the barcode reader R is first input to the wearable device D. The timing input to the wearable device D for the second time can be the end of the inspection work, and the subsequent can be the packing work.

時間間隔の区切りとなる情報の入力は、特定の態様には限定されない。例えば、タッチセンサ33からの情報の入力のタイミングを、時間間隔の区切りとしてもよいし、ネットワークを介したサーバ、クラウド等からの情報の入力のタイミングを、時間間隔の区切りとしてもよい。   The input of information serving as a time interval delimiter is not limited to a specific mode. For example, the input timing of information from the touch sensor 33 may be set as a time interval, or the input timing of information from a server, a cloud, or the like via a network may be set as a time interval.

なお、このような時間間隔の設定に、RGBデータを用いることもできる。上記のようなRGBデータのうち、特定の動作を示すRGBデータを、量子化を粗く、つまり解像度を低くしたRGBデータをあらかじめ設定しておく。そして、受信した加速度信号に基づいて生成されたRGBデータを同様の低解像度のRGBデータとする。あらかじめ設定されたRGBデータと生成されたRGBデータとを比較して、つまりR、G、Bデータの差分をとり、その差分があらかじめ設定されたしきい値以下の場合に、あらかじめ設定されたRGBデータに対応する動作があったと判定できる。しきい値よりも大きい場合に、あらかじめ設定されたRGBデータに対応する動作ではないと判定できる。   Note that RGB data can also be used for setting such time intervals. Among the RGB data as described above, RGB data indicating a specific operation is set in advance as RGB data with coarse quantization, that is, with low resolution. Then, the RGB data generated based on the received acceleration signal is set to the same low resolution RGB data. The preset RGB data is compared with the generated RGB data, that is, the difference between the R, G, and B data is taken, and if the difference is less than or equal to the preset threshold value, the preset RGB data It can be determined that there was an action corresponding to the data. If it is larger than the threshold value, it can be determined that the operation does not correspond to preset RGB data.

このため、あらかじめ設定されたRGBデータに対応する動作があったと判定できた時点、あらかじめ設定されたRGBデータに対応する動作ではないと判定できた時点を時間間隔の区切りとすることができる。この場合、低解像度であり、単純に差分をとる比較であるため、必ずしも正確な動作判定ではないが、大まかな時間間隔の設定には使用することができる。   For this reason, a point in time when it can be determined that there is an operation corresponding to preset RGB data and a point in time when it is determined that the operation does not correspond to preset RGB data can be used as a time interval delimiter. In this case, since the comparison is a low resolution and a simple difference is taken, it is not always an accurate operation determination, but it can be used for setting a rough time interval.

なお、上記のような時間間隔の設定は、全体の動作の一部に含まれる特定の動作を判定するために、動作の全体時間の一部の時間とすることもできる。例えば、バーコードリーダによる読み取りのタイミングによって、バーコード検品の動作の一部である検品のみについてRGBデータを生成する時間間隔の設定であってもよい。   It should be noted that the setting of the time interval as described above may be a part of the entire time of the operation in order to determine a specific operation included in a part of the entire operation. For example, the time interval for generating RGB data for only the inspection that is a part of the barcode inspection operation may be set according to the reading timing of the barcode reader.

(2)階層的な時間間隔の設定
上記のように、基本的な時間間隔の設定を細分化した時間間隔、又は一定の比較的長い時間間隔を短く細分化した一定の時間間隔を設定してもよい。この場合、定期的な繰り返し作業や、同様の作業が複数回行われるような動作の場合には、時間間隔を比較的長く設定することで、動作の特徴を抽出し易くなる。但し、時間間隔を長く設定する場合、特徴を包含するための適切な開始、終了のタイミングの調整が難しい。一方、細かい作業に分割できる動作や、詳細を分析する必要のある動作の場合、時間間隔を比較的短く設定するとよい。但し、時間間隔を短く設定すると、RGBデータの特徴が安定しない、特徴が包含されないといった可能性があるので、判定の精度が落ちるおそれがある。
(2) Hierarchical time interval setting As described above, a basic time interval setting is subdivided, or a certain relatively long time interval is subdivided into short time intervals. Also good. In this case, in the case of an operation in which a periodic repetitive operation or a similar operation is performed a plurality of times, it is easy to extract the characteristics of the operation by setting the time interval relatively long. However, when the time interval is set to be long, it is difficult to appropriately adjust the start and end timings to include the feature. On the other hand, in the case of an operation that can be divided into fine work or an operation that requires detailed analysis, the time interval may be set to be relatively short. However, if the time interval is set short, there is a possibility that the characteristics of the RGB data are not stable and the characteristics are not included.

このような相反する要請を満たすため、図11に示すように、長さの異なる時間間隔を階層的に設定することが好ましい。共通のサンプリング値に基づいて、異なる時間間隔で加速度値、出現頻度を求めて、それぞれの時間間隔につき1枚ずつのRGBデータを生成することができる。   In order to satisfy such conflicting demands, it is preferable to set hierarchical time intervals having different lengths as shown in FIG. Based on a common sampling value, acceleration values and appearance frequencies can be obtained at different time intervals, and one piece of RGB data can be generated for each time interval.

最適な時間間隔は、動作の特徴、判定の目的、必要な判定の精度等によって異なる。例えば、ある動作がA、B、C、D、Eという動きのセットの組み合わせに分解できる場合、時間間隔T4でA〜Eのそれぞれにおいて、RGBデータが得られることが好ましい。このような時間間隔は、動作の種類で決まるとは限らず、個人差も生じる。   The optimal time interval varies depending on the characteristics of the operation, the purpose of the determination, the required determination accuracy, and the like. For example, when an operation can be decomposed into a combination of motion sets of A, B, C, D, and E, RGB data is preferably obtained in each of A to E at time interval T4. Such a time interval is not always determined by the type of operation, and individual differences also occur.

最適な時間間隔を求める方法としては、例えば、図11に示すように、比較的長い時間間隔T1を、T2→T3→T4という順序で分割しながら、それぞれの時間間隔T1〜T4で生成したRGBデータに対して、後述する抽出処理、判定処理を行い、精度がしきい値を下回らない時間間隔を選択する。図11は、30分の時間間隔T1の設定に対して、300秒の時間間隔T2、60秒の時間間隔T3、10秒の時間間隔T4のように、階層化した例である。なお、図中、?は、精度がしきい値を超えないRGBデータに対応する時間間隔であることを示す。   As a method for obtaining the optimum time interval, for example, as shown in FIG. 11, RGB generated at respective time intervals T1 to T4 while dividing a relatively long time interval T1 in the order of T2 → T3 → T4. An extraction process and a determination process described later are performed on the data, and a time interval at which the accuracy does not fall below the threshold value is selected. FIG. 11 shows an example in which a time interval T1 of 30 minutes is set hierarchically as a time interval T2 of 300 seconds, a time interval T3 of 60 seconds, and a time interval T4 of 10 seconds. In the figure? Indicates a time interval corresponding to RGB data whose accuracy does not exceed the threshold value.

各時間間隔で得られたRGBデータを用いた判定を試行して、どの時間間隔が判定に適しているのかを調べることによって、判定に適した時間間隔を得ることができる。例えば、T1と比較して、T2、T3、T4はRGBデータ数が多くなることから、精度が高くなる可能性がある。但し、図12に示すように、各階層の時間間隔は、固定的なものではなく、精度が向上しない場合等に変更することにより調整する。例えば、時間間隔T4で得られたRGBデータを用いた判定で、しきい値を下回らない精度でA〜Eの判定ができるように、これに合わせて時間間隔T1の開始と終了を調整する。   A time interval suitable for determination can be obtained by trying determination using RGB data obtained at each time interval and examining which time interval is suitable for determination. For example, compared to T1, T2, T3, and T4 have a larger number of RGB data, and thus there is a possibility that the accuracy is increased. However, as shown in FIG. 12, the time interval of each layer is not fixed, and is adjusted by changing it when accuracy is not improved. For example, the start and end of the time interval T1 are adjusted in accordance with the determination using the RGB data obtained at the time interval T4 so that the determination of A to E can be made with an accuracy not lower than the threshold value.

動作の細分化、つまりある上位概念の動作に、複数の下位概念の動作が含まれる場合に動作を分解する例を挙げると、以下のようなものがある。これらの動作は、調子や集中度合、熟練度などによって更に分類することもできる。
・検品作業(商品出し、検品、梱包)
・ホテルの部屋の清掃(掃除機掛け、拭き掃除、シーツ交換)
・テニス(サーブ、レシーブ、移動、打ち返し)
・マラソン(スタート、チェックポイント、中盤、終盤)
An example of disassembling the operation when the operation is subdivided, that is, when the operation of a certain superordinate concept includes a plurality of subordinate concept operations, is as follows. These operations can be further classified according to tone, concentration level, skill level, and the like.
・ Inspection work (product delivery, inspection, packing)
・ Cleaning of hotel rooms (vacuum cleaner, wiping, changing sheets)
・ Tennis (serve, receive, move, strike back)
・ Marathon (Start, Checkpoint, Mid, End)

ただし、これらの動作の切り替えは、A=商品出し、B=検品、C=梱包のように、時間間隔と一致するとは限らない。各動作を分解できる、つまり各動作毎の時間より短い時間間隔の組み合わせに、各動作が対応する関係になることもある。例えば、商品出し→A+B+α、検品→C−β、梱包→D+E−γという関係になることもある。ここで、α、β、γはそれぞれ異なる時間長であるとする。また、図11において、動作を特定できない時間間隔が生じていたように、目的とする動作以外の動きや、目的とする2つの動作の境界が、一つのRGBデータに含まれてしまうことによって、動作の判定が難しくなる場合がある。   However, the switching of these operations does not always coincide with the time interval, such as A = product output, B = inspection, and C = packaging. Each operation may be decomposed, that is, each operation may have a relationship corresponding to a combination of time intervals shorter than the time for each operation. For example, there may be a relationship of product output → A + B + α, inspection → C−β, and packing → D + E−γ. Here, α, β, and γ are different time lengths. In addition, in FIG. 11, as a time interval in which an operation cannot be specified has occurred, movement other than the target operation or a boundary between two target operations is included in one RGB data. It may be difficult to determine movement.

精度がしきい値を超えないRGBデータが多く出現する場合には、上記の基本的な時間間隔の設定と同様に、RGBデータの解像度を下げて、生成されたRGBデータ同士の差分値を算出し、差分を距離としてクラスタリングを行うことにより、動作判定に使用するRGBデータと、動作判定に使用しないRGBデータとに分ける。つまり、図13に示すように、複数のピクセルをまとめてR、G、Bの値のそれぞれの平均値を求める。そして、そのまとまりのすべてのピクセルのR、G、Bの値を、求めた平均値とする。これにより、当初のRGBデータよりも粗い解像度のRGBデータを生成する。そして、生成されたRGBデータの差分値を算出し、差分値がしきい値以下のRGBデータと、差分値がしきい値を超えるRGBデータとを分類して、差分値がしきい値以下のRGBデータを、特徴を判定しやすいデータとして、動作判定に用いるRGBデータとする。   When many RGB data whose accuracy does not exceed the threshold value appears, the resolution of the RGB data is lowered and the difference value between the generated RGB data is calculated in the same manner as the above basic time interval setting. Then, by performing clustering using the difference as a distance, the data is divided into RGB data used for motion determination and RGB data not used for motion determination. That is, as shown in FIG. 13, a plurality of pixels are grouped to obtain an average value of R, G, and B values. Then, the R, G, and B values of all the pixels in the group are set as the obtained average value. Thereby, RGB data having a coarser resolution than the original RGB data is generated. Then, the difference value of the generated RGB data is calculated, and the RGB data whose difference value is equal to or less than the threshold value and the RGB data whose difference value exceeds the threshold value are classified, and the difference value is equal to or less than the threshold value. The RGB data is RGB data used for operation determination as data whose characteristics can be easily determined.

[ラベル付与部]
ラベル付与部75は、ウェアラブルデバイスDの装着者の動作を表すラベルを、これに相当する時間間隔におけるRGBデータに付与する処理部である。ラベルは、動作を特定するための識別情報である。付与されるラベルは、図14に示すように、1、2、3、A、B、C等の、一見して人間が意味内容を把握できない情報である。表示部78に表示させたり、通知情報とするために、各ラベルに対応する動作の意味を人間が理解できるようにする場合には、各ラベルに動作の名称等を関連付けたテーブルを用意しておけばよい。この名称は、入力部72から入力することができる。
[Labeling section]
The label assigning unit 75 is a processing unit that assigns a label representing the wearer's operation of the wearable device D to RGB data at a time interval corresponding to the label. The label is identification information for specifying an operation. As shown in FIG. 14, the label to be given is information such as 1, 2, 3, A, B, and C that cannot be understood by a human at first glance. In order to allow the human to understand the meaning of the action corresponding to each label for display on the display unit 78 or as notification information, a table in which the name of the action is associated with each label is prepared. Just keep it. This name can be input from the input unit 72.

ラベルは、上記の複数の層の時間間隔に対応して、複数の段階で用意されるものとする。例えば、T1の層の時間間隔で生成されるRGBデータには、上位概念の動作を特定するための成果のラベルを付与する。T4の層の時間間隔で生成されるRGBデータには、成果のラベルとともに、上位概念の動作に含まれる下位概念の動作、つまり動作要素を特定するための動作要素のラベルを付与する。なお、ラベルは、固定的なものとする必要はなく、精度が向上しない場合、別のラベルに対応する動作に合致している場合等に、変更することにより調整できる。   The labels are prepared in a plurality of stages corresponding to the time intervals of the plurality of layers. For example, a label of a result for specifying the operation of the superordinate concept is assigned to the RGB data generated at the time interval of the T1 layer. The RGB data generated at the time interval of the T4 layer is given a label of the result, together with a label of the action element for specifying the action of the lower concept included in the action of the higher concept, that is, the action element. Note that the label does not need to be fixed, and can be adjusted by changing it when the accuracy does not improve, or when it matches the operation corresponding to another label.

[判定部]
判定部76は、共通のラベルが付与された複数のRGBデータに基づいて、前記RGBデータに対応する前記ウェアラブルデバイスの装着者の動作を判定する処理部である。動作の判定は、複数のRGBデータの共通の特徴に基づいて行う。この判定部76としては、例えば、畳み込みニューラルネットワークを用いたディープラーニングツールを用いることができる。加速度の変化の時間的連続性に関して、RGBデータは空間的な連続性として表すことになるため、畳み込み処理との相性がよい。
[Determining part]
The determination unit 76 is a processing unit that determines the wearer's operation of the wearable device corresponding to the RGB data based on a plurality of RGB data to which a common label is assigned. The determination of the operation is performed based on the common characteristics of the plurality of RGB data. As the determination unit 76, for example, a deep learning tool using a convolutional neural network can be used. Regarding the temporal continuity of the change in acceleration, the RGB data is expressed as spatial continuity, so that it is compatible with the convolution process.

判定部76は、抽出部761、識別部762を有する。抽出部761は、共通のラベルが付与されたRGBデータの共通の特徴を抽出する処理部である。特徴は、各RGBデータの部分画像を変換して得られる変換画像であり、以下、特徴量と呼ぶ。このような特徴量の抽出は、例えば、所定の大きさのフィルタによって、部分画像の各画素の濃淡を抽出して、変換画像の各画素値を決定していく畳み込みフィルタ、座標上の位置がずれていても同一とみなすプーリング等の処理を繰り返すことによって行うことができる。   The determination unit 76 includes an extraction unit 761 and an identification unit 762. The extraction unit 761 is a processing unit that extracts common features of RGB data to which a common label is assigned. The feature is a converted image obtained by converting a partial image of each RGB data, and is hereinafter referred to as a feature amount. Such feature amount extraction is, for example, a convolution filter that extracts the shade of each pixel of the partial image by a filter of a predetermined size and determines each pixel value of the converted image, and the position on the coordinates is Even if they are shifted, it can be performed by repeating a process such as pooling that is regarded as the same.

識別部762は、RGBデータを、ラベルに相当するRGBデータか否かを識別する処理部である。この識別は、例えば、複数のRGBデータから得られた特徴量をノード(ニューロン)として結合した全結合層から開始して、複数の全結合層を経て、最終の全結合層からラベルに相当するRGBデータである確率、ない確率を出力することによって行う。ラベルに相当するRGBデータである確率が精度であり、ある確率とない確率は、合計で100%となる。各全結合層の出力は、各全結合層に割り当てられた所定のパラメータと前の全結合層との出力との演算結果である。   The identification unit 762 is a processing unit that identifies whether or not the RGB data is RGB data corresponding to a label. This identification corresponds to, for example, a label from a final total connection layer, starting from a total connection layer in which feature values obtained from a plurality of RGB data are combined as nodes (neurons), through a plurality of total connection layers. This is done by outputting the probability of being RGB data and the probability of not being RGB data. The probability of the RGB data corresponding to the label is the accuracy, and the probability of having and not having it is 100% in total. The output of each fully connected layer is a calculation result of a predetermined parameter assigned to each fully connected layer and the output of the previous fully connected layer.

上記の処理過程で、ゼロ未満の出力値をゼロに置き換えることによって、抽出された特徴量をより強調させることや、処理量を低減させることができる。また、全結合層同士の接続を一部切断することにより、学習データのみに最適化されてしまう過学習を防ぐこともできる。   In the above process, by substituting an output value less than zero with zero, the extracted feature amount can be further emphasized, and the processing amount can be reduced. Further, by partially disconnecting all the coupling layers, it is possible to prevent over-learning that is optimized only for learning data.

[通知情報生成部]
通知情報生成部77は、動作判定装置Mから、ウェアラブルデバイスDに送信する通知情報を生成する処理部である。通知情報は、ウェアラブルデバイスDの装着者に通知する情報であり、判定の精度、ラベル、指示情報を含む。判定の精度、ラベルによって、ウェアラブルデバイスDの装着者は、自らの動作に対して正しい判定がなされているかどうかを判定することができる。指示情報は、ウェアラブルデバイスDの装着者に、目的の状態となるように、所望の行動を促す情報である。このような通知情報の生成及び送信は、入力部72からの入力により指示することができる。
[Notification information generator]
The notification information generation unit 77 is a processing unit that generates notification information to be transmitted from the motion determination device M to the wearable device D. The notification information is information notified to the wearer of wearable device D, and includes determination accuracy, label, and instruction information. A wearer of wearable device D can determine whether or not a correct determination is made with respect to his / her operation based on the determination accuracy and the label. The instruction information is information that prompts the wearer of the wearable device D to perform a desired action so as to be in a target state. Generation and transmission of such notification information can be instructed by input from the input unit 72.

[表示部]
表示部78は、動作判定装置Mに必要な各種の情報を表示する処理部である。表示部78は、例えば、通信部71が受信した加速度信号、加速度値生成部73が生成した加速度値、出現頻度生成部741が生成した出現頻度及びそのマップ、RGBデータ生成部742が生成したRGBデータ、時間間隔設定部743が設定した時間間隔、ラベル付与部75が付与するラベル、判定部76による判定結果及び判定精度等を表示する。また、表示部78は、入力部72による入力のための画面インタフェースを表示することができる。表示部78に表示された判定結果、判定精度等を参照した管理者は、入力部72を用いて、時間間隔、ラベルの変更を行うことによる調整ができる。
[Display section]
The display unit 78 is a processing unit that displays various types of information necessary for the operation determination apparatus M. The display unit 78 includes, for example, an acceleration signal received by the communication unit 71, an acceleration value generated by the acceleration value generation unit 73, an appearance frequency generated by the appearance frequency generation unit 741, and a map thereof, and RGB generated by the RGB data generation unit 742. The data, the time interval set by the time interval setting unit 743, the label provided by the label applying unit 75, the determination result by the determining unit 76, the determination accuracy, and the like are displayed. The display unit 78 can display a screen interface for input by the input unit 72. An administrator who refers to the determination result, determination accuracy, and the like displayed on the display unit 78 can make adjustments by changing the time interval and the label using the input unit 72.

なお、図示はしないが、動作判定装置Mも、上記の各部の処理に必要な情報を記憶する記憶部を有する。記憶部が記憶する情報としては、加速度信号、加速度データ、出現頻度、出現頻度マップ、RGBデータ、ラベル、ラベルと名称のテーブル、判定結果、判定精度等が含まれる。また、記憶部が記憶する情報は、あらかじめ設定される情報、しきい値等の各種の設定等を含む。   Although not shown, the operation determination apparatus M also includes a storage unit that stores information necessary for the processing of each unit described above. Information stored in the storage unit includes acceleration signal, acceleration data, appearance frequency, appearance frequency map, RGB data, label, label and name table, determination result, determination accuracy, and the like. The information stored in the storage unit includes information set in advance, various settings such as threshold values, and the like.

[処理手順]
以上のような本実施形態の処理の一例を、上記の図面に加えて、図15〜図17のフローチャートを参照して説明する。なお、以下のような手順による処理方法も、本発明の一態様である。
[Processing procedure]
An example of the processing of the present embodiment as described above will be described with reference to the flowcharts of FIGS. 15 to 17 in addition to the above drawings. Note that a processing method according to the following procedure is also an embodiment of the present invention.

(動作判定用画像の生成)
まず、動作判定用のRGB画像の生成処理の手順を、図15のフローチャートを参照して説明する。各ウェアラブルデバイスDからの加速度信号は、通信部71が受信し、加速度値生成部73に入力される(ステップ101)。加速度値生成部73のサンプリング部731は、入力された加速度信号をサンプリングしたサンプリング値を求め、量子化部732は、サンプリング値をX、Y、Z軸方向のそれぞれの加速度値に変換する(ステップ102)。
(Generation of motion judgment images)
First, the procedure for generating an RGB image for operation determination will be described with reference to the flowchart of FIG. The acceleration signal from each wearable device D is received by the communication unit 71 and input to the acceleration value generation unit 73 (step 101). The sampling unit 731 of the acceleration value generation unit 73 obtains a sampling value obtained by sampling the input acceleration signal, and the quantization unit 732 converts the sampling value into respective acceleration values in the X, Y, and Z axis directions (steps). 102).

出現頻度生成部741のカウント部741aは、所定時間間隔におけるXY成分、YZ成分、ZY成分の出現頻度をカウントし、マップ生成部741bが、XY成分、YZ成分、ZY成分の各座標上に出現回数が記録されたマップを作成する(ステップ103)。   The counting unit 741a of the appearance frequency generation unit 741 counts the appearance frequency of the XY component, the YZ component, and the ZY component at a predetermined time interval, and the map generation unit 741b appears on the coordinates of the XY component, the YZ component, and the ZY component. A map in which the number of times is recorded is created (step 103).

RGBデータ生成部742は、XY成分のマップ、YZ成分のマップ、ZY成分のマップの各座標における出現頻度を、R、G、Bの各色の輝度を示す値に正規化することにより、1つの画素についてのR、G、Bの値を決めた3つのRGBの画像データとし、さらに3つの画像データを1枚にまとめたRGBデータを生成する(ステップ104)。   The RGB data generation unit 742 normalizes the appearance frequency at each coordinate of the XY component map, the YZ component map, and the ZY component map to a value indicating the luminance of each color of R, G, and B, thereby Three RGB image data in which R, G, and B values for the pixels are determined are generated, and further, RGB data in which the three image data are combined into one sheet is generated (step 104).

(学習)
次に、以上のように生成されたRGBデータに基づいて、動作判定を学習する処理の手順を、図16のフローチャートを参照して説明する。RGBデータは、多数収集することにより記憶部に蓄積する。例えば、100〜10000枚程度収集する。このように収集したRGBデータに対して、ラベル付与部75が、時間間隔の階層毎に、ラベルを付与する(ステップ201)。ラベルの付与は、例えば、入力部72からの入力に応じて分類した上で行う。このようにラベルが付与されたRGBデータを、学習データと呼ぶ。
(Learning)
Next, a processing procedure for learning the operation determination based on the RGB data generated as described above will be described with reference to the flowchart of FIG. A large amount of RGB data is collected and stored in the storage unit. For example, about 100 to 10,000 sheets are collected. The label attaching unit 75 assigns a label to the collected RGB data for each time interval hierarchy (step 201). The labeling is performed after classification according to the input from the input unit 72, for example. The RGB data to which labels are assigned in this way is called learning data.

判定部76の抽出部761は、学習データに基づいて、共通のラベルが付与されたRGBデータの共通の特徴量を抽出し(ステップ202)、識別部762がラベルに相当するRGBデータか否かの識別結果を精度によって出力する(ステップ203)。この処理を、全ての学習データについて行う(ステップ204)。全ての学習データについて識別を行って(ステップ204のYES)、精度があらかじめ設定されたしきい値以下の場合には(ステップ204のNO)、調整が必要であるとして時間間隔等(図12参照)の調整を行う(ステップ206)。   Based on the learning data, the extraction unit 761 of the determination unit 76 extracts a common feature amount of RGB data to which a common label is assigned (step 202), and whether or not the identification unit 762 is RGB data corresponding to a label. The identification result is output with accuracy (step 203). This process is performed for all learning data (step 204). All learning data is identified (YES in step 204). If the accuracy is equal to or lower than a preset threshold value (NO in step 204), it is determined that adjustment is necessary, such as time intervals (see FIG. 12). ) Is adjusted (step 206).

この調整には、ラベルを付け変える、精度がしきい値以下のRGBデータを判定の対象から排除する等の作業も含まれる。調整は、あらかじめ設定された増分又は減分だけ時間間隔を変化させる、精度がしきい値以下のRGBデータを学習データから排除する等を、時間間隔設定部743及び判定部76が自律的に行ってもよいし、入力部72からの指示入力によって行ってもよい。ラベル付与部75による自律的なラベル付与は、動作要素のラベルについて行うことが考えられる。   This adjustment includes operations such as changing labels and excluding RGB data whose accuracy is equal to or less than a threshold value from the determination target. In the adjustment, the time interval setting unit 743 and the determination unit 76 autonomously change the time interval by a preset increment or decrement, exclude RGB data whose accuracy is equal to or less than the threshold from the learning data, and the like. Alternatively, it may be performed by inputting an instruction from the input unit 72. It is conceivable that the autonomous labeling by the labeling unit 75 is performed on the label of the motion element.

例えば、リアルタイム性を重視して、時間間隔の階層構造のうち、時間間隔が長い上位のRGBデータと、時間間隔が短い下位のRGBデータの精度を比較して、できるだけ下位のRGBデータを用いてもよい。また、時間間隔は精度が高いものだけを選択すべきとは限らない。分割しすぎて時間間隔が短いものは排除して、ある程度の長さを有する時間間隔を最小の時間間隔としてもよい。   For example, with emphasis on real-time characteristics, the upper RGB data with a long time interval in the hierarchical structure of time intervals is compared with the accuracy of the lower RGB data with a short time interval, and the lower RGB data is used as much as possible. Also good. Further, it is not always necessary to select a time interval with high accuracy. A time interval having a certain length may be set as a minimum time interval by excluding those that are too divided and have a short time interval.

このような調整後、学習データによる認識を行い(ステップ202、203、204)、精度がしきい値を超えた場合には(ステップ205のYES)、学習を終了する。   After such adjustment, recognition by learning data is performed (steps 202, 203, and 204). If the accuracy exceeds the threshold value (YES in step 205), the learning is terminated.

(動作判定)
以上のような学習後、ウェアラブルデバイスDからの加速度信号に基づいて、ラベルに相当する動作か否かを判定する判定処理を、図17のフローチャートを参照して説明する。まず、入力された加速度信号に基づいて、加速度値、出現頻度、RGBデータを生成する処理は、上記のステップ101〜104と同様である(ステップ301〜304)。そして、生成されたRGBデータがラベルに対応する動作か否かが、判定部75によって判定される(ステップ305)。この判定結果も、精度で出力される。このように新たに判定されたRGBデータについても、しきい値を超える精度である場合には、ラベルを追加して、学習データに含める。新たに追加されたRGBデータに基づく学習は、実際の判定処理とは別の時間に行うとよい。
(Operation judgment)
A determination process for determining whether or not the operation corresponds to the label based on the acceleration signal from the wearable device D after learning as described above will be described with reference to the flowchart of FIG. First, the process of generating the acceleration value, the appearance frequency, and the RGB data based on the input acceleration signal is the same as the above steps 101 to 104 (steps 301 to 304). Then, the determination unit 75 determines whether or not the generated RGB data is an operation corresponding to the label (step 305). This determination result is also output with accuracy. If the newly determined RGB data also has an accuracy exceeding the threshold value, a label is added and included in the learning data. The learning based on the newly added RGB data may be performed at a time different from the actual determination process.

なお、本来的な動作とは関係のない又は必要のない異常な動作が含まれている場合にも、ラベル付けして識別できるようにすることが好ましい。例えば、物を落として拾う、躓く、中断したなどの発生頻度の低い動きについては、ミスをチェックしたいので、その動作にラベルを付けて、異常検知に使うことができる。   It should be noted that even when an abnormal operation that is not related to or necessary for the original operation is included, it is preferable that it can be labeled and identified. For example, for a low-occurrence movement such as picking up an object, hitting it, or being interrupted, we want to check for mistakes, so we can label the action and use it for anomaly detection.

以上のことから、RGBデータは、図18に示すように分類できる。まず、正常時の動作を判定可能なRGBデータの中に、細かい動作要素の判定が可能なRGBデータが含まれ、動作要素の判定が可能なRGBデータの中に、目的に応じた動作の判定が可能なRGBデータが含まれる。つまり、正常時の動作を認識可能なRGBデータには、動作の判定の対象とならないRGBデータも含まれる。さらに、正常時の動作を判定可能なRGBデータ以外に、上記のように、異常時の動作を判定可能なRGBデータがある。   From the above, RGB data can be classified as shown in FIG. First, RGB data that can be used to determine normal operation includes RGB data that can be used to determine detailed operating elements, and RGB data that can be used to determine operating elements is used to determine the operation according to the purpose. RGB data that can be used is included. That is, the RGB data that can recognize the normal operation includes RGB data that is not subject to the operation determination. In addition to the RGB data that can determine the normal operation, there is RGB data that can determine the abnormal operation as described above.

以上のように、動作が判定された場合に、ウェアラブルデバイスDに対して、通知情報を出力してもよい。例えば、RGBデータから、作業者の動作が「疲労」であると判定された場合、又は疲労度を示すラベルが「疲労」とすべきラベルとなった場合に、通知情報生成部77が生成した指示情報を送信する。指示情報としては、複数種の時間パターンの休憩、食事、別の作業、配置変えを促す情報をあらかじめ設定しておく。これらの指示情報を送信した結果、作業者の動作を動作判定装置Mにより判定すると、指示情報によって目的の状態となったか否かを判定できる。例えば、疲労であると判定されなくなった、又は疲労度を示すラベルが「疲労」とすべきラベルでなくなった等により、作業者の状態が改善されたことがわかる。これを複数回行うことにより、作業者の状態の改善に有効な通知情報を判定できる。つまり、目的に対して効果のある通知情報を決定することができ、状態改善に役立てることができる。   As described above, notification information may be output to the wearable device D when the operation is determined. For example, when it is determined from the RGB data that the operator's movement is “fatigue”, or when the label indicating the fatigue level is a label that should be “fatigue”, the notification information generation unit 77 generates Send instruction information. As the instruction information, information that prompts breaks, meals, other work, and rearrangement of a plurality of types of time patterns is set in advance. As a result of transmitting these instruction information, when the operation of the operator is determined by the operation determination device M, it can be determined whether or not the target state has been reached by the instruction information. For example, it can be seen that the condition of the worker has been improved, for example, because it is no longer determined as fatigue or the label indicating the degree of fatigue is no longer a label that should be “fatigue”. By performing this multiple times, it is possible to determine notification information effective for improving the worker's state. That is, notification information that is effective for the purpose can be determined, which can be used for improving the state.

また、ウェアラブルデバイスDの装着者が、マラソンランナーである場合に、練習時に取ったRGBデータとこれに基づく動作判定の結果に基づいて、ペース配分のガイドや正しいフォームのガイドなどを、指示情報として送信する。これにより、より良い成果に繋がるコーチング環境を実現できる。これは、あらゆるスポーツや作業に有効となる。   In addition, when the wearable device D wearer is a marathon runner, based on the RGB data taken at the time of practice and the result of motion determination based on the data, pace distribution guides, correct form guides, etc. are used as instruction information. Send. Thereby, the coaching environment which leads to a better result is realizable. This is effective for all sports and work.

[作用効果]
(1)本実施形態の動作判定プログラムは、コンピュータに、ウェアラブルデバイスDからのX、Y、Zの3軸方向の加速度信号に基づいて、所定時間間隔における加速度信号のXY成分、YZ成分及びZX成分のうち、少なくとも2成分の出現頻度を生成する出現頻度生成処理と、出現頻度処理により生成された少なくとも2成分の出現頻度を、RGBの色信号のうちの少なくとも2色の値としたRGBデータを生成するRGBデータ生成処理と、所定時間間隔におけるRGBデータに、ウェアラブルデバイスDの装着者の動作を特定するためのラベルを付与するラベル付与処理と、共通のラベルが付された複数のRGBデータに基づいて、RGBデータに対応するウェアラブルデバイスDの装着者の動作を判定する判定処理と、を実行させる。
[Function and effect]
(1) The operation determination program according to the present embodiment causes the computer to transmit the XY component, the YZ component, and the ZX of the acceleration signal at predetermined time intervals based on the acceleration signals in the X, Y, and Z axes from the wearable device D. Appearance frequency generation processing for generating the appearance frequency of at least two components of the components, and RGB data in which the appearance frequency of at least two components generated by the appearance frequency processing is a value of at least two of the RGB color signals RGB data generation processing for generating a label, label addition processing for adding a label for identifying the wearer device wearer's operation to RGB data at a predetermined time interval, and a plurality of RGB data with a common label And a determination process for determining the wearer's operation of the wearable device D corresponding to the RGB data based on That.

また、本実施形態の動作判定装置は、ウェアラブルデバイスDからのX、Y、Zの3軸方向の加速度信号に基づいて、所定時間間隔における加速度信号のXY成分、YZ成分及びZX成分のうち、少なくとも2成分の出現頻度を生成する出現頻度生成部741と、出現頻度生成部741により生成された少なくとも2成分の出現頻度を、RGBの色信号のうちの少なくとも2色の値としたRGBデータを生成するRGBデータ生成部742と、ウェアラブルデバイスDの装着者の動作を表すラベルを、これに相当する時間におけるRGBデータに付与するラベル付与部75と、共通のラベルが付された複数のRGBデータの特徴に基づいて、RGBデータがラベルに相当する動作か否かを判定する判定部76と、を有する。   In addition, the motion determination apparatus according to the present embodiment is based on the acceleration signals in the three-axis directions of X, Y, and Z from the wearable device D, and among the XY component, YZ component, and ZX component of the acceleration signal at a predetermined time interval, Appearance frequency generation unit 741 that generates the appearance frequency of at least two components, and RGB data in which the appearance frequency of at least two components generated by the appearance frequency generation unit 741 is a value of at least two of the RGB color signals An RGB data generation unit 742 to generate, a label giving unit 75 for giving a label representing the wearer's operation of the wearable device D to RGB data at a time corresponding to this, and a plurality of RGB data with a common label And a determination unit 76 that determines whether or not the RGB data is an operation corresponding to a label based on the above feature.

また、本実施形態の動作判定用画像生成プログラムは、コンピュータに、上記の出現頻度生成処理、RGBデータ生成処理を実行させる。また、本実施形態の動作判定用画像生成装置は、上記の出現頻度生成部741、RGBデータ生成部742を有する。   In addition, the operation determination image generation program of the present embodiment causes a computer to execute the above-described appearance frequency generation processing and RGB data generation processing. In addition, the image generation device for operation determination according to the present embodiment includes the appearance frequency generation unit 741 and the RGB data generation unit 742 described above.

このように、本実施形態では、所定時間間隔の加速度成分の出現頻度を用いることで、時間軸方向の不安定さの影響を抑えることができる。波形解析の場合、波形や周波数成分の時間軸方向の変化の態様を維持した状態での照合となるので、作業の順番が変化したり、作業の速度や動きの大きさに個人差があると、同一動作の判定が非常に難しい。これは、波形を写像等した場合にも、時間軸方向の変化の態様が含まれることになるので同様である。しかし、本実施形態では、例えば、所定の時間間隔内において、同じ動作に含まれる作業を異なる順番で行っても、出現頻度は同様となる可能性が高いので、同一の動作として判定できる。また、例えば、作業の速度や動きの大きさに個人差があっても、出現頻度は同様の態様を示す可能性が高いので、同一の動作として判定できる。   Thus, in this embodiment, the influence of instability in the time axis direction can be suppressed by using the appearance frequency of the acceleration component at a predetermined time interval. In the case of waveform analysis, collation is performed in a state in which the waveform and frequency components change in the direction of the time axis, so if the order of work changes or there are individual differences in the speed and movement of work It is very difficult to determine the same operation. This is the same because a mode of change in the time axis direction is included even when the waveform is mapped. However, in the present embodiment, for example, even if the operations included in the same operation are performed in different orders within a predetermined time interval, the appearance frequencies are likely to be the same, and therefore can be determined as the same operation. In addition, for example, even if there are individual differences in work speed and movement magnitude, the appearance frequency is likely to show the same mode, so that it can be determined as the same action.

また、本実施形態では、出現頻度をRGBデータとすることで、画像データによる判定に適したデータを生成できる。但し、畳み込みニューラルネットワークによる認識のための画像データとしては、動作対象を撮像した画像データを用いて動作を認識する方法がある。しかし、撮像した画像データから動作を認識する場合には、動作の時間軸に沿って撮像した大量の画像データを用いる必要があるため、必要な画像データが膨大となり、処理負担が増大する。また、波形解析と同様にあるいはそれ以上に、作業の順番の変化、作業の速度や動きの大きさの個人差が生じるため、認識の精度が向上しないか、向上に必要な画像データが膨大となる。つまり、動作の認識のためには、加速度信号を用いるばかりでなく、画像データを用いることも問題があることが技術常識であったといえる。   In the present embodiment, data suitable for determination based on image data can be generated by using the appearance frequency as RGB data. However, as image data for recognition by a convolutional neural network, there is a method of recognizing an operation using image data obtained by imaging an operation target. However, when recognizing an operation from captured image data, since it is necessary to use a large amount of image data captured along the time axis of the operation, the necessary image data becomes enormous and the processing load increases. Also, as with waveform analysis or more, there are changes in the order of work, and individual differences in work speed and motion magnitude, so the recognition accuracy will not improve or the image data required for improvement will be enormous. Become. That is, it can be said that it has been common technical knowledge that there is a problem in using not only the acceleration signal but also the image data in order to recognize the motion.

これに対して、本発明の発明者は、鋭意検討した結果、上記の技術常識に反して、動作の判定のために加速度信号を用いるが、単なる加速度信号ではなく、そのXY成分、YZ成分、ZX成分の出現頻度に着目するに至った。そして、加速度信号を写像等するのではなく、出現頻度という単純な数値化した情報を各画素の値としたRGBデータを生成することにより、時間軸に沿ったデータ量の増大を抑えて、正確な判定が実現できることを見出した。つまり、従来、着目されていなかった出現頻度を用いることを想起した上に、さらに、それを敢えてRGBデータ化するという発想に至ったのである。   On the other hand, as a result of intensive studies, the inventor of the present invention uses an acceleration signal for the determination of the operation contrary to the above-mentioned technical common sense, but is not a simple acceleration signal, its XY component, YZ component, It came to pay attention to the appearance frequency of a ZX component. Then, instead of mapping the acceleration signal, etc., by generating RGB data using simple numerical information such as the appearance frequency as the value of each pixel, the increase in the amount of data along the time axis can be suppressed and accurate. We have found that accurate judgment can be realized. In other words, the idea of using an appearance frequency that has not been noticed in the past has been recalled, and further, the idea of intentionally converting it to RGB data has been reached.

このように生成されたRGBデータは、撮像した画像データ等と比較して、出現頻度がゼロであるためにゼロとなる領域が多くなるので、RGBデータは実質的な圧縮ファイルとなる。データサイズが軽減されるので、データ蓄積のための記憶容量が少なくて済み、転送速度も高速となる。また、学習の収束に要する計算量も抑えることができる。しかも、RGBデータは視覚化されるので、人間が見ても、ある程度のパターンが認識できる。このような利点は、仮に加速度値をそのまま画像化したり、加速度値を演算した数値をそのまま画像化しただけでは到底得られない。   Since the RGB data generated in this manner has an appearance frequency of zero because there are zero appearance frequencies compared to captured image data and the like, the RGB data becomes a substantial compressed file. Since the data size is reduced, the storage capacity for storing data can be reduced, and the transfer speed can be increased. In addition, the amount of calculation required for convergence of learning can be suppressed. In addition, since the RGB data is visualized, a certain amount of pattern can be recognized even when viewed by a human. Such an advantage cannot be obtained by simply imaging the acceleration value as it is or simply imaging the numerical value obtained by calculating the acceleration value.

(2)本実施形態の動作判定プログラムは、コンピュータに、加速度信号を所定のレートでサンプリングしたサンプリング値に基づいて、単位時間当たりのX、Y、Z軸方向の加速度値を生成する量子化処理と、加速度値に基づいて、少なくとも前記2成分の出現頻度を生成する出現頻度生成処理と、を実行させる。 (2) The motion determination program according to the present embodiment is a quantization process for generating acceleration values in the X, Y, and Z axis directions per unit time based on a sampling value obtained by sampling an acceleration signal at a predetermined rate. And an appearance frequency generation process for generating an appearance frequency of at least the two components based on the acceleration value.

また、本実施形態の動作判定装置は、加速度信号を所定のレートでサンプリングしたサンプリング値に基づいて、単位時間当たりのX、Y、Z軸成分の加速度値を生成する量子化部732と、加速度値に基づいて、前記2成分の出現頻度を生成する出現頻度生成部741と、を有する。   In addition, the motion determination apparatus of the present embodiment includes a quantization unit 732 that generates acceleration values of X, Y, and Z axis components per unit time based on a sampling value obtained by sampling an acceleration signal at a predetermined rate, and an acceleration. And an appearance frequency generation unit 741 that generates the appearance frequencies of the two components based on the values.

このため、加速度信号を量子化することにより平滑化されるため、微細な高周波成分がカットされ、動きの誤差や、ウェアラブルデバイスDの装着ずれなどの影響も抑えることができる。さらに、量子化されているため、データが単純化され、演算処理の際の計算量が抑えられる。   For this reason, since the acceleration signal is smoothed by quantization, a fine high-frequency component is cut, and an influence of a motion error, a wearing deviation of the wearable device D, and the like can be suppressed. Furthermore, since it is quantized, the data is simplified, and the amount of calculation at the time of arithmetic processing is suppressed.

(3)本実施形態の動作判定プログラムは、コンピュータに、所定時間間隔を設定する設定処理を実行させる。このため、動作の判定結果に応じて時間間隔を調整することにより、正確な判定が可能となる。 (3) The operation determination program of the present embodiment causes a computer to execute a setting process for setting a predetermined time interval. For this reason, it is possible to make an accurate determination by adjusting the time interval according to the operation determination result.

(4)本実施形態の動作判定プログラムは、外部の検出装置により検出された検出信号に基づいて、所定時間間隔を設定する。このため、例えば、バーコード検品のように、動作の区切りと時間間隔の区切りを一致させることが容易となり、正確な判定を実現できる。 (4) The operation determination program of this embodiment sets a predetermined time interval based on a detection signal detected by an external detection device. For this reason, for example, as in barcode inspection, it is easy to match the operation interval and the time interval interval, and an accurate determination can be realized.

(5)本実施形態の動作判定プログラムは、長さの異なる複数の所定時間間隔を、階層的に設定する。このため、多様な時間間隔で判定を試すことにより、正確な動作判定のために最適な時間間隔を設定することができる。 (5) The operation determination program of the present embodiment hierarchically sets a plurality of predetermined time intervals having different lengths. For this reason, by trying the determination at various time intervals, it is possible to set an optimal time interval for accurate operation determination.

[変形例]
本発明は上記の態様に限定されるものではない。
(1)出現頻度をRGBデータに変換する際に、時間間隔の区切りのタイミングの問題がある。例えば、組み立て作業の工程が、A、B、Cである場合に、Aの途中からBの途中、Bの最後の動作とCがというように、一方の動作の区切りのタイミングが他方の動作の区切りのタイミングと一致しない場合がある。この場合、時間間隔の区切りのタイミングが、各階層で一致しているとRGBデータを取得する時間間隔の階層を変えても、動作の区切りのタイミングと時間間隔の区切りのタイミングの相違が一定で変わらないため、精度が上がらない可能性がある。
[Modification]
The present invention is not limited to the above embodiment.
(1) When converting the appearance frequency into RGB data, there is a problem of the timing of the time interval separation. For example, when the assembly process is A, B, or C, the timing of the separation of one operation is the same as that of the other operation. It may not match the timing of the break. In this case, if the timing of the time interval is the same in each layer, the difference between the timing of the operation and the timing of the time interval is constant even if the time interval of acquiring the RGB data is changed. Since it does not change, there is a possibility that accuracy does not increase.

これに対処するために、図19に示すように、RGBデータに変換する時間間隔を、オーバーラップさせてもよい。つまり、階層的に設定された時間間隔は、上位層の時間間隔の区切りと下位層の時間間隔の区切りとが一致している必要はない。時間間隔の区切りをずらすことにより、上位層と下位層の時間間隔をオーバーラップさせることができる。時間間隔の変更による調整の場合と同様に、オーバーラップの加減、つまりずれの量を変更しながら、判定精度を確認し、適切なずれ量を見つける。   In order to cope with this, as shown in FIG. 19, the time intervals for conversion to RGB data may be overlapped. In other words, the time interval set hierarchically does not require that the upper layer time interval delimiter and the lower layer time interval delimiter match. By shifting the separation of the time intervals, the time intervals of the upper layer and the lower layer can be overlapped. As in the case of the adjustment by changing the time interval, the determination accuracy is checked while changing the overlap, that is, the amount of deviation, and an appropriate amount of deviation is found.

これにより、各層の区切りを共通のタイミングとした場合に比べて、時間間隔の区切りと動作の区切りとが一致するRGBデータが生じる可能性や、異なる動作の計測データが含まれないRGBデータが生じる可能性を高めることができる。   As a result, compared to the case where each layer break is set at a common timing, there is a possibility that RGB data in which the time interval break and the operation break coincide with each other, or there is RGB data that does not include measurement data of different operations. The possibility can be increased.

また、オーバーラップによって、多様なRGBデータを得ることができるので、精度の高いRGBデータを生じる可能性が高くなり、ディープラーニング等による判定の精度を高めることができる。また、時間間隔を短くする場合と同様に、状況の変化を早期に判定することができる。   Moreover, since various RGB data can be obtained by overlapping, there is a high possibility that highly accurate RGB data is generated, and the accuracy of determination by deep learning or the like can be increased. Further, as in the case of shortening the time interval, it is possible to determine the change in the situation at an early stage.

(2)学習する際のデータとしては、出現頻度は、XY成分、YZ成分、ZY成分の3成分が、それぞれR、G、Bのいずれかに割り当てられることによって、特徴が抽出できる可能性が高くなる。しかし、RGBデータへの変換に用いられる出現頻度は、XY成分、YZ成分、ZY成分のうち、少なくとも2成分であれば、動作の判定はできる。このため、XY成分、YZ成分のように2成分を、R、Gの2つの値として、他の1つであるBの値は、動作に関連する別の値としてもよい。つまり、RGBの色信号のうちの1色の値を、出現頻度とは異なる種類のパラメータ値としてもよい。例えば、加速度値のZとXの値の変化量としたり、ジャイロセンサ37からの角速度の値としてもよい。これにより、出現頻度とは異なる種類のパラメータ値が顕著な特徴を示す動作の場合に、判定精度が高まることになる。 (2) As data at the time of learning, the appearance frequency may be extracted by assigning three components of XY component, YZ component, and ZY component to any of R, G, and B, respectively. Get higher. However, if the appearance frequency used for conversion into RGB data is at least two of the XY component, YZ component, and ZY component, the operation can be determined. For this reason, two components such as the XY component and the YZ component may be two values of R and G, and the other value of B may be another value related to the operation. That is, the value of one color among the RGB color signals may be a parameter value of a type different from the appearance frequency. For example, the amount of change in the acceleration values Z and X may be used, or the angular velocity value from the gyro sensor 37 may be used. As a result, in the case of an operation in which a parameter value of a type different from the appearance frequency exhibits a remarkable feature, the determination accuracy is increased.

(3)装着者としては、動く物体であればよい。人間の他、動物、車等の移動体、ロボット等であってもよい。但し、本発明は、人間の複雑で多様な動きから動作を判定できるという利点がある。装着部による体への装着は、動作を特定できる加速度信号が得られる程度に装着できればよい。腕の他、手指、頭部、首、胸、腰、足等、体のどの位置に装着してもよい。このため、装着部も、バンド、ベルト、紐、メガネ、耳栓等の他、粘着テープ、両面粘着シート、面ファスナー等でもよい。衣類、帽子類、サポーター、アクセサリー、履物等を装着部としてもよい。本体ユニットが直接肌に触れなくてもよい。つまり、情報の伝達のための接触は、肌に対して直接的なものであっても、装着部の一部が介在する間接的なものであってもよい。 (3) The wearer may be a moving object. In addition to humans, moving bodies such as animals and cars, robots, and the like may be used. However, the present invention has an advantage that the operation can be determined from the complicated and diverse movements of human beings. The attachment to the body by the attachment part only needs to be performed to such an extent that an acceleration signal that can specify the movement is obtained. In addition to the arm, it may be worn at any position on the body such as fingers, head, neck, chest, waist, and feet. For this reason, the mounting portion may also be an adhesive tape, a double-sided adhesive sheet, a hook-and-loop fastener, etc., in addition to a band, belt, string, glasses, earplugs, and the like. Clothing, hats, supporters, accessories, footwear, and the like may be used as the mounting portion. The main unit may not touch the skin directly. That is, the contact for information transmission may be direct to the skin or indirect with a part of the wearing part interposed.

1 通信部
2 現在位置判定部
21 信号検出部
22 位置判定部
3 情報入力部
31 加速度センサ
32 地磁気センサ
33 タッチセンサ
34 脈拍センサ
35 温度センサ
36 気圧センサ
37 ジャイロセンサ
38 カメラ
39 マイク
4 情報変換部
5 情報出力部
6 通知情報出力部
61 振動部
62 表示部
71 通信部
72 入力部
73 加速度値生成部
74 画像生成部
741 出現頻度生成部
741a カウント部
741b マップ生成部
742 RGBデータ生成部
743 時間間隔設定部
75 ラベル付与部
76 判定部
761 抽出部
762 識別部
77 通知情報生成部
78 表示部
D ウェアラブルデバイス
P アクセスポイント
R バーコードリーダ
M 動作判定装置
N ネットワーク
S 動作判定システム
DESCRIPTION OF SYMBOLS 1 Communication part 2 Current position determination part 21 Signal detection part 22 Position determination part 3 Information input part 31 Acceleration sensor 32 Geomagnetic sensor 33 Touch sensor 34 Pulse sensor 35 Temperature sensor 36 Pressure sensor 37 Gyro sensor 38 Camera 39 Microphone 4 Information conversion part 5 Information output unit 6 Notification information output unit 61 Vibration unit 62 Display unit 71 Communication unit 72 Input unit 73 Acceleration value generation unit 74 Image generation unit 741 Appearance frequency generation unit 741a Count unit 741b Map generation unit 742 RGB data generation unit 743 Time interval setting Unit 75 label adding unit 76 determining unit 761 extracting unit 762 identifying unit 77 notification information generating unit 78 display unit D wearable device P access point R barcode reader M operation determining device N network S operation determining system

Claims (10)

コンピュータに、
ウェアラブルデバイスからのX、Y、Zの3軸方向の加速度信号に基づいて、所定時間間隔における前記加速度信号のXY成分、YZ成分及びZX成分のうち、少なくとも2成分の出現頻度を生成する出現頻度生成処理と、
前記出現頻度生成処理により生成された少なくとも2成分の出現頻度を、RGBの色信号のうちの少なくとも2色の値としたRGBデータを生成するRGBデータ生成処理と、
前記所定時間間隔における前記RGBデータに、前記ウェアラブルデバイスの装着者の動作を特定するためのラベルを付与するラベル付与処理と、
共通のラベルが付された複数のRGBデータに基づいて、前記RGBデータに対応する前記ウェアラブルデバイスの装着者の動作を判定する判定処理と、
を実行させることを特徴とする動作判定プログラム。
On the computer,
Appearance frequency that generates the appearance frequency of at least two components of the XY component, the YZ component, and the ZX component of the acceleration signal in a predetermined time interval based on the X, Y, and Z-axis acceleration signals from the wearable device Generation process,
RGB data generation processing for generating RGB data in which the appearance frequencies of at least two components generated by the appearance frequency generation processing are values of at least two colors of RGB color signals;
A labeling process for assigning a label for identifying the wearer's wearer's action to the RGB data at the predetermined time interval;
Based on a plurality of RGB data with a common label, a determination process for determining the wearer's operation of the wearable device corresponding to the RGB data;
An operation determination program characterized by causing
前記コンピュータに、
前記加速度信号を所定のレートでサンプリングしたサンプリング値に基づいて、単位時間当たりのX、Y、Z軸方向の加速度値を生成する量子化処理と、
前記加速度値に基づいて、少なくとも前記2成分の出現頻度を生成する出現頻度生成処理と、
を実行させることを特徴とする請求項1記載の動作判定プログラム。
In the computer,
Quantization processing for generating acceleration values in the X, Y, and Z axis directions per unit time based on a sampling value obtained by sampling the acceleration signal at a predetermined rate;
An appearance frequency generation process for generating an appearance frequency of at least the two components based on the acceleration value;
The operation determination program according to claim 1, wherein:
前記コンピュータに、前記所定時間間隔を設定する設定処理を実行させることを特徴とする請求項1又は請求項2記載の動作判定プログラム。   The operation determination program according to claim 1, wherein the computer is caused to execute a setting process for setting the predetermined time interval. 前記設定処理は、外部の検出装置により検出された検出信号に基づいて、前記所定時間間隔を設定することを特徴とする請求項3記載の動作判定プログラム。   The operation determination program according to claim 3, wherein the setting process sets the predetermined time interval based on a detection signal detected by an external detection device. 前記設定処理は、長さの異なる複数の前記所定時間間隔を、階層的に設定することを特徴とする請求項3又は請求項4記載の動作判定プログラム。   5. The operation determination program according to claim 3, wherein the setting process sets a plurality of the predetermined time intervals having different lengths in a hierarchical manner. 前記RGBの色信号のうちの1色の値を、前記出現頻度とは異なるパラメータ値とすることを特徴とする請求項1乃至5のいずれかに記載の動作判定プログラム。   6. The operation determination program according to claim 1, wherein a value of one color of the RGB color signals is set to a parameter value different from the appearance frequency. ウェアラブルデバイスからのX、Y、Zの3軸方向の加速度信号に基づいて、所定時間間隔における前記加速度信号のXY成分、YZ成分及びZX成分のうち、少なくとも2成分の出現頻度を生成する出現頻度生成部と、
前記出現頻度生成部により生成された少なくとも2成分の出現頻度を、RGBの色信号のうちの少なくとも2色の値としたRGBデータを生成するRGBデータ生成部と、
前記ウェアラブルデバイスの装着者の動作を表すラベルを、これに相当する時間における前記RGBデータに付与するラベル付与部と、
共通のラベルが付された複数のRGBデータの特徴に基づいて、各RGBデータが前記ラベルに相当する動作か否かを判定する判定部と、
を有することを特徴とする動作判定装置。
Appearance frequency that generates the appearance frequency of at least two components of the XY component, the YZ component, and the ZX component of the acceleration signal in a predetermined time interval based on the X, Y, and Z-axis acceleration signals from the wearable device A generator,
An RGB data generation unit that generates RGB data in which the appearance frequency of at least two components generated by the appearance frequency generation unit is a value of at least two of the RGB color signals;
A label giving unit for giving a label representing an operation of the wearer of the wearable device to the RGB data at a time corresponding to the label;
A determination unit that determines whether each RGB data is an operation corresponding to the label based on characteristics of a plurality of RGB data with a common label;
An operation determination device characterized by comprising:
前記加速度信号を所定のレートでサンプリングしたサンプリング値に基づいて、単位時間当たりのX、Y、Z軸方向の加速度を数値化する量子化部と、
前記加速度値に基づいて、前記2成分の出現頻度を演算する演算部と、
を有することを特徴とする請求項7記載の動作判定装置。
A quantization unit that quantifies acceleration in the X, Y, and Z axis directions per unit time based on a sampling value obtained by sampling the acceleration signal at a predetermined rate;
A calculation unit for calculating the appearance frequency of the two components based on the acceleration value;
The operation determination apparatus according to claim 7, further comprising:
コンピュータに、
ウェアラブルデバイスからのX、Y、Zの3軸方向の加速度信号に基づいて、所定時間間隔における前記加速度信号のXY成分、YZ成分及びZX成分のうち、少なくとも2成分の出現頻度を生成する出現頻度生成処理と、
前記出現頻度生成部により生成された少なくとも2成分の出現頻度を、RGBの色信号のうちの少なくとも2色の値としたRGBデータを生成するRGBデータ生成処理と、
を実行させることを特徴とする動作判定用画像生成プログラム。
On the computer,
Appearance frequency that generates the appearance frequency of at least two components of the XY component, the YZ component, and the ZX component of the acceleration signal in a predetermined time interval based on the X, Y, and Z-axis acceleration signals from the wearable device Generation process,
RGB data generation processing for generating RGB data in which the appearance frequencies of at least two components generated by the appearance frequency generation unit are values of at least two colors of RGB color signals;
A program for generating an image for motion determination, characterized in that
ウェアラブルデバイスからのX、Y、Zの3軸方向の加速度信号に基づいて、所定時間間隔における前記加速度信号のXY成分、YZ成分及びZX成分のうち、少なくとも2成分の出現頻度を生成する出現頻度生成部と、
前記出現頻度生成部により生成された少なくとも2成分の出現頻度を、RGBの色信号のうちの少なくとも2色の値としたRGBデータを生成するRGBデータ生成部と、
を有することを特徴とする動作判定用画像生成装置。
Appearance frequency that generates the appearance frequency of at least two components of the XY component, the YZ component, and the ZX component of the acceleration signal in a predetermined time interval based on the X, Y, and Z-axis acceleration signals from the wearable device A generator,
An RGB data generation unit that generates RGB data in which the appearance frequency of at least two components generated by the appearance frequency generation unit is a value of at least two of the RGB color signals;
An image generation apparatus for operation determination characterized by comprising:
JP2017158935A 2017-08-21 2017-08-21 Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device Active JP6330093B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017158935A JP6330093B1 (en) 2017-08-21 2017-08-21 Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device
PCT/JP2018/030753 WO2019039448A1 (en) 2017-08-21 2018-08-21 Motion determining program, motion determining device, program for generating motion determining image, and device for generating motion determining image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017158935A JP6330093B1 (en) 2017-08-21 2017-08-21 Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device

Publications (2)

Publication Number Publication Date
JP6330093B1 true JP6330093B1 (en) 2018-05-23
JP2019036257A JP2019036257A (en) 2019-03-07

Family

ID=62186730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158935A Active JP6330093B1 (en) 2017-08-21 2017-08-21 Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device

Country Status (2)

Country Link
JP (1) JP6330093B1 (en)
WO (1) WO2019039448A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068009A (en) * 2018-10-25 2020-04-30 Dynabook株式会社 Operation detection device, operation detection method, and operation detection system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7070594B2 (en) 2020-03-10 2022-05-18 カシオ計算機株式会社 List terminal, work time management device, program and work time management system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015123216A (en) * 2013-12-26 2015-07-06 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Moving action state displaying device, method and system, and program
JP2015123217A (en) * 2013-12-26 2015-07-06 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Moving action state displaying device, method and system, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101956197B1 (en) * 2012-07-18 2019-03-08 삼성전자 주식회사 Method and apparatus for data processing using graphic processing unit

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015123216A (en) * 2013-12-26 2015-07-06 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Moving action state displaying device, method and system, and program
JP2015123217A (en) * 2013-12-26 2015-07-06 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Moving action state displaying device, method and system, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
前川 卓也,鮫島 正樹: "IoTとロボティクス", 日本ロボット学会誌, vol. 第35巻 第2号, JPN6018012567, 15 March 2017 (2017-03-15), JP, pages 第19−23頁 *
原木 司,廣田 雅春,横山 昌平,福田 直樹,石川 博: "移動情報タグ生成システムにおける加速度センサを用いた消費電力削減手法の提案", 第4回データ工学と情報マネジメントに関するフォーラム論文集, JPN6018012568, 13 July 2012 (2012-07-13) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068009A (en) * 2018-10-25 2020-04-30 Dynabook株式会社 Operation detection device, operation detection method, and operation detection system

Also Published As

Publication number Publication date
WO2019039448A1 (en) 2019-02-28
JP2019036257A (en) 2019-03-07

Similar Documents

Publication Publication Date Title
TWI720215B (en) System and method for providing a real-time signal segmentation and fiducial points alignment framework
US11030564B2 (en) Motion analysis apparatus, motion analysis method, and computer program product
JP2021072136A (en) Methods and devices for combining muscle activity sensor signals and inertial sensor signals for gesture-based control
US10201286B2 (en) Frequency domain projection algorithm
JP5305665B2 (en) Method, system, and program for alerting a monitored user of a monitored user's behavior indicative of harmful behavior
CN107526434A (en) System and method for the closed-loop control for touch feedback
JP6868778B2 (en) Information processing equipment, information processing methods and programs
JP6330093B1 (en) Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device
JP6423017B2 (en) Psychological state measurement system
JP5557610B2 (en) Action content visualization device and action content analysis device
Maekawa et al. WristSense: wrist-worn sensor device with camera for daily activity recognition
KR101341481B1 (en) System for controlling robot based on motion recognition and method thereby
US20210166180A1 (en) Information processing apparatus, information processing method, and work evaluation system
CN111166340B (en) Human body posture real-time identification method based on self-adaptive acceleration signal segmentation
JP5723014B2 (en) Sensor terminal
Zhu et al. RFMonitor: Monitoring smoking behavior of minors using COTS RFID devices
CN109558006A (en) Wireless distributed limb action captures equipment
Rai et al. Design and implementation of gesture based human computer interface
JP6594512B2 (en) Psychological state measurement system
KR102574495B1 (en) System, apparatus and method for measurement and classification of movement of individual
US20210110348A1 (en) Information processing system, information processing apparatus, and non-transitory computer readable medium
US20210165488A1 (en) Information processing apparatus and non-transitory computer readable medium
US20210004695A1 (en) Electronic apparatus and information processing system
Chen et al. Review on human action recognition
Wagner et al. Classification of Human Interactions with Tools Using a Tool-Mounted Wireless Sensor Node to Support Sustainable Manufacturing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180307

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R150 Certificate of patent or registration of utility model

Ref document number: 6330093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250