JP6710644B2 - 動作解析装置、動作解析方法およびプログラム - Google Patents

動作解析装置、動作解析方法およびプログラム Download PDF

Info

Publication number
JP6710644B2
JP6710644B2 JP2017000316A JP2017000316A JP6710644B2 JP 6710644 B2 JP6710644 B2 JP 6710644B2 JP 2017000316 A JP2017000316 A JP 2017000316A JP 2017000316 A JP2017000316 A JP 2017000316A JP 6710644 B2 JP6710644 B2 JP 6710644B2
Authority
JP
Japan
Prior art keywords
series data
time series
time
section
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017000316A
Other languages
English (en)
Other versions
JP2018109882A (ja
Inventor
佐和 福家
佐和 福家
和範 井本
和範 井本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017000316A priority Critical patent/JP6710644B2/ja
Priority to US15/659,948 priority patent/US11030564B2/en
Priority to CN201710759598.6A priority patent/CN108279767A/zh
Publication of JP2018109882A publication Critical patent/JP2018109882A/ja
Application granted granted Critical
Publication of JP6710644B2 publication Critical patent/JP6710644B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Description

本発明の実施形態は、動作解析装置、動作解析方法およびプログラムに関する。
各種業務の改善・生産効率の向上を図るために、作業者の動作履歴を把握してその問題点を解析することが行われている。近年、各種のセンサデバイスの小型化・無線化が進み、簡易な構成で人の動きを計測できるようになっている。そこで、現場で作業を行う作業者にセンサを装着し、センサの計測値をもとに現場での動作を特定して、その履歴を集計する試みがある。
センサを用いて作業者の動作を特定する方法は、センサ出力に基づく時系列データと、この時系列データから推定される動作との関係を定めた動作辞書を用い、センサ出力に基づく時系列データを動作辞書と照合することで、作業者の動作を特定する方法が一般的である。このような方法は、動作辞書を構築するために必要な時系列データに対するラベル付けに多くの手間がかかり、改善が求められる。また、このような作業者の動作履歴を集計する用途に限らず、センサを用いて動きを解析する様々な用途において、センサ出力に基づく時系列データのラベル付けを自動で行えるようにしたいというニーズがある。
特許第5159263号公報
本発明が解決しようとする課題は、センサ出力に基づく時系列データのラベル付けを自動で行うことができる動作解析装置、動作解析方法およびプログラムを提供することである。
実施形態の動作解析装置は、対応区間検出部と、対応付け部と、を備える。対応区間検出部は、第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとを用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出する。対応付け部は、検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付ける。
第1実施形態の動作解析装置の概要を説明する図。 第1実施形態の動作解析装置による処理の概要を説明する図。 第1実施形態の動作解析装置のハードウェア構成例を示すブロック図。 第1実施形態の動作解析装置の機能的な構成例を示すブロック図。 信号同期部の処理を説明する図。 人の動きと物体の動きの相関を説明する図。 波形の類似度を説明する図。 オブジェクト対応情報の一例を示す図。 学習データを生成する方法の一例を説明する図。 出力部がディスプレイに表示させる情報の一例を示す図。 変形例1の動作解析装置の機能的な構成例を示すブロック図。 動作区間抽出部による処理を説明する図。 動作区間抽出部の処理手順の一例を示すフローチャート。 変形例2の動作解析装置の機能的な構成例を示すブロック図。 第2実施形態の動作解析装置の概要を説明する図。 第2実施形態の動作解析装置の機能的な構成例を示すブロック図。 オブジェクト対応情報の一例を示す図。 第3実施形態の動作解析装置の概要を説明する図。 第3実施形態の動作解析装置の機能的な構成例を示すブロック図。 オブジェクト対応情報の一例を示す図。
以下、添付図面を参照して、実施形態の動作解析装置、動作解析方法およびプログラムを詳細に説明する。なお、以下の説明において、同様の機能を持つ構成要素については同一の符号を付して、重複した説明を適宜省略する。
<第1実施形態>
本実施形態では、現場で作業を行う作業者と、作業者が使用する工具、部品、現場の稼動設備などの物体にそれぞれ小型のセンサを取り付けて、作業者と物体の双方の動きを計測する。そして、作業者側のセンサ出力に基づく時系列データと、物体側のセンサ出力に基づく時系列データとを照合することにより、作業者が物体を使用して作業を行った区間を検出し、その区間の作業者の動きを表す時系列データに対して物体を特定するラベル付けを行う。ラベル付けされた時系列データは、作業者による動作を推定するための推定器を機械学習により構築するための学習データの生成に用いることができる。学習データを用いて推定器を構築した後は、この推定器を用いて、作業者側のセンサ出力に基づく時系列データのみから、作業者による物体の使用を推定することが可能となる。
図1は、本実施形態の動作解析装置100の概要を説明する図である。図1に示すように、本実施形態の動作解析装置100は、現場で作業を行う作業者(第1オブジェクトの一例)の手などに装着された第1センサユニット10と、作業者が使用する工具(第2オブジェクトの一例)に装着された第2センサユニット20のそれぞれから、作業者の動きや工具の動きに対応する時系列データを受信する。第1センサユニット10や第2センサユニット20は、例えば、粘着部材などを用いて作業者の手や工具に直接、あるいは、手袋や工具カバーを介して装着される。ベルトやクリップなどの装具を用いて、第1センサユニット10や第2センサユニット20を作業者の手や工具に装着してもよい。
第1センサユニット10と第2センサユニット20は、それぞれ、動きを計測するセンサと、このセンサの時刻ごとの計測値を時系列データとして送信する送信機とを備え、作業者や工具の動きに対応する時系列データをリアルタイムで、あるいは、内部のメモリに一旦保存した後に、動作解析装置100に対して送信する。本実施形態では、動きを計測するセンサとして、例えば、サンプリング周波数30Hzの3軸加速度センサを用いる例を想定するが、ジャイロセンサや地磁気センサなどを用いてもよい。
第1センサユニット10や第2センサユニット20から動作解析装置100に対して時系列データを送信する方法は特に限定されるものではなく、例えば、有線通信、長距離無線通信、あるいは近距離無線通信などを用いることができる。また、第1センサユニット10や第2センサユニット20から送信された時系列データを、動作解析装置100とは異なるクラウドサーバや外部の別の記録装置に保存し、動作解析装置100がそこから時系列データを取得する構成であってもよい。なお、図1では第1センサユニット10と第2センサユニット20をそれぞれ1つずつ図示しているが、実際には推定器の機械学習に必要となる多くの学習データを生成するために、多数の作業者に第1センサユニット10がそれぞれ装着され、多数の工具、部品、現場の稼動設備などの物体に第2センサユニット20がそれぞれ装着される。
図2は、本実施形態の動作解析装置100による処理の概要を説明する図である。本実施形態の動作解析装置100による処理は、主に、図2(a)に示す処理Aと、図2(b)に示す処理Bと、図2(c)に示す処理Cとの3つの動作に大別される。
処理Aは、図2(a)に示すように、第1センサユニット10が計測した作業者の動きに対応する時系列データと、第2センサユニット20が計測した工具の動きに対応する時系列データとを用いて、作業者が工具を使用して作業を行った区間を検出する処理である。処理Bは、図2(b)に示すように、作業者の動きに対応する時系列データのうちで処理Aにより検出された区間に対して工具のラベルが付与されたものを学習データとして用い、作業者の動作を推定するための推定器を機械学習により構築する処理である。処理Cは、図2(c)に示すように、処理Bにより構築された推定器を用いて、第1センサユニット10が計測した作業者の動きに対応する時系列データから、作業者の動作(工具の使用)を推定する処理である。処理Aおよび処理Bは、動作解析装置100を現場に導入したときに実施される処理を想定し、処理Cは実際の動作解析やその履歴の記録などを行うときに実施される処理を想定している。
図3は、本実施形態の動作解析装置100のハードウェア構成例を示すブロック図である。本実施形態の動作解析装置100は、例えば図3に示すように、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサ101と、RAM(Random Access Memory)やROM(Read Only Memory)などの内部メモリ102と、HDD(Hard Disk Drive)やSDD(Solid State Drive)などのストレージデバイス103と、ディスプレイ106などの周辺機器を接続するための入出力I/F104と、第1センサユニット10や第2センサユニット20などの装置外部の機器と通信を行う通信I/F105と、を備えた通常のコンピュータのハードウェア構成を有する。本実施形態の動作解析装置100は、例えば、プロセッサ101が内部メモリ102を利用しながら、ストレージデバイス103や内部メモリ102などに格納されたプログラムを実行することで、後述の各機能的な構成要素を実現することができる。
図4は、本実施形態の動作解析装置100の機能的な構成例を示すブロック図である。本実施形態の動作解析装置100は、例えば、図3に示したハードウェアとソフトウェア(プログラム)との協働により実現される機能的な構成要素として、図4に示すように、取得部110と、第1処理部120と、第2処理部130と、第3処理部140と、出力部150とを備える。
取得部110は、第1センサユニット10により計測された作業者の動きに対応する時系列データ(以下、これを「第1時系列データ」と呼ぶ)や、第2センサユニット20により計測された作業者の動きに対応する時系列データ(以下、これを「第2時系列データ」と呼ぶ)を取得する。取得部110は、第1センサユニット10から送信された第1時系列データや第2センサユニット20から送信された第2時系列データを直接取得してもよいし、上述のようにクラウドサーバや外部の記録装置に保存された第1時系列データや第2時系列データを、これらクラウドサーバや外部の記憶装置にアクセスして取得してもよい。
上述の処理Aにおいて、取得部110は第1時系列データと第2時系列データの双方を取得し、これらの第1時系列データおよび第2時系列データを第1処理部120に供給するとともに、ストレージデバイス103などに格納する(図4の時系列データ170)。また、上述の処理Cにおいて、取得部110は、第1時系列データのみを取得して、第3処理部140に供給する。
第1処理部120は、上述の処理Aにあたる各処理を実行する処理部であり、信号同期部121と、対応区間検出部122と、対応付け部123とを備える。
信号同期部121は、第1時系列データと第2時系列データとの時刻を同期させる機能を有する。第1時系列データや第2時系列データは、例えば3軸加速度センサにより計測された加速度信号の時系列データであり、各加速度値に対応する計測時刻が付加されている。計測時刻は各加速度値に紐付けられた時刻でもよいし、計測開始時刻とサンプリング周期の組み合わせで表現されていてもよい。第1センサユニット10が内部に保持しているシステム時計情報と第2センサユニット20が内部に保持しているシステム時計情報とが計測開始時に予め同期されている場合は、信号同期部121は、それぞれの時系列データの計測時刻を用いて同期をとればよい。
一方、第1センサユニット10と第2センサユニット20の双方のシステム時計情報が計測開始時に同期していない設定の場合は、計測開始時から所定の時間T1(例えば1sec)内で第1センサユニット10と第2センサユニット20の双方に特徴的な振動を与え、信号同期部121では、この特徴的な振動に伴う駆動波形を手がかりに、第1時系列データと第2時系列データの時刻を同期させる。
このような特徴的な振動として、例えば時間T1内のいずれかのタイミングで作業者が工具を把持したまま周期的に左右に振る運動など低周波な振動を選択した場合、信号同期部121では、図5に示すように、時間T1内で第1センサユニット10により計測された少なくとも1軸の加速度信号(図5(a)参照)と、時間T1内で第2センサユニット20により計測された少なくとも1軸の加速度信号(図5(b)参照)との相互相関関数を算出する(図5(c)参照)。そして、相互相関関数の最大値を取るピーク31の時刻32を、第1センサユニット10と第2センサユニット20との時間ずれとして算出し、第1時系列データと第2時系列データの一方を時刻32に相当する時間分だけシフトさせて、両波形データの時刻を同期させる。
また、特徴的な振動として、例えば作業者が把持した工具を他の物体に衝突させる運動など高周波な振動を選択した場合、信号同期部121では、時間T1内で第1センサユニット10により計測された3軸の加速度信号の二乗平均和平方根と、時間T1内で第2センサユニット20により計測された3軸の加速度信号の二乗平均和平方根とを算出し、それらの最大ピーク値の時刻差を第1センサユニット10と第2センサユニット20との時間ずれとして算出することで、第1時系列データと第2時系列データの時刻を同期させてもよい。
対応区間検出部122は、信号同期部121により同期が図られた第1時系列データと第2時系列データとが類似または共起している区間である対応区間を検出する。例えば、対応区間検出部122は、第1時系列データを表す波形(以下、これを「第1波形」と呼ぶ)と第2時系列データを表す波形(以下、これを「第2波形」と呼ぶ)との類似度が基準値以上となる区間を対応区間として検出する。
ここで、第1波形と第2波形との類似度としては、例えば、少なくとも1軸の加速度信号の波形の相関値を用いることができる。図6は、人の動きと物体の動きの相関を説明する図であり、図6(a)は、人がキッチンでドアや引き出しを開閉する動作やカップを把持する動作を繰り返したときの右上腕のx軸方向の加速度信号の波形X1を表し、図6(b)は、その人が把持するカップ(物体)のx軸方向の加速度信号の波形X2を表している。また、図6(c)は、各時刻において所定の時間T2(例えば1000msec)区間分の波形X1と波形X2との相関係数ρ(t)を算出した結果を表している。
図6(b)に示すように、人がカップを把持したイベント時に対応する区間33において、波形X2に大きな変動が発生している。そして、図6(c)を見ると、区間33と同期して負の相関係数が大きくなっていることが分かる。したがって、この区間33は、人の動きを表す波形X1とカップ(物体)の動きを表す波形X2の類似度が高いと解釈される。
以上のように、人の動きを表す波形データと物体の動きを表す波形データの類似度は、例えば、両波形の相関係数ρ(t)を用いて表すことができる。そこで、対応区間検出部122は、第1センサユニット10が計測した作業者の動きを表す第1波形と、第2センサユニット20が計測した工具の動きを表す第2波形との相関係数ρ(t)を算出し、相関係数ρ(t)の絶対値が閾値Th1以上となる区間を、第1波形と第2波形とが類似している対応区間として検出することができる。
また、波形の類似度は、波形の振幅変化量や周波数が類似しているほど類似度が高いと解釈してもよい。図7は波形の振幅変化量と周波数により類似度を判定する例を示しており、図7(a)は基準となる波形、図7(b)は図7(a)の波形に対し周波数が類似するが振幅変化量が異なる波形、図7(c)は図7(a)の波形に対し振幅変化量は類似するが周波数が異なる波形、図7(d)は図7(a)の波形に対して振幅変化量と周波数の双方が類似する波形を示している。この図7に示す例では、図7(a)に示す波形と図7(d)に示す波形との類似度が最も高い値に算出される。具体的な指標としては、上述の相関係数の他に、例えば、波形を時間周波数解析してスペクトログラムを算出し、各周波数の波のパワー分布の差を指標としてもよい。また、所定の時間T2区間分の波形をフーリエ変換などにより周波数領域に変換し、その波形の相関係数を指標としてもよい。
対応付け部123は、例えば、対応区間検出部122により検出された第1時系列データにおける対応区間を特定する情報に対し、第1時系列データに対応する作業者(第1オブジェクトの一例)を特定する情報と、第2時系列データに対応する工具(第2オブジェクトの一例)を特定する情報とを対応付ける。対応付け部123による対応付けの結果は、オブジェクト対応情報180としてストレージデバイス103などに格納される。
図8は、ストレージデバイス103などに格納されるオブジェクト対応情報180の一例を示す図である。図8では、対応区間検出部122により検出された対応区間を特定する開始時刻および終了時刻に、作業者を特定する作業者IDと、工具を特定する工具IDとを対応付けたオブジェクト対応情報180の例を示している。作業者IDは、第1センサユニット10を装着した作業者に対して一意に割り当てられたIDであり、第1センサユニット10の機器IDと対応関係を記憶しておくことで、例えば、第1センサユニット10から波形データとともに送られる機器IDを手がかりに、その第1センサユニット10を装着した作業者の作業者IDを認識できる。また、工具IDは、第2センサユニット20を装着した工具に対して一意に割り当てられたIDであり、第2センサユニット20の機器IDと対応関係を記憶しておくことで、例えば、第2センサユニット20から波形データとともに送られる機器IDを手がかりに、その第2センサユニット20を装着した工具の工具IDを認識できる。
なお、オブジェクト対応情報180は、対応区間を特定する情報に対して第1オブジェクトを特定する情報と第2オブジェクトを特定する情報とを対応付けた情報であればよく、図8に示す構成に限らない。例えば、対応区間を特定する情報として、開始時刻と終了時刻のいずれかに代えて対応区間の長さ(時間)を用いてもよい。また、作業者IDの代わりに第1センサユニット10の機器ID、工具IDの代わりに第2センサユニット20の機器IDを用いてもよい。また、上述のように、対応区間検出部122が第1波形と第2波形との類似度に基づいて対応区間を検出する構成の場合は、対応区間における第1波形と第2波形との類似度をオブジェクト対応情報180に含めてもよい。なお、本実施形態では、後述のように、任意の作業者の動作を推定する推定器を構築するための学習データを生成する用途でオブジェクト対応情報180を使用することを想定する。したがって、オブジェクト対応情報180は、作業者IDなどの第1オブジェクトを特定する情報を含まない構成であってもよい。
第2処理部130は、上述の処理Bにあたる各処理を実行する処理部であり、学習データ生成部131と、推定器構築部132とを備える。
学習データ生成部131は、オブジェクト対応情報180に基づいて、作業者の動作を推定する推定器を構築するための学習データを生成する。学習データ生成部131には、取得部110によりストレージデバイス103などに格納された時系列データ170のうちの第1時系列データと、ストレージデバイス103などに格納されたオブジェクト対応情報180のうちの開始時刻、終了時刻、および工具IDとが入力される。学習データ生成部131は、これら入力された情報を用いて、第1時系列データに対して工具IDをラベル付けした学習データを生成する。
図9は、学習データを生成する方法の一例を説明する図である。学習データ生成部131は、例えば図9に示すように、まず、第1センサユニット10により計測された3軸加速度を表す第1時系列データの時刻ごとに、工具IDをラベルとして付与したデータを生成する。このとき、対応区間検出部122により検出された対応区間に含まれる時刻に対しては、その対応区間に対応する工具IDがラベルとして付与され、対応区間に該当しない時刻に対しては、工具が使用されていなことを表す意味で「NULL」というラベルが付与される。
次に、学習データ生成部131は、以上のように時刻ごとにラベル付けされた第1時系列データから、所定長さT11の解析区間分のデータを、所定時間T12ずらしながら抽出し、推定器入力用のデータとする。図9では、解析区間の長さT11を200msec、所定時間T12を100msecに設定して推定器入力用のデータを抽出する例を示しているが、これらT11およびT12の長さは、解析対象とする動作の種類に応じて設計者が最適な値を定めればよい。
次に、学習データ生成部131は、以上のように抽出した推定器入力用のデータに対応する推定器出力用の代表ラベルを決定する。代表ラベルは、上述の解析区間内の各時刻で同じラベルが付与されている場合は、そのラベルを代表ラベルとすればよい。例えば図9の解析区間42のデータに対応する代表ラベルは「電動ドライバー」となる。一方、解析区間内で複数のラベルが付与されている場合は、例えば、解析区間の長さT11に対し、複数のラベルのうちのいずれかのラベルが付与されている時間の割合が閾値Th2以上である場合に、そのラベルを代表ラベルとする。いずれのラベルもこの条件を満たさない場合は、様々な動作が混在しており解析困難な区間であるとみなして、代表ラベルは「NULL」となる。閾値Th2は、例えば60%に設定される。この場合、図9の解析区間41のデータに対応する代表ラベルは「NULL」となる。
学習データ生成部131は、以上のように、時刻ごとにラベル付けされた第1時系列データから抽出した推定器入力用のデータと推定器出力用の代表ラベルとの組み合わせを、機械学習により推定器を構築するための学習データとして生成する。
推定器構築部132は、学習データ生成部131により生成された学習データを用いた機械学習により推定器を構築する。推定器構築部132は、推定器を構築するにあたり、上述の解析区間分の第1時系列データを深層学習のネットワークに入力し、この第1時系列データに対応する代表ラベルを教師ラベルとして用いて、ネットワークの層数や重みのパラメータなどを学習させる。
推定器構築部132により構築された推定器のプログラムおよびパラメータ(図4の推定器190)は、ストレージデバイス103などに格納される。また、上述の解析区間のパラメータである所定長さT11や所定時間T12などの情報も、ストレージデバイス103などに併せて格納される。
第3処理部140は、上述の処理Cにあたる処理を実行する処理部であり、動作推定部141を備える。
動作推定部141は、第1センサユニット10により計測された作業者の動きに対応する第1時系列データを入力とし、推定器構築部132により構築され、ストレージデバイス103などに格納された推定器のプログラムおよびパラメータ(図4の推定器190)に基づいて、作業者の動作を推定する。
動作推定部141には、取得部110により取得された第1時系列データが入力される。動作推定部141は、ストレージデバイス103などに格納されている上述の所定長さT11や所定時間T12を参照し、入力された第1時系列データから、推定器構築部132により構築された推定器のデータ形式に合せた区間長のデータを逐次抽出する。そして、動作推定器141は、抽出したデータを推定器の入力とし、ストレージデバイス103などに格納されている推定器のプログラムおよびパラメータ(図4の推定器190)に基づいて出力されるラベルから、作業者の動作を推定する。
出力部150は、本実施形態の動作解析装置100による処理結果を表す情報を出力する。出力部150は、例えば、動作解析装置100による処理結果をディスプレイ106に表示させてもよいし、動作解析装置100による処理結果を通信I/F105を介して外部の装置に送信し、外部の装置に表示させてもよい。上述の処理Cにおいて、出力部150は、動作推定部141により推定された作業者の動作を表す情報を、ディスプレイ106などに表示させることができる。また、上述の処理Aにおいて、出力部150は、例えば図10に示すように、上述の第1波形と第2波形とを、両者の類似度が高い対応区間を強調したかたちでディスプレイ106に表示させてもよいし、両者の類似度を併せてディスプレイ106に表示させてもよい。
以上、具体的な例を挙げながら詳細に説明したように、本実施形態によれば、作業者(第1オブジェクトの一例)の動きに対応する第1時系列データと工具(第2オブジェクトの一例)の動きに対応する第2時系列データとの類似性に着目することにより、これらの時系列データにおいて作業者が工具を用いて作業を行っている区間の区切りと、時系列データに対するラベル付けを自動で行うことが可能となる。また、本実施形態によれば、このようにラベル付けされた時系列データを用いて、作業者の動作を推定する推定器を機械学習により構築するための学習データを自動で生成できるので、学習データを生成するための作業負担を大幅に軽減させることができ、業務改善のための動作解析装置100の現場導入を迅速に行えるようになる。
(変形例1)
本実施形態の動作解析装置100は、図11に示すように、第1処理部120に動作区間抽出部124を設け、対応区間検出部122が、動作区間検出部124により抽出された動作区間を用いて対応区間を検出する構成であってもよい。
動作区間抽出部124は、第1時系列データと第2時系列データの少なくとも一方から、動きがあったと推定される区間である動作区間を抽出する。図12は、動作区間抽出部124による処理を説明する図である。動作区間抽出部124は、図12に示すように、第1時系列データを表す第1波形と第2時系列データを表す第2波形の少なくとも一方(ここでは、図12(a)に示す加速度波形とする)に対して微分処理を施し、図12(b)に示すような高周波帯波形を得る。微分処理の代用として、例えばカットオフ周波数が10Hzのハイパスフィルタを用いて、図12(b)に示すような高周波帯波形を得てもよい。そして、動作区間抽出部124は、この高周波帯波形の各時刻において、過去所定区間T21の解析窓を用いて分散値(統計量の一例)を求め、分散値が閾値Th11以上となる区間を動作区間候補Aとする(図12(c))。
また、動作区間抽出部124は、第1時系列データを表す第1波形と第2時系列データを表す第2波形の少なくとも一方(図12(a)に示す加速度波形)に対し、例えばカットオフ周波数が5Hzのローパスフィルタを用いて、図12(d)に示すような低周波帯波形を得る。そして、動作区間抽出部124は、この低周波帯波形の各時刻において、過去所定区間T22の解析窓を用いた分散を表す変化量を求め、変化量が閾値Th12以上である区間と、変化量が閾値Th12を下回ってから次に閾値Th12以上となる区間であって区間長が閾値Th13以下である区間を、動作区間候補Bとする(図12(e))。なお、閾値Th13は、想定する動作の種類に応じて設定される閾値であるが、本例では例えば15secに設定する。
そして、動作区間抽出部124は、上述の動作区間候補Aと動作区間候補Bの少なくともいずれかに該当する区間を最終的な動作区間とし(図12(f))、第1時系列データまたは第2時系列データからこの動作区間を抽出する。
図13は、第1時系列データまたは第2時系列データの時刻ごとに繰り返し行われる動作区間抽出部124の処理手順の一例を示すフローチャートである。動作区間抽出部124は、図12(b)に示すような高周波帯波形と、図12(d)に示すような低周波帯波形とを用いて、第1時系列データまたは第2時系列データの時刻ごとに図13のフローチャートで示す処理を繰り返し実行することで、図12(f)に示すような動作区間を抽出する。以下では、便宜上、図13のフローチャートで示す処理の対象となる時刻を「対象時刻」と呼ぶ。
図13のフローチャートで示す処理が開始されると、動作区間抽出部124は、まず図12(b)に示す高周波帯波形に対して、対象時刻から過去所定区間T21の解析窓での分散値を算出する(ステップS101)。そして、算出した分散値が閾値Th11以上であれば(ステップS102:Yes)、対象時刻について動作区間候補A=Trueを保持する(ステップS103)。一方、算出した分散値が閾値Th11未満であれば(ステップS102:No)、対象時刻について動作区間候補A=Falseを保持する(ステップS104)。
また、動作区間抽出部124は、図12(d)に示す低周波帯波形に対して、対象時刻から過去所定区間T22の解析窓を用いて変化量を算出する(ステップS105)。そして、算出した変化量が閾値Th12以上であれば(ステップS106:Yes)、対象時刻について動作区間候補B=Trueを保持する(ステップS107)。一方、変化量が閾値Th12未満であれば(ステップS106:No)、対象時刻よりも過去の時刻で変化量が閾値Th12以上であった直近の時刻(これを「参照時刻」と呼ぶ)を特定し、参照時刻から対象時刻までの時間差を閾値Th13と比較する。そして、参照時刻と対象時刻との時間差が閾値Th13以下であれば(ステップS108:No)、対象時刻について動作区間候補B=Trueを保持する(ステップS107)。一方、参照時刻と対象時刻との時間差が閾値Th13よりも大きければ(ステップS108:Yes)、対象時刻について動作区間候補B=Falseを保持し(ステップS109)、参照時刻から対象時刻までに動作区間と判定された区間があれば、その区間を非動作区間に変更する(ステップS110)。
その後、動作区間抽出部124は、対象時刻における動作区間候補Aの値と動作区間候補Bの値を参照し、少なくとも一方がTrueであれば(ステップS111:Yes)、対象時刻を動作区間と判定して(ステップS112)、処理を終了する。一方、対象時刻における動作区間候補Aの値と動作区間候補Bの値の双方がFalseであれば(ステップS111:No)、対象時刻を非動作区間と判定して(ステップS113)、処理を終了する。
本変形例における対応区間検出部122は、動作区間抽出部124によって第1時系列データと第2時系列データの少なくとも一方から抽出された動作区間を用いて、対応区間を検出する。第1時系列データのみから動作区間が抽出された場合、対応区間検出部122は、第1時系列データから抽出された動作区間を第2時系列データと照合し、第2時系列データにおいて、第1時系列データから抽出された動作区間との類似度が基準値以上となる区間を対応区間として検出する。また、第2時系列データのみから動作区間が抽出された場合、対応区間検出部122は、第2時系列データから抽出された動作区間を第1時系列データと照合し、第1時系列データにおいて、第2時系列データから抽出された動作区間との類似度が基準値以上となる区間を対応区間として検出する。
また、第1時系列データと第2時系列データとの双方から動作区間が抽出された場合、対応区間検出部122は、第1時系列データから抽出された動作区間と第2時系列データから抽出された動作区間との類似度が基準値を超える場合に、それらの動作区間を対応区間として検出する。
また、第1時系列データから抽出された動作区間の開始時刻と第2時系列データから抽出された動作区間の開始時刻との時間差と、第1時系列データから抽出された動作区間の終了時刻と第2時系列データから抽出された動作区間の終了時刻との時間差がともに所定の閾値Th21(例えば500msec)未満であり、両動作区間が同期していると見做すことができる場合、それらの動作区間は第1時系列データを表す第1波形と第2時系列データを表す第2波形が共起している区間であるため、それらの動作区間を対応区間として検出するようにしてもよい。この場合、両動作区間の開始時刻の時間差と終了時刻の時間差との合計値を、上述の第1波形と第2波形との類似度と同様に扱って、オブジェクト対応情報180に含めるようにしてもよい。
以上説明したように、本変形例では、第1時系列データと第2時系列データの少なくとも一方から動きがあったと推定される動作区間を抽出し、抽出した動作区間を用いて対応区間を検出するようにしているので、対応区間の検出をより正確に、かつ低コストで実施することができる。
(変形例2)
本実施形態の動作解析装置100は、図14に示すように、第2処理部130と第3処理部140とにそれぞれ特徴量算出部134,142を設け、第1時系列データから算出された特徴量を用いて学習データの生成や動作の推定を行う構成であってもよい。第1時系列データから算出する特徴量としては、解析区間における波形の振幅平均値・分散値・標準偏差値、高周波数帯および低周波数帯での波形の振幅平均値や、分散値、また周波数解析後に最大パワー値を持つ周波数値の少なくとも1つを用いることができる。
本変形例における学習データ生成部131は、図9に示したように時刻ごとにラベル付けされた第1時系列データから抽出した解析区間分のデータを特徴量算出部134に渡し、特徴量算出部134により算出された特徴量を受け取る。そして、特徴量算出部134により算出された特徴量と代表ラベルとの組み合わせを学習データとして生成する。この場合、推定器構築部132は、学習データ生成部131により生成された学習データを用いて、サポートベクターマシンや誤差逆伝搬法に代表される一般的な識別手法に基づく推定器を構築することができる。
本変形例における動作推定部141には、取得部110により取得された第1時系列データから特徴量算出部142により算出された特徴量が入力される。特徴量算出部142が算出する特徴量は、特徴量算出部134が算出する特徴量と同一のものである。特徴量算出部142は、ストレージデバイス103などに格納されている上述の所定長さT11や所定時間T12を参照し、取得部110により取得された第1時系列データから、推定器構築部132により構築された推定器のデータ形式に合せた区間長のデータの特徴量を算出して、動作推定部141に渡す。動作推定部141は、この特徴量を推定器の入力とし、ストレージデバイス103などに格納されている推定器のプログラムおよびパラメータ(図14の推定器190)に基づいて出力されるラベルから、作業者の動作を推定する。
以上説明したように、本変形例では、第1時系列データから算出された特徴量を用いて学習データの生成や動作の推定を行うようにしているので、一般的な識別手法に基づく推定器を構築して作業者の動作をより簡便に推定することができる。
<第2実施形態>
本実施形態では、複数の作業者が同一の工具を使用することが想定される場合に、複数の作業者の各々に装着された第1センサユニット10からの複数の第1時系列データと、工具に装着された第2センサユニット20からの第2時系列データとを用いて、工具がいつ、どの作業者により使用されたかを特定する。上述の第1実施形態では、推定器の構築に用いる学習データを生成する目的で、第1時系列データと第2時系列データとの対応区間を検出して第1時系列データにラベル付けしたが、本実施形態では、主に複数の作業者が使用する工具の使用履歴を記録する目的で、複数の第1時系列データのいずれかと第2時系列データとの対応区間を検出して第2時系列データにラベル付けする。
図15は、本実施形態の動作解析装置200の概要を説明する図である。図15に示すように、本実施形態の動作解析装置200は、複数の作業者(第1オブジェクトの一例)に各々装着された複数の第1センサユニット10(10A,10B)と、これら複数の作業者が使用する同一の工具(第2オブジェクトの一例)に装着された第2センサユニット20のそれぞれから、作業者の動きや工具の動きに対応する時系列データを受信する。そして、本実施形態の動作解析装置200は、工具の動きに対応する第2時系列データにおいて、複数の作業者に各々対応する複数の第1時系列データのいずれかと波形が類似または共起する対応区間を検出し、その第2時系列データにおける対応区間を特定する情報に対して、複数の作業者のいずれかを特定する情報を対応付けたオブジェクト対応情報180を、ストレージデバイス103などに格納する。なお、図15においては2つの第1センサユニット10A,10Bを図示しているが、同一の工具を使用する作業者の数に応じて、より多くの第1センサユニット10を用いてもよい。
図16は、本実施形態の動作解析装置200の機能的な構成例を示すブロック図である。本実施形態の動作解析装置200は、例えば、図3に示したハードウェアとソフトウェア(プログラム)との協働により実現される機能的な構成要素として、図16に示すように、取得部110と、信号同期部121と、対応区間検出部122と、対応付け部123とを備える。なお、上述の第1実施形態の変形例1と同様に、動作区間抽出部124をさらに備える構成であってもよい。
取得部110は、第1実施形態と同様に、第1時系列データと第2時系列データとを取得する。また、信号同期部121は、第1実施形態と同様に、第1時系列データと第2時系列データとの時刻を同期させる。ただし、本実施形態では、取得部110が、複数の第1センサユニット10A,10Bから送信された、複数の作業者に対応する複数の第1時系列データを取得し、信号同期部121が、これら複数の第1時系列データと第2時系列データの時刻を同期させる。
対応区間検出部122は、信号同期部121により複数の第1時系列データとの同期が図られた第2時系列データから、複数の第1時系列データのいずれかと類似または共起している対応区間を検出する。本実施形態の対応区間検出部122が第2時系列データから対応区間を検出する具体的な方法は、上述した第1実施形態と同様の方法を用いることができる。
対応付け部123は、対応区間検出部122により検出された第2時系列データにおける対応区間を特定する情報に対し、第2時系列データに対応する工具を特定する情報と、その対応区間において波形が類似または共起している第1時系列データに対応する作業者を特定する情報とを対応付ける。対応付け部123による対応付けの結果は、オブジェクト対応情報180としてストレージデバイス103などに格納される。
図17は、ストレージデバイス103などに格納されるオブジェクト対応情報180の一例を示す図である。図17では、対応区間検出部122により検出された対応区間を特定する開始時刻および終了時刻に、工具を特定する工具IDと、作業者を特定する作業者IDとを対応付けたオブジェクト対応情報180の例を示している。対応区間を特定する情報として、開始時刻と終了時刻のいずれかに代えて対応区間の長さ(時間)を用いてもよい。また、作業者IDの代わりに第1センサユニット10の機器ID、工具IDの代わりに第2センサユニット20の機器IDを用いてもよい。
以上のように、本実施形態によれば、複数の作業者が使用する工具の動きを表す第2時系列データに対し、いずれかの作業者が使用した区間の区切りと、どの作業者が使用したかを示すラベル付けを自動で行うことができ、効率のよい動作解析を実現することができる。
なお、以上説明した例では、複数の作業者にそれぞれ第1センサユニット10を装着するものとして説明したが、同一の作業者の異なる身体部位にそれぞれ第1センサユニット10を装着し、作業者がどのように工具を使用したかを解析するのに役立ててもよい。また、現場の稼働設備などの工具以外の物体に第2センサユニット20を装着し、その物体の使用履歴を把握できるようにしてもよい。
<第3実施形態>
本実施形態では、検出された対応区間における第1波形と第2波形との類似度と、この対応区間の時系列データから算出される特徴量の少なくともいずれかを、指定された数のクラスタに分類して、その分類結果を含むオブジェクト対応情報180を、ストレージデバイス103などに記憶させる。
図18は、本実施形態の動作解析装置300の概要を説明する図である。図18に示すように、作業者の疲労状態や熟練度、作業者が工具を正しく使用しているか否かに伴う把持方法の変化に応じて、作業者と工具の姿勢は変化する。このため、例えば、センサに3軸加速度センサを用いる場合、対応区間における類似度に相当する相関値が高い加速度の軸の組み合わせが変化すると考えられる。また、例えば、作業者の動きが同一で加速度波形が類似していても、把持方法が異なれば工具の加速度波形は異なると考えられる。同様に、工具の動きが同一で加速度波形が類似していても、把持方法が異なれば、作業者の加速度波形が変化する。さらに、同一の工具を異なる使用目的で使用した場合には、作業者と工具の双方の加速度波形、類似度の高い加速度の軸の傾向なども大きく異なってくると考えられる。
そこで、本実施形態では、第1時系列データと第2時系列データとの波形の類似性を分析することで得られる情報、つまり、上述の対応区間における類似度とこの対応区間の時系列データから算出される特徴量の少なくともいずれかを、指定された数のクラスタに分類することで、上述のような作業者の疲労状態や熟練度、工具の使用方法、使用目的などの違いを分析できるようにしている。
図19は、本実施形態の動作解析装置300の機能的な構成例を示すブロック図である。本実施形態の動作解析装置300は、例えば、図3に示したハードウェアとソフトウェア(プログラム)との協働により実現される機能的な構成要素として、図19に示すように、取得部110と、信号同期部121と、対応区間検出部122と、対応付け部123と、特徴量算出部301と、分類部302とを備える。なお、上述の第1実施形態の変形例1と同様に、動作区間抽出部124をさらに備える構成であってもよい。
取得部110は、第1実施形態と同様に、第1時系列データと第2時系列データとを取得する。また、信号同期部121は、第1実施形態と同様に、第1時系列データと第2時系列データとの時刻を同期させる。また、対応区間検出部122は、第1実施形態と同様に、第1時系列データと第2時系列データとで波形が類似または共起する対応区間を検出する。
特徴量算出部301は、対応区間検出部122により検出された対応区間における第1時系列データと第2時系列データの少なくとも一方から特徴量を算出する。ここで特徴量とは、連続して類似度が高い区間における波形の振幅平均値・分散値・標準偏差値、高周波数帯および低周波数帯での波形の振幅平均値や、分散値、また周波数解析後に最大パワー値を持つ周波数値の少なくとも1つである。
分類部302は、対応区間検出部122により検出された対応区間における類似度と、特徴量算出部301により算出された特徴量の少なくともいずれかを、指定された数のクラスタに分類する。分類に用いるクラスタ数は、例えば、作業者の疲労状態や熟練度、工具の使用方法、使用目的などの違いを分析するユーザが、分析の粒度に応じた数をキー入力などにより指定してもよいし、固定の数が予め指定されていてもよい。分類部302によるクラスタリングの手法には、例えばk−means法などの公知の手法を利用することができる。
対応付け部123は、対応区間検出部122により検出された対応区間を特定する情報に対し、第1時系列データに対応する作業者を特定する情報と、第2時系列データに対応する工具を特定する情報と、分類部302による分類結果とを対応付ける。対応付け部123による対応付けの結果は、オブジェクト対応情報180としてストレージデバイス103などに格納される。
図20は、ストレージデバイス103などに格納されるオブジェクト対応情報180の一例を示す図である。図20では、対応区間検出部122により検出された対応区間を特定する開始時刻および終了時刻に対応付けて、作業者を特定する作業者IDと、工具を特定する工具IDと、分類部302による分類結果を示すクラスタIDとを対応付けたオブジェクト対応情報180の例を示している。対応区間を特定する情報として、開始時刻と終了時刻のいずれかに代えて対応区間の長さ(時間)を用いてもよい。また、作業者IDの代わりに第1センサユニット10の機器ID、工具IDの代わりに第2センサユニット20の機器IDを用いてもよい。
また、分類部302が特徴量算出部301により算出された特徴量を分類する場合、対応付け部123は、自己組織化マップや主成分分析などを利用して、多次元の特徴量を低次元化した値をさらに対応付けて、低次元化した特徴量の値を含むオブジェクト対応情報180がストレージデバイス103などに格納されるようにしてもよい。この場合、オブジェクト対応情報180に含まれる低次元化した特徴量の値を二次元空間上で表現してユーザに提示することにより、ユーザは、それぞれのデータの近さを直感的に理解することができる。
以上のように、本実施形態によれば、第1時系列データと第2時系列データとの波形の類似性を分析することで得られる情報を指定された数のクラスタに分類し、その分類結果を記憶させるようにしているので、作業者の疲労状態や熟練度、工具の使用方法、使用目的などの違いを分析することができ、より詳細な動作解析を実現することができる。
<補足説明>
上述した各実施形態では、現場における作業者の動作を解析する用途を想定して、動きの計測対象となるオブジェクトについて、第1オブジェクトは作業者(人)であり、第2オブジェクトは作業者が使用する工具、部品、現場の稼動設備など(物体)であるものとして説明した。しかし、上述した各実施形態は、現場における作業者の動作を解析する用途に限らず様々な用途での応用が可能であり、その用途における動きの計測対象が第1オブジェクトおよび第2オブジェクトとなる。例えば、第1オブジェクトをロボットとし、第2オブジェクトをそのロボットが使用する道具とすれば、ロボットの動作を解析する用途での応用が可能となる。
上述した各実施形態の動作解析装置100,200,300は、例えば、通常のコンピュータを用いて所定のプログラムを実行することにより実現できる。すなわち、動作解析装置100,200,300の機能的な構成要素として示した各部は、コンピュータにより実行されるプログラムに含まれ、コンピュータが備える1以上のプロセッサ(図3のプロセッサ101)がこのプログラムを実行することにより、上述した各部がRAMなどの主記憶(図3の内部メモリ102)上に生成される。
コンピュータにより実行される上記プログラムは、例えば、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RW、Blu−ray(登録商標)Discなど)、半導体メモリ、またはこれに類する記録媒体に記録されて提供される。なお、プログラムを記録する記録媒体は、コンピュータが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。また、上記プログラムを、コンピュータに予めインストールするように構成してもよいし、ネットワークを介して配布される上記のプログラムをコンピュータに適宜インストールするように構成してもよい。
なお、上述した各実施形態の動作解析装置100,200,300を構成する各部は、プログラム(ソフトウェア)により実現するだけでなく、その一部または全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などの専用のハードウェアにより実現することもできる。
また、上述した各実施形態の動作解析装置100,200,300は、複数台のコンピュータを通信可能に接続したネットワークシステムとして構成し、上述した各部を複数台のコンピュータに分散して実現する構成であってもよい。
以上、本発明の実施形態を説明したが、ここで説明した実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。ここで説明した新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。ここで説明した実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10(10A,10B) 第1センサユニット
20 第2センサユニット
100 動作解析装置
122 対応区間検出部
123 対応付け部
124 動作区間抽出部
131 学習データ生成部
132 推定器構築部
134 特徴量算出部
141 動作推定部
142 特徴量算出部
180 オブジェクト対応情報
200 動作解析装置
300 動作解析装置
301 特徴量算出部
302 分類部

Claims (16)

  1. 第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データを表す第1波形、または、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データを表す第2波形の高周波帯の波形に対して所定の時間長さの解析窓を用いて求めた統計量が第1閾値以上である区間と、前記第1波形または前記第2波形の低周波帯の波形に対して所定の時間長さの解析窓を用いて求めた変化量が第2閾値以上である区間と、該変化量が前記第2閾値を下回ってから次に前記第2閾値以上となるまでの区間であって区間長が第3閾値以下である区間とを、動きがあったと推定される動作区間として抽出する動作区間抽出部と、
    抽出された前記動作区間を用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出する対応区間検出部と、
    検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付ける対応付け部と、
    を備える動作解析装置。
  2. 第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとを用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出する対応区間検出部と、
    検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付ける対応付け部と、
    前記対応付け部による対応付けの結果を用いて、前記第1時系列データにおける前記対応区間に対して前記第2オブジェクトを特定する情報をラベル付けし、ラベル付けした前記第1時系列データを用いて学習データを生成する学習データ生成部と、
    前記学習データを用いた機械学習により推定器を構築する推定器構築部と、
    を備える動作解析装置。
  3. 前記対応区間検出部は、前記第1時系列データを表す第1波形と前記第2時系列データを表す第2波形との類似度が基準値以上となる区間を前記対応区間として検出し、
    前記対応付け部は、前記対応区間における前記第1波形と前記第2波形との類似度をさらに対応付ける、
    請求項1または請求項2に記載の動作解析装置。
  4. 前記第1センサと前記第2センサは、振動を計測する加速度センサ、回転運動を計測するジャイロセンサ、または、地磁気を検出する地磁気センサのうちの少なくとも1つである、
    請求項1乃至3のいずれか一項に記載の動作解析装置。
  5. 前記第1オブジェクトは人であり、前記第2オブジェクトは前記人が使用する物体である、
    請求項1乃至4のいずれか一項に記載の動作解析装置。
  6. 前記学習データ生成部は、前記第1時系列データから算出された特徴量を用いて前記学習データを生成する、
    請求項2に記載の動作解析装置。
  7. 前記第1時系列データまたは該第1時系列データから算出された特徴量を入力とし、前記推定器のプログラムおよびパラメータに基づいて前記第1オブジェクトの動作を推定する動作推定部をさらに備える、
    請求項2または6に記載の動作解析装置。
  8. 前記対応区間検出部は、前記第2時系列データから、複数の第1オブジェクトに対応する複数の前記第1時系列データのうちのいずれか1つに類似または共起している前記対応区間を検出し、
    前記対応付け部は、検出された前記対応区間を特定する情報に対し、前記第2時系列データに類似または共起している前記第1時系列データに対応する前記第1オブジェクトを特定する情報を対応付ける、
    請求項1乃至7のいずれか一項に記載の動作解析装置。
  9. 前記対応区間における前記第1時系列データを表す第1波形と前記第2時系列データを表す第2波形との類似度、または、前記対応区間の前記第1時系列データまたは前記第2時系列データから算出された特徴量を、指定された数のクラスタに分類する分類部をさらに備え、
    前記対応付け部は、前記分類部による分類結果をさらに対応付ける、
    請求項1乃至7のいずれか一項に記載の動作解析装置。
  10. 第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データであって、前記第1時系列データの区間のうち、前記第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとが類似または共起している区間である対応区間に対して前記第2オブジェクトを特定する情報がラベル付けされた前記第1時系列データを用いて生成された学習データを用いた機械学習により構築された推定器に対して、前記第1時系列データまたは該第1時系列データから算出された特徴量を入力とし、前記推定器のプログラムおよびパラメータに基づいて前記第1オブジェクトの動作を推定する動作推定部
    を備える動作解析装置。
  11. コンピュータにより実行される動作解析方法であって、
    動作区間抽出部が、第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データを表す第1波形、または、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データを表す第2波形の高周波帯の波形に対して所定の時間長さの解析窓を用いて求めた統計量が第1閾値以上である区間と、前記第1波形または前記第2波形の低周波帯の波形に対して所定の時間長さの解析窓を用いて求めた変化量が第2閾値以上である区間と、該変化量が前記第2閾値を下回ってから次に前記第2閾値以上となるまでの区間であって区間長が第3閾値以下である区間とを、動きがあったと推定される動作区間として抽出するステップと、
    対応区間検出部が、抽出された前記動作区間を用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出するステップと、
    対応付け部が、検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付けるステップと、
    を含む動作解析方法。
  12. コンピュータにより実行される動作解析方法であって、
    対応区間検出部が、第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとを用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出するステップと、
    対応付け部が、検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付けるステップと、
    学習データ生成部が、前記対応付け部による対応付けの結果を用いて、前記第1時系列データにおける前記対応区間に対して前記第2オブジェクトを特定する情報をラベル付けし、ラベル付けした前記第1時系列データを用いて学習データを生成するステップと、
    推定器構築部が、前記学習データを用いた機械学習により推定器を構築するステップと、
    を含む動作解析方法。
  13. コンピュータにより実行される動作解析方法であって、
    動作推定部が、第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データであって、前記第1時系列データの区間のうち、前記第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとが類似または共起している区間である対応区間に対して前記第2オブジェクトを特定する情報がラベル付けされた前記第1時系列データを用いて生成された学習データを用いた機械学習により構築された推定器に対して、前記第1時系列データまたは該第1時系列データから算出された特徴量を入力とし、前記推定器のプログラムおよびパラメータに基づいて前記第1オブジェクトの動作を推定するステップ
    を含む動作解析方法。
  14. コンピュータに、
    第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データを表す第1波形、または、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データを表す第2波形の高周波帯の波形に対して所定の時間長さの解析窓を用いて求めた統計量が第1閾値以上である区間と、前記第1波形または前記第2波形の低周波帯の波形に対して所定の時間長さの解析窓を用いて求めた変化量が第2閾値以上である区間と、該変化量が前記第2閾値を下回ってから次に前記第2閾値以上となるまでの区間であって区間長が第3閾値以下である区間とを、動きがあったと推定される動作区間として抽出する機能と、
    抽出された前記動作区間を用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出する機能と、
    検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付ける機能と、
    を実現させるためのプログラム。
  15. コンピュータに、
    第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとを用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出する機能と、
    検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付ける機能と、
    対応付けの結果を用いて、前記第1時系列データにおける前記対応区間に対して前記第2オブジェクトを特定する情報をラベル付けし、ラベル付けした前記第1時系列データを用いて学習データを生成する機能と、
    前記学習データを用いた機械学習により推定器を構築する機能と、
    を実現させるためのプログラム。
  16. コンピュータに、
    第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データであって、前記第1時系列データの区間のうち、前記第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとが類似または共起している区間である対応区間に対して前記第2オブジェクトを特定する情報がラベル付けされた前記第1時系列データを用いて生成された学習データを用いた機械学習により構築された推定器に対して、前記第1時系列データまたは該第1時系列データから算出された特徴量を入力とし、前記推定器のプログラムおよびパラメータに基づいて前記第1オブジェクトの動作を推定する機能
    を実現させるためのプログラム。
JP2017000316A 2017-01-05 2017-01-05 動作解析装置、動作解析方法およびプログラム Active JP6710644B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017000316A JP6710644B2 (ja) 2017-01-05 2017-01-05 動作解析装置、動作解析方法およびプログラム
US15/659,948 US11030564B2 (en) 2017-01-05 2017-07-26 Motion analysis apparatus, motion analysis method, and computer program product
CN201710759598.6A CN108279767A (zh) 2017-01-05 2017-08-30 动作分析装置以及动作分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000316A JP6710644B2 (ja) 2017-01-05 2017-01-05 動作解析装置、動作解析方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018109882A JP2018109882A (ja) 2018-07-12
JP6710644B2 true JP6710644B2 (ja) 2020-06-17

Family

ID=62712447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000316A Active JP6710644B2 (ja) 2017-01-05 2017-01-05 動作解析装置、動作解析方法およびプログラム

Country Status (3)

Country Link
US (1) US11030564B2 (ja)
JP (1) JP6710644B2 (ja)
CN (1) CN108279767A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019012654A1 (ja) * 2017-07-13 2019-01-17 日本電気株式会社 分析システム、分析方法及び記憶媒体
KR102180149B1 (ko) * 2018-08-26 2020-11-17 (주)아이티공간 IoT 기반 센서의 데이터 추출 및 전송방법
JP6952660B2 (ja) * 2018-08-28 2021-10-20 株式会社東芝 更新支援装置、更新支援方法およびプログラム
CN109379762B (zh) * 2018-09-10 2021-09-14 中国联合网络通信集团有限公司 一种随机信号数据统计方法和系统
JP7048896B2 (ja) * 2018-09-20 2022-04-06 日本電信電話株式会社 学習データ生成装置、学習データ生成方法およびプログラム
JP2020119164A (ja) * 2019-01-23 2020-08-06 オムロン株式会社 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム
JP7137150B2 (ja) * 2019-03-14 2022-09-14 オムロン株式会社 動作分析装置、動作分析方法及び動作分析プログラム
CN115467382A (zh) * 2019-05-24 2022-12-13 川崎重工业株式会社 带学习功能的建筑机械
US11651249B2 (en) * 2019-10-22 2023-05-16 EMC IP Holding Company LLC Determining similarity between time series using machine learning techniques
WO2021084896A1 (ja) * 2019-11-01 2021-05-06 株式会社デンソー 同期装置、同期方法、および同期プログラム
JP7362037B2 (ja) 2019-11-05 2023-10-17 オムロン株式会社 要素作業分割装置、要素作業分割方法、要素作業分割プログラム及び要素作業分割システム
JP7385826B2 (ja) * 2019-11-08 2023-11-24 オムロン株式会社 動作分析装置、動作分析方法及び動作分析プログラム
WO2021100128A1 (ja) * 2019-11-19 2021-05-27 三菱電機株式会社 教師データ生成装置、教師データ生成方法、教師データ生成プログラムおよび記憶媒体
JP2021140303A (ja) 2020-03-03 2021-09-16 トヨタ自動車株式会社 学習方法、学習システム及び学習プログラム
JP7414678B2 (ja) 2020-09-15 2024-01-16 株式会社東芝 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3823804B2 (ja) * 2001-10-22 2006-09-20 ソニー株式会社 信号処理方法及び装置、信号処理プログラム、並びに記録媒体
JP2006338373A (ja) * 2005-06-02 2006-12-14 Toshiba Corp 多変数時系列データ分析装置、方法およびプログラム
JP4262726B2 (ja) * 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
JP5159263B2 (ja) * 2007-11-14 2013-03-06 株式会社日立製作所 作業情報処理装置、プログラム及び作業情報処理方法
JP2010263953A (ja) * 2009-05-12 2010-11-25 Oki Electric Ind Co Ltd 運動分析装置、プログラム及び方法、並びに、運動分析システム
JP5337241B2 (ja) * 2009-06-05 2013-11-06 株式会社東芝 映像編集装置
JP5440080B2 (ja) * 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
JP4785975B1 (ja) * 2010-03-26 2011-10-05 有限会社グーテック 動作判別装置、動作判別方法、及び動作判別コンピュータ・プログラム
US8909497B1 (en) * 2010-04-06 2014-12-09 Keynetik, Inc. System and method for fall detection
JP5541085B2 (ja) * 2010-10-27 2014-07-09 カシオ計算機株式会社 動物監視支援装置、及び動物監視支援方法、監視支援サーバ、監視支援端末、プログラム
US9116220B2 (en) * 2010-12-27 2015-08-25 Microsoft Technology Licensing, Llc Time synchronizing sensor continuous and state data signals between nodes across a network
JP5885549B2 (ja) 2012-03-15 2016-03-15 株式会社東日製作所 締付工具、締付位置管理システムおよび締付位置特定方法
JP5803962B2 (ja) * 2013-03-22 2015-11-04 ソニー株式会社 情報処理装置、センサ装置、情報処理システムおよび記録媒体
JP6263259B2 (ja) * 2014-05-19 2018-01-17 株式会社Moff 配信システム、配信方法及び配信装置
JP5998182B2 (ja) * 2014-08-04 2016-09-28 ヤフー株式会社 Poiデータ生成装置、端末装置、poiデータ生成方法およびプログラム
WO2016035464A1 (ja) * 2014-09-04 2016-03-10 ソニー株式会社 解析方法、システムおよび解析装置
US9911031B2 (en) * 2014-09-05 2018-03-06 The Boeing Company Obtaining metrics for a position using frames classified by an associative memory
CN105581798A (zh) * 2014-11-17 2016-05-18 吕俊逸 脚部动作的辨识装置及脚部动作的辨识方法
WO2016081946A1 (en) * 2014-11-21 2016-05-26 The Regents Of The University Of California Fast behavior and abnormality detection
EP3270346A4 (en) * 2015-03-12 2019-03-13 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM

Also Published As

Publication number Publication date
US11030564B2 (en) 2021-06-08
JP2018109882A (ja) 2018-07-12
CN108279767A (zh) 2018-07-13
US20180189700A1 (en) 2018-07-05

Similar Documents

Publication Publication Date Title
JP6710644B2 (ja) 動作解析装置、動作解析方法およびプログラム
Ward et al. Activity recognition of assembly tasks using body-worn microphones and accelerometers
US9891701B2 (en) Apparatus, system, and method for automatic identification of sensor placement
US8682608B2 (en) Behavior recognition apparatus
US20130110010A1 (en) Gait analysis device and computer program product
US11373289B2 (en) Analysis apparatus and analysis method
JP6083799B2 (ja) 携帯デバイスの携帯場所判定方法、携帯デバイス、携帯デバイスの携帯場所判定システム、プログラム及び情報記憶媒体
CN104888444A (zh) 一种卡路里消耗和手部姿势识别的智慧手套、方法及系统
JP4719826B2 (ja) 作業認識装置
JP2010207488A (ja) 行動解析装置及びプログラム
EP3322327B1 (en) Methods for adaptive noise quantification in dynamic biosignal analysis
WO2016180653A1 (en) Pedometer and method for analyzing motion data
EP3001281B1 (en) Obtaining metrics for a position using frames classified by an associative memory
JP2018045512A (ja) 作業性評価装置
JP5118620B2 (ja) 動態認識装置、動態認識システムおよび動態認識方法
Benocci et al. A context-aware smart seat
JP7219182B2 (ja) 検出装置および検出方法
Ashwini et al. Skeletal data based activity recognition system
JP2015226757A (ja) アソシエーティブメモリに連結された動作検知装置を用いた運動の識別
US20200279205A1 (en) Techniques for tailoring fabrication environments based on user, task, and expertise
Yordanova et al. Kitchen task assessment dataset for measuring errors due to cognitive impairments
JP2019103609A (ja) 動作状態推定装置、動作状態推定方法及びプログラム
JP5936038B2 (ja) 動作主識別方法、動作主識別システム、動作主識別プログラム及び情報記憶媒体
WO2019039448A1 (ja) 動作判定プログラム、動作判定装置、動作判定用画像生成プログラム、動作判定用画像生成装置
JP5360093B2 (ja) 消費エネルギー測定装置、消費エネルギー測定方法および運動解析システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200527

R151 Written notification of patent or utility model registration

Ref document number: 6710644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151