JP6689239B2 - 検出システムおよび検出方法 - Google Patents
検出システムおよび検出方法 Download PDFInfo
- Publication number
- JP6689239B2 JP6689239B2 JP2017162301A JP2017162301A JP6689239B2 JP 6689239 B2 JP6689239 B2 JP 6689239B2 JP 2017162301 A JP2017162301 A JP 2017162301A JP 2017162301 A JP2017162301 A JP 2017162301A JP 6689239 B2 JP6689239 B2 JP 6689239B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- neural network
- worker
- unit
- recurrent neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Factory Administration (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
Description
このため、自動的かつ客観的に作業者の改善すべき動作を検出可能なシステムの開発が望まれていた。
また、本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、第1実施形態に係る検出システムの構成を表すブロック図である。
図2は、第1実施形態で用いるニューラルネットワークの概略構成を表す模式図である。
例えば、取得部110は、撮像装置を含む。取得部110は、撮像装置を用いて、作業を行っている作業者を撮影する。取得部110は、撮影した映像から、作業者の骨格情報を抽出する。取得部110は、時間の経過に伴う骨格の一部(例えば頭部)の位置の変化を、作業者の動作に基づく時系列データとして取得する。
図3に表したように、LSTM構造300は、忘却ゲート310、入力ゲート320、および出力ゲート330を含む。
図4は、第1実施形態に係る検出システムの動作を表すフローチャートである。
第1熟練度に相当する動作に基づくデータがRNNに入力されると、第1ニューロンの活性度が高くなる。第2熟練度に相当する動作に基づくデータがRNNに入力されると、第2ニューロンの活性度が高くなる。
本実施形態に係る検出システム100および検出方法によれば、所定の作業時の動作において、改善すべき点が含まれているか検出することができる。一例として、第1作業者は、第1作業を早く完了させることができ、第2作業者は、第1作業により多くの時間を要する。また、第3作業者が第1作業を行う際、一部の動作は素早いが、他の一部の動作が遅い。例えばこの場合、本実施形態に係る検出システム100および検出方法によれば、以下の結果が得られる。すなわち、第3作業者の上記一部の動作に基づく時系列データがRNNに入力されている間は、第1熟練度に対応する第1ニューロンが反応する。第3作業者の上記他の一部の動作に基づく時系列データがRNNに入力されている間は、第2熟練度に対応する第2ニューロンが反応する。検出部150は、これらのニューロンの反応を検出する。この結果、検出システム100の使用者または分析方法の実施者は、第3作業者の動作には、作業が素早い部分と作業が遅い部分が含まれていることが分かる。
作業周期は、作業者ごとに異なる。従って、それぞれの作業者が同じ時刻に作業を開始しても、時間が経過するにつれて、各作業者がある時点で行っている作業にはばらつきが生じる。この点について、RNNを用いることで、このような作業周期のばらつきの影響を無くし、作業時の改善すべき動作の検出が可能となる。また、リカレントニューラルネットワークを用いることで、ある時間区分の動作と、その後の時間区分の動作と、の関連性を考慮することができるようになる。この結果、作業時間の増加を招いている動作だけでなく、その動作に繋がる原因となる動作を検出することも可能となる。
これは、関節の角度が、体格にあまり依存しないためである。従って、関節の角度をデータとして用いることで、体格の違いがデータに及ぼす影響を低減し、検出の精度を向上させることが可能となる。
図5(a)および図5(b)は、第1実施例において取得したデータを表すグラフである。
図6(a)は、第1実施例において取得したデータを表すグラフである。図6(b)および図6(c)は、第1実施例におけるニューロンの活性度を表すグラフである。
図7(a)は、第2実施例におけるニューロンの活性度を表すグラフである。図7(b)は、表示部に表示される画面を例示する模式図である。
この実施例では、取得部110は、第1作業者〜第3作業者を撮影し、各作業者の骨格情報を抽出した。この実施例では、RNNは、第1作業者〜第3作業者の骨格の動きに基づく時系列データを用いて学習されている。
図8は、第2実施形態に係る検出システムの動作を表す概念図である。
図9は、第2実施形態で用いるニューラルネットワークの概略構成を表す模式図である。
第1実施形態では、各作業者の1つの部位の動作に基づくデータを使用する例を説明した。実施形態に係る検出システムは、複数の部位の動作に基づくデータを使用しても良い。
取得部110は、第1作業者の第1作業における第1身体部位(例えば、左手首)の動作に基づく第1データを取得する(ステップS11)。取得部110は、第1作業者の第1作業における第2身体部位(例えば、右手首)の動作に基づく第4データを取得する(ステップS12)。第1データおよび第4データは、例えば、第1時間の長さを有する時系列データである。
なお、本実施形態に係る検出システムおよび検出方法において、複数の身体部位のそれぞれの動作における改善すべき点の検出と、複数の身体部位を組み合わせた動作における改善すべき点の検出と、の一方のみが行われても良い。ただし、より精度良く作業者の動作を分析するためには、これらの両方において検出が行われることが望ましい。
図11に表したように、実施形態に係る検出システムは、より多くの身体部位の動作に基づくデータを用いて、改善すべき点を検出しても良い。
学習部130は、第1作業者および第2作業者の、左手首の時系列データ、左肘の時系列データ、右手首の時系列データ、および右肘の時系列データを、それぞれ、第1RNN部210、第2RNN部、第4RNN部240、および第5RNN部250に入力し、これらのRNN部を学習させる。学習部130は、第1RNN部210および第2RNN部220の出力を第3RNN部230に入力し、第4RNN部240および第5RNN部250の出力を第6RNN部260に入力し、第3RNN部230および第6RNN部260を学習させる。さらに、学習部130は、第3RNN部230および第6RNN部260の出力を第7RNN部270に入力し、第7RNN部270を学習させる。
これにより、第3作業者のそれぞれの身体部位の動作における改善すべき点が検出される。また、左手首と左肘とを組み合わせた左腕の動作における改善すべき点が検出される。右手首と右肘とを組み合わせた右腕の動作における改善すべき点が検出される。さらに、左腕と右腕とを組み合わせた両腕の動作における改善すべき点が検出される。
検出装置400は、例えば、入力装置402、出力装置404、およびコンピュータ406を備える。コンピュータ406は、例えば、ROM(Read Only Memory)408、RAM(Random Access Memory)410、CPU(Central Processing Unit)412、および記憶装置HDD(Hard Disk Drive)414を有する。
出力装置404は、検出システム100によって得られる出力結果を、ユーザに対して出力するためのものである。出力装置404は、ディスプレイやプリンタなどである。出力装置404は、表示部160として機能する。
Claims (8)
- 時系列の第1データ、時系列の第2データ、および時系列の第3データを取得する取得部であって、前記第1データは第1熟練度を有する第1作業者の第1作業における第1身体部位の動作に基づき、前記第2データは第2熟練度を有する第2作業者の前記第1作業における前記第1身体部位の動作に基づき、前記第3データは第3作業者の前記第1作業における前記第1身体部位の動作に基づく前記取得部と、
前記第1熟練度の前記第1身体部位の動作に対応する第1値を教師データとしてリカレントニューラルネットワークの第1出力層の第1ニューロンに設定し、前記第1データを前記リカレントニューラルネットワークに入力して学習させ、前記第2熟練度の前記第1身体部位の動作に対応する第2値を教師データとして前記第1出力層の第2ニューロンに設定し、前記第2データを前記リカレントニューラルネットワークに入力して学習させる学習部と、
学習された前記リカレントニューラルネットワークに前記第3データを入力し、前記第1ニューロンまたは前記第2ニューロンの反応を検出する検出部と、
を備えた検出システム。 - 前記リカレントニューラルネットワークは、入力層と、中間層と、前記第1出力層と、を含み、
前記中間層は、Long Short Term Memory構造を有する複数のニューロンを含む請求項1記載の検出システム。 - 前記第1データは、前記第1作業者の前記第1作業における前記第1身体部位の加速度情報であり、
前記第2データは、前記第2作業者の前記第1作業における前記第1身体部位の加速度情報であり、
前記第3データは、前記第3作業者の前記第1作業における前記第1身体部位の加速度情報である請求項1または2に記載の検出システム。 - 前記第1身体部位は、第1関節を含み、
前記第1データは、前記第1作業者の前記第1作業における前記第1関節の角度情報を含み、
前記第2データは、前記第2作業者の前記第1作業における前記第1関節の角度情報を含み、
前記第3データは、前記第3作業者の前記第1作業における前記第1関節の角度情報を含む請求項1または2に記載の検出システム。 - 前記取得部は、前記第1作業者の前記第1作業における第2身体部位の動作に基づく時系列の第4データと、前記第2作業者の前記第1作業における前記第2身体部位の動作に基づく時系列の第5データと、前記第3作業者の前記第1作業における前記第2身体部位の動作に基づく時系列の第6データと、をさらに取得し、
前記リカレントニューラルネットワークは、前記第1出力層を含む第1リカレントニューラルネットワーク部および第2リカレントニューラルネットワーク部を含み、
前記学習部は、前記第1データおよび前記第2データを用いて前記第1リカレントニューラルネットワーク部を学習させ、
前記学習部は、前記第1熟練度の前記第2身体部位の動作に対応する第3値を教師データとして前記第2リカレントニューラルネットワーク部の第2出力層の第3ニューロンに設定し、前記第4データを前記第2リカレントニューラルネットワーク部に入力して学習させ、前記第2熟練度の前記第2身体部位の動作に対応する第4値を教師データとして前記第2出力層の第4ニューロンに設定し、前記第5データを前記第2リカレントニューラルネットワーク部に入力して学習させ、
前記検出部は、学習された前記第2リカレントニューラルネットワーク部に前記第6データを入力し、前記第3ニューロンまたは前記第4ニューロンの反応をさらに検出する請求項1〜4のいずれか1つに記載の検出システム。 - 前記リカレントニューラルネットワークは、前記第1リカレントニューラルネットワーク部および第2リカレントニューラルネットワーク部の出力が入力される第3リカレントニューラルネットワーク部をさらに含み、
前記学習部は、前記第1熟練度の前記第1身体部位および前記第2身体部位の組み合わせの動作に対応する第5値を教師データとして前記第3リカレントニューラルネットワーク部の第3出力層の第5ニューロンに設定し、前記第1データおよび前記第4データをそれぞれ前記第1リカレントニューラルネットワーク部および前記第2リカレントニューラルネットワーク部に入力して前記第3リカレントニューラルネットワーク部を学習させ、
前記学習部は、前記第2熟練度の前記第1身体部位および前記第2身体部位の組み合わせの動作に対応する第6値を教師データとして前記第3出力層の第6ニューロンに設定し、前記第2データおよび前記第5データをそれぞれ前記第1リカレントニューラルネットワーク部および前記第2リカレントニューラルネットワーク部に入力して前記第3リカレントニューラルネットワーク部を学習させ、
前記検出部は、前記第3データおよび前記第6データをそれぞれ前記第1リカレントニューラルネットワーク部および前記第2リカレントニューラルネットワーク部に入力し、学習された前記第3リカレントニューラルネットワーク部における前記第5ニューロンまたは前記第6ニューロンの反応を検出する請求項5記載の検出システム。 - 前記第1リカレントニューラルネットワーク部の第1中間層と前記第2リカレントニューラルネットワーク部の第2中間層とは、分離された請求項5または6に記載の検出システム。
- 第1熟練度を有する第1作業者の第1作業における第1身体部位の動作に基づく時系列の第1データを取得し、
第2熟練度を有する第2作業者の前記第1作業における前記第1身体部位の動作に基づく時系列の第2データを取得し、
前記第1熟練度の前記第1身体部位の動作に対応する第1値を教師データとしてリカレントニューラルネットワークの第1出力層の第1ニューロンに設定し、前記第1データを前記リカレントニューラルネットワークに入力して学習させ、
前記第2熟練度の前記第1身体部位の動作に対応する第2値を教師データとして前記第1出力層の第2ニューロンに設定し、前記第2データを前記リカレントニューラルネットワークに入力して学習させ、
第3作業者の前記第1作業における前記第1身体部位の動作に基づく時系列の第3データを取得し、
学習された前記リカレントニューラルネットワークに前記第3データを入力し、前記第1ニューロンまたは前記第2ニューロンの反応を検出する検出方法。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017162301A JP6689239B2 (ja) | 2017-08-25 | 2017-08-25 | 検出システムおよび検出方法 |
| US16/101,925 US11966836B2 (en) | 2017-08-25 | 2018-08-13 | Detection system and detection method for using a neural network to detect a proficiency of a worker |
| EP18189262.1A EP3447689A1 (en) | 2017-08-25 | 2018-08-16 | Detection system and detection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017162301A JP6689239B2 (ja) | 2017-08-25 | 2017-08-25 | 検出システムおよび検出方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019040421A JP2019040421A (ja) | 2019-03-14 |
| JP6689239B2 true JP6689239B2 (ja) | 2020-04-28 |
Family
ID=63294054
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017162301A Active JP6689239B2 (ja) | 2017-08-25 | 2017-08-25 | 検出システムおよび検出方法 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11966836B2 (ja) |
| EP (1) | EP3447689A1 (ja) |
| JP (1) | JP6689239B2 (ja) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7137150B2 (ja) * | 2019-03-14 | 2022-09-14 | オムロン株式会社 | 動作分析装置、動作分析方法及び動作分析プログラム |
| JP7339604B2 (ja) * | 2019-11-12 | 2023-09-06 | オムロン株式会社 | 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム |
| EP4051461B1 (en) | 2019-12-03 | 2023-04-26 | Siemens Aktiengesellschaft | Computerized engineering tool and methodology to develop neural skills for a robotics system |
| US12249015B2 (en) | 2020-03-20 | 2025-03-11 | Hinge Health, Inc. | Joint rotation inferences based on inverse kinematics |
| SE544261C2 (en) * | 2020-06-16 | 2022-03-15 | IntuiCell AB | A computer-implemented or hardware-implemented method of entity identification, a computer program product and an apparatus for entity identification |
| JP2023154322A (ja) * | 2022-04-06 | 2023-10-19 | 東京都下水道サービス株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2115033B1 (ja) | 1970-11-24 | 1974-03-22 | Roussel Uclaf | |
| JP2558943Y2 (ja) | 1992-04-16 | 1998-01-14 | 株式会社アイチコーポレーション | 伸縮ブーム装置 |
| JP3747800B2 (ja) * | 2001-05-10 | 2006-02-22 | 日本電気株式会社 | 技能向上支援装置 |
| JP2003167613A (ja) | 2001-11-30 | 2003-06-13 | Sharp Corp | 作業管理システム、作業管理方法、及びその方法を実現するためのプログラムを記憶した記録媒体 |
| JP5324418B2 (ja) | 2009-12-25 | 2013-10-23 | 本田技研工業株式会社 | 組立作業支援システムおよびプログラム |
| JP2012238072A (ja) * | 2011-05-10 | 2012-12-06 | Sharp Corp | 行動評価装置 |
| KR101939683B1 (ko) * | 2012-03-29 | 2019-01-18 | 삼성전자 주식회사 | 사용자 행동 실시간 인식장치 및 방법 |
| JP2014133015A (ja) * | 2013-01-11 | 2014-07-24 | Akita Univ | 身体動作学習支援装置 |
| US9495620B2 (en) * | 2013-06-09 | 2016-11-15 | Apple Inc. | Multi-script handwriting recognition using a universal recognizer |
| US10521009B2 (en) * | 2016-05-17 | 2019-12-31 | Samsung Electronics Co., Ltd. | Method and apparatus for facilitating interaction with virtual reality equipment |
| JP2018025932A (ja) * | 2016-08-09 | 2018-02-15 | ファナック株式会社 | センサと機械学習部を備えた作業管理システム |
| WO2018120092A1 (en) * | 2016-12-30 | 2018-07-05 | Intel Corporation | Positional analysis using computer vision sensor synchronization |
| US11556879B1 (en) * | 2017-06-12 | 2023-01-17 | Amazon Technologies, Inc. | Motion data driven performance evaluation and training |
-
2017
- 2017-08-25 JP JP2017162301A patent/JP6689239B2/ja active Active
-
2018
- 2018-08-13 US US16/101,925 patent/US11966836B2/en active Active
- 2018-08-16 EP EP18189262.1A patent/EP3447689A1/en not_active Withdrawn
Also Published As
| Publication number | Publication date |
|---|---|
| US20190065949A1 (en) | 2019-02-28 |
| JP2019040421A (ja) | 2019-03-14 |
| EP3447689A1 (en) | 2019-02-27 |
| US11966836B2 (en) | 2024-04-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6689239B2 (ja) | 検出システムおよび検出方法 | |
| Li et al. | A novel vision-based real-time method for evaluating postural risk factors associated with musculoskeletal disorders | |
| EP2577426B1 (en) | Information processing apparatus and method and program | |
| JP6583537B2 (ja) | 動作情報生成装置 | |
| US20190126484A1 (en) | Dynamic Multi-Sensor and Multi-Robot Interface System | |
| JP6897037B2 (ja) | 作業性評価装置 | |
| JP5757482B2 (ja) | 技能習得支援システム及び技能習得支援方法 | |
| Wang et al. | Gaze-aware hand gesture recognition for intelligent construction | |
| JP2022546644A (ja) | 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法 | |
| JP7393720B2 (ja) | 技能評価装置、技能評価方法及び技能評価プログラム | |
| Frank et al. | Engagement detection in meetings | |
| JP7339604B2 (ja) | 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム | |
| CN110826383B (zh) | 分析系统、分析方法、程序以及存储介质 | |
| KR20170084643A (ko) | 듀얼 스마트 밴드를 이용한 모션 분석 장치 및 방법 | |
| Kutafina et al. | Wearable Sensors in Medical Education: Supporting Hand Hygiene Training with a Forearm EMG. | |
| CN116740618A (zh) | 一种运动视频动作评估方法、系统、计算机设备及介质 | |
| CN110490034B (zh) | 动作分析装置、动作分析方法、记录介质和动作分析系统 | |
| Secco et al. | A CNN-Based Computer Vision Interface for Prosthetics’ Control | |
| Sardari et al. | View-invariant pose analysis for human movement assessment from rgb data | |
| Romeo et al. | Multi-modal temporal action segmentation for manufacturing scenarios | |
| CN112543942A (zh) | 动作分析装置、动作分析方法及动作分析程序 | |
| Parmar et al. | Influence of error-augmentation on the dynamics of visuomotor skill acquisition: insights from proxy-process models | |
| JP7456616B2 (ja) | 学習データ生成システム、推定システム、学習データ生成方法、推定方法、プログラム | |
| JP2005157942A (ja) | 動作体運動データ分節処理装置。 | |
| Matin et al. | Robust multimodal approach for assembly action recognition |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200227 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200309 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200407 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6689239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
