JP2019053368A - 作業判別システム、学習装置、及び学習方法 - Google Patents

作業判別システム、学習装置、及び学習方法 Download PDF

Info

Publication number
JP2019053368A
JP2019053368A JP2017175415A JP2017175415A JP2019053368A JP 2019053368 A JP2019053368 A JP 2019053368A JP 2017175415 A JP2017175415 A JP 2017175415A JP 2017175415 A JP2017175415 A JP 2017175415A JP 2019053368 A JP2019053368 A JP 2019053368A
Authority
JP
Japan
Prior art keywords
work
unit
worker
learning
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017175415A
Other languages
English (en)
Other versions
JP6779848B2 (ja
Inventor
徹 矢崎
Toru Yazaki
徹 矢崎
植松 裕
Yutaka Uematsu
裕 植松
俊明 高井
Toshiaki Takai
俊明 高井
玉木 剛
Takeshi Tamaki
剛 玉木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017175415A priority Critical patent/JP6779848B2/ja
Priority to US16/029,859 priority patent/US20190080262A1/en
Publication of JP2019053368A publication Critical patent/JP2019053368A/ja
Application granted granted Critical
Publication of JP6779848B2 publication Critical patent/JP6779848B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Psychiatry (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

【課題】作業者の作業を高い精度で判別できる学習データを、より短時間で生成する。【解決手段】作業判別システム10は、作業中の作業者に装着されたセンサから、前記作業者の生体信号を取得する生体信号取得部と、取得された前記作業者の生体信号の特徴量を演算する特徴量演算部と、演算された前記作業者の生体信号の特徴量と、予め生成されている学習データとの比較結果に基づいて、前記作業者の作業を判別する作業判別部と、前記学習データを生成する学習装置と、を備える。学習装置は、各作業者にそれぞれ対応する筋骨格モデルを生成モデル生成部と、筋骨格モデルに対して判別対象の作業を再現させて模擬生体信号を生成作業状態再現部と、模擬生体信号の特徴量を演算し、前記作業者それぞれに対して、判別対象の作業と、模擬生体信号の特徴量分布とを対応付けることにより学習データを生成する学習データ生成部と、を備える。【選択図】図1

Description

本発明は、作業判別システム、学習装置、及び学習方法に関する。
従来、様々な製品の生産現場において、生産品質の向上、生産計画(リソース配分)の最適化、作業者の安全性向上等を目的として、作業者が生産工程のうちのどの作業を行っているのかをモニタリングできる様々な技術が提案されている。
特許文献1には、「プリセットモデル部41と、ユーザモデル部51と、情報取得部21と、情報取得部21によって取得される所定の情報から特徴情報を抽出する特徴量抽出部34と、特徴情報と、プリセットモデル部41に記憶される各プリセットモデル情報との類似度を含む類似度情報に基づいて特徴情報の使用可否を判定し、特徴情報が使用可能であるとき、特徴情報からユーザモデル情報を作成するモデル作成部134と、特徴情報と、少なくともユーザモデル情報とに基づいて行動認識する行動認識部35と、を有する」行動判定装置1が開示されている。
特開2017−73076号公報
上記した特許文献1に記載の発明のように、各ユーザ(作業者)それぞれに対してユーザモデル情報(学習データ)を生成するようにすれば、各作業者の作業を正確に判別することが可能になる。ただし、学習データを生成するには、作業毎に一定の学習時間を要する。例えば、ネジ締め等の単純作業でもあってもその学習には数10秒を要し、複雑な作業ではその学習に数分を要する。さらに、実際の生産工程は数百の作業から成るので、各作業者それぞれに対してラベル付けされた学習データを生成するには、膨大な時間を要することになる。
本発明はこのような状況に鑑みてなされたものであり、作業者の作業を高い精度で判別できる学習データを、より短時間で生成できるようにすることを目的とする。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明の一態様に係る作業判別システムは、作業中の作業者に装着されたセンサから、前記作業者の生体信号を取得する生体信号取得部と、取得された前記作業者の生体信号の特徴量を演算する特徴量演算部と、演算された前記作業者の生体信号の特徴量と、予め生成されている学習データとの比較結果に基づいて、前記作業者の作業を判別する作業判別部と、前記学習データを生成する学習部と、を備え、前記学習部は、各作業者にそれぞれ対応する筋骨格モデルを生成し、前記筋骨格モデルに対して判別対象の作業を再現させて模擬生体信号を生成し、前記模擬生体信号の特徴量を演算し、前記各作業者それぞれに対して、判別対象の作業と、前記模擬生体信号の特徴量分布とを対応付けることにより前記学習データを生成することを特徴とする。
本発明によれば、作業者の作業を高い精度で判別できる学習データを、より短時間で生成することができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係る第1の実施形態である作業判別システムの構成例を示すブロック図である。 筋電センサの一例を示す図である。 センサテーブルの一例を示す図である。 筋電センサの電極と筋束との対応関係の具体例を示す図である。 筋活動データに基づく模擬筋電信号の生成を説明するための図である。 作業判別システムの処理の一例を説明するフローチャートである。 学習データ生成処理の一例を説明するフローチャートである。 作業判別処理の一例を説明するフローチャートである。 本発明に係る第2の実施形態である作業判別システムの構成例を示すブロック図である。 本発明に係る第3の実施形態である作業判別システムの構成例を示すブロック図である。 本発明に係る第4の実施形態である作業判別システムの構成例を示すブロック図である。 コンピュータの構成例を示すブロック図である。
以下、本発明に係る複数の実施の形態を図面に基づいて説明する。なお、各実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、「Aからなる」、「Aより成る」、「Aを有する」、「Aを含む」と言うときは、特にその要素のみである旨明示した場合等を除き、それ以外の要素を排除するものでないことは言うまでもない。同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合および原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。
<本発明に係る第1の実施の形態である作業判別システムの構成例>
図1は、本発明に係る第1の実施の形態である作業判別システムの構成例を示すブロック図である。
第1の実施の形態である作業判別システム10は、生体信号取得部11、特徴量演算部12、作業判別部13、提示部14、及び学習装置21を有する。
生体信号取得部11は、作業者に装着された1以上の筋電センサ(本発明のセンサに相当する)30(図2)と所定の無線通信規格に従って通信し、筋電センサ30が作業者から取得した筋電信号(本発明の生体信号に相当する)を受信して特徴量演算部12に供給する。ここで、筋電信号とは、筋肉を動かすときに神経を流れる微弱な電気信号を指す。
特徴量演算部12は、生体信号取得部11から供給される筋電信号の区切りと区切りの間の区間毎に、所定の特徴量演算方法によって該筋電信号の特徴量を演算して作業判別部13に通知する。ここで、筋電信号の区切りとは、例えば、作業者の作業が止まることにより、筋電信号のレベルが所定の閾値以下となったり、変化しなかったりする状態を指す。なお、所定の時間毎(数秒〜数10秒程度)に筋電信号の特徴量を演算するようにしてもよい。
所定の特徴量演算方法については既存の任意の方法を適用できる。特徴量演算方法には、例えば、エンベローブ検出、主成分分析等が含まれていてもよい。
作業判別部13は、特徴量演算部12から通知される筋電信号の特徴量と、予め生成されて学習装置21(学習データDB26)に保持されている学習データとを比較する。また、作業判別部13は、学習データとの比較結果に基づいて作業者が実行している作業を判別する。具体的には、作業判別部13は、筋電信号の特徴量と、学習データのうちの、筋電センサ30が装着された作業者に関連付けられた1以上の特徴量分布のすべてとを比較する。そして、例えば、筋電信号の特徴量に最も近い特徴量分布に対応する作業を、作業者が実行している作業と判断する。さらに、作業判別部13は、その判別結果を提示部14に通知する。
提示部14は、作業判別部13から通知される判別結果(作業者が実行している作業を表す情報)を、例えば、作業者の作業を監視する監視者等が用いる端末に出力したり、作業判別システム10に備えられたディスプレイ(いずれも不図示)に表示したりすることにより提示する。
なお、生体信号取得部11から提示部14までの動作は、作業者の作業と同時にリアルタイムで行うことが可能である。ただし、作業者から筋電センサ30が取得した筋電信号を記録しておき、作業者の作業が終了した後、記録した筋電信号に基づいて作業者が実行した作業を判別、提示するようにしてもよい。
学習装置21は、作業判別部13によって、筋電信号の特徴量と比較される学習データを予め生成し、機械学習のトレーニングを行う。ここで、学習データとは、各作業者それぞれに対して、判別対象の作業と、模擬筋電信号の特徴量分布とが対応付けられたものを指す(詳細後述)。
学習装置21は、モデル生成部22、作業状態再現部23、学習データ生成部24、センサテーブル25、及び学習データDB(データベース)26を有する。
モデル生成部22は、外部から作業判別システム10に供給される作業情報に合わせて、後述する作業状態再現部23にて作業を再現し得る筋骨格モデルを生成する。
また、モデル生成部22は、外部から作業判別システム10に供給される、各作業者の身体情報に基づき、筋骨格モデルを各作業者それぞれに対応するように補正する。例えば、生成した筋骨格モデルよりも身体情報が表す作業者の身長が高い場合には、身長の比に合わせて筋骨格モデルを伸ばす補正を行ったりする。さらに、モデル生成部22は、作業情報と、各作業者それぞれに対応して補正した筋骨格モデルとを作業状態再現部23に供給する。
ここで、作業情報は、例えば、任意の人物が判別対象の作業を行っている様子をモーションキャプチャによって取得したものであり、該任意の人物の体に装着した複数のマーカの時系列の3次元座標から成る。なお、判別対象の作業を行う任意の人物は誰でもよく、例えば、複数存在している作業者の中から選んでもよい。また、作業情報は、モーションキャプチャに限らず、測距や画像処理等によってマーカを用いることなく取得したものでもよい。さらに、作業情報を姿勢情報や動作情報等と称してもよい。
なお、同じ作業に対応する複数の作業情報を学習装置21に供給するようにすれば、学習データのトレーニングをより進めることができ、学習データを用いた判別精度を高めることができる。
身体情報は、各作業者の身体的特徴を表す身長、体重、性別、筋量、脂肪率、及び骨格情報のうちの少なくとも一つを含んでいるものとする。
筋骨格モデルは、例えば、人体を構成する骨、関節、及び骨格筋の仮想的なモデルデータであり、コンピュータ上で処理可能である。筋骨格モデルに所定の動作をシミュレーションさせることにより、例えば、各骨格筋の動きを表す筋活動データ、骨や関節等の部位の動き、加速度、角速度等を取得することができる。さらに、骨、関節、及び骨格筋に掛かる負荷を表す人体負荷データを取得することができる。
作業状態再現部23は、モデル生成部22から供給された各作業者それぞれに対応した筋骨格モデルに、作業情報に対応した作業を再現させる、すなわち、筋骨格モデルに作業のシミュレーションを行わせることにより、筋骨格モデルにおける骨格筋の動きを表す筋活動データ(本発明の筋骨格モデル出力データに相当する)を生成して学習データ生成部24に供給する。
上述したように、筋活動データは、筋骨格モデルを構成する骨格筋の動きを表すものである。一方、筋電センサ30が検出する筋電信号は、骨格筋を動かすために神経に生じる微弱な電気信号を指すものなので、両者は異なるが互いに高い相関がある。
そこで、本実施の形態では、筋活動データに所定の演算を行った結果を、模擬的な筋電信号と見做して扱うことにする。以下、筋活動データに基づく模擬的な筋電信号を模擬筋電信号(本発明の模擬生体信号に相当する)と称する。
また、作業状態再現部23は、モデル生成部22から供給された各作業者それぞれに対応した筋骨格モデルに、作業情報に対応した作業をシミュレーションさせることにより、筋骨格モデルにおける骨、関節、及び骨格筋に対する負荷を表す人体負荷データを生成することもできる。
学習データ生成部24は、センサテーブル25を参照することにより、作業状態再現部23から供給される筋活動データに基づいて模擬筋電信号を生成する(詳細は後述する)。また、学習データ生成部24は、上述した特徴量演算部12と同一の特徴量演算方法により、生成した模擬筋電信号の特徴量を演算する。さらに、学習データ生成部24は、機械学習やディープラーニング等により、各作業者それぞれに対して、判別対象の作業と、模擬筋電信号の特徴量分布とを対応付けた学習データを生成して学習データDB26に保持させる。
センサテーブル25には、作業者に装着される各筋電センサ30に対し、その装着位置と、筋電センサ30に設けられている複数の電極と、各電極が筋電信号を検出可能な骨格筋との対応付けが記述されている(図3を参照して詳述する)。
学習データDB26は、学習データ生成部24によって生成された学習データを保持し、保持する学習データを作業判別部13に参照させる。
<筋電センサ30の構成例>
次に、図2は、各作業者に装着される筋電センサ30を示す図である。同図の(A)は筋電センサ30の外観図の一例であり、同図の(B)は筋電センサ30の本体部31の展開図の一例であり、同図の(C)は筋電センサ30の装着例を示している。
同図の(A)に示されるように、筋電センサ30は、環状に形成された本体部31と、本体部31の内側(作業者に触れる側)に等間隔に設けられた複数の電極32(同図の場合、電極321〜327)と、本体部31の内部に設けられた通信部34と、本体部31の外側に設けられた通知部35と、を有する。
本体部31は、作業者の腕等に密着して装着されるように形成される。なお、本体部31は、同図の(A)に示される例のように、環状の一部が欠けていてもよい。
電極32は、同図の(B)に示されるように、作業者の肌に接する接触部33a,33b,33cから成る。接触部33a〜33cのうち、接触部33cは基準電位であり、電極32は、接触部33aと33bの電位差を筋電信号として検出する。
通信部34は、所定の無線通信規格に従って生体信号取得部11と通信し、各電極32によって検出された筋電信号を送信する。
通知部35は、例えば、光、音、文字、アイコン等により、筋電センサ30の作動状況を表す情報、作業の安全性の判断結果等をユーザである作業者に通知する。通知部35が本体部31の外側に設けられていることにより、ユーザである作業者は、筋電センサ30を正しい向き(例えば、筋電センサ30を手首に装着する場合、通知部35が手の甲側にくるように装着する等)で装着することができる。
なお、筋電センサ30に加速度や角速度を検知する動き検知部36を設けてもよい。その場合、検知された加速度や角速度を、通信部34を介して生体信号取得部11に送信するようにし、特徴量演算部12にて加速度や角速度の特徴量を演算するようにする。一方、学習装置21においては、作業状態再現部23が、作業を再現させた筋骨格モデルから加速度や角速度を演算するようにし、学習データ生成部24が加速度や角速度の特徴量を演算して学習データに含めるようにし、加速度や角速度の特徴量も作業の判別に用いるようにしてもよい。
作業者に対しては、1または複数の筋電センサ30が装着される。同図の(C)に示された例では、作業者の手首に筋電センサ301が、前腕中央部に筋電センサ302が、上腕下部に筋電センサ303が装着された状態を示している。なお、筋電センサ30の装着位置は、同図の(C)の例に限るものではない。例えば、筋電センサ30を作業者の脚部に装着するようにしてもよい。
次に、図3は、センサテーブル25の一例を示す図である。センサテーブル25には、作業者に装着される各筋電センサ30のID(識別情報)に、その装着位置と、電極番号と、人体及び筋骨格モデルにおける骨格筋を表す筋番号とが対応付けて記録されている。なお、異なる複数の電極32に対して同一の筋番号が対応付けられていてもよい。その場合、該骨格筋からの筋電信号が異なる複数の電極32によって検出されることを意味する。
図3の例では、例えば、ID=L11の筋電センサ30は、左手首に装着され、該筋電センサ30に設けられている複数の電極32のうちの電極番号P01の電極32(電極321に相当)は、筋束番号MF101,MF102の筋束から筋電信号を検出できることを示している。同様に、該筋電センサ30に設けられている複数の電極32のうちの電極番号P02の電極32(電極322に相当)は、筋束番号MF102,MF103の骨格筋から筋電信号を検出できることを示している。
以下、ID=L11の筋電センサ30を筋電センサL11とも称する。ID=L12等の筋電センサ30についても同様とする。また、電極番号P01の電極32を電極P01とも称する。電極番号P02〜P07の電極32についても同様とする。さらに、骨格筋番号MF101の骨格筋を骨格筋MF101とも称する。骨格筋番号MF102等の骨格筋についても同様とする。
また同様に、筋電センサL12の電極P01は、骨格筋MF151,MF152から筋電信号を検出できることを示している。同様に、該筋電センサL12の電極P02は、骨格筋MF153,MF154から筋電信号を検出できることを示している。
図4は、電極P01と骨格筋MF151、MF152との対応関係、及び電極P02と骨格筋MF153、MF154との対応関係を具体的に示す図である。
すなわち、作業者の左前腕中央部に装着された筋電センサL12の電極P01は骨格筋MF151,MF152から筋電信号を検出できる。また、電極P02は骨格筋MF153,MF154から筋電信号を検出できる。
図5は、図4の具体例に対応する、学習データ生成部24による筋活動データに基づいて模擬筋電信号を生成する処理を説明するための図である。同図の(A)は、筋骨格モデルに作業を再現させて得られる筋活動データであり、同図の(B)は、筋活動データに基づいて生成された模擬筋電信号を示している。
すなわち、学習データ生成部24は、作業者の左前腕中央部に装着された筋電センサL12の電極P01によって実際に検出される筋電信号に対応する模擬筋電信号を、筋活動データのうちの骨格筋MF151,MF152に対応する成分それぞれに所定の重み係数を乗算してから加算する重み付け加算によって生成する。また、学習データ生成部24は、筋電センサL12の電極P02によって実際に検出される筋電信号に対応する模擬筋電信号を、筋活動データのうちの骨格筋MF153,MF154に対応する成分それぞれに所定の重み係数を乗算してから加算する重み付け加算によって生成する。
なお、筋活動データに基づいて模擬筋電信号を生成する際に用いる重み付け係数は予め決められているが、重み付け係数は、ユーザが変更したり、筋電信号の実測値に基づいて補正したりするようにしてもよい(本発明に係る第2の実施の形態として後述する)。
<第1の実施の形態である作業判別システム10の動作>
図6は、第1の実施の形態である作業判別システム10の動作を説明するフローチャートである。
すなわち、作業判別システム10の動作は、先に、学習装置21が学習データを生成、保持する学習データ生成処理(ステップS10)を実行し、次に、生体信号取得部11〜提示部14が作業判別処理(ステップS11)を実行する。なお、学習データ生成処理が少なくとも1回実行された後は、学習データ生成処理を経ることなく作業判別処理のみを実行することができる。
ステップS10の学習データ生成処理について詳述する。図7は、学習データ生成処理を説明するフローチャートである。学習データ生成処理は、例えば、ユーザからの開始コマンドに応じて開始される。
始めに、モデル生成部22は、外部から学習装置21に対して供給された作業情報と身体情報を受け付ける(ステップS21)。次に、モデル生成部22は、外部からの作業情報に合わせて、筋骨格モデルを生成する(ステップS22)。次に、モデル生成部22は、各作業者の身体情報に基づき、生成した筋骨格モデルを補正して、各作業者それぞれに対応する筋骨格モデルを生成し、生成した各作業者それぞれに対応した筋骨格モデルと作業情報とを作業状態再現部23に供給する(ステップS23)。
次に、作業状態再現部23は、モデル生成部22から供給された各作業者それぞれに対応した筋骨格モデルに、作業情報に対応した作業を再現させることにより、筋活動データを生成して学習データ生成部24に供給する(ステップS24)。
次に、学習データ生成部24は、作業者毎に、センサテーブル25を参照することにより、作業状態再現部23から供給された筋活動データのうちの筋電センサ30の装着位置に対応する成分を抽出して重み付け加算することにより模擬筋電信号を生成する(ステップS25)。次に、学習データ生成部24は、生成した模擬筋電信号の特徴量を演算する(ステップS26)。次に、学習データ生成部24は、各作業者それぞれに対して、判別対象の作業と、模擬筋電信号の特徴量分布とを対応付けた学習データを生成してトレーニングを行い学習データDB26に保持させる(ステップS27)。以上で、学習データ生成処理は終了される。
以上説明した学習データ生成処理によれば、各作業者が作業情報を提供しなくても、各作業者にそれぞれ対応する学習モデルを生成することができる。したがって、各作業者が作業情報を提供する場合に比較して、より少ない時間で学習データを生成することできる。また、作業情報に対して、ユーザ等がラベル付けを行う必要なく学習データを生成することができる。
以上のようにして学習データが生成され、学習データDB26に保持された後、ステップS11の作業判別処理の実行が可能となる。
次に、図8は、作業判別処理を説明するフローチャートである。作業判別処理は、例えば、ユーザからの開始コマンドに応じて開始される。
始めに、作業者に装着されている筋電センサ30が、筋電信号のセンシングと送信を開始する。生体信号取得部11は、筋電センサ30から順次送信される筋電信号を受信して特徴量演算部12に供給する(ステップS31)。
特徴量演算部12は、生体信号取得部11から順次入力される筋電信号の区切りを検出するまで待機して筋電信号を蓄積する(ステップS32でNO)。ここで、筋電信号の区切りとは、作業者が作業を止めることにより、筋電信号のレベルが所定の閾値以下となった状態、または、筋電信号が所定時間変化しない状態を指すものとする。筋電信号の区切りを検出した場合(ステップS32でYES)、特徴量演算部12は、検出した区切りまでの区間に蓄積した筋電信号の特徴量を演算して作業判別部13に通知する。さらに、特徴量演算部12は、特徴量を演算した筋電信号をクリアする(ステップS33)。
次に、作業判別部13は、特徴量演算部12から通知された筋電信号の特徴量と、学習データDB26に保持されている学習データとを比較し、その比較結果に基づいて作業者が実行している作業を判別し、その判別結果を提示部14に通知する(ステップS34)。
次に、提示部14は、作業判別部13から通知される判別結果(作業者が実行している作業を表す情報)を、例えば、作業者の作業を監視する監視者等が操作する端末のディスプレイ(不図示)に表示することにより提示する(ステップS35)。
この後、筋電センサ30を装着している作業者が作業を行っている間、処理はステップS32に戻されて、ステップS32〜S35が繰り返し実行される。
以上説明した作業判別処理によれば、各作業者にそれぞれ対応する学習モデルを用いて作業者が実行している作業を判別するので、各作業者に共通の学習モデルを用いて作業を判別する場合に比較して、より高い判別精度を実現することが可能となる。
なお、上述した作業判別処理では、筋電信号の区切りを検出し、検出した区切りと区切りの間の区間毎に特徴量を演算して作業を判別するようにしたが、連続する複数の区間それぞれにおける筋電信号の特徴量の組み合わせに基づき、作業を判別するようにしてもよい。
また、所定の時間毎に筋電信号の特徴量を演算し、作業を判別するようにしたり、連続した複数の所定の時間毎の筋電信号の特徴量の組み合わせに基づいて、作業を判別したりするようにしてもよい。また、作業者を撮像した動画像から大まかな作業区切りを見つけた後に、筋電信号の特徴量に基づいて作業を判別するようにしてもよい。
<本発明に係る第2の実施の形態である作業判別システムの構成例>
次に、図9は、本発明に係る第2の実施の形態である作業判別システムの構成例を示すブロック図である。
第2の実施の形態である作業判別システム50は、図1に示された作業判別システム10の学習装置21に補正部51を追加したものである。なお、作業判別システム50を構成する要素のうち、第1の実施の形態である作業判別システム10の要素と共通するものについては、同一の符号を付し、その説明は省略する。
補正部51は、作業者が所定の単純な動作(例えば、肘を曲げる等)を行ったときの筋電信号を特徴量演算部12から取得する。また、補正部51は、該作業者に対応する筋骨格モデルに該所定の単純な動作を再現したときに得られる筋活動データに基づく模擬筋電信号を学習データ生成部24から取得する。さらに補正部51は、筋電信号と模擬筋電信号の差が所定の閾値以下となるように、模擬筋電信号を生成する際に用いる重み付け係数を変更する。なお、該模擬筋電信号は、作業状態再現部23及び学習データ生成部24が補正用に予め生成し、学習データ生成部24が保持しているものとする。
さらに、補正部51は、学習データ生成部24に対して、変更した重み付け係数を用いて模擬筋電信号を生成させ、その特徴量を再演算させて、機械学習用の学習データを補正、更新させる。
作業判別システム50においては、学習データ生成処理によって学習データを生成した後、作業判別処理を行う前に、補正部51が上述した処理を実行するようにする。
作業判別システム50によれば、学習データを補正することにより、例えば、筋電センサ30の装着位置のズレや、筋電センサ30の電極32の肌に対する接触具合等の影響を低減することができ、この後に実行する作業判別処理の判別精度を向上させることができる。
<本発明に係る第3の実施の形態である作業判別システムの構成例>
次に、図10は、本発明に係る第3の実施の形態である作業判別システムの構成例を示すブロック図である。
第3の実施の形態である作業判別システム60は、図1に示された作業判別システム10の学習装置21に作業情報拡張部61を追加したものである。なお、作業判別システム60を構成する要素のうち、第1の実施の形態である作業判別システム10の要素と共通するものについては、同一の符号を付し、その説明は省略する。
作業判別システム60においては、外部から学習装置21に供給される作業情報が作業情報拡張部61にも供給される。作業情報拡張部61は、供給された作業情報(例えば、任意の人物の体に装着した複数のマーカの時系列の3次元座標)の時間、及び3次元座標の少なくとも一方を所定の変動幅で変化させることにより、外部からの作業情報に基づき、同一の作業に対応する複数の作業情報を生成する。具体的には、例えば、同一のネジ締めの作業であっても、要する時間を変化させたり、関節の位置や手の角度等を若干変化させたりして、1つの作業情報から複数の作業情報を生成する。また、作業情報拡張部61は、生成した、同一の作業に対応する複数の作業情報を作業状態再現部23に供給する。
作業状態再現部23では、作業情報拡張部61から供給される、同一の作業に対応する複数の作業情報にそれぞれに対応する作業を筋骨格モデルに再現させることにより、複数の筋活動データを生成して学習データ生成部24に供給することができる。これにより、学習データ生成部24に供給される筋活動データの数が増加することになる。
したがって、作業判別システム60によれば、外部から同一の作業に対応する複数の作業情報を供給することなく、同一の作業に対応する作業情報の数を増やして学習データ生成部24に供給することができるので、より多くの学習データを生成できる。よって、その結果得られた学習データを用いた作業判別処理の判別精度を向上させることができる。
<本発明に係る第4の実施の形態である作業判別システムの構成例>
次に、図11は、本発明に係る第4の実施の形態である作業判別システムの構成例を示すブロック図である。
第4の実施の形態である作業判別システム70は、図1に示された作業判別システム10の学習装置21に安全性判断部71を追加したものである。なお、作業判別システム70を構成する要素のうち、第1の実施の形態である作業判別システム10の要素と共通するものについては、同一の符号を付しているので、その説明は省略する。
作業判別システム70において、作業状態再現部23は、各作業者それぞれに対応した筋骨格モデルに、作業情報に対応した作業を再現させることにより、筋骨格モデルにおける各骨、各関節、各筋束に対する負荷を表す人体負荷データを生成する。さらに、作業状態再現部23は、生成した人体負荷データを安全性判断部71に供給する。
安全性判断部71は、作業状態再現部23から供給される人体負荷データに基づき、作業情報に対応した作業を作業者が実行した場合における安全性を判断し、判断結果を学習データ生成部24に通知する。
なお、安全性判断部71における安全性の判断結果には、例えば、「この作業は1時間以上継続せず、休憩をはさんでください」、「この作業は腰を痛める恐れがあります」等の当該作業を実行する場合の注意事項等が含まれているものとする。
学習データ生成部24は、生成した学習データに、安全性判断部71による安全性の判断結果も対応付けて記録するようにする。そして、作業判別処理により作業者が行っている作業が判別されたとき、作業判別部13は、作業の判別結果とともに安全性の判断結果も提示部14に通知するようにする。提示部14は、作業の判別結果とともに安全性の判断結果を、例えば、ディスプレイに表示することにより提示するようにする。さらに、作業判別部13が、安全性の判断結果を、生体信号取得部11を介して作業者が装着している筋電センサ30に送信するようにし、筋電センサ30の通知部35が光、音、文字、アイコン等により作業者に注意喚起を行うようにしてもよい。
作業判別システム70によれば、作業者が行っている作業を判別できるだけでなく、該作業の安全性も判断し、判断結果を作業者等に通知できるので、作業の効率化だけでなく、作業者の安全性も確保することが可能となる。
なお、上述した本発明の第1〜第4の実施の形態は、適宜、組み合わせることができる。
ところで、上述した本発明の実施の形態である作業判別システム10等は、ハードウェアにより構成することもできるし、ソフトウェアにより実現することもできる。作業判別システム10等をソフトウェアにより実現する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
図12は、作業判別システム10等をプログラムにより実現するコンピュータのハードウェアの構成例を示すブロック図である。
このコンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、およびドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロフォン等より成る。出力部207は、ディスプレイ、スピーカ等より成る。記憶部208は、ハードディスクや不揮発性のメモリ等より成る。通信部209は、ネットワークインタフェース等より成る。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205およびバス204を介して、RAM203にロードして実行することにより、作業判別システム10等が実現される。
具体的には、作業判別システム10の生体信号取得部11は、例えば、通信部209を介して筋電センサ30と通信できる。また、提示部14は、出力部207や通信部209を介して、作業の判別結果を提示する端末やディスプレイに判別結果を出力できる。学習装置21は、入力部206、通信部209、ドライブ210等を介して、作業情報や身体情報を取得できる。
コンピュータ200(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ200では、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
本発明は、上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した各実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明が、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、ある実施形態の構成の一部を、他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現されてもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
本発明は、作業判別システム、学習装置及び学習方法だけでなく、学習装置で実行されるコンピュータ読み取り可能なプログラム、作業判別システムによる作業判別方法等の様々な態様で提供することができる。
10・・・作業判別システム、11・・・生体信号取得部、12・・・特徴量演算部、13・・・作業判別部、14・・・提示部、21・・・学習装置、22・・・モデル生成部、23・・・作業状態再現部、24・・・学習データ生成部、25・・・センサテーブル、26・・・学習データDB、30・・・筋電センサ、31・・・本体部、32・・・電極、34・・・通信部、35・・・通知部、36・・・動き検知部、50・・・作業判別システム、51・・・補正部、60・・・作業判別システム、61・・・作業情報拡張部、70・・・作業判別システム、71・・・安全性判断部、200・・・コンピュータ、201・・・CPU

Claims (16)

  1. 作業中の作業者に装着されたセンサから、前記作業者の生体信号を取得する生体信号取得部と、
    取得された前記作業者の生体信号の特徴量を演算する特徴量演算部と、
    演算された前記作業者の生体信号の特徴量と、予め生成されている学習データとの比較結果に基づいて、前記作業者の作業を判別する作業判別部と、
    前記学習データを生成する学習部と、
    を備え、
    前記学習部は、各作業者にそれぞれ対応する筋骨格モデルを生成し、前記筋骨格モデルに対して判別対象の作業を再現させて模擬生体信号を生成し、前記模擬生体信号の特徴量を演算し、前記各作業者それぞれに対して、判別対象の作業と、前記模擬生体信号の特徴量分布とを対応付けることにより前記学習データを生成する
    ことを特徴とする作業判別システム。
  2. 請求項1に記載の作業判別システムであって、
    前記学習部は、
    判別対象の作業を表す作業情報と、各作業者の身体情報とに基づいて前記筋骨格モデルを生成するモデル生成部と、
    生成された前記筋骨格モデルに対して前記作業情報に対応する作業を再現させて筋骨格モデル出力データを生成する作業状態再現部と、
    生成された前記筋骨格モデル出力データを用いて前記模擬生体信号を生成し、前記模擬生体信号の特徴量を演算し、前記各作業者それぞれに対して、判別対象の作業と、前記模擬生体信号の特徴量分布とを対応付けることにより前記学習データを生成する学習データ生成部と、
    を有する
    ことを特徴とする作業判別システム。
  3. 請求項2に記載の作業判別システムであって、
    前記学習データ生成部は、生成された前記筋骨格モデル出力データの前記センサの装着位置に対応する成分を抽出して所定の演算を行うことにより、前記模擬生体信号を生成する
    ことを特徴とする作業判別システム。
  4. 請求項2に記載の作業判別システムであって、
    前記学習データ生成部は、生成された前記筋骨格モデル出力データのうちの前記センサの装着位置に対応する成分を抽出して重み付け加算を行うことにより、前記模擬生体信号を生成する
    ことを特徴とする作業判別システム。
  5. 請求項2に記載の作業判別システムであって、
    前記生体信号は、筋電信号であり、
    前記筋骨格モデル出力データは、筋活動データである
    ことを特徴とする作業判別システム。
  6. 請求項2に記載の作業判別システムであって、
    前記身体情報には、身長、体重、性別、筋量、脂肪率、及び骨格情報のうちの少なくとも一つが含まれる
    ことを特徴とする作業判別システム。
  7. 請求項2に記載の作業判別システムであって、
    前記モデル生成部は、判別対象の作業を実行している任意の人物からモーションキャプチャにより取得された前記作業情報と、各作業者の前記身体情報とに基づいて前記筋骨格モデルとして筋骨格モデルを生成する
    ことを特徴とする作業判別システム。
  8. 請求項2に記載の作業判別システムであって、
    前記学習部は、
    作業中の前記作業者に装着されている前記センサによって検出された前記作業者の生体信号と、予め生成されている前記模擬生体信号との比較結果に基づき、予め生成されている前記学習データを補正する補正部と、
    を有する
    ことを特徴とする作業判別システム。
  9. 請求項2に記載の作業判別システムであって、
    前記学習部は、
    入力された前記作業情報に所定の変動幅を設ける作業情報拡張部と、を有し、
    前記作業状態再現部は、生成された前記筋骨格モデルに対して変動幅を設けた前記作業情報に対応する作業を再現させて筋骨格モデル出力データを生成する
    ことを特徴とする作業判別システム。
  10. 請求項1に記載の作業判別システムであって、
    前記作業判別部による判別結果を提示する提示部を備える
    ことを特徴とする作業判別システム。
  11. 請求項2に記載の作業判別システムであって、
    前記作業状態再現部は、生成された前記筋骨格モデルに対して前記作業情報に対応する作業を再現させて人体負荷データも生成し、
    前記学習部は、
    前記人体負荷データに基づき、前記作業情報に対応する作業の安全性を判断する安全性判断部と、
    を有する
    ことを特徴とする作業判別システム。
  12. 請求項11に記載の作業判別システムであって、
    前記作業判別部による判別結果を提示するとともに前記安全性判断部の判断結果を提示する提示部を備える
    ことを特徴とする作業判別システム。
  13. 請求項1に記載の作業判別システムであって、
    前記センサは、
    本体部と、
    前記本体部に等間隔に配置された複数の電極と、
    を有する
    ことを特徴とする作業判別システム。
  14. 請求項1に記載の作業判別システムであって、
    前記センサは、加速度、及び角速度の少なくとも一方を検出し、
    前記特徴量演算部は、検出された前記加速度、及び前記角速度の少なくとも一方の特徴量を演算し、
    前記作業判別部は、演算された前記作業者の生体信号の特徴量に加え、演算された前記加速度、及び前記角速度の少なくとも一方の特徴量と、予め生成されている学習データとの比較結果に基づいて、前記作業者の作業を判別する
    ことを特徴とする作業判別システム。
  15. 各作業者にそれぞれ対応する筋骨格モデルを生成するモデル生成部と、
    生成された前記筋骨格モデルに対して判別対象の作業を再現させて筋骨格モデル出力データを生成する作業状態再現部と、
    生成された前記筋骨格モデル出力データを用いて模擬生体信号を生成し、前記模擬生体信号の特徴量を演算し、前記各作業者それぞれに対して、判別対象の作業と、前記模擬生体信号の特徴量分布とを対応付けることにより学習データを生成する学習データ生成部と、
    備えることを特徴とする学習装置。
  16. 学習装置の学習方法において、
    前記学習装置により実行される、
    各作業者にそれぞれ対応する筋骨格モデルを生成するモデル生成ステップと、
    生成された前記筋骨格モデルに対して判別対象の作業を再現させて筋骨格モデル出力データを生成する作業状態再現ステップと、
    生成された前記筋骨格モデル出力データを用いて模擬生体信号を生成し、前記模擬生体信号の特徴量を演算し、前記各作業者それぞれに対して、判別対象の作業と、前記模擬生体信号の特徴量分布とを対応付けることにより学習データを生成する学習データ生成ステップと、
    含むことを特徴とする学習方法。
JP2017175415A 2017-09-13 2017-09-13 作業判別システム、学習装置、及び学習方法 Expired - Fee Related JP6779848B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017175415A JP6779848B2 (ja) 2017-09-13 2017-09-13 作業判別システム、学習装置、及び学習方法
US16/029,859 US20190080262A1 (en) 2017-09-13 2018-07-09 Work determination system, learning device, and learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017175415A JP6779848B2 (ja) 2017-09-13 2017-09-13 作業判別システム、学習装置、及び学習方法

Publications (2)

Publication Number Publication Date
JP2019053368A true JP2019053368A (ja) 2019-04-04
JP6779848B2 JP6779848B2 (ja) 2020-11-04

Family

ID=65631272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017175415A Expired - Fee Related JP6779848B2 (ja) 2017-09-13 2017-09-13 作業判別システム、学習装置、及び学習方法

Country Status (2)

Country Link
US (1) US20190080262A1 (ja)
JP (1) JP6779848B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004954A (ja) * 2008-06-24 2010-01-14 Panasonic Electric Works Co Ltd 他動訓練装置の移動条件評価方法およびその移動条件評価システム
JP2013121369A (ja) * 2011-12-09 2013-06-20 Sony Corp 入力装置及び校正方法
JP2013246663A (ja) * 2012-05-25 2013-12-09 Mazda Motor Corp 車両用設計支援システム
WO2017013899A1 (ja) * 2015-07-22 2017-01-26 三菱電機株式会社 活動記録装置、活動記録プログラム、および、活動記録方法
WO2017039018A1 (ja) * 2015-09-03 2017-03-09 株式会社ニコン 作業管理装置、作業管理方法および作業管理プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10206598B2 (en) * 2014-12-03 2019-02-19 Panasonic Intellectual Property Management Co., Ltd. Muscular fatigue determination apparatus, method for determining muscular fatigue, and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004954A (ja) * 2008-06-24 2010-01-14 Panasonic Electric Works Co Ltd 他動訓練装置の移動条件評価方法およびその移動条件評価システム
US20110105962A1 (en) * 2008-06-24 2011-05-05 Kazuhiro Ochi Method and system of simulation and measurement related to optimum operating condition for support base of passive exercise machine
CN102112183A (zh) * 2008-06-24 2011-06-29 松下电工株式会社 与被动训练器支撑台最佳运行条件相关的模拟、测量方法及系统
JP2013121369A (ja) * 2011-12-09 2013-06-20 Sony Corp 入力装置及び校正方法
JP2013246663A (ja) * 2012-05-25 2013-12-09 Mazda Motor Corp 車両用設計支援システム
WO2017013899A1 (ja) * 2015-07-22 2017-01-26 三菱電機株式会社 活動記録装置、活動記録プログラム、および、活動記録方法
WO2017039018A1 (ja) * 2015-09-03 2017-03-09 株式会社ニコン 作業管理装置、作業管理方法および作業管理プログラム

Also Published As

Publication number Publication date
US20190080262A1 (en) 2019-03-14
JP6779848B2 (ja) 2020-11-04

Similar Documents

Publication Publication Date Title
US11763603B2 (en) Physical activity quantification and monitoring
AU2017202152B2 (en) Method and system for determining postural balance of a person
KR102377561B1 (ko) 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법
US11547324B2 (en) System and method for human motion detection and tracking
US11403882B2 (en) Scoring metric for physical activity performance and tracking
JP2015514467A (ja) 筋肉活動の取得および分析用のシステムならびにその動作方法
WO2021148880A1 (en) Systems for dynamic assessment of upper extremity impairments in virtual/augmented reality
AU2023216736A1 (en) Methods for sensing and analyzing impacts and performing an assessment
Spasojević et al. A vision-based system for movement analysis in medical applications: the example of Parkinson disease
CN110991292A (zh) 动作识别比对方法、系统、计算机存储介质和电子装置
CN114973048A (zh) 康复动作的纠正方法、装置、电子设备及可读介质
JP7165108B2 (ja) 作業訓練システム及び作業訓練支援方法
Hamilton et al. Biomechanics beyond the lab: Remote technology for osteoarthritis patient data—A scoping review
JP6779848B2 (ja) 作業判別システム、学習装置、及び学習方法
CN115527265A (zh) 一种基于体育训练的动作捕捉方法及系统
JP2022150491A (ja) 作業支援システム
JP6465419B2 (ja) 測定装置及び測定方法
Vox et al. A Framework for the Analysis of Biomechanical Loading Using Human Motion Tracking
JP2021099666A (ja) 学習モデルの生成方法
EP4053793A1 (en) System and method for human motion detection and tracking
JP6486200B2 (ja) 移動運動解析装置及びシステム並びにプログラム
Tekriwal et al. ANN based assistance for exercise patterns using accelerometer data
JP2017213175A (ja) 移動運動解析装置及びシステム並びにプログラム
JP2023066240A5 (ja)
JP2023066240A (ja) 歩行態様可視化方法、プログラム、および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191213

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201014

R151 Written notification of patent or utility model registration

Ref document number: 6779848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees