JP7487057B2 - 作業推定装置、方法およびプログラム - Google Patents
作業推定装置、方法およびプログラム Download PDFInfo
- Publication number
- JP7487057B2 JP7487057B2 JP2020154120A JP2020154120A JP7487057B2 JP 7487057 B2 JP7487057 B2 JP 7487057B2 JP 2020154120 A JP2020154120 A JP 2020154120A JP 2020154120 A JP2020154120 A JP 2020154120A JP 7487057 B2 JP7487057 B2 JP 7487057B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- worker
- value
- video data
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 35
- 230000036544 posture Effects 0.000 claims description 167
- 238000012545 processing Methods 0.000 claims description 123
- 238000010586 diagram Methods 0.000 claims description 117
- 230000000694 effects Effects 0.000 claims description 46
- 210000003141 lower extremity Anatomy 0.000 description 29
- 210000001364 upper extremity Anatomy 0.000 description 29
- 238000004364 calculation method Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 26
- 230000015654 memory Effects 0.000 description 19
- 210000003127 knee Anatomy 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 12
- 230000006399 behavior Effects 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000009466 transformation Effects 0.000 description 10
- 210000002414 leg Anatomy 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 210000002346 musculoskeletal system Anatomy 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 3
- 210000001217 buttock Anatomy 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009408 flooring Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- General Factory Administration (AREA)
Description
図1は、第1の実施形態に係る作業推定装置100を含む作業推定システム1の構成例を示すブロック図である。作業推定システム1は、作業推定装置100と、撮影装置200と、記憶装置300と、出力装置400とを含む。作業推定システム1は、対象領域内にいる作業者の作業に関する状態を、対象領域内の場所および物と関連付けて、ユーザに把握しやすい表現形式で提示(可視化)するために用いられる。
作業推定プログラムが実行されると、取得部110は、記憶装置300から映像データを取得する。取得部110は、取得した映像データを処理部120へと出力する。
映像データが取得された後、処理部120は、映像データに基づいて作業者の姿勢に関する作業値を算出する。また、処理部120は、作業値に基づく表示データを生成する。以降、ステップST120の処理を「作業値算出処理」と称する。以下では、作業値算出処理の具体例について図4のフローチャートを用いて説明する。
映像データが取得された後、姿勢推定部121は、映像データに基づいて作業者の姿勢を推定する。具体的には、姿勢推定部121は、二次元骨格推定モデルを用いて、映像データから人物の骨格を検出する。人物の骨格は、例えば、映像データから検出された人物における複数のキーポイントと、映像データ内でのピクセル座標(二次元座標)とを対応付けたデータで表すことができる。以降では、複数のキーポイントと二次元座標とを対応付けたデータを二次元人体骨格モデルと称する。
作業者の姿勢が推定された後、作業値算出部122は、推定された作業者の姿勢に基づいて作業者の作業値を算出する。具体的には、作業値算出部122は、身体の複数の部位の状態の組み合わせと負荷値とを対応付けたテーブルを用いて、作業者の姿勢から作業値としての負荷値を算出する。或いは、作業値算出部122は、推定された作業者の姿勢から作業値を算出するように学習された学習済みモデルを用いてもよい。尚、ここでの学習済みモデルは、例えばGNNを利用するのが有力である。
作業者の作業値が算出された後、統計処理部123は、算出された作業値に基づいて作業者の作業値に関する統計データを生成する。具体的には、統計処理部123は、作業の開始時刻から現在の時刻までに累積した作業値、或いは平均作業値を統計データとして生成する。作業値が負荷値である場合、作業値は、例えば、身体の複数の部位(例えば、背部、上肢、および下肢など)毎に生成される。統計データは、例えば、作業の開始時刻からの経過時間と、当該経過時間の間に累積した作業値、或いは平均作業値とが対応付けられている。
統計データが生成された後、表示データ生成部124は、生成された統計データに基づいて表示データを生成する。具体的には、表示データ生成部124は、統計データに含まれる累積した作業値を、作業者に見立てた人体図の複数の部位に対応させて表示した表示データを生成する。換言すると、表示データ生成部124は、作業者に見立てた人体図に対して、作業者の身体の複数の部位の負荷値を表すマップを重畳した表示データを生成する。
表示データが生成された後、処理部120は、作業値に基づく表示データを出力装置400へと出力する。このステップST130の処理の後、作業推定プログラムを終了する。
第1の実施形態では、映像データから作業者の作業値(例えば、負荷値)を算出することについて説明した。他方、第2の実施形態では、更に作業者が行っている作業の作業対象を推定することについて説明する。
作業推定プログラムが実行されると、取得部110Aは、記憶装置300Aから映像データを取得する。取得部110Aは、取得した映像データを処理部120Aへと出力する。
映像データが取得された後、処理部120Aは、映像データに基づいて作業者の姿勢に関する作業値を算出し、作業者が行っている作業の作業対象を推定する。また、処理部120Aは、作業値および作業対象に基づく表示データを生成する。以降、ステップST220の処理を「作業対象推定処理」と称する。以下では、作業対象推定処理の具体例について図19のフローチャートを用いて説明する。尚、作業対象推定処理は、第1の実施形態に係る作業値算出処理の一部または全部が含まれてもよい。
作業者の作業値が算出された後、作業対象推定部125は、推定した作業者の姿勢と映像データと見取り図とに基づいて作業対象を推定する。以降では、具体例として、作業対象推定部125は、作業領域端の斜め上方に配置された撮影装置200Aによって撮影された映像データに基づいて、以降の処理を行うこととする。まず、映像データの画像および二次元の見取り図の例について図20および図21を用いて説明する。
作業者の作業値が算出され、作業対象が推定された後、統計処理部123Aは、算出した作業者の作業値と作業対象とに基づいて作業者の作業値に関する統計データを生成する。具体的には、統計処理部123Aは、一つ以上の作業対象毎に、作業の開始時刻から任意の時刻までに累積した作業値、或いは平均作業値を統計データとして生成する。または、統計処理部123Aは、一つ以上の作業対象毎に、負荷値レベルと作業時間とを対応付けた統計データを生成してもよい。以降の具体例では、統計データは、一つ以上の作業対象毎に、負荷値レベルと作業時間とを対応付けたものであるとする。
統計データが生成された後、表示データ生成部124Aは、生成された統計データに基づいて表示データを生成する。具体的には、表示データ生成部124Aは、見取り図上に、生成された統計データに対応させた負荷値マップを重畳させた表示データを生成する。
表示データが生成された後、処理部120Aは、作業値および作業対象に基づく表示データを出力装置400Aへと出力する。このステップST230の処理の後、作業推定プログラムを終了する。
Claims (28)
- 所定領域内の映像データを取得する取得部と、
前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
前記作業値を表示させる表示制御部と
を具備し、
前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、
前記処理部は、
前記映像データを用いて前記作業者の作業姿勢を推定し、
前記作業者の作業姿勢に基づいて、前記負荷値を算出し、
前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定し、
前記表示制御部に対して前記作業対象と前記負荷値とを対応付けて提示させる、作業推定装置。 - 所定領域内の映像データを取得する取得部と、
前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
前記作業値を表示させる表示制御部と
を具備し、
前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、
前記処理部は、
前記映像データを用いて前記作業者の作業姿勢を推定し、
前記作業者の作業姿勢に基づいて、前記負荷値を算出し、
前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定し、
前記表示制御部に対して前記作業対象と、前記作業者の身体の複数の部位についての負荷値とを対応付けて提示させる、作業推定装置。 - 所定領域内の映像データを取得する取得部と、
前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
前記作業値を表示させる表示制御部と
を具備し、
前記作業値は、前記作業についての前記作業者の身体的な負荷を表す、時系列で表された複数の負荷値を含み、
前記処理部は、
前記映像データを用いて前記作業者の作業姿勢を推定し、
前記作業者の作業姿勢に基づいて、前記時系列で表された複数の負荷値を算出し、
前記映像データと、前記作業姿勢とに基づいて前記作業者が行っている作業の複数の作業対象を推定し、
前記時系列で表された複数の負荷値と、前記複数の作業対象とに基づいて、前記複数の作業対象のうちの各々の作業対象毎に、前記作業者の負荷値に関する統計データを生成する、作業推定装置。 - 所定領域内の映像データを取得する取得部と、
前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
前記作業値を表示させる表示制御部と
を具備し、
前記作業値は、前記作業についての前記作業者の身体的な負荷を表す、時系列で表された複数の負荷値を含み、
前記処理部は、
前記映像データを用いて前記作業者の作業姿勢を推定し、
前記作業者の作業姿勢に基づいて、前記時系列で表された複数の負荷値を算出し、
前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定し、
複数の作業対象項目毎に、前記作業者の負荷値に関する統計データを生成する、作業推定装置。 - 所定領域内の映像データを取得する取得部と、
前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
前記作業値を表示させる表示制御部と
を具備し、
前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、
前記処理部は、
前記映像データを用いて前記作業者の作業姿勢を推定し、
前記作業者の作業姿勢に基づいて、前記負荷値を算出し、
前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定し、
前記作業値と、前記作業対象と、前記映像データに関する映像データ情報とを対応付けて記憶部に記憶させる、作業推定装置。 - 前記処理部は、
前記映像データに対して、骨格推定モデルを適用することによって前記作業者の姿勢特徴量を算出し、
前記姿勢特徴量に基づいて、前記作業者の作業姿勢を推定する、
請求項1から請求項5までのいずれか一項に記載の作業推定装置。 - 前記処理部は、
前記姿勢特徴量から前記作業者の身体の複数の部位を特定し、
前記複数の部位と、前記複数の部位にそれぞれ対応する複数の姿勢とを対応付けたテーブルを用いて、前記身体の複数の部位それぞれの姿勢を特定することによって前記作業姿勢を推定する、
請求項6に記載の作業推定装置。 - 前記処理部は、複数の作業姿勢と複数の負荷値とを対応付けたテーブルを用いて、前記負荷値を算出する、
請求項1から請求項7までのいずれか一項に記載の作業推定装置。 - 前記作業値は、前記作業についての前記作業者の身体の複数の部位にそれぞれ対応する複数の負荷値を含み、
前記処理部は、
前記姿勢特徴量から前記複数の部位を特定し、
前記複数の部位と、前記複数の部位にそれぞれ対応する複数の姿勢とを対応付けたテーブルを用いて、前記複数の部位のそれぞれの姿勢を特定し、
前記複数の部位のそれぞれの姿勢に基づいて、前記複数の負荷値をそれぞれ算出する、
請求項6に記載の作業推定装置。 - 前記処理部は、前記作業者に見立てた人体図に対して、前記複数の部位の負荷値を表すマップを重畳し、
前記表示制御部は、前記マップを重畳した前記人体図を表示する、
請求項9に記載の作業推定装置。 - 前記作業値は、時系列で表された複数の負荷値を含み、
前記処理部は、
前記映像データに基づいて、前記時系列で表された複数の負荷値を算出し、
前記時系列で表された複数の負荷値に基づいて、前記作業者の負荷値に関する統計データを生成する、
請求項1から請求項10までのうちのいずれか一項に記載の作業推定装置。 - 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定する、
請求項1から請求項11までのいずれか一項に記載の作業推定装置。 - 前記処理部は、前記表示制御部に対して前記作業対象と前記負荷値とを対応付けて提示させる、
請求項1から請求項12までのうちのいずれか一項に記載の作業推定装置。 - 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定し、
前記処理部は、前記見取り図上の前記作業対象に対して、前記負荷値を表すマップを重畳し、
前記表示制御部は、前記マップを重畳した前記見取り図を表示する、
請求項13に記載の作業推定装置。 - 前記処理部は、前記表示制御部に対して前記作業対象と、前記作業者の身体の複数の部位についての負荷値とを対応付けて提示させる、
請求項1から請求項14までのいずれか一項に記載の作業推定装置。 - 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定し、
前記処理部は、前記見取り図上の前記作業対象に対して、前記作業者の身体の複数の部位についての負荷値を表すマップを重畳し、
前記表示制御部は、前記マップを重畳した前記見取り図を表示する、
請求項15に記載の作業推定装置。 - 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定し、
前記作業値は、時系列で表された複数の負荷値を含み、
前記処理部は、
前記映像データに基づいて、前記時系列で表された複数の負荷値を算出し、
前記映像データと、前記見取り図と、前記作業姿勢とに基づいて、複数の作業対象を推定し、
前記時系列で表された複数の負荷値と、前記複数の作業対象とに基づいて、前記複数の作業対象のうちの各々の作業対象毎に、前記作業者の負荷値に関する統計データを生成する、
請求項1から請求項11までと、請求項13から請求項16までとのうちのいずれか一項に記載の作業推定装置。 - 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定し、
前記作業値は、時系列で表された複数の負荷値を含み、
前記見取り図は、予め複数の作業対象項目が対応付けられており、
前記処理部は、
前記映像データに基づいて、前記時系列で表された複数の負荷値を算出し、
前記複数の作業対象項目毎に、前記作業者の負荷値に関する統計データを生成する、 請求項1から請求項11までと、請求項13から請求項16までとのうちのいずれか一項に記載の作業推定装置。 - 前記処理部は、前記作業値と、前記映像データに関する映像データ情報とを対応付けて記憶部に記憶させる、
請求項1から請求項18までのいずれか一項に記載の作業推定装置。 - 前記処理部は、前記作業値と、前記作業対象と、前記映像データに関する映像データ情報とを対応付けて記憶部に記憶させる、
請求項8から請求項18までのいずれか一項に記載の作業推定装置。 - 前記映像データ情報は、前記映像データのファイル名を含む、
請求項19または請求項20に記載の作業推定装置。 - 前記処理部は、
前記映像データに対して、骨格推定モデルを適用することによって前記作業者の姿勢特徴量を算出し、
前記姿勢特徴量に基づいて、前記作業者の作業姿勢を推定し、
前記映像データに関する映像データ情報は、前記映像データを構成するフレームに関するフレーム情報を含み、
前記処理部は、前記フレーム情報と、前記姿勢特徴量および前記作業姿勢の少なくともどちらかとを対応付けて記憶部に記憶させる、
請求項19から請求項21までのいずれか一項に記載の作業推定装置。 - 前記処理部は、前記時系列で表された複数の負荷値の総和、前記総和の平均値、前記総和の加重平均値、前記時系列で表された複数の負荷値の重み付き総和、前記重み付き総和の平均値、および前記重み付き総和の加重平均値のうちのいずれかを前記統計データとして生成する、
請求項3、請求項4、請求項11、請求項17、および請求項18のうちのいずれか一項に記載の作業推定装置。 - 前記処理部は、前記表示制御部に対して前記統計データを、テーブルまたはグラフで表して提示させる、
請求項3、請求項4、請求項11、請求項17、請求項18、および請求項23のうちのいずれか一項に記載の作業推定装置。 - 前記作業値は、前記作業の種別を示す値を含み、
前記処理部は、前記映像データに基づいて、前記作業の種別を示す値を算出する、
請求項1から請求項24までのいずれか一項に記載の作業推定装置。 - 前記作業値は、前記作業者の勤怠状況を示す値を含み、
前記処理部は、前記映像データに基づいて、前記作業者の勤怠状況を示す値を算出する、
請求項1から請求項25までのいずれか一項に記載の作業推定装置。 - 所定領域内の映像データを取得することと、
取得した前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出することと、
前記作業値を表示させることと、
前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、 前記映像データを用いて前記作業者の作業姿勢を推定することと、
前記作業者の作業姿勢に基づいて、前記負荷値を算出することと、
前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定することと、
前記作業対象と前記負荷値とを対応付けて提示させることと
を具備する、作業推定方法。 - コンピュータを、
所定領域内の映像データを取得する手段と、
取得した前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する手段と、
前記作業値を表示させる手段と、
前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、 前記映像データを用いて前記作業者の作業姿勢を推定する手段と、
前記作業者の作業姿勢に基づいて、前記負荷値を算出する手段と、
前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定する手段と、
前記作業対象と前記負荷値とを対応付けて提示させる手段
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020154120A JP7487057B2 (ja) | 2020-09-14 | 2020-09-14 | 作業推定装置、方法およびプログラム |
US17/187,056 US20220083769A1 (en) | 2020-09-14 | 2021-02-26 | Work estimation apparatus, method and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020154120A JP7487057B2 (ja) | 2020-09-14 | 2020-09-14 | 作業推定装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022048017A JP2022048017A (ja) | 2022-03-25 |
JP7487057B2 true JP7487057B2 (ja) | 2024-05-20 |
Family
ID=80626753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020154120A Active JP7487057B2 (ja) | 2020-09-14 | 2020-09-14 | 作業推定装置、方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220083769A1 (ja) |
JP (1) | JP7487057B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7481995B2 (ja) * | 2020-10-28 | 2024-05-13 | 株式会社東芝 | 状態判定装置、方法およびプログラム |
US12032377B2 (en) * | 2021-05-25 | 2024-07-09 | Ubkang (Qingdao) Technology Co., Ltd. | Mobility aid robot navigating method and mobility aid robot using the same |
US20230053308A1 (en) * | 2021-08-13 | 2023-02-16 | At&T Intellectual Property I, L.P. | Simulation of likenesses and mannerisms in extended reality environments |
WO2023195122A1 (ja) * | 2022-04-07 | 2023-10-12 | 日本電気株式会社 | 処理装置、処理方法、および記録媒体 |
TWI822096B (zh) * | 2022-06-08 | 2023-11-11 | 和碩聯合科技股份有限公司 | 用於控制電動助行裝置的控制系統以及控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001101422A (ja) | 1999-10-04 | 2001-04-13 | Hitachi Plant Eng & Constr Co Ltd | 動作解析装置 |
JP2003235034A (ja) | 2002-01-11 | 2003-08-22 | Hewlett Packard Co <Hp> | イベント監視用の画像捕捉装置及びイベント監視方法 |
JP2010287145A (ja) | 2009-06-15 | 2010-12-24 | Nec Corp | 作業記録支援システム、作業記録支援方法およびプログラム |
JP2017068428A (ja) | 2015-09-29 | 2017-04-06 | 富士重工業株式会社 | 作業負担評価装置、作業負担評価方法 |
JP2018018316A (ja) | 2016-07-28 | 2018-02-01 | 新日鐵住金株式会社 | 情報処理装置、システム、情報処理方法及びプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112009002648B4 (de) * | 2008-11-05 | 2018-04-12 | Honda Motor Co., Ltd. | Verfahren zum Ausgleichen der Arbeitslast und Unterstützungssystem zum Ausgleichen der Arbeitslast |
WO2018087844A1 (ja) * | 2016-11-09 | 2018-05-17 | 三菱電機株式会社 | 作業認識装置および作業認識方法 |
JP2019021051A (ja) * | 2017-07-18 | 2019-02-07 | 株式会社東芝 | 情報処理装置、方法及びプログラム |
WO2020039559A1 (ja) * | 2018-08-23 | 2020-02-27 | ソニー株式会社 | 情報処理装置、情報処理方法及び作業評価システム |
CN114846514A (zh) * | 2019-12-27 | 2022-08-02 | 松下知识产权经营株式会社 | 作业分析装置和作业分析方法 |
JP7414676B2 (ja) * | 2020-09-14 | 2024-01-16 | 株式会社東芝 | 負荷推定装置、方法およびプログラム |
CN113658325B (zh) * | 2021-08-05 | 2022-11-11 | 郑州轻工业大学 | 数字孪生环境下的生产线不确定对象智能识别与预警方法 |
-
2020
- 2020-09-14 JP JP2020154120A patent/JP7487057B2/ja active Active
-
2021
- 2021-02-26 US US17/187,056 patent/US20220083769A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001101422A (ja) | 1999-10-04 | 2001-04-13 | Hitachi Plant Eng & Constr Co Ltd | 動作解析装置 |
JP2003235034A (ja) | 2002-01-11 | 2003-08-22 | Hewlett Packard Co <Hp> | イベント監視用の画像捕捉装置及びイベント監視方法 |
JP2010287145A (ja) | 2009-06-15 | 2010-12-24 | Nec Corp | 作業記録支援システム、作業記録支援方法およびプログラム |
JP2017068428A (ja) | 2015-09-29 | 2017-04-06 | 富士重工業株式会社 | 作業負担評価装置、作業負担評価方法 |
JP2018018316A (ja) | 2016-07-28 | 2018-02-01 | 新日鐵住金株式会社 | 情報処理装置、システム、情報処理方法及びプログラム |
Non-Patent Citations (1)
Title |
---|
山下 浩豊,広域移動する人物の映像解析のための自動追従ドローン,情報処理学会研究報告 ,日本,情報処理学会,2020年05月15日,Vol.2020-CVIM-222 No.38,第1-6ページ |
Also Published As
Publication number | Publication date |
---|---|
JP2022048017A (ja) | 2022-03-25 |
US20220083769A1 (en) | 2022-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7487057B2 (ja) | 作業推定装置、方法およびプログラム | |
Yu et al. | Joint-level vision-based ergonomic assessment tool for construction workers | |
US11721114B2 (en) | Method, system, and device of generating a reduced-size volumetric dataset | |
KR101911133B1 (ko) | 깊이 카메라를 이용한 아바타 구성 | |
US11042887B2 (en) | Product exposure analysis in a shopping environment | |
JP2021534516A (ja) | 眼鏡用仮想試着システム及び方法 | |
Magnenat-Thalmann | Modeling and simulating bodies and garments | |
CN102201099A (zh) | 基于运动的交互式购物环境 | |
WO2019069358A1 (ja) | 認識プログラム、認識方法および認識装置 | |
JP7370777B2 (ja) | 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 | |
JP2013190974A (ja) | 情報処理装置および情報処理方法、ならびに、プログラム | |
CN109711472A (zh) | 训练数据生成方法和装置 | |
CN111539300A (zh) | 一种基于ik算法的人体运动捕捉方法、装置、介质及设备 | |
US20170365084A1 (en) | Image generating apparatus and image generating method | |
KR20200081629A (ko) | 관절각 비교를 통한 단체 댄스 평가 장치 및 그 방법 | |
Feldmann et al. | Ergonomic evaluation of body postures in order picking systems using Motion Capturing | |
Plantard et al. | Usability of corrected Kinect measurement for ergonomic evaluation in constrained environment | |
Marcon et al. | Postural assessment in dentistry based on multiple markers tracking | |
WO2018173205A1 (ja) | 情報処理システム、その制御方法、及びプログラム | |
WO2020174586A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7501543B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
Zhang et al. | Cloth simulation and virtual try-on with kinect based on human body adaptation | |
JP7461511B2 (ja) | 身体能力評価サーバ、身体能力評価システム、及び身体能力評価方法 | |
WO2022208859A1 (ja) | 技認識方法、技認識装置および体操採点支援システム | |
Akinjala et al. | Animating human movement & gestures on an agent using Microsoft kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220826 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7487057 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |