JP7487057B2 - 作業推定装置、方法およびプログラム - Google Patents

作業推定装置、方法およびプログラム Download PDF

Info

Publication number
JP7487057B2
JP7487057B2 JP2020154120A JP2020154120A JP7487057B2 JP 7487057 B2 JP7487057 B2 JP 7487057B2 JP 2020154120 A JP2020154120 A JP 2020154120A JP 2020154120 A JP2020154120 A JP 2020154120A JP 7487057 B2 JP7487057 B2 JP 7487057B2
Authority
JP
Japan
Prior art keywords
work
worker
value
video data
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020154120A
Other languages
English (en)
Other versions
JP2022048017A (ja
Inventor
将順 仲山
洋次郎 登内
宜鉉 金
俊信 中洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020154120A priority Critical patent/JP7487057B2/ja
Priority to US17/187,056 priority patent/US20220083769A1/en
Publication of JP2022048017A publication Critical patent/JP2022048017A/ja
Application granted granted Critical
Publication of JP7487057B2 publication Critical patent/JP7487057B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • General Factory Administration (AREA)

Description

本発明の実施形態は、作業推定装置、方法およびプログラムに関する。
従来、作業者の身体的な活動の状況(活動状況)を、ウェアラブルセンサおよびウェアラブルカメラなどのウェアラブル装置を用いて取得する技術がある。
しかし、ウェアラブル装置は、作業者に装着する必要があるため、作業者にとって作業の妨げとなる可能性がある。よって、作業者の作業負荷をウェアラブル装置によって取得することは、作業者にとって作業をする際の負担になる可能性がある。他にも、作業者の人数分のウェアラブル装置を導入するための費用に関する問題や、ウェアラブル装置の充電およびメンテナンスなどの保守管理に関する問題などが懸念される。
また、作業場所における作業者の位置とウェアラブル装置を用いて取得された作業者の作業負荷とを対応付けて、見取り図上にヒートマップとして可視化する技術がある。
しかし、前述のヒートマップは、作業者の位置と、作業者の活動状況とを対応付けているものであるため、作業場所に配置されている機器などへの作業負荷を可視化することはできなかった。
特開2018-139052号公報 特開2020-024688号公報
本発明が解決しようとする課題は、作業者に負担をかけることなく、作業者の作業状況を可視化することができる作業推定装置、方法およびプログラムを提供することである。
一実施形態に係る作業推定装置は、取得部と、処理部と、表示制御部とを備える。取得部は、所定領域内の映像データを取得する。処理部は、取得した映像データに基づいて、映像データに含まれる作業者が行っている作業に関する作業値を算出する。表示制御部は、作業値を表示させる。
図1は、第1の実施形態に係る作業推定装置を含む作業推定システムの構成例を示すブロック図である。 図2は、第1の実施形態に係る作業推定装置の処理部の構成例を示すブロック図である。 図3は、第1の実施形態に係る作業推定装置の動作例を示すフローチャートである。 図4は、第1の実施形態に係る作業値算出処理の具体例を示すフローチャートである。 図5は、第1の実施形態における、二次元人体骨格モデルを例示する図である。 図6は、第1の実施形態における、画像から推定された二次元人体骨格モデルおよび三次元人体骨格モデルを例示する図である。 図7は、第1の実施形態における、身体の複数の部位の状態の分類を例示するテーブルである。 図8は、第1の実施形態における、画像から推定された作業者の姿勢の第1の例である。 図9は、第1の実施形態における、画像から推定された作業者の姿勢の第2の例である。 図10は、第1の実施形態における、画像から推定された作業者の姿勢の第3の例である。 図11は、第1の実施形態における、画像から推定された作業者の姿勢の第4の例である。 図12は、第1の実施形態における、身体の複数の部位のそれぞれの状態の組み合わせと負荷値とを対応付けたテーブルである。 図13は、第1の実施形態における、負荷値の種類を説明する図である。 図14は、第1の実施形態における、累積した負荷値を身体の複数の部位のそれぞれに対応させて表示した人体図である。 図15は、第1の実施形態における、累積した負荷値を身体の複数の部位のそれぞれに対応させて表示した複数の人体図を時系列に並べた図である。 図16は、第2の実施形態に係る作業推定装置を含む作業推定システムの構成例を示すブロック図である。 図17は、第2の実施形態に係る作業推定装置の処理部の構成を示すブロック図である。 図18は、第2の実施形態に係る作業推定装置の動作例を示すフローチャートである。 図19は、第2の実施形態に係る作業対象推定処理の具体例を示すフローチャートである。 図20は、第2の実施形態における、映像データの画像を例示する図である。 図21は、第2の実施形態における、二次元の見取り図を例示する図である。 図22は、図20の画像における三つの基準点を例示する図である。 図23は、図21の見取り図における三つの基準点を例示する図である。 図24は、図20の画像および図21の見取り図と、仮想三次元空間との対応付けを説明するための図である。 図25は、第2の実施形態における、画像における基準点の座標および見取り図における基準点の座標から、仮想三次元空間における基準点の座標への変換を例示する図である。 図26は、第2の実施形態における、正規化三次元座標で表された三次元人体骨格モデルの、仮想三次元空間内への配置を説明するための図である。 図27は、第2の実施形態における、正規化三次元座標で表された三次元人体骨格モデルのキーポイントの座標から、仮想三次元空間内で表される三次元人体骨格モデルのキーポイントの座標への変換を例示する図である。 図28は、第2の実施形態における、作業者の向きの推定を説明するための図である。 図29は、第2の実施形態における、作業者の向きと、見取り図に示された作業対象との対応付けを説明するための図である。 図30は、第2の実施形態における、累積した負荷値を複数の作業対象に対応させて表示した見取り図である。 図31は、第2の実施形態における、身体の特定の部位を示す人体図と、身体の特定の部位に関する負荷値を複数の作業対象に対応させて表示した見取り図とを含む表示データの第1の具体例を示す図である。 図32は、第2の実施形態における、身体の特定の部位を示す人体図と、身体の特定の部位に関する負荷値を複数の作業対象に対応させて表示した見取り図とを含む表示データの第2の具体例を示す図である。 図33は、第2の実施形態における、身体の特定の部位を示す人体図と、身体の特定の部位に関する負荷値を複数の作業対象に対応させて表示した見取り図とを含む表示データの第3の具体例を示す図である。 図34は、特定の作業対象を示す見取り図と、累積した負荷値を身体の複数の部位のそれぞれに対応させて表示した人体図とを含む表示データを例示する図である。 図35は、一実施形態に係るコンピュータのハードウェア構成を例示するブロック図である。
以下、図面を参照しながら、作業推定装置の実施形態について詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態に係る作業推定装置100を含む作業推定システム1の構成例を示すブロック図である。作業推定システム1は、作業推定装置100と、撮影装置200と、記憶装置300と、出力装置400とを含む。作業推定システム1は、対象領域内にいる作業者の作業に関する状態を、対象領域内の場所および物と関連付けて、ユーザに把握しやすい表現形式で提示(可視化)するために用いられる。
撮影装置200は、例えば、ビデオカメラである。撮影装置200は、作業者によって作業が行われている作業領域(例えば、工場における組み立て作業場など)を撮影し、静止画像または動画像を取得する。本実施形態では、撮影装置200で取得された静止画像または動画像を映像データと称する。撮影装置200は、取得した映像データを記憶装置300へと出力する。尚、撮影装置200は、取得した映像データを作業推定装置100へ直接出力してもよい。また、映像データは、撮影時刻が含まれてもよい。
記憶装置300は、データを不揮発的に記憶するコンピュータ読み取り可能な記憶媒体である。この記憶媒体は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)またはSSD(Solid State Drive)である。記憶装置300は、撮影装置200から出力された映像データを記憶する。更に、記憶装置300は、例えば、作業推定装置100で用いられる複数のデータを記憶している。複数のデータは、例えば、姿勢推定用データ、作業値算出用データ、履歴データ、および表示変換用データなどを含む。複数のデータそれぞれの詳細は後述される。記憶装置300は、作業推定装置100からのアクセスに応じて、映像データおよび複数のデータを作業推定装置100へと出力する。
なお、記憶装置300に記憶される映像データは、例えば、カレンダーの情報、或いはガントチャートの情報と対応付けられていてもよい。また、記憶装置300は、外部のサーバ内に設けられてもよい。また、記憶装置300は、複数の記憶媒体であってもよい。複数の記憶媒体のそれぞれは、記憶するデータの種類によって使い分けられてよい。具体的には、記憶媒体としてのHDDまたはSSDには、データ量の多い映像データが記憶され、記憶媒体としてのフラッシュメモリには、データ量の少ない上述の複数のデータが記憶されてもよい。
作業推定装置100は、例えば、作業推定システム1を管理するシステム管理者(以降では、ユーザと称する)によって使用されるコンピュータである。作業推定装置100は、取得部110と、処理部120と、表示制御部130とを含む。尚、作業推定装置100は、撮影装置200、記憶装置300、および出力装置400の少なくとも一つを備えてもよい。
取得部110は、記憶装置300から映像データを取得する。取得される映像データは、撮影装置200によってリアルタイムに撮影されて、記憶装置300に順次記憶されたものでもよいし、記憶装置300に予め記憶されていた映像データでもよい。取得部110は、取得した映像データを処理部120へと出力する。尚、取得部110は、撮影装置200から映像データを直接取得してもよい。また、取得部110は、例えば、動画を一つのデータとして一括取得してもよいし、動画をストリーミング形式で逐次取得してもよい。
処理部120は、取得部110から映像データを受け取る。処理部120は、映像データに基づいて、作業者の姿勢(作業姿勢)に関する作業値を算出する。作業値は、作業者が行っている作業に関する値に言い換えられてもよい。処理部120は、記憶装置300にアクセスすることによって、映像データを処理する際に必要な複数のデータを受け取ってもよい。尚、処理部120は、算出した作業値を記憶装置300へ記憶させてもよいし、算出した作業値を映像データ、或いは映像データに関する情報(映像データ情報)と対応付けて記憶装置300へ記憶させてもよい。映像データ情報は、例えば、映像データのファイル名および映像データを構成するフレームに関するフレーム情報などを含む。作業値を映像データ、或いは映像データ情報と対応付けて記憶装置300へ記憶させることにより、作業推定装置100において、有益な可視化や、有益な統計値の算出が行えるようになる。
作業値は、例えば、作業者の身体的な負荷を表す値(負荷値)を少なくとも含む。処理部120が負荷値を算出する場合、処理部120は、例えば、映像データに基づいて作業者の姿勢特徴量を算出し、算出した姿勢特徴量に基づいて作業者の作業姿勢を推定し、推定し作業姿勢に基づいて負荷値を算出する。尚、処理部120は、映像データ情報のうちのフレーム情報と、姿勢特徴量および作業姿勢の少なくともどちらかとを対応付けて記憶部300へ記憶させてもよい。作業値は、作業の種別を示す値、および作業者の勤怠状況を示す値を含んでもよい。作業推定装置100は、これらの値を負荷値と対応付けてユーザに提示してもよい。これにより、業務改善に役立てることができる。
また、処理部120は、算出した作業値に基づいて、ユーザにとって認識しやすい表現形式の表示データを生成する。第1の実施形態における表示データは、例えば、作業者に見立てた人体図の複数の部位(例えば、背部、上肢、および下肢など)に対して、それぞれ算出した作業値の統計データ(後述される)に対応する表示をしたものである。具体的には、第1の実施形態における表示データは、人体図の複数の部位に対して、後述する統計データに対応するマップを重畳したものである。処理部120は、生成した表示データを表示制御部130へと出力する。尚、処理部120は、生成した表示データを記憶装置300へ記憶させてもよいし、生成した表示データを映像データ、或いは映像データ情報と対応付けて記憶装置300へ記憶させてもよい。また、表示データは、人体図上、或いは人体図の近傍に、統計データに含まれる数値、当該数値に対応する図形、および統計データに基づく表、或いはグラフが含まれてもよい。
表示制御部130は、処理部120から表示データを受け取る。表示制御部130は、出力装置400に対して、表示データを表示させる。
図2は、第1の実施形態に係る作業推定装置100の処理部120の構成例を示すブロック図である。処理部120は、姿勢推定部121と、作業値算出部122と、統計処理部123と、表示データ生成部124とを含む。
姿勢推定部121は、映像データに基づいて作業者の姿勢を推定する。具体的には、姿勢推定部121は、姿勢推定用データを用いて、映像データから作業者を検出し、検出した作業者の姿勢を推定する。姿勢推定部121は、推定した作業者の姿勢の情報を作業値算出部122へと出力する。
姿勢推定用データは、例えば、映像データから人物を検出するように学習された機械学習の学習済みモデル(以降、単に「学習済みモデル」と称する)、人物の姿勢を推定するように学習された学習済みモデル、およびそれらの両方の処理を行うように学習された学習済みモデルなどを含む。これらの学習済みモデルは、Neural Network(NN)が用いられ、好ましくは、Convolutional Neural Network(CNN)が用いられる。CNNを用いることにより、画像から対象(本実施形態では人物)を精度良く検出することができる。しかしながら、学習済みモデルは、CNNに限らず、利用する用途に合った他の様々なNN(例えば、Graph Neural Network(GNN)、および3D-CNNなど)が用いられてよい。このことは以降でも同様である。
人物の姿勢の推定に用いられる学習済みモデルには、例えば、映像データ上の人物の骨格を二次元の画像上で推定するモデルである二次元骨格推定モデルと、二次元の骨格推定結果(後述される「二次元人体骨格モデル」に相当する)を正規化された三次元座標(正規化三次元座標)に当てはめて三次元の骨格を推定するモデルである三次元骨格推定モデルと、三次元の骨格推定結果(後述される「三次元人体骨格モデル」)の時系列データから人物の行動を推定するモデルである行動推定モデルとがある。尚、二次元骨格推定モデルおよび三次元骨格推定モデルを総称して骨格推定モデルと呼ばれてもよい。また、骨格推定結果および人体骨格モデルは、どちらも姿勢特徴量に言い換えられてもよい。
二次元骨格推定モデルは、映像データから人物を検出し、検出した人物の骨格を検出できるように予め学習されている。三次元骨格推定モデルは、二次元画像上の人物の骨格から三次元の骨格が推定できるように予め学習されている。行動推定モデルは、三次元の骨格の時系列データから人物の行動および姿勢が推定できるように予め学習されている。尚、行動推定モデルは、上記に限らず、例えば、静止画像内の人物が歩行しているかどうかをゼロから1までの信頼度で判定するモデルが用いられてもよい。また、二次元骨格推定モデルを利用せずに、映像データから人物の三次元人体骨格モデルを直接推定する三次元骨格推定モデルが用いられてもよい。この場合、二次元人体骨格モデルは、三次元人体骨格モデルから推定されてもよい。
なお、姿勢推定部121は、映像データに基づいて作業者を特定してもよい。具体的には、姿勢推定部121は、作業者特定用データを用いて、検出した作業員を特定する。作業者特定用データは、例えば、映像データから作業者を特定するように学習された学習済みモデル(作業者特定モデル)などを含む。作業者特定モデルは、作業者の顔写真および作業者の服装の写真などから作業者を特定できるように予め学習されている。
作業値算出部122は、姿勢推定部121から作業者の姿勢の情報を受け取る。作業値算出部122は、作業者の姿勢に基づいて作業者の作業値を算出する。具体的には、作業値算出部122は、作業値算出用データを用いて、作業者の姿勢に対応する作業者の作業値を算出する。作業値算出部122は、算出した作業者の作業値を統計処理部123へと出力する。
作業値算出用データは、例えば、人物の姿勢から作業値を算出するように学習された学習済みモデル、或いは、人物の姿勢と作業値とが対応付けられたテーブルなどを含む。また、作業値算出用データは、複数の作業者各々の顔写真、複数の作業者各々の作業工程表、作業と作業場所とを対応付けたテーブル、作業者の服装の写真などを含んでもよい。これにより、作業値算出部122は、複数の作業者の識別、作業者の作業の特定、および作業場所の特定する処理を行ってもよい。尚、これらの処理は、作業値算出部122以外が行ってもよい。
統計処理部123は、作業値算出部122から作業者の作業値を受け取る。統計処理部123は、作業値に基づいて作業者の作業値に関する統計データを生成する。具体的には、統計処理部123は、作業者の作業期間と、作業期間の各時刻に対応した作業値とに基づいて、作業の開始時刻から任意の各時刻までに累積した作業値を統計データとして生成する。作業値が負荷値である場合、作業値(負荷値)は、例えば、身体の複数の部位毎に生成してもよい。統計処理部123は、生成した統計データを表示データ生成部124へと出力する。
なお、統計処理部123は、累積した作業値を算出する際に、忘却率を考慮した重みづけをしてもよい。具体的には、統計処理部123は、過去に算出された作業値の影響が小さくなるように、過去に算出された作業値に1以下の重みづけ係数を乗算した上で、作業値を足し合わせることによって累積した作業値を算出する。重みづけ係数は、例えば、最新の時刻を中心としたガウス分布に対応した数値が用いられる。
また、統計処理部123は、累積した作業値を作業期間で割ることによって、累積した作業値の時間平均値(以降、平均作業値と称する)として統計データを生成してもよい。このとき、忘却率を考慮した重みづけを行っている場合、統計処理部123は、累積した作業値を、重みづけ係数の作業期間での積分値で割ることによって、統計データを生成する。また、統計処理部123は、特定の作業員、特定の日時、特定のシーズン、特定の時刻、作業領域内の特定の領域、或いは特定の作業内容など、任意の条件を設けて統計データを生成してもよい。
また、統計処理部123は、履歴データに基づいて統計データを生成してもよい。履歴データは、例えば、過去に算出された作業者の姿勢の情報、過去に算出された作業者の作業値、および過去に生成された統計データなどを含む。具体的には、履歴データには、例えば、過去1週間分のデータが累積されている。これにより、統計処理部123は、直近1週間分のデータに基づいて、直近1週間の作業値の累積値および平均作業値、或いは曜日毎の作業値の累積値および平均作業値などの統計データを生成することができる。
表示データ生成部124は、統計処理部123から統計データを受け取る。表示データ生成部124は、統計データに基づいて表示データを生成する。具体的には、表示データ生成部124は、表示変換用データを用いて、統計データをユーザにとって認識しやすい表現形式に変換して表示データを生成する。より具体的には、表示データ生成部124は、統計データに含まれる累積した作業値を、作業者に見立てた人体図の複数の部位に対応させて表示した表示データを生成する。
表示変換用データは、例えば、作業者に見立てた人体図、および複数の人体図を時系列に並べて表示するためのGUI(Graphical User Interface)などを含む。
出力装置400は、例えば、モニタである。出力装置400は、処理部120から表示データを受け取る。出力装置400は、表示データを表示する。尚、出力装置400は、表示データを表示可能であればモニタに限らない。例えば、出力装置400は、プロジェクタおよびプリンタでもよい。また、出力装置400は、スピーカを備えてもよい。
なお、作業推定装置100は、図示しないメモリおよびプロセッサを備えてもよい。メモリは、例えば、作業推定装置100の動作に関する各種プログラム(例えば、作業者の作業を推定する作業推定プログラムなど)を記憶する。プロセッサは、メモリに保存された各種プログラムを実行することで、取得部110、処理部120、および表示制御部130の各機能を実現する。
以上、第1の実施形態に係る作業推定システム1および作業推定装置100の構成について説明した。次に、作業推定装置100の動作について図3のフローチャートを用いて説明する。
図3は、第1の実施形態に係る作業推定装置100の動作例を示すフローチャートである。図3のフローチャートの処理は、ユーザによって作業推定プログラムが実行されることで開始する。
(ステップST110)
作業推定プログラムが実行されると、取得部110は、記憶装置300から映像データを取得する。取得部110は、取得した映像データを処理部120へと出力する。
(ステップST120)
映像データが取得された後、処理部120は、映像データに基づいて作業者の姿勢に関する作業値を算出する。また、処理部120は、作業値に基づく表示データを生成する。以降、ステップST120の処理を「作業値算出処理」と称する。以下では、作業値算出処理の具体例について図4のフローチャートを用いて説明する。
図4は、第1の実施形態に係る作業値算出処理の具体例を示すフローチャートである。図4のフローチャートは、図3のステップST120の処理の詳細を説明するものである。
(ステップST121)
映像データが取得された後、姿勢推定部121は、映像データに基づいて作業者の姿勢を推定する。具体的には、姿勢推定部121は、二次元骨格推定モデルを用いて、映像データから人物の骨格を検出する。人物の骨格は、例えば、映像データから検出された人物における複数のキーポイントと、映像データ内でのピクセル座標(二次元座標)とを対応付けたデータで表すことができる。以降では、複数のキーポイントと二次元座標とを対応付けたデータを二次元人体骨格モデルと称する。
図5は、第1の実施形態における、二次元人体骨格モデル11を例示する図である。図5に示す二次元人体骨格モデル11は、例えば、二次元座標(P,Q)上の人体の18個のキーポイントKP1からKP18までで表される。キーポイントKP1からKP18までは、それぞれ「右目」、「左目」、「右耳」、「左耳」、「鼻」、「首」、「右手」、「左手」、「右肘」、「左肘」、「右肩」、「左肩」、「右腰」、「左腰」、「右膝」、「左膝」、「右足」、および「左足」に対応している。
二次元人体骨格モデルを生成した後、姿勢推定部121は、三次元骨格推定モデルを用いて、二次元人体骨格モデルを、正規化三次元座標に当てはめて三次元の人体骨格モデル(三次元人体骨格モデル)を生成する。二次元人体骨格モデルから三次元人体骨格モデルを生成する際には、姿勢推定部121は、例えば、二次元人体骨格モデルの18個のキーポイントを、三次元座標で表される14個のキーポイントに変換する。14個のキーポイントは、それぞれ「頭」、「首」、「右手」、「左手」、「右肘」、「左肘」、「右肩」、「左肩」、「右腰」、「左腰」、「右膝」、「左膝」、「右足」、および「左足」である。尚、三次元人体骨格モデルのキーポイント「頭」は、例えば、二次元人体骨格モデルの5個のキーポイントKP1からKP5までの「右目」、「左目」、「右耳」、「左耳」、および「鼻」から推定されてもよいし、或いは、キーポイントKP5の「鼻」をキーポイント「頭」に置き換えてもよい。以降では、三次元人体骨格モデルのキーポイント「頭」をキーポイントKPHとして表す。
図6は、第1の実施形態における、画像から生成された二次元人体骨格モデルおよび三次元人体骨格モデルを例示する図である。図6に示される作業者13は、例えば、映像データから検出された人物に相当する。姿勢推定部121は、作業者13を検出した後、作業者13を含む映像データに対して二次元骨格推定モデル14を適用することによって、作業者13に対応する二次元人体骨格モデル15を生成する。このとき、二次元人体骨格モデル15は、例えば、映像データと同じ二次元座標(P,Q)上で表される。
その後、姿勢推定部121は、二次元人体骨格モデル15に対して三次元骨格推定モデル16を適用することによって、作業者13に対応する三次元人体骨格モデル17を生成する。このとき、三次元人体骨格モデル17は、正規化三次元座標(Xn,Yn,Zn)上で表される。
三次元人体骨格モデルを生成した後、姿勢推定部121は、行動推定モデルを用いて、三次元人体骨格モデルの時系列データから人物の行動を推定および姿勢を推定する。人物の行動の推定および姿勢の推定は、人物が動いている(例えば、「歩くまたは移動する」)か否かと、人物が動いているか否かに関わらず人物の姿勢を推定する。姿勢の推定は、例えば、身体の複数の部位の状態の組み合わせで決定される。よって、まずは身体の複数の部位の状態を分類する必要がある。尚、部位の状態は、部位の姿勢に言い換えられてもよい。以降では、「姿勢の推定」に「人物の行動の推定」が含まれているものとして説明する。
図7は、第1の実施形態における、身体の複数の部位の状態の分類を例示するテーブルである。図7のテーブル19には、部位と、状態分類記号と、状態とが対応付けて示されている。具体的には、部位は、「背部」、「上肢」、および「下肢」の三つに分けられている。状態分類記号は、複数の部位の状態を規定するものである。尚、図7のテーブル19は、作業者の作業負担を評価する手法の一つであるOWAS(Ovako Working Posture Analysing System)法に基づくものであるが、これに限らない。また、OWAS法では、作業者に掛かる重さまたは力の影響も考慮することができるが、第1の実施形態および以降の実施形態では作業者に掛かる重さまたは力の影響を省略する。
「背部」は、B1からB4までの四つの状態分類記号が付されている。四つの状態分類記号B1からB4までは、それぞれ「まっすぐ」(B1)、「前または後ろに曲げる」(B2)、「ひねるまたは横に曲げる」(B3)、および「ひねりかつ横に曲げる、または斜め前に曲げる」(B4)に相当する状態に対応している。
「上肢」は、U1からU3までの三つの状態分類記号が付されている。三つの状態分類記号U1からU3までは、それぞれ「両腕とも肩より下」(U1)、「片腕が肩の高さあるいはそれより上」(U2)、および「両腕が肩の高さあるいはそれより上」(U3)に相当する状態に対応している。
「下肢」は、L1からL7までの七つの状態分類記号が付されている。七つの状態分類記号L1からL7までは、それぞれ「すわる」(L1)、「両脚をまっすぐにして立つ」(L2)、「重心をかけている片脚をまっすぐにして立つ」(L3)、「両膝を曲げて立つか中腰」(L4)、「重心をかけている片脚を曲げて立つか中腰」(L5)、「片方または両方の膝を床につける」(L6)、および「歩くまたは移動する」(L7)に相当する状態に対応している。
次に、三次元人体骨格モデルから身体の複数の部位の状態を分類する方法について詳細に述べる。
三次元人体骨格モデルの「背部」の状態は、例えば、腰の曲げに関する角度および腰のひねりに関する角度によって分類することができる。具体的には、「背部」の状態は、腰を20度以上曲げているか否か、および腰を20度以上ひねっているか否かが分かれば区別することができる。
姿勢推定部121は、三次元人体骨格モデルの両腰(キーポイントKP13「右腰」、キーポイントKP14「左腰」)の中点から両足(キーポイントKP17「右足」およびキーポイントKP18「左足」)の中点への方向を表すベクトルv1と、両腰の中点から首(キーポイントKP6「首」)への方向を表すベクトルv2とのなす角θ1を腰の曲げに関する角度として算出する。また、姿勢推定部121は、三次元人体骨格モデルの右腰から左腰への方向を表すベクトルv3と、右肩(キーポイントKP11「右肩」)から左肩(キーポイントKP12「左肩」)への方向を表すベクトルv4とのなす角θ2を腰のひねりに関する角度として算出する。そして、姿勢推定部121は、角θ1および角θ2がそれぞれ20度を上回るか否かを基準に、「背部」の状態を分類(推定)する。
三次元人体骨格モデルの「上肢」の状態は、例えば、右腕の高さおよび左腕の高さによって分類することができる。具体的には、「上肢」の状態は、右腕が肩の高さ以上であるか否か、および左腕が肩の高さ以上であるか否かが分かれば区別することができる。
姿勢推定部121は、三次元人体骨格モデルの右手(キーポイントKP7「右手」)または右肘(キーポイントKP9「右肘」)の高さ方向の座標が右肩の高さ方向の座標よりも上方にあるか否かを判定する。また、姿勢推定部121は、三次元人体骨格モデルの左手(キーポイントKP8「左手」)または左肘(キーポイントKP10「左肘」)の高さ方向の座標が左肩の高さ方向の座標よりも上方にあるか否かを判定する。これらにより、姿勢推定部121は、「上肢」の状態を推定する。
三次元人体骨格モデルの「下肢」の状態は、例えば、水平面に対する臀部の位置、右脚の角度および左脚の角度、水平面に対する右足の位置および左足の位置、水平面に対する右膝の位置および左膝の位置、ならびに歩行動作の有無によって分類することができる。具体的には、「下肢」の状態は、臀部が床(或いは、椅子)についているか否か、右脚が150度以下に曲がっているか否か、左脚が150度以下に曲がっているか否か、右足が床に接触しているか否か、左足が床に接触しているか否か、右膝が床に接触しているか否か、左膝が床に接触しているか否か、および歩行しているか否かが分かれば区別することができる。
姿勢推定部121は、三次元人体骨格モデルの右腰から右膝(キーポイントKP15「右膝」)への方向を表すベクトルv5と、右膝から右足への方向を表すベクトルv6のなす角θ3を算出する。そして、姿勢推定部121は、角θ3が150度以下に曲がっているか否かを判定する。また、姿勢推定部121は、三次元人体骨格モデルの右足の座標が床(例えば、高さ方向の座標値がゼロ)より上方にあるか否かを判定することにより、右足が床に接触しているか否かを判定する。同様に、姿勢推定部121は、三次元人体骨格モデルの右膝の座標が床より上方にあるか否かを判定することにより、右膝が床に接触しているか否かを判定する。姿勢推定部121は、これらの判定を、身体の左側についても同様に行う。更に、姿勢推定部121は、作業者の行動の推定から、歩行しているか否かを判定する。これらにより、姿勢推定部121は、「下肢」の状態を推定する。尚、本実施形態の例では、座ることを想定していないため、常に臀部が床についていないものとする。
行動推定モデルによる姿勢推定結果は、前述の通り、身体の複数の部位の状態の組み合わせにより表現される。具体的には、姿勢推定結果は、図7のテーブル19の複数の部位に付された状態分類記号の組み合わせに相当する。以下では、画像から推定された作業者の姿勢について図8から図11までを用いて説明する。尚、図8から図11までに示される画像内の作業者には、作業者を検出したことを示す枠、姿勢推定結果、および三次元人体骨格モデルを示す線および破線などが重畳されている。
図8は、第1の実施形態における、画像から推定された作業者の姿勢の第1の例である。図8には、かがんで作業をする作業者が示されている。図8に示される姿勢推定結果21は、「U1,L6,B4」となっている。姿勢推定結果21によれば、図8に示される作業者の姿勢は、背部が「ひねりかつ横に曲げる、または斜め前に曲げる」(B4)、上肢が「両腕とも肩より下」(U1)、および下肢が「片方または両方の膝を床につける」(L6)である。
図9は、第1の実施形態における、画像から推定された作業者の姿勢の第2の例である。図9には、しゃがんで作業をする作業者が示されている。図9に示される姿勢推定結果23は、「U3,L6,B2」となっている。姿勢推定結果23によれば、図9に示される作業者の姿勢は、背部が「前または後ろに曲げる」(B2)、上肢が「両腕が肩の高さあるいはそれより上」(U3)、および下肢が「片方または両方の膝を床につける」(L6)である。
図10は、第1の実施形態における、画像から推定された作業者の姿勢の第3の例である。図10には、片脚に重心を掛けて作業をする作業者が示されている。図10に示される姿勢推定結果25は、「U1,L5,B4」となっている。姿勢推定結果25によれば、図10に示される作業者の姿勢は、背部が「ひねりかつ横に曲げる、または斜め前に曲げる」(B4)、上肢が「両腕とも肩より下」(U1)、および下肢が「重心をかけている片脚を曲げて立つか中腰」(L5)である。
図11は、第1の実施形態における、画像から推定された作業者の姿勢の第4の例である。図11では、上体を屈曲させて作業をする作業者が示されている。図11に示される姿勢推定結果27は、「U1,L4,B4」となっている。姿勢推定結果27によれば、図11に示される作業者の姿勢は、背部が「ひねりかつ横に曲げる、または斜め前に曲げる」(B4)、上肢が「両腕とも肩より下」(U1)、および下肢が「両膝を曲げて立つか中腰」(L4)である。
(ステップST122)
作業者の姿勢が推定された後、作業値算出部122は、推定された作業者の姿勢に基づいて作業者の作業値を算出する。具体的には、作業値算出部122は、身体の複数の部位の状態の組み合わせと負荷値とを対応付けたテーブルを用いて、作業者の姿勢から作業値としての負荷値を算出する。或いは、作業値算出部122は、推定された作業者の姿勢から作業値を算出するように学習された学習済みモデルを用いてもよい。尚、ここでの学習済みモデルは、例えばGNNを利用するのが有力である。
図12は、第1の実施形態における、身体の複数の部位のそれぞれの状態の組み合わせと負荷値とを対応付けたテーブル29である。テーブル29には、行方向の項目に「背部」および「上肢」の状態分類記号の組み合わせが示され、列方向の項目に「下肢」の状態分類記号が示され、それら行列の項目の位置に対応する負荷値が負荷値群領域31に示されている。負荷値群領域31には、負荷値の低い方から高い方にかけて1から4までの4つの数字(負荷値)が割り当てられている。尚、図12のテーブル29は、OWAS法に基づくものであるが、これに限らない。
具体的には、テーブル29には、「背部」の四つの状態分類記号B1からB4までに対して、各々に「上肢」の三つの状態分類記号U1からU3までが組み合わされている。また、それらの組み合わせの各々について、「下肢」の七つの状態分類記号L1からL7までが対応付けられている。即ち、行方向の項目は12であり、列方向の項目は7であり、負荷値群領域31には、84個の負荷値が含まれている。
例えば、図8の第1の例によれば、姿勢推定結果21「U1,L6,B4」より、「背部」および「上肢」の組み合わせは「B4」および「U1」であり、「下肢」は「L6」であることから、負荷値群領域31では負荷値「4」が対応付けられている。同様に、図9の第2の例では、姿勢推定結果23「U3,L6,B2」より、負荷値群領域31では負荷値「4」が対応付けられている。図10の第3の例では、姿勢推定結果25「U1,L5,B4」より、負荷値群領域31では負荷値「4」が対応付けられている。図11の第4の例では、姿勢推定結果27「U1,L4,B4」より、負荷値群領域31では負荷値「4」が対応付けられている。よって、作業値算出部122は、テーブル29を用いて、図8から図11までの作業者の姿勢について、それぞれ負荷値「4」を算出する。
尚、身体の複数の部位の負荷値を特定する場合は、例えば、負荷値群領域31の各負荷値に、身体の複数の部位に係る負荷値の割合が対応付けられてもよい。また、別の方法として、例えば、図7に示される身体の複数の部位の状態にそれぞれ割り当てられた状態分類記号と負荷値とが対応付けられていてもよい。
図13は、第1の実施形態における、負荷値の種類を説明する図である。図13のテーブル33では、負荷値群領域31に割り当てられている負荷値1から4までに対応する、AC1からAC4までの負荷の状態が説明されている。例えば、AC1は、「この姿勢による筋骨格系負担は問題無い。改善は不要である。」を意味し、AC2は、「この姿勢は筋骨格系に有害である。近いうちに改善すべきである。」を意味し、AC3は、「この姿勢は筋骨格系に有害である。できるだけ早期に改善すべきである。」を意味し、AC4は、「この姿勢は筋骨格系に非常に有害である。ただちに改善すべきである。」を意味する。尚、図13のテーブル33は、OWAS法に基づくものであるが、これに限らない。
(ステップST123)
作業者の作業値が算出された後、統計処理部123は、算出された作業値に基づいて作業者の作業値に関する統計データを生成する。具体的には、統計処理部123は、作業の開始時刻から現在の時刻までに累積した作業値、或いは平均作業値を統計データとして生成する。作業値が負荷値である場合、作業値は、例えば、身体の複数の部位(例えば、背部、上肢、および下肢など)毎に生成される。統計データは、例えば、作業の開始時刻からの経過時間と、当該経過時間の間に累積した作業値、或いは平均作業値とが対応付けられている。
(ステップST124)
統計データが生成された後、表示データ生成部124は、生成された統計データに基づいて表示データを生成する。具体的には、表示データ生成部124は、統計データに含まれる累積した作業値を、作業者に見立てた人体図の複数の部位に対応させて表示した表示データを生成する。換言すると、表示データ生成部124は、作業者に見立てた人体図に対して、作業者の身体の複数の部位の負荷値を表すマップを重畳した表示データを生成する。
図14は、第1の実施形態における、累積した負荷値を身体の複数の部位のそれぞれに対応させて表示した人体図35である。人体図35は、身体の複数の部位として、背部領域351と、上肢領域352と、下肢領域353とに分けられている。これらの領域には、負荷値の大きさに対応する色分けが成されており、低い負荷値から高い負荷値までの4つの負荷値レベルLV1からLV4までに分けられている。具体的には、背部領域351は負荷値レベルLV4に対応する色が付され、上肢領域352は負荷値レベルLV3に対応する色が付され、下肢領域353は負荷値レベルLV2に対応する色が付されている。これにより、ユーザは、この人体図35を確認することによって、作業者の身体の複数の部位において、背部領域351の負荷が他の部位の負荷よりも高いことを認識することができる。
図14では、任意の時刻における累積した負荷値を身体の複数の部位に対応させて表示した人体図を表示データとしたが、これに限らない。例えば、表示データは、複数の時刻における累積した負荷値を身体の複数の部位に対応させて表示した複数の人体図を含んでもよい。
図15は、第1の実施形態における、累積した負荷値を身体の複数の部位のそれぞれに対応させて表示した複数の人体図37,39,41,43を時系列に並べた図である。図15では、時刻t1からt4までにそれぞれ対応する人体図37,39,41,43が示されている。
人体図37において、背部領域371は負荷値レベルLV2に対応する色が付され、上肢領域372および下肢領域373は負荷値レベルLV1に対応する色が付されている。人体図39において、背部領域391は負荷値レベルLV3に対応する色が付され、上肢領域392は負荷値レベルLV2に対応する色が付され、下肢領域393は負荷値レベルLV1に対応する色が付されている。人体図41において、背部領域411は負荷値レベルLV4に対応する色が付され、上肢領域412は負荷値レベルLV3に対応する色が付され、下肢領域413は負荷値レベルLV2に対応する色が付されている。人体図43において、背部領域431および上肢領域432は負荷値レベルLV4に対応する色が付され、下肢領域433は負荷値レベルLV3に対応する色が付されている。これにより、ユーザは、時系列に並べられた複数の人体図37,39,41,43を確認することによって、作業時間の経過による身体の複数の部位の負荷の変遷を把握することができる。
なお、第1の実施形態における表示データは、上記に限らない。例えば、表示データは、映像データを加工して作成されてもよい。このとき、表示データ生成部124は、映像データ上の作業者に対して、作業者の身体の複数の部位の負荷値を表すマップを重畳させる。尚、映像データの作業者上、或いは作業者の近傍には、統計データに含まれる数値、当該数値に対応する図形、および統計データに基づく表、或いはグラフが重畳されてもよい。
(ステップST130)
表示データが生成された後、処理部120は、作業値に基づく表示データを出力装置400へと出力する。このステップST130の処理の後、作業推定プログラムを終了する。
なお、映像データをリアルタイムで取得している場合、ステップST130の処理の後、ステップST110へ戻り、同様の処理を繰り返してもよい。また、作業推定プログラムは、ユーザによる指示で終了してもよい。
以上説明したように、第1の実施形態に係る作業推定装置100は、所定領域内の映像データを取得し、取得した映像データに基づいて、映像データに含まれる作業者が行っている作業値を算出し、作業値を表示させる。この作業値は、例えば、作業についての作業者の身体的な負荷を表す負荷値を含んでもよい。また、第1の実施形態に係る作業推定装置100は、作業者の作業姿勢を推定してもよく、作業者の身体の部位の姿勢を特定してもよく、作業者に見立てた人体図に負荷値を表すマップを重畳してもよい。
従って、第1の実施形態に係る作業推定装置100は、映像を用いることで、センサーを用いる従来の作業値推定よりも低い導入コストで作業者の作業状態を視覚的に把握することができる。また、第1の実施形態に係る作業推定装置100は、作業者の身体部位に係る作業負荷を可視化することができ、作業者の作業改善をすることができる。
(第2の実施形態)
第1の実施形態では、映像データから作業者の作業値(例えば、負荷値)を算出することについて説明した。他方、第2の実施形態では、更に作業者が行っている作業の作業対象を推定することについて説明する。
図16は、第2の実施形態に係る作業推定装置100Aを含む作業推定システム1Aの構成例を示すブロック図である。作業推定システム1Aは、作業推定装置100Aと、撮影装置200Aと、記憶装置300Aと、出力装置400Aとを含む。尚、撮影装置200Aおよび出力装置400Aは、第1の実施形態における撮影装置200および出力装置400と略同様のため説明を省略する。
記憶装置300Aは、データを不揮発的に記憶するコンピュータ読み取り可能な記憶媒体である。記憶装置300Aは、撮影装置200Aから出力された映像データを記憶する。更に、記憶装置300Aは、例えば、作業推定装置100Aで用いられる複数のデータを記憶している。第2の実施形態における複数のデータは、第1の実施形態における複数のデータに加え、例えば、作業対象推定用データなどを含む。作業対象推定用データの詳細は後述される。記憶装置300Aは、作業推定装置100Aからのアクセスに応じて、映像データおよび複数のデータを作業推定装置100Aへと出力する。
作業推定装置100Aは、例えば、作業推定システム1Aを管理するユーザによって使用されるコンピュータである。作業推定装置100Aは、取得部110Aと、処理部120Aと、表示制御部130Aとを含む。尚、作業推定装置100Aは、撮影装置200A、記憶装置300A、および出力装置400Aの少なくとも一つを備えてもよい。また、取得部110Aおよび表示制御部130Aは、第1の実施形態における取得部110および表示制御部130と略同様のため説明を省略する。
処理部120Aは、取得部110Aから映像データを受け取る。処理部120Aは、映像データに基づいて、作業者の姿勢に関する作業値を算出する。更に、処理部120Aは、映像データおよび作業者の作業姿勢の情報などに基づいて、作業者が行っている作業の作業対象を推定する。処理部120Aは、記憶装置300Aにアクセスすることによって、映像データを処理する際に必要な複数のデータを受け取ってもよい。尚、処理部120Aは、算出した作業値および推定した作業対象の情報を記憶装置300Aへ記憶させてもよいし、算出した作業値および推定した作業対象の情報を映像データ、或いは映像データ情報と対応付けて記憶装置300Aへ記憶させてもよい。
また、処理部120Aは、算出した作業値および推定した作業対象の情報などに基づいて、ユーザにとって認識しやすい表現形式の表示データを生成する。第2の実施形態における表示データは、例えば、作業領域の見取り図に示された作業対象に対して、算出した作業値の統計データに対応する表示をしたものである。具体的には、第2の実施形態における表示データは、二次元、或いは三次元の見取り図の一つ以上の作業対象に対して、統計データに対応するマップを重畳したものである。処理部120Aは、生成した表示データを表示制御部130Aへと出力する。尚、処理部120Aは、生成した表示データを記憶装置300Aへ記憶させてもよいし、生成した表示データを映像データ、或いは映像データ情報と対応付けて記憶させてもよい。また、表示データは、見取り図上、或いは見取り図の近傍に、統計データに含まれる数値、当該数値に対応する図形、および統計データに基づく表、或いはグラフを含んでもよい。
図17は、第2の実施形態に係る作業推定装置100Aの処理部120Aの構成を示すブロック図である。処理部120Aは、姿勢推定部121Aと、作業値算出部122Aと、統計処理部123Aと、表示データ生成部124Aと、作業対象推定部125とを含む。尚、作業値算出部122Aは、第1の実施形態における作業値算出部122と略同様のため説明を省略する。
姿勢推定部121Aは、映像データに基づいて作業者の姿勢を推定する。具体的には、姿勢推定部121Aは、姿勢推定用データを用いて、映像データから作業者を検出し、検出した作業者の姿勢を推定する。姿勢推定部121Aは、推定した作業者の姿勢の情報を作業値算出部122Aおよび作業対象推定部125へと出力する。
作業対象推定部125は、姿勢推定部121Aから作業者の姿勢の情報を受け取る。作業対象推定部125は、映像データと、作業者の姿勢と、作業対象推定用データとに基づいて、作業者が行っている作業の作業対象を推定する。具体的には、作業対象推定部125は、映像データに含まれる作業者の位置を、作業対象推定用データに含まれる見取り図上で特定し、作業者の姿勢に基づいて、見取り図に対応付けられた複数の作業対象候補の中から作業者が行っている作業の作業対象を推定する。作業対象推定部125は、推定した作業対象の情報を統計処理部123Aへと出力する。
作業対象推定用データは、例えば、作業領域の二次元の見取り図、作業領域の三次元の見取り図などを含む。また、作業対象推定用データは、見取り図上の作業対象の含まれる座標の領域、作業対象物の矩形位置情報、作業対象物のセグメンテーション情報、および作業対象物の名称などを含んでもよい。
なお、作業対象推定部125は、映像データから作業対象物の矩形位置情報、またはセグメンテーション情報およびその両方を検出してもよい。この場合、作業対象推定用データは、映像データから物体を検出するように学習された学習済みモデルを含んでもよい。
統計処理部123Aは、作業値算出部122Aから作業者の作業値を受け取り、作業対象推定部125から作業対象の情報を受け取る。統計処理部123Aは、作業値および作業対象に基づいて、作業者の作業値に関する統計データを生成する。具体的には、統計処理部123Aは、一つ以上の作業対象毎に、作業の開始時刻から任意の時刻までに累積した作業値を統計データとして生成する。累積した作業値は、例えば、身体の複数の部位毎に生成してもよい。統計処理部123Aは、生成した統計データを表示データ生成部124Aへと出力する。尚、統計処理部123Aは、履歴データに基づいて統計データを生成してもよい。
表示データ生成部124Aは、統計処理部123Aから統計データを受け取り、作業対象推定部125から作業対象の情報を受け取る。表示データ生成部124Aは、統計データおよび作業対象の情報に基づいて表示データを生成する。具体的には、表示データ生成部124Aは、表示変換用データを用いて、統計データおよび作業対象の情報をユーザにとって認識しやすい表現形式に変換して表示データを生成する。より具体的には、表示データ生成部124Aは、統計データに含まれる累積した作業値を、作業領域の見取り図に示された作業対象に対応させて表示した表示データを生成する。
第2の実施形態における表示変換用データは、第1の実施形態における表示変換用データに加えて、例えば、作業領域の二次元の見取り図、作業領域の三次元の見取り図、および見取り図と人体図とを並べて表示するためのGUIなどを含む。
なお、作業推定装置100Aは、図示しないメモリおよびプロセッサを備えてもよい。メモリは、例えば、作業推定装置100Aの動作に関する各種プログラム(例えば、作業推定プログラムなど)を記憶する。プロセッサは、メモリに保存された各種プログラムを実行することで、取得部110A、処理部120A、および表示制御部130Aの各機能を実現する。尚、第2の実施形態における作業推定プログラムは、第1の実施形態における作業推定プログラムの処理の一部または全部が含まれてもよい。
以上、第2の実施形態に係る作業推定システム1Aおよび作業推定装置100Aの構成について説明した。次に、作業推定装置100Aの動作について図18のフローチャートを用いて説明する。
図18は、第2の実施形態に係る作業推定装置100Aの動作例を示すフローチャートである。図18のフローチャートの処理は、ユーザによって作業推定プログラムが実行されることで開始する。
(ステップST210)
作業推定プログラムが実行されると、取得部110Aは、記憶装置300Aから映像データを取得する。取得部110Aは、取得した映像データを処理部120Aへと出力する。
(ステップST220)
映像データが取得された後、処理部120Aは、映像データに基づいて作業者の姿勢に関する作業値を算出し、作業者が行っている作業の作業対象を推定する。また、処理部120Aは、作業値および作業対象に基づく表示データを生成する。以降、ステップST220の処理を「作業対象推定処理」と称する。以下では、作業対象推定処理の具体例について図19のフローチャートを用いて説明する。尚、作業対象推定処理は、第1の実施形態に係る作業値算出処理の一部または全部が含まれてもよい。
図19は、第2の実施形態に係る作業対象推定処理の具体例を示すフローチャートである。図19のフローチャートは、図18のステップST220の処理の詳細を説明するものである。尚、ステップST221およびステップST222の処理は、第1の実施形態におけるステップST121およびステップST122の処理と略同様のため説明を省略する。
(ステップST223)
作業者の作業値が算出された後、作業対象推定部125は、推定した作業者の姿勢と映像データと見取り図とに基づいて作業対象を推定する。以降では、具体例として、作業対象推定部125は、作業領域端の斜め上方に配置された撮影装置200Aによって撮影された映像データに基づいて、以降の処理を行うこととする。まず、映像データの画像および二次元の見取り図の例について図20および図21を用いて説明する。
図20は、第2の実施形態における、映像データの画像45を例示する図である。画像45は、作業領域を写したものである。作業領域は、例えば、作業ステップ451と、組立前製品452と、部品置場453と、部品置場454と、組立済製品455と、部品棚456と、部品棚457とを含む。尚、以降では、組立前製品452と、部品置場453と、部品置場454と、組立済製品455と、部品棚456と、部品棚457とのそれぞれは、作業対象に言い換えられてもよい。
画像45は、作業領域内にいる作業者13を写している。作業者13は、作業ステップ451の上に位置し、組立前製品452と対面している。組立前製品452は、作業ステップ451の上に配置されている。作業ステップ451と、部品置場453と、部品置場454と、組立済製品455と、部品棚456と、部品棚457とは、同一平面上(例えば、床)に、互いに間隔を空けて配置されている。
図21は、第2の実施形態における、二次元の見取り図47を例示する図である。見取り図47は、作業領域を示したものである。見取り図47には、画像45の作業領域と対応するように、作業ステップ471と、組立前製品472と、部品置場473と、部品置場474と、組立済製品475と、部品棚476と、部品棚477とが示されている。また、組立前製品472、部品置場473、部品置場474、組立済製品475、部品棚476、および部品棚477は、一つ以上の作業対象候補に相当する。尚、見取り図から作業対象候補の位置を特定する場合、作業対象候補と、見取り図上の作業対象候補の領域を示す座標点とを対応付けたテーブルが用いられてもよい。
次に、作業対象推定部125の処理について詳細に説明する。最初に、作業対象推定部125は、映像データの画像と二次元の見取り図との対応付けを行う。具体的には、作業対象推定部125は、作業領域内で共通の部分を示す、画像45の基準点の座標データと、見取り図47の基準点の座標データとを取得する。これらの座標データは、予め作業対象推定用データに含まれていてもよい。
図22は、図20の画像45における三つの基準点を例示する図である。図22では、二次元座標(Q,P)上に画像45が配置されている。画像45上には、三つの基準点S1からS3までが示されている。この三つの基準点S1からS3までは、作業領域における床を規定可能なように設定されている。具体的には、三つの基準点S1からS3までは、作業領域の床に相当する平面上で、三点が同一直線上に並ばないように設定される。
図23は、図21の見取り図47における三つの基準点を例示する図である。図23では、二次元座標(I,J)上に見取り図47が配置されている。見取り図47上には、図22の画像45と同様に、三つの基準点S1からS3までが示されている。図23における基準点は、図22の基準点に対応する位置となるように設定される。
図24は、図20の画像45および図21の見取り図47と、仮想三次元空間49との対応付けを説明するための図である。作業対象推定部125は、透視投影変換を用いて、画像45と見取り図47とに示された三つの基準点を仮想三次元空間49上で一致させる。具体的には、作業対象推定部125は、仮想三次元空間49上の高さゼロのXY平面に見取り図47を平行投影する。そして、作業対象推定部125は、仮想三次元空間49を仮想のカメラで二次元平面へと投射し、平行投影された見取り図上の基準点が、画像45中の基準点の位置と同じになるように仮想三次元空間49を配置する。
図25は、第2の実施形態における、画像45における基準点の座標および見取り図47における基準点の座標から、仮想三次元空間49における基準点の座標への変換を例示する図である。図25に示されるテーブル51には、画像45および見取り図47における三つの基準点S1からS3までの座標がそれぞれ対応付けられている。画像45の基準点S1からS3までの座標は、それぞれ(P1,Q1)、(P2,Q2)、および(P3,Q3)で示され、見取り図47の基準点S1からS3までの座標は、それぞれ(I1,J1)、(I2,J2)、および(I3,J3)で示されている。
作業対象推定部125は、テーブル51で示された基準点の座標の組を、透視投影変換53に基づいて、仮想三次元空間49における座標に変換する。図25に示されるテーブル55には、仮想三次元空間49における三つの基準点S1からS3までの座標がそれぞれ示されている。仮想三次元空間49の三つの基準点S1からS3までの座標は、それぞれ(X1,Y1,Z1)、(X2,Y2,Z2)、および(X3,Y3,Z3)で示されている。尚、これら三つの基準点S1からS3までは、仮想三次元空間49上の高さゼロのXY平面に設定されているため、高さ方向を示すZ1、Z2、およびZ3の値はいずれもゼロである。
なお、作業ステップ471は、作業領域における床と同じ高さではない。よって、画像および見取り図に対して、作業ステップ471を規定可能な基準点を設けて、作業領域における床とは別の対応付けを行う。以降では、作業領域における床と、作業ステップ471とが識別された上で、映像データの画像と二次元の見取り図とが対応付けされているものとする。
映像データの画像と二次元の見取り図との対応付けを行った後、作業対象推定部125は、正規化三次元座標で表された三次元人体骨格モデルを、仮想三次元空間内へ配置させる。具体的には、作業対象推定部125は、姿勢を推定する際に用いた三次元人体骨格モデルの正規化三次元座標を、仮想三次元空間での座標に変換する。
図26は、第2の実施形態における、正規化三次元座標で表された三次元人体骨格モデル17の、仮想三次元空間49内への配置を説明するための図である。作業対象推定部125は、三次元人体骨格モデル17を、座標変換57に基づいて、仮想三次元空間49内で表される三次元人体骨格モデル59に変換する。座標変換57は、画像45と仮想三次元空間49との対応付けを利用する。
具体的には、作業対象推定部125は、三次元人体骨格モデル17のキーポイントKP17およびKP18と、それらに対応する画像45上の座標とから、仮想三次元空間49内でのキーポイントKP17およびKP18の座標を特定する。キーポイントKP17およびKP18は、それぞれ「右足」および「左足」に対応しているため、三次元人体骨格モデル17の基準点となる。その後、作業対象推定部125は、特定された仮想三次元空間49内でのキーポイントKP17およびKP18の座標に基づいて、三次元人体骨格モデル17の各キーポイントの座標から三次元人体骨格モデル59の各キーポイントの座標を算出する。
図27は、第2の実施形態における、正規化三次元座標で表された三次元人体骨格モデル17のキーポイントの座標から、仮想三次元空間内で表される三次元人体骨格モデル59のキーポイントの座標への変換を例示する図である。図27に示されるテーブル61には、三次元人体骨格モデル17の14個のキーポイントKPH、KP6、KP7、・・・、KP18の座標がそれぞれ示されている。正規化三次元座標におけるキーポイントKPH、KP6、KP7、・・・、KP18の座標は、それぞれ(Xn1,Yn1,Zn1)、(Xn6,Yn6,Zn6)、(Xn7,Yn7,Zn7)、・・・、(Xn18,Yn18,Zn18)で示されている。図27に示されるテーブル65には、三次元人体骨格モデル59の14個のキーポイントKPH、KP6、KP7、・・・、KP18の座標がそれぞれ示されている。仮想三次元空間49内のキーポイントKPH、KP6、KP7、・・・、KP18の座標は、それぞれ(X10,Y10,Z10)、(X60,Y60,Z60)、(X70,Y70,Z70)、・・・、(X180,Y180,Z180)で示されている。
作業対象推定部125は、テーブル61で示された座標を、座標変換63に基づいて、テーブル65に示された座標に変換する。尚、座標変換63は、座標変換57と同様である。
正規化三次元座標で表された三次元人体骨格モデルを、仮想三次元空間内へ配置させた後、作業対象推定部125は、三次元人体骨格モデルで表された作業者の向きを推定する。具体的には、作業対象推定部125は、仮想三次元空間内に配置された三次元人体骨格モデルのキーポイントの座標から作業者の向きに対応するベクトルの方向を算出する。
図28は、第2の実施形態における、作業者の向きの推定を説明するための図である。図28には、仮想三次元空間の高さ方向(Z軸方向)からみた、三次元人体骨格モデル59で表される作業者が示されている。作業対象推定部125は、三次元人体骨格モデル59のキーポイントKP11およびKP12の座標から、作業者の正面方向67の向きを表すベクトルv7の方向を算出する。具体的には、作業対象推定部125は、仮想三次元空間内のキーポイントKP11の座標(X110,Y110,Z110)と、キーポイントKP12の座標(X120,Y120,Z120)とを用いて、XY平面上の座標(X110,Y110)および座標(X120,Y120)の中点からベクトルv7の方向を算出する。ベクトルv7の方向は、((-1/(Y110-Y120)),1/(X110-X120))で表すことができる。
もし作業者の向きの推定を三次元の見取り図上で行う場合、作業対象推定部125は、三次元人体骨格モデル59の両腰の中点から右肩への方向を表すベクトルv8と、両腰の中点から左肩への方向ベクトルv9との外積で表されるベクトルv10を算出することによって、胴体の正面方向の方向ベクトルを算出する。
三次元人体骨格モデルで表された作業者の向きを推定した後、作業対象推定部125は、作業者の向きと、一つ以上の作業対象候補が対応付けられた見取り図とに基づいて、一つ以上の作業対象候補の中から作業者が行っている作業の作業対象を推定する。
図29は、第2の実施形態における、作業者の向きと、見取り図に示された作業対象との対応付けを説明するための図である。図29は、仮想三次元空間に投影された見取り図69を高さ方向から見た図である。図29には、見取り図69と、見取り図69上に配置された作業者71とが示されている。また、見取り図69には、組立前製品73を示す領域の任意の位置に、作業対象であることを示す作業対象候補点731が座標点として対応付けられている。この作業対象候補点731は、組立前製品73と対応付けられている。尚、作業者71は、既に仮想三次元空間内での位置および向きが特定されているものとする。
また、図29には、作業者71の配置されている位置を頂点とし、作業者71の向き(例えば、図28のベクトルv7の方向)を基準とした扇形の作業対象領域711が示されている。作業対象領域711として示される扇形の弧は、例えば、作業者の身体特徴に基づいて決められる。作業者の身体特徴は、例えば、特定の作業者の腕の長さ、或いは複数の作業者の平均の腕の長さなどである。好適には、作業対象領域711は、作業者の両手が届きうる範囲の領域である。作業対象推定部125は、作業対象領域711に含まれる作業対象候補点731を特定することによって、作業対象候補点731に対応付けられた組立前製品73を、作業対象として推定する。尚、作業対象領域は、扇形に限らず、円形および矩形などでもよい。
図29の例では図示していないが、他の複数の作業対象候補(例えば、部品置場および部品棚など)においても、作業対象候補を示す領域の任意の位置に、作業対象候補点が座標点として対応付けられているものとする。作業対象候補点は、作業対象領域が重複する範囲を考慮して、作業対象候補に対応付けられる位置が決定されてもよい。
また、作業対象の推定は、図29の例に限らない。例えば、作業対象推定部125は、作業対象候補を示す領域の一部または全部を作業対象候補領域とし、作業者の作業対象領域との一致度によって、作業対象を推定してもよい。
もし作業者の向きと、見取り図に示された作業対象との対応付けを三次元の見取り図上で行う場合、作業対象推定部125は、三次元人体骨格モデル(作業者71)の右肩の座標点と、左肩の座標点、および両腰の中点の座標点との三点からなる三角形の重心から、ベクトルv10方向に延ばした軸を設定する。そして、作業対象推定部125は、設定した軸を中心とした、円錐形の三次元領域、球形の三次元領域、或いは矩形の三次元領域を作業対象領域として算出する。他の例として、作業対象推定部125は、三次元人体骨格モデルの右手および左手をそれぞれ中心とした球形の三次元領域を作業対象領域として算出してもよい。
(ステップST224)
作業者の作業値が算出され、作業対象が推定された後、統計処理部123Aは、算出した作業者の作業値と作業対象とに基づいて作業者の作業値に関する統計データを生成する。具体的には、統計処理部123Aは、一つ以上の作業対象毎に、作業の開始時刻から任意の時刻までに累積した作業値、或いは平均作業値を統計データとして生成する。または、統計処理部123Aは、一つ以上の作業対象毎に、負荷値レベルと作業時間とを対応付けた統計データを生成してもよい。以降の具体例では、統計データは、一つ以上の作業対象毎に、負荷値レベルと作業時間とを対応付けたものであるとする。
(ステップST225)
統計データが生成された後、表示データ生成部124Aは、生成された統計データに基づいて表示データを生成する。具体的には、表示データ生成部124Aは、見取り図上に、生成された統計データに対応させた負荷値マップを重畳させた表示データを生成する。
負荷値マップは、例えば、作業対象毎に、作業対象を基準とした円の組み合わせで表される。円の半径方向の長さは、負荷値レベルに応じた作業時間に対応し、円の濃淡は、負荷値レベルに対応している。尚、負荷値マップは、カラーマップ、或いはヒートマップに言い換えられてもよい。
図30は、第2の実施形態における、累積した負荷値を複数の作業対象に対応させて表示した見取り図75である。見取り図75には、負荷値マップ751が重畳されている。負荷値マップ751は、例えば、負荷値レベルに対応した4つの負荷領域752から755までを含む。負荷領域752は、負荷値レベルLV1に対応し、最も広い輪郭を有する。負荷領域753は、負荷値レベルLV2に対応し、負荷領域752よりも狭い輪郭を有する。負荷領域754は、負荷値レベルLV3に対応し、負荷領域753よりも狭い輪郭を有する。負荷領域755は、負荷値レベルLV4に対応し、負荷領域754よりも狭い輪郭を有する。尚、負荷値マップ751の輪郭は、負荷領域752の輪郭と同じである。
具体的には、図30の見取り図75では、右上に位置する部品置場(図21の見取り図47の部品置場473に対応)、組立前製品、および左下に位置する部品棚(図21の見取り図47の部品棚477に対応)について、負荷領域755が表示されている。よって、ユーザは、この見取り図75を確認することによって、これらの作業対象で行われる作業が作業者に大きな負荷をかけていることを認識することができる。尚、負荷値マップ751を重畳した見取り図75は、表示データに言い換えられてもよい。
図30では、累積した負荷値を複数の作業対象に対応させて表示した見取り図75を表示データとしたが、これに限らない。例えば、表示データは、身体の特定の部位を示した人体図と、身体の特定の部位に関する負荷値を複数の作業対象に対応させて表示した見取り図とでもよい。
図31は、第2の実施形態における、身体の特定の部位を示す人体図812と、身体の特定の部位に関する負荷値を複数の作業対象に対応させて表示した見取り図79とを含む表示データ77の第1の具体例を示す図である。表示データ77は、見取り図79と、プルダウンメニュー811と、人体図812とを含むGUIである。
ユーザが、例えば、プルダウンメニュー811から身体の部位「背部」を選択すると、人体図812では背部の領域が着色され、見取り図79では作業者の「背部」に関する負荷値マップ791が重畳される。この時、負荷値レベルLV4に対応した負荷領域792が、右上に位置する部品置場(図21の見取り図47の部品置場473に対応)に表示されている。よって、ユーザは、この表示データ77を確認することによって、右上に位置する部品置場で行われる作業が作業者の「背部」に大きな負荷をかけていることを認識することができる。
図32は、第2の実施形態における、身体の特定の部位を示す人体図872と、身体の特定の部位に関する負荷値を複数の作業対象に対応させて表示した見取り図85とを含む表示データ83の第2の具体例を示す図である。表示データ83は、見取り図85と、プルダウンメニュー871と、人体図872とを含むGUIである。
ユーザが、例えば、プルダウンメニュー871から身体の部位「上肢」を選択すると、人体図872では上肢の領域が着色され、見取り図85では作業者の「上肢」に関する負荷値マップ851が重畳される。この時、負荷値レベルLV4に対応した負荷領域852が、組立前製品に表示されている。よって、ユーザは、この表示データ83を確認することによって、組立前製品で行われる作業が作業者の「上肢」に大きな負荷をかけていることを認識することができる。
図33は、第2の実施形態における、身体の特定の部位を示す人体図932と、身体の特定の部位に関する負荷値を複数の作業対象に対応させて表示した見取り図91とを含む表示データ89の第3の具体例を示す図である。表示データ89は、見取り図91と、プルダウンメニュー931と、人体図932とを含むGUIである。
ユーザが、例えば、プルダウンメニュー931から身体の部位「下肢」を選択すると、人体図932では下肢の領域が着色され、見取り図91では作業者の「下肢」に関する負荷値マップ911が重畳される。この時、負荷値レベルLV4に対応した負荷領域912が、左下に位置する部品棚(図21の見取り図47の部品棚477に対応)に表示されている。よって、ユーザは、この表示データ89を確認することによって、左下に位置する部品棚で行われる作業が作業者の「下肢」に大きな負荷をかけていることを認識することができる。
図31から図33までにおいては、身体の特定の部位を示した人体図と、身体の特定の部位に関する負荷値を複数の作業対象に対応させて表示した見取り図とを表示データとしたが、これに限らない。例えば、表示データは、特定の作業対象を示す見取り図と、特定の作業対象についての累積した負荷値を作業者の身体の複数の部位に対応させて表示した人体図とでもよい。
図34は、特定の作業対象を示す見取り図97と、累積した負荷値を身体の複数の部位のそれぞれに対応させて表示した人体図99とを含む表示データ95を例示する図である。表示データ95は、見取り図97と、人体図99とを含むGUIである。ユーザが、例えば、見取り図97から右上に位置する部品置場971を選択すると、見取り図97では部品置場971の領域が着色され、人体図99では身体の複数の部位毎に累積した負荷値に応じた色分けが成される。よって、ユーザは、この表示データ95を確認することによって、特定の作業対象についての作業者の身体の部位毎の負荷値を確認することができる。
なお、第2の実施形態における表示データは、上記に限らない。例えば、表示データは、三次元の見取り図で表されてもよい。このとき、表示データ生成部124Aは、三次元の見取り図上に、負荷値マップを重畳させた表示データを生成する。この場合、負荷値マップは、例えば、作業対象の三次元モデルの表面に重畳される。
他にも、表示データは、映像データを加工して作成されてもよい。このとき、表示データ生成部124Aは、映像データ上の作業対象に対して、負荷値マップを重畳させる。尚、映像データの作業対象上、或いは作業対象の近傍に、統計データに含まれる数値、当該数値に対応する図形、および統計データに基づく表、或いはグラフが重畳されてもよい。
(ステップST230)
表示データが生成された後、処理部120Aは、作業値および作業対象に基づく表示データを出力装置400Aへと出力する。このステップST230の処理の後、作業推定プログラムを終了する。
なお、映像データをリアルタイムで取得している場合、ステップST230の処理の後、ステップST210へ戻り、同様の処理を繰り返してもよい。また、作業推定プログラムは、ユーザによる指示で終了してもよい。
以上説明したように、第2の実施形態に係る作業推定装置100Aは、所定領域内の映像データを取得し、取得した映像データに基づいて、映像データに含まれる作業者が行っている作業値を算出し、作業値を表示させる。この作業値は、例えば、作業についての作業者の身体的な負荷を表す負荷値を含んでもよい。また、第2の実施形態に係る作業推定装置100Aは、作業者の作業姿勢を推定してもよく、作業者の身体の部位の姿勢を特定してもよく、作業者に見立てた人体図に負荷値を表すマップを重畳してもよい。さらに、第2の実施形態に係る作業推定装置100Aは、作業者が行っている作業の作業対象を推定してもよく、推定した作業対象を示した見取り図に負荷値を表すマップを重畳してもよい。
従って、第2の実施形態に係る作業推定装置100Aは、映像を用いることで、センサーを用いる従来の作業値推定よりも低い導入コストで作業者の作業状態を視覚的に把握することができる。また、第2の実施形態に係る作業推定装置100Aは、作業対象について、作業者の身体部位に係る作業負荷を可視化することができ、安全衛生の観点での労働環境の改善をすることができる。
図35は、一実施形態に係るコンピュータ500のハードウェア構成を例示するブロック図である。コンピュータ500は、ハードウェアとして、CPU(Central Processing Unit)510、RAM(Random Access Memory)520、プログラムメモリ530、補助記憶装置540、入出力インタフェース(入出力I/F)550を備える。CPU510は、バスを介して、RAM520、プログラムメモリ530、補助記憶装置540、および入出力インタフェース550と通信する。
CPU510は、汎用プロセッサの一例である。RAM520は、ワーキングメモリとしてCPU510に使用される。RAM520は、SDRAM(Synchronous Dynamic Random Access Memory)などの揮発性メモリを含む。プログラムメモリ530は、信号処理プログラムを含む種々のプログラムを記憶する。プログラムメモリ530として、例えば、ROM(Read-Only Memory)、補助記憶装置540の一部、またはその組み合わせが使用される。補助記憶装置540は、データを非一時的に記憶する。補助記憶装置540は、HDDまたはSSDなどの不揮発性メモリを含む。
入出力インタフェース550は、他のデバイスと接続するためのインタフェースである。入出力インタフェース550は、例えば、図1および図16に示される撮影装置、記憶装置、および出力装置との接続に使用される。
プログラムメモリ530に記憶されている各プログラムはコンピュータ実行可能命令を含む。プログラム(コンピュータ実行可能命令)は、CPU510により実行されると、CPU510に所定の処理を実行させる。例えば、作業推定プログラムは、CPU510により実行されると、CPU510に取得部、処理部、および表示制御部に関して説明された一連の処理を実行させる。
プログラムは、コンピュータで読み取り可能な記憶媒体に記憶された状態でコンピュータ500に提供されてよい。この場合、例えば、コンピュータ500は、記憶媒体からデータを読み出すドライブ(図示せず)をさらに備え、記憶媒体からプログラムを取得する。記憶媒体の例は、磁気ディスク、光ディスク(CD-ROM、CD-R、DVD-ROM、DVD-Rなど)、光磁気ディスク(MOなど)、半導体メモリを含む。また、プログラムを通信ネットワーク上のサーバに格納し、コンピュータ500が入出力インタフェース550を使用してサーバからプログラムをダウンロードするようにしてもよい。
実施形態において説明される処理は、CPU510などの汎用ハードウェアプロセッサがプログラムを実行することにより行われることに限らず、ASIC(Application Specific Integrated Circuit)などの専用ハードウェアプロセッサにより行われてもよい。処理回路(処理部)という語は、少なくとも1つの汎用ハードウェアプロセッサ、少なくとも1つの専用ハードウェアプロセッサ、または少なくとも1つの汎用ハードウェアプロセッサと少なくとも1つの専用ハードウェアプロセッサとの組み合わせを含む。図35に示す例では、CPU510、RAM520、およびプログラムメモリ530が処理回路に相当する。
よって、以上の各実施形態によれば、作業者に負担をかけることなく、作業者の作業を推定することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1,1A…作業推定システム、100,100A…作業推定装置、110,110A…取得部、120,120A…処理部、121,121A…姿勢推定部、122,122A…作業値算出部、123,123A…統計処理部、124,124A…表示データ生成部、125…作業対象推定部、130,130A表示制御部、200,200A…撮影装置、300,300A…記憶装置、400,400A…出力装置、500…コンピュータ、510…CPU、520…RAM、530…プログラムメモリ、540…補助記憶装置、550…入出力I/F、11…二次元人体骨格モデル、13…作業者、14…二次元骨格推定モデル、15…二次元人体骨格モデル、16…三次元骨格推定モデル、17…三次元人体骨格モデル、19…テーブル、21…姿勢推定結果、23…姿勢推定結果、25…姿勢推定結果、27…姿勢推定結果、29…テーブル、31…負荷値群領域、33…テーブル、35…人体図、351…背部領域、352…上肢領域、353…下肢領域、37…人体図、371…背部領域、372…上肢領域、373…下肢領域、39…人体図、391…背部領域、392…上肢領域、393…下肢領域、41…人体図、411…背部領域、412…上肢領域、413…下肢領域、43…人体図、431…背部領域、432…上肢領域、433…下肢領域、45…画像、451…作業ステップ、452…組立前製品、453…部品置場、454…部品置場、455…組立済製品、456…部品棚、457…部品棚、47…見取り図、471…作業ステップ、472…組立前製品、473…部品置場、474…部品置場、475…組立済製品、476…部品棚、477…部品棚、49…仮想三次元空間、51…テーブル、53…透視投影変換、55…テーブル、57…座標変換、59…三次元人体骨格モデル、61…テーブル、63…座標変換、65…テーブル、67…正面方向、69…見取り図、71…作業者、711…作業対象領域、73…組立前製品、731…作業対象候補点、75…見取り図、751…負荷値マップ、752…負荷領域、753…負荷領域、754…負荷領域、755…負荷領域、77…表示データ、79…見取り図、791…負荷値マップ、792…負荷領域、811…プルダウンメニュー、812…人体図、83…表示データ、85…見取り図、851…負荷値マップ、852…負荷領域、871…プルダウンメニュー、872…人体図、89…表示データ、91…見取り図、911…負荷値マップ、912…負荷領域、931…プルダウンメニュー、932…人体図、95…表示データ、99…人体図、971…部品置場、KP1,KP2,KP3,KP4,KP5,KP6,KP7,KP8,KP9,KP10,KP11,KP12,KP13,KP14,KP15,KP16,KP17,KP18,KPH…キーポイント、LV1,LV2,LV3,LV4…負荷値レベル、S1,S2,S3…基準点。

Claims (28)

  1. 所定領域内の映像データを取得する取得部と、
    前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
    前記作業値を表示させる表示制御部と
    を具備し、
    前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、
    前記処理部は、
    前記映像データを用いて前記作業者の作業姿勢を推定し、
    前記作業者の作業姿勢に基づいて、前記負荷値を算出し、
    前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定し、
    前記表示制御部に対して前記作業対象と前記負荷値とを対応付けて提示させる、作業推定装置。
  2. 所定領域内の映像データを取得する取得部と、
    前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
    前記作業値を表示させる表示制御部と
    を具備し、
    前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、
    前記処理部は、
    前記映像データを用いて前記作業者の作業姿勢を推定し、
    前記作業者の作業姿勢に基づいて、前記負荷値を算出し、
    前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定し、
    前記表示制御部に対して前記作業対象と、前記作業者の身体の複数の部位についての負荷値とを対応付けて提示させる、作業推定装置。
  3. 所定領域内の映像データを取得する取得部と、
    前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
    前記作業値を表示させる表示制御部と
    を具備し、
    前記作業値は、前記作業についての前記作業者の身体的な負荷を表す、時系列で表された複数の負荷値を含み、
    前記処理部は、
    前記映像データを用いて前記作業者の作業姿勢を推定し、
    前記作業者の作業姿勢に基づいて、前記時系列で表された複数の負荷値を算出し、
    前記映像データと、前記作業姿勢とに基づいて前記作業者が行っている作業の複数の作業対象を推定し、
    前記時系列で表された複数の負荷値と、前記複数の作業対象とに基づいて、前記複数の作業対象のうちの各々の作業対象毎に、前記作業者の負荷値に関する統計データを生成する、作業推定装置。
  4. 所定領域内の映像データを取得する取得部と、
    前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
    前記作業値を表示させる表示制御部と
    を具備し、
    前記作業値は、前記作業についての前記作業者の身体的な負荷を表す、時系列で表された複数の負荷値を含み、
    前記処理部は、
    前記映像データを用いて前記作業者の作業姿勢を推定し、
    前記作業者の作業姿勢に基づいて、前記時系列で表された複数の負荷値を算出し、
    前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定し、
    複数の作業対象項目毎に、前記作業者の負荷値に関する統計データを生成する、作業推定装置。
  5. 所定領域内の映像データを取得する取得部と、
    前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する処理部と、
    前記作業値を表示させる表示制御部と
    を具備し、
    前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、
    前記処理部は、
    前記映像データを用いて前記作業者の作業姿勢を推定し、
    前記作業者の作業姿勢に基づいて、前記負荷値を算出し、
    前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定し、
    前記作業値と、前記作業対象と、前記映像データに関する映像データ情報とを対応付けて記憶部に記憶させる、作業推定装置。
  6. 前記処理部は、
    前記映像データに対して、骨格推定モデルを適用することによって前記作業者の姿勢特徴量を算出し、
    前記姿勢特徴量に基づいて、前記作業者の作業姿勢を推定する、
    請求項1から請求項までのいずれか一項に記載の作業推定装置。
  7. 前記処理部は、
    前記姿勢特徴量から前記作業者の身体の複数の部位を特定し、
    前記複数の部位と、前記複数の部位にそれぞれ対応する複数の姿勢とを対応付けたテーブルを用いて、前記身体の複数の部位それぞれの姿勢を特定することによって前記作業姿勢を推定する、
    請求項に記載の作業推定装置。
  8. 前記処理部は、複数の作業姿勢と複数の負荷値とを対応付けたテーブルを用いて、前記負荷値を算出する、
    請求項1から請求項までのいずれか一項に記載の作業推定装置。
  9. 前記作業値は、前記作業についての前記作業者の身体の複数の部位にそれぞれ対応する複数の負荷値を含み、
    前記処理部は、
    前記姿勢特徴量から前記複数の部位を特定し、
    前記複数の部位と、前記複数の部位にそれぞれ対応する複数の姿勢とを対応付けたテーブルを用いて、前記複数の部位のそれぞれの姿勢を特定し、
    前記複数の部位のそれぞれの姿勢に基づいて、前記複数の負荷値をそれぞれ算出する、
    請求項に記載の作業推定装置。
  10. 前記処理部は、前記作業者に見立てた人体図に対して、前記複数の部位の負荷値を表すマップを重畳し、
    前記表示制御部は、前記マップを重畳した前記人体図を表示する、
    請求項に記載の作業推定装置。
  11. 前記作業値は、時系列で表された複数の負荷値を含み、
    前記処理部は、
    前記映像データに基づいて、前記時系列で表された複数の負荷値を算出し、
    前記時系列で表された複数の負荷値に基づいて、前記作業者の負荷値に関する統計データを生成する、
    請求項1から請求項10までのうちのいずれか一項に記載の作業推定装置。
  12. 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定する、
    請求項1から請求項11までのいずれか一項に記載の作業推定装置。
  13. 前記処理部は、前記表示制御部に対して前記作業対象と前記負荷値とを対応付けて提示させる、
    請求項1から請求項12までのうちのいずれか一項に記載の作業推定装置。
  14. 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定し、
    前記処理部は、前記見取り図上の前記作業対象に対して、前記負荷値を表すマップを重畳し、
    前記表示制御部は、前記マップを重畳した前記見取り図を表示する、
    求項13に記載の作業推定装置。
  15. 前記処理部は、前記表示制御部に対して前記作業対象と、前記作業者の身体の複数の部位についての負荷値とを対応付けて提示させる、
    請求項1から請求項14までのいずれか一項に記載の作業推定装置。
  16. 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定し、
    前記処理部は、前記見取り図上の前記作業対象に対して、前記作業者の身体の複数の部位についての負荷値を表すマップを重畳し、
    前記表示制御部は、前記マップを重畳した前記見取り図を表示する、
    求項15に記載の作業推定装置。
  17. 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定し、
    前記作業値は、時系列で表された複数の負荷値を含み、
    前記処理部は、
    前記映像データに基づいて、前記時系列で表された複数の負荷値を算出し、
    前記映像データと、前記見取り図と、前記作業姿勢とに基づいて、複数の作業対象を推定し、
    前記時系列で表された複数の負荷値と、前記複数の作業対象とに基づいて、前記複数の作業対象のうちの各々の作業対象毎に、前記作業者の負荷値に関する統計データを生成する、
    請求項1から請求項11まで、請求項13から請求項16までとのうちのいずれか一項に記載の作業推定装置。
  18. 前記処理部は、前記作業姿勢と、一つ以上の作業対象候補が対応付けられた前記所定領域の見取り図とに基づいて、前記一つ以上の作業対象候補の中から前記作業対象を推定し、
    前記作業値は、時系列で表された複数の負荷値を含み、
    前記見取り図は、予め複数の作業対象項目が対応付けられており、
    前記処理部は、
    前記映像データに基づいて、前記時系列で表された複数の負荷値を算出し、
    前記複数の作業対象項目毎に、前記作業者の負荷値に関する統計データを生成する、 請求項1から請求項11まで、請求項13から請求項16までとのうちのいずれか一項に記載の作業推定装置。
  19. 前記処理部は、前記作業値と、前記映像データに関する映像データ情報とを対応付けて記憶部に記憶させる、
    請求項1から請求項18までのいずれか一項に記載の作業推定装置。
  20. 前記処理部は、前記作業値と、前記作業対象と、前記映像データに関する映像データ情報とを対応付けて記憶部に記憶させる、
    請求項から請求項18までのいずれか一項に記載の作業推定装置。
  21. 前記映像データ情報は、前記映像データのファイル名を含む、
    請求項19または請求項20に記載の作業推定装置。
  22. 前記処理部は、
    前記映像データに対して、骨格推定モデルを適用することによって前記作業者の姿勢特徴量を算出し、
    前記姿勢特徴量に基づいて、前記作業者の作業姿勢を推定し、
    前記映像データに関する映像データ情報は、前記映像データを構成するフレームに関するフレーム情報を含み、
    前記処理部は、前記フレーム情報と、前記姿勢特徴量および前記作業姿勢の少なくともどちらかとを対応付けて記憶部に記憶させる、
    求項19から請求項21までのいずれか一項に記載の作業推定装置。
  23. 前記処理部は、前記時系列で表された複数の負荷値の総和、前記総和の平均値、前記総和の加重平均値、前記時系列で表された複数の負荷値の重み付き総和、前記重み付き総和の平均値、および前記重み付き総和の加重平均値のうちのいずれかを前記統計データとして生成する、
    請求項3、請求項4、請求項11、請求項17、および請求項18のうちのいずれか一項に記載の作業推定装置。
  24. 前記処理部は、前記表示制御部に対して前記統計データを、テーブルまたはグラフで表して提示させる、
    請求項3、請求項4、請求項11、請求項17、請求項18、および請求項23のうちのいずれか一項に記載の作業推定装置。
  25. 前記作業値は、前記作業の種別を示す値を含み、
    前記処理部は、前記映像データに基づいて、前記作業の種別を示す値を算出する、
    請求項1から請求項24までのいずれか一項に記載の作業推定装置。
  26. 前記作業値は、前記作業者の勤怠状況を示す値を含み、
    前記処理部は、前記映像データに基づいて、前記作業者の勤怠状況を示す値を算出する、
    請求項1から請求項25までのいずれか一項に記載の作業推定装置。
  27. 所定領域内の映像データを取得することと、
    取得した前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出することと、
    前記作業値を表示させることと、
    前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、 前記映像データを用いて前記作業者の作業姿勢を推定することと、
    前記作業者の作業姿勢に基づいて、前記負荷値を算出することと、
    前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定することと、
    前記作業対象と前記負荷値とを対応付けて提示させることと
    を具備する、作業推定方法。
  28. コンピュータを、
    所定領域内の映像データを取得する手段と、
    取得した前記映像データに基づいて、前記映像データに含まれる作業者が行っている作業に関する作業値を算出する手段と、
    前記作業値を表示させる手段と、
    前記作業値は、前記作業についての前記作業者の身体的な負荷を表す負荷値を含み、 前記映像データを用いて前記作業者の作業姿勢を推定する手段と、
    前記作業者の作業姿勢に基づいて、前記負荷値を算出する手段と、
    前記作業姿勢に基づいて前記作業者が行っている作業の作業対象を推定する手段と、
    前記作業対象と前記負荷値とを対応付けて提示させる手段
    として機能させるためのプログラム。
JP2020154120A 2020-09-14 2020-09-14 作業推定装置、方法およびプログラム Active JP7487057B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020154120A JP7487057B2 (ja) 2020-09-14 2020-09-14 作業推定装置、方法およびプログラム
US17/187,056 US20220083769A1 (en) 2020-09-14 2021-02-26 Work estimation apparatus, method and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154120A JP7487057B2 (ja) 2020-09-14 2020-09-14 作業推定装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022048017A JP2022048017A (ja) 2022-03-25
JP7487057B2 true JP7487057B2 (ja) 2024-05-20

Family

ID=80626753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154120A Active JP7487057B2 (ja) 2020-09-14 2020-09-14 作業推定装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US20220083769A1 (ja)
JP (1) JP7487057B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7481995B2 (ja) * 2020-10-28 2024-05-13 株式会社東芝 状態判定装置、方法およびプログラム
US12032377B2 (en) * 2021-05-25 2024-07-09 Ubkang (Qingdao) Technology Co., Ltd. Mobility aid robot navigating method and mobility aid robot using the same
US20230053308A1 (en) * 2021-08-13 2023-02-16 At&T Intellectual Property I, L.P. Simulation of likenesses and mannerisms in extended reality environments
WO2023195122A1 (ja) * 2022-04-07 2023-10-12 日本電気株式会社 処理装置、処理方法、および記録媒体
TWI822096B (zh) * 2022-06-08 2023-11-11 和碩聯合科技股份有限公司 用於控制電動助行裝置的控制系統以及控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101422A (ja) 1999-10-04 2001-04-13 Hitachi Plant Eng & Constr Co Ltd 動作解析装置
JP2003235034A (ja) 2002-01-11 2003-08-22 Hewlett Packard Co <Hp> イベント監視用の画像捕捉装置及びイベント監視方法
JP2010287145A (ja) 2009-06-15 2010-12-24 Nec Corp 作業記録支援システム、作業記録支援方法およびプログラム
JP2017068428A (ja) 2015-09-29 2017-04-06 富士重工業株式会社 作業負担評価装置、作業負担評価方法
JP2018018316A (ja) 2016-07-28 2018-02-01 新日鐵住金株式会社 情報処理装置、システム、情報処理方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112009002648B4 (de) * 2008-11-05 2018-04-12 Honda Motor Co., Ltd. Verfahren zum Ausgleichen der Arbeitslast und Unterstützungssystem zum Ausgleichen der Arbeitslast
WO2018087844A1 (ja) * 2016-11-09 2018-05-17 三菱電機株式会社 作業認識装置および作業認識方法
JP2019021051A (ja) * 2017-07-18 2019-02-07 株式会社東芝 情報処理装置、方法及びプログラム
WO2020039559A1 (ja) * 2018-08-23 2020-02-27 ソニー株式会社 情報処理装置、情報処理方法及び作業評価システム
CN114846514A (zh) * 2019-12-27 2022-08-02 松下知识产权经营株式会社 作业分析装置和作业分析方法
JP7414676B2 (ja) * 2020-09-14 2024-01-16 株式会社東芝 負荷推定装置、方法およびプログラム
CN113658325B (zh) * 2021-08-05 2022-11-11 郑州轻工业大学 数字孪生环境下的生产线不确定对象智能识别与预警方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101422A (ja) 1999-10-04 2001-04-13 Hitachi Plant Eng & Constr Co Ltd 動作解析装置
JP2003235034A (ja) 2002-01-11 2003-08-22 Hewlett Packard Co <Hp> イベント監視用の画像捕捉装置及びイベント監視方法
JP2010287145A (ja) 2009-06-15 2010-12-24 Nec Corp 作業記録支援システム、作業記録支援方法およびプログラム
JP2017068428A (ja) 2015-09-29 2017-04-06 富士重工業株式会社 作業負担評価装置、作業負担評価方法
JP2018018316A (ja) 2016-07-28 2018-02-01 新日鐵住金株式会社 情報処理装置、システム、情報処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山下 浩豊,広域移動する人物の映像解析のための自動追従ドローン,情報処理学会研究報告 ,日本,情報処理学会,2020年05月15日,Vol.2020-CVIM-222 No.38,第1-6ページ

Also Published As

Publication number Publication date
JP2022048017A (ja) 2022-03-25
US20220083769A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
JP7487057B2 (ja) 作業推定装置、方法およびプログラム
Yu et al. Joint-level vision-based ergonomic assessment tool for construction workers
US11721114B2 (en) Method, system, and device of generating a reduced-size volumetric dataset
KR101911133B1 (ko) 깊이 카메라를 이용한 아바타 구성
US11042887B2 (en) Product exposure analysis in a shopping environment
JP2021534516A (ja) 眼鏡用仮想試着システム及び方法
Magnenat-Thalmann Modeling and simulating bodies and garments
CN102201099A (zh) 基于运动的交互式购物环境
WO2019069358A1 (ja) 認識プログラム、認識方法および認識装置
JP7370777B2 (ja) 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体
JP2013190974A (ja) 情報処理装置および情報処理方法、ならびに、プログラム
CN109711472A (zh) 训练数据生成方法和装置
CN111539300A (zh) 一种基于ik算法的人体运动捕捉方法、装置、介质及设备
US20170365084A1 (en) Image generating apparatus and image generating method
KR20200081629A (ko) 관절각 비교를 통한 단체 댄스 평가 장치 및 그 방법
Feldmann et al. Ergonomic evaluation of body postures in order picking systems using Motion Capturing
Plantard et al. Usability of corrected Kinect measurement for ergonomic evaluation in constrained environment
Marcon et al. Postural assessment in dentistry based on multiple markers tracking
WO2018173205A1 (ja) 情報処理システム、その制御方法、及びプログラム
WO2020174586A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7501543B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Zhang et al. Cloth simulation and virtual try-on with kinect based on human body adaptation
JP7461511B2 (ja) 身体能力評価サーバ、身体能力評価システム、及び身体能力評価方法
WO2022208859A1 (ja) 技認識方法、技認識装置および体操採点支援システム
Akinjala et al. Animating human movement & gestures on an agent using Microsoft kinect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240508

R150 Certificate of patent or registration of utility model

Ref document number: 7487057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150