JP7376446B2 - 作業分析プログラム、および、作業分析装置 - Google Patents

作業分析プログラム、および、作業分析装置 Download PDF

Info

Publication number
JP7376446B2
JP7376446B2 JP2020162424A JP2020162424A JP7376446B2 JP 7376446 B2 JP7376446 B2 JP 7376446B2 JP 2020162424 A JP2020162424 A JP 2020162424A JP 2020162424 A JP2020162424 A JP 2020162424A JP 7376446 B2 JP7376446 B2 JP 7376446B2
Authority
JP
Japan
Prior art keywords
mark
work
person
data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020162424A
Other languages
English (en)
Other versions
JP2022055057A (ja
Inventor
政雄 國島
強 松野
昌之 川俣
眞一郎 木戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2020162424A priority Critical patent/JP7376446B2/ja
Publication of JP2022055057A publication Critical patent/JP2022055057A/ja
Application granted granted Critical
Publication of JP7376446B2 publication Critical patent/JP7376446B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Description

本発明は、作業分析プログラム、および、作業分析装置に関する。
人手による作業を伴う生産現場において、作業者の作業状況をビデオカメラで記録し、解析することが一般的になっており、そのために計算機システムあるいは、プログラムが使われている。例えば、移動している箱の中から作業者が何を取ったかなどを画像で認識するために、プログラムに機械学習を行わせ判定モデルを作成することができる。また、例えば、電動ドライバでネジ締めを行っている場合、電動ドライバの形状と姿勢を認識するための機械学習を行うことが可能である。
特許文献1では、ビデオカメラ等で撮影され、観測された動作からの分析者の手を煩わすことなく標準作業時間を算出することが可能となる作業分析システム及びその方法が提供されている。
特開2002-310617号公報
画像認識の精度を高めるためには、事前に用意した教師ありの学習データを大量に用意し、その学習データを機械学習して高精度なモデルを生成することが一般的である。しかし、多数の作業者が勤務する製造現場などでは、作業者一人ずつの学習データを用意することは負担が大きいという問題があった。
一方で、移動物の検出については、ディープラーニングにより、実際の移動物、例えば箱自体を学習することで、対象物を検出することができるが、学習に手間がかかることと、対象物は、多種多用であり、すべてに対応するのが難しいという問題があった。
そこで本発明は、人が行う作業行動を少ない負荷で高精度に分析することを主な目的とする。
本発明による作業分析プログラムは、画像データを入力とした画像認識により、前記画像データに写る人物の関節位置を示す特徴点データを含む骨格データを取得する骨格抽出部、前記画像データに写る特定のマークを認識するマーク認識部、前記マーク認識部により認識した前記マークと、前記骨格抽出部が取得した前記骨格データの特定部分とに基づいて、前記人物が行う作業を分析する分析部、としてコンピュータを機能させるためのものであって、前記マークは、前記人物が前記作業時に使用する工具に貼付されており、前記分析部は、前記マーク認識部が認識した前記マークの向きを判別し、判別した前記マークの向きと、前記マークと前記特定部分の位置関係と、に基づいて、前記人物が前記工具を使用中であるか否かを判断することで、前記作業を分析する
本発明による作業分析装置は、画像データを入力とした画像認識により、前記画像データに写る人物の関節位置を示す特徴点データを含む骨格データを取得する骨格抽出部と、前記画像データに写る特定のマークを認識するマーク認識部と、前記マーク認識部により認識した前記マークと、前記骨格抽出部が取得した前記骨格データの特定部分とに基づいて、前記人物が行う作業を分析する分析部と、を有し、前記マークは、前記人物が前記作業時に使用する工具に貼付されており、前記分析部は、前記マーク認識部が認識した前記マークの向きを判別し、判別した前記マークの向きと、前記マークと前記特定部分の位置関係と、に基づいて、前記人物が前記工具を使用中であるか否かを判断することで、前記作業を分析するものである。
本発明によれば、人が行う作業行動を少ない負荷で高精度に分析することができる。
作業分析システムの構成図である。 (a)、(b)及び(c)は画像データおよび骨格データ、骨格データを構成する特徴点データを示すテーブルである。 画像データ内の領域設定用のマーク(第1マーク)を用いた作業分析処理を示すフローチャートである。 図4の続きのフローチャートである。 第1マークを用いた作業分析処理を説明する説明図である。 第1マークを用いた作業分析処理を説明する説明図である。 第1マークを説明する説明図である。 物の向きの判別用のマーク(第2マーク)を用いた作業分析処理を示すフローチャートである。 図8の続きのフローチャートである。 第2マークを用いた作業分析処理を説明する説明図である。 作業者個人の特定用のマーク(第3マーク)を用いた作業者個人の特定を説明する説明図である。
以下、図面を参照しながら本発明の好ましい実施形態について説明する。なお、以下では本発明の目的を達成するための説明に必要な範囲を模式的に示し、本発明の該当部分の説明に必要な範囲を主に説明することとし、説明を省略する箇所については公知技術によるものとする。
図1は、作業分析システムの構成図である。
作業分析システムは、作業分析装置10を中心として、ビデオカメラ31と、ビデオレコーダ32と、入出力装置33と、モニタ41と、記憶装置42と、アプリケーション装置43とを含めて構成される。
これらの作業分析システムの各装置は、それぞれ、イーサネット(登録商標)などのネットワーク、USBやその他、ハードウェア・インタフェースとして使用可能な適切なもので接続される。また、作業分析システムの各装置は、単独の装置として構成されていてもよいし、作業分析装置10などの計算機システム上のソフトウェアを実行することで実現してもよい。
ビデオカメラ31は、作業者や対象物等を被写体として撮影する。ビデオレコーダ32には、ビデオカメラ31で撮影した映像が記録されている。入出力装置33は、グラフィックディスプレイ、マウスを備え、作業者などの利用者に情報表示したり、利用者の指示を受け付けたりする。
モニタ41と、記憶装置42と、アプリケーション装置43とは、それぞれ作業分析装置10の分析結果の出力先である。
作業分析装置10は、例えば、オンプレサーバ、もしくはクラウドサーバのような計算機システムである。作業分析装置10は、CPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
作業分析装置10は、計算機システム上のプログラムを実行することで骨格抽出部11と、モデル生成部12と、分析部13と、出力部14と、マーク認識部15とを構成する。これらの構成された各処理部は、ハードディスクなどの不揮発メモリ上に蓄えられるデータ(モデルデータ22、推定結果データ23)にアクセスする。
骨格抽出部11は、ビデオカメラ31またはビデオレコーダ32から入力された画像データ18をもとに、骨格データ19を抽出する。
モデル生成部12は、学習用の画像データ18a(画像データ18)と、学習用の骨格データ19a(骨格データ19)とを入力として、モデルデータ22を生成して不揮発メモリに保存する。モデルデータ22には、ユーザから明示的に定義された定義データと、ユーザから入力されたラベルデータを用いた学習結果である学習済データとが存在する。なお、モデル生成部12は、分析対象の作業に対してモデルデータ22を基本的には1度作成すればよいが、精度を向上させるために、すでに作成したモデルデータ22を更新(改良)してもよい。マーク認識部15は画像データ18内に含まれている特定のマークを認識する。なお、マーク認識部15が認識するマークには、画像データ内の領域設定に用いられるマーク(以下「第1マーク」と称する)、物の向きの判別に用いられるマーク(以下「第2マーク」と称する)、作業者個人の特定に用いられるマーク(以下「第3マーク」と称する)などが含まれる。これらのマークの詳細については後述する。
分析部13は、分析用の画像データ18b(画像データ18)と、分析用の骨格データ19b(骨格データ19)と、マーク認識部15が認識したマークとを入力として、モデルデータ22を用いた推論処理により、作業者が行う作業に対する推定結果データ23を求める。
出力部14は、推定結果データ23を外部装置(モニタ41と、記憶装置42と、アプリケーション装置43)に出力する。
すなわち、画像データ18を入力とした画像認識により、画像データ18に写る人物の関節位置を示す特徴点データを含む骨格データ19を取得する骨格抽出部11と、画像データ18に映るマークを認識するマーク認識部15と、マーク認識部15により認識したマークと、骨格抽出部11が取得した骨格データとに基づいて、作業者が行う作業を分析する分析部13とを備えた作業分析装置10である。
図2(a)(b)及び(c)は、画像データ18および骨格データ19の一例を示す図である。
図2(a)の画像データ18は、人物が写っている動画像において、人物ごと、画像フレームごとに1つ生成される。
図2(b)の骨格データ19は、骨格抽出部11が画像データ18から人物の骨格情報を抽出した結果である。骨格データ19は、人物の特徴点(関節点など)ごとに、1つずつ番号が割り当てられる(図では番号=0~9)。骨格抽出部11は、OpenPose(URL=https://github.com/CMU-Perceptual-Computing-Lab/openpose)などの公知の骨格情報取得技術を使用することができる。
図2(c)は、図2(b)の骨格データ19を構成する特徴点データを示すテーブルである。
このテーブルは、特徴点の番号ごとに、特徴点の名称(鼻など)と、特徴点の(x,y)座標とで構成される。特徴点の名称として、例えば、人物の首、左肩、左肘などの特徴点に対して別々の番号が割り当てられる。特徴点の名称や座標は、骨格抽出部11が画像データ18からそれぞれの関節点を画像認識で認識した結果である。
図3~図7を参照し、動いている段ボール箱に対して、段ボール箱に貼付されたマークを検出し、作業者が行う作業を分析する動作を説明する。図3及び図4は、第1マークを用いた作業分析処理を示すフローチャートである。図5及び図6は、第1マークを用いた作業分析処理を説明する説明図である。図7は、第1マークを説明する説明図である。
初めに、ステップS101では、作業分析装置10が稼働する。例えば、コンピュータの電源スイッチが「ON」にされて作業分析装置10が起動する。
ステップS102では、ビデオカメラ31が作動する。これにより、ビデオカメラ31によって撮像された画像データ18が時間とともに生成される。生成された画像データ18は、作業分析装置10内のメモリに記憶される。
ステップS103では、図5、6に示すように、ベルトコンベア56が稼働し物(本例では工具等)が入ったベルトコンベア上の段ボール箱51a及び段ボール箱51bが移動する。本例では紙面に対し段ボール箱51a,51bが左側から右側に移動しており、図5は前の時間で撮像された画像フレームにおける画像データ18の例を、図6は後の時間で撮像された画像フレームにおける画像データ18の例をそれぞれ示している。ここで、ステップS103以降の処理は、各画像フレームに対して順次実行される。以降では、図5の画像データ18を処理対象とした場合について先に説明するものとする。
ステップS104では、骨格抽出部11が、図5に写っている作業者50の骨格データ19を抽出する。そして、メモリに記憶する。このとき、骨格データ19は図2(c)に示すテーブルのように記憶されている。なお、ここでの座標値は画像データ18上の座標値を表している。
ステップS105では、図5に示すように、マーク認識部15が、段ボール箱51a,51bにそれぞれ貼られた第1マーク52a,52bを認識する。例えば、図7で拡大して示すように、第1マーク52bには黒地に特定の白地パターンが描かれている。同様に、第1マーク52aにも別の白地パターンが描かれている。これらの白地パターンに関するデータを含む第1マークデータ59を作業分析装置10のメモリに予め記憶しておくことで、マーク認識部15がこの第1マークデータ59を参照して画像データ18から第1マーク52a,52bを認識できるようになっている。なお、第1マーク52a,52bには、例えば、ArUcoマーカーなどの周知のARマーカーを使用することが好ましい。ただし、マーク認識部15が認識する第1マーク52a,52bは、図5~図7で示したものに限らず、任意の白黒パターンやカラーパターンのマークを用いることができる。これにより、段ボール箱51a,51bが動いている最中にも確実に第1マーク52a,52bの形状を認識することができる。
ステップS106では、マーク認識部15が、ステップS105で認識した第1マーク52a,52bに基づいて、段ボール箱51a,51bにそれぞれ割り当てられているID番号を特定する。前述のように、第1マーク52aと第1マーク52bでは白地パターンの形状が互いに異なっており、これら白地パターンのそれぞれには、予め固有のID番号が割り当てられている。これにより、マーク認識部15が段ボール箱51a,51bのID番号をそれぞれ特定できるようになっている。
ステップS107では、分析部13が、ステップS105で認識した第1マーク52a,52bの位置を基準に、画像データ18に対して図5に示すように領域53a,53bをそれぞれ設定する。これらの領域の設定に関する領域データは、前述のパターンデータと共に、第1マークデータ59として作業分析装置10のメモリに予め記憶されている。これにより、分析部13が段ボール箱51a,51bに対して設定する領域53a,53bの範囲を特定することができる。なお、領域データは画像データ18と同一の座標系で表されることが好ましい。
ステップS108では、分析部13が、ステップS107で設定した領域53a,53bの中に、ステップS104で抽出した骨格データ19の特定部分が有るか否かを判断する。領域53a,53bの中に骨格データ19の特定部分、例えば作業者50の手首54に対応する部分が有ると判断した場合に処理はステップS109に進む。領域53a,53bの中に骨格データ19の特定部分が無いと判断した場合に処理はステップS110に進む。図5に示す本例では作業者50の手首54の部分が領域53a内に存在しているため、骨格データ19ではこの手首54に対応する部分が領域53a内に存在している。図2(c)に示す骨格データ19の例では、番号4,7の特徴点が手首54に対応する特定部分に相当するため、これらの特徴点が領域53a内に存在していれば、ステップS108が肯定判定されることになる。
ステップS109では、分析部13により、ステップS106でID番号を特定した段ボール箱51aから、予め段ボール箱51aに対応付けされた物(例えば電動ドライバ等の工具)が作業者50によって取り出されたと判断する。
ステップS110では、作業分析装置10が、作業分析処理を終了するか否かを判断する。作業者50がまだ作業中の場合は、作業分析処理を終了しないと判断し、処理はステップS103に戻る。作業者50が全ての作業を終了済みの場合、作業分析処理を終了すると判定し、図3,4のフローチャートに示す処理は終了する。ここでは、まだ作業を終了していないので、ステップS103に戻り、さらに、図6に示す画像データ18に対して、第1マーク52bを認識して上述のような処理(ステップS103~ステップS110)を行うことになる。これにより、画像データ18内で移動している段ボール箱51bを認識し作業者50の作業を特定することができる。
図8~図10を参照し、マークの向きを検出し、作業者が行う作業を分析する動作を説明する。図8及び図9は、第2マークを用いた作業分析処理を示すフローチャートである。図10は、第2マークを用いた作業分析処理を説明する説明図である。
初めに、ステップS201では、作業分析装置10が稼働する。例えば、コンピュータの電源スイッチが「ON」にされて作業分析装置10が起動される。
ステップS202では、ビデオカメラ31が作動する。これにより、ビデオカメラ31によって撮像された画像データ18が時間とともに生成される。生成された画像データ18は、作業分析装置10内のメモリに記憶される。以降では、図10の画像データ18を処理対象とした場合について説明するものとする。
ステップS203では、骨格抽出部11が、図10に写っている作業者60の骨格データ19を抽出する。そして、メモリに記憶する。このとき、骨格データ19は図2(c)に示すテーブルのように記憶されている。なお、ここでの座標値は画像データ18上の座標値を表している。
ステップS204では、画像データ18に対して、図10に示すように領域63を設定する。この領域63の設定に関する領域データは、前述の第1マークデータ59と同様に、第2マークデータとして作業分析装置10のメモリに予め記憶されている。なお、領域データは画像データ18と同一の座標系で表されることが好ましい。
ステップS205では、マーク認識部15が、ステップS204で設定した領域63内で第2マーク62を認識する。この第2マーク62は、図10に示すように、作業者60が持っている電動ドライバ61に貼付されている。
ステップS206では、分析部13が、ステップS205で認識した第2マーク62の向きを判別する。ここでは、第2マーク62の縞の方向から第2マーク62の向きを判別する。図10に示すように、第2マーク62が縦縞の場合は、第2マーク62の向きが縦であると判別し、反対に第2マーク62が横縞の場合は、第2マーク62の向きが横であると判別する。ただし、マーク認識部15が認識する第2マーク62は、その向きが判別可能であれば、図10で示したものに限らず、任意の白黒パターンやカラーパターンのマークを用いることができる。
ステップS207では、分析部13が、ステップS206で判別した第2マーク62の向きが縦であり、かつ、ステップS203で抽出した骨格データ19の特定部分、例えば作業者60の手首64に対応する部分が、第2マーク62の近くか、またはステップS204で設定した領域63内にあるか否かを判定する。第2マーク62の向きが縦であり、その近くか領域63内に骨格データ19の特定部分があると判定した場合に処理はステップS209に進む。第2マーク62の向きが縦でないか、第2マーク62の近傍を含む領域63内に骨格データ19の特定部分がないと判定した場合に処理はステップS210に進む。第2マーク62としては、縞模様(ストライプ)などの画像を、機械学習により学習した検出器を使用することで、特定の向きでのみ認識するマーク検出を実現できる。なお、第2マーク62は単純な図形であるため、学習にかかる手間は、実際の物をディープラーニングに依るものに比して少ない。図10に示す本例では作業者60の手首64の部分が領域63内に存在しているため、骨格データ19ではこの手首64に対応する部分が領域63内に存在している。図2(c)に示す骨格データ19の例では、番号4,7の特徴点が手首64に対応する特定部分に相当するため、第2マーク62の向きが縦でこれらの特徴点が領域63に存在していれば、ステップS207が肯定判定されることになる。
ステップS208では、分析部13が、作業者60が工具使用中と判断する。
ステップS209では、分析部13が、作業者60は工具(本例では電動ドライバ)を使用していないと判断する。
なお、以上説明したような第1マーク、第2マークを用いた作業分析処理では、作業者50,60が行っている作業内容の分析を行い、作業者個人を特定していないが、作業者個人を特定してもよい。例えば図11に示すように、作業者70がかぶっているヘルメット71に、作業者70を特定可能な識別情報として特定のパターンによる第3マーク72を貼り付けておき、この第3マーク72を認識することで、作業を実施している作業者70を特定することが可能となる。なお、作業者70を特定するための第3マーク72には、第1マーク52a,52bと同様に、ArUcoマーカーなどの周知のARマーカーを使用することができる。この第3マーク72も、図11で示したものに限らず、任意の白黒パターンやカラーパターンのマークを用いることができる。
以上説明した本発明の実施形態によれば、以下の作用効果を奏する。
(1)作業分析装置10は、画像データ18を入力とした画像認識により、画像データ18に写る人物の関節位置を示す特徴点データを含む骨格データ19を取得する骨格抽出部11、画像データ18に写る特定のマークを認識するマーク認識部15、マーク認識部15により認識したマークと、骨格抽出部11が取得した骨格データ19の特定部分とに基づいて、人物が行う作業を分析する分析部13とを含む。作業分析装置10において実行されるプログラムは、これら各部としてコンピュータを機能させる。このようにしたので、人が行う作業行動を少ない負荷で高精度に分析することができる。
(2)分析部13は、マーク認識部15が認識した第1マーク52a,52bの位置を基準に画像データ18に対して領域53a,53bを設定し(ステップS107)、骨格データ19の特定部分が領域53a,53b内に入っているか否かを判定することで(ステップS108)、作業を分析する。このようにしたので、画像内の任意の位置で実施される作業を確実に検知し、その内容を分析することができる。
(3)分析部13は、マーク認識部15が認識した第2マーク62の向きを判別し(ステップS206)、判別した第2マーク62の向きに応じて第2マーク62が付与されている対象物(電動ドライバ61)の状態を分析することで(ステップS207~S209)、作業を分析する。このようにしたので、様々な対象物を用いて行われる作業内容を少ない負担で分析することができる。
(4)第2マーク62は縞模様を含み、分析部13は、ステップS206において、第2マーク62の縞模様の方向に応じて第2マークの向きを判別する。このようにしたので、機械学習により学習した検出器を使用して第2マーク62の向きを判別するときに、少ない学習でも正確な判別結果を得ることができる。
(5)マーク認識部15は、ステップS105において、移動している第1マーク52a,52bを認識する。このようにしたので、画像内で移動するものを対象物として行われる作業の分析を実現できる。
(6)マーク認識部15は、個人を特定可能な識別情報を含んだ第3マーク72を認識することもできる。このようにすれば、作業者個人を特定できるため、作業者ごとの作業内容の分析を実現できる。
なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
10 作業分析装置
11 骨格抽出部
12 モデル生成部
13 分析部
14 出力部
15 マーク認識部
18 画像データ
19 骨格データ
22 モデルデータ
23 推定結果データ
31 ビデオカメラ
32 ビデオレコーダ
33 入出力装置
41 モニタ
42 記憶装置
43 アプリケーション装置

Claims (5)

  1. 画像データを入力とした画像認識により、前記画像データに写る人物の関節位置を示す特徴点データを含む骨格データを取得する骨格抽出部、
    前記画像データに写る特定のマークを認識するマーク認識部、
    前記マーク認識部により認識した前記マークと、前記骨格抽出部が取得した前記骨格データの特定部分とに基づいて、前記人物が行う作業を分析する分析部、としてコンピュータを機能させるための作業分析プログラムであって、
    前記マークは、前記人物が前記作業時に使用する工具に貼付されており、
    前記分析部は、前記マーク認識部が認識した前記マークの向きを判別し、判別した前記マークの向きと、前記マークと前記特定部分の位置関係と、に基づいて、前記人物が前記工具を使用中であるか否かを判断することで、前記作業を分析する
    作業分析プログラム。
  2. 前記マークは縞模様を含み、
    前記分析部は、前記縞模様の方向に応じて前記マークの向きを判別する
    請求項に記載の作業分析プログラム。
  3. 前記分析部は、
    前記画像データに対して所定の領域を設定し、
    前記マークの向きが縦であり、かつ、前記特定部分が前記マークの近傍または前記領域内にある場合は、前記人物が前記工具を使用中であると判断し、
    前記マークの向きが縦でないか、前記特定部分が前記マークの近傍と前記領域内のいずれにもない場合は、前記人物が前記工具を使用中でないと判断する
    請求項1に記載の作業分析プログラム。
  4. 前記マーク認識部は、個人を特定可能な識別情報を含んだ別のマークを認識し、認識した前記別のマークに基づいて前記作業を行っている人物を特定する
    請求項1に記載の作業分析プログラム。
  5. 画像データを入力とした画像認識により、前記画像データに写る人物の関節位置を示す特徴点データを含む骨格データを取得する骨格抽出部と、
    前記画像データに写る特定のマークを認識するマーク認識部と、
    前記マーク認識部により認識した前記マークと、前記骨格抽出部が取得した前記骨格データの特定部分とに基づいて、前記人物が行う作業を分析する分析部と、を有し、
    前記マークは、前記人物が前記作業時に使用する工具に貼付されており、
    前記分析部は、前記マーク認識部が認識した前記マークの向きを判別し、判別した前記マークの向きと、前記マークと前記特定部分の位置関係と、に基づいて、前記人物が前記工具を使用中であるか否かを判断することで、前記作業を分析する
    作業分析装置。
JP2020162424A 2020-09-28 2020-09-28 作業分析プログラム、および、作業分析装置 Active JP7376446B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020162424A JP7376446B2 (ja) 2020-09-28 2020-09-28 作業分析プログラム、および、作業分析装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020162424A JP7376446B2 (ja) 2020-09-28 2020-09-28 作業分析プログラム、および、作業分析装置

Publications (2)

Publication Number Publication Date
JP2022055057A JP2022055057A (ja) 2022-04-07
JP7376446B2 true JP7376446B2 (ja) 2023-11-08

Family

ID=80998142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020162424A Active JP7376446B2 (ja) 2020-09-28 2020-09-28 作業分析プログラム、および、作業分析装置

Country Status (1)

Country Link
JP (1) JP7376446B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002310617A (ja) 2001-04-18 2002-10-23 Matsushita Electric Works Ltd 作業分析システム及びその方法
JP2016066270A (ja) 2014-09-25 2016-04-28 Kddi株式会社 作業類似度算出方法、装置およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002310617A (ja) 2001-04-18 2002-10-23 Matsushita Electric Works Ltd 作業分析システム及びその方法
JP2016066270A (ja) 2014-09-25 2016-04-28 Kddi株式会社 作業類似度算出方法、装置およびプログラム

Also Published As

Publication number Publication date
JP2022055057A (ja) 2022-04-07

Similar Documents

Publication Publication Date Title
JP5403699B2 (ja) 手指形状推定装置、手指形状の推定方法及びプログラム
JP6783713B2 (ja) 人行動推定システム
US10692291B2 (en) Apparatus, method, and medium for generating a 3D model of a finger using captured image
JP6825041B2 (ja) 姿勢分析プログラム、および、姿勢分析装置
WO2016068869A1 (en) Three dimensional object recognition
US20210216821A1 (en) Training data generating method, estimating device, and recording medium
JP2007072620A (ja) 画像認識装置及びその方法
JP6066093B2 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP7010542B2 (ja) 作業分析装置、作業分析方法、及びプログラム
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
CN105892633A (zh) 手势识别方法及虚拟现实显示输出设备
JP6075888B2 (ja) 画像処理方法、ロボットの制御方法
Chen et al. Projection-based augmented reality system for assembly guidance and monitoring
TW202201275A (zh) 手部作業動作評分裝置、方法及電腦可讀取存儲介質
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP7376446B2 (ja) 作業分析プログラム、および、作業分析装置
JP2007048232A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP7431714B2 (ja) 視線分析装置と視線分析方法及び視線分析システム
JP6303918B2 (ja) ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
Shah et al. Gesture recognition technique: a review
Rong et al. RGB-D hand pose estimation using fourier descriptor
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
CN111742349B (zh) 信息处理装置、信息处理方法以及信息处理存储介质
JP7470069B2 (ja) 指示物体検出装置、指示物体検出方法及び指示物体検出システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231026

R150 Certificate of patent or registration of utility model

Ref document number: 7376446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150