JP6951685B2 - 動作分析システム、動作分析装置、動作分析方法及び動作分析プログラム - Google Patents

動作分析システム、動作分析装置、動作分析方法及び動作分析プログラム Download PDF

Info

Publication number
JP6951685B2
JP6951685B2 JP2018003475A JP2018003475A JP6951685B2 JP 6951685 B2 JP6951685 B2 JP 6951685B2 JP 2018003475 A JP2018003475 A JP 2018003475A JP 2018003475 A JP2018003475 A JP 2018003475A JP 6951685 B2 JP6951685 B2 JP 6951685B2
Authority
JP
Japan
Prior art keywords
motion
information
operation information
extracted
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018003475A
Other languages
English (en)
Other versions
JP2019125023A (ja
Inventor
浩臣 音田
浩臣 音田
修一 後藤
修一 後藤
直浩 河合
直浩 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018003475A priority Critical patent/JP6951685B2/ja
Priority to PCT/JP2018/047812 priority patent/WO2019138877A1/ja
Publication of JP2019125023A publication Critical patent/JP2019125023A/ja
Application granted granted Critical
Publication of JP6951685B2 publication Critical patent/JP6951685B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • General Factory Administration (AREA)
  • Image Analysis (AREA)

Description

本発明は、動作分析システム、動作分析装置、動作分析方法及び動作分析プログラムに関する。
従来、製品の製造ラインに1又は複数のカメラを設置して、作業者の動作を画像や動画で記録することがある。近年、トラッカーを装着せずとも関節の3次元的な位置や移動速度を測定することのできるモーションキャプチャが普及し始めており、画像や動画の他に、作業者の動作を定量的に示す動作情報を取得する場合がある。
下記特許文献1には、作業者の動画及び作業者の動作の特徴量の変化を表す動作信号を取得し、作業の結果が良好であった場合の動作信号と作業の結果が不良であった場合の動作信号とを比較して相違点を抽出し、相違点に対応する動画を表示する作業動作分析システムが記載されている。
特開2009−110239号公報
製造ラインで様々な作業が行われる場合に、作業者が特定の動作を実行した場面を確認したい場合がある。このような要求に応えるために、製造ラインに1又は複数のカメラを設置して、作業者の動作を動画により継続的に撮影することがある。ここで、例えば、特許文献1に記載の技術によれば、作業の結果が不良であった場合の問題点を抽出するために、作業結果が良好であった場合と不良であった場合の相違点に対応する動画を表示している。しかしながら、作業結果が必ずしも明らかでない場合には、特許文献1に記載の技術を適用することはできず、作業者が特定の動作を実行した場面を抽出することもできない。
また、仮に、製造ラインに1又は複数のカメラを設置して、作業者の動作を動画により継続的に撮影したとしても、設置するカメラの台数が増えることにより確認を要する動画の数が増えたり、個々の動画の長さが長大となったりすると、撮影された動画のうち、いずれかの部分に特定の動作が実行された場面が記録されていたとしても、特定の動作がいつ実行されたのかが分かりづらくなり、特定の動作が実行された場面を抽出することが困難となる。
そこで、本発明は、特定の動作が実行された場面を容易に抽出することができる動作分析システム、動作分析装置、動作分析方法及び動作分析プログラムを提供する。
本開示の一態様に係る動作分析システムは、ある作業領域において実行された1以上の作業者の動作を示す動作情報を測定する測定部と、作業者が動作を実行している場面を含む動画を撮影する撮影部と、作業者の動作について比較の基準となる基準動作を示す基準動作情報を記憶する記憶部と、動作情報と、基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部と、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を表示する表示部と、を備える。ここで、動作情報は、作業者の身体の動きを示す情報であってよく、作業者の身体の代表的な位置の変位を示す情報であってよい。作業者の身体の代表的な位置は、身体の1つの位置であってもよいが、典型的には複数あってよい。動作情報は、例えばパターン光を作業者に投影して撮影された動画から特徴点を抽出することで算出することができる。基準動作は、作業者が従うべき標準的な動作であってもよいし、ミス事例等の作業者の標準外の動作であってもよい。基準動作が標準的な動作である場合、所定の条件は、動作情報と基準動作情報との乖離が閾値以上であるという条件であってよい。基準動作が標準外の動作である場合、所定の条件は、動作情報と基準動作情報との乖離が閾値以下であるという条件であってよい。基準動作情報は、動作情報との比較が可能な情報であればよく、必ずしも動作情報と同じデータ形式の情報でなくてもよい。基準動作情報及び動作情報は、時系列データであってよい。また、「抽出された動作情報が示す動作を作業者が実行している場面」とは、一つの動画のうち抽出された動作情報が示す動作を作業者が実行している時間帯の場面であってもよいし、複数の動画のうち抽出された動作情報が示す動作を作業者が実行している一部の動画の場面であってもよい。また、動作情報が示す動作とは、動作情報により示される作業者の動作に関する定量的な情報に対応する動作であってもよい。
この態様によれば、作業者の動作を定量的に示す動作情報のうち、基準動作情報との比較において所定の条件を満たす動作情報を抽出して、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を表示することで、所定の条件を満たす特定の動作が実行された場面を容易に抽出することができる。所定の条件を満たす特定の動作が実行された場面を抽出することで、例えば、作業者による作業の結果が良好であったか不良であったかに関わらず、作業者が特定の動作を実行した場面を抽出することができる。また、例えば、確認を要する動画の数が増えたり、個々の動画の長さが長大となったりした場合であっても、特定の動作が実行された場面を容易に抽出することができ、抽出作業の負担を軽減することができる。
上記態様において、測定部は、複数の作業者の動作をそれぞれ示す複数の動作情報を測定し、表示部は、抽出された動作情報が測定された作業者を識別する情報を表示してもよい。
この態様によれば、複数の作業者の動作をそれぞれ示す複数の動作情報のうち、基準動作情報との比較において所定の条件を満たす動作情報を抽出して、抽出された動作情報が測定された作業者を識別する情報を表示することで、複数の作業者のうち所定の条件を満たす特定の動作を実行した作業者を識別することができる。そのため、例えば、特定の動作を誰が実行したのかを確認するための負担を軽減することができる。
上記態様において、撮影部は、作業領域を撮影した第1動画を撮影する第1撮影部及び作業領域の一部を撮影した第2動画を撮影する第2撮影部を含み、表示部は、第1動画及び第2動画を用いて、抽出された動作情報が示す動作を作業者が実行している時間帯の場面をそれぞれ表示してもよい。
この態様によれば、作業領域を撮影した第1動画のうち、抽出された動作情報が示す動作を作業者が実行している時間帯の場面を表示することで、所定の条件を満たす特定の動作を全体的に確認することができ、作業領域の一部を撮影した第2動画のうち、抽出された動作情報が示す動作を作業者が実行している時間帯の場面を表示することで、所定の条件を満たす特定の動作の詳細を確認することができる。そのため、例えば、動画の長さが長大となった場合であっても、特定の動作が実行された時間帯の場面を容易に抽出することができ、抽出作業の負担を軽減することができる。
上記態様において、第2撮影部は、作業領域の複数の部分をそれぞれ撮影した複数の第2動画を撮影し、抽出された動作情報が示す動作が実行された作業領域における位置を推定する推定部をさらに備え、表示部は、複数の第2動画のうち、推定された位置で撮影された第2動画を表示してもよい。
この態様によれば、抽出された動作情報が示す動作が実行された作業領域における位置を推定することで、所定の条件を満たす特定の動作が実行された位置を推定することができ、作業領域における複数の位置で撮影された複数の第2動画のうち、推定された位置で撮影された第2動画を表示することで、推定された位置で行われた動作の詳細を確認することができる。そのため、例えば、特定の動作がどこで実行されたのかを確認するための負担を軽減することができる。
上記態様において、基準動作情報は、複数の工程毎に定められており、抽出部は、複数の工程毎に、動作情報と、基準動作情報とを比較して、所定の条件を満たす動作情報を抽出し、表示部は、抽出された動作情報が示す工程を識別する情報を表示してもよい。
この態様によれば、作業者の動作を示す動作情報のうち、複数の工程毎に定められた基準動作情報との比較において所定の条件を満たす動作情報を抽出して、抽出された動作情報が示す工程を識別する情報を表示することで、所定の条件を満たす特定の動作がいずれの工程で実行された動作であるか確認することができる。そのため、例えば、特定の動作がいずれの工程で実行されたのかを確認するための負担を軽減することができる。
上記態様において、推定部は、抽出された動作情報が示す工程に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域における位置を推定してもよい。
この態様によれば、抽出された動作情報が示す工程に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域における位置を推定することで、作業領域における複数の位置で撮影された複数の第2動画のうち、抽出された動作情報が示す工程が行われた位置で撮影された第2動画を表示することができ、当該工程で行われた動作の詳細を確認することができる。そのため、例えば、特定の動作が、いずれの工程に関してどこで実行されたのかを確認するための負担を軽減することができる。
上記態様において、動作情報及び基準動作情報は、作業者の関節の座標値をそれぞれ含み、抽出部は、動作情報に含まれる座標値と、基準動作情報に含まれる座標値とを比較して、所定の条件を満たす動作情報を抽出してもよい。
この態様によれば、動作情報に含まれる関節の座標値と、基準動作情報に含まれる関節の座標値とを比較することで、動作情報が基準動作情報からどの程度乖離しているかを正確に評価することができ、所定の条件を満たす動作情報を適切に抽出することができる。
上記態様において、推定部は、抽出された動作情報に含まれる座標値に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域における位置を推定してもよい。
この態様によれば、抽出された動作情報に含まれる関節の座標値に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域における位置を推定することで、抽出された動作情報が示す動作が行われた位置を正確に推定することができる。
上記態様において、基準動作情報は、複数の要素動作毎に定められており、推定部は、抽出された動作情報に含まれる座標値及び抽出された動作情報が示す要素動作に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域における位置を推定してもよい。ここで、要素動作とは、作業者により実行される一単位の動作であり、例えば、部品のピッキング、部品の配置、部品の固定、製品の梱包といった動作を含む。なお、要素動作は、作業者の動作の構成要素であってよく、1又は複数の要素動作の組合せによって、作業者の一連の動作が構成されてよい。
この態様によれば、抽出された動作情報に含まれる関節の座標値及び抽出された動作情報が示す要素動作に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域における位置を推定することで、作業領域における複数の位置で撮影された複数の第2動画のうち、抽出された動作情報が示す要素動作が行われた位置で撮影された第2動画を表示することができ、当該要素動作の詳細を確認することができる。そのため、例えば、特定の動作が、いずれの要素動作に関してどこで実行されたのかを確認するための負担を軽減することができる。
上記態様において、表示部は、動画を用いて抽出された動作情報が示す動作を作業者が実行している場面と、基準動作情報が示す基準動作を作業者が実行している動画と、を表示してもよい。例えば、表示部は、動画を用いて抽出された動作情報が示す動作を作業者が実行している場面と、基準動作情報が示す基準動作を作業者が実行している動画と、を一画面に並列させて同時に表示してもよいし、一画面に重畳させて同時に表示してもよいし、連続させて交互に表示してもよい。
この態様によれば、動画を用いて抽出された動作情報が示す動作を作業者が実行している場面と、基準動作を作業者が実行している動画とを表示することで、作業者により実行された所定の条件を満たす特定の動作と、基準動作との比較が容易となる。
上記態様において、表示部は、抽出された動作情報を示すグラフと、抽出された動作情報が示す動作を作業者が実行している動画の場面と、を表示してもよい。
この態様によれば、抽出された動作情報を示すグラフと、抽出された動作情報が示す動作を作業者が実行している動画の場面とを表示することで、所定の条件を満たす特定の動作が実行された場面を、動画とグラフという異なる観点で確認することができる。そのため、例えば、特定の動作を定性的及び定量的に確認するための負担を軽減することができる。
上記態様において、表示部は、動画のうち抽出された動作情報が示す動作を作業者が実行している場面に含まれる複数のフレームを重畳させて一枚の画像として表示してもよい。
この態様によれば、動画のうち抽出された動作情報が示す動作を作業者が実行している場面に含まれる複数のフレームを重畳させて一枚の画像として表示することで、所定の条件を満たす特定の動作が実行された場面の全体を一目で確認することができる。そのため、例えば、特定の動作の全体を短時間で確認することができるようになり、確認のための負担を軽減することができる。
本開示の他の態様に係る動作分析装置は、ある作業領域において実行された1以上の作業者の動作を示す動作情報を取得する第1取得部と、作業者が動作を実行している場面を含む動画を取得する第2取得部と、作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得する第3取得部と、動作情報と、基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部と、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を特定する特定部と、を備える。
この態様によれば、作業者の動作を示す動作情報のうち、基準動作情報との比較において所定の条件を満たす動作情報を抽出して、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を特定することで、所定の条件を満たす特定の動作が実行された場面を容易に抽出することができる。そのため、例えば、作業者による作業の結果が良好であったか不良であったかに関わらず、作業者が特定の動作を実行した場面を抽出することができる。また、例えば、確認を要する動画の数が増えたり、個々の動画の長さが長大となったりした場合であっても、特定の動作が実行された場面を容易に抽出することができ、抽出作業の負担を軽減することができる。
本開示の他の態様に係る動作分析方法は、ある作業領域において実行された1以上の作業者の動作を示す動作情報を取得することと、作業者が動作を実行している場面を含む動画を取得することと、作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得することと、動作情報と、基準動作情報とを比較して、所定の条件を満たす動作情報を抽出することと、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を特定することと、を含む。
この態様によれば、作業者の動作を示す動作情報のうち、基準動作情報との比較において所定の条件を満たす動作情報を抽出して、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を特定することで、所定の条件を満たす特定の動作が実行された場面を容易に抽出することができる。そのため、例えば、作業者による作業の結果が良好であったか不良であったかに関わらず、作業者が特定の動作を実行した場面を抽出することができる。また、例えば、確認を要する動画の数が増えたり、個々の動画の長さが長大となったりした場合であっても、特定の動作が実行された場面を容易に抽出することができ、抽出作業の負担を軽減することができる。
本開示の他の態様に係る動作分析プログラムは、動作分析装置に備えられた演算装置を、ある作業領域において実行された1以上の作業者の動作を示す動作情報を取得する第1取得部、作業者が動作を実行している場面を含む動画を取得する第2取得部、作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得する第3取得部、動作情報と、基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部、及び動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を特定する特定部、として動作させる。
この態様によれば、作業者の動作を示す動作情報のうち、基準動作情報との比較において所定の条件を満たす動作情報を抽出して、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を特定することで、所定の条件を満たす特定の動作が実行された場面を抽出することができる。そのため、例えば、作業者による作業の結果が良好であったか不良であったかに関わらず、作業者が特定の動作を実行した場面を抽出することができる。また、例えば、確認を要する動画の数が増えたり、個々の動画の長さが長大となったりした場合であっても、特定の動作が実行された場面を容易に抽出することができ、抽出作業の負担を軽減することができる。
本発明によれば、特定の動作が実行された場面を容易に抽出することができる動作分析システム、動作分析装置、動作分析方法及び動作分析プログラムを提供することができる。
本発明の実施形態に係る動作分析システムの概要を示す図である。 本実施形態に係る動作分析システムの機能ブロックを示す図である。 本実施形態に係る動作分析装置の物理的構成を示す図である。 本実施形態に係る動作分析システムにより測定される動作情報の一例を示す図である。 本実施形態に係る動作分析システムにより記憶される第1基準動作情報の例を示す図である。 本実施形態に係る動作分析システムにより記憶される第1対応テーブルの例を示す図である。 本実施形態に係る動作分析システムにより実行される動作情報の抽出処理の第1例のフローチャートである。 本実施形態に係る動作分析システムにより実行される動画表示処理の第1例のフローチャートである。 本実施形態に係る動作分析システムにより表示される画面の一例である。 本実施形態に係る動作分析システムにより記憶される第2対応テーブルの例を示す図である。 本実施形態に係る動作分析システムにより実行される動画表示処理の第2例のフローチャートである。 本実施形態に係る動作分析システムにより記憶される第2基準動作情報の例を示す図である。 本実施形態に係る動作分析システムにより実行される動作情報の抽出処理の第2例のフローチャートである。 本実施形態に係る動作分析システムにより実行される動画表示処理の第3例のフローチャートである。 本実施形態に係る動作分析システムにより記憶される第3対応テーブルの例を示す図である。 本実施形態に係る動作分析システムにより実行される動画表示処理の第4例のフローチャートである。 変形例に係る動作分析システムにより実行される表示態様の選択処理のフローチャートである。 変形例に係る動作分析システムにより表示される画面の一例である。 本開示の他の実施形態に係る動作分析システムの機能ブロックを示す図である。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」と表記する。)を、図面に基づいて説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。本実施形態に係る動作分析システム100は、ある作業領域Rにおいて実行された作業者の動作を定量的に示す動作情報を測定する測定部30と、作業者が動作を実行している動画を撮影する第1撮影部20a、第2撮影部20b及び第3撮影部20cと、を備える。本例の作業領域Rは、製造ライン全体を含む領域であるが、作業領域Rは、任意の領域であってよく、例えば所定の工程が行われる領域であったり、所定の要素動作が行われる領域であったりしてよい。ここで、要素動作とは、作業者により実行される一単位の動作であり、例えば、部品のピッキング、部品の配置、部品の固定、製品の梱包といった動作を含む。
本例では、第1作業者A1及び第2作業者A2が、作業領域Rにおいて、予め定められた動作を行う場合について説明する。第1作業者A1は、例えば第1部品のピッキング、配置、固定といった動作を実行し、第2作業者A2は、例えば第2部品のピッキング、配置、固定といった動作を実行することができる。
動作分析システム100は、動作分析装置10を含む。動作分析装置10は、作業者の動作について比較の基準となる基準動作を定量的に示す基準動作情報を記憶する記憶部と、動作情報と、基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部と、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を表示する表示部10fと、を備える。ここで、動作情報が示す動作とは、動作情報により示される作業者の動作に関する定量的な情報に対応する動作である。なお、記憶部は、動作分析装置10と別体であってもよく、動作分析装置10と通信可能なものであればよい。
ここで、基準動作は、作業者が従うべき標準的な動作であってもよいし、作業者のミス動作や標準外の動作であってもよい。基準動作が標準的な動作である場合、所定の条件は、動作情報と基準動作情報との乖離が閾値以上であるという条件であってよい。この場合、抽出部は、標準外の動作を示す動作情報を抽出することとなる。一方、基準動作がミス動作や標準外の動作である場合、所定の条件は、動作情報と基準動作情報との乖離が閾値以下であるという条件であってよい。この場合、抽出部は、ミス動作や標準外の動作を抽出することとなる。以下では、基準動作が標準的な動作であり、所定の条件が、動作情報と基準動作情報との乖離が閾値以上であるという条件である場合について説明する。なお、標準外の動作は、作業者が咳をしたり、鼻をこすったりといった製品の品質に影響を与え得る動作を含んでよい。
表示部10fは、一つの動画のうち抽出された動作情報が示す動作を作業者が実行している時間帯の場面を表示してもよいし、複数の動画のうち抽出された動作情報が示す動作を作業者が実行している一部の動画の場面を表示してもよい。
動作分析システム100は、測定部30によって、作業者の複数の関節の座標値の変位等、作業者の身体の代表的な位置の変位を示す動作情報を測定する。そして、作業者が従うべき標準的な動作が実行された場合の動作情報を基準動作情報として事前に記憶部に記憶する。
その後、測定部30によって作業者の動作情報を測定し、測定部30による動作情報の測定と並行して、第1撮影部20a、第2撮影部20b及び第3撮影部20cによって作業者が動作を実行している動画を撮影して、記憶部に記憶する。続いて、抽出部によって、測定された動作情報と、記憶部に記憶された基準動作情報とを比較して、動作情報と基準動作情報との乖離が閾値以上であるような動作情報を抽出する。ここで、動作情報と基準動作情報の比較は、例えば、ある動作を示す動作情報の開始時点と終了時点を特定し、対応するタイミングで記録された動作情報と基準動作情報との乖離を求めることで行ってよい。
そして、抽出された動作情報、すなわち作業者が従うべき標準的な動作が実行された場合の基準動作情報と比較して乖離が閾値以上である動作情報が示す動作を作業者が実行している動画の場面を表示部10fによって表示する。
このように、作業者の動作を定量的に示す動作情報のうち、基準動作情報との比較において所定の条件を満たす動作情報を抽出して、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を表示することで、撮影された動画の数又は長さに関わらず、所定の条件を満たす特定の動作が実行された場面を容易に抽出することができる。例えば、一つの動画のうち抽出された動作情報が示す動作を実行している時間帯の場面を表示することで、一つの動画の中から特定の動作を確認するのに好適な場面を抽出することができる。また、例えば、複数の撮影部により撮影された複数の動画のうち抽出された動作情報が示す動作を実行している一部の動画の場面を表示することで、特定の動作を確認するのに好適な撮影部により撮影された動画を抽出することができる。さらに、所定の条件を満たす動作情報を抽出して、動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を特定することで、作業者の動作を撮影した動画と基準動作を撮影した動画とを比較して所定の条件を満たす特定の動作が実行された場面を検索する場合と比較して、演算負荷を大幅に減らすことができる。
例えば、基準動作が標準的な動作であり、所定の条件が、動作情報と基準動作情報との乖離が閾値以上であるという条件である場合、本実施形態に係る動作分析システム100によれば、標準的ではない動作が実行された動画の場面を抽出することができる。これにより、短期的には、標準的ではない動作が実行されたことを早期に検出し、例えば製造ラインにおいて不良品が製造されるおそれを低減することができる。仮に、標準的ではない動作が行われたが、良品が製造された場合であっても、問題が発生する兆候を捉え、その後の確認作業を効率化できるという点で技術的意義がある。このようなメリットは、動作分析システム100を用いる場合にリアルタイムに得られるメリットである。
また、長期的には、作業者の習熟支援に用いたり、基準動作の改善を検討する材料を提供したりすることができる。例えば、多くの作業者が標準的でない動作を行う部分を特定して、基準動作を改良することが考えられる。このようなメリットは、動作分析システム100を継続的に用いる場合に得られるメリットであり、非リアルタイムに得られるメリットである。
§2 構成例
[機能構成]
次に、図2を用いて、本実施形態に係る動作分析システム100の機能構成の一例を説明する。動作分析システム100は、第1撮影部20a、第2撮影部20b、第3撮影部20c、測定部30及び動作分析装置10を備える。そして、動作分析装置10は、第1取得部11、第2取得部12、第3取得部13、記憶部14、抽出部15、特定部16、推定部17及び表示部10fを備える。
<撮影部の構成>
第1撮影部20a、第2撮影部20b及び第3撮影部20cは、それぞれ汎用のカメラによって構成されてよく、作業領域Rにおいて第1作業者A1及び第2作業者A2が動作を実行している場面を含む動画を撮影してよい。第1撮影部20a、第2撮影部20b及び第3撮影部20cは、それぞれ作業領域Rの一部を撮影してよく、作業領域Rよりも狭い領域の動画を撮影してよい。具体的には、第1作業者A1及び第2作業者A2により実行される動作をクローズアップした動画を撮影してよい。第1撮影部20a、第2撮影部20b及び第3撮影部20cは、例えば、第1作業者A1及び第2作業者A2の手元をクローズアップした動画を撮影してよい。
また、第1撮影部20a、第2撮影部20b及び第3撮影部20cは、作業領域Rの複数の部分をそれぞれ撮影した複数の動画を撮影してよい。例えば、第1撮影部20aは、主に第1作業者A1が動作を実行している動画を撮影し、第3撮影部20cは、主に第2作業者A2が動作を実行している動画を撮影し、第2撮影部20bは、第1作業者A1が動作を実行している動画及び第2作業者A2が動作を実行している動画の両方を撮影してよい。また、第1撮影部20a、第2撮影部20b及び第3撮影部20cは、作業領域Rにおける複数の位置でそれぞれ異なる工程が実行される動画を撮影してよい。
<測定部の構成>
測定部30は、モーションキャプチャにより構成されてよく、ある作業領域Rにおいて実行された第1作業者A1及び第2作業者A2の動作をそれぞれ定量的に示す複数の動作情報を測定してよい。測定部30の構成は任意であるが、例えば、第1作業者A1及び第2作業者A2にパターン光を投影して、パターン光が投影された状態の第1作業者A1及び第2作業者A2の動画を撮影し、撮影した動画に基づいて、第1作業者A1及び第2作業者A2の複数の関節の座標値を測定するものであってよい。また、測定部30は、複数の作業者に関する複数の動作情報を測定する場合、動作情報に作業者を識別する情報を付加してもよい。なお、測定部30は、第1作業者A1及び第2作業者A2の複数の関節の座標値以外を測定するものであってもよく、例えば、第1作業者A1及び第2作業者A2の指先や頭部等、必ずしも関節ではない身体の代表的な位置の座標値を測定するものであってもよく、関節の座標値及び関節以外の身体の代表的な位置の座標値を併せて測定するものであってもよい。また、測定部30は、第1作業者A1及び第2作業者A2が装着したトラッカーの位置の座標値を測定するものであってもよく、その場合、身体の代表的な位置は、トラッカーの位置であってよい。また、身体の代表的な位置は、身体の特徴点の位置と言い換えてもよい。
動作分析システム100には、複数の測定部30が含まれてもよい。複数の測定部30によって、複数の作業者の動作情報を測定する場合、同一の作業者の動作情報が重複して測定されることがあり得るが、動作情報に作業者を識別する情報を付加して、重複を取り除いたり、異なる測定部30により測定された動作情報を合成したりしてもよい。
測定部30は、第1作業者A1及び第2作業者A2が動作を実行している動画を撮影する第4撮影部を兼ねてもよい。第4撮影部は、作業領域R全体の動画を撮影してよい。すなわち、第4撮影部は、第1作業者A1及び第2作業者A2が動作を実行している様子を、第1作業者A1及び第2作業者A2が両方含まれるように撮影してよい。一方、第1撮影部20a、第2撮影部20b及び第3撮影部20cは、第1作業者A1及び第2作業者A2の一方が含まれるように、第1作業者A1及び第2作業者A2が動作を実行している動画を撮影してよい。
測定部30(第4撮影部)により撮影される作業領域Rを撮影した動画は、本発明の「第1動画」に相当し、第1撮影部20a、第2撮影部20b及び第3撮影部20cにより撮影される作業領域Rの一部を撮影した動画は、本発明の「第2動画」に相当する。また、本実施形態の測定部30(第4撮影部)は、本発明の「第1撮影部」に相当し、本実施形態の第1撮影部20a、第2撮影部20b及び第3撮影部20cは、本発明の「第2撮影部」に相当する。
<第1取得部の構成>
第1取得部11は、作業領域Rにおいて実行された第1作業者A1及び第2作業者A2の動作を定量的に示す動作情報を、測定部30から取得する。第1取得部11により取得された動作情報は、記憶部14に伝送され、動作情報履歴14bとして記憶される。動作分析システム100が複数の測定部30を含む場合、第1取得部11は、複数の測定部30それぞれから動作情報を取得してよく、いずれの測定部30から取得した動作情報であるかを識別する情報を付加して、動作情報を記憶部14に伝送してもよい。なお、動作情報の具体的な例については、後に図4を用いて詳細に説明する。動作情報は、例えば、作業者の身体の代表的な位置の座標値を1秒間隔で測定した情報であってよい。
<第2取得部の構成>
第2取得部12は、第1作業者A1及び第2作業者A2が動作を実行している動画を、第1撮影部20a、第2撮影部20b、第3撮影部20c及び測定部30(第4撮影部)から取得する。第2取得部12により取得された動画は、記憶部14に伝送され、動画履歴14aとして記憶される。第2取得部12は、複数の撮影部のうちいずれの撮影部から取得した動画であるかを識別する情報を付加して、動画を記憶部14に伝送してもよい。
<第3取得部の構成>
第3取得部13は、作業者の動作について比較の基準となる基準動作を定量的に示す基準動作情報を、測定部30から取得する。第3取得部13により取得された基準動作情報は、記憶部14に伝送され、基準動作情報14cとして記憶される。なお、第3取得部13は、既に記憶された動作情報履歴14bのうち、後に説明する抽出部15により抽出されなかった動作情報を、基準動作情報として取得して、基準動作であることを示す情報を付加して記憶部14に記憶してもよい。また、第3取得部13は、既に記憶された動作情報履歴14bのうち、ユーザにより指定された動作情報を、基準動作情報として取得して、基準動作であることを示す情報を付加して記憶部14に記憶してもよい。なお、基準動作情報の具体的な例については、後に図5等を用いて詳細に説明する。基準動作情報は、例えば、作業者が従うべき標準的な動作が実行された場合における作業者の身体の代表的な位置の座標値を1秒間隔で測定した情報であってよい。
<記憶部の構成>
記憶部14は、少なくとも、作業者の動作について比較の基準となる基準動作を定量的に示す基準動作情報14cを記憶する。本実施形態に係る動作分析システム100では、記憶部14は、動画履歴14a、動作情報履歴14b、基準動作情報14c及び対応テーブル14dを記憶する。このうち、対応テーブル14dは、抽出部15により抽出された動作情報が示す動作が実行された作業領域Rにおける位置を推定するために用いられる。対応テーブル14dについては、後に具体的な例を示して説明する。
<抽出部の構成>
抽出部15は、測定部30により測定された動作情報と、基準動作情報14cとを比較して、所定の条件を満たす動作情報を抽出する。ここで、動作情報及び基準動作情報14cは、作業者の関節の座標値をそれぞれ含んでよく、抽出部15は、動作情報に含まれる座標値と、基準動作情報14cに含まれる座標値とを比較して、所定の条件を満たす動作情報を抽出してよい。この場合、所定の条件は、動作情報に含まれる座標値と、基準動作情報14cに含まれる座標値との乖離度が閾値以上であるという条件であってよい。
また、抽出部15は、測定部30により測定された動作情報と、複数の工程毎に定められた基準動作情報14cとを比較して、所定の条件を満たす動作情報を抽出してもよい。この場合、抽出される動作情報は、一つの工程に対応する。また、抽出部15は、測定部30により測定された動作情報と、複数の要素動作毎に定められた基準動作情報14cとを比較して、所定の条件を満たす動作情報を抽出してもよい。この場合、抽出される動作情報は、一つの要素動作に対応する。
<特定部の構成>
特定部16は、動画履歴14aを用いて、抽出された動作情報が示す動作を作業者が実行している場面を特定する。特定部16は、動作情報が測定された時刻と、動画が撮影された時刻とを比較して、動画履歴14aのうち、抽出された動作情報が示す動作を実行している時間帯の場面を特定してよい。また、特定部16は、抽出された動作情報に付加された作業者を識別する情報に基づいて、抽出された動作情報が測定された作業者を特定してもよい。さらに、特定部16は、抽出部15により抽出された動作情報が示す工程を特定してもよいし、抽出部15により抽出された動作情報が示す要素動作を特定してもよい。
<推定部の構成>
推定部17は、抽出部15により抽出された動作情報が示す動作が実行された作業領域Rにおける位置を推定する。推定部17は、記憶部14に記憶された対応テーブル14dを参照することで、抽出部15により抽出された動作情報に対応する作業領域Rにおける位置を推定してよい。本実施形態に係る動作分析システム100では、記憶部14に、工程と撮影部との対応が示された第1対応テーブルD3と、作業者の関節の座標値と撮影部との対応が示された第2対応テーブルD4と、作業者の関節の座標値及び要素動作と撮影部との対応が示された第3対応テーブルD6と、が記憶されてよい。特定部16は、複数の動画のうち、推定部17により推定された位置で撮影された動画を特定してよい。
推定部17は、抽出部15により抽出された動作情報が示す工程に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域Rにおける位置を推定してもよい。この場合、推定部17は、工程と撮影部との対応が示された第1対応テーブルD3を参照して、抽出された動作情報が示す動作を作業者が実行している作業領域Rにおける位置を推定してよい。
推定部17は、抽出部15により抽出された動作情報に含まれる座標値に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域Rにおける位置を推定してもよい。この場合、推定部17は、作業者の関節の座標値と撮影部との対応が示された第2対応テーブルD4を参照して、抽出された動作情報が示す動作を作業者が実行している作業領域Rにおける位置を推定してよい。
推定部17は、抽出部15により抽出された動作情報に含まれる座標値及び抽出された動作情報が示す要素動作に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域Rにおける位置を推定してもよい。この場合、推定部17は、作業者の関節の座標値及び要素動作と撮影部との対応が示された第3対応テーブルD6を参照して、抽出された動作情報が示す動作を作業者が実行している作業領域Rにおける位置を推定してよい。
なお、動作分析システム100は、作業者が標準的ではない動作を行う頻度に基づいて、作業者の疲れ、焦りを評価してもよい。疲れ、焦りの評価は、例えば、ある作業者について検出された標準的ではない動作の発生頻度が、全ての作業者に関する平均発生頻度からどの程度乖離しているか評価することにより行ってもよい。また、動作分析システム100は、評価された作業者の疲れ、焦りに基づいて、作業者の作業負担を調整してもよい。より具体的には、評価された作業者の疲れ、焦りが大きくなるほど、製造ラインの流れ速度を遅くするように調整して、作業者の作業負担を軽減し、不良品の発生を防止することとしてもよい。
[ハードウェア構成]
次に、図3を用いて、本実施形態に係る動作分析装置10のハードウェア構成の一例を説明する。動作分析装置10は、演算装置に相当するCPU(Central Processing Unit)10aと、記憶部14に相当するRAM(Random Access Memory)10bと、記憶部14に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fとを有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では動作分析装置10が一台のコンピュータで構成される場合について説明するが、動作分析装置10は、複数のコンピュータを用いて実現されてもよい。
CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、動作情報と基準動作情報とを比較して、所定の条件を満たす動作情報を抽出し、動画のうち、抽出された動作情報が示す動作を実行している部分を特定するプログラム(動作分析プログラム)を実行する演算装置である。CPU10aは、入力部10eや通信部10dから種々の入力データを受け取り、入力データの演算結果を表示部10fに表示したり、RAM10bやROM10cに格納したりする。
RAM10bは、記憶部14のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、CPU10aが実行する動作分析プログラムや、動画履歴14a、動作情報履歴14b、基準動作情報14c及び対応テーブル14dといったデータを記憶する。
ROM10cは、記憶部14のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えば動作分析プログラムや、書き換えが行われないデータを記憶する。
通信部10dは、動作分析装置10を外部機器に接続するインターフェースである。通信部10dは、第1撮影部20a、第2撮影部20b、第3撮影部20c及び測定部30と例えばLAN(Local Area Network)により接続されて、第1撮影部20a、第2撮影部20b及び第3撮影部20cから動画を受信し、測定部30から動画及び動作情報を受信してよい。また、通信部10dは、インターネットに接続されて、インターネットを介して動画を受信したり、動作情報を受信したりしてもよい。また、通信部10dは、インターネットを介して、撮影された動画のうち、抽出部15により抽出された動作情報が示す動作を実行している部分を、外部機器に送信してもよい。
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード、マウス及びタッチパネルを含んでよい。
表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部10fに表示される画面の例については、後に詳細に説明する。
動作分析プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。動作分析装置10では、CPU10aが動作分析プログラムを実行することにより、図2を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、動作分析装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。
§3 動作例
図4は、本実施形態に係る動作分析システム100により測定される動作情報D1の一例を示す図である。同図では、測定部30によって、1秒間隔で複数の作業者の関節の座標値を測定した例を示している。
本例の動作情報D1では、「時刻」、「作業者ID」、「右手(X座標)」、「右手(Y座標)」、「右手(Z座標)」及び「左手(X座標)」といった項目を一例として示している。ここで、「時刻」は、測定部30により動作情報が測定された日時を表し、例えば上から2行目及び6行目に「2017/9/1 8:43:21」と示されており、2017年9月1日の午前8時43分21秒に測定された動作情報であることが表されている。同様に、上から3行目には「2017/9/1 8:43:22」と示されており、2017年9月1日の午前8時43分22秒に測定された動作情報であることが表されている。また、上から4行目には「2017/9/1 8:43:23」と示されており、2017年9月1日の午前8時43分23秒に測定された動作情報であることが表されている。なお、5行目及び7行目に示された「・・・」という記載は、複数のデータが含まれていることを示す省略記号である。
「作業者ID」は、測定部30により動作情報が測定された複数の作業者を識別する情報である。本例の場合、作業者IDは、上から2行目〜4行目について「A1」であり、上から6行目について「A2」である。すなわち、上から2行目〜4行目の動作情報は、第1作業者A1について測定された動作情報であり、上から6行目の動作情報は、第2作業者A2について測定された動作情報であることが示されている。
「右手(X座標)」は、作業者の右手関節について、測定部30を原点とする座標系のX軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、右手のX座標値は、第1作業者A1について、8時43分21秒に「463」であり、8時43分22秒に「533」であり、8時43分23秒に「483」であることが示されている。このことから、第1作業者は、X軸方向に7cm右手を動かしたことが読み取れる。また、第2作業者A2について、右手のX座標値は、8時43分21秒に「416」であることが示されている。
「右手(Y座標)」は、作業者の右手関節について、測定部30を原点とする座標系のY軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、右手のY座標値は、第1作業者A1について、8時43分21秒に「574」であり、8時43分22秒に「977」であり、8時43分23秒に「830」であることが示されている。このことから、第1作業者は、Y軸方向に40cmほど大きく右手を動かし、15cmほど位置を戻したことが読み取れる。また、第2作業者A2について、右手のY座標値は、8時43分21秒に「965」であることが示されている。
「右手(Z座標)」は、作業者の右手関節について、測定部30を原点とする座標系のZ軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、右手のZ座標値は、第1作業者A1について、8時43分21秒に「531」であり、8時43分22秒に「341」であり、8時43分23秒に「624」であることが示されている。このことから、第1作業者は、Z座標のマイナス方向に9cmほど右手を動かし、Z座標のプラス方向に28cmほど右手を動かしたことが読み取れる。また、第2作業者A2について、右手のZ座標値は、8時43分21秒に「408」であることが示されている。
「左手(X座標)」は、作業者の左手関節について、測定部30を原点とする座標系のX軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、左手のX座標値は、第1作業者A1について、8時43分21秒に「327」であり、8時43分22秒に「806」であり、8時43分23秒に「652」であることが示されている。このことから、第1作業者は、X軸方向に7cm左手を動かし、すぐに元の位置に戻したことが読み取れる。また、第2作業者A2について、左手のX座標値は、8時43分21秒に「374」であることが示されている。
本例では、動作情報D1に含まれる他の関節の座標値の記載を省略しているが、動作情報D1は、手首、ひじ、肩、頭、腰、ひざ、足首等の各関節の3次元座標値を含んでもよい。また、本例では、動作情報D1は、2名の作業者の動作情報を含んでいるが、3名以上の作業者の動作情報を含んでもよいし、複数の測定部30により測定された複数の作業者毎の動作情報を含んでもよい。
図5は、本実施形態に係る動作分析システム100により記憶される第1基準動作情報D2の例を示す図である。同図では、複数の工程毎に定められた基準動作情報を示しており、作業者が標準的な動作を行った場合の関節の座標値を1秒間隔で記録した例を示している。
本例の第1基準動作情報D2では、「開始からの経過時間」、「工程」、「右手(X座標)」、「右手(Y座標)」、「右手(Z座標)」及び「左手(X座標)」といった項目を一例として示している。ここで、「開始からの経過時間」は、一つの工程の開始から終了までの経過時間を秒単位で示している。例えば、上から2行目に「00:00:00」と示されており、工程の開始時における基準動作情報を示す行であることが表されている。同様に、上から3行目には「00:00:01」と示されており、工程の開始から1秒後の基準動作情報であることが表されている。また、上から5行目には「00:00:00」と示されており、異なる工程の開始時における基準動作情報を示す行であることが表されている。同様に、上から6行目には「00:00:01」と示されており、工程の開始から1秒後の基準動作情報であることが表されている。なお、4行目及び7行目に示された「・・・」という記載は、複数のデータが含まれていることを示す省略記号である。
「工程」は、基準動作情報がいずれの工程に関するものか示す情報である。例えば、上から2行目及び3行目には、「1.組立」と示されており、これらの行の基準動作情報は、組立工程に関するものであることが表されている。同様に、上から5行目及び6行目には、「5.梱包」と示されており、これらの行の基準動作情報は、梱包工程に関するものであることが表されている。
「右手(X座標)」は、作業者の右手関節について、測定部30を原点とする座標系のX軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、標準的な右手のX座標値は、組立工程について、開始時に「463」であり、1秒後に「533」であることが示されている。また、梱包工程について、標準的な右手のX座標値は、開始時に「416」であり、1秒後に「796」であることが示されている。
「右手(Y座標)」は、作業者の右手関節について、測定部30を原点とする座標系のY軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、標準的な右手のY座標値は、組立工程について、開始時に「574」であり、1秒後に「977」であることが示されている。また、梱包工程について、標準的な右手のY座標値は、開始時に「965」であり、1秒後に「595」であることが示されている。
「右手(Z座標)」は、作業者の右手関節について、測定部30を原点とする座標系のZ軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、標準的な右手のZ座標値は、組立工程について、開始時に「531」であり、1秒後に「341」であることが示されている。また、梱包工程について、標準的な右手のZ座標値は、開始時に「408」であり、1秒後に「949」であることが示されている。
「左手(X座標)」は、作業者の左手関節について、測定部30を原点とする座標系のX軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、標準的な左手のX座標値は、組立工程について、開始時に「327」であり、1秒後に「806」であることが示されている。また、梱包工程について、標準的な左手のX座標値は、開始時に「374」であり、1秒後に「549」であることが示されている。
本例では、第1基準動作情報D2に含まれる他の関節の座標値の記載を省略しているが、第1基準動作情報D2は、手首、ひじ、肩、頭、腰、ひざ、足首等の各関節及び身体の代表的な位置の3次元座標値を含んでもよい。また、本例では、第1基準動作情報D2は、2つの工程の基準動作情報を含んでいるが、3つ以上の工程の基準動作情報を含んでもよい。
図6は、本実施形態に係る動作分析システム100により記憶される第1対応テーブルD3の例を示す図である。同図では、複数の工程と、複数の撮影部との対応関係を記録した例を示している。
本例の第1対応テーブルD3では、「工程」及び「撮影部」といった項目を一例として示している。第1対応テーブルD3には、複数の工程と、複数の撮影部との対応関係が、一対一で示されている。例えば、「1.組立」という工程について、対応する撮影部は「第1撮影部」(第1撮影部20a)であることが示されており、「5.梱包」という工程について、対応する撮影部は「第3撮影部」(第3撮影部20c)であることが示されている。
なお、第1対応テーブルD3は、複数の工程と、複数の撮影部との対応関係を、一対多で示すものであってもよい。例えば、組立工程に対して、2以上の撮影部が対応していてもよい。その場合、組立工程を異なる角度、異なる距離から撮影した2以上の撮影部が示されてよい。
図7は、本実施形態に係る動作分析システム100により実行される動作情報の抽出処理の第1例のフローチャートである。動作情報の抽出処理の第1例は、動作情報D1と第1基準動作情報D2とを比較して、所定の条件を満たす動作情報を抽出する処理である。
動作分析システム100は、はじめに、動作情報D1に含まれる各行の座標値と、第1基準動作情報D2のうち所定の工程の基準動作情報に含まれる開始座標値との差を算出する(S10)。ここで、開始座標値とは、「開始からの経過時刻」が「00:00:00」である場合の各関節の座標値である。
動作分析システム100は、次に、座標値の差が閾値以下となる動作情報D1の行を、所定の工程の開始行と特定する(S11)。ここで、座標値の差が閾値以下であるか否かは、座標値の差の絶対値が閾値以下であるかによって判断してよい。このような処理は、動作情報D1の各行の座標値が、いずれの工程に対応するものであるか予め明らかでないために必要となる。
動作分析システム100は、続いて、動作情報D1に含まれる各行の座標値と、第1基準動作情報D2のうち所定の工程の基準動作情報に含まれる終了座標値との差を算出する(S12)。ここで、終了座標値とは、所定の工程に関する最終行に示された各関節の座標値である。動作分析システム100は、座標値の差が閾値以下となる動作情報の行を、所定の工程の終了行と特定する(S13)。ここで、座標値の差が閾値以下であるか否かは、座標値の差の絶対値が閾値以下であるかによって判断してよい。
動作分析システム100は、動作情報D1に含まれる複数の行のうち、特定された開始行から終了行までを切り出す(S14)。この際、切り出される行数は、第1基準動作情報D2のうち所定の工程の基準動作情報の行数と必ずしも一致しない。そこで、動作分析システム100は、動作情報D1から切り出した動作情報の行数が、第1基準動作情報D2のうち所定の工程の基準動作情報の行数と一致するように補間又は間引きする(S15)。当然ながら、動作情報D1から切り出した動作情報の行数が、第1基準動作情報D2のうち所定の工程の基準動作情報の行数より少ない場合に補間し、動作情報D1から切り出した動作情報の行数が、第1基準動作情報D2のうち所定の工程の基準動作情報の行数より多い場合に間引きしてよい。なお、補間や間引きの方法は任意であるが、例えば、補間を行う場合には、前後の行の平均値で補間してよいし、間引きを行う場合は、座標値の変化が比較的少ない行を間引くこととしてよい。
動作分析システム100は、次に、補間又は間引きした動作情報の座標値と、所定の工程の基準動作情報の座標値との乖離度を算出する(S16)。ここでいう乖離度は、作業者の動作が、作業者が従うべき標準的な動作からどの程度ずれているかを示す数値である。乖離度は、関節毎に算出してもよく、複数の関節を組み合わせた単位(右手など)で算出してもよい。例えば、関節毎の乖離度は、ある時刻に関する関節の3次元座標値について、動作情報の座標値(x、y、z)と、所定の工程の基準動作情報の座標値(X,Y,Z)との差を二乗して平方根をとり、((x−X)2+(y−Y)2+(z−Z)21/2という値を求め、この値を全ての時間にわたって総和することで算出してよい。もっとも、乖離度は他の値によって算出してもよい。
乖離度が閾値以上である場合(S17:YES)、動作分析システム100は、特定された開始行から終了行までの動作情報を抽出する(S18)。なお、抽出される動作情報は、補間又は間引きがされていない状態の動作情報であってよい。ここで、乖離度を関節毎に算出した場合、閾値も関節毎に設定されてよく、関節毎に算出された乖離度のうちいずれか1つが閾値以上である場合に、動作情報を抽出してもよいし、2以上の関節について算出された乖離度が閾値以上である場合に、動作情報を抽出することとしてもよい。
動作情報を抽出した後、動画のうち抽出された動作情報が示す動作を実行している部分を表示する(S19)。動画の表示処理については、次図を用いて詳細に説明する。最後に、第1基準動作情報D2に含まれる全ての行程について分析が終了したか判断し(S20)、全ての工程について分析が終了した場合(S20:YES)、動作情報の抽出処理の第1例が終了する。
なお、本例では、動作情報D1に含まれる各行の座標値と、第1基準動作情報D2のうち所定の工程の基準動作情報に含まれる開始座標値との差を算出することで所定の工程の開始行を特定し、動作情報D1に含まれる各行の座標値と、第1基準動作情報D2のうち所定の工程の基準動作情報に含まれる終了座標値との差を算出することで所定の工程の終了行を特定しているが、動作分析システム100は、他の方法で動作情報を切り出してもよい。例えば、工程毎に作業台が割り当てられている場合等、工程毎に作業者の移動範囲が限定されている場合、動作分析システム100は、作業者の体の中心を表す座標値が所定の範囲に収まっている動作情報の区間を、所定の工程に対応する動作情報の区間として切出してもよい。
図8は、本実施形態に係る動作分析システム100により実行される動画表示処理の第1例のフローチャートである。動画表示処理の第1例は、動作情報の抽出処理の第1例において、動作情報を抽出した後、動画のうち抽出された動作情報が示す動作を実行している部分を表示する処理(S19)の一例である。
はじめに、動作分析システム100は、第1対応テーブルD3を参照して、抽出された動作情報が示す工程を実行している位置を推定する(S190)。例えば、抽出された動作情報が示す工程が梱包工程の場合、第1対応テーブルD3の「工程」の列のうち「5.梱包」を特定し、対応する撮影部である「第3撮影部20c」により、当該工程が実行された位置を推定する。位置の推定は、例えば、複数の撮影部と、複数の撮影部が設置された作業領域Rにおける位置との対応関係に基づいて行ってもよいし、撮影部の特定をもって位置の推定としてもよい。
次に、動作分析システム100は、測定部30(第4撮影部)により撮影された作業領域R全体の動画である第1動画及び作業領域Rよりも狭い領域について推定された位置で撮影された第2動画について、抽出された動作情報が示す動作を実行している時間帯の部分を表示する(S191)。第1動画及び第2動画のうち、抽出された動作情報が示す動作を実行している時間帯の部分は、抽出された動作情報の開始行と終了行の時刻に基づいて、第1動画及び第2動画を切り出すことで特定される。例えば、抽出された動作情報が示す工程が梱包工程の場合、測定部30(第4撮影部)により撮影された作業領域R全体の動画である第1動画と、第1対応テーブルD3を用いて特定された第3撮影部20cにより撮影された作業領域Rよりも狭い領域の動画である第2動画とについて、動作分析システム100は、抽出された動作情報の開始行と終了行の時刻に基づいて、第1動画及び第2動画を切り出し、表示部10fに表示する。
さらに、動作分析システム100は、抽出された動作情報が示す工程を表示し(S192)、抽出された動作情報が測定された作業者の識別情報を表示する(S193)。例えば、抽出された動作情報が示す工程が梱包工程であり、当該工程を実行した作業者が第1作業者A1である場合、動作分析システム100は、切り出された第1動画及び第2動画と併せて、動画の内容が梱包工程であることと、工程を実行する作業者が第1作業者A1であることを表示部10fに表示する。なお、工程の表示は、複数の工程を識別可能な情報によって行われてもよい。例えば、本例では、工程に通し番号が付加されており、梱包工程を表すために番号「5」を表示してもよい。また、作業者の表示は、複数の作業者を識別可能な情報によって行われてもよい。例えば、本例では、複数の作業者に作業者IDが付加されており、第1作業者A1を表すためにID「A1」を表示してもよい。以上により、動画表示処理の第1例が終了する。
図9は、本実施形態に係る動作分析システム100により表示される画面DPの一例である。画面DPは、動画表示処理の第1例において、第1動画及び推定された位置で撮影された第2動画について、抽出された動作情報が示す動作を作業者が実行している時間帯の場面を表示(S191)した場合の例である。
画面DPは、概要DP1、全体動画DP2及び手元動画DP3を含む。概要DP1は、抽出された動作情報の概要を示す情報である。概要DP1には、抽出された動作情報が示す動作が「標準外動作」であり、開始時刻が「2017/7/7 10:10:44.138」、すなわち2017年7月7日の午前10時10分44.138秒であり、終了時刻が「2017/7/7 10:12:44.435」、すなわち2017年7月7日の午前10時12分44.435秒であり、抽出された動作情報が示す工程は「梱包工程」であり、所要時間は「5.5s」(5.5秒)であることが示されている。なお、概要DP1には、抽出された動作情報が示す工程の名称ではなく、抽出された動作情報が示す工程を識別する情報を示してもよい。例えば、各工程に付与された通し番号等のIDを示すこととしてもよい。
全体動画DP2は、測定部30(第4撮影部)により作業領域R全体を撮影した第1動画であり、動画画面の右下に開始時刻として「2017/7/7 10:10:44.138」が示されている。全体動画DP2により、複数の作業者が動作を実行している様子を全体的に把握することができる。また、全体動画DP2には、測定部30により検出された複数の作業者の関節の位置を骨格モデルによって示している。これにより、複数の作業者の関節の座標が妥当な位置で測定されていることが確認できる。
手元動画DP3は、本例の場合、第3撮影部20cにより作業領域Rより狭い領域を撮影した第2動画であり、動画画面の右下に開始時刻として「2017/7/7 10:10:44.138」が示されている。また、動画画面の上に、「梱包工程」及び「作業者ID:A1」と表示され、抽出された動作情報が示す工程を識別する情報と、抽出された動作情報が測定された作業者の識別情報とが表示されている。作業者の手元をクローズアップした手元動画DP3により、作業者が実際に行った動作の詳細を確認することができる。
本実施形態に係る動作分析システム100によれば、複数の作業者の動作をそれぞれ定量的に示す複数の動作情報のうち、基準動作情報との比較において所定の条件を満たす動作情報を抽出して、抽出された動作情報が測定された作業者を識別する情報を表示することで、複数の作業者のうち所定の条件を満たす特定の動作を実行した作業者を識別することができる。本例の場合、第1作業者A1が標準外の動作を行ったことを確認することができる。
また、作業領域Rを撮影した第1動画のうち、抽出された動作情報が示す動作を作業者が実行している時間帯の場面を表示することで、所定の条件を満たす特定の動作を全体的に確認することができ、作業領域Rよりも狭い領域を撮影した第2動画のうち、抽出された動作情報が示す動作を作業者が実行している時間帯の場面を表示することで、所定の条件を満たす特定の動作の詳細を確認することができる。
推定部17により、抽出された動作情報が示す動作が実行された作業領域Rにおける位置を推定することで、所定の条件を満たす特定の動作が実行された位置を推定することができ、作業領域における複数の位置で撮影された複数の第2動画のうち、推定された位置で撮影された第2動画を表示することで、推定された位置で行われた動作の詳細を確認することができる。
また、作業者の動作を定量的に示す動作情報のうち、複数の工程毎に定められた基準動作情報との比較において所定の条件を満たす動作情報を抽出して、抽出された動作情報が示す工程を識別する情報を表示することで、所定の条件を満たす特定の動作がいずれの工程で実行された動作であるか確認することができる。本例の場合、梱包工程において標準外の動作が行われたことを確認することができる。
第1対応テーブルD3を用いて、抽出された動作情報が示す工程に基づいて、抽出された動作情報が示す動作を実行している作業領域Rにおける位置を推定することで、作業領域Rにおける複数の位置で撮影された複数の第2動画のうち、抽出された動作情報が示す工程が行われた位置で撮影された第2動画を表示することができ、当該工程で行われた動作の詳細を確認することができる。
また、動作情報に含まれる関節の座標値と、基準動作情報に含まれる関節の座標値とを比較することで、動作情報が基準動作情報からどの程度乖離しているかを正確に評価することができ、所定の条件を満たす動作情報を適切に抽出することができる。
図10は、本実施形態に係る動作分析システム100により記憶される第2対応テーブルD4の例を示す図である。同図では、複数の関節の座標範囲と、複数の撮影部との対応関係を記録した例を示している。
本例の第2対応テーブルD4では、「右手範囲(X座標)」、「右手範囲(Y座標)」及び「撮影部」といった項目を一例として示している。第2対応テーブルD4には、複数の関節の3次元座標の範囲と、複数の撮影部との対応関係が、一対一で示されている。例えば、「右手範囲(X座標)」について、「600〜700」、「右手範囲(Y座標)」について「200〜300」の場合に、対応する撮影部は「第1撮影部」(第1撮影部20a)であることが示されている。なお、本例では、右手の座標範囲のうちX座標とY座標の範囲を示しているが、第2対応テーブルD4は、一行に、手首、ひじ、肩、頭、腰、ひざ、足首等の各関節の3次元座標値の範囲を含んでいてよい。
なお、第2対応テーブルD4は、複数の関節の3次元座標の範囲と、複数の撮影部との対応関係を、一対多で示すものであってもよい。例えば、複数の関節の3次元座標の範囲に対して、2以上の撮影部が対応していてもよい。その場合、作業者の動作を異なる角度、異なる距離から撮影した2以上の撮影部が示されてよい。
図11は、本実施形態に係る動作分析システム100により実行される動画表示処理の第2例のフローチャートである。動画表示処理の第2例は、動作情報の抽出処理の第1例において、動作情報を抽出した後、動画のうち抽出された動作情報が示す動作を実行している部分を表示する処理(S19)の他の例である。
はじめに、動作分析システム100は、第2対応テーブルD4を参照して、第2対応テーブルD4のうち抽出された動作情報に含まれる座標値を最も多く含む行を探索する(S195)。例えば、抽出された動作情報に含まれる右手のX座標が550〜650の範囲にある場合、第2対応テーブルD4の上から2行目に示された「右手範囲(X座標)」が、抽出された動作情報に含まれる座標値を最も多く含む行として特定される。同様に、右手のY座標及びZ座標、他の関節の3次元座標について、第2対応テーブルD4に示された座標範囲と比較して、最も重複の多い行を探索する。
次に、動作分析システム100は、探索された行を参照して、抽出された動作情報が示す動作を実行している位置を推定する(S196)。例えば、探索された行が第2対応テーブルD4の上から2行目である場合、対応する撮影部である「第1撮影部20a」により、動作が実行された位置を推定する。位置の推定は、例えば、複数の撮影部と、複数の撮影部が設置された作業領域Rにおける位置との対応関係に基づいて行ってもよいし、撮影部の特定をもって位置の推定としてもよい。
動作分析システム100は、測定部30(第4撮影部)により撮影された作業領域R全体の動画である第1動画及び作業領域Rよりも狭い領域について推定された位置で撮影された第2動画について、抽出された動作情報が示す動作を実行している時間帯の部分を表示する(S197)。第1動画及び第2動画のうち、抽出された動作情報が示す動作を実行している時間帯の部分は、抽出された動作情報の開始行と終了行の時刻に基づいて、第1動画及び第2動画を切り出すことで特定される。
さらに、動作分析システム100は、抽出された動作情報が測定された作業者の識別情報を表示する(S198)。例えば、抽出された動作情報が示す動作を実行した作業者が第1作業者A1である場合、動作分析システム100は、切り出された第1動画及び第2動画と併せて、動作を実行する作業者が第1作業者A1であることを表示部10fに表示する。以上により、動画表示処理の第2例が終了する。
本実施形態に係る動作分析システム100によれば、抽出された動作情報に含まれる関節の座標値に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域における位置を推定することで、抽出された動作情報が示す動作が行われた位置を正確に推定することができる。
図12は、本実施形態に係る動作分析システム100により記憶される第2基準動作情報D5の例を示す図である。同図では、複数の要素動作毎に定められた基準動作情報を示しており、作業者が標準的な動作を行った場合の関節の座標値を1秒間隔で記録した例を示している。
本例の第2基準動作情報D5では、「開始からの経過時間」、「要素動作」、「右手(X座標)」、「右手(Y座標)」、「右手(Z座標)」及び「左手(X座標)」といった項目を一例として示している。ここで、「開始からの経過時間」は、一つの工程の開始から終了までの経過時間を秒単位で示している。例えば、上から2行目に「00:00:00」と示されており、要素動作の開始時における基準動作情報を示す行であることが表されている。同様に、上から3行目には「00:00:01」と示されており、要素動作の開始から1秒後の基準動作情報であることが表されている。また、上から5行目には「00:00:00」と示されており、異なる要素動作の開始時における基準動作情報を示す行であることが表されている。同様に、上から6行目には「00:00:01」と示されており、要素動作の開始から1秒後の基準動作情報であることが表されている。なお、4行目及び7行目に示された「・・・」という記載は、複数のデータが含まれていることを示す省略記号である。
「要素動作」は、基準動作情報がいずれの要素動作に関するものか示す情報である。例えば、上から2行目及び3行目には、「部品ピック」と示されており、これらの行の基準動作情報は、部品のピッキングに関するものであることが表されている。同様に、上から5行目及び6行目には、「配置」と示されており、これらの行の基準動作情報は、部品の配置に関するものであることが表されている。
「右手(X座標)」は、作業者の右手関節について、開始地点を原点とする座標系のX軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、標準的な右手のX座標値は、部品ピックの要素動作について、開始時に「0」であり、1秒後に「533」であることが示されている。また、配置の要素動作について、標準的な右手のX座標値は、開始時に「0」であり、1秒後に「796」であることが示されている。
「右手(Y座標)」は、作業者の右手関節について、開始地点を原点とする座標系のY軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、標準的な右手のY座標値は、部品ピックの要素動作について、開始時に「0」であり、1秒後に「977」であることが示されている。また、配置の要素動作について、標準的な右手のY座標値は、開始時に「0」であり、1秒後に「595」であることが示されている。
「右手(Z座標)」は、作業者の右手関節について、開始地点を原点とする座標系のZ軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、標準的な右手のZ座標値は、部品ピックの要素動作について、開始時に「0」であり、1秒後に「341」であることが示されている。また、配置の要素動作について、標準的な右手のZ座標値は、開始時に「0」であり、1秒後に「949」であることが示されている。
「左手(X座標)」は、作業者の左手関節について、開始地点を原点とする座標系のX軸における位置を示している。なお、単位は任意であるが、本例ではmm(ミリメートル)である。本例の場合、標準的な左手のX座標値は、部品ピックの要素動作について、開始時に「0」であり、1秒後に「806」であることが示されている。また、配置の要素動作について、標準的な左手のX座標値は、開始時に「0」であり、1秒後に「549」であることが示されている。
本例では、第2基準動作情報D5に含まれる他の関節の座標値の記載を省略しているが、第2基準動作情報D5は、手首、ひじ、肩、頭、腰、ひざ、足首等の各関節の3次元座標値を含んでもよい。また、本例では、第2基準動作情報D5は、2つの要素動作の基準動作情報を含んでいるが、3つ以上の要素動作の基準動作情報を含んでもよい。
図13は、本実施形態に係る動作分析システム100により実行される動作情報の抽出処理の第2例のフローチャートである。動作情報の抽出処理の第2例は、動作情報D1と第2基準動作情報D5とを比較して、所定の条件を満たす動作情報を抽出する処理である。
動作分析システム100は、はじめに、動作情報D1に含まれる隣り合う座標値に基づき、各関節の速度を算出する(S40)。関節の速度は、例えば、1秒間隔で測定された座標値の場合、隣り合う行の座標値の差を1秒で割ることで算出してよい。
動作分析システム100は、次に、いずかの関節の速度が閾値以下となった行を、要素動作が移り変わる行と特定する(S41)。例えば、部品ピックの要素動作から部品を配置する要素動作に移り変わる場合、手の関節の速度が、部品ピックを終えて配置に移る際にほとんどゼロになるため、いずかの関節の速度が閾値以下となった行を、要素動作が移り変わる行と特定することができる。
動作分析システム100は、動作情報D1について、要素動作が移り変わる行を全て特定した後、動作情報D1から、一つの要素動作の開始行から終了行までを切り出す(S42)。この際、切り出される行数は、第2基準動作情報D5のうち所定の要素動作の基準動作情報の行数と必ずしも一致しない。そこで、動作分析システム100は、動作情報D1から切り出した動作情報の行数が、第2基準動作情報D5のうち所定の要素動作の基準動作情報の行数と一致するように補間又は間引きする(S43)。
動作分析システム100は、次に、補間又は間引きした動作情報の座標値と、所定の要素動作の基準動作情報の座標値との乖離度を算出する(S44)。乖離度は、関節毎に算出してよい。乖離度は、ある時刻に関する関節の3次元座標値について、動作情報の座標値(x、y、z)と、所定の工程の基準動作情報の座標値(X,Y,Z)との差を二乗して平方根をとり、((x−X)2+(y−Y)2+(z−Z)21/2という値を求め、この値を全ての時間にわたって総和することで算出してよい。もっとも、乖離度は他の値によって算出してもよい。
乖離度が閾値以上である場合(S45:YES)、動作分析システム100は、特定された開始行から終了行までの動作情報を抽出する(S46)。なお、抽出される動作情報は、補間又は間引きがされていない状態の動作情報であってよい。ここで、乖離度を関節毎に算出した場合、閾値も関節毎に設定されてよく、関節毎に算出された乖離度のうちいずれか1つが閾値以上である場合に、動作情報を抽出してもよいし、2以上の関節について算出された乖離度が閾値以上である場合に、動作情報を抽出することとしてもよい。
動作分析システム100は、動作情報を抽出した後、動画のうち抽出された動作情報が示す動作を実行している部分を表示する(S47)。動画の表示処理については、次図を用いて詳細に説明する。動作分析システム100は、最後に、第2基準動作情報D5に含まれる全ての要素動作について分析が終了したか判断し(S48)、全ての要素動作について分析が終了した場合(S48:YES)、動作情報の抽出処理の第2例が終了する。
図14は、本実施形態に係る動作分析システム100により実行される動画表示処理の第3例のフローチャートである。動画表示処理の第3例は、動作情報の抽出処理の第2例において、動作情報を抽出した後、動画のうち抽出された動作情報が示す動作を実行している部分を表示する処理(S47)の一例である。
はじめに、動作分析システム100は、第2対応テーブルD4を参照して、第2対応テーブルD4のうち抽出された動作情報に含まれる座標値を最も多く含む行を探索する(S470)。例えば、抽出された動作情報に含まれる右手のX座標が550〜650の範囲にある場合、第2対応テーブルD4の上から2行目に示された「右手範囲(X座標)」が、抽出された動作情報に含まれる座標値を最も多く含む行として特定される。同様に、右手のY座標及びZ座標、他の関節の3次元座標について、第2対応テーブルD4に示された座標範囲と比較して、最も重複の多い行を探索する。
次に、動作分析システム100は、探索された行を参照して、抽出された動作情報が示す動作を実行している位置を推定する(S471)。例えば、探索された行が第2対応テーブルD4の上から2行目である場合、対応する撮影部である「第1撮影部20a」により、動作が実行された位置を推定する。位置の推定は、例えば、複数の撮影部と、複数の撮影部が設置された作業領域Rにおける位置との対応関係に基づいて行ってもよいし、撮影部の特定をもって位置の推定としてもよい。
動作分析システム100は、測定部30(第4撮影部)により撮影された作業領域R全体の動画である第1動画及び作業領域Rよりも狭い領域について推定された位置で撮影された第2動画について、抽出された動作情報が示す動作を実行している時間帯の部分を表示する(S472)。第1動画及び第2動画のうち、抽出された動作情報が示す動作を実行している時間帯の部分は、抽出された動作情報の開始行と終了行の時刻に基づいて、第1動画及び第2動画を切り出すことで特定される。
さらに、動作分析システム100は、抽出された動作情報が示す要素動作を表示し(S473)、抽出された動作情報が測定された作業者の識別情報を表示する(S474)。例えば、抽出された動作情報が示す要素動作が部品ピックであり、当該要素動作を実行した作業者が第1作業者A1である場合、動作分析システム100は、切り出された第1動画及び第2動画と併せて、動画の内容が部品ピックであることと、要素動作を実行する作業者が第1作業者A1であることを表示部10fに表示する。なお、要素動作の表示は、複数の要素動作を識別可能な情報によって行われてもよい。また、作業者の表示は、複数の作業者を識別可能な情報によって行われてもよい。以上により、動画表示処理の第3例が終了する。
本実施形態に係る動作分析システム100によれば、抽出された動作情報に含まれる関節の座標値及び抽出された動作情報が示す要素動作に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域における位置を推定することで、作業領域における複数の位置で撮影された複数の第2動画のうち、抽出された動作情報が示す要素動作が行われた位置で撮影された第2動画を表示することができ、当該要素動作の詳細を確認することができる。また、基準動作情報を複数の要素動作毎に定めることで、作業者が実行している要素動作に抜け、漏れが生じていないかを容易に確認することができ、作業者が適切な動作を行っているか確認する負担を軽減することができる。
図15は、本実施形態に係る動作分析システム100により記憶される第3対応テーブルD6の例を示す図である。同図では、複数の関節の座標範囲及び複数の要素動作と、複数の撮影部との対応関係を記録した例を示している。
本例の第3対応テーブルD6では、「右手範囲(X座標)」、「右手範囲(Y座標)」、「要素動作」、「撮影部」及び「備考」といった項目を一例として示している。第3対応テーブルD6には、複数の関節の3次元座標の範囲及び複数の要素動作と、複数の撮影部との対応関係が、一対一で示されている。例えば、「右手範囲(X座標)」について、「600〜700」、「右手範囲(Y座標)」について「200〜300」であって、要素動作が「部品ピック」の場合に、対応する撮影部は「第1撮影部」(第1撮影部20a)であることが示されている。ここで、「備考」には、「斜め上から撮影」と示されている。また、「右手範囲(X座標)」について、「600〜700」、「右手範囲(Y座標)」について「200〜300」であって、要素動作が「配置」の場合に、対応する撮影部は「第2撮影部」(第2撮影部20b)であることが示されている。ここで、「備考」には、「真上から撮影」と示されている。このように、関節の3次元座標の範囲が同一であっても、要素動作によって適切な撮影方向や撮影距離が異なる場合に、要素動作によりさらに分類することで、作業者の動作の詳細をより確認しやすい動画を特定することができる。なお、本例では、右手の座標範囲のうちX座標とY座標の範囲を示しているが、第3対応テーブルD6は、一行に、手首、ひじ、肩、頭、腰、ひざ、足首等の各関節の3次元座標値の範囲を含んでいてよい。
なお、第3対応テーブルD6は、複数の関節の3次元座標の範囲及び複数の要素動作と、複数の撮影部との対応関係を、一対多で示すものであってもよい。例えば、複数の関節の3次元座標の範囲及び要素動作に対して、2以上の撮影部が対応していてもよい。その場合、作業者の動作を異なる角度、異なる距離から撮影した2以上の撮影部が示されてよい。
図16は、本実施形態に係る動作分析システム100により実行される動画表示処理の第4例のフローチャートである。動画表示処理の第4例は、動作情報の抽出処理の第2例において、動作情報を抽出した後、動画のうち抽出された動作情報が示す動作を実行している部分を表示する処理(S47)の他の例である。
はじめに、動作分析システム100は、第3対応テーブルD6を参照して、第3対応テーブルD6のうち抽出された動作情報に含まれる座標値を最も多く含む行を探索する(S475)。例えば、抽出された動作情報に含まれる右手のX座標が550〜650の範囲にある場合、第3対応テーブルD6の上から2行目及び3行目に示された「右手範囲(X座標)」が、抽出された動作情報に含まれる座標値を最も多く含む行として特定される。同様に、右手のY座標及びZ座標、他の関節の3次元座標について、第3対応テーブルD6に示された座標範囲と比較して、最も重複の多い行を探索する。
次に、動作分析システム100は、探索された行のうち、抽出された動作情報が示す要素動作に対応する行を特定する(S471)。例えば、第3対応テーブルD6の上から2行目及び3行目が、抽出された動作情報に含まれる座標値を最も多く含む行として探索された場合に、抽出された動作情報が示す要素動作が部品ピックであれば、第3対応テーブルD6の上から2行目を、抽出された動作情報が示す要素動作に対応する行として特定する。
動作分析システム100は、特定された行を参照して、抽出された動作情報が示す動作を実行している位置を推定する(S477)。例えば、特定された行が第3対応テーブルD6の上から2行目である場合、対応する撮影部である「第1撮影部20a」により、動作が実行された位置を推定する。位置の推定は、例えば、複数の撮影部と、複数の撮影部が設置された作業領域Rにおける位置との対応関係に基づいて行ってもよいし、撮影部の特定をもって位置の推定としてもよい。
動作分析システム100は、測定部30(第4撮影部)により撮影された作業領域R全体の動画である第1動画及び作業領域Rよりも狭い領域について推定された位置で撮影された第2動画について、抽出された動作情報が示す動作を実行している時間帯の部分を表示する(S478)。第1動画及び第2動画のうち、抽出された動作情報が示す動作を実行している時間帯の部分は、抽出された動作情報の開始行と終了行の時刻に基づいて、第1動画及び第2動画を切り出すことで特定される。
さらに、動作分析システム100は、抽出された動作情報が示す要素動作を表示し(S479)、抽出された動作情報が測定された作業者の識別情報を表示する(S4710)。例えば、抽出された動作情報が示す要素動作が部品ピックであり、当該要素動作を実行した作業者が第1作業者A1である場合、動作分析システム100は、切り出された第1動画及び第2動画と併せて、動画の内容が部品ピックであることと、要素動作を実行する作業者が第1作業者A1であることを表示部10fに表示する。なお、要素動作の表示は、複数の要素動作を識別可能な情報によって行われてもよい。また、作業者の表示は、複数の作業者を識別可能な情報によって行われてもよい。以上により、動画表示処理の第4例が終了する。
本実施形態に係る動作分析システム100によれば、抽出された動作情報に含まれる関節の座標値及び抽出された動作情報が示す要素動作に基づいて、抽出された動作情報が示す動作を作業者が実行している作業領域における位置を推定することで、作業領域における複数の位置で撮影された複数の第2動画のうち、抽出された動作情報が示す要素動作が行われた位置で撮影された第2動画を表示することができ、当該要素動作の詳細を確認することができる。
§4 変形例
図17は、本実施形態の変形例に係る動作分析システム100により実行される表示態様の選択処理のフローチャートである。本実施形態に係る動作分析システム100は、図9に示すように、抽出された動作情報の概要、作業領域R全体を撮影した第1動画(全体動画)及び作業者の手元を撮影した第2動画(手元動画)を表示する。本変形例に係る動作分析システム100は、ユーザの選択に応じて、表示部10fに表示する内容を変更することができる。
動作分析システム100は、基準動作を併せて表示するか否かを判定する(S50)。基準動作を併せて表示するか否かは、ユーザの入力部10eによる入力に基づいて指定されてよい。基準動作を併せて表示する場合(S50:YES)、第1動画を表示するとともに、第2動画のうち、抽出された動作情報が示す動作を実行している部分と、基準動作情報が示す基準動作を実行している動画とを表示する(S51)。ここで、基準動作情報が示す基準動作を実行している動画は、予め撮影されて記憶部14に記憶されたものであってもよいし、動画履歴14aのうち抽出部15により抽出されなかった動画から選択されてもよい。
動画のうち抽出された動作情報が示す動作を実行している部分と、基準動作を実行している動画とを表示することで、所定の条件を満たす特定の動作と、基準動作との比較が容易となる。
また、動作分析システム100は、動作情報を示すグラフを併せて表示するか否かを判定する(S52)。動作情報を示すグラフを併せて表示するか否かは、ユーザの入力部10eによる入力に基づいて指定されてよい。動作情報を示すグラフを併せて表示する場合(S52:YES)、第1動画を表示するとともに、第2動画のうち、抽出された動作情報が示す動作を作業者が実行している場面と、抽出された動作情報を示すグラフとを表示する(S53)。抽出された動作情報を示すグラフは、任意の態様のグラフであってよいが、例えば、各関節の座標値を縦軸に示し、経過時間を横軸に示すグラフであってよい。
抽出された動作情報を示すグラフと、抽出された動作情報が示す動作を作業者が実行している動画の場面とを表示することで、所定の条件を満たす特定の動作が実行された場面を、動画とグラフという異なる観点で確認することができる。
また、動作分析システム100は、重畳画像を表示するか否かを判定する(S54)。重畳画像を表示するか否かは、ユーザの入力部10eによる入力に基づいて指定されてよい。重畳画像を表示する場合(S54:YES)、第1動画を表示するとともに、第2動画のうち、抽出された動作情報が示す動作を作業者が実行している場面に含まれる複数のフレームを重畳させて一枚の画像として表示する(S55)。重畳画像は、例えば、第2動画のうち、抽出された動作情報が示す動作を作業者が実行している場面に含まれる複数のフレームを間引きし、透過処理して、一枚の画像に合成することで生成してよい。
動画のうち抽出された動作情報が示す動作を作業者が実行している場面に含まれる複数のフレームを重畳させて一枚の画像として表示することで、所定の条件を満たす特定の動作が実行された場面の全体を一目で確認することができる。
基準動作を併せて表示せず(S50:NO)、動作情報を示すグラフを併せて表示せず(S52:NO)、重畳画像を表示しない場合(S54:NO)、第1動画を表示するとともに、第2動画のうち、抽出された動作情報が示す動作を実行している部分を表示する。この場合の画面の一例が、図9に示した画面DPである。以上により、表示態様の選択処理が終了する。
図18は、本変形例に係る動作分析システム100により表示される画面DPの一例である。画面DPは、表示態様の選択処理において、動作情報を示すグラフを併せて表示(S53)した場合の例である。
画面DPは、グラフDP4、全体動画DP2及び手元動画DP3を含む。本例のグラフDP4は、抽出された動作情報を示すグラフであり、右手のX座標値(「右手X」)、Y座標値(「右手Y」)及びZ座標値(「右手Z」)を縦軸に示し、経過時間を横軸に示す動作信号グラフである。グラフDP4では、右手のX座標値(「右手X」)を実線で示し、Y座標値(「右手Y」)を破線で示し、Z座標値(「右手Z」)を一点鎖線で示している。グラフDP4には、右手の座標値の時系列変化が、抽出された動作情報の期間について表されている。
全体動画DP2は、測定部30(第4撮影部)により作業領域R全体を撮影した第1動画であり、動画画面の右下に開始時刻として「2017/7/7 10:10:44.138」が示されている。全体動画DP2により、複数の作業者が動作を実行している様子を全体的に把握することができる。また、全体動画DP2には、測定部30により検出された複数の作業者の関節の位置を骨格モデルによって示している。これにより、複数の作業者の関節の座標が妥当な位置で測定されていることが確認できる。
手元動画DP3は、本例の場合、第3撮影部20cにより作業領域Rより狭い領域を撮影した第2動画であり、動画画面の右下に開始時刻として「2017/7/7 10:10:44.138」が示されている。また、動画画面の上に、「梱包工程」及び「作業者ID:A1」と表示され、抽出された動作情報が示す工程を識別する情報と、抽出された動作情報が測定された作業者の識別情報とが表示されている。作業者の手元をクローズアップした手元動画DP3により、作業者が実際に行った動作の詳細を確認することができる。
なお、表示態様の選択処理において、基準動作を併せて表示(S51)する場合には、第1動画及び推定された位置で撮影された第2動画について、抽出された動作情報が示す動作を実行している時間帯の部分を表示するとともに、基準動作を実行している第1動画及び第2動画を表示してよい。その場合、第1動画同士が隣接し、第2動画同士が隣接するように表示して、比較を容易にしてもよい。
また、重畳画像を表示(S55)する場合には、第1動画について、抽出された動作情報が示す動作を実行している時間帯の部分を表示するとともに、推定された位置で撮影された第2動画について、複数のフレームを重畳させて一枚の画像として表示してよい。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
動作分析システム100は、製造ラインのある作業領域において実行された作業者の動作を示す動作情報を測定するものに限られない。例えば、動作分析システム100は、ゴルフクラブのスイング等、スポーツを行う人物の動作であったり、演劇等の身体を用いたパフォーマンスを行う人物の動作であったりを示す動作情報を測定し、同時に動画を撮影して、人物が従うべき動作を示す基準動作情報と動作情報とを比較し、例えば基準動作情報からの乖離が閾値以上であること等の所定の条件を満たす動作情報を抽出して、抽出された動作情報が示す動作を人物が実行している動画の場面を表示してもよい。動作分析システム100は、手本となる動作が定義される場合に用いることができ、手本となる動作を示す動作情報を基準動作情報として事前に記憶部に記憶して、測定された動作情報と比較することで、手本から逸脱した動作を実行している動画の場面を表示することができる。
なお、本実施形態及び変形例では、動作分析システム100が、複数の撮影部を備え、複数の撮影部により撮影された動画を用いて、抽出された動作情報が示す動作を作業者が実行している場面を表示する場合について説明したが、動作分析システムは、動画以外の情報を抽出するものであってもよい。
図19は、本開示の他の実施形態に係る動作分析システム100gの機能ブロックを示す図である。他の実施形態に係る動作分析システム100gは、ある作業領域において実行された作業者の動作を示す動作情報を測定する測定部30と、作業者が実行する動作をセンシングする第1センサ40a、第2センサ40b及び第3センサ40cと、動作情報と基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部15と、第1センサ40a、第2センサ40b及び第3センサ40cによりセンシングされたセンシングデータを用いて、抽出された動作情報が示す動作を作業者が実行している場面を出力する出力部18と、を備えるものであってもよい。すなわち、他の実施形態に係る動作分析システム100gは、本実施形態に係る動作分析システム100の撮影部(すなわち画像センサ)を他のセンサに置き換えた構成であってもよい。センサとしては、作業者の動作をセンシングし得る任意のセンサを用いることができるが、例えば、近接センサや測距センサ等を用いることができる。なお、出力部18は、抽出された動作情報が示す動作を作業者が実行している場面を表示部10fに出力してよいが、当該場面を他の分析装置に出力してもよい。
動作分析システム100gに含まれる動作分析装置10gの第2取得部12は、作業者が実行する動作をセンシングしたセンシングデータを取得してよい。また、記憶部14は、作業者が実行する動作を第1センサ40a、第2センサ40b及び第3センサ40cによりセンシングしたセンシングデータの履歴であるセンシングデータ履歴14eを記憶してよい。その他、動作分析装置10gは、本実施形態に係る動作分析装置10と同様の構成を備えてよい。
製造ラインで様々な作業が行われる場合に、作業者によって標準外の動作が行われたことを検知したい場合がある。このために、製造ラインに複数のセンサを設置して、作業者の動作をセンシングすることが考えられる。
しかしながら、設置するセンサの台数が増えることにより確認を要するセンシングデータの数が増えたり、個々のセンシングデータの長さが長大となったりすると、記録されたセンシングデータのいずれかの部分に特定の動作が実行された場面が記録されていたとしても、特定の動作がいつ実行されたのかが分かりづらくなり、特定の動作が実行された場面を抽出することが困難となる。
そこで、作業者が実行する動作をセンサによりセンシングし、センサによりセンシングされたデータのうち、作業者が、抽出された動作情報が示す動作を実行している部分を特定することで、記録されたセンシングデータの数又は長さに関わらず、特定の動作が実行された場面を抽出することができる動作分析システム、動作分析方法及び動作分析プログラムを提供することができる。ここで、特定の動作が実行された場面は、画像センサによってセンシングされた動画の場面であってもよいし、他のセンサによってセンシングされたセンシングデータの場面であってもよい。
本発明の実施形態は、以下の付記のようにも記載され得る。ただし、本発明の実施形態は、以下の付記に記載した形態に限定されない。また、本発明の実施形態は、付記間の記載を置換したり、組み合わせたりした形態であってもよい。
[付記1]
ある作業領域において実行された1以上の作業者の動作を示す動作情報を測定する測定部(30)と、
前記作業者が前記動作を実行している場面を含む動画を撮影する撮影部(20a、20b、20c、30)と、
前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を記憶する記憶部(14)と、
前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部(15)と、
前記動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面を表示する表示部(10f)と、
を備える動作分析システム。
[付記2]
前記測定部(30)は、複数の前記作業者の動作をそれぞれ示す複数の前記動作情報を測定し、
前記表示部(10f)は、抽出された前記動作情報が測定された前記作業者を識別する情報を表示する、
付記1に記載の動作分析システム。
[付記3]
前記撮影部(20a、20b、20c、30)は、前記作業領域を撮影した第1動画を撮影する第1撮影部(30)及び前記作業領域の一部を撮影した第2動画を撮影する第2撮影部(20a、20b、20c)を含み、
前記表示部(10f)は、前記第1動画及び前記第2動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している時間帯の場面をそれぞれ表示する、
付記1又は2に記載の動作分析システム。
[付記4]
前記第2撮影部(20a、20b、20c)は、前記作業領域の複数の部分をそれぞれ撮影した複数の前記第2動画を撮影し、
抽出された前記動作情報が示す動作が実行された前記作業領域における位置を推定する推定部(17)をさらに備え、
前記表示部(10f)は、複数の前記第2動画のうち、推定された位置で撮影された前記第2動画を表示する、
付記3に記載の動作分析システム。
[付記5]
前記基準動作情報は、複数の工程毎に定められており、 前記抽出部(15)は、複数の工程毎に、前記動作情報と、前記基準動作情報とを比較して、前記所定の条件を満たす動作情報を抽出し、
前記表示部(10f)は、抽出された前記動作情報が示す工程を識別する情報を表示する、
付記4に記載の動作分析システム。
[付記6]
前記推定部(17)は、抽出された前記動作情報が示す工程に基づいて、抽出された前記動作情報が示す動作を前記作業者が実行している前記作業領域における位置を推定する、
付記5に記載の動作分析システム。
[付記7]
前記動作情報及び前記基準動作情報は、前記作業者の関節の座標値をそれぞれ含み、
前記抽出部(15)は、前記動作情報に含まれる前記座標値と、前記基準動作情報に含まれる前記座標値とを比較して、前記所定の条件を満たす動作情報を抽出する、
付記4に記載の動作分析システム。
[付記8]
前記推定部(17)は、抽出された前記動作情報に含まれる前記座標値に基づいて、抽出された前記動作情報が示す動作を前記作業者が実行している前記作業領域における位置を推定する、
付記7に記載の動作分析システム。
[付記9]
前記基準動作情報は、複数の要素動作毎に定められており、
前記推定部(17)は、抽出された前記動作情報に含まれる前記座標値及び抽出された前記動作情報が示す前記要素動作に基づいて、抽出された前記動作情報が示す動作を前記作業者が実行している前記作業領域における位置を推定する、
付記7又は8に記載の動作分析システム。
[付記10]
前記表示部(10f)は、前記動画を用いて抽出された前記動作情報が示す動作を前記作業者が実行している場面と、前記基準動作情報が示す前記基準動作を前記作業者が実行している場面を含む動画と、を表示する、
付記1から9のいずれか一項に記載の動作分析システム。
[付記11]
前記表示部(10f)は、抽出された前記動作情報を示すグラフと、前記動画のうち抽出された前記動作情報が示す動作を前記作業者が実行している前記動画の場面と、を表示する、
付記1から10のいずれか一項に記載の動作分析システム。
[付記12]
前記表示部(10f)は、前記動画のうち抽出された前記動作情報が示す動作を前記作業者が実行している場面に含まれる複数のフレームを重畳させて一枚の画像として表示する、
付記1から11のいずれか一項に記載の動作分析システム。
[付記13]
ある作業領域において実行された1以上の作業者の動作を示す動作情報を取得する第1取得部(11)と、
前記作業者が前記動作を実行している場面を含む動画を取得する第2取得部(12)と、
前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得する第3取得部(13)と、
前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部(15)と、
前記動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面を特定する特定部(16)と、
を備える動作分析装置。
[付記14]
ある作業領域において実行された1以上の作業者の動作を示す動作情報を取得することと、
前記作業者が前記動作を実行している場面を含む動画を取得することと、
前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得することと、
前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出することと、
前記動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面を特定することと、
を含む動作分析方法。
[付記15]
動作分析装置に備えられた演算装置を、
ある作業領域において実行された1以上の作業者の動作を示す動作情報を取得する第1取得部(11)、
前記作業者が前記動作を実行している場面を含む動画を取得する第2取得部(12)、
前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得する第3取得部(13)、
前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部(15)、及び
前記動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面を特定する特定部(16)、
として動作させる動作分析プログラム。
[付記16]
ある作業領域において実行された1以上の作業者の動作を示す動作情報を測定する測定部(30)と、
前記作業者が実行する前記動作をセンシングするセンサ(40a、40b、40c、30)と、
前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を記憶する記憶部(14)と、
前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部(15)と、
前記センサ(40a、40b、40c、30)によりセンシングされたセンシングデータを用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面を出力する出力部(18)と、
を備える動作分析システム。
[付記17]
前記測定部(30)は、複数の前記作業者の動作をそれぞれ示す複数の前記動作情報を測定し、
前記出力部(18)は、抽出された前記動作情報が測定された前記作業者を識別する情報を出力する、
付記16に記載の動作分析システム。
[付記18]
前記センサ(40a、40b、40c、30)は、前記作業領域をセンシングした第1センシングデータをセンシングする第1センサ(30)及び前記作業領域の一部をセンシングした第2センシングデータをセンシングする第2センサ(40a、40b、40c)を含み、
前記出力部(18)は、前記第1センシングデータ及び前記第2センシングデータを用いて、抽出された前記動作情報が示す動作を前記作業者が実行している時間帯の場面をそれぞれ出力する、
付記16又は17に記載の動作分析システム。
[付記19]
前記第2センサ(40a、40b、40c)は、前記作業領域の複数の部分をそれぞれセンシングした複数の前記第2センシングデータをセンシングし、
抽出された前記動作情報が示す動作が実行された前記作業領域における位置を推定する推定部(17)をさらに備え、
前記出力部(18)は、複数の前記第2センシングデータのうち、推定された位置でセンシングされた前記第2センシングデータを出力する、
付記18に記載の動作分析システム。
[付記20]
前記基準動作情報は、複数の工程毎に定められており、
前記抽出部(15)は、複数の工程毎に、前記動作情報と、前記基準動作情報とを比較して、前記所定の条件を満たす動作情報を抽出し、
前記出力部(18)は、抽出された前記動作情報が示す工程を識別する情報を出力する、
付記19に記載の動作分析システム。
[付記21]
前記推定部(17)は、抽出された前記動作情報が示す工程に基づいて、抽出された前記動作情報が示す動作を前記作業者が実行している前記作業領域における位置を推定する、
付記20に記載の動作分析システム。
[付記22]
前記動作情報及び前記基準動作情報は、前記作業者の関節の座標値をそれぞれ含み、
前記抽出部(15)は、前記動作情報に含まれる前記座標値と、前記基準動作情報に含まれる前記座標値とを比較して、前記所定の条件を満たす動作情報を抽出する、
付記19に記載の動作分析システム。
[付記23]
前記推定部(17)は、抽出された前記動作情報に含まれる前記座標値に基づいて、抽出された前記動作情報が示す動作を前記作業者が実行している前記作業領域における位置を推定する、
付記22に記載の動作分析システム。
[付記24]
前記基準動作情報は、複数の要素動作毎に定められており、
前記推定部(17)は、抽出された前記動作情報に含まれる前記座標値及び抽出された前記動作情報が示す前記要素動作に基づいて、抽出された前記動作情報が示す動作を前記作業者が実行している前記作業領域における位置を推定する、
付記22又は23に記載の動作分析システム。
[付記25]
前記出力部(18)は、前記センシングデータのうち抽出された前記動作情報が示す動作を前記作業者が実行している場面と、前記基準動作情報が示す前記基準動作を前記作業者が実行している場面を含むセンシングデータと、を出力する、
付記16から24のいずれか一項に記載の動作分析システム。
[付記26]
前記出力部(18)は、抽出された前記動作情報を示すグラフと、前記センシングデータのうち抽出された前記動作情報が示す動作を前記作業者が実行している場面と、を出力する、
付記16から25のいずれか一項に記載の動作分析システム。
[付記27]
ある作業領域において実行された1以上の作業者の動作を示す動作情報を取得する第1取得部(11)と、
前記作業者が実行する前記動作をセンシングしたセンシングデータを取得する第2取得部(12)と、
前記作業者の動作について比較の基準となる基準動作を定量的に示す基準動作情報を取得する第3取得部(13)と、
前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部(15)と、
前記センシングデータを用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面を出力する出力部(18)と、
を備える動作分析装置。
[付記28]
ある作業領域において実行された1以上の作業者の動作を示す動作情報を取得することと、
前記作業者が実行する前記動作をセンシングしたセンシングデータを取得することと、
前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得することと、
前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出することと、
前記センシングデータを用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面を出力することと、
を含む動作分析方法。
[付記29]
動作分析装置に備えられた演算装置を、
ある作業領域において実行された1以上の作業者の動作を示す動作情報を取得する第1取得部(11)、
前記作業者が実行する前記動作をセンシングしたセンシングデータを取得する第2取得部(12)、
前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得する第3取得部(13)、
前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部(15)、及び
前記センシングデータを用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面を出力する出力部(18)、
として動作させる動作分析プログラム。
[付記30]
ある作業領域において実行された1以上の作業者の動作を示す動作情報を測定することと、
前記作業者が前記動作を実行している場面を含む動画を撮影することと、
前記動作情報と、前記作業者の動作について比較の基準となる基準動作を示す基準動作情報とを比較して、所定の条件を満たす動作情報が示す動作を前記作業者が実行している前記動画の場面を表示することと、
を含む動作分析方法。
10…動作分析装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…表示部、10g…動作分析装置、11…第1取得部、12…第2取得部、13…第3取得部、14…記憶部、14a…動画履歴、14b…動作情報履歴、14c…基準動作情報、14d…対応テーブル、14e…センシングデータ履歴、15…抽出部、16…特定部、17…推定部、18…出力部、20a…第1撮影部、20b…第2撮影部、20c…第3撮影部、30…測定部、40a…第1センサ、40b…第2センサ、40c…第3センサ、100…動作分析システム、100g…動作分析システム、D1…動作情報、D2…第1基準動作情報、D3…第1対応テーブル、D4…第2対応テーブル、D5…第2基準動作情報、D6…第3対応テーブル、DP…画面、DP1…概要、DP2…第1動画、DP3…第2動画、DP4…グラフ、R…作業領域

Claims (14)

  1. ある作業領域の全体を撮影した第1動画を撮影する第1撮影部と、
    前記第1動画に基づいて、前記作業領域の全体において実行された複数の作業者の動作をそれぞれ示す複数の動作情報を測定する測定部と、
    前記作業領域の一部において、前記作業者のそれぞれが前記動作を実行している場面を、それぞれ第2動画として撮影する複数の第2撮影部と、
    前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を記憶する記憶部と、
    前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部と、
    前記第2動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面、及び抽出された前記動作情報が測定された前記作業者を識別する情報を表示する表示部と、
    を備える動作分析システム。
  2. 前記表示部は、前記第1動画及び前記第2動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している時間帯の場面をそれぞれ表示する、
    請求項に記載の動作分析システム。
  3. 抽出された前記動作情報が示す動作が実行された前記作業領域における位置を推定する推定部をさらに備え、
    前記表示部は、前記第2動画のうち、推定された位置で撮影された前記第2動画を表示する、
    請求項に記載の動作分析システム。
  4. 前記基準動作情報は、複数の工程毎に定められており、
    前記抽出部は、複数の工程毎に、前記動作情報と、前記基準動作情報とを比較して、前記所定の条件を満たす動作情報を抽出し、
    前記表示部は、抽出された前記動作情報が示す工程を識別する情報を表示する、
    請求項に記載の動作分析システム。
  5. 前記推定部は、抽出された前記動作情報が示す工程に基づいて、抽出された前記動作情報が示す動作を前記作業者が実行している前記作業領域における位置を推定する、
    請求項に記載の動作分析システム。
  6. 前記動作情報及び前記基準動作情報は、前記作業者の関節の座標値をそれぞれ含み、
    前記抽出部は、前記動作情報に含まれる前記座標値と、前記基準動作情報に含まれる前記座標値とを比較して、前記所定の条件を満たす動作情報を抽出する、
    請求項に記載の動作分析システム。
  7. 前記推定部は、抽出された前記動作情報に含まれる前記座標値に基づいて、抽出された前記動作情報が示す動作を前記作業者が実行している前記作業領域における位置を推定する、
    請求項に記載の動作分析システム。
  8. 前記基準動作情報は、複数の要素動作毎に定められており、
    前記推定部は、抽出された前記動作情報に含まれる前記座標値及び抽出された前記動作情報が示す前記要素動作に基づいて、抽出された前記動作情報が示す動作を前記作業者が実行している前記作業領域における位置を推定する、
    請求項又はに記載の動作分析システム。
  9. 前記表示部は、前記第2動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面と、前記基準動作情報が示す前記基準動作を前記作業者が実行している場面を含む動画と、を表示する、
    請求項1からのいずれか一項に記載の動作分析システム。
  10. 前記表示部は、抽出された前記動作情報を示すグラフと、抽出された前記動作情報が示す動作を前記作業者が実行している前記第2動画の場面と、を表示する、
    請求項1からのいずれか一項に記載の動作分析システム。
  11. 前記表示部は、前記第2動画のうち抽出された前記動作情報が示す動作を前記作業者が実行している場面に含まれる複数のフレームを重畳させて一枚の画像として表示する、
    請求項1から10のいずれか一項に記載の動作分析システム。
  12. ある作業領域の全体を撮影した第1動画に基づいて測定された、前記作業領域の全体において実行された複数の作業者の動作をそれぞれ示す複数の動作情報を取得する第1取得部と、
    前記作業領域の一部において、前記作業者のそれぞれが前記動作を実行している場面を、それぞれ第2動画として取得する複数の第2取得部と、
    前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得する第3取得部と、
    前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部と、
    前記第2動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面、及び抽出された前記動作情報が測定された前記作業者を識別する情報を特定する特定部と、
    を備える動作分析装置。
  13. ある作業領域の全体を撮影した第1動画に基づいて測定された、前記作業領域の全体において実行された複数の作業者の動作をそれぞれ示す複数の動作情報を取得することと、
    前記作業領域の一部において、前記作業者のそれぞれが前記動作を実行している場面を、それぞれ第2動画として取得することと、
    前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得することと、
    前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出することと、
    前記第2動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面、及び抽出された前記動作情報が測定された前記作業者を識別する情報を特定することと、
    を含む動作分析方法。
  14. 動作分析装置に備えられた演算装置を、
    ある作業領域の全体を撮影した第1動画に基づいて測定された、作業領域の全体において実行された複数の作業者の動作をそれぞれ示す複数の動作情報を取得する第1取得部、
    前記作業領域の一部において、前記作業者のそれぞれが前記動作を実行している場面を、それぞれ第2動画として取得する複数の第2取得部、
    前記作業者の動作について比較の基準となる基準動作を示す基準動作情報を取得する第3取得部、
    前記動作情報と、前記基準動作情報とを比較して、所定の条件を満たす動作情報を抽出する抽出部、及び
    前記第2動画を用いて、抽出された前記動作情報が示す動作を前記作業者が実行している場面、及び抽出された前記動作情報が測定された前記作業者を識別する情報を特定する特定部、
    として動作させるための動作分析プログラム。
JP2018003475A 2018-01-12 2018-01-12 動作分析システム、動作分析装置、動作分析方法及び動作分析プログラム Active JP6951685B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018003475A JP6951685B2 (ja) 2018-01-12 2018-01-12 動作分析システム、動作分析装置、動作分析方法及び動作分析プログラム
PCT/JP2018/047812 WO2019138877A1 (ja) 2018-01-12 2018-12-26 動作分析システム、動作分析装置、動作分析方法及び動作分析プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003475A JP6951685B2 (ja) 2018-01-12 2018-01-12 動作分析システム、動作分析装置、動作分析方法及び動作分析プログラム

Publications (2)

Publication Number Publication Date
JP2019125023A JP2019125023A (ja) 2019-07-25
JP6951685B2 true JP6951685B2 (ja) 2021-10-20

Family

ID=67218589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003475A Active JP6951685B2 (ja) 2018-01-12 2018-01-12 動作分析システム、動作分析装置、動作分析方法及び動作分析プログラム

Country Status (2)

Country Link
JP (1) JP6951685B2 (ja)
WO (1) WO2019138877A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210225029A1 (en) * 2018-05-16 2021-07-22 Panasonic Intellectual Property Management Co., Ltd. Work analyzing system and work analyzing method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7392312B2 (ja) * 2019-07-29 2023-12-06 コニカミノルタ株式会社 生産実績記録システムおよび生産実績記録プログラム
JP7442066B2 (ja) 2019-11-06 2024-03-04 パナソニックIpマネジメント株式会社 作業表示方法、及び、作業表示装置
WO2023148970A1 (ja) * 2022-02-07 2023-08-10 日本電気株式会社 管理装置、管理方法、およびコンピュータ可読媒体
JP2024021467A (ja) * 2022-08-03 2024-02-16 オムロン株式会社 作業特徴量表示装置、作業特徴量表示方法、及び作業特徴量表示プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020897A (ja) * 2002-09-26 2009-01-29 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2006277549A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 現場作業認証管理システム
JP2009110239A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 作業動作分析システム及び作業動作分析方法
JP2016042332A (ja) * 2014-08-19 2016-03-31 大日本印刷株式会社 作業動作検査システム
US20180115749A1 (en) * 2015-03-19 2018-04-26 Nec Corporation Surveillance system and surveillance method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210225029A1 (en) * 2018-05-16 2021-07-22 Panasonic Intellectual Property Management Co., Ltd. Work analyzing system and work analyzing method
US11842511B2 (en) * 2018-05-16 2023-12-12 Panasonic Intellectual Property Management Co., Ltd. Work analyzing system and work analyzing method

Also Published As

Publication number Publication date
JP2019125023A (ja) 2019-07-25
WO2019138877A1 (ja) 2019-07-18

Similar Documents

Publication Publication Date Title
JP6951685B2 (ja) 動作分析システム、動作分析装置、動作分析方法及び動作分析プログラム
US11182599B2 (en) Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program
JP5528151B2 (ja) 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
US20230044842A1 (en) Work analyzing device and work analyzing method
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
JP2012253483A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6008025B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US10783376B2 (en) Information processing apparatus
US20230005161A1 (en) Information processing apparatus and determination result output method
US20220222975A1 (en) Motion recognition method, non-transitory computer-readable recording medium and information processing apparatus
CN111401340A (zh) 目标对象的运动检测方法和装置
JP2019159885A (ja) 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム
JP5373128B2 (ja) 人物特定装置、人物特定方法及び人物特定プログラム
JP7004218B2 (ja) 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム
US11854214B2 (en) Information processing apparatus specifying a relationship between a sensor and an object included in image data, and method and non-transitory computer-readable storage medium
JP2022516466A (ja) 情報処理装置、情報処理方法、並びにプログラム
JP2018180894A (ja) 情報処理装置、情報処理方法及びプログラム
CN112602100B (zh) 动作分析装置、动作分析方法、存储介质及动作分析系统
JP7482471B2 (ja) 学習モデルの生成方法
WO2022190206A1 (ja) 骨格認識方法、骨格認識プログラムおよび体操採点支援システム
JP2019197278A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
WO2023176163A1 (ja) 作業支援装置、作業支援方法、及び作業支援プログラム
WO2024029411A1 (ja) 作業特徴量表示装置、作業特徴量表示方法、及び作業特徴量表示プログラム
WO2022130610A1 (ja) 身体能力評価サーバ、身体能力評価システム、及び身体能力評価方法
JP2022189456A (ja) 行動認識プログラム、行動認識方法および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210909

R150 Certificate of patent or registration of utility model

Ref document number: 6951685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150