JP6733995B2 - 作業分析装置、作業分析方法、及びプログラム - Google Patents

作業分析装置、作業分析方法、及びプログラム Download PDF

Info

Publication number
JP6733995B2
JP6733995B2 JP2018523706A JP2018523706A JP6733995B2 JP 6733995 B2 JP6733995 B2 JP 6733995B2 JP 2018523706 A JP2018523706 A JP 2018523706A JP 2018523706 A JP2018523706 A JP 2018523706A JP 6733995 B2 JP6733995 B2 JP 6733995B2
Authority
JP
Japan
Prior art keywords
content
worker
work
specified
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018523706A
Other languages
English (en)
Other versions
JPWO2017222070A1 (ja
Inventor
勇介 中尾
勇介 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2017222070A1 publication Critical patent/JPWO2017222070A1/ja
Application granted granted Critical
Publication of JP6733995B2 publication Critical patent/JP6733995B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、作業者による作業を分析するための、作業分析装置、作業分析方法、及びこれらを実現するためのプログラムに関する。
近年、工場等における生産現場においては、生産性の向上と原価の低減とを図るため、インダストリアル・エンジニアリング(以下「IE」と表記する。)が導入されている。一般に、IEは、経営管理全般に関するIEと、生産に関するIEと、これら以外に関するIEとの大きく3つに分類される。このうち、生産に関するIEは、生産現場において特に重要である。
具体的には、生産に関するIEにおいては、MODAPTS(Modular Arrangement of Predetermined Time Standards)法と呼ばれる手法を用いて、作業者による作業の分析が行なわれる(例えば、非特許文献1参照)。MODAPTS法では、人間の上肢の動作を中心とした基本動作が21個の記号で表され、各記号には動作の内容と時間値とが含まれている。
例えば、「机の上に置いてある(手元から約15cm離れた位置にある)ボールペン)を掴む動作」を想定する。この場合、作業者は、まず,手をボールペンまで移動させる動作(「移動動作(Movement)」を行ない、その後、ボールペンを掴む動作を行なう。ボールペンを掴むことによって移動動作は終了するので、ボールペンを掴む動作は終局動作(Terminal Activities)となる。
そして、これらの動作は、MODAPTS法では、M3G1と分析される。また、これらの動作にかかる作業時間は、4MOD=0.516秒(1MOD=0.129秒)と算出される。
このように、MODAPTS法によれば、作業者が特定の作業を行う場合の所要時間を、実測することなく、作業動作から簡単に予測することが出来る。即ち、作業者が実行する作業動作さえ分かっていれば、作業のどこに無駄又は無理があるかを、時間を尺度にして簡単に評価することが出来る。結果、生産性の向上が図られると考えられる。
小松原明哲著 「モダプツ法による作業改善テキスト」日本モダプツ協会編、日本出版サービス、2008年10月、p.24−33
ところで、MODAPTS法は、通常、作業者による作業の様子を撮影したビデオを用いて、人手によるビデオ分析にて行なわれている。つまり、分析者は、ビデオに写っている作業者の動作を目視して、この動作が予め分類されている動作のいずれであるかを判定し、判定結果を逐一記録している。このため、MODAPTS法の実行には、時間及び労力がかかり過ぎるという問題がある。
本発明の目的の一例は、上記問題を解消し、人手によることなく、作業現場における作業者の動作の分析を行ない得る、作業分析装置、作業分析方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における作業分析装置は、作業者が対象物に対して行なう作業を分析するための装置であって、
前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、動作特定部と、
を備えている、ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における作業分析方法は、作業者が対象物に対して行なう作業を分析するための方法であって、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を有する、ことを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、作業者が対象物に対して行なう作業を分析するためのプログラムであって、
前記コンピュータに、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を実行させる、プログラム。
以上のように、本発明における作業分析装置によれば、人手によることなく、作業現場における作業者の動作の分析を行なうことができる。
図1は、本発明の実施の形態1における作業分析装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態1における作業分析装置の構成を具体的に示すブロック図である。 図3は、本発明の実施の形態1で特定される移動動作の内容の一例を示す図である。 図4は、本発明の実施の形態1で特定される終局動作の内容の一例と識別子毎に終局動作の内容を規定するルールの一例とを示す図である。 図5は、本発明の実施の形態1において、対象物の位置に応じて終局動作の内容を特定する場合の処理を説明するための図である。 図6は、本発明の実施の形態1における作業分析装置の動作を示すフロー図である。 図7は、本発明の実施の形態1の変形例1において、作業者の顔の向きに応じて終局動作の内容を特定する場合の処理を説明するための図である。 図8は、本発明の実施の形態2における作業分析装置の構成を示すブロック図である。 図9は、本発明の実施の形態2における作業分析装置の動作を示すフロー図である。 図10は、本発明の実施の形態1及び2における作業分析装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態1)
以下、本発明の実施の形態1における、作業分析装置、作業分析方法、およびプログラムについて、図1〜図6を参照しながら説明する。
[装置構成]
最初に、本発明の実施の形態1における作業分析装置の概略構成について図1を用いて説明する。図1は、本発明の実施の形態1における作業分析装置の概略構成を示すブロック図である。
図1に示す、本実施の形態1における作業分析装置10は、作業者が対象物に対して行なう作業を分析するための装置である。図1に示すように、作業分析装置10は、位置情報取得部11と、動作特定部12とを備えている。
位置情報取得部11は、作業者の手の位置を特定する第1の位置情報と、対象物の位置を特定する第2の位置情報とを取得する。動作特定部12は、第1の位置情報及び第2の位置情報を用いて、作業において作業者が行なった動作の内容を特定する。
このように、本実施の形態では、人手を介することなく、作業分析装置10によって、作業者の手及び対象物の位置情報から、動作の内容、例えば、手先のみを動かす動作であったのか、触るだけの動作であったのか等が特定される。従って、作業分析装置10を用いれば、人手によることなく、作業現場における作業者の動作の分析が可能となる。
続いて、図2を用いて、本実施の形態1における作業分析装置10の構成について更に具体的に説明する。図2は、本発明の実施の形態1における作業分析装置の構成を具体的に示すブロック図である。
図2に示すように、本実施の形態1においては、作業分析装置10には、デプスセンサ20と、デジタルカメラ30と、分析者の端末装置40とが接続されている。デプスセンサ20は、例えば、特定のパターンで赤外線レーザ光を出射する光源と、対象物で反射された赤外線を受光する撮像素子とを備えており、これらによって、画素毎の深度が付加された画像データを出力する。デプスセンサの具体例としては、Kinect(登録商標)といった既存のデプスセンサが挙げられる。
また、デプスセンサ20は、作業者50の動作を撮影可能となるように配置されている。従って、デプスセンサ20から出力された深度付の画像データを用いて、作業者50の四肢の各部位の座標と深度とを特定すれば、各部位の位置の検出が可能となる。即ち、本実施の形態1では、デプスセンサ20から出力される深度付の画像データが、第1の位置情報として用いられる。
なお、デプスセンサ20によって特定可能な部位としては、頭、首、右肩、右肘、右手首、右親指、右手先、左肩、左肘、左手首、左親指、左手先、胸部、胸腰部、骨盤部、右股関節、右膝、右くるぶし、右足、左股関節、左膝、左くるぶし、左足等が挙げられる。また、深度付の画像データから各部位の位置を検出するための処理としては、デプスセンサ20で利用されている既存の処理を用いることができる。
また、図2において、デジタルカメラ30は、作業の対象物60を撮影可能となるように配置されており、対象物60の位置の検出に用いられている。具体的には、対象物60の上面には、図形マーカが付与されており、デジタルカメラ30は、設定間隔で、図形マーカを含む画像データを出力する。従って、この画像データを用いて、図形マーカの位置を特定すれば、対象物60の位置の検出が可能となる。本実施の形態1では、デジタルカメラ30から出力される画像データが、第2の位置情報として用いられる。
また、図2に示すように、本実施の形態1においては、作業分析装置10は、位置情報取得部11及び動作特定部12に加えて、作業時間予測部13を備えている。作業時間予測部13は、予め設定された動作の内容と時間との関係に、特定された動作の内容を照合することによって、作業にかかる作業時間を予測する。
位置情報取得部11は、本実施の形態では、第1の位置情報として、デプスセンサ20から出力される深度付の画像データを取得し、第2の位置情報として、デジタルカメラ30から出力される画像データを取得する。また、位置情報取得部11は、取得した各画像データを動作特定部12に入力する。
動作特定部12は、本実施の形態1では、第1の位置情報として取得した深度付の画像データから、作業者50の左右の手の位置を特定する。具体的には、動作特定部12は、深度付の画像データから左右の手を検出し、検出した手毎に、画像上の2次元座標と深度とから、予め実空間に設定された座標系における3次元座標を算出する。
また、動作特定部12は、第2の位置情報として取得した画像データから、対象物60の位置を特定する。具体的には、動作特定部12は、図形マーカを検出し、検出した図形マーカの画像上の2次元座標と、予め取得されている作業台61の高さとから、予め実空間に設定された座標系における対象物60の3次元座標を算出する。
更に、動作特定部12は、第1の位置情報で特定した作業者50の手の位置、第2の位置情報で特定した対象物60の位置、及び両方の位置から求めた作業者50の手と対象物60との距離に基づいて、作業者50が行なった動作の内容を移動動作と終局動作とに分けて特定する。
具体的には、作業者50が行なう動作は、「手を伸ばす」、「持ってくる」といった手を移動させる動作(移動動作)と、「触る」、「掴む」、「置く」といった移動動作を終わらせる動作(終局動作)とで構成されている。動作特定部12は、設定された間隔で、手と対象物との距離を繰り返し求め、求めた距離に基づいて、移動動作が行なわれている期間と、終局動作が行なわれている期間とを特定する。
例えば、動作特定部12は、手と対象物の距離が閾値より大きい状態から閾値以下となったときに、手と対象物とが接触することになるので、この時点を移動動作「手を伸ばす」から終局動作「触る」又は「掴む」へと切り替わったタイミングと判断する。続いて、動作特定部12は、終局動作へと切り替わるまでの作業者50の手の移動距離を求める。更に、動作特定部12は、移動距離に応じて、「指先の動作」、「手の動作」、「前腕の動作」、「上腕の動作」、「伸ばした腕の動作」のいずれであるかを判定し、判定結果を移動動作の内容として特定する。
また、動作特定部12は、手と対象物との距離が閾値以下の状態で、作業者の手と対象物とが移動を開始すると、終局動作から移動動作「持ってくる」に切り替わったと判断し、移動距離を求める。そして、この場合も、動作特定部12は、上記と同様の判定をして、移動動作の内容を特定する。その後、再び、作業者の手と対象物との距離が閾値より大きくなったときは、手が対象物から離れているので、動作特定部12は、移動動作から終局動作「置く」へと切り替わったタイミングと判断する。また、動作特定部12は、この時点を動作の終了時点と判断する。
動作特定部12は、終局動作については、例えば、対象物60を識別する識別子を取得し、取得した識別子を、識別子毎に終局動作の内容を規定するルールに照合することによって特定することができる。また、動作特定部12は、動作の終了時点での、対象物60の位置に応じて、終局動作の内容を特定することもできる。
ここで、図3〜図5を用いて、動作特定部12及び作業時間予測部13による処理について具体的に説明する。図3は、本発明の実施の形態1で特定される移動動作の内容の一例を示す図である。図4は、本発明の実施の形態1で特定される終局動作の内容の一例と識別子毎に終局動作の内容を規定するルールの一例とを示す図である。図5は、本発明の実施の形態1において、対象物の位置に応じて終局動作の内容を特定する場合の処理を説明するための図である。
動作特定部12は、まず、移動動作が行なわれている期間を特定すると、作業者50の左右の手の位置の変化に基づき、この期間における作業者50の手の移動距離を求める。そして、動作特定部12は、求めた移動距離に応じて、移動動作が、図3に示すM1〜M5のいずれに該当するかを判定する。そして、動作特定部12は、判定結果を移動動作の内容として特定する。
また、動作特定部12は、例えば、端末装置40からの通知、第2の位置情報である画像データの画像処理等によって、対象物60を識別する識別子を取得する。そして、動作特定部12は、取得した識別子を図4に示すルール(テーブル)に照合して、終局動作の内容が、G0、G1、G3、P0、P2、P5のいずれに該当するかを判定する。なお、終局動作が「掴む」及び「置く」のいずれであるかは、直前の手と対象物との距離の変化から判断される。
更に、動作特定部12は、終局動作が「置く」であるときは、対象物60の3次元座標に基づいて、図5に示すように、対象物60が作業台61のどこに置かれたかを判断することで、終局動作の内容の特定を行なうこともできる。
このように、本実施の形態1では、動作特定部12は、MODAPTS法等で規定されている動作分類に沿って、移動動作及び終局動作を特定することができる。なお、図3〜図5に示す判断基準及びルールは、MODAPTS法に類似しているが、MODAPTS法そのままではない。本実施の形態1では、動作特定のための判断基準及びルールとして、MODAPTS法がそのまま用いられていても良い。
また、作業時間予測部13は、MODAPTS法等で規定されている動作時間に沿って作業時間を予測することができる。例えば、動作特定部12が、作業者50の動作の内容を「M3G1」と特定し、作業時間予測部13において、MODAPTS法が採用されているとする。この場合、作業時間予測部13は、作業時間を「4MOD=0.516秒(1MOD=0.129)」と予測する。
[装置動作]
次に、本発明の実施の形態1における作業分析装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態1における作業分析装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図5を参酌する。また、本実施の形態1では、作業分析装置10を動作させることによって、作業分析方法が実施される。よって、本実施の形態1における作業分析方法の説明は、以下の作業分析装置10の動作説明に代える。
図6に示すように、最初に、位置情報取得部11が、第1の位置情報として、デプスセンサ20から出力される深度付の画像データを取得し、第2の位置情報として、デジタルカメラ30から出力される画像データを取得する(ステップA1)。
次に、動作特定部12は、第1の位置情報として取得した深度付の画像データから、作業者50の手の位置を特定し、第2の位置情報として取得した画像データから、対象物60の位置を特定する(ステップA2)。
次に、動作特定部12は、ステップA2で特定した作業者50の手の位置と対象物60の位置とから、作業者50の手と対象物60との距離を算出する(ステップA3)。
次に、動作特定部12は、ステップA2で特定した作業者50の手の位置、同じくステップA2で特定した対象物60の位置、及びステップA3で算出した作業者50の手と対象物60との距離に基づいて、作業者50が行なった動作の内容を特定する(ステップA4)。
具体的には、ステップA4では、動作特定部12は、手と対象物との距離から、移動動作の期間と終局動作の期間とを特定する。そして、動作特定部12は、特定した各期間、手の位置の変化、対象物の位置の変化を総合し、図3〜図5に示す判断基準及びルールを用いて、作業者50が行なった動作の内容を移動動作と終局動作とに分けて特定する。
その後、作業時間予測部13は、予め設定された動作の内容と時間との関係に、ステップA4で特定された動作の内容を照合することによって、作業にかかる作業時間を予測する(ステップA5)。
[実施の形態1における効果]
以上のように、本実施の形態1では、画像データから、人手を介することなく、作業者の動作の内容が特定されると共に、その内容に基づいて作業時間が予測される。従って、本実施の形態1によれば、人によるビデオ分析を行なわずとも、MODAPTS法を実行することができる。
[プログラム]
本実施の形態1におけるプログラムは、コンピュータに、図6に示すステップA1〜A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における作業分析装置10と作業分析方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、位置情報取得部11、動作特定部12、及び作業時間予測部13として機能し、処理を行なう。
なお、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、位置情報取得部11、動作特定部12、及び作業時間予測部13のいずれかとして機能しても良い。
続いて、本実施の形態1における変形例1〜3について以下に説明する。
[変形例1]
本変形例1では、位置情報取得部11は、作業者50の顔の向きを特定する顔情報を更に取得することができる。但し、本実施の形態1では、位置情報取得部11は、作業者50を撮影するデプスセンサ20から深度付の画像データを取得しており、この深度付の画像データを顔情報として取得することができる。以下、図7を用いて説明する。図7は、本発明の実施の形態1の変形例1において、作業者の顔の向きに応じて終局動作の内容を特定する場合の処理を説明するための図である。
本変形例1では、動作特定部12は、深度付の画像データから、作業者の顔を検出し、検出した顔の向きを特定する。例えば、動作特定部12は、画像上の2次元座標と深度とから、顔の左右の目の3次元座標を算出し、算出した左右の目の3次元座標から、更に顔の向きを算出する。また、動作特定部12は、顔情報によって特定した作業者50の顔の向きと、作業者50の手の位置と、対象物60の位置とに基づいて、終局動作の内容を特定する。
具体的には、図7に示すように、動作特定部12は、作業者の視線と手又は対象物との距離を算出し、算出した距離dが閾値D以上である場合(図7上図)は、作業者は、目の動きを要しない最も簡単な置く動作(P0)を行なっていると判断する。一方、動作特定部12は、作業者の視線と手又は対象物との距離dが閾値D未満である場合(図7下図)は、目の動きと1回の位置修正を行なって置く動作(P2)を行なっていると判断する。本変形例1によれば、動作の内容の特定をより正確に行なうことが可能となる。
[変形例2]
本変形例2では、対象物60が、作業者50から作業の際に受けた操作のログを記録する機能を有している。この場合、動作特定部12は、対象物60から操作ログを取得し、取得した操作ログに基づいて、終局動作の内容を特定することができる。
具体的には、このような対象物60としては、操作ログを記録可能な工具、同じく操作ログを記録可能な測定機器等が挙げられる。このような工具又は測定機器等が用いられる場合は、動作特定部12は、操作ログから作業者50の操作内容を特定できるので、操作内容に基づいて動作の内容を正確に特定できる。
[変形例3]
本変形例3では、対象物60が、それ自体の状態を特定するセンサを有し、センサが出力したセンサデータが、有線又は無線によって作業分析装置10に送信されている。この場合、動作特定部12は、対象物60から、センサが出力したセンサデータを取得し、取得したセンサデータを用いて、動作の内容を特定することができる。
このようなセンサとしては、加速度センサ、角速度センサ等が挙げられる。例えば、対象物60に加速度センサが取り付けられているとする。この場合、動作特定部12は、センサデータによって特定される加速度の値が閾値以上となった時点を、移動動作「持ってくる」が開始された時点と判断する。また、動作特定部12は、加速度の値が閾値未満となった時点を、移動動作「持ってくる」から終局動作「置く」へと切り替わったタイミングと判断することができる。
本変形例3によれば、移動動作が行なわれている期間と、終局動作が行なわれている期間との特定をより、正確に行なうことができ、結果、動作の内容を正確に特定できる。また、本変形例3は、対象物60の位置を、デプスセンサ20又はデジタルカメラ30によって特定することが難しい場合に有効である。
(実施の形態2)
次に、本発明の実施の形態2における、作業分析装置、作業分析方法、およびプログラムについて、図8及び図9を参照しながら説明する。
[装置構成]
最初に、本発明の実施の形態2における作業分析装置の構成について図8を用いて説明する。図8は、本発明の実施の形態2における作業分析装置の構成を示すブロック図である。
図8に示すように、本実施の形態2における作業分析装置70は、記憶部14を備えており、この点で、図1及び図2に示した実施の形態1における作業分析装置10と異なっている。以下、実施の形態1との相違点を中心に説明する。
本実施の形態2では、動作特定部12は、動作が開始されてから終了するまでの実測値を求め、求めた実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデル15を構築する。
また、動作特定部12は、構築したモデル15を記憶部14に格納する。但し、既にモデル15が構築されている場合は、動作特定部12は、実測値の測定と動作内容の特定とが行なわれる度に、モデル15を更新する。
また、本実施の形態2では、作業時間予測部13は、特定した動作の内容をモデル15に適用することによって、作業者50の作業にかかる作業時間を予測する。
[装置動作]
次に、本発明の実施の形態2における作業分析装置70の動作について図8を用いて説明する。図9は、本発明の実施の形態2における作業分析装置の動作を示すフロー図である。以下の説明においては、適宜図8を参酌する。また、本実施の形態2では、作業分析装置70を動作させることによって、作業分析方法が実施される。よって、本実施の形態2における作業分析方法の説明は、以下の作業分析装置70の動作説明に代える。
図9に示すように、最初に、位置情報取得部11が、第1の位置情報として、デプスセンサ20から出力される深度付の画像データを取得し、第2の位置情報として、デジタルカメラ30から出力される画像データを取得する(ステップB1)。
次に、動作特定部12は、第1の位置情報として取得した深度付の画像データから、作業者50の手の位置を特定し、第2の位置情報として取得した画像データから、対象物60の位置を特定する(ステップB2)。
次に、動作特定部12は、ステップB2で特定した作業者50の手の位置と対象物60の位置とから、作業者50の手と対象物60との距離を算出する(ステップB3)。
次に、動作特定部12は、ステップB2で特定した作業者50の手の位置、同じくステップB2で特定した対象物60の位置、及びステップB3で算出した作業者50の手と対象物60との距離に基づいて、作業者50が行なった動作の内容を特定する(ステップB4)。以上のステップB1からB4は、図6に示したステップA1からA4と同様のステップである。
次に、動作特定部12は、本実施の形態2では、内容を特定した動作の開始から終了までの実測値を取得する(ステップB5)。なお、実測値の取得は、作業分析装置70に内蔵されたタイマー等を用いることによって可能である。
次に、動作特定部12は、ステップB4で特定された動作の内容とステップB5で取得された実測置とを用いてモデル15の構築又は更新を実行する(ステップB6)。具体的には、動作特定部12は、一般的な機械学習、統計分析等を行なうことによって、モデル15の構築又は更新を実行する。
その後、作業時間予測部13は、ステップB4で特定された動作の内容を、モデル15に適用することによって、作業にかかる作業時間を予測する(ステップB7)。
[実施の形態2における効果]
以上のように、本実施の形態2によれば、実施の形態1と異なり、動作内容と時間との関係を予め設定しない場合であっても、過去の実測置を用いることで、作業時間を予測することができる。また、本実施の形態2によれば、作業者の作業時間の予測精度をよりいっそう向上できると考えられる。
(物理構成)
ここで、実施の形態1及び2におけるプログラムを実行することによって、作業分析装置を実現するコンピュータについて図10を用いて説明する。図10は、本発明の実施の形態1及び2における作業分析装置を実現するコンピュータの一例を示すブロック図である。
図10に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
なお、実施の形態1及び2における作業分析装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、作業分析装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記30)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
作業者が対象物に対して行なう作業を分析するための装置であって、
前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、動作特定部と、
を備えている、ことを特徴とする作業分析装置。
(付記2)
前記動作特定部が、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、付記1に記載の作業分析装置。
(付記3)
前記動作特定部が、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(付記4)
前記動作特定部が、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(付記5)
前記動作特定部が、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(付記6)
前記位置情報取得部が、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記動作特定部が、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(付記7)
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記動作特定部が、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(付記8)
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記動作特定部が、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記2に記載の作業分析装置。
(付記9)
予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、作業時間予測部を更に備えている、付記1〜8のいずれかに記載の作業分析装置。
(付記10)
前記動作特定部が、更に、前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新し、
前記作業時間予測部が、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記9に記載の作業分析装置。
(付記11)
作業者が対象物に対して行なう作業を分析するための方法であって、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を有する、ことを特徴とする作業分析方法。
(付記12)
前記(b)のステップにおいて、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、
付記11に記載の作業分析方法。
(付記13)
前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(付記14)
前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(付記15)
前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(付記16)
前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(付記17)
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記(b)のステップにおいて、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(付記18)
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記12に記載の作業分析方法。
(付記19)
(c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを更に有している、
付記11〜18のいずれかに記載の作業分析方法。
(付記20)
(d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを更に有し、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記19に記載の作業分析方法。
(付記21)
コンピュータによって、作業者が対象物に対して行なう作業を分析するためのプログラムであって、
前記コンピュータに、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を実行させる、プログラム。
(付記22)
前記(b)のステップにおいて、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、
付記21に記載のプログラム
(付記23)
前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記22に記載のプログラム
(付記24)
前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記22に記載のプログラム
(付記25)
前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム
(付記26)
前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム
(付記27)
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記(b)のステップにおいて、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム
(付記28)
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記22に記載のプログラム
(付記29)
記コンピュータに、
(c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを実行させる、
付記21〜28のいずれかに記載のプログラム
(付記30)
記コンピュータに、
(d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを実行させ、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記29に記載のプログラム
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2016年6月23日に出願された日本出願特願2016−124875を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように、本発明における作業分析装置によれば、人手によることなく、作業現場における作業者の動作の分析を行なうことができる。本発明は、工場等の生産現場、機器の操作が必要な現場等に有用である。
10 作業分析装置(実施の形態1)
11 位置情報取得部
12 動作特定部
13 作業時間予測部
14 記憶部
15 モデル
20 デプスセンサ
30 デジタルカメラ
40 端末装置
50 作業者
60 対象物
61 作業台
70 作業分析装置(実施の形態2)
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (24)

  1. 作業者が対象物に対して行なう作業を分析するための装置であって、
    前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
    前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、動作の内容を移動動作と終局動作とに分けて特定する、動作特定部と、
    さらに、前記動作特定部は、前記作業者から作業の際に受けた操作ログを記録する機能を有している前記対象物から、前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
    ことを特徴とする作業分析装置。
  2. 前記動作特定部が、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
    請求項1に記載の作業分析装置。
  3. 前記動作特定部が、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
    請求項2に記載の作業分析装置。
  4. 前記動作特定部が、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
    請求項2に記載の作業分析装置。
  5. 前記位置情報取得部が、前記作業者の顔の向きを特定する顔情報を更に取得し、
    前記動作特定部が、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
    請求項2に記載の作業分析装置。
  6. 前記対象物が、当該対象物の状態を特定するセンサを有しており、
    前記動作特定部が、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
    請求項2に記載の作業分析装置。
  7. 予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、作業時間予測部を更に備えている、
    請求項1〜のいずれかに記載の作業分析装置。
  8. 前記動作特定部が、更に、前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新し、
    前記作業時間予測部が、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
    請求項に記載の作業分析装置。
  9. 作業者が対象物に対して行なう作業を分析するための方法であって、
    (a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
    (b)前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、動作の内容を移動動作と終局動作とに分けて特定する、ステップと、
    さらに、前記(b)のステップにおいて、前記作業者から作業の際に受けた操作ログを記録する機能を有している前記対象物から、前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
    を有する、ことを特徴とする作業分析方法。
  10. 前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
    請求項に記載の作業分析方法。
  11. 前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
    請求項に記載の作業分析方法。
  12. 前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物
    の位置の変化に基づいて、前記終局動作の内容を特定する、
    請求項に記載の作業分析方法。
  13. 前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
    前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
    請求項に記載の作業分析方法。
  14. 前記対象物が、当該対象物の状態を特定するセンサを有しており、
    前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサ
    データを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
    請求項に記載の作業分析方法。
  15. (c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合す
    ることによって、前記作業にかかる作業時間を予測する、ステップを更に有している、
    請求項14のいずれかに記載の作業分析方法。
  16. (d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを更に有し、
    前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
    請求項15に記載の作業分析方法。
  17. コンピュータによって、作業者が対象物に対して行なう作業を分析するためのプログラムであって、
    前記コンピュータに、
    (a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
    (b)前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、動作の内容を移動動作と終局動作とに分けて特定する、ステップと、
    さらに、前記(b)のステップにおいて、前記作業者から作業の際に受けた操作ログを記録する機能を有している前記対象物から、前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
    を実行させる、プログラム。
  18. 前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
    請求項17に記載のプログラム。
  19. 前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
    請求項17に記載のプログラム。
  20. 前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物
    の位置の変化に基づいて、前記終局動作の内容を特定する、
    請求項17に記載のプログラム。
  21. 前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
    前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
    請求項17に記載のプログラム。
  22. 前記対象物が、当該対象物の状態を特定するセンサを有しており、
    前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
    請求項17に記載のプログラム。
  23. 前記コンピュータに、
    (c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを更に実行させる、
    請求項1722のいずれかに記載のプログラム。
  24. 前記コンピュータに、
    (d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを更に実行させ、
    前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
    請求項23に記載のプログラム。
JP2018523706A 2016-06-23 2017-06-23 作業分析装置、作業分析方法、及びプログラム Active JP6733995B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016124875 2016-06-23
JP2016124875 2016-06-23
PCT/JP2017/023308 WO2017222070A1 (ja) 2016-06-23 2017-06-23 作業分析装置、作業分析方法、及びコンピュータ読み取り可能な記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020116175A Division JP7010542B2 (ja) 2016-06-23 2020-07-06 作業分析装置、作業分析方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2017222070A1 JPWO2017222070A1 (ja) 2019-04-11
JP6733995B2 true JP6733995B2 (ja) 2020-08-05

Family

ID=60783904

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018523706A Active JP6733995B2 (ja) 2016-06-23 2017-06-23 作業分析装置、作業分析方法、及びプログラム
JP2020116175A Active JP7010542B2 (ja) 2016-06-23 2020-07-06 作業分析装置、作業分析方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020116175A Active JP7010542B2 (ja) 2016-06-23 2020-07-06 作業分析装置、作業分析方法、及びプログラム

Country Status (2)

Country Link
JP (2) JP6733995B2 (ja)
WO (1) WO2017222070A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7254546B2 (ja) * 2018-02-27 2023-04-10 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7252593B2 (ja) * 2018-11-22 2023-04-05 株式会社ビー・ナレッジ・デザイン 情報処理システム、情報処理方法及びプログラム
JP7180886B2 (ja) 2020-02-18 2022-11-30 Necプラットフォームズ株式会社 作業稼働率測定装置及び作業稼働率測定方法
WO2022162844A1 (ja) * 2021-01-28 2022-08-04 三菱電機株式会社 作業推定装置、作業推定方法、及び、作業推定プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4135332B2 (ja) 2001-04-18 2008-08-20 松下電工株式会社 作業分析システム
JP2003256756A (ja) * 2002-03-05 2003-09-12 Osaka Gas Co Ltd 作業空間診断方法及び作業空間診断装置
JP2009015809A (ja) * 2007-06-07 2009-01-22 Ricoh Co Ltd 動作解析装置
JP4932048B1 (ja) * 2011-07-21 2012-05-16 内浜化成株式会社 作業支援システム

Also Published As

Publication number Publication date
JPWO2017222070A1 (ja) 2019-04-11
JP2020177680A (ja) 2020-10-29
JP7010542B2 (ja) 2022-01-26
WO2017222070A1 (ja) 2017-12-28

Similar Documents

Publication Publication Date Title
JP7010542B2 (ja) 作業分析装置、作業分析方法、及びプログラム
US11009941B2 (en) Calibration of measurement units in alignment with a skeleton model to control a computer system
US11474593B2 (en) Tracking user movements to control a skeleton model in a computer system
US9002119B2 (en) Device method and program for human hand posture estimation
US9239648B2 (en) Determining user handedness and orientation using a touchscreen device
CN108604393B (zh) 信息处理系统、信息处理装置、信息处理方法以及计算机可读取的存储介质
CN108961144B (zh) 图像处理系统
CN110114194B (zh) 用于确定双手抓握工业对象的抓握位置的系统和方法
US10976863B1 (en) Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
US10860845B2 (en) Method and system for automatic repetitive step and cycle detection for manual assembly line operations
EP2904472A2 (en) Wearable sensor for tracking articulated body-parts
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
US11079860B2 (en) Kinematic chain motion predictions using results from multiple approaches combined via an artificial neural network
EP4191540A1 (en) 3d data system and 3d data generation method
JP2016081264A (ja) 画像処理方法、画像処理装置及びロボットシステム
CN110456902A (zh) 跟踪用户移动以控制计算机系统中的骨架模型
JP2019120577A (ja) 位置推定装置、位置推定方法及び位置推定用コンピュータプログラム
JP6501806B2 (ja) 情報処理装置、操作検出方法、及びコンピュータプログラム
WO2021195916A1 (zh) 动态手部仿真方法、装置和系统
KR102063408B1 (ko) 가상 객체와의 상호 작용을 위한 방법 및 장치
JP2006209259A (ja) 操作支援システム及び操作支援方法、並びにコンピュータ・プログラム
Tran et al. Assessing human worker performance by pattern mining of Kinect sensor skeleton data
KR20200032990A (ko) 실제 손에 대응하는 가상 손 모델링 방법 및 이를 위한 장치
JP2021086218A (ja) 協調作業システム、解析装置および解析プログラム
JP7376446B2 (ja) 作業分析プログラム、および、作業分析装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200707

R150 Certificate of patent or registration of utility model

Ref document number: 6733995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150