JP6733995B2 - 作業分析装置、作業分析方法、及びプログラム - Google Patents
作業分析装置、作業分析方法、及びプログラム Download PDFInfo
- Publication number
- JP6733995B2 JP6733995B2 JP2018523706A JP2018523706A JP6733995B2 JP 6733995 B2 JP6733995 B2 JP 6733995B2 JP 2018523706 A JP2018523706 A JP 2018523706A JP 2018523706 A JP2018523706 A JP 2018523706A JP 6733995 B2 JP6733995 B2 JP 6733995B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- worker
- work
- specified
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 94
- 230000033001 locomotion Effects 0.000 claims description 120
- 230000009471 action Effects 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 16
- 238000005259 measurement Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 18
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 210000001624 hip Anatomy 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000004936 left thumb Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 210000004935 right thumb Anatomy 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Factory Administration (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、動作特定部と、
を備えている、ことを特徴とする。
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を有する、ことを特徴とする。
前記コンピュータに、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を実行させる、プログラム。
以下、本発明の実施の形態1における、作業分析装置、作業分析方法、およびプログラムについて、図1〜図6を参照しながら説明する。
最初に、本発明の実施の形態1における作業分析装置の概略構成について図1を用いて説明する。図1は、本発明の実施の形態1における作業分析装置の概略構成を示すブロック図である。
次に、本発明の実施の形態1における作業分析装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態1における作業分析装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図5を参酌する。また、本実施の形態1では、作業分析装置10を動作させることによって、作業分析方法が実施される。よって、本実施の形態1における作業分析方法の説明は、以下の作業分析装置10の動作説明に代える。
以上のように、本実施の形態1では、画像データから、人手を介することなく、作業者の動作の内容が特定されると共に、その内容に基づいて作業時間が予測される。従って、本実施の形態1によれば、人によるビデオ分析を行なわずとも、MODAPTS法を実行することができる。
本実施の形態1におけるプログラムは、コンピュータに、図6に示すステップA1〜A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における作業分析装置10と作業分析方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、位置情報取得部11、動作特定部12、及び作業時間予測部13として機能し、処理を行なう。
本変形例1では、位置情報取得部11は、作業者50の顔の向きを特定する顔情報を更に取得することができる。但し、本実施の形態1では、位置情報取得部11は、作業者50を撮影するデプスセンサ20から深度付の画像データを取得しており、この深度付の画像データを顔情報として取得することができる。以下、図7を用いて説明する。図7は、本発明の実施の形態1の変形例1において、作業者の顔の向きに応じて終局動作の内容を特定する場合の処理を説明するための図である。
本変形例2では、対象物60が、作業者50から作業の際に受けた操作のログを記録する機能を有している。この場合、動作特定部12は、対象物60から操作ログを取得し、取得した操作ログに基づいて、終局動作の内容を特定することができる。
本変形例3では、対象物60が、それ自体の状態を特定するセンサを有し、センサが出力したセンサデータが、有線又は無線によって作業分析装置10に送信されている。この場合、動作特定部12は、対象物60から、センサが出力したセンサデータを取得し、取得したセンサデータを用いて、動作の内容を特定することができる。
次に、本発明の実施の形態2における、作業分析装置、作業分析方法、およびプログラムについて、図8及び図9を参照しながら説明する。
最初に、本発明の実施の形態2における作業分析装置の構成について図8を用いて説明する。図8は、本発明の実施の形態2における作業分析装置の構成を示すブロック図である。
次に、本発明の実施の形態2における作業分析装置70の動作について図8を用いて説明する。図9は、本発明の実施の形態2における作業分析装置の動作を示すフロー図である。以下の説明においては、適宜図8を参酌する。また、本実施の形態2では、作業分析装置70を動作させることによって、作業分析方法が実施される。よって、本実施の形態2における作業分析方法の説明は、以下の作業分析装置70の動作説明に代える。
以上のように、本実施の形態2によれば、実施の形態1と異なり、動作内容と時間との関係を予め設定しない場合であっても、過去の実測置を用いることで、作業時間を予測することができる。また、本実施の形態2によれば、作業者の作業時間の予測精度をよりいっそう向上できると考えられる。
ここで、実施の形態1及び2におけるプログラムを実行することによって、作業分析装置を実現するコンピュータについて図10を用いて説明する。図10は、本発明の実施の形態1及び2における作業分析装置を実現するコンピュータの一例を示すブロック図である。
作業者が対象物に対して行なう作業を分析するための装置であって、
前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、動作特定部と、
を備えている、ことを特徴とする作業分析装置。
前記動作特定部が、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、付記1に記載の作業分析装置。
前記動作特定部が、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記動作特定部が、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記動作特定部が、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記位置情報取得部が、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記動作特定部が、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記動作特定部が、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記動作特定部が、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記2に記載の作業分析装置。
予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、作業時間予測部を更に備えている、付記1〜8のいずれかに記載の作業分析装置。
前記動作特定部が、更に、前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新し、
前記作業時間予測部が、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記9に記載の作業分析装置。
作業者が対象物に対して行なう作業を分析するための方法であって、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を有する、ことを特徴とする作業分析方法。
前記(b)のステップにおいて、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、
付記11に記載の作業分析方法。
前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記(b)のステップにおいて、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記12に記載の作業分析方法。
(c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを更に有している、
付記11〜18のいずれかに記載の作業分析方法。
(d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを更に有し、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記19に記載の作業分析方法。
コンピュータによって、作業者が対象物に対して行なう作業を分析するためのプログラムであって、
前記コンピュータに、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を実行させる、プログラム。
前記(b)のステップにおいて、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、
付記21に記載のプログラム。
前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記(b)のステップにおいて、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記22に記載のプログラム。
前記コンピュータに、
(c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを実行させる、
付記21〜28のいずれかに記載のプログラム。
前記コンピュータに、
(d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを実行させ、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記29に記載のプログラム。
11 位置情報取得部
12 動作特定部
13 作業時間予測部
14 記憶部
15 モデル
20 デプスセンサ
30 デジタルカメラ
40 端末装置
50 作業者
60 対象物
61 作業台
70 作業分析装置(実施の形態2)
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
Claims (24)
- 作業者が対象物に対して行なう作業を分析するための装置であって、
前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、動作の内容を移動動作と終局動作とに分けて特定する、動作特定部と、
さらに、前記動作特定部は、前記作業者から作業の際に受けた操作ログを記録する機能を有している前記対象物から、前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
ことを特徴とする作業分析装置。 - 前記動作特定部が、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
請求項1に記載の作業分析装置。 - 前記動作特定部が、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
請求項2に記載の作業分析装置。 - 前記動作特定部が、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
請求項2に記載の作業分析装置。 - 前記位置情報取得部が、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記動作特定部が、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
請求項2に記載の作業分析装置。 - 前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記動作特定部が、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
請求項2に記載の作業分析装置。 - 予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、作業時間予測部を更に備えている、
請求項1〜6のいずれかに記載の作業分析装置。 - 前記動作特定部が、更に、前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新し、
前記作業時間予測部が、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
請求項7に記載の作業分析装置。 - 作業者が対象物に対して行なう作業を分析するための方法であって、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、動作の内容を移動動作と終局動作とに分けて特定する、ステップと、
さらに、前記(b)のステップにおいて、前記作業者から作業の際に受けた操作ログを記録する機能を有している前記対象物から、前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
を有する、ことを特徴とする作業分析方法。 - 前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
請求項9に記載の作業分析方法。 - 前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
請求項9に記載の作業分析方法。 - 前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物
の位置の変化に基づいて、前記終局動作の内容を特定する、
請求項9に記載の作業分析方法。 - 前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
請求項9に記載の作業分析方法。 - 前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサ
データを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
請求項9に記載の作業分析方法。 - (c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合す
ることによって、前記作業にかかる作業時間を予測する、ステップを更に有している、
請求項9〜14のいずれかに記載の作業分析方法。 - (d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを更に有し、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
請求項15に記載の作業分析方法。 - コンピュータによって、作業者が対象物に対して行なう作業を分析するためのプログラムであって、
前記コンピュータに、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、動作の内容を移動動作と終局動作とに分けて特定する、ステップと、
さらに、前記(b)のステップにおいて、前記作業者から作業の際に受けた操作ログを記録する機能を有している前記対象物から、前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
を実行させる、プログラム。 - 前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
請求項17に記載のプログラム。 - 前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
請求項17に記載のプログラム。 - 前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物
の位置の変化に基づいて、前記終局動作の内容を特定する、
請求項17に記載のプログラム。 - 前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
請求項17に記載のプログラム。 - 前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
請求項17に記載のプログラム。 - 前記コンピュータに、
(c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを更に実行させる、
請求項17〜22のいずれかに記載のプログラム。 - 前記コンピュータに、
(d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを更に実行させ、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
請求項23に記載のプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016124875 | 2016-06-23 | ||
JP2016124875 | 2016-06-23 | ||
PCT/JP2017/023308 WO2017222070A1 (ja) | 2016-06-23 | 2017-06-23 | 作業分析装置、作業分析方法、及びコンピュータ読み取り可能な記録媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020116175A Division JP7010542B2 (ja) | 2016-06-23 | 2020-07-06 | 作業分析装置、作業分析方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017222070A1 JPWO2017222070A1 (ja) | 2019-04-11 |
JP6733995B2 true JP6733995B2 (ja) | 2020-08-05 |
Family
ID=60783904
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523706A Active JP6733995B2 (ja) | 2016-06-23 | 2017-06-23 | 作業分析装置、作業分析方法、及びプログラム |
JP2020116175A Active JP7010542B2 (ja) | 2016-06-23 | 2020-07-06 | 作業分析装置、作業分析方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020116175A Active JP7010542B2 (ja) | 2016-06-23 | 2020-07-06 | 作業分析装置、作業分析方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6733995B2 (ja) |
WO (1) | WO2017222070A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7254546B2 (ja) * | 2018-02-27 | 2023-04-10 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7252593B2 (ja) * | 2018-11-22 | 2023-04-05 | 株式会社ビー・ナレッジ・デザイン | 情報処理システム、情報処理方法及びプログラム |
JP7180886B2 (ja) | 2020-02-18 | 2022-11-30 | Necプラットフォームズ株式会社 | 作業稼働率測定装置及び作業稼働率測定方法 |
WO2022162844A1 (ja) * | 2021-01-28 | 2022-08-04 | 三菱電機株式会社 | 作業推定装置、作業推定方法、及び、作業推定プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4135332B2 (ja) | 2001-04-18 | 2008-08-20 | 松下電工株式会社 | 作業分析システム |
JP2003256756A (ja) * | 2002-03-05 | 2003-09-12 | Osaka Gas Co Ltd | 作業空間診断方法及び作業空間診断装置 |
JP2009015809A (ja) * | 2007-06-07 | 2009-01-22 | Ricoh Co Ltd | 動作解析装置 |
JP4932048B1 (ja) * | 2011-07-21 | 2012-05-16 | 内浜化成株式会社 | 作業支援システム |
-
2017
- 2017-06-23 WO PCT/JP2017/023308 patent/WO2017222070A1/ja active Application Filing
- 2017-06-23 JP JP2018523706A patent/JP6733995B2/ja active Active
-
2020
- 2020-07-06 JP JP2020116175A patent/JP7010542B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2017222070A1 (ja) | 2019-04-11 |
JP2020177680A (ja) | 2020-10-29 |
JP7010542B2 (ja) | 2022-01-26 |
WO2017222070A1 (ja) | 2017-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7010542B2 (ja) | 作業分析装置、作業分析方法、及びプログラム | |
US11009941B2 (en) | Calibration of measurement units in alignment with a skeleton model to control a computer system | |
US11474593B2 (en) | Tracking user movements to control a skeleton model in a computer system | |
US9002119B2 (en) | Device method and program for human hand posture estimation | |
US9239648B2 (en) | Determining user handedness and orientation using a touchscreen device | |
CN108604393B (zh) | 信息处理系统、信息处理装置、信息处理方法以及计算机可读取的存储介质 | |
CN108961144B (zh) | 图像处理系统 | |
CN110114194B (zh) | 用于确定双手抓握工业对象的抓握位置的系统和方法 | |
US10976863B1 (en) | Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user | |
US10860845B2 (en) | Method and system for automatic repetitive step and cycle detection for manual assembly line operations | |
EP2904472A2 (en) | Wearable sensor for tracking articulated body-parts | |
US11175729B2 (en) | Orientation determination based on both images and inertial measurement units | |
US11079860B2 (en) | Kinematic chain motion predictions using results from multiple approaches combined via an artificial neural network | |
EP4191540A1 (en) | 3d data system and 3d data generation method | |
JP2016081264A (ja) | 画像処理方法、画像処理装置及びロボットシステム | |
CN110456902A (zh) | 跟踪用户移动以控制计算机系统中的骨架模型 | |
JP2019120577A (ja) | 位置推定装置、位置推定方法及び位置推定用コンピュータプログラム | |
JP6501806B2 (ja) | 情報処理装置、操作検出方法、及びコンピュータプログラム | |
WO2021195916A1 (zh) | 动态手部仿真方法、装置和系统 | |
KR102063408B1 (ko) | 가상 객체와의 상호 작용을 위한 방법 및 장치 | |
JP2006209259A (ja) | 操作支援システム及び操作支援方法、並びにコンピュータ・プログラム | |
Tran et al. | Assessing human worker performance by pattern mining of Kinect sensor skeleton data | |
KR20200032990A (ko) | 실제 손에 대응하는 가상 손 모델링 방법 및 이를 위한 장치 | |
JP2021086218A (ja) | 協調作業システム、解析装置および解析プログラム | |
JP7376446B2 (ja) | 作業分析プログラム、および、作業分析装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6733995 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |