JP2020177680A - Work analysis device, work analysis method, and program - Google Patents
Work analysis device, work analysis method, and program Download PDFInfo
- Publication number
- JP2020177680A JP2020177680A JP2020116175A JP2020116175A JP2020177680A JP 2020177680 A JP2020177680 A JP 2020177680A JP 2020116175 A JP2020116175 A JP 2020116175A JP 2020116175 A JP2020116175 A JP 2020116175A JP 2020177680 A JP2020177680 A JP 2020177680A
- Authority
- JP
- Japan
- Prior art keywords
- worker
- work
- position information
- specified
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
Description
本発明は、作業者による作業を分析するための、作業分析装置、作業分析方法、及びこれらを実現するためのプログラムに関する。 The present invention relates to a work analyzer, a work analysis method, and a program for realizing these for analyzing work by a worker.
近年、工場等における生産現場においては、生産性の向上と原価の低減とを図るため、インダストリアル・エンジニアリング(以下「IE」と表記する。)が導入されている。一般に、IEは、経営管理全般に関するIEと、生産に関するIEと、これら以外に関するIEとの大きく3つに分類される。このうち、生産に関するIEは、生産現場において特に重要である。 In recent years, industrial engineering (hereinafter referred to as "IE") has been introduced at production sites in factories and the like in order to improve productivity and reduce costs. In general, IE is roughly classified into three types: IE related to business management in general, IE related to production, and IE related to other than these. Of these, IE related to production is particularly important at the production site.
具体的には、生産に関するIEにおいては、MODAPTS(Modular Arrangement of
Predetermined Time Standards)法と呼ばれる手法を用いて、作業者による作業の分析が行なわれる(例えば、非特許文献1参照)。MODAPTS法では、人間の上肢の動作を中心とした基本動作が21個の記号で表され、各記号には動作の内容と時間値とが含まれている。
Specifically, in IE related to production, MODAPTS (Modular Arrangement of)
A method called the Predetermined Time Standards) method is used to analyze the work by the operator (see, for example, Non-Patent Document 1). In the MODAPTS method, basic movements centered on human upper limb movements are represented by 21 symbols, and each symbol includes the content of the movement and the time value.
例えば、「机の上に置いてある(手元から約15cm離れた位置にある)ボールペンを掴む動作」を想定する。この場合、作業者は、まず,手をボールペンまで移動させる動作(「移動動作(Movement)」を行ない、その後、ボールペンを掴む動作を行なう。ボールペンを掴むことによって移動動作は終了するので、ボールペンを掴む動作は終局動作(Terminal Activities)となる。 For example, assume "an operation of grasping a ballpoint pen placed on a desk (at a position about 15 cm away from the hand)". In this case, the operator first performs an operation of moving the hand to the ballpoint pen (“Movement””, and then performs an operation of grasping the ballpoint pen. Since the movement operation is completed by grasping the ballpoint pen, the ballpoint pen is moved. The grabbing action is the final activity.
そして、これらの動作は、MODAPTS法では、M3G1と分析される。また、これらの動作にかかる作業時間は、4MOD=0.516秒(1MOD=0.129秒)と算出される。 Then, these actions are analyzed as M3G1 in the MODEPTS method. The working time required for these operations is calculated as 4MOD = 0.516 seconds (1MOD = 0.129 seconds).
このように、MODAPTS法によれば、作業者が特定の作業を行う場合の所要時間を、実測することなく、作業動作から簡単に予測することが出来る。即ち、作業者が実行する作業動作さえ分かっていれば、作業のどこに無駄又は無理があるかを、時間を尺度にして簡単に評価することが出来る。結果、生産性の向上が図られると考えられる。 As described above, according to the MODAPTS method, the time required for a worker to perform a specific work can be easily predicted from the work operation without actually measuring it. That is, as long as the work operation performed by the worker is known, it is possible to easily evaluate where the work is wasteful or unreasonable on the scale of time. As a result, it is considered that productivity can be improved.
ところで、MODAPTS法は、通常、作業者による作業の様子を撮影したビデオを用いて、人手によるビデオ分析にて行なわれている。つまり、分析者は、ビデオに写っている作業者の動作を目視して、この動作が予め分類されている動作のいずれであるかを判定し、判定結果を逐一記録している。このため、MODAPTS法の実行には、時間及び労力がかかり過ぎるという問題がある。 By the way, the MODAPTS method is usually performed by manual video analysis using a video of a state of work by an operator. That is, the analyst visually observes the movement of the worker in the video, determines which of the pre-classified movements is, and records the judgment result one by one. Therefore, there is a problem that it takes too much time and labor to execute the MODAPTS method.
本発明の目的の一例は、上記問題を解消し、人手によることなく、作業現場における作
業者の動作の分析を行ない得る、作業分析装置、作業分析方法、及びプログラムを提供す
ることにある。
An example of an object of the present invention is to provide a work analyzer, a work analysis method, and a program capable of solving the above-mentioned problems and analyzing the movement of a worker at a work site without human intervention.
上記目的を達成するため、本発明の一側面における作業分析装置は、作業者が対象物に対して行なう作業を分析するための装置であって、
前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、動作特定部と、
を備えている、ことを特徴とする。
In order to achieve the above object, the work analysis device in one aspect of the present invention is a device for analyzing the work performed by the worker on the object.
A position information acquisition unit that acquires a first position information that specifies the position of the worker's hand and a second position information that specifies the position of the object.
An operation specifying unit that specifies the content of the operation performed by the worker in the work by using the first position information and the second position information.
It is characterized by having.
また、上記目的を達成するため、本発明の一側面における作業分析方法は、作業者が対象物に対して行なう作業を分析するための方法であって、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、 を有する、ことを特徴とする。
Further, in order to achieve the above object, the work analysis method in one aspect of the present invention is a method for analyzing the work performed by the worker on the object.
(A) A step of acquiring a first position information for specifying the position of the worker's hand and a second position information for specifying the position of the object.
(B) It is characterized in that it has a step and a step of specifying the content of the operation performed by the worker in the work by using the first position information and the second position information.
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、作業者が対象物に対して行なう作業を分析するためのプログラムであって、
前記コンピュータに、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を実行させる、プログラム。
Further, in order to achieve the above object, the program in one aspect of the present invention is a program for analyzing the work performed by the worker on the object by the computer.
On the computer
(A) A step of acquiring a first position information for specifying the position of the worker's hand and a second position information for specifying the position of the object.
(B) A step of identifying the content of the operation performed by the worker in the work by using the first position information and the second position information.
A program that runs.
以上のように、本発明における作業分析装置によれば、人手によることなく、作業現場における作業者の動作の分析を行なうことができる。 As described above, according to the work analyzer of the present invention, it is possible to analyze the movement of the worker at the work site without manual labor.
(実施の形態1)
以下、本発明の実施の形態1における、作業分析装置、作業分析方法、およびプログラムについて、図1〜図6を参照しながら説明する。
(Embodiment 1)
Hereinafter, the work analyzer, the work analysis method, and the program according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 6.
[装置構成]
最初に、本発明の実施の形態1における作業分析装置の概略構成について図1を用いて説明する。図1は、本発明の実施の形態1における作業分析装置の概略構成を示すブロック図である。
[Device configuration]
First, the schematic configuration of the work analyzer according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of a work analyzer according to a first embodiment of the present invention.
図1に示す、本実施の形態1における作業分析装置10は、作業者が対象物に対して行なう作業を分析するための装置である。図1に示すように、作業分析装置10は、位置情報取得部11と、動作特定部12とを備えている。
The
位置情報取得部11は、作業者の手の位置を特定する第1の位置情報と、対象物の位置を特定する第2の位置情報とを取得する。動作特定部12は、第1の位置情報及び第2の位置情報を用いて、作業において作業者が行なった動作の内容を特定する。
The position
このように、本実施の形態では、人手を介することなく、作業分析装置10によって、作業者の手及び対象物の位置情報から、動作の内容、例えば、手先のみを動かす動作であったのか、触るだけの動作であったのか等が特定される。従って、作業分析装置10を用いれば、人手によることなく、作業現場における作業者の動作の分析が可能となる。
As described above, in the present embodiment, is it the operation of moving only the content of the operation, for example, the hand, from the position information of the worker's hand and the object by the
続いて、図2を用いて、本実施の形態1における作業分析装置10の構成について更に具体的に説明する。図2は、本発明の実施の形態1における作業分析装置の構成を具体的に示すブロック図である。
Subsequently, the configuration of the
図2に示すように、本実施の形態1においては、作業分析装置10には、デプスセンサ20と、デジタルカメラ30と、分析者の端末装置40とが接続されている。デプスセンサ20は、例えば、特定のパターンで赤外線レーザ光を出射する光源と、対象物で反射された赤外線を受光する撮像素子とを備えており、これらによって、画素毎の深度が付加された画像データを出力する。デプスセンサの具体例としては、Kinect(登録商標)といった既存のデプスセンサが挙げられる。
As shown in FIG. 2, in the first embodiment, the
また、デプスセンサ20は、作業者50の動作を撮影可能となるように配置されている。従って、デプスセンサ20から出力された深度付の画像データを用いて、作業者50の四肢の各部位の座標と深度とを特定すれば、各部位の位置の検出が可能となる。即ち、本実施の形態1では、デプスセンサ20から出力される深度付の画像データが、第1の位置情報として用いられる。
Further, the
なお、デプスセンサ20によって特定可能な部位としては、頭、首、右肩、右肘、右手首、右親指、右手先、左肩、左肘、左手首、左親指、左手先、胸部、胸腰部、骨盤部、右股関節、右膝、右くるぶし、右足、左股関節、左膝、左くるぶし、左足等が挙げられる。また、深度付の画像データから各部位の位置を検出するための処理としては、デプスセンサ20で利用されている既存の処理を用いることができる。
The parts that can be identified by the
また、図2において、デジタルカメラ30は、作業の対象物60を撮影可能となるように配置されており、対象物60の位置の検出に用いられている。具体的には、対象物60の上面には、図形マーカが付与されており、デジタルカメラ30は、設定間隔で、図形マーカを含む画像データを出力する。従って、この画像データを用いて、図形マーカの位置を特定すれば、対象物60の位置の検出が可能となる。本実施の形態1では、デジタルカメラ30から出力される画像データが、第2の位置情報として用いられる。
Further, in FIG. 2, the
また、図2に示すように、本実施の形態1においては、作業分析装置10は、位置情報取得部11及び動作特定部12に加えて、作業時間予測部13を備えている。作業時間予測部13は、予め設定された動作の内容と時間との関係に、特定された動作の内容を照合することによって、作業にかかる作業時間を予測する。
Further, as shown in FIG. 2, in the first embodiment, the
位置情報取得部11は、本実施の形態では、第1の位置情報として、デプスセンサ20から出力される深度付の画像データを取得し、第2の位置情報として、デジタルカメラ30から出力される画像データを取得する。また、位置情報取得部11は、取得した各画像データを動作特定部12に入力する。
In the present embodiment, the position
動作特定部12は、本実施の形態1では、第1の位置情報として取得した深度付の画像データから、作業者50の左右の手の位置を特定する。具体的には、動作特定部12は、深度付の画像データから左右の手を検出し、検出した手毎に、画像上の2次元座標と深度とから、予め実空間に設定された座標系における3次元座標を算出する。
In the first embodiment, the
また、動作特定部12は、第2の位置情報として取得した画像データから、対象物60の位置を特定する。具体的には、動作特定部12は、図形マーカを検出し、検出した図形マーカの画像上の2次元座標と、予め取得されている作業台61の高さとから、予め実空間に設定された座標系における対象物60の3次元座標を算出する。
Further, the
更に、動作特定部12は、第1の位置情報で特定した作業者50の手の位置、第2の位置情報で特定した対象物60の位置、及び両方の位置から求めた作業者50の手と対象物60との距離に基づいて、作業者50が行なった動作の内容を移動動作と終局動作とに分けて特定する。
Further, the
具体的には、作業者50が行なう動作は、「手を伸ばす」、「持ってくる」といった手を移動させる動作(移動動作)と、「触る」、「掴む」、「置く」といった移動動作を終わらせる動作(終局動作)とで構成されている。動作特定部12は、設定された間隔で、手と対象物との距離を繰り返し求め、求めた距離に基づいて、移動動作が行なわれている期間と、終局動作が行なわれている期間とを特定する。
Specifically, the movements performed by the
例えば、動作特定部12は、手と対象物の距離が閾値より大きい状態から閾値以下となったときに、手と対象物とが接触することになるので、この時点を移動動作「手を伸ばす」から終局動作「触る」又は「掴む」へと切り替わったタイミングと判断する。続いて、動作特定部12は、終局動作へと切り替わるまでの作業者50の手の移動距離を求める。更に、動作特定部12は、移動距離に応じて、「指先の動作」、「手の動作」、「前腕の動作」、「上腕の動作」、「伸ばした腕の動作」のいずれであるかを判定し、判定結果を移動動作の内容として特定する。
For example, when the distance between the hand and the object falls below the threshold value from the state where the distance between the hand and the object is greater than the threshold value, the
また、動作特定部12は、手と対象物との距離が閾値以下の状態で、作業者の手と対象物とが移動を開始すると、終局動作から移動動作「持ってくる」に切り替わったと判断し、移動距離を求める。そして、この場合も、動作特定部12は、上記と同様の判定をして、移動動作の内容を特定する。その後、再び、作業者の手と対象物との距離が閾値より大きくなったときは、手が対象物から離れているので、動作特定部12は、移動動作から終局動作「置く」へと切り替わったタイミングと判断する。また、動作特定部12は、この時点を動作の終了時点と判断する。
Further, the
動作特定部12は、終局動作については、例えば、対象物60を識別する識別子を取得し、取得した識別子を、識別子毎に終局動作の内容を規定するルールに照合することによって特定することができる。また、動作特定部12は、動作の終了時点での、対象物60の位置に応じて、終局動作の内容を特定することもできる。
The
ここで、図3〜図5を用いて、動作特定部12及び作業時間予測部13による処理について具体的に説明する。図3は、本発明の実施の形態1で特定される移動動作の内容の一例を示す図である。図4は、本発明の実施の形態1で特定される終局動作の内容の一例と識別子毎に終局動作の内容を規定するルールの一例とを示す図である。図5は、本発明の実施の形態1において、対象物の位置に応じて終局動作の内容を特定する場合の処理を説明するための図である。
Here, the processing by the
動作特定部12は、まず、移動動作が行なわれている期間を特定すると、作業者50の左右の手の位置の変化に基づき、この期間における作業者50の手の移動距離を求める。そして、動作特定部12は、求めた移動距離に応じて、移動動作が、図3に示すM1〜M5のいずれに該当するかを判定する。そして、動作特定部12は、判定結果を移動動作の内容として特定する。
First, the
また、動作特定部12は、例えば、端末装置40からの通知、第2の位置情報である画像データの画像処理等によって、対象物60を識別する識別子を取得する。そして、動作特定部12は、取得した識別子を図4に示すルール(テーブル)に照合して、終局動作の内容が、G0、G1、G3、P0、P2、P5のいずれに該当するかを判定する。なお、終局動作が「掴む」及び「置く」のいずれであるかは、直前の手と対象物との距離の変化から判断される。
Further, the
更に、動作特定部12は、終局動作が「置く」であるときは、対象物60の3次元座標に基づいて、図5に示すように、対象物60が作業台61のどこに置かれたかを判断することで、終局動作の内容の特定を行なうこともできる。
Further, when the final operation is "place", the
このように、本実施の形態1では、動作特定部12は、MODAPTS法等で規定されている動作分類に沿って、移動動作及び終局動作を特定することができる。なお、図3〜図5に示す判断基準及びルールは、MODAPTS法に類似しているが、MODAPTS法そのままではない。本実施の形態1では、動作特定のための判断基準及びルールとして、MODAPTS法がそのまま用いられていても良い。
As described above, in the first embodiment, the
また、作業時間予測部13は、MODAPTS法等で規定されている動作時間に沿って作業時間を予測することができる。例えば、動作特定部12が、作業者50の動作の内容を「M3G1」と特定し、作業時間予測部13において、MODAPTS法が採用されているとする。この場合、作業時間予測部13は、作業時間を「4MOD=0.516秒(1MOD=0.129)」と予測する。
Further, the work
[装置動作]
次に、本発明の実施の形態1における作業分析装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態1における作業分析装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図5を参酌する。また、本実施の形態1では、作業分析装置10を動作させることによって、作業分析方法が実施される。よって、本実施の形態1における作業分析方法の説明は、以下の作業分析装置10の動作説明に代える。
[Device operation]
Next, the operation of the
図6に示すように、最初に、位置情報取得部11が、第1の位置情報として、デプスセンサ20から出力される深度付の画像データを取得し、第2の位置情報として、デジタルカメラ30から出力される画像データを取得する(ステップA1)。
As shown in FIG. 6, first, the position
次に、動作特定部12は、第1の位置情報として取得した深度付の画像データから、作業者50の手の位置を特定し、第2の位置情報として取得した画像データから、対象物60の位置を特定する(ステップA2)。
Next, the
次に、動作特定部12は、ステップA2で特定した作業者50の手の位置と対象物60の位置とから、作業者50の手と対象物60との距離を算出する(ステップA3)。
Next, the
次に、動作特定部12は、ステップA2で特定した作業者50の手の位置、同じくステップA2で特定した対象物60の位置、及びステップA3で算出した作業者50の手と対象物60との距離に基づいて、作業者50が行なった動作の内容を特定する(ステップA4)。
Next, the
具体的には、ステップA4では、動作特定部12は、手と対象物との距離から、移動動作の期間と終局動作の期間とを特定する。そして、動作特定部12は、特定した各期間、手の位置の変化、対象物の位置の変化を総合し、図3〜図5に示す判断基準及びルールを用いて、作業者50が行なった動作の内容を移動動作と終局動作とに分けて特定する。
Specifically, in step A4, the
その後、作業時間予測部13は、予め設定された動作の内容と時間との関係に、ステップA4で特定された動作の内容を照合することによって、作業にかかる作業時間を予測する(ステップA5)。
After that, the work
[実施の形態1における効果]
以上のように、本実施の形態1では、画像データから、人手を介することなく、作業者の動作の内容が特定されると共に、その内容に基づいて作業時間が予測される。従って、本実施の形態1によれば、人によるビデオ分析を行なわずとも、MODAPTS法を実行することができる。
[Effect in Embodiment 1]
As described above, in the first embodiment, the content of the operation of the worker is specified from the image data without human intervention, and the working time is predicted based on the content. Therefore, according to the first embodiment, the MODAPTS method can be executed without performing video analysis by a person.
[プログラム]
本実施の形態1におけるプログラムは、コンピュータに、図6に示すステップA1〜A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における作業分析装置10と作業分析方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、位置情報取得部11、動作特定部12、及び作業時間予測部13として機能し、処理を行なう。
[program]
The program according to the first embodiment may be any program that causes a computer to execute steps A1 to A5 shown in FIG. By installing this program on a computer and executing it, the
なお、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、位置情報取得部11、動作特定部12、及び作業時間予測部13のいずれかとして機能しても良い。
The program in this embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as any of the position
続いて、本実施の形態1における変形例1〜3について以下に説明する。 Subsequently, the modified examples 1 to 3 in the first embodiment will be described below.
[変形例1]
本変形例1では、位置情報取得部11は、作業者50の顔の向きを特定する顔情報を更に取得することができる。但し、本実施の形態1では、位置情報取得部11は、作業者50を撮影するデプスセンサ20から深度付の画像データを取得しており、この深度付の画像データを顔情報として取得することができる。以下、図7を用いて説明する。図7は、本発明の実施の形態1の変形例1において、作業者の顔の向きに応じて終局動作の内容を特定する場合の処理を説明するための図である。
[Modification 1]
In the
本変形例1では、動作特定部12は、深度付の画像データから、作業者の顔を検出し、検出した顔の向きを特定する。例えば、動作特定部12は、画像上の2次元座標と深度とから、顔の左右の目の3次元座標を算出し、算出した左右の目の3次元座標から、更に顔の向きを算出する。また、動作特定部12は、顔情報によって特定した作業者50の顔の向きと、作業者50の手の位置と、対象物60の位置とに基づいて、終局動作の内容を特定する。
In the first modification, the
具体的には、図7に示すように、動作特定部12は、作業者の視線と手又は対象物との距離を算出し、算出した距離dが閾値D以上である場合(図7上図)は、作業者は、目の動きを要しない最も簡単な置く動作(P0)を行なっていると判断する。一方、動作特定部12は、作業者の視線と手又は対象物との距離dが閾値D未満である場合(図7下図)は、目の動きと1回の位置修正を行なって置く動作(P2)を行なっていると判断する。本変形例1によれば、動作の内容の特定をより正確に行なうことが可能となる。
Specifically, as shown in FIG. 7, the
[変形例2]
本変形例2では、対象物60が、作業者50から作業の際に受けた操作のログを記録する機能を有している。この場合、動作特定部12は、対象物60から操作ログを取得し、取得した操作ログに基づいて、終局動作の内容を特定することができる。
[Modification 2]
In the second modification, the
具体的には、このような対象物60としては、操作ログを記録可能な工具、同じく操作ログを記録可能な測定機器等が挙げられる。このような工具又は測定機器等が用いられる場合は、動作特定部12は、操作ログから作業者50の操作内容を特定できるので、操作内容に基づいて動作の内容を正確に特定できる。
Specifically, examples of such an
[変形例3]
本変形例3では、対象物60が、それ自体の状態を特定するセンサを有し、センサが出力したセンサデータが、有線又は無線によって作業分析装置10に送信されている。この場合、動作特定部12は、対象物60から、センサが出力したセンサデータを取得し、取得したセンサデータを用いて、動作の内容を特定することができる。
[Modification 3]
In the third modification, the
このようなセンサとしては、加速度センサ、角速度センサ等が挙げられる。例えば、対象物60に加速度センサが取り付けられているとする。この場合、動作特定部12は、センサデータによって特定される加速度の値が閾値以上となった時点を、移動動作「持ってくる」が開始された時点と判断する。また、動作特定部12は、加速度の値が閾値未満となった時点を、移動動作「持ってくる」から終局動作「置く」へと切り替わったタイミングと判断することができる。
Examples of such a sensor include an acceleration sensor and an angular velocity sensor. For example, it is assumed that an acceleration sensor is attached to the
本変形例3によれば、移動動作が行なわれている期間と、終局動作が行なわれている期間との特定をより、正確に行なうことができ、結果、動作の内容を正確に特定できる。また、本変形例3は、対象物60の位置を、デプスセンサ20又はデジタルカメラ30によって特定することが難しい場合に有効である。
According to the third modification, the period during which the movement operation is performed and the period during which the final operation is performed can be specified more accurately, and as a result, the content of the operation can be specified accurately. Further, the
(実施の形態2)
次に、本発明の実施の形態2における、作業分析装置、作業分析方法、およびプログラムについて、図8及び図9を参照しながら説明する。
(Embodiment 2)
Next, the work analyzer, the work analysis method, and the program according to the second embodiment of the present invention will be described with reference to FIGS. 8 and 9.
[装置構成]
最初に、本発明の実施の形態2における作業分析装置の構成について図8を用いて説明する。図8は、本発明の実施の形態2における作業分析装置の構成を示すブロック図である。
[Device configuration]
First, the configuration of the work analyzer according to the second embodiment of the present invention will be described with reference to FIG. FIG. 8 is a block diagram showing the configuration of the work analyzer according to the second embodiment of the present invention.
図8に示すように、本実施の形態2における作業分析装置70は、記憶部14を備えており、この点で、図1及び図2に示した実施の形態1における作業分析装置10と異なっている。以下、実施の形態1との相違点を中心に説明する。
As shown in FIG. 8, the
本実施の形態2では、動作特定部12は、動作が開始されてから終了するまでの実測値を求め、求めた実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデル15を構築する。
In the second embodiment, the
また、動作特定部12は、構築したモデル15を記憶部14に格納する。但し、既にモデル15が構築されている場合は、動作特定部12は、実測値の測定と動作内容の特定とが行なわれる度に、モデル15を更新する。
Further, the
また、本実施の形態2では、作業時間予測部13は、特定した動作の内容をモデル15に適用することによって、作業者50の作業にかかる作業時間を予測する。
Further, in the second embodiment, the work
[装置動作]
次に、本発明の実施の形態2における作業分析装置70の動作について図8を用いて説明する。図9は、本発明の実施の形態2における作業分析装置の動作を示すフロー図である。以下の説明においては、適宜図8を参酌する。また、本実施の形態2では、作業分析装置70を動作させることによって、作業分析方法が実施される。よって、本実施の形態2における作業分析方法の説明は、以下の作業分析装置70の動作説明に代える。
[Device operation]
Next, the operation of the
図9に示すように、最初に、位置情報取得部11が、第1の位置情報として、デプスセンサ20から出力される深度付の画像データを取得し、第2の位置情報として、デジタルカメラ30から出力される画像データを取得する(ステップB1)。
As shown in FIG. 9, first, the position
次に、動作特定部12は、第1の位置情報として取得した深度付の画像データから、作業者50の手の位置を特定し、第2の位置情報として取得した画像データから、対象物60の位置を特定する(ステップB2)。
Next, the
次に、動作特定部12は、ステップB2で特定した作業者50の手の位置と対象物60の位置とから、作業者50の手と対象物60との距離を算出する(ステップB3)。
Next, the
次に、動作特定部12は、ステップB2で特定した作業者50の手の位置、同じくステップB2で特定した対象物60の位置、及びステップB3で算出した作業者50の手と対象物60との距離に基づいて、作業者50が行なった動作の内容を特定する(ステップB4)。以上のステップB1からB4は、図6に示したステップA1からA4と同様のステップである。
Next, the
次に、動作特定部12は、本実施の形態2では、内容を特定した動作の開始から終了までの実測値を取得する(ステップB5)。なお、実測値の取得は、作業分析装置70に内蔵されたタイマー等を用いることによって可能である。
Next, in the second embodiment, the
次に、動作特定部12は、ステップB4で特定された動作の内容とステップB5で取得された実測置とを用いてモデル15の構築又は更新を実行する(ステップB6)。具体的には、動作特定部12は、一般的な機械学習、統計分析等を行なうことによって、モデル15の構築又は更新を実行する。
Next, the
その後、作業時間予測部13は、ステップB4で特定された動作の内容を、モデル15に適用することによって、作業にかかる作業時間を予測する(ステップB7)。
After that, the work
[実施の形態2における効果]
以上のように、本実施の形態2によれば、実施の形態1と異なり、動作内容と時間との関係を予め設定しない場合であっても、過去の実測置を用いることで、作業時間を予測することができる。また、本実施の形態2によれば、作業者の作業時間の予測精度をよりいっそう向上できると考えられる。
[Effect in Embodiment 2]
As described above, according to the second embodiment, unlike the first embodiment, even if the relationship between the operation content and the time is not set in advance, the working time can be reduced by using the past actual measurement setting. Can be predicted. Further, according to the second embodiment, it is considered that the accuracy of predicting the working time of the worker can be further improved.
(物理構成)
ここで、実施の形態1及び2におけるプログラムを実行することによって、作業分析装置を実現するコンピュータについて図10を用いて説明する。図10は、本発明の実施の形態1及び2における作業分析装置を実現するコンピュータの一例を示すブロック図である。
(Physical configuration)
Here, a computer that realizes a work analyzer by executing the programs of the first and second embodiments will be described with reference to FIG. FIG. 10 is a block diagram showing an example of a computer that realizes the work analyzer according to the first and second embodiments of the present invention.
図10に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
As shown in FIG. 10, the
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
The
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
Further, specific examples of the
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
The data reader /
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
Specific examples of the
なお、実施の形態1及び2における作業分析装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、作業分析装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 The work analyzer according to the first and second embodiments can be realized by using the hardware corresponding to each part instead of the computer on which the program is installed. Further, the work analyzer may be partially realized by a program and the rest may be realized by hardware.
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記30)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiments can be expressed by the following descriptions (Appendix 1) to (Appendix 30), but are not limited to the following descriptions.
(付記1)
作業者が対象物に対して行なう作業を分析するための装置であって、
前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、位置情報取得部と、
前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、動作特定部と、
を備えている、ことを特徴とする作業分析装置。
(Appendix 1)
A device for analyzing the work performed on an object by a worker.
A position information acquisition unit that acquires a first position information that specifies the position of the worker's hand and a second position information that specifies the position of the object.
An operation specifying unit that specifies the content of the operation performed by the worker in the work by using the first position information and the second position information.
A work analyzer characterized by being equipped with.
(付記2)
前記動作特定部が、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、付記1に記載の作業分析装置。
(Appendix 2)
The worker's hand obtained from the position of the worker's hand specified by the first position information, the position of the object specified by the second position information, and both positions by the motion specifying unit. The work analyzer according to
(付記3)
前記動作特定部が、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(Appendix 3)
The operation specifying unit further acquires an identifier for identifying the object, collates the acquired identifier with a rule that defines the content of the final operation for each identifier, and specifies the content of the final operation.
The work analyzer according to
(付記4)
前記動作特定部が、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(Appendix 4)
The operation specifying unit further specifies the content of the final operation according to the position of the object at the end of the operation.
The work analyzer according to
(付記5)
前記動作特定部が、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(Appendix 5)
The motion specifying unit further identifies the content of the final motion based on the change in the position of the worker's hand and the change in the position of the object.
The work analyzer according to
(付記6)
前記位置情報取得部が、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記動作特定部が、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(Appendix 6)
The position information acquisition unit further acquires face information that specifies the orientation of the worker's face.
The motion specifying unit is further specified by the orientation of the worker's face specified by the face information, the position of the worker's hand specified by the first position information, and the second position information. The content of the final operation is specified based on the position of the object.
The work analyzer according to
(付記7)
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記動作特定部が、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記2に記載の作業分析装置。
(Appendix 7)
The object has a function of recording a log of operations received from the worker during the work.
The operation specifying unit further acquires the operation log from the object, and specifies the content of the final operation based on the acquired operation log.
The work analyzer according to
(付記8)
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記動作特定部が、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記2に記載の作業分析装置。
(Appendix 8)
The object has a sensor that identifies the state of the object.
The operation specifying unit further acquires sensor data output by the sensor from the object, and uses the acquired sensor data to specify the content of the operation.
The work analyzer according to
(付記9)
予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、作業時間予測部を更に備えている、付記1〜8のいずれかに記載の作業分析装置。
(Appendix 9)
The work time prediction unit is further provided, which predicts the work time required for the work by collating the specified action contents with the relationship between the preset action contents and the time. 8. The work analyzer according to any one of 8.
(付記10)
前記動作特定部が、更に、前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新し、
前記作業時間予測部が、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記9に記載の作業分析装置。
(Appendix 10)
The operation specifying unit further obtains an actually measured value from the start to the end of the operation, and defines the relationship between the content of the operation and the time by using the obtained measured value and the content of the specified operation. Build or update the model to
The work time prediction unit predicts the work time required for the work by applying the content of the specified operation to the model.
The work analyzer according to Appendix 9.
(付記11)
作業者が対象物に対して行なう作業を分析するための方法であって、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を有する、ことを特徴とする作業分析方法。
(Appendix 11)
A method for analyzing the work that a worker does on an object.
(A) A step of acquiring a first position information for specifying the position of the worker's hand and a second position information for specifying the position of the object.
(B) A step of identifying the content of the operation performed by the worker in the work by using the first position information and the second position information.
A work analysis method characterized by having.
(付記12)
前記(b)のステップにおいて、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、
付記11に記載の作業分析方法。
(Appendix 12)
In the step (b), the worker determined from the position of the worker's hand specified by the first position information, the position of the object specified by the second position information, and both positions. Based on the distance between the hand and the object, the content of the motion is specified as a moving motion and a final motion.
The work analysis method according to
(付記13)
前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(Appendix 13)
In the step (b), further, an identifier for identifying the object is acquired, and the acquired identifier is collated with a rule that defines the content of the final operation for each identifier to specify the content of the final operation. To do
The work analysis method according to
(付記14)
前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(Appendix 14)
In the step (b), the content of the final operation is further specified according to the position of the object at the end of the operation.
The work analysis method according to
(付記15)
前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(Appendix 15)
In the step (b), the content of the final operation is further specified based on the change in the position of the worker's hand and the change in the position of the object.
The work analysis method according to
(付記16)
前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(Appendix 16)
In the step (a), the face information for specifying the orientation of the worker's face is further acquired.
In the step (b), further, the orientation of the worker's face specified by the face information, the position of the worker's hand specified by the first position information, and the second position information. The content of the final operation is specified based on the position of the specified object.
The work analysis method according to
(付記17)
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記(b)のステップにおいて、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記12に記載の作業分析方法。
(Appendix 17)
The object has a function of recording a log of operations received from the worker during the work.
In the step (b), the operation log is further acquired from the object, and the content of the final operation is specified based on the acquired operation log.
The work analysis method according to
(付記18)
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記12に記載の作業分析方法。
(Appendix 18)
The object has a sensor that identifies the state of the object.
In the step (b), further, the sensor data output by the sensor is acquired from the object, and the acquired sensor data is used to specify the content of the operation.
The work analysis method according to
(付記19)
(c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを更に有している、
付記11〜18のいずれかに記載の作業分析方法。
(Appendix 19)
(C) Further having a step of predicting the working time required for the work by collating the specified contents of the movement with the relationship between the contents of the preset movement and the time.
The work analysis method according to any one of Appendix 11-18.
(付記20)
(d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを更に有し、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記19に記載の作業分析方法。
(Appendix 20)
(D) Obtain the measured value from the start to the end of the operation, and use the obtained measured value and the specified operation content to construct a model that defines the relationship between the operation content and time. To update, have more steps,
By applying the content of the specified operation to the model in the step (c), the work time required for the work is predicted.
The work analysis method according to Appendix 19.
(付記21)
コンピュータによって、作業者が対象物に対して行なう作業を分析するためのプログラムであって、
前記コンピュータに、
(a)前記作業者の手の位置を特定する第1の位置情報、及び前記対象物の位置を特定する第2の位置情報を取得する、ステップと、
(b)前記第1の位置情報及び前記第2の位置情報を用いて、前記作業において前記作業者が行なった動作の内容を特定する、ステップと、
を実行させる、プログラム。
(Appendix 21)
A program for analyzing the work performed by a worker on an object using a computer.
On the computer
(A) A step of acquiring a first position information for specifying the position of the worker's hand and a second position information for specifying the position of the object.
(B) A step of specifying the content of the operation performed by the worker in the work by using the first position information and the second position information.
A program that runs.
(付記22)
前記(b)のステップにおいて、前記第1の位置情報で特定した前記作業者の手の位置、前記第2の位置情報で特定した前記対象物の位置、及び両方の位置から求めた前記作業者の手と前記対象物との距離に基づいて、前記動作の内容を移動動作と終局動作とに分けて特定する、
付記21に記載のプログラム。
(Appendix 22)
In the step (b), the worker determined from the position of the worker's hand specified by the first position information, the position of the object specified by the second position information, and both positions. Based on the distance between the hand and the object, the content of the motion is specified as a moving motion and a final motion.
The program described in Appendix 21.
(付記23)
前記(b)のステップにおいて、更に、前記対象物を識別する識別子を取得し、取得した前記識別子を、識別子毎に終局動作の内容を規定するルールに照合して、前記終局動作の内容を特定する、
付記22に記載のプログラム。
(Appendix 23)
In the step (b), further, an identifier for identifying the object is acquired, and the acquired identifier is collated with a rule that defines the content of the final operation for each identifier to specify the content of the final operation. To do
The program described in
(付記24)
前記(b)のステップにおいて、更に、前記動作の終了時点での、前記対象物の位置に応じて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
(Appendix 24)
In the step (b), the content of the final operation is further specified according to the position of the object at the end of the operation.
The program described in
(付記25)
前記(b)のステップにおいて、更に、前記作業者の手の位置の変化、及び前記対象物の位置の変化に基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
(Appendix 25)
In the step (b), the content of the final operation is further specified based on the change in the position of the worker's hand and the change in the position of the object.
The program described in
(付記26)
前記(a)のステップにおいて、前記作業者の顔の向きを特定する顔情報を更に取得し、
前記(b)のステップにおいて、更に、前記顔情報によって特定した前記作業者の顔の向きと、前記第1の位置情報で特定した前記作業者の手の位置と、前記第2の位置情報で特定した前記対象物の位置とに基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
(Appendix 26)
In the step (a), the face information for specifying the orientation of the worker's face is further acquired.
In the step (b), further, the orientation of the worker's face specified by the face information, the position of the worker's hand specified by the first position information, and the second position information. The content of the final operation is specified based on the position of the specified object.
The program described in
(付記27)
前記対象物が、前記作業者から作業の際に受けた操作のログを記録する機能を有しており、
前記(b)のステップにおいて、更に、前記対象物から前記操作ログを取得し、取得した前記操作ログに基づいて、前記終局動作の内容を特定する、
付記22に記載のプログラム。
(Appendix 27)
The object has a function of recording a log of operations received from the worker during the work.
In the step (b), the operation log is further acquired from the object, and the content of the final operation is specified based on the acquired operation log.
The program described in
(付記28)
前記対象物が、当該対象物の状態を特定するセンサを有しており、
前記(b)のステップにおいて、更に、前記対象物から、前記センサが出力したセンサデータを取得し、取得した前記センサデータを用いて、前記動作の内容を特定する、
付記22に記載のプログラム。
(Appendix 28)
The object has a sensor that identifies the state of the object.
In the step (b), further, the sensor data output by the sensor is acquired from the object, and the acquired sensor data is used to specify the content of the operation.
The program described in
(付記29)
前記コンピュータに、
(c)予め設定された動作の内容と時間との関係に、特定された前記動作の内容を照合することによって、前記作業にかかる作業時間を予測する、ステップを実行させる、
付記21〜28のいずれかに記載のプログラム。
(Appendix 29)
On the computer
(C) By collating the specified content of the operation with the relationship between the content of the preset operation and the time, the work time required for the work is predicted, and the step is executed.
The program according to any of Appendix 21-28.
(付記30)
前記コンピュータに、
(d)前記動作が開始されてから終了するまでの実測値を求め、求めた前記実測値と特定した動作の内容とを用いて、動作の内容と時間との関係を規定するモデルを構築又は更新する、ステップを実行させ、
前記(c)のステップにおいて、特定した動作の内容を前記モデルに適用することによって、前記作業にかかる作業時間を予測する、
付記29に記載のプログラム。
(Appendix 30)
On the computer
(D) Obtain the measured value from the start to the end of the operation, and use the obtained measured value and the specified operation content to construct a model that defines the relationship between the operation content and time. Update, run steps,
By applying the content of the specified operation to the model in the step (c), the work time required for the work is predicted.
The program described in Appendix 29.
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the structure and details of the present invention.
この出願は、2016年6月23日に出願された日本出願特願2016−124875を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2016-124875 filed on June 23, 2016 and incorporates all of its disclosures herein.
以上のように、本発明における作業分析装置によれば、人手によることなく、作業現場における作業者の動作の分析を行なうことができる。本発明は、工場等の生産現場、機器の操作が必要な現場等に有用である。 As described above, according to the work analyzer of the present invention, it is possible to analyze the movement of the worker at the work site without manual labor. The present invention is useful at production sites such as factories, sites where equipment operation is required, and the like.
10 作業分析装置(実施の形態1)
11 位置情報取得部
12 動作特定部
13 作業時間予測部
14 記憶部
15 モデル
20 デプスセンサ
30 デジタルカメラ
40 端末装置
50 作業者
60 対象物
61 作業台
70 作業分析装置(実施の形態2)
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
10 Work analyzer (Embodiment 1)
11 Position
110
112
Claims (10)
前記作業者を撮影するデプスセンサから出力された深度付の画像データである第1の位置情報と、前記対象物を撮影するデジタルカメラから出力された画像データである第2の位置情報とを取得する、位置情報取得手段と、
前記第1の位置情報から前記作業者の手の位置を特定し、前記第2の位置情報から前記対象物の位置を特定し、特定された前記作業者の手の位置と特定された前記対象物の位置とに基づいて、前記作業において前記作業者が行った動作の内容を特定する、動作特定手段と、
を備える作業分析装置。 A device for analyzing the work performed on an object by a worker.
Acquires the first position information which is the image data with depth output from the depth sensor for photographing the worker and the second position information which is the image data output from the digital camera for photographing the object. , Location information acquisition means,
The position of the worker's hand is specified from the first position information, the position of the object is specified from the second position information, and the specified target is the position of the worker's hand. An operation specifying means for specifying the content of an operation performed by the worker in the work based on the position of an object, and
A work analyzer equipped with.
請求項1に記載の作業分析装置。 The motion specifying means calculates the distance between the worker's hand and the object based on the specified position of the worker's hand and the specified position of the object, and the calculated distance is calculated. The work analyzer according to claim 1, wherein the content of the operation performed by the worker in the work is specified based on the distance.
請求項1又は2に記載の作業分析装置。 The work analyzer according to claim 1 or 2, wherein the motion specifying means identifies the position of the worker's hand from the first position information based on the coordinates and depth of each part of the worker's limbs. ..
請求項1から3のいずれかに記載の作業分析装置。 The work analyzer according to any one of claims 1 to 3, wherein the motion specifying means identifies the position of the object from the second position information based on a marker given to the object.
請求項1から4のいずれかに記載の作業分析装置。 The motion specifying means is any of claims 1 to 4 for specifying the content of the motion performed by the worker in the work based on the change in the position of the worker's hand and the change in the position of the object. Work analyzer described in Crab.
前記作業者を撮影するデプスセンサから出力された深度付の画像データである第1の位置情報と、前記対象物を撮影するデジタルカメラから出力された画像データである第2の位置情報とを取得し、
前記第1の位置情報から前記作業者の手の位置を特定し、前記第2の位置情報から前記対象物の位置を特定し、特定された前記作業者の手の位置と特定された前記対象物の位置とに基づいて、前記作業において前記作業者が行った動作の内容を特定する
作業分析方法。 A method for analyzing the work that a worker does on an object.
Acquires the first position information which is the image data with depth output from the depth sensor for photographing the worker and the second position information which is the image data output from the digital camera for photographing the object. ,
The position of the worker's hand is specified from the first position information, the position of the object is specified from the second position information, and the specified target is the position of the worker's hand. A work analysis method for specifying the content of an operation performed by the worker in the work based on the position of an object.
コンピュータに、
前記作業者を撮影するデプスセンサから出力された深度付の画像データである第1の位置情報と、前記対象物を撮影するデジタルカメラから出力された画像データである第2の位置情報とを取得する、位置情報取得処理と、
前記第1の位置情報から前記作業者の手の位置を特定し、前記第2の位置情報から前記対象物の位置を特定し、特定された前記作業者の手の位置と特定された前記対象物の位置とに基づいて、前記作業において前記作業者が行った動作の内容を特定する、動作特定処理と、
を実行させる命令を含むプログラム。 A program for analyzing the work performed by a worker on an object.
On the computer
Acquires the first position information which is the image data with depth output from the depth sensor for photographing the worker and the second position information which is the image data output from the digital camera for photographing the object. , Location information acquisition processing,
The position of the worker's hand is specified from the first position information, the position of the object is specified from the second position information, and the specified target is the position of the worker's hand. An operation specifying process that specifies the content of an operation performed by the worker in the operation based on the position of an object, and
A program that contains instructions to execute.
請求項7に記載のプログラム。 In the motion specifying process, the distance between the worker's hand and the object is calculated based on the specified position of the worker's hand and the specified position of the object, and the calculated distance is calculated. The program according to claim 7, wherein the content of the operation performed by the worker in the work is specified based on the distance.
請求項7又は8に記載のプログラム。 The program according to claim 7 or 8, wherein the motion specifying process identifies the position of the worker's hand from the first position information based on the coordinates and depth of each part of the worker's limbs.
請求項7から9のいずれかに記載のプログラム。
The program according to any one of claims 7 to 9, wherein the operation specifying process specifies the position of the object from the second position information based on the marker given to the object.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016124875 | 2016-06-23 | ||
JP2016124875 | 2016-06-23 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523706A Division JP6733995B2 (en) | 2016-06-23 | 2017-06-23 | Work analysis device, work analysis method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020177680A true JP2020177680A (en) | 2020-10-29 |
JP7010542B2 JP7010542B2 (en) | 2022-01-26 |
Family
ID=60783904
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523706A Active JP6733995B2 (en) | 2016-06-23 | 2017-06-23 | Work analysis device, work analysis method, and program |
JP2020116175A Active JP7010542B2 (en) | 2016-06-23 | 2020-07-06 | Work analyzer, work analysis method, and program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523706A Active JP6733995B2 (en) | 2016-06-23 | 2017-06-23 | Work analysis device, work analysis method, and program |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6733995B2 (en) |
WO (1) | WO2017222070A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7254546B2 (en) * | 2018-02-27 | 2023-04-10 | キヤノン株式会社 | Information processing device, information processing method and program |
JP7252593B2 (en) * | 2018-11-22 | 2023-04-05 | 株式会社ビー・ナレッジ・デザイン | Information processing system, information processing method and program |
JP7180886B2 (en) | 2020-02-18 | 2022-11-30 | Necプラットフォームズ株式会社 | Work availability measuring device and work availability measuring method |
CN116745808A (en) * | 2021-01-28 | 2023-09-12 | 三菱电机株式会社 | Job estimation device, job estimation method, and job estimation program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002310617A (en) * | 2001-04-18 | 2002-10-23 | Matsushita Electric Works Ltd | Work analysis system and method therefor |
JP2003256756A (en) * | 2002-03-05 | 2003-09-12 | Osaka Gas Co Ltd | Work space diagnosis method and device therefor |
JP2009015809A (en) * | 2007-06-07 | 2009-01-22 | Ricoh Co Ltd | Operation analysis device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4932048B1 (en) * | 2011-07-21 | 2012-05-16 | 内浜化成株式会社 | Work support system |
-
2017
- 2017-06-23 JP JP2018523706A patent/JP6733995B2/en active Active
- 2017-06-23 WO PCT/JP2017/023308 patent/WO2017222070A1/en active Application Filing
-
2020
- 2020-07-06 JP JP2020116175A patent/JP7010542B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002310617A (en) * | 2001-04-18 | 2002-10-23 | Matsushita Electric Works Ltd | Work analysis system and method therefor |
JP2003256756A (en) * | 2002-03-05 | 2003-09-12 | Osaka Gas Co Ltd | Work space diagnosis method and device therefor |
JP2009015809A (en) * | 2007-06-07 | 2009-01-22 | Ricoh Co Ltd | Operation analysis device |
Non-Patent Citations (1)
Title |
---|
井坂英也 他: "情報制御システム", 日立評論, vol. 第98巻第3号, JPN6021028428, 1 March 2016 (2016-03-01), JP, pages 37 - 40, ISSN: 0004554420 * |
Also Published As
Publication number | Publication date |
---|---|
JP6733995B2 (en) | 2020-08-05 |
WO2017222070A1 (en) | 2017-12-28 |
JP7010542B2 (en) | 2022-01-26 |
JPWO2017222070A1 (en) | 2019-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7010542B2 (en) | Work analyzer, work analysis method, and program | |
US11009941B2 (en) | Calibration of measurement units in alignment with a skeleton model to control a computer system | |
CN104936748B (en) | Free-hand robot path teaching | |
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
CN108604393B (en) | Information processing system, information processing device, information processing method, and computer-readable storage medium | |
US10976863B1 (en) | Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user | |
CN104156068B (en) | Virtual maintenance interaction operation method based on virtual hand interaction feature layer model | |
CN110114194B (en) | System and method for determining a grip position for gripping an industrial object with two hands | |
KR101631011B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
US11175729B2 (en) | Orientation determination based on both images and inertial measurement units | |
JP2011110620A (en) | Method of controlling action of robot, and robot system | |
JP6629556B2 (en) | Process composition support device and process composition support method | |
US11079860B2 (en) | Kinematic chain motion predictions using results from multiple approaches combined via an artificial neural network | |
US11054923B2 (en) | Automatic switching between different modes of tracking user motions to control computer applications | |
US10296096B2 (en) | Operation recognition device and operation recognition method | |
JP7114885B2 (en) | Worksite monitoring devices and programs | |
US20200125839A1 (en) | Method and system for automatic repetitive step and cycle detection for manual assembly line operations | |
US20160174897A1 (en) | Sensor Embedded Wearable Technology Glove | |
JP6075888B2 (en) | Image processing method, robot control method | |
CN110456902A (en) | It is mobile to control the skeleton pattern in computer system to track user | |
KR20160076488A (en) | Apparatus and method of measuring the probability of muscular skeletal disease | |
WO2021195916A1 (en) | Dynamic hand simulation method, apparatus and system | |
Tran et al. | Assessing human worker performance by pattern mining of Kinect sensor skeleton data | |
JP7376318B2 (en) | annotation device | |
KR20200032990A (en) | Method for modelling virtual hand on real hand and apparatus therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7010542 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |