JP2017068428A - Workload evaluation device, workload evaluation method - Google Patents

Workload evaluation device, workload evaluation method Download PDF

Info

Publication number
JP2017068428A
JP2017068428A JP2015191293A JP2015191293A JP2017068428A JP 2017068428 A JP2017068428 A JP 2017068428A JP 2015191293 A JP2015191293 A JP 2015191293A JP 2015191293 A JP2015191293 A JP 2015191293A JP 2017068428 A JP2017068428 A JP 2017068428A
Authority
JP
Japan
Prior art keywords
worker
information
work
unit
work load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015191293A
Other languages
Japanese (ja)
Inventor
鵬 趙
Ho Cho
鵬 趙
振一郎 沖野
Shinichiro Okino
振一郎 沖野
建栄 沈
Kenei Chin
建栄 沈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2015191293A priority Critical patent/JP2017068428A/en
Publication of JP2017068428A publication Critical patent/JP2017068428A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • General Factory Administration (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable factory worker's workload to be recognized, not by a sensory evaluation, but by an objective value.SOLUTION: A workload evaluation device obtains information on body conditions of a worker at each point of time, in a state where steps to be measured are modelled in a simplified way by: detection points corresponding to s plurality of body sites of the worker who performs the steps to be measured; and lines connecting the detection points. The workload evaluation device determines the worker's postures or actions by using changes in the obtained detection points or lines, and then calculates a workload value on the basis of the determined worker's postures or actions. Based on a calculation result of the workload value, the workload evaluation device generates workload evaluation information in the steps to be measured to perform controls to be presented.SELECTED DRAWING: Figure 7

Description

本発明は作業負担評価装置、作業負担評価方法に関し、製造工場等における各工程や作業についての作業負担の評価を行う技術に関する。   The present invention relates to a work load evaluation apparatus and a work load evaluation method, and relates to a technique for evaluating a work load for each process or work in a manufacturing factory or the like.

特開2001−101422号公報JP 2001-101422 A 特開2003−10157号公報JP 2003-10157 A

特許文献1には、作業中の人体及び作業対象物の状態と人体の負担を関連づけ、人体及び作業対象物の状況をモニタリングするとともに作業改善に有効なデータを提供できる技術が開示されている。
特許文献2には、立位姿勢作業における腰部、足部の疲労度合を定量化し、疲労が最も少なくなる作業形態を作成できる技術が開示されている。
Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique that associates the state of a human body and work object being worked with the burden on the human body, monitors the state of the human body and work object, and provides data effective for work improvement.
Patent Document 2 discloses a technique that can quantify the degree of fatigue of the waist and feet in a standing posture work and create a work form that minimizes fatigue.

自動車製造工程には作業者による部品の組み立て作業が多い。この作業を長時間継続することで、作業負担が増加し、時間と共に作業効率を低下させるケースが多くなっている。
この作業負担は、作業者の感覚的な声として取り上げられることが通常である。例えば作業者の感覚として「この第1工程より、あの第2工程の方が疲れる」などといった主観的なものである。また、作業者の得手不得手の影響によって工程に対する感想や疲労具合も異なる。
実際に生産現場では、従来の作業負担は班長等ベテランが目視判断する。しかし客観的な評価ではなく、主観的な判断で不公平を生じ、作業者のモチベーション低下が生ずることがある。
Many parts are assembled by workers in the automobile manufacturing process. By continuing this work for a long time, the work burden increases, and there are many cases where work efficiency decreases with time.
This work burden is usually taken up as an operator's sensory voice. For example, the operator's feeling is subjective such as “the second step is more tired than the first step”. In addition, the impression and fatigue of the process differ depending on the weakness of the operator.
Actually, at the production site, the veteran such as the team leader visually judges the conventional work burden. However, unfairness may occur due to subjective judgments rather than objective evaluations, which may reduce worker motivation.

従って多数の工程や多数の作業を含む製造ラインを設計することや、また各工程への人員配置管理などのためには、このような主観的な感想ではなく、工程毎の作業負荷を客観的かつ定量的に評価することが求められている。そして客観的な評価結果に基づくことで、負担を低減できるライン設計、ライン改善や人員配置を作り上げることが望まれている。
そこで本発明は、ライン設計やラインマネジメントに有用な情報を得ることのできるシステムを提供することを目的とする。
Therefore, to design a production line that includes a large number of processes and a large number of operations, and to manage the personnel assignment to each process, the objective workload is not the subjective impression but the objective of each process. And quantitative evaluation is required. Based on the objective evaluation results, it is desired to create a line design, line improvement and personnel arrangement that can reduce the burden.
Therefore, an object of the present invention is to provide a system that can obtain information useful for line design and line management.

本発明に係る作業負担評価装置は、各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得する検出情報取得部と、前記検出情報取得部で得た情報における前記検出点又は線の変化により作業者の姿勢又は動作を判定する動作判定部と、前記動作判定部で判定した作業者の姿勢又は動作に基づいて作業負担値を算出する負担算出部と、前記負担算出部の算出結果に基づいて、測定対象の工程における作業負担評価情報を提示する制御を行う出力制御部とを備える。
即ち作業者の身体状態を簡易モデルにより検出し、各身体部位、例えば関節部などについての検出点や線の位置や変化(移動ベクトル)により、工程作業過程の姿勢や動作を検出する。そして作業者の姿勢又は動作に基づいて作業負担値を算出する。この作業負担値に基づいて、工程の作業負担評価情報を生成して提示する。
The work load evaluation device according to the present invention provides a worker with a simple model using detection points corresponding to a plurality of body parts of an operator who executes a measurement target process and lines connecting the detection points at each time point. A detection information acquisition unit that acquires information on the physical condition of the user, a motion determination unit that determines a posture or motion of an operator based on a change in the detection point or line in the information obtained by the detection information acquisition unit, and the motion determination unit A load calculation unit that calculates a work load value based on the posture or motion of the worker determined in step 1, and an output that performs control to present work load evaluation information in the measurement target process based on the calculation result of the load calculation unit And a control unit.
In other words, the body state of the worker is detected by a simple model, and the posture and motion of the process work process are detected from the detection points and line positions and changes (movement vectors) of each body part, for example, a joint. Then, the work burden value is calculated based on the posture or motion of the worker. Based on the work load value, the work load evaluation information of the process is generated and presented.

上記の作業負担評価装置においては、前記検出情報取得部は、作業者を撮像した画像データの解析結果から、複数の前記検出点の三次元位置を取得することが考えられる。
作業者を撮像して撮像画像を解析すれば、その作業者の検出点の三次元位置を特定することができる。
In the work load evaluation apparatus, the detection information acquisition unit may acquire the three-dimensional positions of the plurality of detection points from the analysis result of the image data obtained by imaging the worker.
If the worker is imaged and the captured image is analyzed, the three-dimensional position of the detection point of the worker can be specified.

上記の作業負担評価装置においては、前記出力制御部は、作業負担評価情報として、設定した対象期間における複数の工程毎、又は工程内の複数の作業毎について、作業負担値を表示する制御を行うことが考えられる。
例えば8時間など設定した対象期間において、複数の工程、又は工程内の複数の作業について作業負担値を例えば一覧等により提示する。
In the work load evaluation apparatus, the output control unit performs control to display work load values as work load evaluation information for each of a plurality of processes in a set target period or for each of a plurality of works in a process. It is possible.
For example, in a set target period such as 8 hours, work burden values are presented in a list or the like for a plurality of processes or a plurality of operations in the processes.

上記の作業負担評価装置においては、前記出力制御部は、作業負担評価情報として、1つの工程について、作業者毎の負担値又は工程所要時間を表示する制御を行うことが考えられる。
同じ工程であっても、作業者により、姿勢や動きが異なることで、作業負担値や工程1サイクルの所要時間は異なる。そこで、これらを作業者毎で比較できるように提示する。
In the work load evaluation apparatus, the output control unit may perform control to display a load value or process time for each worker for one process as work load evaluation information.
Even in the same process, the work load value and the time required for one cycle of the process differ depending on the worker due to different postures and movements. Therefore, these are presented so that they can be compared for each worker.

本発明に係る作業負担評価方法は、情報処理装置が、各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得し、取得した情報における前記検出点又は線の変化により作業者の姿勢又は動作を判定し、判定した作業者の姿勢又は動作に基づいて作業負担値を算出し、前記作業負担値の算出結果に基づいて、測定対象の工程における作業負担評価情報を提示する制御を行う。
これにより情報処理装置を用いて作業負担評価装置を実現できる。
In the work load evaluation method according to the present invention, the information processing apparatus is simplified at each time point using detection points corresponding to a plurality of body parts of the worker who executes the measurement target process and lines connecting the detection points. Information on the physical state of the worker is obtained, the posture or action of the worker is determined based on the change in the detection point or line in the obtained information, and the work burden value is determined based on the determined posture or action of the worker. Then, based on the calculation result of the work load value, control for presenting work load evaluation information in the process to be measured is performed.
Thereby, a work burden evaluation apparatus can be realized using the information processing apparatus.

本発明によれば、工程や工程内の作業について、客観的な値としての負担値が提供されるため、製造ラインの設計技術者、ライン管理者等にとって、ライン設計やラインマネジメントのための有用な情報を得ることができる。   According to the present invention, since a burden value as an objective value is provided for a process and an operation in the process, it is useful for a design engineer, a line manager, etc. for a production line for line design and line management. Information can be obtained.

本発明の実施の形態の作業負担評価システムのブロック図である。It is a block diagram of the work burden evaluation system of an embodiment of the invention. 実施の形態の作業者の身体状態の簡易モデルの説明図である。It is explanatory drawing of the simple model of the worker's physical condition of embodiment. 実施の形態の簡易モデルによる姿勢・動作検出の説明図である。It is explanatory drawing of the attitude | position and motion detection by the simple model of embodiment. 実施の形態で検出する各検出点の三次元位置情報及び工程の説明図である。It is explanatory drawing of the three-dimensional position information and process of each detection point detected in embodiment. 実施の形態で求める各工程についての算出値の説明図である。It is explanatory drawing of the calculated value about each process calculated | required by embodiment. 実施の形態の演算部の処理のフローチャートである。It is a flowchart of the process of the calculating part of embodiment. 実施の形態の作業負担評価情報の説明図である。It is explanatory drawing of the work burden evaluation information of embodiment. 実施の形態の作業負担評価情報の説明図である。It is explanatory drawing of the work burden evaluation information of embodiment.

<システム構成>
以下、作業負担評価装置の実施の形態を説明する。なお図1に示す演算部1が、本発明の作業負担評価装置の実施の形態となる。図1は演算部1を含む作業負担評価システムの例を示している。
<System configuration>
Hereinafter, an embodiment of the work burden evaluation apparatus will be described. 1 is an embodiment of the work load evaluation apparatus of the present invention. FIG. 1 shows an example of a work load evaluation system including a calculation unit 1.

図1に示すように作業負担評価システムは、演算部1、データベース部2、記憶部3、表示部4、通信部5、印刷部6、撮像部10、駆動部11、センサ20、受信部21、検出値生成部22を有している。   As shown in FIG. 1, the workload evaluation system includes a calculation unit 1, a database unit 2, a storage unit 3, a display unit 4, a communication unit 5, a printing unit 6, an imaging unit 10, a driving unit 11, a sensor 20, and a receiving unit 21. The detection value generation unit 22 is included.

撮像部10は、製造ラインに設置されたビデオカメラであり、工程作業を行う作業者を撮像する。図では1つの撮像部10のみ示しているが、通常は、製造ラインの各工程においてそれぞれ作業者を撮像できるように複数配置されていることが想定される。
これら1又は複数の撮像部10は、動画として撮像した各フレームの撮像画像データを演算部1に供給する。
なお、撮像部10はステレオ撮像を行うものとされ、ステレオ撮像された撮像画像信号は、画像解析において三角測量の原理を用いて奥行き方向の情報も得ることができる。
駆動部11は、撮像部10の撮像方向を変位させる装置で、例えばパン・チルト機構及びその駆動モータを有する。
The imaging unit 10 is a video camera installed on a production line, and images a worker who performs a process operation. Although only one imaging unit 10 is shown in the figure, it is usually assumed that a plurality of the imaging units 10 are arranged so as to be able to capture images of workers in each process of the production line.
The one or a plurality of imaging units 10 supply the calculation unit 1 with captured image data of each frame captured as a moving image.
Note that the imaging unit 10 performs stereo imaging, and the captured image signal obtained by stereo imaging can also obtain information in the depth direction by using the principle of triangulation in image analysis.
The drive unit 11 is a device that displaces the imaging direction of the imaging unit 10 and includes, for example, a pan / tilt mechanism and its drive motor.

センサ20は、例えば作業者が身体各所に装着するセンサや、作業位置に設置され、作業者の動きを検出するセンサ等が想定される。具体的には角速度センサ、加速度センサ、赤外線センサ、位置センサなどである。
各センサ20の検出信号は、有線又は無線で受信部21に供給され、受信部で受信した検出信号は、検出値生成部22で検出値にデコードされて演算部1に供給される。
The sensor 20 is assumed to be, for example, a sensor that the worker wears at various places on the body, a sensor that is installed at the work position and detects the movement of the worker, and the like. Specifically, an angular velocity sensor, an acceleration sensor, an infrared sensor, a position sensor, and the like.
The detection signal of each sensor 20 is supplied to the reception unit 21 by wire or wirelessly, and the detection signal received by the reception unit is decoded into a detection value by the detection value generation unit 22 and supplied to the calculation unit 1.

なお、この図1のシステムでは撮像部10による作業者の撮像画像信号や、センサ20による検出値は、いずれも作業者の姿勢や動作を検出するための情報である。このため少なくとも撮像部10、センサ20のいずれか一方が用いられればよい。もちろん互いの情報を補足又は補正するために、両方が用いられてもよい。   In the system shown in FIG. 1, the imaged image signal of the worker by the imaging unit 10 and the detection value by the sensor 20 are information for detecting the posture and motion of the worker. For this reason, at least one of the imaging unit 10 and the sensor 20 may be used. Of course, both may be used to supplement or correct each other's information.

演算部1は例えばコンピュータ装置により構成される。即ち演算部1は、CPU(Central Processing Unit)、ROM( Read Only Memory)、RAM( Random Access Memory )、インターフェース部等を備えており、CPUはROMに記憶されているプログラムに従って各種の処理を実行する。RAMはCPUが各種の処理を実行する上において必要なデータなどが適宜記憶される。
なお演算部1としての情報処理装置は、1つのコンピュータ装置で実現されてもよいし、複数のコンピュータ装置が連携して実現されてもよい。
この演算部1は、本システムのための処理機能として、画像解析部1a、カメラ制御部1b、検出情報取得部1c、動作判定部1d、負担算出部1e、出力制御部1fが設けられる。これらの各部はソフトウエアにより実行される処理機能を仮想的にブロック化して示したものである。
The computing unit 1 is constituted by a computer device, for example. In other words, the calculation unit 1 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an interface unit, and the like, and the CPU executes various processes according to programs stored in the ROM. To do. The RAM appropriately stores data necessary for the CPU to execute various processes.
Note that the information processing apparatus as the computing unit 1 may be realized by a single computer apparatus, or may be realized in cooperation with a plurality of computer apparatuses.
The calculation unit 1 includes an image analysis unit 1a, a camera control unit 1b, a detection information acquisition unit 1c, an operation determination unit 1d, a load calculation unit 1e, and an output control unit 1f as processing functions for the system. Each of these units is a block diagram of processing functions executed by software.

画像解析部1aは撮像部20から供給される撮像画像データとしての各フレームデータを解析する処理を行う。
本例の場合、作業者を主に関節等の検出点と、検出点を結ぶ線の情報で簡易化した簡易モデルとして検出する。
図2に簡易モデルの例を示す。人体の各所について検出点Pを設定する。図では検出点P0〜P20を一例として示している。例えば腰部、頭部、首、手足の関節部分など、主に姿勢に応じて変位する箇所を検出点Pとする。
各検出点Pは、それぞれ特定の他の検出点Pと線で結ばれる。
例えば検出点P1は検出点P2,P3,P6とそれぞれ線で結ばれている。
検出点P2は検出点P1とのみ線で結ばれている。
検出点P3は検出点P1、P4と線で結ばれている。
これらのように、各検出点P1〜P20は、それぞれ線で結ばれている検出点が規定されていることで、点と線により人体を表現する簡易モデルが形成される。
The image analysis unit 1a performs a process of analyzing each frame data as captured image data supplied from the imaging unit 20.
In the case of this example, the worker is mainly detected as a simplified model that is simplified based on information about detection points such as joints and lines connecting the detection points.
FIG. 2 shows an example of a simple model. Detection points P are set for various parts of the human body. In the figure, detection points P0 to P20 are shown as an example. For example, a detection point P is a place that is displaced mainly according to the posture, such as a waist, a head, a neck, and joint portions of limbs.
Each detection point P is connected to another specific detection point P by a line.
For example, the detection point P1 is connected to the detection points P2, P3, and P6 by lines.
The detection point P2 is connected to the detection point P1 only by a line.
The detection point P3 is connected to the detection points P1 and P4 by a line.
As described above, each of the detection points P1 to P20 defines a detection point that is connected by a line, thereby forming a simple model that represents the human body by the point and the line.

図3は作業者の姿勢を簡易モデルで表した例である。図3AはX−Y平面、図3BはZ−Y平面、図3CはX−Z平面で、各検出点の位置を示し、また各検出点間の線を示している。つまり、各検出点P0〜P20について三次元座標位置を検出することで、その時点の作業者の姿勢を検出することができる。   FIG. 3 shows an example in which the posture of the worker is represented by a simple model. 3A is an XY plane, FIG. 3B is a ZY plane, and FIG. 3C is an XZ plane, showing the position of each detection point, and showing a line between the detection points. That is, by detecting the three-dimensional coordinate position for each of the detection points P0 to P20, the posture of the worker at that time can be detected.

図1の画像解析部1aは、このような簡易モデルで作業者の姿勢を検出するために、作業者の画像から、各検出点P0〜P20の位置(x,y,zの三次元座標値)を検出する。
なお、撮像画像データから作業者の身体を的確に検出するために作業服(ユニフォーム)や帽子の色を予め登録しておき、工場設備や製品の色と明確に区別できるようにすることが好適である。
或いはパターンマッチングにより、人体構成部分における各検出点Pを判定することも考えられる。
さらに作業者がセンサ20を手首、足首等に装着して、それらの位置情報が検出できるようにした場合、撮像画像データから抽出した検出点Pの三次元位置情報を、センサ20による位置情報で補正するようなことも考えられる。
In order to detect the posture of the worker using such a simple model, the image analysis unit 1a in FIG. 1 detects the positions (x, y, and z three-dimensional coordinate values of the detection points P0 to P20 from the worker's image. ) Is detected.
In order to accurately detect the worker's body from the captured image data, it is preferable to register the colors of the work clothes (uniforms) and hats in advance so that they can be clearly distinguished from the colors of the factory equipment and products. It is.
Alternatively, it may be possible to determine each detection point P in the human body constituent part by pattern matching.
Further, when the operator attaches the sensor 20 to the wrist, ankle or the like so that the position information thereof can be detected, the three-dimensional position information of the detection point P extracted from the captured image data is used as the position information by the sensor 20. It is possible to correct it.

カメラ制御部1bは、駆動部11を制御して、撮像部10の撮像方向を変位させる。例えば工程作業中の作業者は、その作業のために位置を移動する。カメラ制御部1bは、このような作業者の移動によって撮像画像データから作業者がフレームアウトしないように、撮像部10の追従動作が実行されるように制御する。
具体的には画像解析部1aによって認識された作業者の位置の移動(各フレームでの作業者位置の変化)に応じて、駆動部11を駆動させる。
The camera control unit 1b controls the driving unit 11 to displace the imaging direction of the imaging unit 10. For example, a worker who is working on a process moves the position for the work. The camera control unit 1b performs control so that the follow-up operation of the imaging unit 10 is performed so that the worker does not frame out of the captured image data due to such movement of the worker.
Specifically, the drive unit 11 is driven in accordance with the movement of the worker position recognized by the image analysis unit 1a (change in worker position in each frame).

検出情報取得部1cは、各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点Pと該検出点Pを結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得する。即ち画像解析部1aの検出結果や、或いはセンサ20による検出値を取得し、作業者の情報として管理する。具体的には1回の測定タイミング毎に、各検出点P0〜P20の三次元位置情報を取得し、検出結果として保存する。   At each time point, the detection information acquisition unit 1c is simply modeled with lines connecting the detection points P corresponding to a plurality of body parts of the worker who executes the process to be measured and the detection points P. Get physical condition information. That is, the detection result of the image analysis unit 1a or the detection value by the sensor 20 is acquired and managed as worker information. Specifically, three-dimensional position information of each detection point P0 to P20 is acquired at each measurement timing and stored as a detection result.

図4Aは検出情報取得部1cが取得して保存する作業者の情報の例を示している。
例えば画像解析部1aが、撮像画像データの所定のフレーム間隔となるサンプルタイミングt(t0、t1、t2・・・)で各検出点P0〜P(n)(図2の例ではn=20)の三次元位置情報を検出するとする。検出情報取得部1cは、サンプルタイミングt毎に、検出点P0〜P(n)の三次元座標値を取得し、これを記憶する。この図4Aのような情報は、例えば1つの工程毎、作業者毎に取得し、記憶管理していく。
FIG. 4A shows an example of worker information acquired and stored by the detection information acquisition unit 1c.
For example, the image analysis unit 1a detects each of the detection points P0 to P (n) (n = 20 in the example of FIG. 2) at a sample timing t (t0, t1, t2,...) That is a predetermined frame interval of the captured image data. Suppose that three-dimensional position information is detected. The detection information acquisition unit 1c acquires the three-dimensional coordinate values of the detection points P0 to P (n) for each sample timing t and stores them. The information as shown in FIG. 4A is acquired for each process, for each worker, and stored and managed.

例えば製造ラインにおいて、工程A、B、C・・・・があり、一人の作業者が1つの工程を担当するとする。また各工程には、それぞれ複数の作業があるとする。例えば工程Aには、作業a1〜a5があるとする。具体的な例としては、例えば1つの工程は、車体へタイヤの取り付け工程であって、各作業とは、タイヤのセット、装着、確認などの個々の作業となる。
いま、工程Aが図4Bのように5つの作業a1〜a5があるとすると、担当する作業者WM1は、ライン上の車体に対して、この工程A(作業a1〜a5)を繰り返し行うことになる。
図4Aのような各検出点P0〜P20の三次元位置情報は、サンプルタイミングt毎に取得・記憶していくことで、繰り返し行われる工程における検出点P0〜P20の三次元位置情報が時系列上で収集されていくことになる。
なお、図4Bではサンプルタイミングt0〜t99、t100〜t199で、それぞれ工程Aの1回が完了するものとして示しているが、これは説明上の一例に過ぎない。例えば同じ工程を同じ作業者が行う場合であっても、毎回同じ時間で完了するとは限らないためである。工程A内の各作業a1〜a5としての情報が、どのサンプルタイミングtの情報であるかは、各三次元座標値によって判定される姿勢や姿勢の変化、動きの変化等により判定できる。
For example, in the production line, there are processes A, B, C,..., And one worker is in charge of one process. Each process has a plurality of operations. For example, it is assumed that the process A includes operations a1 to a5. As a specific example, for example, one process is a process of attaching a tire to a vehicle body, and each operation is an individual operation such as setting, mounting, and confirmation of a tire.
Assuming that the process A has five operations a1 to a5 as shown in FIG. 4B, the worker WM1 in charge repeats the process A (operations a1 to a5) for the vehicle body on the line. Become.
The three-dimensional position information of the detection points P0 to P20 as shown in FIG. 4A is acquired and stored at each sample timing t, so that the three-dimensional position information of the detection points P0 to P20 in the repeated process is time-series. It will be collected above.
In FIG. 4B, one time of the process A is completed at the sample timings t0 to t99 and t100 to t199, but this is only an example for explanation. For example, even when the same worker performs the same process, it is not always completed in the same time every time. Which sample timing t the information as each operation a1 to a5 in the process A is can be determined by the posture determined by each three-dimensional coordinate value, a change in posture, a change in motion, or the like.

動作判定部1dは、検出情報取得部1cで得た身体状態における検出点P又は線の変化により作業者の姿勢又は動作を判定する。検出点P又は線の変化は、図4Aのように取得した検出点P0〜P(n)の三次元座標値の変化で表される。図4Aでは検出点Pの情報を記憶するとしたが、線の情報は、各検出点Pを結ぶため、各検出点Pから把握することができる。そして動作判定部1dは、図4Aの情報の時系列上の変化により、作業者の姿勢や動作を判定する。   The motion determination unit 1d determines the posture or motion of the worker based on a change in the detection point P or line in the body state obtained by the detection information acquisition unit 1c. The change of the detection point P or line is represented by the change of the three-dimensional coordinate value of the detection points P0 to P (n) acquired as shown in FIG. 4A. In FIG. 4A, the information on the detection points P is stored. However, since the information on the lines connects the detection points P, the information on the lines can be grasped from the detection points P. Then, the motion determination unit 1d determines the posture and motion of the worker based on the time series change of the information in FIG. 4A.

負担算出部1eは、動作判定部1dで判定した作業者の姿勢又は動作に基づいて作業負担値を算出する。
人の姿勢や動作に対しては、人間工学的にそれぞれ負担値を予め算出しておくことができる。例えば両手を上げている姿勢の負担、しゃがんだ姿勢の負担、腰をかがめた姿勢、或いは横への移動動作、体をひねる動作などについての負担値は、予め計算できる。また各姿勢や動作の継続時間によって負担も異なるが、その継続時間に応じた負担の値も予め設定できる。例えば両手を上げる姿勢は、一瞬であればさほど負担はないが、継続して上げている状態はかなり負担が大きくなる。
これら姿勢や動作、さらにはその時間に応じた負担値は、予め人間工学に沿って算出し、体系化してデータベース部2に登録しておく。
そして負担算出部1eは、動作判定部1dで判定した工程や各作業における作業者の一連の動作、姿勢や、その継続時間に基づいて、工程或いは工程内の各作業についての作業負担値を算出する。例えば検出点Pまたは線の移動量から判定された動作や姿勢やその継続時間等についての負担値を求め、これらを加算、或いは重み付け加算等を行い、作業や工程における一連の動作(姿勢)としての作業負担値を算出する。具体的には、判定された作業中の姿勢、腕等の関節の角度、移動量等について個々に負担値をあてはめ、これらを用いて1つの作業や工程の作業負担値を算出する。
また例えば作業終了時まで通して作業負担値を算出し、疲労のピークや、作業延長時の影響度(疲労予測)を求めることもできる。
The load calculation unit 1e calculates a work load value based on the posture or motion of the worker determined by the motion determination unit 1d.
The burden value can be calculated in advance for human postures and movements ergonomically. For example, the burden values for the burden of the posture in which both hands are raised, the burden of the squatting posture, the posture of bending down, the lateral movement operation, the motion of twisting the body, and the like can be calculated in advance. Although the burden varies depending on the duration of each posture and operation, a burden value corresponding to the duration can be set in advance. For example, the posture of raising both hands is not so burdened for a moment, but it is considerably burdensome when it is continuously raised.
These postures and movements, and the burden values according to the time are calculated in advance according to ergonomics, systematized, and registered in the database unit 2.
And the burden calculation part 1e calculates the work burden value about each operation | work in a process or a process based on a series of operation | movement and attitude | positions of an operator in the process determined in the operation | movement determination part 1d and each work, and its duration. To do. For example, a burden value for the motion or posture determined from the detection point P or the amount of movement of the line, its duration, etc. is obtained, and these are added or weighted and added to obtain a series of motions (postures) in the work or process. The work burden value is calculated. Specifically, burden values are individually assigned to the determined posture during work, the angle of a joint such as an arm, and a movement amount, and the work burden value of one work or process is calculated using these.
Further, for example, it is possible to calculate the work burden value through to the end of the work, and to obtain the peak of fatigue and the influence degree (fatigue prediction) when the work is extended.

例えば負担算出部1eは図5のように工程や作業に関しての算出値を記憶する。
なお算出値は、多様に想定される。例えば工程Aについての算出値MA1は、工程Aにおける作業負荷の総合負担値、MA2は作業者の肩に対する負担値、図示しないMA3は脚部に対する負担値、などとしてもよい。
また各作業に対しての算出値(例えば作業a1についての算出値Ma1−1、Ma2−2・・・)も、総合負担値、各部の負担値などとしてもよい。
工程や作業についての負担値(作業負荷)の計算例を示す。
For example, the burden calculation unit 1e stores calculated values related to processes and operations as shown in FIG.
Various calculated values are assumed. For example, the calculated value MA1 for the process A may be the total burden value of the workload in the process A, MA2 may be the burden value for the shoulder of the worker, MA3 (not shown) may be the burden value for the legs, and the like.
Also, the calculated values for each work (for example, the calculated values Ma1-1, Ma2-2,... For the work a1) may be the total burden value, the burden value of each part, and the like.
The calculation example of the burden value (work load) about a process or a work is shown.

Figure 2017068428
Figure 2017068428

ここで、Disは各関節1フレームでの移動負荷、Kdisは疲労度に対する各関節移動量の重み、Posは姿勢負荷、Kposは疲労度に対する各関節角度の重みである。
Disは(数2)で求められる。
Here, Dis is a movement load in each joint 1 frame, Kdis is a weight of each joint movement amount with respect to the fatigue degree, Pos is a posture load, and Kpos is a weight of each joint angle with respect to the fatigue degree.
Dis is obtained by (Expression 2).

Figure 2017068428
Figure 2017068428

ここで、X1、Y1、Z1は各関節の座標、X0、Y0、Z0は各関節1フレーム前の座標である。
Posは例えば(数3)で求められる。
Here, X1, Y1, and Z1 are the coordinates of each joint, and X0, Y0, and Z0 are the coordinates of one frame before each joint.
Pos is obtained by, for example, (Equation 3).

Figure 2017068428
Figure 2017068428

ここで、Uは各関節上方の体の重量、Kuは作業負荷に対する各関節上方の体重量の重み、Fは工程毎に設定される外力の合計、Kfは作業負荷に対する各関節上方の外力の重み、θは各関節の計算角度、Pは人間の姿勢つらさを示した定数である。
なお、以上の負担値(作業負荷)の計算例は一例に過ぎない。
Where U is the weight of the body above each joint, Ku is the weight of the body weight above each joint with respect to the work load, F is the total external force set for each process, and Kf is the external force above each joint with respect to the work load. Weight, θ is a calculated angle of each joint, and P is a constant indicating the posture of a human being.
The above calculation example of the burden value (work load) is only an example.

出力制御部1fは、負担算出部1eの算出結果に基づいて、測定対象の工程における作業負担評価情報を提示する制御を行う。即ち作業負担評価情報を生成し、作業負担評価情報を記憶部3に記憶させたり、表示部4で表示させたり、通信部5により外部装置に送信したり、印刷部6により印刷出力させたりする制御処理を行う。   The output control unit 1 f performs control to present work load evaluation information in the process to be measured based on the calculation result of the load calculation unit 1 e. That is, work load evaluation information is generated, and the work load evaluation information is stored in the storage unit 3, displayed on the display unit 4, transmitted to an external device through the communication unit 5, or printed out by the printing unit 6. Perform control processing.

データベース部2は、例えば上述のように姿勢や動作毎の負担値などが記憶されており、演算部1は作業負担値の算出のためなどに逐次参照できるようにされている。
記憶部3は、図4Aのような検出情報や、図5のような算出値の情報が記憶される。また演算部1が上記各機能を実行するためのプログラムが記憶される。
表示部4は、演算部1に接続された表示デバイスとされ、各種のユーザインターフェース画像や、作業負担評価情報を示す画像の表示を行う。
通信部5は、有線、無線で外部機器との通信を行ったり、LAN(Local Area Network)等の通信経路を介した通信を行う。演算部1は通信部5により例えば作業負担評価情報を他の情報処理装置等に提供できる。
印刷部6は、演算部1に接続されたプリンター等であり、演算部1の指示に応じて印刷動作を行う。
The database unit 2 stores, for example, a burden value for each posture and motion as described above, and the calculation unit 1 can be referred to sequentially for calculation of a work burden value.
The storage unit 3 stores detection information as shown in FIG. 4A and information of calculated values as shown in FIG. In addition, a program for the calculation unit 1 to execute the above functions is stored.
The display unit 4 is a display device connected to the calculation unit 1 and displays various user interface images and images indicating work load evaluation information.
The communication unit 5 performs communication with an external device by wire or wireless, or performs communication via a communication path such as a LAN (Local Area Network). The computing unit 1 can provide, for example, work load evaluation information to another information processing apparatus or the like through the communication unit 5.
The printing unit 6 is a printer or the like connected to the calculation unit 1 and performs a printing operation in accordance with an instruction from the calculation unit 1.

<処理手順>
図6を参照しながら演算部1の処理手順を説明する。演算部1は図1に示した各機能(1a〜1f)により、以下の処理を実行する。
なお図6では、一人の作業者、工程を対象として作業負荷の測定を行う処理を示している。演算部1は、このような処理を各工程に対応して行う。もちろん複数のコンピュータ装置がそれぞれ並行して当該処理を行うものでもよい。
<Processing procedure>
The processing procedure of the calculation unit 1 will be described with reference to FIG. The calculation unit 1 executes the following processing using the functions (1a to 1f) shown in FIG.
FIG. 6 shows a process for measuring a workload for one worker and process. The calculation unit 1 performs such processing corresponding to each process. Of course, a plurality of computer devices may perform the processing in parallel.

演算部1はステップS101で基本情報の読み込みを行う。例えば工程番号、工程内の作業の情報、作業者の情報、計測における各種パラメータ設定等を、オペレータによる操作もしくは自動設定に応じて読み込む。   The calculation unit 1 reads basic information in step S101. For example, the process number, information on the work in the process, information on the worker, various parameter settings in the measurement, and the like are read according to the operation or automatic setting by the operator.

ステップS102で演算部1は撮像及び/又はセンシングを開始する。即ち撮像部10からの撮像画像データの取り込みを開始する。またセンサ20の検出値の取り込みも開始する。
ステップS103で演算部1は、作業者認識を行う。即ち取り込みを開始した撮像画像データの画像解析により、作業者を認識する。例えば特定の色の作業服を着た人物を作業者として認識し、その作業者の身体位置を把握する。
ステップS104で演算部1は、作業者追尾を開始する。即ち画像上で認識した作業者がフレームアウトしないように駆動部11を制御する追尾制御を開始する。
In step S102, the calculation unit 1 starts imaging and / or sensing. That is, the capturing of captured image data from the imaging unit 10 is started. Also, the capturing of the detection value of the sensor 20 is started.
In step S103, the calculation unit 1 performs worker recognition. That is, the operator is recognized by image analysis of the captured image data that has been started. For example, a person wearing work clothes of a specific color is recognized as a worker, and the body position of the worker is grasped.
In step S104, the calculation unit 1 starts worker tracking. That is, the tracking control for controlling the drive unit 11 is started so that the worker recognized on the image does not go out of the frame.

ステップS105で演算部1は測定開始を待機する。即ち作業者が実際の工程作業に入るとともに測定を開始するトリガを待つ。このトリガはオペレータの指示、或いは特定の時刻、或いは製造ライン管理システムからの同期信号などが考えられる。
測定開始トリガに応じて演算部1はステップS106に進む。
In step S105, the calculation unit 1 stands by for the start of measurement. That is, the worker waits for a trigger to start measurement as soon as the actual process operation starts. The trigger may be an operator instruction, a specific time, or a synchronization signal from the production line management system.
In response to the measurement start trigger, operation unit 1 proceeds to step S106.

ステップS106で演算部1は測定データを取得する。即ち検出情報取得部1cの機能により、画像解析部1aの解析結果の取得やセンサ20からの情報の取得を行い、例えば図4Aにおける1つのサンプルタイミングt(x)の情報として記憶管理する。
ステップS107で演算部1は、姿勢データモデル化を行う。つまり動作判定部1dの機能により、ステップS106で取得した各検出点Pの三次元座標値によって表現される作業者の簡易モデルから、作業者の姿勢、動作を判定する。
ステップS108で演算部1は、作業負荷数値化を行う。即ち演算部1は付加算出部1eの機能により、各種作業負荷の計算を行い、その計算値を記憶する。
以上のステップS106〜S108の処理を、ステップS109で測定終了と判断されるまで繰り返す。
この間、ステップS108での計算値は、それぞれ各時点における図5のようなデータとして保存してもよいし、毎サンプルタイミングtの計算値の積算値として図5のようなデータを更新していくようにしてもよい。
In step S106, the calculation unit 1 acquires measurement data. That is, the function of the detection information acquisition unit 1c acquires the analysis result of the image analysis unit 1a and the information from the sensor 20, and stores and manages the information as, for example, information of one sample timing t (x) in FIG. 4A.
In step S107, the calculation unit 1 performs posture data modeling. That is, by the function of the motion determination unit 1d, the posture and motion of the worker are determined from the simple model of the worker expressed by the three-dimensional coordinate value of each detection point P acquired in step S106.
In step S <b> 108, the calculation unit 1 performs work load digitization. That is, the calculation unit 1 calculates various work loads by the function of the additional calculation unit 1e and stores the calculated values.
The processes in steps S106 to S108 are repeated until it is determined in step S109 that the measurement is finished.
During this time, the calculated values in step S108 may be stored as data as shown in FIG. 5 at each time point, or the data as shown in FIG. 5 is updated as an integrated value of the calculated values at each sample timing t. You may do it.

測定終了となった後は、演算部1はステップS110で負担評価情報を生成し、ステップS111で負担評価情報を表示部4に表示させる。
例えば製造ラインの各工程について、1日のスパンで以上のような測定を行う場合、1日の作業者の負担に関する負担評価情報が生成され、表示されることになる。
なお、ステップS111の段階で、負担評価情報を記憶部3に記憶したり、印刷部6で印刷出力したり、通信部5で外部機器に送信してもよい。
After the measurement is completed, the calculation unit 1 generates burden evaluation information in step S110, and causes the display unit 4 to display the burden evaluation information in step S111.
For example, when the above-described measurement is performed for each process of the production line in a span of one day, burden evaluation information relating to the burden on the worker for one day is generated and displayed.
In the step S111, the burden evaluation information may be stored in the storage unit 3, printed out by the printing unit 6, or transmitted to an external device by the communication unit 5.

<作業負担評価情報の提示>
上記ステップS110で作成され、ステップS111で表示される作業負担評価情報の具体例を示す。
<Presentation of workload evaluation information>
A specific example of the workload evaluation information created in step S110 and displayed in step S111 is shown.

図7Aは、工程別に算出した作業負担を数値化して示した例である。例えば工程毎に、各サンプルタイミングtでの作業負担値を積算し、1日の労働で作業者に与える負担の値を求めて、工程毎を比較できるように提示する。
1つの工程については、ステップS106で例えば図4Aのように各サンプルタイミングtでの作業者の身体状況が取得でき、さらにステップS107,S108の処理で単位期間毎に負担値が算出される。この負担値が測定終了まで積算されて保持されるようにすれば、各工程において図5のように保持した算出値(例えばMA1、MA2・・・)は、測定開始から終了までの工程の負担値となる。例えば1日の勤務における工程の負担値となる。従って、そのように得た積算値を工程毎に集めて負担評価情報とすることで、図7Aのように表示を行うことができる。
FIG. 7A is an example in which the work burden calculated for each process is quantified. For example, the work burden values at each sample timing t are integrated for each process, and the value of the burden given to the worker by working for one day is obtained and presented so that the processes can be compared.
For one process, the worker's physical condition at each sample timing t can be acquired in step S106 as shown in FIG. 4A, for example, and the burden value is calculated for each unit period in steps S107 and S108. If these burden values are integrated and held until the end of measurement, the calculated values (for example, MA1, MA2,...) Held in each step as shown in FIG. Value. For example, it becomes the burden value of the process in the day work. Therefore, by collecting the integrated values obtained in this way for each process and using it as burden evaluation information, it is possible to display as shown in FIG. 7A.

図7Bは、或る工程における作業別に算出した作業負担を数値化して示した例である。例えば1つの工程における作業毎に、各サンプルタイミングtでの作業負担値を積算し、1日の労働で作業者に与える負担の値を求めて、作業毎を比較できるように提示する。
1つの工程において各作業の負担度合いをみることができる。
工程内の各作業については、予め各作業による動作パターン等を登録しておけば、画像解析により、各サンプルタイミングtの期間の動作が、それぞれどの作業の実行中であるかが判別できる。従ってステップS108での負担値の算出を、各作業単位で分けて実行することが可能で、その各作業についての算出値を積算していけば、保持した算出値は測定開始から終了までの工程の負担値となる。例えば図5の算出値Ma1−1、Ma2−1・・・Ma5−1)は、測定開始から終了までの工程Aにおける各作業a1〜a5の負担値となる。例えば1日の勤務における各作業の負担値となる。従って、そのように得た積算値を工程毎に集めて負担評価情報とすることで、図7Bのような表示を行うことができる。
FIG. 7B is an example in which the work load calculated for each work in a certain process is quantified. For example, for each work in one process, the work burden values at each sample timing t are integrated, the value of the burden given to the worker in one day's work is obtained, and presented so that the work can be compared.
The degree of burden of each work can be seen in one process.
For each work in the process, if an operation pattern or the like by each work is registered in advance, it is possible to determine which work is being performed during the period of each sample timing t by image analysis. Therefore, the calculation of the burden value in step S108 can be executed separately for each work unit, and if the calculated values for each work are integrated, the stored calculated value is the process from the start to the end of the measurement. It becomes the burden value of. For example, the calculated values Ma1-1, Ma2-1... Ma5-1) in FIG. 5 are the burden values of the operations a1 to a5 in the process A from the start to the end of measurement. For example, it becomes a burden value of each work in a day work. Therefore, by collecting the integrated values obtained in this way for each process and using it as load evaluation information, a display as shown in FIG. 7B can be performed.

図7Cは、或る工程又は作業に関して、運動量負荷、姿勢負荷を、身体の部位毎に求めて提示する例である。このような情報により、当該工程又は作業では、作業者のどこに負荷がかかるかなどを知ることができる。
身体の各部に係る負担値自体は、例えば姿勢や動きを判定することで例えばデータベース部2から取得するような処理が可能である。例えばステップS107で或る姿勢を判定したときに、その姿勢における右手の負担値、左手の負担値、腰の負担値、右足の負担値、左足の負担値などをデータベース部2から取得する。ステップS108では、各部の負担値を測定開始から終了までの期間中に積算していけばよい。すると、測定終了時点で身体各部の負担値が求められていることになる。そのような積算値を集めて負担評価情報とすることで、図7Cのような表示を行うことができる。
FIG. 7C is an example in which the momentum load and the posture load are obtained and presented for each part of the body regarding a certain process or work. From such information, it is possible to know where the load is applied to the worker in the process or operation.
The burden value itself relating to each part of the body can be processed to be acquired from, for example, the database unit 2 by determining posture and movement, for example. For example, when a certain posture is determined in step S107, the burden value of the right hand, the burden value of the left hand, the burden value of the waist, the burden value of the right foot, the burden value of the left foot, and the like are acquired from the database unit 2. In step S108, the burden value of each unit may be integrated during the period from the start to the end of measurement. Then, the burden value of each part of the body is obtained at the end of measurement. By collecting such integrated values as the load evaluation information, a display as shown in FIG. 7C can be performed.

図8Aは、或る工程又は作業に関して、検出点P0〜P20毎に、負担値を表示した例である。図7Cの場合と同様に、姿勢や動作に対応して設定された検出点P0〜P20毎に負担値を積算していくことで、例えば1日の勤務における各検出点P0〜P20の負担値を算出することができる。そのような積算値を集めて負担評価情報とすることで、図8Aのような表示を行うことができる。
このような情報により管理者やライン技術者等は、当該工程又は作業では、作業者のどこに負荷がかかるかをより詳細に知ることができる。
FIG. 8A is an example in which a burden value is displayed for each detection point P0 to P20 regarding a certain process or operation. As in the case of FIG. 7C, the burden value is accumulated for each of the detection points P0 to P20 set corresponding to the posture and movement, for example, the burden value of each of the detection points P0 to P20 in the day work. Can be calculated. By collecting such integrated values as the burden evaluation information, a display as shown in FIG. 8A can be performed.
With such information, an administrator, a line engineer, or the like can know in more detail where the load is applied to the worker in the process or operation.

図8Bは、或る工程(又は作業)について、作業者毎に比較できる情報を提示する例である。図4Aのような検出情報を作業者コードに紐づけておくことで、例えば1つの工程について、作業者毎に負担値や工程所要時間を求めることができる。所要時間は、各サンプルタイミングtにおいて判定される姿勢・動作により計測できる。例えば姿勢や動作により、各作業の開始・終了、工程の開始・終了タイミングが判別できるため、その間のサンプルタイミング数で判定できる。
そこで同一の工程や作業について作業者毎の負担値を比較できるような負担評価情報を生成し、図示のように表示させる。これによって管理者は、各工程や作業について、作業者毎の習熟度や向き/不向きを判断することができる。
FIG. 8B is an example of presenting information that can be compared for each worker regarding a certain process (or work). By associating the detection information as shown in FIG. 4A with the worker code, for example, with respect to one process, the burden value and the time required for the process can be obtained for each worker. The required time can be measured by the posture / motion determined at each sample timing t. For example, since the start / end of each work and the start / end timing of the process can be determined by the posture and movement, it can be determined by the number of sample timings between them.
Therefore, burden evaluation information that can compare the burden values for each worker for the same process or work is generated and displayed as shown in the figure. As a result, the manager can determine the proficiency level and orientation / non-suitability of each worker for each process and work.

以上の図7、図8は負担評価情報の一例である。これ以外にも多様な情報提示が考えられる。いずれにしても、工程や作業における各作業者の姿勢や動作を判定し、負担値を算出するようにしているため、それらの情報に基づいて多様な負担評価情報を生成し、表示させることができる。例えば時間帯別の負担値の提示、作業を延長した場合の予測される負担値の提示なども可能である。   FIGS. 7 and 8 are examples of the burden evaluation information. Various other information presentations can be considered. In any case, since the burden value is calculated by determining the posture and motion of each worker in the process and work, various burden evaluation information can be generated and displayed based on the information. it can. For example, it is possible to present a burden value for each time zone, and to present a predicted burden value when the work is extended.

<まとめ>
以上の実施の形態の作業負担評価装置となる演算部1は、各サンプルタイミングtで、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点Pと該検出点Pを結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得する検出情報取得部1cと、検出点P又は線の変化により作業者の姿勢又は動作を判定する動作判定部1dと、判定した作業者の姿勢又は動作に基づいて作業負担値を算出する負担算出部1eと、算出結果に基づいて測定対象の工程における作業負担評価情報を提示する制御を行う出力制御部1fとを備えている。
即ち作業者の身体状態を簡易モデルにより検出し、各身体部位、例えば関節部などについての検出点や線の位置や変化(移動ベクトル)により、工程作業過程の姿勢や動作を検出する。そして作業者の姿勢又は動作に基づいて作業負担値を算出する。この作業負担値に基づいて、工程の作業負担評価情報を生成して表示する。
これにより作業の負担値を客観的な数値により得ることができ、作業負担評価情報として、工程における作業者の負担を正確に認識できる情報を得ることができる。主観的情報ではないため、公平な判断も可能となり、製造ラインの設計、メンテナンス、人員配置等のマネジメント、ライン改善などに、非常に有意な情報を得ることができる。
また人の動きを検出する場合、身体全体を検出・認識すると情報量が大きく、誤作動もあり、演算部1の処理負担が増大する。これに対して本実施の形態では、検出点Pと線を用いて単純化し、角度、移動量で負担を計算するようにしているため、処理の容易化、比較的小規模の演算システムでの実現容易性を得ることができる。
<Summary>
The calculation unit 1 serving as the work load evaluation apparatus according to the above embodiment connects the detection points P corresponding to a plurality of body parts of the worker who performs the measurement target process and the detection points P at each sample timing t. A detection information acquisition unit 1c that acquires information on the worker's physical state in a state modeled by a line; an operation determination unit 1d that determines the posture or movement of the worker based on a change in the detection point P or the line; A load calculation unit 1e that calculates a work load value based on the posture or motion of the worker who has performed, and an output control unit 1f that performs control to present work load evaluation information in the measurement target process based on the calculation result. Yes.
In other words, the body state of the worker is detected by a simple model, and the posture and motion of the process work process are detected from the detection points and line positions and changes (movement vectors) of each body part, for example, a joint. Then, the work burden value is calculated based on the posture or motion of the worker. Based on this work load value, work load evaluation information for the process is generated and displayed.
Thereby, the burden value of the work can be obtained by an objective numerical value, and information that can accurately recognize the burden of the worker in the process can be obtained as the work burden evaluation information. Since it is not subjective information, it is possible to make a fair judgment, and it is possible to obtain very significant information for production line design, maintenance, management such as personnel assignment, and line improvement.
When detecting the movement of a person, if the entire body is detected / recognized, the amount of information is large, there is a malfunction, and the processing load on the computing unit 1 increases. On the other hand, in this embodiment, since the load is calculated by using the detection point P and the line, and the angle and the amount of movement are calculated, the processing is facilitated, and a relatively small arithmetic system is used. Ease of implementation can be obtained.

また検出情報取得部1cは、作業者を撮像した画像データの解析結果から、複数の検出点P0〜P(n)の三次元位置を取得するようにしている。即ちカメラで作業者を撮像し、撮像対象の人間の主に関節部を模した複数の点と、それを結ぶ線とに簡略化したデータに変換する。演算部1はこのような点又は線の移動ベクトルの検出結果から人間の動きを特定するシステムとしている。
この場合、作業者はセンサ等を身体に装着する必要をなくすことができ、センサ装着による違和感や作業性悪化を生じさせないようにすることができる。
Further, the detection information acquisition unit 1c acquires the three-dimensional positions of the plurality of detection points P0 to P (n) from the analysis result of the image data obtained by capturing the worker. That is, an operator is imaged with a camera, and converted into simplified data into a plurality of points mainly imitating joints of humans to be imaged and lines connecting them. The calculation unit 1 is a system that identifies human movement from the detection result of such a point or line movement vector.
In this case, the operator can eliminate the need to attach a sensor or the like to the body, and can prevent a sense of incongruity or deterioration in workability due to sensor attachment.

また出力制御部1fは、作業負担評価情報として、設定した対象期間における複数の工程毎、又は工程内の複数の作業毎について、作業負担値を表示する制御を行う(図7A,図7B参照)。例えば8時間など設定した対象期間において、複数の工程、又は工程内の複数の作業について作業負担値を例えば一覧等により提示する。
これは工程別、工程内作業別などの作業負担の差を明確化する客観的情報を示すこととなり、製造ライン設計技術者や工場管理者にとって有益な情報を提示することとなる。
例えば製造ライン設計、或いは稼働開始の初期において、このような情報に基づいて各工程の負担を均一化するなどの改善を行う上で有益である。
また日々の稼働ラインの改善にも有益な情報となる。例えば日々、当該作業負担評価情報を確認して、次の日から工程における作業の改善や人員の合理的配置などに役立てることができる。
Further, the output control unit 1f performs control to display a work load value for each of a plurality of processes in a set target period or a plurality of works in a process as work load evaluation information (see FIGS. 7A and 7B). . For example, in a set target period such as 8 hours, work burden values are presented in a list or the like for a plurality of processes or a plurality of operations in the processes.
This indicates objective information that clarifies the difference in work burdens for each process, each work in the process, etc., and presents information useful for the production line design engineer and factory manager.
For example, at the initial stage of production line design or operation start, it is useful for making improvements such as equalizing the burden of each process based on such information.
It is also useful information for improving daily operation lines. For example, the work load evaluation information can be confirmed every day, and can be used from the next day to improve the work in the process or rationally allocate personnel.

なお実施の形態では、測定終了後に負担評価情報を表示するようにしたが、例えば測定中にリアルタイムで各工程や作業の負担値を表示してもよい。すると、負荷の大きい作業者を作業中に発見できたり、それに応じて人員の配置替えを行うなどの処置も可能となる。
さらには、混流生産や品質状況に応じて作業の負担値が大きくなるとき等にも対応可能となる。例えば、一日の中で生産車種が切り替わったり、その日の状況や環境により品質が変わり一部手直しが入る等して、作業負担が変わるケースもあり、そのような場合に対応可能となるものである。
In the embodiment, the burden evaluation information is displayed after the measurement is finished. However, for example, the burden value of each process or operation may be displayed in real time during the measurement. Then, it is possible to find a worker with a heavy load during the work, or to perform a personnel rearrangement accordingly.
Furthermore, it is possible to cope with a case where the burden value of work increases according to mixed flow production or quality conditions. For example, there are cases where the production load changes during the day, the quality changes depending on the situation and environment of the day, and some modifications are made. is there.

また出力制御部1fは、作業負担評価情報として、1つの工程について、作業者毎の負担値又は工程所要時間を表示する制御を行う(図8B参照)。
同じ工程であっても、作業者により、姿勢や動きが異なることで、作業負担値や工程1サイクルの所要時間は異なる。そこで、これらを作業者毎で比較できるように提示する。これは工程についての作業者毎の習熟度や適応度、向き不向きを判断できる客観的情報となる。従って現場責任者や工場管理者にとって有益な情報を提示することができる。
In addition, the output control unit 1f performs control to display a burden value for each worker or a time required for the process for one process as work burden evaluation information (see FIG. 8B).
Even in the same process, the work load value and the time required for one cycle of the process differ depending on the worker due to different postures and movements. Therefore, these are presented so that they can be compared for each worker. This is objective information that can determine the proficiency level, fitness level, and orientation failure of each worker about the process. Therefore, it is possible to present information useful for the site manager and factory manager.

1…演算部、1a…画像解析部、1b…カメラ制御部、1c…検出情報取得部、1d…動作判定部、1e…負担算出部、1f…出力制御部、2…データベース部、3…記憶部、4…表示部、5…通信部、6…印刷部、10…撮像部、20…センサ   DESCRIPTION OF SYMBOLS 1 ... Operation part, 1a ... Image analysis part, 1b ... Camera control part, 1c ... Detection information acquisition part, 1d ... Motion determination part, 1e ... Load calculation part, 1f ... Output control part, 2 ... Database part, 3 ... Memory | storage , 4 ... display unit, 5 ... communication unit, 6 ... printing unit, 10 ... imaging unit, 20 ... sensor

Claims (5)

各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得する検出情報取得部と、
前記検出情報取得部で得た情報における前記検出点又は線の変化により作業者の姿勢又は動作を判定する動作判定部と、
前記動作判定部で判定した作業者の姿勢又は動作に基づいて作業負担値を算出する負担算出部と、
前記負担算出部の算出結果に基づいて、測定対象の工程における作業負担評価情報を提示する制御を行う出力制御部と、を備えた
作業負担評価装置。
Detection information that acquires information on the physical state of the worker in a state that is simply modeled by detection points corresponding to a plurality of body parts of the worker performing the measurement target process and lines connecting the detection points at each time point An acquisition unit;
An operation determination unit that determines the posture or operation of an operator based on a change in the detection point or line in the information obtained by the detection information acquisition unit;
A load calculating unit that calculates a work load value based on the posture or motion of the worker determined by the motion determining unit;
An output control unit that performs control to present work load evaluation information in a measurement target process based on a calculation result of the load calculation unit.
前記検出情報取得部は、作業者を撮像した画像データの解析結果から、複数の前記検出点の三次元位置を取得する
請求項1に記載の作業負担評価装置。
The work load evaluation apparatus according to claim 1, wherein the detection information acquisition unit acquires a three-dimensional position of the plurality of detection points from an analysis result of image data obtained by imaging an operator.
前記出力制御部は、作業負担評価情報として、設定した対象期間における複数の工程毎、又は工程内の複数の作業毎について、作業負担値を表示する制御を行う
請求項1に記載の作業負担評価装置。
The work load evaluation according to claim 1, wherein the output control unit performs control to display a work load value for each of a plurality of processes in a set target period or a plurality of works in a process as work load evaluation information. apparatus.
前記出力制御部は、作業負担評価情報として、1つの工程について、作業者毎の負担値又は工程所要時間を表示する制御を行う
請求項1に記載の作業負担評価装置。
The work load evaluation apparatus according to claim 1, wherein the output control unit performs control to display a load value or a time required for each worker for one process as work load evaluation information.
各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得し、
取得した情報における前記検出点又は線の変化により作業者の姿勢又は動作を判定し、
判定した作業者の姿勢又は動作に基づいて作業負担値を算出し、
前記作業負担値の算出結果に基づいて、測定対象の工程における作業負担評価情報を提示する制御を、情報処理装置が実行する
作業負担評価方法。
At each time point, the information of the worker's physical state is obtained in a state that is simply modeled by detection points corresponding to a plurality of body parts of the worker who performs the measurement target process and lines connecting the detection points,
Determine the posture or movement of the worker by the change of the detection point or line in the acquired information,
Calculate the work burden value based on the determined posture or movement of the worker,
A work load evaluation method in which an information processing apparatus executes control for presenting work load evaluation information in a process to be measured based on a calculation result of the work load value.
JP2015191293A 2015-09-29 2015-09-29 Workload evaluation device, workload evaluation method Pending JP2017068428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015191293A JP2017068428A (en) 2015-09-29 2015-09-29 Workload evaluation device, workload evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015191293A JP2017068428A (en) 2015-09-29 2015-09-29 Workload evaluation device, workload evaluation method

Publications (1)

Publication Number Publication Date
JP2017068428A true JP2017068428A (en) 2017-04-06

Family

ID=58495017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015191293A Pending JP2017068428A (en) 2015-09-29 2015-09-29 Workload evaluation device, workload evaluation method

Country Status (1)

Country Link
JP (1) JP2017068428A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019049529A1 (en) * 2017-09-05 2019-03-14 コニカミノルタ株式会社 State monitoring system and state monitoring method
WO2020217381A1 (en) * 2019-04-25 2020-10-29 三菱電機株式会社 Work assistance device and work assistance system
US20220083769A1 (en) * 2020-09-14 2022-03-17 Kabushiki Kaisha Toshiba Work estimation apparatus, method and non-transitory computer-readable storage medium
JP2022150491A (en) * 2021-03-26 2022-10-07 株式会社日立製作所 Work support system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274095A (en) * 1993-03-24 1994-09-30 Nissan Motor Co Ltd Operation attitude evalulation system
JP2001101422A (en) * 1999-10-04 2001-04-13 Hitachi Plant Eng & Constr Co Ltd Motion analyzer
JP2014199595A (en) * 2013-03-29 2014-10-23 富士通株式会社 Work load estimation program, work load estimation method and information processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274095A (en) * 1993-03-24 1994-09-30 Nissan Motor Co Ltd Operation attitude evalulation system
JP2001101422A (en) * 1999-10-04 2001-04-13 Hitachi Plant Eng & Constr Co Ltd Motion analyzer
JP2014199595A (en) * 2013-03-29 2014-10-23 富士通株式会社 Work load estimation program, work load estimation method and information processing device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019049529A1 (en) * 2017-09-05 2019-03-14 コニカミノルタ株式会社 State monitoring system and state monitoring method
WO2020217381A1 (en) * 2019-04-25 2020-10-29 三菱電機株式会社 Work assistance device and work assistance system
JPWO2020217381A1 (en) * 2019-04-25 2021-10-28 三菱電機株式会社 Work support device
CN113841094A (en) * 2019-04-25 2021-12-24 三菱电机株式会社 Work support device and work support system
US11803795B2 (en) 2019-04-25 2023-10-31 Mitsubishi Electric Corporation Work assist device
CN113841094B (en) * 2019-04-25 2024-06-11 三菱电机株式会社 Work auxiliary device
US20220083769A1 (en) * 2020-09-14 2022-03-17 Kabushiki Kaisha Toshiba Work estimation apparatus, method and non-transitory computer-readable storage medium
JP2022048017A (en) * 2020-09-14 2022-03-25 株式会社東芝 Work estimation apparatus, method and program
JP7487057B2 (en) 2020-09-14 2024-05-20 株式会社東芝 Work estimation device, method, and program
JP2022150491A (en) * 2021-03-26 2022-10-07 株式会社日立製作所 Work support system
JP7465842B2 (en) 2021-03-26 2024-04-11 株式会社日立製作所 Work Support System

Similar Documents

Publication Publication Date Title
JP6629556B2 (en) Process composition support device and process composition support method
JP6676322B2 (en) Burden evaluation device, Burden evaluation method
JP2017068429A (en) Workload evaluation device, workload evaluation method
CN108604393B (en) Information processing system, information processing device, information processing method, and computer-readable storage medium
KR102212221B1 (en) Ergonomic data collection and analysis
JP2017068428A (en) Workload evaluation device, workload evaluation method
JP6676321B2 (en) Applicability evaluation device and adaptability evaluation method
JP5757482B2 (en) Skill acquisition support system and skill acquisition support method
WO2017141565A1 (en) Calculation device, calculation method, and calculation program
JP2021128794A (en) Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program
JP2019127677A (en) Sensor mounted glove relevant to ergonomic analysis of hand, especially for ergonomic analysis of hand of operator and corresponding method
US20210316461A1 (en) Data generation device, method of generating data, and remote manipulation system
JP6509406B1 (en) Walking mode display method, walking mode display system and walking mode analyzer
KR20160076488A (en) Apparatus and method of measuring the probability of muscular skeletal disease
JP2016035651A (en) Home rehabilitation system
CN112182763A (en) Assembly simulation method based on VR technology and motion capture technology
Ma et al. A framework for interactive work design based on digital work analysis and simulation
KR20160118678A (en) Workload estimation and job rotation scheduling for Work-related Musculoskeletal Disorders prevention
JP2021125183A (en) Workload analysis apparatus, workload analysis method, and program
EP3637330B1 (en) Content creation system
KR20200073588A (en) A production line monitoring system using motion recognition of a workekr and a monitoring method using the same
WO2022209638A1 (en) Work instruction system
JP6593683B2 (en) Walking evaluation system
US12051340B2 (en) Content creation system
KR102053383B1 (en) Apparatus for measuring user&#39;s movements to measure lumbar load in real time

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200218