JP6676321B2 - Applicability evaluation device and adaptability evaluation method - Google Patents

Applicability evaluation device and adaptability evaluation method Download PDF

Info

Publication number
JP6676321B2
JP6676321B2 JP2015191295A JP2015191295A JP6676321B2 JP 6676321 B2 JP6676321 B2 JP 6676321B2 JP 2015191295 A JP2015191295 A JP 2015191295A JP 2015191295 A JP2015191295 A JP 2015191295A JP 6676321 B2 JP6676321 B2 JP 6676321B2
Authority
JP
Japan
Prior art keywords
worker
information
work
value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015191295A
Other languages
Japanese (ja)
Other versions
JP2017068430A (en
Inventor
鵬 趙
鵬 趙
振一郎 沖野
振一郎 沖野
建栄 沈
建栄 沈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2015191295A priority Critical patent/JP6676321B2/en
Publication of JP2017068430A publication Critical patent/JP2017068430A/en
Application granted granted Critical
Publication of JP6676321B2 publication Critical patent/JP6676321B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • General Factory Administration (AREA)

Description

本発明は適応性評価装置、適応性評価方法に関し、製造工場等における工程と作業者の適応性評価を行う技術に関する。   The present invention relates to an adaptability evaluation apparatus and an adaptability evaluation method, and to a technique for evaluating the adaptability of processes and workers in a manufacturing factory or the like.

特開2001−101422号公報JP 2001-101422 A 特開2015−125578号公報JP 2015-125578 A

特許文献1には、作業中の人体及び作業対象物の状態と人体の負担を関連づけ、人体及び作業対象物の状況をモニタリングするとともに作業改善に有効なデータを提供できる技術が開示されている。
特許文献2には、作業姿勢等について、客観的評価と主観的評価とに基づいて姿勢の評価を行う技術が開示されている。
Patent Literature 1 discloses a technique capable of associating the state of a human body and a work object during work with the burden on the human body, monitoring the state of the human body and the work object, and providing data effective for work improvement.
Patent Literature 2 discloses a technique for evaluating a posture of a work posture or the like based on objective evaluation and subjective evaluation.

自動車製造工程には作業者による部品の組み立て作業が多い。この作業を長時間継続することで、作業負担が増加し、時間と共に作業効率を低下させるケースが多くなっている。
この作業負担は、作業者の感覚的な声として取り上げられることが通常である。また、作業者の得手不得手の影響によって工程に対する感想や疲労具合も異なる。特に作業者は個人毎に、得意な作業や苦手な作業が異なるため、各工程についての向き・不向きもある。
ところが、これらの負担感や、向き・不向きというようなことは、あくまで作業者本人が主観的に感じることであって、これらを客観的に判断することが困難であった。
In the automobile manufacturing process, there are many operations of assembling parts by workers. By continuing this work for a long time, the work load increases, and in many cases, the work efficiency decreases with time.
This work load is usually taken up as a worker's sensory voice. In addition, the impression of the process and the degree of fatigue vary depending on the influences of the workers. In particular, workers are good at work and poor at work for each individual, so there are directions and unsuitability for each process.
However, these feelings of burden and orientation / unsuitability are subjectively felt by the worker himself, and it is difficult to judge these objectively.

多数の工程や多数の作業を含む製造ラインにおいて、各工程への人員配置管理などのためには、このような主観的な感想ではなく、工程毎の各作業者の作業負荷や状況を客観的かつ定量的に評価することが求められている。
そこで本発明は、ラインマネジメントや製造ラインの設計、改善等のために有用な客観的情報を得ることのできるシステムを提供することを目的とする。
In a production line that includes a large number of processes and a large number of operations, instead of such a subjective opinion, the work load and situation of each worker for each process should be objectively controlled in order to manage personnel at each process. And it is required to evaluate quantitatively.
Therefore, an object of the present invention is to provide a system capable of obtaining useful objective information for line management, design and improvement of a production line, and the like.

本発明に係る適応性評価装置は、各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得する検出情報取得部と、前記検出情報取得部で得た前記検出点又は線についての情報を、当該測定対象の工程について設定された基準情報と比較して、作業者の当該工程に対する適応値を算出する適応値算出部と、前記適応値算出部の算出結果に基づいて適応評価情報を生成し、提示する制御を行う出力制御部とを備え、前記出力制御部は、処理対象として選択した作業における作業者の身体各部の個人データを抽出し、該個人データを各々基準情報と比較して差分値を求め、該差分値から当該作業に対する適応性を示す適応値を算出し、該適応値によって作業者個人の特性を判定することにより推奨される工程又は推奨されない工程を判定し、判定結果を提示する制御を行う。
即ち作業者の身体状態を簡易モデルにより検出し、各身体部位、例えば関節部などについての検出点や線の位置や変化(移動ベクトル)により、作業者の動作を把握できるようにする。そして検出点又は線についての情報、つまり身体の各部位(腕、腰、足)などの個別のデータを、あらかじめ設定した基準情報と比較することで、人と工程のマッチングを判定する。
また、適応値算出部の算出結果として或る作業者と或る工程の適応性が判別できる。すると工程との関係で作業者の個人的な特性も推定できる。作業者の個人的特性と各工程の作業内容のマッチングを判定すれば、或る作業者にとっての、推奨される工程や、推奨できない工程も判定できる。
また、適応値算出部の算出結果として或る作業者と或る工程の適応性が判別できると、工程との関係で作業者の個人的な特性も推定できるため、それを提示する。
The adaptability evaluation apparatus according to the present invention is configured such that, at each point in time, the worker performs a simple model with detection points corresponding to a plurality of body parts of the worker executing the process to be measured and lines connecting the detection points. A detection information acquisition unit that acquires information on the physical condition of the subject, and compares the information about the detection points or lines obtained by the detection information acquisition unit with reference information set for the process of the measurement target. An adaptive value calculation unit that calculates an adaptive value for the process, and an output control unit that generates adaptive evaluation information based on the calculation result of the adaptive value calculation unit and performs control to present the evaluation information, and the output control unit includes: Extracting personal data of each part of the body of the worker in the work selected as the processing target, obtaining a difference value by comparing each of the personal data with reference information, and calculating an adaptation value indicating adaptability to the work from the difference value. Calculate and Determines the recommended process or deprecated step by determining the characteristics of the worker individual by a value, performs control for presenting the determination result.
That is, the physical state of the worker is detected by a simple model, and the movement of the worker can be grasped from the position or change (movement vector) of the detection point or line for each body part, for example, a joint. Then, information on the detection point or the line, that is, individual data such as each part of the body (arms, waist, feet) and the like is compared with reference information set in advance to determine matching between the person and the process.
Further, the adaptability of a certain worker and a certain process can be determined as a calculation result of the adaptive value calculation unit. Then, the personal characteristics of the worker can be estimated in relation to the process. By determining the matching between the personal characteristics of the worker and the work content of each step, it is possible to determine a recommended step and a step that is not recommended for a certain worker.
In addition, if the adaptability of a certain worker and a certain process can be determined as a calculation result of the adaptive value calculation unit, personal characteristics of the worker can be estimated in relation to the process, and this is presented.

上記の適応性評価装置においては、前記検出情報取得部は、作業者を撮像した画像データの解析結果から、複数の前記検出点の三次元位置を取得することが考えられる。
作業者を撮像して撮像画像を解析すれば、その作業者の検出点の三次元位置を特定することができる。
In the above-described adaptability evaluation apparatus, it is conceivable that the detection information acquisition unit acquires three-dimensional positions of a plurality of the detection points from an analysis result of image data obtained by imaging the worker.
If the worker is imaged and the captured image is analyzed, the three-dimensional position of the detection point of the worker can be specified.

上記の適応性評価装置においては、前記検出情報取得部で得た情報における前記検出点又は線の変化により作業者の姿勢又は動作を判定する動作判定部と、前記動作判定部で判定した作業者の姿勢又は動作に基づいて作業負担値を算出する負担算出部とをさらに備え、前記出力制御部は、前記負担算出部の算出結果に基づいて、測定対象の工程における作業負担評価情報を提示する制御を行うことが考えられる。
即ち作業者の身体状態を簡易モデルにより検出し、各身体部位、例えば関節部などについての検出点や線の位置や変化(移動ベクトル)により、工程作業過程の姿勢や動作を検出する。そして作業者の姿勢又は動作に基づいて作業負担値を算出する。この作業負担値に基づいて、工程の作業負担評価情報を生成して提示する。
In the above-described adaptability evaluation device, an operation determining unit that determines a posture or an operation of a worker based on a change in the detection point or a line in the information obtained by the detection information obtaining unit; A load calculation unit that calculates a work load value based on the posture or the motion of the work, and the output control unit presents work load evaluation information in a process to be measured based on a calculation result of the load calculation unit. Control may be performed.
That is, the body state of the worker is detected by a simple model, and the position and change (movement vector) of the detection points and lines of each body part, for example, a joint, are detected in the process work process. Then, the work load value is calculated based on the posture or the motion of the worker. Based on this work load value, work load evaluation information of the process is generated and presented.

本発明に係る適応性評価方法は、情報処理装置が、各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得し、取得した前記検出点又は線についての情報を、当該測定対象の工程について設定された基準情報と比較して、作業者の当該工程に対する適応値を算出し、算出結果に基づいて適応評価情報を生成し、提示する制御を行い、処理対象として選択した作業における作業者の身体各部の個人データを抽出し、該個人データを各々基準情報と比較して差分値を求め、該差分値から当該作業に対する適応性を示す適応値を算出し、該適応値によって作業者個人の特性を判定することにより推奨される工程又は推奨されない工程を判定し、判定結果を提示する制御を行う適応性評価方法である。
これにより情報処理装置を用いて適応性評価装置を実現できる。
In the adaptability evaluation method according to the present invention, at each time point, the information processing apparatus is simply modeled by detection points corresponding to a plurality of body parts of a worker performing the process to be measured and a line connecting the detection points. In the state, acquire information on the physical condition of the worker, compare the acquired information on the detection points or lines with reference information set for the process of the measurement target, and adjust the worker's adaptation value for the process. Is calculated, adaptive evaluation information is generated based on the calculation result, the presentation is controlled , personal data of each part of the worker's body in the work selected as the processing target is extracted, and the personal data is compared with the reference information. and obtains a difference value, and calculates an adaptive value that indicates the adaptability to the work from said difference value, determining the recommended process or deprecated step by determining the characteristics of the worker individuals by the adaptation value An adaptive evaluation method of performing control for presenting the determination result.
This makes it possible to realize an adaptability evaluation device using the information processing device.

本発明によれば、製造ラインにおける工程に対して、作業者個別の適応性が客観的な適応評価情報として提示されるため、製造ラインの管理者等にとって、マネジメント等のための有用な情報を得ることができる。   According to the present invention, since the adaptability of each worker is presented as objective adaptation evaluation information for the process in the production line, useful information for management and the like for the production line manager is provided. Obtainable.

本発明の実施の形態の適応性評価システムのブロック図である。It is a block diagram of an adaptability evaluation system of an embodiment of the invention. 実施の形態の作業者の身体状態の簡易モデルの説明図である。It is explanatory drawing of the simplified model of the physical condition of the worker of embodiment. 実施の形態の簡易モデルによる姿勢・動作検出の説明図である。It is explanatory drawing of the attitude | position and motion detection by the simple model of embodiment. 実施の形態で検出する各検出点の三次元位置情報及び工程の説明図である。FIG. 4 is an explanatory diagram of three-dimensional position information and steps of each detection point detected in the embodiment. 実施の形態で求める各工程についての算出値の説明図である。FIG. 9 is an explanatory diagram of a calculated value for each step obtained in the embodiment. 実施の形態の演算部の処理のフローチャートである。5 is a flowchart of a process performed by a calculation unit according to the embodiment. 実施の形態の作業負担評価情報の説明図である。It is explanatory drawing of the workload evaluation information of embodiment. 実施の形態の作業負担評価情報の説明図である。It is explanatory drawing of the workload evaluation information of embodiment. 実施の形態の適応性判定処理及び推奨工程判定処理のフローチャートである。It is a flow chart of adaptability judgment processing and recommended process judgment processing of an embodiment. 実施の形態の適応性評価情報の提示例の説明図である。It is an explanatory view of a presentation example of adaptability evaluation information of an embodiment. 実施の形態の推奨工程の判定情報の提示例の説明図である。It is explanatory drawing of the presentation example of the determination information of the recommendation process of embodiment.

<システム構成>
以下、適応性評価装置の実施の形態を説明する。なお図1に示す演算部1が、本発明の適応性評価装置の実施の形態となる。図1は演算部1を含む適応性評価システムの例を示している。
<System configuration>
Hereinafter, an embodiment of the adaptability evaluation apparatus will be described. The operation unit 1 shown in FIG. 1 is an embodiment of the adaptability evaluation device of the present invention. FIG. 1 shows an example of an adaptability evaluation system including an operation unit 1.

図1に示すように適応性評価システムは、演算部1、データベース部2、記憶部3、表示部4、通信部5、印刷部6、撮像部10、駆動部11、センサ20、受信部21、検出値生成部22を有している。   As shown in FIG. 1, the adaptability evaluation system includes an arithmetic unit 1, a database unit 2, a storage unit 3, a display unit 4, a communication unit 5, a printing unit 6, an imaging unit 10, a driving unit 11, a sensor 20, and a receiving unit 21. , A detection value generation unit 22.

撮像部10は、製造ラインに設置されたビデオカメラであり、工程作業を行う作業者を撮像する。図では1つの撮像部10のみ示しているが、通常は、製造ラインの各工程においてそれぞれ作業者を撮像できるように複数配置されていることが想定される。
これら1又は複数の撮像部10は、動画として撮像した各フレームの撮像画像データを演算部1に供給する。
なお、撮像部10はステレオ撮像を行うものとされ、ステレオ撮像された撮像画像信号は、画像解析において三角測量の原理を用いて奥行き方向の情報も得ることができる。
駆動部11は、撮像部10の撮像方向を変位させる装置で、例えばパン・チルト機構及びその駆動モータを有する。
The imaging unit 10 is a video camera installed on a production line, and captures an image of an operator performing a process operation. Although only one imaging unit 10 is shown in the drawing, it is usually assumed that a plurality of imaging units 10 are arranged so as to be able to image an operator in each step of the manufacturing line.
The one or more imaging units 10 supply the image data of each frame captured as a moving image to the arithmetic unit 1.
The imaging unit 10 performs stereo imaging, and the captured image signal obtained by stereo imaging can also obtain information in the depth direction using the principle of triangulation in image analysis.
The driving unit 11 is a device for displacing the imaging direction of the imaging unit 10 and has, for example, a pan / tilt mechanism and a driving motor thereof.

センサ20は、例えば作業者が身体各所に装着するセンサや、作業位置に設置され、作業者の動きを検出するセンサ等が想定される。具体的には角速度センサ、加速度センサ、赤外線センサ、位置センサなどである。
各センサ20の検出信号は、有線又は無線で受信部21に供給され、受信部で受信した検出信号は、検出値生成部22で検出値にデコードされて演算部1に供給される。
The sensor 20 is assumed to be, for example, a sensor worn by the worker at various parts of the body, a sensor installed at a work position, and detecting the movement of the worker. Specifically, it is an angular velocity sensor, an acceleration sensor, an infrared sensor, a position sensor, or the like.
The detection signal of each sensor 20 is supplied to the reception unit 21 by wire or wirelessly, and the detection signal received by the reception unit is decoded into a detection value by the detection value generation unit 22 and supplied to the calculation unit 1.

なお、この図1のシステムでは撮像部10による作業者の撮像画像信号や、センサ20による検出値は、いずれも作業者の姿勢や動作を検出するための情報である。このため少なくとも撮像部10、センサ20のいずれか一方が用いられればよい。もちろん互いの情報を補足又は補正するために、両方が用いられてもよい。   In the system shown in FIG. 1, the image signal of the worker by the imaging unit 10 and the detection value by the sensor 20 are all information for detecting the posture and movement of the worker. Therefore, at least one of the imaging unit 10 and the sensor 20 may be used. Of course, both may be used to supplement or correct each other's information.

演算部1は例えばコンピュータ装置により構成される。即ち演算部1は、CPU(Central Processing Unit)、ROM( Read Only Memory)、RAM( Random Access Memory )、インターフェース部等を備えており、CPUはROMに記憶されているプログラムに従って各種の処理を実行する。RAMはCPUが各種の処理を実行する上において必要なデータなどが適宜記憶される。
なお演算部1としての情報処理装置は、1つのコンピュータ装置で実現されてもよいし、複数のコンピュータ装置が連携して実現されてもよい。
この演算部1は、本システムのための処理機能として、画像解析部1a、カメラ制御部1b、検出情報取得部1c、動作判定部1d、負担算出部1e、出力制御部1f、適応性判定部1gが設けられる。これらの各部はソフトウエアにより実行される処理機能を仮想的にブロック化して示したものである。
The arithmetic unit 1 is constituted by a computer device, for example. That is, the arithmetic unit 1 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an interface unit, and the like, and the CPU executes various processes according to programs stored in the ROM. I do. The RAM stores data and the like necessary for the CPU to execute various processes.
Note that the information processing device as the arithmetic unit 1 may be realized by one computer device, or a plurality of computer devices may be realized in cooperation.
The processing unit 1 includes, as processing functions for the present system, an image analysis unit 1a, a camera control unit 1b, a detection information acquisition unit 1c, an operation determination unit 1d, a burden calculation unit 1e, an output control unit 1f, an adaptability determination unit. 1 g is provided. Each of these units is a virtual block of a processing function executed by software.

画像解析部1aは撮像部20から供給される撮像画像データとしての各フレームデータを解析する処理を行う。
本例の場合、作業者を主に関節等の検出点と、検出点を結ぶ線の情報で簡易化した簡易モデルとして検出する。
図2に簡易モデルの例を示す。人体の各所について検出点Pを設定する。図では検出点P0〜P20を一例として示している。例えば腰部、頭部、首、手足の関節部分など、主に姿勢に応じて変位する箇所を検出点Pとする。
各検出点Pは、それぞれ特定の他の検出点Pと線で結ばれる。
例えば検出点P1は検出点P2,P3,P6とそれぞれ線で結ばれている。
検出点P2は検出点P1とのみ線で結ばれている。
検出点P3は検出点P1、P4と線で結ばれている。
これらのように、各検出点P1〜P20は、それぞれ線で結ばれている検出点が規定されていることで、点と線により人体を表現する簡易モデルが形成される。
The image analysis unit 1a performs a process of analyzing each frame data as the captured image data supplied from the imaging unit 20.
In the case of this example, the worker is detected as a simplified model that is simplified mainly based on information on detection points such as joints and lines connecting the detection points.
FIG. 2 shows an example of the simplified model. A detection point P is set for each part of the human body. In the figure, the detection points P0 to P20 are shown as an example. For example, a point that is displaced mainly in accordance with the posture, such as the waist, the head, the neck, and the joints of the limbs, is set as the detection point P.
Each detection point P is connected to a specific other detection point P by a line.
For example, the detection point P1 is connected to each of the detection points P2, P3, and P6 by a line.
The detection point P2 is connected to only the detection point P1 by a line.
The detection point P3 is connected to the detection points P1 and P4 by a line.
As described above, since each of the detection points P1 to P20 defines a detection point connected by a line, a simple model expressing a human body by the point and the line is formed.

図3は作業者の姿勢を簡易モデルで表した例である。図3AはX−Y平面、図3BはZ−Y平面、図3CはX−Z平面で、各検出点の位置を示し、また各検出点間の線を示している。つまり、各検出点P0〜P20について三次元座標位置を検出することで、その時点の作業者の姿勢を検出することができる。   FIG. 3 is an example in which the posture of the worker is represented by a simple model. FIG. 3A is an XY plane, FIG. 3B is a ZY plane, and FIG. 3C is an XZ plane, showing the position of each detection point and the line between each detection point. That is, by detecting the three-dimensional coordinate position for each of the detection points P0 to P20, the posture of the worker at that time can be detected.

図1の画像解析部1aは、このような簡易モデルで作業者の姿勢を検出するために、作業者の画像から、各検出点P0〜P20の位置(x,y,zの三次元座標値)を検出する。
なお、撮像画像データから作業者の身体を的確に検出するために作業服(ユニフォーム)や帽子の色を予め登録しておき、工場設備や製品の色と明確に区別できるようにすることが好適である。
或いはパターンマッチングにより、人体構成部分における各検出点Pを判定することも考えられる。
さらに作業者がセンサ20を手首、足首等に装着して、それらの位置情報が検出できるようにした場合、撮像画像データから抽出した検出点Pの三次元位置情報を、センサ20による位置情報で補正するようなことも考えられる。
The image analysis unit 1a in FIG. 1 detects the positions of the detection points P0 to P20 (the three-dimensional coordinate values of x, y, and z) from the image of the worker in order to detect the posture of the worker using such a simple model. ) Is detected.
In order to accurately detect the worker's body from the captured image data, it is preferable that the colors of the work clothes (uniform) and the hat are registered in advance so that the colors can be clearly distinguished from the colors of the factory equipment and products. It is.
Alternatively, it is also conceivable to determine each detection point P in the human body constituent part by pattern matching.
Further, when the worker wears the sensor 20 on the wrist, ankle, or the like so that the position information thereof can be detected, the three-dimensional position information of the detection point P extracted from the captured image data is obtained by the position information of the sensor 20. Correction may be considered.

カメラ制御部1bは、駆動部11を制御して、撮像部10の撮像方向を変位させる。例えば工程作業中の作業者は、その作業のために位置を移動する。カメラ制御部1bは、このような作業者の移動によって撮像画像データから作業者がフレームアウトしないように、撮像部10の追従動作が実行されるように制御する。
具体的には画像解析部1aによって認識された作業者の位置の移動(各フレームでの作業者位置の変化)に応じて、駆動部11を駆動させる。
The camera control unit 1b controls the driving unit 11 to displace the imaging direction of the imaging unit 10. For example, an operator during a process operation moves a position for the operation. The camera control unit 1b controls the following operation of the imaging unit 10 so that the worker does not go out of the frame from the captured image data due to the movement of the worker.
Specifically, the driving unit 11 is driven according to the movement of the position of the worker recognized by the image analysis unit 1a (change of the position of the worker in each frame).

検出情報取得部1cは、各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点Pと該検出点Pを結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得する。即ち画像解析部1aの検出結果や、或いはセンサ20による検出値を取得し、作業者の情報として管理する。具体的には1回の測定タイミング毎に、各検出点P0〜P20の三次元位置情報を取得し、検出結果として保存する。   At each time point, the detection information acquisition unit 1c sets the detection point P corresponding to a plurality of body parts of the worker performing the process to be measured and the line of the detection point P into a simple model, Get information on physical condition. That is, a detection result of the image analysis unit 1a or a detection value obtained by the sensor 20 is acquired and managed as information of an operator. Specifically, three-dimensional position information of each of the detection points P0 to P20 is acquired at each measurement timing, and is stored as a detection result.

図4Aは検出情報取得部1cが取得して保存する作業者の情報の例を示している。
例えば画像解析部1aが、撮像画像データの所定のフレーム間隔となるサンプルタイミングt(t0、t1、t2・・・)で各検出点P0〜P(n)(図2の例ではn=20)の三次元位置情報を検出するとする。検出情報取得部1cは、サンプルタイミングt毎に、検出点P0〜P(n)の三次元座標値を取得し、これを記憶する。この図4Aのような情報は、例えば1つの工程毎、作業者毎に取得し、記憶管理していく。
FIG. 4A shows an example of worker information acquired and stored by the detection information acquisition unit 1c.
For example, the image analysis unit 1a detects each of the detection points P0 to P (n) at sample timings t (t0, t1, t2,...) At predetermined frame intervals of the captured image data (n = 20 in the example of FIG. 2). Is detected. The detection information acquisition unit 1c acquires the three-dimensional coordinate values of the detection points P0 to P (n) at each sample timing t, and stores them. The information as shown in FIG. 4A is acquired, for example, for each process and for each worker, and is stored and managed.

例えば製造ラインにおいて、工程A、B、C・・・・があり、一人の作業者が1つの工程を担当するとする。また各工程には、それぞれ複数の作業があるとする。例えば工程Aには、作業a1〜a5があるとする。具体的な例としては、例えば1つの工程は、車体へタイヤの取り付け工程であって、各作業とは、タイヤのセット、装着、確認などの個々の作業となる。
いま、工程Aが図4Bのように5つの作業a1〜a5があるとすると、担当する作業者WM1は、ライン上の車体に対して、この工程A(作業a1〜a5)を繰り返し行うことになる。
図4Aのような各検出点P0〜P20の三次元位置情報は、サンプルタイミングt毎に取得・記憶していくことで、繰り返し行われる工程における検出点P0〜P20の三次元位置情報が時系列上で収集されていくことになる。
なお、図4Bではサンプルタイミングt0〜t99、t100〜t199で、それぞれ工程Aの1回が完了するものとして示しているが、これは説明上の一例に過ぎない。例えば同じ工程を同じ作業者が行う場合であっても、毎回同じ時間で完了するとは限らないためである。工程A内の各作業a1〜a5としての情報が、どのサンプルタイミングtの情報であるかは、各三次元座標値によって判定される姿勢や姿勢の変化、動きの変化等により判定できる。
For example, in a manufacturing line, there are processes A, B, C,..., And one worker is in charge of one process. It is also assumed that each step has a plurality of operations. For example, assume that the process A includes operations a1 to a5. As a specific example, for example, one process is a process of attaching a tire to a vehicle body, and each operation is an individual operation such as setting, mounting, and checking a tire.
Now, assuming that the process A has five operations a1 to a5 as shown in FIG. 4B, the worker WM1 in charge performs the process A (operations a1 to a5) repeatedly on the vehicle body on the line. Become.
By acquiring and storing the three-dimensional position information of each of the detection points P0 to P20 as shown in FIG. 4A at each sample timing t, the three-dimensional position information of the detection points P0 to P20 in the repeatedly performed process is time-series. Will be collected above.
Although FIG. 4B shows that one step A is completed at each of the sample timings t0 to t99 and t100 to t199, this is merely an example for explanation. This is because, for example, even when the same process is performed by the same operator, the process is not always completed in the same time. Which sample timing t is the information as each of the operations a1 to a5 in the process A can be determined based on the posture determined by each three-dimensional coordinate value, the change in the posture, the change in the motion, and the like.

動作判定部1dは、検出情報取得部1cで得た身体状態における検出点P又は線の変化により作業者の姿勢又は動作を判定する。検出点P又は線の変化は、図4Aのように取得した検出点P0〜P(n)の三次元座標値の変化で表される。図4Aでは検出点Pの情報を記憶するとしたが、線の情報は、各検出点Pを結ぶため、各検出点Pから把握することができる。そして動作判定部1dは、図4Aの情報の時系列上の変化により、作業者の姿勢や動作を判定する。   The motion determining unit 1d determines the posture or motion of the worker based on a change in the detection point P or the line in the body state obtained by the detection information obtaining unit 1c. The change in the detection point P or the line is represented by a change in the three-dimensional coordinate values of the detection points P0 to P (n) acquired as shown in FIG. 4A. In FIG. 4A, the information of the detection points P is stored, but the information of the line connects the respective detection points P, and thus can be grasped from the respective detection points P. Then, the motion determining unit 1d determines the posture and the motion of the worker based on the time-series change of the information in FIG. 4A.

負担算出部1eは、動作判定部1dで判定した作業者の姿勢又は動作に基づいて作業負担値を算出する。
人の姿勢や動作に対しては、人間工学的にそれぞれ負担値を予め算出しておくことができる。例えば両手を上げている姿勢の負担、しゃがんだ姿勢の負担、腰をかがめた姿勢、或いは横への移動動作、体をひねる動作などについての負担値は、予め計算できる。また各姿勢や動作の継続時間によって負担も異なるが、その継続時間に応じた負担の値も予め設定できる。例えば両手を上げる姿勢は、一瞬であればさほど負担はないが、継続して上げている状態はかなり負担が大きくなる。
これら姿勢や動作、さらにはその時間に応じた負担値は、予め人間工学に沿って算出し、体系化してデータベース部2に登録しておく。
そして負担算出部1eは、動作判定部1dで判定した工程や各作業における作業者の一連の動作、姿勢や、その継続時間に基づいて、工程或いは工程内の各作業についての作業負担値を算出する。例えば検出点Pまたは線の移動量から判定された動作や姿勢やその継続時間等についての負担値を求め、これらを加算、或いは重み付け加算等を行い、作業や工程における一連の動作(姿勢)としての作業負担値を算出する。具体的には、判定された作業中の姿勢、腕等の関節の角度、移動量等について個々に負担値をあてはめ、これらを用いて1つの作業や工程の作業負担値を算出する。
また例えば作業終了時まで通して作業負担値を算出し、疲労のピークや、作業延長時の影響度(疲労予測)を求めることもできる。
The load calculation unit 1e calculates a work load value based on the posture or motion of the worker determined by the motion determination unit 1d.
With respect to the posture and the motion of the person, the burden values can be calculated in advance ergonomically. For example, the burden value of the burden of raising both hands, the burden of squatting posture, the posture of bending over, or the lateral movement operation, the twisting movement, and the like can be calculated in advance. Also, the load varies depending on the posture and the duration of the operation, but the value of the load according to the duration can be set in advance. For example, the posture in which both hands are raised is not so burdensome for a moment, but the burden is large when the posture is continuously raised.
These postures and movements, and the load values according to the time, are calculated in advance in accordance with ergonomics, systematically registered in the database unit 2.
The load calculation unit 1e calculates a work load value for the process or each work in the process based on a series of movements and postures of the worker in the process and each work determined by the movement determination unit 1d and the duration thereof. I do. For example, a burden value for the motion or posture determined from the movement amount of the detection point P or the line, the duration thereof, or the like is obtained, and these are added or weighted and added, so that a series of motions (postures) in the work or process are performed. Is calculated. Specifically, load values are individually applied to the determined posture during the work, the angles of the joints of the arms and the like, the amount of movement, and the like, and the work load value of one work or process is calculated using these.
Further, for example, the work load value is calculated until the end of the work, and the peak of fatigue and the degree of influence (fatigue prediction) when the work is extended can also be obtained.

例えば負担算出部1eは図5のように工程や作業に関しての算出値を記憶する。
なお算出値は、多様に想定される。例えば工程Aについての算出値MA1は、工程Aにおける作業負荷の総合負担値、MA2は作業者の肩に対する負担値、図示しないMA3は脚部に対する負担値、などとしてもよい。
また各作業に対しての算出値(例えば作業a1についての算出値Ma1−1、Ma2−2・・・)も、総合負担値、各部の負担値などとしてもよい。
工程や作業についての負担値(作業負荷)の計算例を示す。
For example, the load calculating unit 1e stores the calculated values regarding the process and the work as shown in FIG.
Note that the calculated value is assumed to be various. For example, the calculated value MA1 for the process A may be a total burden value of the work load in the process A, MA2 may be a burden value on the shoulder of the worker, and MA3 (not shown) may be a burden value on the legs.
Also, the calculated value for each work (for example, the calculated values Ma1-1, Ma2-2,... For the work a1) may be a total burden value, a burden value of each unit, or the like.
The calculation example of the burden value (work load) about a process and work is shown.

Figure 0006676321
Figure 0006676321

ここで、Disは各関節1フレームでの移動負荷、Kdisは疲労度に対する各関節移動量の重み、Posは姿勢負荷、Kposは疲労度に対する各関節角度の重みである。
Disは(数2)で求められる。
Here, Dis is the movement load of each joint in one frame, Kdis is the weight of each joint movement amount with respect to the degree of fatigue, Pos is the posture load, and Kpos is the weight of each joint angle with respect to the degree of fatigue.
Dis is obtained by (Equation 2).

Figure 0006676321
Figure 0006676321

ここで、X1、Y1、Z1は各関節の座標、X0、Y0、Z0は各関節1フレーム前の座標である。
Posは例えば(数3)で求められる。
Here, X1, Y1, and Z1 are the coordinates of each joint, and X0, Y0, and Z0 are the coordinates one frame before each joint.
Pos is obtained by, for example, (Equation 3).

Figure 0006676321
Figure 0006676321

ここで、Uは各関節上方の体の重量、Kuは作業負荷に対する各関節上方の体重量の重み、Fは工程毎に設定される外力の合計、Kfは作業負荷に対する各関節上方の外力の重み、θは各関節の計算角度、Pは人間の姿勢つらさを示した定数である。
なお、以上の負担値(作業負荷)の計算例は一例に過ぎない。
Here, U is the weight of the body above each joint, Ku is the weight of the body weight above each joint with respect to the work load, F is the sum of the external forces set for each process, and Kf is the external force above each joint with respect to the work load. The weight, θ is the calculated angle of each joint, and P is a constant indicating the posture of the human being.
The above calculation example of the burden value (work load) is only an example.

適応値算出部1gは、検出情報取得部1cで得た検出点又は線についての情報を、当該測定対象の工程について設定された基準情報と比較して、作業者の当該工程に対する適応値を算出する。
例えば、1つの工程の各作業において、例えば理想的な姿勢や動作を基準とし、その基準となる姿勢や動作における各検出点P(P0〜P20)の位置や時系列上の変化を予め数値化してデータベース部2に格納しておく。例えば熟練者の工程作業を撮像して、各検出点P1〜P20の各時点の位置や変化を図4Aと同様に取得して、基準情報として記憶しておくようにしてもよい。或いは人間工学的な分析により、該当の作業において最も人への負担が小さい姿勢や動作を設定し、その場合の各検出点P0〜P20に相当するポイントの各時点の位置や変化を基準情報として記憶してもよい。
いずれにしても、そのような基準情報と、図4Aのような検出情報を比較することで、検出対象としている作業者にとっての、当該工程に適しているか否かを示す適応値を求める。適応値は、対象の工程に対象の作業者が適しているか否かを数値化した情報である。例えば「0」から「100」の数値などとして、適応性を表すものとする。
The adaptation value calculation unit 1g compares the information on the detection points or lines obtained by the detection information acquisition unit 1c with reference information set for the process to be measured, and calculates the adaptation value of the worker for the process. I do.
For example, in each operation of one process, for example, an ideal posture or operation is used as a reference, and the position or time-series change of each detection point P (P0 to P20) in the reference posture or operation is quantified in advance. And stored in the database unit 2. For example, an image of a process operation of a skilled person may be taken, and the positions and changes of the respective detection points P1 to P20 at each time point may be acquired in the same manner as in FIG. 4A and stored as reference information. Alternatively, by ergonomic analysis, a posture or an operation that places the least burden on a person in the corresponding work is set, and the position or change of each point corresponding to each of the detection points P0 to P20 in that case is used as reference information. You may memorize it.
In any case, by comparing such reference information with the detection information as shown in FIG. 4A, an adaptation value indicating whether or not the detection target worker is suitable for the process is obtained. The adaptation value is information obtained by quantifying whether or not the target worker is suitable for the target process. For example, the adaptability is represented by a numerical value from “0” to “100”.

この適応値の算出には、例えば各時点の各検出点P0〜P20についての基準情報との差分を求め、その差分が大きいほど、当該工程に適していないとする値となるような演算を行う。また各検出点P0〜P20の時系列上の移動軌跡や移動時間を基準情報と比較して、動作の円滑さ、動作効率などを分析し、それを数値化することも考えられる。いずれにしても、基準情報に近いほど、適応性あり(例えば適応値=100)、基準情報と乖離するほど、適応性なし(例えば適応値=0)などとなるような値を求める演算を行う。   In calculating the adaptive value, for example, a difference from the reference information for each of the detection points P0 to P20 at each time point is obtained, and a calculation is performed such that the larger the difference is, the more the value is not suitable for the process. . It is also conceivable to compare the movement trajectory and movement time of each of the detection points P0 to P20 in the time series with the reference information, analyze the smoothness of the movement, the movement efficiency, and the like, and digitize it. In any case, an operation is performed to find a value that is closer to the reference information and more adaptive (for example, adaptive value = 100), and farther from the reference information is less adaptive (for example, adaptive value = 0). .

出力制御部1fは、負担算出部1eや適応性判定部1gの算出結果に基づいて、測定対象の工程における作業負担評価情報、適応性評価情報、個人特性の判定結果の情報などを提示する制御を行う。即ち作業負担評価情報を生成し、作業負担評価情報を記憶部3に記憶させたり、表示部4で表示させたり、通信部5により外部装置に送信したり、印刷部6により印刷出力させたりする制御処理を行う。   The output control unit 1f is a control for presenting work load evaluation information, adaptability evaluation information, information on the result of determination of personal characteristics, and the like in the process to be measured, based on the calculation results of the load calculation unit 1e and the adaptability determination unit 1g. I do. That is, work load evaluation information is generated, and the work load evaluation information is stored in the storage unit 3, displayed on the display unit 4, transmitted to an external device by the communication unit 5, and printed out by the printing unit 6. Perform control processing.

データベース部2は、例えば上述のように姿勢や動作毎の負担値や、適応性判定のための基準情報などが記憶されており、演算部1は作業負担値や適応値の算出のためなどに逐次参照できるようにされている。
記憶部3は、図4Aのような検出情報や、図5のような算出値の情報が記憶される。また演算部1が上記各機能を実行するためのプログラムが記憶される。
表示部4は、演算部1に接続された表示デバイスとされ、各種のユーザインターフェース画像や、作業負担評価情報を示す画像の表示を行う。
通信部5は、有線、無線で外部機器との通信を行ったり、LAN(Local Area Network)等の通信経路を介した通信を行う。演算部1は通信部5により例えば作業負担評価情報を他の情報処理装置等に提供できる。
印刷部6は、演算部1に接続されたプリンター等であり、演算部1の指示に応じて印刷動作を行う。
The database unit 2 stores, for example, the load value for each posture and motion, the reference information for determining the adaptability, and the like, as described above, and the arithmetic unit 1 calculates the work load value and the adaptive value. It can be referred to sequentially.
The storage unit 3 stores detection information as shown in FIG. 4A and information of calculated values as shown in FIG. Also, a program for causing the arithmetic unit 1 to execute the above functions is stored.
The display unit 4 is a display device connected to the calculation unit 1 and displays various user interface images and images indicating work load evaluation information.
The communication unit 5 performs communication with an external device by wire or wirelessly, and performs communication via a communication path such as a LAN (Local Area Network). The arithmetic unit 1 can provide, for example, work load evaluation information to another information processing device or the like through the communication unit 5.
The printing unit 6 is a printer or the like connected to the arithmetic unit 1, and performs a printing operation in accordance with an instruction from the arithmetic unit 1.

<処理手順>
図6を参照しながら演算部1の処理手順を説明する。演算部1は図1に示した各機能(1a〜1g)により、以下の処理を実行する。
なお図6では、一人の作業者、工程を対象として作業負荷の測定及び適応性判定を行う処理を示している。演算部1は、このような処理を各工程に対応して行う。もちろん複数のコンピュータ装置がそれぞれ並行して当該処理を行うものでもよい。
<Processing procedure>
The processing procedure of the calculation unit 1 will be described with reference to FIG. The arithmetic unit 1 executes the following processing by using the functions (1a to 1g) shown in FIG.
FIG. 6 shows a process for measuring the workload and determining the suitability of one worker or process. The calculation unit 1 performs such processing for each step. Of course, a plurality of computer devices may perform the processing in parallel.

演算部1はステップS101で基本情報の読み込みを行う。例えば工程番号、工程内の作業の情報、作業者の情報、計測における各種パラメータ設定等を、オペレータによる操作もしくは自動設定に応じて読み込む。   The arithmetic unit 1 reads basic information in step S101. For example, a process number, information on work in a process, information on an operator, various parameter settings in measurement, and the like are read in accordance with an operation by an operator or automatic setting.

ステップS102で演算部1は撮像及び/又はセンシングを開始する。即ち撮像部10からの撮像画像データの取り込みを開始する。またセンサ20の検出値の取り込みも開始する。
ステップS103で演算部1は、作業者認識を行う。即ち取り込みを開始した撮像画像データの画像解析により、作業者を認識する。例えば特定の色の作業服を着た人物を作業者として認識し、その作業者の身体位置を把握する。
ステップS104で演算部1は、作業者追尾を開始する。即ち画像上で認識した作業者がフレームアウトしないように駆動部11を制御する追尾制御を開始する。
In step S102, the arithmetic unit 1 starts imaging and / or sensing. That is, the capture of the captured image data from the imaging unit 10 is started. The acquisition of the detection value of the sensor 20 is also started.
In step S103, the calculation unit 1 performs worker recognition. That is, the worker is recognized by image analysis of the captured image data that has started capturing. For example, a person wearing work clothes of a specific color is recognized as a worker, and the body position of the worker is grasped.
In step S104, the arithmetic unit 1 starts worker tracking. That is, the tracking control for controlling the drive unit 11 is started so that the worker recognized on the image does not go out of the frame.

ステップS105で演算部1は測定開始を待機する。即ち作業者が実際の工程作業に入るとともに測定を開始するトリガを待つ。このトリガはオペレータの指示、或いは特定の時刻、或いは製造ライン管理システムからの同期信号などが考えられる。
測定開始トリガに応じて演算部1はステップS106に進む。
In step S105, the arithmetic unit 1 waits for the start of measurement. That is, the operator enters an actual process operation and waits for a trigger to start measurement. The trigger may be an instruction from an operator, a specific time, or a synchronization signal from a production line management system.
In response to the measurement start trigger, the calculation unit 1 proceeds to step S106.

ステップS106で演算部1は測定データを取得する。即ち検出情報取得部1cの機能により、画像解析部1aの解析結果の取得やセンサ20からの情報の取得を行い、例えば図4Aにおける1つのサンプルタイミングt(x)の情報として記憶管理する。
ステップS107で演算部1は、姿勢データモデル化を行う。つまり動作判定部1dの機能により、ステップS106で取得した各検出点Pの三次元座標値によって表現される作業者の簡易モデルから、作業者の姿勢、動作を判定する。
ステップS108で演算部1は、作業負荷数値化を行う。即ち演算部1は付加算出部1eの機能により、各種作業負荷の計算を行い、その計算値を記憶する。
以上のステップS106〜S108の処理を、ステップS109で測定終了と判断されるまで繰り返す。
この間、ステップS108での計算値は、それぞれ各時点における図5のようなデータとして保存してもよいし、毎サンプルタイミングtの計算値の積算値として図5のようなデータを更新していくようにしてもよい。
In step S106, the calculation unit 1 acquires measurement data. That is, the function of the detection information acquisition unit 1c acquires the analysis result of the image analysis unit 1a and the information from the sensor 20, and stores and manages the information as one sample timing t (x) in FIG. 4A, for example.
In step S107, the calculation unit 1 performs posture data modeling. That is, by the function of the motion determining unit 1d, the posture and motion of the worker are determined from the simple model of the worker represented by the three-dimensional coordinate values of each detection point P acquired in step S106.
In step S108, the calculation unit 1 quantifies the workload. That is, the calculation unit 1 calculates various workloads by the function of the additional calculation unit 1e, and stores the calculated values.
The above processing of steps S106 to S108 is repeated until it is determined in step S109 that measurement has been completed.
During this time, the calculated value in step S108 may be stored as data as shown in FIG. 5 at each time point, or the data as shown in FIG. 5 is updated as an integrated value of the calculated value at each sample timing t. You may do so.

測定終了となった後は、演算部1はステップS110で負担評価情報を生成する。またステップS111で演算部1は適応性判定を行う。さらに演算部1はステップS112で推奨工程判定を行う。そしてステップS113で負担評価情報や適応性評価情報等を表示部4に表示させる。
例えば製造ラインの各工程について、1日のスパンで以上のような測定を行う場合、1日の作業者の負担に関する負担評価情報が生成され表示される。加えて各工程に対する作業者の適応性を評価するための適応性判定や、推奨工程判定が行われて、その判定結果の情報として適応性評価情報や推奨/非推奨の情報が生成され、表示されることになる。
After the measurement is completed, the calculation unit 1 generates burden evaluation information in step S110. In step S111, the arithmetic unit 1 performs an adaptability determination. Further, the arithmetic unit 1 makes a recommended process determination in step S112. Then, in step S113, the load evaluation information, the adaptability evaluation information, and the like are displayed on the display unit 4.
For example, when the above-described measurement is performed in a span of one day for each process of the manufacturing line, burden evaluation information on the burden on the worker per day is generated and displayed. In addition, the adaptability judgment for evaluating the adaptability of the worker to each process and the recommended process judgment are performed, and as the information of the judgment result, the adaptability evaluation information and the recommended / non-recommended information are generated and displayed. Will be done.

なお、ステップS113の段階で演算部1は、負担評価情報、適応性評価情報、推奨/非推奨の情報を記憶部3に記憶したり、印刷部6で印刷出力したり、通信部5で外部機器に送信してもよい。
またステップS111、S112の演算は、ライン管理者等がシミュレーション要求の操作を行った場合に実行するようにし、その演算後に適応性評価情報や推奨/非推奨の情報を表示出力するようにしてもよい。つまり、適応性判定や推奨工程判定は、過去の測定情報が存在すればいつでも可能であるため、任意の時点で実行されるようにしてもよい。
さらにステップS112を実行しない処理例も考えられる。
Note that at the stage of step S113, the arithmetic unit 1 stores the load evaluation information, the adaptability evaluation information, and the recommended / non-recommended information in the storage unit 3, prints out the data with the printing unit 6, and prints out the external data with the communication unit 5. It may be transmitted to the device.
The calculations in steps S111 and S112 are performed when a line manager or the like performs a simulation request operation, and after the calculation, adaptive evaluation information and recommended / non-recommended information are displayed and output. Good. That is, the adaptability determination and the recommended process determination can be performed at any time as long as there is past measurement information, and may be performed at any time.
Further, a processing example in which step S112 is not performed may be considered.

<作業負担評価情報の提示>
上記ステップS110で作成され、ステップS113で表示される作業負担評価情報の具体例を示す。
<Presentation of workload evaluation information>
A specific example of the workload evaluation information created in step S110 and displayed in step S113 will be described.

図7Aは、工程別に算出した作業負担を数値化して示した例である。例えば工程毎に、各サンプルタイミングtでの作業負担値を積算し、1日の労働で作業者に与える負担の値を求めて、工程毎を比較できるように提示する。
1つの工程については、ステップS106で例えば図4Aのように各サンプルタイミングtでの作業者の身体状況が取得でき、さらにステップS107,S108の処理で単位期間毎に負担値が算出される。この負担値が測定終了まで積算されて保持されるようにすれば、各工程において図5のように保持した算出値(例えばMA1、MA2・・・)は、測定開始から終了までの工程の負担値となる。例えば1日の勤務における工程の負担値となる。従って、そのように得た積算値を工程毎に集めて負担評価情報とすることで、図7Aのように表示を行うことができる。
FIG. 7A is an example in which the work load calculated for each process is quantified and shown. For example, for each process, the work load value at each sample timing t is integrated, the value of the load given to the worker by one day's work is obtained, and presented so that the processes can be compared for each process.
For one process, the physical condition of the worker at each sample timing t can be acquired in step S106, for example, as shown in FIG. 4A, and the burden value is calculated for each unit period by the processes in steps S107 and S108. If the burden values are integrated and held until the end of the measurement, the calculated values (for example, MA1, MA2,...) Held in each step as shown in FIG. Value. For example, it is a burden value of a process in one-day work. Therefore, by collecting the integrated values thus obtained for each process and using the collected values as burden evaluation information, the display can be performed as shown in FIG. 7A.

図7Bは、或る工程における作業別に算出した作業負担を数値化して示した例である。例えば1つの工程における作業毎に、各サンプルタイミングtでの作業負担値を積算し、1日の労働で作業者に与える負担の値を求めて、作業毎を比較できるように提示する。
1つの工程において各作業の負担度合いをみることができる。
工程内の各作業については、予め各作業による動作パターン等を登録しておけば、画像解析により、各サンプルタイミングtの期間の動作が、それぞれどの作業の実行中であるかが判別できる。従ってステップS108での負担値の算出を、各作業単位で分けて実行することが可能で、その各作業についての算出値を積算していけば、保持した算出値は測定開始から終了までの工程の負担値となる。例えば図5の算出値Ma1−1、Ma2−1・・・Ma5−1)は、測定開始から終了までの工程Aにおける各作業a1〜a5の負担値となる。例えば1日の勤務における各作業の負担値となる。従って、そのように得た積算値を工程毎に集めて負担評価情報とすることで、図7Bのような表示を行うことができる。
FIG. 7B is an example in which the work load calculated for each work in a certain process is quantified and shown. For example, for each operation in one process, the work load value at each sample timing t is integrated, the value of the load given to the worker in one day's work is obtained, and presented so that the operations can be compared.
It is possible to see the degree of burden of each operation in one process.
For each work in the process, if an operation pattern or the like of the work is registered in advance, it is possible to determine which work is being executed during the period of each sample timing t by image analysis. Therefore, the calculation of the burden value in step S108 can be performed separately for each task, and if the calculated values for each task are accumulated, the held calculated value can be calculated in the process from the start to the end of the measurement. It becomes the burden value of. For example, the calculated values Ma1-1, Ma2-1,..., Ma5-1) in FIG. 5 are the burden values of the operations a1 to a5 in the process A from the start to the end of the measurement. For example, it is a burden value of each work in one day's work. Therefore, the display as shown in FIG. 7B can be performed by collecting the integrated values thus obtained for each process and using the collected values as burden evaluation information.

図7Cは、或る工程又は作業に関して、運動量負荷、姿勢負荷を、身体の部位毎に求めて提示する例である。このような情報により、当該工程又は作業では、作業者のどこに負荷がかかるかなどを知ることができる。
身体の各部に係る負担値自体は、例えば姿勢や動きを判定することで例えばデータベース部2から取得するような処理が可能である。例えばステップS107で或る姿勢を判定したときに、その姿勢における右手の負担値、左手の負担値、腰の負担値、右足の負担値、左足の負担値などをデータベース部2から取得する。ステップS108では、各部の負担値を測定開始から終了までの期間中に積算していけばよい。すると、測定終了時点で身体各部の負担値が求められていることになる。そのような積算値を集めて負担評価情報とすることで、図7Cのような表示を行うことができる。
FIG. 7C is an example of obtaining and presenting a momentum load and a posture load for each part of the body with respect to a certain process or work. From such information, it is possible to know where the load is applied to the worker in the process or the work.
The load value pertaining to each part of the body itself can be processed, for example, from the database unit 2 by, for example, determining the posture or movement. For example, when a certain posture is determined in step S107, the burden value of the right hand, the burden value of the left hand, the burden value of the waist, the burden value of the right foot, the burden value of the left foot, and the like in that posture are acquired from the database unit 2. In step S108, the burden value of each unit may be accumulated during the period from the start to the end of the measurement. Then, the burden value of each part of the body is obtained at the end of the measurement. By collecting such integrated values and using them as burden evaluation information, a display as shown in FIG. 7C can be performed.

図8Aは、或る工程又は作業に関して、検出点P0〜P20毎に、負担値を表示した例である。図7Cの場合と同様に、姿勢や動作に対応して設定された検出点P0〜P20毎に負担値を積算していくことで、例えば1日の勤務における各検出点P0〜P20の負担値を算出することができる。そのような積算値を集めて負担評価情報とすることで、図8Aのような表示を行うことができる。
このような情報により管理者やライン技術者等は、当該工程又は作業では、作業者のどこに負荷がかかるかをより詳細に知ることができる。
FIG. 8A is an example in which a burden value is displayed for each of the detection points P0 to P20 for a certain process or operation. As in the case of FIG. 7C, by integrating the burden values for each of the detection points P0 to P20 set corresponding to the posture and the movement, for example, the burden values of the respective detection points P0 to P20 during one working day Can be calculated. The display as shown in FIG. 8A can be performed by collecting such integrated values and using them as burden evaluation information.
Such information allows the manager, line technician, and the like to know in more detail where the load is applied to the worker in the process or the work.

図8Bは、或る工程(又は作業)について、作業者毎に比較できる情報を提示する例である。図4Aのような検出情報を作業者コードに紐づけておくことで、例えば1つの工程について、作業者毎に負担値や工程所要時間を求めることができる。所要時間は、各サンプルタイミングtにおいて判定される姿勢・動作により計測できる。例えば姿勢や動作により、各作業の開始・終了、工程の開始・終了タイミングが判別できるため、その間のサンプルタイミング数で判定できる。
そこで同一の工程や作業について作業者毎の負担値を比較できるような負担評価情報を生成し、図示のように表示させる。これによって管理者は、各工程や作業について、作業者毎の習熟度や向き/不向きを判断することができる。
FIG. 8B is an example of presenting information that can be compared for each worker for a certain process (or work). By associating the detection information as shown in FIG. 4A with the worker code, for example, for one process, the burden value and the process required time can be obtained for each worker. The required time can be measured based on the posture / motion determined at each sample timing t. For example, the start and end of each operation and the start and end timings of the process can be determined based on the posture and the motion, and thus the determination can be made based on the number of sample timings between them.
Therefore, load evaluation information is generated so that the load values of the same process or work can be compared for each worker, and displayed as shown in the figure. As a result, the administrator can determine the proficiency and the direction / unsuitability of each worker with respect to each process or work.

以上の図7、図8は負担評価情報の一例である。これ以外にも多様な情報提示が考えられる。いずれにしても、工程や作業における各作業者の姿勢や動作を判定し、負担値を算出するようにしているため、それらの情報に基づいて多様な負担評価情報を生成し、表示させることができる。例えば時間帯別の負担値の提示、作業を延長した場合の予測される負担値の提示なども可能である。   FIGS. 7 and 8 show examples of the burden evaluation information. Various other information presentations are also conceivable. In any case, since the posture and movement of each worker in the process and the work are determined and the burden value is calculated, various burden evaluation information can be generated and displayed based on the information. it can. For example, it is also possible to present a burden value for each time zone, to present a predicted burden value when the work is extended, and the like.

<適応性判定及び推奨工程判定>
次に図6のステップS111、S112の適応性判定及び推奨工程判定の処理例を説明する。図9Aは適応性判定処理例である。
演算部1は、図6で測定対象とした或る工程の或る作業者毎に図9Aの処理を行う。
まずステップS201で演算部1は対象の作業を選択する。例えば工程Aに関しての処理の場合、工程Aにおける作業a1を処理対象として選択する。
<Adaptability judgment and recommended process judgment>
Next, processing examples of the adaptability determination and the recommended process determination in steps S111 and S112 in FIG. 6 will be described. FIG. 9A is an example of the adaptability determination process.
The calculation unit 1 performs the process of FIG. 9A for each worker in a certain process that is a measurement target in FIG.
First, in step S201, the calculation unit 1 selects a target work. For example, in the case of the process regarding the process A, the operation a1 in the process A is selected as a process target.

ステップS202で演算部1は、処理対象として選択した作業における、作業者の身体各部の個別データを抽出する。例えば作業a1を選択しているときは、図4Bのように、サンプルタイミングt0〜t15、t100〜t115、・・・の情報が作業a1についてのサンプルであるとすると、これらのサンプルタイミングにおける検出点P0〜P(n)の三次元座標値を抽出する。   In step S202, the calculation unit 1 extracts individual data of each body part of the worker in the work selected as the processing target. For example, when the operation a1 is selected, as shown in FIG. 4B, assuming that the information at the sample timings t0 to t15, t100 to t115,. The three-dimensional coordinate values of P0 to P (n) are extracted.

ステップS203で演算部1は、抽出した個別データを作業a1について設定された基準情報の各該当データと比較する。
このため演算部1はデータベース部2から工程Aの作業a1に関する基準情報を取得する。例えば作業a1としての基準となる検出点P0〜P(n)の各時点の三次元座標値が、データベース部2に登録されている。このような基準情報と対象の作業者の身体各部の個別データを比較して差分値を求める。
そしてステップS204で演算部1は、差分値を用いて演算を行い、当該作業者の当該作業(例えば作業a1)に対する適応性を示す適応値を算出する。
差分値が小さいと言うことは、その作業者が基準情報との比較で姿勢や動きの差が小さいということであり、作業中に無駄な動きが少ないということである。逆に差分値が大きいことは無駄な動きが多いということである。
例えば各サンプルタイミングの差分値の積算、主要な検出点Pの情報の選択/重み付け、各検出点Pの変位の時間などとして、所定の演算を行って適応値を求める。この適応値は、対象の作業者の姿勢や動作が、基準となる姿勢や動作に対して類似しているか或いは乖離しているかを表す値となるようにする。
また図4Aのような情報によれば、1つの作業、1つの動作の所要時間も判定できる。従って、所要時間に応じた係数を用いて適応値をもとめることも有効である。
In step S203, the calculation unit 1 compares the extracted individual data with each corresponding data of the reference information set for the work a1.
Therefore, the arithmetic unit 1 acquires the reference information on the work a1 in the process A from the database unit 2. For example, the three-dimensional coordinate values of the detection points P <b> 0 to P (n) serving as references as the work a <b> 1 are registered in the database unit 2. Such reference information and individual data of each part of the body of the target worker are compared to obtain a difference value.
Then, in step S204, the calculation unit 1 performs calculation using the difference value, and calculates an adaptation value indicating the adaptability of the worker to the work (for example, work a1).
The fact that the difference value is small means that the difference between the posture and the movement of the worker in comparison with the reference information is small, and that there is little useless movement during the work. Conversely, a large difference value means that there are many useless movements.
For example, an adaptive value is obtained by performing a predetermined calculation as integration of a difference value at each sample timing, selection / weighting of information of a main detection point P, and time of displacement of each detection point P. The adaptation value is a value indicating whether the posture or operation of the target worker is similar or deviated from the reference posture or operation.
Further, according to the information as shown in FIG. 4A, the time required for one work and one operation can be determined. Therefore, it is also effective to determine an adaptive value using a coefficient corresponding to the required time.

ステップS205では対象工程について未処理の作業が存在するか否かを判別し、未処理の作業があればステップS201に戻る。即ち工程Aの例でいえば、作業a2、a3、a4、a5についても同様のステップS202〜S204の処理を行い、各作業についての作業者の適応値を求めていくことになる。   In step S205, it is determined whether there is any unprocessed work for the target process, and if there is any unprocessed work, the process returns to step S201. That is, in the example of the process A, the processes of steps S202 to S204 are performed similarly for the works a2, a3, a4, and a5, and the adaptation value of the worker for each work is obtained.

各作業についての適応値を求めたら、演算部1はステップS205からS206に進み、作業毎の適応値を用いて(例えば加算して)、工程単位の適応値を求める。
そしてこれらの適応値を用いて、ステップS207で提示する情報としての適応評価情報を生成する。例えば適応値や、適応値の値から判定した適応性を表示するような情報を生成する。
そして演算部1は図6のステップS113、もしくはオペレータの操作等に基づく任意の時点で、その適応性評価情報を表示部4で表示させる。
After calculating the adaptation value for each work, the calculation unit 1 proceeds from step S205 to S206, and calculates (for example, adds) the adaptation value for each process using the adaptation value for each work.
Then, using these adaptation values, adaptation evaluation information as information to be presented in step S207 is generated. For example, information that displays the adaptation value and the adaptability determined from the value of the adaptation value is generated.
Then, the arithmetic unit 1 displays the adaptability evaluation information on the display unit 4 at step S113 in FIG. 6 or at any time based on the operation of the operator or the like.

図10Aは適応性評価情報の提示例を示している。或る作業者の工程Aについての適応性評価を示した例である。この場合、適応性のランクを示す評価記号として、◎(最適)、○(適)、△(普通)、×(不適)を用いるものとしている。
そして工程Aについての総合的な適応性及びポイントを提示している。ポイントは、上述の適応値、或いは適応値を或る値で正規化した値とする。演算部1は、ステップS206で算出した適応値に応じて、ステップS207で◎、○、△、×のランクを判定する。また工程A内の各作業a1〜a5についても、ステップS204で算出した適応値に応じて◎、○、△、×のランクを判定する。そしてそれらをまとめて適応性評価情報として生成し、図示のように表示させる。
このような表示により、或る作業者の或る工程に対する適応性、つまりその工程に向いているか不向きであるかを詳細に確認することができる。
FIG. 10A shows a presentation example of adaptability evaluation information. It is an example showing the applicability evaluation of process A for a certain worker. In this case, ◎ (optimum), ((suitable), Δ (normal), and × (unsuitable) are used as evaluation symbols indicating the rank of adaptability.
Then, the overall applicability and points for the process A are presented. The point is the above-mentioned adaptive value or a value obtained by normalizing the adaptive value by a certain value. The calculation unit 1 determines the ranks of ◎, △, Δ, and × in step S207 according to the adaptive value calculated in step S206. Also, for each of the operations a1 to a5 in the process A, the ranks of ◎, △, Δ, and × are determined according to the adaptive value calculated in step S204. Then, they are collectively generated as adaptability evaluation information and displayed as shown in the figure.
By such a display, it is possible to confirm in detail whether a certain worker is adaptable to a certain process, that is, whether or not the process is suitable or not.

図10Bは多数の作業者についての適応性評価情報を一覧にして提示する例である。各作業者について、工程及び工程内の作業(工程Aにおけるa1〜a5等)との関係における適応性を評価記号により示すようにしている。
一覧提示の態様は多様であり、例えば工程Aのみなど特定の工程を対象として、複数の作業者の適応性評価情報を一覧提示したり、或る特定の作業者を対象として、その作業者が行った複数の工程についての適応性評価情報を一覧提示することなども考えられる。
FIG. 10B is an example in which the adaptability evaluation information for a large number of workers is presented as a list. For each worker, the adaptability in relation to the process and the work in the process (a1 to a5 in process A) is indicated by an evaluation symbol.
The form of the list presentation is various, for example, a specific process such as only the process A is targeted, and the adaptability evaluation information of a plurality of workers is presented in a list. It is also conceivable to present a list of adaptability evaluation information for a plurality of performed steps.

次に図9Bは図6のステップS112として行う推奨工程判定の処理例を示している。本実施の形態では単に作業者の適応性を示すだけでなく、各作業者がどの工程に適しているか、或いは適していないかを提示できるようにしている。   Next, FIG. 9B shows a processing example of the recommended process determination performed as step S112 in FIG. In the present embodiment, not only the adaptability of the worker is indicated, but also each worker can indicate which process is suitable or not.

演算部1は図9BのステップS301で図6の一連の処理で現在処理対象としている作業者の個人特性を判定する。
個人特性とは、例えば年齢、性別、経験年数、右利き、左利きなど、予め登録できる既知の情報に加えて、次のような情報が考えられる。
・重量負担の大きい作業が得意/不得意
・精密作業が得意/不得意
・右手を主に使う(又は左手を主に使う)作業が得意/不得意
・左から右(又は右から左)に移動しながら行う作業が得意/不得意
・上方向きで行う作業(例えば車体底部の作業)が得意/不得意
・身体を上下に変動させる作業が得意/不得意
・身体をひねる動作を伴う作業が得意/不得意
The calculation unit 1 determines the personal characteristics of the worker currently being processed in the series of processes in FIG. 6 in step S301 in FIG. 9B.
The personal characteristics include, for example, the following information in addition to known information that can be registered in advance, such as age, gender, years of experience, right-handed, left-handed, and the like.
・ We are good / weak at heavy weight work ・ We are good / weak at precision work ・ We are good at work using right hand mainly (or use left hand mainly) ・ We are weak at work from left to right (or right to left) Good at doing / moving while moving, good at doing upside down (for example, work on the bottom of the car body), good at doing / unsatisfactory, good at moving the body up and down. Good / Not good

以上は一例であるが、工程内容に応じて、各種の個人特性が判定できる。
例えば工程内の作業毎に適応値を求めていることで、作業者にとって適応性のある作業内容、或いは適応性のない作業内容の傾向が現れる。或る作業者にとって適応値が高いとされた作業は、基準情報との姿勢や動きの差が小さい、つまり無駄な動きが少ないと判定された作業である。従って、その作業は得意な作業と推定できる。
また特に作業毎の所要時間が適応値に反映されていることで、得意な作業、不得意な作業は、より明確になる。もちろん適応値とは独立して、図4Aの情報から各作業の所要時間を求め、それを基準にして得意な作業/不得意な作業を判定してもよい。さらにはその作業者についての作業毎の速度偏差を求めることで、作業者個人の得意傾向が明確になる。
これらの演算によって対象の作業者にとっての得意な作業、不得意な作業が判定できる。
Although the above is an example, various personal characteristics can be determined according to the contents of the process.
For example, since an adaptation value is obtained for each work in a process, a tendency of work contents that are adaptable to a worker or work contents that are not adaptable appears. The work that is determined to have a high adaptation value for a certain worker is a work that is determined to have a small difference in posture and movement from the reference information, that is, to have a small amount of useless movement. Therefore, the work can be presumed to be a good work.
In addition, particularly, since the required time for each work is reflected in the adaptation value, the work that is good at work and the work that is not good at work become clearer. Needless to say, the required time of each work may be obtained from the information in FIG. 4A independently of the adaptation value, and the good work / unsatisfactory work may be determined based on the time. Further, by obtaining the speed deviation of each worker for each work, the tendency of each worker in his or her specialty becomes clear.
By these calculations, it is possible to determine the work that the subject worker is good at and the work that he is not good at.

データベース部2には、作業特性情報として、各工程や各作業についての「重量作業」「精密作業」「右手傾向」「左手傾向」「上方作業」「上下動」「ひねり」などの作業特性を登録しておく。そして或る作業者にとって、得意な作業を判定したら、その作業の作業特性をデータベース部2から収集する。得意な作業としての判定数が多くなるほど、得意作業の傾向がわかり、上述の個人特性がより明確に判定できる。   The database unit 2 stores, as work characteristic information, work characteristics such as “heavy work”, “precision work”, “right hand tendency”, “left hand tendency”, “upper work”, “vertical movement”, and “twist” for each process and each work. Register. When a task that is good for a certain worker is determined, the task characteristics of the task are collected from the database unit 2. As the number of determinations as a good work increases, the tendency of the good work can be understood, and the above-mentioned individual characteristics can be more clearly determined.

ステップS302で演算部1は、各工程についての適応傾向の情報を例えばデータベース部2から取得する。例えば工程毎に、要求される特性(「重量」「精密」等)を登録しておき、その情報を確認する。
ステップS303で演算部1は、その作業者について判定した個人特性と、工程毎に要求される特性を比較して、その作業者にとっての推奨工程や非推奨工程を選択し、それらを表示するための推奨/非推奨情報を生成する。また個人特性の情報を表示用に生成してもよい。
そして演算部1は図6のステップS113、もしくはオペレータの操作等に基づく任意の時点で、その推奨/非推奨情報や個人特性情報を表示部4で表示させる。
In step S302, the arithmetic unit 1 acquires information on the adaptation tendency for each process from, for example, the database unit 2. For example, required characteristics (“weight”, “precision”, etc.) are registered for each process, and the information is confirmed.
In step S303, the arithmetic unit 1 compares the individual characteristics determined for the worker with the characteristics required for each process, selects a recommended process or a non-recommended process for the worker, and displays them. Generate recommended / deprecated information for Also, information on personal characteristics may be generated for display.
Then, the arithmetic unit 1 displays the recommended / non-recommended information and the personal characteristic information on the display unit 4 at step S113 in FIG. 6 or at an arbitrary time based on the operation of the operator or the like.

図11Aは或る作業者についての推奨/非推奨情報や個人特性情報の提示例を示している。例えば推奨工程として工程A、工程Cが、また非推奨工程として工程Eが示される。
またその作業者にとっての個人特性についても示される。図では重量作業と精密作業についての判定した情報のみを示した例としているが、上述の各種の個人特性をそれぞれ示すことが考えられる。
FIG. 11A shows a presentation example of recommended / non-recommended information and personal characteristic information about a certain worker. For example, steps A and C are shown as recommended steps, and step E is shown as a non-recommended step.
It also shows the personal characteristics of the worker. Although the figure shows an example in which only the information determined for the heavy work and the precision work is shown, it is conceivable that each of the above-mentioned various personal characteristics is shown.

図11Bは多数の作業者についての推奨/非推奨情報を一覧にして提示する例である。各作業者について、推奨工程、非推奨工程が示される。
一覧提示の態様は多様であり、例えば推奨工程のみ、非推奨工程のみを示してもよい。
また工程Aのみなど特定の工程を対象として、その工程が推奨される作業者(或いは非推奨の作業者)を一覧表示することも考えられる。
FIG. 11B is an example in which recommended / non-recommended information about a large number of workers is presented as a list. Recommended and non-recommended processes are shown for each worker.
The form of the list presentation is various, and for example, only a recommended step or only a non-recommended step may be shown.
Further, for a specific process such as only the process A, a list of workers (or non-recommended workers) for which the process is recommended may be displayed.

<まとめ>
以上の実施の形態の適応性評価装置となる演算部1は、各サンプルタイミングtで、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点Pと該検出点Pを結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得する検出情報取得部1cと、検出点P又は線についての情報を当該測定対象の工程について設定された基準情報と比較して、作業者の当該工程に対する適応値を算出する適応値算出部1gと、その算出結果に基づいて適応評価情報を生成し、提示する制御を行う出力制御部1fを備える。
即ち作業者の身体状態を簡易モデルにより検出し、各身体部位、例えば関節部などについての検出点や線の位置や変化(移動ベクトル)により、作業者の動作を把握できるようにする。 そして検出点又は線についての情報、つまり身体の各部位(腕、腰、足)などの個別のデータを、あらかじめ設定した基準情報と比較することで、人と工程のマッチングを判定する(図6、図9A、図10参照)。これにより製造ラインにおける工程に対して、作業者個別の適応性が客観的な適応評価情報として提示される。そしてこれにより、誰がどの工程に適しているか、或いは適していないかを評価する客観的指標が得られることになり、例えば製造ラインの管理者等にとって、人員マネジメント、生産効率の向上等のための非常に有用な情報となる。
<Summary>
The computing unit 1 serving as the adaptability evaluation apparatus of the above embodiment connects the detection points P corresponding to a plurality of body parts of the worker executing the process to be measured at each sample timing t. In a state where the model is simply modeled by the line, the detection information acquisition unit 1c that acquires information on the physical condition of the worker, and compares the information about the detection point P or the line with reference information set for the process to be measured. An adaptation value calculation unit 1g that calculates an adaptation value of the worker for the process, and an output control unit 1f that controls the generation and presentation of adaptation evaluation information based on the calculation result.
That is, the physical state of the worker is detected by a simple model, and the movement of the worker can be grasped from the position or change (movement vector) of the detection point or line for each body part, for example, a joint. Then, by comparing information about the detection points or lines, that is, individual data such as each part of the body (arms, hips, and feet) with reference information set in advance, the matching between the person and the process is determined (FIG. 6). 9A and 10). Thereby, the adaptability of each worker is presented as objective adaptation evaluation information to the process in the manufacturing line. By this, an objective index for evaluating who is suitable or not suitable for which process can be obtained. For example, for a production line manager, etc., personnel management, improvement of production efficiency, etc. This is very useful information.

また出力制御部1fは、適応値算出部1gの算出結果を用いて、対象の作業者についての推奨される工程又は推奨されない工程を判定し、判定結果を提示する制御を行う(図10B、図11参照)。これにより作業者にとっての推奨される工程や、推奨できない工程の判定としての客観的情報が得られ、これもマネジメントに有効な情報となる。
また出力制御部1fは、適応値算出部1gの算出結果を用いて、対象の作業者についての個人特性を判定し、判定結果を提示する制御を行う(図10B、図11A)。
従って作業者の個人的な特性としての客観的な情報が得られる。
In addition, the output control unit 1f determines a recommended process or a non-recommended process for the target worker using the calculation result of the adaptive value calculation unit 1g, and performs control to present the determination result (FIG. 10B, FIG. 11). As a result, objective information for determining a recommended process for a worker and a process not recommended can be obtained, which is also effective information for management.
Further, the output control unit 1f determines individual characteristics of the target worker using the calculation result of the adaptive value calculation unit 1g, and performs control to present the determination result (FIGS. 10B and 11A).
Therefore, objective information as a personal characteristic of the worker can be obtained.

また検出情報取得部1cは、作業者を撮像した画像データの解析結果から、複数の検出点P0〜P(n)の三次元位置を取得するようにしている。即ちカメラで作業者を撮像し、撮像対象の人間の主に関節部を模した複数の点と、それを結ぶ線とに簡略化したデータに変換する。演算部1はこのような点又は線の移動ベクトルの検出結果から人間の動きを特定するシステムとしている。
この場合、作業者はセンサ等を身体に装着する必要をなくすことができ、センサ装着による違和感や作業性悪化を生じさせないようにすることができる。
The detection information acquisition unit 1c acquires the three-dimensional positions of the plurality of detection points P0 to P (n) from the analysis result of the image data of the worker. That is, an operator captures an image of a worker, and converts the data into a plurality of points simulating mainly a joint of a person to be imaged and data connecting the points to a simplified line. The calculation unit 1 is a system for specifying a human motion from the detection result of such a point or line movement vector.
In this case, it is possible to eliminate the need for the worker to wear the sensor or the like on the body, and it is possible to prevent the sensor from causing discomfort or deterioration in workability.

また検出点P又は線の変化により作業者の姿勢又は動作を判定する動作判定部1dと、判定した作業者の姿勢又は動作に基づいて作業負担値を算出する負担算出部1eとをさらに備え、出力制御部1fは、負担算出部1eの算出結果に基づいて、測定対象の工程における作業負担評価情報を提示する制御を行うようにしている(図6〜図8参照)。
即ち工程作業過程の姿勢や動作を検出し、作業負担値を算出する。この作業負担値に基づいて、工程の作業負担評価情報を生成して表示する。
これにより作業の負担値を客観的な数値により得ることができ、作業負担評価情報として、工程における作業者の負担を正確に認識できる情報を得ることができる。主観的情報ではないため、公平な判断も可能となり、製造ラインの設計、メンテナンス、人員配置等のマネジメント、ライン改善などに、非常に有意な情報を得ることができる。
また人の動きを検出する場合、身体全体を検出・認識すると情報量が大きく、誤作動もあり、演算部1の処理負担が増大する。これに対して本実施の形態では、検出点Pと線を用いて単純化し、角度、移動量で負担を計算するようにしているため、処理の容易化、比較的小規模の演算システムでの実現容易性を得ることができる。
Further, an operation determining unit 1d that determines the posture or the motion of the worker based on a change in the detection point P or the line, and a load calculating unit 1e that calculates a work load value based on the determined posture or the motion of the worker, is further provided. The output control unit 1f controls to present the work load evaluation information in the process to be measured based on the calculation result of the load calculation unit 1e (see FIGS. 6 to 8).
That is, the posture and the movement in the process work process are detected, and the work burden value is calculated. Based on the work load value, work load evaluation information of the process is generated and displayed.
As a result, the work load value can be obtained as an objective numerical value, and as the work load evaluation information, information that can accurately recognize the load of the worker in the process can be obtained. Since it is not subjective information, fair judgment can be made, and very significant information can be obtained for management of production line design, maintenance, staffing, etc., and line improvement.
Further, when detecting the movement of a person, if the entire body is detected and recognized, the amount of information is large, there is a malfunction, and the processing load on the arithmetic unit 1 increases. On the other hand, in the present embodiment, since the load is calculated using the detection point P and the line and the angle and the moving amount are used, the processing is simplified, and a relatively small-scale arithmetic system is used. Feasibility can be obtained.

また図7A,図7Bのように、例えば8時間など設定した対象期間において、複数の工程、又は工程内の複数の作業について作業負担値を例えば一覧等により提示することで、工程別、工程内作業別などの作業負担の差を明確化する客観的情報を示すことができる。 従って製造ライン設計技術者や工場管理者にとって有益な情報を提供できる。例えば製造ライン設計、或いは稼働開始の初期において、このような情報に基づいて各工程の負担を均一化するなどの改善を行う上で有益である。
また日々の稼働ラインの改善にも有益な情報となる。例えば日々、当該作業負担評価情報を確認して、次の日から工程における作業の改善や人員の合理的配置などに役立てることができる。
なお実施の形態では、測定終了後に負担評価情報を表示するようにしたが、例えば測定中にリアルタイムで各工程や作業の負担値を表示してもよい。すると、負荷の大きい作業者を作業中に発見できたり、それに応じて人員の配置替えを行うなどの処置も可能となる。
さらには、混流生産や品質状況に応じて作業の負担値が大きくなるとき等にも対応可能となる。例えば、一日の中で生産車種が切り替わったり、その日の状況や環境により品質が変わり一部手直しが入る等して、作業負担が変わるケースもあり、そのような場合に対応可能となるものである。
In addition, as shown in FIGS. 7A and 7B, in a target period set to, for example, 8 hours, work load values for a plurality of processes or a plurality of works in a process are presented, for example, in a list or the like, so that the process can be classified by process. Objective information that clarifies the difference in the work load of each work can be shown. Therefore, useful information can be provided for a production line design engineer or a factory manager. For example, it is useful for making improvements such as equalizing the load of each process based on such information at the initial stage of manufacturing line design or operation start.
It is also useful information for improving daily operation lines. For example, the work load evaluation information is checked every day, and it can be used for improvement of work in the process and rational allocation of personnel from the next day.
In the embodiment, the load evaluation information is displayed after the measurement is completed. However, for example, the load value of each process or operation may be displayed in real time during the measurement. Then, a worker with a large load can be found during the work, and measures such as rearrangement of personnel can be performed accordingly.
Further, it becomes possible to cope with a case where the burden value of the work is increased according to mixed production or quality status. For example, there are cases where the production load changes during the day, the quality changes depending on the situation and environment of the day, and some modifications are made, etc., and the work load changes, so it is possible to respond to such cases is there.

また出力制御部1fは、作業負担評価情報として、1つの工程について、作業者毎の負担値又は工程所要時間を表示する制御を行う(図8B参照)。
同じ工程であっても、作業者により、姿勢や動きが異なることで、作業負担値や工程1サイクルの所要時間は異なる。そこで、これらを作業者毎で比較できるように提示する。これは工程についての作業者毎の習熟度や適応度、向き不向きを判断できる客観的情報となる。従って現場責任者や工場管理者にとって有益な情報を提示することができる。
In addition, the output control unit 1f performs control to display a burden value for each worker or a process required time for one process as work load evaluation information (see FIG. 8B).
Even in the same process, the work load value and the time required for one cycle of the process are different due to different postures and movements among the workers. Therefore, these are presented so that they can be compared for each worker. This is objective information that can determine the proficiency, adaptability, and unsuitability of the process for each worker. Therefore, useful information can be presented to the site manager and the factory manager.

1…演算部、1a…画像解析部、1b…カメラ制御部、1c…検出情報取得部、1d…動作判定部、1e…負担算出部、1f…出力制御部、1g…適応値算出部、2…データベース部、3…記憶部、4…表示部、5…通信部、6…印刷部、10…撮像部、20…センサ   DESCRIPTION OF SYMBOLS 1 ... Calculation part, 1a ... Image analysis part, 1b ... Camera control part, 1c ... Detection information acquisition part, 1d ... Operation determination part, 1e ... Load calculation part, 1f ... Output control part, 1g ... Adaptive value calculation part, 2 ... Database section, 3 ... Storage section, 4 ... Display section, 5 ... Communication section, 6 ... Printing section, 10 ... Imaging section, 20 ... Sensor

Claims (4)

各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得する検出情報取得部と、
前記検出情報取得部で得た前記検出点又は線についての情報を、当該測定対象の工程について設定された基準情報と比較して、作業者の当該工程に対する適応値を算出する適応値算出部と、
前記適応値算出部の算出結果に基づいて適応評価情報を生成し、提示する制御を行う出力制御部と、を備え、
前記出力制御部は、処理対象として選択した作業における作業者の身体各部の個人データを抽出し、該個人データを各々基準情報と比較して差分値を求め、該差分値から当該作業に対する適応性を示す適応値を算出し、該適応値によって作業者個人の特性を判定することにより推奨される工程又は推奨されない工程を判定し、判定結果を提示する制御を行う
適応性評価装置。
At each time point, detection information for acquiring information on the physical state of the worker in a state in which the detection points corresponding to a plurality of body parts of the worker performing the process to be measured and a line connecting the detection points are simply modeled. An acquisition unit;
Information about the detection point or the line obtained by the detection information acquisition unit, by comparing the reference information set for the process of the measurement target, an adaptive value calculation unit that calculates an adaptation value for the process of the worker; ,
An adaptive control unit that generates adaptive evaluation information based on the calculation result of the adaptive value calculation unit and controls the presentation.
The output control unit extracts personal data of each part of the body of the worker in the work selected as the processing target , compares the personal data with the reference information to determine a difference value, and determines the adaptability to the work from the difference value. An adaptive evaluation apparatus that calculates an adaptive value indicating the following, determines a recommended process or a non-recommended process by determining a characteristic of an individual worker based on the adaptive value, and performs control to present a determination result.
前記検出情報取得部は、作業者を撮像した画像データの解析結果から、複数の前記検出点の三次元位置を取得する
請求項1に記載の適応性評価装置。
The adaptability evaluation device according to claim 1, wherein the detection information acquisition unit acquires three-dimensional positions of a plurality of the detection points from an analysis result of image data obtained by imaging the worker.
前記検出情報取得部で得た情報における前記検出点又は線の変化により作業者の姿勢又は動作を判定する動作判定部と、
前記動作判定部で判定した作業者の姿勢又は動作に基づいて作業負担値を算出する負担算出部とをさらに備え、
前記出力制御部は、前記負担算出部の算出結果に基づいて、測定対象の工程における作業負担評価情報を提示する制御を行う
請求項1に記載の適応性評価装置。
An operation determination unit that determines the posture or operation of the worker based on a change in the detection point or line in the information obtained by the detection information acquisition unit,
A load calculating unit that calculates a work load value based on the posture or the motion of the worker determined by the motion determining unit,
The adaptive evaluation device according to claim 1, wherein the output control unit performs control for presenting work load evaluation information in a process to be measured based on a calculation result of the load calculation unit.
情報処理装置が実行する適応性評価方法として、
各時点で、測定対象の工程を実行する作業者の複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、作業者の身体状態の情報を取得し、
取得した前記検出点又は線についての情報を、当該測定対象の工程について設定された基準情報と比較して、作業者の当該工程に対する適応値を算出し、
算出結果に基づいて適応評価情報を生成し、提示する制御を行い、
処理対象として選択した作業における作業者の身体各部の個人データを抽出し、該個人データを各々基準情報と比較して差分値を求め、該差分値から当該作業に対する適応性を示す適応値を算出し、該適応値によって作業者個人の特性を判定することにより推奨される工程又は推奨されない工程を判定し、判定結果を提示する制御を行う
適応性評価方法。
As the adaptability evaluation method executed by the information processing device,
At each time point, in a state in which the detection points corresponding to a plurality of body parts of the worker executing the process to be measured and a line connecting the detection points are simply modeled, information on the body state of the worker is obtained,
The obtained information about the detection point or line is compared with reference information set for the process to be measured, and an adaptation value for the process of the worker is calculated,
Generates adaptive evaluation information based on the calculation result and performs control to present it.
Extract personal data of each part of the worker's body in the work selected as the processing target, compare each of the personal data with reference information to obtain a difference value, and calculate an adaptation value indicating adaptability to the work from the difference value And an adaptive evaluation method for determining a recommended step or an unrecommended step by determining a characteristic of an individual worker based on the adaptation value, and performing control for presenting the determination result.
JP2015191295A 2015-09-29 2015-09-29 Applicability evaluation device and adaptability evaluation method Active JP6676321B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015191295A JP6676321B2 (en) 2015-09-29 2015-09-29 Applicability evaluation device and adaptability evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015191295A JP6676321B2 (en) 2015-09-29 2015-09-29 Applicability evaluation device and adaptability evaluation method

Publications (2)

Publication Number Publication Date
JP2017068430A JP2017068430A (en) 2017-04-06
JP6676321B2 true JP6676321B2 (en) 2020-04-08

Family

ID=58494857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015191295A Active JP6676321B2 (en) 2015-09-29 2015-09-29 Applicability evaluation device and adaptability evaluation method

Country Status (1)

Country Link
JP (1) JP6676321B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7091629B2 (en) * 2017-10-02 2022-06-28 富士通株式会社 Detection system, detection method and detection program
JP7086280B2 (en) 2019-04-25 2022-06-17 三菱電機株式会社 Work support device
JP7319542B2 (en) * 2019-09-30 2023-08-02 ダイキン工業株式会社 Evaluation device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3114417B2 (en) * 1993-03-24 2000-12-04 日産自動車株式会社 Work posture evaluation system
JP2001101422A (en) * 1999-10-04 2001-04-13 Hitachi Plant Eng & Constr Co Ltd Motion analyzer
JP2003167613A (en) * 2001-11-30 2003-06-13 Sharp Corp Operation management system and method and recording medium with its program for realizing the same method stored
JP4176416B2 (en) * 2002-08-23 2008-11-05 シャープ株式会社 Work proficiency determination system and work proficiency determination method
JP2004139515A (en) * 2002-10-21 2004-05-13 Honda Motor Co Ltd Method for evaluating process of production line
JP2005276003A (en) * 2004-03-26 2005-10-06 Fujitsu Ltd Work instruction system
JP2005339030A (en) * 2004-05-25 2005-12-08 Hitachi Building Systems Co Ltd Maintenance operation capability improvement supporting system
JP2014199595A (en) * 2013-03-29 2014-10-23 富士通株式会社 Work load estimation program, work load estimation method and information processing device

Also Published As

Publication number Publication date
JP2017068430A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6629556B2 (en) Process composition support device and process composition support method
CN108604393B (en) Information processing system, information processing device, information processing method, and computer-readable storage medium
US11182599B2 (en) Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program
JP6676322B2 (en) Burden evaluation device, Burden evaluation method
JP2017068429A (en) Workload evaluation device, workload evaluation method
JP5714232B2 (en) Calibration apparatus and method for confirming accuracy of parameters for three-dimensional measurement
KR102107379B1 (en) Method for Prediction Frailty Using Triple Axis Motion Meter, Prediction Frailty System using Triple Axis Motion Meter and Wearable Prediction Frailty Device
JP2019520180A (en) System and apparatus for tracking, evaluating and monitoring movement and methods of using them
JP6676321B2 (en) Applicability evaluation device and adaptability evaluation method
JP2019128940A (en) System and method for ergonomic analysis, in particular of worker
JP2019127677A (en) Sensor mounted glove relevant to ergonomic analysis of hand, especially for ergonomic analysis of hand of operator and corresponding method
JP6509406B1 (en) Walking mode display method, walking mode display system and walking mode analyzer
JP2017068428A (en) Workload evaluation device, workload evaluation method
JP2020177680A (en) Work analysis device, work analysis method, and program
KR20160076488A (en) Apparatus and method of measuring the probability of muscular skeletal disease
US20220051579A1 (en) Content creation system
JP2016035651A (en) Home rehabilitation system
JP7165108B2 (en) Work training system and work training support method
KR20160035497A (en) Body analysis system based on motion analysis using skeleton information
JP7004218B2 (en) Motion analysis device, motion analysis method, motion analysis program and motion analysis system
WO2020026299A1 (en) Operation information management system, and operation information management method
JP7352143B2 (en) Skill information acquisition device and method
WO2016135560A2 (en) Range of motion capture
JP7338282B2 (en) Skill comparison device and method
KR20160118678A (en) Workload estimation and job rotation scheduling for Work-related Musculoskeletal Disorders prevention

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200312

R150 Certificate of patent or registration of utility model

Ref document number: 6676321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250