JPH06274095A - Operation attitude evalulation system - Google Patents

Operation attitude evalulation system

Info

Publication number
JPH06274095A
JPH06274095A JP6550693A JP6550693A JPH06274095A JP H06274095 A JPH06274095 A JP H06274095A JP 6550693 A JP6550693 A JP 6550693A JP 6550693 A JP6550693 A JP 6550693A JP H06274095 A JPH06274095 A JP H06274095A
Authority
JP
Japan
Prior art keywords
work
posture
computer
load
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6550693A
Other languages
Japanese (ja)
Other versions
JP3114417B2 (en
Inventor
Shigeo Shimamura
繁生 嶋村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP6550693A priority Critical patent/JP3114417B2/en
Publication of JPH06274095A publication Critical patent/JPH06274095A/en
Application granted granted Critical
Publication of JP3114417B2 publication Critical patent/JP3114417B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

PURPOSE:To provide the operation attitude evaluation system which can accurately evaluate the scores of an operation load based upon an operation attitude on a computer while confirming visibility. CONSTITUTION:A keyboard 2 for inputting initial conditions and operation commands, an attitude score table used for the evaluation expression of the operation attitude, a weight body hold coefficient table, a data base 3 which contains a weight body elevation and lowering coefficient table, and a CRT 4 as a display device are connected to the computer 1; and a program of the computer 1 is so generated as to recognize the operation attitude of a robot on the computer and evaluates the scores of the operation attitude automatically according to the specific evaluation expression, and also generates a screen viewed from the view point of the operator at the operation attitude.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、作業負担を作業姿勢に
基づいて所定の評価法に従ってコンピュータ上で定量的
に測定する作業姿勢評価システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a work posture evaluation system for quantitatively measuring a work load on a computer based on a work posture according to a predetermined evaluation method.

【0002】[0002]

【従来の技術】例えば自動車工場では、最近、難作業の
追放等を目的として、作業者の身体にかかる負担を定量
的に測定する評価法を用いて、作業の改善に適用するこ
とが試みられている(例えば日経メカニカル1991.12.23
号参照)。
2. Description of the Related Art Recently, for example, in an automobile factory, for the purpose of expulsion of difficult work, it has been attempted to apply it to improvement of work by using an evaluation method for quantitatively measuring the burden on the body of the worker. (For example, Nikkei mechanical 1991.12.23
No.).

【0003】現在、そうした作業負担の評価法としては
いろいろな方法が考案されているが、その中の一つに、
例えば、組み立て作業に従事する作業者の腰部負荷を、
図9に示す規則に従って定量的に評価する方法がある。
At present, various methods have been devised as an evaluation method of such work load, and one of them is
For example, the waist load of workers engaged in assembly work is
There is a method of quantitative evaluation according to the rules shown in FIG.

【0004】この評価法は、姿勢の負荷と重量物を保持
する負荷と重量物を上げ降ろしする負荷の3つを足し合
わせることによって、作業者の腰にかかる負荷を点数評
価するものである。姿勢の負荷は、図9(a) に示すよう
に、立った時を1点としたときの相対評価で13点ま
で、9ランクの姿勢点に分類し、この姿勢点と1日の延
べ時間(h) とを掛け算して計算する。重量物を保持する
負荷は、図9(b) に示すように、重量物を保持する高さ
(番地)によって0.5点から1.5点まで重量物保持
係数を分類し、この重量物保持係数と質量(Kg)と1日の
延べ時間(h) とを掛け算して計算する。重量物を上げ降
ろしする負荷は、図9(c) に示すように、その落差(ラ
ンク)によって1点から4点まで重量物上げ降ろし係数
を分類し、この重量物上げ降ろし係数と質量(Kg)と1日
の延べ回数/3600とを掛け算して計算する。そし
て、以上の3つの負荷を足し合わせて腰部負荷の評価点
とする(図9(d) 参照)。こうして計算された腰部負荷
の点数が高くなるほど作業負担が高い、つまり難作業で
あると評価されることになる。なお、図9(c) にいうラ
ンクとは同図(b) にいう番地の間隔のことであって、例
えば番地から番地へは2ランクである。
This evaluation method is a score evaluation of the load on the waist of an operator by adding the three loads of the posture load, the load for holding a heavy load, and the load for lifting and lowering a heavy load. As shown in Fig. 9 (a), the posture load is classified into 9 rank posture points up to 13 points by relative evaluation when the standing time is taken as 1 point, and this posture point and the total time for one day (h) is calculated by multiplying with. As shown in Fig. 9 (b), the load for holding a heavy object is classified into 0.5 to 1.5 points according to the height (address) at which the heavy object is held. It is calculated by multiplying the retention coefficient, mass (Kg), and total day time (h). As shown in Fig. 9 (c), the loads for lifting and lowering heavy objects are classified into 1 to 4 points according to their drop (rank), and the weight lifting and lowering coefficient and mass (Kg ) And the total number of times per day / 3600. Then, the above three loads are added together to obtain a waist load evaluation point (see FIG. 9 (d)). The higher the waist load score thus calculated, the higher the work load, that is, the more difficult the work is evaluated. It should be noted that the rank shown in FIG. 9 (c) is the interval between the addresses shown in FIG. 9 (b), and is, for example, two ranks from address to address.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の評価法は、実際に存在する車両を前提に、こ
の車両を組み立てる際の作業負荷を評価するというもの
であるから、実際の車両が出来上がってはじめて評価が
可能となる。そのため、評価点が低く何らかの対策を施
す必要があるとされたような場合において、作業負担を
軽減するために車両構造自体を変更しようとすれば大幅
な設計変更を来し、型の改修費などに多大の費用が必要
になる。そこで、実際には、ほとんどの場合、生産現場
側の改善、具体的にはラインの改善によって対応してい
た。しかし、ラインの改善にもある程度コストがかか
る。また、評価を行う際には、評価者は実際に作業姿勢
や作業時間などを観察あるいは測定してから所定の評価
法に従って評価点を計算していたため、評価者により評
価点がばらつくことがあった。
However, such a conventional evaluation method is based on the assumption that an actually existing vehicle is used to evaluate the work load when assembling this vehicle. Evaluation is possible only after it is completed. Therefore, if the evaluation point is low and it is necessary to take some measures, if you try to change the vehicle structure itself in order to reduce the work load, a major design change will be made, and mold repair costs etc. It costs a lot of money. Therefore, in most cases, in most cases, the improvement was made on the production site side, specifically, the line improvement. However, it takes some cost to improve the line. Also, when performing an evaluation, the evaluator actually observes or measures the work posture, work time, etc., and then calculates the evaluation points according to a predetermined evaluation method, so the evaluation points may vary. It was

【0006】本発明は、このような従来技術の問題点に
鑑みてなされたものであり、車両の設計段階においてあ
らかじめ作業負荷をコンピュータ上で点数評価すること
ができる作業姿勢評価システムを提供することを目的と
する。
The present invention has been made in view of the above problems of the prior art, and provides a work posture evaluation system capable of evaluating a work load on a computer in advance at the design stage of a vehicle. With the goal.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めの本発明は、作業負担を作業姿勢に基づいて所定の評
価法に従ってコンピュータ上で定量的に測定する作業姿
勢評価システムであって、初期条件を入力する第1入力
手段と、作業動作に関するコマンドを入力する第2入力
手段と、前記評価法で用いられる各種の係数テーブルを
記憶する記憶手段と、前記コマンドに従って形成された
作業姿勢を認識し前記係数テーブルより当該作業姿勢に
対応する係数を選択し当該係数と前記初期条件とに基づ
いて前記評価法に従って当該作業姿勢における作業負担
を演算する演算手段と、作業者データと作業環境データ
とに基づいて当該作業姿勢において作業者の視点から見
た画面を作成する画面作成手段と、当該画面作成手段に
より作成された画面を表示する表示手段とを有すること
を特徴とする。
The present invention for achieving the above object provides a work posture evaluation system for quantitatively measuring a work load on a computer based on a work posture according to a predetermined evaluation method, A first input means for inputting an initial condition, a second input means for inputting a command relating to a work operation, a storage means for storing various coefficient tables used in the evaluation method, and a work posture formed according to the command. Recognizing and selecting a coefficient corresponding to the work posture from the coefficient table, and calculating a work load in the work posture according to the evaluation method based on the coefficient and the initial condition; worker data and work environment data And a screen created by the screen creating means for creating a screen viewed from the operator's viewpoint in the work posture. And having a display means for displaying the.

【0008】[0008]

【作用】このように構成した本発明にあっては、第2入
力手段により入力されたコマンドに従って例えばコンピ
ュータ上のロボットが操作され、所定の作業が実施され
る。演算手段は、その都度ロボットの作業姿勢を認識し
て、記憶手段に格納されている係数テーブルより当該作
業姿勢に対応する係数を選択し、この係数と第1入力手
段により入力された初期条件とに基づいて所定の評価法
に従って当該作業姿勢における作業負担を演算する。こ
の間、画面作成手段は、作業者データと作業環境データ
とに基づいて当該作業姿勢において作業者の視点から見
た画面を作成し、この画面を表示手段に表示させるの
で、例えば部品の取り付け部位が見えないような場合に
は直ちにNGとすることができる。
In the present invention thus constructed, for example, a robot on a computer is operated in accordance with a command input by the second input means, and a predetermined work is performed. The computing means recognizes the work posture of the robot each time, selects a coefficient corresponding to the work posture from the coefficient table stored in the storage means, and selects the coefficient and the initial condition input by the first input means. Based on the above, the work load in the work posture is calculated according to a predetermined evaluation method. During this period, the screen creating means creates a screen from the viewpoint of the operator in the work posture based on the worker data and the work environment data, and displays this screen on the display means. If it cannot be seen, it can be immediately set to NG.

【0009】[0009]

【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図1は本発明の一実施例による作業姿勢評価シ
ステムの構成図、図2は同実施例の動作を示すメインフ
ローチャート、図3は図2のサブルーチンの内容を示す
フローチャート、図4は図2の他のサブルーチンの内容
を示すフローチャート、図5は図2のさらに他のサブル
ーチンの内容を示すフローチャート、図6は図5のサブ
ルーチンの内容を示すフローチャート、図7は図2のさ
らに他のサブルーチンの内容を示すフローチャート、図
8は本実施例による評価の一例を示す図表である。な
お、本実施例の作業姿勢評価システムは、前述した図9
に示す評価法を用いてコンピュータ上で作業姿勢に基づ
く作業負担を点数評価するシステムであって、以下で
は、例えば組み立て工程においてある部品を車体に取り
付ける作業を例にとって説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. 1 is a block diagram of a work posture evaluation system according to an embodiment of the present invention, FIG. 2 is a main flowchart showing the operation of the embodiment, FIG. 3 is a flowchart showing the contents of the subroutine of FIG. 2, and FIG. 5 is a flowchart showing the contents of another subroutine, FIG. 5 is a flowchart showing the contents of yet another subroutine of FIG. 2, FIG. 6 is a flowchart showing the contents of the subroutine of FIG. 5, and FIG. 7 is the contents of yet another subroutine of FIG. FIG. 8 is a flowchart showing an example of evaluation according to the present embodiment. The work posture evaluation system of this embodiment is similar to that shown in FIG.
A system for scoring a work load based on a work posture on a computer by using the evaluation method shown in (1) below. For example, a work of attaching a certain component to a vehicle body in an assembly process will be described below as an example.

【0010】この作業姿勢評価システムは、図1に示す
ように、コンピュータ1と、このコンピュータ1にデー
タやコマンドなどを入力するキーボード2と、後述する
各種データを格納するデータベース3と、コンピュータ
による演算処理結果を画面に表示するCRTディスプレ
イ6(以下、単にCRTという)と、コンピュータによ
る演算処理結果をプリントアウトするプリンタ7とで構
成されている。
As shown in FIG. 1, this work posture evaluation system includes a computer 1, a keyboard 2 for inputting data and commands to the computer 1, a database 3 for storing various data to be described later, and calculation by the computer. It is composed of a CRT display 6 (hereinafter, simply referred to as CRT) for displaying the processing result on a screen, and a printer 7 for printing out the calculation processing result by the computer.

【0011】前記評価法において初期条件となる当該作
業の1日の作業回数(P)や当該作業で取り付ける部品
の重量(Q)に関するデータは、オペレータがキーボー
ド2を操作することによって入力される。また、コンピ
ュータ上のロボットを動かすコマンドも、キーボード2
によって入力される。このオペレーションの内容として
は、例えば、作業開始位置、部品をピッキングする位
置、部品を取り付ける位置、作業終了位置などロボット
の一連の動作についてのコマンドを入力する。また、デ
ータベース3は、図9(a) に示す姿勢点(R)のテーブ
ルを格納するデータファイル3aと、図9(b) に示す重
量物保持係数(S)のテーブルを格納するデータファイ
ル3bと、図9(c) に示す重量物上げ降ろし係数(V)
のテーブルを格納するデータファイル3cとからなる。
コンピュータ1は、オペレーションに従ってロボットを
動作させつつ、その作業姿勢を認識して前記評価法に従
って作業姿勢を自動的に点数評価する。ロボットの動作
の様子や作業姿勢の評価結果はCRT4の画面に表示さ
れる。また、作業姿勢の評価結果はプリンタ5から出力
することもできる。
Data concerning the number of operations per day (P) and the weight (Q) of the parts to be attached in the work, which are initial conditions in the evaluation method, are input by the operator operating the keyboard 2. Also, the commands to move the robot on the computer are
Entered by As the contents of this operation, for example, a command regarding a series of operations of the robot such as a work start position, a part picking position, a part mounting position, and a work end position is input. Further, the database 3 includes a data file 3a for storing a table of posture points (R) shown in FIG. 9 (a) and a data file 3b for storing a table of heavy weight holding coefficients (S) shown in FIG. 9 (b). And the load / unload coefficient (V) shown in Fig. 9 (c)
And a data file 3c for storing the table.
The computer 1 recognizes the work posture of the robot while operating the robot according to the operation, and automatically evaluates the work posture according to the evaluation method. The behavior of the robot and the evaluation result of the work posture are displayed on the screen of the CRT 4. The work posture evaluation result can also be output from the printer 5.

【0012】また、コンピュータ1のメモリには、部品
データ、車体データ、作業者データならびに作業環境デ
ータなどが格納されており、コンピュータ1は、作業者
データと作業環境データとに基づいて両者の位置関係を
演算して、任意の作業姿勢において作業者の視点から見
た画面を作成することができるようになっている。
Further, the memory of the computer 1 stores parts data, vehicle body data, worker data and work environment data, and the computer 1 uses the worker data and the work environment data to determine the positions of the two. By calculating the relationship, it is possible to create a screen viewed from the operator's viewpoint in any work posture.

【0013】なお、第1と第2の入力手段はキーボード
2により、記憶手段はデータベース3により、演算手段
と画面作成手段はコンピュータ1により、表示手段はC
RT4によりそれぞれ構成されている。
The first and second input means are the keyboard 2, the storage means is the database 3, the computing means and the screen creating means are the computer 1, and the display means is C.
Each is composed of RT4.

【0014】このように構成された本システムは、図2
〜図7のフローチャートに従って次のように動作する。
The present system configured as described above is shown in FIG.
~ It operates as follows according to the flowchart of FIG.

【0015】まず、評価の対象となる部品取り付け作業
について、初期条件としての当該作業の1日の作業回数
(P)と当該作業で取り付ける部品の重量(Q)とをキ
ーボード2によって入力する(S1)。
First, for the component mounting work to be evaluated, the number of times of work per day (P) as the initial condition and the weight (Q) of the component to be mounted in the work are input using the keyboard 2 (S1). ).

【0016】次いで、オペレーション信号が入力されコ
ンピュータ上のロボットが動き出すと、コンピュータ1
は、まず、作業開始段階における腰部負荷点(A)を姿
勢ごとに自動的に算出する(S11)。すなわち、図3
に示すように、オペレータによりキーボード2からロボ
ットの作業開始位置が入力されると(S18)、コンピ
ュータ1はあらかじめ組み込まれたプログラムに従って
ロボットを動かして作業を実施させる。その過程におい
て、コンピュータ1は、ロボットの姿勢を認識し、デー
タファイル3a内の姿勢点テーブルをルックアップして
当該姿勢に対応する姿勢点(R)を選択する(S1
9)。そして、姿勢の変化の有無から作業時間(T)(s
ec) をカウントする(S20)。この作業時間(T)が
当該姿勢の持続時間に相当する。それからコンピュータ
1は、作業回数(P)と姿勢点(R)と作業時間(T)
の各値から、所定の計算式(次の式1)に従って姿勢の
負荷点を計算する。この作業開始段階ではいまだ部品を
保持していないため、姿勢の負荷点がそのまま腰部負荷
点(A)となる(S21)。つまり、 腰部負荷点=姿勢の負荷点 =姿勢点(R)×1日の延べ時間 =姿勢点(R)×作業時間(T)×作業回数(P)…式1 その後、ステップ19〜ステップ21で求めたR値、T
値、A値をそれぞれコンピュータ1内のメモリに格納す
る(S22)。コンピュータ1は、以上の処理を作業開
始段階の動作がすべて終了するまで実行する(S2
3)。なお、図8では、作業開始段階において2つの姿
勢をとった場合を例示している。
Next, when an operation signal is input and the robot on the computer starts to move, the computer 1
First, the waist load point (A) at the work start stage is automatically calculated for each posture (S11). That is, FIG.
As shown in, when the operator inputs the work start position of the robot from the keyboard 2 (S18), the computer 1 moves the robot according to a pre-installed program to perform the work. In the process, the computer 1 recognizes the posture of the robot, looks up the posture point table in the data file 3a, and selects the posture point (R) corresponding to the posture (S1).
9). The working time (T) (s
ec) is counted (S20). This working time (T) corresponds to the duration of the posture. Then, the computer 1 uses the number of work (P), the posture point (R), and the work time (T).
From each value of, the load point of the posture is calculated according to a predetermined calculation formula (the following formula 1). At this work starting stage, since the parts are not yet held, the load point of the posture becomes the waist load point (A) as it is (S21). That is, waist load point = posture load point = posture point (R) × total day time = posture point (R) × working time (T) × working number (P) ... Equation 1 After that, step 19 to step 21 R value obtained in
The value and the A value are respectively stored in the memory in the computer 1 (S22). The computer 1 executes the above processing until all operations at the work start stage are completed (S2).
3). Note that FIG. 8 exemplifies a case where two postures are taken at the work start stage.

【0017】その後メインフローに戻って、コンピュー
タ1は次に部品ピッキング段階における腰部負荷点
(B)を姿勢ごとに自動的に算出する(S12)。すな
わち、図4に示すように、オペレータによりキーボード
2から部品をピッキングする位置が入力されると(S2
4)コンピュータ1はあらかじめ組み込まれたプログラ
ムに従ってロボットを動かしてピッキング作業を実施さ
せる。その過程において、コンピュータ1は、ロボット
の姿勢を認識し、データファイル3a内の姿勢点テーブ
ルをルックアップして当該姿勢に対応する姿勢点(R)
を選択し(S25)、さらにデータファイル3b内の保
持係数テーブルをルックアップして当該姿勢において部
品を保持している時の重量物保持係数(S)を選択し
(S26)、そしてさらに部品の上げ降ろしが発生する
場合にはデータファイル3c内の上げ降ろし係数テーブ
ルをルックアップして当該部品の高さ方向の変位置に対
応する重量物上げ降ろし係数(V)を選択する(S2
7)。それから、姿勢の変化の有無から当該姿勢の持続
時間に相当する作業時間(T)をカウントする(S2
8)。それからコンピュータ1は、作業回数(P)と部
品重量(Q)と姿勢点(R)と重量物保持係数(S)と
作業時間(T)と重量物上げ降ろし係数(V)の各値か
ら、所定の計算式(次の式2)に則って姿勢の負荷点と
重量物を保持する負荷点と重量物を上げ降ろしする負荷
点を計算し、それらの結果を足し合わせて当該動作にお
ける腰部負荷点(B)を計算する(S29)。つまり、 腰部負荷点=姿勢の負荷点+重量物を保持する負荷点 +重量物を上げ降ろしする負荷点 =(姿勢点(R)×1日の延べ時間) +(重量物保持係数(S)×部品重量(Q)×1日の延べ時間) +(重量物上げ降ろし係数(V)×部品重量(Q) ×1日の延べ回数/3600) =(姿勢点(R)×作業時間(T)×作業回数(P)) +(重量物保持係数(S)×部品重量(Q) ×作業時間(T)×作業回数(P)) +(重量物上げ降ろし係数(V)×部品重量(Q) ×作業回数(P)/3600)…式2 その後、ステップ25〜ステップ29で求めたR値、S
値、V値、T値、B値をそれぞれコンピュータ1内のメ
モリに格納する(S30)。コンピュータ1は、以上の
処理を部品ピッキング段階の動作がすべて終了するまで
実行する(S31)。なお、図8では、部品ピッキング
段階において2つの姿勢をとった場合を例示している。
Then, returning to the main flow, the computer 1 automatically calculates the waist load point (B) in the component picking stage for each posture (S12). That is, as shown in FIG. 4, when the operator inputs a position for picking a component from the keyboard 2 (S2
4) The computer 1 moves the robot according to a pre-installed program to carry out the picking work. In the process, the computer 1 recognizes the posture of the robot, looks up the posture point table in the data file 3a, and determines the posture point (R) corresponding to the posture.
Is selected (S25), the holding coefficient table in the data file 3b is looked up to select the weight holding coefficient (S) when the part is held in this posture (S26), and When the hoisting and hoisting occurs, the hoisting and hoisting coefficient table in the data file 3c is looked up and the heavy object hoisting and hoisting coefficient (V) corresponding to the displacement position of the part in the height direction is selected (S2).
7). Then, the working time (T) corresponding to the duration of the posture is counted from the presence or absence of the posture change (S2).
8). Then, the computer 1 calculates the number of operations (P), the part weight (Q), the posture point (R), the weight holding coefficient (S), the working time (T), and the weight lifting and lowering coefficient (V) from each value. The load point of the posture, the load point of holding the heavy object, and the load point of lifting and lowering the heavy object are calculated according to a predetermined calculation formula (following Expression 2), and the results are added together, and the waist load in the operation is calculated. The point (B) is calculated (S29). That is, waist load point = load point of posture + load point of holding heavy object + load point of lifting and lowering heavy object = (posture point (R) x total time of day) + (weight holding coefficient (S) × Parts weight (Q) × Total time per day) + (Weight lifting and lowering coefficient (V) × Parts weight (Q) × Total number of times per day / 3600) = (Posture point (R) × Working time (T ) X number of operations (P)) + (weight holding coefficient (S) x part weight (Q) x working time (T) x number of operations (P)) + (weight lifting / lowering coefficient (V) x part weight ( Q) x number of operations (P) / 3600) ... Equation 2 After that, the R value obtained in steps 25 to 29, S
The value, the V value, the T value, and the B value are stored in the memory in the computer 1 (S30). The computer 1 executes the above processing until all the operations in the component picking stage are completed (S31). Note that FIG. 8 exemplifies a case where two postures are taken in the component picking stage.

【0018】その後メインフローに戻って、コンピュー
タ1は次に部品取り付け段階における腰部負荷点(C)
を姿勢ごとに自動的に算出する(S13)。すなわち、
図5に示すように、オペレータによりキーボード2から
部品の取り付け位置が入力されると(S32)、まず最
初にオペレータによる視認性確認処理がなされる(S3
3)。具体的には、図6に示すように、コンピュータ1
は作業環境データ(実際に部品を取り付ける時の周囲の
状況に関するデータ)と作業者データ(実際に部品を取
り付ける時の作業者の姿勢等に関するデータ)を取り込
んで(S40、S41)、これらのデータに基づき作業
者と作業環境の位置関係を演算する(S42)。そし
て、この演算結果に基づいてCRT4の画面を作業者の
視点からの画面表示に切り替える(S43)。オペレー
タはこの画面を見て、部品を取り付ける時の姿勢の良否
を判定する(S44)。このときの判定基準としては、
作業者が部品の取り付け位置を見ることができない場合
にはNGと判定する。この判定の結果としてOKであれ
ばステップ34に進むが、NGであればステップ32に
戻って別の姿勢を実行させるべくキーボード2を通じて
別の部品取り付け位置を入力する。
Then, returning to the main flow, the computer 1 next determines the waist load point (C) in the component mounting stage.
Is automatically calculated for each posture (S13). That is,
As shown in FIG. 5, when the operator inputs the mounting position of the component from the keyboard 2 (S32), the visibility confirmation process is first performed by the operator (S3).
3). Specifically, as shown in FIG. 6, the computer 1
Imports the work environment data (data about the surrounding conditions when actually mounting the parts) and the worker data (data about the posture of the worker when actually mounting the parts) (S40, S41), and these data Based on the above, the positional relationship between the worker and the work environment is calculated (S42). Then, based on this calculation result, the screen of the CRT 4 is switched to the screen display from the viewpoint of the operator (S43). The operator looks at this screen and determines whether the posture at the time of mounting the component is good or bad (S44). The judgment criteria at this time are:
When the operator cannot see the mounting position of the component, it is determined as NG. If the result of this determination is OK, the process proceeds to step 34, but if the result is NG, the process returns to step 32 and another component mounting position is input through the keyboard 2 to execute another posture.

【0019】ステップ33において視認性が確認される
と、コンピュータ1はあらかじめ組み込まれたプログラ
ムに従ってロボットを動かして部品の取り付け作業を実
施させる。その過程において、コンピュータ1は、ロボ
ットの姿勢を認識し、データファイル3a内の姿勢点テ
ーブルをルックアップして当該姿勢に対応する姿勢点
(R)を選択し(S34)さらにデータファイル3b内
の保持係数テーブルをルックアップして当該姿勢におい
て部品を保持している時の重量物保持係数(S)を選択
する(S35)。そして、姿勢の変化の有無から当該姿
勢の持続時間に相当する作業時間(T)をカウントする
(S36)。それからコンピュータ1は、作業回数
(P)と部品重量(Q)と姿勢点(R)と重量物保持係
数(S)と作業時間(T)の各値から、所定の計算式
(次の式3)に則って姿勢の負荷点と重量物を保持する
負荷点を計算し、それらの結果を足し合わせて当該動作
における腰部負荷点(C)を計算する(S37)。つま
り、 腰部負荷点=姿勢の負荷点+重量物を保持する負荷点 =(姿勢点(R)×1日の延べ時間) +(重量物保持係数(S)×部品重量(Q)×1日の延べ時間) =(姿勢点(R)×作業時間(T)×作業回数(P)) +(重量物保持係数(S)×部品重量(Q) ×作業時間(T)×作業回数(P))…式3 それから、ステップ34〜ステップ37で求めたR値、
S値、T値、C値をそれぞれコンピュータ1内のメモリ
に格納する(S38)。コンピュータ1は、以上の処理
を部品取り付け段階の動作がすべて終了するまで実行す
る(S39)。なお、図8では、部品取り付け段階にお
いて2つの姿勢をとった場合を例示している。
When the visibility is confirmed in step 33, the computer 1 moves the robot according to a program installed in advance to carry out the work of attaching the parts. In the process, the computer 1 recognizes the posture of the robot, looks up the posture point table in the data file 3a to select the posture point (R) corresponding to the posture (S34), and further in the data file 3b. The holding coefficient table is looked up to select the heavy article holding coefficient (S) when the component is held in the posture (S35). Then, the work time (T) corresponding to the duration of the posture is counted from the presence / absence of the posture change (S36). Then, the computer 1 uses a predetermined calculation formula (the following formula 3) from the values of the number of work (P), the part weight (Q), the posture point (R), the weight holding coefficient (S), and the working time (T). ), The load point of the posture and the load point for holding the heavy object are calculated, and the results are added together to calculate the waist load point (C) in the operation (S37). That is, waist load point = load point of posture + load point for holding heavy objects = (posture point (R) x total time for one day) + (weight holding coefficient (S) x component weight (Q) x 1 day Total time) = (posture point (R) x work time (T) x number of work (P)) + (weight holding coefficient (S) x component weight (Q) x work time (T) x number of work (P) )) ... Equation 3 Then, the R value obtained in steps 34 to 37,
The S value, T value, and C value are stored in the memory in the computer 1 (S38). The computer 1 executes the above processing until all the operations in the component mounting stage are completed (S39). Note that FIG. 8 exemplifies a case where two postures are taken in the component mounting stage.

【0020】その後メインフローに戻って、コンピュー
タ1は次に作業終了段階における腰部負荷点(D)を姿
勢ごとに自動的に算出する(S14)。すなわち、図7
に示すように、オペレータによりキーボード2からロボ
ットの作業終了位置が入力されると(S45)、コンピ
ュータ1はあらかじめ組み込まれたプログラムに従って
ロボットを動かして終了作業を実施させる。その過程に
おいて、コンピュータ1は、ロボットの姿勢を認識し、
データファイル3a内の姿勢点テーブルをルックアップ
して当該姿勢に対応する姿勢点(R)を選択する(S4
6)。そして、姿勢の変化の有無から作業時間(T)を
カウントし(S47)、それから作業回数(P)と姿勢
点(R)と作業時間(T)の各値から、所定の計算式
(前記の式1)に従って姿勢の負荷点を計算するが、こ
の場合にはもはや部品を保持していないため姿勢の負荷
点がそのまま腰部負荷点(D)になる(S48)。その
後、ステップ46〜ステップ48で求めたR値、T値、
D値をそれぞれコンピュータ1内のメモリに格納する
(S49)。コンピュータ1は、以上の処理を作業終了
段階の作動作がすべて終了するまで実行する(S5
0)。なお、図8では、作業開始段階において1つの姿
勢をとった場合を例示している。
Then, returning to the main flow, the computer 1 automatically calculates the waist load point (D) at the work completion stage for each posture (S14). That is, FIG.
As shown in, when the operator inputs the work end position of the robot from the keyboard 2 (S45), the computer 1 moves the robot according to a pre-installed program to perform the end work. In the process, the computer 1 recognizes the posture of the robot,
The posture point table in the data file 3a is looked up and the posture point (R) corresponding to the posture is selected (S4).
6). Then, the working time (T) is counted based on the presence or absence of a change in posture (S47), and then from the values of the number of times of working (P), the posture point (R), and the working time (T), a predetermined calculation formula (the above-mentioned The load point of the posture is calculated according to the equation (1). In this case, since the parts are no longer held, the load point of the posture becomes the waist load point (D) as it is (S48). After that, the R value, the T value obtained in steps 46 to 48,
The D value is stored in the memory of the computer 1 (S49). The computer 1 executes the above processing until all the work operations at the work end stage are completed (S5).
0). Note that FIG. 8 exemplifies a case where one posture is taken at the work start stage.

【0021】その後メインフローに戻って、コンピュー
タ1はステップ11〜ステップ14までの各作業段階で
計算された腰部負荷点を足し合わせて当該部品の取り付
け作業における作業姿勢の評価点(E)を計算する(S
15)。それから、この作業姿勢点(E)があらかじめ
設定された基準値(N)以上かどうかを判断する(S1
6)。この判断の結果として作業姿勢点(E)が基準値
(N)以上であればCRT4の画面にその旨を表示し
(S17)、基準値(N)より小さければ許容範囲内に
あるものとして終了する。なお、作業姿勢の評価の善し
悪しにかかわらず、図8に示すような評価結果の表をC
RT4に表示させたりプリンタ5からプリントアウトさ
せたりすることもできる。
Thereafter, returning to the main flow, the computer 1 calculates the work posture evaluation point (E) in the mounting work of the relevant parts by adding the waist load points calculated in the respective work stages from step 11 to step 14. Do (S
15). Then, it is determined whether or not this work posture point (E) is equal to or greater than a preset reference value (N) (S1).
6). If the work posture point (E) is equal to or greater than the reference value (N) as a result of this determination, a message to that effect is displayed on the screen of the CRT 4 (S17). To do. In addition, regardless of whether the work posture is evaluated as good or bad, the evaluation result table as shown in FIG.
It can be displayed on the RT 4 or can be printed out from the printer 5.

【0022】したがって、本実施例によれば、コンピュ
ータ1上のロボットを操作して部品の取り付け作業を実
施させるだけで当該作業の負担を自動的に点数評価する
ことができるので、従来のように評価点が評価者により
ばらつくことがなくなり、正確な評価が可能になる。し
かも、コンピュータ1上での評価であるため、実際に存
在する車体構造を前提にすることなく設計段階において
仮想の車体構造に対する作業負担を正確に点数評価する
ことができるようになり、評価点が低い場合には事前に
車体構造の設計変更を行うこともでき、より有利な対策
の確認を行うことができる。
Therefore, according to the present embodiment, it is possible to automatically evaluate the load of the work just by operating the robot on the computer 1 to carry out the work of mounting the parts. The evaluation points will not vary among the evaluators, and accurate evaluation will be possible. Moreover, since the evaluation is performed on the computer 1, it becomes possible to accurately evaluate the work load on the virtual vehicle body structure at the design stage without presupposing an actually existing vehicle body structure. If it is low, the design of the vehicle body structure can be changed in advance, and more advantageous measures can be confirmed.

【0023】さらに、本実施例では、作業者の視点から
見た画面をCRT4に表示し、作業姿勢の評価にあたっ
て作業部位の視認性の有無を評価の基準に加味するよう
にしたので、実際の作業者の側に立ったきめ細かな評価
が可能になる。
Further, in the present embodiment, the screen viewed from the operator's point of view is displayed on the CRT 4, and the presence or absence of the visibility of the work site is taken into consideration in the evaluation of the work posture. Enables detailed evaluation from the worker's side.

【0024】[0024]

【発明の効果】以上述べたように本発明によれば、車両
の設計段階においてあらかじめ作業負荷を視認性の確認
とともにコンピュータ上で正確に点数評価することがで
きるようになる。
As described above, according to the present invention, it becomes possible to evaluate the work load in advance at the design stage of a vehicle and to accurately evaluate the score on a computer while confirming the visibility.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例による作業姿勢評価システム
の構成図である。
FIG. 1 is a configuration diagram of a work posture evaluation system according to an embodiment of the present invention.

【図2】同実施例の動作を示すメインフローチャートで
ある。
FIG. 2 is a main flowchart showing the operation of the embodiment.

【図3】図2のサブルーチンの内容を示すフローチャー
トである。
FIG. 3 is a flowchart showing the contents of the subroutine of FIG.

【図4】図2の他のサブルーチンの内容を示すフローチ
ャートである。
FIG. 4 is a flowchart showing the contents of another subroutine of FIG.

【図5】図2のさらに他のサブルーチンの内容を示すフ
ローチャートである。
5 is a flowchart showing the contents of still another subroutine of FIG.

【図6】図5のサブルーチンの内容を示すフローチャー
トである。
FIG. 6 is a flowchart showing the contents of the subroutine of FIG.

【図7】図2のさらに他のサブルーチンの内容を示すフ
ローチャートである。
7 is a flowchart showing the contents of still another subroutine of FIG.

【図8】本実施例による評価の一例を示す図表である。FIG. 8 is a chart showing an example of evaluation according to the present embodiment.

【図9】作業姿勢の評価法の一例である。FIG. 9 is an example of a work posture evaluation method.

【符号の説明】[Explanation of symbols]

1…コンピュータ(演算手段、画面作成手段) 2…キーボード(第1入力手段、第2入力手段) 3…データベース(記憶手段) 4…CRT(表示手段) 5…プリンタ DESCRIPTION OF SYMBOLS 1 ... Computer (computing means, screen creating means) 2 ... Keyboard (first input means, second input means) 3 ... Database (storage means) 4 ... CRT (display means) 5 ... Printer

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 作業負担を作業姿勢に基づいて所定の評
価法に従ってコンピュータ上で定量的に測定する作業姿
勢評価システムであって、 初期条件を入力する第1入力手段と、 作業動作に関するコマンドを入力する第2入力手段と、 前記評価法で用いられる各種の係数テーブルを記憶する
記憶手段と、 前記コマンドに従って形成された作業姿勢を認識し、前
記係数テーブルより当該作業姿勢に対応する係数を選択
し、当該係数と前記初期条件とに基づいて前記評価法に
従って当該作業姿勢における作業負担を演算する演算手
段と、 作業者データと作業環境データとに基づいて当該作業姿
勢において作業者の視点から見た画面を作成する画面作
成手段と、 当該画面作成手段により作成された画面を表示する表示
手段と、 を有することを特徴とする作業姿勢評価システム。
1. A work posture evaluation system for quantitatively measuring a work load on a computer based on a work posture according to a predetermined evaluation method, comprising: first input means for inputting initial conditions; and commands relating to work movements. Second input means for inputting, storage means for storing various coefficient tables used in the evaluation method, work postures formed in accordance with the commands are recognized, and coefficients corresponding to the work postures are selected from the coefficient table. Then, a calculation means for calculating the work load in the work posture according to the evaluation method based on the coefficient and the initial condition, and a viewpoint from the viewpoint of the worker in the work posture based on the worker data and the work environment data. And a display means for displaying the screen created by the screen creating means. Working posture evaluation system.
JP6550693A 1993-03-24 1993-03-24 Work posture evaluation system Expired - Fee Related JP3114417B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6550693A JP3114417B2 (en) 1993-03-24 1993-03-24 Work posture evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6550693A JP3114417B2 (en) 1993-03-24 1993-03-24 Work posture evaluation system

Publications (2)

Publication Number Publication Date
JPH06274095A true JPH06274095A (en) 1994-09-30
JP3114417B2 JP3114417B2 (en) 2000-12-04

Family

ID=13289028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6550693A Expired - Fee Related JP3114417B2 (en) 1993-03-24 1993-03-24 Work posture evaluation system

Country Status (1)

Country Link
JP (1) JP3114417B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068430A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Adaptability evaluation device, and adaptability evaluation method
JP2017068431A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Load evaluation device, load evaluation method
JP2017068429A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Workload evaluation device, workload evaluation method
JP2017068428A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Workload evaluation device, workload evaluation method
WO2020012702A1 (en) * 2018-07-13 2020-01-16 株式会社日立製作所 Work assisting system and work assisting method
WO2023002528A1 (en) * 2021-07-19 2023-01-26 三菱電機エンジニアリング株式会社 Stress evaluation device and stress evaluation system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068430A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Adaptability evaluation device, and adaptability evaluation method
JP2017068431A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Load evaluation device, load evaluation method
JP2017068429A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Workload evaluation device, workload evaluation method
JP2017068428A (en) * 2015-09-29 2017-04-06 富士重工業株式会社 Workload evaluation device, workload evaluation method
WO2020012702A1 (en) * 2018-07-13 2020-01-16 株式会社日立製作所 Work assisting system and work assisting method
JP2020012859A (en) * 2018-07-13 2020-01-23 株式会社日立製作所 Work support device and work support method
US11462126B2 (en) 2018-07-13 2022-10-04 Hitachi, Ltd. Work support device and work supporting method
WO2023002528A1 (en) * 2021-07-19 2023-01-26 三菱電機エンジニアリング株式会社 Stress evaluation device and stress evaluation system

Also Published As

Publication number Publication date
JP3114417B2 (en) 2000-12-04

Similar Documents

Publication Publication Date Title
US7002585B1 (en) Graphic display apparatus for robot system
EP1769890A2 (en) Robot simulation device
CN103101053B (en) Robot control system, robot system and sensor information processing means
US20070021868A1 (en) Method of evaluating and correcting robot program and device for evaluating and correcting robot program
EP1616674A2 (en) Robot system provided with robot controller
JPH06274095A (en) Operation attitude evalulation system
US6701208B2 (en) Apparatus and method of proposing bending sequences and bending tools for a metal plate part
US20180260496A1 (en) Jig design assisting device and robot simulation device
JPWO2020066949A1 (en) Robot routing device, robot routing method, program
JPH08257975A (en) Force-control robot compensating force detection
JP5670239B2 (en) Spot dot selection method and spot dot selection program
WO2019064919A1 (en) Robot teaching device
US20040093921A1 (en) Metal sheet part bending order and bending die proposing device and proposing method
JPH07160323A (en) Operation waveform diagnostic device for industrial robot
JPH07210223A (en) Method for evaluating operating time of robot and device therefor
JP3651295B2 (en) Welding robot identification system
JPH07306705A (en) Teaching device for robot of bending machine
JP3059264B2 (en) Production line manufacturing method
JP3414194B2 (en) Robot work distribution method and apparatus
JP3563927B2 (en) Temporary storage position determination device and recording medium recording temporary storage position determination program
JP3291952B2 (en) Design support equipment
JPH0683974B2 (en) How to determine the installation position of an industrial robot
JP2000351070A (en) Setting method and system for welding condition
JP3291950B2 (en) Design support equipment
JPH11119640A (en) Simulation device of crane and recording medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070929

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080929

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090929

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees