JP6273141B2 - 作業姿勢の多面的評価システム - Google Patents
作業姿勢の多面的評価システム Download PDFInfo
- Publication number
- JP6273141B2 JP6273141B2 JP2013269201A JP2013269201A JP6273141B2 JP 6273141 B2 JP6273141 B2 JP 6273141B2 JP 2013269201 A JP2013269201 A JP 2013269201A JP 2013269201 A JP2013269201 A JP 2013269201A JP 6273141 B2 JP6273141 B2 JP 6273141B2
- Authority
- JP
- Japan
- Prior art keywords
- posture
- evaluation
- subject
- digital human
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 360
- 230000036544 posture Effects 0.000 claims description 329
- 230000000007 visual effect Effects 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims description 7
- 230000003183 myoelectrical effect Effects 0.000 claims description 6
- 230000036772 blood pressure Effects 0.000 claims description 3
- 230000036387 respiratory rate Effects 0.000 claims description 3
- 210000004556 brain Anatomy 0.000 claims description 2
- 210000001624 hip Anatomy 0.000 description 32
- 210000001513 elbow Anatomy 0.000 description 26
- 210000002832 shoulder Anatomy 0.000 description 26
- 238000010586 diagram Methods 0.000 description 22
- 210000003127 knee Anatomy 0.000 description 18
- 210000000689 upper leg Anatomy 0.000 description 14
- 238000000034 method Methods 0.000 description 13
- 230000007246 mechanism Effects 0.000 description 10
- 230000009471 action Effects 0.000 description 9
- 239000003550 marker Substances 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 7
- 239000012636 effector Substances 0.000 description 6
- 230000036541 health Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 210000000245 forearm Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 208000008035 Back Pain Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004394 hip joint Anatomy 0.000 description 2
- 238000004804 winding Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 108700028516 Lan-7 Proteins 0.000 description 1
- 208000008930 Low Back Pain Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012942 design verification Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
Images
Description
被験者の視覚領域に3次元映像を投影して仮想空間を形成し、前記仮想空間内に3次元映像からなる人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を投影するヴァーチャル・リアリティシステムと、
前記デジタルヒューマンシステムにおいて設定されたデジタルヒューマンの姿勢についての客観的評価と、前記ヴァーチャル・リアリティシステムにおいて被験者がとった姿勢についての主観的評価と、に基づいて前記姿勢の評価を行う、姿勢評価部と、
を備える。
被験者の視覚領域に3次元映像を投影して仮想空間を形成し、前記仮想空間内に3次元映像からなる人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を投影するヴァーチャル・リアリティシステムと、
前記デジタルヒューマンシステムにおいて設定されたデジタルヒューマンの姿勢についての客観的評価と、前記ヴァーチャル・リアリティシステムにおいて被験者がとった姿勢についての主観的評価と、に基づいて前記姿勢の評価を行う、姿勢評価部と、
を備える。
前記デジタルヒューマンシステムにおいて設定されたデジタルヒューマンの姿勢についての客観的評価を得ると共に、
前記ヴァーチャル・リアリティシステムにおいて、前記デジタルヒューマンシステムで設定された前記デジタルヒューマンの姿勢を投影し、投影された前記デジタルヒューマンの姿勢に前記被験者が身体を重ねることで、被験者自身が前記姿勢をとることで得られる前記被験者による主観的評価を得るように構成してもよい。
前記ヴァーチャル・リアリティシステムは、前記仮想空間に前記デジタルヒューマンの前記一つの姿勢を投影した後、連続する前記複数の姿勢を順に投影し、
前記姿勢評価部は、
前記デジタルヒューマンシステムにおいて設定された前記デジタルヒューマンの連続する複数の姿勢にわたる動作についての客観的評価を得ると共に、
前記ヴァーチャル・リアリティシステムにおいて、前記デジタルヒューマンシステムで設定された前記デジタルヒューマンの連続する複数の姿勢を順に投影し、投影された前記デジタルヒューマンの連続する複数の姿勢に前記被験者が順に身体を重ねることで、被験者自身が前記連続する複数の姿勢にわたる動作をとることで得られる前記被験者による主観的評価を得るように構成してもよい。
前記被験者の各部及び各関節の少なくとも一つに取り付けられたマーカの位置を検出する複数のカメラと、
前記複数のカメラで検出した前記マーカの現実空間における座標を計算するカメラコントロールユニットと、
を備えてもよい。
前記ヴァーチャル・リアリティシステムにおいて、前記仮想空間内において被験者が姿勢をとることで得られる前記被験者による主観的評価を得ると共に、
前記デジタルヒューマンシステムにおいて、前記ヴァーチャル・リアリティシステムにおいて、被験者がとった姿勢に基づいて得られた人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢についての客観的評価を得るように構成してもよい。
前記姿勢評価部は、
前記ヴァーチャル・リアリティシステムにおいて、前記仮想空間において被験者が連続する複数の姿勢にわたる動作をとることで得られる前記被験者による主観的評価を得ると共に、
前記デジタルヒューマンシステムにおいて、前記ヴァーチャル・リアリティシステムにおいて、被験者がとった連続する複数の姿勢にわたる動作に基づいて得られた人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの連続する複数の姿勢にわたる動作についての客観的評価を得るように構成してもよい。
<姿勢評価システム>
図1は、本実施の形態1に係る姿勢評価システム10の構成を示すブロック図である。この姿勢評価システム10では、デジタルヒューマンシステム1と、ヴァーチャル・リアリティ(VR)システム2と、姿勢評価部3と、を含む。デジタルヒューマンシステム1と、ヴァーチャル・リアリティ(VR)システム2と、姿勢評価部3と、は、LAN4で接続されている。デジタルヒューマンシステム1によって、コンピュータ上で人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を設定する。ヴァーチャル・リアリティ(VR)システム2は、被験者の視覚領域に3次元映像を投影して仮想空間を形成し、仮想空間内に3次元映像からなる人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を投影する。姿勢評価部3によって、デジタルヒューマンシステム1において設定されたデジタルヒューマンの姿勢についての客観的評価と、ヴァーチャル・リアリティシステム2において被験者がとった姿勢についての主観的評価と、に基づいて姿勢の評価を行う。
また、これによって、治具の準備、作業手順決定など生産準備工程を短時間で有効な準備を行うことができる。その結果、工程維持、作業者の肉体的・心理的負担を軽減できる。また、製品設計の場面でも、ユーザ視点での設計検証が可能となる。
なお、ここでは、デジタルヒューマンシステム1と、ヴァーチャル・リアリティ(VR)システム2と、姿勢評価部3と、は、互いにLAN4で接続され、それぞれ別のコンピュータ上で稼働させるように示しているが、これに限られない。例えば、一つのコンピュータ上でデジタルヒューマンシステム1と、ヴァーチャル・リアリティ(VR)システム2と、姿勢評価部3と、を同時に稼働させて1つの姿勢評価システムを構成してもよい。また、上記の例では各システム1、2及び姿勢評価部3をLANで接続しているが、これに限られず、外部のネットワークを介して接続してもよい。
図2は、デジタルヒューマンシステム1の物理的構成を示すブロック図である。図3は、デジタルヒューマンシステム1の表示画面の一例を示す概略図である。デジタルヒューマンシステム1は、通常のコンピュータのCPU11、RAM12、入力部13、表示部14、記憶装置15を含む。記憶装置15には、デジタルヒューマンシステムソフトウエア16を格納している。このデジタルヒューマンシステムソフトウエア16を、コンピュータ上で動作させることで、コンピュータをデジタルヒューマンシステムとして動作させることができる。このデジタルヒューマンシステム1によって、人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を設定する。例えば、図3の表示画面では、人が膝を曲げて腰を落とし、両腕の肘を少し曲げて前面側で荷物を持つ姿勢を表している。
図4は、ヴァーチャル・リアリティ(VR)システム2の物理的な構成を示すブロック図である。図5は、図4のヴァーチャル・リアリティ(VR)システム2の制御部21の物理的な構成を示すブロック図である。図6は、実施の形態1に係る姿勢評価システムにおいて、ヘッドマウントディスプレイ22を装着した被験者とカメラ24との配置を示す概略斜視図である。図7は、図6のヘッドマウントディスプレイ22を装着した被験者を示す拡大図である。図8は、図7の被験者が装着しているヘッドマウントディスプレイ22とマーカ25の検出位置について、仮想空間において対応する箇所の表示の一例である。
このヴァーチャル・リアリティ(VR)システム2は、制御部21と、ヘッドマウントディスプレイ22と、カメラコントロールユニット23と、カメラ24と、を備える。ヴァーチャル・リアリティシステム2は、仮想空間内において被験者がとった姿勢に基づいて、人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを得るモーションキャプチャ部を備えてもよい。例えば、上記モーションキャプチャ部は、被験者の各部及び各関節の少なくとも一つに取り付けられたマーカの位置を検出する複数のカメラ24と、複数のカメラ24で検出したマーカ25の現実空間における座標を計算するカメラコントロールユニット23と、を備えてもよい。
図6及び図7に示すように、ヘッドマウントディスプレイ22は、被験者の視界を覆うように装着し、被験者の視覚領域に3次元映像を投影して、仮想空間を形成する。さらに、仮想空間内に、デジタルヒューマンの3次元映像からなる姿勢を投影する。なお、ヘッドマウントディスプレイ22は、被験者の頭の向きや動きなどを検出することができることが好ましい。これによって、頭の向きや動きに対応した視界が表示できる。
図6に示すように、カメラ24は、被験者を囲むように配置してもよい。カメラ24によって、被験者の体に装着したマーカ25の位置を検出する。カメラ24の台数は、図6に示す4台に限るものではなく、マーカ25の三次元的な位置姿勢が計測できる台数(一般的には2台以上)であればよい。2台のカメラ24があれば、マーカ25までの距離を検出できる。なお、被験者の姿勢を検出することを目的とするので、肘、腰、膝等の関節部分と、末端である手、足にマーカ25を装着すればよい。
カメラコントロールユニット23は、各カメラ24で検出したマーカ25の位置を現実空間での座標として、制御部21に伝達する。
上記仮想空間に投影されたデジタルヒューマンの姿勢に自分の体をあてはめる手段(姿勢あてはめ手段)としては、次の2つの手段がある。
1)仮想空間に投影されたデジタルヒューマンの姿勢に、仮想空間の被験者の姿勢を、仮想空間上で重ねる。具体的には、現実空間での被験者の姿勢を変化させることによって、仮想空間の被験者の姿勢がデジタルヒューマンの姿勢に略重なった場合に、仮想空間での色や音などによって、デジタルヒューマンと被験者の両者の姿勢が重なったことが知覚できるようにする。これによって、仮想空間上でデジタルヒューマンと被験者の両者の姿勢を重ね、被験者がデジタルヒューマンの姿勢を体感でき、主観的評価を行うことができる。
2)仮想空間に投影されたデジタルヒューマンの姿勢と、仮想空間の被験者の姿勢とが重なるように、現実空間の被験者の身体に、姿勢固定デバイスを装着する。具体的には、被験者が後述する肩固定デバイス、肘固定デバイス、腰固定デバイス、膝固定デバイス等の姿勢固定デバイスを装着することによって、デジタルヒューマンと被験者の両者の姿勢を重ねることができる。これによって、被験者がデジタルヒューマンの姿勢を体感でき、主観的評価を行うことができる。なお、姿勢固定デバイスの装着時に、あらかじめデジタルヒューマンの姿勢となるように固定してもよい。あるいは、姿勢固定デバイスの装着時には可動できるようにしておき、現実空間での被験者の姿勢を変化させることによって、仮想空間の被験者の姿勢がデジタルヒューマンの姿勢に略重なった場合に、姿勢固定デバイスを固定するようにしてもよい。
<姿勢固定デバイス>
図11(a)は、被験者が各姿勢固定デバイス41、42、43a、43b、48を装着した状態を示す概略図であり、(b)は、肩固定デバイス41の概略図であり、(c)は、肘固定デバイス42の概略図であり、(d)は、腰固定デバイス43aの概略図であり、(e)は、腰固定デバイスの変形例43bの概略図であり、(f)は、膝固定デバイス48の概略図である。図12は、肩固定デバイス41の構成を示す概略斜視図である。図13は、肘固定デバイス42及び膝固定デバイス48の構成を示す概略斜視図である。図14(a)は、図13の肘固定デバイス42及び膝固定デバイス48において、ヒンジ部58、59に角度を設けた場合の概略斜視図であり、(b)は、ヒンジ部58、59をまっすぐにした場合の概略斜視図である。
図12に示すように、肩固定デバイス41は、パラレルリンク機構のうち、スチュワートプラットホーム機構と対応する構成を有する。スチュワートプラットホーム機構では、ベース、エンドエフェクタ(EF)(出力部)を6本の長さ可変の直動リンクで並行に接続された構成を備える。この場合、直動リンクと、ベース、エンドエフェクタ(EF)との接続は、球軸受(自由度3)もしくはジンバル機構(ユニバーサルジョイント、自由度2)を使う。また、ジンバル機構を用いる場合には、直動リンクは軸回りの回転が必要となる。この肩固定デバイス41では、上記スチュワートプラットホーム機構のベースに対応する肩固定リング51と、エンドエフェクタ(EF)に対応する上腕固定リング52とに穴をあけて肩及び上腕を通す。また、球軸受の自由度は、肩固定リング51と上腕固定リング52とを接続するストラップ53のねじれで対応している。また、肩固定リング51は、肩に固定され、上腕固定リング52は、上腕に固定されている。ストラップ53は、弛まないように巻き取り装置54によって張力を印加される。以上の構成を有する肩固定デバイスによって、肩を固定することができる。
なお、肩固定デバイスは上記構成に限られず、図11(b)に示すように、上半身用ベストの袖からストラップや伸縮性リンクによって肩の外転・内転、屈曲・伸展を規制して肩を固定してもよい。この場合も肩の旋回は可能としてもよい。
図13に示すように、肘固定デバイス42は、上腕固定リング55と、前腕固定リング56と、上腕固定リング55と前腕固定リング56とをヒンジ部を介して接続するリンク57a、57bと、ヒンジ部の角度変化を検出するエンコーダ58と、を備える。なお、上腕固定リング55と、前腕固定リング56と、は、リングではなくベルトによって構成してもよい。また、膝固定デバイス48も肘固定デバイス42と実質的に同様の構成を有する。具体的には、膝固定デバイス48は、上腿固定リングと、下腿固定リングと、上腿固定リングと下腿固定リングとをヒンジ部を介して接続するリンクと、ヒンジ部の角度変化を検出するエンコーダと、を備える。
肘固定デバイス42/膝固定デバイス48は、医療用ニーブレースと似た基本構造を有する2リンク機構を有する。また、リンク57a、57bは、左右に同じ構造を有する。ヒンジ部の一方に電磁ブレーキ59、他方にエンコーダ58を搭載する。
(1)仮想空間のデジタルヒューマンの姿勢に基づいて、あらかじめ肘の曲げ角度を決めておく。
(2)被験者の肘に肘拘束デバイス42を装着する。
(3)被験者が肘をゆっくりと曲げていく。
(4)肘拘束デバイス42のエンコーダ58の計測値から、肘が目的の角度になったときに電磁ブレーキ59を閉にする。これによって体験しようとする被験者の姿勢を固定できる。
なお、電磁ブレーキ59は、電磁石駆動である必要はない。例えば、エア駆動のブレーキ機構も利用できる。
図11(d)に示すように、腰固定デバイス43aは、被験者の腰上部の周囲を固定する腰固定部44と、被験者の上腿を固定する上腿固定部45と、腰固定部44と上腿固定部45とを接続し、腰固定部44と上腿固定部45との間の位置関係を固定するリンク46と、を備える。この腰固定デバイス43aでは、リンク46と、腰固定部44及び上腿固定部45との角度を固定することによって腰を固定することができる。あるいは、図11(e)に示すように、変形例の腰固定デバイス43bは、被験者の腰上部の周囲を固定する腰固定部44と、被験者の上腿を固定する上腿固定部45と、腰固定部44と上腿固定部45とを接続し、腰固定部44と上腿固定部45との間に張力を印加して固定するベルト47と、を備える。この腰固定デバイス43bでは、腰固定部44と上腿固定部45とを接続するベルト47に所定張力を印加して腰を固定することができる。腰固定部44と上腿固定部45とを接続する接続部がリンクの場合は、肘固定デバイス42/膝固定デバイス48と同様に電磁ブレーキを使って固定できる。上記接続部がベルト式の場合は肩固定デバイス41と同様に、股関節の自由な姿勢を固定できる。
なお、上記姿勢固定デバイスを使用することによって、被験者にデジタルヒューマンと同じ姿勢をさせることができる。この場合に、被験者自身が肩、腰、肘、膝を動かしており、各姿勢固定デバイスは張力あるいは、ブレーキ手段によって被験者の動きを止めるだけである。つまり、各姿勢固定デバイスは、アクチュエータを用いないので、被験者に負担となる無理な動きを強いることはない。
図9は、姿勢評価部3の機能的な構成を示すブロック図である。図10は、図9の姿勢評価部3の物理的な構成を示すブロック図である。姿勢評価部3によって、デジタルヒューマンシステムにおいて設定されたデジタルヒューマンの姿勢についての客観的評価と、ヴァーチャル・リアリティシステム2において被験者がとった姿勢についての主観的評価と、に基づいて姿勢の評価を行う。
姿勢評価部3は、機能的な面からみれば、客観的評価取得部31と、主観的評価取得部32と、多面的評価部33とを備える。客観的評価取得部31によってデジタルヒューマンシステム1において設定されたデジタルヒューマンの姿勢についての客観的評価を取得する。主観的評価取得部32によってヴァーチャル・リアリティシステム2において被験者がとった姿勢についての主観的評価を取得する。また、多面的評価部33によって、上記客観的評価と主観的評価とを多面的、且つ、統合的に評価する。物理的な構成としては、通常のコンピュータのCPU11、RAM12、入力部13、表示部14、記憶装置15を含む。記憶装置15には、多面的評価ソフトウエア18を格納している。この多面的評価ソフトウエア18を、コンピュータ上で動作させることで、コンピュータ上で多面的評価を行うことができる。
ミシガン大学エルゴノミクスセンターで開発された、3D Static Strength Prediction Program(3D SSPP)は、作業者の姿勢、性別、身長、体重に基づく、身体の各関節における許容負荷データベースを持っている。この3D SSPPを参照することによって、重力および手先に加えた外力と、自分自身の体重を考慮して、作業者の身体の各関節に発生している負荷(関節トルク)を算出したうえで、許容負荷と比較し、労働人口の何%が現在の負荷(関節トルク)に耐えられるか、という形で、身体の部位ごとに(ひじ)、肩、腰、股関節、ひざ、足首)評価できる。
NIOSHは、National Institute for Occupational Safety and Health(米国国立労働安全衛生研究所)の略称である。NIOSH持上評価式は、NIOSHが定めた、おもに腰痛発生予防のための荷物持上げ作業に関するガイドラインのことである。持ち上げ作業の開始姿勢および終了姿勢、作業頻度、作業継続時間、手先のグリップ状態をもとに、持ち上げ動作の開始および終了時において、腰痛を発生する危険性の低い範囲内で、最大何kgまで持ち上げることが可能か算出する。この評価式は両手持ち上げ作業の場合のみ適用可能である。
OWASとは、Ovako式作業評価方法の略称である。Ovako式作業評価方法は、フィンランドの労働衛生研究所(Institute of Occupational Health)などで開発された機能である。作業者の体幹部、上肢、下肢の姿勢および荷物の重さの4項目をコード化して記録し、評価表から総合点数を求め、負荷の大きさを判断する。評価結果のコード化されたものは4ケタの数値(OWASコード)と呼ばれる。この4ケタの数値の組み合わせに応じて、1〜4のAC(Action Category:動作カテゴリ)を導出する。最終的にこのACで作業姿勢全体の評価とする。
上記定性的評価方法としては、インタビューによる被験者の意見、コメント等の数値化データや、SD法による評価の数値化データを評価値として用いてもよい。
定性的評価方法の場合にも、複数の姿勢の間で順位付けすることで数値化できる。
さらに、姿勢評価部3は、客観的評価の評価値と主観的評価の評価値との少なくとも一方の評価値に重み付けの係数を乗じた評価値を用いて姿勢の相対的評価を行ってもよい。このように評価の重要度に応じて重み付けすることで重要な評価項目の評価結果をより反映させることができる。なお、客観的評価と、主観的評価と、のいずれか一方をより重要視するように重み付けを行ってもよい。
次に、姿勢評価システムの動作手順を説明する。
この姿勢評価システム10では、デジタルヒューマンシステム1による客観的評価と、ヴァーチャル・リアリティ(VR)システム2を利用した被験者による主観的評価と、に基づく多面的な評価を行う。その動作手順としては、評価対象となる姿勢をデジタルヒューマンシステム1で作成するか、あるいは、ヴァーチャル・リアリティシステム(VR)2で被験者自身がその姿勢をとるか、のいずれかによって異なる。なお、いずれの場合も、最終的な評価にあたっては、客観的評価と主観的評価とを多面的、且つ、統合的に評価する点では共通する。
まず、図15は、評価対象となる姿勢をデジタルヒューマンシステムで作成する場合のフローチャートである。
(1)目的とする作業・動作を行うための姿勢について、デジタルヒューマンシステム(DH)においてデジタルヒューマンの姿勢を設定する(S01)。
(2)デジタルヒューマンシステムにおいて設定されたデジタルヒューマンの姿勢についての客観的評価を得る(S02)。例えば、負荷予測手法や関節トルク推定等の解析的手法によって客観的評価を行ってもよい。
(3)ヴァーチャル・リアリティシステム2において、デジタルヒューマンシステム1で設定されたデジタルヒューマンの姿勢を投影し、投影されたデジタルヒューマンの姿勢に被験者が身体を重ねることで、被験者自身が上記姿勢をとる(S03)。
(4)上記姿勢についての被験者による主観的評価を得る(S04)。例えば、筋電位などの生理的評価や、コメント等の定性的評価による主観的評価を行ってもよい。
(5)必要な数の姿勢について評価が得られたか確認する(S05)。姿勢の数が不足する場合には、(1)のステップS01に戻って、新たな姿勢をデジタルヒューマンシステム1において設定する。
(6)必要数の姿勢と、その評価値を収集できた場合には、得られた客観的評価と、主観的評価と、に基づいて姿勢の評価を行う(S06)。
(7)上記評価に基づいて姿勢を決定する(S07)。
以上によって、デジタルヒューマンシステム1で数多くの評価対象の姿勢を作成しながら、客観的評価のみに偏ることなく、主観的評価を考慮した労働衛生を考慮した姿勢を選択できる。この場合、デジタルヒューマンシステム1によって姿勢を設定するので、数多くの姿勢を対象とすることができると共に、人間では通常考えないような姿勢も対象とする場合がある。
1)仮想空間に投影されたデジタルヒューマンの姿勢に、仮想空間の被験者の姿勢を、仮想空間上で重ねる。
2)仮想空間に投影されたデジタルヒューマンの姿勢と、仮想空間の被験者の姿勢とが重なるように、現実空間の被験者の身体に、姿勢固定デバイスを装着する。
次に、図16は、ヴァーチャル・リアリティシステム(VR)で被験者自身が評価対象となる姿勢をとる場合のフローチャートである。
(1)目的とする作業・動作を行うための姿勢について、ヴァーチャル・リアリティシステム2において、仮想空間内において被験者が姿勢をとる(S11)。
(2)仮想空間内において被験者がとった姿勢について、被験者による主観的評価を得る(S12)。例えば、筋電位などの生理的評価や、コメント等の定性的評価による主観的評価を行ってもよい。
(3)デジタルヒューマンシステム1において、ヴァーチャル・リアリティシステム2において被験者がとった姿勢に基づいて得られた人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を設定する(S13)。
(4)デジタルヒューマンシステム1において、設定されたデジタルヒューマンの姿勢についての客観的評価を得る(S14)。
(5)必要な数の姿勢について評価が得られたか確認する(S15)。姿勢の数が不足する場合には、(1)のステップS01に戻って、ヴァーチャル・リアリティシステム(VR)2で被験者自身が新たな姿勢をとる。
(6)必要数の姿勢と、その評価値を収集できた場合には、得られた客観的評価と、主観的評価と、に基づいて姿勢の評価を行う(S16)。
(7)上記評価に基づいて姿勢を決定する(S17)。
以上によって、ヴァーチャル・リアリティ(VR)システム2で被験者自身がその姿勢をとることによって姿勢を生成しながら、主観的評価に限定されることなく、客観的評価を考慮して姿勢を選択できる。また、この場合、被験者自身がその姿勢をとるので、生成する姿勢の数は少ないが、より現実的な姿勢を評価対象とすることができる。
本実施の形態2に係る姿勢評価システムでは、実施の形態1に係る姿勢評価システムと対比すれば、連続する複数の姿勢にわたる動作についての評価を行う点で相違する。その動作手順としては、評価対象となる動作をデジタルヒューマンシステムで作成するか、あるいは、ヴァーチャル・リアリティシステム(VR)で被験者自身がその動作をとるか、のいずれかによって異なる。なお、いずれの場合も、最終的な評価にあたっては、客観的評価と主観的評価とをそれぞれ多面的、且つ、統合的に評価する点では共通する。
(a)目的とする作業・動作について、デジタルヒューマンシステム1は、デジタルヒューマンの一つの姿勢から連続する複数の姿勢にわたる動作を設定する。
(b)デジタルヒューマンシステム1において設定されたデジタルヒューマンの連続する複数の姿勢にわたる動作についての客観的評価を得る。
(c)ヴァーチャル・リアリティシステム2において、デジタルヒューマンシステム1で設定されたデジタルヒューマンの連続する複数の姿勢を順に投影し、投影されたデジタルヒューマンの連続する複数の姿勢に被験者が順に身体を重ねることで、被験者自身が連続する複数の姿勢にわたる動作をとる。
(d)上記連続する複数の姿勢にわたる動作についての被験者による主観的評価を得る。
(e)必要な数の動作について評価が得られたか確認する。姿勢の数が不足する場合には、(a)のステップに戻って、新たな動作をデジタルヒューマンシステム1において設定する。
(f)必要数の動作と、その評価値を収集できた場合には、得られた客観的評価と、主観的評価と、に基づいて動作の評価を行う。
(g)上記評価に基づいて動作を決定する。
以上によって、デジタルヒューマンシステム1で評価対象の動作を作成しながら、客観的評価のみに偏ることなく、主観的評価を考慮した労働衛生を考慮した動作を選択できる。
(a)目的とする作業・動作について、ヴァーチャル・リアリティシステム2において、仮想空間において被験者が連続する複数の姿勢にわたる動作をとる。
(b)上記連続する複数の姿勢にわたる動作についての被験者による主観的評価を得る。
(c)デジタルヒューマンシステム1において、ヴァーチャル・リアリティシステム2において被験者がとった連続する複数の姿勢にわたる動作に基づいて得られた人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの連続する複数の姿勢を設定する。
(d)上記連続する複数の姿勢にわたる動作についての客観的評価を得る。
(e)必要な数の動作について評価が得られたか確認する。姿勢の数が不足する場合には、(a)のステップに戻って、新たな動作をヴァーチャル・リアリティシステム2において設定する。
(f)必要数の動作と、その評価値を収集できた場合には、得られた客観的評価と、主観的評価と、に基づいて動作の評価を行う。
(g)上記評価に基づいて動作を決定する。
以上によって、ヴァーチャル・リアリティシステム(VR)2で被験者自身がその動作をとることによって動作を生成しながら、主観的評価に限定されることなく、客観的評価を考慮して動作を選択できる。
2 ヴァーチャル・リアリティ(VR)システム
3 姿勢評価部
4 LAN
10 姿勢評価システム
11 CPU
12 RAM
13 入力部
14 出力部
15 記憶装置
16 デジタルヒューマンソフトウエア
17 ヴァーチャル・リアリティ(VR)ソフトウエア
18 多面的評価ソフトウエア
21 制御部
22 ヘッドマウントディスプレイ
23 カメラコントロールユニット
24 カメラ
25、25a、25b、25c、25d、25e、25f、25g マーカ
26a、26b、26c、26d、26e、26f、26g マーカ対応箇所(仮想空間)
27 ヘッドマウントディスプレイ対応箇所(仮想空間)
31 客観的評価取得部
32 主観的評価取得部
33 多面的評価部
41 肩固定デバイス
42 肘固定デバイス
43a、43b 腰固定デバイス
44 腰固定部
45 大腿固定部
46 リンク
47 ベルト
48 膝固定デバイス
51 肩固定リング
52 上腕固定リング
53 ストラップ
54 巻き取り装置
55 上腕固定リング
56 前腕固定リング
57a、57b リンク
58 エンコーダ
59 電磁ブレーキ
Claims (12)
- コンピュータ上で人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を設定するデジタルヒューマンシステムと、
被験者の視覚領域に3次元映像を投影して仮想空間を形成し、前記仮想空間内に3次元映像からなる人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を投影するヴァーチャル・リアリティシステムと、
前記デジタルヒューマンシステムにおいて設定されたデジタルヒューマンの姿勢についての客観的評価と、前記ヴァーチャル・リアリティシステムにおいて被験者がとった姿勢についての主観的評価と、に基づいて前記姿勢の評価を行う、姿勢評価部と、
を備え、
前記姿勢評価部は、
前記デジタルヒューマンシステムにおいて設定されたデジタルヒューマンの姿勢についての客観的評価を得ると共に、
前記ヴァーチャル・リアリティシステムにおいて、前記デジタルヒューマンシステムで設定された前記デジタルヒューマンの姿勢を投影し、投影された前記デジタルヒューマンの姿勢に前記被験者が身体を重ねることで、被験者自身が前記姿勢をとることで得られる前記被験者による主観的評価を得る、姿勢評価システム。 - コンピュータ上で人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を設定するデジタルヒューマンシステムと、
被験者の視覚領域に3次元映像を投影して仮想空間を形成し、前記仮想空間内に3次元映像からなる人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢を投影するヴァーチャル・リアリティシステムと、
前記デジタルヒューマンシステムにおいて設定されたデジタルヒューマンの姿勢についての客観的評価と、前記ヴァーチャル・リアリティシステムにおいて被験者がとった姿勢についての主観的評価と、に基づいて前記姿勢の評価を行う、姿勢評価部と、
を備え、
前記デジタルヒューマンシステムは、デジタルヒューマンの一つの姿勢から連続する複数の姿勢にわたる動作を設定し、
前記ヴァーチャル・リアリティシステムは、前記仮想空間に前記デジタルヒューマンの前記一つの姿勢を投影した後、連続する前記複数の姿勢を順に投影し、
前記姿勢評価部は、
前記デジタルヒューマンシステムにおいて設定された前記デジタルヒューマンの連続する複数の姿勢にわたる動作についての客観的評価を得ると共に、
前記ヴァーチャル・リアリティシステムにおいて、前記デジタルヒューマンシステムで設定された前記デジタルヒューマンの連続する複数の姿勢を順に投影し、投影された前記デジタルヒューマンの連続する複数の姿勢に前記被験者が順に身体を重ねることで、被験者自身が前記連続する複数の姿勢にわたる動作をとることで得られる前記被験者による主観的評価を得る、姿勢評価システム。 - 前記ヴァーチャル・リアリティシステムは、前記仮想空間に投影された前記デジタルヒューマンの姿勢と、前記仮想空間の前記被験者の姿勢とが重なるように、現実空間の前記被験者の身体の一部に装着する姿勢固定デバイスを用いて、現実空間の前記被験者の姿勢を固定する、請求項1又は2に記載の姿勢評価システム。
- 前記ヴァーチャル・リアリティシステムは、前記仮想空間内において被験者がとった姿勢に基づいて、人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを得るモーションキャプチャ部を備える、請求項1又は2に記載の姿勢評価システム。
- 前記モーションキャプチャ部は、
前記被験者の各部及び各関節の少なくとも一つに取り付けられたマーカの位置を検出する複数のカメラと、
前記複数のカメラで検出した前記マーカの現実空間における座標を計算するカメラコントロールユニットと、
を備える、請求項4に記載の姿勢評価システム。 - 前記姿勢評価部は、
前記ヴァーチャル・リアリティシステムにおいて、前記仮想空間内において被験者が姿勢をとることで得られる前記被験者による主観的評価を得ると共に、
前記デジタルヒューマンシステムにおいて、前記ヴァーチャル・リアリティシステムにおいて、被験者がとった姿勢に基づいて得られた人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの姿勢についての客観的評価を得る、
請求項4又は5に記載の姿勢評価システム。 - 前記デジタルヒューマンシステムは、デジタルヒューマンの一つの姿勢から連続する複数の姿勢にわたる動作を設定し、
前記姿勢評価部は、
前記ヴァーチャル・リアリティシステムにおいて、前記仮想空間において被験者が連続する複数の姿勢にわたる動作をとることで得られる前記被験者による主観的評価を得ると共に、
前記デジタルヒューマンシステムにおいて、前記ヴァーチャル・リアリティシステムにおいて、被験者がとった連続する複数の姿勢にわたる動作に基づいて得られた人の各部の寸法、各関節の座標及び角度に対応するヒューマンモデルを有するデジタルヒューマンの連続する複数の姿勢にわたる動作についての客観的評価を得る、
請求項4又は5に記載の姿勢評価システム。 - 前記姿勢評価部は、前記客観的評価を数値化した評価値と、前記主観的評価を数値化した評価値と、の合計に基づいて前記姿勢の相対的評価を行う、請求項1から7のいずれか一項に記載の姿勢評価システム。
- 前記姿勢評価部は、前記客観的評価と、前記主観的評価と、を複数の姿勢の間での相対的評価に基づいて共通の単位による評価値としてそれぞれ表示して、前記客観的評価の評価値と前記主観的評価の評価値との合計に基づいて前記姿勢の相対的評価を行う、請求項1から7のいずれか一項に記載の姿勢評価システム。
- 前記姿勢評価部は、前記客観的評価の評価値と前記主観的評価の評価値との少なくとも一方の前記評価値に重み付けの係数を乗じた評価値を用いて前記姿勢の相対的評価を行う、請求項9に記載の姿勢評価システム。
- 前記姿勢評価部は、前記ヴァーチャル・リアリティシステムにおいて前記被験者が姿勢をとる際の前記被験者の筋電位、脳波、血圧、呼吸数の群からなる生理的指標のうちの少なくとも1つを主観的評価として用いる、請求項1から10のいずれか一項に記載の姿勢評価システム。
- 前記姿勢評価部は、前記デジタルヒューマンシステムにおいて設定されたデジタルヒューマンの姿勢についての静的許容負荷予測、関節トルク、関節トルクパワー、OWAS又はNIOSHによる評価基準の少なくとも1つを客観的評価として用いる、請求項1から11のいずれか一項に記載の姿勢評価システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013269201A JP6273141B2 (ja) | 2013-12-26 | 2013-12-26 | 作業姿勢の多面的評価システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013269201A JP6273141B2 (ja) | 2013-12-26 | 2013-12-26 | 作業姿勢の多面的評価システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015125578A JP2015125578A (ja) | 2015-07-06 |
JP6273141B2 true JP6273141B2 (ja) | 2018-01-31 |
Family
ID=53536243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013269201A Active JP6273141B2 (ja) | 2013-12-26 | 2013-12-26 | 作業姿勢の多面的評価システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6273141B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11062520B2 (en) | 2019-09-09 | 2021-07-13 | Ford Global Technologies, Llc | Ergonomic assessment using a wearable device |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113297734B (zh) * | 2021-05-21 | 2024-03-29 | 南京邮电大学 | 一种基于可视化锥的受限空间内装配工艺仿真评价方法 |
WO2023002528A1 (ja) * | 2021-07-19 | 2023-01-26 | 三菱電機エンジニアリング株式会社 | ストレス評価装置およびストレス評価システム |
CN115390677B (zh) * | 2022-10-27 | 2023-04-07 | 江苏中车数字科技有限公司 | 一种基于虚拟现实的装配仿真人机工效评价系统及方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002224072A (ja) * | 2001-02-02 | 2002-08-13 | Mazda Motor Corp | 筋疲労評価装置、筋疲労評価方法並びに当該方法を実行するコンピュータプログラム並びに当該コンピュータプログラムを格納した記憶媒体 |
JP4870884B2 (ja) * | 2001-09-07 | 2012-02-08 | 大阪瓦斯株式会社 | 心臓負担評価装置 |
JP2003256756A (ja) * | 2002-03-05 | 2003-09-12 | Osaka Gas Co Ltd | 作業空間診断方法及び作業空間診断装置 |
-
2013
- 2013-12-26 JP JP2013269201A patent/JP6273141B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11062520B2 (en) | 2019-09-09 | 2021-07-13 | Ford Global Technologies, Llc | Ergonomic assessment using a wearable device |
Also Published As
Publication number | Publication date |
---|---|
JP2015125578A (ja) | 2015-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kim et al. | Assessing the influence of a passive, upper extremity exoskeletal vest for tasks requiring arm elevation: Part II–“Unexpected” effects on shoulder motion, balance, and spine loading | |
Vignais et al. | Physical risk factors identification based on body sensor network combined to videotaping | |
Lim et al. | A narrative review on contemporary and emerging uses of inertial sensing in occupational ergonomics | |
Stirling et al. | Static, dynamic, and cognitive fit of exosystems for the human operator | |
McAtamney et al. | Rapid entire body assessment | |
US9761011B2 (en) | Motion information processing apparatus obtaining motion information of a subject performing a motion | |
US20190374161A1 (en) | Exosuit systems and methods for detecting and analyzing lifting and bending | |
JP2021514230A (ja) | 筋骨格傷害から保護し、能力を強化させるためのウェアラブル・デバイス | |
JP6273141B2 (ja) | 作業姿勢の多面的評価システム | |
US20190224841A1 (en) | Exosuit systems and methods for monitoring working safety and performance | |
Matthew et al. | Kinematic and kinetic validation of an improved depth camera motion assessment system using rigid bodies | |
Battini et al. | WEM-Platform: A real-time platform for full-body ergonomic assessment and feedback in manufacturing and logistics systems | |
Oyekan et al. | Applying a fusion of wearable sensors and a cognitive inspired architecture to real-time ergonomics analysis of manual assembly tasks | |
Lorenzini et al. | An online multi-index approach to human ergonomics assessment in the workplace | |
US20180140225A1 (en) | Body part deformation analysis using wearable body sensors | |
Lerch et al. | 3D laser scanning: A model of multidisciplinary research | |
Gauthier et al. | Human movement quantification using Kinect for in-home physical exercise monitoring | |
JP2019154489A (ja) | 運動能力評価システム | |
Zheng et al. | Evaluation and test methods of industrial exoskeletons in vitro, in vivo, and in silico: A critical review | |
Nahavandi et al. | Ergonomic effects of using lift augmentation devices in mining activities | |
JP6045338B2 (ja) | 姿勢体感システム及び姿勢評価システム | |
JP6439106B2 (ja) | 身体歪みチェッカー、身体歪みチェック方法およびプログラム | |
Serbest et al. | Biomechanical effects of daily physical activities on the lower limb | |
Hossny et al. | Musculoskeletal analysis of mining activities | |
Cordella et al. | A biofeedback-based posture correction system for working environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161003 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6273141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |