JP3391648B2 - 機器操作性評価支援装置 - Google Patents

機器操作性評価支援装置

Info

Publication number
JP3391648B2
JP3391648B2 JP04445597A JP4445597A JP3391648B2 JP 3391648 B2 JP3391648 B2 JP 3391648B2 JP 04445597 A JP04445597 A JP 04445597A JP 4445597 A JP4445597 A JP 4445597A JP 3391648 B2 JP3391648 B2 JP 3391648B2
Authority
JP
Japan
Prior art keywords
human body
body model
model
virtual space
dimensional virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04445597A
Other languages
English (en)
Other versions
JPH10240791A (ja
Inventor
裕一 有田
直行 野崎
宏治 出水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP04445597A priority Critical patent/JP3391648B2/ja
Priority to US08/929,669 priority patent/US6205367B1/en
Publication of JPH10240791A publication Critical patent/JPH10240791A/ja
Application granted granted Critical
Publication of JP3391648B2 publication Critical patent/JP3391648B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、三次元仮想空間内
に、設計対象機器あるいはレイアウト対象機器の形状を
模擬した機器モデルを配置するとともに、機器の操作を
行なう人間を想定した人体モデルを配置し、その人体モ
デルをその三次元仮想空間内で動作させることによりレ
イアウト対象機器の操作性の評価を支援する機器操作性
評価支援装置に関する。
【0002】
【従来の技術】従来より、機器単体の操作性やレイアウ
トされた機器全体としての操作性を評価するには、いわ
ゆるモックアップ(はりぼて)を作製し、レイアウトさ
れた機器の操作性の評価のときは作製したモックアップ
を実際にレイアウトし、それを実際に操作するような動
作を行って評価している。このため、必要に応じてモッ
クアップを何度も作り直す必要があり、操作性の評価に
長時間を要し、また、コストアップの要因となってい
た。
【0003】このため、モックアップを実際に作製する
ことなく、コンピュータシミュレーションにより、機器
の操作性評価を行うツールの出現が期待されている。一
方、従来より、三次元仮想空間内に、設計対象機器モデ
ルあるいはレイアウト対象機器モデルを配置するととも
に人体モデルを配置する手段を持つCAD装置やデザイ
ンツール等が存在する。例えば、日本テクノマティック
ス株式会社の商標ROBCAD/MANと呼ばれるソフ
トウェアシミュレーションツールでは、機器モデルと人
体モデルを三次元仮想空間内に配置し、その人体モデル
の視点から見た画像やその人体モデルの視点とは異なる
視点から見た画像を表示し、人体モデルを歩かせたり姿
勢を変更させたりしながらシミュレーションを行なうこ
とができる。
【0004】
【発明が解決しようとする課題】しかしながら、従来の
シミュレーションツールは、アニメーション作成、製品
イメージ図作成、人間が手作業装置を組み立てる際の組
立性の検討、装置と人間の大きさとの比較等を目的とし
て作られたものであるため、人間が操作することを前提
とした操作性を考慮した機器設計や、複数の機器により
構成される装置のレイアウト設計に向いたものではな
い。
【0005】具体的には、従来のシミュレーションツー
ルを、レイアウトされた機器あるいは単独の機器の操作
性評価に用いることを考えた場合、従来のシミュレーシ
ョンツールには以下のような問題点が存在する。人間が
操作する機器は、さまざまな体型や姿勢に適合すること
が必要である。そのために、さまざまな体型モデルを用
いて容易に検証できること、複数の姿勢を用いて容易に
検証できることが求められているが、既存のシミュレー
ションツールではそれらの検証に多くの工数を必要と
し、現実的ではない。
【0006】また、人間が操作する機器の中には、車椅
子などの補助機具利用者にも利用可能とする必要がある
ものも存在するが、従来のシミュレーションツールで
は、例えば車椅子の形状モデルを配置することはできて
も、車椅子形状の変更や人間の体型・姿勢による違いを
容易に検証する手段がなく、やはりモックアップに頼る
必要がある。
【0007】また、計算機上でシミュレーションを行う
場合には、人体モデルの視点から見た画像や別の視点か
ら見た画像を表示し、その表示された画像を見て評価す
ることになるが、その場合、一般的には人間の視野と他
の物体との位置関係を把握することは容易ではなく、シ
ミュレーション結果の評価が困難である。さらに、従来
のシミュレーションツールにおいても人体モデルの視点
から見た画像を表示する機能は存在するものの、その画
像のどの部分が、よく見える範囲なのか、あるいは視野
に入っているのか不明であり、やはり操作性、視認性の
評価に支障がある。さらには、人間が特定対象物を注視
する場合には、頭部の動きや眼球の動きも視認性、操作
性評価の重要な要素となるが、従来はそれらの動きをシ
ミュレーションする手段がないため、シミュレーション
による検証に限界がある。さらに、機器配置や、ディス
プレイ、ランプ、スイッチの配置等においては、それら
の対象物と人間の視点との間の距離(視距離)が重要な
要素となるが、従来、視距離を容易に得る手段はない。
【0008】さらに、従来のシミュレーションツールで
は人体モデルを実際に動かしてみないとある操作が可能
であるか操作しにくいか判断が困難な操作対象の機器や
スイッチ等が多数存在する場合、動作の組み合わせが極
めて多く、人体モデルをいちいち動作させて検証するの
に多大の時間を要する結果となる。本発明は、上記事情
に鑑み、レイアウトされた機器の操作性や機器単体の操
作性をシミュレーションで容易に検証することのできる
機器操作性評価支援装置を提供することを目的とする。
【0009】
【課題を解決するための手段】上記目的を達成するため
の本発明の機器操作性評価支援装置のうちの第1の機器
操作性評価支援装置は、三次元仮想空間内に、評価対象
機器の形状を模擬した機器モデルを配置するとともに人
体の形状を模擬した人体モデルを配置し、人体モデルを
三次元仮想空間内で動作させることにより、評価対象機
器の操作性の評価を支援する機器操作性評価支援装置に
おいて、人体の形状を模擬した複数の人体モデルであっ
て、これら複数の人体モデルが1つ以上にグループ分け
されてなる各グループ別に人体上の異なる位置に相当
し、かつ、各グループ内では人体上の共通の位置に相当
する、各人体モデル上の基準位置が定義されてなる複数
の人体モデルを格納する人体モデル格納部と、人体モデ
ル格納部に格納された人体モデルの中から三次元仮想空
間内に配置される人体モデルを変更自在に選択する人体
モデル選択手段と、三次元仮想空間内に機器モデルを配
置するとともに、その三次元仮想空間内に、人体モデル
選択手段により選択された人体モデルを配置し、前記人
体モデル選択手段により、三次元空間内に配置される人
体モデルとして、その三次元仮想空間内に現在配置され
ている人体モデルが属するグループと同一のグループに
属する人体モデルが選択された場合に、三次元仮想空間
内における、変更前の人体モデルの基準位置と変更後の
人体モデルの基準位置とが一致するように、変更後の人
体モデルを、変更前の人体モデルに代えて、三次元仮想
空間内に配置するモデル配置手段と、モデル配置手段に
より機器モデルおよび人体モデルが配置された三次元仮
想空間を人体モデルの視点とは異なる視点からみた画像
を表示する画像表示部を備えたことを特徴とする。
【0010】ここで、上記本発明の第1の機器操作性評
価支援装置において、人体モデル格納部が、体型の異な
る複数の人体それぞれの形状を模擬した複数の人体モデ
ルを構築するための、人体各部の形状を模擬した人体モ
デル部品が格納されてなる人体モデル部品格納部と、人
体モデル部品格納部に格納された人体モデル部品を配置
して人体モデルを構築する部品配置データを、人体モデ
ルの複数の姿勢それぞれに対応して格納してなる部品配
置データ格納部と、人体モデルを三次元仮想空間内に配
置したときにその三次元仮想空間内の位置が体型とは無
関係に規定される人体モデル上の基準位置をあらわす基
準位置データを、人体モデルの複数の姿勢それぞれにつ
いて格納してなる基準位置格納部とを備え、上記人体モ
デル選択手段が、複数の人体モデルの中から三次元仮想
空間内に配置される人体モデルの体型を変更自在に選択
する体型選択手段と、三次元仮想空間内に配置される人
体モデルの姿勢を変更自在に指定する姿勢指定手段とを
備え、上記モデル配置手段が、三次元仮想空間内に機器
モデルを配置するとともに、その三次元仮想空間内に、
体型選択手段により選択された体型の人体モデルを、姿
勢指定手段により指定された姿勢で配置し、体型選択手
段により三次元仮想空間内に配置される人体モデルの体
型が変更された場合に、変更後の人体モデルの姿勢が変
更前の人体モデルの姿勢と同一の姿勢であって、かつ、
三次元仮想空間内における、変更前の人体モデルの基準
位置と、変更後の人体モデルの基準位置とが一致するよ
うに、変更前の人体モデルに代えて、三次元仮想空間内
に配置するものであることが好ましい。
【0011】ここで、人体モデル上の基準位置は、人体
モデルの各グループ毎(典型的には同一の姿勢の人体モ
デルの集合毎)に定められた、三次元仮想空間内におけ
る人体モデルの「同一位置」を保証する位置、例えば、
立姿勢における足裏、椅子に座った姿勢における尻の下
等をいう。また、上記本発明の第1の機器操作性評価支
援装置において、部品配置データ格納部が、人体モデル
の複数の姿勢それぞれに対応して、人体モデル部品の可
動範囲をあらわす可動範囲データを格納してなるもので
あって、三次元仮想空間内に配置された人体モデルの動
作を指示する動作指示手段を備え、モデル配置手段が、
動作指示手段による人体モデルの動作指示に応じて、三
次元仮想空間内に配置された人体モデルを、その人体モ
デルの姿勢に応じた可動範囲内で動作させるものである
ことが好ましい。
【0012】三次元仮想空間内で人体モデルを動作させ
ることにより機器の操作性が評価されるが、例えば腕を
動かして作業を行なう場合において、作業を有効に行な
うことのできる腕の動作範囲は、姿勢により異なる。そ
こで、人体モデル部品の可動範囲をあらわす可動範囲デ
ータを姿勢に対応して格納しておき、動作指示に応じ
て、三次元仮想空間内に配置された人体モデルを、その
人体モデルの姿勢に応じた可動範囲内で動作させること
により、姿勢に応じた適切な動作シミュレーションを行
なうことができ、機器の操作性を一層正しく評価するこ
とができる。
【0013】また、上記のようにして姿勢に応じた可動
範囲内で動作させたときに、その三次元仮想空間内に配
置された人体モデルの動作を評価する動作評価手段を備
えることが好ましい。機器の操作性の評価は最終的には
この機器操作性評価支援装置の使用者(オペレータ)が
行なうものの、人体モデルを動作させた場合に、人体部
品の動き、例えば移動量、移動速度、移動加速度等を勘
案して評価基準を定めておき、人体モデルの動作が指定
されたときにその動作についてその評価基準に基づいて
自動的に評価することにより、オペレータによる最終的
な操作性評価の誤りが防止され、一層適切な最終評価が
可能となる。
【0014】また、上記本発明の機器操作性評価支援装
置のうちの第2の機器操作性評価支援装置は、三次元仮
想空間内に、評価対象機器の形状を模した機器モデルを
配置するとともに人体の形状を模擬した人体モデルを配
置し、人体モデルを三次元仮想空間内で動作させること
により、評価対象機器の操作性の評価を支援する機器操
作性評価支援装置において、人体モデルの視野をあらわ
す視野図形が格納された視野図形格納部と、機器モデル
および人体モデルが配置された三次元仮想空間を人体モ
デルの視点とは異なる視点からみた画像を表示するとと
もに、その画像上に、人体モデルの視野をあらわす視野
図形を表示する画像表示部とを備えたことを特徴とす
る。
【0015】画像上に視野図形を表示すると人体モデル
から見えている範囲が直感的に把握でき、機器操作性の
正確な評価に役立たせることができる。上記の視野図形
を表示する場合に、視野図形格納部が、視認性の程度が
異なる複数段階の視野をあらわす複数の視野図形を格納
してなるものであり、上記複数段階の視野の中から、表
示用の視野を、複数段階の視野の同時選択を許容して選
択する視野選択手段を備え、画像表示部が、画像上にあ
らわれた人体モデルの、視野選択手段で選択された1も
しくは複数段階の視野をあらわす視野図形を表示するも
のであることが好ましい。
【0016】視認性の程度が異なる複数段階の視野をあ
らわす複数の視野図形、例えば良好な視認性が確保され
る視野をあらわす視野図形や、何んとなく見える範囲を
あらわす視野図形を、同時にもしくは切替え自在に表示
すると、人体モデルの視認範囲とともに視認の程度が正
確に把握でき、機器操作性の正確な評価に役立つことに
なる。
【0017】また、本発明の機器操作性評価支援装置の
うちの第3の機器操作性評価支援装置は、三次元仮想空
間内に、評価対象機器の形状を模した機器モデルを配置
するとともに人体の形状を模擬した人体モデルを配置
し、人体モデルを三次元仮想空間内で動作させることに
より、評価対象機器の操作性の評価を支援する機器操作
性評価支援装置において、三次元仮想空間内に配置され
た人体モデルの視点から見た画像上の、視認性の程度が
異なる複数段階の視野範囲を指標する複数の視野図形を
格納してなる視野図形格納部と、上記複数段階の視野範
囲の中から、表示用の視野範囲を、複数段階の視野範囲
の同時選択を許容して選択する視野選択手段と、三次元
仮想空間内に配置された人体モデルの視点から見た画像
を表示するとともに、その画像上に、視野選択手段で選
択された1もしくは複数段階の視野範囲をあらわす視野
図形を表示する画像表示部とを備えたことを特徴とす
る。
【0018】人体モデルの視点から見た画像を表示しそ
の画像上に視認性の異なる複数の視野図形を、同時にも
しくは切替自在に表示すると、人体モデルの、ある視認
性を持った視野範囲を一層容易に把握することができ
る。ここで、上記本発明の第3の機器操作性評価支援装
置において、三次元仮想空間内に配置された人体モデル
の眼球の動きを指示する眼球動作指示手段を備え、画像
表示部が、眼球動作指示手段による人体モデルの眼球の
動きに、その人体モデルの視点から見た画像上に表示さ
れた視野図形の1つを連動させるものであることが好ま
しい。
【0019】視野図形の1つ、具体的には例えば人体モ
デルが注視している視野範囲をあらわす視野図形を、眼
球動作指示に連動して動かすことにより、機器の所望の
ポイントを眼球運動のみで注視可能なのか、あるいは例
えば頭部を動かす必要があるのか等を判定することがで
き、操作性の正しい評価に大きく貢献する。また、本発
明の機器操作性評価支援装置において、画像表示部に表
示された画像上にあらわれた所望の対象物を指定する対
象物指定手段と、対象物指定手段により指定された、三
次元仮想空間内の対象物と、その三次元仮想空間内に配
置された人体モデルの視点との間の距離を算出する距離
算出手段とを備えることが好ましい。
【0020】三次元仮想空間に配置された対象物と視点
との間の距離も、操作性に大きく影響を与える要因の1
つである。さらに、本発明の機器操作性評価支援装置に
おいて、三次元仮想空間内に配置された機器モデルが、
三次元仮想空間内に配置された人体モデルの視野内に存
在するか否かを判定する視野内外判定手段を備え、画像
表示部が、視野内外判定手段による判定結果を画像上に
表示するものであることも好ましい形態である。
【0021】画像上に視野図形を表示するという本発明
の形態について前述したが、視野図形のみでは、実際に
視野内に入っているのか否か、あるいは、適切な距離範
囲内にあるかどうか判定しにくい場合もある。そこで、
上記のように、実際に視野内に入っているか否か判定し
てその判定結果を画像上に表示すると、一層正確な判断
が可能となる。
【0022】また、本発明の機器操作性評価支援装置に
おいて、部品配置データ格納部が、人体モデルの複数の
姿勢それぞれに対応して、人体モデル部品の可動範囲を
あらわす可動範囲データを格納してなるものであって、
画像表示部に表示された画像上にあらわれた所望の対象
物を指定する対象物指定手段と、対象物指定手段により
指定された、三次元仮想空間内の対象物を、その三次元
仮想空間内に配置された人体モデルが、その人体モデル
の、三次元仮想空間内での姿勢に応じた可動範囲内での
動作により視認可能であるか否かを判定する視認可否判
定手段とを備えることも好ましい形態である。
【0023】人体モデルの現在の姿勢に応じた可動範囲
内での動作により視認可能であるか否かを判定する機能
を備えることにより、その姿勢における操作性について
一層正確な評価を行なうことができる。その場合に、視
認可否判定手段により、上記対象物が視認可能であると
判定された動作段階における人体モデルの視点とその対
象物との間の距離を算出する距離算出手段を備えること
が好ましい。
【0024】視認できる範囲内であっても、そのときの
距離を知ることによりその姿勢における操作性について
さらに正確な評価を行なうことができる。さらに、本発
明の機器操作性評価支援装置のうちの第4の機器操作性
評価支援装置は、三次元仮想空間内に、評価対象機器の
形状を模した機器モデルを配置するとともに人体の形状
を模擬した人体モデルを配置し、人体モデルを三次元仮
想空間内で動作させることにより、評価対象機器の操作
性の評価を支援する機器操作性評価支援装置において、
三次元仮想空間内での人体モデルの作業可能領域をあら
わす領域指標図形を、人体モデルおよび姿勢に対応して
格納してなる領域指標図形格納部と、機器モデルおよび
人体モデルが配置された三次元仮想空間を人体モデルの
視点とは異なる視点からみた画像を表示するとともに、
その画像上に、人体モデルの作業可能領域をあらわす領
域指標図形を表示する画像表示部とを備えたことを特徴
とする。
【0025】人体モデルを動作させれば、ある作業が可
能であるか否か知ることができるが、作業可能であるか
否かを知るために人体モデルをいちいち動作させるのが
大変な場合もある。そこで、上記のように、人体モデル
の姿勢に応じた作業可能領域を画像上に表示すると作業
可能範囲が一見して把握でき、操作性評価の効率化が図
られる。
【0026】上記本発明の第4の機器操作性評価支援装
置において、領域指標格納部が、作業性の異なる複数段
階の作業可能領域をあらわす複数の領域指標図形を、人
体モデルおよび姿勢に対応して格納してなるものであっ
て、上記複数段階の作業可能領域の中から、表示用の作
業可能領域を、複数段階の作業可能領域の同時選択を許
容して選択する作業可能領域選択手段を備え、画像表示
部が、画像上にあらわれた人体モデルの、作業可能領域
選択手段で選択された1もしくは複数段階の領域指標図
形を表示するものであることが好ましい。
【0027】視野の場合と同様、作業が可能な領域につ
いても、作業を楽に行なうことができる領域や、作業を
何んとか行なうことのできる領域等が存在する。そこ
で、上記のように、作業性の異なる複数段階の作業可能
領域をあらわす複数の領域指標図形を用意しておいて、
それらを同時にあるいは切替自在に表示することによ
り、作業可能領域とともに作業性の程度を容易に把握す
ることができ、機器操作性の一層正確な評価に役立てる
ことができる。
【0028】
【発明の実施の形態】以下、本発明の実施形態について
説明する。図1は、本発明の機器操作性評価支援装置の
一実施形態のブロック図である。この図1に示す機器操
作性評価支援装置100は、三次元仮想空間(シミュレ
ーション空間)内に、評価対象機器の形状を模擬した
モデルを配置するとともに人体の形状を模擬した人体
モデルを配置し、人体モデルをシミュレーション空間内
で動作させることにより、評価対象機器の操作性の評価
を支援する装置である。以下各ブロックについて説明す
る。
【0029】人体モデル部品格納部101には、体型の
異なる複数の人体それぞれの形状を模擬した複数の人体
モデルを構築するための、人体各部の形状を模擬した人
体モデル部品が格納されている。尚、ここではシミュレ
ーションを取り扱っているため、人体モデル部品は、人
体の各部の形状をあらわす三次元的に設計された設計デ
ータをいう。
【0030】また、部品配置データ格納部102には、
人体モデル部品格納部101に格納された人体モデル部
品を配置してシミュレーション空間内に人体モデルを構
築する部品配置データが、人体モデルの複数の姿勢、例
えば立姿勢、椅子に座った姿勢等のそれぞれに対応して
格納されている。この部品配置データは、例えば椅子に
座った姿勢であれば膝をあらわす部品と、上腿をあらわ
す部品が直角に組み合わされ、さらに上腿をあらわす部
品と胴体をあらわす部品が直角に組み合わされるなど、
部品どうしの組み合わせ方が規定されている。この部品
配置データは、人体モデルの姿勢によって異なるが、姿
勢が同一であれば人体モデルの体型によっては変化しな
い。この部品配置データ格納部102には、人間の移動
を補助する車椅子や松葉杖などの補助機具を使用したと
きの姿勢の人体モデルを構築する部品配置データも格納
されている。さらに、この部品配置データ格納部102
には、人体モデルの各姿勢に対応して、人体モデル部品
の可動範囲をあらわす可動範囲データも格納されてい
る。
【0031】補助機具モデル格納部103には、上記の
補助機具の形状をあらわす補助機具モデルが格納されて
いる。この補助機具モデル格納部103には、車椅子、
松葉杖といった補助機具の種類別だけでなく、同一種類
の補助機具であっても、例えば大型の車椅子、中型の車
椅子、小型の車椅子といった、人体モデルの体型に応じ
た複数の補助機具モデルが格納されている。
【0032】基準位置格納部104には、人体モデルを
シミュレーション空間内に配置したときにそのシミュレ
ーション空間内の位置が体型とは無関係に規定される人
体モデル上の基準位置をあらわす基準位置データが、人
体モデルの複数の姿勢それぞれに対応して格納されてい
る。この基準位置については後で例示しながら説明す
る。この基準位置格納部104には、補助機具を使用し
たときの姿勢に関しては、補助器具を使用した姿勢の人
体モデル上の基準位置をあらわす基準位置データととも
に、その姿勢の人体モデル上の基準位置に対応する、補
助機具モデル上の基準位置をあらわす基準位置データも
格納されている。
【0033】体型選択手段105は、複数の人体モデル
の体型中からシミュレーション空間内に配置される人体
モデルの体型を変更自在に選択するものである。例え
ば、キーボード、マウス等を用いてオペレータにより人
体モデルが選択される。体型選択手段105により、あ
る体型が指定されると、人体モデル部品格納部101に
格納された人体モデル部品の中から、その指定された体
型の人体モデルを構築するのに必要な人体モデル部品が
読み出され、後述するモデル配置手段107に入力され
る。また、以下に説明する姿勢選択手段106で補助機
具を使用した姿勢が選択されていたときは、補助機具モ
デル格納部103に格納された補助機具モデルから、そ
の選択されていた姿勢に適合し、さらに選択された人体
モデルの体型に適合した補助機具モデルが読み出され、
モデル配置手段107に入力される。
【0034】姿勢選択手段106は、シミュレーション
空間内に配置される人体モデルの姿勢を変更自在に選択
するものである。人体モデルの姿勢を選択するにあたっ
ては、具体的にはオペレータにより例えばキーボード、
マウス等が操作される。姿勢選択手段106により姿勢
が選択されると、部品配置データ格納部102に格納
れた部品配置データのうち、選択された姿勢に対応する
部品配置データが読み出されてモデル配置手段107に
伝達され、その選択された姿勢が補助機具を使用した姿
勢のときは、補助機具モデル格納部103に格納された
補助機具データのうち、その選択された姿勢、かつ、既
に選択されている人体モデルの体型に対応する補助機具
モデルが読み出されてモデル配置手段107に入力さ
れ、さらに基準位置格納部104から、選択された姿勢
に応じた人体モデル上の基準位置をあらわす基準位置デ
ータや、その選択された姿勢が補助機具を使用した姿勢
の場合は、その補助機具モデル上の基準位置データが読
み出されてモデル配置手段107に入力される。
【0035】モデル配置手段107には、さらに、外部
から入力された操作性評価の対象となる機器の形状を模
擬した機器モデルが入力される。この機器モデルは、1
つの機器単体を操作性評価の対象とするときは、その1
つの機器単体をあらわす機器モデルであってもよく、複
数の機器のレイアウトによる操作性を評価の対象とする
ときは、所定の配列にレイアウトされた複数の機器の集
合体をあらわす機器モデルであってもよい。
【0036】モデル配置手段107には、上述した各種
のデータが入力され、モデル配置手段107は、シミュ
レーション空間内に機器モデルを配置するとともに、シ
ミュレーション空間内に、体型選択手段105により選
択された人体モデルを、姿勢選択手段106により指定
された姿勢で配置する。このモデル配置手段107は、
体型選択手段105によりシミュレーション空間内に配
置される人体モデルが変更された場合には、変更後の人
体モデルの姿勢が変更前の人体モデルの姿勢と同一の姿
勢であって、かつ変更後の人体モデルの、その同一の姿
勢における基準位置が、基本的には、その同一の姿勢に
おける変更前の人体モデルの基準位置と一致するよう
に、変更後の人体モデルを、変更前の人体モデルに代え
て、シミュレーション空間内に配置する。ただし、姿勢
選択手段106により補助機具を使用した姿勢が選択さ
れており、体型選択手段105により体型の異なる人体
モデルが選択されたときは、前述したようにその人体モ
デルの体型に適合した寸法の補助機具モデルに変更さ
れ、変更前の人体モデルの基準位置と変更後の人体モデ
ルの基準位置が一致しないこともある。
【0037】また、このモデル配置手段107は、姿勢
選択手段106により人体モデルの姿勢が変更される
と、シミュレーション空間内に配置してある人体モデル
の姿勢を変更する。このとき、変更後の姿勢が補助機具
を使用した姿勢のときは、補助機具モデル格納部103
からそれに適合した補助機具モデルが読み出されてモデ
ル配置手段107に入力され、また、変更後の姿勢が補
助機具を使用した姿勢であるか否かにかかわらず、部品
配置データ格納部102からは、その変更後の姿勢に対
応する部品配置データが読み出されてモデル配置手段1
07に入力され、さらに基準位置格納部104からは、
変更後の姿勢に対応する基準位置データが読み出されて
モデル配置手段107に入力される。モデル配置手段1
07では、変更後の姿勢の基準位置がシミュレーション
空間内の所定配置に合致するように、シミュレーション
空間内に配置されている人体モデルを、姿勢選択手段1
06で選択された姿勢に変更する。
【0038】モデル配置手段107により機器モデルお
よび人体モデル(補助機具モデルを含む)が配置された
状態のシミュレーション空間をあらわすデータは、画像
表示部108に入力される。画像表示部108は、基本
的には、そのモデル配置手段107により機器モデルお
よび人体モデルが配置されたシミュレーション空間を、
人体モデルの視点とは異なる視点からみた画像を表示す
る。ただし、この画像表示部108は、そのシミュレー
ション空間を人体モデルの視点からみたときの画像を表
示することもできる。
【0039】図2は、画像表示部に表示される、人体モ
デル変更前後の画像の第1例を示す図である。ここに
は、体型の異なる人体モデルへの変更前後の画像が示さ
れている。図2 (A)は人体モデル変更前の画像例であ
り、機器モデル10と立姿勢の人体モデル20と、人体
モデル20からみて良く見える視野領域をあらわす視野
図形31と、人体モデル20からみてぼんやりと視界に
入っている視野領域をあらわす視野図形32が示されて
いる。これらの視野図形31,32については後述す
る。
【0040】この人体モデル20は立姿勢であり、立姿
勢のときは人体モデル20の足裏に基準位置が存在し、
その人体モデル20は、シミュレーション空間内で、そ
の基準位置(足裏)が床に着いた状態の位置に立姿勢で
配置される。尚、図2 (A)には「基準位置」の文字や
基準位置を原点とした座標をあらわす矢印も示されてい
るが、これらは説明の都合上図2 (A)内に示したもの
であり、画面上にはあらわれない。図2 (A)と図2
(B)とを結ぶ点線も同様である。以後に説明する各図
においても画像上には実際にはあらわれない、説明のた
めの文字や線図が含まれている場合があるが、個々の説
明は省略する。
【0041】図2 (B)は人体モデル変更後の画像例で
あり、図2 (A)と比べ身長の高い人体モデルが配置さ
れている。立姿勢のときは足裏に基準位置が存在し、変
更前後でそれらの基準位置が一致するように、変更後の
身長の高い人体モデルが配置される。図3は、画像表示
部に表示される、人体モデル変更前後の画像の第2例を
示す図である。ここには、椅子に座った姿勢における、
体型の異なる人体モデルへの変更前後の画像が示されて
いる。
【0042】椅子に座った姿勢の場合、尻の下が基準位
置であり、体型によらず基準位置どうしが一致するよう
に人体モデルが変更される。図4は、画像表示部に表示
される、姿勢変更前後の画像の第1例を示す図である。
ここには、立姿勢(A)としゃがんだ姿勢(B)が示さ
れており、変更前後で基準位置は一致し、視野図形3
1,32の位置が変更されている。
【0043】図5は、画像表示部に表示される、姿勢変
更前後の画像の第2例を示す図である。ここには、立姿
勢(A)と椅子に座った姿勢(B)が示されている。変
更前後で基準位置も変更されている。図6は、画像表示
部に表示される、姿勢変更前後の画像の第3例を示す図
である。
【0044】ここには、椅子に座った姿勢(A)と車椅
子に座った姿勢(B)が示されており、変更前後で基準
位置も変更されている。図1に戻って説明を続行する。
動作指示手段109では、モデル配置手段107によっ
てシミュレーション空間内に配置された人体モデルの動
作が指示される。この動作指示手段109は、例えばマ
ウスであり、画像表示部108に表示された人体モデル
の、動かそうとする部品(例えば腕)をピッキングして
画像上で動かすことにより、その部品の動作指示が行な
われる。
【0045】動作指示手段109により、シミュレーシ
ョン空間内に配置された人体モデルの動作が指示される
と、モデル配置手段107は、その動作指示に応じてシ
ミュレーション空間内に配置された人体モデルを動作さ
せる。この動作の際は、部品配置データ格納部102に
格納されている人体モデルの姿勢に応じた各人体モデル
部品の可動範囲をあらわす可動範囲データのうち、シミ
ュレーション空間内に現在配置されている、人体モデル
の姿勢に対応する可動範囲データが、その部品配置デー
タ格納部102から読み出されてモデル配置手段107
に入力され、モデル配置手段107では、動作指示手段
109による人体モデルの動作指示に応じて、シミュレ
ーション空間内に配置された人体モデルを、その人体モ
デルの姿勢に応じた可動範囲内で動作させる。
【0046】図7は、人体モデルの画像に、その人体モ
デルの姿勢に応じた可動範囲を示した図である。図7
(A)には、立姿勢のときの上腕の可動範囲41が示さ
れており、図7(B)には、しゃがんだ姿勢の上腕の可
動範囲42が示されている。この例に示すように、人体
モデルの姿勢によって、その人体モデルを構成する部品
の可動範囲は異なっている。
【0047】また、図1に示す機器操作性評価支援装置
100には、動作評価手段110が備えられており、こ
の動作評価手段110では、動作指示手段109で指示
されモデル配置手段107で実行された動作が、その動
作による移動量、移動速度、移動加速度等を考慮し、実
際の人間にとって楽な動作かどうか評価される。この評
価は、オペレータによる最終的な操作性評価の参考に供
される。
【0048】また視野図形格納部111には、人体モデ
ルの視野をあらわす視野図形が格納されており、画像表
示部108では、画像上にあらわれた人体モデルの目の
位置に合わせて、その人体モデルの視野をあらわすよう
に視野図形が表示される。画像上に表示された視野図形
は、人体モデルの頭部が動いたときはその頭部の動きに
連動してその頭部の位置における視野をあらわすように
移動される。本実施形態では、視野図形格納部111に
は、視認性の程度が異なる複数段階の視野、すなわち図
2〜図6に示すような、人体モデルから見て良く見える
視野領域をあらわす視野図形31と、人体モデルから見
てぼんやりと視界に入っている視野領域をあらわす視野
図形32と、さらに、図2〜図6には図示されていない
が、人体モデルが注視している視野領域をあらわす視野
図形(図8、図9の視野図形33参照)が格納されてい
る。
【0049】視野選択手段112では、視野図形格納部
111に格納された、視認性の異なる複数段階の視野の
中から、表示用の視野を、複数段階の視野の同時選択を
許容して選択される。この視野選択手段112として
は、具体的には、例えばキーボードやマウスが用いられ
る。視野選択手段112により表示用の視野が選択され
ると、画像表示部108では、画像上に表示されている
人体モデルの目の位置に対応させて、視野選択手段11
2で選択された視野をあらわす視野図形を表示する。表
示した視野図形は、人体モデルの頭部の動きに連動して
その表示位置が移動される。
【0050】図8、図9は、人体モデルに視野図形を付
加した画像の各例を示す図である。図8、図9のそれぞ
れには、正面から見た人体モデル20aと側面から見た
人体モデル20bが示されている。図8に示す正面から
見た人体モデル20aには、人体モデル20aから見て
良く見える視野領域31と、人体モデル20aが注視し
ている視野領域33が示されており、側面から見た人体
モデル20bには、良く見える視野領域31が示されて
いる。また、図9に示す正面から見た人体モデル20a
には、人体モデル20aからぼんやりと見える視野領域
32と人体モデル20aが注視している視野領域33が
示されており、図9に示す、側面から見た人体モデル2
0bには、ぼんやりと見える視野領域32が示されてい
る。尚、図2〜図6には、人体モデル20から見て良く
見える視野領域31とぼんやり見える視野領域32が示
されている。
【0051】さらに、視野選択手段112では、シミュ
レーション空間内に配置された人体モデルの視点から見
た画像に関し、人体モデルの視点から見た複数段階の視
野範囲の中から、表示用の視野範囲が、複数段階の視野
範囲の同時選択を許容して選択される。尚、本実施形態
では、視野図形格納部111には、後述する干渉チェッ
クにも用いる立体的な視野形状を表わすデータが格納さ
れており、人体モデルの視点から見た画像上に表示され
る視野図形や、人体モデルの視点以外の視点から見た画
像上に表示される視野図形は、その立体的な視野形状を
表わすデータに基づいて描画される。
【0052】画像表示部108は、前述したように、シ
ミュレーション空間内に配置された人体モデルの視点か
ら見た画像を表示することが可能なものであって、その
人体モデルの視点から見た画像上に、視野選択手段11
2で選択された1段階もしくは複数段階の視野範囲をあ
らわす視野図形を表示する。表示された視野図形は、シ
ミュレーション空間内に配置された人体モデルの頭部の
動きに連動する。
【0053】図10は、視野図形の表示例を示す図であ
る。図10 (A)は、これまでにも説明してきた、人体
モデル20の視点とは異なる視点からシミュレーション
空間内を見たときの画像上に視野図形31,32を表示
した例であり、図10 (B)は、ここで説明している、
人体モデルの視点からシミュレーション空間内を見たと
きの画像上に、人体モデルからみて良く見える視野範囲
をあらわす視野図形31と、人体モデルからみてぼんや
りと見える視野範囲をあらわす視野図形32を表示した
例である。
【0054】このように、人体モデルの視点から見た画
像上に、視野範囲をあらわす視野図形を表示することに
より、人体モデルから見える視野範囲をその視認性と対
応づけて理解でき、一層適切な操作性評価が行なわれ
る。再度図1に戻って説明を続行する。図1に示す機器
操作性評価支援装置100には、さらに、眼球動作指示
手段113が備えられている。この眼球動作指示手段1
13は、これまでに説明した、体型選択手段105、姿
勢選択手段106、視野選択手段112などと同様に、
キーボードあるいはマウスなどにより構成される。
【0055】この眼球動作指示手段113は、シミュレ
ーション空間内に配置された人体モデルの眼球の動きを
指示するものであり、この眼球動作指示手段113によ
り眼球の動きが指示されると、画像表示部108では、
人体モデルの視点から見た画像上に表示された視野図形
のうちの人体モデルの眼球が向いている注視点を示す視
野図形を、その眼球の動きの指示に応じて移動させる。
【0056】図11は、視野図形の表示例を示す図であ
る。図11 (A)には、人体モデルの視点から見た画像
上に、良好に見える視野範囲をあらわす視野図形31
と、眼球移動前の、人体モデルが注視している視野範囲
をあらわす視野図形33が示されており、図11 (B)
には、やはり人体モデルの視点から見た画像上に、良好
に見える視野範囲をあらわす視野図形31と、眼球移動
後の、人体モデルが注視している視野範囲をあらわす視
野図形33が示されている。
【0057】これら図11(A)、(B)に示すよう
に、本実施形態では、人体モデルが注視している視野範
囲をあらわす視野図形33は眼球の動作指示に応じて移
動し、したがって、眼球の移動のみで所望の点を注視す
ることができるか、あるいは例えば頭部を動かして始め
て注視することができるかを知ることができ、操作性の
評価に役立てることができる。
【0058】さらに、図1に示す機器操作性評価支援装
置には、視野内外判定手段114が備えられている。こ
の視野内外判定手段114は、シミュレーション空間内
に配置された機器モデルが、やはりそのシミュレーショ
ン空間内に配置された人体モデルの視野内に存在するか
否かを判定するものである。この判定を行なうにあた
り、本実施形態では、人体モデルの視野をあらわす立体
的な視野形状が想定され、その立体視野形状と機器モデ
ルが干渉している(距離が0、あるいは互いに入り込ん
でいる)か否かが判定される。干渉判定には様々な手法
が知られているが、例えば、「第13回日本ロボット学
会学術講演会 講演論文集pp373−374」、「情
報処理学会第51回全国大会講演論文集(1)pp53
−54」において提案された手法を用いることができ
る。ここでは、干渉判定の手法そのものは問題ではな
く、したがって干渉判定の手法についての説明は省略す
る。
【0059】本実施形態では、人体モデルの視野をあら
わす立体視野形状として、人体モデルの視点から有限距
離(例えば1.0m以内)の立体形状を用いており、し
たがって人体モデルの視点からそれ以上離れている場合
にも、視野外であると判定される。尚、ここで用いる立
体視野形状としては、目的に応じ、人体モデルから見
て、良好に見える視野範囲をあらわす立体形状を採用し
てもよく、ぼんやりと見える視野範囲をあらわす立体形
状を採用してもよいが、視認性の程度が異なる複数の視
野をあらわす複数の立体形状を用意しておいて、例えば
視野選択手段112により選択可能に構成することが好
ましい。
【0060】視野内外判定手段114による判定結果は
画像表示部108に伝えられ、画像表示部108では、
その判定結果が画像上に表示される。その判定結果を画
像上に表示するにあたっては、全体が視野外にある物
体、一部が視野内、一部が視野外にある物体、全体が視
野内にある物体を、例えば色分けや輝度、あるいは線の
種類等により識別してもよく、あるいは、立体図形どう
しの和集合や積集合を求めるブーリアン演算等を実行し
て、視野範囲をあらわす立体図形の内外を二値的に区別
してもよい。
【0061】さらに、図1に示す機器操作性評価支援装
置100には、対象物指定手段115が示されている。
この対象物指定手段115は画像表示部108に表示さ
れた画像上にあらわれた対象物、例えば表示器、スイッ
チ、ランプ、あるいはある機器そのものを任意に指定す
るものである。距離算出手段116では、対象物指定手
段115により指定された対象物があらわす、シミュレ
ーション空間内の、例えば表示器、スイッチ等の対象物
と、同じくそのシミュレーション空間内に配置された人
体モデルの視点との間の距離(視距離)が算出される。
視距離も、操作性に大きく寄与する要因の1つである。
【0062】また、視認可否判定手段117では、対象
物指定手段115により指定された、シミュレーション
空間内の対象物を、そのシミュレーション空間内に配置
された人体モデルが、その人体モデルの、シミュレーシ
ョン空間内での姿勢(例えば椅子に座った姿勢等)に応
じた可動範囲内での動作により、視認可能であるか否か
が判定される。姿勢に応じた人体モデル部品の可動範囲
は、前述したように、部品配置データ格納部102に、
人体モデル部品の、姿勢に応じた部品配置データととも
に格納されている。
【0063】指定された対象物を注視しようとして人体
モデルを動かすにあたっては、オペレータからの特別の
要求がない場合、眼球、頭部、上体の運動によって注視
可能かどうかが判定される。注視可能な状態の算出は、
本実施形態ではロボットの分野で多用される、逆運動学
等と呼ばれる手法が採用されている。ここでは、ある部
品を動かすことにより注視が試みられ、その部品を可動
範囲内で動かしても注視できない場合に、次の部品を動
かして再度注視が試みられる。
【0064】例えば、人体モデルの眼球位置と同じ高さ
であって右斜め後ろにある対象物が指定されたとき、初
めに頭部を垂直軸のまわりに回転することにより注視を
試み、注視が不可能な場合に上体を垂直軸のまわりに回
転し、再度注視が試みられる。尚、対象物が眼球運動の
みによって注視が可能かどうか微妙な位置関係に配置さ
れているようなときは、頭部の回転の前に眼球運動によ
る注視が試みられるが、ここに例示したような、眼球運
動のみによっては注視があきらかに不可能であることが
わかっている場合は、通常は眼球運動によって注視が試
みられることはなく、先ず、頭部が回転される。
【0065】ここで、指定された対象物が視認可否判定
手段117により視認可能であると判定されると、距離
判定手段116にその旨伝えられ、視認可能であると判
定された動作段階における人体モデルの視点から見た、
その視認された対象物までの視距離が算出される。視認
可能ないし注視可能であるという判定とともにそのとき
の視距離を知ることにより、一層正確な評価を与えるこ
とができる。
【0066】さらに、図1に示す機器操作性評価支援装
置100には、領域指標図形格納部118が備えられて
いる。この領域指標図形格納部118には、シミュレー
ション空間内での人体モデルの作業可能領域をあらわす
領域指標図形が、各人体モデルの各姿勢に対応づけられ
て格納されており、画像表示部108では、画像上にあ
らわれた人体モデルの腕の位置等に合わせて、その人体
モデルがその姿勢でいるときの作業可能領域をあらわす
領域指標図形が表示される。
【0067】前述したように、シミュレーション空間内
の人体モデルは、動作指示手段109からの指示により
動作させることができ、その動作により、ある作業が可
能であるか否か判定することができるが、その場合は人
体モデルを動かすという操作が必要である。これに対
し、領域指標図形は、その人体モデルを動かしたとした
ら動作可能である領域をあらわす図形であり、その人体
モデルをいちいち動かすことなく動作可能である領域が
一見して視認でき、操作性評価の効率化が図られる。
【0068】本実施形態では、領域指標図形格納部11
8には作業性の異なる複数段階の作業可能領域をあらわ
す複数の領域指標図形が、人体モデルおよび姿勢に応じ
て格納されており、作業可能領域選択手段119では、
領域指標図形格納部118に格納された、作業性の異な
る複数段階の作業可能領域の中から、表示用の作業可能
領域を、複数段階の作業可能領域の同時選択を許容して
選択される。この作業可能領域選択手段119も、具体
的には、例えばキーボードやマウスが用いられる。
【0069】作業可能領域選択手段119により表示用
の作業可能領域が選択されると、画像表示部108で
は、画像上にあらわれた人体モデルの、作業可能領域選
択手段119で選択された作業可能領域をあらわす領域
指標図形が表示される。この画像上に表示された領域指
標図形は、シミュレーション空間内に配置された人体モ
デルの姿勢の変更に伴って、変更前の姿勢の人体モデル
の領域指標図形に代えて、変更後の姿勢の人体モデルの
領域指標図形が表示される。同じレベルの作業性を有す
るものであっても、姿勢に応じて作業可能領域が異なる
からである。
【0070】図12は、人体モデルに領域指標図形を付
加した画像例を示す図である。図12 (A)、(B)に
は、それぞれ立姿勢、しゃがんだ姿勢における、手先の
作業可能領域43,44が示されている。この例に示す
ように、人体の同じ部位であっても、人体モデルの姿勢
によりその作業可能領域は異なっている。
【0071】図13は、正面(A)および側面(B)か
ら見た人体モデルに、視野図形と領域指標図形との双方
を表示した例を示す図である。本実施形態では、この図
13に示すように、視野領域や作業可能領域が人体モデ
ルに付加されて表示され、人体モデルをいちいち動かす
ことなく、概略的な操作性評価を行なうことができる。
したがって、これだけでは不明の部分のみ人体モデルを
動作させて確認すればよく、効率の良い操作性評価を行
なうことができる。
【0072】図14は、本発明の機器操作性評価支援装
置のもう一つの実施形態のハードウェア構成図である。
ここでは、本発明をコンピュータシステムで構成した実
施形態について説明する。ここには、CPUやメモリ等
からなる演算部200が備えられている。この演算部2
00は、シミュレーション空間の生成とシミュレーショ
ンの実行を担っており、ハードウェア上は、図1に示す
実施形態における、モデル配置手段107、動作評価手
段110、距離算出手段116、視認可否判定手段11
7、視野内外判定手段114、および、画像表示部10
8のうち、実際に画像を表示する機能を除く画像として
表示すべき図形を演算する部分の全ての役割りを担って
いる。
【0073】また、図14に示す実施形態には、キーボ
ード、マウス等の入力装置201、およびモニタ等出力
装置202が備えられている。入力装置201は、ハー
ドウェア上は図1に示す実施形態における体型選択手段
105、姿勢選択手段106、動作指示手段109、視
野選択手段112、眼球動作指示手段113、対象物指
定手段115、および作業可能領域選択手段119の全
ての役割りを担っている。また、出力装置202は、図
1に示す画像表示部108の役割りのうち、画像を実際
に出力する役割部分を担っている。
【0074】さらに、図14に示す実施形態には、各種
のデータやテーブルを格納する複数のファイル203〜
214が備えられている。以下、各ファイルについて説
明する。ファイル203には、体型の異なる複数の人体
モデルを構築するための人体モデル部品の形状データが
格納されている。このファイル203は、図1に示す実
施形態における人体モデル部品格納部101に相当す
る。
【0075】ファイル204には、視野形状をあらわす
データ群が格納されている。このファイル204は、図
1に示す実施形態における視野図形格納部111に相当
する。ファイル205には、作業領域の形状をあらわす
データ群が格納されている。このファイル205は、後
述するファイル209と合わせて、図1に示す実施形態
における領域指標図形格納部118に相当する。
【0076】ファイル206には、車椅子等の補助機具
の形状をあらわすデータ群が格納されている。このファ
イル206は、図1に示す実施形態における補助機具モ
デル格納部103に相当する。ファイル207には、膝
の部品の隣には、上腿の部品が配置されるといった、各
人体モデル部品の配置データ、および膝の部品と上腿の
部品を相対的にどの角度範囲内で動かすことができるか
といった、各部品の可動範囲データが格納されている。
このファイル207と、以下に説明するファイル208
とを合わせたものが、図1に示す実施形態における部品
配置データ格納部102に相当する。
【0077】ファイル208には、人体モデルの基本的
な姿勢、例えば立姿勢、椅子に座った姿勢、しゃがみ姿
勢等を定義した基本姿勢テーブルが格納されている。姿
勢が定義されているとは、例えば立姿勢では膝の部品と
上腿の部品が一直線に並び、椅子に座った姿勢では膝の
部品と上腿の部品が直角に接続されるといった、各部品
の接続される角度などが定義されていることをいう。こ
のファイル208は、上述したように、ファイル207
とともに、図1に示す実施形態における部品配置データ
格納部102に相当する。
【0078】ファイル209には、姿勢と作業領域との
関係をあらわすテーブルが格納されている。ここでいう
姿勢には、立姿勢、椅子に座った姿勢等の基本姿勢のほ
か、人体モデルがある基本姿勢内で動作したときの種々
の姿勢も含まれる。それら種々の姿勢に応じて作業領域
が異なるからである。作業領域をあらわす形状自身はフ
ァイル205に格納されており、これらのファイル20
5,209を合わせたものが、図1に示す実施形態にお
ける領域指標図形格納部118に相当する。
【0079】ファイル210には、姿勢や補助機具と基
準位置との関係を示すテーブルが格納されている。この
ファイル210は、図1に示す実施形態における基準位
置格納部104に相当する。ファイル211には、各人
体モデル部品ごとの移動量、移動速度、移動加速度等
と、評価点数との関連を示すデータが格納されている。
このファイル211に格納されたデータは、人体モデル
の動作を評価する際に参照されるデータであり、図1に
示す実施形態では明示的には示されていないが、動作評
価手段110に含まれている。
【0080】ファイル212には、ファイル211に格
納されたデータが参照されることにより得られた人体モ
デルの動作の評価結果が格納され、機器の操作性を評価
する際に参考にされる。また、ファイル213には人体
モデルの動作自体のデータが処理履歴として格納され
る。このファイル213に格納されたデータは、詳細な
検討を行なう目的等で、人体モデルに一度行なわせた動
作を再現する場合に使用される。
【0081】また、ファイル214には、この図14に
示す機器操作性評価支援装置とは異なる三次元CADシ
ステム300で作成された、製品形状データ、製品構成
データ、部品配置データ等からなる機器モデルをあらわ
すデータが、データコンバータ215により、この機器
操作性評価支援装置に適合するデータ形式に変換されて
格納される。
【0082】図15〜図31は、図14にハードウェア
構成を示す実施形態における演算部201で実行される
プログラムの各部分フローを示したフローチャートであ
る。以下、これらのフローチャートを参照して、図14
にハードウェア構成を示す実施形態におけるソフトウェ
アについて説明する。先ず図15のステップ15_1に
おいて、ファイル214から設計対象物、例えばある単
体の機器、あるいはレイアウト設計対象としての複数の
機器をあらわすデータが演算部200に読み込まれ、ス
テップ15_2において、オペレータからの人体モデル
呼び出し指示待ちとなる。オペレータにより、ある特定
の人体モデルあるいはデフォルトとして指定されている
人体モデルが指示されると、ステップ15_3に進み、
指示された人体モデルに関する各種データが演算部20
0内部のメモリ上に既に存在するか否かが判定され、メ
モリ上に存在しないときは、図14に示すファイル20
3やその他のファイルから、指示された人体モデルに関
する、人体モデル形状やその他の各種データが全てメモ
リ上に読み込まれ(ステップ15_4)、初期配置条件
に基づき、その人体モデルの姿勢、配置位置、使用補助
機具等が決定され、その人体モデルがシミュレーション
空間に配置される(ステップ15_5)。
【0083】次いで、図15に示す各ステップ15_6
〜15_12、および図16に示す各ステップ16_1
〜16_6において、現在のモードが、それぞれ、体型
変更モードであるか否か(ステップ15_6)、姿勢変
更モードであるか否か(ステップ15_7)、補助機具
変更モードであるか否か(ステップ15_8)、視野形
状表示モードであるか否か(ステップ15_9)、視野
形状非表示モードであるか否か(ステップ15_1
0)、作業領域形状表示モードであるか否か(ステップ
15_11)、作業領域形状非表示モードであるか否か
(ステップ15_12)、動作モードであるか否か(ス
テップ16_1)、眼球運動モードであるか否か(ステ
ップ16_2)、視距離測定モードであるか否か(ステ
ップ16_3)、干渉判定モードであるか否か(ステッ
プ16_4)、注視可能性判定モードであるか否か(ス
テップ16_5)、および注視可能性判定及び視距離測
定モードであるか否か(ステップ16_6)が判定さ
れ、各モードであったときは、それぞれ、図19〜図3
1に示すいずれかのフローに進む。図19〜図31に示
す各フローの説明は後に回す。各モードであるか否かの
判定は各モードをあらわすフラグを参照することにより
行なわれる。
【0084】これらのいずれのモードでもなかったと
き、あるいはこれらのいずれかのモードであったときは
図19〜図31に示す各モードに対応するフローを実行
した後、ステップ16_7に進み、人体モデルの視点か
ら見た画像を生成するよう指示されているか否かが判定
される。人体モデルの視点から見た画像生成が指示され
ているときは、人体モデルの視点から見た画像を生成
し、その生成した画像を、出力装置202の表示画面上
に生成された専用表示ウィンドウに表示してステップ1
6_9に進む。
【0085】ステップ16_7において、人体モデルの
視点から見た画像を生成する指示がなされていないと判
定されたときは、ステップ16_8に飛ばして直接にス
テップ16_9に進む。ステップ16_9では、表示フ
ラグ等に基づき、シミュレーション空間を表示するため
の、人体モデルの視点以外の視点から見た画像が生成さ
れ、出力装置202に表示される。表示フラグについて
は後述する。
【0086】すなわち、ステップ16_7〜16_9で
は、人体モデルの視点から見た画像生成の指示の有無に
かかわらず人体モデルの視点以外の視点から見た画像が
生成されて表示され、人体モデルの視点から見た画像の
生成の指示があったときは、人体モデルの視点以外の視
点から見た画像とともに、専用ウィンドウに、人体モデ
ルの視点から見た画像も表示される。
【0087】次いで、図17に示すフローのステップ1
7_1に進み、この機器操作性評価支援装置の利用者
(オペレータ)からの指示待の状態となる。オペレータ
から、以下において説明する各種の指示のうちのいずれ
かの指示が入力されると、ステップ17_2以降に進
む。以下、各指示が入力された場合のモード設定につい
て説明する。尚、各指示の内容の説明は後に回す。
【0088】ステップ17_2では、今回入力された指
示が終了指示であるか否かが判定され、終了指示であっ
たときはこのルーチンを終了する。ステップ17_3で
は、今回入力された指示が体型変更の指示であるか否か
が判定され、体型変更の指示であったときは、ステップ
17_4において、体型変更モードに設定される。具体
的には体型変更モード用のフラグが立てられる。他のモ
ードについても同様であり、以下フラグ操作についての
説明は省略する。
【0089】ステップ17_5では、今回入力された指
示が基本姿勢変更の指示であるか否かが判定され、基本
姿勢変更の指示であったときは、ステップ17_6にお
いて、基本姿勢変更モードに設定される。ステップ17
_7では、今回入力された指示が補助機具変更の指示で
あるか否かが判定され、補助機具変更の指示であったと
きは、ステップ17_8において補助機具変更モードに
設定される。
【0090】ステップ17_9では、今回入力された指
示が視野形状表示指示であるか否かが判定され、視野形
状表示指示であったときは、ステップ17_10におい
て視野形状表示モードに設定される。ステップ17_1
1では、今回入力された指示が視野形状非表示指示であ
るか否かが判定され、視野形状非表示指示であったとき
は、ステップ17_12において視野形状非表示モード
に設定される。
【0091】さらに、図18に示すフローに進み、ステ
ップ18_1では、今回入力された指示が作業領域形状
表示指示であるか否かが判定され、作業領域形状表示指
示であったときは、ステップ18_2において、作業領
域形状表示モードに設定される。ステップ18_3で
は、今回入力された指示が作業領域形状非表示指示であ
るか否かが判定され、作業領域形状非表示指示であった
ときは、ステップ18_4において、作業領域形状非表
示モードに設定される。
【0092】ステップ18_5では、今回入力された指
示が動作指示であるか否かが判定され、動作指示であっ
たときはステップ18_6に進み、動作モードに設定さ
れる。ステップ18_7では、今回入力された指示が眼
球運動に関する指示であるか否かが判定され、眼球運動
に関する指示であったときは、ステップ18_8におい
て、眼球運動モードに設定される。
【0093】ステップ18_9では、今回入力された指
示が視距離測定に関する指示であるか否かが判定され、
視距離測定に関する指示であったときは、ステップ18
_10において視距離測定モードに設定される。ステッ
プ18_11では、今回入力された指示が干渉判定指示
か否かが判定され、干渉判定指示であったときは、ステ
ップ18_12において干渉判定モードに設定される。
【0094】ステップ18_13では、今回入力された
指示が注視可能性判定指示であるか否かが判定され、注
視可能性判定指示であったときは、ステップ18_14
において注視可能性判定モードに設定される。ステップ
18_15では、注視可能性を含めた視距離測定指示で
あるか否かが判定され、注視可能性を含めた視距離測定
指示であったときは、ステップ18_16において、注
視可能性判定及び視距離測定モードに設定される。
【0095】ステップ18_17、18_18は上述の
各種指示以外の指示が入力されたときにも同様にして、
入力された指示に対応するモードにモード設定がなされ
ることを示しているが、ここでは、上記以外の指示が入
力された場合についての説明は省略する。以上のように
してモード設定がなされると、図15に示すフローのス
テップ15_6に戻り、設定されたモードに応じたルー
チン(図19〜図31)が実行される。以下、各モード
におけるルーチンについて順次説明する。
【0096】図19は、体型変更モードのときに実行さ
れるルーチンを示すフローチャートである。この図19
に示すルーチンは、図15に示すフローのステップ15
_6で体型変更モードであると判定されたときに実行さ
れる。この体型変更モードは、シミュレーション空間に
配置されている人体モデルを体型の異なる人体モデルに
変更するモードである。ステップ19_1において、変
更後の体型の人体モデル形状やその人体モデルに関連す
る各種データが演算部200 (図14参照)のメモリに
読み込まれ、ステップ19_2において、ファイル21
0に格納されている基本姿勢と基準位置との関連を規定
したデータより基準位置が選択され、ステップ19_3
において、体位変更前の基準位置に変更後の基準位置が
合致するように、人体モデルのシミュレーション空間上
の位置が決定される。
【0097】ステップ19_4では体型変更モードが解
除され、図16に示すフローのステップ16_7に戻
り、ステップ16_9において体位変更後の人体モデル
が画像上に表示される。尚、ステップ19_4における
体型変更モードの解除は、単に、体型変更モードをあら
わすフラグの解除を意味している。他のモードにおける
「解除」も同様である。
【0098】図20は、基本姿勢変更モードのときに実
行されるルーチンを示すフローチャートである。この図
20に示すルーチンは、図15に示すフローの、ステッ
プ15_7で姿勢変更モードであると判定されるときに
実行される。この姿勢変更モードは、例えば立姿勢から
椅子に座った姿勢への変更等、人体モデルの基本的な姿
勢を変更するモードである。
【0099】ステップ20_1では、図14に示すファ
イル208に格納されている基本姿勢テーブルより、姿
勢変更に必要なデータが取得され、ステップ20_2で
は、ファイル210に格納されている基本姿勢と基準位
置との関連をあらわすテーブルより、変更後の基本姿勢
に対応する基準位置が選択される。さらに、ステップ2
0_3では、人体モデルの基本姿勢の変更が演算上実施
され、ステップ20_4では、基本姿勢変更後の基準位
置に基づき、人体モデルのシミュレーション空間上の配
置位置が決定される。ステップ20_5では基本姿勢変
更モードが解除されて図16に示すフローのステップ1
6_7に戻り、ステップ16_9では、姿勢変更後の人
体モデルが画像上に表示される。
【0100】図21は、補助機具変更モードのときに実
行されるルーチンを示すフローチャートである。この図
21に示すルーチンは、図15に示すフローの、ステッ
プ15_8で補助機具変更モードであると判定されたと
きに実行される。この補助機具変更モードは、シミュレ
ーション空間に配置される補助機具を変更するモードで
ある。
【0101】ステップ21_1では、ファイル210に
格納されている姿勢・補助機具と基準位置との関連をあ
らわすテーブルより、変更後の補助機具を使用したとき
の基準位置と姿勢の組み合わせが選択され、ステップ2
1_2では、その選択内容に基づき、補助機具と人体モ
デルの基準位置どうしを合致させ、かつ、人体モデルを
その補助機具を使用したときの姿勢へ変更する演算処理
が実行され、ステップ21_3では、補助機具を含めた
人体モデルの、シミュレーション空間上の位置が決定さ
れる。ステップ21_4では補助機具変更モードが解除
されて図16に示すフローのステップ16_7に戻り、
ステップ16_9では、変更後の補助機具を含めた人体
モデルが画像上に表示される。
【0102】図22は、視野形状表示モードのときに実
行されるルーチンを示すフローチャートである。この図
22に示すルーチンは、図15に示すフローの、ステッ
プ15_9で視野形状表示モードであると判定されたと
きに実行される。この視野形状表示モードは、シミュレ
ーション空間に配置された人体モデルの視野形状をあら
わす図形を表示するモードである。
【0103】ステップ22_1では、表示指示された視
野形状に対応する表示フラグが立てられる。例えば図2
に2種類の視野図形31,32を示すように、ここでは
視認性の程度が異なる複数の図形を表示することがで
き、各図形に表示フラグが対応づけられており、ある表
示フラグが設定されるとその設定された表示フラグに対
応する視野図形が表示される構成となっている。
【0104】ステップ22_2では、視野形状表示モー
ドが解除されて図16に示すフローのステップ16_7
に戻り、ステップ16_8、ステップ16_9では、表
示フラグに基づき、指示された視認性の視野図形が表示
される。図23は、視野形状非表示モードのときに実行
されるルーチンを示すフローチャートである。この図2
3に示すルーチンは、図15に示すフローの、ステップ
15_10で視野形状非表示モードであると判定された
ときに実行される。
【0105】この視野形状非表示モードは、シミュレー
ション空間に配置された人体モデルの、それまで表示さ
れていた視野形状をあらわす図形を非表示に変更するモ
ードである。ステップ23_1では、非表示が指示され
た視野形状に対応する表示フラグが解除される。ステッ
プ23_2では、視野形状非表示モードが解除されて図
16に示すフローのステップ16_7に戻り、ステップ
16_8、ステップ16_9では、表示フラグに基づ
き、それまで表示されていた視野形状をあらわす図形の
うち、非表示が指示された視野形状が非表示に変更され
る。
【0106】図24は、作業領域形状表示モードのとき
に実行されるルーチンを示すフローチャートである。こ
の図24に示すルーチンは、図15に示すフローの、ス
テップ15_11で作業領域形状表示モードであると判
定されたときに実行される。この作業領域形状表示モー
ドは、シミュレーション空間に配置された人体モデルの
作業領域形状をあらわす図形を表示するモードである。
作業領域形状も、前述した視野形状と同様に、作業性の
程度が異なる複数段階の作業領域をあらわす作業領域形
状が存在し、また、人体モデルを構成する複数の部品に
ついてそれぞれ作業領域形状が存在する。各作業領域形
状には、各表示フラグが対応づけられている。
【0107】ステップ24_1では、表示指示された作
業領域形状に対応する表示フラグが立てられる。ステッ
プ24_2では、作業領域形状表示モードが解除され、
図16に示すフローのステップ16_7に戻り、ステッ
プ16_8、ステップ16_9では、表示フラグに基づ
き、指示された作業性の作業領域形状をあらわす図形が
表示される。
【0108】図25は、作業領域形状非表示モードのと
きに実行されるルーチンを示すフローチャートである。
この図25に示すルーチンは、図15に示すフローのス
テップ15_12で作業領域形状非表示モードであると
判定されたときに実行される。この作業領域非表示モー
ドは、シミュレーション空間に配置された人体モデル
の、それまで表示されていた作業領域形状をあらわす図
形を非表示に変更するモードである。
【0109】ステップ25_1では、非表示が指示され
た作業領域形状に対応する表示フラグが解除される。ス
テップ25_2では、作業領域形状非表示モードが解除
されて図16に示すフローのステップ16_7に戻り、
ステップ16_8、ステップ16_9では、表示フラグ
に基づき、それまで表示されていた作業領域形状をあら
わす図形のうち、非表示が指示された作業領域形状が非
表示に変更される。
【0110】図26は、動作モードのときに実行される
ルーチンを示すフローチャートである。この図26に示
すルーチンは、図16に示すフローの、ステップ16_
1で動作モードであると判定されたときに実行される。
この動作モードは、シミュレーション空間に配置された
人体モデルの動作が指示されたときにその動作を実行す
るモードである。
【0111】ステップ26_1では、指示された動作を
単位時間あたりの微小動作量に分割する演算が行なわれ
る。ステップ26_2では、指示された動作が全て実行
されたか否かが判定される。指示された動作が全て実行
されたときはステップ26_3に進み、動作モードが解
除されて図17に示すフローの先頭に戻り、オペレータ
からの次の指示待ちの状態となる。
【0112】指示された動作の実行が残っているとき
は、ステップ26_4に進み、シミュレーション内の時
間が単位時間進められ、ステップ26_5では、人体モ
デルの動作が、ステップ26_1で分割された1ステッ
プ分だけ更新され、かつ、今回の微小動作に対応する、
単位時間あたりの微小動作量が全体の動作量から差し引
かれて残りの動作量が求められる。ステップ26_6で
は、ファイル211が参照されて今回の微小動作による
位置、速度、加速度の変更量等に基づいて評価点が求め
られ、その求められた評価点数が記録される。
【0113】ステップ26_7では、ファイル209に
格納された姿勢と作業領域との関連を記録したテーブル
が参照され、今回微小量だけ動作したことによる姿勢変
更に伴い、作業領域を変更する必要性があるか否かが確
認され、作業領域の変更が必要であるときは(ステップ
26_8)、作業領域が変更される(ステップ26_
9)。
【0114】ステップ26_10では、人体モデルの視
点から見た画像の生成が指示されているか否かが判定さ
れ、人体モデルの視点らか見た画像の生成が指示されて
いるときは、ステップ26_11において、人体モデル
の視点から見た画像が生成されて専用ウィンドウに表示
される。ステップ26_12では、表示フラグ等に基づ
き、人体モデルの視点以外の視点から見たシミュレーシ
ョン空間を表示するための画像が生成されて表示され、
ステップ26_2に戻る。
【0115】このようにして、人体モデルの動作が指示
されると、その指示された動作量が単位時間毎の微小動
作量に分解され、人体モデルが微小動作量ずつ動作し、
必要に応じて作業領域が変更され、その動作の様子が画
像に表示されるとともにその動作が評価される。図27
は、眼球運動モードのときに実行されるルーチンを示す
フローチャートである。この図27に示すルーチンは、
図16に示すフローの、ステップ16_2で眼球運動モ
ードであると判定されたときに実行される。
【0116】この眼球運動モードは、シミュレーション
空間に配置された人体モデルの眼球運動に関する指示が
入力されたときにその指示に基づく眼球の動作を実行す
るモードである。ステップ27_1では、今回入力され
た指示が眼球運動状態を終了させる指示であるか否か判
定される。次いで、ステップ27_2では、眼球運動開
始指示であるか否かが判定される。
【0117】ステップ27_2において、眼球運動開始
指示であったときは、ステップ27_3に進み、眼球の
動きと連動する視野形状を表示するよう指示がなされて
いるか否か判定される。眼球の動きと連動する視野形状
とは、例えば図10に示す視野図形であり、眼球の動作
に伴って図10 (A)(B)のようにその位置が移動す
る。
【0118】ステップ27_3における、眼球の動きと
連動する視野形状を表示するよう指示がなされているか
否かの判定結果に応じて、それぞれステップ27_4,
27_5に進み、これらの各ステップでは、眼球と連動
する視野形状の表示フラグが立てられ(ステップ27_
4)、あるいはその表示フラグが解除される(ステップ
27_5)。
【0119】ステップ27_6では、眼球運動の指示量
を基に視点の姿勢変更量、すなわち見ている方向の変化
量が計算され、ステップ27_7では、眼球と連動する
視野形状の姿勢変更量、すなわち画像上での移動量が計
算され、ステップ27_10に進み、眼球運動モードが
解除されて、図16に示すフローのステップ16_7に
戻る。眼球と連動する視野形状の表示フラグが立てられ
ている場合、ステップ16_8では、シミュレーション
空間に配置された人体モデルが注視している視野形状を
あらわす図形が眼球の運動に連動して移動する。
【0120】図27に示すルーチンのステップ27_2
において、今回入力された眼球連動に関する指示が眼球
運動開始指示ではないと判定されたとき、すなわち、眼
球運動は既に開始されており、今回さらに眼球の移動量
が入力された場合は、ステップ27_6に進む。以下は
同様である。また、ステップ27_1において、今回入
力された眼球運動に関する指示が眼球運動状態の終了の
指示であったときは、ステップ27_8に進み、眼球運
動が再開される場合に備えて眼球の姿勢が真正面に向い
た位置に変更され、ステップ27_9において眼球と連
動する視野形状の表示フラグが解除され、ステップ27
_10に進み眼球運動モードが解除される。
【0121】図28は、視距離測定モードのときに実行
されるルーチンを示すフローチャートである。この図2
8に示すルーチンは、図16に示すフローの、ステップ
16_3で視距離測定モードであると判定されたときに
実行される。この視距離測定モードは、シミュレーショ
ン空間に配置された人体モデルの視点と人体モデルが見
ている対象物との間の距離を測定するモードである。
【0122】ステップ28_1では、入力装置201の
操作により指示されている測定対象物と、視点との間の
距離が計算され、ステップ28_2では、出力装置20
2に表示されている画像上に、視距離を示す線や距離
(数値)データが表示される。ステップ28_3では視
距離測定モードが解除され、図16に示すフローのステ
ップ16_7に戻る。
【0123】図29は、干渉判定モードのときに実行さ
れるルーチンを示すフローチャートである。この図29
に示すルーチンは、図16に示すフローの、ステップ1
6_4で干渉判定モードであると判定されたときに実行
される。この干渉判定モードは、シミュレーション空間
に配置された人体モデルの視野内に対象物が入っている
か否かを、人体モデルの視野をあらわす立体形状と対象
物との干渉判定により認識するためのルーチンである。
【0124】ステップ29_1では、干渉判定を行なう
べき測定対象物(設計対象物)が指定されているか否か
が判定され、指定されているときはステップ29_2に
進んでその指定されている測定対象物と立体的な視野形
状との干渉チェックが実行され、測定対象物(設計対象
物)が指定されていないときはステップ29_3に進
み、シミュレーション空間に配置されている全ての設計
対象物と視野形状との間での干渉チェックが実行され
る。
【0125】ステップ29_4では、ステップ29_2
ないしステップ29_3における干渉チェックの結果
が、1)干渉なし(対象物全体が視野形状外にある)、
2)一部干渉(対象物の一部分が干渉している)、3)
完全干渉(対象物全体が視野形状内に存在する)の3つ
の状態に区別され、色分け、輝度変更、その対象物を囲
む最大外形線の線種などによって1)〜3)が識別され
るようにして表示される。
【0126】ステップ29_5では干渉判定モードが解
除され、図16に示すフローのステップ16_7に戻
る。図30は、注視可能性判定モードのときに実行され
るルーチンを示すフローチャートである。この図30に
示すルーチンは、図16に示すフローの、ステップ16
_5で注視可能性判定モードであると判定されたときに
実行される。
【0127】この注視可能性判定モードは、シミュレー
ション空間に配置された人体モデルが、指定された注視
対象物を、基本姿勢(例えば椅子に座った姿勢)を維持
した範囲内で体を動かすことにより注視することができ
るか否かが判定される。ここでは、基本姿勢を維持した
範囲内で体を動かした後の状態も「姿勢」と称してい
る。
【0128】ステップ30_1では、注視対象物が現姿
勢における良好な視野内におさまっていないかどうか判
定される。注視対象物が現姿勢で既に良好な視野内に存
在しているときは、ステップ30_6に飛び、注視可能
であるこをが画像上に表示することにより利用者(オペ
レータ)に通知される。ステップ30_1において、注
視対象物が現姿勢のままでは良好な視野内におさまって
いないと判定されたときは、ステップ30_2に進み、
図1に示す実施形態において説明した動作方法、すなわ
ち、例えば頭を回わして注視できなかったときに上体を
回す等、可動部品を1つずつ順次動かすという方法によ
り姿勢が変更される。
【0129】ステップ30_3では、ステップ30_2
における姿勢変更により注視対象物を良好な視野範囲内
におさめることができたか否かが判定される。良好な視
野範囲内におさめることができたと一応判定されるとき
は、ステップ30_4に進み、眼球運動によりその注視
対象物全体が注視可能範囲にあるか否かが最終確認さ
れ、注視可能範囲にあると判定されたとき(ステップ3
0_5)は、ステップ30_6に進み、注視可能である
ことが利用者に通知される。
【0130】一方ステップ30_3において、姿勢の変
更によっても注視対象物を良好な視野範囲内におさめる
ことができないと判定されたとき、もしくはステップ3
0_4における最終確認において注視可能範囲から外れ
ていることがわかったときは、ステップ30_7に進
み、注視不可能であることが利用者に通知される。ステ
ップ30_8では、注視可能性判定モードが解除され、
図16に示すフローのステップ16_7に戻る。
【0131】図31は、注視可能性判定及び視距離測定
モードのときに実行されるルーチンを示すフローチャー
トである。この図31に示すルーチンは、図16に示す
フローの、ステップ16_6で、注視可能性判定及び視
距離測定モードであると判定されたときに実行される。
この注視可能性判定及び視距離測定モードでは、基本姿
勢を維持した範囲内における姿勢の変更により対象物を
注視できるかどうかが判定され、注視できると判定され
たときにその注視した姿勢における視距離が算出され
る。すなわち、この図31に示すルーチンは、図30に
示す注視可能性判定のルーチンと図28に示す視距離測
定のルーチンとの複合である。
【0132】ステップ31_1〜30_5、31_6
は、図30に示す注視可能性判定モードのときに実行さ
れるルーチンの、それぞれ、ステップ30_1〜30_
5、30_7と同様であり、説明は省略する。対象物が
注視可能であると判定されるとステップ31_7に進
む。ステップ31_7では、図28に示すルーチンのス
テップ28_1と同様に、測定対象物と視点との間の距
離(視距離)が計算され、ステップ31_8では、図2
8に示すルーチンのステップ28_2と同様に、視距離
を示す線や距離(数値)データが出力装置202の画面
上に表示される。
【0133】ステップ31_9では、注視可能性判定及
び視距離測定モードが解除され、図16に示すフローの
ステップ16_7に戻る。
【0134】
【発明の効果】以上説明したように、本発明によれば、
機器の操作性を、シミュレーションにより容易にかつ正
確に検証することができる。
【図面の簡単な説明】
【図1】本発明の機器操作性評価支援装置の一実施形態
のブロック図である。
【図2】人体モデル変更前後の画像の第1例を示す図で
ある。
【図3】人体モデル変更前後の画像の第2例を示す図で
ある。
【図4】姿勢変更前後の画像の第1例を示す図である。
【図5】姿勢変更前後の画像の第2例を示す図である。
【図6】姿勢変更前後の画像の第3例を示す図である。
【図7】人体モデルの画像に、その人体モデルの姿勢に
応じた可動範囲を示した図である。
【図8】人体モデルに視野図形を付加した画像の第1例
を示す図である。
【図9】人体モデルに視野図形を付加した画像の第2例
を示す図である。
【図10】視野図形の表示例を示す図である。
【図11】視野図形の表示例を示す図である。
【図12】人体モデルに作業可能領域指標図形を付加し
た画像例を示す図である。
【図13】人体モデルに、視野図形と作業可能領域指標
図形との双方を付加した図を示す図である。
【図14】本発明の機器操作性評価支援装置のもう1つ
の実施形態のハードウェア構成図である。
【図15】図14にハードウェア構成を示す実施形態に
おける演算部で実行されるプログラムの部分フローを示
したフローチャートである。
【図16】図14にハードウェア構成を示す実施形態に
おける演算部で実行されるプログラムの部分フローを示
したフローチャートである。
【図17】図14にハードウェア構成を示す実施形態に
おける演算部で実行されるプログラムの部分フローを示
したフローチャートである。
【図18】図14にハードウェア構成を示す実施形態に
おける演算部で実行されるプログラムの部分フローを示
したフローチャートである。
【図19】体型変更モードのときに実行されるルーチン
を示すフローチャートである。
【図20】基本姿勢変更モードのときに実行されるルー
チンを示すフローチャートである。
【図21】補助機具変更モードのときに実行されるルー
チンを示すフローチャートである。
【図22】視野形状表示モードのときに実行されるルー
チンを示すフローチャートである。
【図23】視野形状非表示モードのときに実行されるル
ーチンを示すフローチャートである。
【図24】作業領域形状表示モードのときに実行される
ルーチンを示すフローチャートである。
【図25】作業領域形状非表示モードのときに実行され
るルーチンを示すフローチャートである。
【図26】動作モードのときに実行されるルーチンを示
すフローチャートである。
【図27】眼球運動モードのときに実行されるルーチン
を示すフローチャートである。
【図28】視距離測定モードのときに実行されるルーチ
ンを示すフローチャートである。
【図29】干渉判定モードのときに実行されるルーチン
を示すフローチャートである。
【図30】注視可能性判定モードのときに実行されるル
ーチンを示すフローチャートである。
【図31】注視可能性判定及び視距離測定モードのとき
に実行されるルーチンを示すフローチャートである。
【符号の説明】
10 機器モデル 20,20a,20b 人体モデル 31,32,33 視野図形 41,42,43,44 領域指標図形 100 機器操作性評価支援装置 101 人体モデル部品格納部 102 部品配置データ格納部 103 補助機具モデル格納部 104 基準位置格納部 105 体型選択手段 106 姿勢選択手段 107 モデル配置手段 108 画像表示部 109 動作指示手段 110 動作評価手段 111 視野図形格納部 112 視野選択手段 113 眼球動作指示手段 114 視野内外判定手段 115 対象物指定手段 116 距離算出手段 117 視認可否判定手段 118 領域指標図形格納部 119 作業可能領域選択手段 200 演算部 201 入力装置 202 出力装置 203,204,…,214 ファイル 215 データコンバータ 300 CADシステム
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平6−337884(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06F 17/50

Claims (15)

    (57)【特許請求の範囲】
  1. 【請求項1】 三次元仮想空間内に、評価対象機器の形
    状を模擬した機器モデルを配置するとともに人体の形状
    を模擬した人体モデルを配置し、該人体モデルを該三次
    元仮想空間内で動作させることにより、該評価対象機器
    の操作性の評価を支援する機器操作性評価支援装置にお
    いて、 人体の形状を模擬した複数の人体モデルであって、これ
    ら複数の人体モデルが1つ以上にグループ分けされてな
    る各グループ別に人体上の異なる位置に相当し、かつ、
    各グループ内では人体上の共通の位置に相当する、各人
    体モデル上の基準位置が定義されてなる複数の人体モデ
    ルを格納する人体モデル格納部と、 前記人体モデル格納部に格納された人体モデルの中から
    前記三次元仮想空間内に配置される人体モデルを変更自
    在に選択する人体モデル選択手段と、 前記三次元仮想空間内に前記機器モデルを配置するとと
    もに、前記三次元仮想空間内に、前記人体モデル選択手
    段により選択された人体モデルを配置し、前記人体モデ
    ル選択手段により、前記三次元空間内に配置される人体
    モデルとして、該三次元仮想空間内に現在配置されてい
    る人体モデルが属するグループと同一のグループに属す
    る人体モデルが選択された場合に、該三次元仮想空間内
    における、変更前の人体モデルの基準位置と変更後の人
    体モデルの基準位置とが一致するように、変更後の人体
    モデルを、変更前の人体モデルに代えて、前記三次元仮
    想空間内に配置するモデル配置手段と、 前記モデル配置手段により機器モデルおよび人体モデル
    が配置された三次元仮想空間を該人体モデルの視点とは
    異なる視点からみた画像を表示する画像表示部とを備え
    たことを特徴とする機器操作性評価支援装置。
  2. 【請求項2】 前記人体モデル格納部が、 体型の異なる複数の人体それぞれの形状を模擬した複数
    の人体モデルを構築するための、人体各部の形状を模擬
    した人体モデル部品が格納されてなる人体モデル部品格
    納部と、 前記人体モデル部品格納部に格納された人体モデル部品
    を配置して人体モデルを構築する部品配置データを、人
    体モデルの複数の姿勢それぞれに対応して格納してなる
    部品配置データ格納部と、 人体モデルを三次元仮想空間内に配置したときに該三次
    元仮想空間内の位置が体型とは無関係に規定される人体
    モデル上の基準位置をあらわす基準位置データを、人体
    モデルの複数の姿勢それぞれについて格納してなる基準
    位置格納部とを備え、 前記人体モデル選択手段が、 前記三次元仮想空間内に配置される人体モデルの体型を
    変更自在に選択する体型選択手段と、 前記三次元仮想空間内に配置される人体モデルの姿勢を
    変更自在に指定する姿勢指定手段とを備え、 前記モデル配置手段が、前記三次元仮想空間内に前記機
    器モデルを配置するとともに、前記三次元仮想空間内
    に、前記体型選択手段により選択された体型の人体モデ
    ルを、前記姿勢指定手段により指定された姿勢で配置
    し、前記体型選択手段により前記三次元仮想空間内に配
    置される人体モデルの体型が変更された場合に、変更後
    の人体モデルの姿勢が変更前の人体モデルの姿勢と同一
    の姿勢であって、かつ、該三次元仮想空間内における変
    更前の人体モデルの基準位置と変更後の人体モデルの基
    準位置とが一致するように、変更後の体型の人体モデル
    を、変更前の体型の人体モデルに代えて、前記三次元仮
    想空間内に配置するものであることを特徴とする請求項
    1記載の機器操作性評価支援装置。
  3. 【請求項3】 前記部品配置データ格納部が、人体モデ
    ルの複数の姿勢それぞれに対応して、人体モデル部品の
    可動範囲をあらわす可動範囲データを格納してなるもの
    であって、 前記三次元仮想空間内に配置された人体モデルの動作を
    指示する動作指示手段を備え、 前記モデル配置手段が、前記動作指示手段による人体モ
    デルの動作指示に応じて、前記三次元仮想空間内に配置
    された人体モデルを、該人体モデルの姿勢に応じた可動
    範囲内で動作させるものであることを特徴とする請求項
    2記載の機器操作性評価支援装置。
  4. 【請求項4】 前記三次元仮想空間内に配置された人体
    モデルの動作を評価する動作評価手段を備えたことを特
    徴とする請求項3記載の機器操作性評価支援装置。
  5. 【請求項5】 三次元仮想空間内に、評価対象機器の形
    状を模擬した機器モデルを配置するとともに人体の形状
    を模擬した人体モデルを配置し、該人体モデルを該三次
    元仮想空間内で動作させることにより、該評価対象機器
    の操作性の評価を支援する機器操作性評価支援装置にお
    いて、 人体の形状を模擬した複数の人体モデルであって、これ
    ら複数の人体モデルが1つ以上にグループ分けされてな
    る各グループ別に人体上の異なる位置に相当し、かつ、
    各グループ内では人体上の共通の位置に相当する、各人
    体モデル上の基準位置が定義されてなる複数の人体モデ
    ルを格納する人体モデル格納部と、 前記人体モデル格納部に格納された人体モデルの中から
    前記三次元仮想空間内に配置される人体モデルを変更自
    在に選択する人体モデル選択手段と、 前記三次元仮想空間内に前記機器モデルを配置するとと
    もに、前記三次元仮想空間内に、前記人体モデル選択手
    段により選択された人体モデルを配置し、前記人体モデ
    ル選択手段により、前記三次元空間内に配置される人体
    モデルとして、該三次元仮想空間内に現在配置されてい
    る人体モデルが属するグループと同一のグループに属す
    る人体モデルが選択された場合に、該三次元仮想空間内
    における、変更前の人体モデルの基準位置と変更後の人
    体モデルの基準位置とが一致するように、変更後の人体
    モデルを、変更前の人体モデルに代えて、前記三次元仮
    想空間内に配置するモデル配置手段と、 人体モデルの視野をあらわす視野図形が格納された視野
    図形格納部と、前記モデル配置手段により機器モデルおよび人体モデル
    が配置された三次元仮想空間を 該人体モデルの視点とは
    異なる視点からみた画像を表示するとともに、該画像上
    に、人体モデルの視野をあらわす視野図形を表示する画
    像表示部とを備えたことを特徴とする機器操作性評価支
    援装置。
  6. 【請求項6】 前記視野図形格納部が、視認性の程度が
    異なる複数段階の視野をあらわす複数の視野図形を格納
    してなるものであり、 前記複数段階の視野の中から、表示用の視野を、複数段
    階の視野の同時選択を許容して選択する視野選択手段を
    備え、 前記画像表示部が、画像上にあらわれた人体モデルの、
    前記視野選択手段で選択された1もしくは複数段階の視
    野をあらわす視野図形を表示するものであることを特徴
    とする請求項5記載の機器操作性評価支援装置。
  7. 【請求項7】 三次元仮想空間内に、評価対象機器の形
    状を模擬した機器モデルを配置するとともに人体の形状
    を模擬した人体モデルを配置し、該人体モデルを該三次
    元仮想空間内で動作させることにより、該評価対象機器
    の操作性の評価を支援する機器操作性評価支援装置にお
    いて、 人体の形状を模擬した複数の人体モデルであって、これ
    ら複数の人体モデルが1つ以上にグループ分けされてな
    る各グループ別に人体上の異なる位置に相当し、かつ、
    各グループ内では人体上の共通の位置に相当する、各人
    体モデル上の基準位置が定義されてなる複数の人体モデ
    ルを格納する人体モデル格納部と、 前記人体モデル格納部に格納された人体モデルの中から
    前記三次元仮想空間内に配置される人体モデルを変更自
    在に選択する人体モデル選択手段と、 前記三次元仮想空間内に前記機器モデルを配置するとと
    もに、前記三次元仮想空間内に、前記人体モデル選択手
    段により選択された人体モデルを配置し、前記人体モデ
    ル選択手段により、前記三次元空間内に配置される人体
    モデルとして、該三次元仮想空間内に現在配置されてい
    る人体モデルが属するグループと同一のグループに属す
    る人体モデルが選択された場合に、該三次元仮想空間内
    における、変更前の人体モデルの基準位置と変更後の人
    体モデルの基準位置とが一致するように、変更後の人体
    モデルを、変更前の人体モデルに代えて、前記三次元仮
    想空間内に配置するモデル配置手段と、 前記三次元仮想空間内に配置された人体モデルの視点か
    ら見た画像上の、視認性の程度が異なる複数段階の視野
    範囲を指標する複数の視野図形を格納してなる視野図形
    格納部と、 前記複数段階の視野範囲の中から、表示用の視野範囲
    を、複数段階の視野範囲の同時選択を許容して選択する
    視野選択手段、前記モデル配置手段により機器モデルおよび人体モデル
    が配置された三次元仮想空間を該 三次元仮想空間内に配
    置された人体モデルの視点から見た画像を表示するとと
    もに、該画像上に、前記視野選択手段で選択された1も
    しくは複数段階の視野範囲をあらわす視野図形を表示す
    る画像表示部とを備えたことを特徴とする機器操作性評
    価支援装置。
  8. 【請求項8】 前記三次元仮想空間内に配置された人体
    モデルの眼球の動きを指示する眼球動作指示手段を備
    え、 前記画像表示部が、前記眼球動作指示手段による人体モ
    デルの眼球の動きに、該人体モデルの視点から見た画像
    上に表示された視野図形の1つを連動させるものである
    ことを特徴とする請求項7記載の機器操作性評価支援装
    置。
  9. 【請求項9】 前記画像表示部に表示された画像上にあ
    らわれた所望の対象物を指定する対象物指定手段と、 前記対象物指定手段により指定された、前記三次元仮想
    空間内の対象物と、前記三次元仮想空間内に配置された
    人体モデルの視点との間の距離を算出する距離算出手段
    とを備えたことを特徴とする請求項1記載の機器操作性
    評価支援装置。
  10. 【請求項10】 前記三次元仮想空間内に配置された機
    器モデルが、該三次元仮想空間内に配置された人体モデ
    ルの視野内に存在するか否かを判定する視野内外判定手
    段を備え、 前記画像表示部が、前記視野内外判定手段による判定結
    果を画像上に表示するものであることを特徴とする請求
    項1記載の機器操作性評価支援装置。
  11. 【請求項11】 前記画像表示部に表示された画像上に
    あらわれた所望の対象物を指定する対象物指定手段と、 前記対象物指定手段により指定された、前記三次元仮想
    空間内の対象物を、該三次元仮想空間内に配置された人
    体モデルが、該人体モデルの、該三次元仮想空間内での
    姿勢に応じた可動範囲内での動作により視認可能である
    か否かを判定する視認可否判定手段とを備えたことを特
    徴とする請求項2記載の機器操作性評価支援装置。
  12. 【請求項12】 前記視認可否判定手段により、前記対
    象物が視認可能であると判定された動作段階における人
    体モデルの視点と該対象物との間の距離を算出する距離
    算出手段を備えたことを特徴とする請求項11記載の機
    器操作性評価支援装置。
  13. 【請求項13】 三次元仮想空間内に、評価対象機器の
    形状を模擬した機器モデルを配置するとともに人体の形
    状を模擬した人体モデルを配置し、該人体モ デルを該三
    次元仮想空間内で動作させることにより、該評価対象機
    器の操作性の評価を支援する機器操作性評価支援装置に
    おいて、 人体の形状を模擬した複数の人体モデルであって、これ
    ら複数の人体モデルが1つ以上にグループ分けされてな
    る各グループ別に人体上の異なる位置に相当し、かつ、
    各グループ内では人体上の共通の位置に相当する、各人
    体モデル上の基準位置が定義されてなる複数の人体モデ
    ルを格納する人体モデル格納部と、 前記人体モデル格納部に格納された人体モデルの中から
    前記三次元仮想空間内に配置される人体モデルを変更自
    在に選択する人体モデル選択手段と、 前記三次元仮想空間内に前記機器モデルを配置するとと
    もに、前記三次元仮想空間内に、前記人体モデル選択手
    段により選択された人体モデルを配置し、前記人体モデ
    ル選択手段により、前記三次元空間内に配置される人体
    モデルとして、該三次元仮想空間内に現在配置されてい
    る人体モデルが属するグループと同一のグループに属す
    る人体モデルが選択された場合に、該三次元仮想空間内
    における、変更前の人体モデルの基準位置と変更後の人
    体モデルの基準位置とが一致するように、変更後の人体
    モデルを、変更前の人体モデルに代えて、前記三次元仮
    想空間内に配置するモデル配置手段と、 前記三次元仮想空間内での人体モデルの作業可能領域を
    あらわす領域指標図形を、人体モデルおよび姿勢に対応
    して格納してなる領域指標図形格納部と、前記モデル配置手段により機器モデルおよび人体モデル
    が配置された三次元仮想空間を 該人体モデルの視点とは
    異なる視点からみた画像を表示するとともに、該画像上
    に、人体モデルの作業可能領域をあらわす領域指標図形
    を表示する画像表示部とを備えたことを特徴とする機器
    操作性評価支援装置。
  14. 【請求項14】 前記領域指標図形格納部が、作業性の
    異なる複数段階の作業可能領域をあらわす複数の領域指
    標図形を、人体モデルおよび姿勢に対応して格納してな
    るものであって、 前記複数段階の作業可能領域の中から、表示用の作業可
    能領域を、複数段階の作業可能領域の同時選択を許容し
    て選択する作業可能領域選択手段を備え、 前記画像表示部が、画像上にあらわれた人体モデルの、
    前記作業可能領域選択手段で選択された1もしくは複数
    段階の領域指標図形を表示するものであることを特徴と
    する請求項13記載の機器操作性評価支援装置。
  15. 【請求項15】 三次元仮想空間内に、評価対象機器の
    形状を模擬した機器モデルを配置するとともに人体の形
    状を模擬した人体モデルを配置し、該人体モデルを該三
    次元仮想空間内で動作させることにより、該評価対象機
    器の操作性の評価を支援する機器操作性評価支援装置に
    おいて、 前記三次元仮想空間内に配置された人体モデルの視点か
    ら見た画像上の、視認性の程度が異なる複数段階の視野
    範囲を指標する複数の視野図形を格納してなる視野図形
    格納部と、 前記複数段階の視野範囲の中から、表示用の視野範囲
    を、複数段階の視野範囲の同時選択を許容して選択する
    視野選択手段と、 前記三次元仮想空間内に配置された人体モデルの眼球の
    動きを指示する眼球動作指示手段と、 前記三次元仮想空間内に配置された人体モデルの視点か
    ら見た画像を表示し、該画像上に、前記視野選択手段で
    選択された1もしくは複数段階の視野範囲をあらわす視
    野図形を表示するとともに、前記眼球動作指示手段によ
    る人体モデルの眼球の動きに、該人体モデルの視点から
    見た画像上に表示された視野図形の1つを連動させる画
    像表示部とを備えたことを特徴とする機器操作性評価支
    援装置。
JP04445597A 1997-02-27 1997-02-27 機器操作性評価支援装置 Expired - Fee Related JP3391648B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP04445597A JP3391648B2 (ja) 1997-02-27 1997-02-27 機器操作性評価支援装置
US08/929,669 US6205367B1 (en) 1997-02-27 1997-09-15 Apparatus for supporting equipment operability evaluation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04445597A JP3391648B2 (ja) 1997-02-27 1997-02-27 機器操作性評価支援装置

Publications (2)

Publication Number Publication Date
JPH10240791A JPH10240791A (ja) 1998-09-11
JP3391648B2 true JP3391648B2 (ja) 2003-03-31

Family

ID=12691973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04445597A Expired - Fee Related JP3391648B2 (ja) 1997-02-27 1997-02-27 機器操作性評価支援装置

Country Status (2)

Country Link
US (1) US6205367B1 (ja)
JP (1) JP3391648B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10324452B2 (en) 2012-11-21 2019-06-18 Hitachi, Ltd. Assembly workability evaluation calculation device and assembly workability evaluation method

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3636883B2 (ja) 1998-03-20 2005-04-06 富士通株式会社 シミュレーション装置,シミュレーション方法およびシミュレーションプログラムが記録されたコンピュータ読取可能な記録媒体
JP3851014B2 (ja) 1999-03-01 2006-11-29 富士通株式会社 有効視野範囲検証装置、有効視野範囲検証方法及びコンピュータ読み取り可能な記録媒体
JP2002200357A (ja) * 2000-11-01 2002-07-16 Sony Computer Entertainment Inc ゲーム用のステージ形成方法、ゲーム用のステージ形成方法プログラム、ゲーム用のステージ形成方法プログラムが記憶された記憶媒体、端末装置、及びネットゲームシステム
JP2002235306A (ja) * 2001-02-08 2002-08-23 Komy Co Ltd 死角確認ミラーのビジネス方法
JP3734167B2 (ja) 2002-07-10 2006-01-11 マツダ株式会社 企画支援プログラム、方法、装置並びに記録媒体
JP4136673B2 (ja) * 2003-01-10 2008-08-20 株式会社リコー 機器安全性検証装置、機器安全性検証方法、および記憶媒体
US7400792B2 (en) * 2004-12-09 2008-07-15 Tellabs Operations, Inc. Methods and apparatus to make substantially uniform losses in optical cross connects
US7584038B2 (en) * 2005-07-29 2009-09-01 Caterpillar Inc. Method and apparatus for determining virtual visibility
JP4745818B2 (ja) 2005-12-22 2011-08-10 富士通株式会社 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
JP4745831B2 (ja) 2006-01-06 2011-08-10 富士通株式会社 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
JP4856183B2 (ja) * 2006-07-25 2012-01-18 富士通株式会社 操作性検証装置、操作性検証方法、および操作性検証プログラム
WO2009041737A1 (ja) * 2007-09-28 2009-04-02 Fujitsu Ten Limited 走行状態表示方法
US10860752B2 (en) 2015-08-25 2020-12-08 Dassault Systémes Americas Corp. Method and system for vision measure for digital human models
JP6504073B2 (ja) * 2016-02-15 2019-04-24 オムロン株式会社 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
JP6504072B2 (ja) * 2016-02-15 2019-04-24 オムロン株式会社 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
JP7120572B2 (ja) * 2018-09-13 2022-08-17 スズキ株式会社 視認性評価システム
JP7108986B2 (ja) * 2018-12-28 2022-07-29 スズキ株式会社 視認性評価システム
JP7107529B2 (ja) * 2018-12-28 2022-07-27 スズキ株式会社 視認性評価システム
WO2020246400A1 (ja) * 2019-06-06 2020-12-10 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2771010B2 (ja) * 1989-11-30 1998-07-02 佐藤 誠 3次元入力装置
US5495568A (en) * 1990-07-09 1996-02-27 Beavin; William C. Computerized clothing designer
US5850222A (en) * 1995-09-13 1998-12-15 Pixel Dust, Inc. Method and system for displaying a graphic image of a person modeling a garment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10324452B2 (en) 2012-11-21 2019-06-18 Hitachi, Ltd. Assembly workability evaluation calculation device and assembly workability evaluation method

Also Published As

Publication number Publication date
US6205367B1 (en) 2001-03-20
JPH10240791A (ja) 1998-09-11

Similar Documents

Publication Publication Date Title
JP3391648B2 (ja) 機器操作性評価支援装置
US5590268A (en) System and method for evaluating a workspace represented by a three-dimensional model
AU2018294236B2 (en) Virtual reality training, simulation, and collaboration in a robotic surgical system
US11284955B2 (en) Emulation of robotic arms and control thereof in a virtual reality environment
Huang et al. Visualization and interaction of finite element analysis in augmented reality
KR20200012926A (ko) 가상 현실 복강경 도구
WO2005124604A1 (en) System and method for simulating human movement using profile paths
Kingsley et al. A computer aid for man machine modelling
US7437684B2 (en) Graphical interface system for manipulating a virtual dummy
WO1996016389A1 (en) Medical procedure simulator
Sengupta et al. Human: An autocad based three dimensional anthropometric human model for workstation design
EP0485766A2 (en) Anthropometric computer aided design method and system
JP2007334446A (ja) 筋負荷評価システム、製品設計支援システム
JP3310086B2 (ja) 作業環境評価装置及び作業環境評価方法
JPH11328243A (ja) プラント設計支援システム
Yan Augmented reality applied to lego construction: Ar-based building instructions with high accuracy & precision and realistic object-hand occlusions
US7155673B2 (en) System and method of interactive evaluation of a geometric model
Nayar Deneb/ERGO: A simulation based human factors tool
JP2007213437A (ja) 情報処理方法、情報処理装置
Beck Human factors of posture entry into ergonomics analysis systems
Niesen et al. Virtual dynamic prototyping for operator interface design
Rix et al. Combining ergonomic and field-of-view analysis using virtual humans
JP2002117079A (ja) 工程設計支援装置
Choi et al. Virtual haptic system for intuitive planning of bone fixation plate placement
JPH07160310A (ja) 制御装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100124

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120124

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140124

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees