JP4745818B2 - 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム - Google Patents

機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム Download PDF

Info

Publication number
JP4745818B2
JP4745818B2 JP2005369462A JP2005369462A JP4745818B2 JP 4745818 B2 JP4745818 B2 JP 4745818B2 JP 2005369462 A JP2005369462 A JP 2005369462A JP 2005369462 A JP2005369462 A JP 2005369462A JP 4745818 B2 JP4745818 B2 JP 4745818B2
Authority
JP
Japan
Prior art keywords
human body
information
assumed
model
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005369462A
Other languages
English (en)
Other versions
JP2007172312A (ja
Inventor
宏治 出水
直行 野崎
雅如 木寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005369462A priority Critical patent/JP4745818B2/ja
Priority to US11/391,249 priority patent/US7409246B2/en
Publication of JP2007172312A publication Critical patent/JP2007172312A/ja
Application granted granted Critical
Publication of JP4745818B2 publication Critical patent/JP4745818B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラムに関し、特に、3次元仮想空間内の人体モデルの視野を表示した画像上における機器モデルの操作に基づいて、機器の操作性を評価する機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラムに関する。
機器の操作性は、機器を使用したことのない被験者が実際に機器を操作する様子を記録員が記録することにより検証が行われている。しかし、人の体格は、性別や人種によって様々であり、機器の操作性を評価する際には、被験者各々の体格に応じた評価を行う必要がある。このような被験者が操作する様子を記録する方法では、実際にあらゆる体格の人間を集めることが難しいため、機器の操作性の評価は困難である。また、機器の操作性の評価によって問題点が発見されたとしても、設計変更を行い改良するための期間が許されていないことが多く、設計のより早い段階で操作性を評価することが望まれている。
Digital Mockup等の各種シミュレーション分野においては、統計値を用いて、人種や性別によって異なる体型を人体モデルによって表現し、人体モデルを仮想空間上に配置することにより、人体モデルの視野で実世界のビューを疑似体験しながら機器の外観や特定部品の見やすさなどを判断することができる。この手法によって、各々の体格を持った被験者の作業範囲内に、必要な部品が配置されているかなどのレイアウト検討等をすることが可能である。
また、従来から、機器のユーザインタフェースとそれに対応する機器のリアクションを定義し(例えば、特定部品を押下すればLEDが点滅するなど)、ユーザインタフェース単体の動作を検討する技術が存在する。
更に、特許文献1は、シミュレーション空間内に、設計対象機器あるいはレイアウト対象機器の形状を模擬した機器モデルを配置するとともに、機器の操作を想定した人体モデルを配置し、その人体モデルをそのシミュレーション空間内で動作させることにより機器の操作性の評価を支援する機器操作性評価支援装置について記載している。
また、特許文献2は、商品又は商品の一部を模擬的に操作可能とする模擬操作装置と仮想空間を作成する仮想空間作成装置とを制御して、その場にない商品の大きさや機能あるいは操作性を体験できる商品仮想体験システムについて記載している。
また、特許文献3は、機器の操作部の操作入力座標や表示出力信号に人間の五感特性に対応した変調を加えることにより、第三者が客観的に操作性を検証することを可能とするプロトタイプ装置について記載している。
特開平10−240791号公報 特開2003−271891号公報 特開平7−110804号公報
本発明者の検討によれば、前述したDigital Mockup等の技術において、人体モデルを3次元仮想空間内に配置し、設計者が種々の体格での視野を体験しながら機器のレイアウト検討を行ったり、ユーザインタフェース動作の定義/検証を行ったとしても、以下の問題がある。即ち、実際の被験者が、機器の個々の操作についての操作性ではなく、機器を操作し目的を達するまでの一連の(複数の)操作を戸惑うことなく行えるかという操作性を検証することは困難である。
具体的には、機器の使用に関して、エンドユーザの種々の操作に加えて、保守員等によるメンテナンス、組立及び分解における操作性等、あらゆる操作性の検証が必要となる。一方、機器について数多く想定される操作が複数連続して一連の操作として行われて初めて1つの(操作)目的が達成される場合がある。例えば、現金自動支払機(ATM)という機器における入金という目的は、タッチパネルの操作、カードの挿入、現金の投入等の複数の操作からなる。このような複数の操作からなる1つの目的に関して、機器に関する知識が(設計者より)少ない被験者に仮想空間上で機器を操作させた場合、被験者が戸惑うことなく機器を操作して目的を達成することが可能であるかという操作性(目的を達するまでの一連の操作性)を評価する装置は存在しなかった。
また、本発明者の検討によれば、複数の操作からなる1つの目的に関して機器の操作性を評価しようとすると、複数の操作を遷移する際に、必ず人体モデルの姿勢を変更しなければならない。しかし、複数の操作からなる1つの目的に関して機器の操作性を評価するという概念が無かったので、その過程において、人体モデルの姿勢を変更する装置は存在しなかった。
本発明は、人体モデルを変更する場合でも、適切な操作姿勢をとった人体モデルによる機器モデルの操作結果に基づいて機器の操作性を評価する機器操作性評価装置の提供を目的とする。
また、本発明は、人体モデルを変更する場合でも、適切な操作姿勢をとった人体モデルによる機器モデルの操作結果に基づいて機器の操作性を評価する機器操作性評価方法の提供を目的とする。
また、本発明は、人体モデルを変更する場合でも、適切な操作姿勢をとった人体モデルによる機器モデルの操作結果に基づいて機器の操作性を評価する機器操作性評価プログラムの提供を目的とする。
本発明の機器操作性評価装置は、機器の操作性を評価する装置であって、前記機器の形状を模倣した機器モデルを格納する機器モデル格納部と、各々が想定される前記機器の操作である複数の想定操作を、人体の形状を模倣した人体モデルの視線の情報である視認情報と、前記人体モデルの人体部位及び前記人体部位を移動させたい目標位置を含む目標情報とに対応付けて設定する想定操作設定手段と、前記人体モデルの身体情報であって入力された身体情報と、少なくとも、前記想定操作設定手段によって設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する姿勢計算手段と、前記機器モデル格納部から読み出した機器モデルと前記姿勢計算手段によって算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示するシミュレーション手段と、前記視野画像上における前記機器モデルの操作情報を入力する操作情報入力手段と、前記操作情報入力手段によって入力された前記操作情報に基づいて、前記機器モデルの操作結果を記録する操作記録手段と、録された前記操作結果に基づいて、前記機器の操作性を評価する操作性評価手段とを備える。前記視認情報は、前記3次元仮想空間内に配置される機器モデルが備える部品のうち、前記人体モデルに視認させる部品である視認対象部品の情報を含む。前記姿勢計算手段は、入力された前記身体情報と、前記想定操作設定手段によって設定された想定操作に対応する前記視認情報及び前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する。
好ましくは、本発明の機器操作性評価装置が、更に、前記機器を操作する目的であり複数の想定操作からなるシナリオを設定するシナリオ設定手段を備え、前記想定操作設定手段は、前記設定されたシナリオ毎に、前記想定操作を設定し、前記姿勢計算手段は、入力された前記身体情報と指定されたシナリオとに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する。
好ましくは、本発明の機器操作性評価装置において、前記想定操作設定手段は、前記想定操作の開始から終了までに想定される時間である想定時間を設定し、前記操作記録手段は、前記視野画像上における前記機器モデルの操作時間を記録し、前記操作性評価手段は、前記記録された機器モデルの操作時間と前記設定された想定時間との比較結果に基づいて、前記機器の操作性を評価する。
また、本発明の機器操作性評価方法は、想定操作設定手段と、姿勢計算手段と、シミュレーション手段と、操作記録手段と、操作性評価手段と、機器の形状を模倣した機器モデルを格納する機器モデル格納部とを備える機器操作性評価装置を用いて機器の操作性を評価する方法であって、前記想定操作設定手段が、各々が想定される前記機器の操作である複数の想定操作を、人体の形状を模倣した人体モデルの視線の情報である視認情報と、前記人体モデルの人体部位及び前記人体部位を移動させたい目標位置を含む目標情報とに対応付けて設定し、前記姿勢計算手段が、前記人体モデルの身体情報であって入力された身体情報と、少なくとも、前記設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出し、前記シミュレーション手段が、前記機器モデル格納部から読み出した機器モデルと前記算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示し、前記操作記録手段が、入力された前記視野画像上における前記機器モデルの操作情報に基づいて、前記機器モデルの操作結果を記録し、前記操作性評価手段が、記録された前記操作結果に基づいて、前記機器の操作性を評価する。前記視認情報は、前記3次元仮想空間内に配置される機器モデルが備える部品のうち、前記人体モデルに視認させる部品である視認対象部品の情報を含む。前記姿勢計算手段は、入力された前記身体情報と、前記想定操作設定手段によって設定された想定操作に対応する前記視認情報及び前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する。
また、本発明の機器操作性評価プログラムは、機器操作性評価装置をコンピュータ上で実現するためのプログラムであって、前記コンピュータに、々が想定される前記機器の操作である複数の想定操作を、人体の形状を模倣した人体モデルの視線の情報である視認情報と、前記人体モデルの人体部位及び前記人体部位を移動させたい目標位置を含む目標情報とに対応付けて設定する処理と、前記人体モデルの身体情報であって入力された身体情報と、少なくとも、前記設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する処理と、機器モデル格納部から読み出した前記機器の形状を模倣した機器モデルと前記算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示する処理と、入力された前記視野画像上における前記機器モデルの操作情報に基づいて、前記機器モデルの操作結果を記録する処理と、録された前記操作結果に基づいて、前記機器の操作性を評価する処理とを実行させる。前記視認情報は、前記3次元仮想空間内に配置される機器モデルが備える部品のうち、前記人体モデルに視認させる部品である視認対象部品の情報を含む。前記姿勢を算出する処理において、入力された前記身体情報と、前記想定操作設定手段によって設定された想定操作に対応する前記視認情報及び前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出させる。
本発明の機器操作性評価装置、機器操作性評価方法、機器操作性評価プログラムは、指定された人体モデルの身体情報と、少なくとも、設定された想定操作に対応する目標情報とに基づいて、複数の想定操作の各々について、当該想定操作における人体モデルの姿勢を計算し、算出された姿勢を持つ人体モデルと機器モデルとを3次元仮想空間内に配置するとともに、人体モデルの視点から3次元仮想空間を見た画像である視野画像を表示し、視野画像上における機器モデルの操作結果を記録し、記録された操作結果に基づいて、機器の操作性を評価する。従って、機器の操作が複数連続して行われて1つの目的が達成される場合において、実際の被験者が、仮想空間上で機器を操作し目的を達するまでの一連の(複数の)操作を、戸惑うことなく行い目的を達成することが可能であるか、という操作性(目的を達するまでの一連の操作性)を評価することができる。従って、本発明によれば、人体モデルを変更する場合でも、適切な操作姿勢をとった人体モデルの視野画像を表示し、視野画像上における機器モデルの操作結果に基づいて機器の操作性を評価することが可能となる。
また、本発明の機器操作性評価装置は、機器を操作する目的であり複数の想定操作からなるシナリオを設定し、設定されたシナリオ毎に、指定された人体モデルの身体情報と指定されたシナリオとに基づいて、複数の操作を遷移する際に、設定された想定操作を行う人体モデルの姿勢を変更(計算)する。従って、本発明によれば、機器の操作目的を達するまでの一連の操作における機器の操作性を評価することが可能となる。例えば、現金自動支払機(ATM)という機器における入金という目的を、タッチパネルの操作、カードの挿入、現金の投入等の複数の操作を円滑に行って達成することができるかを、人体モデルの姿勢を変更して正確に評価することができる。
また、本発明の機器操作性評価装置は、想定操作の開始から終了までに想定される時間である想定時間を設定し、視野画像上における前記機器モデルの操作時間との比較結果に基づいて機器の操作性を評価する。従って、本発明によれば、機器の操作目的を達するまでの一連の操作における機器の操作性を、想定操作毎に客観的に評価することが可能となる。
本発明の実施の形態について説明する前に、本発明の理解を容易にするために、本発明の概要について説明する。
機器の利用者がある操作目的(例えば、入金)を達成しようとして、機器の操作を行う場合、複数の操作を伴うのが通常である。そして、各操作を正しい順番で実行しなければ、操作目的を達成することはできない。本発明の機器操作性評価装置は、ある機器の利用者が機器の設計者の期待する操作順番に従って、正しく、かつ、適切な時間内で当該機器を操作できるかを仮想的に検証する。
機器の設計者は、機器利用によって達成したいシナリオを機器操作性評価装置内に設定する。1つのシナリオとは、機器を操作する目的であり、複数の想定される操作(想定操作)からなる。複数の想定操作は、その順に連続して行われるべき一連の操作である。設計者は、シナリオを構成する想定操作毎に、例えば、3次元仮想空間内に配置される人体モデルの位置情報、機器モデルの位置情報の他、人体モデルのどの人体部位をどの目標位置に移動させるかを示す目標情報、操作の実行に想定される想定時間を設定する。目標位置とは、機器モデル上の操作対象となる位置をいう。設計者は、例えば、想定操作時の機器モデルの部品について、表示や形状のバリエーションがある場合には、当該バリエーションがある部品をバリエーション対象部品として、バリエーションを設定する。バリエーション対象部品についてのバリエーションは、1又は複数のサンプル部品からなる。本発明の実施の形態において、バリエーション対象部品についてのバリエーションとは、バリエーション対象部品を代替する1又は複数のサンプル部品や、バリエーション対象部品が備える付属部品を代替する1又は複数のサンプル部品をいう。
例えば、バリエーション対象部品の一例を示す図17において、カード挿入口201がバリエーション対象部品であるとする。カード挿入口201が備える「カード」という文字が表示された付属部品202に、例えば文字の書体や色等の(表示の)バリエーションがある場合には、設定者は、付属部品202を代替し、かつ、書体や色が異なる1又は複数のサンプル部品をカード挿入口201についてのバリエーションとして設定する。本発明の実施の形態においては、付属部品202を代替する部品を備えるカード挿入口201をサンプル部品としても良いし、付属部品202を代替する部品自体をサンプル部品として設定するようにしても良い。
また、設定者は、機器の想定操作において通帳、カード、ドライバー、カギ等のアイテムを利用することが想定される場合、アイテムの利用が想定される想定操作について、アイテムを設定する。
次に、機器の操作性を検証する被験者が、設定されているシナリオで機器の操作を行う。被験者によって、検証するシナリオと、予め記憶手段内に記憶されている人体タイプが選択されると、機器操作性評価装置は、選択された人体タイプの身体情報と上記設定された目標情報とに基づいて、人体モデルの操作姿勢を算出し、算出された操作姿勢を持つ人体モデルを、機器モデルとともに3次元仮想空間内に配置する。また、機器操作性評価装置は、人体モデルの視点から3次元仮想空間を見た画像である視野画像を表示する。
被験者は、表示されている視野画像上において、機器モデルの目標部品を選択する。機器操作性評価装置は、選択された部品を記録し、部品の選択が正しいかを判定する。すなわち、現在の想定操作に対応する目標部品が選択されたかを判定する。
部品の選択が正しければ、機器操作性評価装置は、次の想定操作に対応する操作姿勢を算出し、人体モデルに次の想定操作に対応する操作姿勢をとらせる。なお、機器操作性評価装置は、視野画像上にアイテムを表示して、被験者にアイテムを選択させた上で、アイテムの選択が正しいかについても判定する。
また、本発明の機器操作性評価装置は、機器の部品が選択可能になってから被験者が選択するまでの時間(操作時間)を記録し、操作時間と想定時間とを比較して、機器の操作性を評価する。また、例えば、バリエーション対象部品を代替する1又は複数のサンプル部品を設定している場合、機器操作性評価装置は、設定されたサンプル部品のうち、被験者によって選択されたサンプル部品をバリエーション対象部品と入れ替えて、視野画像上に表示する。
なお、付属部品を代替する部品自体をサンプル部品として設定している場合、機器操作性評価装置は、被験者によって選択されたサンプル部品を、バリエーション対象部品が備える付属部品と入れ替えて、視野画像上に表示するようにしても良い。
図1は、本発明の機器操作性評価装置の構成の一例を示す図である。図1に示す機器操作性評価装置1は、機器について予め設定された、想定される操作と、3次元仮想空間内の人体モデルの視野を表示した画像上における機器モデルの実際の操作とに基づいて、機器の操作性を評価する処理装置又はコンピュータである。人体モデルとは、人体の形状を模倣したモデルであり、機器モデルとは、機器の形状を模倣したモデルである。
機器操作性評価装置1は、入力部11、管理/設定部2、操作部3、評価部4、出力部22を備える。入力部11は、機器操作性評価装置1に対する指示情報を入力する。入力部11は、例えば、機器操作性評価装置1の被験者の身体情報とシナリオ情報とを指示情報として入力する。管理/設定部2は、人体モデルを用いた機器モデルの操作に必要な情報の設定と管理とを行う。管理/設定部2は、体格管理部12、目標管理部13、視認管理部14、シナリオ設定部15、想定操作設定部16、サンプル管理部24、アイテム管理部25を備える。操作部3は、3次元仮想空間内に配置された機器モデルを操作する。操作部3は、姿勢計算部17、シミュレーション部18、部品選択部23、サンプル選択部26、アイテム選択部27、表示部品入替部28、選択判定部29を備える。評価部4は、機器の操作性を評価する。評価部4は、後述する操作記録部19、操作性評価部20、操作性判定部21を備える。出力部22は、機器の操作性の判定結果を出力する。出力部22は、例えば、機器の操作性の判定結果が記録された被験者操作結果記録テーブル40(後述する)の内容を出力する。
体格管理部12は、3次元仮想空間内に配置される人体モデルの身体情報を管理する。管理される身体情報は、体格管理テーブル32中に格納されている。
目標管理部13は、目標情報を管理する。管理される目標情報は、目標管理テーブル33中に格納されている。目標管理部13は、例えば、3次元仮想空間内の人体モデルのコントロールポイントと、コントロールポイントを移動させたい目標位置にある部品である目標部品とを目標情報として管理する。コントロールポイントは、例えば、右手や左手などの、被験者が操作したい人体部位である。なお、目標管理部13は、コントロールポイントと、コントロールポイントを移動させたい目標位置の座標情報を、目標情報として管理するようにしても良い。
視認管理部14は、視認情報を管理する。視認情報とは、人体モデルの視線の情報である。管理される視認情報は、視認管理テーブル34中に格納されている。視認管理部14は、例えば、後述するシミュレーション部18によって3次元仮想空間内に配置される機器モデルが備える部品のうち、人体モデルに視認させる対象となる部品である視認対象部品の情報を視認情報として管理する。
シナリオ設定部15は、シナリオ管理テーブル35中にシナリオ情報を設定する。シナリオ設定部15は、例えば、シナリオと、シナリオを達成するために想定される操作である想定操作とをシナリオ情報として設定する。シナリオ設定部15は、例えば、入金というシナリオと、取引選択、カード挿入、金銭入込という想定操作とを、シナリオ情報として設定する。
設定すべきシナリオが1個の場合、シナリオの設定を省略するようにしても良い。即ち、シナリオ管理テーブル35の作成を省略するようにしても良い。また、この場合、シナリオ設定部15又は想定操作設定部16において、想定操作記録管理テーブル36における複数の想定操作IDを用いてその実行順を指定するようにすれば良い。これにより、事実上の(1個の)シナリオを設定することができる。
想定操作設定部16は、シナリオ設定部15によって設定された想定操作毎の、3次元仮想空間内に配置される人体モデルの位置情報、目標情報、視認情報、想定時間を想定操作記録管理テーブル36中に設定する。想定時間とは、各想定操作の開始から終了までに想定される時間である。本発明の実施の形態においては、想定操作設定部16は、更に、各想定操作についてのバリエーション対象部品のバリエーションを識別する情報、想定操作時に利用するアイテムを想定操作記録管理テーブル36中に設定するようにしても良い。
姿勢計算部17は、入力部11によって入力された指示情報と想定操作記録管理テーブル36中に設定された情報とに基づいて、コントロールポイントを目標位置に移動させるための人体モデルの姿勢を計算する。例えば、入力部11によって、被験者の身体情報(人体モデルの身体情報)とシナリオ情報とが入力されると、姿勢計算部17は、シナリオ管理テーブル35と想定操作記録管理テーブル36とを参照して、入力されたシナリオを構成する想定操作に対応する目標情報(コントロールポイントと目標位置の情報)と、視認対象部品とを特定する。なお、目標情報が特定できれば、視認対象部品は必ずしも特定されなくても良い。姿勢計算部17は、例えば、現在の想定操作の次の想定操作に対応する目標位置も特定するようにしても良い。そして、姿勢計算部17は、入力された身体情報を持つ人体モデルのコントロールポイントを目標位置に移動させる姿勢であって、かつ、人体モデルに視認対象部品を視認させる姿勢を計算する。このようにして算出された姿勢が、人体モデルの操作姿勢である。
本発明の実施の形態においては、姿勢計算部17は、入力された身体情報を持つ人体モデルのコントロールポイントを目標位置に移動させる姿勢であって、人体モデルに目標位置を視認させる姿勢を操作姿勢として算出するようにしても良い。または、姿勢計算部17は、入力された身体情報を持つ人体モデルのコントロールポイントを目標位置に移動させる姿勢であって、人体モデルに視認対象部品を視認させ、かつ、現在の想定操作の次の想定操作に対応する目標位置が、人体モデルの視野範囲に入るような姿勢を操作姿勢として算出するようにしても良い。
姿勢計算部17は、例えば人体モデルの首関節、肩関節、肘関節、手首関節の角度、目の位置を姿勢情報として出力する。具体的には、姿勢計算部17は、例えば周知のインバースキネマティクス(IK)を用いた手法によって操作姿勢の計算を行う。インバースキネマティクスとは、一般に、オブジェクトに親、子、孫というように階層構造を持たせ、その孫オブジェクトを動かすと上位の子、親オブジェクトが動くという機能をいう。
シミュレーション部18は、3次元仮想空間内に機器モデルと人体モデルとを配置するとともに、人体モデルの視点から3次元空間を見た画像である視野画像を表示する。例えば、シミュレーション部18は、機器モデル格納部31から機器モデルを抽出して3次元仮想空間内に配置し、人体モデル格納部30から人体モデルを抽出して3次元仮想空間内に配置する。また、シミュレーション部18は、姿勢計算部17から出力された姿勢情報に基づいて、3次元仮想空間内に配置された人体モデルに操作姿勢をとらせる。
更に、シミュレーション部18は、例えば、後述する図16に示すように、上記操作姿勢を持つ人体モデルの視野画像を表示する。シミュレーション部18は、想定操作記録管理テーブル36に設定された全てのアイテム(アイテムの名称やアイテムの画像)を視野画像上に表示するようにしても良い。また、シミュレーション部18は、想定操作に対応する目標部品についてのバリエーションを構成するサンプル部品を視野画像上に表示するようにしても良い。
操作記録部19は、シミュレーション部18によって表示された視野画像上における被験者の操作結果を被験者操作結果記録テーブル40に記録する。また、操作記録部19は、後述する操作性判定部21による機器の操作性の判定結果を被験者操作結果記録テーブル40に記録するようにしても良い。
操作性評価部20は、被験者による実際の操作時間(実時間)と、想定操作記録管理テーブル36に設定された想定時間とに基づいて、各操作の操作性を評価する。操作性判定部21は、操作性評価部20による操作性の評価結果に基づいて、機器の操作性を判定する。なお、操作性判定部21は、後述する選択判定部29による判定結果に基づいて、機器の操作性を判定するようにしても良い。
部品選択部23は、機器モデルの部品を選択する。部品選択部23は、人体モデルの視野画像上における機器モデルの操作情報を入力する操作情報入力手段である。例えば、人体モデルの視野画像上において、機器モデルの目標部品や付属部品が左クリック等によって指定されると、部品選択部23によって、指定された部品が選択される。なお、操作情報入力手段は、部品選択部23、サンプル選択部26及びアイテム選択部27と入力部11とからなると考えても良い。
サンプル管理部24は、サンプル部品を管理する。サンプル管理部24が管理するサンプル部品は、例えば、バリエーション対象部品を代替する部品である。サンプル管理部24は、バリエーション対象部品が備える付属部品を代替する部品をサンプル部品として管理するようにしても良い。
サンプル部品によって構成される、バリエーション対象部品についてのバリエーション情報は、サンプル管理テーブル37に格納されている。また、サンプル部品の情報は、サンプル部品管理テーブル38内に格納されている。
アイテム管理部25は、各想定操作時に利用されるアイテムを管理する。アイテム管理部25は、例えば、アイテム管理テーブル39内に格納された、通帳、カード、ドライバー、カギ等のアイテムを管理する。
サンプル選択部26は、サンプル管理部24によって管理されているサンプル部品を選択する。サンプル選択部26は、上述した部品選択部23と同様に、人体モデルの視野画像上における機器モデルの操作情報を入力する操作情報入力手段である。例えば、人体モデルの視野画像上において、被験者によってサンプル部品が指定されると、サンプル選択部26によって当該サンプル部品が選択される。
アイテム選択部27は、アイテム管理部25によって管理されているアイテムを選択する。アイテム選択部27は、上述した部品選択部23と同様に、人体モデルの視野画像上における、機器モデルの操作情報を入力する操作情報入力手段である。例えば、人体モデルの視野画像上に表示されたアイテムのうち、被験者が利用したいアイテムが指定されると、アイテム選択部27によって、指定されたアイテムが選択される。
表示部品入替部28は、部品選択部23によって選択された部品をサンプル選択部26によって選択されたサンプル部品に入れ替える。
選択判定部29は、各想定操作における、部品選択部23による部品の選択が正しいかを判定する。選択判定部29は、想定操作設定部16によって設定された想定操作に従って機器モデルが操作されたかを判定する操作判定手段である。
すなわち、選択判定部29は、部品選択部23によって、各想定操作に対応する目標部品が選択されたかを判定する。本発明の実施の形態においては、選択判定部29は、アイテム選択部27によって選択されたアイテムと想定操作記録管理テーブル36に設定されたアイテムとを照合することによって、アイテムの選択が正しいかを判定するようにしても良い。
人体モデル格納部30には、人体モデルの情報が格納される。機器モデル格納部31には、機器モデルの情報が格納される。体格管理テーブル32には、人体モデルの身体情報が格納される。目標管理テーブル33には、目標情報が格納される。視認管理テーブル34には、視認情報が格納される。シナリオ管理テーブル35には、シナリオ情報が格納される。想定操作記録管理テーブル36には、例えば、想定操作毎の、3次元仮想空間内に配置される人体モデルの位置情報、目標情報、視認情報、想定時間が格納される。
サンプル管理テーブル37には、サンプル部品によって構成される、バリエーション対象部品についてのバリエーション情報が格納されている。また、サンプル部品管理テーブル38には、サンプル部品の情報が格納されている。
アイテム管理テーブル39には、想定操作時に利用されるアイテムの情報が格納される。被験者操作結果記録テーブル40には、人体モデルの視野画像上における被験者の操作結果が格納される。操作性評価テーブル41には、各想定操作の操作性の評価に用いられる評価情報が格納される。
なお、上述した機器操作性評価装置1及びその各部の機能は、CPUとその上で実行されるプログラムにより実現される。当該本発明を実現するプログラムは、コンピュータが読み取り可能な記録媒体、例えば半導体メモリ、ハードディスク、CD−ROM、DVD等に格納することができ、これらの記録媒体に記録して提供され、又は、通信インタフェースを介してネットワークを利用した送受信により提供される。
図2は、体格管理テーブルのデータ構成例を示す図である。体格管理テーブル32は、「人体タイプ」毎に、例えば、「身長」、「上腕」、「前腕」、「アクティブ」、「人体タイプID」等を、当該「人体タイプ」に対応付けて格納する。「人体タイプ」は、体格管理テーブル32内に格納される人体の各部位の統計値(例えば身長の値、上腕の長さの値、前腕の長さの値)のタイプを格納する。例えば、図2に示すように、「人体タイプ」には、日本人女性の5%タイル値を示す、日本人女性5%タイル値や、北米男性の99%タイル値を示す北米男性99%タイル値という人体タイプが格納される。
「身長」は、当該「人体タイプ」に格納された人体タイプに対応する身長の値を格納する。「上腕」は、当該「人体タイプ」に格納された人体タイプに対応する上腕の長さの値を格納する。「前腕」は、当該「人体タイプ」に格納された人体タイプに対応する前腕の長さの値を格納する。「アクティブ」は、どの人体タイプが指定されたかを示すフラグを設定する。例えば、入力部11によって被験者の身長の値が入力されると、入力された身長の値が該当する人体タイプに対応する「アクティブ」に、当該人体タイプが指定されたことを示すフラグが立てられる。図2に示す体格管理テーブル32の例では、人体タイプとして北米男性99%タイル値が指定されている。「人体タイプID」は、人体タイプを一意に識別する識別子を格納する。
図3は、目標管理テーブルのデータ構成例を示す図である。目標管理テーブル33は、「目標ID」毎に、「項」、「コントロールポイント」、「目標部品」等を、当該「目標ID」に対応付けて格納する。「目標ID」は、目標情報を一意に識別する識別子を格納する。「項」は、目標管理テーブル33の各レコードの番号を格納する。レコードの番号は、目標管理テーブル33の行の番号である。レコードとは、目標管理テーブル33の各々の行(1行)を意味する(他のテーブルにおいても同じ)。「コントロールポイント」は、目標位置に移動させたい人体モデルの部位であるコントロールポイントの名称を格納する。「目標部品」は、目標位置にある目標部品の名称を格納する。図3に示す目標管理テーブル33の例では、例えばT1という目標IDは、人体モデルの右手をA.partに移動させるという目標情報を示している。
図4は、視認管理テーブルのデータ構成例を示す図である。視認管理テーブル34は、「視認ID」毎に、「項」、「視認対象部品」等を、当該「視認ID」に対応付けて格納する。「視認ID」は、視認情報を一意に識別する識別子を格納する。「項」は、視認管理テーブル34の各レコードの番号を格納する。「視認対象部品」は、視認対象部品の名称を格納する。
図5は、シナリオ管理テーブルのデータ構成例を示す図である。シナリオ管理テーブル35は、「シナリオID」毎に、「項」、「名称」、「想定操作ID順番」等を、当該「シナリオID」に対応付けて格納する。「シナリオID」は、シナリオ情報を一意に識別する識別子を格納する。「項」は、シナリオ管理テーブル35の各レコードの番号を格納する。「名称」は、シナリオの名称を格納する。「想定操作ID順番」は、当該シナリオを構成する想定操作を識別する識別子である想定操作IDを格納する。当該シナリオを構成する想定操作が複数ある場合は、各想定操作を識別する想定操作IDを、操作順に並んだ形式で格納する。
図6は、想定操作記録管理テーブルのデータ構成例を示す図である。想定操作記録管理テーブル36は、「想定操作ID」毎に、「項」、「想定操作名称」、「人体基準位置」、「機器位置」、「目標ID」、「視認ID」、「バリエーションID」、「アイテムID」、「想定時間」等を、当該「想定操作ID」に対応付けて格納する。
「想定操作ID」は、各想定操作を一意に識別する識別子を格納する。「項」は、想定操作記録管理テーブル36の各レコードの番号を格納する。「想定操作名称」は、想定操作の名称を格納する。「人体基準位置」は、3次元仮想空間内に配置される人体モデルの基準位置の座標を格納する。「機器位置」は、3次元仮想空間内に配置される機器モデルの位置の座標を格納する。
図7は、ある想定操作における3次元仮想空間内に配置された人体モデル100と機器モデル101との一例を示す。図7の例において、想定操作記録管理テーブル36に設定される人体モデル100の基準位置は、点Oを原点とする座標で示され、また、機器モデル101の位置は、点Pを原点とする座標で示される。なお、点Q(コントロールポイント)は、想定操作記録管理テーブル36において設定される目標IDが示す目標位置である。人体モデル100の体格や姿勢を変更することにより、それまでの点Qの座標は、目標IDが示す目標位置からずれる。そこで、姿勢計算部17は、変更後の新たな想定操作により定まる姿勢(又は体格)に応じて、変更後の新たな点Qの座標が目標IDが示す目標位置に一致するように、姿勢計算を再度実行する。
「目標ID」は、目標情報を一意に識別する識別子を格納する。「視認ID」は、視認情報を一意に識別する識別子を格納する。「バリエーションID」は、視野画像上に表示される機器モデルのバリエーション対象部品についてのバリエーションを一意に識別する識別子を格納する。「アイテムID」は、各想定操作時に利用されるアイテムを一意に識別する識別子を格納する。「想定時間」は、各想定操作の開始から終了までに想定される想定時間を格納する。
図8は、被験者操作結果記録テーブルのデータ構成例を示す図である。被験者操作結果記録テーブル40は、被験者によって実行された想定操作に対応する「想定操作項」毎に、「項」、「シナリオID」、「人体タイプ」、「選択部品」、「時間」、「サンプルID」、「部品判定」、「アイテム判定」、「操作性判定」等を、当該「想定操作項」に対応付けて格納する。
「想定操作項」は、被験者によって実行された想定操作に対応する、想定操作記録管理テーブル36のレコード番号(想定操作記録管理テーブル36の「項」に格納された番号)を格納する。「項」は、被験者操作結果記録テーブル40の各レコードの番号を格納する。「シナリオID」は、シナリオ情報を一意に識別する識別子を格納する。「人体タイプ」は、人体タイプを一意に識別する識別子を格納する。
「選択部品」は、部品選択部23によって選択された機器モデルの部品の名称を格納する。例えば、「選択部品」には、視野画像上において、被験者によって左クリック等で指定された部品の名称が格納される。「時間」は、被験者による実際の操作時間(実時間)を格納する。操作時間は、選択部品の選択ができるようになってから選択部品が選択されるまでの間の時間である。「サンプルID」は、選択されたサンプル部品を一意に識別する識別子を格納する。「部品判定」は、選択部品の選択が正しいか否かの判定結果を格納する。「アイテム判定」は、アイテムの選択が正しいか否かの判定結果を格納する。「操作性判定」は、各想定操作の操作性の判定結果を格納する。
なお、本発明の実施の形態においては、例えば、選択部品の選択が正しくない場合には、実時間を被験者操作結果記録テーブル40に格納しないようにしても良い。
図9は、操作性評価テーブルのデータ構成例を示す図である。操作性評価テーブル41は、例えば、各想定操作に対応する想定時間をT1、実時間(操作時間)をT2として、1.5T1>T2の場合のランク(Aランク)、2T1>T2>=1.5T1の場合のランク(Bランク)、T2>=2T1の場合のランク(Cランク)を格納する。ランクとは、操作性のレベルである。図9に示す操作性評価テーブル41の例では、Aランク、Bランク、Cランクの順に操作性のレベルが高い(操作性が良い)。
図10は、サンプル管理テーブルのデータ構成例を示す図である。サンプル管理テーブル37は、「バリエーションID」毎に、「項」、「対象部品」、「サンプルID1」、「サンプルID2」、「サンプルID3」、「表示対象」等を、当該「バリエーションID」に対応付けて格納する。
「バリエーションID」は、バリエーション対象部品についてのバリエーション情報を一意に識別する識別子を格納する。「項」は、サンプル管理テーブル37の各レコードの番号を格納する。「対象部品」は、バリエーションを構成するサンプル部品によって代替される部品の名称を格納する。例えば、「対象部品」には、バリエーション対象部品の名称や、バリエーション対象部品が備える付属部品の名称が格納される。「サンプルID1」〜「サンプルID3」は、バリエーションを構成するサンプル部品を一意に識別する識別子を格納する。例えば、バリエーション対象部品を代替する部品の識別子や、バリエーション対象部品が備える付属部品を代替する部品の識別子が格納される。「表示対象」は、現時点において視野画像上に実際に表示されている部品を識別する情報を格納する。例えば、「表示対象」には、視野画像上に表示されている、バリエーション対象部品が備える付属部品の名称、又は、バリエーション対象部品が備える付属部品に代替して視野画像上に表示されているサンプル部品の識別子が格納される。
図11は、サンプル部品管理テーブルのデータ構成例を示す図である。サンプル部品管理テーブル38は、「サンプルID」毎に、「項」、「部品」等を、当該「サンプルID」に対応付けて格納する。「サンプルID」は、サンプル部品を一意に識別する識別子を格納する。「項」は、サンプル部品管理テーブル38の各レコードの番号を格納する。「部品」は、各サンプル部品の具体的な名称を格納する。
図12は、アイテム管理テーブルのデータ構成例を示す図である。アイテム管理テーブル39は、「アイテムID」毎に、「項」、「部品」等を、当該「アイテムID」に対応付けて格納する。「項」は、アイテム管理テーブル39の各レコードの番号を格納する。「アイテムID」は、アイテムを一意に識別する識別子を格納する。「部品」は、各アイテムの具体的な名称を格納する。
図13(A)及び図13(B)は、シミュレーション部18による人体モデルの操作姿勢の計算を説明する図である。
なお、図13の例は、体格や姿勢の変更が点Qに与える影響をわかり易く示すために、人体モデルの体格を変更した場合における姿勢計算を示す。しかし、姿勢の変更の場合にも同様に当てはめることができる。即ち、1個のシナリオにおいて設定された複数の想定操作において当該姿勢が異なる場合においても、以下と同様にして、点Qの座標が計算される。
図13(A)には、予め人体モデル格納部30内に格納された、標準の体格を持つ人体モデル100(以下、標準人体モデルという)が示されている。また、図13(B)には、体格が変更された人体モデル100が示されている。なお、図13(A)及び図13(B)において、点Qは、ある想定操作に対応する目標位置(操作位置)である。
例えば、姿勢計算部17が、標準人体モデルのコントロールポイントである右手を点Qに移動させる姿勢を算出すると、算出された姿勢情報に基づいて、シミュレーション部18は、3次元仮想空間内において、標準人体モデルに、図13(A)中に示すような姿勢をとらせる。
ここで、入力部11によって、人体モデル100の身体情報が入力されると、シミュレーション部18は、標準人体モデルの体格を、入力された身体情報に基づいて変更する。そして、姿勢計算部17は、変更後の体格を持つ人体モデル100のコントロールポイントである右手を点Qに移動させる姿勢を算出し、シミュレーション部18は、3次元仮想空間内において、人体モデル100に、図13(B)中に示すような姿勢をとらせる。
図14は、本発明の実施の形態における想定操作の設定処理フローの一例を説明する図である。
入力部11が、キーボードやマウス等の入力手段(図1では図示を省略)を用いた設定者の指示入力に従って、操作性の評価対象となる機器を呼び出す(ステップS1)。次に、シナリオ設定部15が、設定者の入力部11を用いた指示入力に従って、シナリオを設定する(ステップS2)。例えば、シナリオ管理テーブル35中に、シナリオ情報が設定される。
次に、想定操作設定部16が、設定者の指示入力に従って、設定されたシナリオを構成する想定操作毎に、人体モデルの基準位置、機器モデルの位置、目標情報、視認情報を設定する(ステップS3)。例えば、想定操作記録管理テーブル36において、想定操作毎に、当該想定操作に対応付けて、「人体基準位置」、「機器位置」、「目標ID」、「視認ID」が設定される。
次に、想定操作設定部16が、シナリオを構成する想定操作に対応する設定されたバリエーション対象部品があるか否かを判断し(ステップS4)、当該想定操作についてバリエーション対象部品がある場合には、設定者の指示入力に従って、当該バリエーション対象部品についてのバリエーションを設定する(ステップS5)。例えば、想定操作記録管理テーブル36において、「バリエーションID」が設定される。
バリエーション対象部品がない場合、ステップS5を省略して、設定者が、当該想定操作において利用するアイテムがあるか否かを判断し(ステップS6)、アイテムがある場合には、想定操作設定部16は、設定者の指示入力に従って、アイテムを設定する(ステップS7)。例えば、想定操作記録管理テーブル36において、「アイテムID」が設定される。
アイテムがない場合、想定操作設定部16は、ステップS7を省略し、設定者の指示入力に従って、当該想定操作に対応する想定時間を設定する(ステップS8)。例えば、想定操作記録管理テーブル36において「想定時間」が設定される。
想定操作設定部16は、次の想定操作があるか否かを判断し(ステップS9)、次の想定操作がある場合、ステップS3以下を繰り返し、次の想定操作がない場合、処理を終了する。
図15は、本発明の実施の形態における機器の操作性評価処理フローの一例を示す図である。
シミュレーション部18が、被験者(又は設定者)による入力部11からの入力指示に従って、操作性の評価対象となる機器を呼び出す(ステップS11)。例えば、機器モデル格納部31からATMのモデルが呼び出される。この例においては、ステップS11においては、シミュレーション部18は、更に、人体モデル格納部30から標準人体モデルを呼び出す。
次に、シミュレーション部18が、被験者(又は設定者)による入力部11からの入力指示に従って、シナリオを選択する(ステップS12)。例えば、「入金」というシナリオが選択される。そして、シミュレーション部18が、被験者(又は設定者)による入力部11からの入力指示に従って、人体タイプを選択する(ステップS13)。例えば、入力部11によって被験者の身長の値が入力されると、入力された身長の値に対応する人体タイプが選択される。ステップS13の処理によって人体タイプが選択されると、シミュレーション部18は、標準人体モデルの体格を、選択された人体タイプに対応する体格に合わせて変更する。
次に、シミュレーション部18(又は姿勢計算部17)が、ステップS12において選択されたシナリオを構成する複数の想定操作のうち、未処理の想定操作における先頭の想定操作を取り出して、姿勢計算部17に渡す。これに応じて、姿勢計算部17が、人体モデルの姿勢を計算する(ステップS14)。すなわち、姿勢計算部17は、ステップS12において選択されたシナリオを構成する想定操作のうち、現在実行されるべき順番である想定操作に対応するコントロールポイントを目標部品に移動させるための姿勢を計算する。
例えば、上記ステップS12において、入金がシナリオとして選択されたとする。図5に示すシナリオ管理テーブル35を参照すると、入金というシナリオの最初の想定操作は、「想定操作ID」がH1であることがわかる。また、図6に示す想定操作記録管理テーブル36を参照すると、「想定操作ID」がH1である「取引選択」という想定操作に対応する「人体基準位置」は(0,0,0)、「機器位置」は(200,200,0)、「目標ID」はT1、「視認ID」はS1に設定されていることがわかる。
また、図3に示す目標管理テーブル33を参照すると、T1という「目標ID」に対応する「コントロールポイント」は右手、「目標部品」はA.part(例えば、取引選択ボタン)であることがわかる。また、図4に示す視認管理テーブル34を参照すると、S1という「視認ID」に対応する視認対象部品は、A.partであることがわかる。
また、図5に示すシナリオ管理テーブル35と図6に示す想定操作記録管理テーブル36とを参照すると、入金というシナリオの2番目の想定操作は、「想定操作ID」がH2の「カード挿入」であり、対応する「目標部品」はB.part(例えば、カード挿入口)であることがわかる。
そこで、姿勢計算部17は、「人体基準位置」を(0,0,0)、「機器位置」を(200,200,0)としたときに、体格が変更された人体モデルの右手を、最初の想定操作である取引選択に対応する目標部品であるA.partに移動させるための姿勢であって、人体モデルに視認対象部品であるA.partを視認させ、かつ、人体モデルの視野範囲に2番目の想定操作に対応する目標部品であるB.partが入るような姿勢を計算する。姿勢計算部17は、2番目の想定操作に対応する目標部品の情報を用いずに人体モデルの姿勢を計算するようにしても良い。なお、姿勢計算部17は、視認対象部品を用いずに目標部品に視線を向けた人体モデルの姿勢を計算するようにしても良い。
次に、シミュレーション部18が、ステップS14によって算出された姿勢の人体モデルの視点から見た視野画像を表示する(ステップS15)。例えば、図16に示すような視野画像を表示する。図16に示す視野画像において、200は取引選択ボタンである。現在の想定操作における目標部品は、取引選択ボタン200であるものとする。次の想定操作における目標部品は、カード挿入口201であるものとする。また、図中の楕円で囲った範囲は、現在の想定操作における、人体モデルの視野範囲である。図16に示すように、次の想定操作における目標部品であるカード挿入口201は、現在の想定操作における人体モデルの視野範囲内に入っている。
次に、アイテム選択部27が、アイテムが必要か否かを判断し(ステップS16)、アイテムが必要な場合、アイテムを選択する(ステップS17)。本発明の実施の形態においては、例えば、シミュレーション部18が、視野画像中に、想定操作記録管理テーブル36中に設定された全てのアイテム(アイテム名やアイテムの画像)を表示する。そして、例えば、表示されたアイテム名やアイテムの画像のうち、特定のアイテム名やアイテムの画像が指定されることによって、アイテムが選択される。
次に、選択判定部29が、選択されたアイテムが正しいかを判断する(ステップS18)。選択されたアイテムが正しくない場合には、操作記録部19によって被験者操作結果記録テーブル40の「アイテム判定」項目にNGが記録されて、ステップS17以下を繰り返す。選択されたアイテムが正しい場合には、操作記録部19によって被験者操作結果記録テーブル40の「アイテム判定」項目にOKが記録される。
次に、部品選択部23が、目標部品を選択する(ステップS19)。例えば、図16に示す視野画像上において、取引選択ボタン200が指定されると、部品選択部23が、取引選択ボタン200を選択する。目標部品が選択されると、操作記録部19によって、被験者操作結果記録テーブル40の「選択部品」に、選択された目標部品が記録される。
次に、選択判定部29が、目標部品の選択が正しいか否かを判定する(ステップS20)。すなわち、選択判定部29は、想定操作記録管理テーブル36を参照して、現在の想定操作に対応する目標部品が選択されたかを判定する。目標部品の選択が正しくない場合には、操作記録部19によって被験者操作結果記録テーブル40の「部品判定」項目にNGが記録され、ステップS19以下を繰り返す。
目標部品の選択が正しい場合には、操作記録部19が、操作時間を被験者操作結果記録テーブル40に記録する(ステップS21)。この時、被験者操作結果記録テーブル40の「時間」に当該操作時間が記録される他、更に、「部品判定」項目にOKが記録される。
次に、シミュレーション部18が、バリエーション対象部品についてのバリエーションがあるかを判断する(ステップS22)。シミュレーション部18は、想定操作記録管理テーブル36を参照して、現在の想定操作についてバリエーションIDが設定されていれば、バリエーション対象部品についてのバリエーションがあると判断する。
例えば、図6に示す想定操作記録管理テーブル36の最初のレコードにおいて、H1という想定操作IDに対応して、バリエーションIDとしてB1が設定されている。また、図10のサンプル管理テーブル37を見ると、B1というバリエーションIDに対応する対象部品は、F.partである。このことから、H1という想定操作IDが示す想定操作の時のバリエーション対象部品F.partについてバリエーションがあることがわかる。また、図10のサンプル管理テーブル37を見ると、F.partに対応して、BB1、BB2、BB3という3つのサンプルIDが設定されている。従って、F.partを代替するサンプル部品は、BB1、BB2、BB3という3つのサンプルIDが示す3種類の部品であることがわかる。
ステップS22においてバリエーションがある場合、シミュレーション部18は、視野画像上にバリエーションを表示する(ステップS23)。例えば、シミュレーション部18は、H1という想定操作IDが示す想定操作の時のバリエーション対象部品を代替するサンプル部品があることを視野画像上に表示し、視野画像上においてバリエーション対象部品が指定されると、代替するサンプル部品をポップアップ表示する。
例えば、図10に示すサンプル管理テーブル37と、図11に示すサンプル部品管理テーブル38とを参照すると、F.partを代替するサンプル部品は、L.part、K.part、G.partであることがわかる。従って、シミュレーション部18は、例えば、視野画像上に、L.part、K.part、G.partという3種類のサンプル部品を、ポップアップ表示する。
次に、サンプル部品が選択される(ステップS24)。例えば、視野画像上においてポップアップ表示されたサンプル部品が指定されることによってサンプル部品が選択される。サンプル部品が選択されると、例えば、表示部品入替部28によって、バリエーション対象部品が、ステップS24において選択されたサンプル部品に入れ替えられる。また、シミュレーション部18によって、視野画像上において、選択されたサンプル部品が、バリエーション対象部品に替えて表示される。上記のステップS22〜ステップS24の処理によって、バリエーション対象部品についてのバリエーションを構成するサンプル部品のうち、被験者がより利用し易いサンプル部品を選択することができる。
操作記録部19は、選択されたサンプル部品を被験者操作結果記録テーブル40に記録する(ステップS25)。すなわち、被験者操作結果記録テーブル40の「サンプルID」に、選択されたサンプル部品を一意に識別する識別子を格納する。
ステップS22においてバリエーションがない場合、ステップS23〜S25は省略される。この後、操作性評価部20が機器の操作性を評価し、操作性判定部21が、操作性を判定する(ステップS26)。例えば、操作性評価部20は、ステップS21において記録された操作時間と、当該想定操作に対応する想定時間とに基づいて、図9に示すような操作性評価テーブル41を用いて、操作性のレベルを決定する。例えば、「A」、「B」、「C」のいずれのランクかを決定する。
そして、例えば、操作性判定部21が、操作性評価部20によって決定された操作性のレベルに基づいて、操作性がOKかNGかを判定する。例えば、操作性のレベルがAランク又はBランクなら、操作性はOK、操作性のレベルがCランクなら、操作性はNGとする。操作性の判定結果は、操作記録部19によって、例えば被験者操作結果記録テーブル40の「操作性判定」項目に記録される。
本発明の実施の形態においては、操作性評価部20が、ステップS21において記録された操作時間と、当該想定操作に対応する想定時間とを、操作性の評価のパラメータとして出力するようにしても良い。
シミュレーション部18が、次の想定操作があるか否かを判断し(ステップS27)、次の想定操作がない場合には処理を終了し、次の想定操作がある場合には、ステップS14以下を繰り返す。
以上から把握できるように、本発明の実施形態の特徴を述べると以下の通りである。
(付記1)機器の操作性を評価する装置であって、
人体の形状を模倣した人体モデルの身体情報を管理する体格管理手段と、
前記人体モデルの視線の情報である視認情報を管理する視認管理手段と、
前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する目標管理手段と、
各々が想定される前記機器の操作である複数の想定操作を前記視認情報と前記目標情報とに対応付けて設定する想定操作設定手段と、
指定された前記人体モデルの身体情報と、少なくとも、前記想定操作設定手段によって設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する姿勢計算手段と、
前記機器の形状を模倣した機器モデルと前記姿勢計算手段によって算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示するシミュレーション手段と、
前記視野画像上における前記機器モデルの操作情報を入力する操作情報入力手段と、
前記操作情報入力手段によって入力された前記機器モデルの操作情報に基づいて、前記機器モデルの操作結果を記録する操作記録手段と、
前記記録された前記機器モデルの操作結果に基づいて、前記機器の操作性を評価する操作性評価手段とを備える
ことを特徴とする機器操作性評価装置。
(付記2)付記1に記載の機器操作性評価装置において、
前記視認管理手段は、前記3次元仮想空間内に配置される機器モデルが備える部品のうち、人体モデルに視認させる部品である視認対象部品の情報を視認情報として管理し、
前記姿勢計算手段は、指定された前記人体モデルの身体情報と、前記想定操作設定手段によって設定された想定操作に対応する前記視認情報と前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する
ことを特徴とする機器操作性評価装置。
(付記3)付記2に記載の機器操作性評価装置において、
前記姿勢計算手段は、少なくとも、前記設定された想定操作に対応する前記人体モデルの人体部位を前記人体部位を移動させたい目標位置に移動させるための、前記人体モデルの関節の角度の情報と、前記人体モデルに前記設定された想定操作に対応する視認対象部品を視認させるための、前記人体モデルの目の位置の情報とを姿勢情報として算出する
ことを特徴とする機器操作性評価装置。
(付記4)付記1に記載の機器操作性評価装置が、更に、
前記機器を操作する目的であり複数の想定操作からなるシナリオを設定するシナリオ設定手段を備え、
前記想定操作設定手段は、前記設定されたシナリオ毎に、前記想定操作を設定し、
前記姿勢計算手段は、指定された前記人体モデルの身体情報と指定されたシナリオとに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する
ことを特徴とする機器操作性評価装置。
(付記5)付記4に記載の機器操作性評価装置において、
前記シナリオ設定手段が設定するシナリオは、操作の順番が規定された想定操作から構成され、
前記姿勢計算手段は、前記指定されたシナリオを構成する想定操作の操作順に、前記指定されたシナリオを構成する想定操作を行う前記人体モデルの姿勢を算出する
ことを特徴とする機器操作性評価装置。
(付記6)付記1に記載の機器操作性評価装置において、
前記想定操作設定手段は、前記想定操作の開始から終了までに想定される時間である想定時間を設定し、
前記操作記録手段は、前記視野画像上における前記機器モデルの操作時間を記録し、
前記操作性評価手段は、前記記録された機器モデルの操作時間と前記設定された想定時間との比較結果に基づいて、前記機器の操作性を評価する
ことを特徴とする機器操作性評価装置。
(付記7)付記6に記載の機器操作性評価装置において、
前記操作性評価手段は、前記機器の操作性をランク付けする
ことを特徴とする機器操作性評価装置。
(付記8)付記1に記載の機器操作性評価装置が、更に、
前記操作情報入力手段によって入力された前記機器モデルの操作情報に基づいて、前記想定操作設定手段によって設定された前記想定操作に従って前記機器モデルが操作されたかを判定する操作判定手段を備え、
前記操作記録手段は、前記操作判定手段による判定結果を記録し、
前記操作性評価手段は、前記操作記録手段が記録した判定結果に基づいて、前記機器の操作性を評価する
ことを特徴とする機器操作性評価装置。
(付記9)付記1に記載の機器操作性評価装置において、
前記目標管理手段は、前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置にある前記機器モデルの部品である目標部品とを前記目標情報として管理し、
前記想定操作設定手段は、前記想定操作に対応付けて、前記機器モデルの部品のうち表示や形状のバリエーションがある部品であるバリエーション対象部品を代替する1又は複数のサンプル部品を設定し、
前記バリエーション対象部品を代替するサンプル部品を選択するサンプル選択手段と、
前記サンプル選択手段によって選択されたサンプル部品を、前記バリエーション対象部品の替わりに前記視野画像上に表示する表示部品入替手段とを備える
ことを特徴とする機器操作性評価装置。
(付記10)付記1に記載の機器操作性評価装置において、
前記想定操作設定手段は、前記想定操作に対応付けて、前記想定操作に必要なアイテムを設定し、
前記シミュレーション手段は、前記視野画像上に、前記想定操作設定手段によって設定されたアイテムを表示し、
前記操作記録手段は、前記視野画像上において選択されたアイテムと前記想定操作設定手段によって設定されたアイテムとの照合結果を記録する
ことを特徴とする機器操作性評価装置。
(付記11)機器操作性評価装置を用いて機器の操作性を評価する方法であって、
人体の形状を模倣した人体モデルの身体情報を管理し、
前記人体モデルの視線の情報である視認情報を管理し、
前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理し、
各々が想定される前記機器の操作である複数の想定操作を前記視認情報と前記目標情報とに対応付けて設定し、
指定された前記人体モデルの身体情報と、少なくとも、前記設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出し、
前記機器の形状を模倣した機器モデルと前記算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示し、
入力された前記視野画像上における前記機器モデルの操作情報に基づいて、前記機器モデルの操作結果を記録し、
前記記録された前記機器モデルの操作結果に基づいて、前記機器の操作性を評価する
ことを特徴とする機器操作性評価方法。
(付記12)機器操作性評価装置をコンピュータ上で実現するためのプログラムであって、
前記コンピュータに、
人体の形状を模倣した人体モデルの身体情報を管理する処理と、
前記人体モデルの視線の情報である視認情報を管理する処理と、
前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する処理と、
各々が想定される前記機器の操作である複数の想定操作を前記視認情報と前記目標情報とに対応付けて設定する処理と、
指定された前記人体モデルの身体情報と、少なくとも、前記設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する処理と、
前記機器の形状を模倣した機器モデルと前記算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示する処理と、
入力された前記視野画像上における前記機器モデルの操作情報に基づいて、前記機器モデルの操作結果を記録する処理と、
前記記録された前記機器モデルの操作結果に基づいて、前記機器の操作性を評価する処理とを実行させる
ことを特徴とする機器操作性評価プログラム。
(付記13)機器操作性評価装置をコンピュータ上で実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
人体の形状を模倣した人体モデルの身体情報を管理する処理と、
前記人体モデルの視線の情報である視認情報を管理する処理と、
前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する処理と、
各々が想定される前記機器の操作である複数の想定操作を前記視認情報と前記目標情報とに対応付けて設定する処理と、
指定された前記人体モデルの身体情報と、少なくとも、前記設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する処理と、
前記機器の形状を模倣した機器モデルと前記算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示する処理と、
入力された前記視野画像上における前記機器モデルの操作情報に基づいて、前記機器モデルの操作結果を記録する処理と、
前記記録された前記機器モデルの操作結果に基づいて、前記機器の操作性を評価する処理とを実行させる
ことを特徴とする機器操作性評価プログラムを記録した記録媒体。
以上、説明したように、本発明の機器操作性評価装置、機器操作性評価方法、機器操作性評価プログラムによれば、人体モデルを変更する場合でも、適切な操作姿勢をとった人体モデルの視野画像を表示し、視野画像上における機器モデルの操作結果に基づいて機器の操作性を評価することが可能となる。
また、本発明の機器操作性評価装置、機器操作性評価方法、機器操作性評価プログラムによれば、機器の操作目的を達するまでの一連の操作における機器の操作性を評価することが可能となる。
本発明の機器操作性評価装置の構成の一例を示す図である。 体格管理テーブルのデータ構成例を示す図である。 目標管理テーブルのデータ構成例を示す図である。 視認管理テーブルのデータ構成例を示す図である。 シナリオ管理テーブルのデータ構成例を示す図である。 想定操作記録管理テーブルのデータ構成例を示す図である。 3次元仮想空間に配置された人体モデルと機器モデルとを示す図である。 被験者操作結果記録テーブルのデータ構成例を示す図である。 操作性評価テーブルのデータ構成例を示す図である。 サンプル管理テーブルのデータ構成例を示す図である。 サンプル部品管理テーブルのデータ構成例を示す図である。 アイテム管理テーブルのデータ構成例を示す図である。 シミュレーション部による人体モデルの操作姿勢の計算を説明する図である。 本発明の実施の形態における想定操作の設定処理フローの一例を説明する図である。 本発明の実施の形態における機器の操作性評価処理フローの一例を示す図である。 人体モデルの視野画像の一例を示す図である。 目標部品の一例を示す図である。
符号の説明
11 入力部
12 体格管理部
13 目標管理部
14 視認管理部
15 シナリオ設定部
16 想定操作設定部
17 姿勢計算部
18 シミュレーション部
19 操作記録部
20 操作性評価部
21 操作性判定部
22 出力部
23 部品選択部
24 サンプル管理部
25 アイテム管理部
26 サンプル選択部
27 アイテム選択部
28 表示部品入替部
29 選択判定部
30 人体モデル格納部
31 機器モデル格納部
32 体格管理テーブル
33 目標管理テーブル
34 視認管理テーブル
35 シナリオ管理テーブル
36 想定操作記録管理テーブル
37 サンプル管理テーブル
38 サンプル部品管理テーブル
39 アイテム管理テーブル
40 被験者操作結果記録テーブル
41 操作性評価テーブル

Claims (5)

  1. 機器の操作性を評価する装置であって、
    前記機器の形状を模倣した機器モデルを格納する機器モデル格納部と、
    々が想定される前記機器の操作である複数の想定操作を、人体の形状を模倣した人体モデルの視線の情報である視認情報と、前記人体モデルの人体部位及び前記人体部位を移動させたい目標位置を含む目標情報とに対応付けて設定する想定操作設定手段と、
    前記人体モデルの身体情報であって入力された身体情報と、少なくとも、前記想定操作設定手段によって設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する姿勢計算手段と、
    前記機器モデル格納部から読み出した機器モデルと前記姿勢計算手段によって算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示するシミュレーション手段と、
    前記視野画像上における前記機器モデルの操作情報を入力する操作情報入力手段と、
    前記操作情報入力手段によって入力された前記操作情報に基づいて、前記機器モデルの操作結果を記録する操作記録手段と、
    録された前記操作結果に基づいて、前記機器の操作性を評価する操作性評価手段とを備え
    前記視認情報は、前記3次元仮想空間内に配置される機器モデルが備える部品のうち、前記人体モデルに視認させる部品である視認対象部品の情報を含み、
    前記姿勢計算手段は、入力された前記身体情報と、前記想定操作設定手段によって設定された想定操作に対応する前記視認情報及び前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する
    ことを特徴とする機器操作性評価装置。
  2. 請求項1に記載の機器操作性評価装置が、更に、
    前記機器を操作する目的であり複数の想定操作からなるシナリオを設定するシナリオ設定手段を備え、
    前記想定操作設定手段は、前記設定されたシナリオ毎に、前記想定操作を設定し、
    前記姿勢計算手段は、入力された前記身体情報と指定されたシナリオとに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する
    ことを特徴とする機器操作性評価装置。
  3. 請求項1に記載の機器操作性評価装置において、
    前記想定操作設定手段は、前記想定操作の開始から終了までに想定される時間である想定時間を設定し、
    前記操作記録手段は、前記視野画像上における前記機器モデルの操作時間を記録し、
    前記操作性評価手段は、前記記録された機器モデルの操作時間と前記設定された想定時間との比較結果に基づいて、前記機器の操作性を評価する
    ことを特徴とする機器操作性評価装置。
  4. 想定操作設定手段と、姿勢計算手段と、シミュレーション手段と、操作記録手段と、操作性評価手段と、機器の形状を模倣した機器モデルを格納する機器モデル格納部とを備える機器操作性評価装置を用いて機器の操作性を評価する方法であって、
    前記想定操作設定手段が、各々が想定される前記機器の操作である複数の想定操作を、人体の形状を模倣した人体モデルの視線の情報である視認情報と、前記人体モデルの人体部位及び前記人体部位を移動させたい目標位置を含む目標情報とに対応付けて設定し、
    前記姿勢計算手段が、前記人体モデルの身体情報であって入力された身体情報と、少なくとも、前記設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出し、
    前記シミュレーション手段が、前記機器モデル格納部から読み出した機器モデルと前記算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示し、
    前記操作記録手段が、入力された前記視野画像上における前記機器モデルの操作情報に基づいて、前記機器モデルの操作結果を記録し、
    前記操作性評価手段が、記録された前記操作結果に基づいて、前記機器の操作性を評価し、
    前記視認情報は、前記3次元仮想空間内に配置される機器モデルが備える部品のうち、前記人体モデルに視認させる部品である視認対象部品の情報を含み、
    前記姿勢計算手段は、入力された前記身体情報と、前記想定操作設定手段によって設定された想定操作に対応する前記視認情報及び前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する
    ことを特徴とする機器操作性評価方法。
  5. 機器操作性評価装置をコンピュータ上で実現するためのプログラムであって、
    前記コンピュータに、
    々が想定される前記機器の操作である複数の想定操作を、人体の形状を模倣した人体モデルの視線の情報である視認情報と、前記人体モデルの人体部位及び前記人体部位を移動させたい目標位置を含む目標情報とに対応付けて設定する処理と、
    前記人体モデルの身体情報であって入力された身体情報と、少なくとも、前記設定された想定操作に対応する前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出する処理と、
    機器モデル格納部から読み出した前記機器の形状を模倣した機器モデルと前記算出された姿勢を持つ前記人体モデルとを3次元仮想空間内に配置するとともに、前記姿勢を持つ人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示する処理と、
    入力された前記視野画像上における前記機器モデルの操作情報に基づいて、前記機器モデルの操作結果を記録する処理と、
    録された前記操作結果に基づいて、前記機器の操作性を評価する処理とを実行させると共に、
    前記視認情報は、前記3次元仮想空間内に配置される機器モデルが備える部品のうち、前記人体モデルに視認させる部品である視認対象部品の情報を含み、
    前記姿勢を算出する処理において、入力された前記身体情報と、前記想定操作設定手段によって設定された想定操作に対応する前記視認情報及び前記目標情報とに基づいて、前記設定された想定操作を行う前記人体モデルの姿勢を算出させる
    ことを特徴とする機器操作性評価プログラム。
JP2005369462A 2005-12-22 2005-12-22 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム Expired - Fee Related JP4745818B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005369462A JP4745818B2 (ja) 2005-12-22 2005-12-22 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
US11/391,249 US7409246B2 (en) 2005-12-22 2006-03-29 Apparatus and method for evaluating equipment operability, and equipment operability evaluating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005369462A JP4745818B2 (ja) 2005-12-22 2005-12-22 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム

Publications (2)

Publication Number Publication Date
JP2007172312A JP2007172312A (ja) 2007-07-05
JP4745818B2 true JP4745818B2 (ja) 2011-08-10

Family

ID=38264319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005369462A Expired - Fee Related JP4745818B2 (ja) 2005-12-22 2005-12-22 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム

Country Status (2)

Country Link
US (1) US7409246B2 (ja)
JP (1) JP4745818B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4745831B2 (ja) * 2006-01-06 2011-08-10 富士通株式会社 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
JP2010044736A (ja) * 2008-07-18 2010-02-25 Panasonic Electric Works Co Ltd 製品設計評価装置
CN103675517B (zh) * 2013-09-29 2016-08-24 广州供电局有限公司 Sf6气体高压设备的微水带电可视化仿真测试方法
EP3154925B1 (en) 2014-06-10 2018-08-01 IGM Resins Italia S.r.l. Process for the preparation of a phenylindan compound

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337884A (ja) * 1993-03-31 1994-12-06 Toshiba Corp 作業環境評価装置
JPH0773157A (ja) * 1993-06-15 1995-03-17 Ishikawajima Harima Heavy Ind Co Ltd 大型構造物における溶接作業性の評価方法
JPH10240791A (ja) * 1997-02-27 1998-09-11 Fujitsu Ltd 機器操作性評価支援装置
JPH11328243A (ja) * 1998-05-18 1999-11-30 Toshiba Corp プラント設計支援システム
JP2001005854A (ja) * 1999-06-24 2001-01-12 Osaka Gas Co Ltd 操作パネルシミュレータ及び操作パネルシミュレーション方法
JP2003256756A (ja) * 2002-03-05 2003-09-12 Osaka Gas Co Ltd 作業空間診断方法及び作業空間診断装置
JP2005063375A (ja) * 2003-08-20 2005-03-10 National Institute Of Advanced Industrial & Technology 仮想ユーザを用いた操作性評価処理システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3182541B2 (ja) 1993-10-14 2001-07-03 松下電器産業株式会社 プロトタイプ装置
JP3636883B2 (ja) * 1998-03-20 2005-04-06 富士通株式会社 シミュレーション装置,シミュレーション方法およびシミュレーションプログラムが記録されたコンピュータ読取可能な記録媒体
JP2003271891A (ja) 2002-03-15 2003-09-26 Matsushita Electric Works Ltd 商品仮想体験システム
EP1495447A1 (en) * 2002-03-26 2005-01-12 KIM, So-Woon System and method for 3-dimension simulation of glasses
TW558689B (en) * 2002-08-30 2003-10-21 Univ Taipei Medical Three-dimensional surgery simulation system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337884A (ja) * 1993-03-31 1994-12-06 Toshiba Corp 作業環境評価装置
JPH0773157A (ja) * 1993-06-15 1995-03-17 Ishikawajima Harima Heavy Ind Co Ltd 大型構造物における溶接作業性の評価方法
JPH10240791A (ja) * 1997-02-27 1998-09-11 Fujitsu Ltd 機器操作性評価支援装置
JPH11328243A (ja) * 1998-05-18 1999-11-30 Toshiba Corp プラント設計支援システム
JP2001005854A (ja) * 1999-06-24 2001-01-12 Osaka Gas Co Ltd 操作パネルシミュレータ及び操作パネルシミュレーション方法
JP2003256756A (ja) * 2002-03-05 2003-09-12 Osaka Gas Co Ltd 作業空間診断方法及び作業空間診断装置
JP2005063375A (ja) * 2003-08-20 2005-03-10 National Institute Of Advanced Industrial & Technology 仮想ユーザを用いた操作性評価処理システム

Also Published As

Publication number Publication date
JP2007172312A (ja) 2007-07-05
US7409246B2 (en) 2008-08-05
US20070168144A1 (en) 2007-07-19

Similar Documents

Publication Publication Date Title
US11871109B2 (en) Interactive application adapted for use by multiple users via a distributed computer-based system
Lee et al. Immersive authoring of tangible augmented reality applications
CN104461318B (zh) 基于增强现实技术的点读方法及系统
CN104603719B (zh) 扩增实境表面显示
CN109982756A (zh) 信息处理程序、信息处理方法和信息处理装置
CN105373513A (zh) 图形显示装置及图形显示方法
JPWO2018069985A1 (ja) 採点支援プログラム、採点支援装置および採点支援方法
JP2010257081A (ja) 画像処理方法及び画像処理装置
JP4745818B2 (ja) 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
Wingrave et al. Exploring individual differences in raybased selection: Strategies and traits
CN108986569A (zh) 一种桌面ar交互学习方法及装置
US20230020633A1 (en) Information processing device and method for medium drawing in a virtual system
CN107179876A (zh) 基于虚拟现实系统的人机交互装置
JP2009018127A (ja) 学習支援装置および学習支援方法
US11360639B2 (en) Media content planning system
JP4745831B2 (ja) 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
US20230215121A1 (en) Method and apparatus for providing user-interactive customized interaction for xr real object transformation
Altarteer et al. Development and heuristic evaluation of semi-immersive hand-gestural virtual reality interface for luxury brands online stores
Ogrizek et al. Evaluating the impact of passive physical everyday tools on interacting with virtual reality museum objects
WO2019190722A1 (en) Systems and methods for content management in augmented reality devices and applications
Liang et al. Exploration of user experience in mixed reality for product virtual interaction and display
US10080963B2 (en) Object manipulation method, object manipulation program, and information processing apparatus
JP4607943B2 (ja) セキュリティレベル評価装置およびセキュリティレベル評価プログラム
CN107209632A (zh) 信息处理程序和信息处理方法
JP2007249561A (ja) 画面遷移図の表示システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110411

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110512

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4745818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees