JP2007183792A - 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム - Google Patents

機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム Download PDF

Info

Publication number
JP2007183792A
JP2007183792A JP2006001301A JP2006001301A JP2007183792A JP 2007183792 A JP2007183792 A JP 2007183792A JP 2006001301 A JP2006001301 A JP 2006001301A JP 2006001301 A JP2006001301 A JP 2006001301A JP 2007183792 A JP2007183792 A JP 2007183792A
Authority
JP
Japan
Prior art keywords
human body
body model
target
model
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006001301A
Other languages
English (en)
Other versions
JP4745831B2 (ja
Inventor
Koji Izumi
宏治 出水
Naoyuki Nozaki
直行 野崎
Masayuki Kidera
雅如 木寺
Ko Nishiyama
航 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006001301A priority Critical patent/JP4745831B2/ja
Priority to US11/510,655 priority patent/US7533001B2/en
Publication of JP2007183792A publication Critical patent/JP2007183792A/ja
Application granted granted Critical
Publication of JP4745831B2 publication Critical patent/JP4745831B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/17Mechanical parametric or variational design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】人体モデルの体格を変更する場合でも、目標位置に合わせた姿勢の人体モデルの視点から見て機器の操作性を評価することを目的とする。
【解決手段】機器操作性評価装置1は、体格管理テーブル23内の人体モデルの体格情報と動作管理テーブル28内の動作情報と目標管理テーブル24内の目標情報とに基づいて、人体モデルの操作姿勢を算出し、機器モデルと、算出された操作姿勢をとる人体モデルとを3次元仮想空間内に配置し、人体モデルの視点から3次元仮想空間を見た視野画像を表示し、視野画像上に表示された機器モデルの操作対象エリアについての視認性、文字列の可読性を判定する。
【選択図】図1

Description

本発明は、機器の操作性を評価する機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラムに関し、特に、3次元仮想空間内に配置された機器モデルの操作対象エリアについての視認性、可読性の判定を行うことによって機器の操作性を評価する機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラムに関する。
従来、機器のレイアウトの検証を行う際には、例えば、機器の操作対象エリアにテンプレートを配置して、機器の操作者の手が操作対象エリアに届くか、また、機器の操作者の視野範囲内に操作対象エリアが入るかを判定していた。機器の操作対象エリアとは、機器の操作対象部品と、機器の操作時に操作者に視認させたい部品(例えば、フリッカ(点滅する部品)やラベル等)が設置されている機器上の領域を意味する。
しかし、機器の操作者の手が操作対象エリアに届くか、また、機器の操作者の視野範囲内に操作対象エリアが入るかを判定することによる機器のレイアウトの検証では、実際にはさまざまな体格の方が操作するため、視野範囲が異なって操作対象エリアから外れている場合がある。また、実際には手が邪魔になって、表示された操作対象エリアが見えない場合がある。また、視野をさえぎることがなくても、手の影になって操作対象エリアを確認できない場合がある。また、表示された操作対象エリアの大きさや明るさによって、操作対象エリアについての視認性や可読性が変わってしまう場合がある。
そこで、3次元仮想空間内に配置された人体モデルを利用した、機器のレイアウトの検証が行われている。即ち、3次元仮想空間内に、ある体格の人体モデルと機器モデルとを配置するとともに、人体モデルの視点から3次元仮想空間を見た画像である視野画像を表示することにより、視野画像上に表示された機器モデルのレイアウトを検証している。人体モデルとは、人体の形状を模倣したモデルであり、機器モデルとは、機器の形状を模倣したモデルである。
更に、特許文献1は、シミュレーション空間内に、設計対象機器あるいはレイアウト対象機器の形状を模擬した機器モデルを配置するとともに、機器の操作を想定した人体モデルを配置し、その人体モデルをそのシミュレーション空間内で動作させることにより機器の操作性の評価を支援する機器操作性評価支援装置について記載している。
また、特許文献2は、人の体型データに対応する人体モデルと姿勢又は動作に関するデータを用意し、このデータから人の姿勢又は動作を人体モデルで仮想空間内に再現することで、画像認識不可能なような特別の状況下であっても、距離や位置などの計測が行えるようにする計測システムについて記載している。
特開平10−240791号公報 特開平11−167451号公報
3次元仮想空間内に配置された人体モデルを利用して、機器の操作をさえぎる物や視線をさえぎる物を確認する場合には、人体モデルに操作姿勢をとらせた上で確認することが必要である。
そこで、従来、3次元仮想空間内の人体モデルに操作姿勢をとらせるため、例えば、フォワードキネマティクスや予め設定された各関節角度による姿勢の計算を行い、算出した姿勢をとっている人体モデルの視点から3次元仮想空間を見た画像である視野画像を表示している。しかし、この場合、人体モデルの体格毎に独立して各関節角度の設定を行い、操作姿勢を計算している。即ち、人体モデルの体格が変更されると、当該操作姿勢を再現するためには、人体モデルの各関節角度の再設定が必要となる。これは、体格によって人体モデルの節々の長さが違うため、体格が変更されると、操作姿勢をとる人体モデルの関節角度が変わるためである。従って、従来は、ある操作姿勢をとっている人体モデルの体格が変更された場合に、体格変更前の関節角度のデータを用いて人体モデルの姿勢を計算すると、人体モデルの視野範囲がずれてしまい、機器のレイアウトの検証を行うことが困難となるという問題がある。
例えば、図19(A)に示すように、3次元仮想空間内に人体モデル100と機器モデル101とが配置されているとする。図19(A)において、102はカード挿入口、200は人体モデル100の視野範囲、点Pは人体モデル100の右手を移動させたい目標位置である。カード挿入口102は、機器モデル101の操作対象部品である。また、機器モデル101は、例えばATMのモデルである。人体モデル100は、例えば、カードの挿入という操作を行うための姿勢をとっており、人体モデル100の右手は点Pの位置にある。また、カード挿入口102は、人体モデル100の視野範囲200内に入っている。この状態で、人体モデル100の体格を変化させると、図19(B)に示すように、人体モデル100の右手は、点Pから離れてしまう。また、人体モデルの視野範囲200からカード挿入口102が外れてしまう。
また、従来は、機器のレイアウトが変更されたときに、操作に最適な人体モデルの姿勢を維持することができないという問題がある。
また、従来から、3次元仮想空間内に配置する人体モデルの姿勢と対象機器の操作対象部品とを関連付けて、ある操作に対応する姿勢を計算する方法が知られている。しかし、この方法は当該対象機器でしか利用できず、従って、この方法を用いて他の機器を利用した場合のレイアウト検証をすることは困難であるという問題がある。
また、従来、3次元仮想空間内で人体モデルに操作姿勢をとらせて、人体モデルの視野画像を表示する機能が知られている。しかし、この機能によっては、視野画像上に表示された機器モデルの操作対象エリアについての視認性や可読性について判定することはできないという問題がある。
また、従来、機器の操作目的を達するために必要となる一連の操作における、機器モデルの操作対象エリアについての視認性や可読性の判定ができないという問題がある。例えば、図20(A)に示すように、人体モデル100に機器モデル101のカード挿入口102にカードを挿入するという操作姿勢をとらせ、続いて、図20(B)に示すように、機器モデル101の取引選択パーツ105を操作する姿勢を自動的にとらせ、このような処理に基づいて、人体モデル100が行うこれらの一連の操作における機器モデルの操作対象エリアについての視認性や可読性の判定をすることは困難である。
本発明は、人体モデルの体格を変更する場合でも、目標位置に合わせた姿勢の人体モデルの視点から見て機器の操作性を評価する機器操作性評価装置の提供を目的とする。
また、本発明は、人体モデルの体格を変更する場合でも、目標位置に合わせた姿勢の人体モデルの視点から見て機器の操作性を評価する機器操作性評価方法の提供を目的とする。
また、本発明は、人体モデルの体格を変更する場合でも、目標位置に合わせた姿勢の人体モデルの視点から見て機器の操作性を評価する機器操作性評価プログラムの提供を目的とする。
本発明の機器操作性評価装置は、機器の操作性を評価する装置であって、人体の形状を模倣した人体モデルの体格情報を管理する体格管理手段と、前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する目標管理手段と、前記体格管理手段によって管理される前記人体モデルの体格情報と、前記目標管理手段によって管理される目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出する姿勢計算手段と、前記機器モデルと前記姿勢計算手段によって算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示するシミュレーション手段と、前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する視野判定手段とを備える。
好ましくは、本発明の機器操作性評価装置が、更に、前記視認対象パーツの情報を用いて、前記視野画像上に表示された前記機器モデルの視認対象パーツの視認性と、前記視認対象パーツに付随する文字列の可読性とを判定する第1の判定手段(視認性・可読性判定手段)と、前記第1の判定手段による判定結果に基づいて、前記機器の操作性を判定する第2の判定手段(操作性判定手段)とを備える。
好ましくは、本発明の機器操作性評価装置が、更に、前記人体モデルがとる操作姿勢毎に、前記操作姿勢を前記人体モデルがとる順番と、前記操作姿勢の算出に用いられる目標情報を管理する操作姿勢管理手段を備え、前記姿勢計算手段が、前記操作姿勢管理手段によって管理される、前記操作姿勢を前記人体モデルがとる順番に従って、前記人体モデルの操作姿勢を算出する。
また、本発明の機器操作性評価方法は、機器操作性評価装置を用いて機器の操作性を評価する方法であって、人体の形状を模倣した人体モデルの体格情報を管理し、前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理し、前記人体モデルの体格情報と、前記目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出し、前記機器モデルと前記算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示し、前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する。
また、本発明の機器操作性評価プログラムは、機器操作性評価装置をコンピュータ上で実現するためのプログラムであって、コンピュータに、人体の形状を模倣した人体モデルの体格情報を管理する処理と、前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する処理と、前記人体モデルの体格情報と、前記目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出する処理と、前記機器モデルと前記算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示する処理と、前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する処理とを実行させる。
本発明の機器操作性評価装置、方法及びプログラムは、人体モデルの体格情報と、人体部位を移動させたい目標位置とに基づいて、目標位置を人体モデルの注視点として用いて、人体モデルが機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出し、その上で、機器モデルと算出された操作姿勢をとる人体モデルとを3次元仮想空間内に配置して、人体モデルの視点から3次元仮想空間を見た画像である視野画像を表示し、人体モデルに視認確認させたい機器モデルの部品である視認対象パーツが人体モデルの視野範囲内に入っているか判定する。これにより、人体モデルの体格が変更された場合に、これに応じて、自動的に目標位置に合わせた操作姿勢を人体モデルにとらせた上で、人体モデルの視野範囲内に視認対象パーツが入っているかを判定できる。
これにより、視野画像上に表示された機器モデルの操作対象エリアについての視認性や可読性について判定することができる。また、人体モデルの体格毎に独立して各関節角度の設定を行うことなく、操作姿勢を計算することができる。従って、ある操作姿勢をとっている人体モデルの体格が変更された場合に、これに応じて、人体モデルの視野範囲がずれないように、操作姿勢を変更し、機器のレイアウトの検証を行うことができる。更に、機器の一連の操作における、機器モデルの操作対象エリアについての視認性や可読性を判定することができる。即ち、人体モデルにある操作姿勢をとらせ、続いて、次の操作姿勢を自動的にとらせ、このような処理に基づいて、一連の操作における機器モデルの操作対象エリアについての視認性や可読性の判定をすることができる。
以上のように、本発明によれば、3次元仮想空間内に配置された人体モデルを利用して、人体モデルに操作姿勢をとらせた上で、機器の操作をさえぎる物や視線をさえぎる物を確認することができる。従って、本発明によれば、人体モデルの体格を変更しても、自動的に目標位置に合わせた操作姿勢を人体モデルにとらせて、人体モデルの視点から見た機器モデル上の視認対象パーツについての視認性、可読性の判定を行うことができる。また、機器のレイアウトが変更されたときに、操作に最適な人体モデルの姿勢を維持することができ、また、種々の機器について、そのレイアウト検証をすることができる。
また、本発明の機器操作性評価装置は、人体モデルによる操作対象となる部品である目標パーツの情報を目標位置と対応付けて管理し、目標パーツの、前記目標パーツが対応付けられた目標位置に対する相対位置を一定に保ち、人体モデルの体格情報と、目標情報と、目標パーツの情報とに基づいて、目標位置を人体モデルの注視点として用いて、人体モデルが前記機器モデルを操作する時の姿勢である操作姿勢を算出する構成を採っても良い。当該構成を採る本発明によれば、目標パーツの位置が移動すると、目標パーツとの相対位置を一定に保つように、目標位置が変更される。従って、機器のレイアウトが変更されて、目標パーツの位置が移動した場合であっても、人体モデルに機器のレイアウト変更に合わせた操作姿勢を自動的にとらせることができる。
また、本発明の機器操作性評価装置は、人体モデルがとる操作姿勢毎に、操作姿勢を人体モデルがとる順番と、操作姿勢の算出に用いられる目標情報とを管理し、上記管理される、操作姿勢を人体モデルがとる順番に従って、人体モデルの操作姿勢を算出する。従って、本発明によれば、機器の操作目的を達するために必要な一連の操作における、機器モデル上の視認対象パーツについての視認性、可読性の判定を行うことができる。
図1は、本発明の機器操作性評価装置の構成の一例を示す図である。図1に示す機器操作性評価装置1は、3次元仮想空間内に配置された人体モデルの視野内にある機器モデルの操作対象エリアについての視認性、可読性の判定を行うことによって機器の操作性を評価する処理装置である。
機器操作性評価装置1は、入力部11、管理/設定部2、操作部3、評価部4、出力部22を備える。入力部11は、機器操作性評価装置1のユーザの指定入力に従って、機器操作性評価装置1に対する指示情報を入力する。入力部11は、例えば、管理/設定部2が管理する、機器の操作性の評価に必要な情報を指示情報として入力する。管理/設定部2は、機器の操作性の評価に必要な情報の設定と管理とを行う。管理/設定部2は、体格管理部12、目標管理部13、目標パーツ管理部14、視認管理部15、文字列設定部16、動作管理部17を備える。操作部3は、人体モデルの操作姿勢を算出し、機器モデルと算出された操作姿勢をもつ人体モデルとを3次元仮想空間内に配置するとともに、人体モデルの視点から3次元仮想空間を見た画像である視野画像を表示する。操作部3は、後述する姿勢計算部18、シミュレーション部19を備える。評価部4は、機器の操作性を評価する。評価部4は、後述する視野判定部20と動作判定部21とを備える。出力部22は、機器の操作性の評価結果を出力する。出力部22は、例えば、動作判定テーブル30内の記録内容を機器の操作性の評価結果として出力する。
体格管理部12は、体格管理テーブル23を備え、3次元仮想空間内に配置される人体モデルの体格情報を管理する。管理される体格情報は、体格管理テーブル23に格納されている。
目標管理部13は、目標管理テーブル24を備え、目標情報を管理する。管理される目標情報は、目標管理テーブル24に格納されている。目標管理部13は、例えば、3次元仮想空間内の人体モデルのコントロールポイントと、コントロールポイントを移動させたい目標位置とを目標情報として管理する。コントロールポイントは、例えば右手や左手などの人体部位が該当する。また、目標位置は、機器モデル上の操作位置である。
目標パーツ管理部14は、目標パーツ管理テーブル25を備え、目標パーツ情報を管理する。管理される目標パーツ情報は、目標パーツ管理テーブル25に格納されている。目標パーツ管理部14は、例えば、目標パーツと、目標位置からの目標パーツの相対位置とを目標パーツ情報として管理する。目標パーツとは、機器が備える部品のうち、操作対象となる部品である。従って、通常は、目標パーツは、目標位置近くに配置される。目標パーツとしては、例えば、カード挿入口等が該当する。
視認管理部15は、視認管理テーブル26を備え、視認情報を管理する。視認情報とは、機器モデルが備える部品のうち、人体モデルに視認確認させたい部品の情報である。管理される視認情報は、視認管理テーブル26に格納されている。視認管理部15は、例えば、機器モデルが備える部品のうち、人体モデルに視認確認させたい部品である視認対象パーツの情報を視認情報として管理する。即ち、視認管理部15は、人体モデルに視認確認させたい機器モデルの部品である視認対象パーツの情報を視認情報として管理する視認管理手段である。視認対象パーツの例としては、例えば、フリッカやラベル等が該当する。
文字列設定部16は、文字列設定テーブル27に、各々の視認対象パーツに付随する文字列の属性情報を設定する(格納する)。視認対象パーツに付随する文字列とは、例えば、視認対象パーツ上に表示又は貼付されている文字列や、機器モデル上における、視認対象パーツの周囲の領域に表示又は貼付されている文字列等が該当する。設定される文字列の属性情報は、例えば、視認対象パーツに表示されている文字列の位置、大きさ、色、文字線幅等の情報である。
動作管理部17は、動作管理テーブル28を備え、動作情報を管理する。管理される動作情報は、動作管理テーブル28に格納される。動作情報とは、操作目的を達成するために必要な一連の操作の情報である。動作情報は、例えば、人体モデルがとる操作姿勢毎の当該操作姿勢を人体モデルがとる順番と目標情報とからなる。即ち、動作管理部17は、人体モデルがとる操作姿勢毎に、操作姿勢を人体モデルがとる順番と、操作姿勢の算出に用いられる目標情報とを管理する操作姿勢管理手段である。なお、動作管理部17は、人体モデルがとる操作姿勢毎に、当該操作姿勢を人体モデルがとる順番と目標パーツ情報とを、動作情報として管理するようにしても良い。
また、動作管理部17は、人体モデルがとる操作姿勢毎に、当該操作姿勢を人体モデルがとる順番と、目標情報または目標パーツ情報と、視認情報とを動作情報として管理するようにしても良い。この場合、操作姿勢に対応する視認情報は、後述する姿勢計算部18による人体モデルの姿勢の計算の際に用いる、人体モデルに注視させる対象である視認対象パーツまたは人体モデルに視認確認させる対象である視認対象パーツの情報であっても良い。また、操作姿勢に対応する視認情報は、後述する視野判定部20による視野判定処理、視認判定処理、文字認識処理の対象とする視認対象パーツの情報であっても良い。
姿勢計算部18は、3次元仮想空間内において人体モデルにとらせる姿勢を計算する。姿勢計算部18は、例えば、体格管理テーブル23内の人体モデルの体格情報と、動作管理テーブル28内の動作情報と、目標管理テーブル24内の目標情報とに基づいて、上記体格情報に対応する体格を持つ人体モデルのコントロールポイントを目標位置に移動させ、かつ、目標位置を人体モデルに注視させるための人体モデルの姿勢を計算する。
なお、人体モデルに注視させる対象は、視認対象パーツでも良い。また、姿勢計算部18は、例えば、体格管理テーブル23内の人体モデルの体格情報と、動作管理テーブル28内の動作情報と、目標管理テーブル24内の目標情報と、視認管理テーブル26内の視認情報とに基づいて、上記体格情報に対応する体格を持つ人体モデルのコントロールポイントを目標位置に移動させ、目標位置を人体モデルに注視させるとともに、人体モデルに視認対象パーツを視認確認させるための人体モデルの姿勢を計算しても良い。
また、姿勢計算部18は、例えば、体格管理テーブル23内の人体モデルの体格情報と、動作管理テーブル28内の動作情報と、目標パーツ管理テーブル25内の目標パーツ情報と、目標管理テーブル24内の目標情報とに基づいて、上記体格情報に対応する体格を持つ人体モデルのコントロールポイントを、目標パーツから一定の相対位置にある目標位置に移動させ、かつ、目標位置を人体モデルに注視させるための人体モデルの姿勢を計算するようにしても良い。
なお、人体モデルに注視させる対象は、視認対象パーツでも良い。また、姿勢計算部18は、例えば、体格管理テーブル23内の人体モデルの体格情報と、動作管理テーブル28内の動作情報と、目標管理テーブル24内の目標情報と、視認管理テーブル26内の視認情報とに基づいて、上記体格情報に対応する体格を持つ人体モデルのコントロールポイントを目標パーツから一定の相対位置にある目標位置に移動させ、目標位置を人体モデルに注視させるとともに、人体モデルに視認対象パーツを視認確認させるための人体モデルの姿勢を計算しても良い。
例えば、姿勢計算部18は、操作対象である目標パーツの位置が変更されると、姿勢計算に用いる目標位置を、目標パーツとの相対位置が一定に保たれるように変更し、変更後の目標位置に人体モデルのコントロールポイントを移動させる姿勢を計算する。姿勢計算部18が目標パーツ情報を用いて人体モデルの姿勢を計算することにより、機器のレイアウトが変更された場合であっても、操作に最適な人体モデルの姿勢を維持することができる。
姿勢計算部18は、例えば、人体モデルの首関節、肩関節、肘関節、手首関節の角度、目の位置を姿勢情報として出力する。具体的には、姿勢計算部18は、例えば周知のインバースキネマティクス(IK)を用いた処理によって、前記姿勢の計算を行う。インバースキネマティクスとは、一般に、オブジェクトに親、子、孫というように階層構造を持たせ、その孫オブジェクトを動かすと上位の子、親オブジェクトが動くという機能をいう。なお、本発明の姿勢計算部18が姿勢の計算に用いる処理は、インバースキネマティクスに限定されるものではない。姿勢計算部18は、例えば周知のダイナミクスなどの処理を用いて姿勢の計算を行うようにしても良い。
シミュレーション部19は、3次元仮想空間内に、姿勢計算部18によって算出された操作姿勢をもつ人体モデルを機器モデルとともに配置する。また、シミュレーション部19は、図15を参照して後述するように、人体モデルの視点から3次元空間を見た画像である視野画像を表示する。なお、シミュレーション部19は、後述するように、例えば、3次元仮想空間内に配置される機器モデルに対して、例えばラジオシティ法等の周知の処理により、予め設定された光源から光を照射した場合の機器モデルの画像を生成する。
このために、シミュレーション部19は、人体モデル格納部31と機器モデル格納部32とを備える。人体モデル格納部31には、人体モデル情報が格納される。機器モデル格納部32には、機器モデル情報が格納される。人体モデル情報は、3次元仮想空間において標準的な(又は基準となる)体格の人体モデルを配置するための情報である。人体モデル情報を読み込むことにより、シミュレーション部19は、3次元仮想空間に標準的な体格の人体モデルを配置する。機器モデル情報は、3次元仮想空間において評価対象である当該機器モデルを配置するための情報である。機器モデル情報を読み込むことにより、シミュレーション部19は、3次元仮想空間に当該機器モデルを配置する。
視野判定部20は、視野画像上に表示された機器モデルの視認対象パーツが、人体モデルの視野範囲に入っているか、即ち、人体モデルが視認対象パーツを視認確認できるかを判定する視野判定を行う。即ち、視野判定部20は、人体モデルに視認確認させたい機器モデルの部品である視認対象パーツの情報を視認情報として管理する視認管理手段を用いて、人体モデルの視野範囲内に視認対象パーツが入っているか判定する視野判定手段である。また、視野判定部20は、視認判定部201、文字認識判定部202、次操作判定部203を備え、これらを呼び出して、後述する視認判定、文字認識判定、次操作判定を行う。即ち、視野判定部20は、視認対象パーツの情報を用いて、視野画像上に表示された機器モデルの視認対象パーツの視認性と、視認対象パーツに付随する文字列の可読性とを判定する視認性・可読性判定手段(第1の判定手段)である。
動作判定部21は、視野判定部20が行った判定結果に基づいて、人体モデルが行う一連の操作における機器の操作性を判定する。即ち、動作判定部21は、視野判定部20による判定結果に基づいて、機器の操作性を判定する操作性判定手段(第2の判定手段)である。動作判定部21は、動作判定テーブル30を備え、例えば、人体モデルの操作姿勢毎に、視野判定部20による判定結果と機器の操作性の判定結果とを動作判定テーブル30に記録する。従って、動作判定テーブル30は動作判定部21による判定結果を格納する。
視野判定部20内において、視認判定部201は、視野画像上における視認対象パーツを視認できるか(例えば、見え易いか)を判定する視認判定を行う。
視認判定部201による視認判定結果は、視野判定部20の備える視認判定管理テーブル29に記録される。文字認識判定部202は、視野画像内の視認対象パーツ上に表示された文字列の可読性を判定する文字認識判定を行う。文字認識判定結果は、文字列設定部16の備える文字列設定テーブル27に記録される。次操作判定部203は、視野画像における人体モデルの視野範囲に、次の操作の目標位置又は目標パーツが入っているかを判定する次操作判定を行う。
なお、機器操作性評価装置1はコンピュータからなり、その各部の機能は、当該CPUとその上で実行されるプログラムにより実現される。このプログラムは、コンピュータが読み取り可能な記録媒体、例えば半導体メモリ、ハードディスク、CD−ROM、DVD等に格納することができ、これらの記録媒体に記録して提供され、又は、通信インタフェースを介してネットワークを利用した送受信により提供される。
図2は、インバースキネマティクス(IK)を説明する図の例である。図2において、人体モデル100の各人体部位のうち、目標位置である点Pに移動させたい部位(以下、エンドエフェクタという)300は、コントロールポイントに相当する。また、301は固定部であり、θ1は人体モデル100の肩関節の角度を示している。
エンドエフェクタ300からそれぞれの親リンクをたどり、最後の固定部301までがインバースキネマティクスの計算範囲である。即ち、インバースキネマティクスは、人体モデル100のある姿勢(以下、前の姿勢という)からある姿勢(後の姿勢)を計算し、計算結果は、人体モデル100の各関節の角度である。姿勢の計算に利用されるのは、固定部301中の固定ポイント(図示を省略)の位置と、肩関節、肘関節、手首関節といった各関節の角度と、エンドエフェクタ300の位置と、前の姿勢である。姿勢を計算する対象が人体モデル100の場合は、腰を中心に四肢があるため、通常は腰に固定ポイントが置かれる。
エンドエフェクタ300が目標位置である点Pに移動した姿勢を人体モデル100が採っている場合を想定する。人体モデル100のサイズが変更されると腰の位置が変わるが、サイズ変更前の人体モデル100の固定ポイントをサイズ変更後の腰の位置に合わせると、エンドエフェクタ300の位置が点Pから離れてしまう。インバースキネマティクスを用いれば、固定ポイントと目標位置とを関連付けることによって、任意の人体タイプでもエンドエフェクタ300を目標位置である点Pに移動させる姿勢を計算することができる。
図3は、体格管理テーブルのデータ構成の一例を示す図である。体格管理テーブル23は、「人体タイプ」毎に、「身長」、「上腕」、「前腕」、「アクティブ」、「人体タイプID」等を、当該「人体タイプ」に対応付けて格納する。
「人体タイプ」は、体格管理テーブル23内に格納される人体の各値(例えば身長の値、上腕の長さの値、前腕の長さの値)のタイプを格納する。例えば、図3に示すように、「人体タイプ」には、日本人女性の5%タイル値を示す「日本人女性5%タイル値」や、北米男性の99%タイル値を示す「北米男性99%タイル値」といったタイプが格納される。「身長」は、「人体タイプ」に格納されたタイプに対応する身長の値を格納する。「上腕」は、「人体タイプ」に格納されたタイプに対応する上腕の長さの値を格納する。「前腕」は、「人体タイプ」に格納されたタイプに対応する前腕の長さの値を格納する。「アクティブ」は、どの人体タイプが選択されたかを示すフラグを設定する。例えば、ある人体タイプが選択されると、選択された人体タイプに対応する「アクティブ」に、当該人体タイプが選択されたことを示すフラグが立てられる。図3に示す体格管理テーブル23の例では、人体タイプとして日本人男性50%タイル値が選択されている。「人体タイプID」は、人体タイプを一意に識別する識別子を格納する。
図4は、目標管理テーブルのデータ構成の一例を示す図である。目標管理テーブル24は、「目標ID」毎に、「項」、「コントロールポイント」、「目標位置」等を、当該「目標ID」に対応付けて格納する。
「目標ID」は、目標情報を一意に識別する識別子を格納する。「項」は、目標管理テーブル24の各レコードの番号を格納する。レコードの番号は、目標管理テーブル24の行の番号である。レコードとは、目標管理テーブル24の各々の行(1行)を意味する(他のテーブルにおいても同じ)。「コントロールポイント」は、目標位置に移動させたい人体モデルの部位であるコントロールポイントの名称を格納する。「目標位置」は、目標位置の座標を格納する。格納される目標位置の座標は、例えば、人体モデルの基準となる位置である基準位置からの相対座標である。図4に示す目標管理テーブル24の例では、例えばT1という目標IDは、人体モデルの右手を(100,200,1000)という座標の目標位置に移動させるという目標情報を示している。
図5は、視認管理テーブルのデータ構成の一例を示す図である。視認管理テーブル26は、「視認ID」毎に、「項」、「視認対象パーツ1」、「視認対象パーツ2」等を、当該「視認ID」に対応付けて格納する。「視認ID」は、視認情報を一意に識別する識別子を格納する。「項」は、視認管理テーブル26の各レコードの番号を格納する。「視認対象パーツ1」、「視認対象パーツ2」は、人体モデルに視認確認させたい部品である視認対象パーツの名称を格納する。
図6は、目標パーツ管理テーブルのデータ構成の一例を示す図である。目標パーツ管理テーブル25は、「目標パーツID」毎に、「項」、「目標パーツ」、「目標ID」、「目標位置からの相対位置」等を、当該「目標パーツID」に対応付けて格納する。
「目標パーツID」は、目標パーツ情報を一意に識別する識別子を格納する。「項」は、目標パーツ管理テーブル25の各レコードの番号を格納する。「目標パーツ」は、目標パーツの名称を格納する。「目標ID」は、目標パーツと関連付けしたい目標位置に対応する目標IDを格納する。「目標位置からの相対位置」は、「目標パーツ」に格納された目標パーツの、「目標ID」に格納された目標IDに対応する目標位置からの相対座標を格納する。「目標位置からの相対位置」の設定によって、「目標パーツ」に格納された目標パーツが、「目標ID」に格納された目標IDが示す目標位置と関連付けられる。例えば、図6の目標パーツ管理テーブル25の最初のレコードに示すように、「目標パーツ」がC.part、「目標ID」がT1の場合、「目標位置からの相対位置」に格納された「(10,20,30)」は、C.partの、目標管理テーブル24におけるT1という目標IDに対応する目標位置「(100,200,1000)」からの相対座標を示している。
図7は、文字列設定テーブルのデータ構成の一例を示す図である。文字列設定テーブル27は、「視認ID」毎に、「項」、「位置X,Y」、「大きさ」、「文字列長」、「行間隔」、「文字線幅」、「文字色RGB」、「判定」等を、当該「視認ID」に対応付けて格納する。
「視認ID」は、文字認識判定の対象とする文字列が表示された視認対象パーツに対応する視認IDを格納する。「項」は、文字列設定テーブル27の各レコードの番号を格納する。「位置X,Y」は、当該「視認ID」に対応する視認対象パーツ上に表示された文字列の、視野画像上における座標を格納する。「大きさ」は、文字列の大きさ(例えば、ポイント数等)を格納する。「文字列長」は、文字列の長さを格納する。「行間隔」は、文字列の行間隔を格納する。「文字線幅」は、文字列を構成する文字の線幅を格納する。「文字色RGB」は、文字列の文字色(例えば、RGB値)を格納する。「判定」は、当該文字列についての、文字認識判定部202による文字認識判定の結果を格納する。RGB値とは、当該色を色の3原色(RGB)で現した場合において、そのR(赤)、G(緑)及びB(青)の各々の信号の階調の値(例えば、0〜255)である。
図8は、動作管理テーブルのデータ構成の一例を示す図である。動作管理テーブル28は、「順番」毎に、「項」、「目標ID」、「視認ID1」、「視認ID2」、「視認ID3」等を、当該「順番」に対応付けて格納する。
動作管理テーブル28の各レコードは、一連の操作を行う人体モデルの各操作姿勢に対応している。「順番」は、人体モデルに各操作姿勢をとらせる順番を格納する。「項」は、動作管理テーブル28の各レコードの番号を格納する。「目標ID」は、各操作姿勢に対応する目標IDを格納する。「視認ID1」〜「視認ID3」は、各操作姿勢に対応する視認IDを格納する。
例えば、図8に示す動作管理テーブル28の最初のレコードは、「目標ID」がT1、「視認ID1」がS1、「視認ID2」がS2である。また、図4に示す目標管理テーブル24を見ると、T1という目標IDに対応するコントロールポイントは右手で、目標位置は(100,200,1000)という座標である。また、図5に示す視認管理テーブル26を見ると、S1という視認IDに対応する視認対象パーツはA.partとC.partであり、S2という視認IDに対応する視認対象パーツはB.partである。従って、図8に示す動作管理テーブル28の最初のレコードは、例えば、人体モデルの右手と注視点を座標(100,200,1000)に移動させ、人体モデルにA.partとC.partとB.partを視認確認させる操作姿勢に対応している。
図9は、視認判定管理テーブルのデータ構成の一例を示す図である。視認判定管理テーブル29は、「視認ID」毎に、「項」、「視認パーツ色RGB」、「抽出した背景色RGB」、「明度差」、「色差」、「文字列の有無」、「判定」等を、当該「視認ID」に対応付けて格納する。
「視認ID」は、視認判定部201による視認判定処理の対象とする視認対象パーツに対応する視認IDを格納する。「項」は、視認判定管理テーブル29の各レコードの番号を格納する。「視認パーツ色RGB」は、当該「視認ID」に対応する視認対象パーツの色情報(例えば、RGB値)を格納する。「抽出した背景色RGB」は、当該「視認ID」に対応する視認対象パーツの、視野画像における背景エリアの色情報(例えば、RGB値)を格納する。「明度差」は、視認対象パーツと当該視認対象パーツの背景エリアとの明度差が所定の閾値以上か否かを格納する。例えば、「明度差」には、明度差が125以上か否かを示す情報が格納される。「色差」は、視認対象パーツと当該視認対象パーツの背景エリアとの色差が所定の閾値以上か否かを格納する。例えば、「色差」には、色差が500以上か否かを示す情報が格納される。「文字列の有無」は、当該「視認ID」に対応する視認対象パーツに文字列が表示されているか否かを格納する。「判定」は、当該「視認ID」に対応する視認対象パーツについての、視認判定部201による視認判定結果を格納する。
図10は、動作判定テーブルのデータ構成の一例を示す図である。動作判定テーブル30は、「人体タイプ」毎に、「項」、「順番」、「視野対象」、「視野判定結果」、「視認判定結果」、「文字認識判定結果」、「次操作判定結果」、「操作性判定結果」等を、当該「人体タイプ」に対応付けて格納する。
「項」は、動作判定テーブル30の各レコードの番号を格納する。「人体タイプ」は、機器モデルを操作する人体タイプに対応する人体タイプIDを格納する。「順番」は、人体モデルの操作姿勢の順番を格納する。「視野対象」は、視野判定処理、視認判定処理、文字認識判定処理の対象となった視認対象パーツの視認IDを格納する。即ち、「視野対象」には、「順番」に格納した順番を持つ操作姿勢に対応する視認IDが格納される。例えば、最初の順番に対応する「視野対象」には、図8に示す動作管理テーブル28の最初のレコードに格納したS1とS2という視認IDが格納される。「視野判定結果」は、視野判定部20による視野判定結果を格納する。「視認判定結果」は、視認判定部201による視認判定結果を格納する。「文字認識判定結果」は、文字認識判定部202による文字認識判定結果を格納する。「次操作判定結果」は、次操作判定部203による次操作判定結果を、当該「順番」に対応付けて格納する。「操作性判定結果」には、動作判定部21による機器の操作性の判定結果を、当該「順番」に対応付けて格納する。
以下、人体タイプが変更された場合の人体モデルの操作姿勢の変更について、図11を参照して説明する。
図11(A)は、人体タイプの変更前の人体モデルがとる操作姿勢の例を示し、図11(B)は、人体タイプが変更された場合の人体モデルがとる操作姿勢の例を示す。図11(A)及び図11(B)において、点Pは、目標管理テーブル24において設定された人体モデル100の目標位置、302は目標パーツ管理テーブル25において設定された目標パーツ、303〜305は、視認管理テーブル26において設定された視認対象パーツである。目標パーツ管理部14によって、目標パーツ302の、目標位置である点Pに対する相対位置は一定に保たれている。
例えば、姿勢計算部18は、体格管理テーブル23から選択された人体タイプに対応する体格情報と、目標管理テーブル24に設定された目標情報と、目標パーツ管理テーブル25に設定された目標パーツ情報とに基づいて、コントロールポイントである人体モデル100の右手と注視点を、目標パーツ302から一定の相対位置にある点Pに移動させるための姿勢を算出する。
本発明の実施の形態においては、姿勢計算部18は、体格管理テーブル23から選択された人体タイプに対応する体格情報と、目標管理テーブル24に設定された目標情報と、目標パーツ管理テーブル25に設定された目標パーツ情報と、視認管理テーブル26に設定された視認情報とに基づいて、コントロールポイントである人体モデル100の右手と注視点を、目標パーツ302から一定の相対位置にある点Pに移動させ、かつ、人体モデル100に視認対象パーツ303〜305を視認確認させるための姿勢を算出してもよい。算出された姿勢情報に基づいて、シミュレーション部19は、3次元仮想空間内において、人体モデル100に、図11(A)に示すような姿勢をとらせる。
人体モデル100の人体タイプが変更されると、シミュレーション部19は、体格管理テーブル23内の、変更後の人体タイプに対応する体格情報に基づいて、人体モデル100の体格を変更する。姿勢計算部18は、変更後の体格を持つ人体モデル100のコントロールポイントである右手が点Pに移動した姿勢を算出し、シミュレーション部19は、3次元仮想空間内において、変更後の体格を持つ人体モデル100に、図11(B)に示すような姿勢をとらせる。
図12は、機器モデルのレイアウトが変更された場合の、人体モデルの操作姿勢を示す図である。
例えば、図11(A)に示す機器モデル101のレイアウトが変更され、図12に示す機器モデル101のレイアウトのように、操作対象である目標パーツ302の位置が図11(A)中の目標パーツ302の位置より下方に移動した場合を想定する。
姿勢計算部18は、目標パーツ管理テーブル25に設定されている、目標パーツ302と目標位置との相対位置が一定に保たれるように、目標パーツ302に関連付けられている目標位置の座標を変更する。例えば、図11(A)における目標位置である点Pの座標が、図12における点Rの座標に変更される。姿勢計算部18は、コントロールポイントである人体モデル100の右手と注視点を、位置が変更した目標パーツ302から一定の相対位置にある点Rに移動させるための姿勢を算出する。本発明の実施の形態においては、姿勢計算部18は、コントロールポイントである人体モデル100の右手と注視点を、位置が変更した目標パーツ302から一定の相対位置にある点Rに移動させ、かつ、人体モデル100に視認対象パーツ303〜305を視認確認させるための姿勢を算出してもよい。算出された姿勢情報に基づいて、シミュレーション部19は、3次元仮想空間内において、人体モデル100に、図12に示すような姿勢をとらせる。
図13及び図14は、本発明の機器操作性評価装置1が実行する機器操作性評価処理フローの一例を示す図であり、一体となって当該処理フローを示す。
図13において、シミュレーション部19が、機器操作性評価装置1のユーザの指定入力に従って、機器モデル格納部32から、操作性の評価対象となる機器モデルを呼び出す(ステップS1)。例えば、シミュレーション部19は、ATMのモデルを呼び出す。
次に、シミュレーション部19が、体格管理テーブル23から任意の人体タイプを選択し、選択された人体タイプの体格に対応する人体モデルを人体モデル格納部31から抽出し、抽出した人体モデルを、ステップS1において呼び出された機器モデルとともに3次元仮想空間内に配置する(ステップS2)。
次に、目標管理部13が、ユーザの指定入力に従って、目標管理テーブル24にコントロールポイントと目標位置とを設定する(ステップS3)。目標管理部13(又は目標パーツ管理部14)が、設定された目標位置に関連する目標パーツがあるか否かを調べる(ステップS4)。目標パーツがある場合には、目標パーツ管理部14が、ユーザの指定入力に従って、目標パーツ管理テーブル25に、目標パーツを目標位置と関連付けて設定する(ステップS5)。例えば、目標パーツ管理テーブル25に、目標IDと関連付けて目標パーツの名称と目標位置からの相対位置とが設定される。目標位置に関連する目標パーツがない場合には、ステップS5は省略される。
次に、目標管理部13(又は視認管理部15)が、視認対象パーツがあるか否かを調べる(ステップS6)。視認対象パーツがある場合には、視認管理部15が、ユーザの指定入力に従って、視認管理テーブル26に視認対象パーツを設定する(ステップS7)。この後、目標管理部13(又は文字列設定部16)が、ステップS7で設定した視認対象パーツに文字列がある(含む)か否かを調べる(ステップS8)。文字列がある場合には、文字列設定部16が、ユーザの指定入力に従って、文字列設定テーブル27に文字列の属性を設定する(ステップS9)。当該視認対象パーツに文字列がない場合には、ステップS9は省略される。ステップS6において視認パーツがない場合には、ステップS7〜S9は省略される。
次に、動作管理部17が、ユーザの指定入力に従って、動作管理テーブル28に動作情報を設定する(ステップS10)。例えば、動作管理部17は、人体モデルがとる操作姿勢毎に、当該操作姿勢を人体モデルがとる順番、目標ID、(複数の)視認IDを動作管理テーブル28に設定する。この後、目標管理部13が、人体モデルにとらせたい次の操作姿勢があるか否かを調べる(ステップS11)。次の操作姿勢がある場合には、ステップS3以下が繰り返される。次の操作姿勢がない場合(全ての操作姿勢について動作情報を設定し終わった場合)には、図14のステップS12が実行される。
次に、図14において、姿勢計算部18が、動作管理テーブル28に格納された動作情報に基づいて、人体モデルにとらせる姿勢を算出する(ステップS12)。例えば、図8に示す動作管理テーブル28には、最初に人体モデルにとらせる操作姿勢に対応して、T1という目標IDとS1、S2という視認IDが設定されている。また、図4に示す目標管理テーブル24を見ると、T1という目標IDに対応して、右手というコントロールポイントと(100,200,1000)という座標を持つ目標位置が設定されている。そこで、姿勢計算部18は、例えば、人体モデルの右手を(100,200,1000)という座標に移動させるための人体モデルの姿勢を算出する。
次に、シミュレーション部19が、姿勢計算部18によって算出された姿勢情報に基づいて、人体モデルに操作姿勢をとらせるとともに、人体モデルの視点から3次元仮想空間を見た画像である視野画像を表示する(ステップS13)。ステップS13の処理によって、例えば、図15に示すような視野画像が表示される。図15において、点Aは、人体モデルの現在の操作姿勢における目標位置、点Bは次の操作姿勢における目標位置、フリッカ103、ラベル104、105は、現在の操作姿勢における、機器モデル101の視認対象パーツである。ここで、図5に示す視認管理テーブル26を見ると、S1という視認IDに対応して、A.partとC.partという視認対象パーツが設定され、S2という視認IDに対応して、B.partという視認対象パーツが設定されている。従って、例えば、A.part、B.part、C.partは、図15に示される視認対象パーツであるフリッカ103、ラベル104、105に対応する。
また、例えば、現在の操作姿勢が人体モデルがとる最初の操作姿勢であるとすると、図8に示す動作管理テーブル28に設定されている、2番目の操作姿勢に対応するT3という目標IDが、点Bの座標を示している。また、図15に示す視野画像に示されている楕円は、人体モデルの視野範囲である。
次に、視野判定部20が、視野判定処理を行う(ステップS14)。例えば、視野判定部20は、図15中のフリッカ103とラベル104、105が人体モデルの視野範囲に入っているか否かを判定する。
次に、視認判定部201が視認判定処理を行う(ステップS15)。例えば、視認判定部201は、図15中の視認対象パーツであるフリッカ103が視認できるか(見え易いか)否かを、以下の処理によって判定する。
即ち、視認判定部201は、図15に示す視野画像から、フリッカ103の輪郭を抽出して、図16(A)に示すようなバンディングボックスを作成する。そして、視認判定部201は、図16(A)に示すバンディングボックスを、バンディングボックス内のフリッカ103が描画されている任意の点を中心に1.1倍にした拡大画像を作成する。作成された拡大画像を図16(B)に示す。視認判定部201は、図16(C)に示すように、図16(A)のバンディングボックスと図16(B)の拡大画像とを重ねる。図16(C)中の斜線部は、拡大画像とバンディングボックスとが重ならない領域である。
また、視認判定部201は、例えば、図16(C)中の斜線部の領域についての、図15に示す視野画像における画素の色(フリッカ103の背景エリアの色)と、拡大画像における画素の色(即ち、視認対象パーツであるフリッカ103の色)とを比較する。また、視認判定部201は、例えば、図16(C)中の斜線部の領域について、図15に示す視野画像における画素の明度(背景エリアについての明度)と、拡大画像における画素との明度(即ち、視認対象パーツであるフリッカ103についての明度)とを比較する。
視認判定部201は、まず、フリッカ103の色と背景エリアの色とを抽出して、抽出したフリッカ103の色のRGB値、背景エリアの色のRGB値を、それぞれ、図9に示す視認判定管理テーブル29の「視認パーツ色RGB」、「抽出した背景色RGB」に格納する。そして、視認判定部201は、例えば、フリッカ103の色のRGB値と背景エリアの色のRGB値を比較して、大きい方のR値、G値、B値をそれぞれmaxR、maxG、maxB、小さい方のR値、G値、B値をそれぞれminR、minG、minBとし、下記の式によって色差X1を算出する。
X1=(maxR−minR)+(maxG−minG)+(maxB−minB)
また、視認判定部201は、抽出したフリッカ103の色のRGB値を用いて下記の式によって求まる値と、抽出した背景エリアの色のRGB値を用いて下記の式によって求まる値との差の値を明度差X2とする。
((R×299)+(G×587)+(B×114))/1000
視認判定部201は、例えば、算出した色差X1が、予め定めた閾値(例えば500)以上であり、かつ、算出した明度差X2が、予め定めた閾値(例えば125)以上であれば、視認対象パーツは見え易いと判断して、視認判定をOKとする(W3C Techniques For Accessibility Evaluation And Repair Tools Checkpoint2.2参照)。視認判定部201は、算出した色差X1が予め定めた閾値(例えば500)より小さいか、又は、算出した明度差X2が予め定めた閾値(例えば125)より小さい場合には、視認判定をNGとする。なお、視認判定部201は、色差X1と予め定めた閾値との比較結果又は明度差X2と予め定めた閾値との比較結果に基づいて、視認対象パーツについての視認判定を行ってもよい。
視認判定部201は、視認判定結果を視認判定管理テーブル29に格納する。なお、上記ステップS15において、視認判定部201は、更に、視認対象パーツに文字列があるか否かを視認判定管理テーブル29に格納するようにしても良い。
次に、文字認識判定部202が、文字認識判定処理を行う(ステップS16)。例えば、文字認識判定部202は、図15に示す視認対象パーツであるラベル104に表示された「カード」という文字列が読めるか否かを、以下の処理によって判定する。
即ち、文字認識判定部202は、例えば、予め機器モデル格納部32に格納された、現在3次元仮想空間内に配置されている機器モデルのデータから、図17(A)に示すような、文字列「カード」が表示されているラベル104の画像を抽出する。そして、文字認識判定部202は、文字列設定テーブル27に設定されている、ラベル104についての文字列「カード」の属性情報に基づいて、文字列「カード」の画像を代替する仮想的な画像である代替画像を作成する。図17(B)に示す長方形の輪郭線の画像が代替画像である。代替画像を構成する長方形の縦の長さは、文字列設定テーブル27に設定されている文字列「カード」の大きさに応じた長さとし、長方形の横の長さは、文字列「カード」の文字列長に応じた長さとし、長方形の輪郭線の線幅は、文字列「カード」の文字線幅に応じた線幅とし、長方形の輪郭線の色は、文字列「カード」の文字色と同じ色とする。文字認識判定部202は、図17(B)に示す画像から、図17(C)に示すように、代替画像の背景の色が図15中の機器モデル101の地色である画像を作成する。
次に、文字認識判定部202は、図17(D)に示すように、3次元仮想空間内において、現在図15に示すラベル104を見ている人体モデルの視線の方向と同一の方向から図17(C)に示す画像を見たときの画像を作成する。図17(D)に示される代替画像は、人体モデルの視線の方向に応じて歪んでいる。また、文字認識判定部202は、図17(E)に示すように、図17(D)に示す画像に対して予め設定された光源から光を照射した場合の画像を取得する。この画像は、シミュレーション部19によって作成される。図17(E)に示される代替画像は、照射された光の影響によって、右側の領域が見えなくなっている。
文字認識判定部202は、図17(D)に示される代替画像と、図17(E)に示される代替画像とを比較して、ラベル104に表示されている文字列「カード」の可読範囲を算出する。算出される文字列「カード」の可読範囲は、例えば、図17(F)に示す画像中の網かけ部分である。文字認識判定部202は、算出した文字列「カード」の可読範囲が予め定めた閾値以下の場合には、文字列「カード」についての文字認識判定をNGとする。文字認識判定部202は、算出した文字列「カード」の可読範囲が予め定めた閾値より大きい場合には、文字列「カード」についての文字認識判定をOKとする。
上述した文字認識判定処理によれば、操作性の評価対象となる機器の視認対象パーツに光が当たっている場合の、視認対象パーツ上に表示された文字列の可読性を判定することができる。また、図17(D)に示される代替画像に対して光を照射する方向を変更して、文字列「カード」についての文字認識判定処理を行うことによって、例えば、機器の視認対象パーツに対してどの方向から光が当たっているときに、視認対象パーツ上に表示された文字列の可読性が悪いかを判断することができる。
なお、文字認識判定部202は、更に、3次元仮想空間内に配置された人体モデルの目から視認対象パーツまでの実際の距離Mと、代替画像の輪郭線の実際の線幅Xと、予め設定された人体モデルの視力Aと、人体モデルから視認対象パーツを見たときの視線の方向θとに基づいて、文字列「カード」が読み易いか否かを判定するようにしても良い。
例えば、文字認識判定部202は、視力Aの人体モデルから線幅X×sinθの代替画像の輪郭線が見えなくなる時の、人体モデルと文字列「カード」の代替画像までの距離Hを算出する。X×sinθは、操作姿勢をとっている人体モデルから見える代替画像の輪郭線の線幅であり、例えば、図17(D)に示される代替画像の輪郭線の線幅に相当する。距離Hの算出には、例えば、ランドルト環による視力検査の原理を利用する。ランドルト環による視力検査の原理を用いると、例えば、距離Hは、H=2(X×sinθ)×A/(2π/360/60)という式により算出される。
そして、文字認識判定部202は、距離Mの値が距離Hの値より大きい場合には、代替画像が見えにくいと判断して、文字列「カード」が表示されているラベル104についての文字認識判定をNGとする。文字認識判定部202は、距離Mの値が距離Hの値以下の場合には、文字列「カード」が表示されているラベル104についての文字認識判定をOKとする。上記の文字認識判定処理によって、例えば、文字列「カード」が表示されているラベル104についての文字認識判定がNGとなった場合は、文字列設定テーブル27に設定された文字列「カード」の大きさでは、当該文字列が読みにくいと判断できる。
即ち、上述した文字認識判定処理によれば、操作性の評価対象となる機器の視認対象パーツに表示させる文字列が人体モデルの視点から可読できる大きさなのか否かを、人体モデルの操作姿勢毎に検証することができる。
次に、目標管理部13(又は姿勢計算部18又は視野判定部20)が、人体モデルにとらせる次の操作姿勢があるか否かを調べる(ステップS17)。次の操作姿勢がある場合には、次操作判定部203が次操作判定処理を行った後(ステップS18)、ステップS12以下が繰り返される。ステップS18において、次操作判定部203は、動作管理テーブル28を参照して、人体モデルにとらせる次の操作姿勢に対応する目標IDを特定し、目標管理テーブル24を参照して、当該目標IDに対応する目標位置を特定する。そして、次操作判定部203は、特定した目標位置が現在の人体モデルの視野範囲に入っている場合は、次操作判定をOKとする。例えば、図15に示す視野画像上では、次の目標位置である点Bが、楕円で示される現在の視野範囲に入っているため、次操作判定はOKとされる。上記ステップS18の次操作判定処理によって、機器上に機器の操作の流れを誘導する表示や合図がされているかを検証することができる。
ステップS17において人体モデルにとらせる次の操作姿勢がない場合は、動作判定部21が、視野判定結果、視認判定結果、文字認識判定結果、次操作判定結果に基づいて、人体モデルが行う一連の操作における機器の操作性を判定する(ステップS19)。動作判定部21は、例えば、人体モデルの操作姿勢毎に、視野判定結果、視認判定結果、文字認識判定結果、次操作判定結果と、機器の操作性の判定結果とを、動作判定テーブル30内に記録する。
この後、目標管理部13(又は姿勢計算部18又は視野判定部20)が、体格管理テーブル23から選択されていない人体タイプがあるか否かを調べる(ステップS20)。選択されていない人体タイプがある(全ての人体タイプについての処理が終了していない)場合には、姿勢計算部18が体格管理テーブル23内の他の人体タイプを選択した後(ステップS21)、ステップS12以下が繰り返される。選択されていない人体タイプがない(全ての人体タイプについての処理が終了している)場合には、出力部22が、機器の操作性の判定結果を出力する(ステップS22)。例えば、出力部22は、動作判定テーブル30の記録内容を出力する。
以上のように、この例によれば、例えば、人体モデルに、図18に示す、カードの挿入、取引内容の選択、通帳の挿入、金額の入力、暗証番号の入力という一連の操作を行う姿勢を順次とらせた上で、各操作姿勢における、視野判定処理、視認判定処理、文字認識判定処理、次操作判定処理を行うことができる。特に、本発明の実施の形態においては、動作管理テーブル28に設定されている、人体モデルに操作姿勢をとらせる順番を変更するだけで、人体モデルがとる操作姿勢の順番を入れ換えることができ、入れ換えた順番に従って人体モデルがとる操作姿勢毎に、上記の視野判定処理、視認判定処理、文字認識判定処理、次操作判定処理を自動的に行うことができる。
以上から把握できるように、本発明の実施形態の特徴を述べると以下の通りである。
(付記1)機器の操作性を評価する装置であって、
人体の形状を模倣した人体モデルの体格情報を管理する体格管理手段と、
前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する目標管理手段と、
前記体格管理手段によって管理される前記人体モデルの体格情報と、前記目標管理手段によって管理される目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出する姿勢計算手段と、
前記機器モデルと前記姿勢計算手段によって算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示するシミュレーション手段と、
前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する視野判定手段とを備える
ことを特徴とする機器操作性評価装置。
(付記2)付記1に記載の機器操作性評価装置が、更に、
前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を視認情報として管理する視認管理手段を備える
ことを特徴とする機器操作性評価装置。
(付記3)付記1に記載の機器操作性評価装置が、更に、
前記視認対象パーツの情報を用いて、前記視野画像上に表示された前記機器モデルの視認対象パーツの視認性と、前記視認対象パーツに付随する文字列の可読性とを判定する第1の判定手段と、
前記第1の判定手段による判定結果に基づいて、前記機器の操作性を判定する第2の判定手段とを備える
ことを特徴とする機器操作性評価装置。
(付記4)付記3に記載の機器操作性評価装置において、
前記第1の判定手段が、前記視野画像上に表示された前記視認対象パーツの色と前記視野画像上における前記視認対象パーツの背景領域の色との差、又は、前記視野画像上に表示された前記視認対象パーツについての明度と前記視野画像上における前記視認対象パーツの背景領域についての明度との差に基づいて、前記視認対象パーツが視認できるか否かの視認判定を行う
ことを特徴とする機器操作性評価装置。
(付記5)付記3に記載の機器操作性評価装置が、更に、
前記視認対象パーツに付随する文字列の属性情報を設定する文字列設定手段を備え、
前記第1の判定手段が、前記設定された視認対象パーツに付随する文字列の属性情報と、前記人体モデルの前記文字列に対する視線の方向の情報と、予め設定された前記人体モデルの視力の情報とに基づいて、前記設定された視力の人体モデルが前記文字列を視認できる距離を算出し、算出された前記文字列を視認できる距離と前記3次元仮想空間内における前記人体モデルと前記文字列との間の実際の距離との比較結果に基づいて、前記文字列についての可読性を判定する
ことを特徴とする機器操作性評価装置。
(付記6)付記1に記載の機器操作性評価装置において、
前記姿勢計算手段は、前記人体モデルの体格情報に対応する体格を持つ人体モデルの前記目標情報として管理されている人体部位を前記目標位置に移動させる姿勢であって、かつ、前記人体モデルに前記視認対象パーツを視認確認させる姿勢を算出する
ことを特徴とする機器操作性評価装置。
(付記7)付記1に記載の機器操作性評価装置が、更に、
前記人体モデルによる操作対象となる部品である目標パーツの情報を前記目標管理手段によって管理される目標位置と対応付けて管理する目標パーツ管理手段を備え、
前記目標パーツ管理手段が、前記目標パーツの、前記目標パーツが対応付けられた目標位置に対する相対位置を一定に保ち、
前記姿勢計算手段が、前記体格管理手段によって管理される前記人体モデルの体格情報と、前記目標管理手段によって管理される目標情報と、前記目標パーツ管理手段によって管理される目標パーツの情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器モデルを操作する時の姿勢である操作姿勢を算出する
ことを特徴とする機器操作性評価装置。
(付記8)付記7に記載の機器操作性評価装置において、
前記姿勢計算手段が、前記人体モデルの体格情報に対応する体格を持つ人体モデルの前記目標情報として管理されている人体部位を前記目標パーツに対応する目標位置に移動させ、かつ、前記人体モデルに前記視認対象パーツを視認確認させる姿勢を算出する
ことを特徴とする機器操作性評価装置。
(付記9)付記1に記載の機器操作性評価装置が、更に、
前記人体モデルがとる操作姿勢毎に、前記操作姿勢を前記人体モデルがとる順番と、前記操作姿勢の算出に用いられる目標情報を管理する操作姿勢管理手段を備え、
前記姿勢計算手段が、前記操作姿勢管理手段によって管理される、前記操作姿勢を前記人体モデルがとる順番に従って、前記人体モデルの操作姿勢を算出する
ことを特徴とする機器操作性評価装置。
(付記10)付記9に記載の機器操作性評価装置において、
前記第1の判定手段が、前記人体モデルがとる操作姿勢毎に、前記人体モデルの視野範囲に、前記人体モデルがとる次の操作姿勢の算出に用いられる目標位置が入っているか否かを判定する
ことを特徴とする機器操作性評価装置。
(付記11)付記1に記載の機器操作性評価装置において、
前記視野判定手段が、前記人体モデルがとる操作姿勢毎に、前記人体モデルの視野範囲に前記視認対象パーツが入っているかを判定する
ことを特徴とする機器操作性評価装置。
(付記12)機器操作性評価装置を用いて機器の操作性を評価する方法であって、
人体の形状を模倣した人体モデルの体格情報を管理し、
前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理し、
前記人体モデルの体格情報と、前記目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出し、
前記機器モデルと前記算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示し、
前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する
ことを特徴とする機器操作性評価方法。
(付記13)機器操作性評価装置をコンピュータ上で実現するためのプログラムであって、
コンピュータに、
人体の形状を模倣した人体モデルの体格情報を管理する処理と、
前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する処理と、
前記人体モデルの体格情報と、前記目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出する処理と、
前記機器モデルと前記算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示する処理と、
前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する処理とを実行させる
ことを特徴とする機器操作性評価プログラム。
(付記14)機器操作性評価装置をコンピュータ上で実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
コンピュータに、
人体の形状を模倣した人体モデルの体格情報を管理する処理と、
前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する処理と、
前記人体モデルの体格情報と、前記目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出する処理と、
前記機器モデルと前記算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示する処理と、
前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する処理とを実行させる
ことを特徴とする機器操作性評価プログラムを記録した記録媒体。
以上、説明したように、本発明によれば、機器操作性評価装置、方法及びそのプログラムにおいて、人体モデルの体格を変更しても、自動的に目標位置に合わせた操作姿勢を人体モデルにとらせて、人体モデルの視点から見た機器モデル上の視認対象パーツについての視認性、可読性の判定を行うことができる。
また、本発明によれば、機器操作性評価装置において、目標パーツの位置が移動すると、予め設定された目標パーツとの相対位置が保たれるように目標位置が変更される。従って、機器のレイアウトが変更されて、目標パーツの位置が移動した場合であっても、人体モデルに機器のレイアウト変更に合わせた操作姿勢を自動的にとらせることができる。
また、本発明によれば、機器操作性評価装置において、機器の操作目的を達するために必要な一連の操作における、機器モデル上の視認対象パーツについての視認性、可読性の判定を行うことができる。
本発明の機器操作性評価装置の構成の一例を示す図である。 インバースキネマティクス(IK)を説明する図の例である。 体格管理テーブルのデータ構成の一例を示す図である。 目標管理テーブルのデータ構成の一例を示す図である。 視認管理テーブルのデータ構成の一例を示す図である。 目標パーツ管理テーブルのデータ構成の一例を示す図である。 文字列設定テーブルのデータ構成の一例を示す図である。 動作管理テーブルのデータ構成の一例を示す図である。 視認判定管理テーブルのデータ構成の一例を示す図である。 動作判定テーブルのデータ構成の一例を示す図である。 人体タイプが変更された場合の人体モデルの操作姿勢の変更について説明する図である。 機器モデルのレイアウトが変更された場合の、人体モデルの操作姿勢を示す図である。 機器操作性評価フローの一例を示す図である。 機器操作性評価フローの一例を示す図である。 視野画像の一例を示す図である。 視認判定処理を説明する図である。 文字認識判定処理を説明する図である。 人体モデルが行う一連の操作の例である。 3次元仮想空間内に配置される人体モデルと機器モデルを示す図である。 人体モデルの操作姿勢の一例である。
符号の説明
11 入力部
12 体格管理部
13 目標管理部
14 目標パーツ管理部
15 視認管理部
16 文字列設定部
17 動作管理部
18 姿勢計算部
19 シミュレーション部
20 視野判定部
21 動作判定部
22 出力部
23 体格管理テーブル
24 目標管理テーブル
25 目標パーツ管理テーブル
26 視認管理テーブル
27 文字列設定テーブル
28 動作管理テーブル
29 視認判定管理テーブル
30 動作判定テーブル
31 人体モデル格納部
32 機器モデル格納部

Claims (5)

  1. 機器の操作性を評価する装置であって、
    人体の形状を模倣した人体モデルの体格情報を管理する体格管理手段と、
    前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する目標管理手段と、
    前記体格管理手段によって管理される前記人体モデルの体格情報と、前記目標管理手段によって管理される目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出する姿勢計算手段と、
    前記機器モデルと前記姿勢計算手段によって算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示するシミュレーション手段と、
    前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する視野判定手段とを備える
    ことを特徴とする機器操作性評価装置。
  2. 請求項1に記載の機器操作性評価装置が、更に、
    前記視認対象パーツの情報を用いて、前記視野画像上に表示された前記機器モデルの視認対象パーツの視認性と、前記視認対象パーツに付随する文字列の可読性とを判定する第1の判定手段と、
    前記第1の判定手段による判定結果に基づいて、前記機器の操作性を判定する第2の判定手段とを備える
    ことを特徴とする機器操作性評価装置。
  3. 請求項1に記載の機器操作性評価装置が、更に、
    前記人体モデルがとる操作姿勢毎に、前記操作姿勢を前記人体モデルがとる順番と、前記操作姿勢の算出に用いられる目標情報を管理する操作姿勢管理手段を備え、
    前記姿勢計算手段が、前記操作姿勢管理手段によって管理される、前記操作姿勢を前記人体モデルがとる順番に従って、前記人体モデルの操作姿勢を算出する
    ことを特徴とする機器操作性評価装置。
  4. 機器操作性評価装置を用いて機器の操作性を評価する方法であって、
    人体の形状を模倣した人体モデルの体格情報を管理し、
    前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理し、
    前記人体モデルの体格情報と、前記目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出し、
    前記機器モデルと前記算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示し、
    前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する
    ことを特徴とする機器操作性評価方法。
  5. 機器操作性評価装置をコンピュータ上で実現するためのプログラムであって、
    コンピュータに、
    人体の形状を模倣した人体モデルの体格情報を管理する処理と、
    前記人体モデルの人体部位と、前記人体部位を移動させたい目標位置とを目標情報として管理する処理と、
    前記人体モデルの体格情報と、前記目標情報とに基づいて、前記目標位置を前記人体モデルの注視点として用いて、前記人体モデルが前記機器の形状を模倣した機器モデルを操作する時の姿勢である操作姿勢を算出する処理と、
    前記機器モデルと前記算出された操作姿勢をとる前記人体モデルとを3次元仮想空間内に配置するとともに、前記操作姿勢をとる人体モデルの視点から前記3次元仮想空間を見た画像である視野画像を表示する処理と、
    前記人体モデルに視認確認させたい前記機器モデルの部品である視認対象パーツの情報を用いて、前記人体モデルの視野範囲内に前記視認対象パーツが入っているかを判定する処理とを実行させる
    ことを特徴とする機器操作性評価プログラム。
JP2006001301A 2006-01-06 2006-01-06 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム Expired - Fee Related JP4745831B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006001301A JP4745831B2 (ja) 2006-01-06 2006-01-06 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
US11/510,655 US7533001B2 (en) 2006-01-06 2006-08-28 Apparatus and method for evaluating equipment operability

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006001301A JP4745831B2 (ja) 2006-01-06 2006-01-06 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム

Publications (2)

Publication Number Publication Date
JP2007183792A true JP2007183792A (ja) 2007-07-19
JP4745831B2 JP4745831B2 (ja) 2011-08-10

Family

ID=38233771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006001301A Expired - Fee Related JP4745831B2 (ja) 2006-01-06 2006-01-06 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム

Country Status (2)

Country Link
US (1) US7533001B2 (ja)
JP (1) JP4745831B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107278A (ja) * 2018-12-28 2020-07-09 スズキ株式会社 視認性評価システム
JP2020107279A (ja) * 2018-12-28 2020-07-09 スズキ株式会社 視認性評価システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4745831B2 (ja) * 2006-01-06 2011-08-10 富士通株式会社 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
JP5833998B2 (ja) * 2012-11-21 2015-12-16 株式会社日立製作所 組立作業性評価計算装置、および組立作業性評価方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337884A (ja) * 1993-03-31 1994-12-06 Toshiba Corp 作業環境評価装置
JPH0773157A (ja) * 1993-06-15 1995-03-17 Ishikawajima Harima Heavy Ind Co Ltd 大型構造物における溶接作業性の評価方法
JPH10240791A (ja) * 1997-02-27 1998-09-11 Fujitsu Ltd 機器操作性評価支援装置
JPH11328243A (ja) * 1998-05-18 1999-11-30 Toshiba Corp プラント設計支援システム
JP2001005854A (ja) * 1999-06-24 2001-01-12 Osaka Gas Co Ltd 操作パネルシミュレータ及び操作パネルシミュレーション方法
JP2003256756A (ja) * 2002-03-05 2003-09-12 Osaka Gas Co Ltd 作業空間診断方法及び作業空間診断装置
JP2005063375A (ja) * 2003-08-20 2005-03-10 National Institute Of Advanced Industrial & Technology 仮想ユーザを用いた操作性評価処理システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3973332A (en) * 1975-01-28 1976-08-10 Waclaw Kazimierz Slomski Equipment for testing the kinesthetic abilities of a person's extremities
US4375674A (en) * 1980-10-17 1983-03-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Kinesimetric method and apparatus
US5590268A (en) * 1993-03-31 1996-12-31 Kabushiki Kaisha Toshiba System and method for evaluating a workspace represented by a three-dimensional model
JPH11167451A (ja) 1997-06-12 1999-06-22 Sekisui Chem Co Ltd 計測システム
US20020024517A1 (en) * 2000-07-14 2002-02-28 Komatsu Ltd. Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
JP4745818B2 (ja) * 2005-12-22 2011-08-10 富士通株式会社 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
JP4745831B2 (ja) * 2006-01-06 2011-08-10 富士通株式会社 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337884A (ja) * 1993-03-31 1994-12-06 Toshiba Corp 作業環境評価装置
JPH0773157A (ja) * 1993-06-15 1995-03-17 Ishikawajima Harima Heavy Ind Co Ltd 大型構造物における溶接作業性の評価方法
JPH10240791A (ja) * 1997-02-27 1998-09-11 Fujitsu Ltd 機器操作性評価支援装置
JPH11328243A (ja) * 1998-05-18 1999-11-30 Toshiba Corp プラント設計支援システム
JP2001005854A (ja) * 1999-06-24 2001-01-12 Osaka Gas Co Ltd 操作パネルシミュレータ及び操作パネルシミュレーション方法
JP2003256756A (ja) * 2002-03-05 2003-09-12 Osaka Gas Co Ltd 作業空間診断方法及び作業空間診断装置
JP2005063375A (ja) * 2003-08-20 2005-03-10 National Institute Of Advanced Industrial & Technology 仮想ユーザを用いた操作性評価処理システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107278A (ja) * 2018-12-28 2020-07-09 スズキ株式会社 視認性評価システム
JP2020107279A (ja) * 2018-12-28 2020-07-09 スズキ株式会社 視認性評価システム
JP7107529B2 (ja) 2018-12-28 2022-07-27 スズキ株式会社 視認性評価システム
JP7108986B2 (ja) 2018-12-28 2022-07-29 スズキ株式会社 視認性評価システム

Also Published As

Publication number Publication date
US7533001B2 (en) 2009-05-12
JP4745831B2 (ja) 2011-08-10
US20070162237A1 (en) 2007-07-12

Similar Documents

Publication Publication Date Title
US11730545B2 (en) System and method for multi-client deployment of augmented reality instrument tracking
US11467709B2 (en) Mixed-reality guide data collection and presentation
US20220108450A1 (en) Surgical simulator providing labeled data
JP4434890B2 (ja) 画像合成方法及び装置
US11978243B2 (en) System and method using augmented reality for efficient collection of training data for machine learning
US11562598B2 (en) Spatially consistent representation of hand motion
US20200311396A1 (en) Spatially consistent representation of hand motion
US10969872B2 (en) Gesture interface
CN107004279A (zh) 自然用户界面相机校准
Andersen et al. Virtual annotations of the surgical field through an augmented reality transparent display
CN109426835A (zh) 信息处理装置、信息处理装置的控制方法和存储介质
JP2007233971A (ja) 画像合成方法及び装置
JP4745831B2 (ja) 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
CN108986569A (zh) 一种桌面ar交互学习方法及装置
CN113989462A (zh) 一种基于增强现实的铁路信号室内设备维护系统
KR20100086128A (ko) 혼합 현실 상황 훈련 시스템
CN105487653A (zh) 实现虚拟现实场景的方法及系统
JP7374908B2 (ja) 製造支援システム,方法,プログラム
JP4745818B2 (ja) 機器操作性評価装置、機器操作性評価方法及び機器操作性評価プログラム
Medina et al. VRIDAA: Virtual Reality Platform for Training and Planning Implantations of Occluder Devices in Left Atrial Appendages.
KR20180029488A (ko) 사용자의 손 동작을 인식하여 화면에 표시되는 정보를 제어하는 방법 및 장치
CN113823129A (zh) 基于混合现实的调头轮设备拆装指导方法及装置
JP2017016542A (ja) 装着型表示装置、表示制御方法および表示制御プログラム
WO2020205829A1 (en) Using model data to generate an enhanced depth map in a computer-assisted surgical system
KR101783156B1 (ko) Ar 마커를 이용한 물리적 프로그래밍 정보를 인식하는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110411

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110512

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4745831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees