JP3632687B2 - ユーザビリティ評価装置 - Google Patents
ユーザビリティ評価装置 Download PDFInfo
- Publication number
- JP3632687B2 JP3632687B2 JP2002267251A JP2002267251A JP3632687B2 JP 3632687 B2 JP3632687 B2 JP 3632687B2 JP 2002267251 A JP2002267251 A JP 2002267251A JP 2002267251 A JP2002267251 A JP 2002267251A JP 3632687 B2 JP3632687 B2 JP 3632687B2
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- user
- pointer
- information
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【発明の属する技術分野】
本発明は、グラフィカル・ユーザ・インタフェース(GUI)を備えた機器など、利用者の操作を受け入れて、当該操作の内容に応じて、少なくとも視覚的情報を提示する機器について、そのユーザビリティを評価する装置に関する。
【0002】
【従来の技術】
近年、利用者の操作との関係において視覚的情報を提示し、それによって機器の状態を示したり、所定の演算結果を提示するなど、種々の情報を利用者に提供する機器が数多く用いられるようになってきている。例えば企業内では、複写機やコンピュータ機器、空調機器などといった機器がある。複写機には、複写枚数や種々の複写機能(両面複写や縮小拡大など)といった設定を行うためのパネルがあって、利用者は提示される視覚的情報を元に機器の操作を行う。なお、ここで提示される視覚的情報は、LCD(液晶ディスプレイ)等に表示される、設定された複写枚数の情報のような動的なものには限られず、印刷された固定的なものも含む。具体的には例えば複写機において複写枚数設定のために設けられているテンキーの各キーに印刷された「1」,「2」…といった数字も、操作との関係において提示される視覚的情報である。
【0003】
従来から、このような機器の使いやすさ(ユーザビリティ)を評価する手法として、ユーザテストが用いられてきた。ユーザテストでは、利用者に見立てた被験者に実際に機器を操作してもらい、操作中の被験者の状態を外見的に観察して、被験者が何を行おうとしているのかを推測する。
【0004】
例えば被験者が操作用のパネル上で視線を移動させている様子が観察されれば、パネル上で押すべき個所を探していると推定する。
【0005】
【発明が解決しようとする課題】
しかしながら、多くの場合、ユーザテストを効果的に実行するには観察する側(実験者側)の訓練が不可欠である。すなわち被験者を外観から観察して、被験者が行おうとしていることを推測することは、一般には極めて難しく、時間のかかることである。
【0006】
一方、ユーザビリティ評価に関する社会的関心は高まっており、例えばISO等の標準化団体では、ユーザビリティに関する指標を定めて、会社全体の機器についてのユーザビリティを評価させ、その結果に応じて所定の認証を発行することが行われている。かかる時勢に呼応して、ユーザビリティを簡便に、かつ効果的に評価する装置ないし方法が求められている。
【0007】
本発明は上記実情に鑑みて為されたもので、ユーザビリティの評価を簡便かつ効率的に行うことができる、ユーザビリティ評価装置を提供することをその目的の一つとする。
【0008】
【課題を解決するための手段】
上記従来例の問題点を解決するための本発明は、利用者の操作を受け入れて、当該操作の内容との関係において、少なくともポインティングデバイスの操作に応じて移動するポインタを視覚的情報の一部として提示する機器を用い、前記視覚的情報の取り扱いに関するユーザビリティを評価する装置であって、利用者のポインティングデバイスの操作内容を記録する手段と、利用者の視線を追跡し、視点の位置を記録する手段と、前記操作内容と視点の位置との関係に応じて、ポインタの移動ベクトルと視点の移動ベクトルとのなす角θに基づいて定められる特徴量を演算する手段と、を備え、前記特徴量が、所定のユーザビリティの評価処理に供されることを特徴とする。
【0009】
上記従来例の問題点を解決するための本発明は、利用者の操作を受け入れて、当該操作の内容との関係において、少なくともポインティングデバイスの操作に応じて移動するポインタを視覚的情報の一部として提示する機器を用い、前記視覚的情報の取り扱いに関するユーザビリティを評価する装置であって、利用者のポインティングデバイスの操作内容を記録する手段と、利用者の視線を追跡し、視点の位置を記録する手段と、前記操作内容と視点の位置との関係に応じて、視点の移動量の大きさに対するポインタの移動量の大きさの比に基づいて定められる特徴量を演算する手段と、を備え、前記特徴量が、所定のユーザビリティの評価処理に供されることを特徴とする。
【0010】
上記装置はコンピュータで実行可能なプログラムによって実現することができる。
【0011】
すなわち、利用者の操作を受け入れて、当該操作の内容との関係において、少なくともポインティングデバイスの操作に応じて移動するポインタを視覚的情報の一部として提示する機器を用い、前記視覚的情報の取り扱いに関するユーザビリティを評価するプログラムであって、プロセッサに、利用者のポインティングデバイスの操作内容を記録させ、利用者の視線を追跡し、視点の位置を記録させ、前記操作内容と視点の位置との関係に応じて、ポインタの移動ベクトルと視点の移動ベクトルとのなす角θに基づいて定められる特徴量を演算させ、前記特徴量に基づき、所定のユーザビリティの評価処理を実行させることを特徴とする。
【0012】
さらに、本発明の別の態様では、利用者の操作を受け入れて、当該操作の内容との関係において、少なくともポインティングデバイスの操作に応じて移動するポインタを視覚的情報の一部として提示する機器を用い、前記視覚的情報の取り扱いに関するユーザビリティを評価するプログラムであって、プロセッサに、利用者のポインティングデバイスの操作内容を記録させ、利用者の視線を追跡し、視点の位置を記録させ、前記操作内容と視点の位置との関係に応じて、視点の移動量の大きさに対するポインタの移動量の大きさの比に基づいて定められる特徴量を演算させ、前記特徴量に基づき、所定のユーザビリティの評価処理を実行させることを特徴とする。
【0013】
なお、生体情報の記録としては、利用者の視線を追跡させて、視点の位置を記録させること等があり、この場合前記操作内容と視点の位置との関係に応じて定められる特徴量を演算させることとなる。
【0014】
【発明の実施の形態】
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係るユーザビリティの評価装置は、例えば評価対象となる機器における処理の一部として実装される。具体的にこの機器は、制御部11と、記憶部12と、ネットワークインタフェース13と、操作部14と、表示部15とを含んで構成され、生体情報の一例としての、利用者の視点に関する情報を出力する視線追跡装置2に接続されている。
【0015】
制御部11は、記憶部12に格納されているプログラムを実行する。具体的にこの制御部11は、機器としての通常通りの処理のほか、ユーザビリティの評価に関する処理を実行する。その一例においては、制御部11は、操作部14を介して利用者が行った操作の内容を記憶部12に記憶し、また、視線追跡装置2から入力される情報に基づいて表示部15上のどの位置に視点があるかを検出して、視点位置の情報を記憶部12に逐次的に記憶する。そして制御部11は、操作内容と視点の位置の情報との関係に基づいて所定の特徴量を演算し、当該特徴量に応じて予め定められたルールで、利用者が行おうとしていることを推測した結果としての推定状態情報を生成する。この制御部11の具体的な処理の内容については、後に詳しく述べる。
【0016】
記憶部12は、制御部11により実行されるプログラムを記憶しているコンピュータ読取可能な記憶媒体であり、また、制御部11のワークメモリとしても動作する。ネットワークインタフェース13は、制御部11から入力される指示に従って、ネットワークを介してデータを送信し、また、ネットワークを介して到来するデータを受信して制御部11に出力する。操作部14は、マウスやキーボード、キーパッド等、利用者の操作を受けて、その操作の内容を制御部11に出力する。表示部15は、LCD等のディスプレイであり、制御部11から入力される指示に従って種々の情報を表示し、当該情報を利用者に対して視覚的に提示する。
【0017】
視線追跡装置2は、例えば利用者の頭部に装着し、利用者の目の部分を撮像して、当該撮像された影像から視線の方向を検出するといった、広く知られた装置を用いることができる。この視線追跡装置2が出力する利用者の視線方向の情報は、制御部11に出力される。
【0018】
ここで、制御部11のユーザビリティ評価に関する処理の内容について具体的に説明する。なお、以下の説明においては、利用者が機器を操作して、ネットワークから取得したWebページをブラウザ(Netscape Navigator(商標)等)を利用して閲覧し、当該Webページのユーザビリティを評価する場合を例として説明するが、機器としての動作はこればかりではなく、例えばワードプロセッサとしての操作などであってもよい。
【0019】
記憶部12に格納されているユーザビリティ評価に関するプログラムは、図2に示すように、操作記録部21と、視点位置記録部22と、特徴量演算部23と、被験者状態推定部24とを含んで構成されている。操作記録部21は、操作部14としてのマウス操作の状態を検出して記憶部12に逐次的に格納する。ここでマウス操作の状態とは、マウスに連動して表示部15上に表示されるポインタ(例えば矢印)の移動位置の座標情報等である。
【0020】
視点位置記録部22は、視線追跡装置2から入力される視線方向の情報に基づいて、利用者が表示部15上のどの位置を見ているか(視点はどの位置か)を表す情報を逐次、記憶部12に格納している。ここで格納される視点の位置の情報は、例えば表示部15上の座標情報として記録される。
【0021】
特徴量演算部23は、記憶部12に格納されているマウス操作の状態に関する一連の情報と、一連の視点位置の情報とに基づき、予め定められた方法で特徴量を演算する。具体的に特徴量演算部23は、所定の時間内におけるポインタの移動量を表すベクトル(ΔMx,ΔMy)と、視点位置の移動量を表すベクトル(ΔVx,ΔVy)である視点情報とを生成する。ここで、人間の生体的反応の速度は、一般に人間の動作の速度と同じではない。例えばポインタ位置を変更するためにマウスを操作する速度よりも視点の移動速度の方が早い。そこで本実施の形態のユーザビリティの評価装置では、上記所定の時間内における視点の移動量を累積して視点位置の移動量を表すベクトル(視点情報)を生成する。すなわち、実際には所定時間内には、視点は図3に示すように、マウス操作に連動して移動するポインタの移動(図3のM)に対して、必ずしも平行して動かず、断続的な直線移動を繰り替えす(図3のV1〜V7)のが一般的である。そこで、これらの断続的な直線的移動を累積したベクトル和としてのV=(ΔVx,ΔVy)を視点の移動量を表すベクトル(視点情報)とする(複数の移動を平均化する処理)。
【0022】
また、人間の眼球は、固視微動と呼ばれる運動を定常的に行っており、一点を見つめているときにも視点は細かく移動しつづけている。そこで、移動量のベクトル値の大きさが所定の大きさを超えない場合に、その移動量(例えば図3のV4〜V7のような微細な動き)をなかったこととする処理(切り捨て処理)を行うのも好ましい。
【0023】
そして特徴量演算部23は、こうして得られたポインタの移動量を表すベクトル(ΔMx,ΔMy)、並びに、視点の移動量を表すベクトル(ΔVx,ΔVy)から特徴量を生成する。ここで特徴量の一例としては、視点の移動量の大きさ|V|と、ポインタの移動量の大きさ|M|と、ポインタの移動ベクトルと視点の移動ベクトルとのなす角θと、視点の移動量の大きさに対するポインタの移動量の大きさの比r=|M|/|V|等がある。
【0024】
被験者状態推定部24は、特徴量演算部23にて演算された特徴量|V|、|M|、θ、rに基づいて利用者(被験者)の状態を推定する。具体的には、被験者状態の推定のために、図4に示すように、条件(C)と、推定結果としての状態の情報(S)とを関連づけたテーブルを記憶部12に格納しておき、被験者状態推定部24は、各特徴量からどの条件(C)に合致するかを判断し、合致する条件に関連づけられた状態の情報(S)を推定結果として出力する。
【0025】
ここで条件は例えば視線移動の有無(|V|が所定のしきい値を超えているか否か)、ポインタ移動の有無(|M|が所定のしきい値を超えているか否か)、視点の移動量を表すベクトルとポインタの移動量を表すベクトルとのなす角θの大きさ(θが所定のしきい値より大か)、視点の移動量の大きさに対するポインタの移動量の大きさの比rの大小(rが所定のしきい値より大か)といった条件がある。
【0026】
そして、
1.視点もポインタも移動していなければ、表示部15上の一点を注意深く見ていると推定して、「凝視」の状態にあると判断する。
2.視点の移動はないが、ポインタは移動しているときには、ブラウザに表示されているWebページ内のコンテンツの閲覧を完了し、表示されていないコンテンツを見ようとしてリンクをクリックするための操作等を行っていると推定して「ページ内操作」の状態にあると判断する。
3.視点の移動はあるが、ポインタは移動していないというときには、次に見るべきものを表示部15内で探索しているものと推定して、「検索」の状態にあると判断する。
4.視点の移動もポインタの移動もあるときであって、θが所定のしきい値より大きいときにはポインタ操作と視点移動との方向性がそろっていないことを示すので、次のWebページに移ろうとしている(ポインタはリンクをクリックするために移動するのに対して、視点はページ先頭部分へ移動するため、一般に互いに異なる方向に移動する)と推定して「移動操作」の状態にあると判断する。
5.視点もポインタも移動していない場合であって、θが所定のしきい値より小さく、また移動量の比rが大きいときには、視点の位置に示された座標と、ポインタの座標とが互いに異なっていた状態から一点をポイントするために視点とポインタ位置とが集中してきた状態にあるとして、ブラウザの「戻る」ボタン等をクリックしようとしていると推定し、「ブラウザ操作」の状態にあると判断する。
6.視点もポインタも移動していない場合であって、θが所定のしきい値より小さく、また移動量の比rが小さいときには、ポインタを移動させながら、その位置を視点で追っているものと推定して「熟読」(読みにくいコンテンツを読んでいる)と判断する。
といったように判断して、その判断結果(「凝視」、「熟読」など)を状態情報として出力する。この状態情報は、記憶部12に格納される。
【0027】
すなわち制御部11は、かかる機能ブロックを含んで構成されるプログラムに従って処理を行い、所定時間ごとの利用者(被験者)の状態の情報を記憶部12に逐次的に格納する。そして、テストの開始から終了までの間に、利用者が各状態にどの程度の時間を費やしたかを表すデータを分析結果として生成する。具体的に分析結果は、全体に占める割合として、図5に示すようなグラフとして表現することができる。
【0028】
そしてこのグラフから例えば「検索」に費やす時間が長い場合に当該Webページのレイアウトが悪い、「熟読」が多い場合に文字が多いか、文字が小さくて読みにくい、といった当該Webページの取り扱いに関する評価(この場合はWebページそのものの評価につながる)を行うことになる。
【0029】
次に、本実施の形態に係る評価装置の動作について説明する。制御部11は、操作記録部21の処理として、操作部14としてのマウス操作の状態を検出して記憶部12に逐次的に格納し、また、視点位置記録部22の処理として、視線追跡装置2から入力される視線方向の情報に基づいて、利用者が表示部15上のどの位置を見ているか(視点はどの位置か)を表す視点の位置の情報を逐次、記憶部12に格納する。
【0030】
制御部11は、所定のタイミング(例えば一定時間ごとに定期的に、あるいはマウス操作の状態からマウス操作が停止したタイミングで)、特徴量演算部23の処理を開始し、記憶部22に格納されている一連の視点の位置の情報を参照し、各視点の位置間の差分により、視点の移動量を表すベクトル値を演算して記憶部12に保持させ、当該ベクトル値のうち、その大きさが予め定めた大きさを超えないものについては、当該ベクトル値を記憶部12から削除する。そして制御部11は、残ったベクトル値を累算して、視点の累積移動量を表すベクトル値Vを視点情報として生成する。また、制御部11は、マウス操作の記録から、ポインタの移動量を表すベクトル値Mを生成する。
【0031】
制御部11は、各ベクトル値の大きさ|M|及び|V|を生成するとともに、これらベクトル値により表されるベクトル間のなす角θ、並びに移動量の大きさ|M|と、ポインタの移動量のベクトルと視点の移動量のベクトルとのなす角θと、視点の移動量の大きさに対するポインタの移動量の大きさの比r=|M|/|V|を特徴量として演算する。
【0032】
特徴量の演算を完了した制御部11は、被験者状態推定部24の処理を開始し、演算した特徴量|V|、|M|、θ、rに基づいて利用者(被験者)の状態を推定する。すなわち、これらの特徴量のそれぞれについて所定のしきい値Vth、Mth、θth、rthを超えているか否かを表す真偽値(true又はfalseのいずれかの値)を生成する。
【0033】
そして制御部11は、予め定めた条件に従って、各真偽値を参照して被験者の状態を表す情報を推定状態情報として生成し、記憶部12に格納する。例えば|V|<Vthがtrue(視点の移動がない)であり、|M|<Mthがtrue(ポインタの移動がない)であれば、「凝視」の状態を表す推定状態情報を生成し、記憶部12に格納する。
【0034】
制御部11は、実験の開始指示があってから、実験の完了の指示があるまで、図2に示した評価のプログラムの処理を繰り返して行って、各処理の実行時点での推定状態情報を記憶部12に逐次的に格納する。
【0035】
そしてこの記憶部12に格納された一連の推定状態情報は、制御部11による種々の分析処理に供されることとなる。具体的には、制御部11は、一連の推定状態情報に各推定状態情報がどれだけ含まれているかの統計演算を行う。例えば一連の推定状態情報に「凝視」の状態を表す推定状態情報がいくつ含まれているかをパーセントで計算して、表示部15に表示する。
【0036】
なお、ここまでの説明ではマウス操作が行われる場合を一例として説明したが、ペン等、他のポインティングデバイスであってもよい。またここまでの説明では、Webページのように、機器の外部から取得される情報を評価の対象とする場合について説明したが、機器の操作性そのものを評価の対象としてもよいし、機器内部で生成される文書データのようなものを評価の対象としてもよい。さらに評価対象が機器の操作性である場合、評価対象の機器から評価に利用される利用者の操作に関する情報を取得するようにすれば、本実施の形態の評価装置と、評価対象の機器とを別体に設けることも可能である。
【0037】
また、ここでは利用者(被験者)の生体情報として視線の情報を利用したが、視線とともに、又は視線ではなく、瞳孔の大きさ(快いと感じる場合に一般に大きくなる)や、脈拍、発汗といった情報を利用してもよい。
【0038】
さらに上述の例では、特徴量として視点の移動を表すベクトル量Vと、ポインタの移動を表すベクトル量Mと、これらのベクトル間のなす角θと、相対的な大きさの比rとを用いていたが、これらの他にも、例えば上記ベクトル量VやMの時系列変化に関する情報等を特徴量として用いてもよい。このように他の特徴量を用いる場合も、図4に示したような利用者(被験者)の状態を推定するルールを予め定めておき、そのルールに従って推定状態情報を生成する。
【0039】
本実施の形態では、被験者の操作内容及び被験者の生体情報をそれぞれ同じ時系列で取得して記録し、その記録を比較・分析し、その結果に基づく所定のルールで被験者の状態を推定して記録する。従って、被験者を外観から観察して、被験者が行おうとしていることを推測する必要がなく、実験者側は、目的に適合したルールを定めるだけで、被験者の状態の推定を行うことができ、この推定した状態情報の記録を、機器や、その機器により取り扱われる視覚的情報等のユーザビリティの簡便かつ効果的な評価に供することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係るユーザビリティの評価装置の一例を表す構成ブロック図である。
【図2】本発明の実施の形態に係るユーザビリティの評価のためのプログラムの一例を表す機能ブロック図である。
【図3】ポインタの移動と視点の移動と、それらに基づく特徴量の例との関係を示す説明図である。
【図4】評価のルールの一例を表す説明図である。
【図5】分析の結果の一例を表す説明図である。
【符号の説明】
2 視線追跡装置、11 制御部、12 記憶部、13 ネットワークインタフェース、14 操作部、15 表示部、21 操作記録部、22 視点位置記録部、23 特徴量演算部、24 被験者状態推定部。
Claims (6)
- 利用者の操作を受け入れて、当該操作の内容との関係において、少なくともポインティングデバイスの操作に応じて移動するポインタを視覚的情報の一部として提示する機器を用い、前記視覚的情報の取り扱いに関するユーザビリティを評価する装置であって、
利用者のポインティングデバイスの操作内容を記録する手段と、
利用者の視線を追跡し、視点の位置を記録する手段と、
前記操作内容と視点の位置との関係に応じて、ポインタの移動ベクトルと視点の移動ベクトルとのなす角θに基づいて定められる特徴量を演算する手段と、
を備え、前記特徴量が、所定のユーザビリティの評価処理に供されることを特徴とする装置。 - 利用者の操作を受け入れて、当該操作の内容との関係において、少なくともポインティングデバイスの操作に応じて移動するポインタを視覚的情報の一部として提示する機器を用い、前記視覚的情報の取り扱いに関するユーザビリティを評価する装置であって、
利用者のポインティングデバイスの操作内容を記録する手段と、
利用者の視線を追跡し、視点の位置を記録する手段と、
前記操作内容と視点の位置との関係に応じて、視点の移動量の大きさに対するポインタの移動量の大きさの比に基づいて定められる特徴量を演算する手段と、
を備え、前記特徴量が、所定のユーザビリティの評価処理に供されることを特徴とする装置。 - 請求項1又は2に記載の装置において、
前記特徴量を演算する手段は、所定時間内における視点の位置の逐次的変化を累積して視点情報とし、当該視点情報と前記所定時間内における操作内容とに基づいて特徴量を演算することを特徴とする装置。 - 利用者の操作を受け入れて、当該操作の内容との関係において、少なくともポインティングデバイスの操作に応じて移動するポインタを視覚的情報の一部として提示する機器を用い、前記視覚的情報の取り扱いに関するユーザビリティを評価するプログラムであって、
プロセッサに、
利用者のポインティングデバイスの操作内容を記録させ、
利用者の視線を追跡し、視点の位置を記録させ、
前記操作内容と視点の位置との関係に応じて、ポインタの移動ベクトルと視点の移動ベクトルとのなす角θに基づいて定められる特徴量を演算させ、
前記特徴量に基づき、所定のユーザビリティの評価処理を実行させることを特徴とするユーザビリティの評価プログラム。 - 利用者の操作を受け入れて、当該操作の内容との関係において、少なくともポインティングデバイスの操作に応じて移動するポインタを視覚的情報の一部として提示する機器を用い、前記視覚的情報の取り扱いに関するユーザビリティを評価するプログラムであって、
プロセッサに、
利用者のポインティングデバイスの操作内容を記録させ、
利用者の視線を追跡し、視点の位置を記録させ、
前記操作内容と視点の位置との関係に応じて、視点の移動量の大きさに対するポインタの移動量の大きさの比に基づいて定められる特徴量を演算させ、
前記特徴量に基づき、所定のユーザビリティの評価処理を実行させることを特徴とするユーザビリティの評価プログラム。 - 請求項4又は5に記載のプログラムにおいて、
前記プロセッサに、所定時間内における視点の位置の逐次的変化を累積して視点情報とし、当該視点情報と前記所定時間内における操作内容とに基づいて特徴量を演算させるこ とを特徴とするユーザビリティの評価プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002267251A JP3632687B2 (ja) | 2002-09-12 | 2002-09-12 | ユーザビリティ評価装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002267251A JP3632687B2 (ja) | 2002-09-12 | 2002-09-12 | ユーザビリティ評価装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004102921A JP2004102921A (ja) | 2004-04-02 |
JP3632687B2 true JP3632687B2 (ja) | 2005-03-23 |
Family
ID=32265835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002267251A Expired - Fee Related JP3632687B2 (ja) | 2002-09-12 | 2002-09-12 | ユーザビリティ評価装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3632687B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013242605A (ja) * | 2010-09-09 | 2013-12-05 | Digital Office Inc | コンピュータソフトウェアにおけるドキュメント閲覧システムでの閲覧部位を記録し分析に活用する手法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6332624A (ja) * | 1986-07-28 | 1988-02-12 | Canon Inc | 情報処理装置 |
JP3234059B2 (ja) * | 1993-08-11 | 2001-12-04 | 株式会社東芝 | 画面デザイン評価装置 |
JPH08161197A (ja) * | 1994-10-07 | 1996-06-21 | Toshiba Corp | ユーザインタフェース評価支援装置及びユーザインタフェース評価支援方法 |
JP2626598B2 (ja) * | 1994-11-25 | 1997-07-02 | 日本電気株式会社 | グラフィカルユーザインタフェースを有する対話システムの操作性評価装置 |
JP3027521B2 (ja) * | 1995-05-31 | 2000-04-04 | 松下電器産業株式会社 | 無人端末装置 |
JPH11203006A (ja) * | 1998-01-20 | 1999-07-30 | Fujitsu Ltd | ユーザ状況推定装置 |
JP2002149633A (ja) * | 2000-11-10 | 2002-05-24 | Fuji Xerox Co Ltd | 文書評価システム、文書評価方法及びコンピュータ読み取り可能な記録媒体 |
JP2002169708A (ja) * | 2000-11-30 | 2002-06-14 | Interscope Inc | ブラウザ画面に表示されるカーソルの動作ログ取得方法 |
JP2002175290A (ja) * | 2000-12-07 | 2002-06-21 | Fuji Xerox Co Ltd | ドキュメントデザイン評価システム、ドキュメントデザイン評価方法、記録媒体 |
-
2002
- 2002-09-12 JP JP2002267251A patent/JP3632687B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004102921A (ja) | 2004-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004110548A (ja) | ユーザビリティ評価支援装置および方法 | |
Goldberg et al. | Eye tracking in usability evaluation: A practitioner's guide | |
Lohse et al. | A comparison of two process tracing methods for choice tasks | |
Jacob et al. | Eye tracking in human-computer interaction and usability research: Ready to deliver the promises | |
Papoutsaki | Scalable webcam eye tracking by learning from user interactions | |
Jacob et al. | Commentary on Section 4. Eye tracking in human-computer interaction and usability research: Ready to deliver the promises | |
McCarthy et al. | Could I have the menu please? An eye tracking study of design conventions | |
US20060214911A1 (en) | Pointing device for large field of view displays | |
US11700450B2 (en) | Motion analysis device, motion analysis method for improving motions of operator | |
Agarwal et al. | Comparing two webcam-based eye gaze trackers for users with severe speech and motor impairment | |
Lin et al. | The design of hand gestures for selecting virtual objects | |
JP3632687B2 (ja) | ユーザビリティ評価装置 | |
JP2004102564A (ja) | ユーザビリティ評価支援装置 | |
JP2005216311A (ja) | ユーザビリティ評価支援装置 | |
WO2019024068A1 (en) | SYSTEMS AND METHODS FOR DETECTING EMOTION IN VIDEO DATA | |
JP2004102868A (ja) | ユーザビリティ評価支援装置 | |
JP7469966B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Wallace et al. | Rapid visual flow: How fast is too fast? | |
Hsu et al. | Comparative evaluation of digital writing and art in real and immersive virtual environments | |
Zhu et al. | Hand-eye coordination-based implicit re-calibration method for gaze tracking on ultrasound machines: a statistical approach | |
Jeong et al. | Using Augmented Reality to Assist Seated Office Workers’ Data Entry Tasks | |
JP5088192B2 (ja) | 描画装置及びプログラム | |
Kazhura | Exploring new depths: How could passengers interact with future in-car holographic 3D displays? | |
JPWO2020247863A5 (ja) | ||
Komogortsev et al. | Adaptive eye-gaze-guided interfaces: design & performance evaluation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20040106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040506 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041213 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080107 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090107 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100107 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110107 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |