JP2007094457A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2007094457A
JP2007094457A JP2005278946A JP2005278946A JP2007094457A JP 2007094457 A JP2007094457 A JP 2007094457A JP 2005278946 A JP2005278946 A JP 2005278946A JP 2005278946 A JP2005278946 A JP 2005278946A JP 2007094457 A JP2007094457 A JP 2007094457A
Authority
JP
Japan
Prior art keywords
information
worker
state
history table
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005278946A
Other languages
English (en)
Inventor
Kazuo Shibuta
一夫 澁田
Katsura Sakai
桂 酒井
Hisae Mihira
寿江 三平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005278946A priority Critical patent/JP2007094457A/ja
Publication of JP2007094457A publication Critical patent/JP2007094457A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • Digital Computer Display Output (AREA)

Abstract

【課題】 正確にユーザビリティ評価を行うことができる情報処理装置、情報処理方法及びプログラムを提供する。
【解決手段】 操作性評価装置2は、作業者が操作している機器への操作情報を検出する操作情報検出手段3と、前記操作情報検出手段が検出した操作情報に基づいて、前記機器の処理状態を判断する処理状態判断手段4と、前記作業者の身体情報を検出する身体情報検出手段5と、前記身体情報検出手段が検出した身体情報に基づいて、前記作業者の状態を判断する作業者状態判断手段6と、前記処理状態判断手段からの機器の処理状態の情報と前記作業者状態判断手段からの作業者の状態の情報とを対応付け、実際の作業状態に対応した履歴テーブルを生成する履歴テーブル生成手段7と、前記履歴テーブルに基づいて、前記機器に対する操作上の問題箇所を抽出する問題箇所抽出手段8とを備える。
【選択図】 図4

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
従来からシステムのユーザビリティ評価にはさまざま手法が存在する。例えば、ヒューリスティック法は、ユーザインターフェースにおける、操作上の問題点を発見するために用いられる手法のひとつであり、数人の専門家が、ガイドラインに基づき、それぞれ個別に評価作業を進めていき、その後それぞれの専門家による評価結果をまとめ、網羅的に操作上の問題点を抽出し、さらにその問題点の修正の優先度が決定される手法である。また、ウォークスルー法は、ユーザをあらかじめ想定しておき、専門家が、想定したユーザがどのようにシステムを使用するかを検証することで操作上の問題点を発見する手法である。
このように、専門家が行うヒューリスティック法やウォークスルー法などは低コストで行えるが、専門的な知識が必要な上、一般的な利用者が専門家にとって思いもよらない使用の仕方をした場合には対応できない。一方、一般的な利用者を被験者として行うユーザテストは、このような場合の問題点も発見することができるが、テスト実施にもその分析にもコストがかかる。特に分析では、評価者が被験者の操作をビデオで見直しながら行うことが多いが、これにはテスト実施時の数倍の時間が費やされる。なお、テスト実施時に記録した機器の操作ログを見ることもできるが、数値の羅列だけでは、どこに問題あるか判断しにくい。
特許文献1、特許文献2には、このようなユーザテストによる操作上の問題発見を効率的に行うことを支援する装置が開示されている。特許文献1は、複数の操作履歴から予め抽出された操作パタンを読み込み、前記操作パタンが出現する箇所を前記操作履歴から抽出し、前記操作パタンに含まれる個々の操作に要した時間を計算し、前記時間のデータを各操作毎に統計処理し、処理結果を表示することにより、システムの操作性を評価する装置について開示している。
また、特許文献2は、対話型システムへの入力を入力履歴データとして格納すると共に、この入力に関連して対話型システムの出力部からの出力(画像や音声)を、入力に関連付けて出力履歴データとして格納し、評価者は、所望の入力履歴データを表示させることができると共に、表示させた入力履歴データに関連付けられた出力履歴データの出力を行なうことができることにより、システムの状態を正確に履歴すると共に正確に履歴を再現し、システムの使い勝手の程度を評価する装置について開示する。
特開平10−3410 特開2001−51876
従来の技術である専門家評価は、専門知識が必要な上に、それでも実際の利用者の予期せぬ行動を予測することは困難であった。一般的な利用者を被験者として行うユーザテストは、テスト実施にもその分析にもコストがかかり、長時間要するという問題があった。また、特許文献1、特許文献2で開示されている装置でも、システムの操作履歴や入出力履歴データだけでは、被験者が対象以外の画面を見ていること等もあり、被験者の実際の作業状態を理解して、操作上の問題点を容易に把握することは困難である。
そこで、本発明は、上記問題に鑑みてなされたもので、正確にユーザビリティ評価を行うことができる情報処理装置、情報処理方法及びプログラムを提供することを目的とする。
上記目的は、作業者が操作している機器への操作情報を検出する操作情報検出手段と、前記操作情報検出手段が検出した操作情報に基づいて、前記機器の処理状態を判断する処理状態判断手段と、前記作業者の身体情報を検出する身体情報検出手段と、前記身体情報検出手段が検出した身体情報に基づいて、前記作業者の状態を判断する作業者状態判断手段と、前記処理状態判断手段からの機器の処理状態の情報と前記作業者状態判断手段からの作業者の状態の情報とを対応付けて、(実際の)作業状態に対応した履歴テーブルを生成する履歴テーブル生成手段と、前記履歴テーブルに基づいて、前記機器に対する操作上の問題箇所を抽出する問題箇所抽出手段とを備えている情報処理装置によって達成できる。
作業者の身体情報に基づいて、作業者の状態を判断するので、正確な作業者の状態を把握することができ、機器の処理状態の情報と作業者の状態の情報とを対応付けて、実際の作業状態に対応した履歴テーブルにより、実際の作業状態を正確に把握することができる。また、履歴テーブルに基づいて、機器に対する操作上の問題箇所を抽出するので、操作上の問題箇所を正確に把握することができる。従って、対象以外の画面を見ている等の作業者側に起因する問題がある場合であっても、正確にユーザビリティ評価を行うことができる。また、従来のようにビデオ撮影した作業者の画像を見直すことなくユーザビリティ評価を行うことができるので、低コストで且つ短時間で操作上の問題箇所を把握することができる。
また、前記履歴テーブルを時系列に表現したグラフを生成するグラフ生成手段をさらに備えている情報処理装置によっても達成できる。作業状態の情報を時系列に表現したグラフを生成するので、作業状態を容易に把握することができる。
また、グラフ生成手段は、前記抽出手段が抽出した操作上の問題箇所を、グラフ上に識別可能に生成する情報処理装置によっても達成できる。機器に対する操作上の問題箇所を、グラフ上に識別可能に生成するので、容易に操作上の問題箇所を把握することができる。
また、前記グラフ生成手段は、前記操作情報検出手段が検出した操作情報を、前記グラフ上に識別可能に生成する情報処理装置によっても達成できる。作業者が操作している機器に関する情報をグラフ上に識別可能に生成するので、より詳細な作業状態を把握することができる。
また、前記履歴テーブルを時系列に表現したグラフを生成するグラフ生成手段をさらに備え、前記操作情報検出手段は、前記作業者の閲覧しているページの操作に関する情報を前記作業者が操作している機器への操作情報として検出し、前記グラフ生成手段は、前記作業者が閲覧しているページの移動を前記作業者の作業状態として前記グラフを作成する情報処理装置によっても達成できる。
作業者が閲覧しているページの移動を前記作業者の作業状態としてグラフを作成するので、作業者が閲覧しているページでの作業状態を容易に把握することができる。また、作業者が閲覧しているページでの操作上の問題箇所を容易に把握することができる。
また、前記身体情報検出手段は、前記作業者の顔の向き、視線、及び脳波のうち少なくとも1つの情報を前記作業者の身体情報として検出する情報処理装置によっても達成できる。
また、前記操作上の問題箇所は、同一の操作が繰り返されている箇所及び所定の作業の状態が一定時間以上継続されている箇所の少なくとも一方の箇所である情報処理装置によっても達成できる。
また、前記作業者が操作している機器への操作情報は、キーボードの操作による入力、マウスの操作による指示及びシステムが発行するコマンドのうち少なくとも一つを含む情報処理装置によっても達成できる。
また、作業者が操作している機器への操作情報を検出するステップと、前記作業者が操作している機器への操作情報に基づいて、前記機器の処理状態を判断するステップと、前記作業者の身体情報を検出するステップと、前記作業者の身体情報に基づいて、前記作業者の状態を判断するステップと、前記機器の作業状態の情報と前記作業者の状態の情報とを対応付け、(実際の)作業状態に対応した履歴テーブルを生成するステップと、前記履歴テーブルに基づいて、前記機器に対する操作上の問題箇所を抽出するステップとを有する情報処理方法によっても達成できる。
作業者の身体情報に基づいて、作業者の状態を判断するので、正確な作業者の状態を把握することができ、機器の処理状態の情報と作業者の状態の情報とを対応付け、実際の作業状態に対応した履歴テーブルにより、正確な作業者の作業状態を把握することができる。また、履歴テーブルに基づいて、機器に対する操作上の問題箇所を抽出するので、操作上の問題箇所を正確に把握することができる。従って、対象以外の画面を見ている等の作業者側に起因する問題がある場合であっても、正確にユーザビリティ評価を行うことができる。また、従来のようにビデオ撮影した作業者の画像を見直すことなくユーザビリティ評価を行うことができるので、低コストで且つ短時間で操作上の問題箇所を把握することができる。
また、作業者が操作している機器への操作情報を検出するステップと、前記作業者が操作している機器への操作情報に基づいて、前記機器の処理状態を判断するステップと、前記作業者の身体情報を検出するステップと、前記作業者の身体情報に基づいて、前記作業者の状態を判断するステップと、前記機器の処理状態の情報と前記作業者の状態の情報とを対応付け、実際の作業状態に対応した履歴テーブル生成するステップと、前記履歴テーブルに基づいて、前記機器に対する操作上の問題箇所を抽出するステップとをコンピュータに実行させるためのプログラムによっても達成できる。
作業者の身体情報に基づいて、作業者の状態を判断するので、正確な作業者の状態を把握することができ、機器の処理状態の情報と作業者の状態の情報とを対応付け、実際の作業状態に対応した履歴テーブルにより、作業状態を正確に把握することができる。また、履歴テーブルに基づいて、機器に対する操作上の問題箇所を抽出するので、操作上の問題箇所を正確に把握することができる。従って、対象以外の画面を見ている等の作業者側に起因する問題がある場合であっても、正確にユーザビリティ評価を行うことができる。また、従来のようにビデオ撮影した作業者の画像を見直すことなくユーザビリティ評価を行うことができるので、低コストで且つ短時間で操作上の問題箇所を把握することができる。
本発明によれば、正確にユーザビリティ評価を行うことができる情報処理装置、情報処理方法及びプログラムを提供することができる。
以下、本発明を実施するための最良の形態について説明する。図1は、システムの全体構成図である。図1に示すように、システム1は操作性評価装置(情報処理装置)2と、Webサーバ10を備える。操作性評価装置2及びWebサーバ10はインターネット等のネットワークを介して接続されている。Webサーバ10は、操作性評価装置2により例えば「load AAA.html」コマンドが指定されると、そのコマンドに応じたWebページを配信する。
操作性評価装置2は、作業者の機器における操作性を評価するもので、操作情報検出手段3、処理状態判断手段4、身体情報検出手段5、作業者状態判断手段6、履歴テーブル生成手段7、問題箇所抽出手段8及び表示手段9を備える。図2は、操作性評価装置2のハードウェア構成を示した図である。図2に示すように、操作性評価装置2の機能は、ROM(Read Only Memory)21、全体を制御するCPU(Central Processing Unit)22、CPU22のワークエリアとして用いられるRAM(Random Access Memory)23、メモリ24、I/F25を用いて実現される。
操作情報検出手段3は、作業者が操作している機器への操作情報を検出する。操作情報検出手段3は、検出した作業者が操作している機器への操作情報を時刻もしく順番などの時系列の情報に関連付けて、これらを処理状態判断手段4へ送る。作業者が操作している機器への操作情報には、キーボードの操作による入力、マウスの操作による指示及びシステムが発行するコマンド等が含まれる。
操作情報検出手段3は、キーボードから入力された「A」、「b」、「shihut−」などのキー信号、「Hello World!」などの文字列や、FEP(Front End Processor)などで変換された「今日は天気です。」などの文字列をキーボードの操作による操作情報として検出する。また、操作情報検出手段3は、カーソルの座標値(X、Y)や、右クリック、左クリック、ドラッグ&ドロップなどの情報をマウスの操作による操作情報として検出する。操作情報検出手段3は、「fileopen」やコピー&ペーストなどをコマンドの発行による操作情報として検出する。操作情報検出手段3は、作業者がWebブラウザで所定のページを閲覧している場合、「load」、「re-load」などのHTTP(HyperText Transfer Protocol)コマンドや「back」などのブラウザのコマンドを作業者が操作している機器への操作情報として検出する。
また、操作情報検出手段3は、例えば起動されているプロセスの名前やID、フォアグランドかバックグランドかの属性値など、または、起動されているウィンドウの名前やID、レイヤ番号、ウィンドウが開いているか閉じているかの属性値、アクティヴかデアクティヴかの属性値などを作業者が操作している機器への操作情報として検出する。これにより、現在フォアグランドで起動しているプロセス、前面に表示されているウィンドウの情報を検出できる。
処理状態判断手段4は、操作情報検出手段3が検出した操作情報に基づいて、機器の処理状態を判断する。機器の処理状態とは、機器への操作情報に基づいて処理を行っている機器の状態である。例えば、処理状態判断手段4は、操作情報検出手段3で、操作開始1秒後に「load AAA.html」コマンド、2秒後に「load BBB.html」コマンド、3秒後に「back」コマンドが発行されたことが検出された場合、機器は、1秒から2秒までは「AAA.html」というWebページを表示し、2秒から3秒までは「BBB.html」というWebページを表示し、3秒以降は「AAA.html」というWebページを表示したということを機器の作業状態として判断する。
身体情報検出手段5は、作業者の身体情報を検出する。身体情報検出手段5は、例えば画像処理装置、視線追尾装置又は脳波測定装置等を用いて構成される。身体情報検出手段5は、作業者の身体情報を時刻又は順番などの時系列の情報に関連付けて、作業者状態判断手段6へ送る。作業者の身体情報には、例えば作業者の顔の向き、視線又は脳波等が含まれる。身体情報検出手段5が画像処理装置で構成される場合、作業者を撮影した画像情報に対して画像処理技術を適用することで、作業者の顔の向き、視線、作業者の存在の有無、あくびの有無、作業者が両手を上げることによる伸び、まぶたの状態、作業者の手がどの機器(キーボード、マウス等)あるかなどを検出することができる。身体情報検出手段5が視線追尾装置の場合、作業者の視線の対象を検出できる。尚、身体情報とは生体情報と同義である。
作業者状態判断手段6は、身体情報検出手段5が検出した身体情報に基づいて、作業者の状態を判断する。例えば、作業者状態判断手段6は、作業者のあくびの有無、作業者が両手を上に上げることによる伸び、まぶたの状態などを利用して、作業者の休息状態を判断し、作業者の顔の向きや視線を利用して、作業者が機器のどこを見ているのかを判断し、作業者の機器に対する視線を利用して、作業者がどのデバイスを操作しているかを判断し、作業者の脳波を利用して、作業者の集中度、緊張度を判断する。なお、作業者状態判断手段6による判断は上記例に限定されない。
履歴テーブル生成手段7は、処理状態判断手段4からの機器の処理状態の情報と作業者状態判断手段6からの作業者の状態の情報とを対応付け、実際の作業状態に対応した履歴テーブルを生成する。具体的には、履歴テーブル生成手段7は、作業者の状態を考慮して、作業者が休息しているか、作業者が機器のどこを見ているのか、作業者がどのデバイスを操作しているか、作業者の集中力や緊張が低下しているか、などの作業者自身の状態を考慮して、履歴テーブルを生成する。
次に、ディスプレイ装置上に複数のウィンドウA、Bが開いている場合を考える。処理状態判断手段4は、操作情報検出手段3で検出した操作している機器への操作情報が、ディスプレイ装置上のウィンドウの表示位置である場合、始点の座標値が(0、0)、終点の座標値が(100、100)のウィンドウAと、始点の座標値が(100、100)、終点の座標値が(200、200)のウィンドウBを表示したと機器の処理状態を判断する。
作業者状態判断手段6は、身体情報検出手段5で検出した作業者の身体情報が、作業者の視線の情報である場合、作業者は、操作開始1秒後にディスプレイ装置上の座標(50、50)に視線を向け、2秒後にディスプレイ装置上の座標(150、150)に視線を向け、3秒後にディスプレイ装置上の座標(50、50)に視線を向けたことを作業者の状態として判断する。
履歴テーブル生成手段7は、機器の処理状態と作業者の状態とを対応付け、実際の作業状態に対応した履歴テーブルを生成する。即ち、履歴テーブル生成手段7は、操作開始1秒後にディスプレイ装置上の座標(50、50)に視線を向け、2秒後にディスプレイ装置上の座標(150、150)に視線を向け、3秒後にディスプレイ装置上の座標(50、50)に視線を向けたという作業者の視線の情報を考慮して、作業者は、開始1秒から2秒までの間はウィンドウAを閲覧し、2秒から3秒までの間はウィンドウBを閲覧し、3秒以降はウィンドウAを閲覧していたというように履歴テーブルを生成する。
次に、Webブラウザが複数のウィンドウを生成した場合を考える。処理状態判断手段4は、操作開始1秒後に「new window」、「load AAA.html」コマンドでウィンドウAが始点の座標値(0、0)、終点の座標値(100、100)で開かれ、2秒後に「load BBB.html」コマンドが起き、3秒後に「new window」、「load CCC.html」コマンドで新たなウィンドウBが始点の座標値(100、100)、終点の座標値(200、200)で開かれたことを操作情報検出手段3で検出した場合、1秒から2秒までは「AAA.html」というWebページを表示し、2秒から3秒までは「BBB.html」というWebページを表示し、3秒以降は新たに開かれたウィンドウで「CCC.html」というWebページを表示したと機器の処理状態を判断する。
作業者状態判断手段6は、身体情報検出手段5で作業者の視線の位置として、操作開始1.5秒後に(50、50)、3.5秒後に(150、150)、4.5秒後に(50、50)を検出した場合、作業者は、操作開始1.5秒後にディスプレイ装置上の座標(50、50)に視線を向け、3.5秒後にディスプレイ装置上の座標(150、150)に視線を向け、4.5秒後にディスプレイ装置上の座標(50、50)に視線を向けたことを作業者の状態として判断する。
履歴テーブル生成手段7は、作業者が、1.5秒から2秒までは「AAA.html」というWebページを閲覧し、2秒から3.5秒までは「BBB.html」というWebページを閲覧し、3.5秒から4.5秒までは「CCC.html」というWebページを閲覧し、4.5秒以降は「BBB.html」というWebページを閲覧したこという履歴テーブルを作成する。なお、「load」コマンドが発生してから、ウィンドウが開かれ、コンテンツが表示されるまでにタイムラグがあることを想定している。
履歴テーブル生成手段7が生成した履歴のテーブルを図3に示す。視線(X、Y)が作業者の状態であり、ウインドウ(X,Y)が機器の処理状態である。これらの情報に基づいて、実際の作業状態である閲覧ページの情報が生成される。
問題箇所抽出手段8は、履歴テーブルに基づいて、機器に対する操作上の問題箇所を抽出する。また、問題箇所抽出手段(グラフ生成手段)8は、履歴テーブルを時系列に表現したグラフを生成する。操作上の問題箇所には、例えば同一の操作が繰り返されている箇所又は特定の作業の状態が一定時間以上継続されている箇所が含まれる。問題箇所抽出手段8は、操作上の問題のある箇所を抽出した場合、機器に対する操作上の問題箇所を、グラフ又はテーブル上に識別可能に生成する。表示手段9は、問題箇所抽出手段8が作成したグラフ又はテーブルをディスプレイ装置等に表示する処理を行う。表示手段9がテーブルを表示する場合は、例えば、時系列として時刻もしくは順番、状態としてページやウィンドウ、もしくプルダウンメニューなどのようなサブウィンドウが考えられる。
問題箇所抽出手段8は、Webページの閲覧することが作業者の作業の場合、例えば、図4に示すように作業者が閲覧しているWebページの移動を時系列に表現したグラフを作成する。図4は、作業状態の履歴をグラフに表現した場合の例示図である。グラフは横軸に時間、縦軸に作業状態をとった折れ線グラフで表現できる。ここでは、作業状態として利用者が閲覧したWebページの移動ページ番号を縦軸にとっている。
図4に示すように、作業者は、0秒から220秒の間、1ページ目のWebページに移動し、220秒から270秒までは2ページ目のWebページに移動し、270秒から290秒までは3ページ目のWebページに移動し、290秒から310秒までは5ページ目のWebページに移動し、310秒から320秒までは3ページ目のWebに移動し、320秒から350秒までは6ページ目のWebページに移動し、350秒から400秒までは3ページ目のWebページに移動し、400秒から440秒までは4ページ目のWebページに移動したことが作業者の作業として把握できる。
問題箇所抽出手段8は、図4に示すように、長時間にわたってページの移動をすることなく、同一のページが開いている状態と認識した箇所を、操作上の問題がある箇所と判断し、0秒から220秒あたりの線上を楕円1Pで囲むようにグラフを作成する。
また、問題箇所抽出手段8は、図4に示すように、ページの移動が段階的ではない箇所、すなわち、3ページ目から5ページ目に移動し、5ページ目から再び3ページ目に戻り、3ページ目から6ページ目に移動し、6ページ目から再度3ページ目に戻っている箇所を、操作上の問題がある箇所と判断し、270秒から350秒あたりの折れ線上を円2Pで囲むようにグラフを作成する。
問題箇所抽出手段8は、作業者が操作している機器への操作情報を、グラフ上に識別可能に生成する。このように、キーボードの操作による入力情報、マウスの操作による指示情報及びシステムの発行によるコマンド情報等の作業者が操作している機器に関する情報をグラフ上に記号や図形などの標識を用いて表示するようグラフを作成することで、作業者の操作が一層容易に把握できる。
図5は、作業者が操作している機器への操作情報を識別可能に表示した場合の例である。図5では、閲覧したWebページの移動を破線で示している。図5では、問題箇所抽出手段8は、「Window作成」「Windowを閉じる」「Activeウィンドウの変更」「戻る」「進む」「読み込み」などを、丸や四角形や三角形などの図形を用いて標識で分類し、グラフ上に表示するようにする。このように、グラフ上に所定の操作を図形などを用いて表すことにより、より詳細に操作の履歴を把握することができる。また、「load」コマンドが発生してから、ウィンドウが開かれ、コンテンツが表示されるまでにタイムラグがあるような場合は、見ているウィンドウを状態として折れ線グラフを作成し、コマンドをポイントとしてグラフ上に表示するようグラフを作成する。
図5に示すグラフは、図3に示すデータから作成される履歴テーブルに基づいて作成される。
次に、操作性評価装置2におけるCPU22の処理について、図7のフローチャートを参照して説明する。処理状態判断手段4は、操作情報検出手段3が検出した、作業者が操作している機器への操作情報に基づいて、機器の処理状態を判断する(ステップS101)。次に作業者状態判断手段6は、身体情報検出手段5が検出した作業者の身体情報に基づいて作業者の状態を判断する(ステップS102)。履歴テーブル生成手段7は、処理状態判断手段4からの機器の処理状態の情報と作業者状態判断手段6からの作業者の状態の情報とを対応付け、実際の作業状態に対応した履歴テーブルを生成する(ステップS103)。問題箇所抽出手段8は、履歴テーブルを時系列に表現したグラフ又はテーブルを生成する(ステップS104)。
問題箇所抽出手段8は、機器に対する操作上の問題の箇所があるかどうか判定する(ステップS105)。操作上の問題の箇所があった場合(ステップS105でYes)、問題箇所抽出手段8は、問題のある箇所を抽出し(ステップS106)、機器に対する操作上の問題箇所を、グラフ又はテーブル上に識別可能に生成する(ステップS107)。そして、表示手段9は、生成したグラフ又はテーブルをディスプレイ等に表示させる(ステップS108)。機器に対する操作上の問題のある箇所がなかった場合(ステップS105でNo)、表示手段9は、ステップS104で生成したグラフ又はテーブルをディスプレイ等に表示させる(ステップS108)。
尚、問題箇所抽出手段8は、グラフ又はテーブルを生成した後に機器に対する操作上の問題のある箇所を判定し、抽出するようにしているが、グラフ又はテーブルを作成する前に、履歴テーブルから、機器に対する操作上の問題のある箇所を判定し、抽出するようにしてもよい。
図8は、作業者が操作性評価装置2を用いて作業している場合の例示図である。作業者1Mは、操作性評価装置2に接続されたカメラ51により撮像される。また、作業者1Mは、操作性評価装置2に接続された脳波検出器52により、脳波を検出される。身体情報検出手段5は、カメラ51や脳波検出器52からの情報に基づいて、作業者1Mの身体情報を検出する。
以上本実施例によれば、作業者の身体情報に基づいて、作業者の状態を判断するので、作業者の状態を正確に把握することができ、機器の処理状態と作業者の状態とを対応付け、実際の作業状態に対応した履歴テーブルを生成するので、作業状態を正確に把握することができる。また、履歴テーブルに基づいて、機器に対する操作上の問題箇所を抽出するので、操作上の問題箇所を正確に把握することができる。従って、対象以外の画面を見ている等の作業者側に起因する問題がある場合であっても、正確にユーザビリティ評価を行うことができる。また、従来のようにビデオ撮影した作業者の画像を見直すことなくユーザビリティ評価を行うことができるので、低コストで且つ短時間で操作上の問題箇所を把握することができる。
なお、本発明による情報処理方法は、例えば、ROM21、CPU22、RAM23等を用いて実現され、プログラムをハードディスク装置や、CD−ROM、DVD(Digital Versatile Disk)またはフレキシブルディスクなどの可搬型記憶媒体等からインストールし、または通信回路からダウンロードし、CPU22がこのプログラムを実行することで、各ステップが実現される。
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
本発明の実施例に係るシステムの構成図である。 操作性評価装置2のハードウェア構成を示した図である。 操作性評価装置2が検出した操作情報のテーブルの例示図である。 作業状態の履歴をグラフに表現した場合の例示図である。 グラフ上に所定の情報を表現した場合の例示図である。 作業状態の履歴をテーブルに表現した場合の例示図である CPU22の処理フローチャート図である。 作業者が操作性評価装置2を用いて作業している場合の例示図である。
符号の説明
1 システム 9 表示手段
2 操作性評価装置 10 Webサーバ
3 操作情報検出手段 21 ROM
4 処理状態判断手段 22 CPU
5 身体情報検出手段 23 RAM
6 作業者状態判断手段 24 メモリ
7 履歴テーブル生成手段 25 I/F
8 問題箇所抽出手段

Claims (10)

  1. 作業者が操作している機器への操作情報を検出する操作情報検出手段と、
    前記操作情報検出手段が検出した操作情報に基づいて、前記機器の処理状態を判断する処理状態判断手段と、
    前記作業者の身体情報を検出する身体情報検出手段と、
    前記身体情報検出手段が検出した身体情報に基づいて、前記作業者の状態を判断する作業者状態判断手段と、
    前記処理状態判断手段からの機器の処理状態の情報と前記作業者状態判断手段からの作業者状態の情報とを対応付け、作業状態に対応した履歴テーブルを生成する履歴テーブル生成手段と、
    前記履歴テーブルに基づいて、前記機器に対する操作上の問題箇所を抽出する問題箇所抽出手段と
    を備えていることを特徴とする情報処理装置。
  2. 前記履歴テーブルを時系列に表現したグラフを生成するグラフ生成手段をさらに備えていることを特徴とする請求項1に記載の情報処理装置。
  3. 前記グラフ生成手段は、前記問題箇所抽出手段が抽出した操作上の問題箇所を、前記グラフ上に識別可能に生成することを特徴とする請求項2に記載の情報処理装置。
  4. 前記グラフ生成手段は、前記操作情報検出手段が検出した操作情報を、前記グラフ上に識別可能に生成することを特徴とする請求項2に記載の情報処理装置。
  5. 前記履歴テーブルを時系列に表現したグラフを生成するグラフ生成手段をさらに備え、
    前記操作情報検出手段は、前記作業者の閲覧しているページの操作に関する情報を前記作業者が操作している機器への操作情報として検出し、
    前記グラフ生成手段は、前記作業者が閲覧しているページの移動を実際の作業状態として前記グラフを作成することを特徴とする請求項1に記載の情報処理装置。
  6. 前記身体情報検出手段は、前記作業者の顔の向き、視線、及び脳波のうち少なくとも1つの情報を前記作業者の身体情報として検出することを特徴とする請求項1に記載の情報処理装置。
  7. 前記操作上の問題箇所は、同一の操作が繰り返されている箇所及び所定の作業の状態が一定時間以上継続されている箇所の少なくとも一方の箇所であることを特徴とする請求項1に記載の情報処理装置。
  8. 前記作業者が操作している機器への操作情報は、キーボードの操作による入力、マウスの操作による位置の指示及びシステムが発行するコマンドのうち少なくとも一つを含むことを特徴とする請求項1に記載の情報処理装置。
  9. 作業者が操作している機器への操作情報を検出するステップと、
    前記作業者が操作している機器への操作情報に基づいて、前記機器の処理状態を判断するステップと、
    前記作業者の身体情報を検出するステップと、
    前記作業者の身体情報に基づいて、前記作業者の状態を判断するステップと、
    前記機器の処理状態の情報と前記作業者の状態の情報とを対応付け、作業状態に対応した履歴テーブルを生成するステップと、
    前記履歴テーブルに基づいて、前記機器に対する操作上の問題箇所を抽出するステップと
    を有することを特徴とする情報処理方法。
  10. 作業者が操作している機器への操作情報を検出するステップと、
    前記作業者が操作している機器への操作情報に基づいて、前記機器の処理状態を判断するステップと、
    前記作業者の身体情報を検出するステップと、
    前記作業者の身体情報に基づいて、前記作業者の状態を判断するステップと、
    前記機器の処理状態の情報と前記作業者の状態の情報とを対応付け、作業状態に対応した履歴テーブル生成するステップと、
    前記履歴テーブルに基づいて、前記機器に対する操作上の問題箇所を抽出するステップと
    をコンピュータに実行させるためのプログラム。

JP2005278946A 2005-09-26 2005-09-26 情報処理装置、情報処理方法及びプログラム Pending JP2007094457A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005278946A JP2007094457A (ja) 2005-09-26 2005-09-26 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005278946A JP2007094457A (ja) 2005-09-26 2005-09-26 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2007094457A true JP2007094457A (ja) 2007-04-12

Family

ID=37980157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005278946A Pending JP2007094457A (ja) 2005-09-26 2005-09-26 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2007094457A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162096A (ja) * 2014-02-27 2015-09-07 三菱電機ビルテクノサービス株式会社 ツール分析支援装置及びプログラム
JP2016520918A (ja) * 2013-04-30 2016-07-14 ナスダック テクノロジー エービー アカウント残高ビューの可視化
JP2017175222A (ja) * 2016-03-18 2017-09-28 コニカミノルタ株式会社 画像処理装置、画像処理システムおよびプログラム
CN110874092A (zh) * 2018-08-31 2020-03-10 欧姆龙株式会社 能力计测装置、能力计测方法以及存储介质
JP2020068019A (ja) * 2018-10-23 2020-04-30 キヤノン電子株式会社 情報分析装置、情報分析方法、情報分析システムおよびプログラム
WO2020095695A1 (ja) * 2018-11-07 2020-05-14 日本電信電話株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP7289169B1 (ja) 2022-12-22 2023-06-09 アンカーデザイン株式会社 情報処理装置、方法、プログラム、およびシステム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016520918A (ja) * 2013-04-30 2016-07-14 ナスダック テクノロジー エービー アカウント残高ビューの可視化
JP2015162096A (ja) * 2014-02-27 2015-09-07 三菱電機ビルテクノサービス株式会社 ツール分析支援装置及びプログラム
JP2017175222A (ja) * 2016-03-18 2017-09-28 コニカミノルタ株式会社 画像処理装置、画像処理システムおよびプログラム
CN110874092A (zh) * 2018-08-31 2020-03-10 欧姆龙株式会社 能力计测装置、能力计测方法以及存储介质
JP2020068019A (ja) * 2018-10-23 2020-04-30 キヤノン電子株式会社 情報分析装置、情報分析方法、情報分析システムおよびプログラム
JP7412938B2 (ja) 2018-10-23 2024-01-15 キヤノン電子株式会社 情報分析装置、情報分析方法、情報分析システムおよびプログラム
WO2020095695A1 (ja) * 2018-11-07 2020-05-14 日本電信電話株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP2020077174A (ja) * 2018-11-07 2020-05-21 日本電信電話株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP7115233B2 (ja) 2018-11-07 2022-08-09 日本電信電話株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP7289169B1 (ja) 2022-12-22 2023-06-09 アンカーデザイン株式会社 情報処理装置、方法、プログラム、およびシステム
JP2024089780A (ja) * 2022-12-22 2024-07-04 アンカーデザイン株式会社 情報処理装置、方法、プログラム、およびシステム

Similar Documents

Publication Publication Date Title
US9756140B2 (en) Tracking user behavior relative to a network page
WO2015039566A1 (en) Method and system for facilitating automated web page testing
US20140137006A1 (en) Graphical Overlay Related To Data Mining And Analytics
CN103810089B (zh) 自动测试基于姿态的应用
CN100530085C (zh) 实现虚拟语音一键通功能的方法和装置
US20110087974A1 (en) User interface controls including capturing user mood in response to a user cue
JP2007094457A (ja) 情報処理装置、情報処理方法及びプログラム
CN105580384A (zh) 触摸屏上显示的可操作内容
CN102272757A (zh) 经由标记语言的客户端浏览器状态的服务器端记录的方法
CN104699602A (zh) 用于检测影响的方法和计算机
JP2006506698A (ja) マルチメディア・ファイルのツールチップ
US11175735B2 (en) Choice-based analytics that combine gaze and selection data
JP2009032099A (ja) シナリオ生成装置およびシナリオ生成プログラム
WO2015043352A1 (en) Method and apparatus for selecting test nodes on webpages
CN108647224A (zh) 页面显示方法、装置、存储介质和电子装置
CN114036501A (zh) 一种app的检测方法、系统、装置、设备及存储介质
US9092111B2 (en) Capturing information on a rendered user interface including user activatable content
JP4507206B2 (ja) インターネット情報収集装置、プログラム及び方法
CN105224448B (zh) 记录测试场景的方法和装置
JP2007234015A (ja) ユーザインタフェース内でナビゲートする方法、およびコンピュータ・プログラム
JP5344220B2 (ja) 測定装置および測定装置の操作方法
US20150026561A1 (en) System and method for displaying web page
JP2009134673A (ja) Gui画面操作シーケンス検証装置、方法、及び、プログラム
KR100835905B1 (ko) 웹사이트 방문자의 웹페이지 내부 클릭분포를 시각화하는장치 및 그를 이용하여 시각화하는 방법
CN113552977A (zh) 数据处理方法、装置、电子设备及计算机存储介质