JP2004013242A - Usability evaluation support method - Google Patents
Usability evaluation support method Download PDFInfo
- Publication number
- JP2004013242A JP2004013242A JP2002162284A JP2002162284A JP2004013242A JP 2004013242 A JP2004013242 A JP 2004013242A JP 2002162284 A JP2002162284 A JP 2002162284A JP 2002162284 A JP2002162284 A JP 2002162284A JP 2004013242 A JP2004013242 A JP 2004013242A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- user
- evaluation
- support method
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Debugging And Monitoring (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明はインターネットのWebサイト等のシステムのユーザビリティ評価を行うための技術に関し、特に評価をするために必要なデータの収集方法に関する。
【0002】
【従来の技術】
ユーザビリティを評価する方法するとしては、例えば特開2001−51876に記載されるユーザビリティ評価装置がある。これは、システムの状態を履歴すると共に履歴を再現し、システムの使い勝手の程度の評価に資するものである。また、特開平8−161197記載のユーザ・インターフェース評価支援装置及びユーザ・インターフェース評価支援方法がある。これは、画面上に表示されたユーザ・インターフェースに対する操作の過程を記憶しておき、記憶された操作の過程に基づき、ユーザ・インターフェースにおける問題となる操作を判定しあるいはユーザ・インターフェース上の各ボタン間の操作の関連度を求め、その結果を画面上に表示するものである。
【0003】
【発明が解決しようとする課題】
上記特開2001−51876に記載の方法も特開平8−161197記載の記載の方法も、ユーザが任意に操作した画面遷移の履歴等のログを評価用データとして収集し分析するだけであった。ユーザビリティの評価においては、ユーザが使いやすいと判断するか否かが重要であるが、従来は評価対象システムに対するユーザの主観的評価結果を取得する方法がなかった。
【0004】
また、上記従来技術ではユーザの主観的評価結果等のログ以外の評価用データを取得するためには評価対象のWebサイトに改良を加える必要があった。
【0005】
更に、ユーザの特性等に応じたきめこまやかな評価可能なデータを収集することについても配慮がなかった。
【0006】
本発明の目的は、ユーザが操作した画面遷移等のログデータとともにユーザの主観的な評価結果を取得する技術を提供することにある。
【0007】
本発明の他の目的は、評価対象のWebサイト等のシステムには改良を加えずに評価用のデータを収集する技術を提供することにある。
【0008】
本発明の別の目的は、様々な評価方法をWebページの評価依頼者に提供することが可能な評価用データの収集技術を提供することにある。
【0009】
【課題を解決するための手段】
上記目的を達成すために、本発明の評価システムでは、ページの遷移ログだけでなく、遷移したときのユーザのページに対する感想・意見を遷移ページと関連つけてデータ取得することにより、評価システムが、評価対象システムの問題点を抽出するのに有効なデータの収集を可能とする。
【0010】
より具体的には、複数のユーザ・インターフェース画面間の遷移を伴う評価対象システムのユーザ・インターフェース画面毎に予め質問画面を対応させておき、該評価対象システムのユーザ・インターフェース画面が表示された時に、対応させておいた質問画面を同時に表示し、質問画面に入力されたユーザ入力を記憶する。
【0011】
また、上記他の目的を達成するために、ユーザ端末から入力されるログ以外のユーザデータに関してはユーザ端末から評価システムに送付されるようにして、評価対象のシステムとは別個の評価システムでデータ収集を可能とすることで、評価対象のWebサイトに手を加えることなくログデータ及びそれ以外の評価用データを取得できるようにした。
【0012】
別の目的を達成するために、ユーザの特性とログ等の評価用データを関連つけて収集しておくことで評価実行時に色々な視点からの評価を行うことを可能とする。
【0013】
【発明の実施の形態】
(実施例1)
以下、本発明の一実施例を図面を用いて詳細に説明する。第3図はネットワーク構成図である。評価者(以下、ユーザと呼ぶ)が利用する端末(10)と評価対象となるWebサーバ(20)と評価実験の際のデータを保管するプロキシサーバ(30)を有する。第2図は、端末10、Webサーバ20、プロキシサーバ30のそれぞれの計算機システムに共通のハードウェアブロック構成図である。キーボード、マウス、バーコードリーダなどのデータ入力手段(16)とCPU(13)と外部装置(17)と主記憶手段(14)とディスプレイ(11)とネットワーク接続装置(15)を有する。
【0014】
本発明の方法は、ユーザが使用する端末(10)、Webサーバ(20)、プロキシサーバ(30)のいずれの計算機で実装してもよいし、このネットワークにつながる別の計算機で実装してもよい。いずれの場合も以下図1で説明する処理手順からなる評価支援用プログラム及びプログラムで用いるデータベース(DB)等の関連データは、外部記憶装置17に格納される。評価実行時には外部記憶装置17から主記憶に順次読み出され、CPUが解釈実行することで評価支援処理を実行する。上記評価支援用プログラムは図示していないCD−ROM等の計算機システムで読み取り可能な記憶媒体に格納されて取引されることが多い。またはネットワークを介してサーバ等から配信される場合も有る。どちらの場合も計算機システムに取り込まれ外部記憶装置17に一旦格納されて前述した手順で実行される。
【0015】
本発明による実施例(以下、ユーザビリティ評価方法と呼ぶ)は図1に示す方法によって行われる。まず、図1のステップ100でユーザ情報の登録を行う。ユーザ情報登録画面の例を図4に示す。ユーザ情報登録画面はユーザに関する情報を入力させる。図4の例では、ユーザの名前、ユーザID、性別、年齢等を入力させる。ユーザ情報登録画面で入力されたデータは図1のユーザ情報DB(31)に書き込まれる。ユーザ情報DBのテーブル構成の例を図5に示す。図5の例では、ユーザ情報登録画面で入力されるユーザID(311)、名前(312)、性別(313)、年齢(314)、Web利用度(315)、Web購入度(316)、Web利用方法(317)のカラムを保持している。
【0016】
ユーザビリティ評価方法では、ユーザにある課題を行わせる中でユーザビリティを評価するデータを収集する。ユーザが行うべき課題を定義したものをタスクと呼び、タスクを順序付けて組み合わせたものをテストとして定義する。
【0017】
図1のステップ101はテストの設定を行う。ステップ101は、評価実験で使用するどのテストを行うかを設定する。テスト内容は図1のテストDB(32)からテストIDを読み込むことで設定する。テストDBのテーブル構成の例を図6に示す。図6の例では、テストID(321)、テストで行うタスクの順番(322)、タスクID(323)を保持している。テスト内容は、実験者が選択する。あるいは、ユーザ情報を基にして自動的にテストを決める方法を有してもよく、ランダムにテストを選択する方法を有してもよい。
【0018】
図1のステップ111はテストの中で行うタスクを設定し、タスクの初期画面(以下、タスク初期画面と呼ぶ)を表示する。ユーザビリティ評価方法では、“タスク順番”という変数でその時点で行っているタスクの順番を保持している。図1のステップ111では、まず図6のテストDBにおいてテストID(321)と“タスク順番”と一致する順番(322)に対応するタスクID(323)を取得し、読み込むことによりタスクを設定する。次に、タスク初期画面を表示する。タスク初期画面の例を図7に示す。タスク初期画面はユーザに行わせる課題を表示する。図7の例では、出張時の切符を購入するという課題を表示している。タスク初期画面は、図1のタスクDB(33)から読み込む。タスクDBのテーブル構成の例を図8に示す。図8の例では、タスクID(331)、タスク名(332)、タスク初期画面URL(333)、タスク説明画面URL(334)のカラムを保持している。図1のステップ111はこの情報を用い、図1のステップ101で設定されているタスクIDからタスク初期画面URLを取得し、表示する。
【0019】
図1のステップ102はプロキシ上で取得したユーザの操作をユーザ操作ログDB(34)に書き込む。ユーザ操作ログDBは、図3の評価者端末(10)における評価対象となる画面の遷移をユーザの操作記録として保持している。ユーザ操作ログDBのテーブル構成の例を図9に示す。図9の例では、ログID(341)、タスクID(342)、ユーザID(343)、評価対象画面のURL(344)、評価対象画面に遷移した時刻として遷移時刻(345)、次の遷移が起こった時刻として次遷移時刻(346)、評価対象画面からの遷移先画面URL(347)のカラムを保持している。図7の例では、リンク1021をクリックした時、タスク初期画面のURLに遷移した時刻が図9の遷移時刻(345)、タスク初期画面のURLが図9の評価対象画面URL(344)、図7のリンク1021の遷移先が図9の遷移先画面URL(347)、遷移先画面に遷移した時刻が図9の次遷移時刻(346)となる。
【0020】
図1のステップ103はユーザが行うべきタスクを説明する画面(タスク説明画面)を表示する。タスク説明画面は、ユーザがタスクを行う上で課題を忘れないように表示しておく画面である。また、ユーザが作業を断念した場合や終了したと判断した場合も、タスク説明画面にある“GiveUp”ボタンや“作業終了”ボタンをクリックする。図1のステップ103について、図10に詳細な処理フローを示す。図10のステップ1030は、図8のタスクDBにおいてタスクID(331)に対応するタスク説明画面URL(334)を取得する。ステップ1031は取得したタスク説明画面URLを評価対象画面とは別のウィンドウで表示する。ステップ1031で表示された画面の例を図11に示す。図11の例では、画面内の右側に評価対象画面である旅行ナビ検索画面(1033)が、左側にタスク説明画面(1032)が表示されている。
【0021】
図1のステップ104はステップ102と同様、ユーザの操作をユーザ操作ログDB(34)に書き込む。図11の例では、画面1033の「旅行ナビ検索画面」から画面1034の「駅名検索画面」へ遷移した場合は、「旅行ナビ検索画面」のURLが図9の評価対象URL(344)、「旅行ナビ検索画面」に遷移した時刻が図9の遷移時刻(345)、「駅名検索画面」のURLが図9の遷移先画面URL(347)、「駅名検索画面」に遷移した時刻が図9の次遷移時刻(346)となる。
【0022】
図1のステップ105はシナリオに応じて、ユーザに質問し回答を入力させる際の画面(指示フレーム)のURLを取得する。シナリオとは、タスクの作業を行うそれぞれの評価対象画面に対して質問内容と回答方法を定義したものである。シナリオの内容は図12のシナリオDB(35)の中に記述されている。シナリオDB(35)は、指示フレームのURLとその指示フレームをどのような条件で出すかを決定する条件を保持している。シナリオDBのテーブル構成の例を図12に示す。図12の例では、シナリオID(351)、タスクID(352)、評価対象画面URL(353)、Web利用度(354)、指示フレームURL(355)のカラムを保持している。図12の例では、Web利用度(354)が条件にあたる。図13に図1のステップ105の詳細な処理フローを示す。ステップ1050は、図1のユーザ操作ログDB(34)から評価対象画面のURLを取得する。図9のユーザ操作ログDBにおいて、ユーザのユーザID(343)に対応する遷移時刻が最新の評価対象画面URL(344)を取得する。図13のステップ1051は、図1のユーザ情報DB(31)から該当するユーザ情報を取得する。図12の例では、まず図5のユーザ情報DBからユーザのユーザID(311)に対応するWeb利用度(315)を取得する。図13のステップ1052は、図1のシナリオDB(35)からタスクID、ステップ1050で取り出した評価対象画面URL、ステップ1051で取り出したユーザ情報に対応する指示フレームのURLを取得する。図12の例では、評価対象画面URL(353)とWeb利用度(354)に対応する指示フレームURL(355)を取得する。
【0023】
図1のステップ106は回答画面を表示する。図14に詳細な処理フローを示す。図14のステップ1060は、遷移元である図12の評価対象画面URL(353)と指示フレームURL(355)とをフレームで区切った合成画面として作成する。図14のステップ1061は、作成した合成画面を新規ウィンドウで回答画面としてユーザ端末の最前面に表示する。回答画面の指示フレームの例を図15に表示する。図15の例では、遷移前後の内容に関する質問と遷移に関する意見を入力させている。
【0024】
図1のステップ107は回答画面で入力されたデータを図1のユーザ回答DB(36)に書き込む。ユーザ回答DBのテーブル構成の例を図16に示す。図16の例では、回答ログID(362)、ユーザID(363)、シナリオID(364)、回答(365)等のカラムを保持している。
タスクは、ユーザが作業を断念した場合や終了したと判断した場合に、タスク説明画面にある“GiveUp”ボタンや“作業終了”ボタンをクリックすることで終了する。
【0025】
図1のステップ108はタスク終了DBから、タスク終了時にユーザに質問し、回答を入力させる際の画面(タスク終了画面)のURLを取得する。タスク終了DBはタスク終了時の条件におけるタスク終了画面のURLを保持している。タスク終了DBのテーブル構成の例を図17に示す。図17の例では、シナリオ終了ID(371)、タスクID(372)、終了ボタン入力(373)、タスク終了画面URL(374)のカラムを保持する。
【0026】
図1のステップ109はタスク終了画面で入力されたデータを図1のユーザ回答DB(36)に書き込む。
【0027】
図1のステップ110はユーザ操作ログDB(34)とユーザ回答DB(36)を出力する。
【0028】
上記実施例よれば、ページの遷移ログに、ユーザのページに対する感想・意見(ユーザデータ)を関連つけてデータ収集するので、ユーザの視点を踏まえて評価対象システムの評価を行える評価システムが提供できる。
【0029】
また、ユーザ端末から入力されるログ以外のユーザデータに関してはユーザ端末から評価システムに送付されるようにするので、評価対象のシステムとは別個の評価システムでデータ収集を可能とできる。評価対象のWebサイトに手を加えることなくログデータ及びそれ以外の評価用データを取得できる。
【0030】
更に、ユーザの特性とログ等の評価用データを関連つけて収集しておくことで評価実行時に色々な視点からの評価を行うことを可能とする。
【0031】
【発明の効果】
本発明の評価システムでは、ページの遷移ログに、ユーザのページに対する感想・意見(ユーザデータ)を関連つけてデータ収集するので、ユーザの視点を踏まえて評価対象システムの評価を行える評価システムが提供できる。
【0032】
また、ユーザ端末から入力されるログ以外のユーザデータに関してはユーザ端末から評価システムに送付されるようにするので、評価対象のシステムとは別個の評価システムでデータ収集を可能とできる。評価対象のWebサイトに手を加えることなくログデータ及びそれ以外の評価用データを取得できる。
【0033】
更に、ユーザの特性とログ等の評価用データを関連つけて収集しておくことで評価実行時に色々な視点からの評価を行うことを可能とする。
【図面の簡単な説明】
【図1】本発明の一実施例の処理手順を表すフローチャート。
【図2】システム構成を示すブロック図。
【図3】ネットワークシステム全体を示す構成図。
【図4】ユーザ情報登録画面を示す図。
【図5】ユーザ情報DBの構成図。
【図6】テストDBの構成図。
【図7】タスク初期画面を示す図。
【図8】タスクDBの構成図。
【図9】ユーザ端末作業時の処理手順を示すフローチャート。
【図10】ユーザ端末作業画面を示す図。
【図11】ユーザ操作ログDBの構成図。
【図12】シナリオ表示処理手順を示すフローチャート。
【図13】シナリオ表示処理手順を示すフローチャート。
【図14】ユーザ端末回答時の手順を示すフローチャート。
【図15】ユーザ端末回答時画面を示す図。
【図16】ユーザ回答DBの構成図。
【図17】タスク終了質問DBの構成図。
【符号の説明】
11…ディスプレイ、13…CPU、14…主記憶装置、15…ネットワーク接続装置、16…データ入力手段、17…外部記憶装置。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technology for evaluating usability of a system such as an Internet Web site, and more particularly to a method for collecting data necessary for evaluation.
[0002]
[Prior art]
As a method of evaluating usability, for example, there is a usability evaluation device described in JP-A-2001-51876. This contributes to the evaluation of the usability of the system by recording the state of the system and reproducing the history. Further, there is a user interface evaluation support device and a user interface evaluation support method described in Japanese Patent Application Laid-Open No. 8-161197. In this method, a process of operation on the user interface displayed on the screen is stored, and a problematic operation in the user interface is determined based on the stored process of operation, or each button on the user interface is determined. The degree of relevance between operations is obtained, and the result is displayed on a screen.
[0003]
[Problems to be solved by the invention]
Both the method described in JP-A-2001-51876 and the method described in JP-A-8-161197 merely collect and analyze logs such as the history of screen transitions arbitrarily operated by the user as evaluation data. In the usability evaluation, it is important to determine whether or not the user is easy to use. However, conventionally, there has been no method for acquiring the user's subjective evaluation result for the evaluation target system.
[0004]
Further, in the above-described conventional technology, it is necessary to improve a Web site to be evaluated in order to obtain evaluation data other than a log such as a subjective evaluation result of a user.
[0005]
Further, there is no consideration regarding collecting evaluable data that is elaborate according to the characteristics of the user.
[0006]
An object of the present invention is to provide a technique for acquiring a user's subjective evaluation result together with log data such as screen transitions operated by the user.
[0007]
Another object of the present invention is to provide a technique for collecting evaluation data without making any improvement to a system such as a Web site to be evaluated.
[0008]
Another object of the present invention is to provide an evaluation data collection technique capable of providing various evaluation methods to a Web page evaluation requester.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the evaluation system of the present invention obtains not only the transition log of the page but also the impressions and opinions of the user at the time of the transition in association with the transition page, thereby obtaining an evaluation system. In addition, it is possible to collect data effective for extracting a problem of the system to be evaluated.
[0010]
More specifically, a question screen is associated in advance for each user interface screen of the evaluation target system with transitions between a plurality of user interface screens, and when the user interface screen of the evaluation target system is displayed , The corresponding question screen is displayed at the same time, and the user input entered on the question screen is stored.
[0011]
Further, in order to achieve the above other object, user data other than the log input from the user terminal is sent from the user terminal to the evaluation system, and the data is transmitted to the evaluation system separate from the system to be evaluated. By enabling collection, log data and other evaluation data can be obtained without modifying the Web site to be evaluated.
[0012]
In order to achieve another object, it is possible to perform evaluation from various viewpoints at the time of evaluation execution by collecting user characteristics and evaluation data such as logs in association with each other.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
(Example 1)
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 3 is a network configuration diagram. It has a terminal (10) used by an evaluator (hereinafter referred to as a user), a Web server (20) to be evaluated, and a proxy server (30) for storing data for evaluation experiments. FIG. 2 is a hardware block configuration diagram common to the computer systems of the
[0014]
The method of the present invention may be implemented on any computer of the terminal (10), the Web server (20), and the proxy server (30) used by the user, or may be implemented on another computer connected to this network. Good. In any case, the evaluation support program including the processing procedure described below with reference to FIG. 1 and related data such as a database (DB) used in the program are stored in the
[0015]
An embodiment according to the present invention (hereinafter referred to as a usability evaluation method) is performed by the method shown in FIG. First, user information is registered in
[0016]
In a usability evaluation method, data for evaluating usability is collected while allowing a user to perform a certain task. A task that defines a task to be performed by a user is called a task, and a set of tasks ordered and defined is defined as a test.
[0017]
Step 101 of FIG. 1 sets a test. Step 101 sets which test used in the evaluation experiment is to be performed. The test content is set by reading a test ID from the test DB (32) in FIG. FIG. 6 shows an example of the table configuration of the test DB. In the example of FIG. 6, the test ID (321), the order of the tasks to be performed in the test (322), and the task ID (323) are held. The test content is selected by the experimenter. Alternatively, a method for automatically determining a test based on user information may be provided, or a method for randomly selecting a test may be provided.
[0018]
Step 111 in FIG. 1 sets a task to be performed in the test and displays an initial screen of the task (hereinafter, referred to as a task initial screen). In the usability evaluation method, a variable called “task order” holds the order of tasks performed at that time. In
[0019]
Step 102 in FIG. 1 writes the user operation acquired on the proxy in the user operation log DB (34). The user operation log DB holds the transition of the screen to be evaluated in the evaluator terminal (10) of FIG. 3 as a user operation record. FIG. 9 shows an example of a table configuration of the user operation log DB. In the example of FIG. 9, the log ID (341), the task ID (342), the user ID (343), the URL of the evaluation target screen (344), the transition time (345) as the time of transition to the evaluation target screen, and the next transition The column of the next transition time (346) as the time when the event occurred and the transition destination screen URL (347) from the evaluation target screen are held. In the example of FIG. 7, when the
[0020]
Step 103 in FIG. 1 displays a screen (task explanation screen) for explaining a task to be performed by the user. The task explanation screen is a screen for displaying the task so that the user does not forget the task when performing the task. Also, when the user gives up the work or determines that the work has been completed, the user clicks the “GiveUp” button or the “Work end” button on the task explanation screen. FIG. 10 shows a detailed processing flow for step 103 in FIG.
[0021]
Step 104 in FIG. 1 writes the user's operation to the user operation log DB (34) as in
[0022]
In
[0023]
Step 106 of FIG. 1 displays an answer screen. FIG. 14 shows a detailed processing flow. In
[0024]
Step 107 in FIG. 1 writes the data input on the answer screen to the user answer DB (36) in FIG. FIG. 16 shows an example of a table configuration of the user answer DB. In the example of FIG. 16, columns such as an answer log ID (362), a user ID (363), a scenario ID (364), and an answer (365) are held.
The task ends when the user gives up the work or determines that the work is finished, by clicking a “GiveUp” button or a “Work finished” button on the task explanation screen.
[0025]
In
[0026]
Step 109 in FIG. 1 writes the data input on the task end screen into the user answer DB (36) in FIG.
[0027]
Step 110 of FIG. 1 outputs a user operation log DB (34) and a user answer DB (36).
[0028]
According to the above-described embodiment, data is collected by associating the user's impressions and opinions (user data) with the page transition log with the page transition log. Therefore, it is possible to provide an evaluation system capable of evaluating the evaluation target system from the viewpoint of the user. .
[0029]
In addition, since user data other than the log input from the user terminal is sent from the user terminal to the evaluation system, data can be collected by an evaluation system separate from the system to be evaluated. The log data and other evaluation data can be obtained without modifying the evaluation target Web site.
[0030]
Further, by collecting the user's characteristics and evaluation data such as logs in association with each other, it is possible to perform evaluation from various viewpoints at the time of executing the evaluation.
[0031]
【The invention's effect】
The evaluation system of the present invention collects data by linking the user's impressions and opinions (user data) to the page transition log with the page transition log, and thus provides an evaluation system capable of evaluating the evaluation target system from the viewpoint of the user. it can.
[0032]
In addition, since user data other than the log input from the user terminal is sent from the user terminal to the evaluation system, data can be collected by an evaluation system separate from the system to be evaluated. Log data and other evaluation data can be acquired without modifying the evaluation target Web site.
[0033]
Further, by collecting the user's characteristics and evaluation data such as logs in association with each other, it is possible to perform evaluation from various viewpoints at the time of executing the evaluation.
[Brief description of the drawings]
FIG. 1 is a flowchart illustrating a processing procedure according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a system configuration.
FIG. 3 is a configuration diagram showing the entire network system.
FIG. 4 is a diagram showing a user information registration screen.
FIG. 5 is a configuration diagram of a user information DB.
FIG. 6 is a configuration diagram of a test DB.
FIG. 7 is a diagram showing a task initial screen.
FIG. 8 is a configuration diagram of a task DB.
FIG. 9 is a flowchart showing a processing procedure at the time of user terminal work.
FIG. 10 is a diagram showing a user terminal work screen.
FIG. 11 is a configuration diagram of a user operation log DB.
FIG. 12 is a flowchart showing a scenario display processing procedure.
FIG. 13 is a flowchart illustrating a scenario display processing procedure.
FIG. 14 is a flowchart showing a procedure when answering a user terminal.
FIG. 15 is a diagram showing a screen when a user terminal answers.
FIG. 16 is a configuration diagram of a user answer DB.
FIG. 17 is a configuration diagram of a task end question DB.
[Explanation of symbols]
11 display, 13 CPU, 14 main storage device, 15 network connection device, 16 data input means, 17 external storage device.
Claims (17)
ユーザ端末に、前記評価対象システムのユーザ・インターフェース画面とともに該ユーザ・インターフェース画面に対する質問画面をユーザ端末に表示可能とせしめ、前記質問画面に対して入力されたユーザ入力データを収集することを特徴とする画面遷移を伴う評価対象システムの評価支援方法。An evaluation support method for an evaluation target system involving transition between a plurality of user interface screens,
The user terminal, together with a user interface screen of the evaluation target system, a question screen for the user interface screen can be displayed on the user terminal, and user input data input to the question screen is collected. Supporting method of evaluation target system with screen transition.
ユーザ端末からの指示に応じた前記画面の遷移ログを収集するとともに、ユーザ端末に表示された画面に関して該ユーザ端末から入力された該画面に対するユーザの感想や意見を画面のIDと対応つけて記憶することを特徴とする評価支援方法。An evaluation support method for an evaluation target system involving transition between a plurality of user interface screens,
While collecting the transition log of the screen according to the instruction from the user terminal, storing the impressions and opinions of the user with respect to the screen displayed on the user terminal with respect to the screen input from the user terminal in association with the screen ID. Evaluation support method characterized by performing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002162284A JP2004013242A (en) | 2002-06-04 | 2002-06-04 | Usability evaluation support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002162284A JP2004013242A (en) | 2002-06-04 | 2002-06-04 | Usability evaluation support method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004013242A true JP2004013242A (en) | 2004-01-15 |
Family
ID=30431063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002162284A Pending JP2004013242A (en) | 2002-06-04 | 2002-06-04 | Usability evaluation support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004013242A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011253348A (en) * | 2010-06-02 | 2011-12-15 | Nec Corp | Usability evaluation support device, method and program for web base system |
CN103430156A (en) * | 2011-03-15 | 2013-12-04 | 惠普发展公司,有限责任合伙企业 | Usability testing |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07325802A (en) * | 1994-05-31 | 1995-12-12 | At & T Corp | Usability measuring method |
JPH11133846A (en) * | 1997-10-31 | 1999-05-21 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for supporting teaching material generation and storage medium storing teaching material generation support program |
JP2001022837A (en) * | 1999-07-05 | 2001-01-26 | Ntt Data Corp | Life-style improvement support device and recording medium |
JP2001051876A (en) * | 1999-08-09 | 2001-02-23 | Fuji Xerox Co Ltd | Usability evaluating device |
JP2002123409A (en) * | 2000-10-17 | 2002-04-26 | Nec Corp | Gui evaluating system, gui evaluating method therefor and recording medium with gui evaluation program recorded thereon |
JP2002132839A (en) * | 2000-10-18 | 2002-05-10 | Matsuda Sangyo Kk | System and method for evaluating operation skill |
JP2002152706A (en) * | 2000-11-14 | 2002-05-24 | Network Community Creation:Kk | Moving picture evaluation method for watching and evaluating moving picture in real time |
-
2002
- 2002-06-04 JP JP2002162284A patent/JP2004013242A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07325802A (en) * | 1994-05-31 | 1995-12-12 | At & T Corp | Usability measuring method |
JPH11133846A (en) * | 1997-10-31 | 1999-05-21 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for supporting teaching material generation and storage medium storing teaching material generation support program |
JP2001022837A (en) * | 1999-07-05 | 2001-01-26 | Ntt Data Corp | Life-style improvement support device and recording medium |
JP2001051876A (en) * | 1999-08-09 | 2001-02-23 | Fuji Xerox Co Ltd | Usability evaluating device |
JP2002123409A (en) * | 2000-10-17 | 2002-04-26 | Nec Corp | Gui evaluating system, gui evaluating method therefor and recording medium with gui evaluation program recorded thereon |
JP2002132839A (en) * | 2000-10-18 | 2002-05-10 | Matsuda Sangyo Kk | System and method for evaluating operation skill |
JP2002152706A (en) * | 2000-11-14 | 2002-05-24 | Network Community Creation:Kk | Moving picture evaluation method for watching and evaluating moving picture in real time |
Non-Patent Citations (2)
Title |
---|
大野健彦: "Web画面における情報選択行動と視線の関係", 映像情報メディア学会技術報告, vol. 第24巻,第38号, CSNG200201438005, 22 June 2000 (2000-06-22), ISSN: 0000800095 * |
宮田信雄: "ユニバーサルデザインを目指した顧客取引画面の開発", OMRON TECHNICS, vol. 第40巻,第4号, CSNH200300057004, 20 December 2000 (2000-12-20), pages 59 - 67, ISSN: 0000800094 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011253348A (en) * | 2010-06-02 | 2011-12-15 | Nec Corp | Usability evaluation support device, method and program for web base system |
CN103430156A (en) * | 2011-03-15 | 2013-12-04 | 惠普发展公司,有限责任合伙企业 | Usability testing |
US9588879B2 (en) | 2011-03-15 | 2017-03-07 | Hewlett Packard Enterprise Development Lp | Usability testing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2335125C (en) | System and method for auditing network applications | |
US6360235B1 (en) | Objective measurement and graph theory modeling of web sites | |
US8260903B2 (en) | System and method for assessing the usability and accessibility of Web 2.0 features and functionalities of websites | |
JP5366173B2 (en) | Operation support server device, operation support method, and computer program | |
US20060015390A1 (en) | System and method for identifying and approaching browsers most likely to transact business based upon real-time data mining | |
JP2007172377A (en) | Method for analyzing state transition in web page | |
JP2002529823A (en) | Full Service Research Secretariat and Testing Center Methods and Equipment | |
Rowbottom et al. | An exploration of the potential for studying the usage of investor relations information through the analysis of Web server logs | |
US20070092857A1 (en) | Method and apparatus for supporting training, and computer product | |
Tsakonas et al. | Evaluation of user interaction in digital libraries | |
JP2002092291A (en) | Method for investigating questionnaire, questionnaire system and recording medium | |
JP2007102647A (en) | Questionnaire preparation method and system | |
JP2010186283A (en) | Information processor, information processing method, and information processing program | |
JP2010079502A (en) | Information processor and program | |
JP2015001795A (en) | Personality analysis system and personality analysis program | |
JP2005242619A (en) | User activity history visualizing/analyzing method and device, user activity history visualizing/analyzing device, and program | |
US8010517B2 (en) | Apparatus, method and system for tabulation processing, and recording medium | |
JP2006313483A (en) | Content evaluation method | |
JP2004013242A (en) | Usability evaluation support method | |
US11494793B2 (en) | Systems and methods for the generation, administration and analysis of click testing | |
CN113468400A (en) | List rendering method, device and equipment for visual webpage and storage medium | |
JP2004110123A (en) | Hyper text analysis method, analysis program and its system | |
JP2004157848A (en) | Action evaluation system and action evaluation program | |
JP5669330B2 (en) | RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND RECOMMENDATION PROGRAM | |
Sheard et al. | Determining website usage time from interactions: Data preparation and analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040825 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070612 |