JP2004013242A - Usability evaluation support method - Google Patents

Usability evaluation support method Download PDF

Info

Publication number
JP2004013242A
JP2004013242A JP2002162284A JP2002162284A JP2004013242A JP 2004013242 A JP2004013242 A JP 2004013242A JP 2002162284 A JP2002162284 A JP 2002162284A JP 2002162284 A JP2002162284 A JP 2002162284A JP 2004013242 A JP2004013242 A JP 2004013242A
Authority
JP
Japan
Prior art keywords
screen
user
evaluation
support method
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002162284A
Other languages
Japanese (ja)
Inventor
Yoshinobu Uchida
内田 吉宣
Chiaki Hirai
平井 千秋
Jun Shimabukuro
島袋 潤
Tadashi Tanaka
田中 匡史
Ko Kashimura
鹿志村 香
Yuki Hara
原 有希
Yoshifumi Kawasaki
河崎 宜史
Ryota Sanbe
三部 良太
Yasuto Yamaoka
山岡 康人
Hitoshi Yamadera
山寺 仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002162284A priority Critical patent/JP2004013242A/en
Publication of JP2004013242A publication Critical patent/JP2004013242A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for acquiring a user's subjective evaluation result together with log data such as screen transition operated by the user so as to evaluate usability on an Internet web site. <P>SOLUTION: A question screen is previously given corresponding to each user interface screen of a system to be evaluated, having a plurality of user interface screens subject to transition. When one of the user interface screens of the system to be evaluated is displayed, the corresponding question screen is simultaneously displayed, and data input by the user on the question screen is stored. The user data input on the question screen is transmitted to an evaluation system such that the system to be evaluated is not changed for evaluation. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明はインターネットのWebサイト等のシステムのユーザビリティ評価を行うための技術に関し、特に評価をするために必要なデータの収集方法に関する。
【0002】
【従来の技術】
ユーザビリティを評価する方法するとしては、例えば特開2001−51876に記載されるユーザビリティ評価装置がある。これは、システムの状態を履歴すると共に履歴を再現し、システムの使い勝手の程度の評価に資するものである。また、特開平8−161197記載のユーザ・インターフェース評価支援装置及びユーザ・インターフェース評価支援方法がある。これは、画面上に表示されたユーザ・インターフェースに対する操作の過程を記憶しておき、記憶された操作の過程に基づき、ユーザ・インターフェースにおける問題となる操作を判定しあるいはユーザ・インターフェース上の各ボタン間の操作の関連度を求め、その結果を画面上に表示するものである。
【0003】
【発明が解決しようとする課題】
上記特開2001−51876に記載の方法も特開平8−161197記載の記載の方法も、ユーザが任意に操作した画面遷移の履歴等のログを評価用データとして収集し分析するだけであった。ユーザビリティの評価においては、ユーザが使いやすいと判断するか否かが重要であるが、従来は評価対象システムに対するユーザの主観的評価結果を取得する方法がなかった。
【0004】
また、上記従来技術ではユーザの主観的評価結果等のログ以外の評価用データを取得するためには評価対象のWebサイトに改良を加える必要があった。
【0005】
更に、ユーザの特性等に応じたきめこまやかな評価可能なデータを収集することについても配慮がなかった。
【0006】
本発明の目的は、ユーザが操作した画面遷移等のログデータとともにユーザの主観的な評価結果を取得する技術を提供することにある。
【0007】
本発明の他の目的は、評価対象のWebサイト等のシステムには改良を加えずに評価用のデータを収集する技術を提供することにある。
【0008】
本発明の別の目的は、様々な評価方法をWebページの評価依頼者に提供することが可能な評価用データの収集技術を提供することにある。
【0009】
【課題を解決するための手段】
上記目的を達成すために、本発明の評価システムでは、ページの遷移ログだけでなく、遷移したときのユーザのページに対する感想・意見を遷移ページと関連つけてデータ取得することにより、評価システムが、評価対象システムの問題点を抽出するのに有効なデータの収集を可能とする。
【0010】
より具体的には、複数のユーザ・インターフェース画面間の遷移を伴う評価対象システムのユーザ・インターフェース画面毎に予め質問画面を対応させておき、該評価対象システムのユーザ・インターフェース画面が表示された時に、対応させておいた質問画面を同時に表示し、質問画面に入力されたユーザ入力を記憶する。
【0011】
また、上記他の目的を達成するために、ユーザ端末から入力されるログ以外のユーザデータに関してはユーザ端末から評価システムに送付されるようにして、評価対象のシステムとは別個の評価システムでデータ収集を可能とすることで、評価対象のWebサイトに手を加えることなくログデータ及びそれ以外の評価用データを取得できるようにした。
【0012】
別の目的を達成するために、ユーザの特性とログ等の評価用データを関連つけて収集しておくことで評価実行時に色々な視点からの評価を行うことを可能とする。
【0013】
【発明の実施の形態】
(実施例1)
以下、本発明の一実施例を図面を用いて詳細に説明する。第3図はネットワーク構成図である。評価者(以下、ユーザと呼ぶ)が利用する端末(10)と評価対象となるWebサーバ(20)と評価実験の際のデータを保管するプロキシサーバ(30)を有する。第2図は、端末10、Webサーバ20、プロキシサーバ30のそれぞれの計算機システムに共通のハードウェアブロック構成図である。キーボード、マウス、バーコードリーダなどのデータ入力手段(16)とCPU(13)と外部装置(17)と主記憶手段(14)とディスプレイ(11)とネットワーク接続装置(15)を有する。
【0014】
本発明の方法は、ユーザが使用する端末(10)、Webサーバ(20)、プロキシサーバ(30)のいずれの計算機で実装してもよいし、このネットワークにつながる別の計算機で実装してもよい。いずれの場合も以下図1で説明する処理手順からなる評価支援用プログラム及びプログラムで用いるデータベース(DB)等の関連データは、外部記憶装置17に格納される。評価実行時には外部記憶装置17から主記憶に順次読み出され、CPUが解釈実行することで評価支援処理を実行する。上記評価支援用プログラムは図示していないCD−ROM等の計算機システムで読み取り可能な記憶媒体に格納されて取引されることが多い。またはネットワークを介してサーバ等から配信される場合も有る。どちらの場合も計算機システムに取り込まれ外部記憶装置17に一旦格納されて前述した手順で実行される。
【0015】
本発明による実施例(以下、ユーザビリティ評価方法と呼ぶ)は図1に示す方法によって行われる。まず、図1のステップ100でユーザ情報の登録を行う。ユーザ情報登録画面の例を図4に示す。ユーザ情報登録画面はユーザに関する情報を入力させる。図4の例では、ユーザの名前、ユーザID、性別、年齢等を入力させる。ユーザ情報登録画面で入力されたデータは図1のユーザ情報DB(31)に書き込まれる。ユーザ情報DBのテーブル構成の例を図5に示す。図5の例では、ユーザ情報登録画面で入力されるユーザID(311)、名前(312)、性別(313)、年齢(314)、Web利用度(315)、Web購入度(316)、Web利用方法(317)のカラムを保持している。
【0016】
ユーザビリティ評価方法では、ユーザにある課題を行わせる中でユーザビリティを評価するデータを収集する。ユーザが行うべき課題を定義したものをタスクと呼び、タスクを順序付けて組み合わせたものをテストとして定義する。
【0017】
図1のステップ101はテストの設定を行う。ステップ101は、評価実験で使用するどのテストを行うかを設定する。テスト内容は図1のテストDB(32)からテストIDを読み込むことで設定する。テストDBのテーブル構成の例を図6に示す。図6の例では、テストID(321)、テストで行うタスクの順番(322)、タスクID(323)を保持している。テスト内容は、実験者が選択する。あるいは、ユーザ情報を基にして自動的にテストを決める方法を有してもよく、ランダムにテストを選択する方法を有してもよい。
【0018】
図1のステップ111はテストの中で行うタスクを設定し、タスクの初期画面(以下、タスク初期画面と呼ぶ)を表示する。ユーザビリティ評価方法では、“タスク順番”という変数でその時点で行っているタスクの順番を保持している。図1のステップ111では、まず図6のテストDBにおいてテストID(321)と“タスク順番”と一致する順番(322)に対応するタスクID(323)を取得し、読み込むことによりタスクを設定する。次に、タスク初期画面を表示する。タスク初期画面の例を図7に示す。タスク初期画面はユーザに行わせる課題を表示する。図7の例では、出張時の切符を購入するという課題を表示している。タスク初期画面は、図1のタスクDB(33)から読み込む。タスクDBのテーブル構成の例を図8に示す。図8の例では、タスクID(331)、タスク名(332)、タスク初期画面URL(333)、タスク説明画面URL(334)のカラムを保持している。図1のステップ111はこの情報を用い、図1のステップ101で設定されているタスクIDからタスク初期画面URLを取得し、表示する。
【0019】
図1のステップ102はプロキシ上で取得したユーザの操作をユーザ操作ログDB(34)に書き込む。ユーザ操作ログDBは、図3の評価者端末(10)における評価対象となる画面の遷移をユーザの操作記録として保持している。ユーザ操作ログDBのテーブル構成の例を図9に示す。図9の例では、ログID(341)、タスクID(342)、ユーザID(343)、評価対象画面のURL(344)、評価対象画面に遷移した時刻として遷移時刻(345)、次の遷移が起こった時刻として次遷移時刻(346)、評価対象画面からの遷移先画面URL(347)のカラムを保持している。図7の例では、リンク1021をクリックした時、タスク初期画面のURLに遷移した時刻が図9の遷移時刻(345)、タスク初期画面のURLが図9の評価対象画面URL(344)、図7のリンク1021の遷移先が図9の遷移先画面URL(347)、遷移先画面に遷移した時刻が図9の次遷移時刻(346)となる。
【0020】
図1のステップ103はユーザが行うべきタスクを説明する画面(タスク説明画面)を表示する。タスク説明画面は、ユーザがタスクを行う上で課題を忘れないように表示しておく画面である。また、ユーザが作業を断念した場合や終了したと判断した場合も、タスク説明画面にある“GiveUp”ボタンや“作業終了”ボタンをクリックする。図1のステップ103について、図10に詳細な処理フローを示す。図10のステップ1030は、図8のタスクDBにおいてタスクID(331)に対応するタスク説明画面URL(334)を取得する。ステップ1031は取得したタスク説明画面URLを評価対象画面とは別のウィンドウで表示する。ステップ1031で表示された画面の例を図11に示す。図11の例では、画面内の右側に評価対象画面である旅行ナビ検索画面(1033)が、左側にタスク説明画面(1032)が表示されている。
【0021】
図1のステップ104はステップ102と同様、ユーザの操作をユーザ操作ログDB(34)に書き込む。図11の例では、画面1033の「旅行ナビ検索画面」から画面1034の「駅名検索画面」へ遷移した場合は、「旅行ナビ検索画面」のURLが図9の評価対象URL(344)、「旅行ナビ検索画面」に遷移した時刻が図9の遷移時刻(345)、「駅名検索画面」のURLが図9の遷移先画面URL(347)、「駅名検索画面」に遷移した時刻が図9の次遷移時刻(346)となる。
【0022】
図1のステップ105はシナリオに応じて、ユーザに質問し回答を入力させる際の画面(指示フレーム)のURLを取得する。シナリオとは、タスクの作業を行うそれぞれの評価対象画面に対して質問内容と回答方法を定義したものである。シナリオの内容は図12のシナリオDB(35)の中に記述されている。シナリオDB(35)は、指示フレームのURLとその指示フレームをどのような条件で出すかを決定する条件を保持している。シナリオDBのテーブル構成の例を図12に示す。図12の例では、シナリオID(351)、タスクID(352)、評価対象画面URL(353)、Web利用度(354)、指示フレームURL(355)のカラムを保持している。図12の例では、Web利用度(354)が条件にあたる。図13に図1のステップ105の詳細な処理フローを示す。ステップ1050は、図1のユーザ操作ログDB(34)から評価対象画面のURLを取得する。図9のユーザ操作ログDBにおいて、ユーザのユーザID(343)に対応する遷移時刻が最新の評価対象画面URL(344)を取得する。図13のステップ1051は、図1のユーザ情報DB(31)から該当するユーザ情報を取得する。図12の例では、まず図5のユーザ情報DBからユーザのユーザID(311)に対応するWeb利用度(315)を取得する。図13のステップ1052は、図1のシナリオDB(35)からタスクID、ステップ1050で取り出した評価対象画面URL、ステップ1051で取り出したユーザ情報に対応する指示フレームのURLを取得する。図12の例では、評価対象画面URL(353)とWeb利用度(354)に対応する指示フレームURL(355)を取得する。
【0023】
図1のステップ106は回答画面を表示する。図14に詳細な処理フローを示す。図14のステップ1060は、遷移元である図12の評価対象画面URL(353)と指示フレームURL(355)とをフレームで区切った合成画面として作成する。図14のステップ1061は、作成した合成画面を新規ウィンドウで回答画面としてユーザ端末の最前面に表示する。回答画面の指示フレームの例を図15に表示する。図15の例では、遷移前後の内容に関する質問と遷移に関する意見を入力させている。
【0024】
図1のステップ107は回答画面で入力されたデータを図1のユーザ回答DB(36)に書き込む。ユーザ回答DBのテーブル構成の例を図16に示す。図16の例では、回答ログID(362)、ユーザID(363)、シナリオID(364)、回答(365)等のカラムを保持している。
タスクは、ユーザが作業を断念した場合や終了したと判断した場合に、タスク説明画面にある“GiveUp”ボタンや“作業終了”ボタンをクリックすることで終了する。
【0025】
図1のステップ108はタスク終了DBから、タスク終了時にユーザに質問し、回答を入力させる際の画面(タスク終了画面)のURLを取得する。タスク終了DBはタスク終了時の条件におけるタスク終了画面のURLを保持している。タスク終了DBのテーブル構成の例を図17に示す。図17の例では、シナリオ終了ID(371)、タスクID(372)、終了ボタン入力(373)、タスク終了画面URL(374)のカラムを保持する。
【0026】
図1のステップ109はタスク終了画面で入力されたデータを図1のユーザ回答DB(36)に書き込む。
【0027】
図1のステップ110はユーザ操作ログDB(34)とユーザ回答DB(36)を出力する。
【0028】
上記実施例よれば、ページの遷移ログに、ユーザのページに対する感想・意見(ユーザデータ)を関連つけてデータ収集するので、ユーザの視点を踏まえて評価対象システムの評価を行える評価システムが提供できる。
【0029】
また、ユーザ端末から入力されるログ以外のユーザデータに関してはユーザ端末から評価システムに送付されるようにするので、評価対象のシステムとは別個の評価システムでデータ収集を可能とできる。評価対象のWebサイトに手を加えることなくログデータ及びそれ以外の評価用データを取得できる。
【0030】
更に、ユーザの特性とログ等の評価用データを関連つけて収集しておくことで評価実行時に色々な視点からの評価を行うことを可能とする。
【0031】
【発明の効果】
本発明の評価システムでは、ページの遷移ログに、ユーザのページに対する感想・意見(ユーザデータ)を関連つけてデータ収集するので、ユーザの視点を踏まえて評価対象システムの評価を行える評価システムが提供できる。
【0032】
また、ユーザ端末から入力されるログ以外のユーザデータに関してはユーザ端末から評価システムに送付されるようにするので、評価対象のシステムとは別個の評価システムでデータ収集を可能とできる。評価対象のWebサイトに手を加えることなくログデータ及びそれ以外の評価用データを取得できる。
【0033】
更に、ユーザの特性とログ等の評価用データを関連つけて収集しておくことで評価実行時に色々な視点からの評価を行うことを可能とする。
【図面の簡単な説明】
【図1】本発明の一実施例の処理手順を表すフローチャート。
【図2】システム構成を示すブロック図。
【図3】ネットワークシステム全体を示す構成図。
【図4】ユーザ情報登録画面を示す図。
【図5】ユーザ情報DBの構成図。
【図6】テストDBの構成図。
【図7】タスク初期画面を示す図。
【図8】タスクDBの構成図。
【図9】ユーザ端末作業時の処理手順を示すフローチャート。
【図10】ユーザ端末作業画面を示す図。
【図11】ユーザ操作ログDBの構成図。
【図12】シナリオ表示処理手順を示すフローチャート。
【図13】シナリオ表示処理手順を示すフローチャート。
【図14】ユーザ端末回答時の手順を示すフローチャート。
【図15】ユーザ端末回答時画面を示す図。
【図16】ユーザ回答DBの構成図。
【図17】タスク終了質問DBの構成図。
【符号の説明】
11…ディスプレイ、13…CPU、14…主記憶装置、15…ネットワーク接続装置、16…データ入力手段、17…外部記憶装置。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technology for evaluating usability of a system such as an Internet Web site, and more particularly to a method for collecting data necessary for evaluation.
[0002]
[Prior art]
As a method of evaluating usability, for example, there is a usability evaluation device described in JP-A-2001-51876. This contributes to the evaluation of the usability of the system by recording the state of the system and reproducing the history. Further, there is a user interface evaluation support device and a user interface evaluation support method described in Japanese Patent Application Laid-Open No. 8-161197. In this method, a process of operation on the user interface displayed on the screen is stored, and a problematic operation in the user interface is determined based on the stored process of operation, or each button on the user interface is determined. The degree of relevance between operations is obtained, and the result is displayed on a screen.
[0003]
[Problems to be solved by the invention]
Both the method described in JP-A-2001-51876 and the method described in JP-A-8-161197 merely collect and analyze logs such as the history of screen transitions arbitrarily operated by the user as evaluation data. In the usability evaluation, it is important to determine whether or not the user is easy to use. However, conventionally, there has been no method for acquiring the user's subjective evaluation result for the evaluation target system.
[0004]
Further, in the above-described conventional technology, it is necessary to improve a Web site to be evaluated in order to obtain evaluation data other than a log such as a subjective evaluation result of a user.
[0005]
Further, there is no consideration regarding collecting evaluable data that is elaborate according to the characteristics of the user.
[0006]
An object of the present invention is to provide a technique for acquiring a user's subjective evaluation result together with log data such as screen transitions operated by the user.
[0007]
Another object of the present invention is to provide a technique for collecting evaluation data without making any improvement to a system such as a Web site to be evaluated.
[0008]
Another object of the present invention is to provide an evaluation data collection technique capable of providing various evaluation methods to a Web page evaluation requester.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the evaluation system of the present invention obtains not only the transition log of the page but also the impressions and opinions of the user at the time of the transition in association with the transition page, thereby obtaining an evaluation system. In addition, it is possible to collect data effective for extracting a problem of the system to be evaluated.
[0010]
More specifically, a question screen is associated in advance for each user interface screen of the evaluation target system with transitions between a plurality of user interface screens, and when the user interface screen of the evaluation target system is displayed , The corresponding question screen is displayed at the same time, and the user input entered on the question screen is stored.
[0011]
Further, in order to achieve the above other object, user data other than the log input from the user terminal is sent from the user terminal to the evaluation system, and the data is transmitted to the evaluation system separate from the system to be evaluated. By enabling collection, log data and other evaluation data can be obtained without modifying the Web site to be evaluated.
[0012]
In order to achieve another object, it is possible to perform evaluation from various viewpoints at the time of evaluation execution by collecting user characteristics and evaluation data such as logs in association with each other.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
(Example 1)
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 3 is a network configuration diagram. It has a terminal (10) used by an evaluator (hereinafter referred to as a user), a Web server (20) to be evaluated, and a proxy server (30) for storing data for evaluation experiments. FIG. 2 is a hardware block configuration diagram common to the computer systems of the terminal 10, the Web server 20, and the proxy server 30. It has data input means (16) such as a keyboard, a mouse, and a barcode reader, a CPU (13), an external device (17), a main storage means (14), a display (11), and a network connection device (15).
[0014]
The method of the present invention may be implemented on any computer of the terminal (10), the Web server (20), and the proxy server (30) used by the user, or may be implemented on another computer connected to this network. Good. In any case, the evaluation support program including the processing procedure described below with reference to FIG. 1 and related data such as a database (DB) used in the program are stored in the external storage device 17. When the evaluation is performed, the evaluation support processing is executed by sequentially reading the data from the external storage device 17 to the main storage and interpreting and executing the CPU. The evaluation support program is often stored in a storage medium readable by a computer system such as a CD-ROM (not shown) and traded. Alternatively, the information may be distributed from a server or the like via a network. In either case, the data is taken into the computer system, temporarily stored in the external storage device 17, and executed according to the above-described procedure.
[0015]
An embodiment according to the present invention (hereinafter referred to as a usability evaluation method) is performed by the method shown in FIG. First, user information is registered in step 100 of FIG. FIG. 4 shows an example of the user information registration screen. The user information registration screen allows the user to input information about the user. In the example of FIG. 4, the user is asked to enter the name, user ID, gender, age, and the like. The data input on the user information registration screen is written to the user information DB (31) in FIG. FIG. 5 shows an example of a table configuration of the user information DB. In the example of FIG. 5, the user ID (311), name (312), gender (313), age (314), Web usage (315), Web purchase (316), Web input entered on the user information registration screen The column of the usage method (317) is held.
[0016]
In a usability evaluation method, data for evaluating usability is collected while allowing a user to perform a certain task. A task that defines a task to be performed by a user is called a task, and a set of tasks ordered and defined is defined as a test.
[0017]
Step 101 of FIG. 1 sets a test. Step 101 sets which test used in the evaluation experiment is to be performed. The test content is set by reading a test ID from the test DB (32) in FIG. FIG. 6 shows an example of the table configuration of the test DB. In the example of FIG. 6, the test ID (321), the order of the tasks to be performed in the test (322), and the task ID (323) are held. The test content is selected by the experimenter. Alternatively, a method for automatically determining a test based on user information may be provided, or a method for randomly selecting a test may be provided.
[0018]
Step 111 in FIG. 1 sets a task to be performed in the test and displays an initial screen of the task (hereinafter, referred to as a task initial screen). In the usability evaluation method, a variable called “task order” holds the order of tasks performed at that time. In step 111 of FIG. 1, a task ID (323) corresponding to the test ID (321) and the order (322) that matches the "task order" in the test DB of FIG. . Next, a task initial screen is displayed. FIG. 7 shows an example of the task initial screen. The task initial screen displays tasks to be performed by the user. In the example of FIG. 7, the problem of purchasing a ticket for a business trip is displayed. The task initial screen is read from the task DB (33) in FIG. FIG. 8 shows an example of a table configuration of the task DB. In the example of FIG. 8, columns of a task ID (331), a task name (332), a task initial screen URL (333), and a task description screen URL (334) are held. In step 111 of FIG. 1, using this information, a task initial screen URL is acquired from the task ID set in step 101 of FIG. 1 and displayed.
[0019]
Step 102 in FIG. 1 writes the user operation acquired on the proxy in the user operation log DB (34). The user operation log DB holds the transition of the screen to be evaluated in the evaluator terminal (10) of FIG. 3 as a user operation record. FIG. 9 shows an example of a table configuration of the user operation log DB. In the example of FIG. 9, the log ID (341), the task ID (342), the user ID (343), the URL of the evaluation target screen (344), the transition time (345) as the time of transition to the evaluation target screen, and the next transition The column of the next transition time (346) as the time when the event occurred and the transition destination screen URL (347) from the evaluation target screen are held. In the example of FIG. 7, when the link 1021 is clicked, the transition time to the task initial screen URL is the transition time (345) in FIG. 9, and the task initial screen URL is the evaluation target screen URL (344) in FIG. The transition destination of the link 1021 of No. 7 is the transition destination screen URL (347) in FIG. 9, and the time when the transition to the transition destination screen is the next transition time (346) in FIG.
[0020]
Step 103 in FIG. 1 displays a screen (task explanation screen) for explaining a task to be performed by the user. The task explanation screen is a screen for displaying the task so that the user does not forget the task when performing the task. Also, when the user gives up the work or determines that the work has been completed, the user clicks the “GiveUp” button or the “Work end” button on the task explanation screen. FIG. 10 shows a detailed processing flow for step 103 in FIG. Step 1030 in FIG. 10 acquires the task description screen URL (334) corresponding to the task ID (331) in the task DB in FIG. A step 1031 displays the obtained task explanation screen URL in a window different from the evaluation target screen. FIG. 11 shows an example of the screen displayed in step 1031. In the example of FIG. 11, a travel navigation search screen (1033), which is an evaluation target screen, is displayed on the right side of the screen, and a task explanation screen (1032) is displayed on the left side.
[0021]
Step 104 in FIG. 1 writes the user's operation to the user operation log DB (34) as in step 102. In the example of FIG. 11, when a transition has been made from the “Travel Navigation Search Screen” on the screen 1033 to the “Station Name Search Screen” on the screen 1034, the URLs of the “Travel Navigation Search Screen” are the evaluation target URLs (344), The transition time to the “travel navigation search screen” is the transition time (345) in FIG. 9, and the URL of the “station name search screen” is the transition destination screen URL (347) in FIG. 9 and the time when the transition to the “station name search screen” is FIG. Is the next transition time (346).
[0022]
In step 105 of FIG. 1, a URL of a screen (instruction frame) when the user is asked a question and inputs an answer is acquired according to the scenario. A scenario defines a question content and an answer method for each evaluation target screen for performing a task operation. The contents of the scenario are described in the scenario DB (35) of FIG. The scenario DB (35) holds the URL of the instruction frame and the conditions for determining the conditions under which the instruction frame is issued. FIG. 12 shows an example of a table configuration of the scenario DB. In the example of FIG. 12, columns of a scenario ID (351), a task ID (352), an evaluation target screen URL (353), a Web usage (354), and an instruction frame URL (355) are held. In the example of FIG. 12, the Web usage (354) is a condition. FIG. 13 shows a detailed processing flow of step 105 in FIG. A step 1050 obtains the URL of the evaluation target screen from the user operation log DB (34) of FIG. In the user operation log DB of FIG. 9, the transition time corresponding to the user's user ID (343) acquires the latest evaluation target screen URL (344). Step 1051 in FIG. 13 acquires the corresponding user information from the user information DB (31) in FIG. In the example of FIG. 12, first, the Web usage (315) corresponding to the user ID (311) of the user is acquired from the user information DB of FIG. In step 1052 of FIG. 13, the task ID, the evaluation target screen URL extracted in step 1050, and the URL of the instruction frame corresponding to the user information extracted in step 1051 are acquired from the scenario DB (35) in FIG. In the example of FIG. 12, an instruction frame URL (355) corresponding to the evaluation target screen URL (353) and the Web usage (354) is acquired.
[0023]
Step 106 of FIG. 1 displays an answer screen. FIG. 14 shows a detailed processing flow. In step 1060 in FIG. 14, the evaluation target screen URL (353) and the instruction frame URL (355) in FIG. 12, which are the transition sources, are created as a composite screen separated by frames. Step 1061 in FIG. 14 displays the created composite screen as a response screen in a new window on the front of the user terminal. FIG. 15 shows an example of the instruction frame of the answer screen. In the example of FIG. 15, a question regarding the contents before and after the transition and an opinion regarding the transition are input.
[0024]
Step 107 in FIG. 1 writes the data input on the answer screen to the user answer DB (36) in FIG. FIG. 16 shows an example of a table configuration of the user answer DB. In the example of FIG. 16, columns such as an answer log ID (362), a user ID (363), a scenario ID (364), and an answer (365) are held.
The task ends when the user gives up the work or determines that the work is finished, by clicking a “GiveUp” button or a “Work finished” button on the task explanation screen.
[0025]
In step 108 of FIG. 1, a question is asked to the user at the end of the task and a URL of a screen (task end screen) for inputting an answer is acquired from the task end DB. The task end DB holds the URL of the task end screen under the condition at the time of task end. FIG. 17 shows an example of a table configuration of the task end DB. In the example of FIG. 17, columns of a scenario end ID (371), a task ID (372), an end button input (373), and a task end screen URL (374) are held.
[0026]
Step 109 in FIG. 1 writes the data input on the task end screen into the user answer DB (36) in FIG.
[0027]
Step 110 of FIG. 1 outputs a user operation log DB (34) and a user answer DB (36).
[0028]
According to the above-described embodiment, data is collected by associating the user's impressions and opinions (user data) with the page transition log with the page transition log. Therefore, it is possible to provide an evaluation system capable of evaluating the evaluation target system from the viewpoint of the user. .
[0029]
In addition, since user data other than the log input from the user terminal is sent from the user terminal to the evaluation system, data can be collected by an evaluation system separate from the system to be evaluated. The log data and other evaluation data can be obtained without modifying the evaluation target Web site.
[0030]
Further, by collecting the user's characteristics and evaluation data such as logs in association with each other, it is possible to perform evaluation from various viewpoints at the time of executing the evaluation.
[0031]
【The invention's effect】
The evaluation system of the present invention collects data by linking the user's impressions and opinions (user data) to the page transition log with the page transition log, and thus provides an evaluation system capable of evaluating the evaluation target system from the viewpoint of the user. it can.
[0032]
In addition, since user data other than the log input from the user terminal is sent from the user terminal to the evaluation system, data can be collected by an evaluation system separate from the system to be evaluated. Log data and other evaluation data can be acquired without modifying the evaluation target Web site.
[0033]
Further, by collecting the user's characteristics and evaluation data such as logs in association with each other, it is possible to perform evaluation from various viewpoints at the time of executing the evaluation.
[Brief description of the drawings]
FIG. 1 is a flowchart illustrating a processing procedure according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a system configuration.
FIG. 3 is a configuration diagram showing the entire network system.
FIG. 4 is a diagram showing a user information registration screen.
FIG. 5 is a configuration diagram of a user information DB.
FIG. 6 is a configuration diagram of a test DB.
FIG. 7 is a diagram showing a task initial screen.
FIG. 8 is a configuration diagram of a task DB.
FIG. 9 is a flowchart showing a processing procedure at the time of user terminal work.
FIG. 10 is a diagram showing a user terminal work screen.
FIG. 11 is a configuration diagram of a user operation log DB.
FIG. 12 is a flowchart showing a scenario display processing procedure.
FIG. 13 is a flowchart illustrating a scenario display processing procedure.
FIG. 14 is a flowchart showing a procedure when answering a user terminal.
FIG. 15 is a diagram showing a screen when a user terminal answers.
FIG. 16 is a configuration diagram of a user answer DB.
FIG. 17 is a configuration diagram of a task end question DB.
[Explanation of symbols]
11 display, 13 CPU, 14 main storage device, 15 network connection device, 16 data input means, 17 external storage device.

Claims (17)

複数のユーザ・インターフェース画面間の遷移を伴う評価対象システムの評価支援方法であって、
ユーザ端末に、前記評価対象システムのユーザ・インターフェース画面とともに該ユーザ・インターフェース画面に対する質問画面をユーザ端末に表示可能とせしめ、前記質問画面に対して入力されたユーザ入力データを収集することを特徴とする画面遷移を伴う評価対象システムの評価支援方法。
An evaluation support method for an evaluation target system involving transition between a plurality of user interface screens,
The user terminal, together with a user interface screen of the evaluation target system, a question screen for the user interface screen can be displayed on the user terminal, and user input data input to the question screen is collected. Supporting method of evaluation target system with screen transition.
請求項1の評価支援方法において更に、前記ユーザ・インターフェース画面の遷移ログを収集することを特徴とする評価支援方法。2. The evaluation support method according to claim 1, further comprising collecting a transition log of the user interface screen. 請求項1の評価支援方法において、前記質問画面を対応する前記ユーザ・インターフェース画面とともに前記ユーザ端末に表示させることを特徴とする評価支援方法。2. The evaluation support method according to claim 1, wherein the question screen is displayed on the user terminal together with the corresponding user interface screen. 請求項1の評価支援方法において、前記質問画面に対して入力されたユーザ入力データは、前記評価対象システムとは別の評価支援システムにアドレスされるようにしたことを特徴とする評価支援方法。2. The evaluation support method according to claim 1, wherein the user input data input to the question screen is addressed to an evaluation support system different from the evaluation target system. 請求項1の評価支援方法であって、更に前記ユーザ端末にユーザの特性を入力するための表示画面を表示させて、前記ユーザ入力データとともに評価用データとして収集することを特徴とする評価支援方法。2. The evaluation support method according to claim 1, further comprising displaying a display screen for inputting characteristics of a user on the user terminal, and collecting the display data together with the user input data as evaluation data. . 複数のユーザ・インターフェース画面間の遷移を伴う評価対象システムのユーザ・インターフェース画面毎に予めユーザに入力させるべき情報とユーザ・インターフェース画面間の遷移情報との組に対応させて質問画面を定義する定義情報を有し、評価対象システムのユーザ・インターフェース画面が表示された時に、ユーザが実際に入力した情報と実際に発生したユーザ・インターフェース画面間の遷移から、該定義情報を用いて対応づけられている質問画面を表示し、質問画面に入力されたユーザ入力を記憶することを特徴とする評価支援方法。Definition that defines a question screen corresponding to a set of information to be input by the user in advance and transition information between user interface screens for each user interface screen of the evaluation target system involving transitions between a plurality of user interface screens Information, and when the user interface screen of the evaluation target system is displayed, it is associated with the transition information between the information actually input by the user and the actually generated user interface screen using the definition information. An evaluation support method comprising: displaying a question screen, and storing a user input input to the question screen. 請求項1乃至6の1に記載の評価支援方法において、ユーザ入力データの収集に先だち、前記ユーザに行ってもらう課題の説明及び前記評価対象システムの最初の画面への接続方法とを前記ユーザ端末に表示することを特徴とする評価支援方法。7. The evaluation support method according to claim 1, wherein prior to collection of user input data, a description of a task to be performed by the user and a method of connecting to a first screen of the evaluation target system are provided by the user terminal. An evaluation support method characterized in that the evaluation support method is displayed on a display. 請求項7において、予め複数の課題の組合せと順序を一つのテストとして、複数のテストを定義しておき、ユーザに予め複数のテストの中から定めたテストを行わせることを特徴とした評価支援方法。8. The evaluation support according to claim 7, wherein a plurality of tests are defined in advance by defining a combination and an order of a plurality of tasks as one test, and a user is allowed to perform a predetermined test among the plurality of tests. Method. 請求項8において、複数のテストの中から一つのテストを選択する方法として、ユーザに入力させた情報に基づいてテストを決定することを特徴とした評価支援方法。9. The evaluation support method according to claim 8, wherein a test is determined based on information input by a user as a method of selecting one test from a plurality of tests. 請求項8において、複数のテストの中から一つのテストを選択する方法として、ランダムに選択したテストを行わせることを特徴とした評価支援方法。9. The evaluation support method according to claim 8, wherein a test selected at random is performed as a method of selecting one test from a plurality of tests. 請求項1乃至6の1において、評価対象システムから遷移できる全ての画面の中からいくつかを評価対象画面として定義し、評価対象画面ではない画面への遷移が生じた場合に、予め用意した指示画面を表示することを特徴とした評価支援方法。7. The screen according to claim 1, wherein some of all screens that can be transitioned from the evaluation target system are defined as evaluation target screens, and when a transition to a screen other than the evaluation target screen occurs, an instruction prepared in advance is provided. An evaluation support method characterized by displaying a screen. 請求項1乃至6の1において、ユーザ・インターフェース画面の最前面に質問画面を表示することを特徴とした評価支援方法。7. The evaluation support method according to claim 1, wherein a question screen is displayed in the foreground of the user interface screen. 請求項7において、課題を説明する画面を、評価対象システムのユーザ・インターフェース画面の横に表示することを特徴とした評価支援方法。8. The evaluation support method according to claim 7, wherein a screen explaining the problem is displayed beside a user interface screen of the evaluation target system. 請求項7に記載の課題において、課題の説明情報を基に行わせた作業の終了を、ユーザが宣言する方法を複数有することを特徴とした評価支援方法。8. The evaluation support method according to claim 7, wherein the user has a plurality of methods for declaring the end of the work performed based on the explanation information of the problem. 請求項1乃至6の1において、質問画面として1つの画面内に質問部分と評価対象システムのユーザ・インターフェース部分を表示し、かつ評価対象システムのユーザ・インターフェース画面の遷移元のユーザ・インターフェース画面を表示することを特徴とした評価支援方法。7. The method according to claim 1, wherein a question part and a user interface part of the evaluation target system are displayed in one screen as a question screen, and a transition source user interface screen of the user interface screen of the evaluation target system is displayed. An evaluation support method characterized by displaying. 請求項14に記載の作業終了の宣言方法において、ユーザが課題をやり完遂した時の入力とユーザが課題の完遂を諦めた時の入力を有することを特徴とした評価支援方法。15. The evaluation support method according to claim 14, further comprising an input when the user completes the task and an input when the user gives up completing the task. 複数のユーザ・インターフェース画面間の遷移を伴う評価対象システムの評価支援方法であって、
ユーザ端末からの指示に応じた前記画面の遷移ログを収集するとともに、ユーザ端末に表示された画面に関して該ユーザ端末から入力された該画面に対するユーザの感想や意見を画面のIDと対応つけて記憶することを特徴とする評価支援方法。
An evaluation support method for an evaluation target system involving transition between a plurality of user interface screens,
While collecting the transition log of the screen according to the instruction from the user terminal, storing the impressions and opinions of the user with respect to the screen displayed on the user terminal with respect to the screen input from the user terminal in association with the screen ID. Evaluation support method characterized by performing.
JP2002162284A 2002-06-04 2002-06-04 Usability evaluation support method Pending JP2004013242A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002162284A JP2004013242A (en) 2002-06-04 2002-06-04 Usability evaluation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002162284A JP2004013242A (en) 2002-06-04 2002-06-04 Usability evaluation support method

Publications (1)

Publication Number Publication Date
JP2004013242A true JP2004013242A (en) 2004-01-15

Family

ID=30431063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002162284A Pending JP2004013242A (en) 2002-06-04 2002-06-04 Usability evaluation support method

Country Status (1)

Country Link
JP (1) JP2004013242A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253348A (en) * 2010-06-02 2011-12-15 Nec Corp Usability evaluation support device, method and program for web base system
CN103430156A (en) * 2011-03-15 2013-12-04 惠普发展公司,有限责任合伙企业 Usability testing

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325802A (en) * 1994-05-31 1995-12-12 At & T Corp Usability measuring method
JPH11133846A (en) * 1997-10-31 1999-05-21 Nippon Telegr & Teleph Corp <Ntt> Method and system for supporting teaching material generation and storage medium storing teaching material generation support program
JP2001022837A (en) * 1999-07-05 2001-01-26 Ntt Data Corp Life-style improvement support device and recording medium
JP2001051876A (en) * 1999-08-09 2001-02-23 Fuji Xerox Co Ltd Usability evaluating device
JP2002123409A (en) * 2000-10-17 2002-04-26 Nec Corp Gui evaluating system, gui evaluating method therefor and recording medium with gui evaluation program recorded thereon
JP2002132839A (en) * 2000-10-18 2002-05-10 Matsuda Sangyo Kk System and method for evaluating operation skill
JP2002152706A (en) * 2000-11-14 2002-05-24 Network Community Creation:Kk Moving picture evaluation method for watching and evaluating moving picture in real time

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325802A (en) * 1994-05-31 1995-12-12 At & T Corp Usability measuring method
JPH11133846A (en) * 1997-10-31 1999-05-21 Nippon Telegr & Teleph Corp <Ntt> Method and system for supporting teaching material generation and storage medium storing teaching material generation support program
JP2001022837A (en) * 1999-07-05 2001-01-26 Ntt Data Corp Life-style improvement support device and recording medium
JP2001051876A (en) * 1999-08-09 2001-02-23 Fuji Xerox Co Ltd Usability evaluating device
JP2002123409A (en) * 2000-10-17 2002-04-26 Nec Corp Gui evaluating system, gui evaluating method therefor and recording medium with gui evaluation program recorded thereon
JP2002132839A (en) * 2000-10-18 2002-05-10 Matsuda Sangyo Kk System and method for evaluating operation skill
JP2002152706A (en) * 2000-11-14 2002-05-24 Network Community Creation:Kk Moving picture evaluation method for watching and evaluating moving picture in real time

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大野健彦: "Web画面における情報選択行動と視線の関係", 映像情報メディア学会技術報告, vol. 第24巻,第38号, CSNG200201438005, 22 June 2000 (2000-06-22), ISSN: 0000800095 *
宮田信雄: "ユニバーサルデザインを目指した顧客取引画面の開発", OMRON TECHNICS, vol. 第40巻,第4号, CSNH200300057004, 20 December 2000 (2000-12-20), pages 59 - 67, ISSN: 0000800094 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253348A (en) * 2010-06-02 2011-12-15 Nec Corp Usability evaluation support device, method and program for web base system
CN103430156A (en) * 2011-03-15 2013-12-04 惠普发展公司,有限责任合伙企业 Usability testing
US9588879B2 (en) 2011-03-15 2017-03-07 Hewlett Packard Enterprise Development Lp Usability testing

Similar Documents

Publication Publication Date Title
CA2335125C (en) System and method for auditing network applications
US6360235B1 (en) Objective measurement and graph theory modeling of web sites
US8260903B2 (en) System and method for assessing the usability and accessibility of Web 2.0 features and functionalities of websites
JP5366173B2 (en) Operation support server device, operation support method, and computer program
US20060015390A1 (en) System and method for identifying and approaching browsers most likely to transact business based upon real-time data mining
JP2007172377A (en) Method for analyzing state transition in web page
JP2002529823A (en) Full Service Research Secretariat and Testing Center Methods and Equipment
Rowbottom et al. An exploration of the potential for studying the usage of investor relations information through the analysis of Web server logs
US20070092857A1 (en) Method and apparatus for supporting training, and computer product
Tsakonas et al. Evaluation of user interaction in digital libraries
JP2002092291A (en) Method for investigating questionnaire, questionnaire system and recording medium
JP2007102647A (en) Questionnaire preparation method and system
JP2010186283A (en) Information processor, information processing method, and information processing program
JP2010079502A (en) Information processor and program
JP2015001795A (en) Personality analysis system and personality analysis program
JP2005242619A (en) User activity history visualizing/analyzing method and device, user activity history visualizing/analyzing device, and program
US8010517B2 (en) Apparatus, method and system for tabulation processing, and recording medium
JP2006313483A (en) Content evaluation method
JP2004013242A (en) Usability evaluation support method
US11494793B2 (en) Systems and methods for the generation, administration and analysis of click testing
CN113468400A (en) List rendering method, device and equipment for visual webpage and storage medium
JP2004110123A (en) Hyper text analysis method, analysis program and its system
JP2004157848A (en) Action evaluation system and action evaluation program
JP5669330B2 (en) RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND RECOMMENDATION PROGRAM
Sheard et al. Determining website usage time from interactions: Data preparation and analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040825

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070612