JP2005527859A - スキルベースのテストおよびトレーニングのための方法およびシステム - Google Patents

スキルベースのテストおよびトレーニングのための方法およびシステム Download PDF

Info

Publication number
JP2005527859A
JP2005527859A JP2004508316A JP2004508316A JP2005527859A JP 2005527859 A JP2005527859 A JP 2005527859A JP 2004508316 A JP2004508316 A JP 2004508316A JP 2004508316 A JP2004508316 A JP 2004508316A JP 2005527859 A JP2005527859 A JP 2005527859A
Authority
JP
Japan
Prior art keywords
application
simulation
response
storage medium
scenario
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004508316A
Other languages
English (en)
Inventor
ディー. オーア グレン
エル. カウフマン グレゴリー
ジー. コープ ゲアリー
Original Assignee
エスエムティーエム テクノロジーズ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エスエムティーエム テクノロジーズ エルエルシー filed Critical エスエムティーエム テクノロジーズ エルエルシー
Publication of JP2005527859A publication Critical patent/JP2005527859A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

アプリケーションのスキルベースのテストおよびトレーニングのための方法およびシステムを提供する。実施形態の例は、スキルベースシミュレーション・測定システム「SBSMS」を提供する。これにより、テストおよびトレーニングのプログラムのパブリッシャおよびオーサは、生徒をテストおよびトレーニングするためのシミュレートされたアプリケーション環境を提供することができる。一実施形態では、SBSMSはクライアント部分およびサーバ部分を備える。クライアント部分は、生徒によって実行された生徒の応答を追跡するシミュレーションエンジンを含む。サーバ部分は、クライアント側のシミュレーションエンジンを実施するために用いられるコンポーネントおよびデータを備え、スキルベースのテスト・トレーニングエンジン、シミュレーションコンポーネント、非シミュレーションコンポーネント、およびテスト・トレーニングシナリオと生徒データのリポジトリを含む。サーバ部分は、シミュレーションコンポーネントおよび非シミュレーションコンポーネントを用いて、シナリオの部分に対する要求を受け取り、それら要求に応じる。サーバ部分エンジンは、クライアント部分から生徒の応答および得点を受け取り、それらをユーザ単位、シナリオ単位にてデータリポジトリに記憶する。クライアント部分およびサーバ部分は、協働して、テストおよびトレーニングのシナリオにおけるスキルベースのシミュレーションおよび測定を提供する。

Description

本発明は、スキルベースのテストおよびトレーニングのためのコンピュータシステムにおける方法およびシステムに関し、より詳細には、シミュレートされたアプリケーションとの対話によってオペレータのスキルをテストまたはトレーニングすることができるようにアプリケーションをシミュレートする方法およびシステムに関する。
組織がよりグローバルとなり、その機能および専門技術が物理的に分散するにつれて、人事プロセスや職員の能力を改善する方法を探す際に、効率的なトレーニングおよびテストのためのツールがますます必要となる。テクノロジーは絶え間なく変化しているので、組織において現在のスキルレベルの状態を測定することはますます困難になり、常に変わりつつある新たなアプリケーションで職員をトレーニングすることも困難となる。一部の組織は、組織内での知識の分散化を進めることで差別化を図ろうとしている。コンピュータ支援によるテストおよびトレーニングは、この課題を達成するための一手段である。
しかし、今日のコンピュータ支援によるテストおよびトレーニングには限界がある。2つの手法が現在利用されている。第1の手法では、アプリケーション自体を起動することで、アプリケーションに関するテストおよびトレーニングを行う。この手法には多くの欠点がある。例えば、そのアプリケーションは適切な許諾を受けなければならない。また、テストやトレーニングは、製品の特定のリリース(製品を新しく発売すること)に縛られる。したがって、テストまたはトレーニングのシナリオは、アプリケーションのリビジョン(修正、改定)ごとに改訂しなければならない。第2の手法では、アプリケーションから「録画された(canned)」(例えばキャプチャされた)画像を用いてテスト/トレーニングを行う。これにより、ユーザが見ているもの、またはユーザが既に知っていることに関する問題に対してユーザに解答してもらうというテストおよびトレーニングの状況を作り出すことができる。しかし、その結果は、特にトレーニングに関しては限定される。というのは、ユーザがアプリケーションとは対話していないからである。
また、これらのいずれの手法を用いても、テスト受験者およびトレーニング受講者について収集される情報のタイプは一般に、「知識ベース」のテスト/トレーニングまたは「成績ベース」のテスト/トレーニングと呼ばれるものに制限される。具体的には、ユーザ(テスト受験者またはトレーニング受講者)は一般に、問題に対する解答の正誤、すなわち、ユーザが特定の分野の知識を有するかどうかについて判断される。同様に、ユーザが所定の(例えば、ある成績の「レベル」を構成する)解答のセットと比較されるか、または他のユーザと比較される場合、そのテスト/トレーニングは「成績」ベースとみなされる。いずれの場合でも、成績や知識は、正答または誤答に基づいている。
[発明の概要]
本発明の実施形態は、アプリケーションのユーザインタフェースの諸相をシミュレートすることによって、アプリケーションに対するスキルベースのテストおよびトレーニングを行うための高度なコンピュータベースおよびネットワークベースの方法およびシステムを提供する。実施形態の例は、スキルベースシミュレーション・測定システム(SBSMS:Skills-Based Simulation and Measurement System)を提供する。これにより、テストおよびトレーニングのプログラムのパブリッシャ(発行元)およびオーサ(制作者)が、シミュレートされたアプリケーション環境をテストおよびトレーニングする生徒(シミュレートされた環境のユーザ)に提供することができる。また、SBSMSは、知識ベースまたは成績ベースのテストおよび学習に加えて、「スキルベース」のテストおよび学習を提供する高度な追跡および測定の機能も提供する。
スキルベースシミュレーション・測定システムは、テストおよびトレーニングのための問題;新規のシナリオ(テストまたはトレーニングのナラティブ(物語))および問題をパブリッシュ(発行)するプロセス;既存の問題のデータリポジトリ(データ収納庫)を用いて新規のシナリオおよび問題をオーサリング(作成)するプロセス;生徒に対するシナリオを管理するプロセス、を含むシミュレートされたアプリケーション環境と、テストおよびトレーニングのシナリオを実行し、生徒の応答(response)を自動的に捕捉、測定、および得点付けする環境とを生成するツールのセットを提供する。
一実施形態において、スキルベースシミュレーション・測定システムは、1つまたは複数の機能コンポーネント/モジュールを備える。これらが一緒に動作することにより、スキルベース測定環境を生成および管理し、アプリケーションのシミュレートされた諸相とのスキルベースの対話を提供する。例えば、クライアント−サーバ型アーキテクチャとして実施されるスキルベースシミュレーション・測定システムは、クライアント部分およびサーバ部分を備えることができる。実施形態の一例において、クライアント部分は、生徒によって実行され生徒の応答を追跡するシミュレーションエンジンを含む。シミュレーションエンジンは、機能的観点から見ると、テストまたはトレーニング用インタフェースと、応答追跡・得点付けメカニズムとを備えることができる。サーバ部分は、(クライアント側の)シミュレーションエンジンを実施するために用いられるすべてのコンポーネントおよびデータを備える。すなわち、機能的観点から見ると、サーバ部分は、スキルベースのテスト・トレーニングエンジン、シミュレーションコンポーネント、非シミュレーションコンポーネント、およびテスト・トレーニングシナリオと生徒情報のデータリポジトリを備えることができる。スキルベースのテスト・トレーニングエンジンは、特定のテストまたはトレーニングのシナリオの部分に対する要求を受け取り、クライアント側シミュレーションエンジンを実施するために必要に応じてシミュレーションコンポーネントおよび非シミュレーションコンポーネントからのコンポーネントを転送する。また、スキルベースのテスト・トレーニングエンジンは、クライアント側シミュレーションエンジンから生徒の応答および得点を受け取り、それらをユーザ単位、テスト単位でデータリポジトリに記憶する。
一手法によれば、シミュレーションエンジンが提供される。このシミュレーションエンジンは、結果を取得するための指令を表示し、表示された指令に対する、シミュレートされた対話を示す応答の指示を受け取り、指示された応答を自動的に得点付けする。シミュレーションエンジンは、生徒がシナリオと対話している間にアプリケーションを実行することなく、また、アプリケーションのプラグインその他の実行可能モジュールを使用することなく、アプリケーションの諸相をシミュレートする。一態様において、シミュレーションエンジンはテストシナリオを提供する。別の態様において、シミュレーションエンジンはトレーニングシナリオを提供する。さらに別の態様において、シナリオは多言語で提供され、しかも均一のメカニズムを用いて扱われる。
スキルベースシミュレーション・測定システムの他の態様については、本明細書の他のセクションに記載される。
[発明の詳細な説明]
本発明の実施形態は、アプリケーションのユーザインタフェースの諸相(aspects)をシミュレートすることによって、アプリケーションに対するスキルベースのテストおよびトレーニングを行うための高度なコンピュータベースおよびネットワークベースの方法およびシステムを提供する。実施形態の例は、スキルベースシミュレーション・測定システム(SBSMS)を提供する。これにより、テストおよびトレーニングのプログラムのパブリッシャおよびオーサが、シミュレートされたアプリケーション環境をテストおよびトレーニングの生徒(シミュレートされた環境のユーザ)に提供することができる。また、SBSMSは、高度に自動化された追跡および測定の機能も備える。これにより、生徒が課題を正確に実行したか不正確に実行したかだけでなく、課題がどのように実行されたかを評価することによって、生徒が与えられた課題をどのくらいうまく実行しているかを測定する。さらに、これらの測定機能は、所定の成績レベルの判定や、他の生徒の正答または誤答のテスト得点(スコア)を基準とした生徒の成績の判定にとどまらない。このように、SBSMSは、知識ベースまたは成績ベースのテストおよび学習に加えて、「スキルベース」のテストおよび学習を提供することができる。
スキルベースシミュレーション・測定システムの一例について説明するため、以下の説明では、スキルベーステスト環境とスキルベーストレーニング環境を作成および維持するために用いられる技法の間で実際の区別をしない。当業者には認識されるように、状況によっては、これらの2種類の環境の間の相違点の1つとして、生徒に与えられるフィードバックのタイプおよびフィードバックのタイミングがあり得る。例えば、トレーニングシナリオにおいて、課題の完了時のみでなく応答アクションが実行されている最中に生徒にフィードバックを与えることが有益な場合がある。しかし、SBSMSの視点から見ると、これらの2種類のシナリオは実質的に同一である。すなわち、両方の環境で同じメカニズムが用いられる。また、「トレーニング」という用語は、本明細書で用いる場合、任意のタイプの教育または学習の状況を指す。
図1は、スキルベースシミュレーション・測定システムの一例によって提示されるテスト環境の表示画面例である。表示画面100は、英語、日本語、または中国語等の指定言語で生徒がテスト環境にログインした後に提示される。表示画面100は、パブリッシャのロゴ101、当該生徒に関連づけられておりテストのために利用可能なテストからなる現在利用可能なテスト一覧102、および生徒が既に受けた過去のテスト一覧103を示している。生徒は、現在利用可能なテスト一覧102からテストを選択することができ、そのテストが完了すると、選択されたテストが過去のテスト一覧103に追加される。テストが割り当てられた日付(指定日)、終了した日付、解答された問題数、および能率評定(または他のスキルベースの得点)に関する情報が提示される。完了したテストに関する他のタイプの情報を表示することもできる。
図2は、日本語で提示された同じテスト環境の表示画面例である。表示画面200に示されている各コンポーネントは、英語で図1に示されているものと同様である。ただし、テスト名の一部や、ボタンその他のインタフェースのラベルの文字が指定言語(ここでは日本語)になっている。
スキルベースシミュレーション・測定システムは、テストおよびトレーニングのための問題;新規のシナリオ(テストまたはトレーニングのナラティブ)および問題をパブリッシュするプロセス;既存の問題のデータリポジトリを用いて新規のシナリオおよび問題をオーサリングするプロセス;生徒に対するシナリオを管理するプロセス、を含むシミュレートされたアプリケーション環境と、テストおよびトレーニングのシナリオを実行し、生徒の応答を自動的に捕捉、測定、および得点付けする環境とを生成するツールのセットを提供する。概観すると、パブリッシャが、テストまたはトレーニングのシナリオのための「シミュレーションエンジン」(シミュレートされたアプリケーション実行環境)を作成し、そのシナリオを生徒または組織に関連づけることができるようにする。そして、生徒が、シミュレーションエンジンを用いて、パブリッシュされたテストまたはトレーニングのシナリオを実行し、提示される問題(または課題)に応答する。シミュレーションエンジンは、問題/課題に応じて実行される生徒のアクションを捕捉し、それらを所定の解答/応答と対照して測定し、それに従って生徒のスキルを得点付けする。SBSMSが生徒のスキルを得点付けする1つの方法は、生徒の応答が所定の応答とどのくらいよく一致するかを評価することである。既存の問題を用いた新規のテスト/トレーニングのシナリオが要求されると、オーサが、SBSMSツールを実行して新規のシナリオを作成し、そのシナリオに、既存の問題−解答のペアを関連づける。
説明を簡単にするため、「ユーザ」のいくつかの分類について説明する。ただし、任意のユーザが、これらのロール(role;役割)のいずれを実行することも可能であり、ロールは多くの場合に入れ替え可能であることが理解されるべきである。「パブリッシャ(発行者)」は、SBSMSツールを用いて、シミュレートされたアプリケーション環境に対する新規の問題(「シミュレーション問題」)や、おそらくは新規の知識ベースの問題(「非シミュレーション問題」)等の、シミュレートされた環境、テスト、およびトレーニングのシナリオを生成するユーザである。「オーサ(作成者)」は、シミュレーション関連か否かにかかわらず、既存の問題を新規のシナリオにまとめたり、既存のシナリオに問題を追加したり、既存のシナリオのプロパティや非シミュレーション問題を変更したりするユーザである。「生徒」は、テストを受け、またはトレーニングシナリオを実行するユーザである。「アドミニストレータ(管理者)」は、シナリオを生徒に関連づけることによって、およびロールを異なるユーザに関連づけることによって、テストまたはトレーニングのシナリオを管理するユーザである。
スキルベースシミュレーション・測定システムを用いて生成することができるテストおよびトレーニングのシナリオは、アプリケーションのシミュレートされた諸相を必要とする問題(例えば、問合せ、課題、または指令)と、必要としない問題の両方を含むことができる。アプリケーションとの対話をシミュレートするためにシミュレートされた諸相を必要とする問題をシミュレーション問題と呼ぶ。このような問題の例は、「次のスプレッドシートにおいて、行10のすべてのセルを範囲指定してください」のような問題である。このようなシミュレーション問題に応答(解答)するため、生徒は、あたかも実際のアプリケーションを用いて問題に応答しているかのように、シミュレートされたアプリケーションインタフェース(例えばメニューおよびボタン)を使用する。シミュレートされた諸相を必要としない問題を非シミュレーション問題と呼ぶ。このような問題の例としては、複数の選択肢から1つの正答を選ぶ問題である多肢選択問題;物語(story)が提供され、生徒が相異なる解答選択肢から最適な解答を選択する物語文法問題;一連の単語または句を提示し、生徒がそれらを正しい位置に(例えばマウスで)移動して正しい文となるようにする文整序問題などがある。他のタイプの非シミュレーション問題も存在する。また、当業者には認識されるように、シミュレーション問題および非シミュレーション問題ならびにそれらの応答はいずれも、テキスト、グラフィクス、およびオーディオ等の多くの形態で提示することができる。
図3A〜図3Gは、表計算アプリケーションのシミュレートされた諸相を用いてスキルをテストするためのテストシナリオの画面表示例である。シミュレーションエンジンは、Microsoft Corp.所有の表計算アプリケーションであるMicrosoft Excel(登録商標)のインタフェース諸相をシミュレートする。図3Aは、スキルベースのテストシナリオのための開始画面の画面表示例である。表示画面3A01は、ヘッダエリア3A02、教示エリア3A04、言語指定部3A03、テストを開始するための「Begin」(開始)ボタン3A05、および、シナリオ選択画面(例えば、図1および図2に表示されている画面)に戻るための「Return」(戻る)ボタン3A06を含む。
生徒が「Begin」ボタン3A05を押すと、シナリオが実行を開始する。図3B〜図3Gは、シミュレートされたインタフェース例を用いてテスト問題例に応答するアクションの進行を示している。図3Bは、スキルベースのテストシナリオ例の初期シミュレーション環境の画面表示例である。図3Cは、図3Bに示したシミュレーション環境表示画面の下部を示している。表示ウィンドウ3B00は、ヘッダエリア3B01およびアプリケーションシミュレーションエリア3B10を含む。ヘッダエリア3B01は、(時間制限付きシナリオである)任意のシナリオに対して通常存在するいくつかのフィールドを含む。ただし、それらの内容は、その時刻に適用可能なシミュレーションエンジンの状態を反映するように更新される。具体的には、問題エリア3B02は、生徒に解答または応答してもらうために与えられる課題に関連する問題/課題テキスト(もしあれば)または他の教示(例えば、オーディオまたはグラフィクスによる教示)を提示する。プログレスバー3B03は、全問題数のうちで完了した問題数を示す。時間インジケータ3B04は、シナリオが関連する時間制限を有する場合に残り時間を示す。「Skip」(スキップ)ボタン3B05は、これを押すと、シミュレーションエンジン状態が次の問題に進む。「Done」(終了)ボタン3B06は、これを押すと、生徒がテストを受けるのを終了したこと、またはトレーニング実習を終了したことをシミュレーションエンジンに指示する。「To Tests」(テストへ)選択エリア3B07は、これを押すと、生徒はシナリオ選択画面(例えば図1および図2に表示されている画面)に戻る。アプリケーションシミュレーションエリア3B10は、シミュレートされているアプリケーションのユーザインタフェースコンポーネントを、結果として生じるプレゼンテーションとともに含む。生徒は、あたかも実際のアプリケーションと対話しているかのように、これらのコンポーネント、および目前の課題に関連するアプリケーション状態のプレゼンテーションと対話することができる。図示した表計算環境では、シミュレーション問題間で共有される表示エリア(およびインタフェースのシミュレートされた諸相)(例えば、行および列のヘッダ、メニュー、ダイアログ等)と、問題ごとに変わる表示エリア(例えば、スプレッドシート3B20の現在の内容)とがある。SBSMSのいくつかの実施形態では、共有表示エリアは、シミュレーションエンジンが次の問題に進む時に変化しない。その代わりに、現在の問題に固有のプレゼンテーションおよびインタフェースのエリアのみが変更される。
今説明したように、問題エリア3B02は、「Change the color of the cells of item row (line 10) to "cobalt blue".」(品目の行(10行目)のセルの色を「コバルトブルー」に変更してください。)という指令の例を提示している。問題エリア3B02に表示された指令に正しく応答するには、生徒はまず、品目の行(10行目)のセルを選択する必要がある。図3Dは、生徒がシミュレートされたインタフェースを用いてアクションを実行した後のシナリオの表示画面例である。画面は、生徒が行10のセル範囲3D01を選択し、Format(書式)メニュー3D02をプルダウンしてメニュー項目「Cells...」(セル...)を選択した後に結果として現れるスプレッドシートを表示している。セル選択メカニズムと、メニューのプレゼンテーションおよび実装は両方とも、このスキルベースのシナリオのシミュレートされた諸相である。
「Cells...」メニュー項目の選択に応じて、シミュレートされたインタフェースは「Format Cells」(セルの書式設定)ダイアログウィンドウを表示する。図3Eは、「Cells...」メニュー項目の選択に応じて、シミュレートされたインタフェースによって生成されるFormat Cellsダイアログの表示画面例である。ダイアログウィンドウ3E01は、「Cells...」メニュー項目の選択に応じて実際のアプリケーションによって通常提示される「Format Cells」ダイアログのシミュレートされたバージョンである。しかし、このダイアログはシミュレートされたダイアログであるので、生徒によって呼び出されるいかなる動作も、シミュレーションエンジン内にプログラムされている。シミュレートされたダイアログのデフォルトは(アプリケーションにおける実際のダイアログと同様に)「Number」(数値)プロパティシートである。
当初の課題に正しく応答するため、生徒は、「Patterns」(パターン)プロパティシートにアクセスする必要がある。これにより、背景(cell shading(セルの網かけ))色の選択が可能となる。図3Fは、「Patterns」プロパティシートの選択に応じて、シミュレートされたインタフェースによって生成および表示されるダイアログウィンドウの画面表示例である。「Patterns」プロパティシート3F01(ダイアログウィンドウ)がアクティブにされて表示されている。そこで生徒が、表示されているダイアログウィンドウ3F01から色(好ましくはコバルト)を選ぶと、前に選択したセル範囲の網かけが、選択された色に変更される。
図3Gは、選択されたセル範囲を網かけするための色選択後に結果として現れるスプレッドシートの画面表示例である。図3Gにおいて、スプレッドシート3G01は、行10の選択されたセル(セル3G02)の色が変化したことを示している。(白黒バージョンではコバルト色は示されず、文字は判読できないが、セルは適切に変更されている。)これで、与えられた課題に対する応答の進行は完了し、生徒は、「Done」ボタン(図示されていないが、図3Bの3B06と同じ)を選択することにより、テストシナリオを完了する。これに応じて、シミュレーションエンジンは、必要があれば得点付け(クライアントシステムで行われる場合)を実行し、テストシナリオ結果をサーバに記憶するためにサブミットする。
本明細書で用いられる例および説明の多くは、テストおよびトレーニングの両方のシナリオに該当することであるが、単に便宜上の理由で、「テスト」、「テストする」、および類似の用語を用いている。このため、「問題」、「指令」、および「課題」という用語、ならびに、「解答」および「応答」という用語は、それぞれ区別なく用いられる。当業者には認識されるように、例および説明は、明示的に言及されているか否かにかかわらず、トレーニング環境にも等しく当てはまり、記載される方法およびシステムは、トレーニング環境とともに、およびトレーニング環境において使用されることを考慮している。したがって、「テストシナリオ」、「トレーニングシナリオ」、「テスト」等の語句は、任意のタイプのテストまたはトレーニング用のインタフェースまたは環境を含意するために一般的に用いられる。また、記載される概念および技法は、より一般的に、スキルベース測定環境に当てはまる。したがって、当業者には認識されるように、SBSMSの技法は、物理的装置へのインタフェースの使用について生徒をトレーニングすることを含め、さまざまな他のトレーニング、教育、または学習のツールを作成するためにも有用であろう。例えば、SBSMSは、複写機、プリンタ、または他の類似の装置を設定するためのシミュレートされたインタフェースを提示するために使用可能である。他の例としては、SBSMSを使用することにより、「やり方」シナリオ、例えば、物の組み立て方、フォームの記入方法、異なるタイプのデータに対する式の計算方法、一連の事実から結論を引き出す方法等を用いて、生徒を教えることが挙げられる。これらの場合においてSBSMSは、実行すべき課題を提示し、応答を捕捉および測定し、生徒にフィードバックを提供してから、次の課題に着手させることができる。シミュレートされたインタフェースは、完全な図解(例えば、取扱説明書に取って代わるようなもの)、テキストに基づくもの、オーディオに基づくもの、またはグラフィクス、テキスト、およびオーディオの何らかの組合せのいずれでもよい。
また、本明細書で主として用いられているいくつかの用語に関しては、当業者には認識されるように、同等の実施形態および例を与えるために他の用語を区別なく用いることも可能である。例えば、周知のように、「問題」、「解答」、「応答」、「指令」、「課題」、「得点付け」、「測定」等のような用語の代わりに、テストおよびトレーニングの分野ならびに他の類似分野における同等の用語を用いることができる。また、用語は、明示的に言及されるか否かにかかわらず、別の綴りを有することがあり、当業者には認識されるように、用語のすべてのこのような変形が含まれることが意図される。
以下の説明では、本発明の方法およびシステムの技法の十分な理解を提供するために、データフォーマットおよびコードシーケンス等のような数多くの具体的詳細が記載される。しかし、当業者には認識されるように、本発明は、本明細書に記載される具体的詳細の一部なしで、あるいは、コードフローの順序に関する変更のような他の具体的詳細とともに、実施することも可能である。
図4は、スキルベースシミュレーション・測定システムの一例のコンポーネント(要素)の例示的ブロック図である。一実施形態において、スキルベースシミュレーション・測定システムは、1つまたは複数の機能コンポーネント/モジュールを備える。これらが一緒に動作することにより、スキルベース測定環境を生成および管理し、アプリケーションのシミュレートされた諸相とのスキルベースの対話を提供する。当業者には認識されるように、これらのコンポーネントは、ソフトウェアもしくはハードウェアまたは両方の組合せのいずれにおいても実施可能である。図4において、クライアント−サーバ型アーキテクチャとして実施されるスキルベースシミュレーション・測定システムは、クライアント部分401およびサーバ部分404を備える。当業者には認識されるように、SBSMSは、必ずしもクライアント−サーバ型アーキテクチャにより実施される必要はなく、その代わりにモノリシックなプログラムとして実施されてもよい。別法として、SBSMSは、クライアント部分およびサーバ部分を有するが、それらが同じマシン上で実行されてもよい。当業者には認識されるように、明示的に言及されるか否かにかかわらず、いかなる周知の実施手法も、SBSMS技法とともに動作するであろう。
実施形態の一例において、クライアント部分401は、生徒によって実行され生徒の応答を追跡するシミュレーションエンジンを含む。シミュレーションエンジンは、シミュレートされたアプリケーション実行環境である。シミュレーションエンジンは、クライアントシステムおよびサーバシステムの両方に何らかの形態で存在することが可能である。シミュレーションエンジンは、物理コンポーネントとして実施されてもよく、複数のコンポーネントの抽象化であってもよい。一般に、クライアントシミュレーションエンジン401は、機能的観点から見ると、テストまたはトレーニング用インタフェース402と、応答追跡・得点付けメカニズム403とを備える。インタフェース402は、生徒によって実行されるシナリオに固有である。すなわち、シナリオがシミュレートされたアプリケーション(またはその諸相)である場合、インタフェース402はアプリケーションのシミュレートされた諸相を含む。別法として(または加えて)、シナリオが多肢選択問題や文中の単語の整序のような非シミュレーション問題を含む場合、インタフェース402は、生徒がこのようなアクションを実行するのをサポートする適当なエンジン(例えば、コード、ロジック、およびプレゼンテーション)を含む。生徒がシナリオを完了すると、応答追跡・記憶メカニズム403は、通信ネットワーク409を通じてサーバ部分404に応答データを提供する。応答データは、好ましくは、アクションの記述(例えば、キー入力シーケンス、マウス移動、またはインタフェースコマンドシーケンス)を含む。
サーバ部分404は、(クライアント側の)シミュレーションエンジン401を実施するために用いられるすべてのコンポーネントおよびデータを備える。すなわち、機能的観点から見ると、サーバ部分404は、スキルベースのテスト・トレーニングエンジン405、シミュレーションコンポーネント406、非シミュレーションコンポーネント407、ならびにテスト・トレーニングシナリオおよび生徒データ(これらはデータリポジトリ408に記憶される)を備える。スキルベースのテスト・トレーニングエンジン405は、サーバ側シミュレーションエンジンとして機能する。スキルベースのテスト・トレーニングエンジン405は、特定のテストまたはトレーニングのシナリオの部分に対する要求を受け取り、クライアント側シミュレーションエンジン401を実施するために必要に応じてシミュレーションコンポーネント406および非シミュレーションコンポーネント407からのコンポーネントを転送する。コンポーネント406および407は、テストまたはトレーニング用インタフェース402および応答追跡・得点付けメカニズム403を実施するために呼び出される。また、スキルベースのテスト・トレーニングエンジン405は、クライアント側シミュレーションエンジン401から生徒の応答および得点を受け取り、それらをユーザ単位、テスト単位で、テスト/トレーニングシナリオおよび生徒データのデータリポジトリ408に記憶する。
図5は、スキルベースシミュレーション・測定システムの一例のシミュレーションエンジンの例示的ブロック図である。実施形態の一例において、シミュレーションエンジン500は、個別のコンポーネント502〜508が独立に存在し、特定のテストまたはトレーニングのシナリオを実施するために必要に応じて組み込まれるという点で、抽象化である。しかし、当業者には認識されるように、図示されているサブコンポーネントを有する物理コンポーネントが独立のコンポーネントとしてコンピュータシステム内に構築され管理されることも可能である。シミュレーションエンジン500は、サーバシステムの観点から示されており、特定のシナリオがシミュレーション問題および非シミュレーション問題の両方を含むと想定している(そうでない場合もあり得る)。シミュレーションエンジン500は、応答追跡・得点付けコンポーネント501、非シミュレーション問題データ508を用いて非シミュレーション問題を提示および管理する1つまたは複数の非シミュレーションエンジン507、ならびにシミュレーション問題を提示および管理するシミュレーションコンポーネント502〜506を含む。具体的には、シミュレーションコンポーネントは、シミュレーションベースエンジン502、1つまたは複数のアプリケーションレベルシミュレーションコンポーネント503、および1つまたは複数のシミュレーション問題コンポーネント504〜506を備える。シミュレーションベースエンジン502は、シミュレーションのフロー(例えば、シミュレートされている特定のアプリケーションにかかわらず、次の問題をどのように見つけて提示するか、生徒の応答をいつ記録するか、等)を制御するロジック等の、任意のシミュレートされたアプリケーション環境のための基本レベルのサポートを提供する。シミュレートされるべきアプリケーションから導出される各シナリオは、問題間で共有されるシミュレートされた諸相を有する可能性がある。これらのシミュレートされた諸相が、アプリケーションレベルシミュレーションコンポーネント503を構成する。アプリケーションに固有のメニューの制御やメニュー項目のような諸相がコンポーネント503として実施可能である。(例えば、図3A〜図3Gに示したExcelのメニューおよびダイアログがコンポーネント503として実施可能である。)また、シミュレーションエンジン500は、提示されるべき各問題に対するシミュレーションコンポーネント(例えば、問題シミュレーションコンポーネント504〜506)も含む。それぞれのシミュレートされた問題コンポーネントは、問題およびその解答を実施するための特定のインタフェースおよびデータを含む。当業者には認識されるように、アプリケーションに対するメニュー生成のサポートやシミュレートされた対話のサポートを行うコンポーネント(例えば、汎用のメニューおよびメニュー項目処理コード)のような他のコンポーネントも存在してよい。
図5に示されているシミュレーションエンジン500は、シミュレートされたアプリケーションシナリオを実行するためにクライアントシステム上で実行される環境を作成するために用いられる。具体的には、図5のコンポーネントは、例えば図4のクライアント側シミュレーションエンジンを構成するテストまたはトレーニング用インタフェース402および応答追跡・得点付けメカニズム403を生成および実施するために用いられる。しかし、一実施形態では、各問題シミュレーションコンポーネントをクライアントシステムに一度にあらかじめロードする代わりに、個別の問題シミュレーションサポートが必要に応じてクライアントシステムにダウンロードされる。このような遅延ロードについては、図28A〜図28Cに関してさらに詳細に説明する。別の実施形態では、シナリオ全体に対するすべてのシミュレーション問題情報が最初にクライアントシステム上のシミュレーションエンジンにダウンロードされる。
図6は、スキルベースシミュレーション・測定システムの一例を用いてスキルベース測定シナリオを作成、運営、および管理するプロセス全体の流れ図である。SBSMSの一例は、初期インタフェースを提示することにより、ユーザがこれらのさまざまな機能(表示画面は図示していない)の間で選択を行うことを可能にすることができる。これらのステップは、全体プロセスにおける別個のステップとして示されているが、当業者には認識されるように、以下の機能は異なる順序および異なる時刻に提示されることが可能であり、異なる仕方で組み合わされることが可能である。ユーザは、SBSMS例と対話することにより、(1)シナリオを実行し、(2)ユーザに対するロールおよびシナリオを管理し、(3)新規のシナリオをオーサリングし、または既存のシナリオを変更し、および(4)新規のシナリオおよび新規のシミュレーション問題をパブリッシュする。
具体的には、ステップ601で、ユーザが、シナリオを実行したいという要求を示した場合、ユーザはステップ602に進み、さもなければステップ604に進む。ステップ602で、生徒としてのユーザがSBSMSにログイン情報を提供し、ログインデータが認証される。ステップ603で、SBSMSはその基本的なスキルベースのテスト・トレーニング実行環境を開始し、生徒によって選択されたシナリオを実行する。シナリオの実行が終了すると、生徒は別のシナリオに進むこと、またはスキルベースシミュレーション・測定システムの他の機能に進むことができる。これらのステップについては、図7〜図13に関してさらに説明する。
ステップ604で、ユーザが、管理を要求することを示した場合、アドミニストレータとしてのユーザはステップ605〜609に進み、ユーザプロパティを変更し種々のシナリオをそれらに割り当て、さもなければステップ610に進む。具体的には、ステップ605で、アドミニストレータは、管理のための特定のユーザを選択する(または新規ユーザを指定する)。ステップ606で、アドミニストレータがユーザプロパティを変更した場合、ステップ607で、その特定ユーザのデータを記憶している適当なデータリポジトリでユーザデータが更新または追加される。他の場合、アドミニストレータはステップ608に進む。ステップ608で、アドミニストレータが、選択されたユーザにシナリオを割り当てたい場合、アドミニストレータはステップ609に進み、さもなければ、別のユーザに管理機能を適用することを続けるか、または、スキルベースシミュレーション・測定システムを用いて他のことを行うことに決める。ステップ609で、アドミニストレータは、選択された生徒に、scenario_ID(シナリオID)を有するシナリオを割り当てる一連のステップを実行する。これらのステップについては、図14〜図15に関してさらに説明する。
ステップ610で、ユーザがオーサとして働き、新規の(または変更された)シナリオをオーサリングしたい場合、オーサとしてのユーザはステップ611に進み、シナリオをオーサリングするための他のステップを呼び出し、さもなければステップ612に進む。シナリオをオーサリングすることに関連する特定のステップについては、図16〜図21に関して説明する。オーサは、終了後、別のシナリオのオーサリングを続けるか、または、スキルベースシミュレーション・測定システムの他のいずれかの機能を実行することができる。
ステップ612で、ユーザが新規のシミュレーションシナリオまたはシナリオのためのシミュレーション問題のいずれかをパブリッシュしたい場合、パブリッシャとしてのユーザはステップ613に進み、新規のシミュレーションシナリオをパブリッシュするか、または新規のシミュレーション問題を用いて既存のシミュレーションシナリオを変更する。新規のシミュレーションシナリオまたは新規のシミュレーション問題をパブリッシュするステップについては、図22〜図23に関して説明する。パブリッシャは、終了後、別のシナリオのパブリッシュを続けるか、または、スキルベースシミュレーション・測定システムの他のいずれかの機能を実行することができる。
図7は、クライアントシステム上でシミュレーションを実行するためにスキルベース測定環境の一例によって実行されるステップの例示的流れ図である。ステップはある順序で実行されるように示されているが、当業者には認識されるように、特にウェブベース環境では、処理されるアクションは、コード駆動型で特定の順序で流れるのではなく、データ(またはイベント)駆動型である。したがって、ステップは、ある特定のイベント(例えば、インタフェース内のボタンが押されること)に応答するように提示される。図示のステップは、生徒がテストまたはトレーニングのいずれかのシナリオを実行するためにスキルベース測定環境に正しくログインした後に発生するプロセスの例示である。
具体的には、ステップ701で、システムは、生徒がどのシナリオを指定したかを判定する。例えば、図1に示したような表示画面が提示され、そこからユーザがシナリオを指定することができる。図1を例として用いると、生徒が特定のテストの「Take Test」(テストを受ける)インジケータを選択すると、選択したテストの導入表示画面(例えば、図3Aに示した表示画面)が表示される。その後、ステップ702で、生徒が、選択したテストの「Begin」(開始)ボタン(例えば、図3Aの「Begin」ボタン3A05)を選択すると、環境は、サーバから一連のファイル/ページを要求およびロードすることによって、選択されたテストを開始する。(生徒が「Begin」ボタンを押すまで、インタフェースは他のこと(省略符号(・・・)で示す)をしてから、シナリオ選択画面に戻ってもよい。)具体的には、ステップ703(これは実際には、クライアントとサーバの間でのより小規模な多数の通信を表す)で、クライアントは、サーバからシミュレーションエンジンを受信する。サーバは、第1の問題に基づくシミュレーションエンジンとしてどのコンポーネントを送信すべきかを決める。例えば、第1の問題がシミュレーション問題である場合、シミュレーションエンジンは通常、アプリケーションベースシミュレーションコンポーネントおよび第1の問題に対するシミュレーションとともに、シミュレーションベースエンジン(これはすべてのシミュレーションのために用いられる)を含むであろう。これに対して、第1の問題が非シミュレーション問題である場合、適当なタイプの非シミュレーションエンジンに、そのエンジンを使用する問題に対するデータが事前ファイルされる。(そのタイプのエンジンを使用する問題は、テストシナリオの全問題のうちのサブセットであってもよい。)例えば、第1の問題が多肢選択問題である場合、多肢選択エンジンがダウンロードされ、そのテストに対する非シミュレーション問題データが事前ファイルされる。サーバによって送信されるコンポーネントのその他の例については、図22および図23に関してさらに説明する。シミュレーションエンジンが受信されると、ステップ704で、シミュレーションが有効に「run」(実行、あるいは実装に適したアクションであれば何でもよい)される。すなわち、例えば、シミュレーションエンジンが一連のウェブページとして実施される場合、第1のウェブページが処理され、後続のデータまたはウェブページはウェブブラウザによってサーバシステムに対して適宜要求される。実行中のシミュレーションエンジンの制御の典型的フローについては、図8に関してさらに説明する。ステップ705で、環境は、生徒がテストまたはトレーニングのシナリオを完了したことの指示(例えば、最後の問題の「Done」(終了)ボタンを押すことによって)を受け取ると、ステップ706に進む。そのときまでは、図示のように、シミュレーションは実行を継続する。ステップ706で、システムは、生徒にフィードバックを与えるためにシナリオからの結果を表示し、スキルベース測定環境のテスト選択コンポーネントに戻る。
図8は、クライアントシステムによって実行されるシミュレーションエンジンの一例の例示的流れ図である。当業者には認識されるように、シミュレーションエンジンを実施する方法およびそのフローを特徴づける方法のいずれにも、いくつもの方法がある。図8に示されている例では、テストは、シミュレーション問題および非シミュレーション問題の両方を含むと想定される。概略的には、テスト内に他に残っている問題がなくなるまで、各問題が(必要であれば)読み出され、提示され、応答が記録される。具体的には、ステップ801で、エンジンは、実行されるべき次の問題または課題のテキストを表示し、ステップ802に進む。ステップ802で、問題が、多肢選択問題のような非シミュレーション問題である場合、エンジンは、一方のパスに沿ってステップ803に進み、さもなければ、エンジンはもう一方のパスに沿ってステップ805に進む。
非シミュレーション問題パスによれば、ステップ803で、エンジンは、非シミュレーション問題エンジンのタイプによって決まる解答または可能性のある解答のセットを表示する。例えば、エンジンのタイプが多肢選択エンジンである場合、ステップ803で、解答のマトリクス(最初にデータリポジトリから決定される)が提示される。一方、エンジンが物語文法エンジンである場合、エンジンは、物語と、語句の複数の選択肢とを表示し、生徒はそれらの選択肢から、物語中のある位置に当てはまる語句を選択しなければならない。また、他方、エンジンのタイプが文整序エンジンである場合、エンジンは、一連の単語を表示し、ユーザは、文を成すようにそれらを並べ替えなければならない。ステップ804で、エンジンは、生徒の応答を判定し、ステップ807に進む。
これに対して、問題がシミュレーション問題である場合、ステップ805で、エンジンは、生徒の入力(アクション)を取得または判定し、それに従ってコマンド(ユーザインタフェース)を処理する。例えば、シミュレーションエンジンを実施するためにウェブベース環境が用いられる場合、アプリケーションの種々のシミュレートされたユーザインタフェースコンポーネントを処理するための適当なコードが必要に応じて呼び出される。通常、シミュレートされたインタフェース諸相の呼出しは、サーバシステムとの通信およびサーバシステムによる部分的実行を伴う。しかし、当業者には認識されるように、いくつかの実施形態では、インタフェースをサポートするためのコード全体がクライアントにダウンロードされる。したがって、シミュレーション問題に対するステップ805は多くのステップを含み得る。ステップ806で、各コマンドの後、エンジンは生徒のアクション(行動、行為)を記録する。このアクションの記録はもちろん、あらゆるコマンドのプロセスで行われることも、アクションの何らかの他の組合せで行われることも可能であり、シミュレーションエンジンの実装次第である。生徒が課題の完了を指示するか、または問題に適切に応答すると、エンジンはステップ807に進む。
ステップ807で、生徒が、応答が完了したことを指示すると、ステップ808で、エンジンは、得点付け・計算メカニズムを呼び出し、問題に対する生徒の応答を得点付けする。得点付けについては、図10〜図13に関してさらに説明する。ステップ809で、エンジンは、次の問題を取得する。次の問題がシミュレーション問題である場合、通常、シミュレーションエンジンは、サーバから次の問題のシミュレーションコンポーネントを読み出す。これに対して、次の問題が非シミュレーション問題である場合、適当なデータが、シミュレーションエンジンで現在処理されているプレゼンテーション(フォーム、ウェブページ等)に入力される。ステップ810で、シミュレーションエンジンは、シナリオにまだ問題/課題が残っているかどうかを判定し、残っている場合、次の問題を処理するためにステップ801に戻り、さもなければ処理を終了する。
図9は、クライアントシステム上でのシミュレーションエンジン例の実行をサポートするためにサーバシステムによって実行されるステップの概観の例示的流れ図である。例示的ステップが示されているが、当業者には認識されるように、多くの他の処理または異なる処理を行うことが可能である。概略的には、サーバは、クライアント側シミュレーションエンジンのための正しいコンポーネントを判定して読み出し、シナリオに対する生徒の応答および得点を持続的に記憶すること等を担当する。具体的には、ステップ901で、サーバインタフェース(HTMLページサーバ、ASP .NETエンジン、または他の類似のサーバアプリケーション)は、処理されている要求を判定する。ステップ902で、要求が、新規のシナリオがダウンロードされるべきことを示している場合、サーバ環境はステップ903に進み、さもなければステップ905に進む。ステップ903で、サーバは、データリポジトリから、ダウンロードすべき適当なシナリオエンジンの位置を読み出す。例えば、シナリオの第1の問題がシミュレーション問題である場合、データリポジトリテーブルは通常、ベースシミュレーションエンジン(これは、すべてのシミュレーションのための基本的なフローおよびインタフェースを制御する)への参照を含む。ステップ904で、サーバは、クライアントのためのシミュレーションエンジンの残りの部分を準備し、それをクライアントへ転送する。例えば、ASP .NETのようなウェブベース環境では、準備プロセスは、サーバ上にウェブページをロードし、それらをコンパイルし、XMLコントロールに自分自身をレンダリングさせて、クライアントシステムへ送信すべきHTMLファイル(java(登録商標)scriptコードファイルを伴う可能性もある)を作成させる。当業者には認識されるように、このステップは実装に依存する。そして、サーバは、(省略符号(・・・)またはステップ901への復帰で示すように)サーバインタフェースが再び呼び出されるまで、別の要求の判定または待機を継続する。
ステップ905で、要求が、何らかのタイプのデータ記憶情報を処理することである場合、サーバはステップ906に進み、さもなければステップ907に進む。ステップ906で、サーバは、要求を処理し、要求に応じて適宜データリポジトリテーブルを更新した後、ステップ901に進み、次の要求を待機し、または他の処理を実行する。例えば、このようなデータ記憶要求の1つとして、特定のテストに対する特定の生徒の得点情報および解答(そして記録されたアクション)を記憶することが挙げられる。
ステップ907で、要求が、サーバ環境から別のコンポーネントを読み出すことである場合、サーバはステップ908に進み、さもなければ、サーバによって実行されるべき他の処理を継続する。ステップ908で、要求が、例えば、次の問題のためのシミュレーションコンポーネントを読み出すことである場合、サーバは、どのコンポーネントにアクセスすべきかを読み出し、それを検索し、その問題に適したシミュレーションコンポーネントをロードする。ステップ909で、サーバは、コンポーネントを適宜準備し(例えば、前述のようにHTMLをレンダリングする)、クライアントシステムにシミュレーションエンジンコンポーネントを転送する。当業者には認識されるように、このステップは、極めて実装に依存する。その後、サーバは、他の処理を継続するか、または次の問題を待機する。
図10は、クライアントシステムの観点から見たスキルベースシミュレーション・測定システムのスキルベースの記録および得点付けのプロセスの例示的流れ図である。ステップ1001〜1003は、生徒が応答の完了を指示するまで、生徒のアクションを記録する。これらのステップは、生徒のアクションが一般に、実行されるとともにシミュレーションによって記録されることを協働するために、図10の一部として示されている。しかし、ステップ1001〜1003は、クライアントシステム上でシミュレーションを実行する全体的プロセスの一部として図8に関して説明した。具体的には、ステップ1001で、シミュレーションエンジンは、生徒のアクションの指示を受け取り、それに従ってそのアクションを実行する。ステップ1002で、シミュレーションエンジンは、生徒のアクションを記録する。例えば、一実施形態では、シミュレーションエンジンは、記録マクロのようなコマンドの形で、ユーザのすべてのキーボードアクションを記録する。ステップ1003で、生徒が「Done」(終了)ボタンを押すと、シミュレーションエンジンはステップ1004に進み、さもなければステップ1001に戻って、問題に応じたアクションの実行を継続する。
ステップ1004で、生徒が応答の完了を指示すると、シミュレーションエンジンは、正しい解答に対する応答全体にわたって記録された記録アクションを探索する。例えば、シミュレーション問題の一実施形態では、特定の問題に対する正しい解答は、対応する問題シミュレーションコンポーネントに記憶される。そして、シミュレーションエンジンは、あるレベルで解答が正しいかどうかを判定するために、記録されたアクションにおいて正しい解答(正しいコマンド)のインスタンスを探索する。しかし、当業者には認識されるように、問題によっては、この技法は常に実現可能であるとは限らない。また、当業者には認識されるように、記録されたアクションがその問題に対する正しい解答であることを判定する他の方法もある。例えば、いくつかの特定の問題に対して、シミュレーションは、たとえ順序が誤っていても、正確なアクションのセットがあればよいとしてもよい。別法として、解答は、順序も正しい場合にのみ正しいと呼ぶことにしてもよい。他の組合せも可能である。ステップ1005で、シミュレーションエンジンは、記録されたアクション(応答)の正誤の指示を記憶する。そして、ステップ1006で、シミュレーションエンジンは、応答の能率(efficiency)に関するある種の計算を実行する。一実施形態では、能率は次の公式により計算される:
(目標解答アクション数/実際のアクション数)×100=能率% (1)
当業者には認識されるように、類似の公式を用いて能率を計算するためのいくつかの方法がある。例えば、応答におけるアクション数を最適アクション数と比較することや、コンポーネントがアクションの順序およびアクションの順序違いの回数を考慮に入れること等も可能である。当業者には認識されるように、この計算は、望むだけ複雑にすることができる。ステップ1007で、シミュレーションエンジンは、計算された能率評定を記憶してから、ステップ1008で、記録されたアクション、能率評定、および正確さインジケータ(正確性指標)を含む得点情報をサーバに転送した後、復帰する。
図11〜図13は、スキルベースシミュレーション・測定システムの記録・得点付けメカニズム例を用いて記録されたアクションを図解する表示画面である。図11は、記録されたアクションを表わすために用いられるテスト例の表示画面例である。表示画面1100において、問題エリア1101のテキストは、「2) Change the color of text on item row (line 10) to "White".」(品目の行(10行目)の文字の色を「白」に変更してください。)と、実行すべき課題を提示している。そこで生徒は、与えられた課題に応答するためにアクションを実行する。
図12は、問題に対する解答が正しい場合にシミュレーションエンジン例によって記憶された記録アクションの表示画面例である。表示画面1200において、テストに含まれる問題のリスト1201が、問題の解答が正しかったか、それとも誤っていたかの指示(例えば、「Correct」(正答)インジケータ1203)とともに表示されている。特定の問題(例えば問題1202)に対して「Select」(選択)インジケータ1204が選択されると、その問題に対する生徒の応答について記録されたアクションが、記録アクションプレビューウィンドウ1205に表示される。通常、アドミニストレータが、記録されたアクションを検討し、この表示画面へのアクセス権を有する。アドミニストレータインタフェースからこの表示画面へのアクセスの様子は図15に示される。
図12に示す例では、図11に提示されている問題に対する生徒の応答を見ることができる。具体的には、問題1202は図11に示したテキストを含む。「Correct」インジケータ1203は、生徒が正しく問題(課題)に解答(または応答)したことを示す。「Select」インジケータ1204が選択されると、問題1202に応答して生徒がタイプ入力したアクションが、アクションプレビューウィンドウ1205に表示される。プレビューウィンドウ1205は、生徒のアクションが、まず単一のセルを(誤って)選択した後、セル要素範囲B10〜F10を正しく選択したことを示している。そして生徒は、Format(書式)メニューを選択し、最終的にタブを切り替えて正しい(Font(フォント))プロパティシートを表示した後、前に選択したセル範囲に対して正しく色「White」(白)を選択している。こうして、10行目の文字を白に変更することによって正しい解答に到達したことが分かる。しかし、その解答に到達するために、生徒が実行したすべてのアクションが必要なわけではなく、実際には生徒はいくつかの間違いをしている。そこで、シミュレーションエンジンが能率評定を計算する場合(例えば、図10のステップ1006を参照)、解答は正しいかもしれないが、能率は最善より低くなる。
図13は、問題に対する解答が誤りである場合にシミュレーションエンジン例によって記憶された記録アクションの表示画面例である。表示画面1300の問題1302に示されている課題が「Center columns B and C.」(列BおよびCをセンタリングしてください)であったことが分かる。「Wrong」(誤答)インジケータ1303は、この問題に対する生徒の応答が誤っていたことを示す。そこで、アドミニストレータが「Select」(選択)インジケータ1304を押すと、この課題に応じて実行された生徒のアクションのセットが、記録アクションプレビューウィンドウ1305に示される。生徒のアクションは、1個のセルを選択し、次に範囲を選択し、次に別のセルおよび別の範囲を選択し、最後に正しい列範囲を選択するものであったことが分かる。その後、生徒は正しいメニューおよびメニュー項目を選択して「center justify」(中央揃え)をしたが、セル範囲が誤っていたため、ウィンドウ1305に表示されている全体的応答は誤答となっている。
前に説明したように、スキルベースシミュレーション・測定システムによれば、シナリオを実行することに加えて、アドミニストレータが、ユーザのロールを管理し、生徒にシナリオを割り当てることができる。図14は、スキルベースシミュレーション・測定システムの一例の管理インタフェースのシナリオ割当てルーチンの例示的流れ図である。このルーチンは、図6のステップ609に対応し、アドミニストレータが、指定された生徒にシナリオを割り当てることを可能にする。ステップ1401で、管理システムは、アドミニストレータから、指定されたシナリオの指示を受け取る。ステップ1402で、管理システムは、データリポジトリ内に、指定された生徒に対する指定されたシナリオに対応する新規レコードを作成する。指定された生徒は、アドミニストレータによって、このルーチンを呼び出す前に(例えば、図6のステップ605に記載されている全体プロセスで)選択されている。ステップ1403〜1405で、管理システムは、指定されたシナリオを指定された生徒に関連づけるように、サーバのデータリポジトリ内のテーブルを更新する。作成および更新する必要のあるデータレコードが正確にはどのデータレコードであるかは、データリポジトリの実装に依存する。あるデータリポジトリ編成について、図26に関してさらに詳細に説明される。一実施形態では、ステップ1403で、システムは、どの問題および対になる解答がどのシナリオに関連づけられるかを記述するテーブルに規定される、シナリオに対応する問題−解答のペアへの参照を、新規作成したシナリオレコードに入力する。例えば、一実施形態では、各シナリオは、データリポジトリテーブルにおいて、そのシナリオに対応するすべての問題−解答ペアと関連づけられる。新規のシナリオが特定の生徒に割り当てられると、そのテストおよびそれらの問題−解答ペアに関するその特定の生徒の情報をユーザごとに記憶することができるように、これらのペアのそれぞれへの参照が作成される。各問題は、生徒に固有のシナリオの属性(例えば、提示される問題の順序)を有することができるので、問題−解答ペアのコピーまたは問題情報レコードから問題への参照が、その特定の生徒に対するその特定のシナリオに対応するテーブルに割り当てられる。ステップ1404で、管理システムは、その特定のシナリオがランダム化されたシナリオであるか、すなわち、問題がランダムな順序で提示されるかどうかを判定し、ランダムな順序で提示される場合、ステップ1405に進み、さもなければ復帰する。ステップ1405で、システムは、その生徒に対するその特定のシナリオレコードについて問題−解答ペアの並び順をランダム化する。シミュレーションエンジンは、その生徒に対するシナリオレコードに規定された順序でそれらの質問を提示する。そして、シナリオ割当てルーチンは、SBSMSの管理インタフェースに戻る。
図15は、スキルベースシミュレーション・測定システムの一例の管理インタフェースの表示画面例である。表示画面1500は、アドミニストレータが設定可能なユーザのリスト1501を示している。システムのカレントユーザ(例えばユーザ1510)が選択されると、カレントユーザ情報がユーザプロパティ1502に事前ファイルされる。各ユーザは、対応するユーザID、パスワード、名前、アカウント有効期限日、および、ロール(例えば、生徒、アドミニストレータ、パブリッシャ、またはオーサ)を有する。これらのプロパティは、ユーザプロパティ1502のフィールドに反映される。ユーザのプロパティ値は、アドミニストレータにより、「Add/Update」(追加/更新)ボタン1503を選択することによって変更可能であり、システムはそれに従って更新される。ユーザが選択された後は、「Tests」(テスト)ボタン1504を選択することによって、テスト(または他のシナリオ)をそのユーザに関連づけることができる。「Tests」ボタン1504が選択されると、(生徒としての)そのユーザに現在割り当てられているテストのリストがカレントテストリスト1505に示される。新規のテストを追加するには、アドミニストレータは、ドロップダウン式の利用可能テストリスト1506からテストを選択し、「Add」(追加)ボタン1507を押す。
また、管理インタフェースは、シナリオ結果の詳細およびそれぞれの解答された問題について記憶されている記録アクションを判定および確認するためにも使用可能である。具体的には、カレントテストリスト1505は、各テスト(シナリオ)に関連するデータを示す。各テストについて、リスト1505は、テストが割り当てられた日付(指定日)1520、テストが受験された場合にそれが開始された日付1521、テストが終了した場合にそれが終了した日付1522、およびそのテストの結果を示す。例えば、全問題数のうち解答された問題数がフィールド1523に示され、解答された問題の百分率がフィールド1524に示され、テストを完了するのに要した全秒数がフィールド1525に示される。SBSMSがテスト全体の総合能率得点を維持管理している場合、これもカレントテストリスト1505に示すことができる。一方、問題に応答する際の生徒のスキルの能率得点または他の種類の測定値がその問題に限定されている場合、その得点は、その特定の問題に対する「details」(詳細)データシートのみに示されてもよい。アドミニストレータは、「Remove」(削除)インジケータ1526を選択することによって、カレントテストリスト1505からシナリオを削除することができる。また、「Reset」(リセット)インジケータ1527を選択することによって、過去の結果を消去するようにシナリオをリセットすることができる。また、「Details」(詳細)インジケータ1528を選択することによって、シナリオの各問題に対して記録されたアクションを閲覧することができる。例えば、アドミニストレータは、Excel Skills Analysis(エクセルスキル分析)テストに対する「Details」インジケータ1528を選択することによって、図12および図13に関して説明した表示画面(それぞれ、正答であった問題および誤答であった問題に対する一連の記録アクションを例示した)に移動することができる。
スキルベースシミュレーション・測定システムによれば、シナリオの実行およびシナリオの管理に加えて、オーサが、既存の問題から新規のシナリオを作成すること、新規の非シミュレーション問題を作成すること、および特定のシナリオに関連するプロパティを変更することが可能となる。図16は、スキルベースシミュレーション・測定システムの一例のオーサリングインタフェースのシナリオオーサリングルーチンの例示的流れ図である。前に説明したように、オーサとしてのユーザは、既存のシミュレーション問題を用いて、または既存の非シミュレーション問題を用いることによって、または新規の非シミュレーション問題を追加することによって、新規のテストまたはトレーニングのシナリオを生成することができる。(本実施形態では、新規のシミュレーション問題を作成するためには、ユーザは、スキルベースシミュレーション・測定システムによって提供されるツールを用いて、パブリッシャとして問題をパブリッシュしなければならない。)概略的には、ステップ1601〜1603で、オーサは、新規の非シミュレーション問題を追加し、または既存の非シミュレーション問題を変更し、ステップ1604〜1608で、特定のシナリオの属性を変更し、ステップ1609〜1610で、既存の、または新規作成された非シミュレーション問題を指定されたシナリオと関連づける。
具体的には、ステップ1601で、シナリオオーサリングルーチンは、オーサが、利用可能な問題の「プール(pool)」に対する更新を要求したかどうかを判定する。要求した場合、ステップ1602に進み、さもなければステップ1604に進む。ステップ1602で、ルーチンは、オーサの選択に応じて、新規の非シミュレーション問題をプールに追加し、または、既存の非シミュレーション問題を新規のプロパティ値で更新する。ステップ1603で、ルーチンは、オーサが、新規作成した非シミュレーション問題に対する解答を追加すること、または既存の非シミュレーション問題に対する既存の解答セットを更新することを可能にする。例えば、オーサは、新規の多肢選択問題に対するいくつかの可能な解答を追加すること、または既存の多肢選択問題に対する関連づけられた解答セットにさらに解答を追加することができる。そして、ルーチンは、オーサが、問題のプールの変更を継続すること、または別のオーサリング活動を実行すること(ステップ1601においてループの最初に戻るように示されている)を可能にする。
ステップ1604で、シナリオオーサリングルーチンは、オーサが、利用可能なシナリオの「プール」において新規シナリオの追加または既存のシナリオの更新を要求したかどうかを判定し、要求した場合、ステップ1605に進み、さもなければステップ1609に進む。ステップ1605で、オーサが、変更すべき既存のシナリオを選択した場合、ルーチンはステップ1606に進み、さもなければステップ1607に進む。ステップ1606で、ルーチンは、シナリオに関する情報を指定するプロパティフィールドの事前ファイルを行う。ステップ1607で、ルーチンは、オーサからの、新規シナリオを指定する入力または既存のシナリオのプロパティフィールドの既存の値を変更する入力を判定する。ステップ1608で、ルーチンは、新規の/更新されたシナリオプールを含むように、利用可能なシナリオのプールを更新する。シナリオ情報がサーバのデータリポジトリに記憶される実施形態では、データリポジトリ内の適当な情報もそれに応じて更新される。そして、ルーチンは、オーサが、シナリオのプールの変更を継続すること、または別のオーサリング活動を実行すること(ステップ1601においてループの最初に戻るように示されている)を可能にする。
ステップ1609で、シナリオオーサリングルーチンは、オーサが、指定されたテストに問題を関連づけることを要求したかどうかを判定し、要求した場合、ステップ1610に進み、シナリオに問題を関連づけるルーチンを呼び出す。そうでない場合、ルーチンは、オーサが、引き続き別のシナリオに問題を関連づけること、または別のオーサリング活動を実行すること(ステップ1601においてループの最初に戻るように示されている)を可能にする。
図17は、スキルベースシミュレーション・測定システムの一例のオーサリングインタフェースの問題関連づけルーチンの例示的流れ図である。このルーチンは、指定されたシナリオに関連づけるべき既存の問題を判定する。ステップ1701で、ルーチンは、指定されたシナリオに既に関連づけられている既存の問題を表示する。ステップ1702で、ルーチンは、シナリオに新規追加されるべき問題をフィルタリングするためのカテゴリを判定する。カテゴリごとに問題を提示することはオプションであり、所望の問題を素早く見つけるプロセスを支援するためのものである。ステップ1703で、ルーチンは、利用可能な問題プールから選択されたカテゴリに一致する問題を表示する。この表示は、シミュレーション問題および非シミュレーション問題を含むことができる。当業者には認識されるように、有益と考えられる場合、例えば問題のプールが大きい場合には、高度な検索エンジンをこのステップに統合することも可能である。ステップ1704で、ルーチンは、通常はオーサ入力から、シナリオに追加すべき指定された問題を判定する。ステップ1705で、ルーチンは、通常はオーサ入力から、その問題に対する並び順を判定する。ステップ1706で、ルーチンは、新規の問題−解答ペアに対して指定されたシナリオに関連づけられる新規のデータリポジトリレコードを作成し、または既存のレコードを更新した後、復帰する。当業者には認識されるように、例示したステップは、指定されたシナリオに問題を追加するために必要なだけ繰り返すことができる。
図18〜図21は、スキルベースシミュレーション・測定システムの一例のオーサリングインタフェースの表示画面例である。図18は、利用可能な問題のプールを変更するためのオーサリングインタフェースの表示画面例である。表示画面1800において、インタフェースは、問題カテゴリフィールド1801に表示された特定の問題カテゴリに対して、問題プールからそのカテゴリに一致する問題のリスト1802を示している。なお、新規のカテゴリをシステムに追加することも可能であり、前に説明したように、高度な検索エンジンを適宜組み込むことも可能であることに留意されたい。問題リスト1802から既存の問題が選択されると、その問題に関連するデータが問題プロパティフィールド1803に示される。既存の問題に対して、これらのフィールドには、データリポジトリからの情報が事前ファイルされる。したがって例えば、「New Math(新数学)」という内部参照名の問題が、「Math(数学)」問題のカテゴリ内の多肢選択型問題として示されている。ここで、解答はいかなる特定の方法でも順序付けられていない。選択された問題に関連する既存のテキスト、グラフィクス、またはオーディオは、問題内容入力フィールド1806に提示される。したがって、例えば、「New Math」とラベル付けされた問題に対する内容は、テキスト「What is 4 + 5.」(4+5は何ですか)である。前に説明したように、問題および解答は両方とも、同一の問題または解答について、多言語で存在することができる。そこで、オーサが言語インジケータフィールド1807で異なる言語を選択した場合、指定した言語で問題内容入力フィールド1806に問題の別バージョンを入力することができる。オーサは、「Answers」(解答)ボタン1805の選択により特定の問題に対する解答を選択するためのインタフェースに移動すること、または、「Switch to Tests」(テストに切り替える)ボタン1804を選択することによりシナリオ(テスト)の追加または変更のためのインタフェースに切り替えることができる。
図19は、指定された非シミュレーション問題に1つまたは複数の解答を追加するためのインタフェースの表示画面例である。解答数は問題のタイプに依存する。解答が関連づけられる問題は、図18で指定された問題である。表示画面1900において、オーサリングインタフェースは、既存の問題に対して、その問題に関連づけられた解答または解答セットを解答表示リスト1901に示している。特定の解答を、変更のために選択し、または削除することができる。特定の解答が変更のために選択されると、その解答が解答内容入力フィールド1902に表示される。そして、オーサは、フィールド1902に表示された内容を適宜変更することができる。解答の他の属性も問題タイプに応じて適宜変更することができる。例えば、多肢選択問題タイプの場合、複数の解答があり、そのうちの1つだけが正答である。正答は、正答フィールド1903に示される。また、オーサは、特定の解答が順序フィールド1904に表示されるように順序を指定することも可能である。したがって例えば、オーサは、多肢選択問題に対する多肢選択解答において解答を順序付けることができる。オーサが、解答の変更または新規解答の追加を終了すると、「Add」(追加)ボタン1905を選択することによって解答情報が更新される。オーサリングインタフェースは、それに従ってデータリポジトリ情報を更新する。オーサは、問題に対する解答の変更または新規解答の追加を完了すると、「Return」(戻る)ボタン1906を押すことによって問題変更インタフェースに戻ることができる。
図20は、シナリオを変更するためのオーサリングインタフェースの表示画面例である。このインタフェースは、テストに関して説明されているが、トレーニングシナリオについても同様である。表示画面2000において、オーサリングインタフェースは、テスト表示リスト2001に現在のテストのリストを表示している。特定のテスト(例えばテスト2010)を選択すると、インタフェースは、テストの現在のパラメータの値をテストプロパティフィールド2006に表示し、テスト名およびコメントをそれぞれフィールド2002および2005に表示する。正答率が何パーセントであれば合格得点となるか、時間制限付きテストに割り当てられた秒数、およびテストのタイプのようなプロパティ(属性)が、テストプロパティフィールド2006に表示される。オーサは、「Display Answer Result」(解答結果を表示)プロパティを切り替えることによって、(次の問題に進む前に、または他の指定された時に)正答が生徒に対して表示されるように指示することができる。また、オーサは、「Ordering」(順序付け)プロパティによって、テストが問題をランダムな順序で含むか、それとも決まった順序で含むかを指示することもできる。さらに、オーサは、「Question Selection at end of test」(テスト終了時の問題選択)プロパティを切り替えることによって、生徒がテストを終了した後に戻って解答するために、生徒が戻って問題を選択することを許すかどうかを決めることができる。例えば、生徒がある問題を飛ばした場合、このプロパティにより、生徒は飛ばした問題に戻って解答することができる。また、オーサは、「Can return to answered questions」(解答済問題に復帰可能)プロパティを切り替えることによって、生徒が既に解答した問題に戻って解答を変更することを許すかどうかを決めることができる。テストが新規テストであり、既存のテストでない場合、オーサは、新規テスト名をテスト名フィールド2002に指定し、そのテストに対する導入画面に表示されるコメントをコメントフィールド2005に指定することができる。テスト情報が完備したら、オーサは、「Add」(追加)ボタン2003を選択して新規テストをシステムに追加し、または「Update」(更新)ボタン2004を選択して既存のテストに対するプロパティを更新することができる。そして、オーサは、ボタン2008を選択することにより、問題プール内の問題の変更に戻るか、または「Question List」(問題リスト)ボタン2009を選択することにより、この特定のテストに問題を関連づけることができる。
図21は、指定されたテストに問題を関連づけるためのオーサリングインタフェースの表示画面例である。図21において、表示画面2100は、現在、指定されたテスト2101に関連づけられた現在の問題のリスト2102を示している。特定のテストに対する問題の順序は、このインタフェースを用いて、問題を選択してからテスト順序フィールド2106にその問題の順序を指定することによって、変更することができる。さらに、コメント(すなわち、割り当てられている問題の内部名)をコメント入力フィールド2105に示すことができる。テストに新規の問題を追加するには、オーサは、カテゴリフィールド2103において問題カテゴリを選択する。すると、オーサリングインタフェースは、問題プール(シミュレーション問題および非シミュレーション問題を含む)から、そのカテゴリに一致する問題の現在のリスト2104を表示する。前に言及したように、高度な検索機能を適宜組み込むことができる。ユーザがこれらの問題の1つを選択すると、問題の順序および内部名の両方を、説明したように入力することができる。指定されたテストに問題が関連づけられると、オーサは、「Return」(復帰)ボタン2107を選択して、オーサリングインタフェースの最初に戻ることができる。
スキルベースシミュレーション・測定システムによれば、シナリオの実行、管理、およびオーサリングに加えて、パブリッシャが、SBSMSによって提供されるツールを用いて、シミュレーションシナリオおよびシミュレーション問題を新規作成し、または既存のシミュレーションシナリオおよびシミュレーション問題を変更することが可能となる。図22は、スキルベースシミュレーション・測定システムの一例のパブリッシングインタフェースのシナリオパブリッシュプロセスの例示的流れ図である。ステップ2201で、パブリッシャは、アプリケーションを使用するための所望のシナリオを検討した後、アプリケーションから種々のスクリーンショット(画面ビットマップ)をキャプチャ(捕獲)する。ステップ2202で、パブリッシャは、種々のスクリーンショットを、例えばGIFフォーマットで書式化し、スクリーンショットを編集してシミュレーションエンジンに取り込むことができるようにする。シミュレーションエンジンは、例えば、ウェブページがクライアントとサーバの間で用いられる通信メカニズムである場合には、ウェブページ内にある。さらに、パブリッシャは、例えばメニュー、ボタン等の、アプリケーションのユーザインタフェースコントロールのシミュレートされた等価物を追加したいエリアをスクリーンショットから取り除く。ステップ2203で、パブリッシャは、実行されるべき種々の問題または課題に対するスクリーンショットを観察して、アプリケーションプレゼンテーションのどの部分が全部の(または一部の)問題で共有されるか、およびどのアプリケーションユーザインタフェースコントロールが共通であるか、および/または共通の挙動を有するかを判定する。例えば、図3A〜図3Gに示したシミュレーションのようなExcel表計算アプリケーションのシミュレーションでは、スプレッドシートの行、列、およびヘッダ情報は、全問題で共有される。この情報を用いて、ステップ2204で、パブリッシャは、共有される(すなわち、問題ごとに変化しない)アプリケーションの部分に対するベースシミュレーションコンポーネントを作成する。
例えば、ウェブページを使用する実施形態では、ステップ2204で、パブリッシャは、シミュレートされたユーザインタフェースコントロールを含む種々のプレゼンテーションフォーム(ウェブページ)を作成し、クライアントウェブページ上で「選択される」(イベントを引き起こす)各コントロールに対して呼び出されるコード(イベントハンドラ)を書くことが必要である。このプロセスを支援する種々のツールが存在し、例えばMicrosoftのVisual Studio .NETのようなウェブ設計ツールがある。さらに、特定のグラフィカルユーザインタフェース環境をターゲットとしたメニュー、ダイアログボックス等を構築するためのプレゼンテーションおよびコードのような、特定のアプリケーションに固有でないツールの多くを、SBSMSサーバ環境の一部として存在するコンポーネントのツールキットの一部として利用可能とすることができる。
ステップ2205〜2208で、パブリッシャは、シナリオの一部となるべき各問題に対するシミュレーションを生成するための一連のステップを実行する。具体的には、ステップ2205で、パブリッシャは、処理すべき問題が他に存在するかどうかを判定し、存在する場合、ステップ2206に進み、さもなければステップ2209に進む。ステップ2206で、パブリッシャは、処理すべき次の問題を考慮し、ステップ2207で、その問題に基づいて問題シミュレーションコンポーネントを作成する。問題シミュレーションコンポーネントを作成するプロセスは、ステップ2204におけるアプリケーションのベースシミュレーションコンポーネントを作成するプロセスに非常に類似している。しかし、プロセスは、実行されるべき問題または課題に直接対応するアプリケーション環境の部分に対してのみ実行される。一実施形態では、問題によって影響を受ける表示画面のエリア(および対応するイベント処理コード)のみが、クライアント側シミュレーションウェブページ上で「置換される」。各問題シミュレーションコンポーネントの設計および実装には、問題に対する解答の正確さを確認するために呼び出すことができるルーチンと、問題に対する解答を得点付けするためのルーチンが含まれる。ステップ2208で、問題シミュレーションコンポーネントは、サーバ環境ツールの一部として記憶され、パブリッシャは、ステップ2205で、次の問題についてプロセスを再び開始する。ステップ2209で、シミュレートされるべき問題のセットが処理された後、パブリッシャは、生成されたアプリケーションベースシミュレーションコンポーネントをサーバ環境ツールに記憶する。ステップ2210で、パブリッシャは、アプリケーションベースコンポーネントに関して、および、必要に応じて(例えば、シナリオおよび問題を、割り当てられるように利用可能とするために)問題シミュレーションコンポーネントに関して、データリポジトリを更新し、それにより、パブリッシュプロセスを完了する。
図23は、シナリオパブリッシュプロセスによって構築されるコンポーネント例を含むスキルベースシミュレーション・測定システムの一例のサーバ環境の例示的ブロック図である。サーバ環境2300は、特に、スキルベーステスト・トレーニングエンジン2301、およびクライアントシステムと通信するための適当なインタフェース;シナリオ・生徒設定データ2303および他のデータ2304のような、1つまたは複数のデータリポジトリ;ならびに、サーバツールキットを構成するコンポーネントのセット2302を備える。スキルベーステスト・トレーニングエンジン2301は、図7〜図9に関して説明したスキルベース測定環境およびクライアント側シミュレーションエンジンを実行するためにクライアントと対話するためのインタフェースおよびコードを提供する。データリポジトリは、どの問題(および解答)が特定のシナリオを構成するかを判定するために必要な情報を含むとともに、シナリオを実施するために用いられるサーバコンポーネントの指示と、テストに関する生徒の履歴を含む。シナリオ・生徒設定データのレコード例は図26に関して示される。ツールキット2302を構成するコンポーネントは、クライアント側シミュレーションエンジンを実施するために用いられ、シミュレーションエンジンのサーバ側コンポーネントを含む。ツールキット2302のコンポーネントは、パブリッシャが、新規のシミュレーションシナリオおよびシミュレーション問題、ならびに新規のタイプの非シミュレーション問題を作成するためにも用いられる。
例えば、ツールキット2302は、多肢選択エンジン、文法エンジン、物語文法エンジン、および文整序エンジンのような、非シミュレーション問題のための一連のエンジン2310を含む。これらのエンジンがクライアントシステムにダウンロードされると、種々の問題からのデータ、例えば、特定のテストに対する非シミュレーション問題データ2318が、特定の非シミュレーションエンジンに対するウェブページに入力される。
シミュレーションのために、ツールキット2302は、シミュレーションベースエンジン2316を備える。シミュレーションベースエンジン2316は、すべてのシミュレートされるインタフェースをサポートするために最初にクライアントにダウンロードされる。さらに、基本ユーザインタフェースコンポーネントシミュレーション2311、および、ダイアログインタフェース2317のような他の種類のインタフェースコンポーネントが、パブリッシャ等がそれらを用いてアプリケーションベースシミュレーションエンジンおよびシミュレーション問題コンポーネントを構築するために利用可能である。図22に関して説明したように、パブリッシャがアプリケーションをシミュレートする場合、パブリッシャはまず、シミュレーションシナリオの問題全体にわたって共有される一連のプレゼンテーションおよびインタフェースを判定する。「ABC表計算メニュー」コンポーネント2314および「XYZライタメニュー」コンポーネント2315は、このような共有プレゼンテーションコンポーネントの例である。(「ABC表計算メニュー」コンポーネント2314は、おそらくは、ABCシナリオに対するすべての問題にわたって機能する。)「表計算ABC問題1」コンポーネント2319および「ABC問題2」コンポーネント2320は、それぞれ、ABC表計算アプリケーションの問題1および問題2のシミュレーションをサポートするデータおよびコードを含む。
「表計算メニュー」コンポーネント2312および「ワードプロセッサメニュー」コンポーネント2313のような他のコンポーネントが、一般的なメニューサポートのためにツールキットによって提供されてもよい。当業者には認識されるように、パブリッシャがシミュレーション問題または非シミュレーション問題を作成または実施するために使用することができる再利用可能モジュールにおいて、多くの他のコンポーネントや機能とコードの組合せが作成されることが可能である。さらに、別々のコンポーネントの利用により、SBSMS全体を再リリースすることを必要とせずに、例えば改訂版のアプリケーションを反映するようにテストを「更新」するために、特定のコンポーネントに対するアップグレードを行うことができる。
図24は、スキルベースシミュレーション・測定システムのサーバ部分の実施形態を実施するための汎用コンピュータシステムの例示的ブロック図である。汎用コンピュータシステム2400は、1つまたは複数のサーバおよび/またはクライアントのコンピューティングシステムを備えることが可能であり、複数の地点に分散して広がっていてもよい。さらに、図示の各ブロックは、特定の実施形態に適した1つまたは複数の当該ブロックを代表していてもよく、あるいは他のブロックと組み合わされてもよい。さらに、スキルベースシミュレーション・測定システム2410のサーバ部分の種々のブロックが物理的に存在するマシンは、1つまたは複数のいずれでもよく、それらは相互に通信するために標準的なプロセス間通信メカニズムを使用する。
図示の実施形態において、コンピュータシステム2400は、コンピュータメモリ(「メモリ」)2401、オプションのディスプレイ2402、中央処理装置(CPU)2403、および入出力装置2404を備える。スキルベースシミュレーション・測定システム(SBSMS)2410は、メモリ2401に存在するように示されている。スキルベースシミュレーション・測定システム2410のコンポーネントは、好ましくは、CPU2403で実行され、これまでの図に記載されているように、シミュレーションおよび非シミュレーションのシナリオコンポーネントの生成および使用を管理する。他のプログラム2430、および場合によっては他のデータリポジトリ2420もメモリ2401に存在し、好ましくは1つまたは複数のCPU2403上で実行される。さらに、ネットワークベースの実装の場合、ウェブインタフェースのようなネットワークインタフェース2431もメモリ2401に存在し、1つまたは複数のCPU2403上で実行される。典型的実施形態では、SBSMS2410は、スキルベーステスト・トレーニングエンジンおよびインタフェース2411、1つまたは複数のツールキット2412、シナリオ・生徒設定データリポジトリ2413、および場合によっては他のデータ2414を含む。
実施形態の一例では、SBSMS2410のコンポーネントは、標準的なプログラミング技法および標準的なウェブベース技術(例えばMicrosoft IISのようなHTMLサーバ);ウェブベースエンジン(例えばASP .NETまたはそれと同等のもの);java(登録商標)プログラミングツールおよび環境サポート;ならびにデータベース技術を用いて実施される。当業者には認識されるように、シミュレーションコンポーネントをサポートするコードは、オブジェクト指向技術、分散技術、ウェブベース技術を用いたものとして都合よく実施される。しかし、SBSMSコンポーネント2411〜2412のいずれも、よりモノリシックなプログラミング技法を用いても同様に実施可能である。さらに、SBSMSの一部として記憶されるデータへのプログラミングインタフェースは、C、C++、C#、およびJava(登録商標)APIを通じて、ならびにXMLのようなスクリプティング言語を通じて、またはこのようなインタフェースをサポートするウェブサーバを通じて等の標準的手段によって利用可能とすることができる。データリポジトリ2413は、スケーラビリティの理由から、好ましくは、テキストファイルとしてではなくデータベースシステムとして実施されるが、このような情報を記憶するためにいかなる方法を用いてもよい。
当業者には認識されるように、SBSMS2410は、複数の(異種混合であってもよい)コンピュータシステムおよびネットワークからなる分散環境において実施されてもよい。例えば、一実施形態では、スキルベーステスト・トレーニングエンジン2411、ツールキットコンポーネント2412、およびシナリオ・生徒設定データリポジトリ2413はすべて、物理的に異なるコンピュータシステムに配置される。別の実施形態では、ツールキット2411の種々のコンポーネントが、別個のサーバマシン上にそれぞれホスティングされ、シナリオ・生徒設定データリポジトリ2413に記憶されるシナリオ定義テーブルからリモートに配置されてもよい。
図25は、スキルベースシミュレーション・測定システムのクライアント部分の実施形態を実施するための汎用コンピュータシステムの例示的ブロック図である。図24に関して詳細に説明したのと同様に、汎用コンピュータシステム2500は、1つまたは複数のサーバおよび/またはクライアントのコンピューティングシステムを備えることが可能であり、複数の地点に分散して広がっていてもよい。図25において、コンピュータシステム2500は、コンピュータメモリ(「メモリ」)2501、ディスプレイ2502、中央処理装置(CPU)2503、および入出力装置2504を備える。クライアント側シミュレーションエンジン2510は、メモリ2501に存在するように示されている。他のプログラム2505、ネットワークインタフェース(例えばウェブブラウザ)2506、および他のデータリポジトリ2507もメモリ2501に存在し、好ましくは1つまたは複数のCPU2503上で実行される。シミュレーションエンジン2510は、図24に示したサーバ環境と対話することにより、SBSMSの機能を実現する。当業者には認識されるように、SBSMSのクライアント部分は、サーバ部分と同じ物理的コンピュータシステム上に存在してもよく、あるいは、その何らかの組合せであってもよい。前に説明したように、シミュレーションエンジン2510の実装は、サーバ部分によって支配される。
一般に、SBSMSの技法とともに用いるために、プログラムおよびデータのさまざまな構成および配置が考えられる。実施形態の例では、これらのコンポーネントは並行して非同期的に実行されることが可能である。したがって、コンポーネントは、周知のメッセージパッシング技法を用いて通信することができる。当業者には認識されるように、同等の同期的実施形態も、SBSMS実装によってサポートされる。また、他のステップを、各ルーチンに対して、異なる順序で、および異なるルーチンで実施し、しかも依然としてSBSMSの機能を達成することが可能である。
図1〜図23に関して説明したように、スキルベースシミュレーション・測定システムは、テストおよびトレーニングのためのシミュレーション問題および非シミュレーション問題を含むシミュレートされたアプリケーション環境を生成し;新規のシナリオおよびシミュレーション問題をパブリッシュし;既存の問題のデータリポジトリを用いてシナリオをオーサリングし;生徒に対するシナリオを管理し;テストおよびトレーニングのシナリオを実行する能力を提供する。これらの機能は、SBSMSのシナリオおよびユーザに関するすべての情報を表すデータリポジトリに記憶されたデータを通じて情報を通信するインタフェースおよびコードによってサポートされる。
図26は、スキルベースシミュレーション・測定システムの一例のシナリオ・生徒設定データリポジトリテーブル例内のレコードの例示的ブロック図である。例示されているレコードは、生徒ごとのシナリオ設定と、特定のシナリオを構成する課題または問題とをサポートするために必要な情報の概観を提供する。図26のレコードは、テスト環境向けであるが、当業者には認識されるように、同様の情報がトレーニングシナリオにも等しく適用可能である。これらのレコードは、SBSMSの種々のインタフェースによって、およびシナリオを実行することによって、作成および変更される。
具体的には、このデータリポジトリ例内のテーブルは、シナリオデータが2つの異なる視点から、すなわち、生徒の視点から、およびシナリオの視点から、アクセス可能であるように編成されている。それぞれの生徒(ユーザ)に対して、一意のuser_ID(ユーザID)でそのユーザを表すために、ユーザレコード2601が作成される。そして、生徒に割り当てられる各テストに対して、別々のユーザテストレコード2602が作成される。ユーザテストレコード2602は、特定のテストの「状態」に関する現在の情報を含む。例えば、テストが割り当てられた日付(指定日)、テストがいつ開始および終了したか、ならびに結果および得点付けを示すデータのような情報がこのレコードに保持される。一意のtest_ID(テストID)もこのレコードに記憶される。test_IDは、シナリオの観点からテストの構造に関する情報(どの問題−解答ペアがテストに「属する」か、テストのプロパティ等)を探すために用いられる。各ユーザテストレコード2602に対して、test_IDを有する生徒のテストに関連づけられるそれぞれの問題−解答ペアに対して、別々の問題−解答情報レコード2603が作成される。図示の実施形態では、実際の問題および正答はこれらのテーブルに記憶されないが(それらはシナリオの視点からはアクセス可能である)、当該生徒の当該テストに対する特定の問題−解答ペアに関するすべての情報が問題−解答情報レコード2603に記憶される。したがって、問題の順序や、問題が解答されたかどうか、そして、解答された場合には解答の正確さおよび記録されたアクションがレコード2603に記憶される。これらは、当該シナリオに対する問題−解答ペアの、生徒固有の属性である。
シナリオまたは問題−解答ペアに関する非生徒固有情報を取得するには、データリポジトリは、シナリオの視点からアクセスされる。具体的には、それぞれの(一意の)test_IDに対して作成されるテストマトリクスレコード2604および2605がある。テストマトリクスレコード2604は、テスト(シナリオ)に関するプロパティ情報を、テストを構成する問題に関するプロパティ情報と結合する。例えば、各テストマトリクスレコード2604および2605は、テスト情報レコード2606および1つまたは複数の問題情報レコード2607を示す。異なるtest_IDを有する2つの異なるテストマトリクスレコード(例えばレコード2604および2605)が、同じ問題情報レコード2607を参照することがある。これは、2つの異なるテストが同じ問題を含むことを示す。また一方、テストは、異なるプロパティを有する問題を提示する可能性もある。例えば、テストの合格点は異なってもよく、また、テストは、時間制限があってもなくてもよい。それぞれの問題情報レコード2607は、問題がシミュレーション問題であるかそれとも非シミュレーション問題であるか、およびその問題に適した「エンジン」を見つけるために呼び出すべきパス(例えばウェブページ)を示す。したがって、例えば、問題がシミュレーション問題である場合、ページは、前に説明したベースシミュレーションコンポーネントを参照することになる。それぞれの非シミュレーション問題もまた、解答(図示せず)に関連づけられる。また、当業者には認識されるように、言語固有のレコードのような、各テストに対して作成される他のレコードがある。テストが多言語で利用可能である場合、問題−解答ペアの翻訳が、他のレコードで利用可能となるであろう。
図1〜図23に機能的観点から説明したように、SBSMSのクライアント部分とサーバ部分とは、スキルベースシミュレーション・測定環境を実施するために通信する。一実施形態では、SBSMSは、MicrosoftのActive Server Pages(ASP).NETアーキテクチャを用いて実施される。Microsoftの.NETおよびASP .NETアーキテクチャについては、Platt, David S.著「Introducing Microsoft .NET(マイクロソフト・ネットワークの手引き)」(Microsoft Press, 2002)にさらに詳細に記載されている。当業者には認識されるように、SBSMSは、本明細書に記載される技法および機能に影響を及ぼすことなく、他のウェブページベースのアーキテクチャにおいて、他のツール、および他の言語を用いて、同等に実施されることが可能である。
ウェブベースツールを用いたASP .NETアーキテクチャは、標準化された技法を用いて、アプリケーションのシミュレートされたユーザインタフェースコントロールおよびそれらの「コードビハインド」(イベント処理コード)を生成するための手段を提供する。シナリオのコードフローがどのようにSBSMSによって実施されるかを理解するためには、標準的なASP .NET環境によってサポートされるウェブページおよびコードフローを見直すことが有益である。
図27は、MicrosoftのActive Server Pages(ASP .NET)エンジンを用いてウェブページを生成および処理するための、クライアントシステムとサーバシステムの間の処理およびコードのフローの例示的ブロック図である。この図は、上記で引用した参考書に提供されているものに類似している。図27において、IIS2701(MicrosoftのInternet Information Service)は、HTML(Hypertext Markup Language)ベースのウェブページに対するHTTP(Hypertext Protocol)リクエストを処理する。IIS2701は、ASPX実行エンジン2702とともにサーバ上に存在し、ウェブページに対するクライアントリクエストを受け入れ、要求されたページを生成して返す。このプロセスにおいて、ASPX2702は、サーバサイドページと、オブジェクトおよびイベントを実装するために必要なそれらの「コードビハインド」とを生成する。具体的には、クライアントは、標準的なurl指定(例えば、http://demo.base.aspx)を用いて特定の「.aspx」ページを要求する。IIS2701は、ページリクエストをASPXエンジン2702に転送する。エンジン2702は、要求された「.aspx」ページを探索して読み出し、それをコンパイルし(初めてロードされた場合)、サーバサイド「.aspx」ページ2703を作成する。そして、エンジン2702は、コンパイル済クラスがあればそれをロードし、コードビハインドオブジェクト、例えば、「.aspx」ページで参照されているイベント処理を実装するコードビハインドオブジェクト2704(例えば、「....aspx.vb」または「.aspx.c」等)を作成する。作成されたコードビハインドオブジェクトは、インスタンス化されると、ウェブページコントロール(ユーザインタフェース)を生成し、それらに自分自身をHTMLへとレンダリングさせる。そして、レンダリングされたHTMLは、ウェブページとしてIISに返され、さらにクライアントに返されて、当初のリクエストに応える。この基本的メカニズムは、SBSMSの現在の実装の基礎にあるが、その実装または機能にとって必ずしも必要なわけではない。当業者には認識されるように、クライアント−サーバ間通信およびウェブベース通信の他のモデルも存在し、インターネットとは異なるネットワークにおいて使用可能である。
図28A〜図28Cは、シナリオを実施するための、スキルベースシミュレーション・測定システムの一例のクライアント部分とサーバ部分の間のウェブページおよびコードのフローの例示的フローを示している。ステップ2801で、SBSMSのクライアント部分で、生徒が「Begin」(開始)ボタンを選択することにより、図3Aにあるようなシナリオを開始する。このアクションは、SBSMSのサーバ部分にポスト(投稿)される。サーバ部分は、そのアクションをあるページ(例えば「NextQuestion.aspx」)に送る。そのページは、ステップ2802で、シミュレーション問題のためのベースエンジンの位置、または非シミュレーション問題のための非シミュレーションエンジンの位置を判定する。この情報は、図26に示したように、データリポジトリ内のテーブル(例えば問題情報レコード2607)から判定することができる。シミュレーション問題の場合、ベースエンジンは「qbase.aspx」とされ、非シミュレーション問題の場合、エンジンは問題タイプ固有であり、例えば「multiplechoice.aspx」である。判定後、ステップ2803で、エンジン(「.aspx」ページ)はクライアント部分に転送される。ステップ2804で、クライアントは、シミュレーションベース(シミュレーション問題の場合)が返されたかどうかを判定し、返された場合、フローはステップ2807に進み、さもなければ、ステップ2805で非シミュレーションエンジンページを実行する。
非シミュレーションエンジンの場合、生徒が(1つまたは複数の)問題を終了すると、ステップ2806で、そのページがサーバ部分へサブミット(提出)される。これにより、サーバ部分は、ステップ2802に戻り、次の問題のためのエンジンを判定する。このステップが提供されている理由は、シナリオが、シナリオ内の非シミュレーション問題の異なるサブセットに対して1つまたは複数のエンジンをロードする可能性があり、また、非シミュレーション問題からシミュレーション問題に切り替わる可能性があるからである。すべてのこのような組合せが考えられる。
シミュレーションベースエンジンの場合、ステップ2807で、エンジンはサーバ部分の「GetNextQuestion」というウェブサービス(その他の方法で実装することも可能である)を呼び出す。ステップ2808で、ウェブサービスGetNextQuestionは、次の問題に関するプロパティを判定し、それをクライアント部分に返す。これらのプロパティの値は、正しいコンポーネントがダウンロードされたかどうか、およびどのコンポーネントをロードすべきかを判定するために用いられる。具体的には、ステップ2809で、クライアント部分は、アプリケーションベースシミュレーションが既にダウンロードされているかどうかを判定し、ダウンロードされている場合、ステップ2812に進み、さもなければステップ2810に進む。ステップ2810で、クライアント部分は、アプリケーションベースシミュレーションに対応するページ(GetNextQuestionからプロパティ値として返される名前から定められる)を要求する。ステップ2811で、サーバ部分は、要求されたアプリケーションベースシミュレーションページをロードして配置し、クライアント部分に返されるようにそれを適当にレンダリングする。すると、クライアント部分は、それをステップ2810の一部としてロードする。ステップ2812で、クライアント部分は、次の問題シミュレーションに対応するページ(GetNextQuestionからプロパティ値として返される名前から定められる)を要求する。ステップ2813で、サーバ部分は、要求された問題シミュレーションページをロードして配置し、クライアント部分に返されるようにそれを適当にレンダリング(画面表現)する。すると、クライアント部分は、それをステップ2812の一部としてロードする。この時点で、クライアント側シミュレーションエンジンがロードされ実行されている。一実施形態では、問題シミュレーションページのダウンロードは、ページのうち問題内で変化した特定のエリアがリロード(再ロード)されることを要求するだけであるので、ダウンロードプロセスが高速化する。(これを実現するための1つの方法は、アプリケーションベースシミュレーションに対応するページのHTMLをクライアント上に記憶し、問題シミュレーションのHTMLを受信し、それをアプリケーションベースシミュレーションのHTMLに「追加」して、組み合わされたHTMLをレンダリングすることである。)ステップ2814で、生徒は、問題に対する応答のためのアクションを実行し、それらのアクションが記録され、最終的に生徒は応答の完了を示すために「Done」(終了)ボタンを押す。図10に関して説明したように、ステップ2815で、クライアント部分は、問題に対する応答を得点付けし、得点付け情報および記録された問題をサーバ部分のウェブサービス「ProcessQuestion」に転送する。(図10のステップ1008を参照されたい。)ステップ2816で、ProcessQuestionウェブサービスは、情報を適宜データリポジトリに記録し、シナリオ内の次の問題のタイプをクライアント部分に返す。この情報は、データリポジトリテーブルから入手可能である。ステップ2817で、クライアント部分は、次の問題がシミュレーション問題であるかどうかを判定し、シミュレーション問題である場合、ステップ2819に進み、さもなければステップ2818に進む。ステップ2819で、クライアント部分は、ウェブサービスGetNextQuestionを再び呼び出す。ステップ2820で、サーバ部分は、次の問題に関する情報を判定し(ステップ2808を参照)、その情報をクライアント部分に返す。ステップ2821で、クライアント部分は、それが最後の問題であるかどうかを判定し、他に問題がある場合、ステップ2809で(シミュレーション問題の場合)問題処理ループの最初に戻り、さもなければステップ2822で、シナリオの結果を報告するためのページに移動する。ステップ2817で、クライアント部分が、次の問題が非シミュレーション問題であると判定した場合、クライアント部分はステップ2802に戻り、次の問題のためのエンジンを判定する。こうして、各時点で、問題は、シミュレーション問題であることも非シミュレーション問題であることも可能となり、正しいウェブページをロードすることによって適切に処理される。
以上から理解されるように、本発明の具体的実施形態は例示の目的で本明細書に記載されているが、本発明の精神および範囲から逸脱することなく、種々の変更を行うことが可能である。例えば、当業者には認識されるように、本明細書で説明したスキルベース測定シナリオを実行する方法およびシステムは、クライアント−サーバ型アーキテクチャ以外の他のアーキテクチャにも適用可能である。例えば、本明細書に記載されるような技法は、複写機のようなハードウェア装置に組み込んでテキストベースのオンラインマニュアルに取って代わることが可能であり、あるいは、ハードウェア装置を用いた活動のトレーニングのための別個のシステム内に設置されることも可能である。また、当業者には認識されるように、本明細書で説明した方法およびシステムは、さまざまなネットワークプロトコル、通信媒体(光、無線、ケーブル等)、および、ワイヤレス電話機、電子手帳、個人情報端末、携帯電子メールマシン、ゲーム機、ページャ(ポケットベル)、GPS受信機等のナビゲーション装置、等の装置に適用可能である。
スキルベースシミュレーション・測定システムの一例によって提示されるテスト環境の表示画面例を示す図である。 日本語で提示された同じテスト環境の表示画面例を示す図である。 表計算アプリケーションのシミュレートされた諸相を用いてスキルをテストするためのテストシナリオの画面表示例を示す図である。 表計算アプリケーションのシミュレートされた諸相を用いてスキルをテストするためのテストシナリオの画面表示例を示す図である。 表計算アプリケーションのシミュレートされた諸相を用いてスキルをテストするためのテストシナリオの画面表示例を示す図である。 表計算アプリケーションのシミュレートされた諸相を用いてスキルをテストするためのテストシナリオの画面表示例を示す図である。 表計算アプリケーションのシミュレートされた諸相を用いてスキルをテストするためのテストシナリオの画面表示例を示す図である。 表計算アプリケーションのシミュレートされた諸相を用いてスキルをテストするためのテストシナリオの画面表示例を示す図である。 表計算アプリケーションのシミュレートされた諸相を用いてスキルをテストするためのテストシナリオの画面表示例を示す図である。 スキルベースシミュレーション・測定システムの一例のコンポーネントの例示的ブロック図である。 スキルベースシミュレーション・測定システムの一例のシミュレーションエンジンの例示的ブロック図である。を示す図 スキルベースシミュレーション・測定システムの一例を用いてスキルベース測定シナリオを作成、運営、および管理するプロセス全体の流れ図である。 クライアントシステム上でシミュレーションを実行するためにスキルベース測定環境の一例によって実行されるステップの例示的流れ図である。 クライアントシステムによって実行されるシミュレーションエンジンの一例の例示的流れ図である。 クライアントシステム上でのシミュレーションエンジン例の実行をサポートするためにサーバシステムによって実行されるステップの概観の例示的流れ図である。 クライアントシステムの観点から見たスキルベースシミュレーション・測定システムのスキルベースの記録および得点付けのプロセスの例示的流れ図である。 スキルベースシミュレーション・測定システムの記録・得点付けメカニズム例を用いて記録されたアクションを示す表示画面を示す図である。 スキルベースシミュレーション・測定システムの記録・得点付けメカニズム例を用いて記録されたアクションを示す表示画面を示す図である。 スキルベースシミュレーション・測定システムの記録・得点付けメカニズム例を用いて記録されたアクションを示す表示画面を示す図である。 スキルベースシミュレーション・測定システムの一例の管理インタフェースのシナリオ割当てルーチンの例示的流れ図である。 スキルベースシミュレーション・測定システムの一例の管理インタフェースの表示画面例を示す図である。 スキルベースシミュレーション・測定システムの一例のオーサリングインタフェースのシナリオオーサリングルーチンの例示的流れ図である。 スキルベースシミュレーション・測定システムの一例のオーサリングインタフェースの問題関連づけルーチンの例示的流れ図である。 スキルベースシミュレーション・測定システムの一例のオーサリングインタフェースの表示画面例を示す図である。 スキルベースシミュレーション・測定システムの一例のオーサリングインタフェースの表示画面例を示す図である。 スキルベースシミュレーション・測定システムの一例のオーサリングインタフェースの表示画面例を示す図である。 スキルベースシミュレーション・測定システムの一例のオーサリングインタフェースの表示画面例を示す図である。 スキルベースシミュレーション・測定システムの一例のパブリッシングインタフェースのシナリオパブリッシュプロセスの例示的流れ図である。 シナリオパブリッシュプロセスによって構築されるコンポーネント例を含むスキルベースシミュレーション・測定システムの一例のサーバ環境の例示的ブロック図である。 スキルベースシミュレーション・測定システムのサーバ部分の実施形態を実施するための汎用コンピュータシステムの例示的ブロック図である。 スキルベースシミュレーション・測定システムのクライアント部分の実施形態を実施するための汎用コンピュータシステムの例示的ブロック図である。 スキルベースシミュレーション・測定システムの一例のシナリオ・生徒設定データリポジトリテーブル例内のレコードの例示的ブロック図である。 MicrosoftのASP .NETエンジンを用いてウェブページを生成および処理するための、クライアントシステムとサーバシステムの間の処理およびコードのフローの例示的ブロック図である。 シナリオを実施するための、スキルベースシミュレーション・測定システムの一例のクライアント部分とサーバ部分の間のウェブページおよびコードのフローの例示的フローを示す図である。 シナリオを実施するための、スキルベースシミュレーション・測定システムの一例のクライアント部分とサーバ部分の間のウェブページおよびコードのフローの例示的フローを示す図である。 シナリオを実施するための、スキルベースシミュレーション・測定システムの一例のクライアント部分とサーバ部分の間のウェブページおよびコードのフローの例示的フローを示す図である。

Claims (210)

  1. アプリケーションのユーザインタフェース諸相をシミュレートすることによって該アプリケーションとのスキルベース対話を提供するためのコンピュータシステムにおける方法において、
    解答すべき問題を指示し、
    前記アプリケーションの前記シミュレートされた諸相を用いて実行される複数のアクションとしての前記指示された問題に対する応答を受け取り、
    前記受け取った応答を自動得点付けする
    ことを特徴とするコンピュータシステムにおける方法。
  2. 前記対話がテスト環境の一部であることを特徴とする請求項1に記載の方法。
  3. 前記対話がトレーニング環境の一部であることを特徴とする請求項1に記載の方法。
  4. 前記指示された問題が前記アプリケーションとの対話の所望の結果を特定することを特徴とする請求項1に記載の方法。
  5. 前記実行された複数のアクションが記録されることを特徴とする請求項1に記載の方法。
  6. 前記自動得点付けが、前記記録されたアクションが正しい応答を構成するかどうかを判定するために少なくとも1つの目標アクションと対照して前記記録されたアクションを評価することを特徴とする請求項5に記載の方法。
  7. 前記自動得点付けが、スキルの大きさとして能率評定を判定するために前記記録されたアクションを評価することを特徴とする請求項5に記載の方法。
  8. 前記記録されたアクションがデータリポジトリに記憶されることを特徴とする請求項5に記載の方法。
  9. 前記アプリケーションが、ソフトウェアアプリケーション、トレーニングシナリオ、テクニカルアプリケーション、および装置のユーザインタフェースの少なくとも1つであることを特徴とする請求項1に記載の方法。
  10. 前記スキルベース対話が、該対話が実行されている間に、プラグインソフトウェアコードを使用せずに、前記アプリケーションのインスタンスを実行せずに、および前記アプリケーションの実行中のインスタンスを共有せずに、提供されることを特徴とする請求項1に記載の方法。
  11. 前記コンピュータシステムがクライアントシステムおよびサーバシステムを有し、前記シミュレートされた諸相が該サーバシステムから該クライアントシステムへ転送されることを特徴とする請求項1に記載の方法。
  12. 前記対話がクライアントブラウザシステムによって実行されることを特徴とする請求項1に記載の方法。
  13. 前記クライアントブラウザシステムがインターネットブラウザであることを特徴とする請求項12に記載の方法。
  14. 入力テキストおよび出力テキストが別の言語で指示されることが可能であることを特徴とする請求項1に記載の方法。
  15. アプリケーションのユーザインタフェース諸相をシミュレートすることによって該アプリケーションとのスキルベース対話を提供するようにコンピュータプロセッサを制御するための命令を含むコンピュータ可読記憶媒体において、該命令が、
    解答すべき問題を指示し、
    前記アプリケーションの前記シミュレートされた諸相を用いて実行される複数のアクションとしての前記指示された問題に対する応答を受け取り、
    前記受け取った応答を自動得点付けする
    ことによってコンピュータプロセッサを制御することを特徴とするコンピュータ可読記憶媒体。
  16. 前記対話がテスト環境の一部であることを特徴とする請求項15に記載のコンピュータ可読記憶媒体。
  17. 前記対話がトレーニング環境の一部であることを特徴とする請求項15に記載のコンピュータ可読記憶媒体。
  18. 前記指示された問題が前記アプリケーションとの対話の所望の結果を特定することを特徴とする請求項15に記載のコンピュータ可読記憶媒体。
  19. 前記実行された複数のアクションが記録されることを特徴とする請求項15に記載のコンピュータ可読記憶媒体。
  20. 前記自動得点付けが、前記記録されたアクションが正しい応答を構成するかどうかを判定するために少なくとも1つの目標アクションと対照して前記記録されたアクションを評価することを特徴とする請求項19に記載のコンピュータ可読記憶媒体。
  21. 前記自動得点付けが、スキルの大きさとして能率評定を判定するために前記記録されたアクションを評価することを特徴とする請求項19に記載のコンピュータ可読記憶媒体。
  22. 前記アプリケーションが、ソフトウェアアプリケーション、トレーニングシナリオ、テクニカルアプリケーション、および装置のユーザインタフェースの少なくとも1つであることを特徴とする請求項15に記載のコンピュータ可読記憶媒体。
  23. 前記スキルベース対話が、該対話が実行されている間に、プラグインソフトウェアコードを使用せずに、前記アプリケーションのインスタンスを実行せずに、および前記アプリケーションの実行中のインスタンスを共有せずに、提供されることを特徴とする請求項15に記載のコンピュータ可読記憶媒体。
  24. 入力テキストおよび出力テキストが別の言語で指示されることが可能であることを特徴とする請求項15に記載のコンピュータ可読記憶媒体。
  25. 解答すべき問題を指示するように構成された問題プレゼンテーションコンポーネントと、
    複数のシミュレートされたインタフェースコンポーネントであって、それぞれが、該シミュレートされたコンポーネントの選択に応答してアプリケーションの関連する挙動をシミュレートし、
    シミュレートされたコンポーネントが選択されたという指示を受け取り、
    前記アプリケーションの前記関連する挙動をシミュレートし、
    前記選択に関連するアクションを記録する
    ように構成された、複数のシミュレートされたインタフェースコンポーネントと、
    選択された場合に、前記記録されたアクションが前記問題に対する応答を構成することを指示する応答インジケータと、
    前記応答の前記指示を受け取り、前記記録されたアクションにスキルの測定値を自動的に関連づける得点付けコンポーネントと
    を備えたことを特徴とするシミュレーションエンジン。
  26. テスト環境の一部であることを特徴とする請求項25に記載のシミュレーションエンジン。
  27. トレーニング環境の一部であることを特徴とする請求項25に記載のシミュレーションエンジン。
  28. 前記得点付けコンポーネントが、前記記録されたアクションが正しい応答を構成するかどうかを判定するために少なくとも1つの目標アクションと対照して前記記録されたアクションを評価することを特徴とする請求項25に記載のシミュレーションエンジン。
  29. 前記得点付けコンポーネントが、スキルの大きさとして能率評定を判定するために前記記録されたアクションを評価することを特徴とする請求項25に記載のシミュレーションエンジン。
  30. 前記記録されたアクションがデータリポジトリに記憶されることを特徴とする請求項25に記載のシミュレーションエンジン。
  31. 前記アプリケーションが、ソフトウェアアプリケーション、トレーニングシナリオ、テクニカルアプリケーション、および装置のユーザインタフェースの少なくとも1つであることを特徴とする請求項25に記載のシミュレーションエンジン。
  32. 前記アクションが実行されている間に、プラグインソフトウェアコードを使用せずに、前記アプリケーションのインスタンスを実行せずに、および前記アプリケーションの実行中のインスタンスを共有せずに、動作することを特徴とする請求項25に記載のシミュレーションエンジン。
  33. クライアント部分およびサーバ部分を有し、前記シミュレートされた諸相が該サーバ部分から該クライアント部分へ転送されることを特徴とする請求項25に記載のシミュレーションエンジン。
  34. クライアントブラウザシステムによって実行されることを特徴とする請求項25に記載のシミュレーションエンジン。
  35. 前記クライアントブラウザシステムがインターネットブラウザであることを特徴とする請求項34に記載のシミュレーションエンジン。
  36. 入力テキストおよび出力テキストが別の言語で指示されることが可能であることを特徴とする請求項25に記載のシミュレーションエンジン。
  37. アプリケーションプログラムに対するオペレータのスキルをテストするためのスキルベーステスト環境において、
    テストされるべき前記アプリケーションの諸相をシミュレートするように構成されたシミュレーションエンジンであって、
    結果を取得するためのテスト指令を表示し、
    前記アプリケーションの前記シミュレートされた諸相との少なくとも1つの対話を指示する、前記表示された指令に対する応答の指示を受け取り、
    前記指示された応答を自動得点付けする
    ように構成されたシミュレーションエンジン
    を備えたことを特徴とするスキルベーステスト環境。
  38. 前記シミュレーションエンジンが、前記アプリケーション機能のソフトウェアプラグインを実行せずに動作することを特徴とする請求項37に記載のテスト環境。
  39. 前記シミュレーションエンジンが、テスト中に前記アプリケーションを実行せずに、および、該テスト中に前記アプリケーションの実行中のインスタンスと通信せずに、動作することを特徴とする請求項37に記載のテスト環境。
  40. 前記得点が、能率、正確さ、時間、およびアクション評定の少なくとも1つの測定値を指定することを特徴とする請求項37に記載のテスト環境。
  41. 前記アプリケーションが、ソフトウェアアプリケーション、テクニカルアプリケーション、および教育シナリオの少なくとも1つであることを特徴とする請求項37に記載のテスト環境。
  42. 前記テスト指令が複数の言語の1つで表示されることを特徴とする請求項37に記載のテスト環境。
  43. アプリケーションに対するオペレータのスキルをテストするためのスキルベーステスト環境におけるコンピュータベースの方法において、
    テストされるべき前記アプリケーションとの対話をシミュレートする複数のインタフェースコンポーネントを提示し、
    結果を取得するためのテスト指令を表示し、
    少なくとも1つのシミュレートされた対話の使用を指示する、前記表示された指令に対する応答の指示を受け取り、
    前記指示された応答を自動得点付けする
    ことを特徴とするコンピュータベースの方法。
  44. 前記アプリケーション機能のソフトウェアプラグインを実行せずに実行されることを特徴とする請求項43に記載の方法。
  45. テスト中に前記アプリケーションを実行せずに、および、該テスト中に前記アプリケーションの実行中のインスタンスと通信せずに、実行されることを特徴とする請求項43に記載の方法。
  46. 前記得点が、能率、正確さ、時間、およびアクション評定の少なくとも1つの測定値を指定することを特徴とする請求項43に記載の方法。
  47. 前記アプリケーションが、ソフトウェアアプリケーション、テクニカルアプリケーション、および教育シナリオの少なくとも1つであることを特徴とする請求項43に記載の方法。
  48. 前記テスト指令が複数の言語の1つで表示されることを特徴とする請求項43に記載の方法。
  49. アプリケーションに対するオペレータのスキルをテストするようにコンピュータプロセッサを制御するための命令を含むコンピュータ可読記憶媒体において、該命令が、
    テストされるべき前記アプリケーションとの対話をシミュレートする複数のインタフェースコンポーネントを提示し、
    結果を取得するためのテスト指令を表示し、
    少なくとも1つのシミュレートされた対話の使用を指示する、前記表示された指令に対する応答の指示を受け取り、
    前記指示された応答を自動得点付けする
    ことによってコンピュータプロセッサを制御することを特徴とするコンピュータ可読記憶媒体。
  50. 前記命令が、前記アプリケーション機能のソフトウェアプラグインを実行せずに動作することを特徴とする請求項49に記載のコンピュータ可読記憶媒体。
  51. 前記命令が、テスト中に前記アプリケーションを実行せずに、および、該テスト中に前記アプリケーションの実行中のインスタンスと通信せずに、動作することを特徴とする請求項49に記載のコンピュータ可読記憶媒体。
  52. 前記得点付けが、能率、正確さ、時間、およびアクション評定の少なくとも1つの測定値を指定することを特徴とする請求項49に記載のコンピュータ可読記憶媒体。
  53. 前記アプリケーションが、ソフトウェアアプリケーション、テクニカルアプリケーション、および教育シナリオの少なくとも1つであることを特徴とする請求項49に記載のコンピュータ可読記憶媒体。
  54. 前記テスト指令が複数の言語の1つで表示されることを特徴とする請求項49に記載のコンピュータ可読記憶媒体。
  55. アプリケーションプログラムに関連するスキルに関してオペレータをトレーニングするためのトレーニング環境において、該環境は該アプリケーションの諸相をシミュレートするように構成され、
    前記アプリケーションと対話するための命令を表示するトレーニングシナリオと、
    前記アプリケーションの前記シミュレートされた諸相との少なくとも1つの対話を指示する、前記表示された指令に対する応答の指示を受け取り、
    スキルの指示を与えるために前記指示された応答を自動得点付けする
    ように構成された応答追跡メカニズムと
    を備えたことを特徴とするトレーニング環境。
  56. 前記アプリケーション機能のソフトウェアプラグインを実行せずに動作することを特徴とする請求項55に記載のトレーニング環境。
  57. テスト中に前記アプリケーションを実行せずに、および、該テスト中に前記アプリケーションの実行中のインスタンスと通信せずに、動作することを特徴とする請求項55に記載のトレーニング環境。
  58. 前記得点が、能率、正確さ、時間、およびアクション評定の少なくとも1つの測定値を指定することを特徴とする請求項55に記載のトレーニング環境。
  59. 前記アプリケーションが、ソフトウェアアプリケーション、テクニカルアプリケーション、および教育シナリオの少なくとも1つであることを特徴とする請求項55に記載のトレーニング環境。
  60. 前記命令が複数の言語の1つで表示されることが可能であることを特徴とする請求項55に記載のトレーニング環境。
  61. アプリケーションに対するスキルに関してオペレータをトレーニングするためのスキルベーストレーニング環境における方法において、
    前記アプリケーションとの対話をシミュレートする複数のインタフェースコンポーネントを提示し、
    前記アプリケーションと対話するための命令を表示し、
    少なくとも1つのシミュレートされた対話の使用を指示する、前記表示された命令に対する応答の指示を受け取り、
    前記指示された応答を自動得点付けする
    ことを特徴とするスキルベーストレーニング環境における方法。
  62. 前記アプリケーション機能のソフトウェアプラグインを実行せずに動作することを特徴とする請求項61に記載の方法。
  63. テスト中に前記アプリケーションを実行せずに、および、該テスト中に前記アプリケーションの実行中のインスタンスと通信せずに、動作することを特徴とする請求項61に記載の方法。
  64. 前記得点付けが、能率、正確さ、時間、およびアクション評定の少なくとも1つの測定値を指定することを特徴とする請求項61に記載の方法。
  65. 前記アプリケーションが、ソフトウェアアプリケーション、テクニカルアプリケーション、および教育シナリオの少なくとも1つであることを特徴とする請求項61に記載の方法。
  66. 前記命令が複数の言語の1つで表示されることが可能であることを特徴とする請求項61に記載の方法。
  67. アプリケーションに対するスキルに関してオペレータをトレーニングするようにコンピュータプロセッサを制御するための命令を含むコンピュータ可読記憶媒体において、該命令が、
    前記アプリケーションとの対話をシミュレートする複数のインタフェースコンポーネントを提示し、
    前記アプリケーションと対話するための命令を表示し、
    少なくとも1つのシミュレートされた対話の使用を指示する、前記表示された命令に対する応答の指示を受け取り、
    前記指示された応答を自動得点付けする
    ことによってコンピュータプロセッサを制御することを特徴とするコンピュータ可読記憶媒体。
  68. 前記命令が、前記アプリケーション機能のソフトウェアプラグインを実行せずに動作することを特徴とする請求項67に記載のコンピュータ可読記憶媒体。
  69. 前記命令が、テスト中に前記アプリケーションを実行せずに、および、該テスト中に前記アプリケーションの実行中のインスタンスと通信せずに、動作することを特徴とする請求項67に記載のコンピュータ可読記憶媒体。
  70. 前記得点付けが、能率、正確さ、時間、およびアクション評定の少なくとも1つの測定値を指定することを特徴とする請求項67に記載のコンピュータ可読記憶媒体。
  71. 前記アプリケーションが、ソフトウェアアプリケーション、テクニカルアプリケーション、および教育シナリオの少なくとも1つであることを特徴とする請求項67に記載のコンピュータ可読記憶媒体。
  72. 前記命令が複数の言語の1つで表示されることが可能であることを特徴とする請求項67に記載のコンピュータ可読記憶媒体。
  73. スキルベース測定環境を提供するためのサーバコンピュータシステムにおける方法において、
    クライアントシステムへシミュレーションエンジンを転送し、該シミュレーションエンジンは、アプリケーションを実行せずに該アプリケーションとの対話をシミュレートする複数のインタフェースコンポーネントを有するとともに、解答されるべき複数の問題を有し、各問題は前記サーバコンピュータシステムに記憶された対応する解答を有し、
    問題に対する応答の指示を受け取り、
    前記指示された応答の正確さと、前記応答を生成するために用いられたスキルを測定する能率評定とを自動判定する
    ことを特徴とするサーバコンピュータシステムにおける方法。
  74. 各問題は前記サーバコンピュータシステムに記憶された対応する解答を有し、前記指示された応答の正確さが該指示された応答を前記記憶された解答と比較することによって判定されることを特徴とする請求項73に記載の方法。
  75. 前記応答は関連する記録されたアクションのセットを有し、前記能率評定が、前記応答の前記記録されたアクションを記録されたアクションの目標数と比較することによって判定されることを特徴とする請求項73に記載の方法。
  76. 前記シミュレーションエンジンが複数のコンポーネントとして前記クライアントシステムへ転送されることを特徴とする請求項73に記載の方法。
  77. 前記コンポーネントが、シミュレーションのフローを制御するために用いられるコードを含む基本シミュレーションコンポーネントと、複数の問題に対する前記アプリケーションの共有諸相をシミュレートするためのコードを含むシミュレーションオーバービューコンポーネントと、問題に固有のコードを提供する問題シミュレーションコンポーネントとを含むことを特徴とする請求項73に記載の方法。
  78. 前記測定環境がテストシナリオを提供するために用いられることを特徴とする請求項73に記載の方法。
  79. 前記測定環境がトレーニングシナリオを提供するために用いられることを特徴とする請求項73に記載の方法。
  80. 前記シミュレーションエンジンへの入力および前記シミュレーションエンジンからの出力が複数の言語の1つで指示されることが可能であることを特徴とする請求項73に記載の方法。
  81. スキルベース測定環境を提供するようにコンピュータプロセッサを制御するための命令を含むコンピュータ可読記憶媒体において、該命令が、
    クライアントシステムへシミュレーションエンジンを転送し、該シミュレーションエンジンは、アプリケーションを実行せずに該アプリケーションとの対話をシミュレートする複数のインタフェースコンポーネントを有するとともに、解答されるべき複数の問題を有し、各問題は前記サーバコンピュータシステムに記憶された対応する解答を有し、
    問題に対する応答の指示を受け取り、
    前記指示された応答の正確さと、前記応答を生成するために用いられたスキルを測定する能率評定とを自動判定する
    ことによってコンピュータプロセッサを制御することを特徴とするコンピュータ可読記憶媒体。
  82. 各問題は前記サーバコンピュータシステムに記憶された対応する解答を有し、前記指示された応答の正確さが該指示された応答を前記記憶された解答と比較することによって判定されることを特徴とする請求項81に記載のコンピュータ可読記憶媒体。
  83. 前記応答は関連する記録されたアクションのセットを有し、前記能率評定が、前記応答の前記記録されたアクションを記録されたアクションの目標数と比較することによって判定されることを特徴とする請求項81に記載のコンピュータ可読記憶媒体。
  84. 前記シミュレーションエンジンが複数のコンポーネントとして前記クライアントシステムへ転送されることを特徴とする請求項81に記載のコンピュータ可読記憶媒体。
  85. 前記測定環境がテストシナリオおよびトレーニングシナリオの1つを提供するために用いられることを特徴とする請求項81に記載のコンピュータ可読記憶媒体。
  86. 前記シミュレーションエンジンへの入力および前記シミュレーションエンジンからの出力が複数の言語の1つで指示されることが可能であることを特徴とする請求項81に記載のコンピュータ可読記憶媒体。
  87. スキルベース測定環境を提供するためのコンピュータシステムにおいて、
    クライアントシステムへ転送されるシミュレーションエンジンであって、該エンジンは、アプリケーションを実行せずに該アプリケーションとの対話をシミュレートする複数のインタフェースコンポーネントを有するとともに、解答されるべき複数の問題を有し、各問題は該サーバコンピュータシステムに記憶された対応する解答を有する、シミュレーションエンジンと、
    問題に対する応答の指示を受け取り、
    前記指示された応答の正確さと、前記応答を生成するために用いられたスキルを測定する能率評定とを自動判定する
    ように構成された応答追跡メカニズムと
    を備えたことを特徴とするコンピュータシステム。
  88. 各問題は前記サーバコンピュータシステムに記憶された対応する解答を有し、前記指示された応答の正確さが該指示された応答を前記記憶された解答と比較することによって判定されることを特徴とする請求項87に記載のシステム。
  89. 前記応答は関連する記録されたアクションのセットを有し、前記能率評定が、前記応答の前記記録されたアクションを記録されたアクションの目標数と比較することによって判定されることを特徴とする請求項87に記載のシステム。
  90. 前記測定環境がテストシナリオおよびトレーニングシナリオの1つを提供するために用いられることを特徴とする請求項87に記載のシステム。
  91. 前記シミュレーションエンジンへの入力および前記シミュレーションエンジンからの出力が複数の言語の1つで指示されることが可能であることを特徴とする請求項87に記載のシステム。
  92. スキルベースのアプリケーションシミュレーションエンジンを提供するためのコンピュータシステムにおける方法において、
    アプリケーションの選択のためのインタフェースを提供する基本シミュレーション環境を生成および記憶し、
    複数の問題に対する前記アプリケーションとの対話をシミュレートするインタフェースコンポーネントを提供するアプリケーションシミュレーションコンポーネントを生成および記憶し、
    前記複数の問題のそれぞれの問題に対して、該問題に対する応答が正しいかどうかの判定と、該問題の目的上前記アプリケーションとの対話をシミュレートするのに必要な問題固有インタフェースコンポーネントとを提供する問題シミュレーションコンポーネントを生成および記憶し、
    前記問題によって規定される複数の課題を実行するために前記アプリケーションを使用するスキルベース測定が提供されるように、前記記憶された基本シミュレーション環境、アプリケーションシミュレーションコンポーネント、および前記複数の問題シミュレーションコンポーネントを実行させる
    ことを特徴とするコンピュータシステムにおける方法。
  93. クライアント−サーバ型アーキテクチャを用いて実行されることを特徴とする請求項92に記載の方法。
  94. ASP .NET環境を用いて実行されることを特徴とする請求項93に記載の方法。
  95. インターネットを通じて実行されることを特徴とする請求項93に記載の方法。
  96. 前記コンポーネントを生成および記憶することがサーバシステム上で実行され、前記コンポーネントの実行がクライアントシステム上で実行されることを特徴とする請求項93に記載の方法。
  97. 前記シミュレーションエンジンインタフェースコンポーネントとの対話の複数の指示を受け取ること、および
    前記複数の課題を実行する際に前記対話の有効性を測定すること
    をさらに含むことを特徴とする請求項92に記載の方法。
  98. 前記測定が問題ごとに判定されることを特徴とする請求項92に記載の方法。
  99. 前記測定がアプリケーションシミュレーションごとに判定されることを特徴とする請求項92に記載の方法。
  100. 前記スキルベースの測定が、
    問題に応答して呼び出されるアクションのセットを記録すること、および
    目標のアクションのセットを基準として前記記録されたアクションの能率測定値を判定すること
    をさらに含むことを特徴とする請求項92に記載の方法。
  101. 複数のアプリケーションプログラムとの対話をシミュレートし該対話で用いられたスキルを測定するようにコンピュータプロセッサを制御するための命令を含むコンピュータ可読記憶媒体において、
    アプリケーションの選択のためのインタフェースを提供する命令を有する基本シミュレーション環境と、
    複数の問題に対する前記アプリケーションとの対話をシミュレートする命令を有するインタフェースコンポーネントを提供するアプリケーションシミュレーションコンポーネントと、
    複数の問題シミュレーションコンポーネントであって、各コンポーネントが、問題に対する応答が正しいかどうかの判定、該応答を実行するために用いられたスキルの大きさ、および該問題に解答する目的上前記アプリケーションとの対話をシミュレートするのに必要な問題固有インタフェースコンポーネントを提供する命令を有する、複数の問題シミュレーションコンポーネントと
    を備えたことを特徴とするコンピュータ可読記憶媒体。
  102. 前記基本シミュレーション環境およびコンポーネントがASP .NETフレームワークによって構成されることを特徴とする請求項101に記載のコンピュータ可読記憶媒体。
  103. 前記基本シミュレーション環境およびコンポーネントがインターネットを通じて実行されるように構成されることを特徴とする請求項101に記載のコンピュータ可読記憶媒体。
  104. 前記問題シミュレーションコンポーネントが、
    対話の複数の指示を受け取る命令と、
    前記複数の問題に応答して前記対話の有効性を測定する命令と
    をさらに提供することを特徴とする請求項101に記載のコンピュータ可読記憶媒体。
  105. 前記測定が問題ごとに判定されることを特徴とする請求項104に記載のコンピュータ可読記憶媒体。
  106. 前記測定がアプリケーションシミュレーションごとに判定されることを特徴とする請求項104に記載のコンピュータ可読記憶媒体。
  107. 問題に応答して呼び出されるアクションのセットを記録すること、および
    目標のアクションのセットを基準として前記記録されたアクションの能率測定値を判定すること
    を前記コンピュータプロセッサに行わせる命令をさらに備えたことを特徴とする請求項101に記載のコンピュータ可読記憶媒体。
  108. アプリケーションの選択のためのインタフェースを提供するように構成された基本シミュレーション環境と、
    複数の問題に対する前記アプリケーションとの対話をシミュレートするインタフェースコンポーネントを提供するように構成されたアプリケーションシミュレーションコンポーネントと、
    複数の問題シミュレーションコンポーネントであって、各コンポーネントが、問題に対する応答が正しいかどうかの判定、該応答を実行するために用いられたスキルの大きさ、および該問題に解答する目的上前記アプリケーションとの対話をシミュレートするのに必要な問題固有インタフェースコンポーネントを提供するように構成された、複数の問題シミュレーションコンポーネントと
    を備えたことを特徴とするコンピュータシステム。
  109. 前記基本シミュレーション環境およびコンポーネントがASP .NETフレームワークによって構成されることを特徴とする請求項108に記載のシステム。
  110. 前記基本シミュレーション環境およびコンポーネントがインターネットを通じて実行されるように構成されることを特徴とする請求項108に記載のシステム。
  111. 前記問題シミュレーションコンポーネントが、
    対話の複数の指示を受け取り、
    前記複数の問題に応答して前記対話の有効性を測定する
    ようにさらに構成されることを特徴とする請求項108に記載のシステム。
  112. 前記測定が問題ごとに判定されることを特徴とする請求項111に記載のシステム。
  113. 前記測定がアプリケーションシミュレーションごとに判定されることを特徴とする請求項111に記載のシステム。
  114. 問題に応答して呼び出されるアクションのセットを記録し、
    目標のアクションのセットを基準として前記記録されたアクションの能率測定値を判定する
    ように構成された記録メカニズムをさらに備えたことを特徴とする請求項108に記載のシステム。
  115. アプリケーションを使用する際のスキルの大きさを判定することができるような、該アプリケーションとの対話をシミュレートするようにコンピュータシミュレーション環境を制御するために用いられるコードおよびデータ構造を有する複数のソフトウェアコンポーネントを含むコンピュータ可読記憶媒体において、
    アプリケーション非依存のアプリケーション対話挙動を提供する複数の基本レベルシミュレーションコンポーネントと、
    アプリケーションに関連する複数の問題の間で共有されるアプリケーション挙動およびアプリケーションプレゼンテーションをシミュレートする複数のアプリケーションレベルシミュレーションコンポーネントと、
    複数の問題レベルシミュレーションコンポーネントであって、各コンポーネントが、前記アプリケーションに関連する問題に固有であり、該問題に解答することに関連するスキルを判定するために該問題に応答して呼び出される一連の対話を測定する、複数の問題レベルシミュレーションコンポーネントと
    を備えたことを特徴とするコンピュータ可読記憶媒体。
  116. 前記コンポーネントが、Active Server Pages(ASP .NET)の「.NET」バージョンで動作するように構築されることを特徴とする請求項115に記載の記憶媒体。
  117. 複数の前記コンポーネントがクライアントコンピュータシステム上で実行されるために該クライアントコンピュータシステムにダウンロードされることを特徴とする請求項115に記載の記憶媒体。
  118. 請求項115に記載の記憶媒体を有するコンピュータシステムにおける方法において、
    前記記憶媒体から前記基本レベルシミュレーションコンポーネントのセットを読み出し、
    前記記憶媒体から前記アプリケーションレベルシミュレーションコンポーネントのセットを読み出し、
    前記記憶媒体から前記問題レベルシミュレーションコンポーネントのセットを読み出し、
    前記問題レベルシミュレーションコンポーネントに関連する前記複数の問題を提示し、各問題に対する応答アクションのセットの指示を受け取り、各問題に対する前記指示された応答アクションの能率測定値を判定するために、前記読み出されたコンポーネントのセットを実行する
    ことを特徴とするコンピュータシステムにおける方法。
  119. 前記読み出されたコンポーネントを実行することが、前記アプリケーションを起動せずに実行されることを特徴とする請求項118に記載の方法。
  120. 前記読み出されたコンポーネントを実行することが、前記アプリケーションのソフトウェアコードプラグインモジュールを起動せずに実行されることを特徴とする請求項118に記載の方法。
  121. 前記読み出されたコンポーネントを実行することが、前記アプリケーションを使用する際のスキルをテストするために用いられることを特徴とする請求項118に記載の方法。
  122. 前記読み出されたコンポーネントを実行することが、オペレータが前記アプリケーションを使用することをトレーニングするために用いられることを特徴とする請求項118に記載の方法。
  123. 前記能率測定値が、各問題に対する前記指示された応答アクションを各問題に対する目標アクションと比較することによって判定されることを特徴とする請求項118に記載の方法。
  124. 総合能率測定値が、前記複数の問題に対して判定されることを特徴とする請求項118に記載の方法。
  125. 請求項115に記載の記憶媒体を有するコンピュータシステムにおけるシミュレーションエンジンにおいて、
    前記記憶媒体から読み出された基本レベルシミュレーションコンポーネントのセットと、
    前記記憶媒体から読み出された前記アプリケーションレベルシミュレーションコンポーネントのセットと、
    前記問題レベルシミュレーションコンポーネントに関連する前記複数の問題を提示し、
    各問題に対する応答アクションのセットの指示を受け取り、
    各問題に対する前記指示された応答アクションの能率測定値を判定する
    ように構成された、前記記憶媒体から読み出された前記問題レベルシミュレーションコンポーネントのセットと
    を備えたことを特徴とするシミュレーションエンジン。
  126. 前記読み出されたコンポーネントが、前記アプリケーションを起動せずに実行されることを特徴とする請求項125に記載のエンジン。
  127. 前記読み出されたコンポーネントが、前記アプリケーションのソフトウェアコードプラグインモジュールを起動せずに実行されることを特徴とする請求項125に記載のエンジン。
  128. 前記読み出されたコンポーネントが、前記アプリケーションを使用する際のスキルをテストするために実行されることを特徴とする請求項125に記載のエンジン。
  129. 前記読み出されたコンポーネントが、オペレータが前記アプリケーションを使用することをトレーニングするために実行されることを特徴とする請求項125に記載のエンジン。
  130. 前記能率測定値が、各問題に対する前記指示された応答アクションを各問題に対する目標アクションと比較することによって判定されることを特徴とする請求項125に記載のエンジン。
  131. スキルベース測定シナリオをオーサリングするためのコンピュータシステムにおける方法において、
    データリポジトリに記憶された複数の問題からの問題のセットの指示を受け取り、各問題は該問題に対する解答を含む所望のアクションの関連するセットを有し、
    データリポジトリに記憶された複数のシナリオからのシナリオの指定を受け取り、
    前記コンピュータシステム上で実行される時に、オペレータのアクションのセットとして問題に対する応答を受け取り、該問題に関連する前記所望のアクションのセットと比較して該応答を自動測定するスキルベース測定シナリオを作成するために、前記指示された問題のセットを指定されたシナリオに関連づける
    ことを特徴とするコンピュータシステムにおける方法。
  132. 前記測定が、スキルの大きさとして前記応答の正確さを測定することを特徴とする請求項131に記載の方法。
  133. 前記測定が、スキルの大きさとして前記応答の能率を測定することを特徴とする請求項131に記載の方法。
  134. 前記シナリオがテスト環境におけるテストであることを特徴とする請求項131に記載の方法。
  135. 前記シナリオがトレーニング目的で提示されることを特徴とする請求項131に記載の方法。
  136. 前記指示された問題のセットが、前記シナリオとのシミュレートされた対話を要求するシミュレーション問題と、シミュレートされた対話の使用を要求しない非シミュレーション問題とを含むことを特徴とする請求項131に記載の方法。
  137. 前記自動測定が、複数の応答および問題に対して実行され、該応答の測定が、シミュレーション問題および非シミュレーション問題に対する応答を測定することを特徴とする請求項136に記載の方法。
  138. 前記複数の問題が複数の言語によるテキストを含むことを特徴とする請求項131に記載の方法。
  139. 前記作成されたシナリオが複数の言語による問題を含むことを特徴とする請求項131に記載の方法。
  140. 前記データリポジトリに記憶された前記複数の問題を変更することをさらに含むことを特徴とする請求項131に記載の方法。
  141. 変更が、追加、削除、および更新の少なくとも1つであることを特徴とする請求項140に記載の方法。
  142. 前記データリポジトリに記憶された前記複数のシナリオを変更することをさらに含むことを特徴とする請求項131に記載の方法。
  143. 変更が、追加、削除、および更新の少なくとも1つであることを特徴とする請求項142に記載の方法。
  144. スキルベース測定シナリオをオーサリングするようにコンピュータプロセッサを制御するための命令を含むコンピュータ可読記憶媒体において、該命令が、
    データリポジトリに記憶された複数の問題からの問題のセットの指示を受け取り、各問題は該問題に対する解答を含む所望のアクションの関連するセットを有し、
    データリポジトリに記憶された複数のシナリオからのシナリオの指定を受け取り、
    前記コンピュータシステム上で実行される時に、オペレータのアクションのセットとして問題に対する応答を受け取り、該問題に関連する前記所望のアクションのセットと比較して該応答を自動測定するスキルベース測定シナリオを作成するために、前記指示された問題のセットを指定されたシナリオに関連づける
    ことによってコンピュータプロセッサを制御することを特徴とするコンピュータ可読記憶媒体。
  145. 前記測定が、スキルの大きさとして前記応答の正確さを測定することを特徴とする請求項144に記載の記憶媒体。
  146. 前記測定が、スキルの大きさとして前記応答の能率を測定することを特徴とする請求項144に記載の記憶媒体。
  147. 前記シナリオがテスト環境におけるテストであることを特徴とする請求項144に記載の記憶媒体。
  148. 前記シナリオがトレーニング目的で提示されることを特徴とする請求項144に記載の記憶媒体。
  149. 前記指示された問題のセットが、前記シナリオとのシミュレートされた対話を要求するシミュレーション問題と、シミュレートされた対話の使用を要求しない非シミュレーション問題とを含むことを特徴とする請求項144に記載の記憶媒体。
  150. 前記自動測定が、複数の応答および問題に対して実行され、該応答の測定が、シミュレーション問題および非シミュレーション問題に対する応答を測定することを特徴とする請求項149に記載の記憶媒体。
  151. 前記複数の問題が複数の言語によるテキストを含むことを特徴とする請求項144に記載の記憶媒体。
  152. 前記作成されたシナリオが複数の言語による問題を含むことを特徴とする請求項144に記載の記憶媒体。
  153. 前記データリポジトリに記憶された前記複数の問題を変更することによってコンピュータプロセッサを制御する命令をさらに備えたことを特徴とする請求項144に記載の記憶媒体。
  154. 変更が、追加、削除、および更新の少なくとも1つであることを特徴とする請求項153に記載の記憶媒体。
  155. 前記データリポジトリに記憶された前記複数のシナリオを変更することによってコンピュータプロセッサを制御する命令をさらに備えたことを特徴とする請求項144に記載の記憶媒体。
  156. 変更が、追加、削除、および更新の少なくとも1つであることを特徴とする請求項155に記載の記憶媒体。
  157. スキルベース測定シナリオのオーサリングツールにおいて、
    データリポジトリに記憶された複数の問題からの問題のセットの指示を受け取るように構成された問題指定部であって、各問題は該問題に対する解答を含む所望のアクションの関連するセットを有する、問題指定部と、
    データリポジトリに記憶された複数のシナリオからのシナリオの指定を受け取るように構成されたシナリオ指定部と、
    スキルベース測定シナリオを作成するために、前記指示された問題のセットを指定されたシナリオに関連づけるように構成された一致メカニズムであって、該シナリオが実行される時に、該シナリオが、オペレータのアクションのセットとして問題に対する応答を受け取り、該問題に関連する前記所望のアクションのセットと比較して該応答を自動測定する、一致メカニズムと
    を備えたことを特徴とするオーサリングツール。
  158. 前記測定が、スキルの大きさとして前記応答の正確さを測定することを特徴とする請求項157に記載のツール。
  159. 前記測定が、スキルの大きさとして前記応答の能率を測定することを特徴とする請求項157に記載のツール。
  160. 前記シナリオがテスト環境におけるテストであることを特徴とする請求項157に記載のツール。
  161. 前記シナリオがトレーニング目的で提示されることを特徴とする請求項157に記載のツール。
  162. 前記指示された問題のセットが、前記シナリオとのシミュレートされた対話を要求するシミュレーション問題と、シミュレートされた対話の使用を要求しない非シミュレーション問題とを含むことを特徴とする請求項157に記載のツール。
  163. 前記自動測定が、複数の応答および問題に対して実行され、該応答の測定が、シミュレーション問題および非シミュレーション問題に対する応答を測定することを特徴とする請求項162に記載のツール。
  164. 前記複数の問題が複数の言語によるテキストを含むことを特徴とする請求項157に記載のツール。
  165. 前記作成されたシナリオが複数の言語による問題を含むことを特徴とする請求項157に記載のツール。
  166. 前記データリポジトリに記憶された前記複数の問題を変更するように構成された問題変更部をさらに備えたことを特徴とする請求項157に記載のツール。
  167. 変更が、追加、削除、および更新の少なくとも1つであることを特徴とする請求項166に記載のツール。
  168. 前記データリポジトリに記憶された前記複数のシナリオを変更するように構成されたシナリオ変更部をさらに備えたことを特徴とする請求項157に記載のツール。
  169. 変更が、追加、削除、および更新の少なくとも1つであることを特徴とする請求項168に記載のツール。
  170. アプリケーションを使用する際のスキルの測定値を得点付けするためのコンピュータシステムにおける方法において、
    前記アプリケーションに関連する課題の実行を指示する問題に対する応答であって、前記アプリケーションのシミュレートされた諸相と対話することによって実行されるアクションのセットを指示する応答を受け取り、
    前記スキルの測定値を判定するために前記指示されたアクションのセットを目標のアクションのセットと比較することによって前記応答を自動得点付けする
    ことを特徴とするコンピュータシステムにおける方法。
  171. 前記得点付けが、能率の大きさを指示することを特徴とする請求項170に記載の方法。
  172. 能率が、前記目標のアクションのセット内のアクション数を前記指示されたアクションのセット内のアクション数で除算し、その結果に100を乗算することによって測定されることを特徴とする請求項171に記載の方法。
  173. 前記得点付けが、正確さの測度をさらに指示することを特徴とする請求項171に記載の方法。
  174. 前記得点付けが、最適アクション、能率、正確さ、および時間の少なくとも1つの測度を指示することを特徴とする請求項170に記載の方法。
  175. 前記アプリケーションのシミュレートされた諸相との対話を要求しない非シミュレーション問題に対する応答を受け取ること、
    前記非シミュレーション問題に対する前記応答についての得点を自動判定すること、および
    前記非シミュレーション問題に対する前記応答の前記得点を、前記課題の実行を指示する前記問題に対する前記応答の前記得点と組み合わせることにより、前記アプリケーションの使用についての総合得点を自動判定すること
    をさらに含むことを特徴とする請求項170に記載の方法。
  176. 前記総合得点が、前記非シミュレーション問題に対する前記応答の正確さ測度を判定し、前記アクションのセットを指示する前記応答の正確さ測度を判定し、両方の測度を組み合わせて単一の結果にすることによって判定されることを特徴とする請求項175に記載の方法。
  177. 前記アプリケーションに関連する第2の課題の実行を指示する第2の問題に対する第2の応答であって、前記アプリケーションのシミュレートされた諸相と対話することによって実行される第2のアクションのセットを指示する第2の応答を受け取ること、
    スキルの大きさを判定するために前記指示された第2のアクションのセットを第2の目標のアクションのセットと比較することによって前記第2の応答を自動得点付けすること、および
    前記応答の前記得点と前記第2の応答の前記得点を組み合わせることによって、前記アプリケーションの使用についての総合得点を自動判定すること
    をさらに含むことを特徴とする請求項170に記載の方法。
  178. 前記総合得点が、平均能率の測度であることを特徴とする請求項177に記載の方法。
  179. 前記総合得点が、最適アクション、能率、正確さ、および時間の少なくとも1つの測度であることを特徴とする請求項177に記載の方法。
  180. 該方法が、前記アプリケーションを起動せずに、および、前記アプリケーションのプラグインモジュールを実行せずに、実行されることを特徴とする請求項170に記載の方法。
  181. テストシステムの一部として実行されることを特徴とする請求項170に記載の方法。
  182. トレーニングシステムの一部として実行されることを特徴とする請求項170に記載の方法。
  183. 前記問題が複数の言語で提示されることが可能であることを特徴とする請求項170に記載の方法。
  184. アプリケーションを使用する際のスキルの測定値を得点付けするようにコンピュータプロセッサを制御するための命令を含むコンピュータ可読記憶媒体において、該命令が、
    前記アプリケーションに関連する課題の実行を指示する問題に対する応答であって、前記アプリケーションのシミュレートされた諸相と対話することによって実行されるアクションのセットを指示する応答を受け取り、
    前記スキルの測定値を判定するために前記指示されたアクションのセットを目標のアクションのセットと比較することによって前記応答を自動得点付けする
    ことを特徴とするコンピュータ可読記憶媒体。
  185. 前記得点付けが、能率の測度を指示することを特徴とする請求項184に記載の記憶媒体。
  186. 能率が、前記目標のアクションのセット内のアクション数を前記指示されたアクションのセット内のアクション数で除算し、その結果に100を乗算することによって測定されることを特徴とする請求項185に記載の記憶媒体。
  187. 前記得点付けが、正確さの測度をさらに指示することを特徴とする請求項185に記載の記憶媒体。
  188. 前記得点付けが、最適アクション、能率、正確さ、および時間の少なくとも1つの測度を指示することを特徴とする請求項184に記載の記憶媒体。
  189. 前記アプリケーションのシミュレートされた諸相との対話を要求しない非シミュレーション問題に対する応答を受け取ること、
    前記非シミュレーション問題に対する前記応答についての得点を自動判定すること、および
    前記非シミュレーション問題に対する前記応答の前記得点を、前記課題の実行を指示する前記問題に対する前記応答の前記得点と組み合わせることにより、前記アプリケーションの使用についての総合得点を自動判定すること
    によって前記コンピュータプロセッサを制御する命令をさらに備えたことを特徴とする請求項184に記載の記憶媒体。
  190. 前記総合得点が、前記非シミュレーション問題に対する前記応答の正確さ測度を判定し、前記アクションのセットを指示する前記応答の正確さ測度を判定し、両方の測度を組み合わせて単一の結果にすることによって判定されることを特徴とする請求項189に記載の記憶媒体。
  191. 前記アプリケーションに関連する第2の課題の実行を指示する第2の問題に対する第2の応答であって、前記アプリケーションのシミュレートされた諸相と対話することによって実行される第2のアクションのセットを指示する第2の応答を受け取ること、
    スキルの大きさを判定するために前記指示された第2のアクションのセットを第2の目標のアクションのセットと比較することによって前記第2の応答を自動得点付けすること、および
    前記応答の前記得点と前記第2の応答の前記得点を組み合わせることによって、前記アプリケーションの使用についての総合得点を自動判定すること
    によって前記コンピュータプロセッサを制御する命令をさらに備えたことを特徴とする請求項184に記載の記憶媒体。
  192. 前記総合得点が、平均能率の測度であることを特徴とする請求項191に記載の記憶媒体。
  193. 前記総合得点が、最適アクション、能率、正確さ、および時間の少なくとも1つの測度であることを特徴とする請求項191に記載の記憶媒体。
  194. 前記命令が、前記アプリケーションを起動せずに、および、前記アプリケーションのプラグインモジュールを実行せずに、実行されることを特徴とする請求項184に記載の記憶媒体。
  195. 前記命令がテストシステムの一部として実行されることを特徴とする請求項184に記載の記憶媒体。
  196. 前記命令がトレーニングシステムの一部として実行されることを特徴とする請求項184に記載の記憶媒体。
  197. 前記問題が複数の言語で提示されることが可能であることを特徴とする請求項184に記載の記憶媒体。
  198. アプリケーションを使用する際のスキルを測定するためのコンピュータベースの得点付けシステムにおいて、
    前記アプリケーションに関連する課題の実行を指示する問題に対する応答を受け取るように構成された入力インタフェースであって、該応答は前記アプリケーションのシミュレートされた諸相と対話することによって実行されるアクションのセットを指示する、入力インタフェースと、
    スキルの大きさを判定するために前記指示されたアクションのセットを目標のアクションのセットと比較することによって前記応答を自動得点付けするように構成された得点付けモジュールと
    を備えたことを特徴とする得点付けシステム。
  199. 前記得点付けが、能率の測度を指示することを特徴とする請求項198に記載のシステム。
  200. 能率が、前記目標のアクションのセット内のアクション数を前記指示されたアクションのセット内のアクション数で除算し、その結果に100を乗算することによって測定されることを特徴とする請求項199に記載のシステム。
  201. 前記得点付けが、正確さの測度をさらに指示することを特徴とする請求項199に記載のシステム。
  202. 前記得点付けが、最適アクション、能率、正確さ、および時間の少なくとも1つの測度を指示することを特徴とする請求項198に記載のシステム。
  203. 前記アプリケーションのシミュレートされた諸相との対話を要求しない非シミュレーション問題に対する応答を受け取るように構成された入力インタフェースをさらに備え、
    前記得点付けモジュールは、
    前記非シミュレーション問題に対する前記応答についての得点を自動判定し、
    前記非シミュレーション問題に対する前記応答の前記得点を、前記課題の実行を指示する前記問題に対する前記応答の前記得点と組み合わせることにより、前記アプリケーションの使用についての総合得点を自動判定する
    ようにさらに構成されることを特徴とする請求項198に記載のシステム。
  204. 前記総合得点が、前記非シミュレーション問題に対する前記応答の正確さ測度を判定し、前記アクションのセットを指示する前記応答の正確さ測度を判定し、両方の測度を組み合わせて単一の結果にすることによって判定されることを特徴とする請求項203に記載のシステム。
  205. 前記総合得点が、平均能率の測度であることを特徴とする請求項203に記載のシステム。
  206. 前記総合得点が、最適アクション、能率、正確さ、および時間の少なくとも1つの測度であることを特徴とする請求項203に記載のシステム。
  207. 前記アプリケーションを起動せずに、および、前記アプリケーションのプラグインモジュールを実行せずに、実行されることを特徴とする請求項198に記載のシステム。
  208. テストシステムの一部として実行されることを特徴とする請求項198に記載のシステム。
  209. トレーニングシステムの一部として実行されることを特徴とする請求項198に記載のシステム。
  210. 前記問題が複数の言語で提示されることが可能であることを特徴とする請求項198に記載のシステム。
JP2004508316A 2002-05-24 2003-05-27 スキルベースのテストおよびトレーニングのための方法およびシステム Pending JP2005527859A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US38340202P 2002-05-24 2002-05-24
PCT/US2003/016670 WO2003100746A2 (en) 2002-05-24 2003-05-27 Method and system for skills-based testing and training

Publications (1)

Publication Number Publication Date
JP2005527859A true JP2005527859A (ja) 2005-09-15

Family

ID=29584562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004508316A Pending JP2005527859A (ja) 2002-05-24 2003-05-27 スキルベースのテストおよびトレーニングのための方法およびシステム

Country Status (6)

Country Link
US (1) US7300285B2 (ja)
EP (1) EP1514251A2 (ja)
JP (1) JP2005527859A (ja)
KR (1) KR20050027093A (ja)
AU (1) AU2003243317A1 (ja)
WO (1) WO2003100746A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018411A (ja) * 2005-07-11 2007-01-25 Lightworks Corp 情報処理システム
JP2007334108A (ja) * 2006-06-16 2007-12-27 Ems Kk 速答訓練システム
KR101889704B1 (ko) * 2017-12-28 2018-08-20 (주)씽크포비엘 크라우드 소싱 기반 앱 ui 사용성 시나리오 분석 방법 및 장치
JP2021067825A (ja) * 2019-10-24 2021-04-30 国立大学法人 鹿児島大学 コミュニケーション能力評価装置、コミュニケーション能力評価システム、コミュニケーション能力評価方法及びプログラム
US11962455B2 (en) 2021-11-29 2024-04-16 T-Mobile Usa, Inc. Prioritizing multiple issues associated with a wireless telecommunication network

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5093966B2 (ja) 2001-03-29 2012-12-12 ニュアンス コミュニケーションズ オーストリア ゲーエムベーハー 編集中における音声カーソルとテキストカーソルの位置合わせ
US7916124B1 (en) 2001-06-20 2011-03-29 Leapfrog Enterprises, Inc. Interactive apparatus using print media
US20060077184A1 (en) * 2004-03-17 2006-04-13 James Marggraff Methods and devices for retrieving and using information stored as a pattern on a surface
US7853193B2 (en) 2004-03-17 2010-12-14 Leapfrog Enterprises, Inc. Method and device for audibly instructing a user to interact with a function
US20060078866A1 (en) * 2004-03-17 2006-04-13 James Marggraff System and method for identifying termination of data entry
US7831933B2 (en) 2004-03-17 2010-11-09 Leapfrog Enterprises, Inc. Method and system for implementing a user interface for a device employing written graphical elements
US8504369B1 (en) 2004-06-02 2013-08-06 Nuance Communications, Inc. Multi-cursor transcription editing
US7505981B2 (en) * 2004-09-13 2009-03-17 International Business Machines Corporation Method for evolving efficient communications
JP2006106154A (ja) * 2004-10-01 2006-04-20 Shinko Gijutsu Kenkyusho:Kk 被験者の技能評価システム
US8033831B2 (en) * 2004-11-22 2011-10-11 Bravobrava L.L.C. System and method for programmatically evaluating and aiding a person learning a new language
US8272874B2 (en) * 2004-11-22 2012-09-25 Bravobrava L.L.C. System and method for assisting language learning
US8221126B2 (en) 2004-11-22 2012-07-17 Bravobrava L.L.C. System and method for performing programmatic language learning tests and evaluations
US7836412B1 (en) 2004-12-03 2010-11-16 Escription, Inc. Transcription editing
US20060228690A1 (en) * 2005-04-08 2006-10-12 Microsoft Corporation Smart buttons: training tracker and motivator
US7708562B2 (en) * 2005-05-16 2010-05-04 International Business Machines Corporation Mastery-based drill and practice algorithm
US20060281510A1 (en) * 2005-05-27 2006-12-14 Roland Moreno Computer-implemented question and answer game
US7922099B1 (en) 2005-07-29 2011-04-12 Leapfrog Enterprises, Inc. System and method for associating content with an image bearing surface
US8261967B1 (en) 2006-07-19 2012-09-11 Leapfrog Enterprises, Inc. Techniques for interactively coupling electronic content with printed media
US10013268B2 (en) * 2006-08-29 2018-07-03 Prometric Inc. Performance-based testing system and method employing emulation and virtualization
US7733223B2 (en) * 2007-08-17 2010-06-08 The Invention Science Fund I, Llc Effectively documenting irregularities in a responsive user's environment
US8583267B2 (en) * 2007-08-17 2013-11-12 The Invention Science Fund I, Llc Selective invocation of playback content supplementation
US8990400B2 (en) * 2007-08-17 2015-03-24 The Invention Science Fund I, Llc Facilitating communications among message recipients
US20090106003A1 (en) * 2007-10-23 2009-04-23 Universal Systems And Technology, Inc. System, method and apparatus for management of simulations
US20100028845A1 (en) * 2008-03-13 2010-02-04 Myer Jason T Training system and method
US8714981B2 (en) * 2008-04-02 2014-05-06 Sinapse Print Simulators Automatic trace analysis and comparison system for interactive learning and training systems
WO2009155363A1 (en) 2008-06-17 2009-12-23 Salil Pande Inernet-based method and apparatus for career and professional development via structured feedback loop
WO2010022199A1 (en) * 2008-08-20 2010-02-25 Kaplan It, Inc. Method and system for delivering performance based emulation testing
US20100120009A1 (en) * 2008-11-13 2010-05-13 Yukon Group, Inc. Learning reinforcement system
US20100167257A1 (en) * 2008-12-01 2010-07-01 Hugh Norwood Methods and systems for creating educational resources and aligning educational resources with benchmarks
US8437688B2 (en) * 2008-12-17 2013-05-07 Xerox Corporation Test and answer key generation system and method
US20100184500A1 (en) * 2009-01-06 2010-07-22 Peter Beasley System and method of using gaming software technology to motivate the use of business software
US20100279260A1 (en) * 2009-05-03 2010-11-04 Bruce Alan White Method of Constructing Questions For Lie Detection Examinations
WO2011031456A2 (en) * 2009-08-25 2011-03-17 Vmock, Inc. Internet-based method and apparatus for career and professional development via simulated interviews
MY150352A (en) * 2010-03-29 2013-12-31 Mimos Berhad Assessment system and method for innovative learning
US8381186B2 (en) * 2010-06-17 2013-02-19 Verizon Patent And Licensing Inc. Software training application using automated discovery of user interface controls
US20120052467A1 (en) * 2010-08-25 2012-03-01 Sulantra Limited Online language training system
US20120190001A1 (en) * 2011-01-25 2012-07-26 Hemisphere Centre for Mental Health & Wellness Inc. Automated cognitive testing methods and applications therefor
US20120221380A1 (en) * 2011-02-28 2012-08-30 Bank Of America Corporation Teller Readiness Simulation
US8554832B1 (en) * 2011-03-01 2013-10-08 Asana, Inc. Server side user interface simulation
TW201301173A (zh) * 2011-06-30 2013-01-01 Ibm 終端裝置與在其上展示軟體產品的方法
US20130019157A1 (en) * 2011-07-13 2013-01-17 International Business Machines Corporation Defect form quality indication
US20130036360A1 (en) * 2011-08-01 2013-02-07 Turning Technologies, Llc Wireless audience response device
US9933861B2 (en) * 2012-01-12 2018-04-03 Wolfram Research, Inc. Method and apparatus for generating a user interface for taking or viewing the results of predicted actions
US20160034120A1 (en) * 2013-03-29 2016-02-04 Mitsubishi Electric Corporation Information processing apparatus and information processing system
US9720890B2 (en) * 2013-08-06 2017-08-01 Educational Testing Service System and method for rendering an assessment item
SG11201607622SA (en) 2014-03-14 2016-10-28 Pande Salil Career analytics platform
US10691761B2 (en) * 2015-05-26 2020-06-23 Frederick Reeves Scenario-based interactive behavior modification systems and methods
WO2017088026A1 (en) * 2015-11-25 2017-06-01 Supered Pty Ltd Computer-implemented frameworks and methodologies configured to enable delivery of content and/or user interface functionality based on monitoring of activity in a user interface environment and/or control access to services delivered in an online environment responsive to operation of a risk assessment protocol
US10115320B2 (en) 2016-03-31 2018-10-30 Cae Inc. Method and systems for updating a remote repository based on data-types
US20170287349A1 (en) * 2016-03-31 2017-10-05 Cae Inc. Method and system for updating a simulation plan for training personnel on system maintenance
WO2017165943A1 (en) * 2016-03-31 2017-10-05 Cae Inc. Method and system for updating a simulation plan
US20170286575A1 (en) 2016-03-31 2017-10-05 Cae Inc. Method and systems for anticipatorily updating a remote repository
US9734184B1 (en) 2016-03-31 2017-08-15 Cae Inc. Method and systems for removing the most extraneous data record from a remote repository
US10395554B2 (en) * 2017-02-28 2019-08-27 Information Systems Audit and Control Association, Inc. Scoring of user operations performed on a computer in a computerized learning system
US10740445B2 (en) 2017-07-18 2020-08-11 International Business Machines Corporation Cognitive behavioral security controls
CN108536598B (zh) * 2018-04-12 2023-03-10 深圳市腾讯网络信息技术有限公司 一种技能逻辑测试方法、装置、测试终端及存储介质
US10853563B1 (en) * 2020-04-22 2020-12-01 Moveworks, Inc. Method and system for configuring form filling application to minimize form filling effort

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000031711A1 (en) * 1998-11-25 2000-06-02 The Johns Hopkins University Apparatus and method for training using a human interaction simulator
JP2001282097A (ja) * 2000-04-04 2001-10-12 Obunsha Enterprise:Kk 言語教授システム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4637797A (en) * 1985-01-11 1987-01-20 Access Learning Technology Corporation Software training system
US4772206A (en) * 1986-03-10 1988-09-20 International Business Machines Corporation Multi-mode teaching simulator
US4941829A (en) 1987-12-23 1990-07-17 International Business Machines Corporation Method for providing a dynamic tutorial display
US5395243A (en) * 1991-09-25 1995-03-07 National Education Training Group Interactive learning system
US5481667A (en) * 1992-02-13 1996-01-02 Microsoft Corporation Method and system for instructing a user of a computer system how to perform application program tasks
US5493658A (en) * 1992-03-26 1996-02-20 International Business Machines Corporation Interactive online tutorial system with monitoring function for software products
US5597312A (en) * 1994-05-04 1997-01-28 U S West Technologies, Inc. Intelligent tutoring method and system
CA2151102C (en) * 1994-06-07 2004-07-20 Thomas Gerard Marsh Computer based training system
US5577186A (en) * 1994-08-01 1996-11-19 Mann, Ii; S. Edward Apparatus and method for providing a generic computerized multimedia tutorial interface for training a user on multiple applications
US5602982A (en) * 1994-09-23 1997-02-11 Kelly Properties, Inc. Universal automated training and testing software system
US5823781A (en) * 1996-07-29 1998-10-20 Electronic Data Systems Coporation Electronic mentor training system and method
US5816820A (en) * 1996-09-18 1998-10-06 Kelly Properties, Inc. Simulation generation system
US6347943B1 (en) * 1997-10-20 2002-02-19 Vuepoint Corporation Method and system for creating an individualized course of instruction for each user
CA2239666A1 (en) * 1998-06-04 1999-12-04 Hsin-Kuo Lee Digital traffic signal device
US6219047B1 (en) * 1998-09-17 2001-04-17 John Bell Training agent
US6340977B1 (en) * 1999-05-07 2002-01-22 Philip Lui System and method for dynamic assistance in software applications using behavior and host application models
US6438353B1 (en) 2000-03-29 2002-08-20 General Electric Method, system and storage medium for providing training to multiple users
TW470904B (en) * 2000-07-28 2002-01-01 Inventec Corp Interactive instruction system and method
CA2317825C (en) * 2000-09-07 2006-02-07 Ibm Canada Limited-Ibm Canada Limitee Interactive tutorial
US6907569B1 (en) * 2000-10-25 2005-06-14 Adobe Systems Incorporated “Show me” user interface command with scroll tracking

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000031711A1 (en) * 1998-11-25 2000-06-02 The Johns Hopkins University Apparatus and method for training using a human interaction simulator
JP2001282097A (ja) * 2000-04-04 2001-10-12 Obunsha Enterprise:Kk 言語教授システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018411A (ja) * 2005-07-11 2007-01-25 Lightworks Corp 情報処理システム
JP2007334108A (ja) * 2006-06-16 2007-12-27 Ems Kk 速答訓練システム
KR101889704B1 (ko) * 2017-12-28 2018-08-20 (주)씽크포비엘 크라우드 소싱 기반 앱 ui 사용성 시나리오 분석 방법 및 장치
JP2021067825A (ja) * 2019-10-24 2021-04-30 国立大学法人 鹿児島大学 コミュニケーション能力評価装置、コミュニケーション能力評価システム、コミュニケーション能力評価方法及びプログラム
JP7411207B2 (ja) 2019-10-24 2024-01-11 作一 大塚 コミュニケーション能力評価装置、コミュニケーション能力評価方法及びプログラム
US11962455B2 (en) 2021-11-29 2024-04-16 T-Mobile Usa, Inc. Prioritizing multiple issues associated with a wireless telecommunication network

Also Published As

Publication number Publication date
WO2003100746A2 (en) 2003-12-04
EP1514251A2 (en) 2005-03-16
AU2003243317A1 (en) 2003-12-12
KR20050027093A (ko) 2005-03-17
WO2003100746A8 (en) 2005-01-06
AU2003243317A8 (en) 2003-12-12
US20040029092A1 (en) 2004-02-12
US7300285B2 (en) 2007-11-27

Similar Documents

Publication Publication Date Title
US7300285B2 (en) Method and system for skills-based testing and training
KR20070061535A (ko) 그래픽 사용자 인터페이스를 갖는 컴퓨터 프로그램과상호작용하도록 개인을 교육하는 시스템 및 방법
AU2014101627A4 (en) Computer-implemented frameworks and methodologies for generating, delivering and managing adaptive tutorials
US11568506B2 (en) System of and method for facilitating on-device training and creating, updating, and disseminating micro-learning simulations
US6922814B2 (en) Software tool for creating an interactive image drag drop
US20170148347A1 (en) Utilization of virtual machines in a cyber learning management environment
CN105512980B (zh) 信息处理方法及装置
US20100003645A1 (en) Education method and tool
US20020178212A1 (en) Match game applet
Aung et al. An implementation of Java programming learning assistant system platform using Node. js
US20020196270A1 (en) Methods and systems for computer instruction using a graphical user interface
US20030040949A1 (en) Method and system for developing and providing effective training courses
Ng et al. A web-based environment to improve teaching and learning of computer programming in distance education
KR20030026379A (ko) 인터넷 환경에서 프로그래밍 실습을 위한 가상 교육시스템 및 방법
Hoffman et al. Unwrapping GIFT: A primer on authoring tools for the Generalized Intelligent Framework for Tutoring
AU2020221780A1 (en) Video lab book environment
US20020192630A1 (en) Methods and systems for computer instruction using a graphical user interface
Nguyễn Gia Hào et al. Topic: Introduction to the programming skill assessment system DMOJ
US20020194146A1 (en) Software tool for creating an interactive list
Pervolarakis Development of an automatic code grading platform.
KR102259027B1 (ko) 문제출제, 공유 및 활용 시스템 및 그 방법
Aung et al. An Implementation of Web-based Personal Platform for Programming Learning Assistant System with Instance File Update Function
Liu et al. Immersive Archaeology
JP2004061550A (ja) 教育学習支援方法及び教育学習用サーバ
Gupta A Web-Based System Programming Learning Environment

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100601