JP2008516642A - オブジェクト指向の複合現実感及びビデオゲームのオーサリングツール・システム及び方法 - Google Patents

オブジェクト指向の複合現実感及びビデオゲームのオーサリングツール・システム及び方法 Download PDF

Info

Publication number
JP2008516642A
JP2008516642A JP2007530273A JP2007530273A JP2008516642A JP 2008516642 A JP2008516642 A JP 2008516642A JP 2007530273 A JP2007530273 A JP 2007530273A JP 2007530273 A JP2007530273 A JP 2007530273A JP 2008516642 A JP2008516642 A JP 2008516642A
Authority
JP
Japan
Prior art keywords
project
environment
mixed reality
software program
computer system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007530273A
Other languages
English (en)
Other versions
JP2008516642A5 (ja
Inventor
ハリソン カークレイ ジュニア ユージン
クリストファー ボーランド スチーブン
ジェームス トンブリン スチーブン
ジェームス ネルソン アンドリュー
ロバート ペンドルトン ウィリアム
リーブス カークレイ ジェイミー
E. ターナー ライル
トッド ウエイト タイラー
Original Assignee
インフォメーション イン プレース インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インフォメーション イン プレース インク filed Critical インフォメーション イン プレース インク
Publication of JP2008516642A publication Critical patent/JP2008516642A/ja
Publication of JP2008516642A5 publication Critical patent/JP2008516642A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • A63F2300/6018Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content where the game content is authored by the player, e.g. level editor or by game device at runtime, e.g. level is created from music data on CD

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Stored Programmes (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明は、複合現実感又はビデオゲーム・インタフェースの設計情報を統合し、複合現実感とビデオゲーム環境の両方のオーサリングを可能とし、複合現実感及びビデオゲーム環境の反復開発を促進する複合現実感又はビデオゲームのオーサリングツール(12)システム及び方法を含む。

Description

本発明は、複合現実感及びビデオゲーム開発ソフトウェアに関する。さらに具体的に述べると、本発明の分野は、複合現実感及び/又はビデオゲーム環境を作成するためのオーサリングツール・ソフトウェアの分野である。
コンピュータ・システムの開発は、文字ベースのデータ処理システムから、複雑な音響及び映像モデリング・ソフトウェアへと進歩した。多くの分野では、コンピュータ技術の進歩、特にその出力の進歩は、技術水準を進展させた。
例えば、訓練の分野では、訓練ツールの分析(Analysis)、設計(Design)、開発(Development)、実施(Implementation)及び評価(Evaluation)(「ADDIE」)の体系的な概念は、コンピュータ支援訓練の開発において著しい進歩をもたらした。典型的なシステムでは、分析及び設計は、特定の種類の音響及び映像環境を指定できる。開発及び実施段階では、訓練の目的で、特定の音響及び/又は映像ツールを作り出すことができる。最終的に、評価段階は、これらの音響及び映像ツールに対する変更をもたらしうる。ADDIEは、ISD分野からのモデルであるが、その段階及び関連アクティビティは、非教育用コンテンツ及びシステムの作成に容易に一般化される。
このような訓練ツールは、「複合現実感」環境(「MR」)を含みうる。この応用において、「複合現実感」は、聴覚、視覚、触覚(手触り)、嗅覚(におい)及び/又は味覚環境を示し、この環境は、複合現実感コンピュータ・システムの利用者に提供されるとともに、利用者は、この環境に対して提供のパラメータの範囲内で応答できる。「複合現実感」環境の作成者は、場合によっては物理的環境の実画像を含むこともありうる、所望の環境のいくつかの視覚、聴覚、手触り、におい、味覚、空間的及び物理的モデルを指定し、これらが統合されて、その「現実感」が利用者に提供される。複合現実感コンピュータ・システムの出力は、(例えば、複合現実感ゴーグル又はヘルメット及び他のデバイスなどで提供される)コンピュータが作り出した付加的な風景、音声、触覚、嗅覚及び/又は味覚と共に、自然環境の風景、音声、触覚、嗅覚及び/又は味覚の組み合わせを含みうる。例えば、利用者が特定の視覚及び聴覚キューを提供されているとき、利用者は、コンピュータ・マウスを動かし、ジョイ・スティックを動かし、触覚センサを動かし、又は別の方法でコンピュータ・システムとやりとりを行い、聴覚及び/又は視覚環境の提供を実行することができる。その結果、利用者は、自分の知覚のすべてをコンピュータ・システムにより制御されるわけではないが、それらの感覚の一部は、あたかもデジタル・コンテンツが現実世界の一部であるかのように連動するとともに、聴覚及び/又は視覚情報の提供に対する利用者の反応は、それに続く提供に影響を与える。このようにして、システムの利用者は、提供された「現実感」と一見、現実に見える相互作用をもって、「複合現実感」を作り出す。複合現実感システムは、単に、人に対して状況固有(例えば、場所)のテキストを提供するだけの没入度の低いシステムから、その人が体験していることの大部分が、コンピュータが作り出した環境であるシステム(例えば、ゲームの一部として現実世界の小道具を使用するビデオゲームなど)まで多岐にわたる。
残念ながら、複合現実感又はビデオゲーム・ソフトウェア・システムの複雑で詳細な仕様及び実施に対するADDIE技術の応用は、複合現実感ソフトウェア・システムを変更し、かつ向上させる際にて、時間及び労力に関しかなりの犠牲を払っている。一般に、既存の教育方法論は、複合現実感及び仮想現実感において学習を設計しかつ提供する方法や、これらの形態の間とともに教育環境の中の従来技術の間でシームレスに移行する方法について適切に対処していない。このようなシステム開発の改良が求められている。
本発明は、複合現実感及びビデオゲーム環境の動的な編集を可能とすることにより、複合現実感及びビデオゲームの反復型開発を可能とする複合現実感及びビデオゲームのオーサリングツール・システム及び方法である。したがって、利用者が、複合現実感又はビデオゲーム環境及びユーザ・インタラクションに呼応して改善される提供の中にいる間に、複合現実感又はビデオゲーム環境のパラメータを変更することができる。
これらの難問のいくつかを解決するのに役立つ1つの可能な解決法は、簡単なものから複雑なものまで様々な種類の学習環境の設計をサポートするオーサリングツールを作り出すことである。本発明は、柔軟な方法で、設計プロセスの様々な段階をサポートし、ゲーム、シミュレーション、並びに複合現実感及び仮想現実感の他の様々な形態を用いて、次世代の混合型の学習環境の反復型設計、製造及びデリバリをサポートする。本発明のオーサリングツールは、設計、製造及びデリバリ過程を組織化し、かつサポートするために使用されうるツール形態の一例である。特定の実施形態は、完全にシステムの中で設計、製造及びデリバリをサポートするツールを含みうるが、このオーサリングツールは様々な設計者/開発者が使用する既存のツールを完全に取り替える必要はない。例えば、個人がこれらの次世代学習環境を作成するとき、現在の実施形態は、様々な種類の個人用の、組織化し共有されるフレームワークを提供する。この実施形態では、オーサリングツールは、材料の製造及びランタイム・デリバリに使用される他のツールを用いて、主として分析及び設計段階をサポートするように設計されている。
本発明は、より一般的使用に対して適合されうるが、本発明の開示された一実施形態は、次世代学習環境の様々な種類の設計者をサポートするオーサリングツールに関する。さらに、本発明の開示された一実施形態は、変更できるように設計されているため、構成固有の設計及び開発プロセス、用語法、新しい学習方法論並びに未来技術に基づく開発をサポートすることができる。我々は、これらの次世代学習環境の厳しい要求に適切に対処しようとする任意のオーサリングツールは、この種の柔軟性をサポートすべきであると考える。本明細書及び図面において、訓練及び学習、訓練生及び学習者、並びにトレーナー及び教師の用語は交換して使用可能である。
本発明のオーサリングツールは、下記の少なくとも3つの主領域を含む。 1.ニーズ分析とともに、他の種類の分析(例えば、視聴者、フレーム要素、技術及びリソース材料など)を通じて学習ニーズの特定をサポートする分析(Analysis)。 2.各種類の視聴者に対し及び各学習成果に対し、学習ニーズの成果/目的への変換並びに学習タスク及び評価基準への変換をサポートする訓練マトリクス設計(Training Matrix Design)。 3.次世代学習環境を設計するために必要な様々な種類の設計プロセスに対して複数の種類のサポートを提供する製造設計環境(Production Design Environment)。
プロセスをサポートするために提供される特定のツールのうちのいくつかは、モジュール・デザイナー、ストーリーボード・デザイナー、足場組み(scaffolding)デザイナー及びアセスメント・デザイナーを含む。モジュール・デザイナーは、モジュールの設計の一般的手法とともに、特定の教育方法論(例えば、問題に基づく組み込み訓練(Problem Based Embedded Training、PBET)に基づくモジュールの設計をサポートする。また、モジュール・デザイナーは、複数のモジュールが学習環境に配列されることを可能にする。通常、これらの環境は、単なる一般的な設計支援ツールを使用することができないくらい複雑である。デザイナー・サポートは、学習技術及び使用される学習方法論の種類に対して固有でなければならない。これは、組み込み設計支援ウィザード、最良の実施技法及び設計ガイドラインを含む。ストーリーボード・デザイナーは、ビデオゲームから、修復及び保守作業援助までの様々な種類のメディアを設計するために使用される。デスクトップ又は複合現実感ビデオゲームに対しては、ストーリーボード・デザイナーは、一連のタスク、アクティビティ及びイベントを記述し、それらを訓練目標にリンクし、かつ評価方法(例えば、ゲームにおけるタイマ・ベースの評価イベントなど)を組み込む方法を提供することにより、対話型シミュレーション又はシナリオの設計をサポートする。リスト・ビュー並びに枝分かれ図を含む複数のビューが提供される。設計者注意事項が至る所に組み込まれるとともに、必要に応じて開発リソースが記録され、かつ追跡されうる。足場組みデザイナーは、シミュレーション、ゲーム、又は学習アクティビティに直接組み込むことができる、初心者から専門家までの種々のレベルの学習者向けの異なった種類の支援の開発をサポートする。アセスメント・デザイナーは、パフォーマンス・アセスメント及び学習環境の特定の要素にリンクされるリフレクション・プロセスの設計をサポートする。例えば、特定のイベントに基づくシミュレーションにおけるリフレクションをサポートするために質問を開発できる。さらに、シミュレーションの中のイベントに基づき、学習目的について学習者を評価する際に使用する教官用パフォーマンス・アセスメント・ツール。
したがって、次世代学習環境を設計するオーサリングツールの使用に対して我々が考える利点のいくつかは、下記の通りである。1.よく構成されたものから、構成が不明確なものまで様々な学習環境の中で、具体的な学習目的を特定し、リンクし、かつ実施する方法を提供すること。2.ストーリーを作成し、それらを学習目標にリンクするとともに、各学習目標にリンクされ、かつイベントにより印を付けられる評価法を組み込むサポートを提供すること。3.従来技術及び手法(例えば、対面技術など)、並びに複合及び仮想技術を用いて混合学習環境を体系的に開発するために、特定の教育方法論を使用するサポートを提供すること。4.学習環境がハイ・エンドのシミュレーション・ベース・イベントであるか、より伝統的なウェブ・ベース学習モジュールであるかにかわらず、学習環境を反復的に設計し、かつ記録するために、設計チーム用の共有プロセス及びスペースを作成すること。5.ゲームが使用される場合に、異なる種類のデザイナー(例えば、教育デザイナー及びゲーム・デザイナーなど)が、意思疎通を行い、かつ共有開発プロセスを使用するとともに、学習環境に対する彼らの目的及び設計を連結することを可能にすることにより、娯楽と訓練の間の設計緊張度のバランスを保つことを助けること。
一形態において、本発明は、複合現実感環境を作り出すコンピュータ・システムに関する。システムは、複合現実感環境に関連する複数のアセット・データ・オブジェクトを含むアセット管理ソフトウェア・プログラムを備える。各アセット・データ・オブジェクトは、三次元モデル、イメージ、テキスト、音声、触覚、味、におい、ボタン及び動作設定のうちの少なくとも1つに関連する。また、少なくとも1つの複合現実感インタフェースを含むプロジェクト構成ソフトウェア・プログラムが含まれる。プロジェクト構成ソフトウェア・プログラムは、アセット・データ・オブジェクト、複合現実感インタフェース及びプロジェクト・データ・オブジェクトを参照するプロジェクト・データ・オブジェクトを作成できる。また、システムは、オペレータ命令に従ってプロジェクト構成ソフトウェア・プログラムを変更可能なプロジェクト・エディタを有する。
他の形態において、本発明は、複合現実感環境を作り出す方法である。この方法は、複合現実感インタフェースを作成するステップと、複合現実感インタフェースを少なくとも1つのプロジェクトに組織化するステップと、プロジェクトを利用者に提供するステップと、プロジェクトの提供に対する利用者の反応に基づいて、プロジェクトを編集するステップとを有する。
本発明のさらなる態様は、複合現実感環境とビデオゲーム環境の両方のアプリケーションをオーサリングするコンピュータ・システムを含む。コンピュータ・システムは、環境に関連するアセット・データ・オブジェクトを含むアセット管理ソフトウェア・プログラムを備える。各アセット・データ・オブジェクトは、三次元モデル、イメージ、テキスト、音声、触覚、味、におい、ボタン及び動作設定のうちの少なくとも1つに関連する。さらに、システムは、アセット管理ソフトウェア・プログラムから環境を作り出すエディタ・プログラムを含む。エディタは、環境が複合現実感及びビデオゲーム・デバイスとビデオゲーム・デバイスのうちの一方、又は両方で使用可能であるように環境を構成する。
本発明の他の態様は、上述した方法に基づいて複合現実感環境を作り出す方法のエンコードされた命令を保存する機械可読プログラム記憶デバイスに関する。
以下に示した本発明の実施形態を添付図面と照らし合わせて参照することにより、本発明の上述した特徴、目的及びその他の特徴、目的、並びにそれらを達成する方法が、より明らかになって、本発明自体の理解もいっそう深まるであろう。
図面を通して、対応する参照文字は対応する部分を示す。図面は本発明の実施形態を表すが、図面が必ずしも正しい縮尺で描かれているわけではなく、本発明をより良く図示しかつ説明するために、特定の特徴を誇張している場合がある。ここで詳述される例示は本発明の実施形態を一形態において示すものであり、このような例示は、いかなる方法によっても、本発明の範囲を限定するものとして解釈されるべきではない。
後述する実施形態は、網羅的であることを意図しておらず、又は下記の詳細な説明において開示される厳密な形態に本発明を限定するものではない。むしろ、実施形態は、当業者が開示を利用できるように選ばれ、説明されている。
下記の詳細な説明は、部分的に、英数字又は他の情報を表すコンピュータ・メモリの中のデータ・ビット上の操作のアルゴリズム及び記号表現で示される。これらの説明及び表現は、最も効果的に他の当業者に自分たちの仕事の内容を伝えるためにデータ処理の当業者が使用する手段である。
アルゴリズムは、ここで及び一般に、所望の結果に至る自己矛盾のないステップ順序であると考えられる。これらのステップは、物理量の物理的操作を必要とするステップである。必ずというわけではないが、通常、これらの量は、保存され、伝達され、合成され、比較され、及び他の方法で操作されうる電気的信号又は磁気的信号の形を取る。これらの信号を、ビット、値、記号、文字、ディスプレイ・データ、用語、数字などと呼ぶことが、主に一般的な用法の理由で、時には好都合であろう。しかしながら、これらの及び類似の用語のすべては、適切な物理量と関連づけられるべきであり、ここでは、単にこれらの量に付けられた便利な標示として使用されているに過ぎないことを覚えておくべきである。
いくつかのアルゴリズムは、情報を入力し、所望の結果を生じるデータ構造を使用する。データ構造は、データ処理システムによるデータ管理を大幅に促進するものであり、高度なソフトウェア・システムを介さなければ利用できない。データ構造は、記憶装置の情報内容ではなく、むしろ、記憶装置内に保存された情報の物理編成を伝える特定の電子構造要素を表す。単なる抽象観念ではなく、データ構造は、記憶装置内の特定の電気的又は磁気的構造要素であると同時に、複雑なデータを正確に表し、コンピュータ操作の効率を向上させる。
さらに、多くの場合、実行される操作は、比較又は付加のような用語で呼ばれ、一般に、人間のオペレータにより実行される知的活動と関連する。操作が機械操作であるという本発明の一部を形成する、ここで説明されるいかなる操作においても、人間のオペレータのこのような能力は必要でもなく、また多くの場合好ましくもない。本発明の操作を実行する有用な機械は、多目的デジタル・コンピュータ、又は他の類似のデバイスを含む。すべての場合において、コンピュータを操作する際の方法操作と計算自体の方法との区別は、認識されるべきである。本発明は、電気的、又は他の物理的(例えば、機械的、化学的など)信号を処理して、他の所望の物理的信号を出力する際に、コンピュータを操作する方法及び装置に関する。
また、本発明は、これらの操作を実行する装置に関する。この装置は、所要の目的のために特に構成され、又はこの装置は、コンピュータに保存されたコンピュータ・プログラムにより選択的に起動され若しくは再構成されるような多目的コンピュータにより構成される。ここで示されたアルゴリズムは、本質的に、任意の特定のコンピュータその他の装置に関連するものではない。特に、様々な汎用機械が、ここでの開示に従って書かれたプログラムを用いて使用され、又は所要の方法ステップを実行するさらに専門化した装置を構成することが、より便利であることがわかる。これらの様々な機械に対する所要の構造は、下記の説明から明らかになるであろう。
本発明は、「オブジェクト指向」のソフトウェアを扱い、特に「オブジェクト指向」のオペレーティング・システムを扱う。「オブジェクト指向」のソフトウェアは、オブジェクト、又はオブジェクトと共に発生する「イベント」に対して送出される「メッセージ」に呼応して実行されるべき様々な処理手順(「方法」)を説明する計算機命令のブロックを含む「オブジェクト」に組織化される。このような操作は、例えば、変数の操作、外部イベントによるオブジェクトの起動、及び他のオブジェクトに対する1つ以上のメッセージの送信を含む。
メッセージは、プロセスを実行するための特定の機能及び知識を有するオブジェクトの間で送受信される。例えば、利用者が、イベントを生成する「マウス」ポインタでアイコンをアクティブにすることにより、利用者命令に呼応して、メッセージが生成される。また、メッセージの受信に呼応するオブジェクトにより、メッセージが生成されうる。オブジェクトのうちの1つがメッセージを受信するとき、オブジェクトは、メッセージに対応する操作(メッセージ処理手順)を実行し、必要に応じて操作の結果を返信する。各オブジェクトは、オブジェクト自体の内部状態(インスタンス変数)が保存され、かつ他のオブジェクトはアクセスできない領域を有している。オブジェクト指向システムの1つの特徴は、継承である。例えば、ディスプレイ上に「円」を描くオブジェクトは、ディスプレイ上に「形」を描く他のオブジェクトから機能及び知識を継承することができる。
プログラマーは、その方法を定義することによりオブジェクトを作成する、コードの個々のブロックを書き込むことにより、オブジェクト指向プログラミング言語で「プログラムを作る」。メッセージにより相互に通信するようになされたこのようなオブジェクトの集合は、オブジェクト指向プログラムを構成する。オブジェクト指向コンピュータ・プログラミングは、オブジェクトによりシステムの各構成要素をモデル化でき、各構成要素の動きがその対応するオブジェクトの方法でシミュレートされ、構成要素間の相互作用がオブジェクト間で送信されるメッセージによりシミュレートされるという点で、対話型システムのモデル化を容易にする。また、条件が満たされるまでオブジェクトの方法の複数のアプリケーションを考慮に入れながら、オブジェクトを反復的に呼び出すことができる。このような反復的技術は、プログラムに基づいて所望の結果を達成する最も効率的な方法でありうる。
オペレータは、オブジェクトのうちの1つに対してメッセージを送出することにより、オブジェクト指向プログラムを構成する相関的なオブジェクトの集合を刺激できる。メッセージを受信すると、オブジェクトは、他の1つ以上のオブジェクトに対して付加的なメッセージを送出することを含む所定の機能を実行することにより、応答する。他のオブジェクトは、それらが受信するメッセージに呼応して、さらに多くのメッセージを送出することを含む付加機能を実行することができる。このように、メッセージ及び応答の連続は無期限に継続でき、すべてのメッセージが応答されたときや新しいメッセージが送出されていないときに終了する。オブジェクト指向言語を利用してシステムをモデル化するとき、プログラマーは、何らかの刺激に呼応して実行されるべき操作の順序に関してではなく、モデル化されたシステムの各構成要素が刺激に対してどのように応答するかに関して考えるだけでよい。操作のこのような順序は、刺激に呼応してオブジェクト間の相互作用から自然に決まるものであり、プログラマーによりあらかじめ定める必要はない。
オブジェクト指向プログラミングで、相関的な構成要素のシステムのシミュレーションはより直感的になるが、オブジェクト指向プログラムで実行される操作の順序は、通常、連続的に組織化されたプログラムの場合のようにソフトウェア・リストから、直ちに明らかとならないため、オブジェクト指向プログラムの操作は、多くの場合、理解することが難しい。見た目に明らかなその操作の表現を観察しても、オブジェクト指向プログラムがどのように動作するかを判断することもまた容易ではない。通常、プログラム内の比較的少数のステップだけが観察可能なコンピュータ出力を作り出すことから、プログラムに呼応してコンピュータにより実行される操作の大部分は観察者には「見えない」。
下記の説明では、頻繁に使用されるいくつかの用語は、この状況において専門的な意味を有する。用語「オブジェクト」は、直接的に又は間接的に利用者によりアクティブにされる計算機命令及び関連データのセットに関する。用語「ウィンドウ環境」、「ウィンドウ内での実行」及び「オブジェクト指向オペレーティング・システム」は、情報が操作され、かつラスター走査ビデオ・ディスプレイ上の有界領域内のようなビデオ・ディスプレイ上に表示されるコンピュータ・ユーザ・インタフェースを示すために使用される。用語「ネットワーク」、「ローカル・エリア・ネットワーク」、「LAN」、「広域ネットワーク」又は「WAN」は、メッセージがコンピュータ間で送信されうるような方法で接続される2つ以上のコンピュータを意味する。このようなコンピュータ・ネットワークでは、通常、1つ以上のコンピュータが、「サーバ」すなわちハード・ディスク・ドライブのような大容量記憶デバイスと、プリンタ又はモデムのような周辺装置を操作する通信ハードウェアとを有するコンピュータとして作動する。「ワークステーション」と呼ばれる他のコンピュータは、コンピュータ・ネットワークの利用者が、共有データ・ファイル、共有周辺装置及びワークステーション間の通信のようなネットワークリソースにアクセスできるように、ユーザ・インタフェースを提供する。利用者は、入力変数で決定される特定の作動特性を伴うコンピュータ・プログラムの一般的な操作とその環境の両方を含む「プロセス」を作成するために、コンピュータ・プログラム又はネットワークリソースを起動する。
用語「デスクトップ」、「パーソナル・デスクトップ装置」及び「PDF」は、デスクトップ、パーソナル・デスクトップ装置又はPDFと関連する利用者に対する関連設定を有するオブジェクトのメニュー又は表示を提供する特定のユーザ・インタフェースを意味する。PDFが、リモート・サーバ上で実行処理するアプリケーション・プログラムを通常必要とするネットワークリソースにアクセスするとき、PDFは、利用者がコマンドをネットワークリソースに提供し、かつ任意の出力を監視することを可能とするために、アプリケーション・プログラム・インタフェース(「API」)を呼ぶ。用語「ブラウザ」は、利用者にとって必ずしも見た目に明らかとはいえないが、PDF及びネットワーク・サーバの間のメッセージの送信と、表示及びネットワーク利用者とのやりとりと、を担当するプログラムを示す。ブラウザは、コンピュータの世界ネットワーク、すなわち「ワールド・ワイド・ウェブ」、又は単に「ウェブ」上にテキスト及び図形情報を送信する通信プロトコルを利用するように設計されている。本発明と互換性を有するブラウザの例として、ネットスケープ社により販売されているナビゲータ・プログラム及びマイクロソフト社により販売されているインターネット・エクスプローラがある(ナビゲータ及びインターネット・エクスプローラは、それらのそれぞれの所有者の商標である)。以下に、ブラウザのグラフィック・ユーザ・インタフェースに関してこのような操作を詳述するが、本発明は、テキスト・ベースのインタフェースを用いて、又は声により若しくはグラフィック・ベースのブラウザの機能の多くを有する視覚的に起動されるインタフェースを用いても実行されうる。
ブラウザは、汎用マークアップ言語規約(「SGML」)又はハイパーテキスト・マークアップ言語(「HTML」)でフォーマットされた情報を表示し、両言語は共に、特別なASCIIテキスト・コードを使用して、非視覚コードをテキスト・ドキュメントに組み込むスクリプト言語である。これらのフォーマットのファイルは、インターネットのような世界的規模の情報ネットワークを含むコンピュータ・ネットワークにわたって容易に送信されうるとともに、ブラウザにテキスト、イメージを表示させ、録音及びビデオ録画を再生させることができる。ウェブはこれらのデータ・ファイル・フォーマットを用い、その通信プロトコルと連係してサーバとワークステーション間でこのような情報を送信する。また、ブラウザは、拡張マークアップ言語規約(「XML」)ファイルが数個のドキュメント・タイプ定義(「DTD」)と共に使用でき、しかも本質的にSGML又はHTMLよりも一般的であることから、XMLファイルで提供される情報を表示するようなプログラムとすることができる。データ及びスタイルシート・フォーマッティングが別々に含まれることから、XMLファイルはオブジェクトになぞらえることができる(フォーマッティングは情報を表示する方法として考えることができ、それ故、XMLファイルはデータ及び関連する方法を有している)。
用語「携帯情報端末(Personal Digital Assistant、「PDA」)は、上述したように、計算、電話、ファックス、メール及びネットワーク機能を兼ね備える任意のハンドヘルドのモバイル・デバイスを意味する。用語「ワイヤレス広域ネットワーク、WWAN」)は、ハンドヘルド・デバイスとコンピュータの間のデータ送信メディアとして機能するワイヤレス・ネットワークを意味する。用語「同期」は、有線又は無線のハンドヘルド・デバイスとデスクトップ・コンピュータの間の情報の交換を意味する。同期は、ハンドヘルド・デバイスとデスクトップ・コンピュータの両データが同一であることを確保する。
ワイヤレス広域ネットワークでは、通信は、主として、アナログ、デジタル・セルラー、又はパーソナル通信サービス(「PCS」)ネットワーク上の無線信号の送信を介して行われる。また、信号は、マイクロ波及び他の電磁波により送信されうる。現在のところ、ほとんどの無線データ通信は、符号分割多重アクセス(「CDMA」)、時分割多元接続(「TDMA」)、汎欧州デジタル・セルラー・システム(「GSM」)、パーソナル・デジタル・セルラー(「PDC」)のような第2世代技術を用いるセルラー方式で、又はアドバンス携帯電話サービス(「AMPS」)に使用されたセルラー・デジタル・パケット・データ(「CDPD」)のようなアナログ・システム上のパケット・データ技術を介して行われる。
用語「ワイヤレス・アプリケーション・プロトコル、WAP」は、小さいユーザ・インタフェースを有するハンドヘルド・デバイス及びモバイル・デバイス上のウェブ・ベース・データのデリバリ及び提供を容易にするユニバーサル規格を意味する。
以下に、本発明のオーサリングツールを、複合現実感及びビデオゲーム・アプリケーション用のアプリケーション・ソフト(以下、総称して「アプリケーション」と呼ぶ)を作成する状況において説明するが、単に一例として説明するものであって、クレームの範囲の制限を意図するものではない。さらに具体的には、オーサリングツールは、典型的な軍事配備に関連する様々な任務及び作戦のために軍人を訓練するアプリケーションを作るために使用される例を提供する。他の特性及び利点は、他の実施形態に利用可能であるが、この特定の開示された実施形態は、本発明の特性の多くを例示する。後述するツールで具現される方法論及び典型的構造は、後述するような、又は当業者に理解されるであろうような、PBET、ACCEL(加速的パフォーマンス向上サービス)オンライン学習、コマンド及びコントロール・テスト設計、コンテキスト・リアリティ・ゲーム、支援技術を含む他の訓練技術において使用されうるが、これらに限るものではない。
このようなアプリケーションに関する以下の説明では、本発明において特定の意味を有するいくつかの用語が使用される。用語「アセット」は、複合現実感環境の要素に関連する任意の記憶可能形態の情報コンテンツを意味する。用語「インタフェース」は、現実に基づく知覚入力と、エンド・ユーザの「複合現実感環境」を作成するエンド・ユーザに対してコンピュータが作り出した又はモデル化した知覚入力と、の組み合わせに関する。用語「ボタン」は、アクティブにされたとき、複合現実感及びビデオゲーム環境内にさらなる動作又はアイテムを作り出す、エンド・ユーザにより知覚されるアイテムを意味する。用語「動作設定」は、複合現実感環境、インタフェース内のアセットの配列に関する情報、起動用のトリガー、構成要素をスワップ・アウトする規格、外部のアプリケーション又は処理手順へのリンクに導入される、動的コンピュータが作り出したアイテムを意味する。用語「プロジェクト」は、エンド・ユーザのアプリケーション・アセットと共にエンド・ユーザのアプリケーションに関連する分析、評価及び設計の情報を意味する。用語「環境」は、エンド・ユーザがタスクを実行するために使用するツール及びコンテンツを提供するランタイム環境を示す(エンド・ユーザ環境、「EUE」と呼ばれることもある)。環境の中で操作する利用者はエンド・ユーザと呼ばれるが、本発明のコンピュータ・システムの利用者は設計段階又は生産段階の役割でデザイナー又は開発者と呼ばれうる。
ここで図1Aを参照すると、CREATEオーサリングツール12は、その時点でのシステムの必要性に応じて、標準又は専門化した機能を備えたツールを含み、オーサリングツール及び関連システム10に対する5つの領域、すなわち、分析及び計画24、生産設計26、生産25、ランタイム・デプロイメント27及び総括的評価33、で構成される。協働、関連づけ及び形成的評価35を可能とする機能は、ツールの全体にわたって存在する。オーサリングツール12は、それが外部ツール23及びランタイム環境18と連係することを可能とする様々なブリッジ34、36、38で構成される。ツール/エディタ・ブリッジ34は、オーサリングツール12がエディタ又は計画ツールのような外部ツール23とやりとりすることを可能とし、ランタイム・ブリッジ36は、オーサリングツール12がシミュレーション・ゲーム・エンジンのようなランタイム環境18とやりとりすることを可能とし、評価ブリッジ38は、オーサリングツール12が外部ツール23及びランタイム環境18とやりとりすることを可能とする。オーサリングツール12は、5つの領域の中に、外部ツール23の機能を複製し、又はツール24、25、26、27、33に専門化した機能強化を提供するツールを含む。オーサリングツール12は、アセット及びプロジェクト28と、内部ツール24、25、26、27、33又は外部ツール23で作成されたデータとを管理するアセット・マネージャ11を有する。アセット・マネージャ11は、外部アセット・プール14とのやりとりを可能とするとともに、アセット28のアソシエーションを追跡する、そしてアセット・マネージャ11はエディタとして機能しうる。アセット・プール14は、メディア及び学習コンテンツ管理システム19、学習管理システム20、分析及び教育設計データ29、生産設計情報31又はCDP資料32のような多数のリソースから構成される。CDPは、アセット28及びそれらの相互の関連づけ35、並びに全体としてのプロジェクトについての随意的な説明である。
ここで図1Bを参照すると、本オーサリングツールを使用できる状況の1つのインスタンス化が示されており、このインスタンス化は、軍事用に行われた開発から導かれる。一般に、システム10は、オーサリングツール12、少なくとも1つのアセット・プール又はデータの貯蔵庫14、少なくとも1つの外部生産環境16、25、少なくとも1つのランタイム環境18、少なくとも1つの随意的な学習管理システム20、並びに設計及びランタイム評価用の少なくとも1つの随意的なツール22、33が含まれる。一般に、システム10は、分析及び計画エディタ並びにウィザード17、24、専門化したエディタ15、26及び追跡されたアセット28、並びにランタイム又はトレーナー・ツール27、30を含む。通常、追跡されたアセット28及び専門化したエディタ26は、オーサリングツール12内部から又はツール/エディタ・ブリッジ34を介して生産用ツール16、25によりアクセスされる、少なくとも1つの出力ファイル32を生成する。また、ランタイム又はトレーナー・ツール27、30は、ランタイム・ブリッジ36を介してランタイム環境18と通信できる。
本発明の一実施形態に従って、オーサリングツール12は、少なくともアプリケーションの3つの段階、すなわち、後に詳述される(1)設計段階、(2)生産段階及び(3)エンド・ユーザ段階、を促進するために使用される。設計段階中に、オーサリングツール12は、オペレータがアプリケーションのニーズ及び/又は要件について判断するのを支援する。生産段階中に、オーサリングツール12は、オペレータがアプリケーションで使用されるべきコンテンツを組み立て、かつ作り出すのを支援する。エンド・ユーザ段階中に、アプリケーションは、システム・オペレータ及びエンド・ユーザが、アプリケーションの使用中にオーサリングツール12を使用して、アプリケーションの操作を評価すること、及びランタイム環境18により使用されるコンテンツ及び/又はオプションを変更すること、を支援する。この構造は、より時間のかかる従来技術の方法に対しむしろ動的に、システム・オペレータがエンド・ユーザの経験を変更しかつ改訂することを可能とする。その特定の実施の選択をもたらす設計パラメータとアプリケーション実施の細目の組み合わせは、システム・オペレータがタスクの元の目標の目的と一致するようにランタイム環境18を変更することを可能にする。
これらの3つの一般的な段階は、所要ステップをより具体的な段階にさらに分解することによって、調べることができる。図2に例示するように、分析段階は、複合現実感訓練環境であるか又はビデオゲームであるかにかかわらず、最終生産物を設計する際に考慮すべきエンド・ユーザのニーズ及び重要な要素の体系的な同一性を提供することと関連する。部分的又は完全に完了した初期分析によって、設計段階は、指導計画に対する計画構成要素、トレーナー・ガイドライン、学習者ガイドライン、レッスン・プラン、学習者評価設計(図3〜図5、図11〜図12に例示される)及び実施構成要素に分解することができ、この実施構成要素は、インタフェースを作成し(図8〜図10に例示される)、ストーリーボードを作成し(図6〜図7に例示される)、部分品を作成して組み立てて、プログラムを作成し(図1Aのサンプル生産ツール23に例示される)、学習効果をテストする評価及び使いやすさの基準を作成し、バグ検査及び品質管理プロセスをモニタする(図19)。さらに、システムは、セットアップ・エディタ(図15)のようなツールを介して利用者から情報を得ることにより、又はツールにおける利用者の動作及び選択から動的に情報を得ることにより、作業の流れ及び意志決定を容易にするツールを有することができる。所望の環境の生産バージョンが作成されると、トレーナー及び学習者の適合及び使用段階は、学習環境並びにランタイム環境のリアルタイム制御及びランタイム環境への挿入において使用されている構成要素の変更を含む(図13〜図14)。
本発明の特定の実施形態において、オーサリングツール12は、一般に、オーサリングツール12に組み込まれた教育システム設計(Instruction System Design, ISD)用のADDIEモデルと矛盾しない方法で、アプリケーションの上述した段階を促進する。一般に、訓練プログラムを開発するISD方法論は、訓練課題のニーズの評価、学習環境の材料又はコンテンツの設計及び生産、及び学習者のニーズを満たす際の教育の効果の評価に対する系統的手法を提供する。ADDIEモデルは、多数の異なるISDモデルに対して包括的であり、頭文字「ADDIE」の元になっているステップ、すなわち、分析(Analysis)、設計(Design)、開発(Development)、実施(implementation)及び評価(Evaluation)を含む。オーサリングツール12の操作に関して、さらに後述されるように、ADDIEモデルの各ステップは、後続ステップに情報を与える少なくとも1つの出力を生成する。ADDIEモデルは、システム・オペレータが元々の懸念事項について変更することができるように、アプリケーション・コンテンツ内の設計及び分析情報を関連づける利点を例示している。
オーサリングツール12は、線形の非反復的な方法で使用できるが、反復的で迅速なプロトタイプ手法を用いるアプリケーションの特定の態様の同時開発を容易にすることにより、従来のADDIEモデルの基本的な線形手法から逸脱する。ADDIEモデルを実施する基本的な線形手法では、アプリケーションの変更は様々な段階で実施されうるが、変更の全体的な影響はアプリケーションが完成するまで明らかにならない場合がある。さらに、古典的なADDIE実施の厳密で逐次的な特徴のために、関係者間の意思疎通を十分に促進することができず、結果として非効率的となり、エラーを招く恐れがある。ADDIEモデルの反復的で迅速なプロトタイプ変形を使用することにより、オーサリングツール12は、一般に、最終的なアプリケーションを表す初期のプロトタイプの効率的な開発を可能にするが、この初期のプロトタイプは、最終的なアプリケーションの性能及び外観を理解しているデザイナー及び開発者により、さらに特徴づけられ、かつ改善される。さらに、実施の全体にわたって共通のツールセット及び一貫性のある言語を使用することにより、オーサリングツール12は、上述した意思疎通障害及び関連する非効率性を回避しうる。オーサリングツール12は、設計段階、生産段階及びエンド・ユーザ段階における関係者に、他の関係者及び各関係者の作業のステータスにより実施された変更が評価されるように構成される。複数の関係者が特定のアプリケーションの開発及び変更に参加できるが、初期設計及び分析情報を結果として得られるアプリケーションと関連づけることにより、すべての関係者をアプリケーションのニーズ及び目標に集中させつづけることができる。したがって、オーサリングツール12は、アプリケーション用のオーサリングツールの中で具現されたチームワークの作業の流れ及び管理ツールとして機能する。
問題に基づく組み込み訓練(PBET)訓練方法論に基づいてアプリケーションを作成するオーサリングツール12の例示的実施形態がここで説明される。PBETは、訓練生がフロント・エンド分析で特定され、かつ測定できる学習目的で説明される技能の要求に適うことを確保するように設計された訓練法である。一般に、有能である訓練生が求められる、予想されるタスクについてのリストを作成するために、訓練生の信頼性が調べられる。タスク・リストは、タスクの実行の際に訓練生の成功を容易に確認できるように設計され、明確に言い表された学習目的のセットを作成するために使用される。訓練プログラムのコンテンツ(又は、本発明の場合ではアプリケーション)は、学習目的から導出される。コンテンツは、すべての特定された領域の能力を達成するのに必要な技能を開発するために、訓練生が設備使用に関連する複数のタスクを練習できるように設計される。通常、訓練生は、訓練プログラムの他のタスクに進む前に、特定の基本的技能を習得することが要求されるが、このような手法はすべてのアプリケーションで必要なわけではない。しかしながら、オーサリングツール12の柔軟性により、環境作成及び保守の他のモデルが、プロジェクトのアセット、インタフェース及び環境と関連する他の設計情報セットを用いて使用され、かつ実施される。
再び図1Aを参照すると、アセット・プール14は、学習コンテンツ管理システム及び/又はパブリック・ドメイン・イメージ・ファイルなどその他の外部リソースを含みうる。オーサリングツール12の1つの実施では、アセット・プール14は、三次元軍人モデル、軍人属性ファイル及びその他の準備されたコンテンツ・ファイルが保存された軍事データベースを含む。さらに後述するように、アプリケーションの設計段階中に、オーサリングツール12は、設計に利用可能なドメイン固有のコンテンツについて判断するためにアセット・プール14にアクセスする。アプリケーション開発において、1つの可能な反復ステップは、アプリケーションの規定されたニーズ及び目的の達成を支援するさらなる関連コンテンツを含むように、アセット・プール14を変更及び/又は充実することである。
生産用ツール16、25は、(アンリアル、トルク、モバイル拡張現実感システム、モバイル拡張現実感コンテクスト組み込み訓練及びEPSSシステム、デザイナーの拡張現実感ツールキット、ARToolkit、CREATE)のような複数の利用可能な複合現実感及び/又はビデオゲーム・エンジンのいずれかを含みうる。ランタイム環境18は、開発用ツール16、25の出力を調べるために使用され、ランタイム環境に常駐するインタフェース部分を除くエンド・ユーザ・インタフェースを含む。随意的な学習管理システム20は、全体的な学習環境(訓練アプリケーション、又は学習アプリケーションに対する)を制御するために使用される。例えば、学習管理システム20は、プログラム内の、より基本的なモジュールをパスする利用者の能力に基づいて、多段階訓練プログラムの高度なモジュールに対する利用者のアクセスを制御するソフトウェアを含む。設計及びランタイム評価用ツール22、23は、パラメータを変更してインタフェースに新しい入力(イメージ、音声など)を提供し、環境内のアクティビティの収録をセットアップし、及びエンド・ユーザと環境とのやりとりの間にモニタされるべき評価基準を作成する様々なソフトウェア・プログラムを含む。
他の例として、対象とするアプリケーションを特定のブランド及び機種のヘッド・アップ・ディスプレイと共に使用するとき、分析及び計画エディタ並びにウィザード17、24、90は、特定のヘッド・アップ・ディスプレイに最適なフォント・サイズ、色及び他の特性を提案することができる。あるいは、所望のヘッド・アップ・ディスプレイの特性は、特定のブランド又は機種と無関係に入力されうる。例えば、ハードウェア又は所望の特性の特定の部品が、セットアップ・プロセス中に指定されないとき、オーサリングツール12は、セットアップ・プロセス中に、又はセットアップ・プロセス後に、適切なハードウェア・オプションを提案するように構成される。このように、オーサリングツール12は、オペレータにより提供されたパラメータに基づいてオペレータが知的な設計決定を行うことを支援し、及び/又は、設計セットアップが完了した後に、アプリケーションの実効的な実施のための所要のリソースについてオペレータに通知する。例えば、アプリケーションが、デザイナーの設備(多くの場合、エンド・ユーザと同等の設備を有しない)で達成可能なフォーマットよりもむしろ、そのアプリケーションが意図したハード/ソフト構成上で見えるように、オーサリングツール12はアプリケーションを表示する。さらに、オーサリングツール12は、利用者が、他の適切なデータ、並びに以下のもの、すなわち、エンド・ユーザ(例えば、技能、適性、態度、関心)、エンド・ユーザ環境(例えば、天候、照明状態、雑音)、生産及びランタイム・デリバリに利用可能な設備及び道具、使用される予定の具体的なランタイム環境、具体的な生産環境、ランタイム環境の所望の機能の仕様及び/又は生産環境の所望の機能の仕様を含む様々な項目、についての情報を入力できるツールセット(例えば、セットアップ・エディタ)を含む。システムに入力された様々なデータから、ツールは、CREATE環境のユーザ・インタフェースを自動的に調整すること(例えば、特定のツールを表示させ、かつプロジェクトに必要のない他のツールを隠したり、プロジェクトで有用であるかもしれないアイテムを見つけるためにアセット・ライブラリを自動的に検索したりする)、ツールがデザイナー/開発者に提供する支援をカスタマイズすること(例えば、特定のゲーム・エンジンに対するゲーム・タスクを設計する方法についての秘訣を提供する)、インタフェース設計に関して提案をすること(例えば、特定の眼鏡類用の画面レイアウト、又は移動中に読み取るためのフォント・サイズ)などを含むデザイナーのための様々なタスクを実行する。
ここで図2を参照すると、設計エントリ画面40が、アプリケーションの設計段階中に分析及び計画エディタ並びにウィザード17、24により生成されるように示されている。図示したように、一般に、設計エントリ画面40は、メイン・ツールバー42、プロジェクト・ナビゲータ・ウィンドウ44、作業ウィンドウ46及び設計注意事項ウィンドウ48を含み、これらすべて、Sunのオープン・ソースであるNetBeans開発ソフトウェアを用いたフォーマットで提供されている。メイン・ツールバー42は、まとめて参照番号41で示される複数のナビゲーション・ボタン及び汎用ツール・アイコンを含む。以下の説明では、いくつかの画面ビューの特定の特徴が示されるが、図のすべての、又はいかなる説明においても詳しくは説明しない。このような特徴は、複数の画面上に存在しうるとともに、画面又は他の適切なインタフェースに付加されうるため、1つ以上のこのような特徴を特定の実施形態で省略しても、このような特徴が他の状況で現れることを排除することにはならない。
一般に、プロジェクト・ナビゲータ・ウィンドウ44は、開発中のアプリケーションの概要をツリー構造フォーマットで提供する。プロジェクト・ナビゲータ・ウィンドウ44は、ツールバー50及びアプリケーション・ツリー構造52を含む。ツールバー50は、特に、オペレータが、ツリー構造52と関連するアイテム、フィルタ・フィールド(図示せず)を生成するフィルタ・アイコン56を見つけることを可能にする検索フィールド(図示せず)を生成する検索アイコン54を含み、このフィルタ・フィールドは、オペレータが、プロジェクト・ナビゲータ・ウィンドウ44に、ツリー構造52のフィルタ・フィールドを満足するアイテムだけを表示することを可能にする。この特徴は、特定の種類の環境の作成に関連する情報及びツールだけを表示するように特定の画面をあらかじめ設定するために使用することができる。
ツリー構造52は、アプリケーションが設計され、開発されるにつれて、自動的にアイテムで満たされる。ツリー構造52は、セットアップ資料58、分析資料60、訓練概要62及び教育モジュール70のような上位レベル見出しを含む展開可能な要素の階層的リストを含む。上位レベル見出し58、60、62、70の各々の下方には、対応する上位レベル見出し58、60、62、64に関連する複数の下位レベル見出しがある。例えば、訓練概要62の下には、教育シーケンス見出し66、モジュール1名前見出し68及び隨意にすぐ見えるか又はディスプレイからはずれているが見出しの下のボックスでスクロールすることにより見ることができる他のモジュールがある。さらに、下位レベル見出しの下には複数の小見出しがあり、これらの各小見出しは複数の小見出しを含むことができ、これらの各小見出しは他の複数の小見出しを含むことができる、等々である。上述した見出し、又は小見出しのいずれもが、資料又は外部アセット・プール14と関連するそれらのリソースのような外部リソースにリンクされる。ツリー構造52の任意の見出しを選択することにより(例えば、マウスの左クリック)、オペレータは、分析及び計画エディタ並びにウィザード17、24に、選択された見出しと関連するアイテムを作業ウィンドウ36に集めさせる。あるいは、オペレータは、例えば、マウスを右クリックして、「付加する」を選択することにより、ツリー構造52内の任意の場所に新しい見出しを付加することができる。
作業ウィンドウ46には複数のタブ72が含まれ、選択されると、ツリー構造52内の選択された見出しに関して特定のタスクを実行する作業ウィンドウ46中に、異なったコンテンツ74及びツールバー76を提供する。作業ウィンドウ46のコンテンツ74は、タブ72のうちの1つを用いて選択されたタスクと関連する資料及び/又はリソースに対する複数のリンク78を含む。リンク78の各々は、オペレータがリンク78と関連すべき説明又はコメントを入力できるテキスト・フィールド80を含む。作業ウィンドウ46のコンテンツ74が変更されるか、又は付加されるとき、オペレータは、ツールバー76内のアップロード・アイコン36を選択し、分析及び計画エディタ並びにウィザード17、24にデータベース14を集めさせる。
一般に、設計注意事項ウィンドウ48は、ツールバー82、注意事項リスト領域84及び注意事項コンテンツ領域86を含む。ツールバー82には、オペレータが、注意事項リスト領域84内に表示されたアイテムを検索すること、ソートすること、フィルタリングすることなどを可能にするアイコンが含まれる。注意事項リスト領域84は、作業ウィンドウ46のコンテンツ74に対応する注意事項の日付のあるエントリ88を含む。オペレータがエントリ88のうちのいずれかを選択するとき、選択されたエントリ88に対応するすべての注意事項のコンテンツが、注意事項コンテンツ領域86内に表示される。これらの注意事項は、例えば、アプリケーションの完成時にエンド・ユーザに提供されるべき恒久的な注意事項か、又はアプリケーションの設計開発の関係者により使用され、アプリケーションが完成した後に削除される一時的な注意事項である。
図3は、アプリケーションの設計及び分析段階中に使用されるウィザード・アシスタントの例を示す。図示したように、ウィザード・ウィンドウ90は、ウィザード・タブ72の選択時に、インタフェース40上の作業ウィンドウ36内に表示される。設計注意事項ウィンドウ48は、折りたたまれている。一般に、図3のウィザード・ウィンドウ90は、訓練概要見出し62と関連するアイテムの設計中は、利用可能であろう。しかしながら、その状況に応じた複数のウィザードが、ツリー構造52の様々な場所で利用可能である。一般に、ウィザード・ウィンドウ90は、質問領域92、回答領域94(チェックリストのような他の仕組みと同様に)及び提案領域96を含む。質問領域92は、作業ウィンドウ46の現在のコンテンツと関連するアプリケーションの態様を設計する際に、オペレータを支援するように設計された質問を表示する。質問は、頻度、重要性及び/又はその他の関連する特性に関して、アプリケーションの特性又は属性を説明する回答を引き出すように設計される。質問領域92内に表示される質問に対する回答の選択肢は、回答領域94内に表示される。
図示された例では、回答選択肢は、「まったくない、又はほとんどない(none or almost never) 」から「ほとんどいつも(almost always)」まで多岐にわたる頻度に関連する。質問領域92内に提示される質問は、例えば、教育構成要素、又は学習構成要素を有するアプリケーションに対する教育戦略及び提案領域96に示されるようなデリバリメディアを含む、アプリケーションの設計に関する決定を知らせる回答を引き出すように設計される。提案領域96は、教育戦略部98及びデリバリメディア部100を含む。教育戦略部98は、複数の異なった教育技術を含む。個人教授用に設計されている技術は一緒に分類され、個人又はグループ授業用に設計された技術及びグループ授業用に設計された技術は一緒に分類される。提案格付けは、各技術と関連し、「推薦されない(not recommended)」から「強く推薦される(highly recommended)」まで多岐にわたる。同様に、デリバリメディア部100は、それらの技術レベル(ローテク(Low Tech)からハイテク(High Tech)まで)により分類されるデリバリメディアリストを含む。各デリバリメディアは、「推薦されない」から「強く推薦される」まで多岐にわたる、対応する提案格付けを有する。オペレータが、質問領域92に提示された質問に答えるとき、ウィザード・ウィンドウ90が、アプリケーションの特性の属性に対する複数の格付けされた選択肢を同時に提供するように、分析及び計画エディタ並びにウィザード17、24は、適切な教育技術及びデリバリメディアの提案された格付けを調整する。
本説明の例では、設計段階の上述した分析部の後に、分析部で特定されたニーズを達成するであろう訓練の構成要素の詳細な定義が続く。図4に示したように、ツリー構造52の訓練マトリクス小見出し110が選択されるとき、訓練マトリクス・ウィンドウ112は、設計注意事項ウィンドウ48の作業ウィンドウ46内に表示される。図4の訓練マトリクス・ビューは、概要ビュー300と対照的にグリッド・ビューである。一般に、訓練マトリクス・ウィンドウ112は、ツールバー114、マトリクス領域116及び詳細ビュー領域118を含む。ツールバー114には、一覧表アイコン120とツリー・アイコン122が含まれ、一覧表アイコンを選択すると、マトリクス領域116の情報が図に示したような表の様式で表示され、ツリー・アイコン112を選択すると、ツリー構造52のようなツリー構造様式でマトリクス領域116の情報が表示される。マトリクス領域116は、他の利用者が選択した情報及びニーズ欄124、視聴者欄126、条件欄128、基準欄130及び学習目的欄132を含む。この例では、教育デザイナーがマトリクス領域116の記入を担当する。ニーズ欄124は分析部の設計段階中に特定されたニーズのリストを含み、また、これらのニーズはツリー構造52のニーズ小見出し134のリストと関連する。例えば、1つのニーズは特定の設備を常に運転状態に維持することがある。学習目的は、メニュー136を介してニーズと関連する。ニーズは、複数の学習目的を有することができる。
図12では、訓練マトリクス322の概要ビューは、グリッド・ビューと同じコンテンツを概要形式324で提供する。ニーズ326、学習目的328及びタスク330はプール領域332内で作成され、その後、概要領域322内でプロジェクトに割り当てられる。選択されたアイテムのプロパティは、334内に表示される。ニーズは、320内で学習目的に割り当てられる。
再び図4を参照すると、視聴者欄126は、各ニーズと関連する標的視聴者の特定を含む。図示された例では、リストに記載されたニーズの各々に対する標的視聴者は、「エントリ・レベル歩兵」と記述される。条件欄128は、各ニーズが評価される条件(例えば、敵との接触のない夜間の作戦)について説明するエントリを含む。基準欄130は、リストに記載されたニーズに関連した、対応する学習目的を実行する要件(例えば、時間制限)について説明するエントリを含む。学習目的欄132は、ニーズを満足するように視聴者を訓練するアプリケーションにより実施される特定のタスクについて説明するエントリを含む。例えば、ニーズは、あらゆる状況において適切な被覆及び隠蔽技術を使用することと定義される。対応する学習目的は、混乱した都市環境で被覆されかつ隠蔽され続けること、暗闇で被覆されかつ隠蔽され続けること、及び赤外線ゴーグルを用いて暗闇で被覆されかつ隠蔽され続けることである。学習目的エントリは、特定の教育状況(例えば、教室内の設定、ビデオゲーム、MRアプリケーションなど)にカスタマイズされる。
各ニーズは、異なる視聴者、条件、基準及び学習目的の関連づけに対するマトリクス領域116で反復されうる。特定のニーズを選択することにより(例えば、マウスのクリックにより)、オペレータは、詳細ビュー領域118に、選択されたニーズに対応する欄124、126、128、130、132の各々におけるエントリに対応する展開された情報(それが存在する場合)を集めさせる。任意のエントリが、詳細ビュー領域118で編集される。さらに、オペレータは、詳細ビュー領域118内の空白のフィールドを取得するために、空白のニーズ・エントリを選択できる。このように、オペレータは、マトリクス領域116内に新しい列を定義できる。
図5は、上述の任意の画面からモジュール70内の活動計画を起動することによりアクセスされる作業ウィンドウ36内の概観ウィンドウ140を示す。この場合も先と同様に、設計注意事項ウィンドウ38は折りたたまれている。一般に、概観ウィンドウ140は、目標及び学習目的欄142、モジュール欄144、ストーリーボード欄146、活動/タスク欄148及びパフォーマンス・アセスメント欄150を含む。目標及び学習目的欄142は、下方に示された1つ以上の学習目的154を有する複数の目標ステートメント152を含む。各学習目的は完了ボタン156を有し、オペレータは、このボタンで(例えば、赤色、黄色及び緑色を介して切り替えることにより)いままで設計されてきたようなアプリケーションが関連する学習目的又は目標に対処する程度を示すことができる。モジュール欄144は、目標及び学習目的欄142内の各学習目的154に対して、ツリー構造52のモジュール小見出し68、70に対応するモジュール番号のリスト156を含む。モジュール番号と関連する学習目的154がモジュール内で対処されると、モジュール欄144に示された各モジュール番号156は太字フォントで示される。概観ウィンドウ140の灰色で強調表示された部分で示したように、学習目的154のうちの1つが選択されると、選択された学習目的154と関連するモジュール番号156が強調表示されるとともに、ストーリーボード欄146、活動/タスク欄148及びパフォーマンス・アセスメント欄150に、選択された学習目的154と関連する第1のモジュール番号156に関する情報が集められる。欄146、148、150に、選択されたモジュール番号156に関連する情報を自動的に集めるために、他のモジュール番号156を選択できる。
図示された例では、ストーリーボード欄146内の強調表示されたストーリーボード・エントリは、選択された学習目的154のモジュール番号1に対するストーリーボードがまだ作成されていないことを示す。ストーリーボードとの関連づけは、後で行われうる。活動/タスク欄148は、選択された学習目的154を達成するために適切であると特定された複数のタスクを示す。活動/タスク欄148のタスクが選択されると(「SUGV1トラック修復」という下線が付されたタスク(SUGV1 track repair)で示したように)、パフォーマンス・アセスメント欄150に、選択されたタスクに関連する情報が集められる。この例では、ビデオゲームにおけるタスクのタイム・オカレンスが示され、タスクが実行される条件が説明され、訓練生のパフォーマンスを評価する基準が示され、訓練生のパフォーマンスを報告する方法が記述され、注意事項ウィンドウ158内にタスクに関する注意事項が表示される。オペレータは、パフォーマンス・アセスメント欄150内に示された任意のアイテムを単に選択して、関連する属性を変更することができる。
また、概観ウィンドウ140により表示された情報の多くが、図4の訓練マトリクス・ウィンドウ112内に表示される。しかしながら、概観ウィンドウ140では、学習目的と目標との関係、及びこれらがどのように学習者アクティビティ(この場合、訓練ゲーム)148及び評価150に関連するかに焦点を当てている。図示したように、リストに記載された目標ステートメント152に関連するように、学習目的154は分類される。概観ウィンドウ140における情報の総合的な提供は、アプリケーションが完全に設計される前であっても、アプリケーション内の実質的にすべてのアイテムが相互に関連する方法の理解をオペレータに提供する。この概観情報は、アプリケーションの全体的な構造を理解して個別のアイテムを作ることができる開発者に提供される。逆に、事前に定義された、又は既に完成したアイテム(例えば、特定の都市景観、地形、設備モデルなど)は、概観ウィンドウ140を介して教育設計段階にリンクされる。その結果、オーサリングツール12は、訓練アプリケーションであるこの例示的実施形態で、複合現実感提供の開発が、本質的に反復されることを可能にする。このような反復開発により、開発者は、アプリケーションが作られているときはアイテムを未定義のまま残し、プロジェクトが反復的に設計されるとき、後で再び立ち戻ることができる。例えば、パフォーマンス・アセスメント欄150内の基準エントリは、アプリケーションが完成するまで、未定義のまま残される。ビデオゲーム・アプリケーションの場合では、開発者は、適切な基準を決定するために、何度かランタイム環境18内で関連するタスクを実行し、その時点で基準を定義することができる。あるいはまた、関連するタスクを実行するためにデリバリメディアが開発されるずっと以前に、基準が定義される。これは、厳密なADDIE手法から逸脱するオーサリングツール12の非線形特性を示す例である。さらに、これらのアイテムは、ストーリーボード・エディタでストーリーボードに付加されるタスク148のような設計の他の部分で使用されるため、その情報は、ここに自動的に反映される。
図6は、上述した本発明の設計及び分析構成要素で作成された訓練計画に関連して、システム設計者により作成されたストーリーボード・パネル200を示す。このセクションでは、特定の聴覚又は視覚環境が、物理的な観察、コンピュータ・モデルが作り出した環境又は2つの組み合わせから指定される。さらに、特定の表示特性に対して最適化されるように自動的にコンテンツ及びインタフェース要素を調整するために、インテリジェント・ソフトウェア・エージェントが提供される。これは、表示特性だけではなく、環境条件(例えば、周囲の光の明るさ、雑音)、利用者の特性(例えば、色盲、読解レベル、人間の視野、周辺視覚限度、複数経路の情報を処理する人間の既知の能力)及びタスク・ニーズ(例えば、エンド・ユーザは歩いているため画面上に必要とする情報は少ない;特定のタスク特性に対しては音声制御の方がマウス制御よりも良い)も考慮に入れることができる。また、ストーリーボード・ディスプレイ202は、特定のハードウェアがエンド・ユーザに課しうる作用と共に、エンド・ユーザが環境を感じるように、開発者に環境を提供するプレビュー・モードを呼び出すために使用される。さらに、インテリジェント・エージェントは、インタフェース内の要素に対して、自動データ・コレクタと環境を観察する開発者による手動エントリの両方を含むデータ・コレクタ・ツール(例えば、タイマ、マウス・トラッキング)を使用できる。また、これは、対象の活動、環境条件及びその他のコンテクスト・データのビデオ録画のような外部ソースからの同期データを含む。人工知能エンジンは、様々なデータ・ソース及び開発者に対する現在の情報を使用可能なフォーマットで融合でき、そのエンジンは環境内に存在しうるデータが大量なために人間の開発者には特定することが難しいパターンを認識するようにプログラムされる。また、人工知能エンジンは、開発中のインタフェースに関連する被験者の特性(例えば、色盲、年齢、読解力)を考慮に入れることができる。開発者は、その分析に焦点を合わせるために、人工知能エンジンに提供される情報を指定できる。
ストーリーボード・ディスプレイ202は、表示されるモジュール内に含まれる1つ以上の連続シーンのビューを提供する。特定のシーン204が利用者により選択されると、その後、シーン・プロパティ・セクション206は、そのシーンに関する詳細を提供する。概観セクション208は、ストーリーボード・ディスプレイ202上に、ストーリーボード全体の高レベル・ビューを提供する(ディスプレイ202よりも大きいストーリーボードを作成できるため)。シーン・プロパティ206とのやりとりを通して、システム設計者は、そのシーンにおけるエンド・ユーザ状態をモニタでき、場合によっては、パフォーマンス又は評価基準を最適化するためにシーンと関連する環境を変更する。
図16は、全体のプロジェクト、特定の活動又は処理手順を訓練し、テストし、又はシミュレートするために作成された一連のストーリーボードを示す。プロジェクト・ディスプレイ1300は、モジュール1302の相互接続を示し、モジュール1302のうちの1つの起動は、対応するステップ・プロパティ詳細1304を起動する。これにより、システム設計者は、このレベルで提供される共通特性を引き継ぐ様々なストーリーボードを用いて、全体のモジュール内のパラメータを変更できる。
図8は、シーン実行画面300を示す。画面300は、システム設計者に、特定のアセットをそのシーンに関する設計情報と関連づけする能力を提供する。図示された画面では、活動選択302は、選択された活動の設計目的についての情報を提供するコメント・セクション304を有する1つ又は数個の活動を含む。また、コメント・セクション304は、例えば、対象エンド・ユーザとリンクされうる他のエンド・ユーザの指定を許可する、学習目的を指定するなど、複合現実感又はビデオゲーム環境のさらなる仕様を有する、又は評価基準を指定する。アセット・セクション308は、特定の活動選択内の1つ以上の構成要素アセットの選択及び関連づけを許可する。図示された例では、SUGV偵察シナリオは、少なくともイメージ、モデル地図及び/又は選択された活動を有するサウンド・ボタンと関連する。このシナリオに関する詳細は、選択されたシーンの地図及びモデルを示す地図セクション310内に提供され、他方、ビュー・セクション312は、インタフェースからのビュー(すなわち、エンド・ユーザの見る景色)を示す。
図9は、環境エディタ画面400を示す。開発者のためのシーンの複数のビューが、平面視野ウィンドウ402及び3D視野ウィンドウ404により提供され、また、その他のビューも提供される。対象シーンのビューの提供に加えて、パレットメニュー406は、図示されたシーンに対する付加及び/又はオーバーレイを提供する。例えば、パレットメニュー406は、シーンに追加する付加的なイメージ、音声、又はその他のアイテムのメニューを提供するために起動されるツール・サブメニュー408を有する。また、3Dモデル・サブメニュー410は、対象シーンの1つ又はすべての構成要素を補完及び/又は取り替える付加的なモデルを提供するために起動される。データ収集サブメニュー412は、開発者に、対象シーンの複合現実感環境内のパフォーマンスを記録し、評価する選択肢を提供する。ビュー要素サブメニュー414は、開発者に、例えば、対象シーンの1つ以上のビューにおいて方向を示すコンパス機能などの付加的な機能を提供する。ツール・サブメニュー408は、起動されると、学習者ツール(例えば、データを操作するツール、メタ認知リフレクション用の日誌、作業援助を表示するツールなど)、フィードバック機構(例えば、以前に他のゲーム用に開発された、敵の待ち伏せシーケンスのようなゲームに付加してもよい共通アイテムなど)、シミュレーション・イベント(例えば、パフォーマンスのオンスクリーン通知、後の再検討用のデータの自動記録)及びデータ収集ツール(例えば、タイマ、複合現実感イメージのビデオ記録器、エンド・ユーザの身体的モニタ、又は観察者注意事項に対する手動エントリ)を含む、対象シーンに組み込むためのアセットの付加的アレイを提供する。
図10は、ビュー・デザイナー画面500を示す。ビュー・デザイナー・ウィンドウ502は、場合によっては図9の環境エディタ画面400により提供される1又はそれ以上の景色の中の、対象シーンに対応するイメージを提供する。パレットメニュー504は、図9のその対応するメニューと同様であるが、ビュー・デザイナー画面500のために異なる選択肢を有する。設計パラメータの多くを相互参照して、プロパティ・エディタ506は、デザイナーに、図5からの目標及び学習目的の観点から対象シーンを見る能力を提供する。
図11は、活動計画タブ1400を示す。活動計画概要ディスプレイは、その特定のカテゴリ1402内のすべての学習アクティビティを表示する。学習ステップは、活動計画グループ分け1404内に含まれる1つの学習アクティビティである。活動計画プロパティ1406は、どんな学習目的がその活動計画1408と関連するかを判断する。
図12では、訓練マトリクス322の概要ビューは、グリッド・ビューと同じコンテンツを概要形式324で提供する。ニーズ326、学習目的328及びタスク330は、プール領域332内で作成され、その後、概要領域322内でプロジェクトに割り当てられる。プロパティは、334内に表示される。ニーズは、320内で学習目的に割り当てられる。
図13は、訓練前及び訓練中に、トレーナーが訓練製品を調整することを可能にするトレーナー適合ツール700を示す。例えば、トレーナー710は、イベントをオンにして、訓練製品の中の特定の定義済み要素又は構成を変更することができる。
図14は、トレーナー適合ツール作成画面800を示す。これにより、利用者は、どの要素が、訓練イベント中及び訓練イベント前にトレーナーが操作する選択肢であるかを定義することができる。また、それは、どんな種類の学習目的、評価及び視聴者が、その特定のイベント820を対象としているのかを定義する。
図15では、セットアップ画面が、ソフトウェアの他の態様で使用される多数の生産及び設計要素を定義する。この例では、我々は、PDAデバイスが、このプロジェクトでは使用されないことを確認した。この決定により、図4、102では、ウィザードは、PDAデバイスに関する情報を提供しない。
図16は、ストーリーボード・ツール1320の他の使用法を示す。この場合、イベントの配列は、作業援助1322を行うように組織化される。1324は、その特定ステップのプロパティを表示する。
図17は、設計資料エクスポート1100を示す。学習環境の設計に固有のCREATEの中の態様は、1102でエクスポートされる。学習環境に関連する要素だけが、1104内に含まれる。これらの学習固有の要素は、CREATEソフトウェアの全体にわたって定義され、その後、エクスポート内に集められることを注目する。
図18は、生産計画エクスポート1200を示す。プロジェクトの生産に固有のCREATEの中の態様は、1210でエクスポートされる。学習環境に関連する要素だけが、1220内に含まれる。これらの生産要素は、CREATEソフトウェアの全体にわたって定義され、その後、エクスポート内に集められることを注目する。
図19は、形成的評価1000を示す。形成的評価イベント1002は、CREATEの中の要素に付加される。いくつかの評価形態が、利用者1004に利用可能である。いくつかの評価イベントが、CREATE設計タブ1006内の1つ又はすべてのステージに付加される。
付録は、本発明の実施を含む。当業者は容易に認識するように、build.xmlファイルを用いてARI‐CREATEソース・ディレクトリから典型的アプリケーションを構築するために、付録のソース・コード・ファイルは、様々なディレクトリに関連しており、このようなビルド・ライブラリは、言及することにより本明細書の一部となっている。通常の技能を有するプログラマーは、付録のソース・ファイルから、本発明に沿って実行可能プログラムを作成できる。
本発明は典型的な設計を有するものとして説明してきたが、本発明は、本開示の要旨及び範囲内で、さらに変更しうる。したがって、本願は、本発明の一般原理を用いた本発明の任意の変形、使用、又は改作を網羅するものである。さらに、本願は、本発明が属する技術分野における既知の、又は通例の実施に含まれるような本開示からの逸脱を網羅するものである。
本発明を用いたオーサリングツールの概略模式図である。 本発明を用いたオーサリングツールのインスタンス化の概略模式図である。 CREATEソフトウェアの一般的なインタフェース要素のスクリーン・ショット図であり、分析概要画面について説明する図である。 利用者の現在のユーザ・タスクを援助するウィザード・ヘルプ要素のスクリーン・ショット図である。 すべてのニーズ、学習目的及び業績期待を含むグリッド・ビュー訓練マトリクス・ビューのスクリーン・ショット図である。 関連する学習アクティビティとの関係で、すべての目標及び学習目的を表示する目標及び目的ビューのスクリーン・ショット図である。 デザイナーがアクティビティ内のストーリー順序を割り付けることができるストーリーボード・ツリー表示のスクリーン・ショット図である。 利用者が自分の教育モジュールを順序付けすることができる教育シーケンサのスクリーン・ショット図である。 1つ以上のストーリーボード・シーンの教育の態様を開発する画面のスクリーン・ショット図である。 1つ以上のストーリーボード・シーンの環境を開発する環境エディタのスクリーン・ショット図である。 ビュー・デザイナー・ウィンドウのスクリーン・ショット図であり、場合によっては環境エディタ画面により提供される1又はそれ以上の景色の中の、対象シーンに対応するイメージを提供する図である。 教育アクティビティの概要及びいくつかの教育アクティビティのグループ分けを示す活動計画画面の略図である。 すべてのニーズ、学習目的及び業績期待を含む概要ビュー訓練マトリクス・ビューのスクリーン・ショット図である。 トレーナーが製品デリバリ前及び製品デリバリ中に製品の要素を変更できるトレーナー適合ツールのスクリーン・ショット図である。 どの要素がトレーナーにより変更されうるかを利用者が定義するトレーナー適合ツール・タブのスクリーン・ショット図である。 利用者が製品に対するすべての関連情報を定義するセットアップ画面のスクリーン・ショット図である。 順序付けられた作業援助を作成するために使用されるストーリーボード画面のスクリーン・ショット図である。 CREATEで定義されたすべての学習関連課題が設計資料にエクスポートされる設計資料エクスポート画面のスクリーン・ショット図である。 CREATEで定義されたすべての製作関連課題が設計資料にエクスポートされる生産計画エクスポート画面のスクリーン・ショット図である。 形成的評価モジュールのスクリーン・ショット図である。

Claims (22)

  1. 複合現実感環境とビデオゲーム環境の両方のアプリケーションをオーサリングするコンピュータ・システムであって、
    環境に関連する複数のアセット・データ・オブジェクトを含み、該複数のアセット・データ・オブジェクトの各々が三次元モデル、イメージ、テキスト、音声、ボタン及び動作設定のうちの少なくとも1つに関連するオブジェクトを含む、アセット管理ソフトウェア・プログラム(14、28)と、
    複数のインタフェースの少なくとも1つを含み、かつ設計情報を前記インタフェース及び所望の環境に関連づける、設計構成ソフトウェア・プログラム(12)と、
    前記アセット管理ソフトウェア・プログラムから前記所望の環境を作成し、かつ前記環境が複合現実感デバイス及びビデオゲーム・デバイスの一方により使用可能であるように前記環境を構成する、エディタ・プログラム(11)と、
    からなることを特徴とするコンピュータ・システム。
  2. エンド・ユーザに複合現実感インタフェースを提供するランタイム・ソフトウェア・プログラム(18)を含むことを特徴とする請求項1に記載のコンピュータ・システム。
  3. 前記アセット管理ソフトウェア・プログラムがエンド・ユーザに前記環境を提供すると同時に、前記プロジェクト・エディタが前記環境を変更可能であることを特徴とする請求項2に記載のコンピュータ・システム。
  4. 前記エディタが、前記ランタイム・ソフトウェア・プログラムとは別に、前記コンピュータのオペレータに前記環境を提供可能なシミュレータ(15、16)であって、前記エンド・ユーザに対する前記環境の前記提供をシミュレートする、シミュレータを含むことを特徴とする請求項2に記載のコンピュータ・システム。
  5. 前記エディタは、さらに、複数の環境で使用されうるアセット・データ・オブジェクトを作成可能であることを特徴とする請求項1に記載のコンピュータ・システム。
  6. 前記アセット管理ソフトウェア・プログラムが、前記設計情報から、生産目的用の設計資料を作成する設計資料生成プログラムを含むことを特徴とする請求項1に記載のコンピュータ・システム。
  7. 前記アセット管理ソフトウェア・プログラムが、レッスン・プランを作成するレッスン・プラン生成プログラム含むことを特徴とする請求項1に記載のコンピュータ・システム。
  8. 複合現実感又はビデオゲーム環境を作成するコンピュータ・システムであって、
    環境に関連する複数のアセット・データ・オブジェクトを含み、該復数のアセット・データ・オブジェクトの各々が三次元モデル、イメージ、テキスト、音声、ボタン及び動作設定のうちの少なくとも1つに関連するオブジェクトを含む、アセット管理ソフトウェア・プログラム(14、28)と、
    複数のインタフェースの少なくとも1つを含み、かつ前記アセット・データ・オブジェクト、前記インタフェース及びプロジェクト・データ・オブジェクトを参照するプロジェクト・データ・オブジェクトを作成できる、プロジェクト構成ソフトウェア・プログラム(12)と、
    オペレータ命令に従ってプロジェクト構成ソフトウェア・プログラムを変更できるプロジェクト・エディタ(11)と、
    からなることを特徴とするコンピュータ・システム。
  9. エンド・ユーザに複合現実感インタフェースを提供するランタイム・ソフトウェア・プログラム(18)を含むことを特徴とする請求項8に記載のコンピュータ・システム。
  10. 前記アセット管理ソフトウェア・プログラムがエンド・ユーザに対し複合現実感環境を提供すると同時に、前記プロジェクト・エディタが前記プロジェクト構成ソフトウェア・プログラムを変更可能であることを特徴とする請求項9に記載のコンピュータ・システム。
  11. 前記複合現実感インタフェースを有する前記エンド・ユーザの操作を記録するようになされたエンド・ユーザ・モニタリング・ソフトウェア・プログラムをさらに含むことを特徴とする請求項9に記載のコンピュータ・システム。
  12. 前記プロジェクト・エディタが、前記ランタイム・ソフトウェア・プログラムとは別に、オペレータに複合現実感インタフェースを提供可能なプロジェクト・シミュレータ(15、16)であって、前記エンド・ユーザに対する前記複合現実感インタフェースの前記提供をシミュレート可能なプロジェクト・シミュレータを含むことを特徴とする請求項10に記載のコンピュータ・システム。
  13. 前記プロジェクト・エディタが、さらに、複数のプロジェクト・データ・オブジェクトで使用されうる複合現実感インタフェースを作成可能であることを特徴とする請求項8に記載のコンピュータ・システム。
  14. 前記アセット管理ソフトウェア・プログラムが、前記複合現実感環境に関連する設計情報と前記インタフェースの1つとの間の関連を提供することを含むことを特徴とする請求項8に記載のコンピュータ・システム。
  15. 前記アセット管理ソフトウェア・プログラムが、前記設計情報から、生産目的用の設計資料を作成する設計資料生成プログラムを含むことを特徴とする請求項14に記載のコンピュータ・システム。
  16. 前記アセット管理ソフトウェア・プログラムが、レッスン・プランを作成するレッスン・プラン生成プログラム含むことを特徴とする請求項14に記載のコンピュータ・システム。
  17. コンピュータにおける複合現実感又はビデオゲーム環境を生成する方法であって、
    インタフェースを作成するステップと、
    前記インタフェースを少なくとも1つのプロジェクトに組織化するステップと、
    前記プロジェクトを利用者に提供するステップと、
    前記プロジェクトの前記提供に対する前記利用者の反応に基づいて、前記プロジェクトを編集するステップと、
    からなることを特徴とする方法。
  18. 前記提供するステップと前記編集するステップとが同時に行われうることを特徴とする請求項17に記載の方法。
  19. 設計情報を前記複合現実感インタフェースと関連づけるステップをさらに含むことを特徴とする請求項17に記載の方法。
  20. 複合現実感又はビデオゲーム環境を生成する方法のエンコードされた命令を保存する機械可読プログラム記憶デバイスであって、該方法が
    インタフェースを作成するステップと、
    前記インタフェースを少なくとも1つのプロジェクトに組織化するステップと、
    前記プロジェクトを利用者に提供するステップと、
    前記プロジェクトの前記提供に対する前記利用者の反応に基づいて、前記プロジェクトを編集するステップと、
    からなることを特徴とする機械可読プログラム記憶デバイス。
  21. 前記方法が、前記提供するステップと前記編集するステップとが同時に行われるようにするための命令を有することを特徴とする請求項20に記載の機械可読プログラム記憶デバイス。
  22. 前記方法が、設計情報を前記複合現実感インタフェースと関連づけるさらなるステップに対する命令を有することを特徴とする請求項20に記載の機械可読プログラム記憶デバイス。
JP2007530273A 2004-08-31 2005-08-31 オブジェクト指向の複合現実感及びビデオゲームのオーサリングツール・システム及び方法 Pending JP2008516642A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US60615404P 2004-08-31 2004-08-31
PCT/US2005/030849 WO2006026620A2 (en) 2004-08-31 2005-08-31 Object oriented mixed reality and video game authoring tool system and method

Publications (2)

Publication Number Publication Date
JP2008516642A true JP2008516642A (ja) 2008-05-22
JP2008516642A5 JP2008516642A5 (ja) 2013-05-16

Family

ID=35463656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007530273A Pending JP2008516642A (ja) 2004-08-31 2005-08-31 オブジェクト指向の複合現実感及びビデオゲームのオーサリングツール・システム及び方法

Country Status (7)

Country Link
US (1) US20060048092A1 (ja)
EP (1) EP1791612A2 (ja)
JP (1) JP2008516642A (ja)
CN (1) CN101048210B (ja)
AU (2) AU2005279846A1 (ja)
CA (1) CA2578479A1 (ja)
WO (1) WO2006026620A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103785169A (zh) * 2013-12-18 2014-05-14 微软公司 混合现实的竞技场
JP2020027663A (ja) * 2019-09-16 2020-02-20 如如研創股▲分▼有限公司 仕様書作成部

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006023647A1 (en) * 2004-08-18 2006-03-02 Sarnoff Corporation Systeme and method for monitoring training environment
GB0425987D0 (en) * 2004-11-26 2004-12-29 Tv Sports Network Ltd Surround vision
US8667395B2 (en) * 2005-08-19 2014-03-04 Nintendo Co., Ltd. Method and apparatus for creating video game and entertainment demonstrations with full preview and/or other features
US20070136672A1 (en) * 2005-12-12 2007-06-14 Michael Cooper Simulation authoring tool
US20070191095A1 (en) * 2006-02-13 2007-08-16 Iti Scotland Limited Game development
US20080120561A1 (en) * 2006-11-21 2008-05-22 Eric Charles Woods Network connected media platform
CN101174332B (zh) * 2007-10-29 2010-11-03 张建中 一种将真实世界实时场景与虚拟现实场景结合交互的方法和装置以及系统
US8206222B2 (en) 2008-01-29 2012-06-26 Gary Stephen Shuster Entertainment system for performing human intelligence tasks
US20090271436A1 (en) * 2008-04-23 2009-10-29 Josef Reisinger Techniques for Providing a Virtual-World Object Based on a Real-World Object Description
US20100160039A1 (en) * 2008-12-18 2010-06-24 Microsoft Corporation Object model and api for game creation
US8229718B2 (en) * 2008-12-23 2012-07-24 Microsoft Corporation Use of scientific models in environmental simulation
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
WO2011033460A1 (en) * 2009-09-17 2011-03-24 Time To Know Establishment Device, system, and method of educational content generation
US20110209117A1 (en) * 2010-02-23 2011-08-25 Gamesalad, Inc. Methods and systems related to creation of interactive multimdedia applications
EP2469474B1 (en) * 2010-12-24 2020-02-12 Dassault Systèmes Creation of a playable scene with an authoring system
US8671388B2 (en) * 2011-01-28 2014-03-11 International Business Machines Corporation Software development and programming through voice
US8826147B2 (en) 2011-05-06 2014-09-02 David H. Sitrick System and methodology for collaboration, with selective display of user input annotations among member computing appliances of a group/team
US8806352B2 (en) 2011-05-06 2014-08-12 David H. Sitrick System for collaboration of a specific image and utilizing selected annotations while viewing and relative to providing a display presentation
US9224129B2 (en) 2011-05-06 2015-12-29 David H. Sitrick System and methodology for multiple users concurrently working and viewing on a common project
US8875011B2 (en) 2011-05-06 2014-10-28 David H. Sitrick Systems and methodologies providing for collaboration among a plurality of users at a plurality of computing appliances
US8990677B2 (en) * 2011-05-06 2015-03-24 David H. Sitrick System and methodology for collaboration utilizing combined display with evolving common shared underlying image
US8914735B2 (en) 2011-05-06 2014-12-16 David H. Sitrick Systems and methodologies providing collaboration and display among a plurality of users
US8918721B2 (en) 2011-05-06 2014-12-23 David H. Sitrick Systems and methodologies providing for collaboration by respective users of a plurality of computing appliances working concurrently on a common project having an associated display
US10402485B2 (en) * 2011-05-06 2019-09-03 David H. Sitrick Systems and methodologies providing controlled collaboration among a plurality of users
US8918723B2 (en) 2011-05-06 2014-12-23 David H. Sitrick Systems and methodologies comprising a plurality of computing appliances having input apparatus and display apparatus and logically structured as a main team
US11611595B2 (en) 2011-05-06 2023-03-21 David H. Sitrick Systems and methodologies providing collaboration among a plurality of computing appliances, utilizing a plurality of areas of memory to store user input as associated with an associated computing appliance providing the input
US8918722B2 (en) 2011-05-06 2014-12-23 David H. Sitrick System and methodology for collaboration in groups with split screen displays
US8918724B2 (en) 2011-05-06 2014-12-23 David H. Sitrick Systems and methodologies providing controlled voice and data communication among a plurality of computing appliances associated as team members of at least one respective team or of a plurality of teams and sub-teams within the teams
US9330366B2 (en) 2011-05-06 2016-05-03 David H. Sitrick System and method for collaboration via team and role designation and control and management of annotations
US8924859B2 (en) 2011-05-06 2014-12-30 David H. Sitrick Systems and methodologies supporting collaboration of users as members of a team, among a plurality of computing appliances
US20130179308A1 (en) * 2012-01-10 2013-07-11 Gamesalad, Inc. Methods and Systems Related to Monetization Plug-Ins in Interactive Multimedia Applications
US20130232178A1 (en) * 2012-03-01 2013-09-05 Sony Pictures Technologies, Inc. Connecting storyboard system to editorial system
US9767720B2 (en) 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
US9030495B2 (en) 2012-11-21 2015-05-12 Microsoft Technology Licensing, Llc Augmented reality help
US11113773B2 (en) 2012-12-06 2021-09-07 Sony Interactive Entertainment LLC System and method for sharing digital objects
US10099115B2 (en) * 2012-12-06 2018-10-16 Sony Interactive Entertainment America Llc System and method for user creation of digital objects
US9449340B2 (en) * 2013-01-30 2016-09-20 Wal-Mart Stores, Inc. Method and system for managing an electronic shopping list with gestures
US20150165323A1 (en) * 2013-12-17 2015-06-18 Microsoft Corporation Analog undo for reversing virtual world edits
US20160019815A1 (en) * 2014-07-16 2016-01-21 Dee Gee Holdings, Llc System and method for instructional system design using gaming and simulation
EP3283994A4 (en) 2015-04-17 2018-12-19 Tulip Interfaces Inc. Monitoring tool usage
CN106126254B (zh) * 2016-06-29 2019-09-10 珠海金山网络游戏科技有限公司 一种关联的平视界面游戏编辑系统与方法
US11587190B1 (en) 2016-08-12 2023-02-21 Ryan M. Frischmann System and method for the tracking and management of skills
US11854430B2 (en) * 2016-11-23 2023-12-26 Sharelook Pte. Ltd. Learning platform with live broadcast events
US20180349837A1 (en) * 2017-05-19 2018-12-06 Hcl Technologies Limited System and method for inventory management within a warehouse
US10657118B2 (en) 2017-10-05 2020-05-19 Adobe Inc. Update basis for updating digital content in a digital medium environment
US10733262B2 (en) 2017-10-05 2020-08-04 Adobe Inc. Attribute control for updating digital content in a digital medium environment
US10685375B2 (en) 2017-10-12 2020-06-16 Adobe Inc. Digital media environment for analysis of components of content in a digital marketing campaign
US11551257B2 (en) 2017-10-12 2023-01-10 Adobe Inc. Digital media environment for analysis of audience segments in a digital marketing campaign
US10795647B2 (en) 2017-10-16 2020-10-06 Adobe, Inc. Application digital content control using an embedded machine learning module
US11544743B2 (en) 2017-10-16 2023-01-03 Adobe Inc. Digital content control based on shared machine learning properties
US10853766B2 (en) 2017-11-01 2020-12-01 Adobe Inc. Creative brief schema
US10991012B2 (en) 2017-11-01 2021-04-27 Adobe Inc. Creative brief-based content creation
US11550841B2 (en) * 2018-05-31 2023-01-10 Microsoft Technology Licensing, Llc Distributed computing system with a synthetic data as a service scene assembly engine
TWI740272B (zh) * 2019-11-14 2021-09-21 和碩聯合科技股份有限公司 寫入映像檔至記憶體之裝置、方法及其非暫態電腦可讀取媒體
CN113426111B (zh) * 2021-06-24 2023-08-15 咪咕互动娱乐有限公司 针对色弱的游戏处理方法、装置、设备及存储介质
US11829239B2 (en) 2021-11-17 2023-11-28 Adobe Inc. Managing machine learning model reconstruction
US12002011B2 (en) * 2022-01-10 2024-06-04 Lemon Inc. Content creation using a smart asset library

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11133846A (ja) * 1997-10-31 1999-05-21 Nippon Telegr & Teleph Corp <Ntt> 教材作成支援方法及びシステム及び教材作成支援プログラムを格納した記憶媒体
JP2000165840A (ja) * 1998-09-11 2000-06-16 Two Way Tv Ltd 対話型アプリケ―ション配信方法及び対話型アプリケ―ション配信装置
JP2003248419A (ja) * 2001-12-19 2003-09-05 Fuji Xerox Co Ltd 学習支援システム及び学習支援方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5310349A (en) * 1992-04-30 1994-05-10 Jostens Learning Corporation Instructional management system
US5890906A (en) * 1995-01-20 1999-04-06 Vincent J. Macri Method and apparatus for tutorial, self and assisted instruction directed to simulated preparation, training and competitive play and entertainment
US5736986A (en) * 1995-07-14 1998-04-07 Sever, Jr.; Frank Virtual reality mental conditioning medium
US6058397A (en) * 1997-04-08 2000-05-02 Mitsubishi Electric Information Technology Center America, Inc. 3D virtual environment creation management and delivery system
US6377263B1 (en) * 1997-07-07 2002-04-23 Aesthetic Solutions Intelligent software components for virtual worlds
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
US6405159B2 (en) * 1998-06-03 2002-06-11 Sbc Technology Resources, Inc. Method for categorizing, describing and modeling types of system users
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP3486180B2 (ja) * 2001-10-11 2004-01-13 コナミ株式会社 ゲームシステム及びコンピュータプログラム
US20030091970A1 (en) * 2001-11-09 2003-05-15 Altsim, Inc. And University Of Southern California Method and apparatus for advanced leadership training simulation
US7058896B2 (en) * 2002-01-16 2006-06-06 Silicon Graphics, Inc. System, method and computer program product for intuitive interactive navigation control in virtual environments
US20040166484A1 (en) * 2002-12-20 2004-08-26 Mark Alan Budke System and method for simulating training scenarios
US20040130566A1 (en) * 2003-01-07 2004-07-08 Prashant Banerjee Method for producing computerized multi-media presentation
US7434153B2 (en) * 2004-01-21 2008-10-07 Fuji Xerox Co., Ltd. Systems and methods for authoring a media presentation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11133846A (ja) * 1997-10-31 1999-05-21 Nippon Telegr & Teleph Corp <Ntt> 教材作成支援方法及びシステム及び教材作成支援プログラムを格納した記憶媒体
JP2000165840A (ja) * 1998-09-11 2000-06-16 Two Way Tv Ltd 対話型アプリケ―ション配信方法及び対話型アプリケ―ション配信装置
JP2003248419A (ja) * 2001-12-19 2003-09-05 Fuji Xerox Co Ltd 学習支援システム及び学習支援方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103785169A (zh) * 2013-12-18 2014-05-14 微软公司 混合现实的竞技场
JP2020027663A (ja) * 2019-09-16 2020-02-20 如如研創股▲分▼有限公司 仕様書作成部

Also Published As

Publication number Publication date
CN101048210B (zh) 2012-03-14
WO2006026620B1 (en) 2006-06-29
AU2005279846A1 (en) 2006-03-09
WO2006026620A3 (en) 2006-05-04
US20060048092A1 (en) 2006-03-02
CN101048210A (zh) 2007-10-03
CA2578479A1 (en) 2006-03-09
AU2010201125B2 (en) 2012-08-16
WO2006026620A2 (en) 2006-03-09
AU2010201125A1 (en) 2010-04-15
EP1791612A2 (en) 2007-06-06

Similar Documents

Publication Publication Date Title
JP2008516642A (ja) オブジェクト指向の複合現実感及びビデオゲームのオーサリングツール・システム及び方法
Shaer et al. A specification paradigm for the design and implementation of tangible user interfaces
Panëels et al. Prototyping 3D haptic data visualizations
Csapó Placing event-action-based visual programming in the process of computer science education
Voordijk et al. Virtual Reality learning environments and technological mediation in construction practice
Fayed et al. PWCT: a novel general-purpose visual programming language in support of pervasive application development
Xanthopoulos et al. An overview of location-based game authoring tools for education
Mehm et al. Introducing component-based templates into a game authoring tool
Ritsos et al. Training interpreters using virtual worlds
Panëels et al. HITPROTO: a tool for the rapid prototyping of haptic interactions for haptic data visualization
Kirner et al. Development of an educational spatial game using an augmented reality authoring tool
Ruiz et al. A Fully Implemented Didactic Tool for the Teaching of Interactive Software Systems.
Tang et al. A model driven serious games development approach for game-based learning
Ergin et al. A model-driven alternative to programming in blocks using rule-based transformations
Zakaria et al. The requirement scheme for tarannum smart learning application
Malek et al. A design framework for smart city learning scenarios
Sarhan The utilisation of games technology for environmental design education
Dang Instilling Computational Thinking through making Augmented Reality Application
Gómez et al. ProtoColVR: Requirements Gathering and Collaborative Rapid Prototyping of VR Training Simulators for Multidisciplinary Teams
Shaer A visual language for specifying and programming tangible user interfaces
Lauberte et al. Temperament identification methods and simulation
Karampatzakis et al. Educational Robotics at Schools Online with Augmented Reality
Pettersson et al. Perspectives on Ozlab in the cloud: A literature review of tools supporting Wizard-of-Oz experimentation, including an historical overview of 1971-2013 and notes on methodological issues and supporting generic tools
Harman Exploring the effect of visual immersion during procedural knowledge elicitation within virtual reality
George Narrative generation in entertainment: Using artificial intelligence planning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110920

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121230

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130106

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130111

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130131

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130227

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130306

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20130401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140217