JP4488612B2 - 複数次元ナレーションの記録及びプレイバック方法並びに装置 - Google Patents

複数次元ナレーションの記録及びプレイバック方法並びに装置 Download PDF

Info

Publication number
JP4488612B2
JP4488612B2 JP2000294581A JP2000294581A JP4488612B2 JP 4488612 B2 JP4488612 B2 JP 4488612B2 JP 2000294581 A JP2000294581 A JP 2000294581A JP 2000294581 A JP2000294581 A JP 2000294581A JP 4488612 B2 JP4488612 B2 JP 4488612B2
Authority
JP
Japan
Prior art keywords
dimensional
path
narration
audio
electronic document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000294581A
Other languages
English (en)
Other versions
JP2001147695A (ja
JP2001147695A5 (ja
Inventor
バラ マルコ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2001147695A publication Critical patent/JP2001147695A/ja
Publication of JP2001147695A5 publication Critical patent/JP2001147695A5/ja
Application granted granted Critical
Publication of JP4488612B2 publication Critical patent/JP4488612B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、電子情報のオーサリングの分野に係り、特に、複数次元ナレーションを記録、再生(プレイバック)する方法及び装置に関する。
【0002】
【従来の技術】
大半の一般的な人の一日は、口述媒体及び筆記媒体を含む多様なメカニズムを用いた他の人とのコミュニケーションによって費やされる。さらに、豊富な口述媒体コミュニケーション媒体と、豊かさに欠ける筆記コミュニケーション媒体との間には、屡々、兼ね合いがある。口述媒体は、交渉、明快化、説明、及び、主観的な見方の交換を行うことができ、筆記媒体は、大量の正確な客観的又は数値データの交換が可能である。
【0003】
口述コミュニケーションと筆記コミュニケーションの間の二分関係は、電子的領域にも同様に存在する。簡単なテキスト的な電子メールメッセージは、時々必要とされる表現的なコミュニケーションを容易に著すことができるが、一般的に豊かな表現的コミュニケーションを実現しない。
【0004】
【発明が解決しようとする課題】
これに対し、マルチメディアプレゼンテーションソフトウェアのように、より豊かな非常に表現的なメッセージを作成するツールは、非常に複雑で、かなり時間を要するので、気軽に使用したり、毎日使用したりすることは難しい。さらに、マルチメディアプレゼンテーションソフトウェアは、典型的に、コミュニケーションツールとして使用するために設計されていない。このソフトウェアを使用して作成されたマルチメディア文書は、聴衆に情報を提示するのに役立ち、ユーザ対話や自習には向かない。
【0005】
したがって、従来技術において生じる制限を解決する簡単かつ効率的なマルチメディア・オーサリング・ツールを作成する方法が必要である。
【0006】
【課題を解決するための手段】
本発明は、ウォークスルーナレーションを作成及び/又は再生する方法並びに装置である。一実施例において、本発明の方法は、3次元環境内で電子文書の複数次元表現を生成し、複数次元表現のナレーションを記録し、多数のモードの中の少なくとも一つのモードで再生できるように複数次元表現及びナレーションを蓄積する。
【0007】
【発明の実施の形態】
以下、添付図面を参照して本発明を例示的に説明するが、本発明はかかる実施例に制限されるものではない。図面中、同じ参照番号は類似した構成要素を示す。
【0008】
音声付文書の視覚的表現を生成する方法及び装置について説明する。以下の記載では、説明の目的のため、多数の具体的な細部が本発明の完全な理解が得られるように与えられる。しかし、当業者には明らかなように、本発明はそれらの具体的な細部を用いることなく実現され得る。別の例では、構成及び装置は、本発明が不明瞭になることを避けるためにブロック図形式で示されている。
【0009】
明細書中、「一つの実施例」あるいは「一実施例」という表現は、実施例と共に説明されている具体的な特徴、構成又は特性が本発明の少なくとも一つの実施例に含まれることを意味する。また、明細書中の多数の箇所に現れる句「一実施例において」は、同じ実施例を指しているとは限らない。
【0010】
以下の詳細な説明の一部分は、コンピュータメモリ内のデータビットに対する演算のアルゴリズム及び記号的表現で示されている。これらのアルゴリズムの説明文及び表現は、データ処理技術の当業者が自分の業績の実質を他の当業者に最も効率的に伝えるため、当業者によって使用される手段である。アルゴリズムは、一般的に、所望の結果を導くステップの理路整然としたシーケンスである。これらのステップは、物理量の物理的操作を要求するステップである。通常、これらの物理量は、必ずしも記憶、転送、合成、比較、並びに、その他の操作が可能な電子若しくは磁気信号の形式をとるとは限らない。これらの信号は、原理的に共通に使用するという理由のため、ビット、値、要素、シンボル、文字、項、数等として参照するのが好適な場合がある。
【0011】
しかし、上記の用語及び類似した用語は、適当な物理量と関連付けられ、これらの物理量に与えられた便宜的な呼び名に過ぎないことに注意する必要がある。以下の説明からわかるように、特に断らない限り、「プロセッシング(処理する)」、「コンピューティング」、「計算する」、「判定する」、「表示する」などの用語を使用した説明は、コンピュータシステムのレジスタ及びメモリ内で物理(電子的)量として表現されたデータを、コンピュータシステムのメモリ若しくはレジスタ、又は、その他の情報記憶装置、情報転送装置、若しくは、情報表示装置内で物理量として同様に表現されたデータに操作並びに変換するコンピュータシステム若しくは類似した電子コンピューティング装置の動作又はプロセスを表す。
【0012】
本発明は、以下に説明する演算を実行する装置にも関係する。この装置は、要求された目的のため特に構成され、或いは、コンピュータ内に記憶されたコンピュータプログラムによって選択的に作動若しくは再構成される汎用コンピュータでもよい。このようなコンピュータプログラムは、たとえば、フロッピーディスク、光ディスク、CD−ROM及び光磁気ディスクを含む任意のタイプのディスク、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気若しくは光カード、又は、コンピュータシステムバスに接続され、電子命令を記憶するため適した任意のタイプの媒体のようなコンピュータ読み取り可能な記録媒体に格納されるが、これらの記録媒体に限定されるものではない。
【0013】
以下に説明するアルゴリズム及び表示内容は、特定のコンピュータ若しくはその他の装置に本来的に関連するものではない。多数の汎用システムが以下に開示された事項に従うプログラムと共に使用され、或いは、要求される方法のステップを実行するためにはより専用化された装置を構築する方が好都合であることがわかる。上記の多様なシステムに要求される構造は、以下の説明から明らかになる。さらに、本発明は、特定のプログラミング言語に関して説明されない。以下に説明される本発明の技術を実現するため多数のプログラミング言語を使用可能であることがわかる。
【0014】
図1には、多数の電子文書が表示された電子表示装置が示されている。図1を参照するに、表示装置100は、電子文書及びデータを表示するため装備された装置により構成される。表示装置100は、たとえば、陰極線管(CRT)、液晶ディスプレイ(LCD)、或いは、その他の同様に装備された表示装置、スクリーン若しくはモニターである。位置実施例において、表示装置100は、接触感応型透明パネルによってスクリーンが覆われたタッチスクリーンである。また、同図において、表示装置100はコネクタケーブル155を介してコントロールユニット150に接続される。コネクタケーブル155は表示装置100の外部又は内部のいずれに設けられても構わない。
【0015】
コントロールユニット150は、電子表示信号を表示装置100に供給するため装備された算術論理ユニット、マイクロプロセッサ、汎用コンピュータ、PDA(パーソナル・ディジタル・アシスタント)、又は、その他の情報機器などにより構成される。位置実施例において、コントロールユニット150は、たとえば、Windows(R)又はJAVA R ベースのオペレーティングシステムを用いて生成されたグラフィカル・ユーザ・インタフェースをもつ汎用コンピュータである。一実施例において、電子文書110、120、130及び140は、コントロールユニット150により実行される一つ以上のアプリケーションプログラムによって生成される。アプリケーションプログラムの中には、たとえば、ワード・プロセッシング・アプリケーション、電子メールアプリケーション、表計算アプリケーション、及び、ウェブ・ブラウザ・アプリケーションなどが含まれるが、これらの例に限定されない。一実施例において、コントロールユニット150によって実行されるオペレーティングシステム及び/又は一つ以上のアプリケーションプログラムは、電子文書110、120、130及び140のような各電子文書が別々のデータオブジェクトとしてカプセル化される「ドラッグ・アンド・ドロップ」機能を提供する。
【0016】
再度、図1を参照するに、コネクタケーブル155は、コントロールユニット150のような装置からの表示信号を、表示装置100のような表示装置につなぐため従来技術において知られている任意のコネクタを表す。他の実施例において、コントロールユニット150は表示装置100内にあり、コネクタケーブル155を使用する必要がなく、或いは、コネクタケーブル155は表示装置100の内部で使用される。
【0017】
図2は、コンピュータシステムの一実施例のブロック図である。図2を参照するに、コントロールユニット150は、プロセッサ102と、メインメモリ104と、データ記憶装置107とを含み、これらの全ては、システムバス101に通信接続される。
【0018】
プロセッサ102は、データ信号を処理し、複雑命令セット・コンピュータ(CISC)アーキテクチャー、縮小命令セット・コンピュータ (RISC)アーキテクチャー、或いは、上記命令セットの組み合わせを実行するアーキテクチャーを含む多数のコンピューティングアーキテクチャーにより構成される。図2には、1台のプロセッサしか図示されていないが、多数のプロセッサを使用してもよい。
【0019】
メインメモリ104は、プロセッサ102によって実行される命令及び/又はデータを記憶する。命令及び/又はデータは、以下に説明される技術の一部及び/又は全部を実行するコードを含む。メインメモリ104は、ダイナミックランダムアクセスメモリ(DRAM)装置、スタティックランダムアクセスメモリ(SRAM)装置、若しくは、その他の公知のメモリ装置などである。
【0020】
データ記憶装置107は、プロセッサ102のためのデータ及び命令を記憶し、ハードディスクドライブ、フロッピーディスクドライブ、CD-ROM装置、DVD-ROM装置、DVD−RAM装置、DVD-RW装置、フラッシュメモリ、或いは、その他の公知の大容量記憶装置を含む一つ以上の装置により構成される。
【0021】
システムバス101は、コントロールユニット150の全体で情報及びデータを通信する共有バスを表す。システムバス101は、工業標準規格(ISA)バス、周辺コンポーネント相互接続(PCI)バス、汎用シリアルバス(USB)、或いは、同等の機能を提供するその他の公知のバスを含む一つ以上のバスを表す。
【0022】
システムバス101を介してコントロールユニット150に接続された付加コンポーネントには、表示装置100、キーボード122、カーソルコントロール装置123、ネットワークコントローラ124及び音声装置125が含まれる。表示装置100は、電子画像及びデータを表示するため装備された任意の装置を表す。表示装置100は、陰極線管(CRT)、液晶ディスプレイ(LCD)、或いは、その他の同様に装備された表示装置、スクリーン、モニターである。キーボード122は、情報及びコマンド選択をプロセッサ102に通知するためコントロールユニット150に接続された英数字入力装置を表す。カーソルコントロール123は、位置的データ及びコマンド選択をプロセッサ102に通知するため装備されたユーザ入力装置を表す。カーソルコントロール123には、マウス、トラックボール、スタイラス、ペン、カーソル矢印キー、或いは、カーソルの動きを生じさせるその他のメカニズムが含まれる。ネットワークコントローラ124は、コントロールユニット150を、多数のプロセッシングシステムを収容するネットワークに連結する。プロセッシングシステムのネットワークは、ローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)(たとえば、インターネット)、及び/又は、多数の装置が通信するため使用するその他の相互接続型データパスを含む。
【0023】
音声装置125はシステムバス101に接続され、音声入力を受信し、音声出力を送信するため設けられる。音声入力は、音声装置125内のマイクロホン及びネットワークコントローラ124を含む多数の装置を用いて受信される。同様に、音声出力は、プロセッサ102及びネットワークコントローラ124を含む多数の装置によって発生される。一実施例において、音声装置125は、汎用コンピュータシステム内で用いるため設計された汎用音声・アドイン拡張カードである。選択的に、音声装置125は、音声プロセッシングを容易に実現するため、一つ以上のアナログ・ディジタル変換器、又は、ディジタル・アナログ変換器、及び/又は、一つ以上のディジタル信号プロセッサを含む。
【0024】
制御ユニット150は、本発明の精神及び範囲を逸脱することなく、図2に示された一つ以上のコンポーネントを含むことは、当業者に明らかである。たとえば、コントロールユニット150は、たとえば、1次レベル若しくは2次レベルのキャッシュのような付加メモリ、又は、特定用途集積回路(ASIC)を含む。同様に、付加的なコンポーネントが、たとえば、イメージスキャニング装置、ディジタルスチル若しくはビデオカメラ、或いは、電子データを捕捉し、及び/又は、電子データをコントロールユニット150にダウンロードするため装備された、若しくは、装備されていないその他の装置を含むコントロールユニット150に接続される。
【0025】
[音声ナレーション]
一実施例によれば、表示装置に表示された一つ以上の電子文書又は画像を選択的に説明する可変長音声ナレーションを記録することができる。一実施例では、表示画面でクリック動作、ポインティング動作、又は、接触動作を行って表示画面上で位置を指定することにより、音声レコーディングが開始され、動的に調節可能な音声メーターが表示される。音声メーターのサイズは、音声メーターが動いている間に記録された音声の量に比例して増大する。音声レコーディングは、音声レベルが所定の閾値よりも低下したときに停止し、或いは、特定のユーザ入力に応じて停止する。一実施例では、更なる位置的イベントが受信される毎に、新しい音声メーターが生成され、前の音声メーターは調節できなくなり、止まった状態になる。
【0026】
用語「位置的イベント」は、コントロールユニットによって追跡された時点と共に表示画面上の電子的ロケーションを同時に示すことができる入力を表現する。多数の入力源がコンピュータマウス、トラックボール、スタイラス若しくはペン、及び、カーソルコントロールキーのような位置的イベントを発生するが、これらの位置的イベントには制限されない。同様に、タッチスクリーンは、位置的イベントを生成及び検出することができる。一実施例において、位置的イベントは、コントロールユニット150によって検出され、他の実施例において、位置的イベントは表示装置100によって検出される。
【0027】
一実施例において、マウスのクリックやタッチスクリーンの接触のような位置的イベントが発生した後、音声メーターが表示装置100上で位置的イベントによって指定されたロケーションに生成される。音声メーターが生成されたときと実質的に同じ時点で、コントロールユニット150、又は、コントロールユニット150に接続された同様に装備された装置は、音声入力を記録し始める。一実施例において、表示された音声メーターのサイズは、コントロールユニット150、又は、コントロールユニット150に接続された同様に装備された装置によって記録された音声の量を比例的に示すように動的に調整される。音声は、音声装置125又は類似した音声ハードウェア(ソフトウェア)を通じてコントロールユニット150によって記録され、音声は、データ記憶装置107、又は、同様に装備された音声記憶装置の内部に記憶される。一実施例において、コントロールユニット150は、位置的イベントの検出に応じて音声レコーディングを開始し、一方、他の実施例では、コントロールユニット150は、所定の閾値レベルを超える音声入力が検出されると自動的に音声レコーディングを開始する。他の実施例では、オンスクリーンボタン若しくは物理的なボタンの組がレコーディングを制御するため使用される。音声コントロール用のボタンは周知であり、「録音」、「再生」、「一時停止」、「早送り」、「巻き戻し」などを含む。同様に、音声レコーディングは、音声レベルが所定の閾値よりも低下した後、或いは、コントロールユニット150が音声入力の存在しない所定の無音区間を検出した後に自動的に終了される。
【0028】
図3の(A)は、関連した音声メーターと共に表示されたディジタル写真形式の電子文書を示す図である。図3の(A)を参照するに、電子文書130が表示装置100に示されている。他の実施例では、電子文書130は、大きい画像若しくは文書の縮小サイズの「サムネイル」表現として現れる。
【0029】
一実施例において、音声メーター232は、電子文書130の上に重ね合わせて表示され、開始インジケータ234及び停止インジケータ236を含む。開始インジケータ234は、音声メーター232に対する初期位置的イベントが検出されたロケーションをマークし、停止インジケータ236は、動的に調整されている間に音声メーター232が終了するロケーションをマークする。一実施例において、音声メーターは、音声入力の停止、若しくは、音声入力が最小閾値レベルよりも低下した結果として、動的調整されなくなる。図3の(A)では、音声メーター232と関連した位置的イベントが電子文書130上にあるポイント(開始インジケータ234で示される)で検出されるので、次に、音声メーター232が電子文書130上に生成される。一実施例において、音声メーターは半透明で描画されるので、電子文書130のような音声メーターの下にある電子文書は、可視化された状態を保つ。音声メーターは、記録された音声波形又は音声及び無音のセグメントをグラフ的に表示する。
【0030】
本実施例による方法に従って記録された音声は、どのような方法でも再生される。一実施例では、記録された音声は、コントロールユニット150が、対応した音声メーターの開始インジケータ上のロケーション、又は、実質的に開始インジケータ近傍のロケーションを示す位置的イベントを検出したときに再生される。他の実施例の場合、記録された音声は、コントロールユニット150が、関連した音声メーター若しくは電子文書のいずれかの箇所のロケーション、若しくは、実質的にいずれかの箇所の近傍にあるロケーションを示す位置的イベントを検出したとき、又は、ユーザが上述のボタンを押下したときに再生される。
【0031】
音声メーターは、プログレスパック233のような応答進捗インジケータを含む。一実施例において、記録された音声が再生されるとき、プログレスパック233は、記録された音声の中で再生された量と、記録された音声の中で未だ再生されていない量とを示すため、音声メーター232に沿って移動する。図3の(A)において、プログレスパック233は、音声メーター232に関連して記録された音声の中の約50%が再生されたことを示す。他の実施例において、プログレスインジケータは、音声メーター232に沿って進行する多様な幾何学的形状、若しくは、色のバリエーションを含む別の形式をとる。一実施例において、記録された音声は、停止インジケータ236上のロケーション、若しくは、停止インジケータ236の実質的に近傍のロケーションを示す位置的イベントが検出される間、又は、音声メーターに関連して予め記録された全ての音声が再生されるまで、再生され続ける。音声メーターは、選択的に「一時停止」インジケータを含む。一時停止インジケータは、選択されたとき、記録又は再生を一時的に停止し、「再開」インジケータは、一時停止の後、記録又は再生を再開する。
【0032】
参照マーカーは、記録された音声内容の認識を助けるため利用される。図3の(B)は、参照マーカーを含む音声メーターの例を示す図である。図3の(B)を参照するに、音声メーター242は、開始インジケータ244及び停止インジケータ246を含み、電子文書140の下側のロケーションで表示装置100に表示される。勿論、音声メーター242は、電子文書140の上に重ねて表示しても構わない。参照マーカー252及び254は、音声メーター242を電子文書140とグラフ的に連結する。参照マーカー252及び254は、音声メーター242上の時間的依存性のあるロケーションから、電子文書140内のユーザが指定したロケーションまで延びる。一実施例において、参照マーカー252及び254は、半透明で描画されるので、電子文書140の内容は参照マーカー252及び254を通して見ることができる。
【0033】
一実施例において、参照マーカー252及び254は、音声がコントロールユニット150によって記録されている間に、表示装置100上に生成される。既に説明した一実施例によれば、音声が記録され、音声メーター242は、システム(コントロールユニット150又は表示装置100)が位置的イベントを検出するのに応じて生成される。音声が記録され続けるとき、対応した音声メーター242のサイズは、記録された音声の量を反映するように比例的に調整される。一実施例において、音声メーター242が調整される間に(たとえば、音声が記録されている間に)、システムが電子文書上のロケーション、又は、電子文書の実質的に近傍にあるロケーションを示す付加的な位置的イベントを検出した場合、システムは、音声メーター242の終了ポイントを電子文書上に指定されたロケーションに連結する参照マークを生成する。音声メーター242の場合に、参照マーカー252は時点T1に検出された位置的イベントによって始動され、参照マーカー254は後の時点T2に検出された位置的イベントによって始動される。一実施例の場合、記録された音声の再生中に、参照マーカー252は、記録された音声が時点T1に達したとき表示装置100上に表示され、参照マーカー254は、記録された音声が時点T2に達したとき表示装置100上に表示される。
【0034】
参照マーカーがグラフ的に連結された電子文書上のロケーションは、電子文書が画像である場合に座標(x,y)で表現され、電子文書が線形文書である場合には一つの座標で表現される。線形文書の例は、平文テキスト文書、ハイパーテキストマークアップ言語(HTML)文書、又は、拡張可能マークアップ言語(XML)を含むその他のマークアップ言語ベースの文書などである。
【0035】
一実施例において、音声記録中に、システムが、電子文書上、又は、電子文書の実質的に近傍には置かれていない付加的な位置的イベントを検出した場合、コントロールユニット150は、参照マーカーではなく、付加的な音声メーターを生成する。付加的な音声メーターは、上述の最初の音声メーターと同様に生成される。一実施例において、コントロールユニット150は、多数の音声メーターを、生成された順番でグラフ的に連結する。音声再生時に、コントロールユニット150は、記録された音声を、音声が記録された時間の旧い方から順番に再生する。一実施例において、一つ以上のプログレスインジケータは、音声メーター毎に再生された音声の量を表示するため利用される。他の実施例の場合、一方の音声メーターから別の音声メーターに音声再生の順序に対応した順番で移る単一のプログレスインジケータが使用される。
【0036】
一実施例において、音声メーター、参照マーカー、電子文書サムネイル、及び、アイコンのようなオブジェクトは、通常の「ドラッグ」操作を用いて表示装置100上の至る場所で、個別に、或いは、グループとして再配置される。しかし、参照される文書のロケーションと、参照が行われた時点のタイムスタンプとを含むデータファイルは増大する。このようなデータファイルに関する詳細な説明は後述する。
【0037】
他の実施例において、ユーザの会話は、「対象指示的な」ジェスチュア(たとえば、オブジェクトの参照)と共に記録される。一実施例において、インタフェースは、画面に表示される多数のオブジェクトを含む。このような場合に、レコーディングは、ユーザが「記録」ボタンを押したとき、或いは、システムがマイクロホンを通じて会話の開始を検出したときに始められる。ユーザがタッチスクリーン上のオブジェクトのグラフィック表現に触れるとき、タイムスタンプ付きのイベントが記録される。レコーディングは、ユーザが「停止」ボタンを押下したとき、又は、システムが会話の終了を検出したときに終わる。このメッセージを再生するとき、システムは音声を再生し、適宜、参照されたオブジェクトを表示する。
【0038】
一実施例において、システムは、ユーザが音声ナレーションを記録し、カメラからアップロードされたディジタル写真をタッチスクリーン上で触るだけで参照できるようにする。得られた表現内容は、マルチメディア記述言語SMIL及びRealPixを用いて蓄積され、普及しているRealPlayerを用いて再生することができる。触られたロケーションをより精確に監視する簡単な拡張によって、ユーザはオブジェクト内の点若しくは領域を参照することができる。再生時、このようなジェスチュアは、画像若しくは文書に重ね合わされた強調ストロークになる。
【0039】
[マルチメディアナレーション(履歴)]
マルチメディアナレーション(履歴)は、個別のナレーションと、多種類の電子文書への1回以上の参照とを含む特別のタイプの音声ナレーション部分である。多数のサブ履歴は、個々に単一のナレーションを有し、より大きいマルチメディア履歴を形成するため合成される。マルチメディア履歴内で、一人以上の人は、たとえば、ハイパーリングを含むウェブページ、音声ナレーションを含むスライドショー、テキスト注釈を含むテキスト文書、走査された文書画像、ワードプロセッサ文書、プレゼンテーションなどの多種類の電子文書を記述することができる。勿論、記述できる電子文書はこれらの例に制限されるものではない。電子文書全体の内容、或いは、電子文書中の特定領域への参照が行われる。サブ履歴の直線的な順序が指定され、サブ履歴をデフォルト順序で再生することができる。
【0040】
図4には、マルチメディア履歴の一例が示されている。図4を参照するに、マルチメディア履歴300は、第1のサブ履歴320及び第2のサブ履歴340を含む。第1のサブ履歴320はナレーション321を含み、第2のサブ履歴340はナレーション342を含む。一実施例において、ナレーションは、所定のテーマ若しくは議題について記録された音声のストリームである。図4において、ナレーション321は、3個の別々の音声クリップの順序付きリストに区分され、第2のサブ履歴のナレーション342は一つの音声クリップ344だけを含む。
【0041】
各ナレーションは、多数の電子文書に対し一つ以上の参照を行う。たとえば、ナレーション321は、各電子文書324、328及び332に対し1回ずつ、全部で3回の参照を含む。しかし、ナレーション342は、一つの電子文書346に対し1箇所だけ参照する。ナレーション内の各音声クリップは、任意の数の電子文書に対し任意の回数の参照を行うか、或いは、全く参照しない場合もある。たとえば、音声クリップ322は、電子文書324の1箇所だけを参照し、音声クリップ326は、電子文書328を1回だけ参照し、文書322を1回だけ参照し、電子文書332を1回だけ参照し、音声クリップ330は全く参照を行わない。
【0042】
各参照は、参照ポイント323で示されるような電子文書全体を指定するか、或いは、参照ポイント327によって示されるように、電子文書内の特定の領域を指定する。このような参照ポイントを表現する座標は、参照先の電子文書のタイプに依存して異なる解釈を有する。たとえば、電子文書が画像である場合、参照ポイントの座標は絶対画素座標である。しかし、文書がウェブページである場合、参照ポイントの座標はHTMLファイル内の文字位置である。ページ画像の系列として記憶された文書の場合、参照ポイントは、ページ番号プラス座標(x,y)である。或いは、文書がPostscript又はPDF(ポータブル文書フォーマット)のようなレイアウト言語で表現される場合、座標はファイル内の文字位置でもよい。したがって、描写中(再生中)に、この座標は画面の位置に変換される。
【0043】
図4に関して説明したマルチメディア履歴は、XML及びHTMLを含む一つ以上のマークアップ言語で表現される。図5には、図4に示されたマルチメディア履歴に対するXML表現の一実施例が示されている。
【0044】
[マルチメディアメッセージング]
電子メール(email)ソフトウェアは、一般的に、オリジナルの電子メールメッセージが返信文中に取り込まれるオプションを提供する。典型的に電子メール返信文は、オリジナルメッセージの行の間に散在させること、又は、一つのブロックとしてオリジナルメッセージの後に追加すること、若しくは、オリジナルメッセージの前に挿入することが可能である。マルチメディア履歴は、同様に、従来技術において公知の多種の容易に利用可能な電子メールアプリケーションを用いてネットワーク経由で転送される。
【0045】
図6は、マルチメディア履歴の一実施例の説明図である。図6を参照するに、電子文書412及びアイコン426が音声メーター410及び420、並びに、種々の参照マーカーと共に示されている。電子文書412は、縮小されたサムネイルサイズでワードプロセッシング文書を表し、一方、アイコン426は、同じワードプロセッシング文書の絵文字化されたフォーマットを表し、文書のテキストは表示されていない。一実施例において、アイコン426で表現された電子文書の全テキストは、マウスのようなカーソルコントロール入力装置を用いてアイコン426をクリック若しくは選択することにより視覚化される。同図において、音声メーター410は、参照マーカー414によって電子文書412にグラフ的に連結され、一方、音声メーター420は参照マーカー424によってアイコン426にグラフ的に連結される。
【0046】
さらに、音声メーター410及び420は、コネクタ415によって相互に連結される。このコネクタは、音声メーター410及び420によって表現された二つの音声クリップが履歴的に隣接している(すなわち、音声メーター420は音声メーター410の次に記録された)ことを示す。この連結は、履歴的な順序だけを示す。しかし、ユーザは、ディスプレイ上の任意の場所にメーターを配置することができる。一実施例において、同じユーザによって記録された音声クリップは、関連しているとみなされる。一実施例において、音声を記録したユーザの顔画像が対応した音声メーターの傍に表示される。図6において、顔画像402は、音声メーター410及び420に対応した音声を記録したユーザ“A”を表現する。一実施例において、顔画像は、システムに接続されたビデオカメラによって、記録中に捕捉される。他の実施例では、顔画像はデータベースから入手される。
【0047】
図6に示されたマルチメディア履歴が作成された後、ユーザ“A”は、電子メールを用いて、マルチメディア履歴を他のユーザに送信する。一実施例において、マルチメディア履歴を他のユーザに送信するため、(図5に示されるような)マルチメディア履歴のXML表現が作成される。XML表現は、保存されたロケーションを指定するURLアドレスを用いて、種々の電子文書及び音声クリップを参照する。一実施例において、マルチメディア履歴のコンテンツは、あて先のウェブサーバーに転送され、保存され、一方、他の実施例では、コンテンツはユーザのパーソナルコンピュータ上にローカルに保存される。たとえば、インターネット環境では、マルチメディア履歴のコンテンツは、ユーザのパーソナルコンピュータ上に常駐し、ウェブインタフェースを介して他からもアクセスすることができる。マルチメディア履歴のXML表現が作成された後、XML表現を指定するユニークなURLは、次に、別のユーザ、たとえば、ユーザ“B”に電子メールされる。
【0048】
XML URLを含む電子メールの受信後、ユーザ“B”には、いくつかの視覚化のオプションがある。一実施例において、XML表現を収容したURLにアクセスした後、ユーザ“B”がXML表現を視覚化するための適当なアプリケーションを持つ場合、XML表現は、メッセージを作成し、再生するため解析(パース)される。他の実施例において、ユーザがXML表現をみるための適当なアプリケーションを持たない場合、メッセージは、代わりに、標準的なHTMLベースのウェブページとして表示される。すなわち、一つ以上の電子文書及び音声クリップを指定する個々のURLを含むXML表現は、履歴ではなく、個別のハイパーリンクのリストとして表示される。さらに別の実施例では、メッセージは、ワールド・ワイド・ウェブ(WWW)コンソーシアムで詳細化された同期式マルチメディア統合言語(SMIL)フォーマット化ファイルに翻訳される。Real Networks, Inc.から入手可能なRealPlayer G2のようなビューアを使用することにより、ユーザ“B”は、音声クリップ及び対応した電子文書並びに参照事項が記録された順序のような特定の順序で同時に表示されるサイドショーとして、SMILメッセージを閲覧する。
【0049】
受信されたマルチメディア履歴メッセージへのアクセスは、アクセス制御機能によって自由選択的に制限される。一実施例において、ユーザは、自分が送信者若しくは指定された受信者である場合に限り、メッセージを獲得する。他の十知れにおいて、ユーザは、たとえば、メッセージをアクセスする前にユーザ名及び/又はパスワードを用いて自分自身を認証することを要求される。
【0050】
ユーザ“B”はメッセージを受信した後、(音声メーターによって表現された)付加的な電子文書及び音声クリップを加えることによって返信する。図7には、図6に示されたマルチメディア履歴を含む電子メールメッセージへの返信の一実施例が示されている。図6に示された項目の他に、図7は、参照マーカー434及び436を含む第3の音声メーター430を更に含む。音声メーター430は、図6に示されたオリジナルメッセージにユーザ“B”によって付加された音声クリップを表現する。一実施例において、ユーザ“B”によって作成された音声メーター430は、ユーザ“A”によって作成された音声メーター410及び420とは異なる色で表示される。参照マーカー436は、音声メーター430を新たに追加された電子文書480とグラフ的に連結する。一方、参照マーカー434は、音声メーター430を先に表示されたアイコン426と連結する。ユーザ“B”は、画面上の至る所にメーターを配置することができるが、同図においてディスプレイ上の要素を連結するラインは履歴的な順序を示している。
【0051】
ユーザ“B”がユーザ“A”から受信したメッセージ又はマルチメディア履歴への応答に入った後、ユーザ“B”は、ユーザ“A”又は一部の他のユーザ若しくはユーザのグループに応答を送信する。応答がユーザ“A”に返信された場合、一実施例では、ユーザ“A”は、最初に、ユーザ“B”によってユーザ“A”のメッセージに追加された事項を聴く。すなわち、ユーザ“A”は、受信時に、音声メーター430によって表現された記録音声を聴く。
【0052】
一実施例において、マルチメディア履歴メッセージは、選択的に可視化される別個のユーザの付加物若しくは応答と共に表示される。図8は、マルチメディア履歴のセグメントを選択的に視覚化することができるマルチメディア履歴メッセージングインタフェースの一実施例を示す図である。図8を参照するに、メッセージングインタフェース470は、表示装置100に表示される。メッセージングインタフェース470は、音声メーター440、442、450及び452と、顔画像402と、タブ460〜465とを含む。音声メーター440及び442は、エンドユーザ“A”(顔画像402)によって予め記録された音声を表現し、音声メーター450及び452は、エンドユーザ“A”によって現在製作されている音声を表現する。一実施例において、各タブ460〜465は、個別に選択可能であり、ユーザ“A”と、ユーザ“B”のような別のユーザの間で進行中の会話の1セグメントを表現する。たとえば、選択されたとき、タブ461は、ユーザ“A”からユーザ“B”へのオリジナルメッセージを表示する。これに対し、タブ462は、選択されたときに、ユーザ“A”のオリジナルメッセージへのユーザ“B”の応答を表示する。同様に、タブ463は、選択されたとき、ユーザ“B”の応答に対するユーザ“A”の応答(破線の枠445で示される)を表示する。一実施例において、任意の数の過去のメッセージ若しくは応答文が、新しいメッセージ又は応答文の作成中に選択的に視覚化される。たとえば、(タブ463と関連し、図中、破線の枠445で示された)ユーザ“A”の応答は、(タブ465と関連し、図中、破線の枠455で示された)ユーザ“A”が作成途中のメッセージと共に表示される。ユーザ“A”が現在作成中のメッセージを完成したとき、ユーザ“A”は、そのメッセージを上述の方法で電子メールする。タブ460〜465は、対応したメッセージの作成時と、そのメッセージの作成者の名前とを用いてラベル付けされる。
【0053】
[3次元的ウォークスルー]
複数次元ウォークスルーナレーションの記録及び再生を行う方法並びに装置について説明する。3次元モデリング言語は、既存の電子文書を用いて3次元環境を自動的に作成するため使用される。オブジェクトは3次元(3D)である。一実施例において、オブジェクトは、表示装置100のような2次元ディスプレイに表示される。他の実施例の場合、3次元ディスプレイ(たとえば、ヘッドマウント式めがね)が使用され得る。
【0054】
第1のユーザ、すなわち、作者は、選択されたパス及び付随した音声入力を同時に記録しながら3次元環境の全域を通る。二つの再生モードうちの一方で、第2のユーザは、作者によって選択されたパスに対応した3次元シーンのウォークスルーが示される。もう一方の再生モードで、第2のユーザは、作者のパスが表示されている間に、3次元世界を自由に進む。
【0055】
[生成]
図9には、3次元環境の一実施例が示される。図5を参照するに、表示装置100は、六面体510、515及び520を含む3次元環境又は世界を表示する。一実施例において、3次元環境は、六面体510、515及び520以外には何も含まない。他の実施例において、3次元環境は、必要に応じて、付加的な審美的又は実体的な図形を含む。
【0056】
六面体510、515及び520は、図9には3次元的に描写され、3次元世界内に設置される。他の実施例において、六面体510、515及び520は、他の種々の形状の図形によって置き換えられる。一実施例では、たとえば、六面体は、3次元球体によって置換され、他の実施例では、六面体は3次元円柱体又は直角プリズムによって置換される。本発明の精神並びに範囲を逸脱することなく種々のサイズ及び形状の図形を使用することができる。
【0057】
図9では、六面体510、515及び520の上に、それぞれ、電子文書512、516及び522が示されている。3次元環境の場合、電子文書512、516及び522は、六面体510、515及び520の上に重なって見える。一実施例において、電子文書512及び522は、ディジタル写真を表し、電子文書516は、ワードプロセッシング文書を示す。電子文書の更なる形式には、ディジタル化された音声及びビデオ、電子スプレッドシート、電子データベース、ハイパーテキストマークアップ言語及びウェブ文書、並びに、電子メールが含まれるが、これらの例に限定されない。電子文書512、516及び522は、個々では説明していない類似したタイプのコンテンツ及びメディアを表現してもよい。
【0058】
一実施例において、2次元縮小サイズ「サムネイル」画像が作成され、六面体510、515及び520のような3次元的に描写された図形の上に重ね合わされる。かくして、2次元画像は、その画像の3次元表現に変換される。位置実施例において、六面体510、515及び520は、拡張マークアップ言語(XML)を用いて定義される。他の実施例において、VRML、3DML及びX3Dのような3次元モデリング言語が使用される。
【0059】
各3次元図形が生成されるとき、3次元図形は3次元環境内に表示される。一実施例において、各3次元図形は、生成された通りに、3次元環境内でランダムに配置され、若しくは、表示される。他の実施例において、各3次元図形は、配置スキームにしたがって、それ以外の既存の3次元図形に関して表示される。一実施例において、配置スキームは、3次元図形内に収容された電子文書の特性に基づく。配置スキームの例には、作成時間、コンテンツ、及び、メディア種別が含まれるが、これらの例に限定されるものではない。さらに別の実施例では、3次元図形は、互いに予め決められた一定間隔で表示される。多数の配置スキームにしたがって3次元図形を表示することにより、作者は、ユーザにとってわかり易くなるように、ある種の情報をグループ化若しくは類別することができる。一実施例において、ユーザ、すなわち、作成後に3次元環境を通る人は、自分の系統化の好みに応じて、3次元図形を再配置することができる。
【0060】
[レコーディング]
3次元環境が作成されると、ユーザがその中を通る。一実施例において、ナビゲーションは、Moutain View, California所在のSilicon Graphics, Inc.から入手可能な仮想現実モデリング言語(VRML)ビューア、及び、San Francisco, California所在のFlatland Online Inc.から入手可能なFlatland Roverのような3次元モデリング言語(3DML)を含む容易に利用可能な"player"アプリケーションを用いて実現することができる。一実施例において、作者と呼ばれる特別なユーザのクラスは、作者の仮想動きを記録しながら3次元環境を通ることができる。用語「レコーディング」は、3次元環境に関して、ユーザによって生成されたナビゲーション用の音声入力を確保するプロセスを記述することを意味する。
【0061】
一実施例において、作者は、プロセッサ102のようなプロセッシング装置が作者の動きを記録する間に、3次元環境内を通る。ナビゲート中に作者によって叙述された音声も記録され、これにより、ウォークスルーが作成される。一実施例において、音声が記録されるとき、音声は、音声入力を、セグメンテーションスキームにしたがって、区間が異なる多数の音声クリップに分割するように区分けされる。音声は上述の通り記録される。したがって、一実施例において、2次元マルチメディア履歴は、3次元ウォークスルーとして作成され、視覚化され、その逆に、3次元ウォークスルーは2次元マルチメディア履歴として作成され、視覚化される。同様に、他の実施例では、ビデオコンテンツが記録され、音声の代わりに区分けされる。作者が3次元図形に向かって進むとき、図形の上に重ねられた電子文書が拡大されて作者に提示される。図形に接近することにより、作者は、図形若しくは図形に収容された電子文書をより詳細に見ることができる。このような状況では、playerアプリケーションは、作者が別々の全画面表示、他の表示部分、或いは、ウォークスルーの上に重なる表示の専用部分で電子文書を見る機会を与える。
【0062】
図10は、本発明の一実施例に従って記録されたパスを表す3次元環境を示す図である。図10を参照するに、表示装置100は、3次元立法体510、515及び520と、パス610とを含む3次元環境を表示する。パス610は、作者が通過したパスを表現する。パス610は線で示されているが、他の実施例では、パス610は種々のほかの形状をとり得る。一実施例において、パス610は単色で表示されるが、他の実施例では、パス610は多色で表示され、或いは、半透明に見える。
【0063】
図11は、図10に示された3次元環境の2次元上面図の一実施例を示す。図11を参照するに、3次元六面体510、515及び520は、それぞれ、近接インジケータ710、715及び720によって表される。一実施例において、各近接インジケータ710、715及び720は、特定のメディアクリップ若しくはセグメントと関連した制限領域を表現する。一実施例において、メディアクリップは音声コンテンツを格納し、他の実施例では、メディアクリップはビデオコンテンツを格納する。
【0064】
一実施例において、各近接インジケータは、その近接インジケータによって囲まれた3次元図形に関係していると思われる音声セグメント若しくはビデオセグメントに関連付けられる。一実施例において、多数の3次元画像が単一の近接インジケータ内に存在し、他の実施例では、多数の近接インジケータが一つの3次元図形の境界を定める。
【0065】
[再生]
3次元マルチメディアナレーションのユーザは、受動モード若しくは能動モードで、記録された3次元ウォークスルーの再生を行うかどうかを選択することができる。
【0066】
一実施例によれば、受動モードの場合に、ウォークスルーが記録されたときに作者が通過したパスに対応した3次元ウォークスルーがユーザに提示される点で、再生は映画のようである。一実施例において、作者によって記録された作者のナレーションは、受動モードでも再生される。文書が受動モードで渡されるとき、閲覧中のユーザは、別々のウィンドウ若しくはビューイングアプリケーションで文書のソースを閲覧することができる。
【0067】
能動再生モードの場合、ユーザは、作者が予め選択したパスによって制限されることなく、3次元環境を自由に通過する。本発明の一実施例によれば、能動モードの間、作者のパスは、ユーザが3次元環境を通過するときに、可視化されたままである。さらに別の実施例では、作者によって記録され区分された音声は、ユーザが関連した3次元図形に接近するときに再生される。図10及び11を再度参照するに、ユーザが作者のパス610に沿って進み、六面体510に接近するとき、ユーザは、作者が近接インジケータ710内にいる間に作者によって記録された音声セグメントを聴く。一実施例において、音声は、ユーザが近接インジケータ710によって制限された領域内に進まない限り再生されない。他の実施例では、音声の音量は、ユーザが六面体510に近づくにつれて大きくなる。さらに、ステレオ効果が、仮想3次元環境内の六面体の位置に対応した3次元空間内の音声の位置を見つけるため使用される。
【0068】
以上の説明では、本発明は、具体的な実施例に関して記載されている。しかし、これらの実施例は、本発明のより広い精神並びに範囲を逸脱することなく、種々の変形及び変更を加え得ることが明らかである。したがって、明細書及び図面に記載された事項は、本発明を限定するものではなく、本発明の内容を例示するものであると理解されるべきである。
【図面の簡単な説明】
【図1】電子文書が示されている電子表示の一実施例の説明図である。
【図2】コンピュータシステムの一実施例を示す図である。
【図3】(A)は、音声メーターの一実施例と共に表示されたディジタル写真の形式の電子文書を示し、(B)は参照マーカーを含む音声メーターの一実施例を示す説明図である。
【図4】例示的なマルチメディアの一実施例のブロック図である。
【図5】図4に示されたマルチメディア履歴に対するXML表現の一実施例を示す図である。
【図6】マルチメディア履歴の他の実施例の説明図である。
【図7】図6に示されたマルチメディア履歴を収容する電子メールメッセージへの返信の一実施例の説明図である。
【図8】マルチメディア履歴のセグメントを選択的に視覚化することができるマルチメディア履歴メッセージングインタフェースの一実施例の説明図である。
【図9】3次元環境の一実施例の説明図である。
【図10】パスを表示する3次元環境の一実施例の説明図である。
【図11】図10の3次元環境の上面図である。
【符号の説明】
100 表示装置
510,515,520 六面体
512,516,522 電子文書

Claims (20)

  1. 3次元的に描写される3次元オブジェクトと、前記3次元オブジェクトの3次元環境内における配置位置と、電子文書と、前記3次元環境内における移動経路を示すパスと、前記パスに対応付けられたナレーションとを含む履歴情報を記録するデータ記憶装置と、
    前記配置位置に基づいて前記3次元オブジェクトを配置し、前記電子文書を前記3次元オブジェクトの表面に2次元で重ねて表示する表示装置と、
    前記パスに基づいて前記表示装置の表示を制御し、前記パスに対応付けられたナレーションの再生を制御するプロセッサと
    を備えることを特徴とするコンピュータシステム。
  2. 前記履歴情報は、複数の3次元オブジェクトを含み、
    前記複数の3次元オブジェクトの3次元環境内における配置位置は、所定の条件で決定されることを特徴とする請求項1に記載のコンピュータシステム。
  3. 前記所定の条件は、前記複数の3次元オブジェクトのそれぞれの作成時間を表す順番であることを特徴とする請求項2に記載のコンピュータシステム。
  4. 前記履歴情報は、複数の電子文書を含み、
    前記複数の電子文書のそれぞれは、前記複数の3次元オブジェクトのいずれかに2次元で重ねて表示されるように対応付けられており、
    前記表示装置は、前記複数の3次元オブジェクトの配置位置に基づいて前記複数の3次元オブジェクトを配置し、前記複数の電子文書をそれぞれの電子文書が対応付けられる3次元オブジェクトの表面に2次元で重ねて表示することを特徴とする請求項2に記載のコンピュータシステム。
  5. 前記所定の条件は、前記複数の3次元オブジェクトのそれぞれに対応付けられた前記複数の電子文書が類似するコンテンツを含むか否かであり、
    前記複数の電子文書が類似するコンテンツを含む場合に、前記複数の3次元オブジェクトは互いに近傍の配置位置に表示されることを特徴とする請求項4に記載のコンピュータシステム。
  6. 前記パスは、前記3次元環境内を擬似的に進む移動経路であることを特徴とする請求項1乃至5のいずれか1項に記載のコンピュータシステム。
  7. 前記表示装置はさらに、前記パスを表示することを特徴とする請求項1乃至6のいずれか1項に記載のコンピュータシステム。
  8. 前記プロセッサは、前記パスに基づいて前記表示装置の表示を制御し、前記パスに対応付けられたナレーションの再生を制御する受動モードと、ユーザから入力を受け付けたコマンドに応じて前記表示装置の表示を制御する能動モードとを有することを特徴とする請求項1乃至7のいずれか1項に記載のコンピュータシステム。
  9. ナレーションの入力を受け付ける音声装置と、
    電子文書と、前記ナレーションと、前記電子文書内の特定の領域を参照する参照マーカとを含む履歴情報を記録するデータ記憶装置と、
    前記電子文書と前記ナレーションの表現とを表示する表示装置とを備え、
    前記ナレーションの表現は、前記ナレーションの開始から終了までを示すメータと前記参照マーカとを含み、前記メータにおける所定のロケーションと前記電子文書内の特定の領域とを関連付けることを特徴とするコンピュータシステム。
  10. 前記メータはさらに、前記メータにおいて再生されたナレーションの量と、再生されていないナレーションの量とを示すインジケータを含み、
    前記インジケータは、時間の経過と共に前記メータの終了点に前記メータに沿って移動することを特徴とする請求項9に記載のコンピュータシステム。
  11. 前記参照マーカは、前記インジケータが前記メータにおける所定の位置に移動したときに、前記所定の位置と前記電子文書内の特定の領域とを関連付ける
    ことを特徴とする請求項10に記載のコンピュータシステム。
  12. データ記憶装置に、3次元的に描写される3次元オブジェクトと、前記3次元オブジェクトの3次元環境内における配置位置と、電子文書と、前記3次元環境内における移動経路を示すパスと、前記パスに対応付けられたナレーションとを含む履歴情報が記録されており、
    前記前記データ記憶装置に記録されている配置位置に基づいて前記3次元オブジェクトを表示する段階と、
    前記電子文書を前記3次元オブジェクトの表面に2次元で重ねて表示する段階と、
    前記パスに対応付けられたナレーションの再生を制御する段階とを含むことを特徴とする、コンピュータシステムにより実施される方法。
  13. 前記履歴情報は、複数の3次元オブジェクトを含み、
    前記方法は、
    前記複数の3次元オブジェクトの3次元環境内における配置位置を、所定の条件で決定する段階をさらに有することを特徴とする、請求項12に記載の方法。
  14. 前記所定の条件は、前記複数の3次元オブジェクトのそれぞれの作成時間を表す順番であることを特徴とする、請求項13に記載の方法。
  15. 前記履歴情報は、複数の電子文書を含み、
    前記複数の電子文書のそれぞれは、前記複数の3次元オブジェクトのいずれかに2次元で重ねて表示されるように対応付けられており、
    前記複数の3次元オブジェクトは前記複数の3次元オブジェクトの配置位置に基づいて配置され、前記複数の電子文書はそれぞれの電子文書が対応付けられる3次元オブジェクトの表面に2次元で重ねて表示されることを特徴とする、請求項13に記載の方法。
  16. 前記所定の条件は、前記複数の3次元オブジェクトのそれぞれに対応付けられた前記複数の電子文書が類似するコンテンツを含むか否かであり、
    前記複数の電子文書が類似するコンテンツを含む場合に、前記複数の3次元オブジェクトは互いに近傍の配置位置に表示されることを特徴とする、請求項15に記載の方法。
  17. 前記パスは、前記3次元環境内を擬似的に進む移動経路であることを特徴とする、請求項12乃至16のいずれか1項に記載の方法。
  18. 前記パスを表示する段階をさらに含むことを特徴とする、請求項12乃至17のいずれか1項に記載の方法。
  19. 前記パスに基づいて表示を制御し、前記パスに対応付けられたナレーションの再生を制御する段階、またはユーザから入力を受け付けたコマンドに応じて表示を制御する段階をさらに有することを特徴とする、請求項12乃至18のいずれか1項に記載の方法。
  20. コンピュータに請求項12乃至19のいずれか1項に記載の方法を実行させるコンピュータプログラムを格納した記憶媒体。
JP2000294581A 1999-09-28 2000-09-27 複数次元ナレーションの記録及びプレイバック方法並びに装置 Expired - Fee Related JP4488612B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/407,009 US6480191B1 (en) 1999-09-28 1999-09-28 Method and apparatus for recording and playback of multidimensional walkthrough narratives
US407009 1999-09-28

Publications (3)

Publication Number Publication Date
JP2001147695A JP2001147695A (ja) 2001-05-29
JP2001147695A5 JP2001147695A5 (ja) 2007-06-14
JP4488612B2 true JP4488612B2 (ja) 2010-06-23

Family

ID=23610233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000294581A Expired - Fee Related JP4488612B2 (ja) 1999-09-28 2000-09-27 複数次元ナレーションの記録及びプレイバック方法並びに装置

Country Status (2)

Country Link
US (2) US6480191B1 (ja)
JP (1) JP4488612B2 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3641391B2 (ja) * 1999-06-17 2005-04-20 日本電気株式会社 情報視覚化システム、空間映像生成装置、空間映像再生装置、情報視覚化方法
FI113231B (fi) 2000-01-17 2004-03-15 Nokia Corp Menetelmä sanomien sisältämän informaation esittämiseksi multimediapäätelaitteessa, multimediasanomien välitysjärjestelmä ja multimediapäätelaite
KR100803580B1 (ko) * 2000-05-09 2008-02-15 삼성전자주식회사 동기 멀티미디어 통합언어 포맷을 이용한 전자 음악 배급서비스 시스템 및 그 방법
US7590681B1 (en) * 2000-08-07 2009-09-15 Trimble Navigation Limited Method and system for managing and delivering web content to internet appliances
EP1325469A4 (en) * 2000-09-15 2006-11-29 Invensys Sys Inc METHOD AND SYSTEM FOR ANIMATING GRAPHIC USER INTERFACE ELEMENTS VIA A PRODUCTION / PROCESS CONTROL PORTAL SERVER
US7019741B2 (en) * 2001-03-23 2006-03-28 General Electric Company Methods and systems for simulating animation of web-based data files
US6803925B2 (en) * 2001-09-06 2004-10-12 Microsoft Corporation Assembling verbal narration for digital display images
JP3733061B2 (ja) * 2001-12-18 2006-01-11 三洋電機株式会社 画像記録装置
US20030191776A1 (en) * 2002-04-05 2003-10-09 Pere Obrador Media object management
US20040034622A1 (en) * 2002-08-13 2004-02-19 Espinoza Danny Javier Applications software and method for authoring and communicating multimedia content in a multimedia object communication and handling platform
US8392834B2 (en) * 2003-04-09 2013-03-05 Hewlett-Packard Development Company, L.P. Systems and methods of authoring a multimedia file
CN100422966C (zh) * 2003-04-30 2008-10-01 国际商业机器公司 内容创建系统和方法
US20040233200A1 (en) * 2003-05-23 2004-11-25 Karren Ronald M. Systems and methods for interactive multimedia presentation and marketing
TWI257612B (en) * 2003-05-29 2006-07-01 Benq Corp Multimedia message conversion system and method thereof
US20060041632A1 (en) * 2004-08-23 2006-02-23 Microsoft Corporation System and method to associate content types in a portable communication device
US7400351B2 (en) * 2004-10-06 2008-07-15 Microsoft Corporation Creation of image based video using step-images
KR101120027B1 (ko) * 2004-11-01 2012-03-23 삼성전자주식회사 셔터 반누름 시에 osd 처리 장치 및 방법
US7372536B2 (en) * 2005-03-08 2008-05-13 Microsoft Corporation Photostory 3—automated motion generation
US20060204214A1 (en) * 2005-03-14 2006-09-14 Microsoft Corporation Picture line audio augmentation
US20060218488A1 (en) * 2005-03-28 2006-09-28 Microsoft Corporation Plug-in architecture for post-authoring activities
US20060224778A1 (en) * 2005-04-04 2006-10-05 Microsoft Corporation Linked wizards
KR100740235B1 (ko) 2005-10-13 2007-07-18 한국전자통신연구원 3차원 데이터 변환 방법
US8749544B2 (en) 2007-09-26 2014-06-10 Autodesk, Inc. Navigation system for a 3D virtual scene
US10504285B2 (en) * 2007-09-26 2019-12-10 Autodesk, Inc. Navigation system for a 3D virtual scene
US7769806B2 (en) 2007-10-24 2010-08-03 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
US8407605B2 (en) 2009-04-03 2013-03-26 Social Communications Company Application sharing
US8397168B2 (en) 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
JP5255824B2 (ja) * 2007-12-05 2013-08-07 任天堂株式会社 映像再生制御プログラム、映像再生制御装置、映像再生制御システムおよび映像再生制御方法
US20090183101A1 (en) * 2008-01-10 2009-07-16 International Business Machines Corporation Method, Apparatus and Program Storage Device for Providing a Gauge for Displaying Data that Includes Historical-Based Data
KR101527993B1 (ko) 2008-04-05 2015-06-10 소우셜 커뮤니케이션즈 컴퍼니 가상 환경과의 인터페이스 방법
US20110119587A1 (en) * 2008-12-31 2011-05-19 Microsoft Corporation Data model and player platform for rich interactive narratives
US9092437B2 (en) * 2008-12-31 2015-07-28 Microsoft Technology Licensing, Llc Experience streams for rich interactive narratives
US20110113316A1 (en) * 2008-12-31 2011-05-12 Microsoft Corporation Authoring tools for rich interactive narratives
US8046691B2 (en) * 2008-12-31 2011-10-25 Microsoft Corporation Generalized interactive narratives
US20110113315A1 (en) * 2008-12-31 2011-05-12 Microsoft Corporation Computer-assisted rich interactive narrative (rin) generation
US9853922B2 (en) 2012-02-24 2017-12-26 Sococo, Inc. Virtual area communications
US9319357B2 (en) 2009-01-15 2016-04-19 Social Communications Company Context based virtual area creation
KR20100095777A (ko) * 2009-02-23 2010-09-01 삼성전자주식회사 전자기기에서 컨텐츠의 썸네일 추출 방법 및 장치
AU2009354765B2 (en) * 2009-11-02 2014-05-08 Sacal Holdings Limited System and method employing three-dimensional and two-dimensional digital images
USD656506S1 (en) * 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with an animated image
USD656504S1 (en) * 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with an animated image
USD656505S1 (en) * 2010-04-30 2012-03-27 American Teleconferencing Services, Ltd. Display screen portion with animated image
USD642586S1 (en) * 2010-04-30 2011-08-02 American Teleconferencing Services, Ltd. Portion of a display screen with a user interface
USD656942S1 (en) * 2010-04-30 2012-04-03 American Teleconferencing Services, Ltd. Display screen portion with an animated image
USD656941S1 (en) * 2010-04-30 2012-04-03 American Teleconferencing Services, Ltd. Display screen portion with an animated image
KR20120017228A (ko) * 2010-08-18 2012-02-28 엘지전자 주식회사 이동 단말기 및 상기 이동 단말기의 영상 표시 방법
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world
US8498722B2 (en) 2011-05-31 2013-07-30 United Video Properties, Inc. Systems and methods for generating media based on player action in an interactive video gaming environment
US8657680B2 (en) 2011-05-31 2014-02-25 United Video Properties, Inc. Systems and methods for transmitting media associated with a measure of quality based on level of game play in an interactive video gaming environment
US8628423B2 (en) 2011-06-28 2014-01-14 United Video Properties, Inc. Systems and methods for generating video hints for segments within an interactive video gaming environment
US9037968B1 (en) * 2011-07-28 2015-05-19 Zynga Inc. System and method to communicate information to a user
US20130263059A1 (en) * 2012-03-28 2013-10-03 Innovative Icroms, S.L. Method and system for managing and displaying mutlimedia contents
WO2013181026A1 (en) 2012-06-02 2013-12-05 Social Communications Company Interfacing with a spatial virtual communications environment
US20140013192A1 (en) * 2012-07-09 2014-01-09 Sas Institute Inc. Techniques for touch-based digital document audio and user interface enhancement
US9886160B2 (en) * 2013-03-15 2018-02-06 Google Llc Managing audio at the tab level for user notification and control
AP00651S1 (en) * 2013-08-30 2014-12-16 Samsung Electronics Co Ltd Graphical user interfaces for display screens or portions thereof
USD752629S1 (en) * 2014-04-26 2016-03-29 Inbay Technologies Inc. Display screen with graphical user interface
USD774539S1 (en) 2014-04-28 2016-12-20 Inbay Technologies Inc. Display screen with graphical user interface
US9202469B1 (en) * 2014-09-16 2015-12-01 Citrix Systems, Inc. Capturing noteworthy portions of audio recordings
US11086391B2 (en) 2016-11-30 2021-08-10 At&T Intellectual Property I, L.P. Methods, and devices for generating a user experience based on the stored user information
US10748443B2 (en) * 2017-06-08 2020-08-18 Honeywell International Inc. Apparatus and method for visual-assisted training, collaboration, and monitoring in augmented/virtual reality in industrial automation systems and other systems
US11715384B2 (en) 2021-06-02 2023-08-01 International Business Machines Corporation Automated personalization of a user experience

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997349A (ja) * 1995-09-29 1997-04-08 Matsushita Electric Ind Co Ltd プレゼンテーション装置
JPH1165803A (ja) * 1997-08-22 1999-03-09 Nec Corp 情報視覚化システム
JP2000250942A (ja) * 1999-03-03 2000-09-14 Mitsubishi Electric Corp 図書情報検索空間構築・検索装置および図書情報検索空間構築・検索プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001148815A (ja) * 1999-09-06 2001-05-29 Matsushita Electric Ind Co Ltd 画像表示装置および媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5586216A (en) 1992-09-25 1996-12-17 Apple Computer, Inc. Recording method and apparatus and audio data user interface
US5613909A (en) * 1994-07-21 1997-03-25 Stelovsky; Jan Time-segmented multimedia game playing and authoring system
US5679075A (en) * 1995-11-06 1997-10-21 Beanstalk Entertainment Enterprises Interactive multi-media game system and method
US5983220A (en) * 1995-11-15 1999-11-09 Bizrate.Com Supporting intuitive decision in complex multi-attributive domains using fuzzy, hierarchical expert models
US6041335A (en) 1997-02-10 2000-03-21 Merritt; Charles R. Method of annotating a primary image with an image and for transmitting the annotated primary image
US6084590A (en) * 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
US5986660A (en) * 1997-12-31 1999-11-16 Autodesk, Inc. Motion capture data system and display
US6154771A (en) * 1998-06-01 2000-11-28 Mediastra, Inc. Real-time receipt, decompression and play of compressed streaming video/hypervideo; with thumbnail display of past scenes and with replay, hyperlinking and/or recording permissively intiated retrospectively
US6119147A (en) * 1998-07-28 2000-09-12 Fuji Xerox Co., Ltd. Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space
US6333753B1 (en) 1998-09-14 2001-12-25 Microsoft Corporation Technique for implementing an on-demand display widget through controlled fading initiated by user contact with a touch sensitive input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997349A (ja) * 1995-09-29 1997-04-08 Matsushita Electric Ind Co Ltd プレゼンテーション装置
JPH1165803A (ja) * 1997-08-22 1999-03-09 Nec Corp 情報視覚化システム
JP2000250942A (ja) * 1999-03-03 2000-09-14 Mitsubishi Electric Corp 図書情報検索空間構築・検索装置および図書情報検索空間構築・検索プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001148815A (ja) * 1999-09-06 2001-05-29 Matsushita Electric Ind Co Ltd 画像表示装置および媒体

Also Published As

Publication number Publication date
USRE39830E1 (en) 2007-09-11
JP2001147695A (ja) 2001-05-29
US6480191B1 (en) 2002-11-12

Similar Documents

Publication Publication Date Title
JP4488612B2 (ja) 複数次元ナレーションの記録及びプレイバック方法並びに装置
JP4210029B2 (ja) 音声付文書の表示を生成する方法、装置及び記録媒体
KR101377379B1 (ko) 보충 정보를 갖는 문서 뷰를 렌더링하는 방법, 및 컴퓨터-판독가능 매체
Robertson et al. Data mountain: using spatial memory for document management
JP4201154B2 (ja) デジタルストーリー作成再生方法及びシステム
JP4639734B2 (ja) スライドコンテンツ処理装置およびプログラム
US8032832B2 (en) Non-linear presentation canvas
JP4061226B2 (ja) 音声情報をアーカイブする技術
US20090254867A1 (en) Zoom for annotatable margins
US20130268826A1 (en) Synchronizing progress in audio and text versions of electronic books
JP2004500635A (ja) 電子文書に対しコンテンツに無関係に注釈を付けるためのシステムおよび方法
TWI606384B (zh) 透過自由形式描繪之吸引人的顯示
JP2002502999A (ja) 知識の本体の抽象化およびアクセスのためのコンピュータ・システム、方法およびユーザ・インターフェース構成要素
WO2012122386A1 (en) A system and method for displaying content
JP2000172248A (ja) 電子情報表示方法、電子情報閲覧装置および電子情報閲覧プログラム記憶媒体
TW201606622A (zh) 透過觸覺互動的內容屬性可及性偵測
CN100485679C (zh) 用于浏览多媒体文档的方法和系统以及计算机产品
US8914386B1 (en) Systems and methods for determining relationships between stories
Rada Hypertext, multimedia and hypermedia
US8640055B1 (en) Condensing hierarchies in user interfaces
TW201106201A (en) Virtual multimode navigation system
JP5201025B2 (ja) 文書表示装置、文書表示方法およびそのプログラムならびに記憶媒体
Vega-Oliveros et al. Viewing by interactions: Media-oriented operators for reviewing recorded sessions on tv
Verlinden et al. The world processor: an interface for textual display and manipulation in virtual reality
Frauenberger et al. Design patterns for auditory displays

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100330

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees