JPH09510558A - 時間ベース情報の空間アクセス方法およびシステム - Google Patents

時間ベース情報の空間アクセス方法およびシステム

Info

Publication number
JPH09510558A
JPH09510558A JP7517538A JP51753895A JPH09510558A JP H09510558 A JPH09510558 A JP H09510558A JP 7517538 A JP7517538 A JP 7517538A JP 51753895 A JP51753895 A JP 51753895A JP H09510558 A JPH09510558 A JP H09510558A
Authority
JP
Japan
Prior art keywords
time
user
mapped
information
based information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7517538A
Other languages
English (en)
Other versions
JP4225567B2 (ja
Inventor
ワング,ウェイジア
マイクル ホワイト,シーン
Original Assignee
インターバル リサーチ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターバル リサーチ コーポレイション filed Critical インターバル リサーチ コーポレイション
Publication of JPH09510558A publication Critical patent/JPH09510558A/ja
Application granted granted Critical
Publication of JP4225567B2 publication Critical patent/JP4225567B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S715/00Data processing: presentation processing of document, operator interface processing, and screen saver display processing
    • Y10S715/961Operator interface with visual structure or function dictated by intended use
    • Y10S715/965Operator interface with visual structure or function dictated by intended use for process control and configuration
    • Y10S715/97Instrumentation and component modelling, e.g. interactive control panel

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 本発明はユーザ(12)から得られる空間座標情報に基づいて時間ベース情報(14)をアクセスする方法およびシステムに関する。時間ベース情報セグメントのタイミングを空間座標(10)へマッピングして変換することにより時間ベース情報が空間表現へマッピングされる。このような空間座標は1次元、2次元、もしくは3次元とすることができる。このマッピングにより、時間ベース情報のセグメントを空間対象のさまざまな部分、空間表現、もしくは空間運動のさまざまな位置に関連づけることができる。ユーザの筋覚もしくはタッチメモリに頼って情報(14)を再アクセスして情報の全体の感覚を生成するような身体的入力(12)によりユーザがセグメントへアクセスすることができる(14)。

Description

【発明の詳細な説明】 時間ベース情報の空間アクセス方法およびシステム技術分野 本発明はユーザから得られる空間座標情報に基づいて時間ベース情報にアクセ スする方法およびシステムに関する。背景技術 時間ベース情報を吸収して処理することは空間分布情報を吸収することよりも 難しい。これは、一部、時間ベース情報から“全体の感覚”を生成することが困 難なためである。例えば、プリントされたテキストを黙読することは記録された 音声を聴取することよりも遥かに容易に早くできることはよく経験することであ る。目の焦点(fovea vision−中心視または中心視覚)は1つの場 所から別の場所へ急速に動くことができ、周辺視野は窩周りの大きな領域をぼん やりと眺めそのため読者は任意所与の時点において中心視がプリントされたテキ ストの残り(例えば、ページの残り、文の残り、単語の残り)に対してどこにあ るかを知る。周辺視野によって中心視は読者が調べたい場所を迅速に見つけるこ とができる。したがって、目読は“瞬時任意アクセス”と考えることができる。 これに対して、例えば、オーディオおよび/もしくはビデオプレーヤ等の、時 間ベース情報へアクセスするのに使用する従来の装置はこのような情報を逐次デ ィスプレイするに過ぎない(例えば、記録されたオーディオもしくはビデオフレ ームの再生)。すなわち、従来の装置では時間ベース情報は時間軸に沿ってしか 提示できない。時間は逐次であるため、任意の時点において、このような情報へ アクセスしている人は情報の小さなセグメントにしか曝されることがない。人間 の時相記憶(temporal memory)は短く時間の分解能も悪いため 、ディスプレイもしくはアクセスされる全情報片に対する特定情報セグメントの 相対タイミングマークをユーザが確認するのは困難である。 たとえ基礎的装置によりユーザが音声の1つの部分から別の部分へ迅速に移る ことができても(例えば、ランダムアクセス可能なデジタル記憶装置)、通常聴 取者は単に自分が任意の時点において全情報に対してどこにいるかが判らないた めにそうすることはなく、したがって、どこへ移るべきかが判らない。したがっ て、時間ベース情報へアクセスする際の困難は主として人間の視覚、聴覚、記憶 特性の組合せ、および従来の装置の作動方法により全体の感覚を発生する能力が 欠如するために生じる。この時相的制約により1組の情報の一般的な見通しをた てることがさらに困難となる。 記録された音声等の時間ベース情報をプリントされたテキストやピクチュア等 の他の空間視覚コードへ精密に変換できれば、時間ベース情報へのアクセスは読 み取りへ変わることができる。しかしながら、自動音声認識は完全なものからは 程遠いものとなる。したがって、記録された音声を吸収して提示するための別の 方法が必要となる。 従来技術の多くのシステムがこの問題の解決を試みてきている。従来の大概の 方法は次の方法の1つを強調している。 1.(状況に依存する)重要部分を抽出するかもしくは重要ではない部分を投 棄することにより情報を簡約化する。いくつかの時間ベース情報は、事実、重要 ではなく情報を優先付する効率的方法があるものと仮定するためこの方法はあら ゆる状況において有効なわけではない。 2.記録された音声の波形の振幅、および構造パターン等の情報の特性を利用 して情報に視覚的に注釈を付けさまざまなセグメントを容易に識別できるように する。したがって、この方法は有効な自動特徴抽出システムに依存する。この方 法も実現が困難でありあらゆる時間ベース情報源について有効なわけではない。 従来技術の他のシステムは基礎的テキストの構造の前の知識に基づく記録され た音声のプレゼンテーションに向けられている。このようなシステムの1例はア ップルコンピュータ社から市販されているマルチメディアパッケージ“From Alice to Ocean”である。このパッケージはオーストラリアの砂 漠を横断する婦人の旅物語りを提供する。著者が読み上げる物語りのテキストは 簡便なセグメント内に格納されている。テキストのこれらのセグメントはコンピ ュータ画面上に表示される視覚キューに基づいて対応する視覚イメージと共にユ ーザによりアクセスされる。 この種の第2の従来技術のシステムはBroderbund社から市販されて いるCD−ROMゲーム/リーダ“Just Grandma and Me” である。このパッケージによりユーザはコンピュータ画面上にディスプレイされ た物語りの単語に対応する予め記録された話し言葉を再生することができる。 これらのシステムおよびその基礎的方法はテキストの存在により提供される演 繹的情報を付加することなく時間ベース情報へアクセスする問題には向けられて いない。基礎的テキストが判っておれば、テキスト自体を使用して直接情報へア クセス、すなわち直接読み取りもしくはテキスト対音声変換、することができる ため問題の解決はささいなこととなる。これは原文の解釈や他の類似の文書への 演繹的アクセスを欠く時間ベース情報については有効な方法ではない。発明の開示 したがって、ユーザが時間ベース情報へ空間的にアクセスして再生することが できる方法およびシステムを提供することが本発明の目的である。 プリントされたテキストの読取り時に生成される周辺視野と類似の時間ベース 情報をアクセスするための全体の感覚を作り出すことも本発明の目的である。 時間ベース情報を空間分布情報へ変換して情報に容易にアクセスしてざっと目 を通すことができるようにする時間ベース情報のアクセス方法およびシステムを 提供することが本発明のさらにもう1つの目的である。 時間ベース情報を空間分布情報へ変換すなわちマッピングする方法およびシス テムを提供することが本発明のもう1つの目的である。 さらに時間ベース情報源に関連する方法で空間分布情報へアクセスする方法お よびシステムを提供することが本発明の1つの目的である。 本発明のもう1つの目的はユーザが筋覚および触覚メモリを利用して空間分布 情報のセグメント位置を記憶してユーザが目読に似た見かけ上並列な任意の情報 アクセスを達成できるような全体の感覚を得ることができる方法およびシステム を提供することである。 本発明のさらにもう1つの目的は(例えば、指、舌、頭、肩、膝、踵、等の) 任意の人体の動きを含むユーザからの身体的入力を使用して時間ベース情報の空 間分布表現を走査する方法およびシステムを提供することである。 本発明のより詳細な目的はユーザの人間空間メモリに頼って予めアクセスされ た情報を再アクセスできるように、身体的入力により、ユーザが時間ベース情報 を空間的にアクセスし再生できるようにする方法およびシステムを提供すること である。このようにして、ユーザは情報にざっと目を通してより慎重な走査を保 証する情報部分を確認することができる。 前記目的を達成するために、本発明により複数のセグメントを有する時間ベー ス情報をユーザが空間的にアクセスして再生できるようにする方法が提供される 。本方法には時間ベース情報の複数のセグメントの各々を複数のマッピングされ た空間座標の中の対応する1つの空間座標へマッピングするステップが含まれて いる。次に入力空間座標が決定され、それはユーザの身体の一部が第1の位置へ 動くことにより発生するユーザの第1の身体的入力に対応している。そのマッピ ングされた空間座標が入力空間座標に対応する時間ベース情報の第1のセグメン トが次にアクセスされ、ユーザへ再生される。ユーザの身体部分が第2の位置へ 動いた後で、ユーザの人間空間メモリを使用してユーザの身体部分を第1の位置 へ戻し前記ステップを繰り返すことにより時間ベース情報の第1のセグメントを 再アクセスして再生することができる。 前記目的を達成するために、本発明によりさらに複数のセグメントを有する時 間ベース情報へユーザが空間的にアクセスして再生できるようにする方法が提供 される。本方法には時間ベース情報内の時間の経過を示す一連の対応するタイミ ングマークを時間ベース情報へ割り当て、一連のタイミングマークに基づいて複 数のセグメントを形成し、一連のタイミングマークの各々を複数のマッピングさ れた空間座標の中の対応する1つの空間座標へマッピングすることが含まれてい る。 ユーザの身体の一部が第1の位置へ動くことにより発生するユーザの第1の身 体的入力に対応する入力空間座標が求められる。そのマッピングされた空間座標 が入力空間座標に対応する時間ベース情報の第1のセグメントがアクセスされる 。このアクセスは入力空間座標を複数のマッピングされた空間座標の中の1つ以 上の空間座標と比較して入力空間座標と一致するマッピングされた空間座標を識 別 することにより実施される。第1のセグメントは対応するタイミングマークに基 づいて一致するマッピングされた空間座標に対応するセグメントとして識別され る。次に第1のセグメントはユーザへ再生される。ユーザの身体部分が第2の位 置へ動いた後で、ユーザの人間空間メモリを使用してユーザの身体の一部を第1 の位置へ戻し前記ステップを繰り返すことにより時間ベース情報の第1のセグメ ントを再アクセスして再生することができる。 前記目的を達成するために、本発明によりさらに前記した各方法を実現するシ ステムが提供される。 本発明の目的、特徴および利点は添付図に関連して本発明を実施するための最 善モードの詳細説明から容易に理解することができる。図面の簡単な説明 第1図は本発明の方法の1実施例を表すフロー図。 第2図は本発明のシステムの1実施例を表すブロック図。 第3図は時間ベース情報を本発明の1実施例の空間ベース情報へ変換する方法 を表すフロー図。 第4図は本発明の方法の1実施例の入力空間座標に対応する時間ベース情報へ アクセスする方法を表すフロー図。 第5図は本発明のシステムの別の実施例を表すブロック図。 第6図は2次元タッチ感知ユーザインターフェイス装置が強調されている本発 明のシステムの1実施例の絵画図。 第7図は本発明のシステムの1実施例に使用する別の2次元ユーザインターフ ェイス装置の絵画図。 第8a図−第8c図は本発明のシステムの1実施例に使用する別の2次元ユー ザインターフェイス装置で使用される走査パターン。 第9図は本発明の1実施例で使用する空間多ページ構造を表す図。 いくつかの実施例について本発明を説明するが、この説明は本発明をこれらの 実施例へ限定するものではないことを理解されたい。本発明は特許請求の範囲に 明記された発明の精神および範囲内に含まれる変更、修正および同等のものを全 て含むものとする。発明を実施するための最良の形態 時間ベース情報セグメントのタイミングを空間座標へマッピングして変換する ことにより時間ベース情報へアクセスする際の従来技術の問題が本発明により解 決される。このような空間座標は1次元、2次元および3次元ユークリッドもし くは非ユークリッド空間内の任意のカルテシアンもしくは非カルテシアン座標と することができる。このマッピングにより、時間ベース情報のセグメントを空間 対象のさまざまな部分、空間表現、もしくは空間運動のさまざまな位置と関連づ けることができる。 ここで使用される“時間ベース情報”という用語は、制約はされないが、時相 形式で表現できる任意の一般的な信号もしくはデータの収集を含むように広く解 釈すべきことをお判り願いたい。その例として音声、音楽、およびMIDI信号 等のアナログもしくはデジタルオーディオ信号、ビデオ、アニメーションおよび 他のグラフィック情報等の視覚情報、および電磁信号、株式終わり値情報、毎日 の温度データ等のその他の時相データが含まれる。 次に第1図を参照して、本発明の1実施例をフロー図で示す。ステップ10に 示すように、オーディオ、ビデオ、もしくは任意他の時間ベース信号等の時間ベ ース情報のタイミングが1組の空間座標へマッピングされる。さまざまな方法で 時間ベース情報のタイミングを空間座標へマッピングすることができる。制約は されないが、それには時間ベース情報の連続タイミングマークを空間座標へマッ ピングする、(1片の音声内の)連続するいくつかの単語を空間座標へマッピン グする、および時間ベース情報内で見つかる他の構造形式を空間表現へマッピン グすることが含まれる。 これらの空間座標は任意数の自由度を有することができる。したがって、本発 明の変換により時間ベース情報を3次元空間内の3つの座標へマッピングしたり 、時間ベース情報を3次元空間内の幾何学的立体の3つの位置座標および3つの 方位座標へマッピングしたり、時間ベース情報を3次元空間内の一連の連続結合 に対する1組の位置と方位へマッピングすることができる。 ステップ12に示すように、次にユーザの身体の動きにより発生するユーザか らの身体的入力に基づいて入力空間座標が求められる。このステップはユーザの 身体の1つ以上の部分すなわち関節の位置、速度、加速度および/もしくは方位 を感知して実施することができる。制約はされないがその例としてパッド上の指 の位置を1組の空間座標へ変換できる位置デジタイザパッド上の多数の指位置、 ハンドコントローラや舌制御位置決め装置から発生される位置、もしくは頭部の 動きに応答するインターフェイス装置から発生される位置を利用することが含ま れる。この種のインターフェイス装置はバーチュアルリアリティ応用において広 く使用されている。 求められた入力空間座標は時間ベース情報のマッピングされた空間座標と同じ 座標空間内になければならない。したがって、時間ベース情報の各セグメントが 1つの入力空間座標に対応する。 ステップ14に示すように、そのマッピングされた空間座標が入力空間座標に 対応する時間ベース情報のセグメントが次にアクセスされ、ステップ16に示す ように、時間ベース情報のアクセスされた第1のセグメントが次にユーザへ再生 される。この点においてこの方法を終了することができ、あるいはオプションと して、パス18およびステップ12,14,および16に示すように、新たな入 力空間座標に対応する情報へさらにアクセスする新たな入力空間座標を求めてこ の新たにアクセスされた情報を再生することにより継続することができる。この 手段により、ユーザの身体の一部が次の位置へ動いた後で、人間空間メモリを使 用してユーザの身体を第1の位置へ戻し時間ベース情報のセグメントを再アクセ スして再生することができる。この人間空間メモリは、筋肉の緊張を感知するこ とにより人間の身体の動きの空間位置を記憶する、筋覚メモリとすることができ る。“人間空間メモリ”という用語は、接触により皮膚が剌激される(例えば、 てのひら等の)人間の身体の一部の空間位置を記憶するメモリである、ユーザの タッチメモリ等のユーザの他の空間メモリをも含むように広く構成しなければな らない。 このようにして、人間の記憶により目読して得られる周辺視野の全体感覚能力 はユーザの身体の空間的動きおよび位置決めによりエミュレートすることができ る。このエミュレーションは指の筋覚メモリ、てのひらの触覚およびタッチメモ リ、舌の筋覚メモリ、もしくはインターフェイス装置の選択および入力空間座標 の選択に基づいた他種の人間空間メモリを利用して生じることができる。 第2図に本発明のシステムの1実施例をブロック図で示す。複数のセグメント を有する時間ベース情報20のタイミングがタイミング対空間変換器22により 1組の空間座標へマッピングされる。この変換器はプログラマブルロジックアレ イや個別ロジックアレイ、もしくはアナログ計算装置により実現することができ る。しかしながら、実施例では、このタイミング対空間変換はマイクロプロセッ サ等のコンピュータの中央処理装置で実行されるソフトウエアやファームウエア により実施される。 ユーザインターフェイス装置26によりユーザ30が発生する身体的入力に対 応する入力空間座標が求められる。矢符34はユーザ30からユーザインターフ ェイス装置26への身体的入力を表す。ユーザインターフェイス装置26はユー ザ30へ感覚出力を与えるすなわち帰還する42こともできる。この感覚出力は 振動、タッチ、温度、もしくはアクセスされた時間ベース情報に対応しユーザが 入力座標空間における時間ベース情報の全体の感覚を得るのを助ける他の感覚情 報の形をとることができる。 次にユーザインターフェイス装置26は求められた入力空間座標36を空間ア クセス装置24へ与える。この空間アクセス装置はそのマッピングされた空間座 標が入力空間座標に対応する時間ベース情報のセグメントへアクセスする。この アクセスされた情報38はユーザ30へ感覚出力32を与えるために空間アクセ ス装置24から再生装置28へ転送される。再生装置28の感覚出力32は元の 形式の時間ベース情報の形式をエミュレートするように与えられる。したがって 、元の情報がオーディオであれば、再生装置はこのオーディオ情報を音としてユ ーザへ再生する。さらに、時間ベース情報がビデオやアニメーション等のグラフ ィック情報であれば、再生装置により時間ベース情報はグラフィックイメージの 形式でユーザへ再生される。再生装置28のこれらの感覚出力32はユーザイン ターフェイス装置26の感覚出力42と対比され、その目的はユーザが情報へア クセスするのを助けることである。感覚出力42は一般的に時間ベース情報の元 の形式とは異なる形式である。このような感覚出力の例として時間ベース情報を エミュレートしない補足オーディオおよび視覚キューだけでなく振動および他の 触 覚出力が含まれる。 次に第3図を参照して、第1図のステップ10に示す、時間ベース情報のタイ ミングを1組の空間座標へマッピングするステップを実施する1つの方法を示す 。ステップ50に示すように、時間ベース情報には一連の逐次タイミングマーク が割り当てられる。これらのタイミングマークは等時間間隔もしくは不等時間間 隔とすることができる。タイミングマークが不等間隔であれば、情報の構造的属 性に基づいて配置することができる。例えば、音声の場合には、タイミングマー クを使用して音節、単語、文、文節、もしくは話された言葉のページ間の境界を 設定し時間ベース情報のセグメントを形成することができる。これらの各タイミ ングマークが複数のマッピングされた空間座標の対応する1つの空間座標へマッ ピングされステップ52に示すようにそれは1組の入力空間座標に対応する。 アクセスされる時間ベース情報のセグメントは連続する2つのタイミングマー ク間の時間ベース情報に対応することができる。この場合、セグメントは重畳し ない。全ての応用に対してそうである必要はない。例えば、所与のタイミングマ ークに対応するセグメントは次のタイミングマークに先行するタイミングマーク からの時間ベース情報とすることができる。さらに、フィルタやウィンドを使用 してセグメントは開始時にフェードインしかつ/もしくは終了時にフェードアウ トすることができる。 次に第4図を参照して、第1図に示す、入力空間座標に対応する情報へアクセ スするステップ14の1実施例をフロー図で示す。ステップ54に示すように、 入力空間座標はマッピングされた空間座標と比較される。入力空間座標がマッピ ングされた空間座標と一致する場合には、ステップ58に示すように、時間ベー ス情報のセグメントが識別されそれは一致する記憶空間座標に対応する。入力空 間座標がマッピングされた空間座標と一致しない場合には、ステップ56に示す ように、次にマッピングされた空間座標が比較のために選択され、一致するまで ステップ54が繰り返される。 要約すると、本発明の背景となる3つの主要な原理は、(i)時間ベース情報 のタイミングを1組の空間座標へマッピングする、 (ii)筋覚およびタッチメモリを利用して情報のアクセスに対して全体の感覚を 構成する助けとする、(iii)さまざまなインタラクションモードを使用してユ ーザが情報内を動き回り変換を制御するのを助けることである。本発明の実施例 を構成する一般的手順は次のようである。 (1) 身体の動きの形式および身体的入力を選択して入力空間座標を示す。 特に、人体の任意の可動部分を使用して身体的入力を発生することができる。 (2) どのパターンの動きを使用するかを決定する。 (3) 時間ベース情報のタイミングマークから移動パターンが横切する空間 座標へのマッピングを選択する。この段階において、空間的動きを感知し所与の 時空間マッピングに従って音を表示するのに物理的(例えば、電子的)装置が伴 う。 次に第5図を参照して、本発明のシステムの別の実施例をブロック図で示す。 耳が(目についで)次善の情報吸収感覚器官であれば、本発明のこの実施例では 、(触覚等の、他の感覚様式により知覚できる媒体へ音を変換するのではなく) 耳を使って音を聴くことを考える。空間的に分布された音の一部から他の部分へ 移るのに、空間的に動かすことのできる人体の任意の部分を使用することができ る。最も簡便な身体部分は手、すなわち、てのひらと指である。指は耳で聞き取 る速度に匹敵する十分早い速度で動かすことができる。本発明のこの実施例では 、聞き取りと結び付けられた、1本以上の指と関連づけられた筋覚およびタッチ メモリを使用して読み取りにおける“概観”と同様な全体の感覚が生成される。 本発明のこの実施例ではタッチ感知パッドを使用して2次元空間内に入力空間 座標が与えられる。時間ベース情報のタイミングが2次元空間分布データへ変換 され次にそれにざっと目が通され指でアクセスされる。タイミングマークがペー ジフォーマット上へマッピングされる、すなわち、音がプリントされたテキスト のように行として表面上へ分布される。指により筋覚および触覚メモリ源が提供 されユーザはそれにより情報の表現を生成することができる。 より詳細には、オーディオ情報60のタイミングが変換装置62により2次元 空間フォーマットへ変換される。この変換装置によりオーディオ情報内に一連の タイミングマークが生成されこれらのタイミングマークは1組の2次元座標内へ マッピングされる。ユーザ69は指66によりこのオーディオ情報へアクセスす る。指の位置と動きを感知する装置は2次元インターフェイス装置64、手が表 面に触れている位置の2次元座標を発生するタッチ感知パッドである。これらの 座標はインターフェイス装置64から変換装置62へ転送されてこれらの2次元 座標に対応するオーディオ情報が決定される。次にこのオーディオ情報はインタ ーフェイス装置64へ転送し戻され、そこから指66へ振動帰還がなされる。こ の振動帰還はインターフェイス装置64に取り付けられた(図示せぬ)アクチベ ータやスピーカにより振動出力を与えることにより実施される。振動出力はアク セスされたオーディオ情報から生成されたオーディオ信号に比例する。アクセス されたオーディオ情報はさらにオーディオ再生装置68へ与えられ、それはアク セスされたオーディオ情報をユーザ69の耳67へ再生する。タッチおよび“全 体”におけるユーザの指の記憶された位置により案内されるユーザ64のメモリ 65によりユーザはオーディオ信号の予めアクセスされた部分へ再アクセスする ことができる。 このような表面上に沢山の音の空間分布パターンがあることをお解り願いたい 。例えば、 (i) 指が指し示す空間位置に対応するセグメントだけを再生する。 (ii) 指の空間位置に対応するセグメントから始まるある長さの音を再生す る。 (iii) 指の位置に対応するセグメントに最も近い(単語の始まり等の)重 要な場所から始まるある長さの音を再生する。 (iv) (ii)および(iii)において、音を再生する時に、音量は時間と共 に衰えるかもしくはある形で濾波される。 第6図は第5図のシステムの動作を表す絵画図である。オーディオ情報60が コンピュータ74内に記憶される。次にコンピュータ74は時間の経過を示す一 連のタイミングマークをオーディオ情報60に割り当てる。次に連続する各タイ ミングマーク対間のオーディオ情報のセグメントが2次元インターフェイス装置 64のタッチ感知パッド70の2次元座標に対応する1組の2次元座標へマッピ ングされる。その座標に触れる指66により特定の2次元座標がアクセスされる 。 入力空間座標の形状のこの指位置はコンピュータ74へ送られ、それはオーディ オ情報の対応するセグメントへアクセスしてその情報をスピーカ78へ再生し、 そこから音響出力が発生される。さらに、コンピュータ74はオーディオ情報の アクセスされたセグメントをインターフェイス装置64へ送り、それはアクセス されたオーディオセグメントに比例して指66が感じるように振動する。この応 用では、指により筋覚および触覚メモリ源が提供されそれによりユーザは情報に おける全体の感覚を生成することができる。 第5図および第6図のシステムの動作はおそらく次の仮定応用によりよく説明 できると思われる。Martin Luther King師をテーマとして著 名な学者により短いプレゼンテーションがなされる。講義のテープを学生が入手 し、後で講義に含まれた情報へアクセスしてリポートを作成したいものとする。 テープにとられた情報がサンプルされてコンピュータのメモリへ記憶される。 サンプリング中に、講義で話された言葉間のスペースをマークするサンプリング されたオーディオ情報と結合して一連のタイミングマークが記憶される。講義の 言葉はタイミングマークに基づいて2次元ページフォーマットへマッピングされ る。最初の言葉はユーザインターフェイス装置のタッチ感知パッドの右上コーナ に対応する座標へマッピングされる。タッチ感知パッドの第1行がマッピングさ れるまで、次の言葉が右から左へ順次続く。次の行は同様に次の1組の言葉によ りマッピングされる。プレゼンテーション内の各単語がマッピングされるまで引 き続き各行が同様にマッピングされる。 次に学生はタッチ感知パッドに触れることにより情報のアクセスを開始するこ とができる。パッドに一点で触れる場合には、その位置に対応する単語がスピー カにより再生されパッドが同じオーディオ信号により振動されて学生が自分の指 で振動を感じられるようにされる。 自分の指を右上コーナから開始して第1行に沿って右から左へ動かし、次に第 2行さらに引き続く各行に沿って動かすことにより学生によりプレゼンテーショ ン全体が逐次再生される。1行の両端間で指を動かす速度により単語が再生され る速度が支配される。学生は比較的高速でプレゼンテーションにざっと目を通し て資料の概観を得ることができる。 次に学生はプレゼンテーションのMartin Luther King師の “I have a dream”スピーチに関する部分を調べたいものとする 。学生はスピーチのこの部分の空間位置を自分の筋覚およびタッチメモリにより 思い出す、すなわち、自分の指の位置およびこのエリアで教授が話した言葉の振 動の感覚に基づいてスピーチのこの部分を思い出す。学生はこのエリアに容易に “ホームイン”し、タッチ感知パッドのこの部分を自分の指でゆっくり走査する ことによりプレゼンテーションのこの部分へさらにゆっくりアクセスする。 2次元インターフェイス装置64の別の実施例を第7図に示す。2次元タッチ 感知パッド82が同様に設けられ指のタッチによりオーディオ情報をアクセスで きるようにされている。しかしながら、情報の一部を視覚的に強調し注釈を付け る準備がなされている。さらに、オーディオベース情報の2“ページ”以上へア クセスする方法も提供されている。 オーディオ情報の非常に大きい部分から本発明に関する問題点が提示される。 例えば、2時間のスピーチは数千のセグメントへ分解されることがある。これら のセグメントは全てをハンドヘルドもしくはデスクトップタッチ感知パッドの座 標上へマッピングするとアクセスするのが困難である。しかしながら、この問題 は、オーディオ情報のサブセットすなわち“ページ”だけを特定の期間にアクセ スするものとして提示することにより解決することができる。第9図に示すよう にページ自体は空間的に配置することができる。現在xページをアクセスしてい る場合、ユーザは矢符キー90の中の右矢符を押すことによりyページへ切り替 えることができる。同様に、xページをアクセスしている場合、zページ、vペ ージ、もしくはwページは、それぞれ、下向き矢符、左矢符、もしくは上向き矢 符キー90を押してアクセスすることができる。 さらに、オーディオ情報のセグメントは階層構造でアクセスして、例えば、1 分の長さのセグメントへ分解されているオーディオ情報の全てにレベル1画面で アクセスできるようにされる。下向き矢符キー90を押すと2次元パッドの分解 能が変化して現在アクセスされている1分セグメントにより全パッドが順次オー ディオ情報の一連の遥かに短いセグメントへ分解されるようにされる。同様に、 上向き矢符キー90を押すと、レベル2からレベル1等への、低い階層レベルか ら高い階層レベルへ変化する。任意数の階層レベルを使用してマイクロスコピッ クもしくはマクロスコピックスケールでオーディオ情報を交互にアクセスするこ とができる。 再び第7図を参照して、ユーザが重要と考えるオーディオ情報のセグメントが アクセスされオーディオ再生装置93により再生されると、情報のこの部分の空 間座標をユーザがハイライトオンキー92を押すことにより視覚的に強調するこ とができる。このハイライトオンキー92の起動によりユーザは1つ以上のセグ メント84に触れることによりそれらの色を変えたり不透明とすることができる 。ハイライトオフキー92を押下すると、強調されたセグメントをそのまま残し てタッチ感知パッドは指のタッチに基づいてオーディオ情報のセグメントをアク セスすることに戻る。 さらに、注釈付きブロック86に示すようにテキストの重要なセグメントに同 様に注釈を付けることができる。オーディオ情報の重要なセグメントが見つかる と、スタイラスオンボタン94によりスタイラスモードを活性化することにより このセグメントの位置を記録することができる。スタイラスモードではユーザは スタイラス88を使用してタッチ感知画面82上へ書き込みを行いその領域内の オーディオ情報の内容に関する注釈を残すことができる。次にユーザはスタイラ スオフキー94を押すことにより正規のオーディオ情報アクセスモードへ戻るこ とができる。 多くの応用において一連のタイミングマークを複数の2次元空間座標へマッピ ングすることは逐次タイミングマークが実質的に隣接する座標内に現れるように 実施される。次に第8a図を参照して、矢符102に対応する順序でオーディオ 情報のセグメントをマッピングすることができる。最初のセグメントは左上コー ナに現れ、後続セグメントは矢符102のジグザグパターンに従い左から右へ次 に1つ下を右から左へ走査する指によりオーディオ情報のセグメントを逐次走査 するようにされる。このようにして、指はラインの終端に達した後で左へ“掃引 ”し戻す必要がない。 同様に、第8b図のインターフェイス装置100上に104で示すようなスパ イラルパターンや、第8c図のインターフェイス装置100上に示すような垂直 パターン106を使用することができる。当業者であればタッチ感知パッドには 実質的に任意の形状を使用できることがお判りと思われる。さらに、形状は平坦 である必要がない。ユーザが任意の表面上の座標を識別できるようにするインタ ーフェイス装置を使用することができる。例えば、2次元インターフェイス装置 内に球面を使用することができる。さらに、コップ、椅子、もしくはドア把手等 の毎日使う日常品をインターフェイス装置として使用することができる。 本発明の他の応用にはビデオの空間分布オーディオトラックを使用してビデオ にざっと目を通すことが含まれている。その他に、音声をテキストへ変換して、 空間分布されたオーディオを使用するのが困難である場合には空間分布されたオ ーディオを音声対テキスト変換と組み合わせることができる。総括すれば、本発 明はマルチメディアコンピュータソフトウェア、通信、身障者用感覚アクセス装 置、音楽、ビジュアルアート、娯楽、および教育を含む多くの広範な分野へ応用 できる可能性がある。 人間メモリを有する人間ユーザについて検討してきたが、本発明はロボットや ある種の筋覚もしくはタッチメモリの可能な動物等の非人間ユーザも含めて広く 解釈しなければならない。 本発明を実施するための最善モードについて詳細に説明してきたが、本発明が 関連する技術になじみのある者ならば請求の範囲に明記された本発明を実施する ための他のさまざまな設計や実施例がお判りと思われる。
【手続補正書】特許法第184条の8 【提出日】1995年11月15日 【補正内容】 請求の範囲 1.複数のセグメントを有する時間ベース情報をユーザが空間的にアクセスし て再生できるようにする方法であって、該方法は、 (イ)時間ベース情報の複数のセグメントの各々を複数のマッピングされた空 間座標の中の対応する1つの空間座標へマッピングするステップと、 (ロ)ユーザの身体の一部が第1の位置へ動くことにより発生するユーザの第 1の身体的入力に対応する入力空間座標を求めるステップと、 (ハ)マッピングされた空間座標が入力空間座標に対応する時間ベース情報の 第1のセグメントへアクセスするステップと、 (ニ)時間ベース情報のアクセスされた第1のセグメントを再生するステップ とからなり、 ステップ(ロ)、(ハ)、および(ニ)が繰り返えされて時間ベース情報の再 生速度がユーザの身体の一部の動きの速度により支配され、ユーザの身体の一部 が第2の位置へ動いた後で、ユーザの人間空間メモリを使用して身体の一部を第 1の位置へ戻しステップ(ロ)、(ハ)、および(ニ)を繰り返すことにより時 間ベース情報の第1のセグメントへ再アクセスして再生することができる方法。 2.請求項1記載の方法であって、マッピングステップには時間ベース情報内 の時間の経過を示す一連の対応するタイミングマークを時間ベース情報へ割り当 て、一連のタイミングマークに基づく複数のセグメントを形成し、一連のタイミ ングマークの各々を複数のマッピングされた空間座標の中の対応する1つの空間 座標へマッピングすることが含まれる方法。 3.請求項2記載の方法であって、時間ベース情報の第1のセグメントへアク セスするステップには入力空間座標を複数のマッピングされた空間座標の中の1 つ以上の空間座標と比較して入力空間座標に対応するマッピングされた空間座標 を識別することが含まれる方法。 4.請求項3記載の方法であって、時間ベース情報の第1のセグメントへアク セスするステップにはさらに対応するマッピングされた空間座標へマッピングさ れたタイミングマークに基づいて対応するマッピングされた空間座標に対応する セグメントを識別することにより時間ベース情報の複数のセグメントから第1の セグメントを識別することが含まれる方法。 5.請求項2記載の方法であって、時間ベース情報には視覚情報が含まれる方 法。 6.請求項2記載の方法であって、時間ベース情報にはオーディオ情報が含ま れる方法。 7.請求項6記載の方法であって、オーディオ情報には音声が含まれる方法。 8.請求項7記載の方法であって、タイミングマークのシーケンスは音声の構 造に基づいて決定される方法。 9.請求項7記載の方法であって、タイミングマークのシーケンスは等時間間 隔である方法。 10.請求項2記載の方法であって、マッピングされた空間座標はカルテシア ン座標系で表現される方法。 11.請求項2記載の方法であって、マッピングされた空間座標は非カルテシ アン座標系で表現される方法。 12.請求項2記載の方法であって、マッピングされた空間座標は2次元空間 内にある方法。 13.請求項2記載の方法であって、マッピングされた空間座標は3次元空間 内にある方法。 14.請求項12記載の方法であって、一連のタイミングマークを複数のマッ ピングされた2次元空間座標へマッピングすることには一連のタイミングマーク の逐次サブセットを隣接する空間座標へ分類することが含まれる方法。 15.請求項1記載の方法であって、空間入力座標を求めるステップにはユー ザの身体の一部の方位を決定することが含まれる方法。 16.請求項1記載の方法であって、入力空間座標を求めるステップには表面 上にユーザの身体の一部により発生する触覚圧の座標系を感知することが含まれ る方法。 17.請求項1記載の方法であって、入力空間座標を決定するステップにはユ ーザの身体の一部の速度を感知することが含まれ、入力空間座標は速度に基づい ている方法。 18.請求項1記載の方法であって、入力空間座標を求めるステップにはユー ザの身体の一部の加速度を感知することが含まれ、入力空間座標は加速度に基づ いている方法。 19.請求項1記載の方法であって、入力空間座標を求めるステップには表面 上にユーザの身体の一部により発生する温度増加の座標を感知することが含まれ る方法。 20.請求項1記載の方法であって、時間ベース情報のアクセスされた第1の セグメントを再生するステップには元の形式の時間ベース情報の形式をエミュレ ートするように第1のセグメントの感覚出力が含まれる方法。 21.請求項14記載の方法であって、時間ベース情報のアクセスされた第1 のセグメントを再生するステップにはさらに時間ベース情報の元の形式とは異な る形式の第1のセグメントの感覚出力が含まれる方法。 22.複数のセグメントを有する時間ベース情報をユーザが空間的にアクセス して再生できるようにするシステムであって、該システムは、 時間ベース情報の複数のセグメントの各々を複数のマッピングされた空間座標 の中の対応する1つの空間座標へマッピングする時間対空間変換器と、 ユーザの身体の一部が第1の位置へ動くことにより発生する第1の身体的入力 に対応する入力空間座標を求めるようにユーザと動作上関連するユーザインター フェィス装置と、 マッピングされた空間座標が入力空間座標に対応する時間ベース情報の第1の セグメントへアクセスする、ユーザインターフェィス装置と通信する、空間アク セス装置と、 時間ベース情報の再生速度がユーザの身体の一部の動きの速度により支配され る、空間アクセス装置と通信して時間ベース情報のアクセスされた第1のセグメ ントを再生する再生装置とを具備し、 ユーザの身体の一部が第2の位置へ動いた後で、ユーザの人間空間メモリを使 用してユーザの身体の一部を第1の位置へ戻し時間ベース情報の第1のセグメン トへ再アクセスするシステム。 23.請求項22記載のシステムであって、時間対空間変換器には時間ベース 情報内の時間の経過を示す一連の対応するタイミングマークを時間ベース情報へ 割り当て、タイミングマークに基づく複数のセグメントを形成する手段と、一連 のタイミングマークの各々を複数のマッピングされた空間座標の中の対応する1 つの空間座標へマッピングする手段が含まれるシステム。 24.請求項23記載のシステムであって、空間アクセス装置には入力空間座 標を複数のマッピングされた空間座標の中の1つ以上の空間座標と比較して入力 空間座標に対応するマッピングされた空間座標を識別する比較手段が含まれるシ ステム。 25.請求項24記載のシステムであって、空間アクセス装置にはさらに対応 するマッピングされた空間座標へマッピングされたタイミングマークに基づいて 対応するマッピングされた空間座標に対応するセグメントを識別することにより 時間ベース情報の複数のセグメントから第1のセグメントを識別する識別手段が 含まれるシステム。 26.請求項24記載のシステムであって、時間ベース情報には視覚情報が含 まれるシステム。 27.請求項24記載のシステムであって、時間ベース情報にはオーディオ情 報が含まれるシステム。 28.請求項27記載のシステムであって、オーディオ情報には音声が含まれ るシステム。 29.請求項28記載のシステムであって、タイミングマークのシーケンスは 音声の構造に基づいて決定されるシステム。 30.請求項28記載のシステムであって、タイミングマークのシーケンスは 等時間間隔であるシステム。 31.請求項24記載のシステムであって、マッピングされた空間座標は非カ ルテシアン座標系で表現されるシステム。 32.請求項24記載のシステムであって、マッピングされた空間座標はカル テシアン座標系で表現されるシステム。 33.請求項24記載のシステムであって、マッピングされた空間座標は2次 元空間内にあるシステム。 34.請求項24記載のシステムであって、マッピングされた空間座標は3次 元空間内にあるシステム。 35.請求項33記載のシステムであって、一連のタイミングマークを複数の マッピングされた2次元空間座標へマッピングすることには一連のタイミングマ ークの逐次サブセットを隣接するマッピングされた空間座標へ分類することが含 まれるシステム。 36.請求項35記載のシステムであって、ユーザインターフェイス装置には ユーザの身体の一部の方位を決定する決定手段が含まれるシステム。 37.請求項22記載のシステムであって、ユーザインターフェイス装置には 表面上にユーザの身体の一部により発生する触覚圧の座標系を感知する手段が含 まれるシステム。 38.請求項22記載のシステムであって、ユーザインターフェイス装置には ユーザの身体の一部の速度を感知する手段が含まれるシステム。 39.請求項22記載のシステムであって、ユーザインターフェイス装置には ユーザの身体の一部の加速度を感知する手段が含まれるシステム。 40.請求項22記載のシステムであって、ユーザインターフェイス装置には 表面上にユーザの身体の一部により発生する温度増加の座標を感知する手段が含 まれるシステム。 41.請求項22記載のシステムであって、再生装置には元の形式の時間ベー ス情報の形式をエミュレートするように第1のセグメントの感覚出力を再生する 手段が含まれるシステム。 42.請求項22記載のシステムであって、再生装置にはさらに時間ベース情 報の元の形式とは異なる形式で第1のセグメントの感覚出力を再生する手段が含 まれるシステム。 43.請求項21記載の方法であって、感覚出力はユーザの身体の一部により 感知される触覚出力の形状である方法。 44.請求項42記載のシステムであって、感覚出力はユーザの身体の一部に より感知される触覚出力の形状であるシステム。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FR,GB,GR,IE,IT,LU,M C,NL,PT,SE),OA(BF,BJ,CF,CG ,CI,CM,GA,GN,ML,MR,NE,SN, TD,TG),AP(KE,MW,SD,SZ),AM, AT,AU,BB,BG,BR,BY,CA,CH,C N,CZ,DE,DK,EE,ES,FI,GB,GE ,HU,JP,KE,KG,KP,KR,KZ,LK, LR,LT,LU,LV,MD,MG,MN,MW,N L,NO,NZ,PL,PT,RO,RU,SD,SE ,SI,SK,TJ,TT,UA,UZ,VN

Claims (1)

  1. 【特許請求の範囲】 1.複数のセグメントを有する時間ベース情報をユーザが空間的にアクセスし て再生できるようにする方法であって、該方法は、 (イ)時間ベース情報の複数のセグメントの各々を複数のマッピングされた空 間座標の中の対応する1つの空間座標へマッピングするステップと、 (ロ)ユーザの身体の一部が第1の位置へ動くことにより発生するユーザの第 1の身体的入力に対応する入力空間座標を求めるステップと、 (ハ)マッピングされた空間座標が入力空間座標に対応する時間ベース情報の 第1のセグメントへアクセスするステップと、 (ニ)時間ベース情報のアクセスされた第1のセグメントを再生するステップ とからなり、 ユーザの身体の一部が第2の位置へ動いた後で、ユーザの人間空間メモリを使 用して身体の一部を第1の位置へ戻しステップ(ロ)、(ハ)、および(ニ)を 繰り返すことにより時間ベース情報の第1のセグメントへ再アクセスして再生す ることができる方法。 2.請求項1記載の方法であって、マッピングステップには時間ベース情報内 の時間の経過を示す一連の対応するタイミングマークを時間ベース情報へ割り当 て、一連のタイミングマークに基づく複数のセグメントを形成し、一連のタイミ ングマークの各々を複数のマッピングされた空間座標の中の対応する1つの座標 へマッピングすることが含まれる方法。 3.請求項1記載の方法であって、時間ベース情報の第1のセグメントへアク セスするステップには入力空間座標を複数のマッピングされた空間座標の中の1 つ以上の空間座標と比較して入力空間座標と一致するマッピングされた空間座標 を識別することが含まれる方法。 4.請求項1記載の方法であって、時間ベース情報の第1のセグメントへアク セスするステップにはさらに一致するマッピングされた空間座標へマッピングさ れたタイミングマークに基づいて一致するマッピングされた空間座標に対応する セグメントを識別することにより時間ベース情報の複数のセグメントから第1の セグメントを識別することが含まれる方法。 5.請求項2記載の方法であって、時間ベース情報には視覚情報が含まれる方 法。 6.請求項2記載の方法であって、時間ベース情報にはオーディオ情報が含ま れる方法。 7.請求項6記載の方法であって、オーディオ情報には音声が含まれる方法。 8.請求項7記載の方法であって、タイミングマークのシーケンスは音声の構 造に基づいて決定される方法。 9.請求項8記載の方法であって、タイミングマークのシーケンスは等時間間 隔である方法。 10.請求項2記載の方法であって、マッピングされた空間座標はカルテシア ン座標系内にある方法。 11.請求項2記載の方法であって、マッピングされた空間座標は非カルテシ アン座標系内にある方法。 12.請求項2記載の方法であって、マッピングされた空間座標は2次元空間 内にある方法。 13.請求項2記載の方法であって、マッピングされた空間座標は3次元空間 内にある方法。 14.請求項12記載の方法であって、一連のタイミングマークを複数のマッ ピングされた2次元空間座標へマッピングすることには一連のタイミングマーク の逐次サブセットを隣接する空間座標へ分類することが含まれる方法。 15.請求項1記載の方法であって、空間入力座標を求めるステップにはユー ザの身体の一部の方位を決定することが含まれる方法。 16.請求項1記載の方法であって、入力空間座標を求めるステップには表面 上にユーザの身体の一部により発生する触覚圧の座標系を感知することが含まれ る方法。 17.請求項1記載の方法であって、入力空間座標を求めるステップにはユー ザの身体の一部の速度を感知することが含まれる方法。 18.請求項1記載の方法であって、入力空間座標を求めるステップにはユー ザの身体の一部の加速度を感知することが含まれる方法。 19.請求項1記載の方法であって、入力空間座標を求めるステップには表面 上にユーザの身体の一部により発生する温度増加の座標を感知することが含まれ る方法。 20.請求項1記載の方法であって、時間ベース情報のアクセスされた第1の セグメントを再生するステップには元の形式の時間ベース情報の形式をエミュレ ートするように第1のセグメントの感覚出力が含まれる方法。 21.請求項14記載の方法であって、時間ベース情報のアクセスされた第1 のセグメントを再生するステップにはさらに時間ベース情報の元の形式とは異な る形式の第1のセグメントの感覚出力が含まれる方法。 22.複数のセグメントを有する時間ベース情報をユーザが空間的にアクセス して再生できるようにするシステムであって、該システムは、 時間ベース情報の複数のセグメントの各々を複数のマッピングされた空間座標 の中の対応する1つの空間座標へマッピングする時間対空間変換器と、 ユーザの身体の一部が第1の位置へ動くことにより発生する第1の身体的入力 に対応する入力空間座標を求めるようにユーザと動作上関連するユーザインター フェィス装置と、 マッピングされた空間座標が入力空間座標に対応する時間ベース情報の第1の セグメントへアクセスする、ユーザインターフェィス装置と通信する、空間アク セス装置と、 時間ベース情報のアクセスされた第1のセグメントを再生する空間アクセス装 置と通信する再生装置とを具備し、 ユーザの身体の一部が第2の位置へ動いた後で、ユーザの人間空間メモリを使 用してユーザの身体の一部を第1の位置へ戻し時間ベース情報の第1のセグメン トへ再アクセスするシステム。 23.請求項22記載のシステムであって、時間対空間変換器には時間ベース 情報内の時間の経過を示す一連の対応するタイミングマークを時間ベース情報へ 割り当て、タイミングマークに基づく複数のセグメントを形成する手段と、一連 のタイミングマークの各々を複数のマッピングされた空間座標の中の対応する1 つの空間座標へマッピングする手段が含まれるシステム。 24.請求項22記載のシステムであって、空間アクセス装置には入力空間座 標を複数のマッピングされた空間座標の中の1つ以上の空間座標と比較して入力 空間座標と一致するマッピングされた空間座標を識別する比較手段が含まれるシ ステム。 25.請求項22記載のシステムであって、空間アクセス装置にはさらに一致 するマッピングされた空間座標へマッピングされたタイミングマークに基づいて 一致するマッピングされた空間座標に対応するセグメントを識別することにより 時間ベース情報の複数のセグメントから第1のセグメントを識別する識別手段が 含まれるシステム。 26.請求項24記載のシステムであって、時間ベース情報には視覚情報が含 まれるシステム。 27.請求項24記載のシステムであって、時間ベース情報にはオーディオ情 報が含まれるシステム。 28.請求項25記載のシステムであって、オーディオ情報には音声が含まれ るシステム。 29.請求項28記載のシステムであって、タイミングマークのシーケンスは 音声の構造に基づいて決定されるシステム。 30.請求項29記載のシステムであって、タイミングマークのシーケンスは 等時間間隔であるシステム。 31.請求項24記載のシステムであって、マッピングされた空間座標は非カ ルテシアン座標系内にあるシステム。 32.請求項24記載のシステムであって、マッピングされた空間座標はカル テシアン座標系内にあるシステム。 33.請求項24記載のシステムであって、マッピングされた空間座標は2次 元空間内にあるシステム。 34.請求項24記載のシステムであって、マッピングされた空間座標は3次 元空間内にあるシステム。 35.請求項33記載のシステムであって、一連のタイミングマークを複数の マッピングされた2次元空間座標へマッピングすることには一連のタイミングマ ークの逐次サブセットを隣接するマッピングされた空間座標へ分類することが含 まれるシステム。 36.請求項35記載のシステムであって、ユーザインターフェイス装置には ユーザの身体の一部の方位を決定する決定手段が含まれるシステム。 37.請求項16記載のシステムであって、ユーザインターフェイス装置には 表面上にユーザの身体の一部により発生する触覚圧の座標系を感知する手段が含 まれるシステム。 38.請求項22記載のシステムであって、ユーザインターフェイス装置には ユーザの身体の一部の速度を感知する手段が含まれるシステム。 39.請求項22記載のシステムであって、ユーザインターフェイス装置には ユーザの身体の一部の加速度を感知する手段が含まれるシステム。 40.請求項22記載のシステムであって、ユーザインターフェイス装置には 表面上にユーザの身体の一部により発生する温度増加の座標を感知する手段が含 まれるシステム。 41.請求項22記載のシステムであって、再生装置には元の形式の時間ベー ス情報の形式をエミュレートするように第1のセグメントの感覚出力を再生する 手段が含まれるシステム。 42.請求項22記載のシステムであって、再生装置にはさらに時間ベース情 報の元の形式とは異なる形式で第1のセグメントの感覚出力を再生する手段が含 まれるシステム。
JP51753895A 1993-12-22 1994-12-19 時間ベース情報の空間アクセス方法 Expired - Fee Related JP4225567B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US172,637 1993-12-22
US08/172,637 US5461711A (en) 1993-12-22 1993-12-22 Method and system for spatial accessing of time-based information
PCT/US1994/014622 WO1995017710A1 (en) 1993-12-22 1994-12-19 Method and system for spatial accessing of time-based information

Publications (2)

Publication Number Publication Date
JPH09510558A true JPH09510558A (ja) 1997-10-21
JP4225567B2 JP4225567B2 (ja) 2009-02-18

Family

ID=22628555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51753895A Expired - Fee Related JP4225567B2 (ja) 1993-12-22 1994-12-19 時間ベース情報の空間アクセス方法

Country Status (6)

Country Link
US (2) US5461711A (ja)
EP (1) EP0736202A4 (ja)
JP (1) JP4225567B2 (ja)
KR (1) KR970700332A (ja)
AU (1) AU1374495A (ja)
WO (1) WO1995017710A1 (ja)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889670A (en) 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US6681029B1 (en) 1993-11-18 2004-01-20 Digimarc Corporation Decoding steganographic messages embedded in media signals
US5914720A (en) * 1994-04-21 1999-06-22 Sandia Corporation Method of using multiple perceptual channels to increase user absorption of an N-dimensional presentation environment
US5592602A (en) * 1994-05-17 1997-01-07 Macromedia, Inc. User interface and method for controlling and displaying multimedia motion, visual, and sound effects of an object on a display
US5623582A (en) 1994-07-14 1997-04-22 Immersion Human Interface Corporation Computer interface or control input device for laparoscopic surgical instrument and other elongated mechanical objects
US5691898A (en) * 1995-09-27 1997-11-25 Immersion Human Interface Corp. Safe and low cost computer peripherals with force feedback for consumer applications
US6408331B1 (en) 1995-07-27 2002-06-18 Digimarc Corporation Computer linking methods using encoded graphics
US6411725B1 (en) 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
US5786814A (en) * 1995-11-03 1998-07-28 Xerox Corporation Computer controlled display system activities using correlated graphical and timeline interfaces for controlling replay of temporal data representing collaborative activities
US5717869A (en) * 1995-11-03 1998-02-10 Xerox Corporation Computer controlled display system using a timeline to control playback of temporal data representing collaborative activities
US5717879A (en) * 1995-11-03 1998-02-10 Xerox Corporation System for the capture and replay of temporal data representing collaborative activities
AU1328597A (en) 1995-11-30 1997-06-19 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US5808605A (en) * 1996-06-13 1998-09-15 International Business Machines Corporation Virtual pointing device for touchscreens
US6961700B2 (en) * 1996-09-24 2005-11-01 Allvoice Computing Plc Method and apparatus for processing the output of a speech recognition engine
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
US6285351B1 (en) 1997-04-25 2001-09-04 Immersion Corporation Designing force sensations for computer applications including sounds
US6292170B1 (en) 1997-04-25 2001-09-18 Immersion Corporation Designing compound force sensations for computer applications
US5945986A (en) * 1997-05-19 1999-08-31 University Of Illinois At Urbana-Champaign Silent application state driven sound authoring system and method
US6256638B1 (en) 1998-04-14 2001-07-03 Interval Research Corporation Printable interfaces and digital linkmarks
US6518950B1 (en) 1997-10-07 2003-02-11 Interval Research Corporation Methods and systems for providing human/computer interfaces
WO1999019823A2 (en) * 1997-10-10 1999-04-22 Interval Research Corporation Methods and systems for providing human/computer interfaces
US6160555A (en) * 1997-11-17 2000-12-12 Hewlett Packard Company Method for providing a cue in a computer system
US5977867A (en) * 1998-05-29 1999-11-02 Nortel Networks Corporation Touch pad panel with tactile feedback
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
WO2000033572A1 (fr) 1998-11-30 2000-06-08 Sony Corporation Dispositif et procede de delivrance d'information
US7174083B1 (en) 1998-12-30 2007-02-06 Xerox Corporation Systems and methods for using structured representations to index recordings of activity
US6859769B1 (en) * 1999-01-26 2005-02-22 Analytical Graphics, Inc. Method and apparatus for creating elements and systems for description of position and motion of bodies in three-dimensional space to support orbital maneuver analysis
US6529920B1 (en) * 1999-03-05 2003-03-04 Audiovelocity, Inc. Multimedia linking device and method
WO2000055712A1 (de) * 1999-03-17 2000-09-21 Siemens Aktiengesellschaft Verfahren und anordnung zur interaktion mit einem benutzer
US6757002B1 (en) 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
US6507349B1 (en) * 2000-01-06 2003-01-14 Becomm Corporation Direct manipulation of displayed content
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US20020054026A1 (en) * 2000-04-17 2002-05-09 Bradley Stevenson Synchronized transmission of recorded writing data with audio
US7111168B2 (en) 2000-05-01 2006-09-19 Digimarc Corporation Digital watermarking systems
JP3949912B2 (ja) * 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US20020026521A1 (en) * 2000-08-31 2002-02-28 Sharfman Joshua Dov Joseph System and method for managing and distributing associated assets in various formats
US6839059B1 (en) 2000-08-31 2005-01-04 Interactive Video Technologies, Inc. System and method for manipulation and interaction of time-based mixed media formats
US6922702B1 (en) 2000-08-31 2005-07-26 Interactive Video Technologies, Inc. System and method for assembling discrete data files into an executable file and for processing the executable file
US20020091840A1 (en) * 2000-11-28 2002-07-11 Gregory Pulier Real-time optimization of streaming media from a plurality of media sources
US8176425B2 (en) * 2001-02-02 2012-05-08 Ensequence, Inc. Animated screen object for annotation and selection of video sequences
US7567232B2 (en) 2001-03-09 2009-07-28 Immersion Corporation Method of using tactile feedback to deliver silent status information to a user of an electronic device
DE10117956B4 (de) * 2001-04-10 2004-04-08 Schott Glas Berührungsschalter mit einer Bedienfläche
US7202851B2 (en) 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
US20050176665A1 (en) * 2001-05-18 2005-08-11 Sirna Therapeutics, Inc. RNA interference mediated inhibition of hairless (HR) gene expression using short interfering nucleic acid (siNA)
IL143255A (en) 2001-05-20 2015-09-24 Simbionix Ltd Endoscopic ultrasonography simulation
US6937033B2 (en) 2001-06-27 2005-08-30 Immersion Corporation Position sensor with resistive element
DE10133126A1 (de) * 2001-07-07 2003-01-16 Philips Corp Intellectual Pty Richtungssensitives Audioaufnahmesystem mit Anzeige von Aufnahmegebiet und/oder Störquelle
US7056123B2 (en) 2001-07-16 2006-06-06 Immersion Corporation Interface apparatus with cable-driven force feedback and grounded actuators
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
KR20090082519A (ko) * 2001-10-23 2009-07-30 임머숀 코퍼레이션 감촉 피드백을 사용하여 전자 디바이스의 사용자에게 사일런트 상태 정보를 전달하는 방법
KR20040062601A (ko) * 2001-10-30 2004-07-07 임머숀 코퍼레이션 가상 애완동물과 상호작용시 촉각 피드백을 제공하는방법들 및 장치
US7535454B2 (en) 2001-11-01 2009-05-19 Immersion Corporation Method and apparatus for providing haptic feedback
KR101289110B1 (ko) * 2001-11-01 2013-08-07 임머숀 코퍼레이션 촉각을 제공하기 위한 방법 및 장치
JP2003323256A (ja) * 2002-04-26 2003-11-14 Fuji Xerox Co Ltd 情報処理装置
GB2410995B (en) 2002-10-15 2007-05-09 Immersion Corp Products and processes for providing force sensations in a user interface
GB2410316B (en) * 2002-10-20 2007-03-21 Immersion Corp System and method for providing rotational haptic feedback
US8059088B2 (en) 2002-12-08 2011-11-15 Immersion Corporation Methods and systems for providing haptic messaging to handheld communication devices
AU2003297716A1 (en) 2002-12-08 2004-06-30 Immersion Corporation Methods and systems for providing haptic messaging to handheld communication devices
US8830161B2 (en) 2002-12-08 2014-09-09 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
US7769417B2 (en) * 2002-12-08 2010-08-03 Immersion Corporation Method and apparatus for providing haptic feedback to off-activating area
US7128577B2 (en) * 2003-02-26 2006-10-31 Patrice Renaud Method for providing data to be used by a therapist for analyzing a patient behavior in a virtual environment
US7850456B2 (en) 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
US20050131863A1 (en) * 2003-12-11 2005-06-16 W. Daniel Hillis Reception of spatial-to-temporal translated data
US20050132149A1 (en) * 2003-12-11 2005-06-16 W. Daniel Hillis Spatial-to-temporal data translation and scheduling and control
US20050132415A1 (en) * 2003-12-11 2005-06-16 Hillis W. D. Spatial-to-temporal data translation and transmission
US7644183B2 (en) * 2003-12-11 2010-01-05 Searete, Llc Accelerated reception of spatial-to-temporal translated data
US7742036B2 (en) 2003-12-22 2010-06-22 Immersion Corporation System and method for controlling haptic devices having multiple operational modes
US7765333B2 (en) 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US20060159432A1 (en) 2005-01-14 2006-07-20 Citrix Systems, Inc. System and methods for automatic time-warped playback in rendering a recorded computer session
US8145777B2 (en) 2005-01-14 2012-03-27 Citrix Systems, Inc. Method and system for real-time seeking during playback of remote presentation protocols
US8200828B2 (en) 2005-01-14 2012-06-12 Citrix Systems, Inc. Systems and methods for single stack shadowing
US8230096B2 (en) 2005-01-14 2012-07-24 Citrix Systems, Inc. Methods and systems for generating playback instructions for playback of a recorded computer session
US8296441B2 (en) 2005-01-14 2012-10-23 Citrix Systems, Inc. Methods and systems for joining a real-time session of presentation layer protocol data
US8935316B2 (en) 2005-01-14 2015-01-13 Citrix Systems, Inc. Methods and systems for in-session playback on a local machine of remotely-stored and real time presentation layer protocol data
US8340130B2 (en) 2005-01-14 2012-12-25 Citrix Systems, Inc. Methods and systems for generating playback instructions for rendering of a recorded computer session
US7831728B2 (en) * 2005-01-14 2010-11-09 Citrix Systems, Inc. Methods and systems for real-time seeking during real-time playback of a presentation layer protocol data stream
US7996549B2 (en) * 2005-01-14 2011-08-09 Citrix Systems, Inc. Methods and systems for recording and real-time playback of presentation layer protocol data
US20060161671A1 (en) * 2005-01-14 2006-07-20 Citrix Systems, Inc. Method and systems for capture and replay of remote presentation protocol data
US8423673B2 (en) 2005-03-14 2013-04-16 Citrix Systems, Inc. Method and apparatus for updating a graphical display in a distributed processing environment using compression
US8171169B2 (en) 2005-03-14 2012-05-01 Citrix Systems, Inc. Method and apparatus for updating a graphical display in a distributed processing environment
US20070063982A1 (en) * 2005-09-19 2007-03-22 Tran Bao Q Integrated rendering of sound and image on a display
US8191008B2 (en) 2005-10-03 2012-05-29 Citrix Systems, Inc. Simulating multi-monitor functionality in a single monitor environment
US8700791B2 (en) * 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
KR100583400B1 (ko) * 2005-12-28 2006-05-26 새한항업(주) 정적 지도의 동적 디스플레이 시스템
US20080158223A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for dynamic adaptability of content and channels
US20080159328A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for in-context assembly of interactive actionable insights and modalities in physical spaces
US20080163052A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for multi-modal fusion of physical and virtual information channels
US8500451B2 (en) 2007-01-16 2013-08-06 Simbionix Ltd. Preoperative surgical simulation
US8543338B2 (en) 2007-01-16 2013-09-24 Simbionix Ltd. System and method for performing computerized simulations for image-guided procedures using a patient specific model
EP2321019B1 (en) * 2008-08-11 2019-04-10 Immersion Corporation A haptic enabled gaming peripheral for a musical game
US8745494B2 (en) * 2009-05-27 2014-06-03 Zambala Lllp System and method for control of a simulated object that is associated with a physical location in the real world environment
US20100306825A1 (en) * 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
US8303387B2 (en) * 2009-05-27 2012-11-06 Zambala Lllp System and method of simulated objects and applications thereof
US8615159B2 (en) 2011-09-20 2013-12-24 Citrix Systems, Inc. Methods and systems for cataloging text in a recorded session
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US20130293580A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for selecting targets in an augmented reality environment
US9891709B2 (en) 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20140013192A1 (en) * 2012-07-09 2014-01-09 Sas Institute Inc. Techniques for touch-based digital document audio and user interface enhancement
US9904394B2 (en) 2013-03-13 2018-02-27 Immerson Corporation Method and devices for displaying graphical user interfaces based on user contact
US9715279B2 (en) 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US11062476B1 (en) * 2018-09-24 2021-07-13 Apple Inc. Generating body pose information
US11762530B2 (en) * 2020-02-05 2023-09-19 Legacy Productions, Inc. Interface for radial selection of time-based events

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4943866A (en) * 1983-12-02 1990-07-24 Lex Computer And Management Corporation Video composition method and apparatus employing smooth scrolling
US4964004A (en) * 1983-12-02 1990-10-16 Lex Computer And Management Corporation Video composition method and apparatus employing visual and tactile feedback
US4752836A (en) * 1984-09-07 1988-06-21 Ivex Corporation Method and apparatus for reproducing video images to simulate movement within a multi-dimensional space
JPH0778718B2 (ja) * 1985-10-16 1995-08-23 株式会社日立製作所 画像表示装置
US5174759A (en) * 1988-08-04 1992-12-29 Preston Frank S TV animation interactively controlled by the viewer through input above a book page
US5109482A (en) * 1989-01-11 1992-04-28 David Bohrman Interactive video control system for displaying user-selectable clips
US5202961A (en) * 1990-06-08 1993-04-13 Apple Computer, Inc. Sequential information controller
US5191320A (en) * 1990-12-15 1993-03-02 Sony Corporation Of America Variable scale input device
US5191645A (en) * 1991-02-28 1993-03-02 Sony Corporation Of America Digital signal processing system employing icon displays
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
DE69222102T2 (de) * 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
US5404444A (en) * 1993-02-05 1995-04-04 Sight & Sound Incorporated Interactive audiovisual apparatus

Also Published As

Publication number Publication date
KR970700332A (ko) 1997-01-08
JP4225567B2 (ja) 2009-02-18
EP0736202A4 (en) 1999-03-03
US5461711A (en) 1995-10-24
WO1995017710A1 (en) 1995-06-29
AU1374495A (en) 1995-07-10
EP0736202A1 (en) 1996-10-09
US5600777A (en) 1997-02-04

Similar Documents

Publication Publication Date Title
JP4225567B2 (ja) 時間ベース情報の空間アクセス方法
Loncke Augmentative and alternative communication: Models and applications
Rocchesso et al. Sounding objects
JP2607561B2 (ja) スピーチ同期アニメーション
Csapó et al. Overview of auditory representations in human-machine interfaces
Donker et al. The design of auditory user interfaces for blind users
Kamel et al. Sketching images eyes-free: a grid-based dynamic drawing tool for the blind
Rocchesso Explorations in sonic interaction design
Blattner In our image: Interface design in the 1990s
Rigas et al. The rising pitch metaphor: an empirical study
Schraffenberger Arguably augmented reality: relationships between the virtual and the real
KR101550346B1 (ko) 다문화 가정 임산부를 위한 콘텐츠 앱 기반의 태교용 그림책 콘텐츠 재생 방법
Reed et al. Negotiating Experience and Communicating Information Through Abstract Metaphor
Winberg et al. Qualitative aspects of auditory direct manipulation. A case study of the towers of Hanoi
Semwal et al. Virtual environments for visually impaired
Glos et al. Rosebud: a place for interaction between memory, story, and self
Droumeva et al. Exploring ambient sound techniques in the design of responsive environments for children
De Witt Designing Sonification of User Data in A ective Interaction
Ravetto-Biagioli Dancing with and within the Digital Domain
Glitsos Somatechnics and popular music in digital contexts
Lewis Ventriloquial acts: Critical reflections on the art of Foley
Lesteberg et al. Micro and macro-developing new accessible musicking technologies
Bell Participatory art and computers: identifying, analysing and composing the characteristics of works of participatory art that use computer technology
Gallagher et al. Of sound, bodies, and immersive experience: Sonic rhetoric and its affordances in the virtual Martin Luther King Project
Blattner Multimedia Interfaces: Designing for Diversity

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20050601

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20050715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070129

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070315

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080922

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees