JP4225567B2 - 時間ベース情報の空間アクセス方法 - Google Patents

時間ベース情報の空間アクセス方法 Download PDF

Info

Publication number
JP4225567B2
JP4225567B2 JP51753895A JP51753895A JP4225567B2 JP 4225567 B2 JP4225567 B2 JP 4225567B2 JP 51753895 A JP51753895 A JP 51753895A JP 51753895 A JP51753895 A JP 51753895A JP 4225567 B2 JP4225567 B2 JP 4225567B2
Authority
JP
Japan
Prior art keywords
time
information
segment
based information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP51753895A
Other languages
English (en)
Other versions
JPH09510558A (ja
Inventor
ワング,ウェイジア
マイクル ホワイト,シーン
Original Assignee
インターバル リサーチ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターバル リサーチ コーポレイション filed Critical インターバル リサーチ コーポレイション
Publication of JPH09510558A publication Critical patent/JPH09510558A/ja
Application granted granted Critical
Publication of JP4225567B2 publication Critical patent/JP4225567B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S715/00Data processing: presentation processing of document, operator interface processing, and screen saver display processing
    • Y10S715/961Operator interface with visual structure or function dictated by intended use
    • Y10S715/965Operator interface with visual structure or function dictated by intended use for process control and configuration
    • Y10S715/97Instrumentation and component modelling, e.g. interactive control panel

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

技術分野
本発明はユーザから得られる空間座標情報に基づいて時間ベース情報にアクセスする方法およびシステムに関する。
背景技術
時間ベース情報を吸収して処理することは空間分布情報を吸収することよりも難しい。これは、一部、時間ベース情報から“全体の感覚”を生成することが困難なためである。例えば、プリントされたテキストを黙読することは記録された音声を聴取することよりも遥かに容易に早くできることはよく経験することである。目の焦点(fovea vision−中心視または中心視覚)は1つの場所から別の場所へ急速に動くことができ、周辺視野は窩周りの大きな領域をぼんやりと眺めそのため読者は任意所与の時点において中心視がプリントされたテキストの残り(例えば、ページの残り、文の残り、単語の残り)に対してどこにあるかを知る。周辺視野によって中心視は読者が調べたい場所を迅速に見つけることができる。したがって、目読は“瞬時任意アクセス”と考えることができる。
これに対して、例えば、オーディオおよび/もしくはビデオプレーヤ等の、時間ベース情報へアクセスするのに使用する従来の装置はこのような情報を逐次ディスプレイするに過ぎない(例えば、記録されたオーディオもしくはビデオフレームの再生)。すなわち、従来の装置では時間ベース情報は時間軸に沿ってしか提示できない。時間は逐次であるため、任意の時点において、このような情報へアクセスしている人は情報の小さなセグメントにしか曝されることがない。人間の時相記憶(temporal memory)は短く時間の分解能も悪いため、ディスプレイもしくはアクセスされる全情報片に対する特定情報セグメントの相対タイミングマークをユーザが確認するのは困難である。
たとえ基礎的装置によりユーザが音声の1つの部分から別の部分へ迅速に移ることができても(例えば、ランダムアクセス可能なデジタル記憶装置)、通常聴取者は単に自分が任意の時点において全情報に対してどこにいるかが判らないためにそうすることはなく、したがって、どこへ移るべきかが判らない。したがって、時間ベース情報へアクセスする際の困難は主として人間の視覚、聴覚、記憶特性の組合せ、および従来の装置の作動方法により全体の感覚を発生する能力が欠如するために生じる。この時相的制約により1組の情報の一般的な見通しをたてることがさらに困難となる。
記録された音声等の時間ベース情報をプリントされたテキストやピクチュア等の他の空間視覚コードへ精密に変換できれば、時間ベース情報へのアクセスは読み取りへ変わることができる。しかしながら、自動音声認識は完全なものからは程遠いものとなる。したがって、記録された音声を吸収して提示するための別の方法が必要となる。
従来技術の多くのシステムがこの問題の解決を試みてきている。従来の大概の方法は次の方法の1つを強調している。
1.(状況に依存する)重要部分を抽出するかもしくは重要ではない部分を投棄することにより情報を簡約化する。いくつかの時間ベース情報は、事実、重要ではなく情報を優先付する効率的方法があるものと仮定するためこの方法はあらゆる状況において有効なわけではない。
2.記録された音声の波形の振幅、および構造パターン等の情報の特性を利用して情報に視覚的に注釈を付けさまざまなセグメントを容易に識別できるようにする。したがって、この方法は有効な自動特徴抽出システムに依存する。この方法も実現が困難でありあらゆる時間ベース情報源について有効なわけではない。
従来技術の他のシステムは基礎的テキストの構造の前の知識に基づく記録された音声のプレゼンテーションに向けられている。このようなシステムの1例はアップルコンピュータ社から市販されているマルチメディアパッケージ“From Alice to Ocean”である。このパッケージはオーストラリアの砂漠を横断する婦人の旅物語りを提供する。著者が読み上げる物語りのテキストは簡便なセグメント内に格納されている。テキストのこれらのセグメントはコンピュータ画面上に表示される視覚キューに基づいて対応する視覚イメージと共にユーザによりアクセスされる。
この種の第2の従来技術のシステムはBroderbund社から市販されているCD−ROMゲーム/リーダ“Just Grandma and Me”である。このパッケージによりユーザはコンピュータ画面上にディスプレイされた物語りの単語に対応する予め記録された話し言葉を再生することができる。
これらのシステムおよびその基礎的方法はテキストの存在により提供される演繹的情報を付加することなく時間ベース情報へアクセスする問題には向けられていない。基礎的テキストが判っておれば、テキスト自体を使用して直接情報へアクセス、すなわち直接読み取りもしくはテキスト対音声変換、することができるため問題の解決はささいなこととなる。これは原文の解釈や他の類似の文書への演繹的アクセスを欠く時間ベース情報については有効な方法ではない。
発明の開示
したがって、ユーザが時間ベース情報へ空間的にアクセスして再生することができる方法およびシステムを提供することが本発明の目的である。
プリントされたテキストの読取り時に生成される周辺視野と類似の時間ベース情報をアクセスするための全体の感覚を作り出すことも本発明の目的である。
時間ベース情報を空間分布情報へ変換して情報に容易にアクセスしてざっと目を通すことができるようにする時間ベース情報のアクセス方法およびシステムを提供することが本発明のさらにもう1つの目的である。
時間ベース情報を空間分布情報へ変換すなわちマッピングする方法およびシステムを提供することが本発明のもう1つの目的である。
さらに時間ベース情報源に関連する方法で空間分布情報へアクセスする方法およびシステムを提供することが本発明の1つの目的である。
本発明のもう1つの目的はユーザが筋覚および触覚記憶を利用して空間分布情報のセグメント位置を記憶してユーザが目読に似た見かけ上並列な任意の情報アクセスを達成できるような全体の感覚を得ることができる方法およびシステムを提供することである。
本発明のさらにもう1つの目的は(例えば、指、舌、頭、肩、膝、踵、等の)任意の人体の動きを含むユーザからの身体的入力を使用して時間ベース情報の空間分布表現を走査する方法およびシステムを提供することである。
本発明のより詳細な目的はユーザの空間位置の記憶に頼って予めアクセスされた情報を再アクセスできるように、身体的入力により、ユーザが時間ベース情報を空間的にアクセスし再生できるようにする方法およびシステムを提供することである。このようにして、ユーザは情報にざっと目を通してより慎重な走査を保証する情報部分を確認することができる。
前記目的を達成するために、本発明により複数のセグメントを有する時間ベース情報をユーザが空間的にアクセスして再生できるようにする方法が提供される。本方法には時間ベース情報の複数のセグメントの各々を複数のマッピング先の空間座標の中の対応する1つの空間座標へマッピングするステップが含まれている。次に入力空間座標が決定され、それはユーザの身体の一部が第1の位置へ動くことにより発生するユーザの第1の身体的入力に対応している。その入力空間座標に対応するマッピング先の空間座標にマッピングされた時間ベース情報の第1のセグメントが次にアクセスされ、ユーザへ再生される。ユーザの身体部分が第2の位置へ動いた後で、ユーザの空間位置の記憶を使用してユーザの身体部分を第1の位置へ戻し前記ステップを繰り返すことにより時間ベース情報の第1のセグメントを再アクセスして再生することができる。
前記目的を達成するために、本発明によりさらに複数のセグメントを有する時間ベース情報へユーザが空間的にアクセスして再生できるようにする方法が提供される。本方法には時間ベース情報内の時間の経過を示す一連の対応するタイミングマークを時間ベース情報へ割り当て、一連のタイミングマークに基づいて複数のセグメントを形成し、一連のタイミングマークの各々を複数のマッピング先の空間座標の中の対応する1つの空間座標へマッピングすることが含まれている。
ユーザの身体の一部が第1の位置へ動くことにより発生するユーザの第1の身体的入力に対応する入力空間座標が求められる。その入力空間座標に対応するマッピング先の空間座標にマッピングされた時間ベース情報の第1のセグメントがアクセスされる。このアクセスは入力空間座標を複数のマッピング先の空間座標の中の1つ以上の空間座標と比較して入力空間座標と一致するマッピング先の空間座標を識別することにより実施される。第1のセグメントは対応するタイミングマークに基づいて一致するマッピング先の空間座標に対応するセグメントとして識別される。次に第1のセグメントはユーザへ再生される。ユーザの身体部分が第2の位置へ動いた後で、ユーザの空間位置の記憶を使用してユーザの身体の一部を第1の位置へ戻し前記ステップを繰り返すことにより時間ベース情報の第1のセグメントを再アクセスして再生することができる。
前記目的を達成するために、本発明によりさらに前記した各方法を実現するシステムが提供される。
本発明の目的、特徴および利点は添付図に関連して本発明を実施するための最善モードの詳細説明から容易に理解することができる。
【図面の簡単な説明】
第1図は本発明の方法の1実施例を表すフロー図。
第2図は本発明のシステムの1実施例を表すブロック図。
第3図は時間ベース情報を本発明の1実施例の空間ベース情報へ変換する方法を表すフロー図。
第4図は本発明の方法の1実施例の入力空間座標に対応する時間ベース情報へアクセスする方法を表すフロー図。
第5図は本発明のシステムの別の実施例を表すブロック図。
第6図は2次元タッチ感知ユーザインターフェイス装置が強調されている本発明のシステムの1実施例の絵画図。
第7図は本発明のシステムの1実施例に使用する別の2次元ユーザインターフェイス装置の絵画図。
第8a図−第8c図は本発明のシステムの1実施例に使用する別の2次元ユーザインターフェイス装置で使用される走査パターン。
第9図は本発明の1実施例で使用する空間多ページ構造を表す図。
いくつかの実施例について本発明を説明するが、この説明は本発明をこれらの実施例へ限定するものではないことを理解されたい。本発明は特許請求の範囲に明記された発明の精神および範囲内に含まれる変更、修正および同等のものを全て含むものとする。
発明を実施するための最良の形態
時間ベース情報セグメントのタイミングを空間座標へマッピングして変換することにより時間ベース情報へアクセスする際の従来技術の問題が本発明により解決される。このような空間座標は1次元、2次元および3次元ユークリッドもしくは非ユークリッド空間内の任意のカルテシアンもしくは非カルテシアン座標とすることができる。このマッピングにより、時間ベース情報のセグメントを空間対象のさまざまな部分、空間表現、もしくは空間運動のさまざまな位置と関連づけることができる。
ここで使用される“時間ベース情報”という用語は、制約はされないが、時相形式で表現できる任意の一般的な信号もしくはデータの収集を含むように広く解釈すべきことをお判り願いたい。その例として音声、音楽、およびMIDI信号等のアナログもしくはデジタルオーディオ信号、ビデオ、アニメーションおよび他のグラフィック情報等の視覚情報、および電磁信号、株式終わり値情報、毎日の温度データ等のその他の時相データが含まれる。
次に第1図を参照して、本発明の1実施例をフロー図で示す。ステップ10に示すように、オーディオ、ビデオ、もしくは任意他の時間ベース信号等の時間ベース情報のタイミングが1組の空間座標へマッピングされる。さまざまな方法で時間ベース情報のタイミングを空間座標へマッピングすることができる。制約はされないが、それには時間ベース情報の連続タイミングマークを空間座標へマッピングする、(1片の音声内の)連続するいくつかの単語を空間座標へマッピングする、および時間ベース情報内で見つかる他の構造形式を空間表現へマッピングすることが含まれる。
これらの空間座標は任意数の自由度を有することができる。したがって、本発明の変換により時間ベース情報を3次元空間内の3つの座標へマッピングしたり、時間ベース情報を3次元空間内の幾何学的立体の3つの位置座標および3つの方位座標へマッピングしたり、時間ベース情報を3次元空間内の一連の連続結合に対する1組の位置と方位へマッピングすることができる。
ステップ12に示すように、次にユーザの身体の動きにより発生するユーザからの身体的入力に基づいて入力空間座標が求められる。このステップはユーザの身体の1つ以上の部分すなわち関節の位置、速度、加速度および/もしくは方位を感知して実施することができる。制約はされないがその例としてパッド上の指の位置を1組の空間座標へ変換できる位置デジタイザパッド上の多数の指位置、ハンドコントローラや舌制御位置決め装置から発生される位置、もしくは頭部の動きに応答するインターフェイス装置から発生される位置を利用することが含まれる。この種のインターフェイス装置はバーチュアルリアリティ応用において広く使用されている。
求められた入力空間座標は時間ベース情報のマッピングされた空間座標と同じ座標空間内になければならない。したがって、時間ベース情報の各セグメントが1つの入力空間座標に対応する。
ステップ14に示すように、その入力空間座標に対応するマッピング先の空間座標にマッピングされた時間ベース情報のセグメントが次にアクセスされ、ステップ16に示すように、時間ベース情報のアクセスされた第1のセグメントが次にユーザへ再生される。この点においてこの方法を終了することができ、あるいはオプションとして、パス18およびステップ12,14,および16に示すように、新たな入力空間座標に対応する情報へさらにアクセスする新たな入力空間座標を求めてこの新たにアクセスされた情報を再生することにより継続することができる。この手段により、ユーザの身体の一部が次の位置へ動いた後で、人間の空間位置の記憶を使用してユーザの身体を第1の位置へ戻し時間ベース情報のセグメントを再アクセスして再生することができる。この人間の空間位置の記憶は、筋肉の緊張を感知することにより人間の身体の動きの空間位置を記憶する、筋覚記憶とすることができる。“人間の空間位置の記憶”という用語は、接触により皮膚が刺激される(例えば、てのひら等の)人間の身体の一部の空間位置を記憶にとどめる記憶である、ユーザのタッチ記憶等のユーザの他の空間位置の記憶をも含むように広く構成しなければならない。
このようにして、人間の記憶により目読して得られる周辺視野の全体感覚能力はユーザの身体の空間的動きおよび位置決めによりエミュレートすることができる。このエミュレーションは指の筋覚記憶、てのひらの触覚およびタッチ記憶、舌の筋覚記憶、もしくはインターフェイス装置の選択および入力空間座標の選択に基づいた他種の人間の空間位置の記憶を利用して生じることができる。
第2図に本発明のシステムの1実施例をブロック図で示す。複数のセグメントを有する時間ベース情報20のタイミングがタイミング対空間変換器22により1組の空間座標へマッピングされる。この変換器はプログラマブルロジックアレイや個別ロジックアレイ、もしくはアナログ計算装置により実現することができる。しかしながら、実施例では、このタイミング対空間変換はマイクロプロセッサ等のコンピュータの中央処理装置で実行されるソフトウエアやファームウエアにより実施される。
ユーザインターフェイス装置26によりユーザ30が発生する身体的入力に対応する入力空間座標が求められる。矢符34はユーザ30からユーザインターフェイス装置26への身体的入力を表す。ユーザインターフェイス装置26はユーザ30へ感覚出力を与えるすなわち帰還する42こともできる。この感覚出力は振動、タッチ、温度、もしくはアクセスされた時間ベース情報に対応しユーザが入力座標空間における時間ベース情報の全体の感覚を得るのを助ける他の感覚情報の形をとることができる。
次にユーザインターフェイス装置26は求められた入力空間座標36を空間アクセス装置24へ与える。この空間アクセス装置はその入力空間座標に対応するマッピング先の空間座標にマッピングされた時間ベース情報のセグメントへアクセスする。このアクセスされた情報38はユーザ30へ感覚出力32を与えるために空間アクセス装置24から再生装置28へ転送される。再生装置28の感覚出力32は元の形式の時間ベース情報の形式をエミュレートするように与えられる。したがって、元の情報がオーディオであれば、再生装置はこのオーディオ情報を音としてユーザへ再生する。さらに、時間ベース情報がビデオやアニメーション等のグラフィック情報であれば、再生装置により時間ベース情報はグラフィックイメージの形式でユーザへ再生される。再生装置28のこれらの感覚出力32はユーザインターフェイス装置26の感覚出力42と対比され、その目的はユーザが情報へアクセスするのを助けることである。感覚出力42は一般的に時間ベース情報の元の形式とは異なる形式である。このような感覚出力の例として時間ベース情報をエミュレートしない補足オーディオおよび視覚キューだけでなく振動および他の触覚出力が含まれる。
次に第3図を参照して、第1図のステップ10に示す、時間ベース情報のタイミングを1組の空間座標へマッピングするステップを実施する1つの方法を示す。ステップ50に示すように、時間ベース情報には一連の逐次タイミングマークが割り当てられる。これらのタイミングマークは等時間間隔もしくは不等時間間隔とすることができる。タイミングマークが不等間隔であれば、情報の構造的属性に基づいて配置することができる。例えば、音声の場合には、タイミングマークを使用して音節、単語、文、文節、もしくは話された言葉のページ間の境界を設定し時間ベース情報のセグメントを形成することができる。これらの各タイミングマークが複数のマッピング先の空間座標の対応する1つの空間座標へマッピングされステップ52に示すようにそれは1組の入力空間座標に対応する。
アクセスされる時間ベース情報のセグメントは連続する2つのタイミングマーク間の時間ベース情報に対応することができる。この場合、セグメントは重畳しない。全ての応用に対してそうである必要はない。例えば、所与のタイミングマークに対応するセグメントは次のタイミングマークに先行するタイミングマークからの時間ベース情報とすることができる。さらに、フィルタやウィンドを使用してセグメントは開始時にフェードインしかつ/もしくは終了時にフェードアウトすることができる。
次に第4図を参照して、第1図に示す、入力空間座標に対応する情報へアクセスするステップ14の1実施例をフロー図で示す。ステップ54に示すように、入力空間座標はマッピング先の空間座標と比較される。入力空間座標がマッピング先の空間座標と一致する場合には、ステップ58に示すように、時間ベース情報のセグメントが識別されそれは一致する記憶空間座標に対応する。入力空間座標がマッピング先の空間座標と一致しない場合には、ステップ56に示すように、次マッピング先の空間座標が比較のために選択され、一致するまでステップ54が繰り返される。
要約すると、本発明の背景となる3つの主要な原理は、(i)時間ベース情報のタイミングを1組の空間座標へマッピングする、
(ii)筋覚およびタッチ記憶を利用して情報のアクセスに対して全体の感覚を構成する助けとする、(iii)さまざまなインタラクションモードを使用してユーザが情報内を動き回り変換を制御するのを助けることである。本発明の実施例を構成する一般的手順は次のようである。
(1)身体の動きの形式および身体的入力を選択して入力空間座標を示す。特に、人体の任意の可動部分を使用して身体的入力を発生することができる。
(2)どのパターンの動きを使用するかを決定する。
(3)時間ベース情報のタイミングマークから移動パターンが横切する空間座標へのマッピングを選択する。この段階において、空間的動きを感知し所与の時空間マッピングに従って音を表示するのに物理的(例えば、電子的)装置が伴う。
次に第5図を参照して、本発明のシステムの別の実施例をブロック図で示す。耳が(目についで)次善の情報吸収感覚器官であれば、本発明のこの実施例では、(触覚等の、他の感覚様式により知覚できる媒体へ音を変換するのではなく)耳を使って音を聴くことを考える。空間的に分布された音の一部から他の部分へ移るのに、空間的に動かすことのできる人体の任意の部分を使用することができる。最も簡便な身体部分は手、すなわち、てのひらと指である。指は耳で聞き取る速度に匹敵する十分早い速度で動かすことができる。本発明のこの実施例では、聞き取りと結び付けられた、1本以上の指と関連づけられた筋覚およびタッチ記憶を使用して読み取りにおける“概観”と同様な全体の感覚が生成される。
本発明のこの実施例ではタッチ感知パッドを使用して2次元空間内に入力空間座標が与えられる。時間ベース情報のタイミングが2次元空間分布データへ変換され次にそれにざっと目が通され指でアクセスされる。タイミングマークがページフォーマット上へマッピングされる、すなわち、音がプリントされたテキストのように行として表面上へ分布される。指により筋覚および触覚記憶源が提供されユーザはそれにより情報の表現を生成することができる。
より詳細には、オーディオ情報60のタイミングが変換装置62により2次元空間フォーマットへ変換される。この変換装置によりオーディオ情報内に一連のタイミングマークが生成されこれらのタイミングマークは1組の2次元座標内へマッピングされる。ユーザ69は指66によりこのオーディオ情報へアクセスする。指の位置と動きを感知する装置は2次元インターフェイス装置64、手が表面に触れている位置の2次元座標を発生するタッチ感知パッドである。これらの座標はインターフェイス装置64から変換装置62へ転送されてこれらの2次元座標に対応するオーディオ情報が決定される。次にこのオーディオ情報はインターフェイス装置64へ転送し戻され、そこから指66へ振動帰還がなされる。この振動帰還はインターフェイス装置64に取り付けられた(図示せぬ)アクチベータやスピーカにより振動出力を与えることにより実施される。振動出力はアクセスされたオーディオ情報から生成されたオーディオ信号に比例する。アクセスされたオーディオ情報はさらにオーディオ再生装置68へ与えられ、それはアクセスされたオーディオ情報をユーザ69の耳67へ再生する。タッチおよび“全体”におけるユーザの指の記憶された位置により案内されるユーザ64の記憶65によりユーザはオーディオ信号の予めアクセスされた部分へ再アクセスすることができる。
このような表面上に沢山の音の空間分布パターンがあることをお解り願いたい。例えば、
(i)指が指し示す空間位置に対応するセグメントだけを再生する。
(ii)指の空間位置に対応するセグメントから始まるある長さの音を再生する。
(iii)指の位置に対応するセグメントに最も近い(単語の始まり等の)重要な場所から始まるある長さの音を再生する。
(iv)(ii)および(iii)において、音を再生する時に、音量は時間と共に衰えるかもしくはある形で濾波される。
第6図は第5図のシステムの動作を表す絵画図である。オーディオ情報60がコンピュータ74内に記憶される。次にコンピュータ74は時間の経過を示す一連のタイミングマークをオーディオ情報60に割り当てる。次に連続する各タイミングマーク対間のオーディオ情報のセグメントが2次元インターフェイス装置64のタッチ感知パッド70の2次元座標に対応する1組の2次元座標へマッピングされる。その座標に触れる指66により特定の2次元座標がアクセスされる。入力空間座標の形状のこの指位置はコンピュータ74へ送られ、それはオーディオ情報の対応するセグメントへアクセスしてその情報をスピーカ78へ再生し、そこから音響出力が発生される。さらに、コンピュータ74はオーディオ情報のアクセスされたセグメントをインターフェイス装置64へ送り、それはアクセスされたオーディオセグメントに比例して指66が感じるように振動する。この応用では、指により筋覚および触覚記憶源が提供されそれによりユーザは情報における全体の感覚を生成することができる。
第5図および第6図のシステムの動作はおそらく次の仮定応用によりよく説明できると思われる。Martin Luther King師をテーマとして著名な学者により短いプレゼンテーションがなされる。講義のテープを学生が入手し、後で講義に含まれた情報へアクセスしてリポートを作成したいものとする。
テープにとられた情報がサンプルされてコンピュータのメモリへ記憶される。サンプリング中に、講義で話された言葉間のスペースをマークするサンプリングされたオーディオ情報と結合して一連のタイミングマークが記憶される。講義の言葉はタイミングマークに基づいて2次元ページフォーマットへマッピングされる。最初の言葉はユーザインターフェイス装置のタッチ感知パッドの右上コーナに対応する座標へマッピングされる。タッチ感知パッドの第1行がマッピングされるまで、次の言葉が右から左へ順次続く。次の行は同様に次の1組の言葉によりマッピングされる。プレゼンテーション内の各単語がマッピングされるまで引き続き各行が同様にマッピングされる。
次に学生はタッチ感知パッドに触れることにより情報のアクセスを開始することができる。パッドに一点で触れる場合には、その位置に対応する単語がスピーカにより再生されパッドが同じオーディオ信号により振動されて学生が自分の指で振動を感じられるようにされる。
自分の指を右上コーナから開始して第1行に沿って右から左へ動かし、次に第2行さらに引き続く各行に沿って動かすことにより学生によりプレゼンテーション全体が逐次再生される。1行の両端間で指を動かす速度により単語が再生される速度が支配される。学生は比較的高速でプレゼンテーションにざっと目を通して資料の概観を得ることができる。
次に学生はプレゼンテーションのMartin Luther King師の“I have a dream”スピーチに関する部分を調べたいものとする。学生はスピーチのこの部分の空間位置を自分の筋覚およびタッチ記憶により思い出す、すなわち、自分の指の位置およびこのエリアで教授が話した言葉の振動の感覚に基づいてスピーチのこの部分を思い出す。学生はこのエリアに容易に“ホームイン”し、タッチ感知パッドのこの部分を自分の指でゆっくり走査することによりプレゼンテーションのこの部分へさらにゆっくりアクセスする。
2次元インターフェイス装置64の別の実施例を第7図に示す。2次元タッチ感知パッド82が同様に設けられ指のタッチによりオーディオ情報をアクセスできるようにされている。しかしながら、情報の一部を視覚的に強調し注釈を付ける準備がなされている。さらに、オーディオベース情報の2“ページ”以上へアクセスする方法も提供されている。
オーディオ情報の非常に大きい部分から本発明に関する問題点が提示される。例えば、2時間のスピーチは数千のセグメントへ分解されることがある。これらのセグメントは全てをハンドヘルドもしくはデスクトップタッチ感知パッドの座標上へマッピングするとアクセスするのが困難である。しかしながら、この問題は、オーディオ情報のサブセットすなわち“ページ”だけを特定の期間にアクセスするものとして提示することにより解決することができる。第9図に示すようにページ自体は空間的に配置することができる。現在xページをアクセスしている場合、ユーザは矢符キー90の中の右矢符を押すことによりyページへ切り替えることができる。同様に、xページをアクセスしている場合、zページ、vページ、もしくはwページは、それぞれ、下向き矢符、左矢符、もしくは上向き矢符キー90を押してアクセスすることができる。
さらに、オーディオ情報のセグメントは階層構造でアクセスして、例えば、1分の長さのセグメントへ分解されているオーディオ情報の全てにレベル1画面でアクセスできるようにされる。下向き矢符キー90を押すと2次元パッドの分解能が変化して現在アクセスされている1分セグメントにより全パッドが順次オーディオ情報の一連の遥かに短いセグメントへ分解されるようにされる。同様に、上向き矢符キー90を押すと、レベル2からレベル1等への、低い階層レベルから高い階層レベルへ変化する。任意数の階層レベルを使用してマイクロスコピックもしくはマクロスコピックスケールでオーディオ情報を交互にアクセスすることができる。
再び第7図を参照して、ユーザが重要と考えるオーディオ情報のセグメントがアクセスされオーディオ再生装置93により再生されると、情報のこの部分の空間座標をユーザがハイライトオンキー92を押すことにより視覚的に強調することができる。このハイライトオンキー92の起動によりユーザは1つ以上のセグメント84に触れることによりそれらの色を変えたり不透明とすることができる。ハイライトオフキー92を押下すると、強調されたセグメントをそのまま残してタッチ感知パッドは指のタッチに基づいてオーディオ情報のセグメントをアクセスすることに戻る。
さらに、注釈付きブロック86に示すようにテキストの重要なセグメントに同様に注釈を付けることができる。オーディオ情報の重要なセグメントが見つかると、スタイラスオンボタン94によりスタイラスモードを活性化することによりこのセグメントの位置を記録することができる。スタイラスモードではユーザはスタイラス88を使用してタッチ感知画面82上へ書き込みを行いその領域内のオーディオ情報の内容に関する注釈を残すことができる。次にユーザはスタイラスオフキー94を押すことにより正規のオーディオ情報アクセスモードへ戻ることができる。
多くの応用において一連のタイミングマークを複数の2次元空間座標へマッピングすることは逐次タイミングマークが実質的に隣接する座標内に現れるように実施される。次に第8a図を参照して、矢符102に対応する順序でオーディオ情報のセグメントをマッピングすることができる。最初のセグメントは左上コーナに現れ、後続セグメントは矢符102のジグザグパターンに従い左から右へ次に1つ下を右から左へ走査する指によりオーディオ情報のセグメントを逐次走査するようにされる。このようにして、指はラインの終端に達した後で左へ“掃引”し戻す必要がない。
同様に、第8b図のインターフェイス装置100上に104で示すようなスパイラルパターンや、第8c図のインターフェイス装置100上に示すような垂直パターン106を使用することができる。当業者であればタッチ感知パッドには実質的に任意の形状を使用できることがお判りと思われる。さらに、形状は平坦である必要がない。ユーザが任意の表面上の座標を識別できるようにするインターフェイス装置を使用することができる。例えば、2次元インターフェイス装置内に球面を使用することができる。さらに、コップ、椅子、もしくはドア把手等の毎日使う日常品をインターフェイス装置として使用することができる。
本発明の他の応用にはビデオの空間分布オーディオトラックを使用してビデオにざっと目を通すことが含まれている。その他に、音声をテキストへ変換して、空間分布されたオーディオを使用するのが困難である場合には空間分布されたオーディオを音声対テキスト変換と組み合わせることができる。総括すれば、本発明はマルチメディアコンピュータソフトウェア、通信、身障者用感覚アクセス装置、音楽、ビジュアルアート、娯楽、および教育を含む多くの広範な分野へ応用できる可能性がある。
記憶を有する人間ユーザについて検討してきたが、本発明はロボットやある種の筋覚もしくはタッチ記憶の可能な動物等の非人間ユーザも含めて広く解釈しなければならない。
本発明を実施するための最善モードについて詳細に説明してきたが、本発明が関連する技術になじみのある者ならば請求の範囲に明記された本発明を実施するための他のさまざまな設計や実施例がお判りと思われる。

Claims (19)

  1. 複数のセグメントを有する時間ベース情報をユーザが空間的にアクセスして再生できるようにする方法であって、該方法は、
    (イ)時間ベース情報の複数のセグメントの各々を複数のマッピング先空間座標の中の対応する1つの空間座標へマッピングするステップと、
    (ロ)ユーザの身体の一部が第1の位置へ動くことにより発生するユーザの第1の身体的入力に対応する入力空間座標を求めるステップと、
    (ハ)前記入力空間座標に対応するマッピング先空間座標へマッピングされた前記時間ベース情報の第1のセグメントへアクセスするステップと、
    (ニ)時間ベース情報のアクセスされた第1のセグメントを再生するステップとを有し、
    時間ベース情報のアクセスされた第1のセグメントを再生する前記ステップはさらに時間ベース情報の元の形式と異なる形式第1のセグメントの時間ベース情報に比例した感覚出力の発生を含み、
    ステップ(ロ)、(ハ)、および(ニ)が繰り返えされて時間ベース情報の再生速度がユーザの身体の一部の動きの速度により支配され、ユーザの身体の一部が第2の位置へ動いた後で、時間ベース情報の前記第1のセグメントへの再アクセス時、前記感覚出力によってユーザの再アクセスを助け、ステップ(ロ)、(ハ)、および(ニ)を繰り返すことにより時間ベース情報の第1のセグメントへ再アクセスして再生することができる方法。
  2. 請求項1記載の方法であって、マッピングステップには時間ベース情報内の時間の経過を示す一連の対応するタイミングマークを時間ベース情報へ割り当て、一連のタイミングマークに基づく複数のセグメントを形成し、一連のタイミングマークの各々を複数のマッピング先空間座標の中の対応する1つの空間座標へマッピングすることが含まれる方法。
  3. 請求項2記載の方法であって、時間ベース情報の第1のセグメントへアクセスするステップには入力空間座標を複数のマッピング先空間座標の中の1つ以上の空間座標と比較して入力空間座標に対応するマッピング先空間座標を識別することが含まれる方法。
  4. 請求項3記載の方法であって、時間ベース情報の第1のセグメントへアクセスするステップにはさらに対応するマッピング先空間座標へマッピングされたタイミングマークに基づいて対応するマッピング先空間座標に対応するセグメントを識別することにより時間ベース情報の複数のセグメントから第1のセグメントを識別することが含まれる方法。
  5. 請求項2記載の方法であって、時間ベース情報には視覚情報が含まれる方法。
  6. 請求項2記載の方法であって、時間ベース情報にはオーディオ情報が含まれる方法。
  7. 請求項6記載の方法であって、オーディオ情報には音声が含まれる方法。
  8. 請求項7記載の方法であって、タイミングマークのシーケンスは音声の構造に基づいて決定される方法。
  9. 請求項7記載の方法であって、タイミングマークのシーケンスは等時間間隔である方法。
  10. 請求項2記載の方法であって、マッピング先空間座標はカルテシアン座標系で表現される方法。
  11. 請求項2記載の方法であって、マッピング先空間座標は非カルテシアン座標系で表現される方法。
  12. 請求項2記載の方法であって、マッピング先空間座標は2次元空間内にある方法。
  13. 請求項2記載の方法であって、マッピング先空間座標は3次元空間内にある方法。
  14. 請求項12記載の方法であって、一連のタイミングマークを複数のマッピング先2次元空間座標へマッピングすることには一連のタイミングマークの逐次サブセットを隣接する空間座標へマッピングすることが含まれる方法。
  15. 請求項1記載の方法であって、入力空間座標を求めるステップには表面上にユーザの身体の一部により発生する触覚圧の座標系を感知することが含まれる方法。
  16. 請求項1記載の方法であって、入力空間座標を決定するステップにはユーザの身体の一部の速度を感知することが含まれ、入力空間座標は速度に基づいている方法。
  17. 請求項1記載の方法であって、時間ベース情報のアクセスされた第1のセグメントを再生する前記ステップには元の形式の時間ベース情報の形式をエミュレートするように第1のセグメントの感覚出力が含まれ、エミュレートした第1セグメントの感覚出力と時間ベース情報の元の形式と異なる形式の第1のセグメントの前記感覚出力とを用いて前記第1の位置へ再アクセスするユーザの助けとする方法。
  18. 請求項6記載の方法であって、前記感覚出力は、アクセスされた前記オーディオ情報の第1セグメントから生成されたオーディオ信号に比例する振動出力を有する方法。
  19. 請求項18記載の方法であって、感覚出力はユーザの身体の一部により感知される触覚出力である方法。
JP51753895A 1993-12-22 1994-12-19 時間ベース情報の空間アクセス方法 Expired - Fee Related JP4225567B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US172,637 1993-12-22
US08/172,637 US5461711A (en) 1993-12-22 1993-12-22 Method and system for spatial accessing of time-based information
PCT/US1994/014622 WO1995017710A1 (en) 1993-12-22 1994-12-19 Method and system for spatial accessing of time-based information

Publications (2)

Publication Number Publication Date
JPH09510558A JPH09510558A (ja) 1997-10-21
JP4225567B2 true JP4225567B2 (ja) 2009-02-18

Family

ID=22628555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51753895A Expired - Fee Related JP4225567B2 (ja) 1993-12-22 1994-12-19 時間ベース情報の空間アクセス方法

Country Status (6)

Country Link
US (2) US5461711A (ja)
EP (1) EP0736202A4 (ja)
JP (1) JP4225567B2 (ja)
KR (1) KR970700332A (ja)
AU (1) AU1374495A (ja)
WO (1) WO1995017710A1 (ja)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889670A (en) 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US6681029B1 (en) 1993-11-18 2004-01-20 Digimarc Corporation Decoding steganographic messages embedded in media signals
US5914720A (en) * 1994-04-21 1999-06-22 Sandia Corporation Method of using multiple perceptual channels to increase user absorption of an N-dimensional presentation environment
US5592602A (en) * 1994-05-17 1997-01-07 Macromedia, Inc. User interface and method for controlling and displaying multimedia motion, visual, and sound effects of an object on a display
US5623582A (en) 1994-07-14 1997-04-22 Immersion Human Interface Corporation Computer interface or control input device for laparoscopic surgical instrument and other elongated mechanical objects
US5691898A (en) * 1995-09-27 1997-11-25 Immersion Human Interface Corp. Safe and low cost computer peripherals with force feedback for consumer applications
US6411725B1 (en) 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
US6408331B1 (en) 1995-07-27 2002-06-18 Digimarc Corporation Computer linking methods using encoded graphics
US5717879A (en) * 1995-11-03 1998-02-10 Xerox Corporation System for the capture and replay of temporal data representing collaborative activities
US5786814A (en) * 1995-11-03 1998-07-28 Xerox Corporation Computer controlled display system activities using correlated graphical and timeline interfaces for controlling replay of temporal data representing collaborative activities
US5717869A (en) * 1995-11-03 1998-02-10 Xerox Corporation Computer controlled display system using a timeline to control playback of temporal data representing collaborative activities
EP0864145A4 (en) 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
US5808605A (en) * 1996-06-13 1998-09-15 International Business Machines Corporation Virtual pointing device for touchscreens
US6961700B2 (en) * 1996-09-24 2005-11-01 Allvoice Computing Plc Method and apparatus for processing the output of a speech recognition engine
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
US6285351B1 (en) 1997-04-25 2001-09-04 Immersion Corporation Designing force sensations for computer applications including sounds
US6292170B1 (en) 1997-04-25 2001-09-18 Immersion Corporation Designing compound force sensations for computer applications
US5945986A (en) * 1997-05-19 1999-08-31 University Of Illinois At Urbana-Champaign Silent application state driven sound authoring system and method
US6518950B1 (en) * 1997-10-07 2003-02-11 Interval Research Corporation Methods and systems for providing human/computer interfaces
US6256638B1 (en) 1998-04-14 2001-07-03 Interval Research Corporation Printable interfaces and digital linkmarks
WO1999019823A2 (en) * 1997-10-10 1999-04-22 Interval Research Corporation Methods and systems for providing human/computer interfaces
US6160555A (en) * 1997-11-17 2000-12-12 Hewlett Packard Company Method for providing a cue in a computer system
US5977867A (en) * 1998-05-29 1999-11-02 Nortel Networks Corporation Touch pad panel with tactile feedback
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
JP4264614B2 (ja) * 1998-11-30 2009-05-20 ソニー株式会社 情報提供装置及び情報提供方法
US7174083B1 (en) 1998-12-30 2007-02-06 Xerox Corporation Systems and methods for using structured representations to index recordings of activity
US6859769B1 (en) * 1999-01-26 2005-02-22 Analytical Graphics, Inc. Method and apparatus for creating elements and systems for description of position and motion of bodies in three-dimensional space to support orbital maneuver analysis
US6529920B1 (en) * 1999-03-05 2003-03-04 Audiovelocity, Inc. Multimedia linking device and method
WO2000055712A1 (de) * 1999-03-17 2000-09-21 Siemens Aktiengesellschaft Verfahren und anordnung zur interaktion mit einem benutzer
US6757002B1 (en) * 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
US6507349B1 (en) * 2000-01-06 2003-01-14 Becomm Corporation Direct manipulation of displayed content
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US20020054026A1 (en) * 2000-04-17 2002-05-09 Bradley Stevenson Synchronized transmission of recorded writing data with audio
US7111168B2 (en) 2000-05-01 2006-09-19 Digimarc Corporation Digital watermarking systems
JP3949912B2 (ja) * 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US6839059B1 (en) 2000-08-31 2005-01-04 Interactive Video Technologies, Inc. System and method for manipulation and interaction of time-based mixed media formats
US20020026521A1 (en) * 2000-08-31 2002-02-28 Sharfman Joshua Dov Joseph System and method for managing and distributing associated assets in various formats
US6922702B1 (en) 2000-08-31 2005-07-26 Interactive Video Technologies, Inc. System and method for assembling discrete data files into an executable file and for processing the executable file
US20020091840A1 (en) * 2000-11-28 2002-07-11 Gregory Pulier Real-time optimization of streaming media from a plurality of media sources
US8176425B2 (en) * 2001-02-02 2012-05-08 Ensequence, Inc. Animated screen object for annotation and selection of video sequences
US7567232B2 (en) 2001-03-09 2009-07-28 Immersion Corporation Method of using tactile feedback to deliver silent status information to a user of an electronic device
DE10117956B4 (de) * 2001-04-10 2004-04-08 Schott Glas Berührungsschalter mit einer Bedienfläche
US7202851B2 (en) 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
US20050176665A1 (en) * 2001-05-18 2005-08-11 Sirna Therapeutics, Inc. RNA interference mediated inhibition of hairless (HR) gene expression using short interfering nucleic acid (siNA)
IL143255A (en) 2001-05-20 2015-09-24 Simbionix Ltd Endoscopic ultrasonography simulation
US6937033B2 (en) 2001-06-27 2005-08-30 Immersion Corporation Position sensor with resistive element
DE10133126A1 (de) * 2001-07-07 2003-01-16 Philips Corp Intellectual Pty Richtungssensitives Audioaufnahmesystem mit Anzeige von Aufnahmegebiet und/oder Störquelle
US7056123B2 (en) 2001-07-16 2006-06-06 Immersion Corporation Interface apparatus with cable-driven force feedback and grounded actuators
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
EP1440429B1 (en) * 2001-10-23 2012-12-12 Immersion Corporation Method of using tactile feedback to deliver silent status information to a user of a handheld weapon
AU2002364690A1 (en) * 2001-10-30 2003-06-23 Immersion Corporation Methods and apparatus for providing haptic feedback in interacting with virtual pets
US7535454B2 (en) 2001-11-01 2009-05-19 Immersion Corporation Method and apparatus for providing haptic feedback
CN102609088B (zh) * 2001-11-01 2015-12-16 意美森公司 用于提供触感的方法和系统
JP2003323256A (ja) * 2002-04-26 2003-11-14 Fuji Xerox Co Ltd 情報処理装置
US8917234B2 (en) 2002-10-15 2014-12-23 Immersion Corporation Products and processes for providing force sensations in a user interface
WO2004038573A2 (en) * 2002-10-20 2004-05-06 Immersion Corporation System and method for providing rotational haptic feedback
GB2414319A (en) 2002-12-08 2005-11-23 Immersion Corp Methods and systems for providing haptic messaging to handheld communication devices
US8830161B2 (en) 2002-12-08 2014-09-09 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
US7769417B2 (en) * 2002-12-08 2010-08-03 Immersion Corporation Method and apparatus for providing haptic feedback to off-activating area
US8059088B2 (en) 2002-12-08 2011-11-15 Immersion Corporation Methods and systems for providing haptic messaging to handheld communication devices
CA2419962C (en) * 2003-02-26 2013-08-06 Patrice Renaud Method and apparatus for providing an environment to a patient
US7850456B2 (en) 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
US20050132149A1 (en) * 2003-12-11 2005-06-16 W. Daniel Hillis Spatial-to-temporal data translation and scheduling and control
US7644183B2 (en) * 2003-12-11 2010-01-05 Searete, Llc Accelerated reception of spatial-to-temporal translated data
US20050131863A1 (en) * 2003-12-11 2005-06-16 W. Daniel Hillis Reception of spatial-to-temporal translated data
US20050132415A1 (en) * 2003-12-11 2005-06-16 Hillis W. D. Spatial-to-temporal data translation and transmission
US7742036B2 (en) 2003-12-22 2010-06-22 Immersion Corporation System and method for controlling haptic devices having multiple operational modes
US7765333B2 (en) 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US8340130B2 (en) 2005-01-14 2012-12-25 Citrix Systems, Inc. Methods and systems for generating playback instructions for rendering of a recorded computer session
US8145777B2 (en) 2005-01-14 2012-03-27 Citrix Systems, Inc. Method and system for real-time seeking during playback of remote presentation protocols
US7996549B2 (en) * 2005-01-14 2011-08-09 Citrix Systems, Inc. Methods and systems for recording and real-time playback of presentation layer protocol data
US8230096B2 (en) 2005-01-14 2012-07-24 Citrix Systems, Inc. Methods and systems for generating playback instructions for playback of a recorded computer session
US8935316B2 (en) 2005-01-14 2015-01-13 Citrix Systems, Inc. Methods and systems for in-session playback on a local machine of remotely-stored and real time presentation layer protocol data
US20060161671A1 (en) * 2005-01-14 2006-07-20 Citrix Systems, Inc. Method and systems for capture and replay of remote presentation protocol data
US8200828B2 (en) 2005-01-14 2012-06-12 Citrix Systems, Inc. Systems and methods for single stack shadowing
US7831728B2 (en) * 2005-01-14 2010-11-09 Citrix Systems, Inc. Methods and systems for real-time seeking during real-time playback of a presentation layer protocol data stream
US8296441B2 (en) 2005-01-14 2012-10-23 Citrix Systems, Inc. Methods and systems for joining a real-time session of presentation layer protocol data
US20060159432A1 (en) 2005-01-14 2006-07-20 Citrix Systems, Inc. System and methods for automatic time-warped playback in rendering a recorded computer session
US8171169B2 (en) 2005-03-14 2012-05-01 Citrix Systems, Inc. Method and apparatus for updating a graphical display in a distributed processing environment
US8423673B2 (en) 2005-03-14 2013-04-16 Citrix Systems, Inc. Method and apparatus for updating a graphical display in a distributed processing environment using compression
US20070063982A1 (en) * 2005-09-19 2007-03-22 Tran Bao Q Integrated rendering of sound and image on a display
US8191008B2 (en) 2005-10-03 2012-05-29 Citrix Systems, Inc. Simulating multi-monitor functionality in a single monitor environment
US8700791B2 (en) 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
KR100583400B1 (ko) * 2005-12-28 2006-05-26 새한항업(주) 정적 지도의 동적 디스플레이 시스템
US20080159328A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for in-context assembly of interactive actionable insights and modalities in physical spaces
US20080163052A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for multi-modal fusion of physical and virtual information channels
US20080158223A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for dynamic adaptability of content and channels
US8500451B2 (en) 2007-01-16 2013-08-06 Simbionix Ltd. Preoperative surgical simulation
US8543338B2 (en) 2007-01-16 2013-09-24 Simbionix Ltd. System and method for performing computerized simulations for image-guided procedures using a patient specific model
EP2321019B1 (en) * 2008-08-11 2019-04-10 Immersion Corporation A haptic enabled gaming peripheral for a musical game
US8303387B2 (en) * 2009-05-27 2012-11-06 Zambala Lllp System and method of simulated objects and applications thereof
US20100306825A1 (en) 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
US8745494B2 (en) * 2009-05-27 2014-06-03 Zambala Lllp System and method for control of a simulated object that is associated with a physical location in the real world environment
US8615159B2 (en) 2011-09-20 2013-12-24 Citrix Systems, Inc. Methods and systems for cataloging text in a recorded session
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US20130297460A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
US9891709B2 (en) 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20140013192A1 (en) * 2012-07-09 2014-01-09 Sas Institute Inc. Techniques for touch-based digital document audio and user interface enhancement
US9904394B2 (en) 2013-03-13 2018-02-27 Immerson Corporation Method and devices for displaying graphical user interfaces based on user contact
US9715279B2 (en) 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US11062476B1 (en) * 2018-09-24 2021-07-13 Apple Inc. Generating body pose information
US11762530B2 (en) * 2020-02-05 2023-09-19 Legacy Productions, Inc. Interface for radial selection of time-based events

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4964004A (en) * 1983-12-02 1990-10-16 Lex Computer And Management Corporation Video composition method and apparatus employing visual and tactile feedback
US4943866A (en) * 1983-12-02 1990-07-24 Lex Computer And Management Corporation Video composition method and apparatus employing smooth scrolling
US4752836A (en) * 1984-09-07 1988-06-21 Ivex Corporation Method and apparatus for reproducing video images to simulate movement within a multi-dimensional space
JPH0778718B2 (ja) * 1985-10-16 1995-08-23 株式会社日立製作所 画像表示装置
US5174759A (en) * 1988-08-04 1992-12-29 Preston Frank S TV animation interactively controlled by the viewer through input above a book page
US5109482A (en) * 1989-01-11 1992-04-28 David Bohrman Interactive video control system for displaying user-selectable clips
US5202961A (en) * 1990-06-08 1993-04-13 Apple Computer, Inc. Sequential information controller
US5191320A (en) * 1990-12-15 1993-03-02 Sony Corporation Of America Variable scale input device
US5191645A (en) * 1991-02-28 1993-03-02 Sony Corporation Of America Digital signal processing system employing icon displays
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
DE69222102T2 (de) * 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
US5404444A (en) * 1993-02-05 1995-04-04 Sight & Sound Incorporated Interactive audiovisual apparatus

Also Published As

Publication number Publication date
WO1995017710A1 (en) 1995-06-29
EP0736202A1 (en) 1996-10-09
US5600777A (en) 1997-02-04
US5461711A (en) 1995-10-24
AU1374495A (en) 1995-07-10
EP0736202A4 (en) 1999-03-03
KR970700332A (ko) 1997-01-08
JPH09510558A (ja) 1997-10-21

Similar Documents

Publication Publication Date Title
JP4225567B2 (ja) 時間ベース情報の空間アクセス方法
Loncke Augmentative and alternative communication: Models and applications
Uyechi The geometry of visual phonology
Donker et al. The design of auditory user interfaces for blind users
Kamel et al. A study of blind drawing practice: creating graphical information without the visual channel
Kamel et al. Sketching images eyes-free: a grid-based dynamic drawing tool for the blind
Blattner In our image: Interface design in the 1990s
Brock Interactive maps for visually impaired people: design, usability and spatial cognition
Roth et al. Audio-haptic internet browser and associated tools for blind users and visually impaired computer users
Buxton Human skills in interface design
Gerino et al. Towards large scale evaluation of novel sonification techniques for non visual shape exploration
Rocchesso et al. Interaction by ear
Radecki et al. Interactive sonification of images in serious games as an education aid for visually impaired children
Sanchez et al. Embodied Reading: A Multisensory Experience.
Winberg et al. Qualitative aspects of auditory direct manipulation. A case study of the towers of Hanoi
Buxton The three mirrors of interaction: a holistic approach to user interfaces
Luciani et al. Ergotic sounds: A new way to improve playability, believability and presence of virtual musical instruments
Semwal et al. Virtual environments for visually impaired
Sjöström The IT potential of haptics: Touch access for people with disabilities
Droumeva et al. Exploring ambient sound techniques in the design of responsive environments for children
Ravetto-Biagioli Dancing with and within the Digital Domain
Evreinova et al. Non-visual interaction with graphs assisted with directional-predictive sounds and vibrations: a comparative study
Zhou et al. Multisensory musical entertainment systems
Takacs How and Why Affordable Virtual Reality Shapes the Future of Education.
Huang et al. An interactive musical application with hand motion and gesture controlled interface

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20050601

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20050715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070129

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070315

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080922

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees