JP5266327B2 - 媒体トランスポートストリームにおける触覚効果データの同期化 - Google Patents

媒体トランスポートストリームにおける触覚効果データの同期化 Download PDF

Info

Publication number
JP5266327B2
JP5266327B2 JP2010530120A JP2010530120A JP5266327B2 JP 5266327 B2 JP5266327 B2 JP 5266327B2 JP 2010530120 A JP2010530120 A JP 2010530120A JP 2010530120 A JP2010530120 A JP 2010530120A JP 5266327 B2 JP5266327 B2 JP 5266327B2
Authority
JP
Japan
Prior art keywords
haptic
frame
data
media
embedded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010530120A
Other languages
English (en)
Other versions
JP2011501575A (ja
Inventor
ウルリッヒ、クリストファ、ジェー.
ランク、ステファン、ディー.
バキル−シオグル、ミュニーブ、エム.
Original Assignee
イマージョン コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イマージョン コーポレイション filed Critical イマージョン コーポレイション
Publication of JP2011501575A publication Critical patent/JP2011501575A/ja
Application granted granted Critical
Publication of JP5266327B2 publication Critical patent/JP5266327B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/18Timing circuits for raster scan displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72442User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for playing music files
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
    • H04M19/047Vibrating means for incoming calls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
    • H04M19/048Arrangements providing optical indication of the incoming call, e.g. flasher circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Television Signal Processing For Recording (AREA)

Description

ここに記述される主題は、媒体ファイル内で、触覚効果を音声コンテンツデータ及び/又はビデオコンテンツデータと同期させることに関する。
ユーザとマシンとの間のインタフェースを改良するため、音声媒体及び/又はビデオ媒体とのインタフェースに触覚効果を組み込むことが近年徐々に普及しつつある。振動のような触覚効果は、ユーザが感知できるものであり、例えば、機器上のキーを押下する若しくは着信音を鳴動させて携帯電話等に通話又は文書メッセージが着信したことを知らせるというような、イベントトリガに関連していてもよい。一般的に、媒体再生は振動を伴って実施され得る。しかしながら、時系列の媒体信号とともに触覚信号を再生するとき、触覚効果を実施する従来の方法はいくつかの問題を有する。
このような問題の一例として、触覚信号と、ビデオ信号及び/又は音声信号のような他の信号との間で、再生タイミングの同期を取る必要性がある。例えば、音声エンジン、ビデオエンジン及び触覚エンジンは、別々のクロック上で作動する。触覚信号、ビデオ信号及び音声信号を再生する間に、これらの同期を取る組み込み式の機構は通常存在しない。例えば、再生開始時、触覚信号及び媒体信号は、互いに数ミリ秒だけずれて開始した後、適切に同期が取られるが、通常これらの信号は、極めて短い期間は同期が取られないままずれてしまう。
このような問題の他の例は、媒体信号及び触覚信号を両方とも有する媒体トランスポートストリーム内の任意の点に無作為にアクセスすることは困難であり得るということである。換言すれば、ユーザが、媒体トランスポートストリームのある無作為の点より前で発生するデータにアクセスすることなく当該無作為の点で媒体トランスポートストリームの一部の再生を開始するとき、触覚信号を媒体信号と同期させることは困難である。
必要とされているのは、このように、触覚効果を他の媒体(例えば、音声媒体及び/又はビデオ媒体)と同期させ、触覚情報及び媒体情報の両方を含む媒体トランスポートストリーム内の任意の点において又は任意の点から触覚効果を動作することが可能な解決方法である。
媒体ファイル内の又は媒体ファイルに添付されている先行タグに埋め込まれている情報に応じて、媒体ファイルの一連のフレーム内の触覚情報が識別され、フレームに対応するタイムスタンプが決定される。触覚効果情報は、タグの1又は複数のフレーム内の情報に基づいて、媒体ファイルと同期が取られる。そのことによって、アクチュエータは、媒体ファイルの対応する音声コンテンツ及び/又はビデオコンテンツと同期を取りながら、タグ内に定義された触覚効果を出力する。
後記する詳細な説明、図、及び特許請求の範囲から、追加的な特徴及び効果が明らかになる。
添付する図面は、本明細書に組み込まれかつ本明細書の一部を構成し、1又は複数の実施形態を例示する。そして、添付する図面は、発明の詳細な説明とともに、実施形態の原理及び実現方法を説明するのに資する。
ある実施形態に係る、触覚情報を含む媒体トランスポートストリームを符号化し、送信し、復号するシステムを示すブロック図である。 ある実施形態に係る、媒体トランスポートストリームから媒体成分及び触覚成分を識別するシステムを示すブロック図である。 ある実施形態に係る、触覚成分を他の媒体成分と同期させる装置を示すブロック図である。 ある実施形態に係る、ビデオ信号、音声信号及び触覚信号を、同期を取って再生する方法を示すタイミング図である。 ある実施形態に係る、連続フレーム内で解析される触覚信号を示す図である。 ある実施形態に係る、触覚情報を格納する触覚フレームを示すブロック図である。 ある実施形態に係る、触覚効果を起こす波形を示す図である。 ある実施形態に係る、触覚効果を媒体成分と同期させる処理を示すフローチャートである。 ある実施形態に係る、システムとともに使用されるファイルのタグスキームを示す図である。 ある実施形態に係る、システムのブロック図を示す図である。
触覚情報を含む媒体トランスポートストリームを通信する方法、システム及び装置が、実施形態としてここに記述される。当業者であれば、後記される記述は単に例示的なものであって発明を限定することを意図していないことがわかるであろう。この開示の効果を享受する当業者には、他の実施形態もおのずから容易に示唆されるであろう。添付される図に示されるような実施形態の実施例が以降詳細に説明される。すべての図及び記述に亘って、同一事項を示す場合は、同一の参照番号が使用される。
明確さのため、ここに記述される実施例の慣例的な特徴のすべてを示し、記述することはしない。実施例を開発して行く過程で、開発者独自の目的を達成するためには、アプリケーション関係及びビジネス関係の制約と整合性を取る、というような、実施例独自の多くの決定がなされなければならないことは当然である。また、これらの独自の目的が実施例ごとに、かつ、開発者ごとに変化していくことも当然である。さらに、このような開発努力は、複雑であって時間を必要とするが、この開示の利益を享受する当業者にとっては、負担するべき日常業務であることもまた当然である。
本開示で記述される構成要素、処理ステップ及び/又はデータ構造は、様々なタイプのオペレーティングシステム、コンピューティングプラットフォーム、コンピュータプログラム及び/又は汎用機器を使用して実施されてもよい。さらに、ここに開示される本発明の主旨を逸脱することなくハードウエア機器、フィールドプログラマブルゲートアレイ(FPGAs)、アプリケーション特化型集積回路(ASICs)等のような専用機器が使用されてもよいことが、当業者にはわかるであろう。“ある実施形態”と言う語は、単純に1つの実施形態を限定する意味ではなく、複数の実施形態を包含する意味で使用される。一連の処理ステップを有する方法は、コンピュータ又は機器によって実施され、これらの処理ステップは、機器によって読取可能な一連の指示として格納され得る。これらの処理は、コンピュータメモリ機器(例えば、ROM(読出専用メモリ)、PROM(プログラム可能読出専用メモリ)、EEPROM(電気的消去可能プログラム可能読出専用メモリ)、フラッシュメモリ、ジャンプドライブ)、磁気記録媒体(例えば、テープ、磁気ディスクドライブ等)、光学記録媒体(例えば、紙カード、穿孔テープ等)及び他のタイプのプログラムメモリのような有形媒体上に格納されてもよい。
ある実施形態においては、システムは、触覚効果トラックを、マルチトラック媒体トランスポートストリームに含まれる他の媒体トラックと同期させ、同期化されたマルチメディア効果を生成することを目的とする。ある実施形態においては、システムは、媒体ファイルのヘッダ内で同期化されたデータを使用し、触覚効果がファイル内の媒体コンテンツと同期を取ることを確実ならしめる。これらの実施形態は、明確さを確保するために、以降では別々に記述されるが、システム及びその構成要素はすべての実施形態に共通であり、本明細書の詳細な説明は、すべての実施形態に適用されることは当然である。
一般的に、ある実施形態は、媒体データのマルチトラックデータストリームを、触覚データとともに、終端ユニット又は終端機器において受け取るシステムを対象とする。このことによって、一連のフレーム内の触覚情報が識別される。さらに、フレームに対応するタイムスタンプは、媒体トランスポートストリーム内に埋め込まれているマスタ時刻コード信号に応じて決定される。触覚情報を含む各媒体トランスポートストリームフレームは、タイムスタンプを割り当てられているので、各フレームは、タイムスタンプに応じて適切な時刻にアクチュエータを起動し、触覚情報に応じて触覚効果を生成するために使用されることになる。タイムスタンプによって、触覚フレームは、媒体ストリーム内の音声データ及び/又はビデオデータと同期を取るので、触覚効果は、媒体データとの関係において適切な時刻に感知される。
図1は、ある実施形態に係る、ストリーミングされる媒体トランスポートファイルを符号化し、送信し、復号するシステムを示すブロック図である。システム100は、送信器102、受信器104及び通信媒体106を含む。送信器102は、例えば、携帯電話、パーソナルデジタル端末(PDA)、パーソナルコンピュータ(PC)、サーバ、家庭用ゲーム器、デジタルカメラ、若しくは、有線式又は無線式の地上ネットワーク又はセルラネットワークを介して媒体ファイルを送信することが可能な他のデジタル処理機器である。ある実施形態においては、媒体ストリームは、DVD、CD、CDROM,ハードドライブ、フラッシュドライブ、RAM、又は他の記憶装置のような有形媒体上に格納される。このことによって、受信器104は、格納された情報からデータを検索する。
媒体フレームは、ビデオフレーム、音声フレーム及び/又は触覚フレームを含むが、これらに限定されない。同様に、ビデオフレーム及び/又は音声フレームが媒体ストリームに含まれてもよいが、媒体ストリームに埋め込まれているコンテンツのタイプは、両者のタイプに限定されない。後記するように、ある実施形態においては、システムは、音声ファイル(例えば、MP3)のタグ内に書き込まれている触覚イベントデータを使用することができる。このことによって、終端ユニットは、受け取った音声ファイルのタグを読み出す際に、触覚フィードバックを出力することができる。他の実施形態においては、システムは、音声ファイル及びビデオファイル(例えば、MP4)のタグ内に書き込まれている触覚イベントデータを使用することができる。このことによって、終端ユニットは、受け取ったファイルのタグを読み出す際に、触覚フィードバックを出力することができる。
図1に示される実施形態においては、音声データ、ビデオデータ及び触覚データは、送信器102から受信器104に別々に流される。図1に示されるように、ある実施形態においては、送信器102は、エンコーダ116、ビデオブロック110、音声ブロック112及び触覚ブロック114を含む。ある実施形態においては、送信器102は、ビデオブロック110を含まずに、音声ブロック112及び触覚ブロック114のみを含む。ビデオブロック110は、一連のビデオフレームの情報源となり、音声ブロック112は、一連の音声フレームの情報源となる。触覚ブロック114は、一連の触覚フレームの情報源となる。ある実施形態においては、ビデオフレーム及び/又は音声フレームが生成される場所と、触覚フレームが生成される場所とは全く別である。他の実施形態においては、音声フレーム、ビデオフレーム及び触覚フレームのすべてが1つの場所で生成される。
ある実施形態においては、エンコーダ116は、例えば、Moving Picture Experts Group の圧縮標準(MPEG−4)、MP3(音声のみ)のような商業的に利用可能な媒体トランスポートプロトコルに応じて、例えば、ビデオブロック110からビデオフレームを、音声ブロック112から音声フレームを、そして触覚ブロック114から触覚フレームを符号化又は生成し、これらを媒体トランスポートストリームに統合することができる。換言すれば、ビデオフレーム及び/又は音声フレームは、触覚フレームと同様に、媒体トランスポートストリーム内で符号化又はパッケージ化され、その後、媒体トランスポートストリームは、通信媒体106を介して、ユーザ指定された目的地又は終端ユニットに送信される。すべてのブロックに対して1つのエンコーダが対応しているように示されているが、ブロック毎に1つのエンコーダが接続されていてもよいし、1又は複数のブロックがまとめて1つのエンコーダに接続されていてもよい。時限触覚情報を様々なフレームに統合することは、任意の媒体トランスポートストリームフォーマットに対して適用可能であり、特定のファイルタイプ、プロトコル、ソフトウエア環境又は媒体再生ハードウエア環境に限定されない。
媒体トランスポートストリームは、送信器102から送信されて、直列的に受信器104に受信される一連のデータパケットである。このことによって、データパケットは、受信終端において格納される必要性がなくなる。この典型的な例として、遠隔サーバからビデオデータ及び/又は音声データをストリーミングするインターネットがある。他の実施形態においては、媒体トランスポートストリームによって搬送された触覚信号は、圧縮されるか、又は暗号化されてデータセキュリティを向上させる。
通信媒体106は、線(有線)通信媒体、無線通信媒体又は有線無線ハイブリッド通信媒体であり得る。ビデオブロック110からのビデオフレーム及び音声ブロック112からの音声フレームは、それぞれ、ビデオ成分及び音声成分を形成する、すなわち、全体として、媒体トランスポートストリームの媒体成分を形成する。触覚フレームは、媒体トランスポートストリームの触覚成分を形成する。
受信器104は、通信媒体106を介して媒体トランスポートストリームを受け取ることができる。受信器104又は終端ユニットは、例えば、携帯電話、パーソナルデジタル端末(PDA)、パーソナルコンピュータ(PC)、サーバ、マイクロフォン、家庭用ゲーム器、若しくは、有線式又は無線式のネットワークを介して媒体ファイルを受信し、触覚フィードバックを出力することが可能な他のデジタル処理機器である。ある実施形態においては、受信器104は、1又は複数の復号器126、ビデオブロック120、音声ブロック122及び触覚ブロック124を含む。ある実施形態においては、ビデオブロック120、音声ブロック122及び触覚ブロック124は、それぞれ、ビデオフレーム、音声フレーム及び触覚フレームを格納するために使用される。さらには、ある実施形態においては、受信器104は、ビデオブロック120を含まず、音声ブロック122及び触覚ブロック124のみを含む。
媒体トランスポートストリームを受け取ると、受信器104は、媒体トランスポートストリームからのビデオフレーム、音声フレーム及び触覚フレームを分析し、ビデオフレームをビデオブロック120に送信し、音声フレームを音声ブロック122に送信し、触覚フレームを触覚ブロック124に送信する。ビデオブロック110内のビデオフレーム、音声ブロック112内の音声フレーム及び触覚ブロック114内の触覚フレームは、それぞれ、ビデオブロック120内のビデオフレーム、音声ブロック122内の音声フレーム及び触覚ブロック124内の触覚フレームと実質的に同じ情報を含む。さらに、ビデオブロック110内のビデオフレーム、音声ブロック112内の音声フレーム及び触覚ブロック114内の触覚フレームは、同じ情報を含みつつも、対応するビデオブロック120内のビデオフレーム、音声ブロック122内の音声フレーム及び触覚ブロック124内の触覚フレームとは異なるデータフォーマットを適当な場所に有してもよい。図1では、1つの復号器が示されているが、各ブロックがそれぞれ個別の復号器に接続されていてもよいし、1つの復号器を他のブロックと共有してもよい。時限触覚情報を様々なフレームに統合することは、任意の媒体トランスポートストリームフォーマットに対して適用可能であり、特定のファイルタイプ、プロトコル、ソフトウエア環境又は媒体再生ハードウエア環境に限定されない。送信器102及び受信器104は、同様の送受信能力を備える同様の機器であってもよい。
図2は、ある実施形態に係る、媒体トランスポートストリームの媒体成分及び触覚成分を識別するための受信システム200の一部を示すブロック図である。システム200は、媒体再生器202、媒体同期(sync)レイヤ204、及び、データベース又はメモリストレージ220を含む。バス230は、媒体再生器202とデータベース220との間でデータを送信するために使用され、バス232は、媒体再生器202と媒体同期レイヤ204との間でデータを送信するために使用される。媒体同期レイヤ204は、さらに、それぞれバス232、236、238を介してビデオコーダ・デコーダ206及び/又は音声コーダ・デコーダ208、及び、触覚ユニット210と接続されている。ビデオコーダ・デコーダ206及び音声コーダ・デコーダ208は、デジタル情報を圧縮し解凍するための、ソフトウエアモジュール、ハードウエア機器、又はハードウエア構成要素とソフトウエア構成要素との組合せであり得る。ある実施形態においては、機器200は、終端ユニットそのもの(例えば、携帯電話)である。他の実施形態においては、機器200は、遠隔サーバ又は他の構成要素上に格納される。このことによって、機器200は、媒体ストリームを提供する情報源と終端ユニットとの間の中継ノードとしての役割を果たす。
ある実施形態においては、触覚情報とともにビデオ情報及び/又は音声情報を含み、かつ、完全な時間軸に対応したマスタ時刻コードを含むフレームのセットが、システム200に送信される。このことによって、データストリームは、少なくとも一時的にメモリ220に格納又はバッファリングされる。媒体再生器202は、格納されているデータをメモリ220から受け取り、媒体トランスポートストリームで送信されてきた、音声データ又は音声フレーム、及び/若しくは、ビデオデータ又はビデオフレーム、及び、触覚データ又は触覚フレームを抽出する。媒体再生器202は、MP3、MP4、AAC、Ogg、Vorbis、asx等の、特定の媒体トランスポートストリームフォーマット、又は複数の所与のストリーム及び拡張子を取り扱うようにプログラミングされ得る。
媒体再生器202によって媒体データ及び触覚データが抽出されると、媒体同期レイヤ204は、コンテンツを受け取り、媒体トランスポートストリーム内に受け取られたマスタ時刻コード又はタイミングテーブルによって特定された時刻において、適当なコーダ・デコーダに各媒体タイプのフレームを配分することによって、抽出された媒体コンテンツを同期させる。媒体同期レイヤ204は、各触覚フレームのタイムスタンプ又は起動時刻を読み出す。これらのタイムスタンプは、マスタ時刻コードと比較され、触覚効果タイミング及び触覚効果定義を、触覚ユニット210に送信し、適当な時刻に1つの(又は複数の)アクチュエータを起動するために使用される。起動時刻、すなわち、関連付けられた触覚効果がマスタ時刻コード510に応じて媒体再生器によって再生されるべき適当な時刻であるタイムスタンプ520が、各触覚フレームに対して割り当てられる。ある実施形態においては、タイムスタンプ520は、触覚情報を含まないフレームに対しては割り当てられない。例えば、フレームが触覚情報を含まない場合、データ(ベース)は、当該フレームを無視する。ある実施形態においては、触覚情報に関連付けられたタイムスタンプが、他の媒体成分に基づいて予め定義されたアルゴリズムに従って生成される。他の実施形態においては、触覚情報に関連付けられたタイムスタンプが、ユーザからの入力と他の媒体成分を考慮して予め定義されたアルゴリズムとの組合せに従って生成され得る。
図3は、ある実施形態に係る、システム200の他の部分を示すブロック図である。図3に示される機器300は、好ましくは、終端ユニット104内の媒体同期レイヤ202の部分であり、タイムスタンプされた触覚成分に関連付けられた物理的触覚効果が媒体成分に対応することを確実ならしめる。ある実施形態においては、機器300は、図2の部分200からは隔離されている。ある実施形態においては、機器300は、ハードウエアベースかつソフトウエアベースである。ある実施形態においては、機器300は、アプリケーションプログラミングインタフェース(API)306、カーネル308、及び触覚回路314を含む。カーネル308は、さらに、振動発生器(VG)312及び触覚再生エンジン(HPE)310を含む。振動発生器312及び触覚再生エンジン310は、カーネル308の部分として示されているが、振動発生器312及び触覚再生エンジン310は、カーネル308からは隔離されたモジュールであってもよい。さらに、部分300は、触覚回路314に接続された1又は複数のアクチュエータを含む。当該システムには、任意のタイプのアクチュエータが使用されてもよい。機器300は、前記した構成要素を含むものとして示されているが、追加的な及び/又は代替的な構成要素を含んでもよい。
API306は、カーネル308に、低レベル命令を送信する。当該命令は、フレーム内に定義された触覚情報と一致するようにアクチュエータ346を動作させる役割を結果的に果たす。ある実施形態においては、HPE310は、API306及びバス358を介して触覚ユニット210から受け取られたデータに従って、触覚イベントをスケジューリングする。VG312は、API306から受け取られた触覚情報に従って触覚効果を同期させ、触覚回路314に、アクチュエータ346を動作させるために使用される制御信号を提供する。触覚回路314は、例えば、接続362を介してアクチュエータ346を駆動する増幅器である。触覚回路314は、アナログ又はデジタルの電子回路であってもよく、及び/又は、ソフトウエアベースであってもよい。
API306の機能は、対応する音声データ及び/又はビデオデータに関係する適正な時刻に触覚効果を開始させることである。この機能は、それに先行する又は後続する他の触覚フレームに依存しない自己完結型触覚効果である各触覚フレームであるためである。自己完結型触覚フレームを有することの効果は、機器300を使用する際に、ユーザが触覚フレーム又は媒体フレームに無作為的にアクセスすることができるということ、そして、システムは、画像、音声及び触覚効果を含む、同期が取られたマルチメディア出力を確実に生成することが引続き可能であるということである。この点については、さらに詳細に後記する。
図4は、ある実施形態に係る、ビデオ信号、音声信号及び触覚信号を、同期を取って再生する方法を示すタイミング図400である。タイミング図400は、媒体トランスポートストリームに埋め込まれたマスタ時刻コード402、媒体トランスポートストリームのビデオ成分404、媒体トランスポートストリームの音声成分406及び媒体トランスポートストリームの触覚成分408を示す。マスタ時刻コード402は、媒体トランスポートストリームに埋め込まれており、媒体再生器によって媒体トランスポートストリームから抽出され得る。ある実施形態においては、マスタ時刻コード402は、t、t、t等のような、音声データ及び/又はビデオデータからは独立した一連のタイムスタンプを有する時間軸である。しかしながら、媒体ファイル内の音声成分及び/又はビデオ成分自体がタイムスタンプを含み、マスタ時刻コード402として使用されてもよい。
図4のビデオ成分404は、フレーム40V...nVのような複数の連続するビデオフレームを含む。音声成分406は、フレーム40A、42A...nAのような複数の連続する音声フレームを含む。触覚成分408は、フレーム40H、42H、44H、46H...nHのような複数の連続する触覚フレームを含む。“n”は整数値である。図4に示されるように、ビデオ成分404、音声成分406及び触覚成分408は、すべてマスタ時刻コード402と同期が取られている。具体的には、40Vのビデオフレームは、時刻tから時刻tまでに及んでいる。これに対応して、音声フレーム40A、42Aが、タイムスタンプtからタイムスタンプtまでのストリーム上に存在する。さらに、触覚フレーム40H、42H、44H及び46Hが、タイムスタンプtからタイムスタンプtまでのストリーム上に存在する。
ビデオフレーム、音声フレーム及び触覚フレームの間でフレームフォーマットが異なっていてもよいが、各成分内では、共通のプロトコルに従ってフレームが作成されるものとする。ある実施形態においては、触覚フレーム40Hは、データのサイズが触覚フレーム42Hと実質的に同じである。他の実施形態においては、40H及び42Hによってカバーされるタイムスパンは、それぞれ例えば200ミリ秒であるが、それらの物理的メモリ専有範囲は異なっていてもよい。200ミリ秒に加えて、他のタイムスパンがあってもよい。ある実施形態においては、触覚フレームサイズは、物理的データ容量に反比例するような時間長によって決定される。音声フレーム406は均一な長さを有するものとして示されているが、音声フレームの長さは異なっていてもよい。ビデオフレーム及び触覚フレームについても同様である。
図4のタイムスタンプtに注目すると、触覚フレーム40H、音声フレーム40A及びビデオフレーム40Vが、実質的に同じ時刻に再生を開始している。触覚フレーム40Hはタイムスタンプtにおいて再生を終了するが、触覚フレーム40H内で定義される触覚効果は、時刻tが経過した後も再生を継続するようにしてもよい。例えば、フレーム40H内の触覚効果は、時刻tと時刻tとの間の時間長よりも長い振動であってもよい。この場合、1又は複数のアクチュエータは、後の触覚効果を出力している間にも、前の触覚効果を重ねて出力し続ける。
タイムスタンプtにおいて、触覚フレーム42Hは、出力され始める。起動時刻、すなわち、触覚フレーム42Hが再生されるタイムスタンプは、マスタ時刻コードから決定される時刻に対応している。触覚フレームにタイムスタンプを割り当てることによって、触覚フレーム(例えば、フレーム42H)は、40Hのような先行する触覚フレームが再生を終了する時刻とは無関係に再生を開始できる。つまり、触覚フレーム40Hがタイムスタンプtの前で再生を終了した場合、タイムスタンプtにおいて触覚フレーム42Hが再生されるまで、触覚効果は再生されない状態にある。タイムスタンプtにおいて、触覚フレーム44H及び音声フレーム42Aが再生される。タイムスタンプtにおいて、ビデオフレーム40V及び音声フレーム42Aが既に再生されているが、触覚フレーム46Hが出力される。
コンテンツデータ404、406、408にタイムスタンプを付することによって、ユーザは、時間軸上の任意の点でコンテンツの特定の部分にアクセスでき、選択されたコンテンツに関連付けられた同期化された触覚効果を体験できる。つまり、ユーザが音声フレームnAを選択すると、システムは、音声フレームnAに関連付けられている触覚効果nHを自動的に再生する。ユーザがファイルを進めて特定の音声符号(例えば、低音ドラム)を聴く、又は、特定のビデオ画像(例えば、爆発シーン)を見る状況において、この仕組みは有効である。このようにして、システムは、特定のコンテンツフレームに割り当てられた触覚効果(例えば、振動)を再生する。
もしもユーザが図4の時刻tまで早送りしたとすると、システムは、時刻tまで待った後に、次の触覚フレームnHを再生する。この実施形態においては、触覚フレームnHを再生する前に触覚効果が再生されることはない。同様に、再生器がtまで待った後に、次の音声フレームnAが再生される。なお、この場合、tはtに等しい。同様に、再生器は、tまで待って次のビデオフレームnVを再生する。
ある実施形態において、機器は、媒体同期レイヤ204が時刻tちょうどに始まる再生を特定することを可能にする。この場合、媒体同期レイヤ204は、触覚フレーム(n−1)Hを触覚ユニット210に送信し、t−(n−1)Hの時間オフセットを特定する。触覚ユニット210は、フレーム(n−1)Hの再生を試みるときに、この時間オフセットをAPIに送信する。システムは、バッファ内に所定数のフレームを格納しておくことによって、選択されたフレームの直前の1又は複数のフレーム(又はその一部)を再生することも可能である。このようにすれば、ユーザは、正確な再生点において、触覚効果又は触覚効果の一部を体験することが可能になる。
ある実施形態においては、1つの触覚フレームは、ここで定義される1又は複数の触覚効果を含む。これらの触覚効果を定義しスケジューリングするパラメータが触覚フレーム内に提供される。このようにすることによって、システムは、触覚パラメータを解釈し、定義されたパラメータに対応する触覚効果を再生するようにアクチュエータに対して指示する。例えば、定義されたパラメータは、再生器に対して、フレーム内の再生予定の1又は複数の触覚効果をオフセットさせることが可能である。換言すれば、触覚効果間の時間オフセットは、パラメータが定義されている特定のフレームの開始に関するものであって、ファイル又は媒体トランスポートストリームの開始に関するものではない。1つのフレーム内で別々の効果をスケジューリングすることは、音声、画像及び触覚効果を再生する機器の役割である。例えば、媒体再生器のタイプ、ネットワーク接続、アクチュエータのタイプ、及び/又は機器のサイズによっては、終端機器の属性に基づいて触覚効果がどのようにスケジューリングされるかが変わる。機器の同期レイヤがビデオフレーム、音声フレーム及び触覚フレームをスケジューリングするので、異なる媒体間のあらゆるドリフトは、ファイル又はストリーム全体の開始時点ではなく、各フレームの開始時点で修正され得る。
図5は、ある実施形態に係る、一連の連続フレームに亘って解析される触覚効果を示す図500である。図5は、マスタ時刻コード510及びマスタ時刻コード510と同期が取られた触覚成分512を含む。触覚成分512は、さらに、複数の触覚フレーム502、504、506等を含む。各触覚フレームは、固定された時間長を表し、固定された時間長を占め、固定された時間長に関連付けられた複数の触覚効果をパッケージングしている。時間軸及び、t、tのようなタイムスタンプがマスタ時刻コード510によって決定される。
ある実施形態においては、マスタ時刻コード510は機器によって使用され、機器がファイルとして受け取ったすべてのフレーム又はデータパケットの受信及び再生を調和させる。ある実施形態においては、フレームの時間長は、ユーザによる日常操作の間、選択され固定され得る。ある実施形態においては、データ特性及びユーザ選好に応じて、100ミリ秒から300ミリ秒までのフレーム長の範囲が使用される。特殊な動作では、1ミリ秒のフレーム長が使用されて極端に厳密な同期要求を満たしてもよい。1ミリ秒のフレーム長に対するコストは高額になり得る。1ミリ秒のフレーム長は、有意に拡大された帯域幅の使用を必要とするからである。ある実施形態においては、マスタ時刻コードのフレーム長は、ファイル内で設定され埋め込まれており、ユーザ又は機器300によって変更され得ない。フレーム長はユーザが適宜設定可能であり、前記の値に限定されるものではない。
一般的に、フレーム長が長くなるほど、媒体効果と同期を取ることが必要になるフレーム数は減少する。このことは、触覚効果を、音声効果及び/又はビデオ効果と非同期状態としてしまう可能性が大きくなることを意味する。他方で、フレーム長が短くなるほど、音声効果及び/又はビデオ効果とよりよくかつより厳密に同期するが、触覚効果と媒体効果との間の同期化処理工数が増加し、より多くの処理能力及びより大きなネットワーク帯域幅が必要となる。
ある実施形態においては、触覚フレームのサイズは、触覚効果の複雑さに応じて、8、16、25、32、64、128又は256バイトであり得る。例えば、いくつかの触覚フレームは、それぞれ、特定の音声フレーム及び/又は特定のビデオフレームと相関する振動−音声データ及び/又は振動−画像データを含む。ある実施形態においては、1つの触覚フレームは、少なくとも1つの触覚効果をレンダリングするために必要となる情報、及び、触覚効果の開始時刻を示す1つのタイムスタンプを含む。フレーム内に触覚情報が存在しない場合は、触覚フレームは無視されてもよい。
図6は、ある実施形態に係る、触覚情報を格納する触覚フレーム600を示すブロック図である。ある実施形態においては、触覚情報は、再生されるべき各触覚効果をフレーム内で定義するために使用される。触覚情報は、強度/マグニチュード、持続時間、周期、開始遅延、攻撃強度、攻撃タイミング、減衰強度、減衰タイミングのような様々なパラメータを含む。これらのパラメータは、1つのフレーム長が継続している間、1つの触覚効果又は一連の触覚効果を実施するために必要である。持続時間パラメータは、どれだけの期間に亘って触覚効果がアクチュエータによって再生されるべきかを特定するために使用される。触覚効果の開始遅延パラメータは、フレームの開始又はタイムスタンプの開始からどれだけの期間に亘って触覚効果が再生されるのを待つことになるかを示す。例えば、触覚効果は周期的であり得る。そして、周期パラメータがそのような周期を定義する。ある実施形態においては、触覚効果情報は、パラメータなしの符号化を使用する。ある実施形態においては、このような符号化は、パルス幅変調器に対して適用される一連の8ビットアクチュエータ制御値を含み得る。当該パルス幅変調器は、8ビット値ごとに持続時間5ミリ秒の間アクチュエータの一対のリードに印加する瞬間電圧を制御する。各触覚フレームが200ミリ秒の触覚再生時間を表す場合、各触覚フレームは、ちょうど40バイトのデータを含むことになる。触覚情報は、いくつかの触覚効果について境界を設定することによって触覚効果を制御するために使用されるエンベロープ情報を含んでもよい。
図6に示される触覚フレーム600は、触覚効果定義部分610及び一連の触覚効果要求指示612、614、・・・616を含む触覚フレームのレイアウト例である。ある実施形態においては、触覚効果定義610は、持続時間パラメータ、停止時刻、開始時刻及び開始遅延パラメータのような制御情報を含む。各触覚効果要求指示612、614、・・・616は、マグニチュード、攻撃強度、減衰強度及び再生されることになる特定タイプの触覚効果についての情報を含んでもよい。このようにして、各触覚フレーム600は、割り当てられたタイムスタンプに対応する開始時刻及び停止時刻を提供し、どのタイプの触覚効果がアクチュエータによって出力されるべきであるかについての情報を保持する。触覚フレームは、1又は複数の触覚効果を同時に起動させ得る。さらに、触覚効果は、フレーム長すなわち触覚フレームの期間を超えて再生を継続してもよい。ある実施形態においては、触覚効果定義部分610は、フレーム開始後どれだけ経過した後触覚効果を始めるかを制御するオフセットパラメータ(例えば、タイムスタンプの5ミリ秒後に振動開始)を示すことによって、所定時間だけずらして触覚効果が再生されることを特定してもよい。
図7は、ある実施形態に係る、触覚効果に関連付けられた波形710を示す図である。具体的には、x軸は時刻を表し、y軸はアクチュエータによって出力されるべき力のマグニチュード又は強度を表す。波形701は、いくつかの異なる周波数を使用して、触覚がユーザに感知されるようにする。波形701の触覚効果は、702として示された持続時間に亘って継続する。この持続時間中には、開始時間704、定常時間708及び減衰時間706が含まれる。ある実施形態においては、持続時間702は、触覚フレームの期間以下の長さである。他の実施形態においては、持続時間702は、触覚フレームの期間より長い。開始時刻における触覚効果の強度は、“開始水準”709によって特定される。触覚効果の強度は、定常時間708が始まると“マグニチュード”水準710に変化し、減衰時間706の終わりには減衰水準712に変化する。代替的に、減衰水準712は、マグニチュードゼロの触覚効果から計測されることもできる。図に示される波形は一例であり、いくつかの異なるタイプの既知の波形も可能である。
周期又は周期タイプは、一定力、方形波、三角波、正弦波、のこぎり波、逆のこぎり波、又はこれらのうちの任意の組合せであり得る。周期が異なれば、提供される触覚フィードバックも異なる。例えば、波形701は、0.1ヘルツから1000ヘルツまでの範囲で変化し、当該範囲のなかで、異なる周波数は異なる触覚を提供する。
動作中、波形701によって起こされる触覚効果は、開始水準709、開始時間704、減衰水準712及び減衰時間706によって定義される。波形701の実行を時間で定義したとき、実行処理は、基準強度すなわち触覚効果の“マグニチュード”、持続時間、周期的に再生されるべきか否か、及び、周期的に再生されるべきであればどの程度の頻度で再生されるべきかを特定する。図1〜図3の実施形態において示されるように、触覚データ及びコンテンツデータが分離してストリーミングされるときに、触覚効果を定義する情報は、各触覚フレーム内に存在し、再生機器に対し直列的にダウンロードされる。後記する他の実施形態においては、触覚効果は、コンテンツファイルのファイルヘッダ内のフレーム内に格納される。波形701は一例に過ぎず、このような触覚効果はどのような数の方法で定義されてもよいことが当業者にはわかるであろう。
図1〜図3の実施形態においては、システムは様々な処理ステップを使用して、触覚フレームの着信ストリームをコンテンツフレームと同期させる。ここで記述されるステップは、機械実行可能指示又はコンピュータ実行可能指示として具現化されてもよい。これらの指示は、これらの指示を用いてプログラミングされている汎用システム又は専用システムに、ここで記述されるステップを実行させる。代替的に、ここで記述されるステップは、当該ステップを実行するための配線論理を備えた特定のハードウエア構成要素によって実行されてもよいし、プログラミングされた構成要素と特注のハードウエア構成要素との任意の組合せによって実行されてもよい。無線通信ネットワークを参照して実施形態が記述されるが、ここで記述される方法及び装置は、他のネットワークインフラストラクチャ又は有線を含む他のデータ通信環境にも同様に適用できる。
図8は、ある実施形態に係る、触覚効果を他の媒体成分と同期させる処理を示すフローチャートである。ブロック802において、プロセスは、媒体トランスポートストリーム内の少なくとも1つの触覚フレーム内で、触覚情報を識別する。ある実施形態においては、システムは、一連のビデオフレーム、音声フレーム及び触覚フレームを、それらのフレームが受け取られている間に、識別する。ある実施形態においては、この処理は、媒体再生器によって実行される。
ブロック804において、システムは、マスタ時刻コードに従ってすべてのフレームに対して割り当てるべきタイムスタンプを決定する。前記したように、ある実施形態においては、マスタ時刻コードは、媒体トランスポートストリームに埋め込まれていてもよい。ある実施形態においては、ビデオストリーム及び/又は音声ストリームに関連付けられた時刻コードがマスタ時刻コードとして使用されてもよい。前記したように、タイムスタンプは、触覚フレーム内で定義された触覚効果を開始するシステムが使用する時点である。
ブロック806において、システムは、タイムスタンプを触覚フレームに割り当てる。ここで、タイムスタンプは、触覚フレーム内に格納された触覚情報に従って、1又は複数のアクチュエータをいつ起動して触覚効果を生成するかを指示する。触覚フレームに割り当てられたすべてのタイムスタンプは、対応する音声フレーム及び/又はビデオフレームと同期が取れており、かつ、対応する音声フレーム及び/又はビデオフレームと位置がそろっていることが好ましい。システムは、前記したように1つの触覚フレーム内でのタイムスタンプのオフセットであるサブタイムスタンプを割り当てることもできる。ある実施形態においては、ブロック804、806は、触覚効果を媒体ファイルに設定する時点で実行される。
ブロック808において、プロセスは、各触覚フレーム内に格納されている触覚効果情報を解釈し、特定のフレームについて出力されるべき触覚効果のタイプを決定する。ある実施形態においては、システムは、ビデオ信号及び/又は音声信号に応じて触覚効果情報を符号化する。他の実施形態においては、プロセスは、1又は複数の予め定義されたアルゴリズムに応じて触覚効果情報を符号化する。各触覚フレームは、特定の触覚フレーム内で異なる時刻に開始する複数の触覚効果を備えてもよい。さらに、システムは、触覚効果情報に従って1又は複数のアクチュエータを起動することができ、関連付けられたタイムスタンプに従って触覚効果を維持することもできる。
前記したように、システムは、媒体データ及び触覚データの複数のストリームを受け取る。このことによって、システムはタイムスタンプを触覚フレームに割り当て、触覚フレームを近接したデータストリームと同期させ、ひとまとまりの触覚体験を作成する。他の実施形態においては、システムは、媒体トランスポートファイル内のヘッダタグに埋め込まれた触覚情報から触覚効果を出力する。このことによって、触覚効果は、ファイル内の音声データ及び/又はビデオデータと同期を取る。具体的には、システムは、既存のタグスキームを利用し得る。一例として、媒体トランスポートファイルに埋め込まれたID3V2タグスキームがある。システムは、好ましくはファイル内のデータに先行するヘッダタグを読み出すことによって、格納された触覚情報を解釈し、触覚情報を他の媒体情報と同期させる。本明細書では、発明の実施形態を記述するためにID3V2タグスキームを使用したが、他のタグスキーム及び他の解決方法(例えば、ID3V1、Lyrics3)が使用されてもよい。
一般的に、タグスキームは、媒体ファイルの先頭に付されたデータの塊であるタグを使用する。このようにして、タグは、1又は複数のより小さなフレームの塊を保持する。図9に示されるように、タグは、タイトル、アルバム、実演家、ウエブサイト、歌詞、エコライザプリセット、写真のような任意のタイプの情報を含み得る。ある実施形態においては、各フレームの容量は16メガバイトであり、タグ全体の容量は256メガバイトであり得るが、フレームサイズはこれらの値に限定されない。ある実施形態においては、タグは、新たなフレームが追加され得るコンテナフォーマット(例えば、IFF、PNG拡張子)である。さらに、コンテンツデータの先頭部分又はコンテンツデータの前にタグを配置することによって、ファイルが終端ユニットにストリーミングされたとき、システムはタグ及びタグに埋め込まれた情報を使用することが可能になる。ある実施形態においては、タグは、コンテンツデータの後に配置されるので、システムは、タグデータから同期化された触覚効果を効果的にレンダリングできる。
タグは、ソフトウエアを使用するプログラマ又は管理者によって触覚情報に直接埋め込まれている。対応する媒体ファイルに埋め込まれたタグは、受信終端ユニット104(図1)、サーバ、又は受信終端ユニット104に対して後ほどダウンロードするための他の格納手段に送信される。ある実施形態においては、触覚情報及び同期情報を含むタグの関連部分又はタグ自身は、受信終端機器104から要求すれば受信終端機器104に配信されるグレースノート社のコンパクトディスクデータベースCDDBと同等の遠隔データベースに格納される。ある実施形態においては、終端機器104は、受け取られたヘッダフレームからの情報を終端機器104に格納されているコンテンツデータと組合せてもよい。こうすることによって、組み合わせは終端機器によって処理されかつ出力され、媒体データと同期の取られた触覚効果を作成する。
図9は、ある実施形態に係る媒体ファイルのタグを示す。図9の媒体ファイル900は、音声データ及び/又はビデオデータを含む媒体コンテンツデータ902を含む。ある実施形態においては、ヘッダタグ904が、媒体データファイル902の先頭部分に付されている。ヘッダタグ904は、非公開フレーム906、情報フレーム908、歌詞フレーム910、写真フレーム912、コメントフレーム914、及びプログラマによって挿入されるべき他の追加フレームを含んでもよい。タグは、示されたフレーム例に限定されることなく、追加的フレーム及び/又は代替的フレームが媒体ファイル900とともに使用されてもよい。さらに、ヘッダタグ904内に複数の特定のフレームが存在してもよい(例えば、2つの歌詞フレーム910、2つの写真フレーム912等)。ここでは、音声データ/ビデオデータに先行するものとしてタグを説明したが、タグは、音声データ/ビデオデータの後に配置されてもよいし、音声データ及びビデオデータのパッケット内またはパケット間に配置されてもよい。
非公開フレーム906は、2進数フォーマットで格納される。非公開フレームは、対応する添付媒体ファイル902について触覚効果が出力される予定であることを終端ユニット内の媒体再生器に知らせるようにプログラミングされてもよい。ある実施形態においては、非公開フレームは、触覚フレームごとの触覚情報と同様に、同期情報を直接含むようにプログラミングされてもよい。同期情報は、タイムスタンプ情報を含んでもよい。こうすることによって、媒体再生器は、非公開フレーム内のデータを読み出し、音声データ及び/又はビデオデータと同期が取られた、対応する触覚効果を出力する。ある実施形態においては、フレームごとの同期情報は、メタデータ内に格納される。こうすることによって、各フレームは、フレーム内に記憶されたパラメータ化された振動定義ごとに時間オフセットを保持する。例えば、特定のフレーム(例えば、フレームA)は、600ミリ秒に設定されたタイムスタンプを有してもよい。触覚効果のオフセットがフレームAのタイムスタンプの開始後50ミリ秒及び185ミリ秒の時点で開始することを同期情報が指示することもできる。この場合、フレームAが再生されたとき、アクチュエータは触覚効果(又は、触覚効果の予め定義された特性)をそれぞれ、650ミリ秒及び785ミリ秒で出力するように指示される。
さらに、非公開フレームは、識別情報を含み、終端機器に対し、非公開フレームは触覚情報を含んでいることを警告してもよい。このようにして、終端ユニットは、フレームの所有者を識別するデータを求めてすべての非公開フレームを検索する。ある実施形態においては、非公開フレームは、当該フレームに責任を負う組織の電子メールアドレスを含むURL付のヌル終端文字列のような、所有者識別子フィールドを含む。追加的に及び/又は代替的に、所有者識別子フィールドは、責任組織の同一性を参照するリンクを含む。終端ユニットが、その所有者(例えば、イマーションコーポレーション)に属する非公開フレームを最終的に識別する時点で、システムは、さらに当該フレームを処理し、同期フレームの触覚処理に対して当該フレームを使用する。非公開フレームは、システムがタグを識別できるようにする情報を提供する他の手段を含んでもよいが、前記した構成に制限されない。
ヘッダタグは、前記したタイムスタンプ情報と触覚情報を搬送する同期フレームを保有している。同期フレームは、当該フレームをプログラミングするために使用されるいくつかのフィールドを含む。ある実施形態においては、同期フレーム内で使用されるフィールドは、文字コードセットがUnicode, ISO-8859-1又は他の文字コードを有する場合もあるし、有さない場合もある。同期フレームは、歌詞フレーム910のような、図9に示された任意のフレームであり得る。さらに、同期フレームは、タイムスタンプがミリ秒単位となり得る時間フォーマットフィールド、MPEGフレーム等を含む。
ある例では、同期フレームは、Unicodeフォーマットで設定され、“イベント”フレーム内に配置される触覚イベントデータを有することが可能であり、タイムスタンプフォーマットはミリ秒単位で設定されることが可能である。この例では、データフィールドへの第1のエントリは、改行文字が後に続く文字列として与えられるエントリカウントである。ヌル文字が同期識別子として使用されるので、エントリカウント及びデータサイズは文字列として表される。サンプルごとに、フレームは、図6において前記した触覚効果要求フレームと触覚定義フレームとを含む。さらに、フレームは、同期識別子情報及びタイムスタンプ情報(必要な場合)を含む。
図10は、ヘッダタグを使用して触覚情報を提供するある実施形態に係るシステムのブロック図である。媒体再生器1002、同期レイヤ1004、アプリケーションプログラミングインタフェース(API)1006、カーネル1008、触覚再生エンジン1010、振動発生器1012、アクチュエータ駆動回路1014及び1又は複数のアクチュエータ1016を含むシステム1000が図10に示されている。システム1000は、この構成要素に限定されず、代替的及び/又は追加的な構成要素が使用されてもよい。
図10に示されるように、媒体ファイル1018は、ソフトウエアプログラムインターフェース1020にロードされて、媒体ファイル1018は、前記したように、ヘッダタグ内の識別子及び同期情報と同様に触覚情報を埋め込まれる。この情報の埋め込み処理は、イマージョン社が所有するVibeTonz ソフトウエア上で、又は他の適当なソフトウエアプログラムによって、実行され得る。一旦、媒体ファイルに同期情報及び触覚情報が埋め込まれると、修正された媒体ファイル1022は、機器1000に直接送信され、又は、後からの検索に備えてメモリ又はサーバ上に格納され得る。ある実施形態においては、修正された媒体ファイルは、終端機器1000に対してストリーミングするためのストリーミングサーバ上に格納され得る。
終端機器1000にダウンロードされると、修正された媒体ファイル1022は、媒体再生器1002によって受け取られる。このことによって、媒体再生器1002は、媒体ファイル1022が触覚識別子を含むか否かを識別する。他の実施形態においては、媒体ファイル1022は、終端機器1000に対してストリーミングされる。そのことによって、ヘッダ情報は、ストリームの開始の部分で検索され、格納される。格納されたヘッダ情報は、後から受け取られたストリーミング媒体ファイルとともに処理されて、触覚効果がストリーミングされた媒体と同期を取ることを確実ならしめる。ファイル1022が触覚識別子を含まない場合は、触覚効果情報はAPI1006に中継されない。しかしながら、ファイル1022が非公開フレームに触覚識別子を含む場合は、同期レイヤ1004が同期フレームを読み出し、API1006に必要な拡張情報を提供する。API1006は、正確な時刻に触覚効果を起動する。なぜならば、各触覚フレームは同期化フレーム内の他のフレームによらない自己完結型触覚効果であるからである。API1006は、触覚再生エンジン1010に対して低レベル命令を提供するようにカーネル1008に指示する。そして、触覚再生エンジン1010は、駆動回路1014を起動して、アクチュエータ1016へ出力される制御信号を制御及び/又は増幅するように振動発生器1012に指示する。アクチュエータ1016は、同期レイヤ内に定義された特定の触覚効果とともに、指示されたタイムスタンプにおいて指示された触覚効果を自動的に出力する。前記したステップは適宜順序を替えて実行されてもよく、例示された順序に限定されるものではない。追加的及び/又は代替的なステップが、本発明の主旨を逸脱しない範囲で使用されてもよい。
実施形態及びアプリケーションを例示し説明して来たが、本発明の主旨を逸脱しない範囲で前記された以外の修正が可能であることが、本発明の開示を享受する当業者には明らかであろう。

Claims (16)

  1. コンテンツデータに先行するタグ内に埋め込まれた触覚イベントデータであって、フレーム内に埋め込まれたタイムスタンプ情報を有する触覚イベントデータを有する媒体ファイルを受け取り、
    前記触覚イベントデータと前記コンテンツデータとが共有するタイムスタンプを使用して、前記埋め込まれた触覚イベントデータを前記媒体ファイル内の前記コンテンツデータと同期させ、
    再生機器内のアクチュエータを介して触覚効果を出力する装置を用いる方法であって、
    前記装置が出力する触覚効果は、
    前記コンテンツデータの対応する媒体イベントと同期が取られており、
    前記媒体イベント及び前記触覚イベントは、
    概ね同じタイムスタンプにおいて発生し、
    前記タグは、
    非公開フレームを有し、
    前記非公開フレームは、
    終端ユニットが前記非公開フレームの所有者を識別するための情報を含み、
    前記触覚イベントデータは、
    前記非公開フレーム内に埋め込まれていること、
    を特徴とする方法。
  2. 前記コンテンツデータは、
    聴覚データを含むこと、
    を特徴とする請求項1に記載の方法。
  3. 前記コンテンツデータは、
    ビデオデータを含むこと、
    を特徴とする請求項1に記載の方法。
  4. 前記フレーム内の前記埋め込まれた触覚イベントデータは、
    開始時刻、マグニチュード、周波数及び持続時間を含むこと、
    を特徴とする請求項1に記載の方法。
  5. 前記媒体ファイルは、
    前記再生機器において受け取られる前に格納されていること、
    を特徴とする請求項1に記載の方法。
  6. 前記媒体ファイルは、
    情報源からストリーミングされ、前記再生機器によって受け取られること、
    を特徴とする請求項1に記載の方法。
  7. 前記媒体ファイルに関連付けられたマスタ時刻コードに応じて、前記媒体ファイルから前記埋め込まれた触覚イベントデータを抽出すること、
    を特徴とする請求項1に記載の方法。
  8. コンテンツデータに先行するフレーム内に埋め込まれた触覚イベントデータであって、前記フレーム内に埋め込まれたタイムスタンプ情報を有する触覚イベントデータを有する媒体ファイルを受け取る手段と、
    マスタ時刻コードを使用して、前記埋め込まれた触覚イベントデータを前記媒体ファイル内の前記コンテンツデータと同期させる手段と、
    アクチュエータを介して、前記触覚イベントデータの前記タイムスタンプに関連付けられた触覚効果を出力する手段と、を有し、
    前記フレームは、
    非公開フレームを有し、
    前記非公開フレームは、
    終端ユニットが前記非公開フレームの所有者を識別するための情報を含み、
    前記触覚イベントデータは、
    前記非公開フレーム内に埋め込まれていること、
    を特徴とする装置。
  9. 前記コンテンツデータは、
    聴覚データを含むこと、
    を特徴とする請求項に記載の装置。
  10. 前記コンテンツデータは、
    ビデオデータを含むこと、
    を特徴とする請求項に記載の装置。
  11. 前記媒体ファイルは、
    MP3型式であること、
    を特徴とする請求項に記載の装置。
  12. 前記フレーム内の前記埋め込まれた触覚イベントデータは、
    開始時刻、マグニチュード、周波数及び持続時間を含むこと、
    を特徴とする請求項に記載の装置。
  13. 前記媒体ファイルは、
    再生機器において受け取られる前に格納されていること、
    を特徴とする請求項に記載の装置。
  14. 前記媒体ファイルは、
    情報源からストリーミングされ、再生機器によって受け取られること、
    を特徴とする請求項に記載の装置。
  15. 前記媒体ファイルに関連付けられたマスタ時刻コードに応じて、前記媒体ファイルから前記埋め込まれた触覚イベントデータを抽出する手段を有すること、
    を特徴とする請求項に記載の装置。
  16. に読み取られる1又は複数の有形媒体内に符号化されたプログラムであって、
    前記プログラムは前記機器に読み取られると、
    コンテンツデータに先行するタグ内に埋め込まれた触覚イベントデータであって、フレーム内に埋め込まれたタイムスタンプ情報を有する触覚イベントデータを有する媒体ファイルを受け取り、
    前記触覚イベントデータと前記コンテンツデータとが共有するタイムスタンプを使用して、前記埋め込まれた触覚イベントデータを前記媒体ファイル内の前記コンテンツデータと同期させ、
    再生機器内のアクチュエータを介して触覚効果を出力する処理を前記機器に実行させ
    前記出力される触覚効果は、
    前記コンテンツデータの対応する媒体イベントと同期が取られており、
    前記媒体イベント及び前記触覚イベントは、
    概ね同じタイムスタンプにおいて発生し、
    前記タグは、
    非公開フレームを有し、
    前記非公開フレームは、
    終端ユニットが前記非公開フレームの所有者を識別するための情報を含み、
    前記触覚イベントデータは、
    前記非公開フレーム内に埋め込まれていること、
    を特徴とするプログラム。
JP2010530120A 2007-10-16 2008-10-16 媒体トランスポートストリームにおける触覚効果データの同期化 Expired - Fee Related JP5266327B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/975,120 US9019087B2 (en) 2007-10-16 2007-10-16 Synchronization of haptic effect data in a media stream
US11/975,120 2007-10-16
PCT/US2008/080218 WO2009052322A2 (en) 2007-10-16 2008-10-16 Synchronization of haptic effect data in a media transport stream

Publications (2)

Publication Number Publication Date
JP2011501575A JP2011501575A (ja) 2011-01-06
JP5266327B2 true JP5266327B2 (ja) 2013-08-21

Family

ID=40533649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010530120A Expired - Fee Related JP5266327B2 (ja) 2007-10-16 2008-10-16 媒体トランスポートストリームにおける触覚効果データの同期化

Country Status (6)

Country Link
US (2) US9019087B2 (ja)
EP (2) EP2213024B8 (ja)
JP (1) JP5266327B2 (ja)
KR (1) KR101515664B1 (ja)
CN (1) CN101828382B (ja)
WO (1) WO2009052322A2 (ja)

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9019087B2 (en) 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US20090157743A1 (en) * 2007-12-12 2009-06-18 Aten International Co., Ltd. Media file generation method and media playback method
US8831402B2 (en) * 2008-06-16 2014-09-09 Telefonaktiebolaget Lm Ericsson (Publ) Media stream processing
US9400555B2 (en) * 2008-10-10 2016-07-26 Internet Services, Llc System and method for synchronization of haptic data and media data
US7974314B2 (en) * 2009-01-16 2011-07-05 Microsoft Corporation Synchronization of multiple data source to a common time base
US20100207895A1 (en) * 2009-02-16 2010-08-19 Samsung Electro-Mechanics Co., Ltd. Tactile interface device and method for controlling the same
WO2011007289A2 (en) * 2009-07-17 2011-01-20 Koninklijke Philips Electronics N.V. A method and a system for a generation of an excitation effect
US20110032088A1 (en) * 2009-08-10 2011-02-10 Electronics And Telecommunications Research Institute Method of encoding haptic information on image, method of decoding haptic information from image and apparatus of processing haptic information for the same
KR101324687B1 (ko) * 2009-08-10 2013-11-04 한국과학기술원 이미지에 햅틱 정보를 인코딩하는 방법, 이미지로부터 햅틱 정보를 디코딩하는 방법 및 이를 위한 햅틱 정보 처리 장치
US9358689B2 (en) 2009-11-10 2016-06-07 Immersion Corporation Systems and methods for minimal haptic implementation
KR20110063297A (ko) * 2009-12-02 2011-06-10 삼성전자주식회사 휴대용단말기 및 그 제어방법
US20110228098A1 (en) * 2010-02-10 2011-09-22 Brian Lamb Automatic motion tracking, event detection and video image capture and tagging
US9699431B2 (en) 2010-02-10 2017-07-04 Satarii, Inc. Automatic tracking, recording, and teleprompting device using multimedia stream with video and digital slide
US9502073B2 (en) * 2010-03-08 2016-11-22 Magisto Ltd. System and method for semi-automatic video editing
WO2012001587A1 (en) * 2010-06-28 2012-01-05 Koninklijke Philips Electronics N.V. Enhancing content viewing experience
US11314344B2 (en) * 2010-12-03 2022-04-26 Razer (Asia-Pacific) Pte. Ltd. Haptic ecosystem
KR101121785B1 (ko) 2011-10-05 2012-03-09 (주)이미지스테크놀로지 소리 음량의 변화를 이용하여 햅틱 효과를 생성하는 방법
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
EP2839360A4 (en) * 2012-04-19 2016-01-20 Nokia Technologies Oy DISPLAY DEVICE
US9891709B2 (en) 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20130311881A1 (en) * 2012-05-16 2013-11-21 Immersion Corporation Systems and Methods for Haptically Enabled Metadata
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
WO2014055329A1 (en) * 2012-10-01 2014-04-10 Internet Services, Llc System and method for synchronization of haptic data and media data
US9092059B2 (en) * 2012-10-26 2015-07-28 Immersion Corporation Stream-independent sound to haptic effect conversion system
US20140172985A1 (en) * 2012-11-14 2014-06-19 Anton G Lysenko Method and system for forming a hierarchically complete, absent of query syntax elements, valid Uniform Resource Locator (URL) link consisting of a domain name followed by server resource path segment containing syntactically complete e-mail address
US9261960B2 (en) 2013-01-24 2016-02-16 Immersion Corporation Haptic sensation recording and playback
EP2962172B1 (en) * 2013-03-01 2020-04-29 Nokia Technologies Oy Control apparatus for a tactile audio display
US9189098B2 (en) * 2013-03-14 2015-11-17 Immersion Corporation Systems and methods for syncing haptic feedback calls
US9866924B2 (en) * 2013-03-14 2018-01-09 Immersion Corporation Systems and methods for enhanced television interaction
US9064385B2 (en) * 2013-03-15 2015-06-23 Immersion Corporation Method and apparatus to generate haptic feedback from video content analysis
US9992491B2 (en) * 2013-03-15 2018-06-05 Immersion Corporation Method and apparatus for encoding and decoding haptic information in multi-media files
US20140379588A1 (en) 2013-03-15 2014-12-25 Compology, Inc. System and method for waste managment
US9997032B2 (en) 2013-04-09 2018-06-12 Immersion Corporation Offline haptic conversion system
US9939900B2 (en) 2013-04-26 2018-04-10 Immersion Corporation System and method for a haptically-enabled deformable surface
US9519346B2 (en) * 2013-05-17 2016-12-13 Immersion Corporation Low-frequency effects haptic conversion system
US9274603B2 (en) 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
EP2806353B1 (en) 2013-05-24 2018-07-18 Immersion Corporation Method and system for haptic data encoding
US9703379B2 (en) 2013-08-20 2017-07-11 Xsync Technologies Llc Systems and methods for multimedia tactile augmentation
US9443401B2 (en) * 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US10162416B2 (en) * 2013-09-06 2018-12-25 Immersion Corporation Dynamic haptic conversion system
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9158379B2 (en) * 2013-09-06 2015-10-13 Immersion Corporation Haptic warping system that transforms a haptic signal into a collection of vibrotactile haptic effect patterns
US9652945B2 (en) * 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9245429B2 (en) * 2013-09-06 2016-01-26 Immersion Corporation Haptic warping system
US9711014B2 (en) * 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9317120B2 (en) * 2013-09-06 2016-04-19 Immersion Corporation Multiplexing and demultiplexing haptic signals
US9619980B2 (en) 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9349378B2 (en) 2013-11-19 2016-05-24 Dolby Laboratories Licensing Corporation Haptic signal synthesis and transport in a bit stream
CN103607395A (zh) * 2013-11-20 2014-02-26 深圳先进技术研究院 一种传输触觉数据的方法及装置
EP3075163A1 (en) * 2013-11-25 2016-10-05 Thomson Licensing Method for generating haptic coefficients using an autoregressive model, signal and device for reproducing such coefficients
CN104683781B (zh) * 2013-11-26 2016-08-17 深圳市快播科技有限公司 视频播放处理方法及装置
WO2015086063A1 (en) * 2013-12-11 2015-06-18 Telefonaktiebolaget L M Ericsson (Publ) Method and system for synchronizing media streams
US10067566B2 (en) * 2014-03-19 2018-09-04 Immersion Corporation Systems and methods for a shared haptic experience
US9946348B2 (en) * 2014-03-21 2018-04-17 Immersion Corporation Automatic tuning of haptic effects
KR20150110356A (ko) 2014-03-21 2015-10-02 임머숀 코퍼레이션 센서의 데이터를 햅틱 효과들로 변환하는 시스템들 및 방법들
CN104932681B (zh) * 2014-03-21 2019-09-20 意美森公司 触觉效果的自动调整
US9330547B2 (en) * 2014-05-20 2016-05-03 Immersion Corporation Haptic effect authoring tool based on a haptification model
US10133351B2 (en) * 2014-05-21 2018-11-20 Apple Inc. Providing haptic output based on a determined orientation of an electronic device
US10031582B2 (en) 2014-06-05 2018-07-24 Immersion Corporation Systems and methods for induced electrostatic haptic effects
US10139907B2 (en) * 2014-06-16 2018-11-27 Immersion Corporation Systems and methods for foley-style haptic content creation
CN106537291A (zh) * 2014-07-07 2017-03-22 意美森公司 第二屏幕触觉
AU2014210579B2 (en) 2014-07-09 2019-10-10 Baylor College Of Medicine Providing information to a user through somatosensory feedback
US9690381B2 (en) 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
US9535550B2 (en) 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects
US9919208B2 (en) * 2014-12-11 2018-03-20 Immersion Corporation Video gameplay haptics
US9812165B2 (en) 2014-12-19 2017-11-07 Immersion Corporation Systems and methods for recording haptic data for use with multi-media data
US10254838B2 (en) * 2014-12-23 2019-04-09 Immersion Corporation Architecture and communication protocol for haptic output devices
EP3054451A1 (en) * 2015-02-03 2016-08-10 Thomson Licensing Method, apparatus and system for synchronizing audiovisual content with inertial measurements
US10269392B2 (en) * 2015-02-11 2019-04-23 Immersion Corporation Automated haptic effect accompaniment
US10216277B2 (en) * 2015-02-25 2019-02-26 Immersion Corporation Modifying haptic effects for slow motion
US10261582B2 (en) * 2015-04-28 2019-04-16 Immersion Corporation Haptic playback adjustment system
EP3099030A1 (en) * 2015-05-26 2016-11-30 Thomson Licensing Method and device for encoding/decoding a packet comprising data representative of a haptic effect
EP3112987A1 (en) * 2015-06-29 2017-01-04 Thomson Licensing Method and schemes for perceptually driven encoding of haptic effects
EP3332310B1 (en) 2015-08-05 2019-05-29 Dolby Laboratories Licensing Corporation Low bit rate parametric encoding and transport of haptic-tactile signals
US10200332B2 (en) 2015-12-14 2019-02-05 Immersion Corporation Delivery of haptics to select recipients of a message
US10102722B2 (en) 2015-12-18 2018-10-16 Immersion Corporation Wearable article having an actuator that performs non-haptic and haptic operations
US9928696B2 (en) * 2015-12-30 2018-03-27 Immersion Corporation Externally-activated haptic devices and systems
US10698485B2 (en) * 2016-06-27 2020-06-30 Microsoft Technology Licensing, Llc Augmenting text narration with haptic feedback
JP2018019393A (ja) * 2016-07-15 2018-02-01 株式会社Cri・ミドルウェア 再生制御システム、情報処理装置およびプログラム
US10699538B2 (en) 2016-07-27 2020-06-30 Neosensory, Inc. Method and system for determining and providing sensory experiences
WO2018048907A1 (en) * 2016-09-06 2018-03-15 Neosensory, Inc. C/O Tmc+260 Method and system for providing adjunct sensory information to a user
WO2018068316A1 (en) * 2016-10-14 2018-04-19 Sunland Information Technology Co. , Ltd. Methods and systems for synchronizing midi file with external information
KR101879445B1 (ko) * 2016-11-03 2018-07-18 재단법인 실감교류인체감응솔루션연구단 데이터 유형별 패키지 처리를 위한 센싱 데이터 전송 장치 및 센싱 데이터 수신 장치
CN106454365B (zh) * 2016-11-22 2018-07-10 包磊 多媒体数据的编码、解码方法及编码、解码装置
CN106534142B (zh) * 2016-11-22 2018-04-20 包磊 多媒体数据的实时传输方法及装置
CN106547357B (zh) * 2016-11-22 2018-06-29 包磊 体感传感数据的通信处理方法及装置
CN106527730B (zh) * 2016-11-22 2018-05-11 包磊 体感控制数据的生成、输出控制方法及装置
US10181331B2 (en) 2017-02-16 2019-01-15 Neosensory, Inc. Method and system for transforming language inputs into haptic outputs
US10744058B2 (en) 2017-04-20 2020-08-18 Neosensory, Inc. Method and system for providing information to a user
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
US10541005B2 (en) * 2017-05-17 2020-01-21 Cypress Semiconductor Corporation Distributed and synchronized control system for environmental signals in multimedia playback
US10743087B2 (en) * 2017-06-21 2020-08-11 Z5X Global FZ-LLC Smart furniture content interaction system and method
US20190007726A1 (en) * 2017-06-30 2019-01-03 Intel Corporation Audio, video, and actuation (a/v/a) synchronization for mixed reality
WO2019013056A1 (ja) 2017-07-10 2019-01-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP3654665B1 (en) * 2017-07-10 2024-09-18 Sony Group Corporation Information processing device, information processing method and program
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
US20190041987A1 (en) * 2017-08-03 2019-02-07 Immersion Corporation Haptic effect encoding and rendering system
US10750229B2 (en) 2017-10-20 2020-08-18 International Business Machines Corporation Synchronized multi-media streams including mood data
CN108235099B (zh) * 2018-01-12 2021-06-15 瑞声科技(新加坡)有限公司 一种媒体与振动的同步播放方法及其装置
US11139767B2 (en) 2018-03-22 2021-10-05 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10832537B2 (en) * 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11069206B2 (en) 2018-05-04 2021-07-20 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content
KR101941947B1 (ko) * 2018-07-13 2019-01-24 주식회사 유니브이알 가상현실 체험 기기를 이용한 가상현실 영상 제공 시스템
CN109600665B (zh) * 2018-08-01 2020-06-19 北京微播视界科技有限公司 用于处理数据的方法和装置
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
JP7439758B2 (ja) * 2018-08-30 2024-02-28 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
US20200076866A1 (en) * 2018-08-30 2020-03-05 Immersion Corporation Systems, devices, and methods for streaming haptic effects
US11197074B2 (en) * 2018-09-24 2021-12-07 Brian Sloan Synchronized video annotation and control system for sexual stimulation devices
US10638174B2 (en) * 2018-09-24 2020-04-28 Brian Sloan Synchronized video control system for sexual stimulation devices
US11412298B1 (en) * 2018-10-02 2022-08-09 Wells Fargo Bank, N.A. Systems and methods of interactive goal setting tools
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US12035445B2 (en) 2019-03-29 2024-07-09 Cirrus Logic Inc. Resonant tracking of an electromagnetic load
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11283337B2 (en) 2019-03-29 2022-03-22 Cirrus Logic, Inc. Methods and systems for improving transducer dynamics
US10798522B1 (en) 2019-04-11 2020-10-06 Compology, Inc. Method and system for container location analysis
KR20200133127A (ko) * 2019-05-17 2020-11-26 한국전자기술연구원 실시간 몰입형 콘텐츠 제공 시스템 및 이의 햅틱 효과 전송 방법
US11150733B2 (en) 2019-06-07 2021-10-19 Cirrus Logic, Inc. Methods and apparatuses for providing a haptic output signal to a haptic actuator
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
CN114008569A (zh) 2019-06-21 2022-02-01 思睿逻辑国际半导体有限公司 用于在装置上配置多个虚拟按钮的方法和设备
JP2021015488A (ja) * 2019-07-12 2021-02-12 株式会社東海理化電機製作所 制御装置、呈示装置、およびデータ
WO2021021081A1 (en) 2019-07-26 2021-02-04 Hewlett-Packard Development Company, L.P. Synchronization of a gyroscope in a virtual-reality environment
WO2021062276A1 (en) 2019-09-25 2021-04-01 Neosensory, Inc. System and method for haptic stimulation
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11467668B2 (en) 2019-10-21 2022-10-11 Neosensory, Inc. System and method for representing virtual object information with haptic stimulation
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
FR3103667A1 (fr) * 2019-11-27 2021-05-28 Sagemcom Broadband Sas Equipement décodeur transmettant des métadonnées à un équipement auxiliaire pour le piloter
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
US11079854B2 (en) 2020-01-07 2021-08-03 Neosensory, Inc. Method and system for haptic stimulation
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11503405B2 (en) * 2020-06-03 2022-11-15 Bose Corporation Capturing and synchronizing data from multiple sensors
JP2022541968A (ja) * 2020-06-30 2022-09-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド ビデオ処理方法、装置、電子機器及び記憶媒体
CN111897524B (zh) * 2020-07-06 2022-04-29 瑞声新能源发展(常州)有限公司科教城分公司 实现Haptics触觉效果的方法及系统
US11497675B2 (en) 2020-10-23 2022-11-15 Neosensory, Inc. Method and system for multimodal stimulation
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11862147B2 (en) 2021-08-13 2024-01-02 Neosensory, Inc. Method and system for enhancing the intelligibility of information for a user
CN117813573A (zh) 2021-10-12 2024-04-02 索尼集团公司 信息处理系统、控制方法和控制程序
US11995240B2 (en) 2021-11-16 2024-05-28 Neosensory, Inc. Method and system for conveying digital texture information to a user
CA3239496A1 (en) * 2021-12-02 2023-06-08 Interdigital Ce Patent Holdings, Sas Timeline based representation for haptic signal
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths
US20230214020A1 (en) * 2022-01-06 2023-07-06 Qualcomm Incorporated Audio-video-haptics recording and playback
CN116185172A (zh) * 2022-12-08 2023-05-30 瑞声开泰声学科技(上海)有限公司 触觉效果数据的压缩和加密方法、系统和相关设备
US20240201784A1 (en) * 2022-12-20 2024-06-20 Tencent America LLC Methods for signaling random access in haptics interchange file format

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4334280A (en) 1980-06-09 1982-06-08 Texas Instruments Incorporated System and method for providing an audible sound and a tactile feedback in an electronic data processing system
US4768412A (en) 1986-05-09 1988-09-06 Sanderson Stephen N Low profile keyboard device and system for recording and scoring music
US4771344A (en) 1986-11-13 1988-09-13 James Fallacaro System for enhancing audio and/or visual presentation
US5172092A (en) 1990-04-26 1992-12-15 Motorola, Inc. Selective call receiver having audible and tactile alerts
US5388992A (en) 1991-06-19 1995-02-14 Audiological Engineering Corporation Method and apparatus for tactile transduction of acoustic signals from television receivers
US5739811A (en) 1993-07-16 1998-04-14 Immersion Human Interface Corporation Method and apparatus for controlling human-computer interface systems providing force feedback
US5438529A (en) 1994-01-26 1995-08-01 Immersion Human Interface Corporation Percussion input device for personal computer systems
US6160489A (en) 1994-06-23 2000-12-12 Motorola, Inc. Wireless communication device adapted to generate a plurality of distinctive tactile alert patterns
AU3329595A (en) 1994-08-18 1996-03-14 Interval Research Corporation Content-based haptic input device for video
US5684722A (en) 1994-09-21 1997-11-04 Thorner; Craig Apparatus and method for generating a control signal for a tactile sensation generator
US6859819B1 (en) 1995-12-13 2005-02-22 Immersion Corporation Force feedback enabled over a computer network
US6300936B1 (en) 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
US6161126A (en) 1995-12-13 2000-12-12 Immersion Corporation Implementing force feedback over the World Wide Web and other computer networks
US5627936A (en) * 1995-12-21 1997-05-06 Intel Corporation Apparatus and method for temporal indexing of multiple audio, video and data streams
US5675511A (en) * 1995-12-21 1997-10-07 Intel Corporation Apparatus and method for event tagging for multiple audio, video, and data streams
CA2247364C (en) 1996-03-08 2002-05-14 Motorola, Inc. Method and recognizer for recognizing a sampled sound signal in noise
US6686911B1 (en) 1996-11-26 2004-02-03 Immersion Corporation Control knob with control modes and force feedback
US6285351B1 (en) 1997-04-25 2001-09-04 Immersion Corporation Designing force sensations for computer applications including sounds
US7472047B2 (en) 1997-05-12 2008-12-30 Immersion Corporation System and method for constraining a graphical hand from penetrating simulated graphical objects
GB2329300B (en) 1997-09-16 2002-07-17 Nokia Mobile Phones Ltd Mobile telephone with handwritten data input
US6659773B2 (en) * 1998-03-04 2003-12-09 D-Box Technology Inc. Motion transducer system
US7809138B2 (en) * 1999-03-16 2010-10-05 Intertrust Technologies Corporation Methods and apparatus for persistent control and protection of content
JP3173591B2 (ja) 1998-06-09 2001-06-04 日本電気株式会社 光送信器と光伝送システムおよび信号光変調方法
US6292776B1 (en) 1999-03-12 2001-09-18 Lucent Technologies Inc. Hierarchial subband linear predictive cepstral features for HMM-based speech recognition
JP2000262971A (ja) * 1999-03-18 2000-09-26 Akuubu Lab:Kk 振動効果装置
US6424356B2 (en) 1999-05-05 2002-07-23 Immersion Corporation Command of force sensations in a forceback system using force effect suites
US6353173B1 (en) * 1999-06-17 2002-03-05 Roxio, Inc. Compressed audio data format and file system structures
US7050955B1 (en) 1999-10-01 2006-05-23 Immersion Corporation System, method and data structure for simulated interaction with graphical objects
US7065779B1 (en) * 1999-10-13 2006-06-20 Cisco Technology, Inc. Technique for synchronizing multiple access controllers at the head end of an access network
JP4329191B2 (ja) * 1999-11-19 2009-09-09 ヤマハ株式会社 楽曲情報及び再生態様制御情報の両者が付加された情報の作成装置、特徴idコードが付加された情報の作成装置
US6710764B1 (en) 2000-05-09 2004-03-23 Logitech Europe S.A. Method and system for processing force feedback effects generated at a host for playback at a physical interaction device
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
TW548943B (en) 2000-09-25 2003-08-21 Yamaha Corp Portable terminal device
US20020165720A1 (en) * 2001-03-02 2002-11-07 Johnson Timothy M. Methods and system for encoding and decoding a media sequence
FR2822006B1 (fr) * 2001-03-08 2003-04-25 France Telecom Procede et systeme de transmission de flux de donnees entre deux postes distants
US7567232B2 (en) 2001-03-09 2009-07-28 Immersion Corporation Method of using tactile feedback to deliver silent status information to a user of an electronic device
US6885876B2 (en) 2001-03-12 2005-04-26 Nokia Mobile Phones Ltd. Mobile phone featuring audio-modulated vibrotactile module
JP3564501B2 (ja) 2001-03-22 2004-09-15 学校法人明治大学 乳幼児の音声解析システム
US7283954B2 (en) 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US6963762B2 (en) 2001-05-23 2005-11-08 Nokia Corporation Mobile phone using tactile icons
US7171466B2 (en) * 2001-09-27 2007-01-30 Koninklijke Philips Electronics N. V. Method and system and article of manufacture for IP radio stream interception for notification of events using synthesized audio
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
US6703550B2 (en) 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
EP1326228B1 (en) * 2002-01-04 2016-03-23 MediaLab Solutions LLC Systems and methods for creating, modifying, interacting with and playing musical compositions
JP2005523612A (ja) * 2002-04-22 2005-08-04 インテロシティ ユーエスエー,インコーポレイテッド データ受信器と制御装置の方法及び装置
US7161580B2 (en) * 2002-04-25 2007-01-09 Immersion Corporation Haptic feedback using rotary harmonic moving mass
JP2004139710A (ja) 2002-08-21 2004-05-13 Monolith Co Ltd ディスク記録媒体および音楽再生装置
AU2003297716A1 (en) * 2002-12-08 2004-06-30 Immersion Corporation Methods and systems for providing haptic messaging to handheld communication devices
JP3825416B2 (ja) * 2003-04-14 2006-09-27 国立大学法人北陸先端科学技術大学院大学 データ同期方法、データ同期システム及びデータ同期プログラム
KR100581060B1 (ko) * 2003-11-12 2006-05-22 한국전자통신연구원 오감 데이터 동기화 전송 장치 및 그 방법과 그를 이용한실감형 멀티미디어 데이터 제공 시스템 및 그 방법
KR100584433B1 (ko) * 2003-11-25 2006-05-26 삼성전자주식회사 차등 편광 변조 방식의 광전송 시스템
US7765333B2 (en) * 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
JP4581698B2 (ja) 2005-01-21 2010-11-17 ソニー株式会社 制御装置および制御方法
US8442126B1 (en) * 2005-06-14 2013-05-14 Apple Inc. Synchronizing audio and video content through buffer wrappers
US8700791B2 (en) 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
US20080136608A1 (en) * 2006-12-11 2008-06-12 Research In Motion Limited Sensory effects in a mobile device and an accessory thereof
US9019087B2 (en) 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream

Also Published As

Publication number Publication date
EP2213024B8 (en) 2013-10-30
WO2009052322A2 (en) 2009-04-23
EP2213024B1 (en) 2013-04-10
US20090096632A1 (en) 2009-04-16
JP2011501575A (ja) 2011-01-06
US9019087B2 (en) 2015-04-28
EP2605499A1 (en) 2013-06-19
CN101828382B (zh) 2013-07-31
EP2213024A2 (en) 2010-08-04
US20150199015A1 (en) 2015-07-16
WO2009052322A3 (en) 2009-11-05
EP2605499B1 (en) 2016-12-07
KR101515664B1 (ko) 2015-04-27
CN101828382A (zh) 2010-09-08
US10088903B2 (en) 2018-10-02
KR20100087715A (ko) 2010-08-05

Similar Documents

Publication Publication Date Title
JP5266327B2 (ja) 媒体トランスポートストリームにおける触覚効果データの同期化
US10440238B2 (en) Synchronization of haptic effect data in a media transport stream
EP2802151A1 (en) Method and apparatus for providing content, method and apparatus for reproducing content
WO2013008867A1 (ja) 送信装置、送信装置の制御方法、制御プログラム、及び記録媒体
KR100838900B1 (ko) 재생 시스템과 재생 방법, 데이터 송신 장치와 데이터 송신 방법, 및 원격 제어 장치와 원격 제어 방법
KR20090001707A (ko) 멀티미디어 컨텐츠 재생방법 및 시스템과 멀티미디어컨텐츠 재생장치와 프로그램 기록매체
US10984638B1 (en) Systems, devices, and methods for encoding haptic tracks
CN105915935A (zh) 视频传输控制方法及装置
KR20140048917A (ko) 적응형 스트리밍 방법
KR20130095243A (ko) 실시간 컨텐츠 스트리밍 방법
JP4681723B2 (ja) 再生装置、制御方法及び記憶媒体
JP2003125018A (ja) 伝送システム、データ送信装置、データ受信装置、データ送信方法、データ受信方法
KR20110085797A (ko) 컨텐츠 파일 생성/제공 장치 및 방법
JPWO2005117014A1 (ja) マルチメディア蓄積装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130502

R150 Certificate of patent or registration of utility model

Ref document number: 5266327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees