JP2011188508A - メディアトランスポートストリームにおけるハプティック効果データの同期 - Google Patents

メディアトランスポートストリームにおけるハプティック効果データの同期 Download PDF

Info

Publication number
JP2011188508A
JP2011188508A JP2011091656A JP2011091656A JP2011188508A JP 2011188508 A JP2011188508 A JP 2011188508A JP 2011091656 A JP2011091656 A JP 2011091656A JP 2011091656 A JP2011091656 A JP 2011091656A JP 2011188508 A JP2011188508 A JP 2011188508A
Authority
JP
Japan
Prior art keywords
haptic
transport stream
information
media
media transport
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011091656A
Other languages
English (en)
Other versions
JP5813983B2 (ja
Inventor
Robert A Lacroix
ロバート エー. ラクロワ
Andrianaivo Rabemiarisoa
アンドリアノーヴォ ラベミアリソア
Costa Henrique D Da
コスタ エンリケ ディー. ダ
Thu Herve Timone
スー エルベ ティモーネ
Stephen D Rank
ステファン ディー. ランク
Christopher J Ullrich
クリストファー ジェイ. ウルリッチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2011188508A publication Critical patent/JP2011188508A/ja
Application granted granted Critical
Publication of JP5813983B2 publication Critical patent/JP5813983B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ハプティック効果をその他のメディア(例えば、オーディオやビデオ)と同期させるメカニズムを提供する。
【解決手段】メディアトランスポートストリームの一連のフレームのハプティック情報を識別して、対応するタイムスタンプをメディアトランスポートストリームに埋め込まれたマスタータイムコード信号に従って決定する。ハプティック情報を含むメディアトランスポートストリームフレームの各々に連続してタイムスタンプを割り当てる。このようにして、タイムスタンプに応じた適当な時間にアクチュエータが作動して、ハプティック情報に従ったハプティック効果を生成する。
【選択図】図1

Description

本発明はハプティックスの分野に関する。具体的には、本発明は、メディアトランスポートストリームで符号化されたハプティック効果に関する。
本出願は、メディアトランスポートストリームで符号化されたハプティック効果データの同期と同じ発明者の名称で2005年10月19日に出願された米国仮特許出願第60/728,551号の優先権を主張する。
ユーザと機械間のインタフェースの向上のために、近年では、オーディオ/ビデオメディアとともにハプティック効果をインタフェースに組み込むことがますます一般的になってきている。振動などのハプティック効果はユーザが感じることのできるものであり、通常、機器のキー押下や、携帯電話への着呼またはテキストメッセージの受信を知らせる着信音の再生など、イベントトリガに関連させることができる。一般的に、メディア再生は振動により補完することができる。しかしながら、ハプティック効果を実施する従来の方法では、メディア信号とともにハプティック信号を一定期間にわたって再生する際に問題がある。
このような問題のひとつに、ハプティック信号とビデオおよび/またはオーディオ信号などのその他のメディア信号の再生を同期させることが必要となることである。通常、オーディオエンジン、ビデオエンジン、およびハプティックなエンジンは、別々のクロックで動作する。通常、ハプティック信号、ビデオ信号、オーディオ信号を再生する際の同期メカニズムは組み込まれていない。例えば、再生開始の際にハプティック信号とメディア信号が互いに数ミリ秒以内の差で開始し、そのため適切に同期することはあるが、これらの信号は、通常はかなり短い期間で同期ずれを起こすことがある。
別の問題としては、メディア信号とハプティック信号の両方を有するメディアトランスポートストリームのあるポイントにランダムにアクセスすることが困難となることがある。換言すると、ユーザが、ランダムなポイントでメディアトランスポートストリームの一部の再生を開始する場合、メディアトランスポートストリームでこのポイントの前に発生しうるデータとのアクセスがなければ、ハプティック信号とメディア信号とを同期させることは困難である。
このため、ハプティック情報とメディア情報の両方を含むメディアトランスポートストリームの任意のポイントにおいてまたは任意のポイントから動作することのできる、ハプティック効果をその他のメディア(例えば、オーディオやビデオ)と同期させるメカニズムを提供する解決方法が求められている。
ハプティック効果と他のメディアコンポーネント(例えば、ビデオ及びオーディオ)を同期する方法及び装置を開示する。メディアトランスポートストリームの一連のフレームのハプティック情報を識別し、対応するタイムスタンプをメディアトランスポートストリームに埋め込まれたマスタータイムコード信号に従って決定する。ハプティック情報を含むメディアトランスポートストリームフレームの各々に連続してタイムスタンプを割り当てる。このようにして、タイムスタンプに応じた適当な時間にアクチュエータが作動して、ハプティック情報に従ったハプティック効果を生成する。
本発明のその他の特徴及び利点は、以下の詳細な説明、図面及び特許請求の範囲から明らかになる。
本発明の一実施の形態に係わる、ハプティック情報を含むメディアトランスポートストリームを符号化し、送信し、復号するシステムを示すブロック図である。 本発明の一実施の形態に係わる、メディアトランスポートストリームからメディアコンポーネントおよびハプティックコンポーネントを識別するシステムを示すブロック図である。 本発明の一実施の形態に係わる、ハプティックコンポーネントを他のメディアコンポーネントに同期させる機器を示すブロック図である。 本発明の一実施の形態に係わる、ビデオ信号、オーディオ信号、およびハプティック信号の再生の同期方法を説明するタイミング図である。 本発明の一実施の形態に係わる、連続するフレームに解析されたハプティック信号を表す概略図である。 本発明の一実施の形態に係わる、ハプティック情報を含むハプティックフレームを説明するブロック図である。 本発明の一実施の形態に係わる、ハプティック効果を生じる波形を表すハプティックの概略図である。 本発明の一実施の形態に係わる、ハプティック効果をメディアコンポーネントと同期する処理を説明するフロー図である。
本明細書に組み込まれ、本明細書の一部を構成する添付の図面は、本発明の一以上の実施の形態を例示し、詳細な説明とともに、本発明の原理及び実施を説明する。
本明細書では、ハプティック情報を含むメディアトランスポートストリームを通信する方法、システム、および装置と関連して、本発明の実施の形態を説明する。当業者には、以下の本発明の詳細な説明は単なる例示であって、本発明をなんら限定するものではないことが認識される。本開示の利益を有する当業者には、本発明のその他の実施の形態は容易に示唆される。以下、添付の図面に示す本発明の実施例について詳細に述べる。図面および以下の詳細な説明を通じて、同様もしくは類似の部分については同様参照符号を用いて示すものとする。
明確性のために、本明細書に記載する実施例の決まりきった特徴については、必ずしも全てを図示または説明するわけではない。当然ながら、用途あるいは業務関連の制約に準拠するなどといった開発者の具体的な目標を実現するためには、実際にこのような実施例を開発する上で数々の実施例に特有の決定がなされなければならず、こうした具体的な目標は実施例ごとに、また開発者ごとに異なる。さらに、こうした開発にかかる労力は複雑で時間がかかるものであるが、本開示の利益を有する当業者にとっては決まりきった技術的な取り組みであることも、言うまでもない。
本発明によれば、本明細書に記載のコンポーネント、処理ステップ、および/またはデータ構造は、さまざまな種類のオペレーティングシステム、コンピューティングプラットフォーム、コンピュータプログラム、および/または汎用機を用いて実施することができる。加えて、有線機器、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)などのより汎用性の低い機器もまた、本明細書に開示する発明的思想の範囲と趣旨とから逸脱することなく、用いることができることは、当業者には認識される。コンピュータまたは機械によって一連の処理ステップを含む方法が実施され、これらの処理ステップが機械により読取可能な一連の命令として格納することができる場合、これらの命令は、コンピュータメモリデバイス(例えば、ROM(読出専用メモリ)、PROM(プログラム可能型読出専用メモリ)、EEPROM(電気的消去可能プログラム可能読出専用メモリ)、フラッシュメモリ、ジャンプドライブ、など)、磁気記録媒体(例えば、テープ、磁気ディスクドライブ、など)、光記録媒体(例えば、CD−ROM、DVD−ROM、紙カード、紙テープ、など)、ならびにその他の既知の種類のプログラムメモリなどの有形の媒体に格納することができる。
本発明は、広く、マルチトラックメディアトランスポートストリームに含まれるハプティック効果トラックをその他のメディアトラックと同期させて同期マルチメディア効果を生成するメカニズムに関する。メディアトランスポートストリームにおける一連のフレームのハプティック情報を識別し、メディアトランスポートストリームに埋め込まれたマスタータイムコード信号に応じて、識別した情報に対応するタイムスタンプを決定する。ハプティック情報を含む各メディアトランスポートストリームフレームは、その後、タイムスタンプを割り当てられ、タイムスタンプに応答して適切な時間にアクチュエータを起動しハプティック情報に応じたハプティック効果を生成するようになっている。
図1は、本発明の一実施の形態に係わる、メディアトランスポートストリームを符号化、送信、復号するシステム100を示すブロック図である。システム100は、送信器102と、受信器104と、通信媒体106とを備える。一例において、送信器102は、電話、パーソナルデジタルアシスタント(「PDA」)、パーソナルコンピュータ(「PC」)、またはその他のネットワーク上でのメディアフレームの送信が可能なデジタル処理機器である。一実施の形態において、送信器102は、携帯電話無線ネットワーク上でデータを送信するメディアサーバである。メディアフレームは、これに限定されないが、ビデオ、オーディオ、および/またはハプティックのフレームを含む。一実施の形態において、送信器102は、エンコーダ116と、ビデオブロック110と、オーディオブロック112と、ハプティックブロック114とを備える。ビデオブロック110は一連のビデオフレームのソースであり、オーディオブロック112は一連のオーディオフレームのソースである。ハプティックブロック114は、一連のハプティックフレームのソースである。
エンコーダ116は、一例として、ビデオブロック110からのビデオフレームを符号化または生成し、オーディオブロック112からのオーディオフレームを符号化または生成し、ハプティックブロック114からのハプティックフレームを符号化または生成し、およびこれらを、例えばMPEG−4(Moving Picture Experts Group Compression Standard Version 4)、などの市販のメディアトランスポートプロトコルに従って、メディアトランスポートストリームに組み込むことができる。換言すると、ビデオフレーム、オーディオフレーム、およびハプティックフレームは、メディアトランスポートストリームに符号化またはパッケージ化されて、このメディアトランスポートストリームはその後通信媒体106を介してユーザが指定する宛先に送信される。なお、各種フレームへの指定時刻に作動するハプティック情報の組み込みは、どのようなメディアトランスポートストリームフォーマットにでも適用することができ、特定のファイルタイプ、プロトコル、またはメディア再生装置のハードウェア環境に限らない。
通信媒体106は、回線(または有線)通信媒体、無線通信媒体、または有線無線混合通信媒体であってよい。ビデオブロック110からのビデオフレームおよびオーディオブロック112からのオーディオフレームは、それぞれ、ビデオコンポーネントおよびオーディオコンポーネント、または集合的にメディアトランスポートストリームのメディアコンポーネントを形成する。ハプティックフレームは、メディアトランスポートストリームのハプティックコンポーネントを形成する。受信器104は、電話またはPCなどのメディア再生装置であってよく、通信媒体106を介してメディアトランスポートストリームを受信することができる。一実施の形態において、メディアトランスポートストリームは、受信器104により受信される前に、従来のデジタルビデオレコーダ、ネットワークメッセージセンタなどのメモリに格納される。別の実施の形態では、メディアトランスポートストリームにより転送されたハプティック信号は、データセキュリティを向上させるために圧縮または暗号化される。
受信器104は、デコーダ126と、ビデオブロック120と、オーディオブロック122と、ハプティックブロック124とを備える。一実施の形態において、ビデオブロック120と、オーディオブロック122と、ハプティックブロック124とは、それぞれビデオフレーム、オーディオフレーム、ハプティックフレームを格納するために用いられる。受信器104は、通信媒体106を介してメディアトランスポートストリームを受信することができる携帯電話、スマートフォン、PDA、PC、送受信装置などであってもよい。メディアトランスポートストリームを受信すると、受信器104は、メディアトランスポートストリームからのビデオフレーム、オーディオフレーム、およびハプティックフレームを解析し、ビデオフレームをビデオブロック120へ、オーディオフレームをオーディオブロック122へ、ハプティックフレームをハプティックブロック124へ送信する。なお、ビデオブロック110のビデオフレーム、オーディオブロック112のオーディオフレーム、およびハプティックブロック114のハプティックフレームは、それぞれ、ビデオブロック120のビデオフレーム、オーディオブロック122のオーディオフレーム、およびハプティックブロック124のハプティックフレームとほぼ同様の情報を含んでいる。また、ビデオブロック110のビデオフレーム、オーディオブロック112のオーディオフレーム、およびハプティックブロック114のハプティックフレームは、適当であれば、対応するビデオブロック120のビデオフレーム、オーディオブロック122のオーディオフレーム、およびハプティックブロック124のハプティックフレームとほぼ同様の情報を含むとしても、異なるデータフォーマットであってもよい。
また、送信器102および受信器104は、類似の送受信能力を有する類似の機器であってもよい。
図2は、本発明の一実施の形態に係わる、メディアトランスポートストリームからメディアコンポーネントおよびハプティックコンポーネントを識別するシステム200のブロック図である。システム200は、メディア再生装置202と、メディア同期レイヤ204と、データ220とを含む。バス230は、メディア再生装置202とデータベース220との間のデータ転送に用いられ、バス232は、メディア再生装置202とメディア同期レイヤ204との間の情報の受け渡しに用いられる。メディア同期レイヤ204は、さらに、バス234〜238を介して、ビデオコーデック206と、オーディオコーデック208と、ハプティック部210とに連結されている。ビデオコーデック206およびオーディオコーデック208は、デジタル情報の圧縮解凍を行うソフトウェアモジュール、ハードウェア機器、またはハードウェアとソフトウェアコンポーネントの組み合わせであってもよい。一実施の形態において、メディア同期レイヤ204は、ビデオコンポーネント、オーディオコンポーネント、およびハプティックコンポーネントを分離または抽出し、抽出したコンポーネントを対応するコーデックに送出する。メディア同期レイヤ204は、MP3、MPEG4、などの特定のメディアトランスポートストリームフォーマットまたは複数の所定のストリームを処理するためにプログラムまたは選択されたものであってもよい。
動作時、メディア同期レイヤ204は、マスタータイムコードまたはタイミングテーブルにより指定された時間に各メディアタイプのフレームを適当なコーデックまたは再生装置に配信することにより異なるメディアを同期させる。タイムライン全体を表すフレーム群は、メディアトランスポートストリームを介してメディア再生装置202に送信される。メディアトランスポートストリームを受信すると、メディア再生装置202は、オーディオ、ビデオ、およびハプティックのデータまたはフレームを評価してメディアトランスポートストリームから分離する。メディア同期レイヤ204は、続いて、マスタータイムコードに従ってタイムスタンプまたは初期時間を各ハプティックフレームに割り当て、これにより、タイムスタンプを用いてハプティック効果のタイミングおよび定義をハプティック部210に送信することができる。こうして、このハプティック部210は、アクチュエータ(単数または複数)を適当な時間に起動することができる。
図3は、本発明の一実施の形態に係わる、ハプティックコンポーネントをメディアコンポーネントに同期させる機器300のブロック図である。機器300は、アプリケーションプログラミングインタフェース(「API」)306と、カーネル308と、ハプティック回路314とを備える。カーネル308は、さらに、振動生成器(「VG」)312と、ハプティック再生エンジン(「HPE」)310とを含む。一実施の形態において、VG312は、API306から受信されたハプティック情報に従ってハプティックイベントを同期させるために用いられ、HPE310は、バス358を介してAPI306を介してハプティック部210から受信したデータに従ってハプティックイベントをスケジュールするために用いられる。カーネル308は、さらに、ハプティック回路314に接続部360を介して接続される。ハプティック回路314は、一例において、接続部362を介してアクチュエータ346を駆動するよう構成された増幅器である。
各ハプティックフレームは他のフレームに依存しない自己完結したハプティック効果であるため、API306は、正しい時間にハプティック効果を開始する機能を有する。自己完結したハプティックフレームを有する利点は、これにより、ユーザがメディア再生装置202を使用しているときにハプティックフレームまたはメディアフレームにランダムにアクセスできても、システムが画像、音声、およびハプティック効果を含むマルチメディア出力を確実に同期させて生成できることにある。
図4は、本発明の一実施の形態に係わる、ビデオ信号、オーディオ信号、およびハプティック信号の再生の同期方法を説明するタイミング図400である。タイミング図400には、メディアトランスポートストリームに埋め込まれたマスタータイムコード402と、メディアトランスポートストリームのビデオコンポーネント404と、メディアトランスポートストリームのオーディオコンポーネント406と、メディアトランスポートストリームのハプティックコンポーネント408とが示されている。マスタータイムコード402は、メディアトランスポートストリームに埋め込まれおり、メディアトランスポートストリームから抽出することができる。例えば、オーディオコンポーネント406をマスタータイムコード402として用いる。一実施の形態において、マスタータイムコード402は、t、t、t、などの一連のタイムスタンプを有するタイムラインである。
ビデオコンポーネント404は、フレーム40Vなど、複数の連続するビデオフレームのストリームを含む。オーディオコンポーネント406は、フレーム40Aおよび42Aなど、複数の連続するオーディオフレームのストリームを含む。ハプティックコンポーネント408も、フレーム40H、42H、などの複数の連続するハプティックフレームのストリームを含む。フレームフォーマットは、ビデオフレーム、オーディオフレーム、およびハプティックフレームごとに異なってもよいが、コンポーネント内のフレームは共通のプロトコルに従って構成される。例えば、ハプティックフレーム40Hは、ハプティックフレーム42Hとほぼ同じサイズである。別の実施の形態では、40Hおよび42Hがカバーするタイムスパンは、例えば、それぞれ200msであるが、物理メモリフットプリントは通常異なる。なお、一実施の形態におけるハプティックフレームのサイズは、物理的容量ではなく時間の長さにより決定される。
図4に戻ると、タイムスタンプtで、ハプティックフレーム40H、オーディオフレーム40A、およびビデオフレーム40Vの再生が、ほぼ同時に開始する。ハプティックフレーム40Hはタイムスタンプtで再生を終了するが、フレーム40Hにより定義されるハプティック効果は時間tを越えて続いてもよい。タイムスタンプtで、ハプティックフレーム42Hの再生処理が開始する。なお、ハプティックフレーム42Hが再生される初期時間またはタイムスタンプは、マスタータイムコードから決定される時間に対応する。ハプティックフレームにタイムスタンプを割り当てることにより、フレーム42Hなどのハプティックフレームが、フレーム40Hなどの先行するハプティックフレームが終了する時間とは独立して再生を開始することができる。したがって、タイムスタンプtよりも前にハプティックフレーム40Hが再生を終了した場合、ハプティックフレーム42Hがタイムスタンプtで再生されるまでハプティック効果は再生されない。タイムスタンプtで、ハプティックフレーム44Hおよびオーディオフレーム42Aが再生される。タイムスタンプtで、ハプティックフレーム46H、ビデオフレーム40V、およびオーディオフレーム42Aが再生される。
ハプティックフレーム内のタイムスタンプを符号化することにより、ユーザはハプティックフレームにランダムにアクセスすることができ、ハプティックフレームは依然としてそのハプティック効果を他のメディアコンポーネントと同期させることができる。例えば、ユーザが例えば時間tまで早送りする場合、再生装置は時間tになるまで次のハプティックフレームnHの再生を待つ。これに先立っては、ハプティック効果は再生されない。同様に、再生装置は、この場合、tに等価な時間tまで次ぎのオーディオフレームnAの再生を待つ。同様に、再生装置はtまで、次のビデオフレームnVの再生を待つ。これに加えて、一実施の形態では、メディア同期レイヤ204は正確に時間tnで再生を開始するよう指定することができる。この場合、メディア同期レイヤ204は、ハプティック部210にハプティックフレーム(n−1)Hを送信してtn−(t−1)Hのタイムオフセットを指定する。その後、ハプティック部210は、有神論的(theistic)フレーム(n−1)Hを再生する際のこのタイムオフセットをAPI306に伝達する。
各ハプティックフレームは、複数のハプティック効果を含むことができる。こうしたハプティック効果を定義しスケジュールするパラメータは、フレーム内で再生されるようハプティック効果をオフセットすることができる。換言すると、ハプティック効果の間のタイムオフセットは、ファイルまたはメディアトランスポートストリームの開始ではなくフレームの開始に関連する。フレーム内の個別の効果をスケジュールすることは、音声、画像、ハプティック効果を再生する機器の担当である。機器の同期レイヤがビデオフレーム、オーディオフレーム、およびハプティックフレームの再生をスケジュールするため、異なるメディア間のずれは各フレームの開始時に補正することができる。
図5は、本発明の一実施の形態に係わる、連続するフレームに解析されたハプティック信号を表す概略図500である。概略図500には、マスタータイムコード510およびハプティックコンポーネント512が含まれる。ハプティックコンポーネント512は、さらに、フレーム502および504などの複数のハプティックフレームを含む。各ハプティックフレームは、固定時間長を表し、占有するものであり、この固定時間長に関連付けられた複数のハプティック効果をまとめたものである。t、tなどのタイムラインおよびタイムスタンプを、メディアトランスポートストリームに埋め込まれたマスタータイムコード512により決定する。メディアトランスポートストリームは、ハプティック情報およびオーディオ情報やビデオ情報などのその他のメディア情報を含んでもよい。
マスタータイムコード510は、メディア再生装置によって1つのファイルについて受信する全てのフレームまたはデータパケットの受信と再生を調整するために用いられる。フレームの時間長は、通常動作時に選択して固定することができる。一実施の形態では、データの性質とユーザの好みに応じて、100〜300ms(ミリ秒)の範囲のフレーム長が用いられる。特殊な動作では、極めて厳しい同期要件を満たすために1msのフレーム長を用いてもよい。なお、1msフレーム長に対応するコストは、使用するバンド幅が大幅に増加するため、高額となりうる。一般的に、フレーム長が長くなるとメディア効果と同期する必要のあるフレームが少なくなるため、ハプティック効果がメディア効果と同期がとれなくなる可能性が高くなることを意味する。メディア効果とは、ビデオ効果および/またはオーディオ効果など、ハプティック効果以外の効果を表す。一方、フレーム長が短くなると他のメディア効果との同期は良好になり密接になるが、ハプティック効果とメディア効果の間で処理すべき同期処理が増加するため、処理能力を向上し、ネットワークバンド幅を高める必要がある。ここで、メディアトランスポートストリームとは、MP3(MP3)またはMPEG4(MP4)などの適当なメディアトランスポートストリームであってよい。
各ハプティックフレームには、マスタータイムコード510に従って適当な時間に対応するハプティック効果を再生するための初期時間またはタイムスタンプ520が割り当てられている。マスタータイムコード510は、すでに説明したように、メディアトランスポートストリームに埋め込まれている。一実施の形態では、ハプティック情報に関連付けられたタイムスタンプ520は、ユーザ入力に応じて生成する。別の実施の形態では、ハプティック情報に関連付けられたタイムスタンプ520は、他のメディアコンポーネントに基づく所定のアルゴリズムに従って生成する。さらに別の実施の形態では、ハプティック情報に関連付けられたタイムスタンプ520は、ユーザからの入力および他のメディアコンポーネントを考慮した所定のアルゴリズムの組み合わせに従って生成することができる。一実施の形態では、タイムスタンプ520は、ハプティック情報を含まないフレームには割り当てない。例えば、データ(ベース)は、フレームがハプティック情報を含まない場合にはそのフレームを省略する。
一実施の形態において、ハプティックフレームまたはハプティックサンプルのサイズは、ハプティック効果の複雑さに応じて、8、16、25、32、64、または128バイトであってもよい。例えば、あるハプティックフレームは、それぞれ特定の音声および/またはビデオフレームと相関を有する振動―音声データおよび/または振動―ビデオデータを含む。一実施の形態において、ハプティックフレームは、少なくとも1つのハプティック効果を再生するために必要な情報と、ハプティック効果の開始時間を示すタイムスタンプとを含む。なお、フレームにハプティック情報がない場合には、ハプティックフレームは省略してもよい。
図6は、本発明の一実施の形態に係わる、ハプティック情報を含むハプティックフレーム600を説明するブロック図である。一実施の形態において、ハプティック情報は、1つのフレーム内で再生する各ハプティック効果を定義するために用いられる。ハプティック情報は、強度/規模、期間、周期性、開始遅延、アタック強度、アタックタイミング、フェード強度、フェードタイミングなど、フレーム長の期間にわたって単一のハプティック効果または一連のハプティック効果を実施するために必要とされるさまざまなパラメータを含む。期間パラメータは、ハプティック効果を再生する時間の長さを指定する。ハプティック効果の開始遅延パラメータは、フレームの開始またはタイムスタンプからハプティック効果が再生を待つ時間の長さを示す。一例において、ハプティック効果は周期的であってもよく、周期性パラメータはこのような周期性を定義してもよい。別の実施の形態では、ハプティック効果の情報はノンパラメトリック符号化を用いる。一実施の形態において、このような符号化は、8ビット値につき5msの期間、アクチュエータのリード線に印加する瞬間電圧を制御するパルス幅変調器に適用する一連の8ビットアクチュエータ制御値からなってもよい。各ハプティックフレームが200msのハプティック再生時間を表す場合、各ハプティックフレームは、正確に40バイトのデータを含むことになる。ハプティック情報は、いくつかのハプティック効果の境界を設定することによりハプティック効果を制御するのに用いられるエンベロープ情報を含んでもよい。
ハプティックフレーム600は、ハプティック効果定義610および一連のハプティック効果呼び出し命令612〜616を含むフレームの代表的な構成である。一実施の形態において、ハプティック効果の定義610は、期間パラメータおよび開始遅延パラメータなどの制御情報を含む。各ハプティック効果呼び出し命令は、規模、アタック強度、フェード強度、および個別の種類のハプティック効果に関する情報を含んでもよい。なお、一つのハプティックフレームは、複数のハプティック効果を開始することができる。さらに、ハプティック効果は、フレームのフレーム長またはタイムスパンを越えて再生を継続してもよい。一実施の形態において、ハプティック効果呼び出し命令は、再生するハプティック効果の定義(610内に含まれる)およびフレーム再生をフレームのどのくらい内部で開始するかを制御するフレームタイムオフセットパラメータを指定する。
図7は、本発明の一実施の形態に係わる、ハプティック効果を生じる波形701を表すハプティックの概略図700である。波形701は、複数の異なる周波数を用いて、ユーザにハプティック感覚を与える。波形701のハプティック効果は、アタック時間704、通常時間708、フェード時間706を有する期間702の間継続する。開始時のハプティック効果の強度は、「アタックレベル」709により指定される。ハプティック効果の強度は、通常時間708の開始までに「規模」レベル710に変化し、フェード時間706の終わりにはフェードレベル712に変化する。或いは、フェードレベル712は、ゼロハプティック効果から測定することもできる。
周波周期または周期タイプは、一定力、矩形波、三角波、正弦波、鋸歯状波、逆鋸歯状波、またはこれらのいずれの波形の組み合わせであってもよい。なお、異なる周波周期は異なるハプティックフィードバックを与える。例えば、波形701は、0.1ヘルツ〜1000ヘルツの範囲であり、周波数が異なるとハプティック感覚も異なる。
動作中、波形701により生じるハプティック効果は、そのアタックレベル709、アタック時間704、フェードレベル712、およびフェード時間706との関連で定義される。波形701を実行する時間になると、実行処理が、ハプティック効果の基本強度または「規模」、その期間、周期的に再生するか否か、その場合にはどのぐらい頻繁に再スタートするのかを指定する。一実施の形態において、特定のハプティック効果を定義する情報は、各フレームとともに再生機器に定期的にダウンロードされる。なお、波形701は単なる例にすぎず、当業者には、このようなハプティック効果は様々な方法で定義できることは容易に理解される。
本発明は、以下に説明する各種の処理ステップを含む。本明細書に記載のステップは、機械またはコンピュータ実行可能な命令に埋め込んでもよい。これらの命令を用いて、これらの命令がプラグラムされた汎用または専用システムに、本明細書に記載のステップを実行させてもよい。或いは、本明細書に記載のステップは、ステップを実行する配線論理を含む特定のハードウェアコンポーネント、またはプログラムされたコンピュータコンポーネントとカスタムハードウェアコンポーネントの如何なる組み合わせにより実行してもよい。本発明の実施の形態について無線通信ネットワークを参照して説明するが、本明細書に記載の方法および装置は、有線を含むその他のネットワークインフラ構造またはその他のデータ通信環境にも等しく適用可能である。
図8は、本発明の一実施の形態に係わる、ハプティック効果をその他のメディアコンポーネントと同期する処理を説明するフロー図である。ブロック802において、処理は、メディアトランスポートストリーム内の少なくとも1個のハプティックフレームのハプティック情報を識別する。一実施の形態において、処理は、一連のビデオフレーム、オーディオフレーム、およびハプティックフレームを識別する。ハプティックフレームは力フィードバック情報を含む。ビデオフレームは画像情報を含み、オーディオフレームは音声情報を含む。処理は、力フィードバック情報を画像情報と音声情報に従って同期させることができる。処理は、さらに、アタックレベルおよびフェードレベルを含むハプティック効果を生成することができる。ハプティック情報が識別されると、処理はブロック804に移る。
ブロック804において、処理は、メディアトランスポートストリームに埋め込まれたマスタータイムコードに従ってタイムスタンプを決定する。一実施の形態において、タイムスタンプは、マスタータイムコードにしたがったタイムラインの一時点であり、ハプティックフレームが定義するハプティック効果を実行するトリガとして用いられる。本発明の一実施の形態によれば、タイムスタンプは、ハプティックフレームをタイムスタンプに示される時間に実行するようにハプティックフレームに割り当てられる。その後、処理は次のブロックに移る。
ブロック806において、処理は、各種のタイムスタンプを各種のハプティックフレームに割り当てる。このタイムスタンプは、一以上のアクチュエータを起動してハプティックフレームに格納されたハプティック情報に従ってハプティック効果を生成する時間を示す。一実施の形態において、タイムスタンプは、オーディオやビデオ情報に従って割り当てられる。また、処理は、単一のハプティックフレーム内のタイムスタンプのオフセットであるサブタイムスタンプを割り当てることができる。ブロック806の後、処理は次のブロックに進む。
ブロック808において、処理は、ハプティックフレームのハプティック情報に応じて、各ハプティック効果毎にハプティック効果情報を定義する。一実施の形態において、処理は、ビデオおよび/またはオーディオ信号などのその他のメディア情報に応じてハプティック効果情報を符号化する。別の実施の形態では、処理は、ユーザにより選択された、いくつかの所定のアルゴリズムのうちの1つのアルゴリズムに応じてハプティック効果情報を符号化する。なお、各ハプティックフレームは、異なる時間に開始する複数のハプティック効果を含むことができる。さらに処理は、ハプティック効果情報に従ってアクチュエータを起動することができ、また関連付けられたタイムスタンプに従ってハプティック効果を維持することもできる。
本発明の実施の形態及び用途について説明したが、本開示の利益を享受する当業者には、本発明の趣旨を逸脱せずに、様々な変形態様が可能であることは明らかである。本発明は、したがって、添付の特許請求の範囲の他に制限されることはない。

Claims (31)

  1. メディアトランスポートストリームの一以上のフレームからハプティック情報を識別するステップと、
    前記メディアトランスポートストリームに関連するマスタータイムコードに従ってタイムスタンプを決定するステップと、
    ハプティック情報に応じて、少なくとも一つのアクチュエータを作動するように前記タイムスタンプを前記一以上のフレームに割り当てるステップと、
    前記一以上のフレームの前記ハプティック情報に応じて、ハプティック効果の各々について効果情報を定義するステップと、を含むハプティック効果を同期する方法。
  2. 前記効果情報に応じてアクチュエータを作動するステップと、
    関連するタイムスタンプに従ってハプティック効果を維持するステップと、をさらに含む、請求項1記載の方法。
  3. メディアトランスポートストリームの一以上のフレームからハプティック情報を識別するステップはさらに、
    画像情報を含む一連のビデオフレームを識別するステップと、
    音声情報を含む一連のオーディオフレームを識別するステップと、
    力フィードバック情報を含む一連のハプティックフレームを識別するステップと、を含む、請求項1記載の方法。
  4. 前記画像情報と音声情報に応じて前記力フィードバック情報を同期するステップをさらに含む、請求項3記載の方法。
  5. アタックレベルとフェードレベルを含むハプティック効果を生成するステップをさらに含む、請求項4記載の方法。
  6. 一以上のフレームからハプティック情報を識別するステップはさらに、ほぼ同一の時間の長さのフレームを識別するステップを含む、請求項1記載の方法。
  7. メディアトランスポートストリームの一以上のフレームからハプティック情報を識別するステップは、MPEG4プロトコルに従って、前記メディアトランスポートストリームを分析するステップを含む、請求項1記載の方法。
  8. 前記メディアトランスポートストリームの前記一以上のフレームを前記ハプティック情報とともに符号化するステップと、
    前記メディアトランスポートストリームをネットワークを介して転送するステップと、をさらに含む、請求項1記載の方法。
  9. 前記メディアトランスポートストリームをネットワークを介して受信するステップと、
    メディアコンポーネントとハプティックコンポーネントを抽出するステップと、
    前記メディアコンポーネントを再生するステップと、
    再生用に割り当てられたタイムスタンプで各フレームを再生することによって、前記ハプティックコンポーネントを前記メディアコンポーネントと同期させるステップと、をさらに含む、請求項8記載の方法。
  10. ハプティック信号を、ほぼ固定の時間長を有する連続するフレームに解析するステップであって、フレームには各々、メディアトランスポートストリームを再生するマスタータイムコードに従って再生すべき初期時間が割り当てられている、ステップと、
    フレームの各々について、前記フレームのタイムスパンの中で再生するハプティック効果の各々について効果情報を定義するステップと、
    前記フレームを前記メディアトランスポートストリームのハプティックコンポーネントとして符号化するステップと、
    前記メディアトランスポートストリームを転送するステップと、
    前記メディアトランスポートストリームを再生機器で受信するステップと、
    メディアコンポーネントと前記ハプティックコンポーネントを抽出するステップと、
    前記メディアコンポーネントを再生するステップと、
    前記マスタータイムコードに従って割り当てられた初期時間で各フレームを再生することによって、前記ハプティックコンポーネントを前記メディアコンポーネントと同期させるステップと、を含む、メディアトランスポートストリームに埋め込まれたハプティック信号を送信して再生する方法。
  11. 前記効果情報が開始時間、規模,周波数、エンベロープ(envelope)、期間又はスタイル(style)を含む、請求項10記載の方法。
  12. 前記メディアコンポーネントがオーディオコンポーネント、ビデオコンポーネント又はオーディオコンポーネントとビデオコンポーネントである、請求項10記載の方法。
  13. 前記メディアトランスポートストリームが前記再生機器で受信される前に格納される、請求項10記載の方法。
  14. 前記フレームに効果情報が存在しない場合、前記フレームを前記メディアトランスポートストリームに符号化しない、請求項10記載の方法。
  15. 前記時間長は、前記マスタータイムコードに従って最小の増分となるように選択されている、請求項10記載の方法。
  16. 前記ハプティック効果の情報は、ノンパラメトリック符号化を用いる、請求項10記載の方法。
  17. 前記ハプティック信号は圧縮されている、請求項10記載の方法。
  18. 前記ハプティック信号は暗号化されている、請求項10記載の方法。
  19. 前記ハプティック信号は圧縮されて暗号化されている、請求項10記載の方法。
  20. メディアトランスポートストリームの一以上のフレームからハプティック情報を識別する手段と、
    前記メディアトランスポートストリームに関連するマスタータイムコードに従ってタイムスタンプを決定する手段と、
    ハプティック情報に応じて、少なくとも一つのアクチュエータを作動するように前記タイムスタンプを前記一以上のフレームに割り当てる手段と、
    前記一以上のフレームの前記ハプティック情報に応じて、ハプティック効果の各々について効果情報を定義する手段と、を含むハプティック効果を同期する装置。
  21. 前記効果情報に応じてアクチュエータを作動し
    関連するタイムスタンプに従ってハプティック効果を維持する、請求項20記載の装置。
  22. メディアトランスポートストリームの一以上のフレームからハプティック情報を識別する手段はさらに、
    画像情報を含む一連のビデオフレームを識別する手段と、
    音声情報を含む一連のオーディオフレームを識別する手段と、
    力フィードバック情報を含む一連のハプティックフレームを識別する手段と、を含む、請求項20記載の装置。
  23. 画像情報と音声情報に応じて力フィードバック情報を同期する手段をさらに含む、請求項20記載の装置。
  24. アタックレベルとフェードレベルを含むハプティック効果を生成する手段をさらに含む、請求項23記載の装置。
  25. 一以上のフレームからハプティック情報を識別する手段はさらに、ほぼ同一の時間の長さのフレームを識別する手段を含む、請求項20記載の装置。
  26. メディアトランスポートストリームの一以上のフレームからハプティック情報を識別する手段は、MPEG4プロトコルに従って、前記メディアトランスポートストリームを分析する手段を含む、請求項20記載の装置。
  27. 前記メディアトランスポートストリームの前記一以上のフレームを前記ハプティック情報とともに符号化する手段と、
    前記メディアトランスポートストリームをネットワークを介して転送する手段と、をさらに含む、請求項20記載の装置。
  28. 前記メディアトランスポートストリームをネットワークを介して受信する手段と、
    メディアコンポーネントとハプティックコンポーネントを抽出する手段と、
    前記メディアコンポーネントを再生する手段と、
    再生用に割り当てられたタイムスタンプで各フレームを再生することによって、前記ハプティックコンポーネントを前記メディアコンポーネントと同期させる手段と、をさらに含む、請求項20記載の装置。
  29. ハプティック信号を、ほぼ同一の時間長を有する一以上のフレームに解析する手段と、
    前記フレームに再生する初期時間を割り当てる手段であって、該再生する初期時間は、メディアトランスポートストリームのマスタータイムコードに関連付けられている、手段と、
    フレームの各々のタイムスパンの中で再生するハプティック効果の各々について効果情報を定義する手段と、を含む、
    ハプティック信号をメディアトランスポートストリームに埋め込む装置。
  30. 前記フレームを前記メディアトランスポートストリームのハプティックコンポーネントとして符号化する手段と、
    前記メディアトランスポートストリームを転送する手段と、
    前記メディアトランスポートストリームを再生機器で受信する手段と、
    メディアコンポーネントと前記ハプティックコンポーネントとを抽出する手段と、
    前記メディアコンポーネントを再生する手段と、
    再生用に割り当てられた初期時間で各フレームを再生することによって、前記ハプティックコンポーネントを前記メディアコンポーネントと同期させる手段と、を含む請求項29記載の装置。
  31. ハプティック信号を、固定の時間長を有する連続するフレームに解析する手段であって、フレームには各々、メディアトランスポートストリームを再生するマスタータイムコードに従って再生すべき初期時間が割り当てられている、手段と、
    フレームの各々について、前記フレームのタイムスパンの中で再生するハプティック効果の各々について効果情報を定義する手段と、
    前記フレームを前記メディアトランスポートストリームのハプティックコンポーネントとして符号化する手段と、
    前記メディアトランスポートストリームを転送する手段と、
    前記メディアトランスポートストリームを再生機器で受信する手段と、
    メディアコンポーネントと前記ハプティックコンポーネントを抽出する手段と、
    前記メディアコンポーネントを再生する手段と、
    前記マスタータイムコードに従って割り当てられた初期時間で各フレームを再生することによって、前記ハプティックコンポーネントを前記メディアコンポーネントと同期させる手段と、を含む、メディアトランスポートストリームに埋め込まれたハプティック信号を送信して再生する装置。
JP2011091656A 2005-10-19 2011-04-18 メディアトランスポートストリームにおけるハプティック効果データの同期 Active JP5813983B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US72855105P 2005-10-19 2005-10-19
US60/728,551 2005-10-19
US11/583,483 2006-10-18
US11/583,483 US8700791B2 (en) 2005-10-19 2006-10-18 Synchronization of haptic effect data in a media transport stream

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008536835A Division JP5279502B2 (ja) 2005-10-19 2006-10-19 メディアトランスポートストリームにおけるハプティック効果データの同期

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015121968A Division JP6290829B2 (ja) 2005-10-19 2015-06-17 メディアトランスポートストリームにおけるハプティック効果データの同期

Publications (2)

Publication Number Publication Date
JP2011188508A true JP2011188508A (ja) 2011-09-22
JP5813983B2 JP5813983B2 (ja) 2015-11-17

Family

ID=37963332

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2008536835A Active JP5279502B2 (ja) 2005-10-19 2006-10-19 メディアトランスポートストリームにおけるハプティック効果データの同期
JP2011091656A Active JP5813983B2 (ja) 2005-10-19 2011-04-18 メディアトランスポートストリームにおけるハプティック効果データの同期
JP2015121968A Expired - Fee Related JP6290829B2 (ja) 2005-10-19 2015-06-17 メディアトランスポートストリームにおけるハプティック効果データの同期
JP2017195175A Pending JP2018033155A (ja) 2005-10-19 2017-10-05 メディアトランスポートストリームにおけるハプティック効果データの同期

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008536835A Active JP5279502B2 (ja) 2005-10-19 2006-10-19 メディアトランスポートストリームにおけるハプティック効果データの同期

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2015121968A Expired - Fee Related JP6290829B2 (ja) 2005-10-19 2015-06-17 メディアトランスポートストリームにおけるハプティック効果データの同期
JP2017195175A Pending JP2018033155A (ja) 2005-10-19 2017-10-05 メディアトランスポートストリームにおけるハプティック効果データの同期

Country Status (6)

Country Link
US (4) US8700791B2 (ja)
EP (1) EP1952377A4 (ja)
JP (4) JP5279502B2 (ja)
KR (1) KR100939623B1 (ja)
CN (2) CN102184012A (ja)
WO (1) WO2007047960A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179984A (ja) * 2013-03-14 2014-09-25 Immersion Corp グループイベント時のハプティック効果のブロードキャスト
JP2014182816A (ja) * 2013-03-15 2014-09-29 Immersion Corp マルチメディアファイル内の触覚情報を符号化及び復号化する方法及び装置
JP2016015131A (ja) * 2014-06-16 2016-01-28 イマージョン コーポレーションImmersion Corporation フォーリー式触覚コンテンツ作成のためのシステム及び方法
JP2016213667A (ja) * 2015-05-08 2016-12-15 日本放送協会 感覚提示装置
JP2017084328A (ja) * 2015-10-29 2017-05-18 イマージョン コーポレーションImmersion Corporation 周囲に誘発される通知

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007030603A2 (en) 2005-09-08 2007-03-15 Wms Gaming Inc. Gaming machine having display with sensory feedback
US8210942B2 (en) 2006-03-31 2012-07-03 Wms Gaming Inc. Portable wagering game with vibrational cues and feedback mechanism
CN101094469A (zh) * 2007-07-17 2007-12-26 华为技术有限公司 移动终端提示信息的生成方法和装置
US7936790B2 (en) * 2007-08-30 2011-05-03 Silicon Image, Inc. Synchronizing related data streams in interconnection networks
US8201188B2 (en) 2007-09-20 2012-06-12 Microsoft Corporation Device-hosted services over media transfer protocol
US9019087B2 (en) * 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
KR20090038835A (ko) * 2007-10-16 2009-04-21 한국전자통신연구원 실감 미디어 생성 및 소비 방법 및 그 장치 및 실감 미디어메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체
US7911328B2 (en) * 2007-11-21 2011-03-22 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
US7839269B2 (en) * 2007-12-12 2010-11-23 Immersion Corporation Method and apparatus for distributing haptic synchronous signals
US20110125790A1 (en) * 2008-07-16 2011-05-26 Bum-Suk Choi Method and apparatus for representing sensory effects and computer readable recording medium storing sensory effect metadata
US8749495B2 (en) * 2008-09-24 2014-06-10 Immersion Corporation Multiple actuation handheld device
US9400555B2 (en) 2008-10-10 2016-07-26 Internet Services, Llc System and method for synchronization of haptic data and media data
KR101324687B1 (ko) * 2009-08-10 2013-11-04 한국과학기술원 이미지에 햅틱 정보를 인코딩하는 방법, 이미지로부터 햅틱 정보를 디코딩하는 방법 및 이를 위한 햅틱 정보 처리 장치
KR101493884B1 (ko) * 2010-11-19 2015-02-17 한국전자통신연구원 4d 방송 서비스를 위한 방송 네트워크와 홈 네트워크의 제어 방법 및 장치
US8700406B2 (en) * 2011-05-23 2014-04-15 Qualcomm Incorporated Preserving audio data collection privacy in mobile devices
US20120302323A1 (en) 2011-05-23 2012-11-29 Wms Gaming Inc. Haptic gaming chairs and wagering game systems and machines with a haptic gaming chair
US9449456B2 (en) 2011-06-13 2016-09-20 Bally Gaming, Inc. Automated gaming chairs and wagering game systems and machines with an automated gaming chair
US9762719B2 (en) * 2011-09-09 2017-09-12 Qualcomm Incorporated Systems and methods to enhance electronic communications with emotional context
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
KR101154122B1 (ko) * 2012-02-20 2012-06-11 씨제이포디플렉스 주식회사 영상과 모션 간의 시간 동기화를 이용한 모션 제어 시스템 및 그 방법
CA2890399A1 (en) * 2012-10-01 2014-04-10 Internet Services, Llc System and method for synchronization of haptic data and media data
US8947216B2 (en) * 2012-11-02 2015-02-03 Immersion Corporation Encoding dynamic haptic effects
US9898084B2 (en) 2012-12-10 2018-02-20 Immersion Corporation Enhanced dynamic haptic effects
US9261960B2 (en) 2013-01-24 2016-02-16 Immersion Corporation Haptic sensation recording and playback
WO2014132104A1 (en) * 2013-03-01 2014-09-04 Nokia Corporation Control apparatus for a tactile audio display
US9189098B2 (en) * 2013-03-14 2015-11-17 Immersion Corporation Systems and methods for syncing haptic feedback calls
US9064385B2 (en) * 2013-03-15 2015-06-23 Immersion Corporation Method and apparatus to generate haptic feedback from video content analysis
EP2981876A4 (en) 2013-04-02 2016-12-07 Nokia Technologies Oy CONTRAPTION
KR101580237B1 (ko) * 2013-05-15 2015-12-28 씨제이포디플렉스 주식회사 4d 컨텐츠 제작 서비스 제공 방법 및 시스템, 이를 위한 컨텐츠 제작 장치
US10248206B2 (en) 2013-08-20 2019-04-02 Xsync Technologies Llc Systems and methods for multimedia tactile augmentation
US9703379B2 (en) * 2013-08-20 2017-07-11 Xsync Technologies Llc Systems and methods for multimedia tactile augmentation
US20150054727A1 (en) * 2013-08-23 2015-02-26 Immersion Corporation Haptically enabled viewing of sporting events
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9711014B2 (en) 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9619980B2 (en) 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9652945B2 (en) * 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9213408B2 (en) 2013-10-08 2015-12-15 Immersion Corporation Generating haptic effects while minimizing cascading
US9619029B2 (en) 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
CN103607395A (zh) * 2013-11-20 2014-02-26 深圳先进技术研究院 一种传输触觉数据的方法及装置
CN103607596B (zh) * 2013-11-22 2017-11-24 北京星网锐捷网络技术有限公司 时钟校准处理方法及装置
US10437341B2 (en) * 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
DK3100244T3 (da) * 2014-01-29 2020-11-09 The Guitammer Company Haptisk-taktilt bevægelses/forskydningssignalkonverteringssystem og sammenbygget enhed
KR20150110356A (ko) 2014-03-21 2015-10-02 임머숀 코퍼레이션 센서의 데이터를 햅틱 효과들로 변환하는 시스템들 및 방법들
KR20170030510A (ko) 2014-07-07 2017-03-17 임머숀 코퍼레이션 제2 스크린 햅틱
US10185396B2 (en) 2014-11-12 2019-01-22 Immersion Corporation Haptic trigger modification system
US9174134B1 (en) 2014-11-12 2015-11-03 Immersion Corporation Peripheral device with haptic diminishment prevention component
US9919208B2 (en) 2014-12-11 2018-03-20 Immersion Corporation Video gameplay haptics
US9812165B2 (en) 2014-12-19 2017-11-07 Immersion Corporation Systems and methods for recording haptic data for use with multi-media data
DE102015200037A1 (de) * 2015-01-05 2016-07-07 Volkswagen Aktiengesellschaft Bedienvorrichtung mit verbesserter haptischer Rückmeldung
US10269392B2 (en) * 2015-02-11 2019-04-23 Immersion Corporation Automated haptic effect accompaniment
US10216277B2 (en) * 2015-02-25 2019-02-26 Immersion Corporation Modifying haptic effects for slow motion
US9838571B2 (en) * 2015-04-10 2017-12-05 Gvbb Holdings S.A.R.L. Precision timing for broadcast network
US10261582B2 (en) * 2015-04-28 2019-04-16 Immersion Corporation Haptic playback adjustment system
EP3099030A1 (en) * 2015-05-26 2016-11-30 Thomson Licensing Method and device for encoding/decoding a packet comprising data representative of a haptic effect
EP3121685A1 (en) * 2015-07-21 2017-01-25 Thomson Licensing Signal for carrying washout request in haptic audiovisual content, related method and device
US9947305B2 (en) * 2016-07-01 2018-04-17 Intel Corporation Bi-directional music synchronization using haptic devices
US10101813B2 (en) * 2016-12-14 2018-10-16 Immersion Corporation Automatic haptic generation based on color features and motion analysis
US10075251B2 (en) * 2017-02-08 2018-09-11 Immersion Corporation Haptic broadcast with select haptic metadata based on haptic playback capability
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
US10541005B2 (en) * 2017-05-17 2020-01-21 Cypress Semiconductor Corporation Distributed and synchronized control system for environmental signals in multimedia playback
US10194128B2 (en) 2017-06-12 2019-01-29 Amazon Technologies, Inc. Systems and processes for generating a digital content item
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
US20190041987A1 (en) * 2017-08-03 2019-02-07 Immersion Corporation Haptic effect encoding and rendering system
US10620704B2 (en) * 2018-01-19 2020-04-14 Cirrus Logic, Inc. Haptic output systems
JP2019160026A (ja) * 2018-03-15 2019-09-19 株式会社東海理化電機製作所 操作装置
US11139767B2 (en) 2018-03-22 2021-10-05 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10832537B2 (en) 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11069206B2 (en) 2018-05-04 2021-07-20 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
WO2020045044A1 (ja) * 2018-08-30 2020-03-05 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2020080433A1 (ja) * 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
JP7452430B2 (ja) * 2018-10-19 2024-03-19 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US11483611B2 (en) 2018-11-19 2022-10-25 Roku, Inc. Non-television experience triggers
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US20200313529A1 (en) 2019-03-29 2020-10-01 Cirrus Logic International Semiconductor Ltd. Methods and systems for estimating transducer parameters
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US11150733B2 (en) 2019-06-07 2021-10-19 Cirrus Logic, Inc. Methods and apparatuses for providing a haptic output signal to a haptic actuator
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
KR20220024091A (ko) 2019-06-21 2022-03-03 시러스 로직 인터내셔널 세미컨덕터 리미티드 디바이스 상에 복수의 가상 버튼을 구성하기 위한 방법 및 장치
CN114303185A (zh) * 2019-09-03 2022-04-08 索尼集团公司 控制装置、扬声器装置和声音输出方法
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
CN111291677B (zh) * 2020-02-05 2022-09-09 吉林大学 一种动态视频触觉特征提取及渲染的方法
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
WO2023062802A1 (ja) * 2021-10-15 2023-04-20 豊田合成株式会社 コンテンツ配信方法、及びコンテンツ配信システム
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002053246A2 (en) * 2001-01-05 2002-07-11 D-Box Technology Inc. Motion transducer system
JP2003324402A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
JP2004081357A (ja) * 2002-08-23 2004-03-18 Toshiba Eng Co Ltd 体感型映像音響システム
JP2004229039A (ja) * 2003-01-24 2004-08-12 Toshiba Corp 情報処理装置及び情報処理方法
WO2005048541A1 (en) * 2003-11-12 2005-05-26 Electronics And Telecommunications Research Institute Apparatus and method for transmitting synchronized the five senses with a/v data
US20050145100A1 (en) * 2003-12-31 2005-07-07 Christophe Ramstein System and method for providing a haptic effect to a musical instrument
JP2005523612A (ja) * 2002-04-22 2005-08-04 インテロシティ ユーエスエー,インコーポレイテッド データ受信器と制御装置の方法及び装置

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4334280A (en) 1980-06-09 1982-06-08 Texas Instruments Incorporated System and method for providing an audible sound and a tactile feedback in an electronic data processing system
US4355348A (en) 1980-07-30 1982-10-19 Williams Theodore R Audio signal responsive optical display
US5388992A (en) 1991-06-19 1995-02-14 Audiological Engineering Corporation Method and apparatus for tactile transduction of acoustic signals from television receivers
US5281754A (en) * 1992-04-13 1994-01-25 International Business Machines Corporation Melody composer and arranger
US5629594A (en) 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US5526480A (en) 1992-12-28 1996-06-11 International Business Machines Corporation Time domain scroll bar for multimedia presentations in a data processing system
US5461711A (en) 1993-12-22 1995-10-24 Interval Research Corporation Method and system for spatial accessing of time-based information
US5586257A (en) 1994-05-05 1996-12-17 Perlman; Stephen G. Network architecture to support multiple site real-time video games
US6004134A (en) 1994-05-19 1999-12-21 Exos, Inc. Interactive simulation including force feedback
US6160489A (en) 1994-06-23 2000-12-12 Motorola, Inc. Wireless communication device adapted to generate a plurality of distinctive tactile alert patterns
ATE189539T1 (de) 1994-08-18 2000-02-15 Interval Research Corp Eingabevorrichtung für video mit taktilem feedback, das von dem inhalt des videos abhängt
US5684722A (en) 1994-09-21 1997-11-04 Thorner; Craig Apparatus and method for generating a control signal for a tactile sensation generator
US5669818A (en) 1995-03-23 1997-09-23 Thorner; Craig Seat-based tactile sensation generator
US6147674A (en) 1995-12-01 2000-11-14 Immersion Corporation Method and apparatus for designing force sensations in force feedback computer applications
US5956484A (en) 1995-12-13 1999-09-21 Immersion Corporation Method and apparatus for providing force feedback over a computer network
US6859819B1 (en) 1995-12-13 2005-02-22 Immersion Corporation Force feedback enabled over a computer network
US6161126A (en) 1995-12-13 2000-12-12 Immersion Corporation Implementing force feedback over the World Wide Web and other computer networks
CA2247364C (en) 1996-03-08 2002-05-14 Motorola, Inc. Method and recognizer for recognizing a sampled sound signal in noise
US5884029A (en) 1996-11-14 1999-03-16 International Business Machines Corporation User interaction with intelligent virtual objects, avatars, which interact with other avatars controlled by different users
US6111562A (en) 1997-01-06 2000-08-29 Intel Corporation System for generating an audible cue indicating the status of a display object
EP0866592A3 (en) * 1997-03-20 1999-06-16 Nortel Networks Corporation Personal communication device and call process status signalling method
US6285351B1 (en) 1997-04-25 2001-09-04 Immersion Corporation Designing force sensations for computer applications including sounds
US6252583B1 (en) 1997-11-14 2001-06-26 Immersion Corporation Memory and force output management for a force feedback system
US6121532A (en) * 1998-01-28 2000-09-19 Kay; Stephen R. Method and apparatus for creating a melodic repeated effect
AU2382300A (en) 1998-12-23 2000-07-12 National Institute Of Standards And Technology ("Nist") Method and system for a virtual assembly design environment
US6292776B1 (en) 1999-03-12 2001-09-18 Lucent Technologies Inc. Hierarchial subband linear predictive cepstral features for HMM-based speech recognition
US6424356B2 (en) 1999-05-05 2002-07-23 Immersion Corporation Command of force sensations in a forceback system using force effect suites
JP3620409B2 (ja) * 2000-05-25 2005-02-16 ヤマハ株式会社 携帯通信端末装置
US7567232B2 (en) 2001-03-09 2009-07-28 Immersion Corporation Method of using tactile feedback to deliver silent status information to a user of an electronic device
US6885876B2 (en) 2001-03-12 2005-04-26 Nokia Mobile Phones Ltd. Mobile phone featuring audio-modulated vibrotactile module
US6963762B2 (en) 2001-05-23 2005-11-08 Nokia Corporation Mobile phone using tactile icons
GB0114458D0 (en) 2001-06-14 2001-08-08 Lucas Industries Ltd An in-vehicle display system
JP2003086384A (ja) 2001-06-28 2003-03-20 Matsushita Electric Ind Co Ltd 照明サービスを提供する方法、照明装置、記録媒体および再生装置
US7356245B2 (en) * 2001-06-29 2008-04-08 International Business Machines Corporation Methods to facilitate efficient transmission and playback of digital information
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
US6703550B2 (en) 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
US7169996B2 (en) 2002-11-12 2007-01-30 Medialab Solutions Llc Systems and methods for generating music using data/music data file transmitted/received via a network
JP2005229168A (ja) 2004-02-10 2005-08-25 Nippon Telegr & Teleph Corp <Ntt> メディア出力システムとその同期誤差制御方法およびプログラム
US7669056B2 (en) * 2005-03-29 2010-02-23 Microsoft Corporation Method and apparatus for measuring presentation data exposure
CN101204015B (zh) * 2005-04-26 2010-11-03 迪宝克技术公司 一起提供运动信号和声音信号的方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002053246A2 (en) * 2001-01-05 2002-07-11 D-Box Technology Inc. Motion transducer system
JP2005523612A (ja) * 2002-04-22 2005-08-04 インテロシティ ユーエスエー,インコーポレイテッド データ受信器と制御装置の方法及び装置
JP2003324402A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
JP2004081357A (ja) * 2002-08-23 2004-03-18 Toshiba Eng Co Ltd 体感型映像音響システム
JP2004229039A (ja) * 2003-01-24 2004-08-12 Toshiba Corp 情報処理装置及び情報処理方法
WO2005048541A1 (en) * 2003-11-12 2005-05-26 Electronics And Telecommunications Research Institute Apparatus and method for transmitting synchronized the five senses with a/v data
US20050145100A1 (en) * 2003-12-31 2005-07-07 Christophe Ramstein System and method for providing a haptic effect to a musical instrument

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179984A (ja) * 2013-03-14 2014-09-25 Immersion Corp グループイベント時のハプティック効果のブロードキャスト
JP2014182816A (ja) * 2013-03-15 2014-09-29 Immersion Corp マルチメディアファイル内の触覚情報を符号化及び復号化する方法及び装置
JP2016015131A (ja) * 2014-06-16 2016-01-28 イマージョン コーポレーションImmersion Corporation フォーリー式触覚コンテンツ作成のためのシステム及び方法
US10503263B2 (en) 2014-06-16 2019-12-10 Immersion Corporation Systems and methods for Foley-style haptic content creation
JP2016213667A (ja) * 2015-05-08 2016-12-15 日本放送協会 感覚提示装置
JP2017084328A (ja) * 2015-10-29 2017-05-18 イマージョン コーポレーションImmersion Corporation 周囲に誘発される通知
US10475301B2 (en) 2015-10-29 2019-11-12 Immersion Corporation Ambient triggered notifications

Also Published As

Publication number Publication date
US20140226068A1 (en) 2014-08-14
US9615002B2 (en) 2017-04-04
CN101292211B (zh) 2011-11-09
WO2007047960A2 (en) 2007-04-26
US10440238B2 (en) 2019-10-08
US20080223627A1 (en) 2008-09-18
KR20080071560A (ko) 2008-08-04
JP5279502B2 (ja) 2013-09-04
CN101292211A (zh) 2008-10-22
EP1952377A2 (en) 2008-08-06
JP5813983B2 (ja) 2015-11-17
WO2007047960A3 (en) 2008-01-17
EP1952377A4 (en) 2012-10-03
KR100939623B1 (ko) 2010-01-29
US20170150013A1 (en) 2017-05-25
CN102184012A (zh) 2011-09-14
JP2009513077A (ja) 2009-03-26
JP6290829B2 (ja) 2018-03-07
US9912842B2 (en) 2018-03-06
US8700791B2 (en) 2014-04-15
JP2018033155A (ja) 2018-03-01
US20180191927A1 (en) 2018-07-05
JP2015208027A (ja) 2015-11-19

Similar Documents

Publication Publication Date Title
JP6290829B2 (ja) メディアトランスポートストリームにおけるハプティック効果データの同期
EP2605499B1 (en) Synchronization of Haptic Effect Data in a Media Transport Stream
JP3739609B2 (ja) マルチメディアの再生システムにおけるディジタルのビデオおよびオーディオの再生の適応型同期化のための方法および装置
RU2408158C2 (ru) Синхронизация звука и видео
EP2023627A2 (en) Content playback device, content playback method, computer-readable storage medium, and content playback system
KR20080109907A (ko) 햅틱 효과 개선을 위한 시스템들 및 방법들
CN103403794A (zh) 自动演奏装置
JP2006190213A (ja) メディア再生装置
CN112188256B (zh) 信息处理方法、信息提供方法、装置、电子设备及存储介质
CN105187862B (zh) 一种分布式播放器流量控制方法及系统
CN114422840A (zh) 音轨切换的方法及装置
CN112188256A (zh) 信息处理方法、信息提供方法、装置、电子设备及存储介质
JP2004096799A (ja) ビット・ストリーム情報表示方法、ビット・ストリーム情報作成方法及び記録媒体
JP2003134516A (ja) 画像データまたは音声データ符号化ミドルウェア

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130619

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140603

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150617

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150917

R150 Certificate of patent or registration of utility model

Ref document number: 5813983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250