JP6639602B2 - オフラインハプティック変換システム - Google Patents

オフラインハプティック変換システム Download PDF

Info

Publication number
JP6639602B2
JP6639602B2 JP2018187926A JP2018187926A JP6639602B2 JP 6639602 B2 JP6639602 B2 JP 6639602B2 JP 2018187926 A JP2018187926 A JP 2018187926A JP 2018187926 A JP2018187926 A JP 2018187926A JP 6639602 B2 JP6639602 B2 JP 6639602B2
Authority
JP
Japan
Prior art keywords
haptic
signal
encoded
media
media signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018187926A
Other languages
English (en)
Other versions
JP2019022223A (ja
Inventor
ロバート ラクロワ
ロバート ラクロワ
サトヴィル シン バティア
サトヴィル シン バティア
ジャン−フランソワ ブランシャール−ディオンヌ
ジャン−フランソワ ブランシャール−ディオンヌ
ステファン ディー. ランク
ステファン ディー. ランク
クリストファー ジェイ. ウルリッチ
クリストファー ジェイ. ウルリッチ
ロク ティエン パン
ロク ティエン パン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2019022223A publication Critical patent/JP2019022223A/ja
Application granted granted Critical
Publication of JP6639602B2 publication Critical patent/JP6639602B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

関連出願の相互参照
本願は、2013年4月9日に提出された米国仮出願番号第61/810,196合の優先権(その開示は参照により本明細書に援用される)、及び2013年5月24日に提出された米国仮出願番号第61/827,341号の優先権(その開示は参照により本明細書に援用される)を主張するものである。
一実施形態は、一般的な装置に関するものであり、特にハプティック効果を生成するデバイスに関するものである。
ハプティックは、力、振動及びモーションのようなハプティックフィードバック効果(すなわち、ハプティック効果)をユーザに与えることにより、ユーザの接触の検知を利用する触覚及び力フィードバック技術である。携帯装置、タッチスクリーン装置及びパーソナルコンピュータのような装置は、ハプティック効果を生成するように構成される。通常、ハプティック効果を生成可能な埋め込みハードウェア(例えば、アクチュエータ)への呼び出しは、装置のオペレーティングシステム(“OS”)内にプログラムされうる。これらの呼び出しは、プレイするためのハプティック効果を特定する。例えば、ユーザが、ボタン、タッチスクリーン、レバー、ジョイスティック、ホイール、又は他のコントローラ等を用いる装置とやり取りをするとき、当該装置のOSは、制御回路を介して、埋め込みハードウェアへプレイコマンドを送信することができる。埋め込みハードウェアは、その後、適切なハプティック効果を生成する。
デバイスは、ハプティック効果が他のコンテンツに組み込まれるように、ハプティック効果の出力をゲーム又は他のコンテンツの出力と調整するように構成されうる。例えば、オーディオエフェクトデベロッパーは、マシンガンの発射、爆発又は車の衝突等のようなデバイスにより出力されうるオーディオ効果を開発することができる。さらに、ビデオ効果のような他のタイプのコンテンツが開発することができ、デバイスにより連続的に出力される。オーディオエフェクトデベロッパーは、続いて、デバイスのハプティック効果を生み出すことができ、デバイスは、他のコンテンツと共にハプティック効果を出力するように構成されうる。しかし、このような処理は、通常、オーディオ効果又は他のタイプのコンテンツを正確に補完するハプティック効果を生み出すために、ハプティック効果デベロッパーの個別の判断を必要とする。オーディオ効果又は他のタイプのコンテンツを補完しない補完が乏しいハプティック効果は、ハプティック効果が、オーディオ効果又は他のコンテンツとかみ合わない全体的に不快な効果を生成しうる。この種のユーザ体験は、通常、望まれていない。
一実施形態は、オフラインハプティック変換を制御するシステムである。システムは、ソースからの入力を受信する。システムは、さらに、入力を再生する前に入力を一又はそれ以上のハプティック信号へ変換する。システムは、さらに、ハプティック信号をエンコードする。システムは、さらに、ソース内のハプティック信号を記憶し、ハプティック信号は、ソース内の入力と合成される。別の実施形態では、ハプティック信号のエンコード及びソース内のハプティック信号の記憶に代えて、システムは、ソースとは独立して、ハプティック信号を別々に扱う。
添付の図面と共に、好ましい実施形態の以下の詳細な説明から、さらなる実施形態、詳細、利点、及び変更が明らかとなるであろう。
図1は、本発明の一実施形態に係る、システムのブロック図を示す。 図2は、本発明の一実施形態に係る、入力信号をハプティック信号へのオフラインハプティック変換を行い、ハプティック信号をエンコードするシステムを示す。 図3は、本発明の一実施形態に係る、ハプティック信号のデコード及びハプティック信号に基づく一又はそれ以上のハプティック効果の再生を行うシステムを示す。 図4は、本発明の一実施形態に係る、入力信号のハプティック信号へのオフラインハプティック変換及びハプティック信号のエンコードのフロー図を示す。 図5は、本発明の一実施形態に係る、ハプティック信号をデコードし、ハプティック信号に基づいて一又はそれ以上のハプティック効果を再生するフロー図を示す。 図6は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のオーディオコンポーネントのためのハンドラーボックス構造を示す。 図7は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のビデオコンポーネントのためのハンドラーボックス構造を示す。 図8は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のハプティックコンポーネントのためのハンドラーボックス構造を示す。 図9は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のオーディオコンポーネント、ビデオコンポーネント及びハプティックコンポーネントのためのハンドラーボックス構造を示す。 図10は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のハプティックコンポーネントのための有効なオブジェクトプロファイルタイプを示す。 図11は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のハプティックコンポーネントのための有効ではないオブジェクトプロファイルタイプを示す。 図12は、本発明の一実施形態に係る、オフラインハプティック変換モジュールの機能のフロー図を示す。
一実施形態は、オーディオ信号、ビデオ信号又はマルチメディア信号のような入力をハプティック信号への“オフライン”変換を行うことができるシステムであり、ここで、ハプティック信号は、アクチュエータのようなハプティック出力装置に一又はそれ以上のハプティック効果を出力させることができる。ハプティック変換を“オフライン”で行う際に、システムは、ハプティック変換を“リアルタイム”で行う場合、又は入力の再生中に行う場合とは逆に、入力の再生前にハプティック変換を行うことができる。オフラインハプティック変換を行う際に、システムは、先ず、マルチメディアファイル又はいくつかの他のタイプのコンピュータファイルのようなソースからの入力を受信することができる。そして、システムは、入力をハプティック信号へ変換することができる。そして、システムは、続いて、ハプティック信号をエンコードすることができ、ここで、システムは、元の信号のソース内のハプティック信号を埋め込むことができ、システムは、ハプティック信号をソース内の元の出力と合成されることができる。それに替えて、ハプティック信号のエンコードの後に、システムは、別のソース内のハプティック信号を埋め込むことができる。さらに、システムは、ソースからのエンコードされたハプティック信号を抽出し、エンコードされたハプティック信号をデコードすることができる。そして、システムは、デコードされたハプティック信号を(アクチュエータ又はアクチュエータのセットのような)ハプティック出力装置又はハプティック出力装置のセットへ送信されることができ、デコードされたハプティック信号に基づいてハプティック出力装置にハプティック効果を生成させることができる。さらに、システムは、ハプティック効果の再生を、入力に基づいて又は入力によりシステムによって生成される他の効果の再生と同期することができる。
図1は、本発明の一実施形態に係る、システム10のブロック図を示す。一実施形態では、システム10は、装置(デバイス)の一部分であり、システム10は、モバイル装置のためにオフラインハプティック変換機能を提供する。別の実施形態では、システム10は、ウェアラブルデバイスの一部分であり、システム10は、ウェアラブルデバイスのためのハプティック効果パターン変換機能を提供する。ウェアラブルデバイスの例は、リストバンド、ヘッドバンド、眼鏡、リング、レッグバンド、衣類に集積されたアレイ又はユーザによって身に付けられる又は保持される任意のデバイスのようなデバイスを含む。いくつかのウェアラブルデバイスは、“ハプティック可能”であり、それらがハプティック効果を生成するための機構を含むことを意味する。別の実施形態では、デバイス(例えば、モバイルデバイス又はウェアラブルデバイス)とは離れており、デバイスに対するハプティック効果パターン変換機能を遠隔的に提供する。図では単一のシステムを示したが、システム10の機能は、分散されたシステムとして実装されることができる。システム10は、情報を伝達するためのバス12又は他の通信機構と、情報を処理するために、バス12に接続されるプロセッサ22と、を含む。プロセッサ22は、任意のタイプの一般的な又は特殊用途のプロセッサであってもよい。システム10は、プロセッサ22により実行される情報及び命令を記憶するメモリ14をさらに含む。メモリ14は、ランダムアクセスメモリ(“RAM”)、リードオンリーメモリ(“ROM”)、磁気又は光ディスクのようなスタティックストレージ、又は任意のタイプのコンピュータ可読媒体の任意の組み合わせを含みうる。
コンピュータ可読媒体は、プロセッサ22によりアクセス可能であり、揮発性及び不揮発性媒体の両方、リムーバブル及びノンリムーバブル媒体、通信媒体、及びストレージ媒体を含む任意の取得可能な媒体であってもよい。通信媒体は、搬送波又は他の伝送機構のような変調されたデータ信号におけるコンピュータ可読命令、データ構造、プログラムモジュール又は他のデータを含んでもよく、既存の技術の情報伝達媒体の任意の形態を含んでもよい。ストレージ媒体は、RAM、フラッシュメモリ、ROM、erasable programmable read−only memory(“EPROM”)、electrically erasable programmable read−only memory(“EEPROM”)、レジスタ、ハードディスク、リムーバブルディスク、コンパクトディスクリードオンリーメモリ(“CD−ROM”)、又は既存の技術の任意の他のストレージ媒体の形態を含んでもよい。
一実施形態では、メモリ14は、プロセッサ22により実行されたときに、機能を提供するソフトウェアモジュールを記憶する。モジュールは、一実施形態の装置の他の部分と同様に、システム10にオペレーティングシステム機能を提供するオペレーティングシステム15を含む。モジュールは、以下に詳細を記載するように、入力のハプティック信号への変換、ハプティック信号のエンコード、ハプティック信号のデコード、及びハプティック信号に基づく一又はそれ以上のハプティック効果の再生を制御するオフラインハプティック変換モジュール16をさらに含む。特定の実施形態では、オフラインハプティック変換モジュール16は、複数のモジュールを備えることができ、各モジュールは、入力のハプティック信号への変換、ハプティック信号のエンコード、ハプティック信号のデコード、及びハプティック信号に基づく一又はそれ以上のハプティック効果の再生を制御するための特定の個別の機能を提供する。システム10は、通常、Immersion CorporationによるIntegrator(登録商標)のような追加の機能を含むための一又はそれ以上の追加のアプリケーションモジュール18を含む。
システム10は、リモートソースからデータを送信及び/又は受信する実施形態において、赤外線、無線、Wi−Fi又はセルラーネットワーク通信のようなモバイル無線通信を提供するために、ネットワークインターフェースカードのような通信装置20をさらに含む。他の実施形態では、通信装置20は、イーサネット(登録商標)接続又はモデムのような有線通信を提供する。
プロセッサ22は、バス12を介して、グラフィック描写又はユーザインターフェースをユーザへ表示する液晶ディスプレイ(“LCD”)のようなディスプレイ24にさらに接続される。ディスプレイ24は、タッチスクリーンのような、プロセッサ22から信号を送受信するように構成される接触検知入力装置であってもよく、マルチタッチスクリーンであってもよい。
システム10は、一実施形態では、アクチュエータ26をさらに含む。プロセッサ22は、生成されたハプティック効果に関連付けられたハプティック信号を複数のアクチュエータ26に送信し、次に、例えば振動触覚効果、静電気摩擦ハプティック効果又は変形ハプティック効果のようなハプティック効果を出力する。アクチュエータ26は、アクチュエータ駆動回路を含む。アクチュエータ26は、例えば、電気モータ、電磁気アクチュエータ、ボイスコイル、形状記憶合金、電気活性ポリマー、ソレノイド、偏心モータ(eccentric rotating mass motor(“ERM”))、リニア共振アクチュエータ(inear resonant actuator(“LRA”))、圧電アクチュエータ、高帯域幅アクチュエータ、電気活性ポリマー(electroactive polymer(“EAP”))アクチュエータ、静電触覚ディスプレイ、又は超音波振動発生器であってもよい。別の実施形態では、システム10は、アクチュエータ26に加えて、一又はそれ以上の別のアクチュエータ(図1には図示せず)を含みうる。アクチュエータ26は、ハプティック出力装置の一例であり、ハプティック出力装置は、駆動信号に応答して、振動触覚ハプティック効果、静電摩擦ハプティック効果又は変形ハプティック効果のようなハプティック効果を出力するように構成される装置である。別の実施形態では、アクチュエータ26は、いくつかの他のタイプのハプティック出力装置により置き換えられうる。さらに、別の実施形態では、システム10は、アクチュエータ26を含まなくてもよく、システム10から離れた装置がアクチュエータを含む、又はハプティック効果を生成する他のハプティック装置及びシステム10は、通信装置20を介してハプティック信号を装置へ送信する。
一実施形態では、システム10は、さらに、一又はそれ以上のスピーカ28を含む。プロセッサ22は、スピーカ28へオーディオ信号を送信してもよく、順次オーディオ効果を出力する。スピーカ28は、例えば、ダイナミックラウドスピーカ、エレクトロダイナミックラウドスピーカ、圧電ラウドスピーカ、磁気歪ラウドスピーカ、静電ラウドスピーカ、リボンプラナー磁気ラウドスピーカ、屈曲波ラウドスピーカ、フラットパネルラウドスピーカ、ヘイルエアモーショントランスデューサ、プラズマアークスピーカ、及びデジタルラウドスピーカであってもよい。別の実施形態では、システム10は、スピーカ28に加えて、一又はそれ以上の別のスピーカ(図1には図示せず)を含むことができる。さらに、別の実施形態では、システム10は、スピーカ28を含まず、システム10から離れた装置は、オーディオ効果を出力するスピーカを含み、システム10は、通信装置10を通じて、当該装置へオーディオ信号を送信する。
システム10は、一実施形態では、さらに、センサ30を含む。センサ30は、エネルギーの形態、又は加速度、生体信号、距離、流量、力/圧力/歪み/曲げ、湿度、線形位置、向き/傾き、無線周波数、回転位置、回転速度、スイッチの切り替え、温度、振動又は可視光強度のような他の物理的な特性を検出するように構成されうるが、これに限定されない。センサ30は、さらに、検出したエネルギー又は他の物理的な特性を、電気信号又は仮想センサ情報を示す他の信号に変換するように構成されうる。センサ30は、加速度計、心電図、脳波図、筋電計、眼電図、エレクトロパラトグラフ、電気皮膚反応センサ、容量センサ、ホール効果センサ、赤外線センサ、超音波センサ、圧力センサ、光ファイバーセンサ、屈曲センサ(又は曲げセンサ)、力検知抵抗、ロードセル、LuSense CPS2 155、小型圧力トランスデューサー、圧電センサ、歪みゲージ、湿度計、リニアポジションタッチセンサ、リニアポテンショメータ(又はスライダー)、線形変数差動変圧器、コンパス、傾斜計、磁気タグ(又は無線周波数識別タグ)、回転ポテンショメータ、ジャイロスコープ、オン‐オフスイッチ、温度センサ(例えば、サーモメータ、熱電対、抵抗温度検出器、サーミスタ又は温度変換集積回路)、マイクロホン、フォトメータ、高度計、生物学的モニター、カメラ又は光依存性抵抗のような装置であり得るが、これに限定されない。別の実施形態では、システム10は、センサ30に加えて、一又はそれ以上の追加センサ(図1には図示せず)を含んでもよい。これらの実施形態のいくつかでは、センサ30及び追加センサの少なくとも1つは、センサアレイの一部である、又はいくつかの他のタイプのセンサの集合である。さらに、別の実施形態では、システム10は、センサ30を含まず、システム10とは離れた装置は、エネルギー又は他の物理特性の形態を検出するセンサを含み、検出したエネルギー又は他の物理特性を電気信号又は仮想センサ情報を示す他のタイプの信号へ変換するセンサを含む。装置は、その後、通信装置20を通じて、変換した信号をシステム10へ送信することができる。
図2は、本発明の一実施形態に係る、入力信号をハプティック信号へのオフラインハプティック変換を行い、ハプティック信号をエンコードするシステムを示す。一実施形態では、図2の機能は、図3、4、5及び12と共に以下に説明され、メモリ又は他のコンピュータ可読又は有形媒体に記憶されるソフトウェアにより実装され、プロセッサにより実行される。別の実施形態では、各機能は、(例えば、特定用途向け集積回路(“ASIC”)、プログラマブルゲートアレイ(“PGA”)、フィールドプログラマブルゲートアレイ(“FPGA”)等を通じて)ハードウェアにより実行されてもよく、又はハードウェアとソフトウェアとの組み合わせで実行されてもよい。また、特定の実施形態では、いくつかの機能は、省略されてもよい。
図2の示されるシステムは、メディア編集アプリケーション200を含む。メディア編集アプリケーション200は、オーディオデータを含むオーディオ信号、ビデオデータを含むビデオ信号、又はオーディオ信号及びビデオ信号の両方を含むマルチメディア信号のような入力信号を編集する機能を行うように構成されるアプリケーションである。入力信号を編集する機能を実行する際に、メディア編集アプリケーション200は、ユーザインターフェースをユーザへ表示することができ、ここで、ユーザインターフェースは、入力信号の仮想的な表示を含み、ユーザは、ユーザインターフェースとやりとりすることにより、入力信号の一又はそれ以上の部分又は入力信号の全体を変更することができる。図示された実施形態では、入力信号は、ビデオ信号及び2つのオーディオ信号を含むマルチメディア信号である。しかし、これは、実施形態の一例であり、別の実施形態では、マルチメディア信号は、任意の数のオーディオ信号を含むことができ、任意の数のビデオ信号を含むことができる。別の実施形態では、入力信号は、オーディオ信号、ビデオ信号、加速度信号、方向信号、環境光信号、又はセンサによりキャプチャされたデータを含むことができる別のタイプの信号のような別のタイプの入力信号でありうる。さらに、入力信号がマルチメディア信号である別の実施形態では、マルチメディア信号は、オーディオ信号及びビデオ信号に加えて、加速度信号、方向信号、環境光信号、又はセンサによりキャプチャされたデータを含むことができる別のタイプの信号のような別のタイプの入力信号を含むことができる。
メディア編集アプリケーション200は、マルチメディアファイル210からエンコードされたマルチメディア信号を抽出し、エンコードされたマルチメディア信号をデコードすることにより、マルチメディア信号を受信することができる。マルチメディアファイル210は、エンコードマルチメディア信号又は他のタイプのエンコードされた信号のようなデータを記憶するコンピュータファイルである。一例の実施形態では、マルチメディアファイル210は、MPEG−4パート14(“MP4”)ファイルとなりうる。MP4ファイルについての詳細は、MPEG4 Part−1 Standard (ISO/IEC 14496−1 Systems), the MPEG4 Part−3 Standard (ISO/IEC 14496−3 Audio), and the MPEG4 Part−12 Standard (ISO/IEC 14496−12 Media File Format)から理解することができ、その内容が参照により本明細書に援用される。
1では、ユーザは、マルチメディア信号内に含まれるオーディオ信号の一又はそれ以上の部分を選択する(“オーディオ領域”として図2に識別される)。システムは、オーディオ信号の一又はそれ以上の部分を含むリストである編集リスト220を生成する。別の実施形態では、オーディオ信号の一又はそれ以上の部分を選択するのではなく、ユーザは、オーディオ信号全体を選択することができる。また、別の実施形態では、ユーザは、ビデオ信号のようなマルチメディア信号内に含まれる別のタイプの信号を選択することができる。
2では、ユーザは、システムに、オーディオ信号の一又はそれ以上の部分を一又はそれ以上のハプティック信号へ変換するように命令する(‘make haptics’機能を開始するとして図2に識別される)。ハプティック信号は、一又はそれ以上のハプティック効果と関連付けられうる信号であり、ハプティック信号は、アクチュエータのようなハプティック出力装置へ送信され、ここで、ハプティック出力装置は、ハプティック信号に基づいて一又はそれ以上ハプティック効果を出力することができる。ハプティック効果の一例は、ハプティック出力装置のユーザにより感じられる振動を生成しうる振動触覚ハプティック効果である。ハプティック効果の他の例は、静電摩擦ハプティック効果又は変形ハプティック効果を含みうる。ハプティック信号は、波形のようなデータを含むことができ、ここで、波形は、パルス符号変調(pulse−coded modulation (“PCM”))フォーマットでの一又はそれ以上の信号値のセットである。実施形態によれば、システムは、ハプティックオーケストレータモジュール230を呼び出し、ここで、ハプティックオーケストレータモジュール230は、オーディオ信号の一又はそれ以上の部分を一又はそれ以上のハプティック信号へ変換すること、及び一又はそれ以上のハプティック信号のエンコードを制御するモジュールである。ユーザがオーディオ信号全体を選択する別の実施形態では、ユーザは、システムに、オーディオ信号全体を一又はそれ以上のハプティック信号へ変換するように命令し、ハプティックオーケストレータモジュール230は、オーディオ信号全体の一又はそれ以上のハプティック信号への変換を制御することができる。
3では、ハプティックオーケストレータモジュール230は、編集リスト220から第1のアイテム(つまり、オーディオ信号の第1の部分)を選択し、オフラインハプティック変換モジュール240を呼び出す。オフラインハプティック変換モジュール240は、オーディオ信号又はオーディオ信号の一部分のような入力を一又はそれ以上のハプティック信号へ変換するモジュールである。オフラインハプティック変換モジュール240は、(1)PCMオーディオデータのようなデータを含む任意のサイズのデータバッファ、(2)データバッファの多数のチャネル、(3)データバッファのサンプルごとのビット、及び(4)データバッファのサンプルレートを入力として取得することができる。オフラインハプティック変換モジュール240は、さらに、ハプティック出力装置による一又はそれ以上のハプティック効果の生成を制御するハプティックデータを含むハプティック信号を含むデータバッファを出力として生成することができる。一実施形態では、ハプティック信号は、“ハプティックフレームレート”で変化する大きさ値のシーケンスを含む単一のチャネルでありうる。ハプティックフレームレートは、ハプティックデータが、オフラインハプティック変換モジュール240により出力されるレートを定義する。ハプティックフレームレートは、オーディオ信号、ビデオ信号、又はマルチメディア信号のような入力信号のオーディオフレームレート又はビデオフレームレートを一致させる1つのレートに設定されうる。それに代えて、ハプティックフレームレートは、ハプティックサンプルごとの複数のオーディオ(又は)ビデオサンプルとして定義されうる。一実施形態では、オフラインハプティック変換モジュール240は、ユーザがハプティックフレームレートを設定可能にする(例えば、毎秒15フレームから毎秒60フレームへ)コンフィグレーションインターフェースを含みうる。さらに、一実施形態では、オフラインハプティック変換モジュール240は、ハプティック変換処理の開始前に、ユーザが、既存のハプティックパラメータ(例えば、強度、密度又は鋭さ)を変更可能な方法も公開することができる。
オフラインハプティック変換モジュール240は、入力を一又はそれ以上のハプティック信号へ変換するための関連する技術の当業者に知られている任意のハプティック変換アルゴリズムを使用することができる。例えば、オフラインハプティック変換モジュール240は、入力の各部分の最大大きさ値を識別し、ハプティック信号の大きさを定義する識別された最大大きさ値に基づいて入力の各部分のハプティック信号を生成するハプティック変換アルゴリズムを使用することができる。各ハプティック変換アルゴリズムは、以下、米国特許第7,979,146; 米国特許第8,000,825; 米国特許第8,378,964; 米国特許公開第2011/0202155; 米国特許公開第2011/0215913; 米国特許公開第2012/0206246; 米国特許公開第2012/0206247; 米国特許公開第2013/0265286; 米国特許公開第2013/0131851; 米国特許公開第2013/0207917; 米国特許公開第2013/0335209; 米国特許公開第2014/0064516; 米国特許出願第13/661,140; 米国特許出願第13/785,166; 米国特許出願第13/788,487; 米国特許出願第14/078,438; 米国特許出願第14/078,442; 米国特許出願第14/078,445; 米国特許出願第14/051,933; 米国特許出願第14/020,461;及び米国特許出願第14/020,502の特許及び特許出願に説明される。
一実施形態では、エンコードされた一又はそれ以上の部分又は他のタイプの信号は、マルチメディアファイル210から抽出され、エンコードされ、オフラインハプティック変換モジュール240の一又はそれ以上の呼び出しによりオフラインハプティック変換モジュール240へ送信されることができ、ここで、オフラインハプティック変換モジュール240は、オーディオ信号の各部分を一又はそれ以上のハプティック信号へ変換し、一又はそれ以上のハプティック信号を出力することができる。これは、“ステップワイズ変換(step−wise conversion)”として識別され、図2に図示される。別の実施形態では、オーディオ信号全体又は他のタイプの信号は、マルチメディアファイル210から抽出され、デコードされ、オフラインハプティック変換モジュール240の一つの呼び出しによりオフラインハプティック変換モジュール240へ送信されることができ、ここで、オフラインハプティック変換モジュール240は、オーディオ信号全体を一又はそれ以上のハプティック信号へ変換し、一又はそれ以上のハプティック信号を出力することができる。これは、“全体変換(whole conversion)”として識別される。
実施形態によれば、オフラインハプティック変換モジュール240は、入力信号全体の一又はそれ以上のハプティック信号へのハプティック変換を“オフライン”で行うことができる。ハプティック変換“オフライン”を行う際に、オフラインハプティック変換モジュール240は、メディア編集アプリケーション200による入力信号の再生前にハプティック変換を行うことができる。
4では、ハプティックオーケストレータモジュール230は、ハプティックエンコーダモジュール250を呼び出す。ハプティックエンコーダモジュール250は、一又はそれ以上のハプティック信号をエンコードしたフォーマットへエンコードし、マルチメディアファイル210内にエンコードした一又はそれ以上のハプティック信号を記憶するモジュールである。マルチメディアファイル210内にエンコードした一又はそれ以上のハプティック信号を記憶する際に、ハプティックエンコーダモジュール250は、マルチメディアファイル210内に一又はそれ以上のハプティック信号の各ハプティック信号を定義及び配置することができる。よって、一又はそれ以上のハプティック信号は、マルチメディアファイル210内に埋め込まれることができ、ここで、一又はそれ以上のハプティック信号は、元の(オリジナルの)マルチメディアファイルと合成される。別の実施形態では、ハプティックエンコーダモジュール250は、マルチメディアファイル210とは別のマルチメディアファイル内にエンコードした一又はそれ以上のハプティック信号を記憶することができる。また、さらに別の実施形態では、ハプティックエンコーダモジュール250は、マルチメディアファイル210又は別のマルチメディアファイル内に一又はそれ以上の予め定義されたハプティック効果に基づいて一又はそれ以上のエンコードしたハプティック信号をさらに記憶することができる。ハプティック信号のエンコード及びマルチメディアファイル内のエンコードしたハプティック信号の記憶は、以下に、図6−11と共にさらに詳細に説明される。さらに、システムは、編集リスト220から各アイテム(つまり、オーディオ信号の各部分)について3及び4を繰り返す。
5では、メディア編集アプリケーション200は、一又はそれ以上のハプティック信号の表示を含むために、マルチメディア信号の仮想表示を更新する。
図3は、本発明の一実施形態に係る、ハプティック信号のデコード及びハプティック信号に基づく一又はそれ以上のハプティック効果の再生を行うシステムを示す。図3に図示されるシステムは、マルチメディア編集アプリケーション200及び/又はメディアプレーヤーアプリケーション300を含む。メディア編集アプリケーション200は、図2と共に上述されている。メディアプレーヤーアプリケーション300は、オーディオデータを含むオーディオ信号、ビデオデータを含むビデオ信号、又はオーディオ信号及びビデオ信号の両方を含むマルチメディア信号のような入力信号をプレイする機能を実行するように構成されるアプリケーションである。
1では、ユーザは、システムに、オーディオデータを含むオーディオ信号、ビデオデータを含むビデオ信号、又はオーディオ信号及びビデオ信号の両方を含むマルチメディア信号のような入力信号をプレイさせるように命令し、エンコードされ、入力信号はマルチメディアファイル210内に記憶される。図示された実施形態では、マルチメディアファイル210内のエンコードされた入力信号は、エンコードされたマルチメディアファイルである。マルチメディアファイル210は、図2と共に上述されている。実施形態によれば、マルチメディアファイル210は、マルチメディアファイル210内のエンコードされたマルチメディア信号と合成される一又はそれ以上のエンコードされたハプティック信号をさらに含む。一実施形態では、ユーザは、メディア編集アプリケーション200のユーザインターフェースとのやりとりにより、システムにマルチメディア信号をプレイするように命令することができる。別の実施形態では、ユーザは、メディアプレーヤーアプリケーション300のユーザインターフェースとのやりとりにより、システムにマルチメディア信号をプレイするように命令することができる。
2では、メディア編集アプリケーション200又はメディアプレーヤーアプリケーション300は、マルチメディア信号をプレイする。実施形態によれば、メディア編集アプリケーション200又はメディアプレーヤーアプリケーション300は、マルチメディアファイル210からエンコードされたマルチメディア信号を読み出し、エンコードされたマルチメディア信号をデコードし、デコードされたマルチメディア信号をプレイする。
3では、オペレーティングシステム機能を提供するように構成されるモジュールであるオペレーティングシステムモジュール310は、ハプティックデコーダモジュール320を呼び出す。ハプティックデコーダモジュール320は、マルチメディアファイル210から一又はそれ以上のエンコードされたハプティック信号を抽出し、一又はそれ以上のエンコードされたハプティック信号をデコードするように構成されるモジュールである。エンコードされたハプティック信号をデコードする機能は、図6−11と共に以下にさらに詳細に説明される。
4では、ハプティックデコーダモジュール320は、ハプティック出力330を生成する。ハプティックデコーダモジュール320は、一又はそれ以上のハプティック信号を、アクチュエータのような一又はそれ以上のハプティック出力装置へ送信することによりハプティック出力を生成することができ、ここで、一又はそれ以上のハプティック信号は、一又はそれ以上のハプティック出力装置に、一又はそれ以上のハプティック効果を生成させる。ハプティック出力330は、振動触覚効果340及び350のような振動触覚効果を含みうる。
ハプティックデコーダモジュール320は、さらに、ハプティック出力の再生を、オーディオ効果360及びビデオ効果370のようなオーディオ出力及び/又はビデオ出力の再生と同期する。よって、ハプティックデコーダモジュール320は、一又はそれ以上のハプティック信号を一又はそれ以上のハプティック出力装置へ送信することを、一又はそれ以上のオーディオ信号をスピーカのようなオーディオ出力装置へ送信すること、及び/又は一又はそれ以上のビデオ信号をディスプレイのようなビデオ出力装置へ送信すること同期することができる。この同期を容易にするために、ハプティックデコーダモジュール320は、一又はそれ以上ハプティック信号のハプティックデータを、一又はそれ以上のオーディオ信号のオーディオデータ及び/又は一又はそれ以上のハプティック信号のビデオデータと同期することができる。より具体的には、ハプティックデコーダモジュール320は、ハプティックフレームレートと等しいレートでハプティック信号をハプティック出力装置へ送信するように構成されるモジュールを繰り返し呼び出すことができ、ここで、ハプティックフレームレートは、オーディオ信号をオーディオ出力装置へ送信するために用いられるオーディオフレームレート及び/又はビデオ信号をビデオ出力装置へ送信するために用いられるビデオフレームレートと同一のレートとなるように定義される。よって、ハプティックフレームレートが、オーディオフレームレート及び/又はビデオフレームレートと同一であるため、オーディオ効果及び/又はビデオ効果は、ハプティック効果が出力される時の時間と同一又は実質的に同一(例えば、1秒以内)の時間に出力されることができる。
図4は、本発明の一実施形態に係る、入力信号のハプティック信号へのオフラインハプティック変換及びハプティック信号のエンコードのフロー図を示す。実施形態によれば、入力信号は、オーディオ信号及びビデオ信号を含むマルチメディア信号405である。しかし、別の実施形態では、入力信号は、オーディオ信号、ビデオ信号、加速度信号、方向信号、環境光信号、又はセンサによりキャプチャされたデータを含みうる別のタイプの信号のような別のタイプの入力信号でありうる。さらに、入力信号がマルチメディアファイルである別の実施形態では、マルチメディア信号は、任意の数のオーディオ信号を含むことができ、任意の数のビデオ信号を含むことができ、及び/又はオーディオ信号及びビデオ効果に加えて、加速度信号、方向信号、環境光信号、又はセンサによりキャプチャされたデータを含みうる別のタイプの信号のような別のタイプの入力信号を含むことができる。実施形態によれば、マルチメディア信号405は、エンコードされたマルチメディア信号であることができ、マルチメディアファイルのようなソース内に記憶されることができる。
410では、マルチメディア信号405のオーディオ信号は、抽出され、オーディオ信号415にデコードされる。オーディオ信号415は、その後、入力としてオフラインハプティック変換モジュール420へ送信される。オフラインハプティック変換モジュール420は、オーディオ信号415をハプティック信号425へ変換する。ハプティック信号425は、ハプティックデータを含む信号であり、ここで、ハプティックデータは、PCMストリーム又は振幅値のシーケンスを含む。実施形態によれば、オフラインハプティック変換モジュール420は、オーディオ信号415をハプティック信号425へ変換するために関連する技術の当業者に知られている任意のハプティック変換アルゴリズムを使用することができる。さらに、実施形態では、オフラインハプティック変換モジュール420は、ハプティック変換を“オフライン”で実行することができ、ここで、オフラインハプティック変換モジュール420は、オーディオ信号の再生前にハプティック変換を実行することができる。
430では、ハプティック信号425は、デコードされたハプティック信号435へデコードされる。さらに、440では、デコードされたハプティック信号435及びマルチメディア信号405は、マルチメディア信号445へ多重化(つまり、合成)され、ここで、マルチメディア信号445は、オーディオ信号、ビデオ信号、及びハプティック信号(つまり、エンコードされたハプティック信号435)を含む。ハプティック信号425へのデコードされたハプティック信号435のデコード、及びデコードされたハプティック信号435及びマルチメディア信号405の多重化は、図6−11と共に以下にさらに詳細に説明される。
図5は、本発明の一実施形態に係る、ハプティック信号をデコードし、ハプティック信号に基づいて一又はそれ以上のハプティック効果を再生するフロー図を示す。510では、マルチメディア信号445は、オーディオ信号511、ビデオ信号512及びハプティック信号513に逆多重化(つまり、区分け)される。マルチメディア信号445は、図4と共に上述されており、再度説明されない。
520では、オーディオ信号511、ビデオ信号512及びハプティック信号513は、それぞれデコードされる。さらに、オーディオ信号511及びビデオ信号512及びハプティック信号513がデコードされた後、それらは、オーディオ/ビデオレンダラー530を送信され、ここで、オーディオ/ビデオレンダラー530は、一又はそれ以上のオーディオ出力装置での一又はそれ以上のオーディオ効果の出力及び一又はそれ以上ビデオ出力装置での一又はそれ以上のビデオ効果の出力を制御する。実施形態によれば、一又はそれ以上のオーディオ効果は、オーディオ信号511に基づいて出力され、一又はそれ以上のビデオ効果は、ビデオ信号512に基づいて出力される。特定の実施形態では、各オーディオ出力装置は、スピーカであり、各ビデオ出力装置は、ディスプレイである。さらに、ハプティック信号513は、デコードされたハプティック信号525へデコードされる。実施形態によれば、デコードされたハプティック信号525は、デコードされたハプティックデータを含む信号であり、ここで、デコードされたハプティックデータは、PCMストリーム又は振幅値のシーケンスを含む。ハプティック信号513が、デコードされたハプティック信号525へデコードされた後に、デコードされたハプティック信号525は、振動レンダラー570へ送信され、ここで、ハプティック信号525の振動レンダラー570への送信は、以下に詳細に説明される。実施形態によれば、振動レンダラー570は、ハプティック出力装置での一又はそれ以上のハプティック効果の出力を制御し、ここで、一又はそれ以上のハプティック効果の出力もまた、以下に詳細に説明される。さらに、オーディオ信号511及びビデオ信号512をオーディオ/ビデオレンダラー530へ送信すること、及びデコードされたハプティック信号520を振動レンダラー570へ送信することは、一又はそれ以上のオーディオ効果及び一又はそれ以上のビデオ効果が、一又はそれ以上のハプティック効果が出力される時の時間と同一又は実質的に同一である時間に出力されるように、同期されることができる。
540では、一又はそれ以上のハプティック出力装置は選択される。550では、デコードされたハプティック信号525の振幅ハプティックパラメータは変調され、これは、選択されたハプティック出力装置のためのデコードされたハプティック信号525を構成する。560では、強度ハプティックパラメータ、密度ハプティックパラメータ、又はシャープネスハプティックパラメータのような他のハプティックパラメータは、デコードされたハプティック信号525が、選択されたハプティック出力装置のために構成されるように変調される。特定の実施形態では、540、550及び560で実行される機能は省略されることができる。さらに、デコードされたハプティック信号525が変調された後に、デコードされたハプティック信号525は、振動レンダラー570へ送信され、ここで、振動レンダラー570は、アクチュエータ580での一又はそれ以上のハプティック効果の出力を制御し、アクチュエータは、ハプティック出力装置の一例である。実施形態によれば、一又はそれ以上のハプティック効果は、デコードされたハプティック信号525に基づいて出力される。
ここで、ハプティック信号のエンコード及びMP4ファイルのようなマルチメディアファイル内のエンコードされたハプティック信号の記憶は、例示的な実施形態に基づいて、より詳細に説明される。ハプティック信号のエンコード及びマルチメディアファイル内のエンコードされたハプティック信号の記憶の例示的な実装が説明されるが、関連する技術の当業者は、別の実施形態では、ハプティック信号のエンコード及びマルチメディアファイル内のエンコードされたハプティック信号の記憶が異なって実装されうることを明示的に理解する。前述したように、マルチメディアファイルは、エンコードされたマルチメディア信号を含むことができ、ここで、エンコードされたマルチメディア信号は、エンコードされたオーディオ信号及びエンコードされたビデオ信号のような任意の数のエンコードされた信号を含みうる。実施形態によれば、ハプティック信号は、エンコードされ、マルチメディアファイル内に記憶されることができ、ここで、エンコードされたハプティック信号は、マルチメディアファイル内に記憶される他のエンコードされたオーディオ信号及び/又はエンコードされたビデオ信号とインターリーブ又は合成される。
実施形態によれば、エンコードされたハプティック信号は、エンコードされた信号の両方が波形のようなデータを含む点でエンコードされたオーディオ信号(又は他のタイプのエンコードされた信号)と同様であり、ここで、波形は、PCMフォーマットの一又はそれ以上の信号値のセットである。よって、エンコードされたハプティック信号は、エンコードされたハプティック信号が、(例えば、エンコードされたオーディオ信号のような)他のタイプのエンコードされた信号と間違われないように、又はその逆にならないように、マルチメディアファイル内でフォーマットされることが重要である。さらに、マルチメディアファイルは、ボックスとして識別される一連のオブジェクトである。すべてのデータは、ボックスに記憶され、マルチメディアファル内に記憶される他のデータは存在しない。よって、マルチメディアファイル内のエンコードされた信号は、マルチメディアファイルのボックスに記憶される。よって、実施形態によれば、エンコードされたハプティック信号は、標準的な“moov”ボックス内の別の“trak”ボックス内に、オーディオ及びビデオのために存在する他のtrakボックスと共に記憶される。以下の表は、ハプティックボックス構造を示す。
実施形態によれば、別の“hapt”ボックスは、エンコードされたハプティック信号が、オーディオ又はビデオのような他のタイプのメディアとして表現されないことを確実にするために、エンコードされた信号がハプティック信号であることを示すことができる。また、エンコードされたハプティック信号が他のタイプのメディアとして表現されないことをさらに確実にするために、エンコードされたハプティック信号は、時限メタデータトラック(つまり、“meta”)として示さうる。これは、“hdlr”ボックスにおいて、handler_typeフィールドを“meta”の値に設定することにより行うことができる。時限メタデータトラックは、時間基準のメディアデータを記憶するように構成される。このタイプのトラックにエンコードされたハプティック信号を記憶することは、エンコードされたハプティック信号がメディアとして考慮されることを可能にするが、オーディオフォーマット又はビデオフォーマットのようなハプティックフォーマットではないフォーマットであるメディアフォーマットとしては考慮されない。よって、エンコードされたハプティック信号のための時限メタデータストリームを特定することは、エンコードされたハプティック信号のフォーマットが、エンコードされたオーディオ信号又はエンコードされたビデオ信号のような他のタイプのエンコードされた信号のフォーマットと同様であるにもかかわらず、再生中に、エンコードされたハプティック信号が、オーディオ又はビデオのような他のタイプのメディアとして表現されないことを確実にすることができる。
図6は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のオーディオコンポーネントのためのハンドラーボックス構造600を示す。実施形態によれば、エンコードされたマルチメディア信号は、エンコードされたオーディオ信号であるオーディオコンポーネントを含む。エンコードされたオーディオ信号は、マルチメディアファイル内のtrakボックス内に記憶される。さらに、trakボックスは、ハンドラーボックス構造600を有するhandler (又は“hdlr”)ボックスを含む。ハンドラーボックス構造600は、トラックがサウンドトラックである“soun”の値を有するhandlerTypeフィールド610を含む。
図7は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のビデオコンポーネントのためのハンドラーボックス構造を示す。実施形態によれば、エンコードされたマルチメディア信号は、エンコードされたビデオ信号であるビデオコンポーネントを含む。エンコードされたビデオ信号は、マルチメディアファイル内のtrakボックス内に記憶される。さらに、trakボックスは、ハンドラーボックス構造700を有するhdlrボックスを含む。ハンドラーボックス構造700は、トラックがビデオトラックである“vide”の値を有するhandlerTypeフィールド710を含む。
図8は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のハプティックコンポーネントのためのハンドラーボックス構造を示す。実施形態によれば、エンコードされたマルチメディア信号は、エンコードされたハプティック信号であるハプティックコンポーネントを含む。エンコードされたハプティック信号は、マルチメディアファイル内のtrakボックス内に記憶される。さらに、trakボックスは、ハンドラーボックス構造800を有するhdlrボックスを含む。ハンドラーボックス構造800は、トラックがハプティックトラックである“meta”の値を有するhandlerTypeフィールド810を含む。
図9は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のオーディオコンポーネント、ビデオコンポーネント及びハプティックコンポーネントのためのハンドラーボックス構造を示す。実施形態によれば、マルチメディア信号は、エンコードされたオーディオ信号であるオーディオコンポーネント、エンコードされたビデオ信号であるビデオコンポーネント、及びエンコードされたハプティック信号であるハプティックコンポーネントを含む。エンコードされたオーディオ信号は、マルチメディアファイル内のtrakボックス910内に記憶される。trakボックス910は、“minf”コンテナボックスの下の“smhd”ボックス911を含み、ここで、smhdボックス911は、トラックがオーディオトラックであることを示すサウンドメディアヘッダーボックスである。エンコードされたビデオ信号は、マルチメディアファイル内のtrakボックス920内に記憶される。trakボックス920は、minfコンテナボックスの下の“vmhd”ボックス921を含み、ここで、vmhdボックス921は、トラックがビデオトラックであることを示すビデオメディアヘッダーボックスである。エンコードされたハプティック信号は、マルチメディアファイル内のtrakボックス930内に記憶される。trakボックス930は、minfコンテナボックスの下の“nmhd”ボックス931を含み、ここで、nmhdボックス931は、トラックがハプティックトラックであることを示すヌルメディアヘッダーボックスである。より具体的には、nmhdボックス931は、トラックがオーディオトラック又はビデオトラックではないが、ハプティックトラックとして解釈されうることを示すことができる。
さらに、前述したように、上述した表に示されるハプティックボックス構造のようなハプティックボックス構造内には、サンプルテーブルボックス(つまり、“stbl”ボックス)が存在する。Stblボックス下では、サンプルディスクリプションボックス(つまり、“stsd”ボックス)が存在する。stsdボックス下では、トラックのフォーマットは特定されることができる。ハプティックトラックについては、前述したように、haptボックスが定義されることができ、ここで、haptボックスは、時限メタデータトラックが、エンコードされたハプティック信号を含むことを示す。特定の実施形態では、“meta” handler typeは、実装されるMetaDataSampleEntryクラスを必要とするが、MetaDataSampleEntryクラスは、新たなサブクラスによって拡張されうる空のクラスとして定義されうる。さらに、任意のハプティック特定データは、以下にさらに詳細に説明されるような“esds”ボックスとして記憶されうる。
また、トラック持続期間及びタイムスケールのような任意のタイミングデータは、“mdhd”ボックスに存在することができ、ここで、mdhdボックスは、ハプティックトラックの全体の持続期間及びタイムスケールを記述する。“タイムスケール(timescale)”は、1秒で通過する複数の時間単位を含む32ビットの符号なし整数である。例えば、ハプティックトラックが毎秒50サンプルの更新レートを有する場合、タイムスケールは、50に設定される。“持続期間(duration)”は、タイムスケールのスケールのハプティックトラックの長さを宣言する64ビットの符号なし整数である。例えば、タイムスケールが50の値に設定された場合、どのサンプルも20ミリ秒の長さを有する。ハプティックトラックが5秒の長さである場合、持続期間は、250(つまり、5*1000/20)の値を有するべきである。
さらに、前述したように、上述した方に示されたハプティックボックス構造のようなハプティックボックス構造内には、haptコンテナボックスの下にある子のボックスは、基本的なストリームディスクリプションボックス(つまり、“esds”ボックス)であり、ES_Descriptorとも呼ばれる。ハプティックに適用した時、このボックスは、ストリームが存在するtrakボックスと関連付けられたストリームをデコードするために必要な情報を含む。
実施形態によれば、ES_Descriptor boxは、DecoderConfigDescriptor構造を含み、これは、基本的なストリームを解析及び読み出すためのパラメータ及び前提条件を含む。DecoderConfigDescriptor内には、objectProfileIndication値及びDecoderSpecificInfo構造のためのフィールドが存在する。objectProfileIndication値は、ストリームのためのオブジェクトプロファイルタイプを提供する。フィールドは、0×C0から0×FEの間の値に設定されることができ、ユーザが提供するオブジェクトプロファイルタイプは、haptボックス構造内で用いられるとき、ハプティックタイプとして知られることができる。図10及び11と共に以下により詳細に説明されるように、実施形態によれば、オブジェクトプロファイルタイプとして0×C0から0×FEの間の値を用いて、haptボックスを含むtrakボックス構造だけが、有効なハプティックストリームとみなされる。DecoderSpecificInfo構造は、objectProfileIndication値に基づいて、他のクラスにより拡張されるアブストラクトクラスである。一実施形態では、この構造は、エンコードされたハプティック信号が生成される、信号タイプ及びハプティック出力装置(例えば、アクチュエータ)のようなハプティック特定データを含むHapticSpecificConfigクラスにより拡張されることができる。HapticSpecificConfigクラスは、以下にさらに詳細に説明される。
図10は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のハプティックコンポーネントのための有効なオブジェクトプロファイルタイプを示す。実施形態によれば、エンコードされたマルチメディア信号は、エンコードされたハプティック信号であるハプティックコンポーネントを含む。さらに、ハプティックボックス構造1000は、エンコードされたマルチメディア信号を記憶するマルチメディアファイルのために定義される。ハプティックボックス構造1000は、0xC0から0xFEの範囲内の値を有するobjectProfileIndicationフィールド1010を含む。objectProfileIndicationフィールド1010の値が有効な範囲内にあるため、エンコードされたハプティック信号を含むトラックは、有効なハプティックトラックと見なされる。
図11は、本発明の一実施形態に係る、エンコードされたマルチメディア信号のハプティックコンポーネントのための有効ではないオブジェクトプロファイルタイプを示す。実施形態によれば、エンコードされたマルチメディア信号は、エンコードされたハプティック信号であるハプティックコンポーネントを含む。さらに、ハプティックボックス構造1100は、エンコードされたマルチメディア信号を記憶するマルチメディアファイルのために定義される。ハプティックボックス構造1100は、0x40の値を有するobjectProfileIndicationフィールド1110を含む。objectProfileIndicationフィールド1110の値が有効な範囲内にないため、エンコードされたハプティック信号を含むトラックは、有効なハプティックトラックと見なされない。
メディアプレーヤーアプリケーション及びメディア編集アプリケーションは、一般的に、マルチメディアファイルの基本的なストリームディスクリプションボックスのコンフィグレーション情報を必要とし、ここで、コンフィグレーション情報は、デコード処理のために必要である。よって、DecoderConfigDescriptorは、DecoderSpecificInfoアブストラクトクラスのサブクラスを含みうる。本発明の実施形態によれば、ハプティックストリームについては、DecoderSpecificInfoアブストラクトクラスは、HapticSpecificConfigクラスにより拡張されることができる。HapticSpecificConfigは、objectTypeIndication値及びstreamType値が、それぞれ0xC0及び0x20であるときに、アブストラクトクラスDecoderSpecificInfoを拡張されることができ、これは、ストリームがハプティックデータを含むことを示す。HapticSpecificConfigクラスの例示的な構文は、以下の表に示される。
実施形態によれば、エンコードされたハプティック信号は、マルチメディアフィル内のエンコードされたオーディオ信号及び/又はエンコードされたビデオ信号とインターリーブ又は合成される。より具体的には、エンコードされたオーディオ信号を含むストリームは、サウンドタイプのものであるtrakオブジェクトと関連付けられうる。さらに、エンコードされたビデオ信号を含むストリームは、ビデオタイプのものであるtrakオブジェクトと関連付けられうる。また、エンコードされたハプティック信号を含むストリームは、時限メタデータタイプのものであるtrakオブジェクトと関連付けられうる。これらのストリームは、ボックス構造においてmoovボックスと同じレベルに存在する“mdat”ボックスにインターリーブ又は合成されうる。mdatボックスは、メディア編集アプリケーション又はメディアプレーヤーアプリケーションが構文解析し、デコードされ、表現する実際のデータを含む。インターリーブされたデータボックスからエンコードされたハプティック信号を抽出し、エンコードされたハプティック信号をデコードする際に、メディア編集アプリケーション又はメディアプレーヤーアプリケーションは、サンプルテーブル内のエンコードされたハプティック信号のチャンク又は部分へのオフセットを参照することができる。
図12は、本発明の一実施形態に係る、(図1のオフラインハプティック変換モジュール16のような)オフラインハプティック変換モジュールの機能のフロー図を示す。フローは開始し、1210へ進む。1210では、入力は、ソースから受信される。特定の実施形態では、入力は、オーディオ信号の少なくとも一部、ビデオ信号の少なくとも一部、又はオーディオ信号及びビデオ信号の両方を含むマルチメディア信号の少なくとも一部の1つであることができる。さらに、特定の実施形態では、ソースは、マルチメディアファイルである。ソースがマルチメディアファイルである実施形態では、入力信号は、マルチメディアファイルから抽出されることができ、入力信号は、デコードされることができる。その後、フローは1220へ進む。
1220では、入力は、一又はそれ以上のハプティック信号へ変換される。特定の実施形態では、入力信号は、ソースから抽出され、入力信号は、一又はそれ以上のハプティック信号へ変換される。別の実施形態では、入力信号の一又はそれ以上の部分は、ソースから抽出され、入力信号の一又はそれ以上の部分は、一又はそれ以上のハプティック信号へ変換される。さらに、特定の実施形態では、入力を一又はそれ以上のハプティック信号へ変換することは、入力の再生前に実行されうる。その後、フローは1230へ進む。
1230では、一又はそれ以上のハプティック信号は、エンコードされる。その後、フローは1230へ進む。
1240では、一又はそれ以上のハプティック信号は記憶される。特定の実施形態では、一又はそれ以上のハプティック信号は、ソース内に記憶されることができ、ここで、一又はそれ以上のハプティック信号は、ソースのコンテナ内の入力と合成される。別の実施形態では、一又はそれ以上のハプティック信号は、別のファイル又はストリームに記憶されることができる。その後、フローは1250へ進む。
1250では、一又はそれ以上のハプティック信号は抽出される。一又はそれ以上のハプティック信号がソース内に記憶される実施形態では、一又はそれ以上のハプティック信号は、ソース内に記憶される入力から抽出されることができる。一又はそれ以上のハプティック信号が別のファイル又はストリーム内に記憶される実施形態では、一又はそれ以上のハプティック信号は、別のファイル又はストリーム内に記憶される入力から抽出されることができる。その後、フローは1260へ進む。
1260では、一又はそれ以上のハプティック信号はデコードされる。その後、フローは1270へ進む。
1270では、一又はそれ以上のハプティック効果は、一又はそれ以上のハプティック信号に基づいて生成される。特定の実施形態では、一又はそれ以上のハプティック信号は、一又はそれ以上のハプティック効果を生成するためにハプティック出力装置へ送信されることができる。これらの実施形態のいくつかでは、ハプティック出力装置は、アクチュエータである。さらに、これらの実施形態のいくつかでは、一又はそれ以上のハプティック信号は、それぞれ、一又はそれ以上の大きさ値のシーケンスを含むことができ、ハプティックフレームレートは、毎秒ハプティック出力装置へ送信される一又はそれ以上の大きさ値のシーケンスの一部を定義するように構成されうる。その後、フローは1280へ進む。
1280では、一又はそれ以上のハプティック効果は、関連付けられたメディアから一又はそれ以上の効果と同期される。特定の実施形態では、関連付けられたメディアは、入力でありうる。これらの実施形態のいくつかでは、関連付けられたメディアからの一又はそれ以上の効果は、入力に基づいて又は入力により生成される一又はそれ以上の効果でありうる。その後、フローは終了する。
よって、一実施形態では、システムは、オーディオ信号のような入力信号をハプティック信号に“オフライン”で変換することができる。そして、ハプティック信号は、マルチメディアファイルに埋め込まれることができ、ここで、ハプティック信号は、マルチメディアファイル内に含まれるオーディオ信号及びビデオ信号と合成されることができる。そして、ハプティック信号を用いて生成されるハプティック効果は、オーディオ信号を用いて生成されるオーディオ効果及びビデオ信号を用いて生成されるビデオ効果と同期されることができる。オーディオ効果及びビデオ効果を有するハプティック効果の同期は、ユーザのマルチメディアファイルのための追加レイヤーのエンターテインメントを提供することができる。よって、システムは、マルチメディアファイル内に含まれるマルチメディア信号のためのハプティック効果を生成するために、ユーザに素早くかつ簡易な手法を提供することができる。システムは、ハプティック出力装置にハプティック効果を表現するための信頼性の高い手法を提供することもできる。
本明細書を通して記載された本発明の特徴、構造、又は特性は、1つ以上の実施形態において任意の適切な方法において組み合わされてよい。例えば、「一実施形態」、「一部の実施形態」、「特定の実施形態」、「特定の実施形態(複数)」、又は他の類似の言語の使用は、本明細書を通じて、実施形態に関連して記載された特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施形態に含まれ得るという事実に言及している。従って、「一実施形態」、「一部の実施形態」、「特定の実施形態」、「特定の実施形態(複数)」の言い回し、又は他の類似の言語の登場は、これら全てが、実施形態の同じ群のことを必ずしも言及しているのではなく、記載された特徴、構造、又は特性は、1つ以上の実施形態において任意の適切な方法において組み合わされてよい。
当業者は、上述した発明が、異なる順序におけるステップを用いて実施されてよく、及び/又は、記載された構成とは異なる構成における要素を用いて実施されてよいことを容易に理解する。それゆえ、本発明はこれらの好ましい実施形態に基づいて記載されているけれども、特定の修正、変更、及び代替の構成が明白であり、他方で本発明の趣旨及び範囲内にあることは、当業者にとって明白である。本発明の境界を決定するために、それゆえ、添付の特許請求の範囲に参照がなされるべきである。

Claims (20)

  1. プロセッサにより実行されたときに、前記プロセッサに、メディア信号をハプティック信号へ変換することを制御させる、記憶された命令を有する非一時的コンピュータ可読媒体であって、前記命令は、
    前記メディア信号を受信するステップと、
    前記メディア信号を前記ハプティック信号へ変換するステップであって、前記変換は、前記メディア信号の少なくとも一部を前記ハプティック信号へ変換する少なくとも1つのモジュールをハプティックオーケストレータモジュールによって呼び出すことを含む、ステップと、
    前記ハプティック信号をエンコードするステップであって、エンコードされた前記ハプティック信号は、時限メタデータトラックとして示される、ステップと、
    前記ハプティック信号を前記メディア信号と同期するステップと、
    ハプティック効果及び前記メディア信号を表現するステップと、
    を含む、非一時的コンピュータ可読媒体。
  2. 前記メディア信号を前記ハプティック信号へ変換するための命令は、前記メディア信号を出力装置で表現するための命令が呼び出される前に、呼び出される、請求項1に記載の非一時的コンピュータ可読媒体。
  3. 前記ハプティック効果を表現するステップは、前記ハプティック効果を生成するために、前記ハプティック信号をハプティック出力装置へ送信するステップをさらに含む、請求項1に記載の非一時的コンピュータ可読媒体。
  4. 前記ハプティック信号は、1以上の大きさ値のシーケンスを含む、請求項1に記載の非一時的コンピュータ可読媒体。
  5. 前記命令は、毎秒ハプティック出力装置へ送信される1以上の大きさ値のシーケンスの一部を定義するハプティックフレームレートを構成するステップをさらに備える、請求項4に記載の非一時的コンピュータ可読媒体。
  6. 前記メディア信号は、オーディオ信号、ビデオ信号、又はオーディオ信号及びビデオ信号の両方を含むマルチメディア信号のうちの1つである、請求項1に記載の非一時的コンピュータ可読媒体。
  7. エンコードされた前記ハプティック信号が、前記メディア信号と組み合わせられるようにエンコードされた前記ハプティック信号を記憶するステップを含む命令をさらに備える、請求項1に記載の非一時的コンピュータ可読媒体。
  8. 前記メディア信号とは別のファイル又ストリーム内のエンコードされた前記ハプティック信号を記憶するステップを含む命令をさらに備える、請求項1に記載の非一時的コンピュータ可読媒体。
  9. プロセッサと、
    前記プロセッサによって実行するための1以上のプログラムを記憶するメモリと、を備え、
    前記1以上のプログラムは、
    メディア信号を受信し、
    前記メディア信号をハプティック信号へ変換し、前記変換は、前記メディア信号の少なくとも一部を前記ハプティック信号へ変換する少なくとも1つのモジュールをハプティックオーケストレータモジュールによって呼び出し、
    前記ハプティック信号をエンコードし、エンコードされた前記ハプティック信号は、時限メタデータトラックとして示され、
    前記ハプティック信号を前記メディア信号と同期し、
    ハプティック効果及び前記メディア信号を表現する
    ための命令を含む、装置。
  10. 前記メディア信号を前記ハプティック信号へ変換するための命令は、前記メディア信号を出力装置で表現するための命令が呼び出される前に、呼び出される、請求項9に記載の装置。
  11. 前記ハプティック効果を表現することは、前記ハプティック効果を生成するために、前記ハプティック信号をハプティック出力装置へ送信することをさらに含む、請求項9に記載の装置。
  12. 前記ハプティック信号は、1以上の大きさ値のシーケンスを含む、請求項9に記載の装置。
  13. 前記命令は、毎秒ハプティック出力装置へ送信される1以上の大きさ値のシーケンスの一部を定義するハプティックフレームレートを構成することをさらに備える、請求項12に記載の装置。
  14. 前記メディア信号は、オーディオ信号、ビデオ信号、又はオーディオ信号及びビデオ信号の両方を含むマルチメディア信号のうちの1つである、請求項9に記載の装置。
  15. エンコードされた前記ハプティック信号が前記メディア信号と組み合わせられるようにエンコードされた前記ハプティック信号を記憶することを含む命令をさらに備える、請求項9に記載の装置。
  16. 前記メディア信号とは別のファイル又ストリーム内のエンコードされた前記ハプティック信号を記憶するステップを含む命令をさらに備える、請求項9に記載の装置。
  17. メディア信号をハプティック信号へ変換することを制御する方法であって、
    前記メディア信号を受信するステップと、
    前記メディア信号を前記ハプティック信号へ変換するステップであって、前記変換は、前記メディア信号の少なくとも一部を前記ハプティック信号へ変換する少なくとも1つのモジュールをハプティックオーケストレータモジュールによって呼び出すことを含む、ステップと、
    前記ハプティック信号をエンコードするステップであって、エンコードされた前記ハプティック信号は、時限メタデータトラックとして示される、ステップと、
    前記ハプティック信号を前記メディア信号と同期するステップと、
    ハプティック効果及び前記メディア信号を表現するステップと、
    を備える方法。
  18. 前記メディア信号を前記ハプティック信号へ変換するための命令は、前記メディア信号を出力装置で表現するための命令が呼び出される前に、呼び出される、請求項17に記載の方法。
  19. エンコードされた前記ハプティック信号が前記メディア信号と組み合わせられるようにエンコードされた前記ハプティック信号を記憶することを含む命令をさらに備える、請求項17に記載の方法。
  20. 前記メディア信号とは別のファイル又ストリーム内のエンコードされた前記ハプティック信号を記憶することを含む命令をさらに備える、請求項17に記載の方法。
JP2018187926A 2013-04-09 2018-10-03 オフラインハプティック変換システム Active JP6639602B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201361810196P 2013-04-09 2013-04-09
US61/810,196 2013-04-09
US201361827341P 2013-05-24 2013-05-24
US61/827,341 2013-05-24
US14/246,817 US9997032B2 (en) 2013-04-09 2014-04-07 Offline haptic conversion system
US14/246,817 2014-04-07

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014079664A Division JP6416490B2 (ja) 2013-04-09 2014-04-08 オフラインハプティック変換システム

Publications (2)

Publication Number Publication Date
JP2019022223A JP2019022223A (ja) 2019-02-07
JP6639602B2 true JP6639602B2 (ja) 2020-02-05

Family

ID=50513683

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014079664A Active JP6416490B2 (ja) 2013-04-09 2014-04-08 オフラインハプティック変換システム
JP2018187926A Active JP6639602B2 (ja) 2013-04-09 2018-10-03 オフラインハプティック変換システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014079664A Active JP6416490B2 (ja) 2013-04-09 2014-04-08 オフラインハプティック変換システム

Country Status (5)

Country Link
US (2) US9997032B2 (ja)
EP (2) EP3495941A1 (ja)
JP (2) JP6416490B2 (ja)
KR (1) KR20140122210A (ja)
CN (2) CN110531857A (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9519346B2 (en) * 2013-05-17 2016-12-13 Immersion Corporation Low-frequency effects haptic conversion system
US9514620B2 (en) 2013-09-06 2016-12-06 Immersion Corporation Spatialized haptic feedback based on dynamically scaled values
US10437341B2 (en) 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
KR102373337B1 (ko) 2014-09-02 2022-03-11 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
US10254838B2 (en) 2014-12-23 2019-04-09 Immersion Corporation Architecture and communication protocol for haptic output devices
EP3037918A1 (en) * 2014-12-23 2016-06-29 Thomson Licensing System and method for localizing haptic effects on a body
US10261582B2 (en) * 2015-04-28 2019-04-16 Immersion Corporation Haptic playback adjustment system
EP3112987A1 (en) * 2015-06-29 2017-01-04 Thomson Licensing Method and schemes for perceptually driven encoding of haptic effects
US9847000B2 (en) 2015-10-29 2017-12-19 Immersion Corporation Ambient triggered notifications for rendering haptic effects
US10152125B2 (en) * 2015-11-20 2018-12-11 Immersion Corporation Haptically enabled flexible devices
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK179489B1 (en) 2016-06-12 2019-01-04 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
EP3293611B1 (en) * 2016-09-06 2019-05-15 Apple Inc. Devices, methods, and graphical user interfaces for haptic mixing
EP3291054B8 (en) * 2016-09-06 2019-07-24 Apple Inc. Devices, methods, and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
US10104471B2 (en) * 2016-11-30 2018-10-16 Google Llc Tactile bass response
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US20190041987A1 (en) 2017-08-03 2019-02-07 Immersion Corporation Haptic effect encoding and rendering system
US10832537B2 (en) * 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
JP7439758B2 (ja) 2018-08-30 2024-02-28 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
CN109982426B (zh) * 2019-03-21 2021-04-13 中国科学院合肥物质科学研究院 一种无人驾驶车辆传感器数据离线同步方法
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
KR20200133127A (ko) * 2019-05-17 2020-11-26 한국전자기술연구원 실시간 몰입형 콘텐츠 제공 시스템 및 이의 햅틱 효과 전송 방법
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
GB2604215B (en) 2019-06-21 2024-01-31 Cirrus Logic Int Semiconductor Ltd A method and apparatus for configuring a plurality of virtual buttons on a device
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
WO2021117758A1 (ja) 2019-12-09 2021-06-17 住友ベークライト株式会社 熱硬化性樹脂組成物、樹脂シートおよび金属ベース基板
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5684722A (en) 1994-09-21 1997-11-04 Thorner; Craig Apparatus and method for generating a control signal for a tactile sensation generator
JPH11133850A (ja) * 1997-11-04 1999-05-21 Sony Corp 触覚による情報伝達装置
JP3072293B2 (ja) 1999-05-14 2000-07-31 松下電子工業株式会社 半導体装置およびその製造方法
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
US7765333B2 (en) * 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
CN104063056B (zh) * 2006-04-06 2018-04-20 意美森公司 用于增强的触觉效果的系统和方法
US8000825B2 (en) 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US7979146B2 (en) 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
KR100835297B1 (ko) * 2007-03-02 2008-06-05 광주과학기술원 촉감 정보 표현을 위한 노드 구조 및 이를 이용한 촉감정보 전송 방법과 시스템
US8621348B2 (en) 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
US9019087B2 (en) 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US8902050B2 (en) * 2009-10-29 2014-12-02 Immersion Corporation Systems and methods for haptic augmentation of voice-to-text conversion
US9448626B2 (en) 2011-02-11 2016-09-20 Immersion Corporation Sound to haptic effect conversion system using amplitude value
US8717152B2 (en) 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
US9083821B2 (en) 2011-06-03 2015-07-14 Apple Inc. Converting audio to haptic feedback in an electronic device
JP6541292B2 (ja) 2012-02-15 2019-07-10 イマージョン コーポレーションImmersion Corporation プリミティブを用いた高解像度ハプティック効果生成
US9715276B2 (en) 2012-04-04 2017-07-25 Immersion Corporation Sound to haptic effect conversion system using multiple actuators
US8860563B2 (en) 2012-06-14 2014-10-14 Immersion Corporation Haptic effect conversion system using granular synthesis
US9368005B2 (en) 2012-08-31 2016-06-14 Immersion Corporation Sound to haptic effect conversion system using mapping
US9092059B2 (en) 2012-10-26 2015-07-28 Immersion Corporation Stream-independent sound to haptic effect conversion system
US9128523B2 (en) 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US8754757B1 (en) 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US9898085B2 (en) 2013-09-06 2018-02-20 Immersion Corporation Haptic conversion system using segmenting and combining
US9443401B2 (en) 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US9245429B2 (en) 2013-09-06 2016-01-26 Immersion Corporation Haptic warping system
US9158379B2 (en) 2013-09-06 2015-10-13 Immersion Corporation Haptic warping system that transforms a haptic signal into a collection of vibrotactile haptic effect patterns
US10599218B2 (en) 2013-09-06 2020-03-24 Immersion Corporation Haptic conversion system using frequency shifting

Also Published As

Publication number Publication date
CN110531857A (zh) 2019-12-03
KR20140122210A (ko) 2014-10-17
JP2014204445A (ja) 2014-10-27
US9997032B2 (en) 2018-06-12
US20180268667A1 (en) 2018-09-20
US20140300454A1 (en) 2014-10-09
JP6416490B2 (ja) 2018-10-31
JP2019022223A (ja) 2019-02-07
EP3495941A1 (en) 2019-06-12
EP2790099A1 (en) 2014-10-15
US10529197B2 (en) 2020-01-07
CN104102341A (zh) 2014-10-15

Similar Documents

Publication Publication Date Title
JP6639602B2 (ja) オフラインハプティック変換システム
EP2846221B1 (en) Method, system and computer program product for transforming haptic signals
JP6615307B2 (ja) 動的ハプティック変換システム
EP2846330B1 (en) Haptic warping system that transforms a haptic signal into a collection of vibrotactile haptic effect patterns
US10613636B2 (en) Haptic playback adjustment system
US11482086B2 (en) Drive control device, drive control method, and program
JP2019067396A (ja) ハプティックピッチ制御
TW202403508A (zh) 編碼/解碼觸覺資料的方法及設備
CN117609523A (zh) 触觉媒体的数据处理方法、装置及计算机设备、存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181009

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191224

R150 Certificate of patent or registration of utility model

Ref document number: 6639602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250