JP2016015131A - フォーリー式触覚コンテンツ作成のためのシステム及び方法 - Google Patents

フォーリー式触覚コンテンツ作成のためのシステム及び方法 Download PDF

Info

Publication number
JP2016015131A
JP2016015131A JP2015119861A JP2015119861A JP2016015131A JP 2016015131 A JP2016015131 A JP 2016015131A JP 2015119861 A JP2015119861 A JP 2015119861A JP 2015119861 A JP2015119861 A JP 2015119861A JP 2016015131 A JP2016015131 A JP 2016015131A
Authority
JP
Japan
Prior art keywords
haptic
audio
track
haptic effect
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015119861A
Other languages
English (en)
Other versions
JP6542039B2 (ja
Inventor
ダグ ビリントン、
Billington Doug
ダグ ビリントン、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2016015131A publication Critical patent/JP2016015131A/ja
Application granted granted Critical
Publication of JP6542039B2 publication Critical patent/JP6542039B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • H04N7/0255Display systems therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)

Abstract

【課題】映像に触覚トラックを追加するための工程を簡略化する。【解決手段】音声入力を検出して、音声入力に関係付けられる音声信号を送信するように構成される音声入力装置122を有する。また、センサを有する触覚トリガ装置120を含み、センサはイベントに関係付けられるセンサ信号を送信するように構成される。更に、音声入力装置122及び触覚トリガ装置120と通信するプロセッサ102を有し、プロセッサ102は、音声信号を受信し、音声信号を受信することと実質的に同時にセンサ信号を受信し、記憶装置114の音声トラックに音声信号を記録し、センサ信号に部分的に基づいて触覚トラックに触覚効果マーカを挿入するように構成される。ここで、触覚トラック及び音声トラックは映像と関係付けられる。【選択図】図1

Description

本発明は、映像用の触覚コンテンツを作成することに関する。より詳細には、本発明は、映像用の触覚コンテンツのフォーリー式作成に関する。
技術の進歩と共に、映像製作(例えば、フィルム、映画、及び広告の製作)がますます重要になってきている。映像製作は映像を撮影することで開始する。それから映像は撮影後の編集段階に入る。撮影後の編集は、映像に触覚トラックを追加することを含む場合がある。触覚トラックは、映像内で発生するイベント(例えば、爆発)と触覚効果を関係付け得る。従って、映像を見るとき、観察者は関係付けられた触覚効果を知覚し得る。しかしながら、触覚トラックの生成は、時間がかかり且つ単調なものであり得る。よって、映像に触覚トラックを追加するための工程を簡略化する必要がある。
本開示の実施形態は、フォーリー式触覚コンテンツ作成用に構成されるコンピュータ装置を含む。一実施形態では、本開示のシステムは、音声入力を検出して、音声入力に関係付けられる音声信号を送信するように構成される音声入力装置を含んでもよい。また、システムはセンサを備える触覚トリガ装置を含んでもよく、センサはイベントに関係付けられるセンサ信号を送信するように構成される。システムは、音声入力装置及び触覚トリガ装置と通信するプロセッサを更に備えてもよく、プロセッサは、音声信号を受信し、音声信号を受信することと実質的に同時にセンサ信号を受信し、音声トラックに音声信号を記録し、センサ信号に部分的に基づいて触覚トラックに触覚効果マーカを挿入するように構成される。ここで、触覚トラック及び音声トラックは映像と関係付けられる。
別の実施形態では、本開示の方法は、音声入力装置から音声信号を受信するステップと、音声信号を受信することと実質的に同時に触覚トリガ装置からセンサ信号を受信するステップとを含んでもよい。方法は、音声トラックに音声信号を記録するステップと、センサ信号に部分的に基づいて触覚効果マーカを触覚トラックに挿入するステップとを更に含み、触覚トラック及び音声トラックは映像に関係付けられる。更に別の実施形態は、このような方法を実行するためのコンピュータ可読媒体を含む。
こうした例示の実施形態は、本主題の限界を限定又は定義するためではなく、その理解を支援するための例示を提供するために言及される。例示の実施形態は、詳細な説明において検討され、そこでは更なる説明が提供される。本明細書を吟味することによって、及び/又は請求項に記載の主題の1つ以上の実施形態を実施することによって、様々な実施形態によってもたらされる利点が更に理解され得る。
本明細書の以下の部分には完全且つ実施可能な開示がより詳細に説明される。本明細書は以下の添付の図面を参照する。
一実施形態によるフォーリー式触覚コンテンツ作成のためのシステムを示すブロック図である。 フォーリー式触覚コンテンツ作成のためのシステムの実施形態を示す。 フォーリー式触覚コンテンツ作成のためのシステムの別の実施形態を示す。 フォーリー式触覚コンテンツ作成のためのシステムの更に別の実施形態を示す。 一実施形態によるフォーリー式触覚コンテンツ作成のための方法を実行するステップのフローチャートである。
次に、多様な及び代替的な例示の実施形態及び添付の図面を詳細に参照する。各例示は、限定としてではなく、説明目的で提供される。修正及び変更が行われ得ることは、当業者には明らかであろう。例えば、一実施形態の一部として例示され又は記載された特徴は、更なる実施形態をもたらすために別の実施形態において使用されてもよい。従って、本開示は、添付の請求項及び均等物の範囲に入る修正及び変形を含むことが意図されている。
(フォーリー式触覚コンテンツ作成の例示)
本開示の1つの例示的な実施形態は、デスクトップコンピュータ等のコンピュータ装置を含む。コンピュータ装置は、ディスプレイ、メモリ、音声入力装置(例えば、マイクロホン)、及びこうした要素の各々と通信するプロセッサを備える。
コンピュータ装置は、映像用の触覚トラック及び音声トラックを実質的に同時に生成するように構成される。音声トラックを生成するために、コンピュータ装置は、フォーリー効果を記録するように構成される。フォーリー効果は、映像を撮影中に記録された音声を強化又は置換するために使用される音声効果である。フォーリー作者は、様々な小道具(例えば、布、ゼラチン、革、金属棒及び缶)又はデジタル効果を使用して音声効果を生成してもよい。フォーリー作者は映像を見て、映像のために必要な音声効果の全てを同時に手動で生成し、音声効果を映像コンテンツと同期させてもよい。例えば、フォーリー作者はコンピュータ装置のディスプレイで映像を見てもよく、人物が殴られる映像内のポイントで、フォーリー作者は電話帳を表面に打ち付けてもよい。コンピュータ装置は、映像に関係付けられる音声トラックに音声効果を(例えば、音声入力装置を介して)記録してもよい。フォーリー作者は、この工程を反復して、映像用に必要な音声効果の全てを生成及び記録してもよい。
触覚トラックを生成するために、コンピュータ装置は、触覚トリガ装置と通信する。例示の実施形態では、触覚トリガ装置はコンピュータ装置の外部にあって小道具(例えば、ココナツ)に結合され、フォーリー作者は音声効果(例えば、馬の疾走する音)を生成するためにこれを使用してもよい。
例示の実施形態では、触覚トリガ装置は、イベントの発生を検出するためのセンサ(例えば、圧電性センサ)を備える。本明細書で使用されるイベントは、関連する触覚効果を含む可能性がある触覚トリガ装置の動作の間に発生する任意の相互作用、アクション、衝突、又は他のイベントである。センサは、コンピュータ装置にセンサ信号を送信するように構成される。例えば、例示の実施形態では、フォーリー作者が音声効果を生成するために小道具を操作(例えば、移動、傾け又は接触)するとセンサはこの操作を検出して、操作に関係付けられるセンサ信号をコンピュータ装置に送信してもよい。例えば、フォーリー作者が音声効果を生成するためにココナツを別のココナツに打ち付けると、センサはココナツの衝突による振動を検出して、コンピュータ装置にセンサ信号を送信してもよい。
例示の実施形態では、センサ信号に応答して、コンピュータ装置は触覚効果マーカを生成して、触覚効果マーカを触覚トラックにデジタル的に挿入する。触覚効果マーカは、タイムスタンプデータ及び/又はフレームスタンプデータを含む。タイムスタンプデータ又はフレームスタンプデータは、イベントが検出されたときの映像内の時間又は(複数の)フレームにそれぞれ関係付けられてもよい。一部の実施形態では、触覚効果マーカは、タイムスタンプ及び/又はフレームスタンプデータに関係付けられる触覚効果データを更に含んでもよい。触覚効果データは、触覚トラックの再生に応じて関係付けられた触覚効果をコンピュータ装置に出力させるように構成される。従って、フォーリー作者は、映像用の触覚トラック及び音声トラックを実質的に同時に生成することができる。一部の実施形態では、このことは映像生成にかかる合計時間を減らし得る。
例示の実施形態では、触覚トラックは、映像ファイルに統合され又は別の触覚ファイル(例えば、.haptファイル)として保存されてもよい。ユーザは、(複数の)ファイルを再生して(例えば、ビデオプレイヤを介して)、映像と同期した触覚効果を体験することができてもよい。
上記の例示的な実施形態の記載は、単に例示として提供される。本発明の他の様々な実施形態が本明細書に記載されており、このような実施形態の変形は当業者によって理解されるであろう。本明細書を吟味することによって、及び/又は請求項に記載の主題の1つ以上の実施形態を実施することによって、様々な実施形態によってもたらされる利点が更に理解され得る。
(フォーリー式触覚コンテンツ作成のための例示のシステム)
図1は、一実施形態によるフォーリー式触覚コンテンツ作成のためのシステム100を示すブロック図である。図示の実施形態では、システム100は、バス106を介して他のハードウェアと通信するプロセッサ102を有するコンピュータ装置101を含む。コンピュータ装置101は、例えば、スマートフォン、タブレット、ラップトップコンピュータ、又はデスクトップコンピュータを含んでもよい。この例示では、コンピュータ装置101はラップトップコンピュータを含む。
RAM、ROM又はEEPROM等の任意の適切な有形の(及び一時的でない)コンピュータ可読媒体を含み得るメモリ104が、コンピュータ装置101の動作を構成するプログラム要素を具現化する。図示の実施形態では、コンピュータ装置101は、1つ以上のネットワークインターフェース装置110、入力/出力(I/O)インターフェース要素112、及び記憶装置114を更に含む。
ネットワーク装置110は、ネットワーク接続を容易にする1つ以上の任意の構成要素を表し得る。限定されないが、例示には、Ethernet(登録商標)、USB、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、Bluetooth(登録商標)等の無線インターフェース、又は携帯電話ネットワークにアクセスするための無線インターフェース(例えば、CDMA、GSM(登録商標)、UMTS又は他の移動通信ネットワーク)が含まれる。
I/O構成要素112は、1つ以上のディスプレイ132(コンピュータモニタ、LEDディスプレイ、ヘッドマウントディスプレイ、又は3Dゴーグル)、ゲームコントローラ、キーボード、マウス、ジョイスティック、カメラ、ボタン、スピーカ、マイクロホン、及び/又はデータの入力若しくは出力に使用される他のハードウェア等の装置への有線又は無線の接続を容易にするために使用されてもよい。記憶装置114は、装置101に含まれ又はプロセッサ102に結合される磁気、光学、又は他の記憶媒体等の不揮発性記憶装置を表す。
音声入力装置122は、音声効果に関係付けられる音声入力を受信するように構成される。音声入力は、アナログ信号(例えば、音声)又はデジタル信号(例えば、キーボード、ミキシングボード、CDプレイヤ、又はMP3プレイヤから)を含んでもよい。音声入力装置122は、音声入力に関係付けられる音声信号をプロセッサ102に送信する。一部の実施形態では、音声入力装置122は、マイクロホンを含んでもよい。マイクロホンは、例えば、コンデンサ、インダクタ、共振回路、真空管、トランジスタ、増幅器、金属リボン、炭素粒、圧電トランスデューサ、光ファイバ、レーザ、MEMS(MicroElectrical−Mechanical System)又は液体を含んでもよい。
更に、システム100は、触覚トリガ装置120を備える。触覚トリガ装置120は図1においてコンピュータ装置101の外部にあってこれと通信するように描かれているが、一部の実施形態では、触覚トリガ装置120はコンピュータ装置101の内部にあってもよい。この例示では、触覚トリガ装置120は、コンピュータ装置101と通信するためのネットワーク装置116を含む。ネットワーク装置116は、コンピュータ装置101のネットワーク装置110と実質的に同一に構成されてもよい。即ち、ネットワーク装置116は、Ethernet(登録商標)、USB、IEEE1394等の有線インターフェース、及び/又はIEEE1 802.11、Bluetooth(登録商標)、又はラジオインターフェース等の無線インターフェースを含んでもよい。一部の実施形態では、コンピュータ装置101は、単一の触覚トリガ装置120と通信してもよい。他の実施形態では、コンピュータ装置101は、複数の触覚トリガ装置120と通信してもよい。
触覚トリガ装置120は1つ以上のセンサ118を備える。センサ118は、プロセッサ102にセンサ信号を送信するように構成される。一部の実施形態では、センサ118は、例えば、ジャイロスコープ、加速度計、深さセンサ、カメラ、フォトトランジスタ、スイッチ、ボタン、マイクロホン、又は圧電トランスデューサを含んでもよい。一部のこのような実施形態では、触覚トリガ装置120は、複数のセンサ118を備えてもよい。例えば、一実施形態では、触覚トリガ装置120は、マイクロホン及び深さセンサを備えてもよい。他の実施形態では、触覚トリガ装置120は、触覚効果を決定して、コンピュータ装置120にそれを送信するための別個のプロセッサを備えてもよい。
メモリ104に関しては、プログラム構成要素124及び126が、フォーリー式触覚コンテンツ作成のために一部の実施形態では、装置がどのように構成され得るかを示すように描かれている。この例示では、検出モジュール124は、センサ118及び/又は音声入力装置122を監視するようにプロセッサ102を構成する。例えば、検出モジュール124は、センサ118をサンプリングして、センサ信号の存在、不存在又は振幅を決定し、センサ信号が存在する場合、経時的にセンサ信号の特徴(例えば、周波数、振幅、持続時間、又は波形)を記録してもよい。別の例示として、検出モジュール124は、音声入力装置122をサンプリングして、音声信号の存在、不存在又は振幅を決定し、音声信号が存在する場合、経時的に音声信号の特徴(例えば、周波数、振幅、持続時間、又は波形)を記録してもよい。
触覚効果決定モジュール126は、センサ信号及び/又は音声信号に応じて触覚効果を決定するためにデータを分析するプログラム構成要素を表す。特に、触覚効果決定モジュール126は、センサ118からの信号及び/又は音声入力装置122からの音声信号に基づいて、触覚効果を決定するコード、及び触覚効果マーカと関連付ける触覚効果と関係付けられる触覚効果データを選択するコードを含んでもよい。例えば、一部の実施形態では、触覚効果決定モジュール126は、振幅、周波数及び/又はセンサ信号若しくは音声信号の他の特徴に基づいて触覚効果を決定してもよい。例えば、触覚効果決定モジュール126は、センサ信号の振幅が大きい場合、強い振動を含む触覚効果を決定してもよい。
更に、一部の実施形態では、触覚効果決定モジュール126は、ユーザ入力に基づいて触覚効果を決定してもよい。例えば、触覚効果決定モジュール126は、ボタン押し下げに基づいて触覚効果を決定してもよい。別の例示として、触覚効果決定モジュール126は、ユーザの選択に基づいて、例えば、触覚効果ライブラリ又はリストから触覚効果を決定してもよい。別の実施形態では、触覚効果は、ユーザ入力と組み合わせて音声又は映像信号に少なくとも部分的に基づいて決定されてもよい。
図2は、フォーリー式触覚コンテンツ作成のためのシステムの実施形態を示す。この例示では、システム200はコンピュータ装置202を含む。コンピュータ装置202はディスプレイ208を含む。ユーザは、(例えば、フォーリー効果生成のために)ディスプレイ208を介して映像を観察してもよい。この例示では、ディスプレイ208は、ベースボールがガラス窓を突き破っている映像シーンを出力している。
コンピュータ装置202は、音声入力を受信するために音声入力装置210(例えば、マイクロホン)と通信する。音声入力装置210は、音声入力に関係付けられる音声信号をコンピュータ装置202に送信してもよい。この例示では、コンピュータ装置202は、映像撮影後の編集にユーザ(例えば、フォーリー作者)が使用し得る追加の音響設備204(例えば、ミキシングボード)及びコントロール206とも通信する。しかしながら、他の実施形態は、コントロール206及び/又は追加の音響設備204を含まなくてもよい。
システム200は、小道具214を更に含む。この例示では、小道具214はボーリング用のボールを含む。ユーザは小道具214を操作(例えば、移動、落下又は回転)して、音声効果を生成してもよい。例えば、ユーザは、小道具214を表面216(例えば、窓ガラス)に落として、音声効果(例えば、ガラスが割れる音)を作成してもよい。コンピュータ装置202は、(例えば、音声入力装置210を介して)音声効果に関係付けられるデータを受信して、音声トラックにデータを挿入してもよい。データは、ディスプレイ408に出力される映像の1つ以上のフレームと同期されてもよい。
図2に示される実施形態では、触覚トリガ装置212は、小道具214に結合される。更に、この例示では、触覚トリガ装置212は、コンピュータ装置202と無線通信する。触覚トリガ装置212は、センサ、例えば、加速度計又はジャイロスコープを含む。センサは、イベントの発生を検出して、コンピュータ装置202にセンサ信号を送信するように構成されてもよい。例えば、センサは、ユーザによる小道具214の操作を検出して、コンピュータ装置202にセンサ信号を送信してもよい。
コンピュータ装置202は、センサ信号を受信するように構成される。一部の実施形態では、センサ信号及び/又は音声信号の存在又は特徴に基づいて、コンピュータ装置202は、触覚トラックに触覚マーカを挿入するかどうかを決定してもよい。例えば、一部の実施形態では、コンピュータ装置202は、センサ信号及び/又は音声信号の持続時間が時間の閾値(例えば、0.5秒)を超える場合にのみ、触覚トラックに触覚マーカを挿入してもよい。他の実施形態では、コンピュータ装置202は、センサ信号の指向性の変化(例えば、小道具214が回転される場合)、又はセンサ信号の振幅の変化(例えば、小道具214が表面216に接触して動かなくなる場合)に基づいて触覚マーカを挿入してもよい。更に他の実施形態では、コンピュータ装置202は、センサ信号の周波数の変化に基づいて(例えば、小道具214が表面216に接触することに応じた小道具214の振動の特徴に基づいて)触覚マーカを挿入してもよい。触覚効果マーカは、イベントが発生した時間に映像内で再生している(複数の)フレームと同期されてもよい。
一部の実施形態では、触覚効果マーカは、触覚効果に関係付けられる触覚効果データを含んでもよい。触覚効果データは、コンピュータ装置202に関係付けられた触覚効果を出力させるように構成される。一部の実施形態では、触覚効果データは、触覚効果を生成するように構成される触覚信号の1つ以上の特徴(例えば、触覚信号の周波数、振幅、持続時間、又は波形)を含んでもよい。他の実施形態では、触覚効果データは、コマンド、触覚効果の名前、例えば、「強い振動」、又は触覚効果を出力するためにコンピュータ装置202により解釈され得る他のデータを含んでもよい。更に他の実施形態では、触覚効果データは、触覚効果を生成するためのアルゴリズム、又はアルゴリズムを解決するために使用可能なデータを含んでもよい。
上記のように、触覚効果データは触覚効果に関係付けられる。コンピュータ装置202は、触覚効果を決定してもよい。一部の実施形態では、コンピュータ装置202は、センサ信号の特徴に基づいて触覚効果を決定してもよい。例えば、図2に示される実施形態では、ユーザは、ガラスが割れる音を含む音声効果を生成するために窓ガラスの上にボーリング用のボールを落としてもよい。触覚トリガ装置212は、ボーリング用のボールの動き又は回転を検出して、コンピュータ装置202にセンサ信号を送信してもよい。例えば、センサ信号の波形、振幅、周波数又は持続時間に基づいて、コンピュータ装置202は、1つ以上の触覚効果(例えば、振動、表面変形、シミュレートされるテクスチャ、又は知覚される摩擦係数の変化)を決定してもよい。例えば、一部の実施形態では、コンピュータ装置202は、センサ信号の振幅に比例する振幅を有する振動を含む触覚効果を決定してもよい。コンピュータ装置は、決定された触覚効果に関係付けられるデータを触覚効果マーカに挿入してもよい。
一部の実施形態では、コンピュータ装置202は、ユーザ入力に基づいて触覚効果を決定してもよい。例えば、一部のこのような実施形態では、音声効果を生成するために小道具214を操作する前に、ユーザは、例えば、触覚効果のリスト又はライブラリから所望の触覚効果を選択してもよい。例えば、一実施形態では、ユーザは、強い振動、弱い振動、知覚される摩擦係数の増加、知覚される摩擦係数の減少、又はゴムの、円滑な若しくは凹凸のあるテスクチャを含むリストから触覚効果を選択してもよい。コンピュータ装置202がセンサ信号を検出すると、コンピュータ装置202は、選択された触覚効果を含む触覚効果を決定してもよい。コンピュータ装置は、決定された触覚効果を生成するための触覚効果データを触覚効果マーカに関係付けてもよい。
一部の実施形態では、触覚効果データは、触覚効果マーカが触覚トラックに挿入された後で(例えば、フォーリー工程が完了すると)、触覚効果マーカに関係付けられてもよい。一部の実施形態では、ユーザは、触覚効果データを触覚マーカと関係付けてもよい。他の実施形態では、コンピュータ装置202は、ユーザによる何らかのアクションに応じて、例えば、ユーザが触覚効果のリスト又はライブラリから所望の触覚効果を選択すると、触覚効果データを触覚マーカと関係付けてもよい。一部の実施形態では、ユーザは、所望の触覚効果の特徴(例えば、長い持続時間、短い持続時間、高い強度、又は低い強度)をカスタマイズして、触覚効果を生成するための触覚効果データを触覚効果マーカと関係付けることが可能であってもよい。
一部の実施形態では、ユーザは、例えば、インターネットから1つ以上の触覚効果に関係付けられるデータをダウンロードしてもよい。一部のこのような実施形態では、コンピュータ装置202及び/又はユーザは、ダウンロードされたデータを触覚効果マーカと関係付けてもよい。例えば、音声効果を生成するために小道具214を操作する前に、ユーザは、例えば、触覚効果のリストからダウンロードされた触覚効果を選択してもよい。ユーザが小道具214を操作すると、コンピュータ装置202は、ダウンロードされたデータに関係付けられる触覚効果データを含む触覚効果マーカを生成してもよい。次に、コンピュータ装置202は、触覚効果マーカを触覚トラックに挿入してもよい。
一部のこのような実施形態では、触覚トリガ装置212は、音声入力装置210を備えてもよい。即ち、システム200は、音声入力装置210と分離した触覚トリガ装置212を備えなくてもよい。むしろ、音声入力装置は、触覚トリガ装置212として機能してもよい。このような実施形態では、コンピュータ装置202は、上記の任意の方法を用いて、音声信号に基づいて触覚効果を決定してもよい。例えば、一部の実施形態では、コンピュータ装置202は、音声入力装置210から音声信号の特徴(例えば、振幅、周波数、持続時間、又は波形)に基づいて触覚効果を決定してもよい。例えば、ユーザが小道具214を表面216に落とすと、音声入力装置210は、衝突に関係付けられる音声信号をコンピュータ装置202に送信してもよい。コンピュータ装置202は、音声信号の波形に基づいて触覚効果を決定してもよい。更に、コンピュータ装置202は、決定された触覚効果に関係付けられるデータを触覚トラックに挿入してもよい。従って、一部の実施形態では、音声信号は、音声トラックに対して音声効果を記録すること及び触覚トラックに対して触覚効果マーカを生成することの両方のために使用されてもよい。
図3は、フォーリー式触覚コンテンツ作成のためのシステムの別の実施形態を示す。この例示では、システム300はコンピュータ装置302を含む。コンピュータ装置302はディスプレイ308を含む。図示の例示では、ディスプレイ308は、剣が振られている映像シーンを出力している。
システム300は、小道具314を更に含む。この例示では、小道具314はボート用のオールを含む。ユーザは小道具314を操作して、音声効果を生成してもよい。例えば、ユーザは、音声効果(例えば、剣を振るシュッという音)を作成するために小道具314を振ってもよい。コンピュータ装置302は、(例えば、音声入力装置310を介して)音声効果に関係付けられるデータを受信して、映像と同期され得る音声トラックにデータを挿入してもよい。
図3に示される実施形態では、触覚トリガ装置312は、小道具314から離れている。更に、この例示では、触覚トリガ装置312は、コンピュータ装置302と有線通信する。一部の実施形態では、触覚トリガ装置312は、カメラを含んでもよい。カメラは、イベントの発生(例えば、ユーザがカメラの前で小道具314を操作すること)を検出してもよい。他の実施形態では、触覚トリガ装置312は、フォトトランジスタを含んでもよい。フォトトランジスタは、イベントの発生(例えば、ユーザが赤外光ビームを通して小道具314を振ること)を検出してもよい。イベントが発生すると、センサは、コンピュータ装置302にセンサ信号を送信してもよい。
コンピュータ装置302は、センサ信号を受信するように構成される。一部の実施形態では、コンピュータ装置302は、映像に関係付けられる触覚トラックに触覚マーカを挿入してもよい。触覚効果マーカは、触覚効果に関係付けられる触覚効果データを含んでもよい。コンピュータ装置302は、図2に関して記載された1つ以上の方法に基づいて触覚効果を決定してもよい。
ユーザは、触覚トラックと映像との間で適切な同期を確保するため、(例えば、映像を見ている間)触覚トラックを再生することを望んでもよい。従って、一部の実施形態では、コンピュータ装置302は、触覚出力装置を含んでもよい。触覚出力装置は、コンピュータ装置302から離れているが、コンピュータ装置302に通信可能に結合されてもよい。例えば、触覚出力装置は、コンピュータ装置302の外部にあり、Ethernet(登録商標)、USB、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、Bluetooth(登録商標)、又はラジオインターフェース等の無線インターフェースを介してコンピュータ装置101と通信してもよい。一部の実施形態では、触覚出力装置は、コンピュータ装置302から離れている装着可能装置(例えば、指輪、ジャケット、袖、腕時計、リストバンド、ブレスレット、又は衣類)に結合されてもよい。
触覚出力装置は、触覚信号に応じて、(例えば、容量結合又は超音波アクチュエータを介して)例えば、振動、シミュレートされるテクスチャ、表面変形、又は知覚される摩擦係数の変化を含む触覚効果を出力するように構成される装置を含んでもよい。触覚信号は、触覚トラックからの触覚効果データに基づいて生成されてもよい。一部の実施形態では、触覚出力装置は、例えば、圧電アクチュエータ、電気モータ、電磁アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマ、ソレノイド、偏心回転質量モータ(ERM)又は線形共振アクチュエータ(LRA)の1つ以上を含んでもよい。一部の実施形態では、コンピュータ装置302は複数の触覚出力装置を含んでもよく、一部の触覚効果は、順番に及び/又は同時に複数のアクチュエータ及び/又は触覚出力装置を用いてもよい。他の技術又は方法が、上記の技術を超えて触覚効果を出力するために使用されてもよい。
図4は、フォーリー式触覚コンテンツ作成のためのシステムの更に別の実施形態を示す。この例示では、システム400はコンピュータ装置402を含む。コンピュータ装置402はディスプレイ408を含む。図示の例示では、ディスプレイ408は、(木に釘を打つために)ハンマーが木片に打ち付けられている映像シーンを出力している。
システム400は、小道具414(例えば、ベースボール用のバット)を更に含む。ユーザは小道具414を操作して、音声効果を生成してもよい。例えば、ユーザは、小道具414を別の表面416(例えば、テーブル、床又は壁)に叩きつけて、音声効果(例えば、ハンマーが木を打つ音)を作成してもよい。コンピュータ装置402は、(例えば、音声入力装置410を介して)音声効果に関係付けられるデータを受信して、一部の実施形態では、映像ファイルに直接データを挿入してもよい。
図4に示される実施形態では、触覚トリガ装置412は、小道具414から離れている。更に、この例示では、触覚トリガ装置412は、コンピュータ装置402と無線通信する。一部の実施形態では、触覚トリガ装置412は、圧力、歪み、又は力センサを含んでもよい。圧力、歪み、又は力センサは、例えば、ユーザが表面416に小道具414をぶつけた場合に、イベントの発生を検出してもよい。一部の実施形態では、触覚トリガ装置412は、スイッチ又はボタンを含んでもよい。一部のこのような実施形態では、イベントの発生に応じて、スイッチが開けられ又は閉じられてもよく、又はボタンが押されてもよい。例えば、ユーザが小道具414で触覚トリガ装置412を叩くと、スイッチが閉じられてもよく又はボタンが押されてもよい。イベントの発生に応じて、センサは、コンピュータ装置402にセンサ信号を送信してもよい。
一部の実施形態では、システム400は、複数の触覚トリガ装置412を含んでもよい。例えば、一実施形態では、システム400は、小道具414に結合される第1の触覚トリガ装置412、表面416に結合される第2の触覚トリガ装置412、及び第3の触覚トリガ装置412(例えば、音声入力装置410)を備える。一部の実施形態では、コンピュータ装置402は、1つ以上の触覚トリガ装置412からのセンサ信号に部分的に基づいて、1つ以上の触覚効果を検出し及び/又は1つ以上の触覚効果を触覚トラックに挿入してもよい。例えば、上記の実施形態では、コンピュータ装置402は、第1の触覚トリガ装置412からのデータ(例えば、加速度計データ)、第2の触覚トリガ装置412からのデータ(例えば、圧力データ)、及び/又は第3の触覚トリガ装置412からのデータ(例えば、音声入力データ)に基づいて触覚効果を決定してもよい。任意の数の又は構成の触覚トリガ装置412が可能であってもよい。更に、任意の数の触覚効果マーカが、任意の数の触覚トリガ装置412からの任意の数のセンサ信号に基づいて生成されてもよい。
(フォーリー式触覚コンテンツ作成のための例示の方法)
図5は、フォーリー式触覚コンテンツ作成のための方法を実行するステップのフローチャートである。一部の実施形態では、図5のステップは、例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行されるプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図5に示される1つ以上のステップは省略され又は異なる順番で行われてもよい。同様に、一部の実施形態では、図5に示されない追加のステップが実行されてもよい。以下のステップは図1に示されたシステムに関して記載された構成要素を参照して記載される。
方法500はステップ502で開始して、プロセッサ102は音声入力装置122から音声信号を受信する。一部の実施形態では、音声入力装置122は、マイクロホンを含んでもよい。音声信号は、アナログ信号又はデジタル信号を含んでもよい。デジタル信号は、例えば、別のコンピュータ装置101、MIDIキーボード、スマートフォン、ラジオ、又はターンテーブルステーションを含むデジタル装置からであってもよい。一部の実施形態では、音声信号は音声効果に関係付けられてもよい。
方法500はステップ502に進み、プロセッサ102は音声信号を受信することと実質的に同時に触覚トリガ装置120からセンサ信号を受信する。センサ信号は、アナログ信号又はデジタル信号を含んでもよい。
方法500はステップ502に進み、プロセッサ102は音声信号を音声トラックに記録する。音声トラックは映像に関係付けられる。一部の実施形態では、プロセッサ102は、音声信号を音声トラックに直接記録してもよい。他の実施形態では、プロセッサ102は、音声信号を操作して(例えば、音声信号の振幅、周波数、持続時間、又は波形を修正して)、修正された音声信号を音声トラックに記録してもよい。一部の実施形態では、音声トラックは、映像データとは分離していてもよい。他の実施形態では、音声トラックは、映像データと統合されていてもよい。プロセッサ102は、映像からの1つ以上のフレームと実質的に同期するように音声データを記録してもよい。
方法500はステップ502に進み、プロセッサ102はセンサ信号に少なくとも部分的に基づいて触覚効果を決定する。上記のように、一部の実施形態では、プロセッサ102は、センサ信号の1つ以上の特徴に基づいて触覚効果を決定してもよい。例えば、プロセッサ102は、センサ信号の振幅又は周波数に基づいて触覚効果を決定してもよい。例えば、一部の実施形態では、プロセッサ102は、センサ信号の振幅に比例する振幅、及びセンサ信号の持続時間に比例する持続時間を有する触覚効果を決定してもよい。
方法500はステップ510に進み、プロセッサ102はセンサ信号に部分的に基づいて触覚トラックに触覚効果マーカを挿入する。一部の実施形態では、触覚効果マーカは、決定された触覚効果に関係付けられる触覚効果データを含んでもよい。プロセッサ102は、触覚効果マーカが映像からの1つ以上のフレームと実質的に同期するように、触覚トラックに触覚効果マーカを挿入してもよい。
(フォーリー式触覚コンテンツ作成の利点)
フォーリー式触覚コンテンツ作成には多くの利点がある。例えば、一部の実施形態では、連続的にではなく、実質的に同時に触覚トラック及び音声トラックを生成することは、映像のための合計製作時間を減らしてもよい。更に、触覚トラック及び音声トラックを実質的に同時に生成することは、映像製作の費用を減らしてもよい。例えば、一部の実施形態では、フォーリー作者に音声トラックを作成させて、触覚作者に触覚トラックを作成させるのではなく、1人のフォーリー作者が音声トラック及び触覚トラックを両方とも作成することができる。従って、映像の撮影後の編集を遂行するために必要とされる人員はより少なくてもよく、映像の製作にかかる費用を全体的に引き下げることができる。
一部の実施形態では、フォーリー式触覚コンテンツ作成は、触覚効果、音声効果、及び映像コンテンツをより簡単に同期させてもよい。これは、触覚効果及び音声効果が実質的に同時に且つ同期して生成されるからであってもよい。従って、音声効果及び触覚効果を互いと及び映像コンテンツと個々に同期するのではなく、音声効果及び触覚効果は同期して生成されてもよい。
更に、一部の実施形態では、フォーリー式触覚コンテンツ作成は、触覚効果、音声効果、及び映像コンテンツの間の同期の精度を改善し得る。上記のように、音声効果及び触覚効果を互いと及び映像コンテンツと個々に同期するのではなく、音声効果及び触覚効果は同期して生成され得る。これは、フォーリー作者が音声効果及び触覚トラックを互いと及び映像コンテンツと個々に同期しようとした場合に発生し得る同期のエラーを減らすことができる。
(概論)
上記の方法、システム及び装置は例示である。様々な構成によって、適宜、様々な手続き又は構成要素が省略、置換、又は追加されてもよい。例えば、代替的な構成では、方法は記載されたものとは異なる順序で実行されてもよく、及び/又はステージが追加、省略及び/又は結合されてもよい。また、所定の構成に関して記載された機能は、様々な他の構成に結合されてもよい。構成の異なる態様及び要素が、同様に結合されてもよい。また、技術は進歩するものであり、そのため要素の多くは例示であり、本開示又は請求項の範囲を限定しない。
例示的な構成(実装を含む)の十分な理解を与えるために説明の中で特定の詳細が与えられている。しかしながら、こうした構成は特定の詳細無しで実施されてもよい。例えば、周知の回路、工程、アルゴリズム、構造及び技術が、構成を不明確にするのを避けるために不要な詳細無しで示されている。この説明は、例示的な構成のみを提供するものであり、請求項の範囲、応用性又は構成を限定しない。むしろ、構成の上記説明は、記載された技術を実装するための実施可能な説明を当業者に提供するであろう。本開示の精神又は範囲から逸れることなく、要素の機能及び配置の様々な変更が行われてもよい。
また、構成は、流れ図又はブロック図として描かれる処理として記載されてもよい。各々が連続した工程として操作を説明している場合があるが、こうした操作の多くは並列的又は同時に行われ得る。更に、操作の順序は並び替えられてもよい。工程は、図面に含まれない追加のステップを有してもよい。更に、方法の例示は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はこれらの任意の組み合わせによって実装されてもよい。ソフトウェア、ファームウェア、ミドルウェア又はマイクロコードで実装される場合、必要なタスクを実行するためのプログラムコード又はコードセグメントは、記憶媒体等の一時的でないコンピュータ可読媒体に記憶されてもよい。プロセッサは、記載されたタスクを実行してもよい。
複数の例示的な構成が記載されているが、本開示の精神から逸脱することなく、様々な修正、代替構造及び均等物が使用されてもよい。例えば、上記の要素は、より大きなシステムの構成要素であってもよく、他の規則が本発明のアプリケーションに優先し又はそれを修正してもよい。また、上記の要素が検討される前、間、又は後で多くのステップが行われてもよい。従って、先の記載によって請求項の範囲は縛られない。
本明細書における「適合される」又は「構成される」の使用は、追加のタスク又はステップを実行するように適合又は構成される装置を排除しない開放的且つ包括的な言語を意図している。更に、「基づいて」の使用は開放的且つ包括的であることが意図されており、即ち、1つ以上の記載された条件又は値に「基づく」処理、ステップ、計算、又は他の動作が、実際には、記載されたものを超える追加の条件又は値に基づいてもよい。本明細書に含まれる表題、リスト及び番号は、単に説明を容易にするためのものであって、限定することを意図していない。
本主題の態様に従う実施形態は、デジタル電子回路、コンピュータハードウェア、ファームウェア、ソフトウェア、又はこれらの組み合わせに実装され得る。一実施形態では、コンピュータは、1つ又は複数のプロセッサを備えてもよい。プロセッサは、プロセッサに結合されるRAM(random access memory)等のコンピュータ可読媒体を備え、又はそれへのアクセスを有する。プロセッサは、センササンプリングルーチン、選択ルーチン、及び上述の方法を実行する他のルーチン等、メモリに記憶されたコンピュータ実行可能プログラム命令を実行する。
このようなプロセッサは、マイクロプロセッサ、DSP(digital signal processor)、ASIC(application−specific integrated circuit)、FPGA(field programmable gate array)、及び状態機械を含む。このようなプロセッサは、PLC、PIC(programmable interrupt controller)、PLD(programmable logic device)、PROM(programmable read−only memory)、EPROM又はEEPROM(electronically programmable read−only memory)、又は他の類似の装置等のプログラム可能電子装置を更に備えてもよい。
このようなプロセッサは、媒体、例えば、プロセッサによって実行されると、プロセッサによって遂行又は支援される本明細書に記載のステップをプロセッサに実行させることが出来る命令を記憶し得る有形のコンピュータ可読媒体を備え、又はこれと通信してもよい。コンピュータ可読媒体の実施形態は、限定されないが、プロセッサ、例えばウェブサーバのプロセッサにコンピュータ可読命令を提供することができる全ての電子、光学、磁気、又は他の記憶装置を備えてもよい。媒体の他の例は、限定されないが、フロッピー(登録商標)ディスク、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成プロセッサ、全ての光学媒体、全ての磁気テープ若しくは他の磁気媒体、又はコンピュータプロセッサが読み取り可能な任意の他の媒体を含む。また、様々な他の装置は、ルータ、プライベート若しくはパブリックネットワーク、又は他の伝送装置等のコンピュータ可読媒体を含んでもよい。記載されたプロセッサ及び処理は、1つ以上の構造内にあってもよく、1つ以上の構造を通じて分散されてもよい。プロセッサは、本明細書に記載の1つ以上の方法(又は方法の一部)を実行するためのコードを備えてもよい。
本主題はその特定の実施形態に関して詳細に記載されているが、上記のことを理解すると、このような実施形態の変形、変化、及び均等物を当業者であれば容易に生み出し得ることが理解されるであろう。従って、本開示は、限定ではなく例示を目的として提示されており、当業者には容易に明らかとなる本主題への修正、変更及び/又は追加を含むことを排除しないことが理解されるべきである。

Claims (20)

  1. 音声入力を検出して、前記音声入力に関係付けられる音声信号を送信するように構成される音声入力装置と、
    イベントに関係付けられるセンサ信号を送信するように構成されるセンサを備える触覚トリガ装置と、
    前記音声入力装置及び前記触覚トリガ装置と通信するプロセッサであって、
    前記音声信号を受信し、
    前記音声信号を受信することと実質的に同時に前記センサ信号を受信し、
    音声トラックに前記音声信号を記録し、且つ
    前記センサ信号に部分的に基づいて触覚効果マーカを触覚トラックに挿入するように構成されるプロセッサと
    を備え、前記触覚トラック及び前記音声トラックは映像に関係付けられる、システム。
  2. 前記センサは、ジャイロスコープ、加速度計、深さセンサ、カメラ、フォトトランジスタ、スイッチ、ボタン、マイクロホン、又は圧電トランスデューサを含む、請求項1に記載のシステム。
  3. 前記触覚トリガ装置は、複数のセンサを備える、請求項1に記載のシステム。
  4. 前記触覚トリガ装置は、小道具に結合される、請求項1に記載のシステム。
  5. 前記小道具は、前記音声入力を生成するように構成される、請求項4に記載のシステム。
  6. 前記小道具は、フォーリー作者用の小道具を含む、請求項5に記載のシステム。
  7. 前記触覚トリガ装置は、前記音声入力装置を備える、請求項1に記載のシステム。
  8. 前記触覚効果マーカは、触覚効果に関係付けられる触覚効果データを含む、請求項1に記載のシステム。
  9. 前記プロセッサは、前記センサ信号に少なくとも部分的に基づいて前記触覚効果を決定するように更に構成される、請求項8に記載のシステム。
  10. 複数の触覚トリガ装置を更に備える、請求項1に記載のシステム。
  11. 音声入力装置から音声信号を受信するステップと、
    前記音声信号を受信することと実質的に同時に触覚トリガ装置からセンサ信号を受信するステップと、
    音声トラックに前記音声信号を記録するステップと、
    前記センサ信号に部分的に基づいて触覚効果マーカを触覚トラックに挿入するステップと
    を含み、前記触覚トラック及び前記音声トラックは映像に関係付けられる、方法。
  12. 前記触覚トリガ装置は、複数のセンサを備える、請求項11に記載の方法。
  13. 前記触覚トリガ装置は、小道具に結合される、請求項11に記載の方法。
  14. 前記小道具は、フォーリー作者用の小道具を含む、請求項13に記載の方法。
  15. 前記触覚効果マーカは、触覚効果に関係付けられる触覚効果データを含む、請求項11に記載の方法。
  16. 前記センサ信号に少なくとも部分的に基づいて前記触覚効果を決定するステップを更に含む、請求項15に記載の方法。
  17. プロセッサによって実行されると、前記プロセッサに
    音声入力装置から音声信号を受信すること、
    前記音声信号を受信することと実質的に同時に触覚トリガ装置からセンサ信号を受信すること、
    音声トラックに前記音声信号を記録すること、及び
    前記センサ信号に部分的に基づいて触覚効果マーカを触覚トラックに挿入することであって、前記触覚トラック及び前記音声トラックは映像に関係付けられること
    を行わせるように構成されるプログラムコードを含む、一時的でないコンピュータ可読媒体。
  18. 前記触覚トリガ装置は、複数のセンサを備える、請求項17に記載の一時的でないコンピュータ可読媒体。
  19. 前記触覚トリガ装置は、小道具に結合される、請求項17に記載の一時的でないコンピュータ可読媒体。
  20. 前記小道具は、フォーリー作者用の小道具を含む、請求項19に記載の一時的でないコンピュータ可読媒体。
JP2015119861A 2014-06-16 2015-06-15 フォーリー式触覚コンテンツ作成のためのシステム及び方法 Expired - Fee Related JP6542039B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/305,623 2014-06-16
US14/305,623 US10139907B2 (en) 2014-06-16 2014-06-16 Systems and methods for foley-style haptic content creation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019109387A Division JP2019194879A (ja) 2014-06-16 2019-06-12 フォーリー式触覚コンテンツ作成のためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2016015131A true JP2016015131A (ja) 2016-01-28
JP6542039B2 JP6542039B2 (ja) 2019-07-10

Family

ID=53432975

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015119861A Expired - Fee Related JP6542039B2 (ja) 2014-06-16 2015-06-15 フォーリー式触覚コンテンツ作成のためのシステム及び方法
JP2019109387A Withdrawn JP2019194879A (ja) 2014-06-16 2019-06-12 フォーリー式触覚コンテンツ作成のためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019109387A Withdrawn JP2019194879A (ja) 2014-06-16 2019-06-12 フォーリー式触覚コンテンツ作成のためのシステム及び方法

Country Status (5)

Country Link
US (2) US10139907B2 (ja)
EP (1) EP2958107A1 (ja)
JP (2) JP6542039B2 (ja)
KR (1) KR20150144704A (ja)
CN (1) CN105320267B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020505861A (ja) * 2017-01-26 2020-02-20 ディー−ボックス テクノロジーズ インコーポレイテッド 動きの取り込み、及び記録オーディオ/ビデオとの動きの同期
JP2021531923A (ja) * 2018-08-06 2021-11-25 アマゾン テクノロジーズ インコーポレイテッド ネットワークアプリケーションを制御するためのシステムおよびデバイス
TWI828884B (zh) * 2019-03-19 2024-01-11 公益財團法人電磁材料研究所 力感測器

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
WO2015047372A1 (en) 2013-09-30 2015-04-02 Pearl Capital Developments Llc Magnetic actuators for haptic response
US9317118B2 (en) 2013-10-22 2016-04-19 Apple Inc. Touch surface for simulating materials
AU2014391723B2 (en) 2014-04-21 2018-04-05 Apple Inc. Apportionment of forces for multi-touch input devices of electronic devices
KR102019505B1 (ko) * 2014-09-02 2019-09-06 애플 인크. 햅틱 통지
US10353467B2 (en) 2015-03-06 2019-07-16 Apple Inc. Calibration of haptic devices
AU2016100399B4 (en) 2015-04-17 2017-02-02 Apple Inc. Contracting and elongating materials for providing input and output for an electronic device
WO2017044618A1 (en) 2015-09-08 2017-03-16 Apple Inc. Linear actuators for use in electronic devices
US10039080B2 (en) 2016-03-04 2018-07-31 Apple Inc. Situationally-aware alerts
US10268272B2 (en) 2016-03-31 2019-04-23 Apple Inc. Dampening mechanical modes of a haptic actuator using a delay
US10194128B2 (en) * 2017-06-12 2019-01-29 Amazon Technologies, Inc. Systems and processes for generating a digital content item
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
EP3540567B1 (en) * 2018-03-16 2021-05-05 Goodix Technology (HK) Company Limited Haptic signal generator
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content
US10691211B2 (en) 2018-09-28 2020-06-23 Apple Inc. Button providing force sensing and/or haptic output
US10599223B1 (en) 2018-09-28 2020-03-24 Apple Inc. Button providing force sensing and/or haptic output
KR102273804B1 (ko) * 2019-02-19 2021-07-06 주식회사 동운아나텍 사용자 입력신호를 고려한 햅틱 모터 구동 방법
US11380470B2 (en) 2019-09-24 2022-07-05 Apple Inc. Methods to control force in reluctance actuators based on flux related parameters
US11392347B2 (en) * 2020-06-17 2022-07-19 Twitter, Inc. Audio messaging interface on messaging platform
JP2022541968A (ja) * 2020-06-30 2022-09-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド ビデオ処理方法、装置、電子機器及び記憶媒体
US20220180854A1 (en) * 2020-11-28 2022-06-09 Sony Interactive Entertainment LLC Sound effects based on footfall
US11977683B2 (en) 2021-03-12 2024-05-07 Apple Inc. Modular systems configured to provide localized haptic feedback using inertial actuators
US11809631B2 (en) 2021-09-21 2023-11-07 Apple Inc. Reluctance haptic engine for an electronic device
WO2023053421A1 (ja) * 2021-09-30 2023-04-06 株式会社ウフル 情報処理システム、情報処理装置、情報処理プログラム及び情報処理方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4858033A (en) * 1987-03-18 1989-08-15 Chippendale Arthur J Apparatus for pacing, queing and equipment control in audiovisual work
JPH0449572A (ja) * 1990-06-18 1992-02-18 Fuji Photo Film Co Ltd 特殊効果音声機能付記録・再生装置における信号処理方式
JP2002033802A (ja) * 2000-07-14 2002-01-31 Toshiba Corp 携帯通信端末を利用したコンテンツサービス方法
JP2005506613A (ja) * 2001-10-09 2005-03-03 イマージョン コーポレイション コンピュータ装置からのオーディオ出力に基づく触覚フィードバック感覚
US20050252364A1 (en) * 2004-08-19 2005-11-17 Media Lab Europe (In Voluntary Liquidation) Particle based touch interaction for the creation of media streams
US20090128306A1 (en) * 2007-11-21 2009-05-21 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
JP2011188508A (ja) * 2005-10-19 2011-09-22 Immersion Corp メディアトランスポートストリームにおけるハプティック効果データの同期
JP2013117996A (ja) * 2001-10-10 2013-06-13 Immersion Corp 触覚フィードバックを使用する音声データ出力および操作

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4067049A (en) 1975-10-02 1978-01-03 Glen Glenn Sound Sound editing system
US5065251A (en) * 1989-07-28 1991-11-12 Shuhart Jr Harvey A Method and apparatus for graphically marking an audiovisual recording to indicate occurrence of an official's whistle signal
US5388992A (en) 1991-06-19 1995-02-14 Audiological Engineering Corporation Method and apparatus for tactile transduction of acoustic signals from television receivers
US5969716A (en) 1996-08-06 1999-10-19 Interval Research Corporation Time-based media processing system
US8027482B2 (en) * 2003-02-13 2011-09-27 Hollinbeck Mgmt. Gmbh, Llc DVD audio encoding using environmental audio tracks
US10741089B2 (en) * 2004-12-23 2020-08-11 Carl Wakamoto Interactive immersion system for movies, television, animation, music videos, language training, entertainment, video games and social networking
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US9019087B2 (en) * 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US20100279822A1 (en) * 2008-11-01 2010-11-04 Ford John Hajime Systems and methods for optimizing one or more audio tracks to a video stream
JP2013500544A (ja) 2009-07-24 2013-01-07 ディジマーク コーポレイション 改善された音声/映像の方法及びシステム
US8717152B2 (en) 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
KR102185941B1 (ko) * 2011-07-01 2020-12-03 돌비 레버러토리즈 라이쎈싱 코오포레이션 적응형 오디오 신호 생성, 코딩 및 렌더링을 위한 시스템 및 방법
WO2013041152A1 (en) 2011-09-19 2013-03-28 Thomson Licensing Methods to command a haptic renderer from real motion data
US10013857B2 (en) 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
CA2890399A1 (en) 2012-10-01 2014-04-10 Internet Services, Llc System and method for synchronization of haptic data and media data
US9261960B2 (en) * 2013-01-24 2016-02-16 Immersion Corporation Haptic sensation recording and playback
US9866924B2 (en) 2013-03-14 2018-01-09 Immersion Corporation Systems and methods for enhanced television interaction
US9711014B2 (en) 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9652945B2 (en) 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9449640B2 (en) * 2014-06-03 2016-09-20 Glenn Kreisel Media device turntable

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4858033A (en) * 1987-03-18 1989-08-15 Chippendale Arthur J Apparatus for pacing, queing and equipment control in audiovisual work
JPH0449572A (ja) * 1990-06-18 1992-02-18 Fuji Photo Film Co Ltd 特殊効果音声機能付記録・再生装置における信号処理方式
JP2002033802A (ja) * 2000-07-14 2002-01-31 Toshiba Corp 携帯通信端末を利用したコンテンツサービス方法
JP2005506613A (ja) * 2001-10-09 2005-03-03 イマージョン コーポレイション コンピュータ装置からのオーディオ出力に基づく触覚フィードバック感覚
JP2013117996A (ja) * 2001-10-10 2013-06-13 Immersion Corp 触覚フィードバックを使用する音声データ出力および操作
US20050252364A1 (en) * 2004-08-19 2005-11-17 Media Lab Europe (In Voluntary Liquidation) Particle based touch interaction for the creation of media streams
JP2011188508A (ja) * 2005-10-19 2011-09-22 Immersion Corp メディアトランスポートストリームにおけるハプティック効果データの同期
US20090128306A1 (en) * 2007-11-21 2009-05-21 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020505861A (ja) * 2017-01-26 2020-02-20 ディー−ボックス テクノロジーズ インコーポレイテッド 動きの取り込み、及び記録オーディオ/ビデオとの動きの同期
JP7184780B2 (ja) 2017-01-26 2022-12-06 ディー-ボックス テクノロジーズ インコーポレイテッド 動きの取り込み、及び記録オーディオ/ビデオとの動きの同期
JP2021531923A (ja) * 2018-08-06 2021-11-25 アマゾン テクノロジーズ インコーポレイテッド ネットワークアプリケーションを制御するためのシステムおよびデバイス
TWI828884B (zh) * 2019-03-19 2024-01-11 公益財團法人電磁材料研究所 力感測器

Also Published As

Publication number Publication date
CN105320267A (zh) 2016-02-10
EP2958107A1 (en) 2015-12-23
US10139907B2 (en) 2018-11-27
US20190004607A1 (en) 2019-01-03
KR20150144704A (ko) 2015-12-28
US10503263B2 (en) 2019-12-10
JP6542039B2 (ja) 2019-07-10
US20150362993A1 (en) 2015-12-17
JP2019194879A (ja) 2019-11-07
CN105320267B (zh) 2020-01-17

Similar Documents

Publication Publication Date Title
JP2019194879A (ja) フォーリー式触覚コンテンツ作成のためのシステム及び方法
JP6546603B2 (ja) 注視トラッキングの方法およびデバイスにおける視覚的な変更の非視覚的なフィードバック
JP6612250B2 (ja) 会話検出
JP6516477B2 (ja) ユーザ生成コンテンツをオーサリングするためのシステム及び方法
CN109416562B (zh) 用于虚拟现实的装置、方法和计算机可读介质
EP3031502B1 (en) Video gameplay haptics
EP4068754A1 (en) Video display method, electronic device and medium
US10497277B2 (en) Feedback provision method, system, and analysis device
JP2022531372A (ja) 対戦外環境での対戦中の行動のプレビュー方法、装置、端末、及びコンピュータプログラム
JPWO2015198729A1 (ja) 表示制御装置、表示制御方法およびプログラム
EP3026927A1 (en) An apparatus, method and computer program for controlling a speaker
JP6924564B2 (ja) ゲームプログラム
JP2016126255A (ja) 携帯端末装置およびプログラム
KR20230153474A (ko) 비디오 내의 객체의 검출된 모션에 대응하는 시각적 또는 청각적 효과를 추가하기 위한 자동화된 비디오 편집
JP7014913B2 (ja) メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム
WO2017026387A1 (ja) 映像処理装置、映像処理方法および記録媒体
TWM605314U (zh) 具有震動反饋的電子裝置
JP2021074363A (ja) 音声再生プログラム、音声再生装置および音声生成方法
US20220355211A1 (en) Controller action recognition from video frames using machine learning
JP6301000B1 (ja) ゲームシステム、端末、端末が実行する方法、ならびに、プログラム
JP2022048237A (ja) メッセージ出力装置、メッセージ出力方法及びプログラム
JP2019165997A (ja) ゲームプログラム、及び記憶媒体
CN103686394A (zh) 显示装置及其控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190612

R150 Certificate of patent or registration of utility model

Ref document number: 6542039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees