JP2018513430A - スローモーションのためのハプティック効果の修正 - Google Patents

スローモーションのためのハプティック効果の修正 Download PDF

Info

Publication number
JP2018513430A
JP2018513430A JP2017534528A JP2017534528A JP2018513430A JP 2018513430 A JP2018513430 A JP 2018513430A JP 2017534528 A JP2017534528 A JP 2017534528A JP 2017534528 A JP2017534528 A JP 2017534528A JP 2018513430 A JP2018513430 A JP 2018513430A
Authority
JP
Japan
Prior art keywords
haptic effect
haptic
effect sequence
modified
media stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017534528A
Other languages
English (en)
Other versions
JP6801838B2 (ja
Inventor
ウィリアム エス. リーン
ウィリアム エス. リーン
デイヴィッド エム. バーンバウム
デイヴィッド エム. バーンバウム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2018513430A publication Critical patent/JP2018513430A/ja
Application granted granted Critical
Publication of JP6801838B2 publication Critical patent/JP6801838B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/015Force feedback applied to a joystick

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

ハプティック効果を生成および修正するためのシステムおよび方法が提供される。ハプティック効果シーケンスの各ハプティック効果に関連する様々なパラメータを修正することによって、ハプティック効果がスローモーションで表現される。例えば、ハプティック効果シーケンスをスローモーションで正確に伝達するために、各ハプティック効果の大きさ、周波数および/または持続時間が変えられうる。【選択図】図5

Description

優先出願
本出願は、参照により全体として本明細書に組み込まれる2015年2月25に出願の米国特許仮出願第62/120,702号の利益を主張する。
技術分野
本発明の実施形態は、一般に電子デバイスを対象とし、より具体的には、ハプティック効果を生み出す電子デバイスを対象とする。
ビデオゲームおよびビデオゲームシステムが非常に人気となっている。ビデオゲームデバイスまたはコントローラは通常、ユーザにフィードバックを提供するために、視覚および聴覚の合図を用いる。いくつかのインタフェースデバイスでは、運動感覚フィードバック(例えば活性および抵抗力フィードバック)、および/または触知フィードバック(例えば振動、触感、温度変化など)がユーザに提供されうる。一般的に、そのようなフィードバックは「ハプティックフィードバック」または「ハプティック効果」の総称で知られている。ハプティックフィードバックは、ユーザのビデオゲームコントローラまたは他の電子デバイスとの相互作用を強化および簡素化する合図を提供する。例えばハプティック効果は、ユーザに特定のイベントを警告するため、または、模擬環境もしくは仮想環境内でのより高い没入感を生むリアルなフィードバックを提供するために、ビデオゲームコントローラまたは他の電子デバイスのユーザに合図を提供しうる。
ユーザがユーザ入力エレメントと相互作用してアクションを引き起こすその他のデバイスも、ハプティックフィードバックまたはハプティック効果から利益を受けうる。例えばそのようなデバイスには、医療デバイス、自動車制御、遠隔制御、および他の類似のデバイスを含むことができる。
本発明の実施形態は、関連技術を実質的に改良するハプティック効果を生み出すように構成された電子デバイスを対象とする。
実施形態の特徴および利点は、以下の説明に記載され、または説明から明らかとなり、または本発明の実施から習得されうる。
一例においては、ハプティック効果をスローモーションで表現するためのシステムおよび方法が提供される。メディアストリーム(例えば音声またはビデオ)とメディアストリームに対応するハプティック効果シーケンスとが受信される。ハプティック効果シーケンスは、複数のハプティック効果を含む。メディアストリームおよびハプティック効果シーケンスは、リアルタイムで表現されうる。メディアストリームおよび修正されたハプティック効果シーケンスは、スローモーションでも表現されうる。修正されたハプティック効果シーケンスは、ハプティック効果シーケンスの少なくとも一つのハプティック効果のパラメータの変更を含む。
以上の概要の記載および以下の詳細な記載は例示および説明的なものであり、本発明を記載された例に制限することを目的としたものではないことが理解される。
添付の図面とあわせて理解されるべき以下の好ましい実施形態の詳細な説明から、さらなる実施形態、詳細、利点、および修正が明らかとなる。
本発明の実施例に係るシステムのブロックダイヤグラムである。 上記発明の実施例に係るハプティック効果を修正するためのシステムの簡略ブロックダイヤグラムである。 上記発明の実施例に係るハプティック効果ソフトウェアスタックのブロックダイヤグラムである。 上記発明の実施例に係るハプティック修正のためのアーキテクチャである。 上記発明の実施例に係るハプティック効果を修正するためのフローダイヤグラムである。 上記発明の別の実施例に係るハプティック効果を修正するためのフローダイヤグラムである。 本発明の実施形態の用途に適したコントローラの機能ブロックダイヤグラムである。 本発明の実施形態の用途に適したコントローラの図である。 本発明の実施形態の用途に適したコントローラの図である。
次に、添付の図面に例を示した実施形態を詳しく参照する。以下の詳細な説明においては、本発明の完全な理解を提供するために多数の具体的詳細が記載される。しかし、通常の技術を有する当業者には、これらの具体的詳細がなくても本発明が実施されうることが明らかであろう。その他の場合には、実施形態の側面が不必要に不明瞭にならないよう、周知の方法、手順、構成要素、および回路は詳述していない。類似の参照番号は、可能な限り類似の要素に用いられる。
実施形態例は、修正されたハプティック効果をスローモーションで表現するためのシステムおよび方法を目的とする。ビデオはユーザにスローモーションで正確に伝達されうるが、対応するハプティック効果はスローモーションでは通常不正確に表現される。したがって、本明細書に記載の様々な実施形態は、ハプティック効果シーケンスの各ハプティック効果に関連する様々なパラメータを調整/修正することによってハプティック効果をスローモーションで表現する。例えば、ハプティック効果シーケンスをスローモーションで正確に伝達するために、各ハプティック効果の大きさ、周波数および/または持続時間が変えられうる。
様々な実施形態において、デバイスを使用するための様々なユーザインタフェースおよび方法が記載される。一部の実施形態では、デバイスは、携帯可能電子デバイス(例えばゲームコントローラ、コンソール、携帯電話、スマートフォン、タブレットなど)である。しかし、ユーザインタフェースおよび関連の方法は、キーボード、マウス、トラックボールなどの一つ以上の他の物理的ユーザインタフェースデバイスを含みうる、パーソナルコンピュータ、医療デバイス、ラップトップなどの多数の他のデバイスに適用されうることを理解されたい。
図1は、本発明の実施例に係るシステム100のブロックダイヤグラムである。
システム100は、リモートソースからデータを伝送および/または受信するように構成された通信デバイス110を含みうる。通信デバイス110は、ネットワーク(図示せず)上でプロセッサ120から別のデバイスへ送信されるデータを符号化し、ネットワーク上で別のシステムからプロセッサ120のために受信されるデータを復号することにより、プロセッサ120と他のデバイスとの間の接続性を可能にすることができる。
例えば、通信デバイス110は、ワイヤレスネットワーク通信を提供するように構成されたネットワークインタフェースカードを含みうる。赤外線、無線、ブルートゥース(Bluetoothは登録商標)、Wi‐Fi(登録商標)および/またはセルラ方式通信を含め、様々なワイヤレスコミュニケーション技術が使用されうる。あるいは、通信デバイス110は、イーサネット接続等の有線ネットワーク接続(単数または複数)を提供するように構成されてもよい。
プロセッサ120は、システム100の計算および制御機能を行うために、一つ以上の汎用または特定用途向けプロセッサを含みうる。プロセッサ120は、マイクロプロセシングデバイス等の単一の集積回路を含んでもよいし、またはプロセッサ120の機能を達成するために協働する複数の集積回路デバイスおよび/もしくは回路ボードを含んでもよい。加えて、プロセッサ120は、メモリ140内に格納された、オペレーティングシステム141、ハプティックモジュレータ142、および他のアプリケーション143等のコンピュータプログラムを実行しうる。
システム100は、プロセッサ120により実行されるための情報および命令を格納するメモリ140を含みうる。メモリ140は、データの取り出し、提示、修正、格納のための様々なコンポーネントを含みうる。例えば、メモリ140は、プロセッサ120により実行されたときに機能を提供するソフトウェアモジュールを格納しうる。モジュールは、システム100にオペレーティングシステム機能を提供するオペレーティングシステム141を含みうる。モジュールは、スローモーションリプレイ等、多様なプレイバック速度でのリプレイの間のハプティック効果を修正するために様々なハプティックパラメータ(例えば大きさ、周波数および/または持続時間)を制御できるハプティックモジュレータ142をさらに含みうる。ある実施形態では、ハプティックモジュレータ142は、音声および/またはビデオストリーム等のメディアストリームの分析に基づいてハプティックパラメータを動的に計算するための命令を含みうる。システム100は、コントローラ150(例えばゲームパッド、ウェアラブルデバイスなど)等の周辺デバイスに制御機能を提供するように構成された周辺ファームウェア等の追加の機能を含む一つ以上の追加のアプリケーションモジュール143も含みうる。
非一時的メモリ140は、プロセッサ120によりアクセスできる様々なコンピュータ可読媒体を含みうる。様々な実施形態において、メモリ140は、揮発性および不揮発性媒体、リムーバブルおよび非リムーバブル媒体を含みうる。例えば、メモリ140は、ランダムアクセスメモリ(「RAM;random access memory」)、ダイナミックRAM(DRAM;dynamic RAM)、スタティックRAM(SRAM;static RAM)、リードオンリメモリ(「ROM;read only memory」)、フラッシュメモリ、キャッシュメモリ、および/または他の任意のタイプの非一時的コンピュータ可読媒体の任意の組み合わせを含みうる。
単一のシステムとして図示されているが、システム100の機能は、分散システムとして実装されてもよい。例えば、メモリ140およびプロセッサ120は、システム100を集合的に構成する複数の異なるコンピュータに分散されてもよい。一実施形態では、システム100はデバイス(例えばパーソナルコンピュータ、コンソール、ビデオゲームコンソール等)の一部であってもよく、システム100は、デバイスにハプティック効果機能を提供する。別の実施形態では、システム100は、デバイスとは別個であってもよく、デバイスに上述の機能を遠隔で提供してもよい。
システム100は、コントローラ150に動作可能に接続されうる。コントローラ150は、入力をシステム100に提供するように構成された周辺デバイスであってもよい。コントローラ150は、無線接続または有線接続を用いてシステム100に動作可能に接続されうる。コントローラ150は、無線接続または有線接続を用いてシステム100と通信するように構成されたローカルプロセッサも含むことができる。あるいは、コントローラ150は、ローカルプロセッサを含まないように構成されてもよく、コントローラ150に関連する全ての入力信号および/または出力信号が、システム100のコンポーネントにより処理されてもよい。コントローラ150がローカルプロセッサを有する実施形態では、制御機能を提供するように構成されたハプティック修正モジュールおよび周辺ファームウェア等の追加の機能がコントローラ150内にあってもよい。
コントローラ150は、ユーザが相互作用することができ、システム100に入力を提供することができる、一つ以上のデジタルボタン、一つ以上のアナログボタン、一つ以上のバンパ、一つ以上の方向パッド、一つ以上のアナログもしくはデジタルスティック、一つ以上のドライビングホイール、および/または一つ以上のユーザ入力エレメントをさらに含むことができる。コントローラ150は、ユーザがさらに相互作用することができ、システム100にさらに入力を提供することができる、一つ以上のアナログまたはデジタルトリガボタン(または「トリガ」)も含むことができる。より詳細に後述するように、コントローラ150は、コントローラ150の少なくとも一つのトリガに対して双方向押/引力を及ぼすように構成された、モータまたは別のタイプのアクチュエータもしくはハプティック出力デバイスをさらに含むことができる。
コントローラ150は、一つ以上のアクチュエータまたは他のタイプのハプティック出力デバイスも含むことができる。コントローラ150のローカルプロセッサ、またはコントローラ150がローカルプロセッサを含まない実施形態におけるプロセッサ120は、コントローラ150の少なくとも一つのアクチュエータに、ハプティック効果に関連したハプティック信号を伝送すればよい。次に、アクチュエータが、ハプティック信号に応じて振動触知ハプティック効果、運動感覚ハプティック効果、または変形ハプティック効果等のハプティック効果を出力する。ハプティック効果は、コントローラ150のユーザ入力エレメント(例えばトリガ、デジタルボタン、アナログボタン、バンパ、方向パッド、アナログもしくはデジタルスティック、ドライビングホイールまたはトリガ)で受けることができる。あるいは、コントローラ150の外側表面でハプティック効果を受けてもよい。
アクチュエータはハプティック出力デバイスの一例であり、ここで、ハプティック出力デバイスは、駆動信号に応じて振動触知ハプティック効果、静電摩擦ハプティック効果、温度変化、および/または変形ハプティック効果等のハプティック効果を出力するように構成されたデバイスである。代替的実施形態では、コントローラ150内の一つ以上のアクチュエータは、何らかの他のタイプのハプティック出力デバイスで置き換えられてもよい。ハプティック出力デバイスは、例えば、電動モータ、電磁アクチュエータ、ボイスコイル、形状記憶合金、電気活性ポリマ、ソレノイド、偏心モータ(「ERM;eccentric rotating mass motor」)、ハーモニックERMモータ(「HERM;harmonic ERM motor」)、線形共振アクチュエータ(「LRA;linear resonant actuator」)、圧電アクチュエータ、高帯域アクチュエータ、電気活性ポリマ(「EAP;electroactive polymer」)アクチュエータ、静電摩擦ディスプレイ、または超音波振動ジェネレータでありうる。一部の場合には、ハプティック出力デバイスは、ハプティック出力デバイス駆動回路を含んでもよい。一部の実施形態では、ハプティック出力デバイスは、一方向性でも双方向性でもよい。
コントローラ150は、一つ以上のスピーカをさらに含みうる。コントローラ150のローカルプロセッサ、またはコントローラ150がローカルプロセッサを含まない実施形態におけるプロセッサ120は、コントローラ150の少なくとも一つのスピーカに音声信号を伝送すればよく、次いでスピーカが音声効果を出力する。スピーカは、例えば、ダイナミックラウドスピーカ、エレクトロダイナミックラウドスピーカ、圧電ラウドスピーカ、磁気歪ラウドスピーカ、静電ラウドスピーカ、リボンプラナー磁気ラウドスピーカ、屈曲波ラウドスピーカ、フラットパネルラウドスピーカ、ヘイルエアモーショントランスデューサ、プラズマアークスピーカ、およびデジタルラウドスピーカであればよい。
コントローラ150は、一つ以上のセンサをさらに含むことができる。センサは、音、移動、加速度、生体信号、距離、流量、力/圧力/歪み/屈曲、湿度、線形位置、方位/傾斜、無線周波数、回転位置、回転速度、スイッチの操作、温度、振動、または可視光強度等であるがこれに限定されない、エネルギーの一形態または他の物理的性質を検出するように構成できる。センサは、検出エネルギーまたは他の物理的性質を、電気信号または仮想センサ情報を表す任意の信号に変換するようにさらに構成でき、コントローラ150は、変換された信号を、コントローラ150のローカルプロセッサに、またはコントローラ150がローカルプロセッサを含まない実施形態におけるプロセッサ120に送信することができる。
図2は、本発明の実施形態例に係るハプティック効果を修正するためのシステム200の簡略ブロックダイヤグラムである。
図2に示すように、中央処理ユニット(「CPU;central processing unit」)230は、アプリケーション210等の様々なプログラムを実行しうる。アプリケーション210は、メディアストリーム211等、音声および/またはビデオストリームを含むメディアストリームを生成する。加えて、アプリケーション210は、ハプティック命令215等のハプティック命令を生成する。CPU230は、メディアストリーム211を分析することによって決定される様々なパラメータに基づいて、ハプティック命令215を修正しうる。例えば、CPU230は、カメラアングルの変更またはリプレイスピードの変更に基づいてハプティック命令215を変えうる。CPU230は、ハプティック命令の実行時間をさらに決定および/または調節しうる。
メディアストリーム211およびハプティック命令215は、メモリ220に格納されうる。メモリ220は、データ構造225.1〜225.Nも格納し、各データ構造は、それぞれのハプティック出力デバイスに関連する特性を定義する。CPU230は、データ構造225.1〜225.Nにしたがってハプティック命令を実行し、またはハプティック命令に対する変更を決定しうる。例えば、データ構造225.1〜225.Nは、ハプティック出力デバイスごとにハプティック効果を修正する際にCPU230により使用されうる最小駆動周波数、最大駆動周波数、最小強度、最大強度、起動電流、定常電流などに関する一つ以上の値を格納することができる。
修正されたハプティック効果は、様々な方法で生成されうる。例えば、スローモーションハプティック効果は、視覚コンポーネントの減速にマッチするようにハプティック効果の持続時間を増加させうる。別の例では、一定のハプティック効果が周期的効果になってもよいし、あるいは周期的ハプティック効果が一定のハプティック効果になってもよい。さらに別の例では、スローモーションハプティック効果の大きさが強度として増減してもよいし、または徐々に消失または増加してもよい。周波数シフトの例では、リアルタイムハプティック効果が10msオンおよび10msオフである場合、対応するスローモーションハプティック効果が16msオンおよび16msオフに修正されてもよいし、あるいは20msオン/オフから5msオン/オフに徐々に減少されてもよい。様々な周波数シフトの実施形態においては、一つ以上のフィルタが、ハプティック効果を特定の周波数範囲内で修正するように構成されうる。
本明細書に記載される実施形態は多数の用途に使用されうるが、実施形態をよりよく例示するためにここでいくつかの非限定的な例を記載する。あるゲーミングアプリケーションの中で、ゲームプレーヤはファーストパーソンシューターであり、爆発で死ぬ。この爆発においては、ハプティック効果がコントローラ150のトリガおよび/またはランブルアクチュエータの一方または両方で再生される。ゲームプレーヤの死後、アクションのスローモーションビデオが(例えば第三者の視点から)再生されうる。ここでは、ハプティック効果が、以前に感じられたものから、より弱く、より延長されたバージョンに変更されうる。スローモーションリプレイ時には、ハプティック効果は、カメラアングルおよび/またはリプレイスピードを考慮して変えられることができ、これには任意に動的ハプティック効果を含むことができる。加えて、リアルタイムでは優先システムが複数の効果の再生を阻止しうるのに対して、各種実施形態は、より遅いプレイバック速度により二つ以上の同時の効果を再生(複雑なテクスチャにおける長いギャップの間に効果を再生するなど)する能力を提供する「効果内効果」等、様々なハプティック効果に適用できる。
このように実施形態は、当初のハプティック効果に基づいてスローモーションハプティック効果を表現するように構成されうる。様々な構成において、ハプティック効果パラメータは動的に変更され、または所定のスローモーションハプティック効果のセットから選択されてもよい。
図3は、本発明の実施形態例に係るハプティック効果ソフトウェアスタック300のブロックダイヤグラムである。図3に示されるように、ソフトウェアスタック300は、デバイスモジュール310、周辺ファームウェアモジュール320、コントローラモジュール330、駆動モジュール340、およびランブル駆動モジュール350を含む。ハプティック効果ソフトウェアスタック300は、図1のシステム100等のシステムに実装される。
デバイスモジュール310は、入力管理コード311、周辺入力アプリケーションプログラミングインタフェース(「API;application programming interface」)312、ランブルAPI313、ハプティック効果API314、直接プレイバック/クロスオーバ部315、トリガエンジン316、空間化エンジン317およびエンコーダ318等の様々なモジュールを含みうる。
入力管理コード311は、デバイス内で実行されるゲームアプリケーションまたは他のタイプのアプリケーションの文脈でコントローラ330により提供される入力を管理するコンピュータ可読命令のセットを含みうる。
周辺入力API312は、コントローラ330により提供される入力を受信および管理するためにゲーム入力管理コード311が周辺ファームウェア320と相互作用することを可能にするコンピュータ可読関数またはルーチンのセットを含みうる。
ランブルAPI313は、コントローラ330の一つ以上のランブルモータまたはランブルアクチュエータ(例えば図3のランブルモータLおよびR)にランブル命令を伝送するために入力管理コード311が周辺ファームウェア320と相互作用することを可能にするコンピュータ可読関数またはルーチンのセットを含みうる。加えて、ランブル命令は、コントローラ330のランブルモータまたはランブルアクチュエータに一般的ハプティック効果またはランブルハプティック効果を生み出させることができる。
(図3に「API」として識別される)ハプティック効果API314は、入力管理コード311にアクセス可能であり、入力管理コード311がコントローラ330にハプティック命令を伝送するために周辺ファームウェア320と相互作用することを可能にするコンピュータ可読関数またはルーチンのセットを含みうる。加えて、ハプティック命令は、コントローラ330の一つ以上のターゲットモータまたはターゲットアクチュエータに、コントローラ330の一つ以上のユーザ入力エレメントでハプティック効果を生み出させうる。
ハプティック効果API314は、一つ以上のハプティック効果定義を格納することもできる。ハプティック効果定義は、ハプティックファイルまたはハプティックストリーム等、予め定義され、記憶装置内に格納されることができ、一つ以上のランブルモータ、ランブルアクチュエータ、ターゲットモータ、またはターゲットアクチュエータに送信されて、コントローラ330のコンポーネントまたはユーザ入力エレメントでハプティック効果を生み出すことができる、ハプティック信号等のハプティックデータを含むデータ構造である。ハプティックデータは、対応するハプティック効果の一つ以上の属性を含むことができ、属性は、パラメータとして格納されることができる。ハプティック効果定義のパラメータの例には、振幅パラメータ、周波数パラメータ、波形パラメータ、エンベロープパラメータ、大きさ(または強度)パラメータ、および持続時間パラメータが含まれうる。
ハプティック効果API314は、ゲーム入力管理コード311が直接プレイバック/クロスオーバ部315、トリガエンジン316、および空間化エンジン317と相互作用することを可能にでき、さらに、ゲーム入力管理コード311により呼び出されたリクエストにしたがって直接プレイバック/クロスオーバ部315、トリガエンジン316、および空間化エンジン317を管理することができる。さらに、ハプティック効果API314は、周辺ファームウェア320との通信に使用される、一つ以上のハプティック効果の生成に使用されるデータを格納することができる。
直接プレイバック/クロスオーバ部315は、ハプティックデータを入力として受信し、ハプティックデータを出力として生み出し、ハプティックデータをコントローラ330の一つ以上のターゲットモータ、またはターゲットアクチュエータ(例えば図3のモータLおよびR)に伝送しうる。一部の実施形態では、直接プレイバック/クロスオーバ部315は、入力されたハプティックデータのフォーマットを修正せずに、入力されたハプティックデータを直接出力すればよい。その結果、入力されたハプティックデータが「そのまま」プレイバックされる。他の実施形態では、直接プレイバック/クロスオーバ部315は、入力されたハプティックデータを第一フォーマットから第二フォーマットへ変換し、さらに変換されたハプティックデータを出力することができる。プレイバックのタイプに応じて、直接プレイバック/クロスオーバ部315は、ハプティックデータを変換するためにプログラマブルクロスオーバを任意に使用することができる。ハプティックデータを変換することにより、デバイスモジュールは、ハプティック効果を分解し、複数のアクチュエータでハプティック効果をプレイバックすることができる。
ハプティックデータのフォーマットは、ハプティックエレメンタリストリーム(「HES;haptic elementary stream」)フォーマットであればよい。HESフォーマットは、デバイスにストリーミングされうるハプティックデータを表すためのファイルまたはデータフォーマットである。ハプティックデータは、圧縮されていない音が表されるのと同一または類似の様式で表されうるが、ハプティックデータは、HESフォーマットにおいて暗号化されうる。
トリガエンジン316は、ハプティック効果定義等のハプティックデータを受信し、トリガデータ323等のユーザ入力データに基づいて、ハプティックデータを修正することができる。トリガデータは、コントローラ330の一つ以上のトリガ(例えば図3のトリガLおよびR)の位置および/または範囲を指示する一つ以上のパラメータを含むデータである。トリガエンジン316は、コントローラ330にハプティック命令をさらに伝送することができる。例えば、トリガエンジン316は、コントローラ330の様々なユーザ入力エレメントにハプティック命令を伝送することができる。前述したように、ハプティック命令は、コントローラ330の一つ以上のターゲットモータまたはターゲットアクチュエータに、コントローラ330の一つ以上のユーザ入力エレメントでハプティック効果を生み出させることができる。
空間化エンジン317は、ハプティックデータを受信し、空間化データに基づいてハプティックデータを修正することができる。空間化データには、それぞれのユーザ入力エレメント上のハプティック効果の順序付け等のハプティック効果の所望の方向および/または流れを指示するデータを含むことができる。ある実施形態では、空間化エンジン317は、方向および/または流れを含む空間化データを入力管理コード311から受信しうる。
空間化エンジン317は、コントローラ330の一つ以上のランブルモータまたはランブルアクチュエータ(例えば図3のランブルモータLおよびR)に関してトリガハプティック効果等のハプティック効果がスケーリングされ、コントローラ330の一つ以上のターゲットモータまたはターゲットアクチュエータ(例えば図3に示したモータLおよびR)に関してもハプティック効果がスケーリングされるように、ハプティックデータを修正することができる。換言すれば、空間化エンジン317は、全体的なハプティック効果の方向および流れの感覚を伝えるために、各モータまたはアクチュエータに送信されるハプティックデータを修正し、これにより各モータまたはアクチュエータが受けるハプティック効果を修正することができる。例えば、空間化エンジン317は、あるモータまたはアクチュエータが受けるハプティック効果を強調するために、ハプティック効果の一つ以上の部分をスケーリングすることができる。例えば、空間化エンジン317は、ハプティック効果を受けるモータまたはアクチュエータに送信されるハプティックデータをスケーリングして、ハプティック効果をより目立たせることができる(例えば、大きさ、持続時間を増加させるなど)。加えて、空間化エンジン317は、他のモータまたはアクチュエータに送信されるハプティックデータをスケーリングして、それらのモータまたはアクチュエータが受ける他のハプティック効果を目立たないようにすることができる(例えば、大きさ、持続時間を減少させるなど)。一部の実施形態では、空間化エンジン317は、ハプティックデータをリアルタイムでまたは実質的にリアルタイムで修正することができる。さらに、一部の実施形態では、空間化エンジン317は、全体的トリガハプティック効果を誇張するために、入力とモータまたはアクチュエータの出力との間の非線形関係を有していてもよい。
エンコーダ318は、直接プレイバック/クロスオーバ部315、トリガエンジン316、および/または空間化エンジン317から受信したハプティックデータを一つのフォーマットに符号化する。一実施形態では、このフォーマットはHESフォーマットであってもよい。エンコーダ318は、符号化されたハプティックデータを周辺ファームウェア320に伝送することができる。
周辺ファームウェア320は、一つ以上の周辺デバイス(例えばコントローラ)のためのファームウェアである。周辺ファームウェア320は、デコーダおよびクロスオーバ部321、トリガ制御部322、トリガデータ323、他の機能324、およびランブル制御部325等の様々なモジュールを含みうる。
デコーダおよびクロスオーバ部321は、エンコーダ318から符号化されたハプティックデータを受信し、符号化されたハプティックデータを復号する。一部の実施形態では、デコーダおよびクロスオーバ部321は、符号化されたハプティックデータを復号するために、プログラマブルクロスオーバを計算する。デコーダおよびクロスオーバ部321は、プログラマブルクロスオーバをリアルタイムで計算しうる。
トリガ制御部322は、コントローラ330(例えば図3のモータLおよびR)の一つ以上のターゲットモータまたはターゲットアクチュエータのための低レベル制御APIである。トリガ制御部322は、トリガ命令を受信し、トリガ命令を、コントローラ330の指定のターゲットモータまたはターゲットアクチュエータへの低レベルトリガ命令に変換し、低レベルトリガ命令を、コントローラ330の指定のターゲットモータまたはターゲットアクチュエータに伝送することができる。低レベルトリガ命令は、指定のターゲットモータまたはターゲットアクチュエータに、コントローラ330の指定のトリガでトリガハプティック効果を生み出させることができる。
前述のように、トリガデータ323は、コントローラ330の一つ以上のトリガ(例えば図3のトリガLおよびR)の位置および/または範囲を指示する一つ以上のパラメータを含むデータである。周辺ファームウェア320によって、コントローラ330からトリガデータ323が受信されうる。周辺ファームウェア320は、トリガデータ323をさらに格納することができ、トリガデータ323をデバイスモジュール310にさらに伝送することができる。
他のゲームパッド機能324は、周辺ファームウェア320によって管理されるコントローラ330の機能であってもよい。このような機能には、有線/無線通信、入力報告、プロトコル実装、電力管理などの機能を含むことができる。
ランブル制御部325は、コントローラ330の一つ以上のランブルモータまたはランブルアクチュエータ(例えば図3のランブルモータLおよびR)のための低レベル制御APIである。ランブル制御部325は、ランブル命令を受信し、ランブル命令を、コントローラ330の指定のランブルモータまたはランブルアクチュエータのための低レベルランブル命令に変換し、低レベルトリガ命令を、コントローラ330の指定のランブルモータまたはランブルアクチュエータに伝送することができる。
ハプティック修正モジュール326は、コントローラ330のハプティック出力デバイスのハプティック効果を修正することができるファームウェアモジュールまたはスタンドアロンファームウェアチップ(例えば、特定用途向け集積回路、「ASIC;application specific integrated circuit」とも呼称される)でありうる。ハプティック修正モジュール326は、スローモーションリプレイ等、多様なプレイバック速度でのリプレイの間のハプティック効果を修正するために様々なハプティックパラメータ(例えば大きさ、周波数、持続時間)を制御するように構成されうる。ある実施形態では、修正モジュール326は、音声および/またはビデオ等のメディア信号の分析に基づいてハプティックパラメータを動的に計算するための命令を含みうる。ハプティック修正モジュール326と図1のハプティックモジュレータ142とは同じモジュールであってもよい。
コントローラ330は、トリガLおよびRを含みうる。コントローラ330は、ギヤボックスLおよびR、ならびにモータLおよびRをさらに含みうる。モータLおよびギヤボックスLは、コントローラ330内のトリガLに動作可能に結合される。同様に、モータRおよびギヤボックスRは、コントローラ330内のトリガRに動作可能に結合される。モータLがトリガ命令を受信すると、モータLおよびギヤボックスLが集合的にトリガLでトリガハプティック効果を受けさせうる。同様に、モータRがトリガ命令を受信すると、モータRおよびギヤボックスRが集合的にトリガRでトリガハプティック効果を受けさせうる。周辺ファームウェア320は、駆動エレクトロニクス340を用いてコントローラ330のモータLおよびRにトリガ命令を送信しうる。
コントローラ330は、ポテンショメータLおよびRをさらに含みうる。ポテンショメータLは、トリガLの位置および/または範囲を検出することができ、検出されたトリガLの位置および/または範囲をトリガデータとして周辺ファームウェア320にさらに送信することができる。同様に、ポテンショメータRは、トリガRの位置および/または範囲を検出することができ、検出されたトリガRの位置および/または範囲をトリガデータとして周辺ファームウェア320にさらに送信することができる。
コントローラ330は、ランブルモータLおよびRをさらに含みうる。ランブルモータLがランブル命令を受信すると、ランブルモータLは、コントローラ330の左コンポーネントに沿ってハプティック効果を受けさせる。同様に、ランブルモータRがランブル命令を受信すると、ランブルモータRは、コントローラ330の右コンポーネントに沿ってハプティック効果を受けさせる。周辺ファームウェア320は、ランブル駆動エレクトロニクス350を用いてランブルモータLおよびRにランブル命令を送信することができる。
図4は、本発明の実施形態例に係るハプティック修正アーキテクチャである。
ハプティック駆動ハンドラ410は、各ハプティック出力デバイスのタイミングおよび状態をトラッキングするためのタイマハンドラ430を備えて構成されうる。ハプティック駆動ハンドラ410とタイマハンドラ430との間に配置されるハプティックモジュレータ420は、ハプティック出力デバイスの間に分配されるハプティック効果を修正するように構成されうる。加えて、ハプティックモジュレータ420は、スローモーションリプレイ等、多様なプレイバック速度でのリプレイの間のハプティック効果を修正するために様々なハプティックパラメータ(例えば大きさ、周波数、持続時間)を制御するように構成されうる。ある実施形態では、ハプティックモジュレータ420は、音声および/またはビデオ等のメディア信号の分析に基づいてハプティックパラメータを動的に計算するための命令を含みうる。
図5は、本発明の実施形態例に係るハプティック効果を修正するための機能500のフローダイヤグラムである。一部の場合には、図5のフローダイヤグラムの機能は、メモリもしくは他のコンピュータ可読または有形の媒体に格納されたソフトウェアにより実装され、プロセッサにより実行されうる。他の実施形態では、機能は、ハードウェア(例えば、特定用途向け集積回路(「ASIC;application specific integrated circuit」)、プログラム可能ゲートアレイ(「PGA;programmable gate array」)、フィールドプログラム可能ゲートアレイ(「FPGA;field programmable gate array」)などを用いて)、またはハードウェアおよびソフトウェアの任意の組み合わせにより実施されてもよい。
最初に、機能500は、スローモーションシーケンス等の修正されたプレイバックシーケンスに含める一つ以上のハプティック効果を判断する。例えばハプティック効果は、ハプティック効果のサブセットまたは全セットを含みうる。次に520で、機能500は、リアルタイムシーケンスの間に表現されなかった追加のハプティック効果がスローモーションプレイバックシーケンスにおいて表現されるべきか否かを決定する。
530で、機能500は、メディアストリーム、特にビデオストリームが視点の変化を含むか否かを決定する。例えば、スローモーションプレイバックシーケンスにおいて検出される視点の変更により、ハプティック効果の表示位置の転移が引き起こされうる。次に540で、機能500は、イベントについてのユーザのハプティック知覚がオリジナル(通常のスピード)で誘起されたものと等しくなるように、持続時間、大きさ、周波数および他のハプティックパラメータ等の一つ以上のハプティックパラメータを修正しうる。
最後に、550で、ハプティック駆動信号が生成され、ハプティック出力デバイスの間に分配されうる。ハプティック駆動信号は、ゲーミングアプリケーション等のソフトウェアアプリケーションによって生成されうる。一部の場合には、機能500は、ハプティック出力デバイスの各々に関連する動作特性をさらに分配しうる。ここでは、一つ以上のデータ構造が、それぞれのハプティック出力デバイスの動作特性を格納しうる。
図6は、本発明の別の実施形態例に係るハプティック効果を修正するための機能600のフローダイヤグラムである。
最初に、機能600は、610で音声またはビデオストリーム等のメディアデータを受信する。メディアストリームは、ホストデバイス上で実行されるアプリケーションプログラムまたは他のソフトウェアレイヤもしくはプログラムから受信される。次に、620で、受信されたメディアデータの所定量が格納される。例えば、ハプティック効果の迅速な処理および決定を可能にするために、所定数のメディアセグメントが格納されうる。
その後、630で、いずれのハプティック効果が出力されるべきかの判断に関連する具体的なメディア特性または特徴を識別するために、格納されたメディアデータが評価される。例えば、実施形態は、インテリジェントヒューリスティクスを使用して、アプリケーションプログラムにおいて意味を持つ可能性が高いメディア特徴(例えば、ビデオの明るさまたはコントラストの変更、または音量の変更など)を抽出し、そのようなメディア特徴を、抽出されたメディア特徴とこれらの特徴が表す可能性の高いイベントとに適切に対応するハプティック効果の変更に関連付けうる。別の例では、実施形態は、インテリジェントヒューリスティクスを使用して、スローモーションにおいて修正される段階的(gradual)ハプティック効果(例えば車がスリップまたは丘を転落する)と、修正されない離散的(discrete)ハプティック効果(例えば発砲)とを区別することができる。一部の場合には、持続時間閾値(例えば250ms)を用いて、段階的ハプティック効果と離散的ハプティック効果とが区別されうる。ハプティクスは様々なイベントに適用されることができ、現在の多数のビデオゲームアプリケーションにおいて起こる可能性の高いイベントは、爆弾、手榴弾、ミサイルなどによる爆発、銃またはロケット等の武器の発射、車両の衝突、パタパタいう足音、物体が水に飛び込む音、あるゲームのイベントをプレーヤに警告するための警告音などでありうる。これらのイベントは、受信されたメディアデータから適切な分析後に認識されうる特定の音声およびビデオ特徴を有しうる。
最後に、640で、ハプティック駆動信号が生成され、ハプティック出力デバイスの間に分配されうる。
図7は、本発明の実施形態の用途に適したコントローラ700の機能ブロックダイヤグラムである。
図7に示すように、コントローラ700は、様々なユーザ入力エレメントの一つ以上を含みうる。ユーザ入力エレメントは、ホストコンピュータ704と相互作用するためにユーザにより操作される任意のインタフェースデバイスを指しうる。ユーザ入力エレメントの例には、アナログまたはデジタルジョイスティック710、ボタン714、トリガ718などが含まれる。当業者には当然のことながら、各ユーザ入力エレメントの一つ以上が、コントローラ700上に含まれうる。例えば、トリガ718の本記載は、コントローラ700を単一のトリガに限定しない。同様に、当業者には当然のことながら、複数のアナログまたはデジタルスティック、ボタン、および他のユーザ入力エレメントが使用されてもよい。
コントローラ700は、ローカルプロセッサ708を含むことができる。ローカルプロセッサ708は、接続705を介してホストコンピュータ704とコマンドおよびデータを交換しうる。接続705は、当業者に既知の一つ以上の通信プロトコルを用いた有線または無線接続でありうる。一部の場合には、コントローラ700は代わりに、ローカルプロセッサ708を含まないように構成されてもよい。ここで、コントローラ700からの入力/出力信号は、ホストコンピュータ704により直接対処および処理されてもよい。ホストコンピュータ704は、ゲームデバイスコンソールであってもよく、ディスプレイデバイス706は、ゲームデバイスコンソールに動作可能に結合されたスクリーンであってもよい。一部の場合には、ホストコンピュータ704およびディスプレイデバイス706が、単一のデバイスに組み合わせられてもよい。
コントローラ700は、そのユーザ入力エレメントの各々を直接駆動するためのターゲットアクチュエータ712、716、720(例えばモータ)、ならびにユーザの手が大抵置かれる場所でハウジング902に動作可能に結合された一つ以上の一般的アクチュエータまたはランブルアクチュエータ722、724を含みうる。より具体的には、アナログまたはデジタルスティック710は、アナログまたはデジタルスティック710に動作可能に結合されたターゲットアクチュエータまたはモータ712を含み、ボタン714は、ボタン714に動作可能に結合されたターゲットアクチュエータまたはモータ716を含み、トリガ718は、トリガ718に動作可能に結合されたターゲットアクチュエータまたはモータ720を含む。複数のターゲットアクチュエータに加えて、コントローラ700は、そのユーザ入力エレメントの各々に動作可能に結合された位置センサを含む。より具体的には、アナログまたはデジタルスティック710は、アナログまたはデジタルスティック710に動作可能に結合された位置センサ711を含み、ボタン714は、ボタン714に動作可能に結合された位置センサ715を含み、トリガ718は、トリガ718に動作可能に結合された位置センサ719を含む。ローカルプロセッサ708は、ターゲットアクチュエータ712、716、720、ならびにアナログまたはデジタルスティック710、ボタン714およびトリガ718のそれぞれの位置センサ711、715、719に、動作可能に結合される。ローカルプロセッサ708は、位置センサ711、715、719から受信した信号に応じて、有向運動感覚効果またはターゲット運動感覚効果を、アナログまたはデジタルスティック710、ボタン714およびトリガ718にそれぞれ直接提供するようにターゲットアクチュエータ712、716、720に命令する。このようなターゲット運動感覚効果は、コントローラ本体全体に沿って一般的アクチュエータ722、724により生み出される一般的ハプティック効果またはランブルハプティック効果とは識別もしくは区別可能である。集合的ハプティック効果により、複数のモダリティを同時に駆使することで(例えば映像、音声、および触覚)、ユーザがゲームへのより高い没入感を得られる。
図8Aおよび8Bは、本発明の実施形態の用途に適したコントローラ800の異なる図である。図8Aおよび図8Bに示すように、コントローラ800は、ハウジング802、アナログまたはデジタルジョイスティック810、ボタン(単数または複数)814、トリガ818、ならびにランブルアクチュエータ822および824等、様々なコンポーネントを含みうる。
ハウジング802は、ユーザがコントローラ1000を握り易いように成形される。コントローラ800はコントローラの実施形態の例であり、本発明の実施形態を他のコントローラの形状に容易に適用できる。
このように、本明細書に記載される実施形態は、ハプティック効果を生成および修正するためのシステムおよび方法を提供する。ハプティック効果シーケンスの各ハプティック効果に関連する様々なパラメータを修正することにより、ハプティック効果がスローモーションで表現される。例えば、ハプティック効果シーケンスをスローモーションで正確に伝達するために、各ハプティック効果の大きさ、周波数および/または持続時間が変えられうる。
当業者には当然のことながら、上述の本発明は、異なる順序のステップを用いて、および/または、開示された構成とは異なる構成の要素を用いて実施されてもよい。したがって、これらの好ましい実施形態に基づいて本発明を記載しているが、当業者には当然のことながら、本発明の精神および範囲を逸脱しない、ある修正、変更、および代替的構成が明らかであろう。したがって、本発明の境界および範囲を決定するためには、添付の特許請求の範囲を参照しなければならない。

Claims (21)

  1. スローモーションリプレイにおいてハプティック効果を表現する方法であって、
    メディアストリームと前記メディアストリームに対応するハプティック効果シーケンスとを受信するステップであって、前記ハプティック効果シーケンスは、複数のハプティック効果を含む、ステップと、
    前記メディアストリームと修正されたハプティック効果シーケンスとをスローモーションで表現するステップと
    を含み、
    前記修正されたハプティック効果シーケンスは、前記ハプティック効果シーケンスの少なくとも一つのハプティック効果のパラメータの変更を含む、
    方法。
  2. 前記修正されたハプティック効果シーケンスは、前記メディアストリームの特性にしたがって決定される、請求項1に記載の方法。
  3. 前記パラメータは、前記ハプティック効果の大きさ、周波数または持続時間のうちの一つを含む、請求項1に記載の方法。
  4. 前記修正されたハプティック効果シーケンスは、修正された持続時間を有するハプティック効果の第一サブセットと、修正されていない持続時間を有するハプティック効果の第二サブセットとを含む、請求項1に記載の方法。
  5. 前記修正されたハプティック効果シーケンスは、周辺デバイスの一つ以上のユーザ入力エレメントで生み出される、請求項1に記載の方法。
  6. 前記修正されたハプティック効果シーケンスは、一つ以上のトリガまたはランブル出力デバイスで生み出される、請求項1に記載の方法。
  7. 前記メディアストリームと前記ハプティック効果シーケンスとは、前記メディアストリームと修正されたハプティック効果シーケンスとをスローモーションで表現する前に、リアルタイムで表現される、請求項1に記載の方法。
  8. プロセッサにより実行されるように構成された一つ以上のプログラムを格納する非一時的コンピュータ可読記憶媒体であって、前記一つ以上のプログラムは、
    メディアストリームと前記メディアストリームに対応するハプティック効果シーケンスとを受信するステップであって、前記ハプティック効果シーケンスは、複数のハプティック効果を含む、ステップと、
    前記メディアストリームと修正されたハプティック効果シーケンスとをスローモーションで表現するステップ
    のための命令を含み、
    前記修正されたハプティック効果シーケンスは、前記ハプティック効果シーケンスの少なくとも一つのハプティック効果のパラメータの変更を含む、
    非一時的コンピュータ可読記憶媒体。
  9. 前記修正されたハプティック効果シーケンスは、前記メディアストリームの特性にしたがって決定される、請求項8に記載の非一時的コンピュータ可読記憶媒体。
  10. 前記パラメータは、前記ハプティック効果の大きさ、周波数または持続時間のうちの一つを含む、請求項8に記載の非一時的コンピュータ可読記憶媒体。
  11. 前記修正されたハプティック効果シーケンスは、修正された持続時間を有するハプティック効果の第一サブセットと、修正されていない持続時間を有するハプティック効果の第二サブセットとを含む、請求項8に記載の非一時的コンピュータ可読記憶媒体。
  12. 前記修正されたハプティック効果シーケンスは、周辺デバイスの一つ以上のユーザ入力エレメントで生み出される、請求項8に記載の非一時的コンピュータ可読記憶媒体。
  13. 前記修正されたハプティック効果シーケンスは、一つ以上のトリガまたはランブル出力デバイスで生み出される、請求項8に記載の非一時的コンピュータ可読記憶媒体。
  14. 前記メディアストリームと前記ハプティック効果シーケンスとは、前記メディアストリームと修正されたハプティック効果シーケンスとをスローモーションで表現する前に、リアルタイムで表現される、請求項8に記載の非一時的コンピュータ可読記憶媒体。
  15. プロセッサと、
    前記プロセッサによる実行のための一つ以上のプログラムを格納するメモリであって、前記一つ以上のプログラムは、
    メディアストリームと前記メディアストリームに対応するハプティック効果シーケンスとを受信するステップであって、前記ハプティック効果シーケンスは、複数のハプティック効果を含む、ステップと、
    前記メディアストリームと修正されたハプティック効果シーケンスとをスローモーションで表現するステップ
    のための命令を含む、メモリと
    を含む、デバイスであって、
    前記修正されたハプティック効果シーケンスは、前記ハプティック効果シーケンスの少なくとも一つのハプティック効果のパラメータの変更を含む、
    デバイス。
  16. 前記修正されたハプティック効果シーケンスは、前記メディアストリームの特性にしたがって決定される、請求項15に記載のデバイス。
  17. 前記パラメータは、前記ハプティック効果の大きさ、周波数または持続時間のうちの一つを含む、請求項15に記載のデバイス。
  18. 前記修正されたハプティック効果シーケンスは、修正された持続時間を有するハプティック効果の第一サブセットと、修正されていない持続時間を有するハプティック効果の第二サブセットとを含む、請求項15に記載のデバイス。
  19. 前記修正されたハプティック効果シーケンスは、周辺デバイスの一つ以上のユーザ入力エレメントで生み出される、請求項15に記載のデバイス。
  20. 前記修正されたハプティック効果シーケンスは、一つ以上のトリガまたはランブル出力デバイスで生み出される、請求項15に記載のデバイス。
  21. 前記メディアストリームと前記ハプティック効果シーケンスとは、前記メディアストリームと修正されたハプティック効果シーケンスとをスローモーションで表現する前に、リアルタイムで表現される、請求項15に記載のデバイス。
JP2017534528A 2015-02-25 2016-02-25 スローモーションのためのハプティック効果の修正 Active JP6801838B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562120702P 2015-02-25 2015-02-25
US62/120,702 2015-02-25
PCT/US2016/019515 WO2016138235A1 (en) 2015-02-25 2016-02-25 Modifying haptic effects for slow motion

Publications (2)

Publication Number Publication Date
JP2018513430A true JP2018513430A (ja) 2018-05-24
JP6801838B2 JP6801838B2 (ja) 2020-12-16

Family

ID=56690411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017534528A Active JP6801838B2 (ja) 2015-02-25 2016-02-25 スローモーションのためのハプティック効果の修正

Country Status (6)

Country Link
US (1) US10216277B2 (ja)
EP (1) EP3261737B1 (ja)
JP (1) JP6801838B2 (ja)
KR (1) KR20170117370A (ja)
CN (1) CN107106908A (ja)
WO (1) WO2016138235A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113874815A (zh) * 2019-05-28 2021-12-31 索尼集团公司 信息处理装置、信息处理方法和程序

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content
US10345758B2 (en) * 2018-10-07 2019-07-09 Rising Star Pathway, a California Corporation Processor controlled energy harvester based on oscillating weight type energy collectors
US10754428B1 (en) * 2019-02-25 2020-08-25 Facebook Technologies, Llc Systems, methods, and devices for audio-tactile mapping
US10984637B2 (en) * 2019-09-24 2021-04-20 Nvidia Corporation Haptic control interface for detecting content features using machine learning to induce haptic effects

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007324829A (ja) * 2006-05-31 2007-12-13 Toshiba Corp 振動体感再生装置及び振動体感再生方法
JP2009513077A (ja) * 2005-10-19 2009-03-26 イマージョン コーポレーション メディアトランスポートストリームにおけるハプティック効果データの同期
JP2010015551A (ja) * 2008-06-03 2010-01-21 Univ Of Electro-Communications 触覚情報提示装置及び触覚情報提示システム
WO2013116247A1 (en) * 2012-01-30 2013-08-08 Microsoft Corporation Force feedback triggers
WO2014084374A1 (ja) * 2012-11-30 2014-06-05 日本電気株式会社 通信システム、通信方法、通信装置、プログラム、及び記録媒体
JP2014194765A (ja) * 2013-03-15 2014-10-09 Immersion Corp 動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置
JP2014216017A (ja) * 2013-04-22 2014-11-17 イマージョンコーポレーションImmersion Corporation 触覚対応トリガーを有するゲーミング装置
JP2015509308A (ja) * 2011-12-21 2015-03-26 クアルコム,インコーポレイテッド 強化されたメディアエクスペリエンスを提供するための触覚技術の使用

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6448977B1 (en) 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
US7393920B2 (en) * 2003-06-23 2008-07-01 Cem Corporation Microwave-assisted peptide synthesis
US9948885B2 (en) 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US7570254B2 (en) 2004-11-09 2009-08-04 Takahiko Suzuki Haptic feedback controller, method of controlling the same, and method of transmitting messages that uses a haptic feedback controller
US9370704B2 (en) 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
US9019087B2 (en) * 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US8117364B2 (en) * 2007-11-13 2012-02-14 Microsoft Corporation Enhanced protocol and architecture for low bandwidth force feedback game controller
US7911328B2 (en) 2007-11-21 2011-03-22 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
WO2009092107A2 (en) 2008-01-17 2009-07-23 Articulate Technologies, Inc. Methods and devices for intraoral tactile feedback
US9370459B2 (en) 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
US8902050B2 (en) * 2009-10-29 2014-12-02 Immersion Corporation Systems and methods for haptic augmentation of voice-to-text conversion
US9251721B2 (en) 2010-04-09 2016-02-02 University Of Florida Research Foundation, Inc. Interactive mixed reality system and uses thereof
CN102959544B (zh) * 2010-05-04 2016-06-08 沙扎姆娱乐有限公司 用于同步媒体的方法和系统
US9462262B1 (en) 2011-08-29 2016-10-04 Amazon Technologies, Inc. Augmented reality environment with environmental condition control
US20130198625A1 (en) 2012-01-26 2013-08-01 Thomas G Anderson System For Generating Haptic Feedback and Receiving User Inputs
US20120223880A1 (en) * 2012-02-15 2012-09-06 Immersion Corporation Method and apparatus for producing a dynamic haptic effect
US10852093B2 (en) 2012-05-22 2020-12-01 Haptech, Inc. Methods and apparatuses for haptic systems
US9019088B2 (en) 2012-06-29 2015-04-28 Lenovo (Singapore) Pte. Ltd. Modulation of haptic feedback
US10671165B2 (en) * 2012-09-25 2020-06-02 Nokia Technologies Oy Method and display device with tactile feedback
FR2999741B1 (fr) 2012-12-17 2015-02-06 Centre Nat Rech Scient Systeme haptique pour faire interagir sans contact au moins une partie du corps d'un utilisateur avec un environnement virtuel
US9866924B2 (en) * 2013-03-14 2018-01-09 Immersion Corporation Systems and methods for enhanced television interaction
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US9811854B2 (en) 2013-07-02 2017-11-07 John A. Lucido 3-D immersion technology in a virtual store
DK3014394T3 (da) 2013-07-05 2022-07-11 Jacob A Rubin Helkrops-menneske-computer-grænseflade
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
EP3095023A1 (en) 2014-01-15 2016-11-23 Sony Corporation Haptic notification on wearables
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
US20160202760A1 (en) * 2014-06-06 2016-07-14 Microsoft Technology Licensing Llc Systems and methods for controlling feedback for multiple haptic zones
US9588586B2 (en) 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
JP6379778B2 (ja) * 2014-07-15 2018-08-29 富士電機株式会社 半導体装置および半導体装置の製造方法
CN106796451B (zh) 2014-07-28 2020-07-21 Ck高新材料有限公司 触觉信息提供模块
US9645646B2 (en) 2014-09-04 2017-05-09 Intel Corporation Three dimensional contextual feedback wristband device
US9799177B2 (en) 2014-09-23 2017-10-24 Intel Corporation Apparatus and methods for haptic covert communication
US10166466B2 (en) 2014-12-11 2019-01-01 Elwha Llc Feedback for enhanced situational awareness
US9922518B2 (en) 2014-12-11 2018-03-20 Elwha Llc Notification of incoming projectiles
US20160170508A1 (en) 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Tactile display devices
US9870718B2 (en) 2014-12-11 2018-01-16 Toyota Motor Engineering & Manufacturing North America, Inc. Imaging devices including spacing members and imaging devices including tactile feedback devices
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US9746921B2 (en) 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US9843744B2 (en) 2015-01-13 2017-12-12 Disney Enterprises, Inc. Audience interaction projection system
US10322203B2 (en) 2015-06-26 2019-06-18 Intel Corporation Air flow generation for scent output
US9778746B2 (en) 2015-09-25 2017-10-03 Oculus Vr, Llc Transversal actuator for haptic feedback
US20170103574A1 (en) 2015-10-13 2017-04-13 Google Inc. System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience
US20170131775A1 (en) 2015-11-10 2017-05-11 Castar, Inc. System and method of haptic feedback by referral of sensation
US10055948B2 (en) 2015-11-30 2018-08-21 Nike, Inc. Apparel with ultrasonic position sensing and haptic feedback for activities
US10310804B2 (en) 2015-12-11 2019-06-04 Facebook Technologies, Llc Modifying haptic feedback provided to a user to account for changes in user perception of haptic feedback
US10324530B2 (en) 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects
US10096163B2 (en) 2015-12-22 2018-10-09 Intel Corporation Haptic augmented reality to reduce noxious stimuli
US10065124B2 (en) 2016-01-15 2018-09-04 Disney Enterprises, Inc. Interacting with a remote participant through control of the voice of a toy device
US11351472B2 (en) 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US9846971B2 (en) 2016-01-19 2017-12-19 Disney Enterprises, Inc. Systems and methods for augmenting an appearance of a hilt to simulate a bladed weapon
US10477006B2 (en) 2016-01-22 2019-11-12 Htc Corporation Method, virtual reality system, and computer-readable recording medium for real-world interaction in virtual reality environment
US9933851B2 (en) 2016-02-22 2018-04-03 Disney Enterprises, Inc. Systems and methods for interacting with virtual objects using sensory feedback
US10555153B2 (en) 2016-03-01 2020-02-04 Disney Enterprises, Inc. Systems and methods for making non-smart objects smart for internet of things
US20170352185A1 (en) 2016-06-02 2017-12-07 Dennis Rommel BONILLA ACEVEDO System and method for facilitating a vehicle-related virtual reality and/or augmented reality presentation
US10155159B2 (en) 2016-08-18 2018-12-18 Activision Publishing, Inc. Tactile feedback systems and methods for augmented reality and virtual reality systems
US20180053351A1 (en) 2016-08-19 2018-02-22 Intel Corporation Augmented reality experience enhancement method and apparatus
US10779583B2 (en) 2016-09-20 2020-09-22 Facebook Technologies, Llc Actuated tendon pairs in a virtual reality device
US10372213B2 (en) 2016-09-20 2019-08-06 Facebook Technologies, Llc Composite ribbon in a virtual reality device
US10300372B2 (en) 2016-09-30 2019-05-28 Disney Enterprises, Inc. Virtual blaster
US10281982B2 (en) 2016-10-17 2019-05-07 Facebook Technologies, Llc Inflatable actuators in virtual reality
US10088902B2 (en) 2016-11-01 2018-10-02 Oculus Vr, Llc Fiducial rings in virtual reality
US20170102771A1 (en) 2016-12-12 2017-04-13 Leibs Technology Limited Wearable ultrasonic haptic feedback system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009513077A (ja) * 2005-10-19 2009-03-26 イマージョン コーポレーション メディアトランスポートストリームにおけるハプティック効果データの同期
JP2007324829A (ja) * 2006-05-31 2007-12-13 Toshiba Corp 振動体感再生装置及び振動体感再生方法
JP2010015551A (ja) * 2008-06-03 2010-01-21 Univ Of Electro-Communications 触覚情報提示装置及び触覚情報提示システム
JP2015509308A (ja) * 2011-12-21 2015-03-26 クアルコム,インコーポレイテッド 強化されたメディアエクスペリエンスを提供するための触覚技術の使用
WO2013116247A1 (en) * 2012-01-30 2013-08-08 Microsoft Corporation Force feedback triggers
WO2014084374A1 (ja) * 2012-11-30 2014-06-05 日本電気株式会社 通信システム、通信方法、通信装置、プログラム、及び記録媒体
JP2014194765A (ja) * 2013-03-15 2014-10-09 Immersion Corp 動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置
JP2014216017A (ja) * 2013-04-22 2014-11-17 イマージョンコーポレーションImmersion Corporation 触覚対応トリガーを有するゲーミング装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113874815A (zh) * 2019-05-28 2021-12-31 索尼集团公司 信息处理装置、信息处理方法和程序
JP7494848B2 (ja) 2019-05-28 2024-06-04 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
EP3261737B1 (en) 2021-06-09
EP3261737A1 (en) 2018-01-03
WO2016138235A1 (en) 2016-09-01
US20160246377A1 (en) 2016-08-25
CN107106908A (zh) 2017-08-29
KR20170117370A (ko) 2017-10-23
US10216277B2 (en) 2019-02-26
EP3261737A4 (en) 2018-10-10
JP6801838B2 (ja) 2020-12-16

Similar Documents

Publication Publication Date Title
JP6781697B2 (ja) メディアにより駆動されるハプティクス
US9939902B2 (en) Haptic controller
EP2873447B1 (en) Haptic trigger control system
JP6456108B2 (ja) ハプティックトリガ修正システム
JP6801838B2 (ja) スローモーションのためのハプティック効果の修正
WO2016105497A1 (en) Controlling power distribution to haptic output devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R150 Certificate of patent or registration of utility model

Ref document number: 6801838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250