JP2015060591A - 方向を調整可能なマルチチャネルハプティックデバイス - Google Patents

方向を調整可能なマルチチャネルハプティックデバイス Download PDF

Info

Publication number
JP2015060591A
JP2015060591A JP2014175105A JP2014175105A JP2015060591A JP 2015060591 A JP2015060591 A JP 2015060591A JP 2014175105 A JP2014175105 A JP 2014175105A JP 2014175105 A JP2014175105 A JP 2014175105A JP 2015060591 A JP2015060591 A JP 2015060591A
Authority
JP
Japan
Prior art keywords
haptic
haptic effect
actuator
channel
enabled device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014175105A
Other languages
English (en)
Other versions
JP2015060591A5 (ja
JP6230509B2 (ja
Inventor
デイヴィッド バーンバウム
Birnbaum David
デイヴィッド バーンバウム
サトヴィル シン バティア
Satvir Singh Bhatia
サトヴィル シン バティア
ステファン ディー. ランク
D Rank Stephen
ステファン ディー. ランク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2015060591A publication Critical patent/JP2015060591A/ja
Publication of JP2015060591A5 publication Critical patent/JP2015060591A5/ja
Application granted granted Critical
Publication of JP6230509B2 publication Critical patent/JP6230509B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1688Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being integrated loudspeakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

【課題】ユーザに特定のイベントを知らせるため、又はシミュレート又はバーチャル環境内でより深い知覚没入を生成するためのリアルなフィードバックを提供する。
【解決手段】ハプティカリィイネーブルドデバイスにハプティック効果を生成するシステムは、ハプティカリィイネーブルドデバイスの方向を決定し(202)、一又はそれ以上のハプティック効果チャネルを取得する(204)。システムは、ハプティック効果チャネルのそれぞれを、方向に基づいてハプティカリィイネーブルドデバイス上のハプティック出力デバイスへ割り当てる(206)。
【選択図】図2

Description

一実施形態は、一般的にはハプティック効果に関するものであり、特に、マルチチャネルデバイスによって生成されるハプティック効果に関する。
モバイルフォン、スマートフォン、カメラフォン、カメラ、パーソナルデジタルアシスタント(PDAs)等のようなポータブル/モバイル電子デバイスは、典型的には、デバイスに対して生じる特定のイベントをユーザに通知する出力機構を含む。例えば、携帯電話は、通常、着呼イベントをユーザに音で通知するためのスピーカを含む。可聴信号は、特定の着信音、音楽、サウンドエフェクト等を含んでもよい。また、携帯電話は、着呼をユーザに視覚的に通知するために用いられうるディスプレイスクリーンを含んでもよい。
いくつかのモバイルデバイスでは、運動感覚フィードバック(例えば、アクティブ及び抵抗性のフォースフィードバック)及び/又は触覚フィードバック(例えば、振動、テクスチャ及び熱)もユーザに提供され、より一般的には、「ハプティックフィードバック」又は「ハプティック効果」と総称される。ハプティックフィードバックは、ユーザインターフェースを促進及び簡素化するキューを提供することができる。具体的には、振動効果又は振動触覚ハプティック効果は、ユーザに特定のイベントを知らせるため、又はシミュレート又はバーチャル環境内でより深い知覚没入を生成するためのリアルなフィードバックを提供するための電子デバイスのユーザのキューの提供に有益である。
一実施形態は、ハプティカリィイネーブルドデバイス上でハプティック効果を生成するシステムである。前記システムは、前記ハプティカリィイネーブルドデバイスの方向を決定し、一又はそれ以上のハプティック効果チャネルを取得する。前記システムは、その後、前記ハプティック効果チャネルのそれぞれを、前記方向に基づいて前記ハプティカリィイネーブルドデバイス上のハプティック出力デバイスへ割り当てる。
図1は、本発明の一実施形態に係るハプティカリィイネーブルドデバイスのブロック図である。 図2は、一実施形態に係る、アクチュエータのための方向を調整可能なハプティック効果信号を生成するときの図1の方向付けられたハプティック効果モジュール及びシステムの機能のフローチャートである。 図3は、ハプティック効果チャネルを生成するために音からハプティックへの変換を使用する本発明の一実施形態のブロック図である。
一実施形態は、一以上のハプティックチャネルを含むハプティカリィイネーブルドデバイス/システムである。例えば、デバイスは、デバイスの主に左側でハプティック効果を生成する左ハプティックチャネルと、左ハプティックチャネルとは実質的に独立しており、デバイスの主に右側でハプティック効果を生成する右ハプティックチャネルと、を含むことができる。ハプティックデバイスは、ハンドヘルド/モバイルであってもよく、かつ使用時に方向(例えば、180度回した向き)に変化してもよい。したがって、実施形態は、現在の方向を決定し、ハプティックチャネルが現在の方向と一致するように、ハプティックチャネルのルートを決める。通常、実施形態は、デバイスのアクチュエータ空間配置に対してハプティック信号をマップする。
図1は、本発明の一実施形態に係るハプティカリィイネーブルドシステム(haptically−enabled system)10のブロック図である。システム10は、ハウジング15内に実装されたタッチ検知面11又は他のタイプのユーザインターフェースを含んでもよく、機械的なキー/ボタン13を含んでもよい。システム10の内部は、システム10で振動を生成するハプティックフィードバックシステムである。一実施形態では、振動は、タッチ面11で生成される。
ハプティックフィードバックシステムは、プロセッサ又はコントローラ12を含む。プロセッサ12には、メモリ20及び左アクチュエータ駆動回路16が接続され、左アクチュエータ駆動回路16は、左アクチュエータ18に接続される。アクチュエータ18は、例えば、電気モータ、電磁気アクチュエータ、ボイスコイル、リニア共振アクチュエータ、圧電アクチュエータ、形状記憶合金、電気活性ポリマー、ソレノイド、偏心質量アクチュエータ(Eccentric Rotating Mass(「ERM」)actuator)又はリニア共振アクチュエータ(linear resonant actuator(“LRA”))を含む、ハプティック効果を生成及び出力する任意のタイプのアクチュエータであってもよい。
プロセッサ12は、任意のタイプの汎用目的のプロセッサであってもよく、又は特定用途向け集積回路(「ASIC」)のようなハプティック効果を提供するように具体的に設計されたプロセッサであることもできる。プロセッサ12は、システム10全体を動作する同一のプロセッサであってもよく、別のプロセッサであってもよい。プロセッサ12は、どのハプティック効果がプレイされるか、及びハプティック効果がハイレベルパラメータに基づいてプレイされる順序を決定することができる。通常、特定のハプティック効果を定義するハイレベルパラメータは、マグニチュード(magnitude)、周波数及び持続期間を含む。ストリーミングモータコマンドのようなローレベルパラメータも特定のハプティック効果を決定するために用いられる。
プロセッサ12は、左アクチュエータ駆動回路16へ制御信号を出力し、左アクチュエータ駆動回路16は、所望のハプティック効果を生じるために、必要な電流及び電圧(つまり、「モータ信号」)を左アクチュエータ18に供給するために持ち応える電子部品を含む。また、システム10は、対応する左側デバイスと実質的に同様に動作する右アクチュエータ駆動回路26及び右アクチュエータ28を含む。左アクチュエータ18は、システム10の主に左側で振動ハプティック効果30を生成するためにシステム10内に位置決めされることができ、右アクチュエータ28は、システム10の主に右側で振動ハプティック効果40を生成するためにシステム10内に位置決めされることができる。システム10は、さらに、加速度計、傾斜センサ、三次元検出センサ等のようなシステム10の方向を検出するセンサ25を含む。センサ25からの信号は、システム10のハプティック出力デバイス全ての位置又は全体の空間的配置を決定するために、プロセッサによって用いられることができる。
アクチュエータ18,28に加えて、又は置き換えて、システム10は、静電摩擦(electrostatic friction(“ESF”))、超音波表面摩擦(ultrasonic surface friction(“USF”))を使用する装置、超音波ハプティックトランスデューサによる音響放射圧を誘起する装置、ハプティック基板及びユーザの身体に取り付けられうるフレキシブル又は変形可能な面又は形状変化デバイスを使用する装置、エアジェットを用いて空気を吐き出すような突き出たハプティック出力を提供する装置等の非機械装置又は非振動装置でありうる他のタイプのハプティック出力デバイス(図示せず)を含んでもよい。
他の実施形態では、アクチュエータ18,28及びセンサ25は、プロセッサ12とリモート通信してもよい。これらの実施形態では、プロセッサ12は、センサ25からの信号を受信し、信号に基づいてハプティック効果のマッピングを決定し、対応するリモートハプティック出力デバイスへハプティック効果を送信してもよい。例えば、プロセッサ12及びシステム10は、リストバンド、ヘッドバンド、眼鏡、リング、レッグバンド、服に一体化されたアレイ等のようなウェアラブルハプティックデバイス、又はユーザが、身体に身につける又はユーザによって保持され、かつハプティック可能(haptically enabled)である任意の他のタイプのデバイスへハプティック効果を制御及び提供するセントラルコントローラであってもよい。ウェアラブルデバイスは、ウェアラブルデバイスでハプティック効果を生成し、システム10とは離れている一又はそれ以上のハプティック出力デバイスを含む。
メモリ20は、ランダムアクセスメモリ(RAM)又はリードオンリーメモリ(ROM)のような任意のタイプのストレージデバイス又はコンピュータ可読媒体であることができる。メモリ20は、プロセッサ12によって実行される命令を記憶する。命令のうち、メモリ20は、方向付けられたハプティック効果モジュール22を含み、以下のより詳細に開示されるように、プロセッサ12によって実行されるときに、ハプティック効果を生成するために駆動回路16,26へ送信された方向を調整可能な駆動信号を生成する命令を含む。メモリ20は、プロセッサ12の内部に配置されてもよく、又は内部及び外部メモリの任意の組み合わせであってもよい。
タッチ面11は、インタラクション情報としてタッチを認識し、面上でのタッチの位置及びマグニチュードも認識してもよい。インタラクション情報に対応するデータは、プロセッサ12又はシステム10内の別のプロセッサに送信され、プロセッサ12は、インタラクション情報を読み取り、それに応じてハプティック効果信号を生成する。タッチ面11は、容量検知、抵抗検知、表面音響波検知、圧力検知、光学検知等を含む任意のセンシング技術を用いてタッチを検知してもよい。タッチ面11は、マルチタッチ接触を検知してもよく、同時に生じるマルチタッチを区別することが可能であってもよい。タッチ面11は、キー、ダイヤル等とインタラクトするためのユーザのために画像を生成及び表示するタッチスクリーンであってもよく、又は最小限の画像又は画像のないタッチパッドであってもよい。
システム10は、携帯電話、パーソナルデジタルアシスタント(「PDA」)、スマートフォン、コンピュータタブレット、ゲーミングコンソール、ウェアラブルデバイスであってもよく、又は、一又はそれ以上のアクチュエータを含むハプティック効果システムを含む任意の他のタイプのデバイスであってもよい。ユーザインターフェースは、タッチ検知面であってもよく、又はマウス、タッチパッド、ミニジョイスティック、スクロールホイール、トラックボール、ゲームパッド又はゲームコントローラ等のような任意の他のタイプのユーザインターフェースであってもよい。一以上のアクチュエータを有する実施形態では、各アクチュエータは、デバイス上でハプティック効果の広い範囲を生成するために、異なる回転性能を有してもよい。図1に示されていない要素がシステム10の各実施形態に含まれるであろう。多くの実施形態では、要素のサブセットのみが必要とされる。
一実施形態では、システム10は、マルチチャネルハプティックデバイスであり、これは、プロセッサ12が、一以上のハプティック効果チャネル(つまり、1つのハプティック効果を生成する1つのハプティック効果信号)を生成することを意味し、各チャネルは、別のアクチュエータ又は他のハプティック出力デバイスへ出力/送信される。一実施形態では、システム10は、ステレオオーディオデータの左及び右チャネルのようなオーディオデータの各チャネルに対応するハプティック効果チャネルを生成する。一実施形態では、ハプティック効果チャネル/信号は、例えば、米国特許出願第13/365,984号及び第13/366,010号に開示されるようなオーディオチャネルから自動生成されることができ、上記の開示は、参照によって本明細書に援用される。
複数のアクチュエータを有するシステム10のようなデバイスで、デバイスの姿勢又は方向に基づいて、アクチュエータへ送信されるハプティック信号を変更することが時折必要となる。例えば、システム10で、アクチュエータ18,28は、1つが左でもう一つが右にあるステレオピエゾアクチュエータであってもよい。システム10で実行されるゲーム及びビデオの触覚効果は、典型的には、いくつかの効果が、左で感じられ、その他の効果が右で感じられるように設計される。しかし、システム10のような多くのデバイスは、ユーザがデバイスを完全に反転することが可能であり、視覚画像は、依然として、表が上になるように適合するためにスピンする。したがって、実施形態は、左側で意図される的確な効果が左側でプレイされ、右側で意図される的確な効果が右側でプレイされるように、触覚効果を反転する。
図2は、一実施形態に係るアクチュエータ18,28のための方向を調整可能なハプティック効果信号を生成するときの図1の方向付けられたハプティック効果モジュール22及びシステム10の機能のフローチャートである。一実施形態では、図2のフローチャートの機能は、メモリ又は他のコンピュータ可読又は有形媒体に記憶されるソフトウェアによって実装され、プロセッサによって実行される。別の実施形態では、機能は、(例えば、特定用途向け集積回路(ASIC)、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)等)用途の使用を通じて)ハードウェアによって行われてもよく、又はハードウェア及ソフトウェアの任意の組み合わせによって行われてもよい。
202では、デバイスの方向は、センサ25のような一又はそれ以上のセンサに基づいて決定される。一実施形態では、センサ25は、加速度計である。
204では、ハプティック効果データ/チャネルは、取得される。ハプティック効果データは、データを生成するアプリケーションから直接取得されることができる、又はサウンド−トゥ−ハプティック変換(sound−to−haptic conversion;音からハプティックへの変換)技術又は他の変換技術に基づいて生成されることができる。ハプティック効果データは、複数のハプティック効果チャネルを含み、各チャネルは、左又は右アクチュエータのような異なるハプティック出力デバイスへ向けられるように構成される。
206では、204における各ハプティック効果チャネルは、個々のハプティック出力デバイスへ割り当てられる/マップされる。
208では、各ハプティック効果チャネルは、対応する割り当てられたハプティック出力デバイスへ送信される。ハプティック出力デバイスは、システム10からローカル又はリモートでありうる。
210では、各ハプティック効果チャネルは、ハプティック効果チャネルの受信に応じてハプティック効果を生成する。
図3は、ハプティック効果チャネルを生成するために音からハプティックへの変換を使用する本発明の一実施形態のブロック図である。図3の実施形態では、オーディオデータは、300においてプレイされ、左オーディオチャネル及び右オーディオチャネルを含む。しかし、図3の例では、再生装置(例えば、図1のシステム10)の方向が変化したため、元は左側にあったアクチュエータ304は、右側にある、又はその逆になる。したがって、左オーディオチャネルは、右オーディオチャネルとスワップされるべきであることが決定される。
オプション1では、オーディオチャネルは、サウンド−トゥ−ハプティック変換モジュール310によって受信される前に、301でスワップされることができ、サウンド−トゥ−ハプティック変換モジュール310は、ミキサ320によって受信される前に、各オーディオチャネルをハプティック効果チャネルへ変換する。オプション1が用いられる場合、フラグは、スワップフラグ330に設定され、チャネルがスワップされていることを示す。したがって、サウンド−トゥ−ハプティック変換モジュール310は、デバイスの方向に関わらず、ハプティックチャネルを生成するために処理を進めることができる。
オプション2では、サウンド−トゥ−ハプティック変換モジュール310は、スワップしないデータを受信し、チャネルがスワップされることを必要とすることをスワップフラグ330から決定する。モジュール310は、その後、マップされたアクチュエータ340へハプティックチャネルを出力する前に、サウンド−トゥ−ハプティック変換機能の一部としてスワッピング機能を含むことができる。
上記で説明された実施形態は、マッピングを決定するときに2つの方向(つまり、左及び右)を考慮するが、他の実施形態は、4つの方向(つまり、上、下、左及び右)を考慮することができる、又はハプティック出力デバイスの数及び配置に応じて任意の他の数の方向を考慮することができる。さらに、左及び右ではなく、ハプティック出力デバイスは、デバイスの前後、又は他の配置であることもできる。ハプティックチャネルのマッピングは、また、デバイスの方向に加えて又は置き換えて、手の位置、掴む強さ又は掴むスタイル(つまり、ユーザがデバイスを保持する態様)に基づいてもよい。例えば、ユーザが左側でデバイスを強く掴んでいる一方で、右側でデバイスを軽く掴んでいる場合、ハプティックチャネルの一方は、強く掴んでいる側へマップされ、他方のハプティックチャネルは、軽く掴んでいる側へマップされてもよい。さらに、ハプティックチャネルのボリューム又は「マグニチュード」は、掴み方に応じて調整されることができる。例えば、強く掴んだ側は、通常のマグニチュードで残る一方、軽く掴んだ側は、マグニチュードが増加されることができる。
上記で開示されるいくつかの実施形態では、デバイスは、例えば、左側が右側にスワップされるように、180度回転される。しかし、いくつかの例では、2つのアクチュエータを有し、両側にアクチュエータが1つずつあるデバイスは、90度回転される、又は180未満のその他の量で回転されてもよい。一実施形態では、以下のチャネルのマッピング/割り当ての一又はそれ以上を行ってもよい。
・左及び右のハプティックチャネルは、両方のアクチュエータでプレイされる単一の「中央」チャネルへミックスされる。
・ミックスなし−左ハプティック効果は、直近に左側にあるアクチュエータでプレイされることに替えて、左ハプティック効果は、右アクチュエータであったものでプレイされる。これは、最も一貫性のある体験を提供するであろう。
・いくつかの他の属性は、プレイするアクチュエータを決定するために用いられる(例えば、一方が他方よりも大きくてもよい)。
2つのアクチュエータを有する別の実施形態では、ハプティック信号は、4つのチャネル(例えば、左/右/前/後)で構成され、デバイスは、90度回転される、又はいくつかの他の量は、180度未満である。この実施形態では、現在の方向(左/右又は前/後ろ)に対応する2つのチャネルは、選択され、これらのチャネルは、レンダリングされる。2つの軸から外れる(off−axis)チャネルは、いずれかが下げられる、又は他のアクチュエータの一方又は両方でプレイされる中心チャネルとしてミックス及び処理される。
通常、実施形態が、マルチチャネルハプティック効果のトラックを個々のアクチュエータへ割り当てているとき、第1の判断は、システムのアクチュエータの位置/軸に一致する効果を使用することであり、その後に、軸から外れる(off−axis)効果を一又はそれ以上のアクチュエータへ追加でマッピングする。
さらに、ハプティックマッピングは、ユーザが、コントロールウィジェットにおいてタッチスクリーンのどこをタッチするかに応じて変更されてもよい。例えば、デバイスは、マルチアクチュエータデバイスの側面に沿うグラフィックタッチスクリーンスライダを含んでもよい。ユーザに最も近いアクチュエータは、ハプティックコマンド信号を受信することができる一方で、他のアクチュエータは、ハプティック信号を受信しない。
マッピングは、また、フレキシブルデバイスに適用され、例えば、スクリーンが上方にスクロールされる又は拡大されるかどうかに従ってもよく、マルチタッチスクリーンに適用されてもよい。
マッピングを用いる実施形態は、ウェアラブルハプティックデバイスをさらに含む。例えば、一実施形態では、ハプティック出力デバイスは、マルチバイブレーションエレメントを有するリングである。ハプティックチャネルのマッピングは、リングの方向に応じて調整されることができる。例えば、現在リングの上にあるいずれかのアクチュエータは、リングの現在方向に応じて変化する。「上方向(up)」ハプティック信号(すなわち、「上方向(up)」情報を伝えるハプティック信号)を送信するとき、リングの上にある現在のアクチュエータは、上方向ハプティック効果を受信する。別の例では、ユーザは、各腕に1つのハプティカリィイネーブルドウォッチをそれぞれ身に付けていてもよい。ユーザがウォッチをスワップする場合、システム10は、どちらの腕にどちらのウォッチがあり、どちらにハプティック効果をマップするかを決定する。
さらに、実施形態におけるマッピングは、ムービーを再生する間のような「中間(mid−stream)」を生じうる。例えば、ユーザは、タブレットでステレオ空間触覚効果(stereo spatialized tactile effects)を有するムービーを観ている場合がある。ユーザは、ムービーを一時停止し、タブレットを下に置く。ユーザが戻り、タブレットを拾い上げたとき、タブレットは、前とは反対方向である。タブレットは、これに適応するためにディスプレイ画像を回転する。さらに、実施形態は、マッピングを変更することにより、空間ハプティック画像(specialized haptic image)も回転する。
上記で開示された実施形態は、マルチアクチュエータを含むが、一実施形態では、デバイスは、単一のアクチュエータを含んでもよい。この実施形態では、ハプティック効果は、デバイスの方向ではなく、ユーザがどのようにデバイスを保持しているかに基づいて変更される。例えば、アクチュエータが、左側にあり、かつユーザがデバイスを左側に保持している場合、ハプティック効果のマグニチュードは、相対的に弱くなる。しかし、センサ25が、ユーザがデバイスを右側に保持していることを検出した場合には、ユーザが、アクチュエータの位置から離れた距離でハプティック効果を感じることができるように、ハプティック効果のマグニチュードは、相対的に強くなる。
開示されているように、実施形態は、他の要因のうち、デバイスの方向に基づいて、ハプティックチャネルをアクチュエータへマップする。したがって、空間ハプティック効果は、例えば、どのモバイルデバイスがユーザによって保持されているかに関わらず、常に、適切なハプティック出力デバイスによって生成される。
本明細書では、複数の実施形態を具体的に例示および/または説明している。しかし、開示されている実施形態の修正および変更も、上述の教示の対象範囲に含まれ、本発明の精神および範囲から逸脱せずに添付の請求項の範囲内に含まれるものとする。

Claims (21)

  1. プロセッサによって実行されたときに、前記プロセッサにハプティカリィイネーブルドデバイスでハプティック効果を生成させる命令を有するコンピュータ可読媒体であって、前記ハプティック効果を生成することは、
    前記ハプティカリィイネーブルドデバイスの方向を決定するステップと、
    一又はそれ以上のハプティック効果チャネルを取得するステップと、
    前記ハプティック効果チャネルのそれぞれを、前記方向に基づく前記ハプティカリィイネーブルドデバイスでのハプティック出力デバイスへ割り当てるステップと、を備えるコンピュータ可読媒体。
  2. 前記ハプティカリィイネーブルドデバイスは、前記ハプティック出力デバイスを含む二又はそれ以上のアクチュエータを有するモバイルデバイスである請求項1に記載のコンピュータ可読媒体。
  3. 前記ハプティック効果チャネルは、ハプティック効果を直接生成するアプリケーションから取得される請求項1に記載のコンピュータ可読媒体。
  4. 前記ハプティック効果チャネルは、各ハプティック効果チャネルに対応する別のオーディオトラックを受信するサウンド−トゥ−ハプティック変換モジュールから取得される請求項1に記載のコンピュータ可読媒体。
  5. 前記方向は、センサから受信された信号に応じて決定される請求項1に記載のコンピュータ可読媒体。
  6. 前記ハプティック効果チャネルのそれぞれを割り当てるステップは、前記ハプティック効果チャネルを前記ハプティカリィイネーブルドデバイスへリモート送信することを含む請求項1に記載のコンピュータ可読媒体。
  7. 前記ハプティック効果チャネルのそれぞれを割り当てるステップに応じて、前記アクチュエータは、振動ハプティック効果を生成する請求項2に記載のコンピュータ可読媒体。
  8. 前記ハプティック効果チャネルのそれぞれを割り当てるステップは、前記オーディオトラックが、前記サウンド−トゥ−ハプティック変換モジュールによって受信される前に、前記オーディオトラックをスワップすることを含む請求項4に記載のコンピュータ可読媒体。
  9. ハプティカリィイネーブルドデバイスでハプティック効果を生成するコンピュータ実装される方法であって、
    前記ハプティカリィイネーブルドデバイスの方向を決定するステップと、
    一又はそれ以上のハプティック効果チャネルを取得するステップと、
    前記ハプティック効果チャネルのそれぞれを、前記方向に基づく前記ハプティカリィイネーブルドデバイスでのハプティック出力デバイスへ割り当てるステップと、を備える方法。
  10. 前記ハプティカリィイネーブルドデバイスは、前記ハプティック出力デバイスを含む二又はそれ以上のアクチュエータを有するモバイルデバイスである請求項9に記載の方法。
  11. 前記ハプティック効果チャネルは、ハプティック効果を直接生成するアプリケーションから取得される請求項9に記載の方法。
  12. 前記ハプティック効果チャネルは、各ハプティック効果チャネルに対応する別のオーディオトラックを受信するサウンド−トゥ−ハプティック変換モジュールから取得される請求項9に記載の方法。
  13. 前記方向は、センサから受信された信号に応じて決定される請求項9に記載の方法。
  14. 前記ハプティック効果チャネルのそれぞれを割り当てるステップは、前記ハプティック効果チャネルを前記ハプティカリィイネーブルドデバイスへリモート送信することを含む請求項9に記載の方法。
  15. 前記ハプティック効果チャネルのそれぞれを割り当てるステップに応じて、前記アクチュエータは、振動ハプティック効果を生成する請求項10に記載の方法。
  16. 前記ハプティック効果チャネルのそれぞれを割り当てるステップは、前記オーディオトラックが、前記サウンド−トゥ−ハプティック変換モジュールによって受信される前に、前記オーディオトラックをスワップすることを含む請求項12に記載の方法。
  17. プロセッサと、
    前記プロセッサに接続される第1のアクチュエータと、
    前記プロセッサに接続される第2のアクチュエータと、
    前記プロセッサに接続される方位センサと、
    前記プロセッサに接続され、ハプティックシステムの方向に基づいて前記第1のアクチュエータ又は前記第2のアクチュエータの一方へハプティック効果チャネルをマップするハプティック効果マッパーモジュールと、を備えるハプティックシステム。
  18. 前記ハプティック効果チャネルは、ハプティック効果を直接生成するアプリケーションから取得される請求項17に記載のハプティックシステム。
  19. 前記ハプティック効果チャネルは、オーディオトラックを受信するサウンド−トゥ−ハプティック変換モジュールから取得される請求項17に記載のハプティックシステム。
  20. 前記マップすることは、前記ハプティック効果チャネルを前記第1のアクチュエータ又は前記第2のアクチュエータの一方へ送信することを含む請求項17に記載のハプティックシステム。
  21. 前記第1のアクチュエータ又は前記第2のアクチュエータの一方は、前記マップすることに応じて振動ハプティック効果を生成する請求項17に記載のハプティックシステム。
JP2014175105A 2013-09-18 2014-08-29 方向を調整可能なマルチチャネルハプティックデバイス Active JP6230509B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/030,181 2013-09-18
US14/030,181 US9207764B2 (en) 2013-09-18 2013-09-18 Orientation adjustable multi-channel haptic device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017200145A Division JP6266835B1 (ja) 2013-09-18 2017-10-16 方向を調整可能なマルチチャネルハプティックデバイス

Publications (3)

Publication Number Publication Date
JP2015060591A true JP2015060591A (ja) 2015-03-30
JP2015060591A5 JP2015060591A5 (ja) 2017-09-07
JP6230509B2 JP6230509B2 (ja) 2017-11-15

Family

ID=51454516

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014175105A Active JP6230509B2 (ja) 2013-09-18 2014-08-29 方向を調整可能なマルチチャネルハプティックデバイス
JP2017200145A Expired - Fee Related JP6266835B1 (ja) 2013-09-18 2017-10-16 方向を調整可能なマルチチャネルハプティックデバイス
JP2017242582A Expired - Fee Related JP6480557B2 (ja) 2013-09-18 2017-12-19 方向を調整可能なマルチチャネルハプティックデバイス

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2017200145A Expired - Fee Related JP6266835B1 (ja) 2013-09-18 2017-10-16 方向を調整可能なマルチチャネルハプティックデバイス
JP2017242582A Expired - Fee Related JP6480557B2 (ja) 2013-09-18 2017-12-19 方向を調整可能なマルチチャネルハプティックデバイス

Country Status (5)

Country Link
US (4) US9207764B2 (ja)
EP (2) EP2851763B1 (ja)
JP (3) JP6230509B2 (ja)
KR (1) KR102104851B1 (ja)
CN (1) CN104460983B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066299A1 (ja) * 2016-10-07 2018-04-12 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2018064264A (ja) * 2016-10-07 2018-04-19 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2018081696A (ja) * 2016-11-18 2018-05-24 イマージョン コーポレーションImmersion Corporation 複数の静電摩擦(esf)電極を有するハンドヘルドインターフェースデバイス

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9207764B2 (en) * 2013-09-18 2015-12-08 Immersion Corporation Orientation adjustable multi-channel haptic device
US9588586B2 (en) 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US9715279B2 (en) * 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
EP3099030A1 (en) * 2015-05-26 2016-11-30 Thomson Licensing Method and device for encoding/decoding a packet comprising data representative of a haptic effect
KR102414356B1 (ko) 2015-06-26 2022-06-29 삼성전자 주식회사 전자 장치 및 그의 햅틱 피드백 제공 방법
EP3112987A1 (en) * 2015-06-29 2017-01-04 Thomson Licensing Method and schemes for perceptually driven encoding of haptic effects
US9832571B2 (en) * 2015-12-10 2017-11-28 Audera Acoustics Inc. Acoustic transducer systems with tilt control
US9921609B2 (en) 2016-08-02 2018-03-20 Immersion Corporation Systems and methods for deformation and haptic effects
US10671167B2 (en) 2016-09-01 2020-06-02 Apple Inc. Electronic device including sensed location based driving of haptic actuators and related methods
US9994235B2 (en) * 2016-09-16 2018-06-12 Toyota Motor Engineering & Manufacturing North America, Inc. Human-machine interface device and method for sensory augmentation in a vehicle environment
US10297120B2 (en) * 2016-12-13 2019-05-21 Disney Enterprises, Inc. Haptic effect generation system
DE102016124275A1 (de) * 2016-12-13 2018-06-14 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Bamberg Verfahren zur Ansteuerung einer motorischen Verschlusselementanordnung eines Kraftfahrzeugs
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
US20190105562A1 (en) * 2017-10-11 2019-04-11 Immersion Corporation Haptic effects with multiple peripheral devices
KR102208810B1 (ko) * 2017-10-20 2021-01-28 주식회사 씨케이머티리얼즈랩 촉각 정보 제공 시스템
US10832537B2 (en) * 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US11287885B1 (en) * 2019-01-22 2022-03-29 Facebook Technologies, Llc Apparatus, system, and method for determining the position of wearables donned by users of artificial reality systems
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US12035445B2 (en) 2019-03-29 2024-07-09 Cirrus Logic Inc. Resonant tracking of an electromagnetic load
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
GB2604215B (en) 2019-06-21 2024-01-31 Cirrus Logic Int Semiconductor Ltd A method and apparatus for configuring a plurality of virtual buttons on a device
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
CN111281383A (zh) * 2020-03-07 2020-06-16 北京理工大学 一种阵列式压电双晶片刺激系统
WO2021183132A1 (en) * 2020-03-12 2021-09-16 Google Llc Controlling haptic feedback based on proximity of contact to sensor
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
EP4242798A4 (en) * 2021-03-11 2024-05-22 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE FOR PROVIDING VIBRATION FEEDBACK, AND METHOD OF OPERATING THE SAME
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090325645A1 (en) * 2008-06-27 2009-12-31 Lg Electronics Inc. Haptic effect provisioning for a mobile communication terminal
JP2010086411A (ja) * 2008-10-01 2010-04-15 Canon Inc 情報処理装置、情報処理方法
JP2013516708A (ja) * 2010-01-07 2013-05-13 クゥアルコム・インコーポレイテッド 触力覚アクチュエータを使用した3次元の動きのシミュレーション

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6131097A (en) * 1992-12-02 2000-10-10 Immersion Corporation Haptic authoring
CN100468294C (zh) * 2000-09-28 2009-03-11 伊默逊股份有限公司 用于触觉反馈接口设备的有方向触觉反馈
JP2004085304A (ja) * 2002-08-26 2004-03-18 Canon Inc 複合機能デバイス及び触覚情報システム
US7082570B1 (en) * 2002-08-29 2006-07-25 Massachusetts Institute Of Technology Distributed haptic interface system and method
KR100507554B1 (ko) * 2003-05-21 2005-08-17 한국과학기술연구원 병렬형 햅틱 조이스틱 시스템
US20060066569A1 (en) 2003-12-08 2006-03-30 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US9948885B2 (en) 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
EP1851606A1 (en) * 2005-02-24 2007-11-07 Nokia Corporation Motion-input device for a computing terminal and method of its operation
JP5129478B2 (ja) * 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ 画面表示装置
US8000825B2 (en) * 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US7979146B2 (en) * 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8378964B2 (en) * 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US9370704B2 (en) 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
EP2174360A4 (en) * 2007-06-29 2013-12-11 Artificial Muscle Inc CONVERTER WITH ELECTROACTIVE POLYMER FOR SENSOR REVIEW APPLICATIONS
US8508486B2 (en) * 2007-10-01 2013-08-13 Immersion Corporation Directional haptic effects for a handheld device
JP5016117B2 (ja) 2008-01-17 2012-09-05 アーティキュレイト テクノロジーズ インコーポレーティッド 口腔内触知フィードバックのための方法及び装置
US8004501B2 (en) 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels
US20090280860A1 (en) * 2008-05-12 2009-11-12 Sony Ericsson Mobile Communications Ab Mobile phone with directional force feedback and method
JP5639151B2 (ja) 2009-04-15 2014-12-10 コーニンクレッカ フィリップス エヌ ヴェ 折り畳み式触覚ディスプレイ
US9370459B2 (en) 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
JP2011090575A (ja) 2009-10-23 2011-05-06 Ricoh Co Ltd 情報表示装置、情報表示方法、プログラム
WO2011127379A2 (en) 2010-04-09 2011-10-13 University Of Florida Research Foundation Inc. Interactive mixed reality system and uses thereof
EP2417925B1 (en) * 2010-08-12 2016-12-07 Immersion Corporation Electrosurgical tool having tactile feedback
US8801710B2 (en) * 2010-12-07 2014-08-12 Immersion Corporation Electrosurgical sealing tool having haptic feedback
US8523043B2 (en) * 2010-12-07 2013-09-03 Immersion Corporation Surgical stapler having haptic feedback
US8717152B2 (en) * 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
US9448626B2 (en) 2011-02-11 2016-09-20 Immersion Corporation Sound to haptic effect conversion system using amplitude value
JP5866869B2 (ja) 2011-08-26 2016-02-24 ソニー株式会社 携帯端末装置及び方位提示方法
US9462262B1 (en) 2011-08-29 2016-10-04 Amazon Technologies, Inc. Augmented reality environment with environmental condition control
US9582178B2 (en) * 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
KR20130068862A (ko) * 2011-12-16 2013-06-26 삼성전자주식회사 복수개의 스피커를 운용하는 단말기 및 이의 운용 방법
US9411423B2 (en) * 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
US10852093B2 (en) 2012-05-22 2020-12-01 Haptech, Inc. Methods and apparatuses for haptic systems
FR2999741B1 (fr) 2012-12-17 2015-02-06 Centre Nat Rech Scient Systeme haptique pour faire interagir sans contact au moins une partie du corps d'un utilisateur avec un environnement virtuel
US9904394B2 (en) * 2013-03-13 2018-02-27 Immerson Corporation Method and devices for displaying graphical user interfaces based on user contact
US20140267076A1 (en) * 2013-03-15 2014-09-18 Immersion Corporation Systems and Methods for Parameter Modification of Haptic Effects
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US9811854B2 (en) 2013-07-02 2017-11-07 John A. Lucido 3-D immersion technology in a virtual store
WO2015002850A1 (en) 2013-07-05 2015-01-08 Rubin Jacob A Whole-body human-computer interface
KR102044701B1 (ko) * 2013-07-10 2019-11-14 엘지전자 주식회사 이동 단말기
US9207764B2 (en) * 2013-09-18 2015-12-08 Immersion Corporation Orientation adjustable multi-channel haptic device
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
WO2015107386A1 (en) 2014-01-15 2015-07-23 Sony Corporation Haptic notification on wearables
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
CN111998027B (zh) 2014-07-28 2022-05-27 Ck高新材料有限公司 触觉信息提供方法
US9645646B2 (en) 2014-09-04 2017-05-09 Intel Corporation Three dimensional contextual feedback wristband device
US9799177B2 (en) 2014-09-23 2017-10-24 Intel Corporation Apparatus and methods for haptic covert communication
US10166466B2 (en) 2014-12-11 2019-01-01 Elwha Llc Feedback for enhanced situational awareness
US9922518B2 (en) 2014-12-11 2018-03-20 Elwha Llc Notification of incoming projectiles
US9870718B2 (en) 2014-12-11 2018-01-16 Toyota Motor Engineering & Manufacturing North America, Inc. Imaging devices including spacing members and imaging devices including tactile feedback devices
US20160170508A1 (en) 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Tactile display devices
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US9746921B2 (en) 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US9843744B2 (en) 2015-01-13 2017-12-12 Disney Enterprises, Inc. Audience interaction projection system
US10322203B2 (en) 2015-06-26 2019-06-18 Intel Corporation Air flow generation for scent output
US9778746B2 (en) 2015-09-25 2017-10-03 Oculus Vr, Llc Transversal actuator for haptic feedback
US20170103574A1 (en) 2015-10-13 2017-04-13 Google Inc. System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience
US20170131775A1 (en) 2015-11-10 2017-05-11 Castar, Inc. System and method of haptic feedback by referral of sensation
WO2017095951A1 (en) 2015-11-30 2017-06-08 Nike Innovate C.V. Apparel with ultrasonic position sensing and haptic feedback for activities
US10310804B2 (en) 2015-12-11 2019-06-04 Facebook Technologies, Llc Modifying haptic feedback provided to a user to account for changes in user perception of haptic feedback
US10324530B2 (en) 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects
US10096163B2 (en) 2015-12-22 2018-10-09 Intel Corporation Haptic augmented reality to reduce noxious stimuli
US10065124B2 (en) 2016-01-15 2018-09-04 Disney Enterprises, Inc. Interacting with a remote participant through control of the voice of a toy device
US11351472B2 (en) 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US9846971B2 (en) 2016-01-19 2017-12-19 Disney Enterprises, Inc. Systems and methods for augmenting an appearance of a hilt to simulate a bladed weapon
US10477006B2 (en) 2016-01-22 2019-11-12 Htc Corporation Method, virtual reality system, and computer-readable recording medium for real-world interaction in virtual reality environment
US9933851B2 (en) 2016-02-22 2018-04-03 Disney Enterprises, Inc. Systems and methods for interacting with virtual objects using sensory feedback
US10555153B2 (en) 2016-03-01 2020-02-04 Disney Enterprises, Inc. Systems and methods for making non-smart objects smart for internet of things
US20170352185A1 (en) 2016-06-02 2017-12-07 Dennis Rommel BONILLA ACEVEDO System and method for facilitating a vehicle-related virtual reality and/or augmented reality presentation
US10155159B2 (en) 2016-08-18 2018-12-18 Activision Publishing, Inc. Tactile feedback systems and methods for augmented reality and virtual reality systems
US20180053351A1 (en) 2016-08-19 2018-02-22 Intel Corporation Augmented reality experience enhancement method and apparatus
US10779583B2 (en) 2016-09-20 2020-09-22 Facebook Technologies, Llc Actuated tendon pairs in a virtual reality device
US10372213B2 (en) 2016-09-20 2019-08-06 Facebook Technologies, Llc Composite ribbon in a virtual reality device
US10300372B2 (en) 2016-09-30 2019-05-28 Disney Enterprises, Inc. Virtual blaster
US10281982B2 (en) 2016-10-17 2019-05-07 Facebook Technologies, Llc Inflatable actuators in virtual reality
US10088902B2 (en) 2016-11-01 2018-10-02 Oculus Vr, Llc Fiducial rings in virtual reality
US20170102771A1 (en) 2016-12-12 2017-04-13 Leibs Technology Limited Wearable ultrasonic haptic feedback system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090325645A1 (en) * 2008-06-27 2009-12-31 Lg Electronics Inc. Haptic effect provisioning for a mobile communication terminal
JP2010086411A (ja) * 2008-10-01 2010-04-15 Canon Inc 情報処理装置、情報処理方法
JP2013516708A (ja) * 2010-01-07 2013-05-13 クゥアルコム・インコーポレイテッド 触力覚アクチュエータを使用した3次元の動きのシミュレーション

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066299A1 (ja) * 2016-10-07 2018-04-12 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2018064264A (ja) * 2016-10-07 2018-04-19 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11009956B2 (en) 2016-10-07 2021-05-18 Sony Corporation Information processing apparatus and information processing method for presentation of multiple haptic feedback channels based on sound characteristics extracted from multiple sound channels
JP2018081696A (ja) * 2016-11-18 2018-05-24 イマージョン コーポレーションImmersion Corporation 複数の静電摩擦(esf)電極を有するハンドヘルドインターフェースデバイス

Also Published As

Publication number Publication date
EP2851763B1 (en) 2017-10-04
US9778744B2 (en) 2017-10-03
JP6480557B2 (ja) 2019-03-13
US20190220094A1 (en) 2019-07-18
JP6230509B2 (ja) 2017-11-15
EP3299932B1 (en) 2020-01-01
US20150077324A1 (en) 2015-03-19
JP6266835B1 (ja) 2018-01-24
US10209776B2 (en) 2019-02-19
KR102104851B1 (ko) 2020-04-28
EP2851763A1 (en) 2015-03-25
CN104460983A (zh) 2015-03-25
JP2018028928A (ja) 2018-02-22
JP2018067340A (ja) 2018-04-26
KR20150032475A (ko) 2015-03-26
US20160085308A1 (en) 2016-03-24
US9207764B2 (en) 2015-12-08
EP3299932A1 (en) 2018-03-28
US20170351334A1 (en) 2017-12-07
CN104460983B (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
JP6266835B1 (ja) 方向を調整可能なマルチチャネルハプティックデバイス
US10248210B2 (en) Systems and methods for haptically-enabled conformed and multifaceted displays
US9268403B2 (en) Interactivity model for shared feedback on mobile devices
EP2889717B1 (en) Systems and methods for a haptically-enabled projected user interface
JP5833601B2 (ja) モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP6612522B2 (ja) 没入型環境における非コロケートな触覚キュー
US10474238B2 (en) Systems and methods for virtual affective touch
US8340695B2 (en) Mobile terminal and method of controlling the operation of the mobile terminal
EP3109736A1 (en) Electronic device and method for providing haptic feedback thereof
EP3333674A1 (en) Systems and methods for compliance simulation with haptics
EP3367216A1 (en) Systems and methods for virtual affective touch
CN109240413A (zh) 屏幕发声方法、装置、电子装置及存储介质
WO2015119237A1 (ja) 電子機器、および制御プログラム
KR101716151B1 (ko) 휴대 단말기 및 그 동작 방법
KR101668242B1 (ko) 휴대 단말기 및 그 동작 방법
WO2016148182A1 (ja) 電子機器、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170728

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170728

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171017

R150 Certificate of patent or registration of utility model

Ref document number: 6230509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250