JP2017152035A - モバイルデバイス上での共有されたフィードバックのための双方向性モデル - Google Patents

モバイルデバイス上での共有されたフィードバックのための双方向性モデル Download PDF

Info

Publication number
JP2017152035A
JP2017152035A JP2017089826A JP2017089826A JP2017152035A JP 2017152035 A JP2017152035 A JP 2017152035A JP 2017089826 A JP2017089826 A JP 2017089826A JP 2017089826 A JP2017089826 A JP 2017089826A JP 2017152035 A JP2017152035 A JP 2017152035A
Authority
JP
Japan
Prior art keywords
signal
gesture
haptic
interaction
sensor signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017089826A
Other languages
English (en)
Other versions
JP6431126B2 (ja
Inventor
デイヴィッド バーンバウム
Birnbaum David
デイヴィッド バーンバウム
クリス ウルリッチ
Ullrich Chris
クリス ウルリッチ
ジェイソン ショート
Short Jason
ジェイソン ショート
ライアン デベニッシュ
Devenish Ryan
ライアン デベニッシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2017152035A publication Critical patent/JP2017152035A/ja
Application granted granted Critical
Publication of JP6431126B2 publication Critical patent/JP6431126B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】動的触覚効果を生成し、かつジェスチャ信号およびリアルまたはバーチャルのデバイスセンサ信号を含む駆動信号を生成するシステムを提供する。
【解決手段】触覚効果は、ジェスチャ信号および、例えば加速度計またはジャイロスコープからのリアルまたはバーチャルのデバイスセンサ信号の両方に基づいて、あるいは、静止画、ビデオ、または音声などの処理データから生成された信号によって、ダイナミックに修正される。触覚効果は、ジェスチャ信号およびリアルまたはバーチャルのデバイスセンサ信号ならびに物理モデルを用いることによって必要に応じてダイナミックに修正されてもよく、あるいは、通信リンクを介して接続された複数のデバイスに必要に応じて同時に適用されてもよい。触覚効果は、第1のデバイス上で、データファイルに必要に応じてエンコードされてもよい。データファイルは次いで第2のデバイスに通信され、触覚効果はデータファイルから読み出されて第2のデバイスに適用される。
【選択図】図1

Description

(関連出願の参照)
本出願は、35 U.S.C.§120に基づき、2012年2月15日に出願された同時係属中の出願第13/397,142号の優先権の利益を主張する。
一実施形態は、一般にデバイスのためのユーザインターフェースに関し、より詳細には、複数のジェスチャ信号およびリアルまたはバーチャルのデバイスセンサ信号を用いた動的な触覚(ハプティック)効果を生成することに関する。
電子デバイスの製造者はユーザにとって豊かなインターフェースを製造することに注力している。従来のデバイスは、ユーザにフィードバックを提供するために、視覚的及び聴覚的合図を用いている。一部のインターフェースデバイスにおいて、より一般的には総括して「触覚フィードバック」又は「触覚的効果」として知られる、運動感覚フィードバック(作用力及び抵抗力フィードバック等)及び/又はタクタイル(触知的)フィードバック(振動、触感、及び熱等)もまた、ユーザに提供される。触覚フィードバックは、ユーザインターフェースを強化及び単純化するきっかけを提供し得る。具体的に、振動効果、すなわち振動触覚的効果は、ユーザに特定のイベントを通知するために、電子デバイスのユーザへの合図を提供するのに有用であり得るか、又はシミュレート環境もしくは仮想環境内でより大きく感覚を集中させるために、現実的なフィードバックを提供し得る。
振動効果を生成するために、多くのデバイスは一部のタイプのアクチュエータまたは触覚出力デバイスを利用する。この目的のために用いられる公知の触覚出力デバイスとしては、偏心質量がモータによって動かされる偏心回転質量(「ERM」)などの電磁アクチュエータ、ばねに取り付けられた質量が前後に駆動されるリニア共振アクチュエータ(「LRA」)、または圧電(ピエゾ)ポリマー、電気活性ポリマーもしくは形状記憶合金のような「スマート材料」が挙げられる。触覚出力デバイスはまた広範に、非機械的または非振動デバイス、例えば、静電摩擦(ESF)、超音波表面摩擦(USF:ultrasonic surface friction)などのデバイス、あるいは、超音波触覚トランスデューサを用いた音響放射圧を誘導するデバイス、または、触覚基板および可撓性もしくは変形可能な表面を利用するデバイス、あるいは、空気ジェットなどを利用した空気の吹きかけなどの発射型の触覚出力を提供するデバイスが挙げられる。
トリガされた効果のみでの触覚フィードバックを提供する従来のアーキテクチャは利用可能であり、触覚フィードバックのタイミングがユーザにより開始されたジェスチャまたはシステムのアニメーション(動画)にきちんと相関するように注意深く設計されなければならない。しかしながら、これらのユーザのジェスチャおよびシステムのアニメーションは、変化しやすいタイミングを有しており、触覚フィードバックとの相関は静的で一貫性がない場合があり、それゆえユーザにとってはあまり魅力的ではない。さらに、デバイスセンサ情報は通常は、触覚フィードバックを生成するのに、ジェスチャと組み合わせて用いられていない。
それゆえ、複数のジェスチャ信号およびデバイスセンサ信号を含む動的な触覚効果を提供する改善されたシステムの必要性が存在する。さらに、通信リンクを介して接続される複数のデバイスに同時の触覚フィードバックを提供する必要性が存在する。
一実施形態は、動的触覚効果を生成し、かつジェスチャ信号およびリアルまたはバーチャルのデバイスセンサ信号を含む駆動信号を生成するシステムである。触覚効果は、ジェスチャ信号および、例えば加速度計またはジャイロスコープからのリアルまたはバーチャルのデバイスセンサ信号の両方に基づいて、あるいは、静止画、ビデオ、または音声などの処理データから生成された信号によって、ダイナミックに修正される。触覚効果は、ジェスチャ信号およびリアルまたはバーチャルのデバイスセンサ信号ならびに物理モデルを用いることによって必要に応じてダイナミックに修正されてよい。触覚効果は、通信リンクを介して接続された複数のデバイスに必要に応じて同時に適用されてもよい。触覚効果は、第1のデバイス上で、データファイルに必要に応じてエンコードされてもよい。データファイルは次いで第2のデバイスに通信され、触覚効果はデータファイルから読み出されて第2のデバイスに適用される。
本発明の一実施形態に係る、触覚的にイネーブルされるシステムのブロック図である。 本発明の一実施形態に係る触覚アクチュエータのLRA実装の断面斜視図である。 本発明の一実施形態に係る触覚アクチュエータのERM実装の断面斜視図である。 本発明の一実施形態に係る触覚アクチュエータの圧電式実装の図である 本発明の一実施形態に係る触覚アクチュエータの圧電式実装の図である 本発明の一実施形態に係る触覚アクチュエータの圧電式実装の図である。 本発明の一実施形態に係る静電摩擦(ESF)を用いた触覚デバイスの図である。 本発明の一実施形態に係る、超音波触覚変換器を用いて音響放射圧を誘導するための触覚デバイスの図である。 本発明の一実施形態に係る、触覚基板ならびに可撓性または変形可能表面を用いた触覚デバイスの図である。 本発明の一実施形態に係る超音波表面摩擦(USF)を用いた触覚デバイスの図である。 本発明の一実施形態に係る超音波表面摩擦(USF)を用いた触覚デバイスの図である。 本発明の一実施形態に係る、ユーザによって開始される動的触覚効果のスクリーンの図である。 本発明の一実施形態に係る、ユーザによって開始される動的触覚効果のスクリーンの図である。 本発明の一実施形態に係る、ユーザによって開始される動的触覚効果のスクリーンの図である。 本発明の一実施形態に係る、触覚効果をデータファイルにエンコードするスクリーンの図である。 本発明の一実施形態に係る、触覚効果をデータファイルにエンコードするスクリーンの図である。 本発明の一実施形態に係る、触覚効果をデータファイルにエンコードするスクリーンの図である。 本発明の一実施形態に係る、触覚効果をデータファイルにエンコードするスクリーンの図である。 本発明の一実施形態に係る、触覚効果をデータファイルにエンコードするスクリーンの図である。 本発明の一実施形態に係る、触覚効果をデータファイルにエンコードするスクリーンの図である。 本発明の一実施形態に係る、ユーザによって開始される動的触覚効果のスクリーンの図である。 本発明の一実施形態に係る、触覚効果を複数のデバイスに同時に適用するスクリーンの図である。 本発明の一実施形態に係る、触覚効果を複数のデバイスに同時に適用するスクリーンの図である。 本発明の一実施形態に係る、触覚効果を複数のデバイスに同時に適用するスクリーンの図である。 本発明の一実施形態に係る、触覚効果を複数のデバイスに同時に適用するスクリーンの図である。 本発明の一実施形態に係る、触覚効果を複数のデバイスに同時に適用するスクリーンの図である。 本発明の一実施形態に係る、ジェスチャ信号およびデバイスセンサ信号を用いて動的触覚効果を生成するためのフロー図である。 本発明の一実施形態に係る、触覚効果を複数のデバイスに同時に適用するためのフロー図である。 本発明の一実施形態に係る、データファイルを用いて触覚効果をエンコードし、かつ適用するためのフロー図である。
以下で記載するように、動的(ダイナミック)な触覚(ハプティック)効果とは、1つ以上の入力パラメータに応答して、経時的に展開する触覚効果のことをいう。動的触覚効果は、所定の入力信号の状態の変化を表すために、触覚デバイス上に表示される触覚効果または振動触覚(vibrotactile)効果である。入力信号は、例えば位置、加速、圧力、方向、または近接状態などの触覚フィードバックを用いてデバイスにあるセンサによってキャプチャされた信号であってよく、あるいは、他のデバイスによってキャプチャされた信号であってよく、また、触覚効果の生成に影響する触覚デバイスに送信された信号であってもよい。
動的効果信号は、必ずしも複合物である必要はなく、任意のタイプの信号であってよい。例えば、動的効果信号は、入力パラメータを前記動的効果信号の変化特性へマッピングするマッピングスキーマに従って、経時的に変化し、またはリアルタイムで反応する、位相、周波数、または振幅等のいくつかの特性を有する単純な正弦波であってもよい。入力パラメータは、デバイスによって提供されることのできる任意のタイプの入力であってもよく、通常は、デバイスセンサ信号等の任意のタイプの信号であってよい。デバイスセンサ信号は任意の手段によって生成されてよく、通常は、デバイスを用いてユーザのジェスチャをキャプチャすることによって生成されてよい。動的効果はジェスチャのインターフェースに非常に有用であってよいが、ジェスチャまたはセンサの利用は動的信号を生成するのに必ずしも必要ではない。
ジェスチャを直接に含まない1つの一般的なシナリオは、動画のウィジェットの動的な触覚挙動を定義することである。例えば、ユーザがリストをスクロールする場合、それは典型的には、最も直感的に感じるジェスチャの触覚経験(haptification)ではなくて、ジェスチャに応じたウィジェットの動きである。このスクロールリストの例では、リストをそっとスライドすることで、スクロールの速度に従って変化する動的な触覚フィードバックを生成し得るが、スクロールバーを荒々しく触ると、ジェスチャが終わった後でも動的触覚を生成し得る。これはウィジェットが一部の物理的な特性を有する錯視(イリュージョン)を生成し、かつ、ウィジェットの状態について、例えば速度、またはそれが動いている最中かどうかなどの情報をユーザに提供する。
ジェスチャは、意味またはユーザの意図を伝える身体の任意の動きである。単純なジェスチャはより複雑なジェスチャを形成するために結合されてもよいことは認識される。例えば、指をタッチ感応表面に持っていくことを「フィンガーオン」ジェスチャと言う場合があり、他方で、タッチ感応表面から指を離すことを別の「フィンガーオフ」ジェスチャと言う場合がある。「フィンガーオン」ジェスチャと「フィンガーオフ」ジェスチャとの間の時間が相対的に短い場合、結合されたジェスチャは「タッピング」と呼ばれてよく、「フィンガーオン」ジェスチャと「フィンガーオフ」ジェスチャとの間の時間が相対的に長い場合、結合されたジェスチャは「ロングタッピング」と呼ばれてよく、「フィンガーオン」ジェスチャおよび「フィンガーオフ」ジェスチャの二次元(x,y)位置の間の距離が相対的に大きい場合、結合されたジェスチャは「スワイピング(swiping)」と呼ばれてよく、「フィンガーオン」ジェスチャおよび「フィンガーオフ」ジェスチャの二次元(x,y)位置の間の距離が相対的に小さい場合、結合されたジェスチャは「スミアリング(smearing)」、「スマッジング(smudging)」、または「フリッキング(flicking)」と呼ばれてよい。任意の数の二次元または三次元のシンプルまたは複雑なジェスチャは、複数の指の接触、手のひらまたはこぶしの接触、あるいは、デバイスへの近接性を含む(それらに限定されない)任意の数の他のジェスチャを形成するようにして結合されてよい。ジェスチャはまた、加速度計、ジャイロスコープ、または他の運動センサを有するデバイスによって認識され、かつ電気信号に変換される任意の形態の手の動きであってよい。そのような電気信号は、例えばバーチャルなサイコロを振動させるなど動的効果を起動することができ、ここでセンサは動的効果を生成するユーザの意図をキャプチャする。
図1は、本発明の一実施形態に係る触覚的にイネーブルされる(haptically−enabled)システム10のブロック図である。システム10は、ハウジング15内に装着されたタッチセンサ式表面11または他のタイプのユーザインターフェースを含み、かつメカニカルキー/ボタン13を含んでもよい。システム10に振動を生成する触覚フィードバックシステムはシステム10内部にある。一実施形態において、振動はタッチ表面11上で生成される。
触覚フィードバックシステムはプロセッサ12を含む。メモリ20およびアクチュエータ駆動回路16はプロセッサ12に接続され、その駆動回路16は触覚アクチュエータ18に連結されている。プロセッサ12は任意のタイプの汎用目的のプロセッサであってもよく、または、特定用途向け集積回路(「ASIC」)等、触覚効果を提供するように特定的に設計されたプロセッサであってもよい。プロセッサ12はシステム10全体を作動させる同じプロセッサであってもよく、または別個のプロセッサであってもよい。プロセッサ12は、何の触覚効果が再生されるかを決定することができ、かつ、そうした効果が高レベルのパラメータに基づいて再生される順序を決定することができる。一般に、特定の触覚効果を定義する高レベルのパラメータは、大きさ(強さ)、頻度(周波数)、および期間を含む。ストリーミングモーターコマンド等の低レベルパラメータはまた、特定の触覚効果を決定するために用いられることができる。触覚効果は、その触覚効果が生成された場合にそれがこれらのパラメータから生じた一部のものを含む場合、あるいはユーザのやり取りに基づいたこれらのパラメータから生じたものである場合、動的であると想定してよい。
プロセッサ12は駆動回路16に制御信号を出力し、この駆動回路16は電子構成要素および回路を備え、これらはアクチュエータ18に必要な電流および電圧を供給してそれにより所望の触覚効果を生じさせる。システム10は2つ以上のアクチュエータ18を備えてよく、各々のアクチュエータは別個の駆動回路16を備えてよく、それら全ては共通のプロセッサ12に連結される。メモリデバイス20は任意のタイプの保存デバイス、あるいはランダムアクセスメモリ(RAM)または読み出し専用メモリ(ROM)等のコンピュータ可読媒体であってもよい。メモリ20はプロセッサ12によって実行される命令を保存する。命令の中でも、メモリ20はアクチュエータ駆動モジュール22を含んでおり、これは複数の命令であって、プロセッサ12によって実行される場合に、アクチュエータ18に駆動信号を生成し、同時にまた、アクチュエータ18からのフィードバックを決定し、かつそれに従って駆動信号を調節する、命令である。モジュール22の機能性は以下でさらに詳細に検討する。メモリ20はまたプロセッサ12内部に位置してよく、または、内部メモリおよび外部メモリの任意の組み合わせであってもよい。
タッチ表面11は接触を認識し、かつその表面上の接触の位置、強さ、または圧力を認識してよい。この接触に対応したデータはプロセッサ12またはシステム10内の別のプロセッサに送信され、プロセッサ12はその接触を解釈して、それに応じて触覚効果信号を生成する。タッチ表面11は任意の感知検出技術、例えば、静電容量性による検出、抵抗性による検出、表面音響波による検出、圧力による検出、光学による検出等を含む技術を利用して接触を感知し得る。タッチ表面11はマルチタッチ接触を感知してよく、かつ同時に生じるマルチタッチを識別することができてよい。タッチ表面11は、キー、ダイアル等を用いてユーザがやり取りする画像を生成および表示するタッチスクリーンであってもよく、または最小限の画像または画像のないタッチパッドであってもよい。
システム10は、セル式電話、PDA、コンピュータタブレット、ゲーム機等のハンドヘルドデバイスであってもよく、あるいは、ユーザインターフェースを提供しかつ1つ以上のERM、LRA、静電アクチュエータまたは他のタイプのアクチュエータを備える触覚効果システムを備える任意の他のタイプのデバイスであってもよい。ユーザインターフェースは、タッチセンサ式表面であってよく、あるいは、マウス、タッチパッド、ミニジョイスティック、スクロールホイール、トラックボール、ゲームパッド、またはゲームコントローラ等の任意の他のタイプのユーザインターフェースであってよい。2つ以上のアクチュエータを用いた実施形態において、各アクチュエータはデバイス上で広範な触覚効果を生成するために異なる出力能力を有してよい。各アクチュエータは任意のタイプの触覚アクチュエータであってよく、あるいは単一または多次元のアレイのアクチュエータであってもよい。
図2は、一実施形態に係るアクチュエータ18のLRA実装の断面側面図である。LRA18はケース25、磁石/質量27、線形(リニア)ばね26、および電気コイル28を備える。磁石27はばね26によってケース25に装着される。コイル28は磁石27の下で、ケース25の底に直接装着される。LRA18は典型的な任意の公知のLRAである。動作時に、電流がコイル28を流れると、コイル28の周囲に磁界が形成されて、磁石27の磁界とのやり取りで、コイル28は磁石27上に押し上がったり引き下がったりする。電流の1つの方向/極性が押し上げ動作を生じさせ、他の方向/極性が引き下げ動作を生じさせる。ばね26は、磁石27の上下運動を制御し、ばねが圧縮されている位置である上方偏向位置、ばねが伸びている位置である下方偏向位置、ならびに、ばねが圧縮されておらず、また偏向もしておらず、かつ電流がコイル28に印加されず、磁石27の動き/振動が存在しない場合の静止状態に等しいニュートラルまたはゼロ交差位置を有する。
LRA18については、機械的品質係数、すなわち「Q係数」が測定可能である。一般に、機械的Q係数は、振動する物理的なシステムの振幅の減衰のための時定数をその振動期間と比較する無次元のパラメータである。機械的Q係数は実装のバリエーションに著しく影響を受ける。機械的Q係数は、毎回の振動サイクルにおいて失われるエネルギーについての質量とばねとの間で循環するエネルギーの比を表す。低いQ係数が意味するのは、質量およびばねにあるエネルギーの大部分が毎回のサイクルで失われているということである。一般に、システム10が手に堅く握られた場合にエネルギーは手の組織によって吸収されるため、最小限のQ係数が生じる。振動エネルギーの全てをLRA18に反映させる堅くて重い表面にシステム10が押し付けられた場合、概して最大のQ係数が生じる。
機械的Q係数に直接に比例して、共振において磁石/質量27とばね26との間に生じる力は通常、コイル28が振動を維持するために生成する必要がある力の10〜100倍大きい。結果として、LRA18の共振周波数は磁石27の質量とばね26の弾性コンプライアンスによってほぼ規定される。しかしながら、LRAが浮動のデバイスに装着されている場合(例えば、システム10が柔らかく手に握られているなど)、LRAの共振周波数は著しく上昇(シフトアップ)する。さらに、(例えば、素早く開閉された携帯電話、またはしっかりと握り締められた電話などの)システム10内のLRA18の見掛けの搭載重量に影響を受ける外部要因に起因して、著しい周波数のシフトが生じ得る。
図3は、本発明の一実施形態に係るアクチュエータ18のERM実装の断面斜視図である。ERM18は、回転軸305を中心に回転する中心を外れたおもり303を有する回転体301を備える。動作中、任意のタイプのモータは、ERM18に連結されてよく、モータに印加される電圧の量および極性に応じて、回転軸305を中心に、一方向または双方向の回転を生じさせる。同じ回転方向における電圧の印加は加速効果を有し、ERM18の回転速度を上昇させ、ならびに、逆方向の回転の電圧の印加は制動効果を有し、ERM18の回転速度を下げるか、またはさらに逆回転させることは認識されるであろう。
本発明の一実施形態は、ERM18の角速度を決定および修正することにより触覚フィードバックを提供する。角速度は、回転速度のスカラー量であり、ベクトル量角速度の大きさを表す。ラジアン/秒における角速度または周波数ωは、2πを乗算した、サイクル/秒における周波数ν(Hzとも呼ばれる)に相関する。駆動信号は、少なくとも1つの駆動パルスがERM18に付与される駆動期間、ならびに、回転体301の背後の電磁界(「EMF」)が受けとられ、ERM18の角速度を決定するために用いられるモニタリング期間を含む。他の実施形態において、駆動期間およびモニタリング期間は同時であり、本発明は駆動期間およびモニタリング期間の両方の間にERM18の角速度を動的に決定する。
図4Aから図4Cは本発明の一実施形態に係る触覚アクチュエータ18の圧電型の実装の図である。図4Aは、電極401、圧電セラミックディスク403、および金属ディスク405を備えるディスク圧電型アクチュエータを示す。図4Bに示すように、電極401に電圧が印加される場合、圧電アクチュエータはそれに応じて曲がり、弛緩状態407から変形状態409になる。電圧が印加されるとアクチュエータが撓んで振動の基礎を作り出す。あるいは図4Cは、弛緩状態411から変形状態413になる、ディスク圧電型アクチュエータと同様に作動するビーム圧電型アクチュエータを示す。
図5は、本発明の一実施形態に係る静電摩擦(ESF)を用いた触覚デバイスの図である。Makinenらによる米国特許第7,982,588号に記載された動作原理と同様に、この実施形態は、パチニ小体(Pacinian corpuscles)の機械的刺激を用いずに、あるいは、そのような機械的な刺激とは別の追加の刺激として、皮下パチニ小体が静電結合および適切に形成された制御電圧によって刺激され得る、という発見に基づいている。適切に形成された高電圧は制御電圧として用いられる。これに関連して、高電圧とは、直接的なガルバーニ電気接触(galvanic contact)が、安全および/またはユーザの快適さのために回避されなければならないような電圧を意味する。これにより、パチニ小体と、刺激を生じさせるデバイスとの間の静電結合が生じ、静電結合の片側は、刺激デバイスに接続された少なくとも1つの直流的に絶縁された電極によって形成され、他方でもう一方の側は、その電極の近接にある、刺激する標的、例えばそのデバイスのユーザの体の部分、好ましくは指、より詳細には皮下パチニ小体によって形成される。
本発明は、デバイスのアクティブな表面と、その表面に接近または接触する体の部分、例えば指との間の電界を制御して形成することに基づいている。電界は、近接した指に、反対の電荷を生じさせる傾向がある。局所的な電界および静電結合はそれらの電荷の間において形成可能である。電界は指組織の電荷に力を導く。電界を適切に変化させることによって、組織を移動させることのできる力を生じさせることができ、これにより感覚受容器はそのような動きを振動として感知する。
図5に示すように、1つ以上の導電電極501には絶縁体が備わっている。指505等の体の一部が導電電極501に近接する場合、絶縁体は、直流の流れが導電電極からその体の一部505に流れないようにする。絶縁体の上の静電結合の電界力503が、導電電極501と体の一部505との間に形成される。このデバイスはまた、電気入力を1つ以上の導電電極に印加するための高電圧源を備え、この電気入力は10Hzと1000Hzとの間の周波数範囲において、低周波数の構成要素を備える。静電結合および電気入力は、1つ以上の導電電極または絶縁体の任意の機械的振動とは独立して生成される、電気感受性の感覚を生成するように形成される。
図6は、Iwamotoらによる「Non−contact Method for Producing Tactile Sensation Using Airborne Ultrasound」(Eurohaptics 2008、LNCS 5024、504−513ページ)に記載されたものと同様の超音波触覚トランスデューサを用いて音響放射圧を誘発するための触覚デバイスの図である。空気伝送(airborne)超音波トランスデューサアレイ601は、3次元(3D)のフリースペースにおいて触知性フィードバックを提供するように設計される。そのアレイは空気伝送超音波を放射し、高い忠実度の圧力場を、グローブまたは機械的な取り付け物を使用せずに、ユーザの手に生じさせる。本方法は、超音波音響放射圧力の非線形現象に基づく。物体が超音波の伝播を妨害する場合、圧力場が物体の表面上に付与される。この圧力は音響放射圧と呼ばれる。音響放射圧P[Pa]は、簡潔に、P=αEとして記載され、ここでE[J=m3]は超音波のエネルギー密度であり、αは物体の表面の反射属性に依存して1〜2の範囲の定数である。この等式は、音響放射圧が超音波のエネルギー密度にどのように比例しているかを説明する。超音波のエネルギー密度の空間的な分布は、波動場合成技術を用いることによって制御可能である。超音波トランスデューサアレイを用いて、様々なパターンの圧力場が3Dフリースペースにおいて生成される。空気ジェットとは異なり、空間および時間分解能は極めて良好である。空間分解能は超音波の波長と比較可能である。周波数特性は1kHzまで十分に良好である。
空気伝送超音波は貫通のリスクなく肌上に直接に付与可能である。空気伝送超音波が肌の表面上に付与されると、空気の特徴的な音響インピーダンスと、肌の特徴的な音響インピーダンスとの間の大きな差異に起因して、入射音響エネルギーの約99.9%が肌の表面上で反射される。それゆえ、この触知性フィードバックシステムにおいて、ユーザは扱いにくいグローブや機械的な取り付け具を着用する必要はない。
図7は、本発明の一実施形態に係る触覚基板および可撓性表面を有する触覚デバイス701を図示する3次元(3D)の図を示す。デバイス701は、可撓性表面層703、触覚基板705、および変形機構711を備える。デバイス701は、ユーザインターフェースデバイス、例えば、セル式電話のためのインターフェース、形態情報端末(「PDA」)、自動車用データ入力システム等であってもよい。本発明の例示的な実施形態の基本的なコンセプトは、1つ以上のブロック(回路または層)が加えられるか、またはデバイス701から取り除かれても変化しない。
1つの例において、可撓性表面層703は、ポリシロキサンとしても知られるシリコーンゴムなどの柔らかい、および/または弾力性のある材料からできている。可撓性表面層703の機能は、触覚基板705の物理的パターンと接触する場合、その表面形状またはテクスチャを変化させることである。局所的特徴110−124の1つ以上が上がったり下がったりできて、接触の際に、可撓性表面層703の表面に影響を与える特徴を提示するため、触覚基板705の物理的パターンは可変である。触覚基板705の物理的パターンがいったん決定されると、可撓性表面層703のテクスチャは変化することができ、その表面テクスチャが触覚基板705の物理的パターンと一致する。1つのテクスチャから別のテクスチャへの可撓性表面層703の変形は、変形機構711によって制御可能である。例えば、変形機構711がアクティブではない場合、可撓性表面層703は、その平滑な構成が、触覚基板705の上に浮くか、着座するように維持する。しかし、可撓性表面層703の表面構成は、変形機構711がアクティブにされて、触覚基板705が可撓性表面層703と接触して、可撓性表面層703の上表面上に類似のパターンを生成する場合、平滑な構成から粗い構成へと変形または変化する。
あるいは、可撓性表面層703は可撓性のタッチセンサ式表面であり、ユーザの入力を受け付けることができる。可撓性のタッチセンサ式表面は複数の領域に分けられることができ、可撓性のタッチセンサ式表面の各領域は、その領域が指によってタッチされるか、押された場合に入力を受け付けることができる。一実施形態において、可撓性のタッチセンサ式表面はセンサを備え、そのセンサは近くにある指を検出し、デバイスを起動またはオンにすることができる。可撓性表面層703はまた、可撓性ディスプレイを備えてもよく、これは可撓性表面層703と一緒になって変形することができる。有機発光ダイオード(OLED)、有機または高分子TFT(薄膜トランジスタ)等の可撓性ディスプレイを製造するために様々な可撓性のディスプレイ技術が用いられ得る。
触覚基板705は、1つ以上のパターン起動信号に応じてその表面パターンを変化することができる表面再構成可能触覚デバイスである。触覚基板705はまた、触覚機構、触覚層、触知性要素等として参照されてもよい。触覚基板705は、一実施形態において、複数の触知性または触覚領域707、709を備え、それらの各領域は独立して制御および起動されることができる。各触知性の領域は独立して起動されることができるので、触覚基板705の一意の表面パターンが、そのパターン起動信号に応答して作製されることができる。別の実施形態において、全ての触知性領域はさらに複数の触覚ビットに分けられ、ここで各ビットは独立して励起されるか、起動されるか、あるいは停止されることができる。
一実施形態において、触覚基板705または触覚機構は、起動コマンドまたは起動信号に応答して触覚フィードバックを提供するように動作可能である。触覚基板705は、複数の触知性または触覚フィードバックを提供し、ここで1つの触知性フィードバックは表面変形のために用いられ、他方で別の触知性フィードバックは入力確認のために利用される。入力確認は選択された入力についてユーザに知らせる触覚フィードバックである。触覚機構705は、例えば、振動、鉛直変位、側方変位、プッシュ/プル技術、気体/液体ポケット、材料の局所的変形、共振機械要素、圧電材料、マイクロマシン技術システム(「MEMS」)要素、熱流体ポケット、MEMSポンプ、様々な多孔性膜、層流変調等を含む様々な技術によって実施可能である。
触覚基板705は、一実施形態において、半可撓性または半剛体の材料によって作られる。一実施形態において、触覚基板は、可撓性表面703よりもさらに剛性であるべきであり、それにより、可撓性表面703の表面のテクスチャは触覚基板705の表面パターンと一致することができる。触覚基板705は、例えば、1つ以上のアクチュエータを備え、そのアクチュエータは、電気活性高分子(「EAP」)の繊維(またはナノチューブ)、圧電要素、形状記憶合金(「SMA」)の繊維等から作られることができる。生物的筋肉(biological muscle)または人工筋肉としても知られているEAPは、電圧の印加に応じてその形状を変化させることができる。EAPの物理的形状はそれが大きな力を被ると変形され得る。EAPは、電歪ポリマー、誘電エラストマー、導電性ポリマー、イオン性ポリマー金属複合材、刺激応答ゲル、バッキーゲル(Bucky gel)アクチュエータ、あるいは、上述のEAP材料の組み合わせから作られてもよい。
メモリメタルとしても知られるSMA(形状記憶合金)は、触覚基板705を作るために用いられることのできる他のタイプの材料である。SMAは、銅−亜鉛−アルミニウム、銅−アルミニウム−ニッケル、ニッケル−チタン合金、あるいは、銅−亜鉛−アルミニウム、銅−アルミニウム−ニッケル、および/またはニッケル−チタン合金の組み合せから作られてもよい。SMAの特徴は、その元の形状が変形されている場合、周囲の温度および/または周囲環境に従って元の形状に戻ることである。本発明の実施形態はEAP、圧電素子、および/またはSMAを組み合わせる場合があり、そうして特定の触覚感覚を達成する場合がある。
変形機構711は、可撓性表面703を変形させるために、触覚基板705において要素を移動させる引く力および/または押す力を提供する。例えば、変形機構711が可撓性表面703と触覚基板705との間に真空をつくる場合、可撓性表面703は触覚基板705に対して押され、可撓性表面703は、触覚基板705の表面パターンに従って可撓性表面703のテクスチャを表す。言い換えれば、触覚基板705の表面パターンがいったん生成されると、可撓性表面は触覚表面705に対して引かれるか押されて、可撓性表面703の変形された表面を介して触覚基板705のパターンをあらわにする。一実施形態において、触覚基板705および変形機構711は同じか、実質的に同じ層において作られる。
第1の起動信号を受信すると、触覚基板705は第1の表面パターンを生成する。触覚基板705の表面パターンの形成の後、変形機構711がその後にアクティブにされて、触覚基板705の表面パターンに応答して可撓性表面703の表面テクスチャを変化させる。あるいは、触覚基板705が第2の起動信号を受信すると、第2のパターンを生成する。
触覚基板705はさらに複数の触知性領域を備え、ここで各領域は独立して起動して、基板の表面パターンを形成する。触覚基板705はまた、ユーザによって入力された入力選択を確認するために、確認フィードバックを生成することができる。変形機構711は、第1の表面特徴から第2の表面特徴へ、可撓性表面703の表面テクスチャを変形するように構成する。触覚デバイスはさらにセンサを備え、そのセンサが可撓性表面703上で接触を検出すると、デバイスを起動することができる。変形機構711は、真空発生デバイスであってもよく、これは、触覚基板705の第1のパターンの構成に従ってその表面構成を変形させるために、可撓性表面703を第1の表面パターンに対して崩壊させる(collapse)ことができる。
触覚基板705は、触知性の領域707および709が起動された場合の状態を示す。触知性の領域707および709はz軸方向において持ち上がる。1つ以上の起動信号を受信する際、触覚基板705は、その起動信号に従って表面パターンを認識する。触覚基板705は、そのパターンを生成するために、領域707および709のような様々な触知性の領域を起動することによって認識されたパターンを提供する。触知性の領域707および709は2つのボタンまたはキーを模倣している。他の実施形態において、触知性の領域707または709は複数の触覚ビットを含み、ここで各ビットは起動または停止のために制御可能である。
図8はBietらの「New Tactile Devices Using Piezoelectric Actuators」(ACTUATOR 2006、 10th International Conference on New Actuators、2006年6月14〜16日、ブレーメン、ドイツ)に記載されるものと同様の超音波表面摩擦(USF)を用いた触覚デバイスの図である。超音波振動ディスプレイ801は、数マイクロメートル程度の超音波振動を生成する。ディスプレイ801は、超音波の範囲で振動するタッチ式インターフェース表面803からなる。振動805は、指809が接触し、力807Ftを表面803に付与したときに、速度Vtにてタッチ表面803に沿って移動する。振動805は、表面803上で見掛け上の(apparent)摩擦の低減を生じる。1つの説明は、上下に移動することによって、タッチ表面803は、その表面803と、相互作用する指809との間に空隙813が生じるということであり、それが摩擦の低減を生じる空隙813である。これは、指809が波805の頂点またはピークに接触する場合、そして時には、指809が波805の谷の上にない場合に、一部の例において、時宜に適って指809と接触する表面803に沿ったλ波815と考えることができる。指809が速度Vfにて側方方向811に移動する場合、表面803の見掛けの摩擦は、その表面803が指809と接触したり接触しなくなったりすることに起因して低減する。表面803が起動していない場合、指809は常に、表面803と接触し、摩擦の静止係数または運動係数は一定のままである。
振動805が通常20KHz以上の超音波範囲において表面803上で生じるので、波長コンテンツは通常、指のサイズよりも小さく、したがって一定の経験を可能にする。表面803の通常の変位は5マイクロメートル未満程度であり、より小さな変位はより少ない摩擦の低減となる。
図9A〜図9Cは本発明の一実施形態に係るユーザが開始する動的触覚効果のスクリーンの図である。動的効果は、インタラクション(相互作用)のパラメータに従ったリアルタイムでの触覚をイネーブルするデバイスによって提供される触覚効果を変化させることを含む。インタラクションのパラメータは、例えば、携帯電話、タブレットコンピュータなどの二次元のオンスクリーンディスプレイ、または三次元のジェスチャ検出システム、例えばビデオモーションキャプチャシステムまたはユーザによって装着される電子部品付きグローブ、あるいは任意の他の2Dまたは3Dのジェスチャインプット手段からのジェスチャの位置、方向、速度などの情報を用いた二次元または三次元のジェスチャから生じ得る。図9Aは写真の一群から1つの写真を表示しているタッチセンサ式ディスプレイを有するモバイルデバイスのスクリーンの図を示す。図9Bは、次の写真を表示させるために、右から左へとタッチセンサ式ディスプレイを横断するようにして1つの人差し指を滑らせているユーザのジェスチャのスクリーンの図を示す。人差し指からの複数の入力が単一のジェスチャから受信される。複数の入力の各々は、異なる時間において生じてもよく、また、タッチセンサ式ディスプレイとの人差し指の接触点の異なる二次元位置を示してもよい。
図9Cは、動的触覚効果に関連して表示される次の写真のスクリーンの図を示す。図9Bにおいて、1つ以上のユーザのジェスチャから1つ以上の入力に基づいて、動的触覚効果がユーザのジェスチャの間に提供されて、インタラクションのパラメータによって決定されるように、連続して修正される。動的触覚効果は、例えばユーザのジェスチャ自体の速度、方向、圧力、強さ、または時間などの要素に従って、あるいはある画像が閲覧さた回数などのバーチャルなオブジェクトの変化特性に基づいて、リアルタイムで、速度上昇してもよく、または速度低下してもよく、強くなったり弱くなったりしてもよく、あるいは、そのパターンまたは時間が変わってもよく、または任意の他の方法において変化してもよい。動的触覚効果は、ユーザのジェスチャが停止した後でも、さらに継続してもよく、かつさらに、インタラクションのパラメータによって修正されてもよい。例えば一実施形態において、動的触覚効果は、ユーザのジェスチャの終りの直後に停止されてもよく、あるいは別の実施形態において、動的触覚効果は必要に応じて、インタラクションのパラメータに従ってユーザのジェスチャの終りの後にゆっくりと消えてもよい。ユーザのジェスチャの間、リアルタイムで、およびユーザのジェスチャの後でも、動的触覚効果を提供または修正することの効果は、例えばページターンまたは指の滑らせなどのジェスチャを、ユーザは1つとして同じように感じないということである。すなわち、こうした動的触覚効果は、ユーザのジェスチャに対して常に一意であり、これにより、トリガイベントによって提供される簡素で静的な触覚効果と比べた場合に、ユーザにとっては、デバイスとのさらなるつながりの感覚、そして、さらなる魅力的なユーザインターフェース経験が生じる。
インタラクションのパラメータはまた、デバイス全体の加速度、ジャイロスコープの情報または周囲環境(アンビエント)の情報などのデバイスセンサデータから導き出されてよい。デバイスセンサ信号は、例えば加速度計またはジャイロスコープなどからのデバイスによってイネーブルされる任意のタイプのセンサ信号、あるいはマイクロフォン、光度計、温度計、高度計等の任意のタイプの周囲環境(アンビエント)センサ信号、あるいは、肌温度または体温、血圧(BP)、心拍モニタ(HRM)、脳波計(EEG)、または電気皮膚反応(GSR)などの任意のタイプのバイオモニター、あるいは、リモートで連結されたデバイスから受信された情報または信号であってよく、あるいは、任意の他のタイプの信号または、以下の表1で挙げられる例を含む(それらに限定されない)センサであってもよい。
表1―センサのリスト
物理的なインタラクション設計のために、センサは、ある形態のエネルギーを電気信号に変換するトランスデューサであるか、または、バーチャルなセンサ情報を表す任意の信号である。
加速度
・加速度計
生体信号
・心電図(ECG)
・脳電図(EEG)
・筋電図(EMG)
・電気眼球図(EOG)
・電子口蓋図(EPG)
・電気皮膚反応(GSR)
距離
・容量性
・ホール効果
・赤外
・超音波
流れ
・超音波
力/圧力/負荷/曲げ
・空気圧
・光ファイバセンサ
・屈曲
・力センサ式レジスタ(FSR)
・ロードセル
・LuSense CPS2 155
・ミニチュア圧力変換器
・圧電セラミック&フィルム
・歪みゲージ
湿気
・湿度計
線形位置
・ホール効果
・線形位置(タッチ)
・線形電位差計(スライダー)
・線形可変差動変圧器(LVDT)
・LuSense CPS2 155
方向性/傾き
・加速度計
・コンパス(磁気抵抗)
・傾斜計
無線周波数
・無線IC(RFID)
回転位置
・回転エンコーダ
・回転電位差計
回転速度
・ジャイロスコープ
スイッチ
・オン−オフスイッチ
温度
・温度
振動
・圧電セラミック&フィルム
可視光強度
・光ファイバセンサ
・光依存性レジスタ(LDR)
アクティブまたは周囲デバイスセンサデータは、ユーザの環境または動作に関連する任意の数のファクターに基づいて触覚フィードバックを修正するために用いられてよい。例えば、加速度計デバイスセンサ信号は、ユーザが歩行またはランニングなどの物理的な活動に従事していることを示してよく、従って、その触覚フィードバックのパターンおよび時間は、ユーザに対してさらに通知可能であるように修正されるべきである。他の例において、マイクロフォンセンサ信号は、ユーザが賑やかな環境の中にいることを示してよく、従ってその触覚フィードバックの大きさまたは強さは増加されるべきである。センサデータはまた、静止画、ビデオ、またはサウンドなどの処理データから生成される情報または信号によって表されるバーチャルセンサデータを含んでもよい。例えば、バーチャルカーレースを有するビデオゲームは、車の速度、その車がカメラの視角にどれだけ近いか、車のサイズ等に基づいて、触覚効果をダイナミックに変化させてよい。
インタラクションのパラメータは、必要に応じて、例えば重力、加速度、摩擦、または慣性等の現実世界の物理的効果に関連する数理モデルを組み入れてよい。例えば、バーチャルの転がるボールなどのオブジェクトと一緒に、ユーザが有する動きおよびインタラクションが、非バーチャル環境においてもそれに相当する転がるボールが従うように、バーチャル環境においても同じ物理法則に従うように見えてよい。
インタラクションのパラメータは、必要に応じて、デバイスの触覚出力を、アニメーション、または映像もしくは音声スクリプトに相関させるためにアニメーションインデックスを組み込んでよい。例えば、アニメーションまたはスクリプトは、バーチャルウィンドウを開くかまたはそのサイズを変更したり、データエントリのページを開いたり、そのリストをスクロールする等、ユーザまたはシステムが開始するアクションに応じて再生してよい。
2つ以上のジェスチャ信号、デバイスセンサ信号、または物理モデルの入力は、単独または互いに任意の組み合わせにて用いられてもよく、差分ベクトルを有するインタラクションのパラメータを生成する。異なるベクトルは、スカラーまたはベクトルの入力を互いに比較し、それらの入力間でどのような変化または差分が存在するかを決定し、次いで、ポジション、ロケーション、方向、および大きさ(強さ)を組み合わせる差分ベクトルを生成することによって、2つ以上のスカラーまたはベクトルの入力から生成されてよい。ジェスチャ信号は単独で用いられてジェスチャ差分ベクトルを生成してもよく、または、デバイスセンサ信号は単独で用いられてデバイス信号差分ベクトルを生成してもよい。
図10A〜図10Fは、本発明の一実施形態に係る、触覚効果をデータファイルにエンコードするスクリーンの図である。2人以上のユーザの間で動的な触覚フィードバックを容易にするために、触覚効果の低レイテンシーまたは疑似の(pseudo)同期通信を有することは必ずしも必要ではない。その代わり、本発明の1つの実施形態は、触覚効果データを共有のデータファイルにエンコードすることによって、リアルタイムから生じるリモートの触覚インタラクションをイネーブルする。このような非リアルタイムのインタラクションの例は、デジタル絵描写(drawing)表面から取られた触覚効果をエンコードしている。図10Aは、デジタル絵描写表面および触覚アクチュエータを有するハンドヘルドまたはモバイルデバイス上で走るバーチャルの「フロスト(frost(霜で覆ったような質感を出す))」アプリケーションのデフォルトのスクリーンの図を示す。図10Bは、「フロスト」スクリーンのスクリーンの図を示し、これは、ユーザのジェスチャ、または例えば、ハンドヘルドデバイス上のマイクロフォンに息を吹きかけるなどのデバイスセンサ信号に応じてデフォルトのスクリーンの図から作られる。いったんスクリーンがフロストされると、図10Cは、第1のユーザによって提供されるジェスチャに従って、フロストに描かれた絵にされた顔パターンの生成を示す。フロストされたスクリーンおよび図化された顔は、ラスターまたはベクターの描写のいずれかをサポートするフォーマットで、ならびに、必要に応じて、保存されたジェスチャについての情報またはデバイスセンサ情報などの画像のその後の再生産のために必要な任意の他のデータまたはメタデータのフォーマットで、データファイル内に保存される。
図化された顔を生成するために用いられる動きに対応する触覚効果は保存され、または、データファイル内の他の画像情報と同時にデータファイルにエンコードされる。触覚効果情報は、画像と共に触覚効果の再生産を可能にする任意の方法において保存されてもよい。データファイルは、次いで、任意のファイル転送メカニズムまたは通信リンクを介して触覚アクチュエータを有する第2のデバイスに通信される。図10Dは、第2のデバイス上のデータファイルから保存されたジェスチャまたはデバイスセンサ信号を読み出し、デフォルトのフロストのスクリーンの図を表示する第2のデバイスを示す。次いで、図10Eは、図化された顔が、その後、第2のデバイス上に表示される方法を示す。駆動信号もまた、ファイル内に保存されたジェスチャまたはデバイスセンサ信号に従って、第2のデバイスの触覚アクチュエータに適用される。
第2のユーザは、必要に応じて、第1のユーザと共同して、バーチャルメッセージから生成され、かつデータファイル内に保存された任意の対応する触覚効果と共に、絵に、バーチャルのメッセージである「Hi」を加えるために、さらなるジェスチャまたはデバイスセンサ信号を提供することによって組み合わされたデータを生成する。図10Fは、対応する触覚効果データと共に、第1および第2のユーザからジェスチャおよびデバイスセンサ信号を組み合わせる最終の共同のスクリーンの図を示す。両方のユーザによって生成されたジェスチャ、デバイスセンサ信号、および触覚効果データは、保存されるか、または、さらなる入力、修正、または共同作業のためにユーザ同士または他のユーザとの間でのその後にも通信可能である、組み合わせられた共同のドキュメントとして、データファイルにエンコードされる。上述の例はデジタル描写(絵)の表面を記載したが、多くの他のタイプのユーザのジェスチャおよびデバイスセンサデータが、限定することなく、実質的に任意のフォーマットにおいて、任意のタイプのデータファイルにおける触覚効果信号と共に保存されてもよく、またはエンコードされてもよいことは理解されるだろう。
図11は、本発明の一実施形態に係る、ユーザによって開始される動的触覚効果のスクリーンの図である。写真を表示または選択するための映写スライド(filmstrip)のアプリケーションが、タッチセンサ式表面および触覚アクチュエータを有するハンドヘルドまたはモバイルデバイスの下のところで作動していることが示されている。ジェスチャまたはデバイスセンサデータを用いることによって、ユーザは左から右または右から左へと映写スライドをスクロールしてよく、映写スライドのアプリケーションは次いで、第1の写真1101のための触覚効果を動的に提供してよく、その第1の写真1101のための触覚効果は、ジェスチャまたはデバイスセンサデータに基づいた第2の写真1103のための触覚効果とは異なる。ユーザがジェスチャを介して写真の選択をいったん開始すると、システムはアニメーションを提供して、対応する触覚アニメーション要素と共に動的に映写スライドを視覚的に示してよい。その後のユーザのジェスチャまたは映写スライドのアニメーションの間に受信されたデバイスセンサ情報は、アニメーションにおける任意の関連付けられた変化と共に触覚効果を変化させてよい。例えば、映写スライドのアニメーションの動きがゆっくり過ぎるかまたは速すぎる場合、ユーザはリアルタイムでジェスチャに合わせて速めたり遅めたりしてもよく、対応する触覚効果要素もまた、リアルタイムでアニメーションと共に動的に変化する。
図12A〜図12Eは、本発明の一実施形態に従い、複数のデバイスに対して同時に触覚効果を適用するスクリーンの図である。図12Aは第1のユーザ1201の触覚的にイネーブルされるハンドヘルドまたはモバイルデバイスのスクリーンの図を示し、スクリーンには、これまた触覚的にイネーブルされるハンドヘルドまたはモバイルデバイスを有する第2のユーザ1203の視覚的なサムネイルが表示される。第1および第2のデバイスは、任意のタイプの通信リンク(例えば、電子、セル式、無線、wi−fi、光、赤外、音響、Bluetooth、USB、FIrewire、Thunderbolt、またはイーサネット(登録商標)などを含む(それらに限定されない))を介してリアルタイムに接続されてもよい。
図12Bは、第1のユーザが、2人のユーザの間で写真を共有するためのアプリケーションを選択することを示す。アプリケーションを選択する際、図12Cは、アルバム内の第1の写真を示し、図12Dは、右から左に写真をスクロールすることによってアルバム内の第2の写真を選択するために、スクロールのジェスチャを適用する第1のユーザを示す。対応する触覚効果が、スクロールのジェスチャの間に、第1のユーザに提供される。第1および第2のデバイスは、リアルタイムで通信リンクを介して接続されているので、図12Eは第2のユーザのスクリーンの図を示しており、その図は、第1のユーザに同時に表示されている同じ写真を視覚的に示している。2つのデバイスの間のリアルタイムでのリンクのため、第2のユーザは第1のユーザと同時に同じ写真を閲覧することができる。第2のユーザはまた、リアルタイムで、各ジェスチャおよび第1のユーザに提供された写真についての類似する触覚効果を経験する。一実施形態において、第2のユーザによって生成されたユーザのジェスチャおよび触覚効果が、必要に応じて、通信リンクを介して第1のユーザに同時に通信されてもよく、第1のデバイスと第2のデバイスとの間でのリアルタイムの双方向の触覚リンクを生成する。例えば、第1のユーザは、第2の写真にスクロールしてよく、第2のユーザは次いで第3の写真にスクロールしてよいなどである。多くの他のタイプのユーザのジェスチャ、デバイスセンサデータ、および触覚効果は、限定なく、リアルタイムにて2つ以上のデバイスの間で通信されてもよいことは理解されるだろう。
図13は、本発明の一実施形態に係る、ジェスチャ信号およびデバイスセンサ信号を用いて動的触覚効果を生成するためのフロー図である。一実施形態において、図13のフロー図の機能は、メモリあるいは他のコンピュータ可読または有形の媒体に保存されたソフトウェアによって実施され、かつプロセッサによって実行される。他の実施形態において、その機能は、ハードウェア(特定用途向け集積回路(「ASIC」)、プログラマブルゲートアレイ(「PGA」)、フィールドプログラマグルゲートアレイ(「FPGA」)等の使用を介した)、あるいはハードウェアおよびソフトウェアの任意の組み合わせによって実行されてもよい。
1301において、システムは時間T1においてデバイスセンサ信号の入力を受信し、1303において、システムは時間T2においてジェスチャ信号の入力を受信する。時間T1および時間T2は、互いに、および任意の時間に、同時にまたは非同時的に生じてもよい。複数の追加のジェスチャ入力またはデバイスセンサ入力が、動的な触覚効果に対してより高い精度を与えるために用いられてもよく、または、より長い時間にわたり、動的な触覚効果を提供するために用いられてもよい。ジェスチャ信号およびデバイスセンサ信号は、任意の順序または時系列で、非重複時間期間でシーケンシャルに、または重複もしくは同時の時間期間で並列にのいずれか一方で受信されてよい。1305にて、デバイスセンサ信号は、デバイスセンサ差分ベクトルを生成するために、触覚効果信号と比較される。1307にて、ジェスチャ信号は、ジェスチャ差分ベクトルを生成するために、触覚効果信号と比較される。1309にて、アニメーションまたは物理モデルの記述が必要に応じて受信されてもよい。1311にて、インタラクションのパラメータは、ジェスチャ差分ベクトル、信号差分ベクトル、および必要に応じて、アニメーションまたは物理モデルの記述を用いて生成される。任意のタイプの入力の合成方法が、以下の表2に挙げられた合成例の方法を含む(それらに限定されない)1つ以上のジェスチャ信号またはデバイスセンサ信号から、インタラクションのパラメータを生成するために用いられてよいことは理解されるだろう。1313にて、駆動信号はインタラクションのパラメータに従って触覚アクチュエータに適用される。
表2−合成の方法
・加算による合成−通常は各種振幅の入力を組み合わせる
・減算による合成−複合信号または複数の信号入力のフィルタリング
・周波数変調による合成−1人以上のオペレータにて搬送波を変調する
・サンプリング−修正にさらされる入力ソースとして記録された入力を用いる
・複合合成−見掛けの(artificial)入力およびサンプリングされた入力を用いて得られた「新たな」入力を確立する
・位相歪み−再生の間、ウェーブテーブル内に保存された波形の速度を変える
・ウェイブシェイピング−信号を意図的に歪ませて修正した結果を生成する
・再合成−再生前にデジタルでサンプリングした入力を修正
・粒度の細かい(granular)合成−いくつかの小さな入力セグメントを新たな入力に組み合わせる
・線形予測符号化−音声合成のために用いられるものと類似の技術
・直接デジタル合成−生成された波形のコンピュータによる修正
・ウェーブシーケンス−新たな入力を生成するための、いくつかの小さなセグメントの線形結合
・ベクトル合成−任意の数の異なる入力ソースの間で消えさせるための技術
・物理モデリング−バーチャルな動きの物理的特徴の数学的方程式
図14は、本発明の一実施形態に係る、触覚効果を複数のデバイスに同時に適用するためのフロー図である。1401にて、システムは、第1の触覚アクチュエータを有する第1のデバイスと第2の触覚アクチュエータを有する第2のデバイスとの間の単方向または双方向の通信リンクをイネーブルする。1403にて、システムは、第1のデバイスから、第1のジェスチャ信号またはデバイスセンサ信号の入力を受信し、通信リンクを介してそれを第2のデバイスに通信する。1405にて、システムは、必要に応じて、第2のデバイスから第2のジェスチャ信号またはデバイスセンサ信号の入力を受信し、通信リンクを介してそれを第1のデバイスに通信する。1407にて、インタラクションのパラメータは、第1のジェスチャまたはデバイスセンサ信号、および任意の第2のジェスチャまたはデバイスセンサ信号を用いて生成される。1409にて、駆動信号は、インタラクションのパラメータに従って、第1のデバイスの触覚アクチュエータに、かつ、第2のデバイスの第2の触覚アクチュエータに同時に適用される。一実施形態において、インタラクションのパラメータは独立して各デバイス上で生成される。他の実施形態において、インタラクションのパラメータは、1つのデバイス上で一度生成され、次いで、通信リンクを介して他のデバイスに通信される。
図15は、本発明の一実施形態に係る、データファイルを用いて触覚効果をエンコードしかつ適用するためのフロー図である。1501にて、システムは第1のデバイスからジェスチャ信号またはデバイスセンサ信号の入力を受信する。1503にて、ジェスチャまたはデバイスセンサ信号は、第1のデバイス上で、データファイルに保存されるかまたはエンコードされる。1505にて、データファイルは、任意のファイル転送メカニズムまたは通信リンクを介して触覚アクチュエータを有する第2のデバイスに通信される。1507にて、第2のデバイスは、第2のデバイス上で、データファイルから、保存されたジェスチャまたはデバイスセンサ信号を読み出す。1509にて、駆動信号は、ジェスチャまたはデバイスセンサ信号に従って、第2のデバイス上の触覚アクチュエータに適用される。
複数の実施形態が本明細書中にて特に図示および/または記載されている。しかし、開示された実施形態の修正および変更が上述の教示によって包含され、かつ本発明の趣旨および意図された範囲から逸脱することなく添付の特許請求の範囲の範囲内にあることは理解されるだろう。

Claims (30)

  1. 触覚効果を生成する方法であって、
    デバイスセンサ信号を受信する工程と、
    ジェスチャ信号を受信する工程と、
    前記デバイスセンサ信号および前記ジェスチャ信号を用いて、インタラクションのパラメータを生成する工程と、
    前記インタラクションのパラメータに従って、駆動信号を触覚出力デバイスに適用する工程と、
    を含む方法。
  2. 請求項1に記載の方法であって、前記ジェスチャ信号はベクトル信号を含む、方法。
  3. 請求項1に記載の方法であって、前記ジェスチャ信号はオンスクリーン信号を含む、方法。
  4. 請求項1に記載の方法であって、インタラクションのパラメータを生成する工程は、前記デバイスセンサ信号と前記ジェスチャ信号との組み合わせからインタラクションのパラメータを生成する工程を含む、方法。
  5. 請求項1に記載の方法であって、インタラクションのパラメータを生成する工程は、前記デバイスセンサ信号および前記ジェスチャ信号ならびに物理モデルを用いて、インタラクションのパラメータを生成する工程を含む、方法。
  6. 請求項1に記載の方法であって、インタラクションのパラメータを生成する工程は、前記デバイスセンサ信号および前記ジェスチャ信号ならびに動画を用いて、インタラクションのパラメータを生成する工程を含む、方法。
  7. 請求項1に記載の方法であって、前記センサ信号は加速度計信号を含む、方法。
  8. 請求項1に記載の方法であって、センサ信号はジャイロスコープ信号を含む、方法。
  9. 請求項1に記載の方法であって、センサ信号は周囲信号を含む、方法。
  10. 請求項1に記載の方法であって、センサ信号はバーチャルなセンサ信号を含む、方法。
  11. 触覚効果をイネーブルするシステムであって、
    触覚出力デバイスと、
    デバイスセンサ信号を受信し、ジェスチャ信号を受信し、前記デバイスセンサ信号および前記ジェスチャ信号を用いて、インタラクションのパラメータを生成するために、前記触覚出力デバイスに電気的に連結された駆動モジュールと、
    前記インタラクションのパラメータに従って、駆動信号を前記触覚出力デバイスに適用するために、前記駆動モジュールおよび前記触覚出力デバイスに電気的に連結された駆動回路と、
    を備える、システム。
  12. 請求項11に記載のシステムであって、前記ジェスチャ信号はベクトル信号を含む、システム。
  13. 請求項11に記載のシステムであって、前記ジェスチャ信号はオンスクリーン信号を含む、システム。
  14. 請求項11に記載のシステムであって、前記駆動モジュールは、前記デバイスセンサ信号と前記ジェスチャ信号との組み合わせからインタラクションのパラメータを生成する駆動モジュールを備える、システム。
  15. 請求項11に記載のシステムであって、前記駆動モジュールは、前記デバイスセンサ信号および前記ジェスチャ信号ならびに物理モデルを用いて、インタラクションのパラメータを生成する駆動モジュールを備える、システム。
  16. 請求項11に記載のシステムであって、前記駆動モジュールは、前記デバイスセンサ信号および前記ジェスチャ信号ならびに動画を用いて、インタラクションのパラメータを生成する駆動モジュールを備える、システム。
  17. 請求項11に記載のシステムであって、前記デバイスセンサ信号は加速度計信号を含む、システム。
  18. 請求項11に記載のシステムであって、前記デバイスセンサ信号はジャイロスコープ信号を含む、システム。
  19. 請求項11に記載のシステムであって、前記デバイスセンサ信号は周囲信号を含む、システム。
  20. 請求項11に記載のシステムであって、前記デバイスセンサ信号はバーチャルなセンサ信号を含む、システム。
  21. 触覚効果を生成する方法であって、
    第1の触覚出力デバイスを有する第1のデバイスと、第2の触覚出力デバイスを有する第2のデバイスとの間で通信リンクをイネーブルする工程と、
    前記第1のデバイスから第1の信号を受信し、前記通信リンクを介して前記第2のデバイスに前記第1の信号を通信する工程と、
    前記第1の信号を用いて、インタラクションのパラメータを生成する工程と、
    前記インタラクションのパラメータに従って、前記第1の触覚出力デバイスおよび前記第2の触覚出力デバイスに、駆動信号を同時に適用する工程と、
    を含む、方法。
  22. 請求項21に記載の方法であって、さらに、
    前記第2のデバイスから第2の信号を受信し、前記通信リンクを介して前記第1のデバイスに前記第2の信号を通信する工程を含み、
    インタラクションのパラメータを生成する工程は、前記第1の信号および前記第2の信号を用いて、インタラクションのパラメータを生成する工程を含む、方法。
  23. 請求項21に記載の方法であって、前記第1の信号はベクトル信号を含む、方法。
  24. 請求項21に記載の方法であって、前記第1の信号はオンスクリーン信号を含む、方法。
  25. 請求項22に記載の方法であって、インタラクションのパラメータを生成する工程は、前記第1の信号と前記第2の信号との組み合わせから、インタラクションのパラメータを生成する工程を含む、方法。
  26. 請求項21に記載の方法であって、前記通信リンクは、電子、セル式、無線、wi−fi、光、赤外、音響、Bluetooth、USB、Firewire、Thunderbolt、またはイーサネット(登録商標)からなるリストから選択されるリンクを含む、方法。
  27. 請求項21に記載の方法であって、前記第1の信号は、ジェスチャ、加速度計、ジャイロスコープ、周囲、またはバーチャルからなるリストから選択される信号を含む、方法。
  28. 触覚効果を生成する方法であって、
    第1のデバイスから信号を受信する工程と、
    前記第1のデバイス上で、データファイル内の前記信号をエンコードする工程と、
    前記データファイルを、触覚出力デバイスを有する第2のデバイスに通信する工程と、
    前記第2のデバイス上で、前記データファイルから前記信号を読み出す工程と、
    前記信号に従って、前記触覚出力デバイスに駆動信号を適用する工程と、
    を含む、方法。
  29. 請求項28に記載の方法であって、前記信号は、ベクトル、オンスクリーン、ジェスチャ、加速度計、ジャイロスコープ、周囲、またはバーチャルからなるリストから選択される信号を含む、方法。
  30. 請求項28に記載の方法であって、前記信号をエンコードする工程は、前記信号に従ってインタラクションのパラメータをエンコードする工程を含み、
    前記信号を読み出す工程は、前記第2のデバイス上で、前記データファイルから前記インタラクションのパラメータを読み出す工程を含み、駆動信号を適用する工程は、前記インタラクションのパラメータに従って、前記触覚出力デバイスに駆動信号を適用する工程を含む、方法。
JP2017089826A 2012-02-15 2017-04-28 モバイルデバイス上での共有されたフィードバックのための双方向性モデル Expired - Fee Related JP6431126B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US13/397,142 2012-02-15
US13/397,142 US8711118B2 (en) 2012-02-15 2012-02-15 Interactivity model for shared feedback on mobile devices
US13/472,709 2012-05-16
US13/472,709 US8279193B1 (en) 2012-02-15 2012-05-16 Interactivity model for shared feedback on mobile devices

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016040887A Division JP6141474B2 (ja) 2012-02-15 2016-03-03 モバイルデバイス上での共有されたフィードバックのための双方向性モデル

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018204882A Division JP2019036348A (ja) 2012-02-15 2018-10-31 モバイルデバイス上での共有されたフィードバックのための双方向性モデル

Publications (2)

Publication Number Publication Date
JP2017152035A true JP2017152035A (ja) 2017-08-31
JP6431126B2 JP6431126B2 (ja) 2018-11-28

Family

ID=46795079

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2012206852A Expired - Fee Related JP5315448B2 (ja) 2012-02-15 2012-09-20 モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2013142585A Expired - Fee Related JP5898138B2 (ja) 2012-02-15 2013-07-08 モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2013142584A Expired - Fee Related JP5833601B2 (ja) 2012-02-15 2013-07-08 モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2016040887A Expired - Fee Related JP6141474B2 (ja) 2012-02-15 2016-03-03 モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2017089826A Expired - Fee Related JP6431126B2 (ja) 2012-02-15 2017-04-28 モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2018204882A Pending JP2019036348A (ja) 2012-02-15 2018-10-31 モバイルデバイス上での共有されたフィードバックのための双方向性モデル

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2012206852A Expired - Fee Related JP5315448B2 (ja) 2012-02-15 2012-09-20 モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2013142585A Expired - Fee Related JP5898138B2 (ja) 2012-02-15 2013-07-08 モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2013142584A Expired - Fee Related JP5833601B2 (ja) 2012-02-15 2013-07-08 モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2016040887A Expired - Fee Related JP6141474B2 (ja) 2012-02-15 2016-03-03 モバイルデバイス上での共有されたフィードバックのための双方向性モデル

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018204882A Pending JP2019036348A (ja) 2012-02-15 2018-10-31 モバイルデバイス上での共有されたフィードバックのための双方向性モデル

Country Status (5)

Country Link
US (2) US8711118B2 (ja)
EP (1) EP2629176A1 (ja)
JP (6) JP5315448B2 (ja)
KR (1) KR101275386B1 (ja)
CN (1) CN103257783B (ja)

Families Citing this family (187)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7765333B2 (en) 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US8405618B2 (en) * 2006-03-24 2013-03-26 Northwestern University Haptic device with indirect haptic feedback
US9552065B2 (en) 2008-01-04 2017-01-24 Tactus Technology, Inc. Dynamic tactile interface
US8922510B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US9052790B2 (en) 2008-01-04 2015-06-09 Tactus Technology, Inc. User interface and methods
US8547339B2 (en) 2008-01-04 2013-10-01 Tactus Technology, Inc. System and methods for raised touch screens
US8154527B2 (en) 2008-01-04 2012-04-10 Tactus Technology User interface system
US9367132B2 (en) 2008-01-04 2016-06-14 Tactus Technology, Inc. User interface system
US9720501B2 (en) 2008-01-04 2017-08-01 Tactus Technology, Inc. Dynamic tactile interface
US8970403B2 (en) 2008-01-04 2015-03-03 Tactus Technology, Inc. Method for actuating a tactile interface layer
US9557915B2 (en) 2008-01-04 2017-01-31 Tactus Technology, Inc. Dynamic tactile interface
US8456438B2 (en) 2008-01-04 2013-06-04 Tactus Technology, Inc. User interface system
US8570295B2 (en) 2008-01-04 2013-10-29 Tactus Technology, Inc. User interface system
US8922503B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US9423875B2 (en) 2008-01-04 2016-08-23 Tactus Technology, Inc. Dynamic tactile interface with exhibiting optical dispersion characteristics
US8947383B2 (en) 2008-01-04 2015-02-03 Tactus Technology, Inc. User interface system and method
US9372565B2 (en) 2008-01-04 2016-06-21 Tactus Technology, Inc. Dynamic tactile interface
US8922502B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US9298261B2 (en) 2008-01-04 2016-03-29 Tactus Technology, Inc. Method for actuating a tactile interface layer
US9274612B2 (en) 2008-01-04 2016-03-01 Tactus Technology, Inc. User interface system
US9760172B2 (en) 2008-01-04 2017-09-12 Tactus Technology, Inc. Dynamic tactile interface
US9612659B2 (en) 2008-01-04 2017-04-04 Tactus Technology, Inc. User interface system
US8243038B2 (en) 2009-07-03 2012-08-14 Tactus Technologies Method for adjusting the user interface of a device
US8553005B2 (en) 2008-01-04 2013-10-08 Tactus Technology, Inc. User interface system
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US9588683B2 (en) 2008-01-04 2017-03-07 Tactus Technology, Inc. Dynamic tactile interface
KR102056518B1 (ko) 2008-07-15 2019-12-16 임머숀 코퍼레이션 물리 기반 촉각 메시징을 위한 시스템 및 방법
US9588684B2 (en) 2009-01-05 2017-03-07 Tactus Technology, Inc. Tactile interface for a computing device
KR101545736B1 (ko) * 2009-05-04 2015-08-19 삼성전자주식회사 휴대용 단말기에서 3차원 컨텐츠를 생성하기 위한 장치 및 방법
CN102483675B (zh) 2009-07-03 2015-09-09 泰克图斯科技公司 用户界面增强系统
US9239623B2 (en) 2010-01-05 2016-01-19 Tactus Technology, Inc. Dynamic tactile interface
US8619035B2 (en) 2010-02-10 2013-12-31 Tactus Technology, Inc. Method for assisting user input to a device
KR20130136905A (ko) 2010-04-19 2013-12-13 택투스 테크놀로지, 아이엔씨. 사용자 인터페이스 시스템
US9030308B1 (en) * 2010-07-02 2015-05-12 Amazon Technologies, Inc. Piezoelectric haptic actuator integration
DE102010047261B4 (de) * 2010-10-01 2013-04-25 Trw Automotive Electronics & Components Gmbh Schaltvorrichtung
WO2012054780A1 (en) 2010-10-20 2012-04-26 Tactus Technology User interface system
KR20140043697A (ko) 2010-10-20 2014-04-10 택투스 테크놀로지, 아이엔씨. 사용자 인터페이스 시스템 및 방법
EP2659337B1 (en) * 2010-12-31 2021-07-28 Nokia Technologies Oy A display apparatus producing audio and haptic output
US9417696B2 (en) * 2011-01-27 2016-08-16 Blackberry Limited Portable electronic device and method therefor
EP2754008A4 (en) * 2011-06-21 2015-04-22 Univ Northwestern TOUCHING INTERFACE DEVICE AND METHOD FOR USING CROSS-HOLLOWS ON HUMAN LIMBS
US20120223880A1 (en) * 2012-02-15 2012-09-06 Immersion Corporation Method and apparatus for producing a dynamic haptic effect
US8493354B1 (en) * 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
EP2629178B1 (en) 2012-02-15 2018-01-10 Immersion Corporation High definition haptic effects generation using primitives
US8570296B2 (en) * 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US9891709B2 (en) * 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20130346904A1 (en) * 2012-06-26 2013-12-26 International Business Machines Corporation Targeted key press zones on an interactive display
US9030428B2 (en) 2012-07-11 2015-05-12 Immersion Corporation Generating haptic effects for dynamic events
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
WO2014047656A2 (en) 2012-09-24 2014-03-27 Tactus Technology, Inc. Dynamic tactile interface and methods
US9405417B2 (en) 2012-09-24 2016-08-02 Tactus Technology, Inc. Dynamic tactile interface and methods
US9196134B2 (en) 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
US8947216B2 (en) * 2012-11-02 2015-02-03 Immersion Corporation Encoding dynamic haptic effects
US20140139451A1 (en) * 2012-11-20 2014-05-22 Vincent Levesque Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture
US9836150B2 (en) 2012-11-20 2017-12-05 Immersion Corporation System and method for feedforward and feedback with haptic effects
US9898084B2 (en) 2012-12-10 2018-02-20 Immersion Corporation Enhanced dynamic haptic effects
CN103078900B (zh) * 2012-12-20 2015-12-23 小米科技有限责任公司 一种终端间的文件传输方法及文件传输系统
US10504339B2 (en) 2013-02-21 2019-12-10 Immersion Corporation Mobile device with instinctive alerts
US9760278B2 (en) * 2013-03-01 2017-09-12 Altaba INC. Finger expressions for touch screens
US9715300B2 (en) * 2013-03-04 2017-07-25 Microsoft Technology Licensing, Llc Touch screen interaction using dynamic haptic feedback
US9202351B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Systems and methods for haptics in vibrating environments and devices
US9949890B2 (en) * 2013-03-15 2018-04-24 Sambhu Choudhury Garment with remote controlled vibration array
US20140267076A1 (en) * 2013-03-15 2014-09-18 Immersion Corporation Systems and Methods for Parameter Modification of Haptic Effects
US10744060B2 (en) * 2013-03-15 2020-08-18 Sambhu Choudhury Garment with remote controlled vibration array
US10470971B2 (en) * 2013-03-15 2019-11-12 Sambhu Choudhury Garment with remote controlled vibration array
US9041647B2 (en) * 2013-03-15 2015-05-26 Immersion Corporation User interface device provided with surface haptic sensations
US8966616B2 (en) * 2013-04-01 2015-02-24 Microsoft Corporation Leveraging biometrics for authentication and touch differentiation
KR102214929B1 (ko) 2013-04-15 2021-02-10 삼성전자주식회사 촉각 제공 장치 및 방법
US10303326B2 (en) * 2013-04-17 2019-05-28 Samsung Electronics Co., Ltd. Electronic system with continuous navigation mechanism and method of operation thereof
US9524030B2 (en) 2013-04-26 2016-12-20 Immersion Corporation Haptic feedback for interactions with foldable-bendable displays
CN105144052B (zh) 2013-04-26 2019-02-15 意美森公司 用于柔性显示器的被动刚度和主动变形触觉输出设备
US9939900B2 (en) 2013-04-26 2018-04-10 Immersion Corporation System and method for a haptically-enabled deformable surface
GB2513884B (en) 2013-05-08 2015-06-17 Univ Bristol Method and apparatus for producing an acoustic field
US9274603B2 (en) * 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
US9804675B2 (en) 2013-06-27 2017-10-31 Elwha Llc Tactile feedback generated by non-linear interaction of surface acoustic waves
US8766953B1 (en) * 2013-06-27 2014-07-01 Elwha Llc Tactile display driven by surface acoustic waves
US9557813B2 (en) 2013-06-28 2017-01-31 Tactus Technology, Inc. Method for reducing perceived optical distortion
US9729730B2 (en) * 2013-07-02 2017-08-08 Immersion Corporation Systems and methods for perceptual normalization of haptic effects
US10295823B2 (en) 2013-07-02 2019-05-21 Pine Development Corporation Systems and methods for eliciting cutaneous sensations using electromagnetic radiation
US9280259B2 (en) 2013-07-26 2016-03-08 Blackberry Limited System and method for manipulating an object in a three-dimensional desktop environment
US10162416B2 (en) * 2013-09-06 2018-12-25 Immersion Corporation Dynamic haptic conversion system
US9514620B2 (en) * 2013-09-06 2016-12-06 Immersion Corporation Spatialized haptic feedback based on dynamically scaled values
US9443401B2 (en) * 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US9293015B2 (en) * 2013-09-09 2016-03-22 Immersion Corporation Electrical stimulation haptic feedback interface
US9390598B2 (en) * 2013-09-11 2016-07-12 Blackberry Limited Three dimensional haptics hybrid modeling
US9520036B1 (en) * 2013-09-18 2016-12-13 Amazon Technologies, Inc. Haptic output generation with dynamic feedback control
KR101550601B1 (ko) 2013-09-25 2015-09-07 현대자동차 주식회사 촉감 피드백을 제공하는 곡면 터치 디스플레이 장치 및 그 방법
CN103616951B (zh) * 2013-12-02 2017-04-19 深圳超多维光电子有限公司 力反馈的实现系统及方法
KR102143352B1 (ko) * 2013-12-13 2020-08-11 엘지디스플레이 주식회사 햅틱 일체형 터치스크린, 이의 제조방법 및 이를 포함하는 표시장치
GB2521436A (en) 2013-12-20 2015-06-24 Nokia Corp Method and apparatus for adaptive feedback
JP2015130168A (ja) * 2013-12-31 2015-07-16 イマージョン コーポレーションImmersion Corporation 摩擦拡張制御、及び、タッチコントロールパネルのボタンを摩擦拡張制御部へと変換する方法
US9612658B2 (en) 2014-01-07 2017-04-04 Ultrahaptics Ip Ltd Method and apparatus for providing tactile sensations
US10437341B2 (en) 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
JP6319327B2 (ja) * 2014-02-14 2018-05-09 富士通株式会社 ゲームコントローラ
CN103885708A (zh) * 2014-02-28 2014-06-25 宇龙计算机通信科技(深圳)有限公司 触觉交互的方法及系统
CN104932681B (zh) * 2014-03-21 2019-09-20 意美森公司 触觉效果的自动调整
KR20160138137A (ko) 2014-03-21 2016-12-02 임머숀 코퍼레이션 햅틱적으로 인에이블되는 곡면형 디바이스들을 위한 시스템 및 방법
US9449477B2 (en) 2014-04-02 2016-09-20 Pine Development Corporation Applications of systems and methods for eliciting cutaneous sensations by electromagnetic radiation
JP2015207242A (ja) * 2014-04-23 2015-11-19 富士通株式会社 電子機器
US10379614B2 (en) * 2014-05-19 2019-08-13 Immersion Corporation Non-collocated haptic cues in immersive environments
JP5938440B2 (ja) 2014-06-13 2016-06-22 大王製紙株式会社 吸収性物品
KR102246554B1 (ko) * 2014-06-18 2021-04-30 엘지전자 주식회사 휴대용 디스플레이 디바이스 및 그 제어 방법
US9696806B2 (en) * 2014-07-02 2017-07-04 Immersion Corporation Systems and methods for multi-output electrostatic haptic effects
US9606624B2 (en) 2014-07-02 2017-03-28 Immersion Corporation Systems and methods for surface elements that provide electrostatic haptic effects
JP6639771B2 (ja) * 2014-07-09 2020-02-05 ユニバーシティ・オブ・タンペレUniversity of Tampere 触知イメージング・システム
US20140320402A1 (en) * 2014-07-14 2014-10-30 Immersion Corporation Self calibration for haptic devices
US9454915B2 (en) * 2014-08-20 2016-09-27 Thieab Ibrahim Aldossary Electro tactile communication apparatus, method, and computer program product
JP7037938B2 (ja) 2014-08-20 2022-03-17 タッチグラム プロプライエタリー リミテッド タッチメッセージの送信システムと方法
US9690381B2 (en) 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
JP6684042B2 (ja) * 2014-09-08 2020-04-22 任天堂株式会社 電子機器
GB2530036A (en) 2014-09-09 2016-03-16 Ultrahaptics Ltd Method and apparatus for modulating haptic feedback
FR3026866B1 (fr) * 2014-10-02 2019-09-06 Dav Dispositif et procede de commande pour vehicule automobile
WO2016052862A2 (ko) * 2014-10-02 2016-04-07 주식회사 퓨처플레이 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
FR3026867A1 (fr) * 2014-10-02 2016-04-08 Dav Dispositif et procede de commande pour vehicule automobile
US9535550B2 (en) 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects
JP2016119101A (ja) * 2014-12-23 2016-06-30 イマージョン コーポレーションImmersion Corporation 自動かつ独自のハプティック通知
US10082872B2 (en) * 2014-12-30 2018-09-25 Immersion Corporation Deformable haptic wearables with variable physical properties
US10225442B2 (en) * 2015-02-16 2019-03-05 Mediatek Inc. Electronic device and method for sensing air quality
KR102524966B1 (ko) 2015-02-20 2023-04-21 울트라햅틱스 아이피 엘티디 햅틱 시스템에서의 알고리즘 개선
EP3259653B1 (en) 2015-02-20 2019-04-24 Ultrahaptics Ip Ltd Method for producing an acoustic field in a haptic system
GB201503177D0 (en) * 2015-02-25 2015-04-08 King S College London Vibration inducing apparatus for magnetic resonance elastography
US10613629B2 (en) 2015-03-27 2020-04-07 Chad Laurendeau System and method for force feedback interface devices
JP2018513455A (ja) * 2015-04-21 2018-05-24 イマージョン コーポレーションImmersion Corporation エッチング入力の動的表現
TWI563859B (en) * 2015-04-23 2016-12-21 Airoha Tech Corp Bluetooth audio packet sharing method
US10372212B2 (en) * 2015-05-29 2019-08-06 Google Llc Techniques for simulated physical interaction between users via their mobile computing devices
JP6123850B2 (ja) * 2015-07-15 2017-05-10 富士通株式会社 駆動制御装置、電子機器、及び駆動制御方法
US10818162B2 (en) 2015-07-16 2020-10-27 Ultrahaptics Ip Ltd Calibration techniques in haptic systems
JP6834962B2 (ja) 2015-09-08 2021-02-24 ソニー株式会社 情報処理装置、方法およびコンピュータプログラム
US9659468B2 (en) 2015-09-16 2017-05-23 Immersion Corporation Haptic feedback in a haptically noisy environment
US10282052B2 (en) 2015-10-15 2019-05-07 At&T Intellectual Property I, L.P. Apparatus and method for presenting information associated with icons on a display screen
BR112018007248A2 (pt) 2015-11-19 2018-11-06 Halliburton Energy Services Inc sistema de sensor para uso em um furo de poço e método
US9769596B2 (en) * 2015-11-24 2017-09-19 International Business Machines Corporation Mobile device output to external device
US9990078B2 (en) 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
KR102489827B1 (ko) * 2015-12-31 2023-01-17 엘지디스플레이 주식회사 표시 장치
US11189140B2 (en) 2016-01-05 2021-11-30 Ultrahaptics Ip Ltd Calibration and detection techniques in haptic systems
US9881467B2 (en) 2016-02-22 2018-01-30 Immersion Corporation Haptic effects conflict avoidance
KR101928550B1 (ko) * 2016-04-21 2018-12-12 주식회사 씨케이머티리얼즈랩 촉각 메시지 제공 방법 및 촉각 메시지 제공 장치
CN106095093B (zh) * 2016-06-08 2019-06-04 北京安云世纪科技有限公司 一种数据处理方法和装置
US9983675B2 (en) 2016-06-10 2018-05-29 Immersion Corporation Systems and methods for monitoring insulation integrity for electrostatic friction
US10531212B2 (en) 2016-06-17 2020-01-07 Ultrahaptics Ip Ltd. Acoustic transducers in haptic systems
USD843399S1 (en) * 2016-07-29 2019-03-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US10268275B2 (en) 2016-08-03 2019-04-23 Ultrahaptics Ip Ltd Three-dimensional perceptions in haptic systems
US10755538B2 (en) 2016-08-09 2020-08-25 Ultrahaptics ilP LTD Metamaterials and acoustic lenses in haptic systems
US10481688B1 (en) 2016-09-19 2019-11-19 Apple Inc. Finger beam for generating haptic feedback
KR101901799B1 (ko) * 2016-10-05 2018-11-07 현대자동차주식회사 차량용 사용자 인터페이스 제어 장치 및 제어 방법
US10261586B2 (en) 2016-10-11 2019-04-16 Immersion Corporation Systems and methods for providing electrostatic haptic effects via a wearable or handheld device
US10943578B2 (en) 2016-12-13 2021-03-09 Ultrahaptics Ip Ltd Driving techniques for phased-array systems
US10101813B2 (en) * 2016-12-14 2018-10-16 Immersion Corporation Automatic haptic generation based on color features and motion analysis
US10497358B2 (en) 2016-12-23 2019-12-03 Ultrahaptics Ip Ltd Transducer driver
JP6893417B2 (ja) * 2017-01-05 2021-06-23 任天堂株式会社 ゲームシステム、ゲームプログラム、情報処理装置、および、情報処理方法
JP6670768B2 (ja) 2017-01-05 2020-03-25 任天堂株式会社 ゲームシステム、ゲームプログラム、情報処理装置、および、情報処理方法
US11126264B2 (en) * 2017-01-19 2021-09-21 Telefonaktiebolaget Lm Ericsson (Publ) Transmission of haptic input
US10210978B2 (en) * 2017-01-26 2019-02-19 Immersion Corporation Haptic actuator incorporating conductive coil and moving element with magnets
CN107357478B (zh) * 2017-06-29 2020-03-24 青岛罗博数码科技有限公司 电磁触控的倾角检测方法、坐标修正方法及其应用
DE112018004030T5 (de) 2017-08-07 2020-05-28 Sony Corporation Phasenberechnungsvorrichtung, phasenberechnungsverfahren, system für eine haptische präsentation und programm
US20190073031A1 (en) * 2017-09-01 2019-03-07 Denso International America, Inc. Dynamic feedback system and method for providing dynamic feedback
CA3092689A1 (en) 2017-10-23 2019-05-02 Patent Holding Company 001, Llc Communication devices, methods, and systems
US10678333B2 (en) * 2017-11-14 2020-06-09 Verizon Patent And Licensing Inc. Methods and systems for presenting haptically perceptible virtual objects
US11531395B2 (en) 2017-11-26 2022-12-20 Ultrahaptics Ip Ltd Haptic effects from focused acoustic fields
EP3724743B1 (en) 2017-12-11 2022-10-19 Telefonaktiebolaget LM Ericsson (publ) Method for capturing haptic content in multiple communication devices
US11360546B2 (en) 2017-12-22 2022-06-14 Ultrahaptics Ip Ltd Tracking in haptic systems
EP3729418A1 (en) 2017-12-22 2020-10-28 Ultrahaptics Ip Ltd Minimizing unwanted responses in haptic systems
US20190265792A1 (en) * 2018-02-23 2019-08-29 Immersion Corporation Systems and methods for haptifying virtual objects using smart stickers
BR112021000234A2 (pt) 2018-05-02 2021-04-06 Ultrahaptics Ip Ltd Estrutura da placa de bloqueio para melhorar a eficiência da transmissão acústica
US10540016B1 (en) 2018-06-08 2020-01-21 Jeffrey Thomas Johnson Unlimited reach and touch tablet
DE102018209212A1 (de) * 2018-06-11 2019-12-12 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen eines vorbestimmten Schallwellensolldrucks an einer variablen Position eines Bedienraums und Bedienvorrichtung mit einer Vorrichtung für ein Fahrzeug
US11098951B2 (en) 2018-09-09 2021-08-24 Ultrahaptics Ip Ltd Ultrasonic-assisted liquid manipulation
WO2020072034A1 (en) * 2018-10-01 2020-04-09 Leia Inc. Holographic reality system, multiview display, and method
US11378997B2 (en) 2018-10-12 2022-07-05 Ultrahaptics Ip Ltd Variable phase and frequency pulse-width modulation technique
US20200192480A1 (en) * 2018-12-18 2020-06-18 Immersion Corporation Systems and methods for providing haptic effects based on a user's motion or environment
EP3906462A2 (en) 2019-01-04 2021-11-10 Ultrahaptics IP Ltd Mid-air haptic textures
CN112955852A (zh) * 2019-01-15 2021-06-11 华为技术有限公司 触觉刺激系统及方法
US11842517B2 (en) 2019-04-12 2023-12-12 Ultrahaptics Ip Ltd Using iterative 3D-model fitting for domain adaptation of a hand-pose-estimation neural network
JP7307811B2 (ja) 2019-04-17 2023-07-12 アップル インコーポレイテッド アイテムを追跡及び発見するためのユーザインタフェース
CN114637418A (zh) 2019-04-28 2022-06-17 苹果公司 生成与对象相关联的触觉输出序列
EP4042413A1 (en) 2019-10-13 2022-08-17 Ultraleap Limited Dynamic capping with virtual microphones
US11374586B2 (en) 2019-10-13 2022-06-28 Ultraleap Limited Reducing harmonic distortion by dithering
WO2021090028A1 (en) 2019-11-08 2021-05-14 Ultraleap Limited Tracking techniques in haptics systems
US11715453B2 (en) 2019-12-25 2023-08-01 Ultraleap Limited Acoustic transducer structures
US11662821B2 (en) * 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11816267B2 (en) 2020-06-23 2023-11-14 Ultraleap Limited Features of airborne ultrasonic fields
WO2022019085A1 (ja) * 2020-07-20 2022-01-27 ソニーグループ株式会社 情報処理装置、及び情報処理方法
WO2022058738A1 (en) 2020-09-17 2022-03-24 Ultraleap Limited Ultrahapticons
US11778421B2 (en) 2020-09-25 2023-10-03 Apple Inc. User interfaces for tracking and finding items
US11934583B2 (en) 2020-10-30 2024-03-19 Datafeel Inc. Wearable data communication apparatus, kits, methods, and systems
WO2022147151A1 (en) * 2020-12-31 2022-07-07 Snap Inc. Real-time video communication interface with haptic feedback
US20220206584A1 (en) * 2020-12-31 2022-06-30 Snap Inc. Communication interface with haptic feedback response
US11531400B2 (en) 2020-12-31 2022-12-20 Snap Inc. Electronic communication interface with haptic feedback response

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005508058A (ja) * 2001-11-01 2005-03-24 イマージョン コーポレーション 触知感覚を与える方法及び装置
JP2005332063A (ja) * 2004-05-18 2005-12-02 Sony Corp 触覚機能付き入力装置、情報入力方法及び電子機器

Family Cites Families (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6166723A (en) 1995-11-17 2000-12-26 Immersion Corporation Mouse interface device providing force feedback
US5666499A (en) 1995-08-04 1997-09-09 Silicon Graphics, Inc. Clickaround tool-based graphical interface with two cursors
US5959613A (en) 1995-12-01 1999-09-28 Immersion Corporation Method and apparatus for shaping force signals for a force feedback device
US6100874A (en) 1995-11-17 2000-08-08 Immersion Corporation Force feedback mouse interface
US5825308A (en) 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US6061004A (en) 1995-11-26 2000-05-09 Immersion Corporation Providing force feedback using an interface device including an indexing function
EP0864145A4 (en) * 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
US6028593A (en) 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US6300936B1 (en) 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
SE519661C2 (sv) 1996-02-23 2003-03-25 Immersion Corp Pekdon och förfarande för markering av grafiska detaljer på en display med sensorisk återkoppling vid påträffande av nämnda detalj
US6252579B1 (en) 1997-08-23 2001-06-26 Immersion Corporation Interface device and method for providing enhanced cursor control with force feedback
JP4149574B2 (ja) 1997-08-29 2008-09-10 ゼロックス コーポレイション ユーザインターフェースサポートデバイス、及び情報入力方法
US6448977B1 (en) 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
US6211861B1 (en) 1998-06-23 2001-04-03 Immersion Corporation Tactile mouse device
US6088019A (en) 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
KR100595924B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6717573B1 (en) 1998-06-23 2004-04-06 Immersion Corporation Low-cost haptic mouse implementations
US7528508B2 (en) 1998-10-09 2009-05-05 Azoteq Pty Ltd. Touch sensor user interface with compressible material construction
US7265494B2 (en) 1998-10-09 2007-09-04 Azoteq Pty Ltd. Intelligent user interface with touch sensor technology
US20060279542A1 (en) 1999-02-12 2006-12-14 Vega Vista, Inc. Cellular phones and mobile devices with motion driven control
US6337678B1 (en) 1999-07-21 2002-01-08 Tactiva Incorporated Force feedback computer input and output device with coordinated haptic elements
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US6924787B2 (en) 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
WO2002019648A2 (de) 2000-09-01 2002-03-07 Muehlhaeuser Max System und verfahren zum zurechenbaren drahtlosen zugreifen auf computerbasierte serviceleistungen
DE10046099A1 (de) 2000-09-18 2002-04-04 Siemens Ag Berührungssensitive Anzeige mit taktiler Rückkopplung
US7084854B1 (en) 2000-09-28 2006-08-01 Immersion Corporation Actuator for providing tactile sensations and device for directional tactile sensations
DE20019074U1 (de) 2000-11-09 2001-01-18 Siemens Ag Mobile elektronische Vorrichtung mit Anzeige- und Bedienungsorgan
US6963762B2 (en) 2001-05-23 2005-11-08 Nokia Corporation Mobile phone using tactile icons
US7032188B2 (en) 2001-09-28 2006-04-18 Nokia Corporation Multilevel sorting and displaying of contextual objects
US7225115B2 (en) 2001-10-04 2007-05-29 Novint Technologies, Inc. Coordinating haptics with visual images in a human-computer interface
JP2003288158A (ja) 2002-01-28 2003-10-10 Sony Corp タクタイル・フィードバック機能を持つ携帯型機器
US7347815B2 (en) 2002-02-12 2008-03-25 Razz Serbanescu Method and apparatus for converting sense-perceived thoughts and actions into physical sensory stimulation
JP2003323259A (ja) 2002-05-02 2003-11-14 Nec Corp 情報処理装置
JP3852368B2 (ja) 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
US7456823B2 (en) 2002-06-14 2008-11-25 Sony Corporation User interface apparatus and portable information apparatus
JP3937982B2 (ja) 2002-08-29 2007-06-27 ソニー株式会社 入出力装置および入出力装置を有する電子機器
KR20040025398A (ko) 2002-09-19 2004-03-24 삼성전자주식회사 이동 통신 단말의 호착신 알림 방법
JP4117352B2 (ja) 2002-11-12 2008-07-16 株式会社ソニー・コンピュータエンタテインメント ファイル処理方法とこの方法を利用可能な装置
US8830161B2 (en) 2002-12-08 2014-09-09 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
KR20050104382A (ko) 2003-02-19 2005-11-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 휴대용 디바이스들 사이의 콘텐트 아이템들의 ad hoc공유를 위한 시스템 및 그를 위한 상호작용 방법들
CA2422265A1 (en) 2003-03-14 2004-09-14 Handshake Interactive Technologies Inc. A method and system for providing haptic effects
US20060181517A1 (en) 2005-02-11 2006-08-17 Apple Computer, Inc. Display actuator
DE10340188A1 (de) 2003-09-01 2005-04-07 Siemens Ag Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe
GB0322489D0 (en) * 2003-09-25 2003-10-29 British Telecomm Haptics transmission systems
JP4401728B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
US7280096B2 (en) * 2004-03-23 2007-10-09 Fujitsu Limited Motion sensor engagement for a handheld device
US20050212760A1 (en) 2004-03-23 2005-09-29 Marvit David L Gesture based user interface supporting preexisting symbols
JP4046095B2 (ja) 2004-03-26 2008-02-13 ソニー株式会社 触覚機能付き入力装置、情報入力方法及び電子機器
US20060061545A1 (en) 2004-04-02 2006-03-23 Media Lab Europe Limited ( In Voluntary Liquidation). Motion-activated control with haptic feedback
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7342573B2 (en) 2004-07-07 2008-03-11 Nokia Corporation Electrostrictive polymer as a combined haptic-seal actuator
JP2005027327A (ja) * 2004-07-13 2005-01-27 Univ Waseda 力通信方法およびその装置
JP2006048302A (ja) 2004-08-03 2006-02-16 Sony Corp 圧電複合装置、その製造方法、その取扱方法、その制御方法、入出力装置及び電子機器
GB2416962B (en) 2004-08-05 2009-04-01 Vodafone Plc New communication type for mobile telecommunications networks
JP4860625B2 (ja) 2004-10-08 2012-01-25 イマージョン コーポレーション タッチ式入力装置におけるボタンおよびスクロール動作シミュレーション用の触覚フィードバック
WO2006051581A1 (ja) 2004-11-09 2006-05-18 Takahiko Suzuki 触覚フィードバックコントローラ及びその制御方法並びに触覚フィードバックコントローラを用いたメッセージ伝達方法
GB0503253D0 (en) 2005-02-17 2005-03-23 Univ Northumbria Newcastle User control of a hand-held device
US7952564B2 (en) 2005-02-17 2011-05-31 Hurst G Samuel Multiple-touch sensor
JP4337053B2 (ja) 2005-02-28 2009-09-30 ブラザー工業株式会社 光走査装置および画像形成装置
US7825903B2 (en) 2005-05-12 2010-11-02 Immersion Corporation Method and apparatus for providing haptic effects to a touch panel
US8339363B2 (en) 2005-05-13 2012-12-25 Robert Bosch Gmbh Sensor-initiated exchange of information between devices
US20060279476A1 (en) 2005-06-10 2006-12-14 Gemini Mobile Technologies, Inc. Systems and methods for conveying message composer's state information
US8116740B2 (en) 2005-09-21 2012-02-14 Nokia Corporation Mobile communication terminal and method
US20070139366A1 (en) 2005-12-21 2007-06-21 Dunko Gregory A Sharing information between devices
US7480870B2 (en) 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition
US7812826B2 (en) 2005-12-30 2010-10-12 Apple Inc. Portable electronic device with multi-touch input
US7956846B2 (en) 2006-01-05 2011-06-07 Apple Inc. Portable electronic device with content-dependent touch sensitivity
JP2007257088A (ja) * 2006-03-20 2007-10-04 Univ Of Electro-Communications ロボット装置及びそのコミュニケーション方法
US8405618B2 (en) 2006-03-24 2013-03-26 Northwestern University Haptic device with indirect haptic feedback
US8780053B2 (en) 2007-03-21 2014-07-15 Northwestern University Vibrating substrate for haptic interface
US8525778B2 (en) 2007-03-21 2013-09-03 Northwestern University Haptic device with controlled traction forces
JP2007287005A (ja) 2006-04-19 2007-11-01 Sony Corp 情報入出力装置、および情報処理方法、並びにコンピュータ・プログラム
US7978181B2 (en) 2006-04-25 2011-07-12 Apple Inc. Keystroke tactility arrangement on a smooth touch surface
JP2007301270A (ja) 2006-05-15 2007-11-22 Sony Computer Entertainment Inc ゲーム制御プログラム、ゲーム制御方法、ゲーム装置
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
JP4697095B2 (ja) 2006-08-29 2011-06-08 ソニー株式会社 タッチパネルディスプレイ装置、電子機器および遊技機器
US20080068334A1 (en) 2006-09-14 2008-03-20 Immersion Corporation Localized Haptic Feedback
US7890863B2 (en) 2006-10-04 2011-02-15 Immersion Corporation Haptic effects with proximity sensing
US7468573B2 (en) 2006-10-30 2008-12-23 Motorola, Inc. Method of providing tactile feedback
FR2910160A1 (fr) 2006-12-13 2008-06-20 France Telecom Systeme de telecommunication tactile
US7973769B2 (en) 2006-12-29 2011-07-05 Immersion Corporation Localized haptic feedback
US8368653B2 (en) 2007-01-31 2013-02-05 Perceptive Pixel, Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
US20080251364A1 (en) * 2007-04-11 2008-10-16 Nokia Corporation Feedback on input actuator
US20100207871A1 (en) 2007-04-26 2010-08-19 Nokia Corporation Method and portable apparatus
US8315652B2 (en) 2007-05-18 2012-11-20 Immersion Corporation Haptically enabled messaging
US9317110B2 (en) 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US9823833B2 (en) 2007-06-05 2017-11-21 Immersion Corporation Method and apparatus for haptic enabled flexible touch sensitive surface
US20090002328A1 (en) 2007-06-26 2009-01-01 Immersion Corporation, A Delaware Corporation Method and apparatus for multi-touch tactile touch panel actuator mechanisms
CN103513764B (zh) 2007-09-18 2017-04-26 森赛格公司 用于感觉刺激的方法和设备
US8098235B2 (en) 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
KR100844487B1 (ko) 2007-10-04 2008-07-07 한국과학기술원 동작 정보 송수신용 휴대용 단말 및 이를 이용한 송수신방법
KR100942720B1 (ko) 2007-10-24 2010-02-16 한국표준과학연구원 접촉저항방식 촉각센서를 이용한 박판형 터치스크린과 그 제조 방법 및 이 터치스크린의 알고리즘 구현 방법
US10488926B2 (en) 2007-11-21 2019-11-26 Immersion Corporation Method and apparatus for providing a fixed relief touch screen with locating features using deformable haptic surfaces
US8150455B2 (en) 2007-11-27 2012-04-03 Nvidia Corporation Method and system for integrating a computer mouse function in a mobile communication device
US20090167507A1 (en) 2007-12-07 2009-07-02 Nokia Corporation User interface
US9569086B2 (en) 2007-12-12 2017-02-14 Nokia Technologies Oy User interface having realistic physical effects
US8138896B2 (en) 2007-12-31 2012-03-20 Apple Inc. Tactile feedback in an electronic device
US9857872B2 (en) 2007-12-31 2018-01-02 Apple Inc. Multi-touch display screen with localized tactile feedback
US20090166098A1 (en) 2007-12-31 2009-07-02 Apple Inc. Non-visual control of multi-touch device
US8004501B2 (en) * 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels
US8766925B2 (en) 2008-02-28 2014-07-01 New York University Method and apparatus for providing input to a processor, and a sensor pad
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US9829977B2 (en) 2008-04-02 2017-11-28 Immersion Corporation Method and apparatus for providing multi-point haptic feedback texture systems
TWI376109B (en) 2008-04-23 2012-11-01 Compal Communications Inc Wireless access system capable of controlling electronic devices and control method thereof
US20100214243A1 (en) 2008-07-15 2010-08-26 Immersion Corporation Systems and Methods For Interpreting Physical Interactions With A Graphical User Interface
KR102056518B1 (ko) 2008-07-15 2019-12-16 임머숀 코퍼레이션 물리 기반 촉각 메시징을 위한 시스템 및 방법
JP5309793B2 (ja) * 2008-08-27 2013-10-09 日本電気株式会社 タッチパネル振動方法およびタッチパネル装置
JP2010086471A (ja) 2008-10-02 2010-04-15 Sony Corp 操作感提供装置、および操作感フィードバック方法、並びにプログラム
US8823542B2 (en) 2008-11-26 2014-09-02 Nokia Corporation Apparatus and methods relevant to electronic devices
US9727139B2 (en) * 2008-12-12 2017-08-08 Immersion Corporation Method and apparatus for providing a haptic monitoring system using multiple sensors
US8686952B2 (en) 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
KR101766370B1 (ko) 2009-01-29 2017-08-08 임머숀 코퍼레이션 그래픽 사용자 인터페이스와의 물리적 상호작용을 해석하는 시스템 및 방법
US10007340B2 (en) 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US20100245254A1 (en) 2009-03-24 2010-09-30 Immersion Corporation Planar Suspension Of A Haptic Touch Screen
US9405456B2 (en) 2009-06-08 2016-08-02 Xerox Corporation Manipulation of displayed objects by virtual magnetism
TW201101137A (en) 2009-06-29 2011-01-01 J Touch Corp Touch panel with matrix type tactile feedback
WO2011011552A1 (en) * 2009-07-22 2011-01-27 Immersion Corporation Interactive touch screen gaming metaphors with haptic feedback across platforms
US8730182B2 (en) 2009-07-30 2014-05-20 Immersion Corporation Systems and methods for piezo-based haptic feedback
US8390594B2 (en) 2009-08-18 2013-03-05 Immersion Corporation Haptic feedback using composite piezoelectric actuator
US8588758B2 (en) 2009-10-30 2013-11-19 Immersion Corporation Interfacing a mobile device with a computer
US8766933B2 (en) 2009-11-12 2014-07-01 Senseg Ltd. Tactile stimulation apparatus having a composite section comprising a semiconducting material
WO2011090780A1 (en) 2010-01-20 2011-07-28 Northwestern University Method and apparatus for increasing the forces applied to bare a finger on a haptic surface
WO2011133860A2 (en) * 2010-04-23 2011-10-27 Immersion Corporation Systems and methods for providing haptic effects
US20110267181A1 (en) 2010-04-29 2011-11-03 Nokia Corporation Apparatus and method for providing tactile feedback for user
US10013058B2 (en) 2010-09-21 2018-07-03 Apple Inc. Touch-based user interface with haptic feedback
US8564535B2 (en) 2010-10-05 2013-10-22 Immersion Corporation Physical model based gesture recognition
US8780060B2 (en) 2010-11-02 2014-07-15 Apple Inc. Methods and systems for providing haptic control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005508058A (ja) * 2001-11-01 2005-03-24 イマージョン コーポレーション 触知感覚を与える方法及び装置
JP2005332063A (ja) * 2004-05-18 2005-12-02 Sony Corp 触覚機能付き入力装置、情報入力方法及び電子機器

Also Published As

Publication number Publication date
CN103257783A (zh) 2013-08-21
JP2013239194A (ja) 2013-11-28
KR101275386B1 (ko) 2013-06-17
US20130207904A1 (en) 2013-08-15
JP5833601B2 (ja) 2015-12-16
US8711118B2 (en) 2014-04-29
JP6431126B2 (ja) 2018-11-28
JP2013168124A (ja) 2013-08-29
JP2016129060A (ja) 2016-07-14
JP6141474B2 (ja) 2017-06-07
CN103257783B (zh) 2015-09-16
JP2013229051A (ja) 2013-11-07
JP5315448B2 (ja) 2013-10-16
US20120229400A1 (en) 2012-09-13
EP2629176A1 (en) 2013-08-21
US8279193B1 (en) 2012-10-02
JP2019036348A (ja) 2019-03-07
JP5898138B2 (ja) 2016-04-06

Similar Documents

Publication Publication Date Title
JP6431126B2 (ja) モバイルデバイス上での共有されたフィードバックのための双方向性モデル
US10466791B2 (en) Interactivity model for shared feedback on mobile devices
US20120223880A1 (en) Method and apparatus for producing a dynamic haptic effect
US8981915B2 (en) System and method for display of multiple data channels on a single haptic display
US8624864B2 (en) System and method for display of multiple data channels on a single haptic display
US10133401B2 (en) Method and apparatus for haptic flex gesturing
CN104123035A (zh) 用于支持触觉的可变形表面的系统和方法
KR20180098166A (ko) 가상 감성 터치를 위한 시스템들 및 방법들
KR20180066865A (ko) 햅틱들을 가지는 컴플라이언스 착시들을 위한 시스템들 및 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181101

R150 Certificate of patent or registration of utility model

Ref document number: 6431126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees