JP6203881B2 - データ特徴の触覚表示方法 - Google Patents

データ特徴の触覚表示方法 Download PDF

Info

Publication number
JP6203881B2
JP6203881B2 JP2016038542A JP2016038542A JP6203881B2 JP 6203881 B2 JP6203881 B2 JP 6203881B2 JP 2016038542 A JP2016038542 A JP 2016038542A JP 2016038542 A JP2016038542 A JP 2016038542A JP 6203881 B2 JP6203881 B2 JP 6203881B2
Authority
JP
Japan
Prior art keywords
vibrotactile
electronic device
information
actuator
actuators
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016038542A
Other languages
English (en)
Other versions
JP2016105324A (ja
Inventor
バーンバウム,デヴィッド,エム.
ウルリッヒ,クリストファー,ジェー.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2016105324A publication Critical patent/JP2016105324A/ja
Application granted granted Critical
Publication of JP6203881B2 publication Critical patent/JP6203881B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Description

本開示は、包括的には人間とタッチスクリーンとの相互作用に関し、より詳細には、タッチスクリーンに結合されたコンピューターとユーザーが装着するポータブル装置との間でのデータ交換に関し、データ交換には対応する触覚効果が付随する。
新世代の消費者装置及び商用装置はますます、コンピューターとユーザーとの間で情報を交換する好ましい方法としてタッチスクリーン入力及びタッチスクリーンディスプレイに頼っている。例えば、仮想的なボタン、スライダー等をタッチスクリーンのディスプレイに表示することができ、ユーザーは、これらの仮想的な入力を「押下」又は他の様式で操作することにより、選択肢の中から好みを示し、又は選択することができる。ユーザーと、タッチスクリーンを使用する広範囲の普段使いの装置との相互作用が、日々の生活の単なる一部になるまでますます普及することになることが予想される。個人がUSBフラッシュドライブ、ポータブルハードドライブ、メモリカード等のパーソナルポータブルデータ記憶装置を携帯することも一般的になりつつある。これらの装置は、例えば、金融記録、公文書、医療記録、写真及び映像、並びに音楽ファイル等の広範囲の有用なデータ及び情報を記憶するために人々により使用される。この傾向が、ポータブル記憶装置が個人により腕時計及び宝飾品と全く同じように一般的に装着されるようになるまで続くことも予想される。
上記傾向が進むにつれて、データ及び情報をコンピューター及び他の装置と個人のポータブル記憶装置との間で転送する改良されより簡易化された技法が出現するであろう。現在、この種のトランザクションは、個人のUSBフラッシュドライブをコンピューターのUSBポート内に装着することを含む。ドライブの存在の認識は、コンピューターのグラフィカルユーザーインターフェース(GUI)内にドライブを表すアイコンとして表示される。次に、ユーザーは、ファイル、フォルダー、写真、音楽ファイル等を表示されているアイコン上にドラッグして、それらを挿入されたUSBフラッシュドライブにコピー又は移動させることができる。これは、マウスを使用して行うことができ、又はタッチスクリーンを横切って指先を移動させることにより達成することができる。アイコンにドラッグされたアイテム毎に、進行バーが出現し、バーが左から右に進んだ場合、データ転送が完了する。次に、ユーザーは、USBフラッシュドライブをUSBポートから取り外し、転送されたデータが記憶された状態で持ち出すことができる。
情報をパーソナル記憶装置に転送する上記プロセスは機能的であるが、それでもやはり面倒で複雑であり、達成するために少なくとも適度のコンピュータースキルを必要とする。したがって、上記傾向に鑑みて、コンピューター又はディスプレイを有する他の装置と、個人のパーソナルポータブル記憶装置との間で情報及びデータを転送するより簡易でより直観的であり、かつよりインタラクティブな方法が現在必要とされており、その必要性は高まりつつある。これに関連して、ファイルがパーソナルポータブル記憶装置に含まれていることを個人に常時通知する必要性もある。本開示が主に対象とするのはこのような方法の提供である。
タッチスクリーンを有するコンピューター又は他の装置と、個人のパーソナルポータブル記憶装置との間でデータを転送する方法及び装置が開示される。本方法は、特別な振動触知前腕ディスプレイと組み合わせて、個人が装着するBluetooth(登録商標)又は他の無線パーソナルデータ記憶装置の使用を含む。振動触知前腕ディスプレイは、振動効果又は触覚効果をユーザーの前腕に所定のパターン又は順序で与えるように位置決めされた振動触知アクチュエーターの離間アレイを有する前腕帯の形態をとることができる。アクチュエーターはコントローラーにより制御され、コントローラーは装着されるパーソナル記憶装置にも結合される。コンピューターは、ユーザーが表面に加える接触及びジェスチャーに応答するようにプログラムされる。
可能な一例では、パーソナル記憶装置と、前腕ディスプレイとを装着した個人は、例えば、ユーザーがパーソナル記憶装置にロードしたい写真を表示したタッチスクリーンに近づくことができる。勿論、この例での写真は、音楽ファイル、ドキュメント等の実質的にあらゆる種類の情報を仮想的に表すアイコンで置き換えることができる。しかし、本例では、個人は、スクリーンの写真の近くを単に触れ、指のジェスチャーを実行することができ、ジェスチャーは、コンピューターにより、写真を個人の無線記憶装置にアップロードする要求を示すものとして解釈される。次に、画面上の写真を個人の手の下に移動させ、縮小させ、消失させて、写真が個人のパーソナル記憶装置に送られたことを示すことができる。その直後、振動触知前腕ディスプレイの個人の手の近くにある触覚アクチュエーターが起動し、データ送出の開始を示す振動を与える。写真の多くの部分がアップロードされるにつれて、個人の前腕のますます高い位置にある触覚アクチュエーターが起動して、データ転送の進行を示す。したがって、個人は、ファイルが自身の腕を上って移動するように感じる。転送が終了すると、異なる触覚効果を個人の前腕に与えて、写真のアップロードが完了したことを示すことができる。その後、個人は、前腕ディスプレイを通じて、アップロードされたファイルがまだ存在することを示す連続又は周期的な触覚効果を受けることができる。
このように、コンピューター及び他の装置とのデータ及び情報の交換を大幅に簡易化し、より直観的かつより有用にする方法及び装置が開示される。本方法は、アップロードされたファイルの存在及び恐らくは他の状態情報を示す、パーソナル記憶装置からの触覚メッセージを含むことができる。これらの態様、特徴、及び利点、並びに他の態様、特徴、及び利点は、以下のように概説される添付図面の図とともに取り入れられた後述する詳細な説明の検討からよりよく理解されるであろう。
本開示による前腕振動触知ディスプレイ及びパーソナル記憶装置を示す図である。 本開示による、コンピューターに結合されたタッチスクリーンビデオディスプレイを示す図である。 無線パーソナル記憶装置及び前腕振動触知ディスプレイが取り付けられた個人が該個人がアップロードしたいタッチスクリーン上の画像に手を伸ばしているところを示す図である。 個人がタッチスクリーンの画像の近傍に触れて画像を選択し、アップロードを要求する指ジェスチャーを実行しているところを示す図である。 データ転送が開始する際に個人の手の下で画像が縮小することと、データ転送の開始を触覚で示す振動触知前腕ディスプレイの第1のアクチュエーターの対応する起動とを示す図である。 データ転送が続いていることと、データ転送の進行を触覚で示す振動触知前腕ディスプレイの追加のアクチュエーターの順次起動とを示す図である。 データ転送が完了間近であることと、振動触知前腕ディスプレイのアクチュエーターの対応する起動とを示す図である。 データ転送の完了と、パーソナル記憶装置への写真の転送が完了したことを装着者に示す前腕振動触知ディスプレイを通しての対応する触覚効果の付与とを示す図である。
これより、図面の図をより詳細に参照する。図中、同様の参照番号はいくつかの図を通して同様の部分を示す。図1は、本発明の原理を実施する前腕振動触知ディスプレイを示す。この実施形態での振動触知ディスプレイ11は、個人の前腕12に巻かれて装着されるバンド又はスリーブ13を備える。例えば、Bluetooth(登録商標)対応フラッシュメモリチップ等の無線パーソナルメモリ装置14が、スリーブに配置され、コンピューターと無線でデータを交換することが可能である。アクチュエーターコントローラー16がスリーブ13に配置され、メモリ装置14に動作可能に結合されて、メモリ装置へのデータアップロードの状態又はメモリ装置からのデータダウンロードの状態を監視する。振動触知アクチュエーター18のアレイがスリーブ13に配置され、起動した場合、各アクチュエーターが振動触感覚を個人の前腕12に加えることが可能なように位置決めされている。示される実施形態では、アクチュエーター18は前腕12から上に一列に延びて配置されているが、これは本発明を限定するものではなく、アクチュエーターは、特定の用途に合わせるために望ましい任意のパターン又はアレイに配置することができる。アクチュエーターのアレイの構成にかかわりなく、各アクチュエーター18はアクチュエーターコントローラー16に動作可能に接続されている。アクチュエーターコントローラーは、所望に応じてアクチュエーターを個々に、順次、グループで、又は他の様式で起動するようにプログラムされている。さらに、アクチュエーターコントローラーは、異なる振動触覚効果をアクチュエーターのうちの1つ又は全てに与えることが可能であり、異なる効果は個人により区別可能である。例えば、コントローラーは、触覚感覚をアクチュエーターに短いバーストで、長いバーストで、一連のバーストで、又は独特の振動プロファイルを有する触覚感覚で与えて、様々なメッセージ又は情報を個人に与えることができる。
図2は、タッチ対応のディスプレイ24を有するタッチスクリーン22を一般的な形態で示す。タッチスクリーンは、コンピューター21に結合され、コンピューター21により制御され、この実施形態では、コンピューター21は一般的な形態で表される。しかし、コンピューターは、示されるようにスタンドアローンコンピューターとすることができ、又は例えば、キオスク、ATM機、ビデオゲーム、携帯電話、携帯情報端末(PDA)、若しくは他の電子装置等の装置に埋め込まれたコンピューター若しくはコントローラーとすることができる。コンピューター21は、例えば、背景又はフィールド23に配置されたグラフィック要素26等の画像をタッチスクリーン22に表示するようにプログラムされている。グラフィック要素26については、写真として本明細書において考察するが、それらは、例えば、ファイル、フォルダー、ドキュメント、スプレッドシート、音楽、電子メール、ボイスメール、又はコンピューター画面上に日常的に表示される任意の他の種類の情報を示すアイコン又は表示等の実質的にあらゆる種類のグラフィック要素とすることができることが理解されるであろう。タッチスクリーン22は、ディスプレイ24の上に重なったタッチセンシティブパネルも含み、このパネルは、容量性タッチパネル、抵抗性タッチパネル、又は任意の他の適切な種類のタッチパネルとすることができる。タッチセンシティブパネルは個人による画面の静的な接触及び移動する、すなわち動的な接触を検知し、コンピューター21に、画面への接触位置を示す情報及び画面上の接触の動的な移動についての情報を送信する。このようにして、個人は、接触及び指のジェスチャーを通じて、画面に提示された画像及び情報と相互作用し、コンピューターは、接触及びジェスチャーを要求、コマンド、指示等として解釈するようにプログラムされている。
一般に、タッチスクリーン技術、振動触知アクチュエーター及びコントローラー、並びに無線データ転送の詳細は、当業者に既知であるため、本明細書において詳細に説明する必要はない。しかし、次に、これらの技術を利用する本発明について、図3乃至図8を参照してより詳細に説明する。これらの図は、好ましい一実施形態での本開示の方法を順次示す。特に、本発明の方法論について、個人がタッチスクリーンと相互作用して、画面上の画像を、個人が装着する無線パーソナル記憶装置にアップロードすることに関して考察する。しかし、本発明が本発明の例として選択される特定の実施形態に限定されないし、そのような実施形態によって限定されることもないことを理解されたい。
図3は、画像が表示されるフィールド又は背景24を表示するタッチスクリーンビデオディスプレイ22を示し、この例では、画像は写真20の画像である。画面に向かって伸びる個人の腕が見られる。上述したように構成された振動触知ディスプレイ11が、個人の前腕12に取り付けられている。この例では、個人は、コンピューター画面から無線パーソナル記憶装置にアップロードしたいアイテムとして写真20を特定している。図4では、個人は、30で示されるように自身の手15を動かし、タッチスクリーンディスプレイ22の写真20又はその近傍に触れる。画面に結合されたコンピューターは、この接触を個人による写真20の選択又は特定として解釈するようにプログラムされている。
個人が、選択された写真を使用して何をしてもらいたいかをコンピューターに命令するために、例えば、指の掴む動き等の指のジェスチャーが、タッチスクリーンの表面上で実行される。コンピューターは、写真を具現するデータを個人の無線パーソナル記憶装置にアップロードする命令としてジェスチャーを解釈するようにプログラムされている。次に、コンピューターは、個人の無線パーソナル記憶装置との通信を確立し、データアップロードを開始する。図5では、写真20に対応するデータのアップロードが、31に示されるように開始されている。アップロードの開始と同時に、振動触知ディスプレイ11の振動触知コントローラーは、32に示されるように、個人の手に最も近い振動触知アクチュエーターを起動する。これは、パーソナル記憶装置への写真20の転送開始を確認する振動触覚フィードバックを個人に提供する。同時に、例えば、個人の手に「吸い込まれる」ように見えるような写真の操作等の視覚的な合図を、図5に示されるように、タッチスクリーンディスプレイ22に表示することができる。
図6では、写真20を具現するデータのアップロードが進行する。同時に、振動触知コントローラーは、アップロードの進行を監視し、32に示されるように振動触知アクチュエーターを順次起動する。このようにして、振動触感覚は個人の前腕を徐々に上に移動し、アップロードの進行を示す。或る意味では、個人は、データが転送されるにつれて、ファイルが自身の前腕を上に移動するように感じる。図7では、アップロードは完了間近であり、振動触知アクチュエーターの全てが、パーソナル記憶装置への選択された写真のアップロードがほぼ完了したことの個人への指示として、それぞれ順番に起動されている。最後に、図8において、選択された写真を具現するデータのアップロードは完了し、写真は画面22から消えている。この時点で、振動触知コントローラーは、35に示されるように、異なる区別可能な触覚効果を有する振動触知アクチュエーターのうちの1つ又は複数を起動することにより、完了を信号で通知することができる。例えば、図8に示されるように、個人の手から最も遠いアクチュエーターは、パルスのように振動することができ、又は区別可能な振動プロファイルで振動することができる。これは、選択された写真がこの時点で、パーソナル記憶装置にアップロードされたことを個人に信号で通知する。
写真がアップロードされた後、パーソナル記憶装置を監視する振動触知コントローラーは、個人が、写真を含むファイルが存在することを示す連続又は断続した触覚通知を自身の前腕振動触知ディスプレイで受信するように、振動触知アクチュエーターのうちの1つ又は複数を起動することができる。個人が家に着いたとき、個人は、写真を自身のパーソナル記憶装置から、タッチスクリーンを組み込んだパーソナルホームコンピューター又は他の装置にダウンロードしたい場合がある。その場合、個人は、自身の手をパーソナルホームコンピューターの画面に配置し、コンピューターがパーソナル記憶装置からデータをダウンロードする要求として認識するようにプログラムされている指又は手のジェスチャーを実行することができる。コンピューターは、無線パーソナル記憶装置との通信を確立し、ダウンロードが開始される。同時に、前腕ディスプレイの振動触知アクチュエーターは、データが個人の腕を下って、戻って移動することを暗示し、又はそのように感じるパターンでコントローラーにより起動される。例えば、アクチュエーターは、データアップロード中に起動された順序とは逆の順序に起動することができる。ダウンロードが完了したとき、区別可能な触覚効果が与えられ、写真は、タッチスクリーン上の個人の手の下に出現する。この時点で、写真を具現するデータは、パーソナルコンピューター内部に記憶され、個人のパーソナル記憶装置から出されている。
したがって、タッチスクリーンに結合されたコンピューターに対しデータ及び情報を選択し、アップロードし、及びダウンロードする独自の技法及び方法論がここで開示されていることが分かる。本発明を好ましい実施形態及び方法論に関して説明したが、多くの他の実施形態が可能であり、全てが本発明の範囲内であることが理解されよう。例えば、振動触知ディスプレイは、個人の前腕に装着される必要はなく、それに代えて、足、胴周り、腕時計として、又は触覚振動触知効果を与えることができる体の任意の他の場所に装着することができる。さらに、パーソナル記憶装置は、振動触知ディスプレイに一体化する必要はなく、振動触知コントローラーに直接結合する必要はない。例えば、パーソナル記憶装置は、コントローラーとは別個に配置し、コントローラーと無線で通信可能とすることができる。記憶装置は、携帯電話、PDA、又は音楽プレーヤー等の別の装置の一部とすることができる。さらに、振動触知アクチュエーターは、単純な線形パターンに配列して示されたが、振動触知触覚効果を個人に与えるために有用な実質的にあらゆるパターンに配置することもできる。振動触知アクチュエーターは1つのみであってもよく、インターフェース動作を表すために、その1つのみの振動触知アクチュエーター上に複数の触覚パターンが表示される。最後に、本発明が、好ましい実施形態におけるような写真のアップロード及びダウンロードに限定されないことが明らかなはずである。実際には、本願は、ドキュメント、音楽ファイル、フォルダー、スプレッドシートデータ、電子メール、ボイスメール、及び多くの他の情報等の個人がパーソナルメモリ装置にアップロードしたい場合がある任意の電子データ又は情報に適用可能である。これらの代替の形態の大半では、データは、写真の場合のように画像ではなくむしろ適切なアイコンにより画面に表される。最後に、好ましい実施形態では、振動触知感覚は順次与えられるが、それらは時間の経過に伴い他のパターンで与えることも同様に可能である。したがって、「時空的(spatiotemporal)」という言葉は、振動触知感覚を与えることができる広範囲のパターン及び順序を指すために使用することができる。これらの追加、削除、及び変更、並びに他の追加、削除、及び変更は、特許請求の範囲に記載の本発明の趣旨及び範囲から逸脱せずに、本明細書に示される好ましい実施形態に対して行うことができる。

Claims (13)

  1. 装着可能な物品上における複数の振動触知アクチュエーターを備えるポータブル装置であって、
    前記ポータブル装置は、前記複数の振動触知アクチュエーターに結合されているアクチュエーターコントローラーを備えており、
    該アクチュエーターコントローラーは、
    第1の電子装置から第2の電子装置への情報の転送の開始より後であり且つ該情報の転送の完了より前において、該情報の転送の進行を示すように、前記複数の振動触知アクチュエーターのうちの少なくとも一つの振動触知アクチュエーター作動させることであって前記少なくとも一つの振動触知アクチュエーターは、前記情報が転送されるにつれて作動される、作動させることと
    前記第1の電子装置から前記第2の電子装置への前記情報の転送の完了を示すように、前記複数の振動触知アクチュエーターのうちの少なくとも一つの振動触知アクチュエーターを作動させることと、
    を実行するようにプログラムされていることを特徴とする、ポータブル装置
  2. 前記アクチュエーターコントローラーは、前記複数の振動触知アクチュエーターのうちの少なくとも一つの振動触知アクチュエーターを、前記第1の電子装置から前記第2の電子装置への前記情報の転送の開始を示すように、作動させるようにさらにプログラムされていることを特徴とする、請求項1に記載のポータブル装置
  3. 前記第1の電子装置から前記第2の電子装置への前記情報の転送の開始を示すために用いられる前記少なくとも一つの振動触知アクチュエーターによって生成される振動触知感覚は、前記第1の電子装置から前記第2の電子装置への前記情報の転送の完了を示すために用いられる前記少なくとも一つの振動触知アクチュエーターによって生成される振動触知感覚とは異なることを特徴とする、請求項2に記載のポータブル装置
  4. 前記第1の電子装置から前記第2の電子装置への前記情報の転送の開始を示すために用いられる前記少なくとも一つの振動触知アクチュエーターによって生成される振動触知感覚及び前記第1の電子装置から前記第2の電子装置への前記情報の転送の完了を示すために用いられる前記少なくとも一つの振動触知アクチュエーターによって生成される振動触知感覚は、固有の振動プロファイルを備えることを特徴とする、請求項2に記載のポータブル装置
  5. 前記ポータブル装置は、パーソナル記憶装置をさらに備えており、
    前記第2の電子装置は、該パーソナル記憶装置であることを特徴とする、請求項1に記載のポータブル装置
  6. 前記装着可能な物品は、腕時計であることを特徴とする、請求項1に記載のポータブル装置
  7. 前記複数の振動触知アクチュエーターは、前記装着可能な物品上において所定のアレイで配置されていることを特徴とする、請求項1に記載のポータブル装置
  8. 前記アクチュエーターコントローラーは、前記複数の振動触知アクチュエーターに結合されており、
    前記アクチュエーターコントローラーは、前記複数の振動触知アクチュエーターを、所定の方法で、情報を個人に与えるように、作動させるようにプログラムされていることを特徴とする、請求項7に記載のポータブル装置
  9. 前記複数の振動触知アクチュエーターの前記所定のアレイは、直線パターンであることを特徴とする、請求項7に記載のポータブル装置
  10. 前記アクチュエーターコントローラーは、前記複数の振動触知アクチュエーターに結合されており、
    前記アクチュエーターコントローラーは、前記第1の電子装置から前記第2の電子装置への前記情報の転送の進行を示すように、前記複数の振動触知アクチュエーターを順次作動させるようにプログラムされていることを特徴とする、請求項9に記載のポータブル装置
  11. 請求項1乃至10のいずれか一項に記載のポータブル装置と、
    コンピューターであって、該コンピューターは前記第1の電子装置である、コンピューターと、
    を備える、システム。
  12. 前記コンピューターは、タッチスクリーンであって、該タッチスクリーンは、前記コンピューターから前記第2の電子装置への前記情報の転送開始のための入力を感知するように構成されている、タッチスクリーンを備えていることを特徴とする、請求項11に記載のシステム。
  13. 前記コンピューターは、携帯電話であることを特徴とする、請求項11又は12に記載のシステム。
JP2016038542A 2009-10-30 2016-03-01 データ特徴の触覚表示方法 Expired - Fee Related JP6203881B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/609,100 2009-10-30
US12/609,100 US9417694B2 (en) 2009-10-30 2009-10-30 System and method for haptic display of data transfers

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012536869A Division JP5896911B2 (ja) 2009-10-30 2010-10-18 データ特徴の触覚表示方法

Publications (2)

Publication Number Publication Date
JP2016105324A JP2016105324A (ja) 2016-06-09
JP6203881B2 true JP6203881B2 (ja) 2017-09-27

Family

ID=43431952

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012536869A Expired - Fee Related JP5896911B2 (ja) 2009-10-30 2010-10-18 データ特徴の触覚表示方法
JP2016038542A Expired - Fee Related JP6203881B2 (ja) 2009-10-30 2016-03-01 データ特徴の触覚表示方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012536869A Expired - Fee Related JP5896911B2 (ja) 2009-10-30 2010-10-18 データ特徴の触覚表示方法

Country Status (6)

Country Link
US (1) US9417694B2 (ja)
EP (2) EP2494424B1 (ja)
JP (2) JP5896911B2 (ja)
KR (3) KR101922829B1 (ja)
CN (2) CN102640083B (ja)
WO (1) WO2011053474A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015023670A1 (en) * 2013-08-13 2015-02-19 Coactive Drive Corporation Differential haptic guidance for personal navigation
US9802225B2 (en) 2005-06-27 2017-10-31 General Vibration Corporation Differential haptic guidance for personal navigation
JP5134517B2 (ja) * 2008-12-08 2013-01-30 キヤノン株式会社 情報処理装置及び方法
EP2455840A1 (en) * 2010-11-02 2012-05-23 Sony Ericsson Mobile Communications AB Communication device and method
KR101613158B1 (ko) 2012-06-13 2016-04-18 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 데이터 통신
US20140002336A1 (en) * 2012-06-27 2014-01-02 Greg D. Kaine Peripheral device for visual and/or tactile feedback
KR20140021899A (ko) 2012-08-13 2014-02-21 삼성전자주식회사 컨텐츠를 이동시키기 위한 방법 및 그 전자 장치
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
JP6155593B2 (ja) * 2012-10-15 2017-07-05 株式会社ニコン システム、装置及び方法
US9949890B2 (en) * 2013-03-15 2018-04-24 Sambhu Choudhury Garment with remote controlled vibration array
US20150040005A1 (en) * 2013-07-30 2015-02-05 Google Inc. Mobile computing device configured to output haptic indication of task progress
US9293015B2 (en) * 2013-09-09 2016-03-22 Immersion Corporation Electrical stimulation haptic feedback interface
US11044248B2 (en) 2013-09-13 2021-06-22 Symbol Technologies, Llc Method and device for facilitating mutual authentication between a server and a user using haptic feedback
US9671826B2 (en) * 2013-11-27 2017-06-06 Immersion Corporation Method and apparatus of body-mediated digital content transfer and haptic feedback
US10379614B2 (en) * 2014-05-19 2019-08-13 Immersion Corporation Non-collocated haptic cues in immersive environments
US9733880B2 (en) 2014-05-30 2017-08-15 Immersion Corporation Haptic notification manager
JP6269324B2 (ja) * 2014-06-02 2018-01-31 株式会社豊田中央研究所 入力装置
CN105334947A (zh) * 2014-06-09 2016-02-17 联想(北京)有限公司 一种信息处理方法及电子设备
CN111998027B (zh) 2014-07-28 2022-05-27 Ck高新材料有限公司 触觉信息提供方法
KR101735471B1 (ko) * 2014-07-28 2017-05-16 주식회사 씨케이머티리얼즈랩 촉각 정보 제공 모듈
US10055018B2 (en) * 2014-08-22 2018-08-21 Sony Interactive Entertainment Inc. Glove interface object with thumb-index controller
US9645646B2 (en) * 2014-09-04 2017-05-09 Intel Corporation Three dimensional contextual feedback wristband device
KR102437373B1 (ko) * 2014-10-31 2022-08-30 삼성전자주식회사 가상의 진동을 출력하는 포터블 디바이스 및 기계적 진동을 이용한 디바이스 간의 통신 방법
US9535550B2 (en) 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects
US10613628B2 (en) * 2014-12-23 2020-04-07 Immersion Corporation Media driven haptics
KR101784472B1 (ko) * 2015-01-13 2017-10-11 주식회사 씨케이머티리얼즈랩 촉각 정보 제공 기기
WO2016114487A1 (ko) 2015-01-13 2016-07-21 주식회사 씨케이머티리얼즈랩 촉각 정보 제공 기기
KR102296323B1 (ko) * 2015-01-14 2021-09-01 삼성전자주식회사 전자 장치 및 전자 장치에서의 정보 처리 방법
US10534435B2 (en) 2016-11-18 2020-01-14 Immersion Corporation Handheld interface device having a plurality of electrostatic friction (ESF) electrodes
US9928700B1 (en) 2017-01-25 2018-03-27 Immersion Corporation Method and apparatus for controlling generation of electrostatic friction effects for a plurality of electrodes
EP3573525B1 (en) * 2017-01-27 2023-06-07 Northwestern University Epidermal virtual reality devices
TWI669655B (zh) * 2017-03-03 2019-08-21 國立臺灣大學 指戴型觸覺顯示裝置
WO2018194884A1 (en) * 2017-04-17 2018-10-25 Facebook, Inc. Haptic communication system using cutaneous actuators for simulation of continuous human touch
WO2019083863A1 (en) 2017-10-23 2019-05-02 Patent Holding Company 001, Llc DEVICES, METHODS, AND COMMUNICATION SYSTEMS
AT17923U1 (de) * 2019-10-15 2023-08-15 Katerina Sedlackova Ma Bekleidungsstück
CA3177615A1 (en) 2020-10-30 2022-05-05 Datafeel Inc. Wearable data communication apparatus, kits, methods, and systems
WO2024080030A1 (ja) * 2022-10-13 2024-04-18 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731815A (en) * 1986-05-28 1988-03-15 Fortel Corporation Reset system for telephone answering machine in the event of a power failure
US5361241A (en) 1993-04-14 1994-11-01 Salvator Ferrara Vib-a-wake
JPH1146230A (ja) 1997-03-20 1999-02-16 Northern Telecom Ltd 個人用通信装置および呼出処理状態を合図する方法
US6259935B1 (en) * 1997-06-24 2001-07-10 Matsushita Electrical Industrial Co., Ltd. Electro-mechanical-acoustic transducing device
US6363324B1 (en) * 1999-11-12 2002-03-26 David M Hildebrant Vehicle location system
JP2001356862A (ja) * 2000-04-14 2001-12-26 Fuji Xerox Co Ltd 触力覚呈示装置及び記録媒体
US7261690B2 (en) * 2000-06-16 2007-08-28 Bodymedia, Inc. Apparatus for monitoring health, wellness and fitness
JP4333019B2 (ja) 2000-10-25 2009-09-16 ソニー株式会社 携帯電話機および制御方法
WO2003021876A1 (fr) 2001-08-28 2003-03-13 Sony Corporation Appareil et procede de traitement d'informations et support d'enregistrement associe
US7724281B2 (en) * 2002-02-04 2010-05-25 Syniverse Icx Corporation Device facilitating efficient transfer of digital content from media capture device
JP4163456B2 (ja) 2002-06-26 2008-10-08 株式会社竹中工務店 シームレスポインティングシステム
US7123948B2 (en) * 2002-07-16 2006-10-17 Nokia Corporation Microphone aided vibrator tuning
JP3880561B2 (ja) 2002-09-05 2007-02-14 株式会社ソニー・コンピュータエンタテインメント 表示システム
JP4030894B2 (ja) 2003-02-24 2008-01-09 富士フイルム株式会社 撮影装置
US8359432B2 (en) * 2003-09-17 2013-01-22 Bindu Rama Rao System and method for transferring data between removable storage media units
US20050219223A1 (en) 2004-03-31 2005-10-06 Kotzin Michael D Method and apparatus for determining the context of a device
US20050237704A1 (en) 2004-04-22 2005-10-27 Carl Ceresoli Wristdrive
WO2007034457A1 (en) 2005-09-23 2007-03-29 Koninklijke Philips Electronics, N.V. Presentation on a stationary device of information transmitted from a portable device
US7696860B2 (en) 2005-10-14 2010-04-13 University Of Central Florida Research Foundation, Inc Electromagnetic field tactile display interface and biosensor
JP4719643B2 (ja) * 2006-08-11 2011-07-06 富士通東芝モバイルコミュニケーションズ株式会社 携帯端末
RU2009111002A (ru) 2006-08-27 2010-10-10 Май Мобайл Вотч Лимитед (Cn) Мобильный телефон-часы для системы gsm
KR20080052373A (ko) 2006-12-06 2008-06-11 한국전자통신연구원 인체통신을 이용한 미디어 광고 서비스 제공 장치 및 그방법
JP2008257442A (ja) 2007-04-04 2008-10-23 Sharp Corp 電子掲示装置
US20090017799A1 (en) 2007-07-13 2009-01-15 Sony Ericsson Mobile Communications Ab System, device and method for transmitting a file by use of a throwing gesture to a mobile terminal
US8092355B2 (en) * 2007-09-01 2012-01-10 Mortimer Bruce J P System and method for vibrotactile guided motional training
US8180296B2 (en) * 2008-04-29 2012-05-15 Immersion Corporation Providing haptic effects to users in a short range wireless system
KR101498622B1 (ko) * 2008-06-25 2015-03-04 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법
KR101556522B1 (ko) 2008-06-27 2015-10-01 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법

Also Published As

Publication number Publication date
KR101790361B1 (ko) 2017-10-25
EP2849034A1 (en) 2015-03-18
CN105807921A (zh) 2016-07-27
JP2016105324A (ja) 2016-06-09
CN102640083B (zh) 2016-03-30
EP2849034B1 (en) 2016-05-04
WO2011053474A1 (en) 2011-05-05
CN102640083A (zh) 2012-08-15
US20110102332A1 (en) 2011-05-05
US9417694B2 (en) 2016-08-16
EP2494424B1 (en) 2014-12-10
KR20180127553A (ko) 2018-11-28
EP2494424A1 (en) 2012-09-05
KR101922829B1 (ko) 2018-11-27
JP2013509647A (ja) 2013-03-14
KR20120101355A (ko) 2012-09-13
KR20170120713A (ko) 2017-10-31
CN105807921B (zh) 2018-11-20
JP5896911B2 (ja) 2016-03-30

Similar Documents

Publication Publication Date Title
JP6203881B2 (ja) データ特徴の触覚表示方法
US11609681B2 (en) Reduced size configuration interface
US11747956B2 (en) Multi-dimensional object rearrangement
US10996788B2 (en) Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10466883B2 (en) Screenreader user interface
EP3410287B1 (en) Device, method, and graphical user interface for selecting user interface objects
Oakley et al. A motion-based marking menu system
CN107977180A (zh) 用于使得低视力用户能够与触敏副显示器进行交互的系统和方法
AU2018101076A4 (en) Multi-dimensional object rearrangement

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170830

R150 Certificate of patent or registration of utility model

Ref document number: 6203881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees