JP2015219910A - 没入型環境における非コロケートな触覚キュー - Google Patents

没入型環境における非コロケートな触覚キュー Download PDF

Info

Publication number
JP2015219910A
JP2015219910A JP2015094900A JP2015094900A JP2015219910A JP 2015219910 A JP2015219910 A JP 2015219910A JP 2015094900 A JP2015094900 A JP 2015094900A JP 2015094900 A JP2015094900 A JP 2015094900A JP 2015219910 A JP2015219910 A JP 2015219910A
Authority
JP
Japan
Prior art keywords
haptic
user
tactile
feedback
playback devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015094900A
Other languages
English (en)
Other versions
JP6612522B2 (ja
Inventor
ダニー グラント
Danny Grant
ダニー グラント
クリストファー ジェイ. ウルリッチ
j ulrich Christopher
クリストファー ジェイ. ウルリッチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2015219910A publication Critical patent/JP2015219910A/ja
Application granted granted Critical
Publication of JP6612522B2 publication Critical patent/JP6612522B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Abstract

【課題】非コロケートな器官(例えば手首)に触覚フィードバックを提供するための装置を提供する。
【解決手段】非コロケートな器官へ触覚フィードバックを提供するためのシステム10は、1以上の触覚再生装置(アクチュエータ)18と、触覚再生装置を制御するための駆動回路16とを含む。駆動回路に結合されたプロセッサ12は、ユーザーインターフェイス11から受信されたデータに基づいた操作触覚情報を受信する。プロセッサは、操作触覚情報に基づいて触覚信号を生成する。触覚信号は、非コロケートな触覚フィードバックを生起するために駆動回路に提供される。
【選択図】図1

Description

一の実施形態は、触覚を利用可能な装置に関する。より具体的には、一の実施形態は、非コロケートな、触覚を利用可能な装置に関する。
電子機器の製造者は、ユーザーに向けて充実したインターフェイスを作り出すために注力している。従来の機器はユーザーにフィードバックを提供するために視覚及び聴覚によるキューを用いる。一部のユーザーインターフェイスにおいて、運動感覚フィードバック(例えば活性力及び抵抗力フィードバック)及び/又は触覚フィードバック(例えば振動、触感、及び熱)もユーザーに提供され、より一般的には、集合的に「触覚フィードバック」又は「触覚効果」として知られる。触覚フィードバックは、ユーザーインターフェイスを拡張及び単純化するキューを提供可能である。例えば、振動効果、又は振動触知(vibrotactile)触覚効果は、特定のイベントを警告するため、又はリアルなフィードバックを提供してシミュレート環境又は仮想環境内でより優れた感覚的没入を作り出すために、電子機器のユーザーにキューを提供する上で有用であり得る。
振動又はその他の効果を生成するために、多くの装置は、特定のタイプのアクチュエータ又はその他の触覚出力装置を利用する。この目的で用いられる既知のアクチュエータとしては、ソレノイドアクチュエータ等の電磁アクチュエータ、偏心マスがモータによって動かされる偏心回転質量(Eccentric Rotating Mass、ERM)アクチュエータ、リニア共振アクチュエータ振動モータ(LRA)、電気活性ポリマーアクチュエータ、及び圧電アクチュエータが挙げられる。
一実施形態において、非コロケート触覚フィードバックを伝達するための装置は、1以上の触覚再生装置と、触覚再生装置を制御する駆動回路とを含む。駆動回路へと電子的に結合されるプロセッサは、ユーザーインターフェイスから受信したデータに基づいて操作触覚情報を受信する。プロセッサは、操作触覚情報に基づいて触覚信号を生成する。プロセッサは、駆動回路に触覚信号を提供して非コロケート触覚フィードバックを生起する。
一実施形態に係る触覚を利用可能なシステムのブロック図である。 一部の実施形態に係る、装着されるよう構成された例示的なERM型アクチュエータを示す図である。 一部の実施形態に係る、ストラップ構成の複数のERM型アクチュエータを用いた例示的なアクチュエータアレイを示す図である。 一部の実施形態に係る、非コロケートアクチュエータを用いて起こり得る例示的なインタラクションのスクリーンショットを示す図である。 一部の実施形態に係る、マルチアクチュエータのウェアラブルリストストラップを有する仮想ボックスを図示する図である。 一部の実施形態に係る、触覚再生装置の機能を図示するフロー図である。
ヘッドマウント型の仮想現実ディスプレイ等の没入型ディスプレイは、ゲーム用途のための、全く新しいレベルのグラフィックな没入を提供する。視覚及び聴覚に深く関与しているため、ユーザーの仮想インタラクションと基礎的な関連を持つ「触覚キュー」を提供することで、ユーザーにとって説得力のある触覚エクスペリエンスを付加することが可能である。すなわち、触覚フィードバックは典型的に、インタラクトする器官、例えばタッチスクリーン上の指、に触覚を提供するが、触覚キューは、近傍の「非コロケート(non−collocated)」な器官、例えば手首、にフィードバックを提供して説得力のある触覚エクスペリエンスを実現可能である。
一の実施形態は、アプリケーションへのユーザーのインタラクションに基づいて生成された触覚信号を再生可能なアクチュエータ等の触覚再生装置である。センサーは、アプリケーションへのユーザーのインタラクションを確認可能であり、触覚再生信号を提供して触覚再生装置によって触覚フィードバックを提供可能である。触覚再生装置がユーザーのインタラクトする器官、例えば指又は手、に接触するのではなく、触覚再生装置は、インタラクトする器官とは異なる身体上の位置でユーザーに接触してよい。すなわち、触覚再生装置は、インタラクトする器官とは非コロケートであってよい。触覚信号は生成され、触覚再生装置へと提供され、身体上の別の位置で触覚フィードバックを生起して、知覚される仮想接触を提供することが可能である。
図1は、一実施形態に係る触覚を利用可能なシステム10のブロック図である。システム10は、ユーザーインターフェイス11を含み、メカニカルキー/ボタン13を含み得る。システム10は、システム10上に振動を生成する触覚フィードバックシステムを含む。
触覚フィードバックシステムは、プロセッサ又はコントローラ12を含む。プロセッサ12には、メモリ20、及びアクチュエータ18に結合されるアクチュエータ駆動回路16が結合される。アクチュエータ18は任意の種類のモータであってよく、これには偏心回転質量(ERM)、リニア共振アクチュエータ振動モータ(LRA)、圧電モータ、又はソレノイドアクチュエータが含まれるがこれらに限定されない。アクチュエータ18に追加して、もしくはその代替として、システム10は、静電摩擦(electrostatic friction、ESF)や超音波表面摩擦(ultrasonic surface friction、USF)を用いる装置、超音波触覚変換器を有する音響放射圧を誘導する装置、触覚基板と、柔軟又は変形可能な表面又は形状変形装置とを用い、ユーザーの身体に取り付けられ得る装置、空気ジェットを用いた空気の吹付け等の発射型触覚出力を提供する装置、電気筋肉刺激を提供する装置等の、非メカニカル又は非振動性の装置であり得るその他の種類の触覚出力装置(図示せず)を含み得る。アクチュエータ駆動回路16とアクチュエータ18のうちいずれか又は両方は、ストラップ、手袋、衣料品、もしくは接着剤又は機械的装置を介してユーザーの皮膚に直接取り付けられるもの等のウェアラブルな、又は、座席に配置されるものや、ユーザーの身体から離間して配置されるもの等の非ウェアラブルな、フィードバック装置15に含まれてよい。
プロセッサ12は任意の種類の汎用プロセッサであり得る、もしくは、特定用途向けIC(ASIC)のような、触覚効果を提供するために特別に設計されたプロセッサであってもよい。プロセッサ12は、システム10全体を操作する同じプロセッサでも、又は、別々のプロセッサでもあり得る。プロセッサ12は、どの触覚効果を再生するか、及び効果が再生される順序を、高レベルのパラメータに基づいて決定可能である。一般的に、特定の触覚効果を定義する高レベルのパラメータとしては、強度(magnitude)、周波数、及び期間が含まれる。特定の触覚効果を決定するために、ストリーミングモータコマンド(streaming motor command)のような低レベルのパラメータも使用可能である。触覚効果が生成される際にこれらのパラメータのいくつかの変化が含まれる場合、もしくはユーザーのインタラクションに基づいたこれらのパラメータの1つの変化が含まれる場合、触覚効果は「動的」であると見なされ得る。
プロセッサ12は、アクチュエータ18に必要な電流と電圧(すなわち「モータ信号」)とを供給して所望の触覚効果を起こすために用いられる電子部品及び電気回路を含むアクチュエータ駆動回路16へと制御信号を出力する。システム10は、1以上のアクチュエータ18を含み得て、各々のアクチュエータは、いずれも共通のプロセッサ12に結合される個別の駆動回路16を含み得る。メモリ装置20は、ランダムアクセスメモリ(RAM)又はリードオンリーメモリ(ROM)等の任意の種類の格納装置又はコンピュータ読み取り可能媒体であってよい。以下に詳述するとおり、メモリ20は、プロセッサ12によって実行される命令を格納する。メモリ20は、これらの命令のうち、プロセッサ12によって実行された際に、触覚効果を提供するアクチュエータ18向けの駆動信号を生成する命令である触覚効果モジュール22を含む。メモリ20は、プロセッサ12の内部にも位置し得て、内部メモリと外部メモリとの任意の組み合わせであり得る。アクチュエータ18は、プロセッサ12から触覚再生信号を受信するためのワイヤレスレシーバーを含んでワイヤレスであってよい。
ユーザーインターフェイス11は、装置へのタッチ、又は仮想現実アプリケーション内の仮想オブジェクトの操作といったユーザーのインタラクションを認識する。仮想オブジェクトの「操作(manipulation)」には、仮想世界内でユーザーによって使用可能かつユーザーによって制御される「仮想手(virtual hands)」(又はその他の仮想器具)を用いた、仮想オブジェクトへの任意の知覚される接触が含まれてよい。その他のアプリケーションにおいて、「操作」は、ユーザーインターフェイスを用いたユーザーによるアプリケーションの要素の制御を含み得る。典型的には、アプリケーションは、視覚的フィードバックをユーザーに提供し、ユーザーのインタラクションを追跡してフィードバックによってユーザーをガイドする。ユーザーインターフェイス11がタッチを認識する実施形態は、タッチ表面上の位置、押圧の強度、及びタッチの期間も認識し得る。ユーザーインターフェイス11が仮想現実アプリケーション内の仮想オブジェクトへの操作を認識する実施形態は、手又は指の位置を認識し得る、又は、仮想オブジェクトを操作するためのマウス又はその他の入力インターフェイスからの入力を受信できる。ユーザーのインタラクションに対応するデータは、操作触覚情報又はデータと呼ぶことができ、プロセッサ12又はシステム10内のその他のプロセッサに送信される。プロセッサ12は、ユーザーのインタラクションを解釈して、それに呼応して触覚効果信号を生成する。ユーザーインターフェイス11は、静電容量感知、抵抗感知、表面弾性波感知、圧力感知、光学感知等を含む任意の感知技術を用いてタッチを感知し得る。ユーザーインターフェイス11は、マルチタッチ接触を感知し得て、同時に発生した複数のタッチとその位置を区別可能であり得る。ユーザーインターフェイス11は、キー、ダイヤル等のようなユーザーがインタラクトする画像を生成及び表示するタッチスクリーンであり得て、又は、最小限の画像が表示された、又は画像が表示されないタッチパッドであり得る。ユーザーインターフェイス11は、手袋に取り付けられたセンサーを用いて、又は空間内の手又は指の位置を追跡する仮想センサーを用いて、手及び指の位置を感知し得る。
システム10は、触覚を利用可能なアプリケーションとのインタラクションを感知するための、センサー17のような様々なセンサーを含み得て、このインタラクションには、数ある中でも、上下、前後、左右、回転、ピッチ、及びヨーを含む動作の、最大で6段階の、センサーが検出する自由度が含まれる。このようなセンサーには、磁気センサー、電磁場センサー、加速度計、ジャイロスコープ、及び、位置データ及び角度データを検出するためのその他のセンサーが含まれてよい。力検出レジスタ(FSR)センサー及びマルチタッチ圧力センサーは、各タッチ場所に加えられた圧力を測定可能である。温度、湿度、及び大気圧センサーは、環境条件を把握可能である。マイクは、ユーザーの音声コマンド又は環境音情報を把握可能である。センサー17に対応するデータは、プロセッサ12又はシステム10内の他のプロセッサに送信され、プロセッサ12は、センサーのデータを解釈し、これに呼応して触覚効果信号を生成する。
当業者は、一部の実施形態において、システム10が、本稿で具体的に言及されるものに加えて、振動接触又は運動感覚フィードバックを提供するための、アクチュエータの任意の適切な変形を含み得ることを理解するだろう。例えばフィードバックは、ユーザーの皮膚を変形させるか、又は圧力を加える装置も含むことができる。
システム10は、携帯電話、パーソナルデジタルアシスタント(PDA)、スマートフォン、コンピュータタブレット、ゲームコンソール、車両を基にしたインターフェイス等の手持ちの装置であり得る。システム10は、ディスプレイ装置及びユーザーの手の動きを追跡するためのセンサー17のような1以上のセンサーを含む、仮想現実の装備と共に用いられ得る。ユーザーインターフェイス11は、タッチ感知式表面、又はその他の任意の種類のユーザーインターフェイス、例えばマウス、タッチパッド、ミニジョイスティック、スクロールホイール、トラックボール、ゲームパッド又はゲームコントローラ、センサー一体型又は搭載手袋、動作追跡カメラ等、であり得る。1以上のアクチュエータを有する実施形態において、各アクチュエータは、異なる触覚表現を有して異なる範囲の触覚効果を生起し得る。例えば、各回転アクチュエータは、装置上に幅広い触覚効果を作り出すために異なる回転能力を有し得て、例えば、各アクチュエータは個別に制御されることができる;また、一部の回転アクチュエータはその他の回転アクチュエータの回転軸に対して角度を有する回転軸を有する。同様に、その他の機能を持つ複数のアクチュエータを有する実施形態において、各アクチュエータは個別に制御されて装置上に幅広い触覚効果を呈することができる。
ユーザーにインターフェイスする触覚効果を提供することに加えて、システム10は、例えば映像又は音声ファイルと併せてシステム10内で再生するために静的に生成された触覚効果も提供し得る。
システム10のようなシステムの一例として、ユーザーが仮想世界とインタラクトする際にユーザーの手首に装着された、フィードバック装置15のような単独又は複数アクチュエータのウェアラブルストラップが挙げられる。この場合、手首への触覚効果は、仮想世界内の仮想手の知覚される仮想接触を伴う非コロケートであってよい。ユーザーが環境とインタラクトし、仮想オブジェクトに接触すると、手首にあるウェアラブルストラップが仮想接触のための触覚キュー(フィードバック)を与える。触覚キューは、アクチュエータ又はその他の触覚装置を用いた、短い振動又は短い一過性のソフトな変形効果であってよい。その他の実施形態は、座席に設けられた触覚再生装置、又はユーザーの皮膚から離間して配置される触覚再生装置のような非ウェアラブルデバイスを通じて触覚フィードバックを提供しうる。触覚キューは、接触の完全な再現ではない場合もある。触覚キューはインタラクションとコロケートでない場合や、ユーザーがオブジェクトに操作又は接触を行っている際に現実感のあるインタラクション力をユーザーに与えない場合もあるが、ユーザーは仮想的に及び聴覚的に環境に没入しているため、触覚キューは、たとえそれが仮想世界とのユーザーのインタラクションを示すだけのものであっても、有用な触覚フィードバックを提供できる。
図2は、一部の実施形態に係る、装着されるよう構成された例示的なERM型アクチュエータ210を図示する。アクチュエータ210は、ゴム又はその他の被覆材220内に包含され、被覆されたアクチュエータがユーザーの皮膚に押し付けられるようにすることが可能である。システムは、単独のアクチュエータで動作してよいが、複数のアクチュエータは、手の位置についてのセンサー情報を用いて、同一平面上で仮想衝突としてアクチュエータをトリガーすることでより高い現実感を提供できる。例えば、手の前方がオブジェクトに衝突した際、手首の前方のアクチュエータが触覚効果を提供してよい。
図3は、一部の実施形態に係る、フィードバック装置15のような、複数のERM型アクチュエータを用いる、ストラップでウェアラブルな構成の例示的なアクチュエータアレイを図示する。1つ又は複数のアクチュエータ310が、ユーザーの手首に装着されて手首の上と下にそれぞれ1つのアクチュエータ、手首の両側にそれぞれの1つのアクチュエータを提供するストラップ320に一体化されることができる。リストストラップ320は、コネクタ330又はワイヤレスインターフェイス(図示せず)を介して、プロセッサ12のようなマイクロコントローラに接続可能である。アクチュエータは、ストラップに取り付けられることができ、約90度おきに手首の周囲に配置される。アクチュエータは、異なるサイズの手首に対応して移動可能であるように、ベルクロ又は同様の種類の一時固定具によってストラップに取り付けられてよい。アクチュエータは、仮想世界とその世界内の仮想オブジェクトとのインタラクションに応じて起動可能である。
一部の実施形態において、アクチュエータは、(上述の例のように)ユーザーの手首、手、腕、足首、脚、及び頭といった、体の一部に取り付けることができる。アクチュエータは、触覚装置を制御するための標準的な方法を用いて制御可能である。例えば、ホスト装置上で実行されているアプリケーションは、アプリケーションの機能に応じて触覚効果を再生するよう呼び出すことができる。ゲームアプリケーションにおいて、ユーザーの手がゲーム内のオブジェクトに接触したときに触覚効果が呼び出され得る。フィードバック装置15のようなウェアラブルストラップ上の、プロセッサ12のようなマイクロコントローラは、触覚コマンドを受信し、処理し、必要とされるモータ電圧を、触覚効果を再生するよう意図されたアクチュエータに書き出すことが可能である。アクチュエータの制御には、ERMのオーバードライビングまたはブレーキングを用いて独特かつより多様な触覚効果を作り出すことなどの、高度な制御アルゴリズムが含まれ得る。触覚アクチュエータが、たとえばゴムの被覆材を介してなど、皮膚と近接しているとき、アクチュエータが本来振動アクチュエータであるにもかかわらず、オーバードライビングとブレーキングによる短パルスの独特な触覚キューを用いて、圧迫感をシミュレートすることができる。
このシステムは、ハプティクスのないシステムにハプティクスを追加するためにも用いることができ、また、ハプティクスを有するシステムを補完するためにも用いることができる。例えば、ユーザーはタッチ表面とインタラクトして、アクチュエータ、又はフィードバック装置15のようなユーザーの手首に位置するアクチュエータストラップアセンブリを通じてタッチフィードバック触覚キューを受け取ることが可能である。このような触覚キューは、ハプティクスを有さない場合より有益であることができ、または、タッチ表面を有する触覚エクスペリエンスを拡張又は改造するために用いることができる。
没入型ディスプレイのいくつかの例には、Oculus VR, Inc.が製造する「Oculus Rift」、Sony Electronics Inc.が製造する「ヘッドマウントディスプレイ」又は「ウェアラブルHDTV」、及びSony Computer Entertainment Inc.が製造する「Project Morpheus」ヘッドマウントディスプレイが含まれる。ハプティクスは、没入型ディスプレイを用いたインタラクションに、現実感のある要素を付け加える。一部の実施形態においてシステム10は触覚キューを提供するのみであるが、多くの触覚フィードバックシステムと同様、ユーザーは触覚フィードバック付きの装置に素早く適応する。触覚フィードバック装置が非コロケートであるシステムにおいても、ユーザーは、非コロケートなフィードバックに効果的に適応できる。
ユーザーは、ユーザーインターフェイス11により複数の入力方法を用いて、アプリケーションとインタラクトできる。例えばユーザーは、キーボード、マウス、トラックパッド等のより伝統的なコンピュータのヒューマンインターフェイス手段や、仮想タッチインターフェイスのようなより新しいインターフェイスとインタラクトできる。更に、使用可能な一部のインターフェイスには、Razer Inc.が製造する、上記6段階の動きを検出するセンサーを有する「Razer Hydra」動作検知コントローラのようなゲームコントローラが含まれる。一部の実施形態において、インターフェイスは、カメラ技術又は赤外線センサーを用いてオブジェクト及び動作を追跡する非タッチの動作追跡インターフェイスを含む。一部の実施形態において、インターフェイスは、CyberGlove Systems LLCが製造する「CyberTouch」グローブのような、手の動作及び位置を検出可能なセンサーが一体化又は搭載されたウェアラブルな手袋を含む。
図4は、一部の実施形態に係る、非コロケートアクチュエータを用いて発生し得る例示的なインタラクションのスクリーンショット400を図示する。この例でユーザーは、仮想環境を作り出す仮想現実ヘッドセットを装着している。ユーザーは、Razer Hydra又はMicrosoft Corpが製造する「Kinect」コントローラ等のゲーム周辺機器を用いて仮想手405を制御可能である。ユーザーは、照明スイッチ410、回転ダイヤル420、木箱430の3つの仮想オブジェクトとインタラクト可能である。
照明スイッチ410に対しては、ユーザーは、仮想手を上下動させて照明スイッチをオン又はオフにすることでインタラクト可能である。照明スイッチが上位置又は下位置に位置するとき、図3のリストストラップ320又はその他の触覚再生装置を用いて、触覚効果を手首で感じることができる。触覚再生システム又は複数の触覚再生装置が配置された装置において、ハプティクスは空間的な意味を与えられることが可能である。例えば、図3のリストストラップ320では、下から上へ移動する際、ユーザーは、触覚効果を手首の上部で感じることができる。この仮想身体的インタラクションの触覚表現に加えて、照明スイッチの状況に関する第2の触覚効果がトリガー可能である。例えば、光が明るくなるほど触覚効果が強い(つまり、高い強度)という、全体の光量に比例する触覚効果が生起可能である。流動の側面を取り入れた触覚効果も表現可能である。例えば、上部アクチュエータを起動した後に下部アクチュエータを起動することで、上から下へ流動する触覚効果を作り出すことが可能である。
回転ダイヤル420では、ユーザーは周辺機器又は仮想世界内のボタンを押下することでインタラクトして仮想ダイヤル420を操作することが可能である。ユーザーはその後、手首を時計方向又は反時計方向にひねることで仮想ダイヤル420を回転できる。触覚効果は、仮想ダイヤルにプログラムされた戻り止めの間隔に従ってユーザーの手首上で再生可能である。例えば、戻り止めは10度の間隔で表現され、仮想ダイヤルの回転の10度おきに触覚効果が発生するようにしてよい。複数のアクチュエータが利用可能であれば、空間的な流動型触覚効果を表現できる。例えば、ユーザーが装置を時計方向にひねると、ユーザーの手首に装着されたストラップ内のアクチュエータが時計方向に順々に動作可能である。
回転ダイヤル420の例は更に、インタラクションの象徴的な(symbolic)触覚表現をシステム10が提供可能であることを示している。例えば、仮想ダイヤルの物理的特性はダイヤルの周囲に戻り止め位置を有することであり得る。現実世界においては、ダイヤルは、ひねられるとカチカチと音を立て得る。仮想世界においては、1以上のアクチュエータを起動して触覚装置を通じて物理的な属性情報を提供することで、これらはハプティクスを用いて象徴的に表現される。例えば、ユーザーが仮想ダイヤルをひねる1回のインタラクションにおいて、ユーザーの手首の周囲でアクチュエータを時計方向の順序で起動することで、戻り止めが象徴的に表現されることができる。別の例において、12時の位置に最も近いアクチュエータを常に起動する(手首の位置にかかわらず)、又は、手の上部に最も近いアクチュエータのような、手首上の特定の位置にあるアクチュエータを常に起動することで、戻り止めは象徴的に表現されることができる。したがって、触覚効果は、仮想世界における回転ダイヤルの物理的特徴の情報を描写することもできる。
象徴的な触覚表現は、仮想オブジェクトについての象徴的な状況情報をも含んでよい。例えば、仮想ダイヤルの状況情報は回転限界、例えば最大設定までひねられた音量ダイヤル等のためのもの、を含む。仮想ダイヤルの状況が回転限界に達したとき、押圧感又は高速オン/オフの繰り返しフィードバック等のフィードバックが提供されて、限界に達したことが象徴的に示されることができる。したがって、非コロケートなハプティクスを用いることは、オブジェクトの物理的な特徴をオブジェクトの状況に組み合わせることによって、現実世界の対応する事象の象徴的な表現、ダイヤル420の例においては、次の戻り止め位置又は回転限界に対する相対的なダイヤルの回転位置、を仮想オブジェクトに提供することもできる。スイッチ410の例においては、スイッチの位置を状況とし、スイッチの操作の円滑さをスイッチの物理的な特徴とすることが可能である。
仮想木箱430では、ユーザーは仮想手を箱に差し入れて動かし、上面、底面、左面、右面という、箱の4つの面のうちの1つに接触することによってインタラクト可能である。図5は、複数アクチュエータ型のウェアラブルなリストストラップ520と仮想箱510を図示する。フィードバック装置15等の複数の触覚再生装置を有する、リストストラップ520のようなウェアラブルなストラップでは、アクチュエータは手首の上側、下側、右側、左側に位置してよい。仮想接触の正しい側に位置するアクチュエータが起動されることができる。例えば、手の上部が箱の上面にぶつかった場合、上側のアクチュエータ530が起動されてよい。ユーザーの手の上部が箱の左面にぶつかった場合、システムがユーザーの手首の回転を相殺するため、上側のアクチュエータがまた起動されてよい。この例において、ユーザーの仮想手が接触しているにもかかわらず間隔はユーザーの手首において感じられるため、触覚効果はまだ非コロケートである。一部の実施形態において、アクチュエータを手に配置することで触覚効果をコロケートとすることができる。
一部の実施形態において、複数の触覚再生装置はすべてユーザーの手首上の1箇所にフィードバックを提供するよう配置されてよい。例えば、ウェアラブルなリストストラップ520内の全てのアクチュエータが、手首の下側に配置されてよい。この実施形態において、提供される触覚効果の範囲を拡大するために、アクチュエータのスケジューリングが用いられてよい。弱い効果には、1つのアクチュエータのみ用いることができる。中程度の効果には、2つ又は3つのアクチュエータが用いられてよく、強い効果には、4つ全てのアクチュエータが同時に用いられてよい。同様に、各位置でアクチュエータのスケジューリングを組み合わせて位置固有の効果を生むために、各位置で複数のアクチュエータが用いられてよい。
図6は、一部の実施形態に係る触覚フィードバック装置の機能を図示するフロー図である。一の実施形態において、図6のフロー図の機能はメモリ又は他のコンピュータ読み取り可能媒体又は有形媒体に格納されたソフトウェアによって実装され、プロセッサによって実行される。その他の実施形態において、この機能はハードウェア(例えば、特定用途向けIC(ASIC)、プログラム可能ゲートアレイ(PGA)、フィールドプログラム可能ゲートアレイ(FPGA)等を用いる)又はハードウェアとソフトウェアとの任意の組み合わせによって行われ得る。
610において、アプリケーション、又はユーザーインターフェイス11のようなユーザーインターフェイスから触覚情報が受信される。触覚情報がアプリケーションから受信される場合、アプリケーションは、ユーザーのシステムとのインタラクションに基づいて触覚情報を生成できる。例えば、ユーザーは、ユーザーインターフェイス11を介してアプリケーションとインタラクト可能である。アプリケーションは、ユーザーインターフェイス11によるユーザーのインタラクションを解釈して、対応する反応をディスプレイ上に提供できる。更に、アプリケーションは、ユーザーのインタラクションとアプリケーションの反応とに基づいて触覚情報を提供できる。触覚情報がユーザーインターフェイス11等のユーザーインターフェイスから受信される場合、触覚情報は、ユーザーインターフェイスから直接受信可能である。このような情報には、ユーザーの手の配向、及び知覚されたユーザーによって行われた動作に関する情報が含まれ得る。一部の実施形態において、触覚情報はワイヤレスに受信可能である。触覚情報がワイヤレスに受信される実施形態において、ワイヤレス受信に用いられるこのようなワイヤレス技術には、無線周波数、磁場、及び可視及び不可視の電磁周波数に基づくもの、をはじめとする任意の周知の種類のワイヤレス技術が含まれてよい。
620において、触覚情報が処理されて非コロケートな触覚信号が生成されてよい。例えば、アプリケーションからの触覚情報が、仮想手が手の上部によって仮想オブジェクトに接触したことを通知すると、触覚情報が処理されて、その情報に基づいて触覚信号が生成される。アクチュエータが図3の320のようなリストストラップ上に位置され、知覚される接触とは非コロケートである一部の実施形態において、触覚信号は、手首上に位置され仮想接触と同じ配向のアクチュエータ18等の触覚フィードバック装置を起動する情報を含んでよい。例えば、図4について上述したように、ユーザーの親指が上に向くよう手首が配向され、親指が木箱の上部に接触すると、手首の上部にある触覚再生装置が起動されてよい。生起された触覚信号には起動情報が含まれてよい。
630において、触覚信号はアクチュエータ駆動回路16のような触覚再生駆動回路へと提供されることができる。駆動回路は、アクチュエータ18のような触覚再生装置を作動させるための電力源を含むことができる。駆動回路は触覚信号を、触覚フィードバック装置の技術に従って、低レベルのモータコマンド又はその他の適切な低レベルのコマンドへと翻訳することも可能である。一部の実施形態において、駆動回路はオーバードライブ及びブレーキングの指令を触覚再生装置へと提供して、内蔵向けに元々設計された触覚再生装置よりも広い範囲の触覚再生機能を実現できる。このような方法は、短パルスの触覚キューを生起して圧迫触覚効果をシミュレートするために用いることができる。触覚信号は、有線又は無線で触覚再生駆動回路へと提供できる。触覚信号がワイヤレスに提供される実施形態において、ワイヤレス送信のために用いられるこのようなワイヤレス技術には、無線周波数、磁場、及び可視及び不可視の電磁周波数に基づくもの、をはじめとする任意の周知の種類のワイヤレス技術が含まれてよい。
640において、触覚フィードバックは、触覚信号に基づいてアクチュエータ18のような触覚再生装置で生起される。ここで触覚信号は、620で生起された触覚信号に基づいた低レベルのコマンド又は再生装置特有のコマンドを含んでよいことが理解されるだろう。一部の実施形態において、触覚再生装置は、上述したような任意の周知のワイヤレス技術を用いてワイヤレスで触覚信号(又は低レベルのコマンド)を受信可能である。一部の実施形態において、触覚フィードバックは利用可能な一部の触覚再生装置では生起可能であるがその他の装置では生起可能でない。例えば、起動するよう選択される触覚フィードバック装置は、触覚再生信号(又は低レベルのコマンド)内の情報に基づいてよく、また、再生装置の位置又は触覚効果の所望の強度や規模に基づいて選択されてよい。
一部の実施形態は、拡張現実メガネを装着したユーザーを含む。ユーザーはジェスチャーで拡張現実のプロパティを制御することができる。例えば、ユーザーは、手を回すことでジェスチャーで室内の光量を制御できる。フィードバック装置15は、間隔の空いた戻り止め、又は光量の変化に比例して強度が変化する効果のような触覚効果を伝達できる。当業者は、それぞれジェスチャー及び拡張現実の制御される側面に対して適切な触覚効果を提供する、その他のジェスチャーを用いて拡張現実のその他の側面を制御できることを理解するだろう。
開示されるとおり、実施形態は、ウェアラブルな触覚再生装置を用いて、ユーザーインターフェイスとのインタラクションに基づいた触覚キューを提供する触覚フィードバックシステムを実装する。触覚再生装置は、触覚効果がインタラクションの対象と同時に発生するよう知覚されつつも、インタラクションの対象とは異なる体の部位で発生する、インタラクションの対象に対して非コロケートであってよい。ユーザーインターフェイスとのインタラクションを通じて操作されるオブジェクトの物理的な属性を象徴する表現を提供するために、複数の再生装置が用いられてよい。アクチュエータのスケジューリングを通じて異なる強度の触覚効果を提供するために、複数の再生装置が用いられてよい。
いくつかの実施形態が、本稿において具体的に図示及び/又は記載されている。しかしながら、開示された実施形態の変形及び変異が、本発明の精神及び意図される範囲から逸脱することなく、上述の記載によって網羅され、添付される請求の範囲に包含されることが理解される。

Claims (27)

  1. 非コロケートな触覚フィードバックを伝達する装置であって、
    1以上の触覚再生装置と、
    前記触覚再生装置を制御するための駆動回路と、
    前記駆動回路に電気的に結合されるプロセッサであって、
    ユーザーインターフェイスからのデータに基づいた操作触覚情報を受信し、
    前記操作触覚情報に基づいて触覚信号を生成し、
    前記触覚信号を前記駆動回路に提供して非コロケートな触覚フィードバックを生起する、
    プロセッサと、
    を備える装置。
  2. 請求項1に記載の装置であって、
    ユーザーの手首に触覚フィードバックを生起するように構成された2以上の触覚再生装置を含むウェアラブルデバイスを備える、装置。
  3. 請求項1に記載の装置であって、
    前記操作触覚情報は、仮想現実インターフェイス内の仮想オブジェクトへの、ユーザーの手又は指によるユーザーの操作に対応し、前記触覚フィードバックは、ユーザーの手首に生起される、装置。
  4. 請求項3に記載の装置であって、前記触覚フィードバックは、前記操作を象徴する、装置。
  5. 請求項1に記載の装置であって、
    ユーザーの付属器官のいずれかに巻き付けられるよう意図されるウェアラブルデバイスに取り付けられる4以上の触覚再生装置を含むウェアラブルデバイスを含み、
    前記操作触覚情報は、ユーザーの手又は指を含む操作付属器官によってユーザーが行う、仮想現実インターフェイス内の仮想オブジェクトへの操作に対応する、
    装置。
  6. 請求項5に記載の装置であって、前記触覚フィードバックは、前記操作を象徴する、装置。
  7. 請求項6に記載の装置であって、前記操作触覚情報に従って、前記仮想オブジェクトの操作が、前記触覚再生装置のうちの1つにおいて触覚フィードバックを発生させつつ、その他の触覚再生装置では発生させないように、前記4以上の触覚再生装置のそれぞれにおいて独立して前記触覚フィードバックが生起される、装置。
  8. 請求項1に記載の装置であって、前記触覚再生装置はアクチュエータであり、アクチュエータのオーバードライブとブレーキングを用いて短パルス触覚キューを生起し、圧迫触覚効果をシミュレートする、装置。
  9. 請求項2に記載の装置であって、前記2以上の触覚再生装置は同じ近傍に位置しており、前記触覚フィードバックは、前記触覚フィードバックの目的とする強度に基づいて、前記触覚再生装置のうち1つ又は両方で生起される、装置。
  10. 非コロケートな触覚フィードバックを伝達する方法であって、
    ユーザーインターフェイスからのデータに基づいて操作触覚情報を受信する工程と、
    前記操作触覚情報に基づいて触覚信号を生成する工程と、
    前記触覚信号を、1以上の触覚再生装置を制御するための駆動回路に提供して、非コロケートな触覚フィードバックを生起する工程と、
    を含む、方法。
  11. 請求項10に記載の方法であって、前記1以上の触覚再生装置は、ユーザーの手首に触覚フィードバックを生起するように構成された2以上の触覚再生装置を含むウェアラブルデバイスを備える、方法。
  12. 請求項10に記載の方法であって、前記操作触覚情報は、仮想現実インターフェイス内の仮想オブジェクトへの、ユーザーの手又は指によるユーザーの操作に対応し、前記触覚フィードバックがユーザーの手首に生起される、方法。
  13. 請求項12に記載の方法であって、前記触覚フィードバックは、前記操作を象徴する、方法。
  14. 請求項10に記載の方法であって、前記1以上の触覚再生装置は、ユーザーの付属器官に巻き付けられるウェアラブルデバイスに取り付けられる4以上の触覚再生装置を含むウェアラブルデバイスを含み、
    前記操作触覚情報は、ユーザーの手又は指を含む操作付属器官によってユーザーが行う、仮想現実インターフェイス内の仮想オブジェクトへの操作に対応する、
    方法。
  15. 請求項14に記載の方法であって、前記触覚フィードバックは、前記操作を象徴する、方法。
  16. 請求項15に記載の方法であって、前記操作触覚情報に従って、前記仮想オブジェクトの操作が、前記触覚再生装置のうちの1つにおいて触覚フィードバックを発生させつつ、その他の触覚再生装置では発生させないように、前記4以上の触覚再生装置のそれぞれにおいて独立して前記触覚フィードバックが生起される、方法。
  17. 請求項10に記載の方法であって、前記1以上の触覚再生装置はアクチュエータを含み、前記方法は、アクチュエータをオーバードライブ及びブレーキングして短パルス触覚キューを生起し、圧迫触覚効果をシミュレートする工程を更に含む、方法。
  18. 請求項11に記載の方法であって、前記2以上の触覚再生装置は、同じ近傍に位置しており、前記触覚フィードバックは、前記触覚フィードバックの目的とする強度に基づいて、前記触覚再生装置のうち1つ又は両方で生起される、方法。
  19. 命令が格納された、触覚フィードバックを生起するためのコンピュータ読み取り可能媒体であって、
    前記生起は、
    ユーザーインターフェイスからのデータに基づいて操作触覚情報を受信する工程と、
    前記操作触覚情報に基づいて触覚信号を生成する工程と、
    前記触覚信号を、1以上の触覚再生装置を制御するための駆動回路に提供して、非コロケートな触覚フィードバックを生起する工程と、を含む、
    コンピュータ読み取り可能媒体。
  20. 請求項19に記載のコンピュータ読み取り可能媒体であって、前記1以上の触覚再生装置は、ユーザーの手首に触覚フィードバックを提供するように構成された2以上の触覚再生装置を含むウェアラブルデバイスを含む、
    コンピュータ読み取り可能媒体。
  21. 請求項19に記載のコンピュータ読み取り可能媒体であって、前記操作触覚情報は、仮想現実インターフェイス内の仮想オブジェクトへの、ユーザーの手又は指によるユーザーの操作に対応し、前記触覚フィードバックがユーザーの手首に生起される、
    コンピュータ読み取り可能媒体。
  22. 請求項21に記載のコンピュータ読み取り可能媒体であって、前記触覚フィードバックは、前記操作を象徴する、コンピュータ読み取り可能媒体。
  23. 請求項19に記載のコンピュータ読み取り可能媒体であって、前記1以上の触覚再生装置は、ユーザーの付属器官に巻き付けられるウェアラブルデバイスに取り付けられる4以上の触覚再生装置を含むウェアラブルデバイスを含み、
    前記操作触覚情報は、ユーザーの手又は指を含む操作付属器官によって、仮想現実インターフェイス内の仮想オブジェクトへの操作に対応する、
    コンピュータ読み取り可能媒体。
  24. 請求項23に記載のコンピュータ読み取り可能媒体であって、前記触覚フィードバックは、前記操作を象徴する、コンピュータ読み取り可能媒体。
  25. 請求項24に記載のコンピュータ読み取り可能媒体であって、前記操作触覚情報に従って、前記仮想オブジェクトの操作が、前記触覚再生装置のうちの1つにおいて触覚フィードバックを発生させつつ、その他の触覚再生装置では発生させないように、前記4以上の触覚再生装置のそれぞれにおいて独立して前記触覚フィードバックが生起される、コンピュータ読み取り可能媒体。
  26. 請求項19に記載のコンピュータ読み取り可能媒体であって、
    前記1以上の触覚再生装置はアクチュエータを含み、前記生起は、アクチュエータをオーバードライブ及びブレーキングして短パルス触覚キューを生起し、圧迫触覚効果をシミュレートする工程を更に含む、
    コンピュータ読み取り可能媒体。
  27. 請求項20に記載のコンピュータ読み取り可能媒体であって、前記2以上の触覚再生装置は、同じ近傍に位置しており、前記触覚フィードバックは、前記触覚フィードバックの目的とする強度に基づいて、前記触覚再生装置のうち1つ又は両方で生起される、
    コンピュータ読み取り可能媒体。
JP2015094900A 2014-05-19 2015-05-07 没入型環境における非コロケートな触覚キュー Expired - Fee Related JP6612522B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/280,726 2014-05-19
US14/280,726 US10379614B2 (en) 2014-05-19 2014-05-19 Non-collocated haptic cues in immersive environments

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019197051A Division JP2020030845A (ja) 2014-05-19 2019-10-30 没入型環境における非コロケートな触覚キュー

Publications (2)

Publication Number Publication Date
JP2015219910A true JP2015219910A (ja) 2015-12-07
JP6612522B2 JP6612522B2 (ja) 2019-11-27

Family

ID=53040473

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015094900A Expired - Fee Related JP6612522B2 (ja) 2014-05-19 2015-05-07 没入型環境における非コロケートな触覚キュー
JP2019197051A Pending JP2020030845A (ja) 2014-05-19 2019-10-30 没入型環境における非コロケートな触覚キュー

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019197051A Pending JP2020030845A (ja) 2014-05-19 2019-10-30 没入型環境における非コロケートな触覚キュー

Country Status (5)

Country Link
US (2) US10379614B2 (ja)
EP (1) EP2947548A1 (ja)
JP (2) JP6612522B2 (ja)
KR (1) KR20150133133A (ja)
CN (2) CN111338479A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192243A (ja) * 2018-04-20 2019-10-31 イマージョン コーポレーションImmersion Corporation 没入型現実環境において触覚効果を生成する触覚対応ウェアラブルデバイス

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679546B2 (en) * 2014-05-16 2017-06-13 Not Impossible LLC Sound vest
US9786201B2 (en) * 2014-05-16 2017-10-10 Not Impossible LLC Wearable sound
US20170098350A1 (en) 2015-05-15 2017-04-06 Mick Ebeling Vibrotactile control software systems and methods
US9645646B2 (en) * 2014-09-04 2017-05-09 Intel Corporation Three dimensional contextual feedback wristband device
US11366521B2 (en) * 2014-11-17 2022-06-21 Thika Holdings Llc Device for intuitive dexterous touch and feel interaction in virtual worlds
US10135892B2 (en) * 2015-07-28 2018-11-20 Google Llc Independent control of interactive streaming media
US10331214B2 (en) * 2015-09-08 2019-06-25 Sony Corporation Information processing device, method, and computer program
DE102015016152A1 (de) * 2015-12-12 2017-06-14 Daimler Ag Haptische Rückmeldung bei einer Nutzerschnittstelle
EP3264222B1 (en) * 2016-06-27 2019-04-10 Nokia Technologies Oy An apparatus and associated methods
US10210724B2 (en) * 2016-06-29 2019-02-19 Immersion Corporation Real-time patterned haptic effect generation using vibrations
US10241577B2 (en) 2017-08-01 2019-03-26 Immersion Corporation Single actuator haptic effects
US10572016B2 (en) * 2018-03-06 2020-02-25 Microsoft Technology Licensing, Llc Spatialized haptic device force feedback
CN108721892B (zh) * 2018-05-22 2021-11-05 重庆子元科技有限公司 用于沉浸式虚拟现实设备的可穿戴式全身力反馈方法
CN109085926A (zh) * 2018-08-21 2018-12-25 华东师范大学 一种多模态成像与多感知交融的增强现实系统及其应用
US10678334B1 (en) * 2018-11-30 2020-06-09 Facebook Technologies, Llc Systems and methods for providing substantially orthogonal movement of a device about a user's body part
PL3711829T3 (pl) * 2019-11-04 2022-05-02 Boreal Technology & Investment S.L Nadające się do noszenia urządzenie gamingowe oraz sposób do niego
JPWO2021241179A1 (ja) * 2020-05-26 2021-12-02
US20220164079A1 (en) * 2020-11-23 2022-05-26 Toyota Motor Engineering & Manufacturing North America, Inc. Haptic array device and control of focus point height and focus point direction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0720978A (ja) * 1993-07-05 1995-01-24 Sony Corp 仮想体感装置
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP2013507059A (ja) * 2009-09-30 2013-02-28 アップル インコーポレイテッド 自己適応触覚装置
JP2013509647A (ja) * 2009-10-30 2013-03-14 イマージョン コーポレーション データ特徴の触覚表示方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5047952A (en) 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
US5631861A (en) 1990-02-02 1997-05-20 Virtual Technologies, Inc. Force feedback and texture simulating interface device
WO1994001042A1 (en) 1992-07-06 1994-01-20 Kramer James F Determination of kinematically constrained multi-articulated structures
US5482056A (en) 1994-04-04 1996-01-09 Kramer; James F. Determination of thumb position using measurements of abduction and rotation
US5583478A (en) * 1995-03-01 1996-12-10 Renzi; Ronald Virtual environment tactile system
EP0864145A4 (en) * 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
US6104379A (en) 1996-12-11 2000-08-15 Virtual Technologies, Inc. Forearm-supported exoskeleton hand-tracking device
US6110130A (en) 1997-04-21 2000-08-29 Virtual Technologies, Inc. Exoskeleton device for directly measuring fingertip position and inferring finger joint angle
US6042555A (en) 1997-05-12 2000-03-28 Virtual Technologies, Inc. Force-feedback interface device for the hand
CN1199701C (zh) * 1997-11-07 2005-05-04 世嘉股份有限公司 游戏装置
US6924787B2 (en) 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
US20040243465A1 (en) * 2001-09-03 2004-12-02 Manners Edward Preston Method of administering a reward scheme
EP1533678A1 (en) * 2003-11-24 2005-05-25 Sony International (Europe) GmbH Physical feedback channel for entertaining or gaming environments
US7331871B2 (en) * 2004-05-05 2008-02-19 Miguel Lopez Tactile signal-producing vest worn while playing a video game
US7696860B2 (en) 2005-10-14 2010-04-13 University Of Central Florida Research Foundation, Inc Electromagnetic field tactile display interface and biosensor
JP4926799B2 (ja) * 2006-10-23 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法
JP4921113B2 (ja) * 2006-10-25 2012-04-25 キヤノン株式会社 接触提示装置及び方法
TWI434718B (zh) * 2006-12-07 2014-04-21 Cel Kom Llc 觸覺式可穿戴型遊戲裝置
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
US20090312049A1 (en) * 2008-06-12 2009-12-17 Nokia Corporation Context determination of an electronic device
US20100295667A1 (en) * 2009-05-22 2010-11-25 Electronics And Telecommunications Research Institute Motion based pointing apparatus providing haptic feedback and control method thereof
CN104679247B (zh) 2009-07-22 2018-07-24 意美森公司 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法
US8552859B2 (en) 2009-09-30 2013-10-08 Apple Inc. Self adapting alert device
NZ603201A (en) 2010-03-25 2014-11-28 Reza Taghavi Tactile communication device for the neck
US9256281B2 (en) * 2011-01-28 2016-02-09 Empire Technology Development Llc Remote movement guidance
EP2624100B1 (en) * 2012-02-01 2017-06-14 Immersion Corporation Eccentric rotating mass actuator optimization for haptic effects
US8711118B2 (en) * 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US9081542B2 (en) * 2012-08-28 2015-07-14 Google Technology Holdings LLC Systems and methods for a wearable touch-sensitive device
US20150277563A1 (en) * 2014-03-28 2015-10-01 Wen-Ling M. Huang Dynamic tactile user interface
US20150293590A1 (en) * 2014-04-11 2015-10-15 Nokia Corporation Method, Apparatus, And Computer Program Product For Haptically Providing Information Via A Wearable Device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0720978A (ja) * 1993-07-05 1995-01-24 Sony Corp 仮想体感装置
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP2013507059A (ja) * 2009-09-30 2013-02-28 アップル インコーポレイテッド 自己適応触覚装置
JP2013509647A (ja) * 2009-10-30 2013-03-14 イマージョン コーポレーション データ特徴の触覚表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192243A (ja) * 2018-04-20 2019-10-31 イマージョン コーポレーションImmersion Corporation 没入型現実環境において触覚効果を生成する触覚対応ウェアラブルデバイス

Also Published As

Publication number Publication date
JP6612522B2 (ja) 2019-11-27
KR20150133133A (ko) 2015-11-27
CN105094417A (zh) 2015-11-25
US10564730B2 (en) 2020-02-18
JP2020030845A (ja) 2020-02-27
CN105094417B (zh) 2020-03-10
US20190369733A1 (en) 2019-12-05
US10379614B2 (en) 2019-08-13
CN111338479A (zh) 2020-06-26
EP2947548A1 (en) 2015-11-25
US20150331488A1 (en) 2015-11-19

Similar Documents

Publication Publication Date Title
JP6612522B2 (ja) 没入型環境における非コロケートな触覚キュー
US10974138B2 (en) Haptic surround functionality
US9715278B2 (en) User interface device provided with surface haptic sensations
US9878239B2 (en) Systems and methods for performing haptic conversion
US9134797B2 (en) Systems and methods for providing haptic feedback to touch-sensitive input devices
JP2016081524A (ja) リジッド部品を有し、触覚を利用可能で変形可能な装置
KR20200000803A (ko) 가상 현실 사용자를 위한 실세계 햅틱 상호작용
EP3333674A1 (en) Systems and methods for compliance simulation with haptics
US10474238B2 (en) Systems and methods for virtual affective touch
JP2020013549A (ja) 動的システム識別に基づく適応触覚効果レンダリング
CN113508355A (zh) 虚拟现实控制器
EP3367216A1 (en) Systems and methods for virtual affective touch

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191031

R150 Certificate of patent or registration of utility model

Ref document number: 6612522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees