JP2019220170A - 触覚オーバーレイを拡張現実に統合するシステムと方法 - Google Patents

触覚オーバーレイを拡張現実に統合するシステムと方法 Download PDF

Info

Publication number
JP2019220170A
JP2019220170A JP2019107855A JP2019107855A JP2019220170A JP 2019220170 A JP2019220170 A JP 2019220170A JP 2019107855 A JP2019107855 A JP 2019107855A JP 2019107855 A JP2019107855 A JP 2019107855A JP 2019220170 A JP2019220170 A JP 2019220170A
Authority
JP
Japan
Prior art keywords
haptic
sensor
proxy object
display
haptic effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019107855A
Other languages
English (en)
Other versions
JP6732078B2 (ja
JP2019220170A5 (ja
Inventor
サトシ アラキ、
Satoshi Araki
サトシ アラキ、
クリストファー ジェイ. ウルリッヒ、
j ullrich Christopher
クリストファー ジェイ. ウルリッヒ、
リーウェン ウー、
li-wen Wu
リーウェン ウー、
ファン マヌエル クルス−エルナンデス、
Juan Manuel Cruz-Hernandez
ファン マヌエル クルス−エルナンデス、
ダニー エイ. グラント、
A Grant Danny
ダニー エイ. グラント、
サニャ アッタリ、
Attari Sanya
サニャ アッタリ、
コリン スウィンデルズ、
Swindells Colin
コリン スウィンデルズ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=66867068&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2019220170(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2019220170A publication Critical patent/JP2019220170A/ja
Publication of JP2019220170A5 publication Critical patent/JP2019220170A5/ja
Application granted granted Critical
Publication of JP6732078B2 publication Critical patent/JP6732078B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】触覚オーバーレイを拡張現実に統合するシステム及び方法を提供する。【解決手段】システムにおいて、触覚出力デバイスと、視覚効果を出力するディスプレイと、プロキシオブジェクトの位置を追跡するセンサと、を含む。システムはまた、センサから受信したデータに部分的に基づいて、修正視覚効果を決定し、センサから受信したデータに部分的に基づいて触覚効果を決定し、修正視覚効果に関連付けられるディスプレイ信号をディスプレイに送信し、触覚効果に関連付けられる触覚信号を触覚出力デバイスに送信し、触覚出力デバイスを使用して触覚効果を出力するプロセッサを含む。【選択図】図5

Description

本願は、インタフェイスデバイスの分野に関する。詳しくは、本願は、触覚オーバーレイを拡張現実に統合することに関する。
仮想現実及び拡張現実(「VR」及び「AR」)アプリケーションが益々一般的になっている。VRアプリケーションは典型的に、仮想オブジェクトのタッチ感覚をユーザが感じられるようにするべく専用コントローラを組み入れる。例えば、VRユーザは、VRアプリケーションにおいて自分の手で銃の射撃を経験することができるのと同時に専用コントローラを介してその射撃を模擬する触覚効果を感じることができる。AR空間では、触覚効果をユーザに与えることが難しい。したがって、触覚オーバーレイを拡張現実に統合するシステム及び方法が必要とされている。
本開示の実施形態は、触覚オーバーレイを拡張現実に統合するシステム及び方法を含む。一実施形態において、システムは触覚出力デバイスを含む。システムはまた、視覚効果を出力するべく構成されたディスプレイを含む。システムはまた、プロキシオブジェクトの位置を追跡するセンサを含む。システムはまた、センサから受信したデータに部分的に基づいて、修正視覚効果を決定することと、当該センサから受信したデータに部分的に基づいて触覚効果を決定することと、当該修正視覚効果に関連付けられるディスプレイ信号をディスプレイに送信することと、当該触覚効果に関連付けられる触覚信号を触覚出力デバイスに送信することと、当該触覚出力デバイスを使用して当該触覚効果を出力することとを行うべく構成されたプロセッサを含む。
他実施形態において、触覚オーバーレイを拡張現実に統合する方法は、センサから受信したデータに部分的に基づいて修正視覚効果を決定することと、当該センサから受信したデータに部分的に基づいて触覚効果を決定することと、当該修正視覚効果に関連付けられるディスプレイ信号をディスプレイに送信することと、当該触覚効果に関連付けられる触覚信号を触覚出力デバイスに送信することと、当該触覚出力デバイスを使用して当該触覚効果を出力することとを含む。
さらなる他実施形態において、非一時的コンピュータ可読媒体が、プロセッサによって実行されると当該方法を行うべく構成されたプログラムコードを含み得る。
これらの具体的な実施形態は、本主題を限定し又はその限定を画定することなく、その理解を補助する例を与えるべく言及される。具体的な実施形態が詳細な説明に説明され、そこには、さらなる記載も与えられる。様々な実施形態により提供される利点が、本明細書を精査することにより、及び/又は請求項に記載される主題の一つ以上の実施形態を実施することにより、さらに理解される。
完全かつ実施可能な開示が、本明細書の残り部分に詳細に記載される。本明細書は、以下の添付図面を参照する。
触覚オーバーレイを拡張現実に統合する具体的なシステムを示す。 触覚オーバーレイを拡張現実に統合する他の具体的なシステムを示す。 触覚オーバーレイを拡張現実に統合する他の具体的なシステムを示す。 触覚オーバーレイを拡張現実に統合する他の具体的なシステムを示す。 触覚オーバーレイを拡張現実に統合する実施形態の一例の方法ステップのフローチャートである。
ここで、様々なかつ代替の具体的な実施形態を及び添付の図面を詳細に参照する。説明を介するが、制限としてではなく、各例が与えられる。当業者にわかることだが、修正及び変形を行うことができる。例えば、一実施形態の一部として示され又は記載される特徴が、他実施形態において、なおもさらなる実施形態を得るべく使用することができる。すなわち、添付の特許請求の範囲及びその均等物の範囲内に入る修正及び変形が本開示に含まれることが意図される。
触覚オーバーレイを拡張現実に統合する具体的な例
実施形態が、AR空間における仮想オブジェクト上の触覚フィードバックを与える。かかる実施形態により、ユーザは、現実世界のオブジェクト上のテクスチャを、当該オブジェクト上の触覚オーバーレイを使用して、見たり感じたりすることができる。代替的に、かかる実施形態は、ウェアラブル周辺デバイスをシームレスに含み得る。ウェアラブル周辺デバイスもまた、触覚フィードバックを与えることができる。他実施形態において、ウェアラブル周辺デバイスのみを、触覚フィードバックを与えるべく使用してよい。いくつかの実施形態において、AR空間はVR空間を含む。
一つの具体的な実施形態において、ユーザは、ARヘッドセットを装着し、現実空間において、例えば靴のようなプロキシオブジェクトを見ている。ユーザは、材料(例えば、皮革、プラスチック、ゴム、金属、黄麻布、スエード、デニム、木、布、セラミック、発泡材料又はガラスの一つ以上のような材料)のライブラリから、材料を選択することができる。この材料はその後、音声コマンドを大声で言う(例えば皮革材料を当てはめる)ことにより、又はVR若しくはARヘッドセット、ハンドコントローラ、ウェアラブルデバイス、又はジェスチャ認識視覚メニューを介して命令を入力することにより、ARヘッドセットを介してプロキシオブジェクト上に表示される。ARヘッドセットの具体的なARディスプレイがコマンドに基づいて修正される結果、プロキシオブジェクトの外観が、選択された材料から作られたプロキシオブジェクトを示すようにARディスプレイを介して修正される。
一つの具体的な実施形態において、プロキシオブジェクトに関連付けられる触覚効果は、例えば、ライブラリから選択された材料のテクスチャを模擬する触覚効果(例えば振動又はESF効果)を出力するアクチュエータのような触覚出力デバイスによって出力される。さらなる他の具体的な実施形態において、触覚効果が、グローブのようなウェアラブル周辺デバイスによって生成される。プロキシオブジェクトと相互作用をするユーザは触覚効果を感じ、その触覚効果は、プロキシオブジェクトの表面の異なるテクスチャ材料を模擬する(例えば、触覚効果は、皮革、プラスチック、ゴム、金属、黄麻布、スエード、デニム、木、布、セラミック、発泡材料又はガラスの一つ以上のテクスチャを模擬することができる)。
一つの具体的な実施形態において、センサからの情報が、テクスチャに関連付けられる触覚効果に関連付けられる触覚信号を処理及び出力しているプロセッサに引き渡される。ARディスプレイを介してのプロキシオブジェクトの修正画像、及び触覚出力デバイスにより出力されるテクスチャが、その後、当該プロキシオブジェクトの任意の動きを反映するべくリアルタイムで修正され得る。加えて、又は代替的に、プロセッサは、ウェアラブル周辺デバイスがARオブジェクトに「接触」するようになるときを告げるべく、センサからの情報を使用することができる。当該センサはさらに、プロキシオブジェクトに関連付けられるユーザの動きを検出し、当該ユーザの動きに基づいて視覚効果及び触覚効果を修正することができる。
この具体的な例は、ここに説明される一般的な主題を読み手に紹介するべく与えられ、本開示がこの例に限定されることはない。以下のセクションに、本開示の様々な付加的非限定例が記載される。
触覚オーバーレイを拡張現実に統合する具体的なシステム
図1は、環境触覚を仮想現実に統合する具体的なシステム100を示す。特に、この例において、システム100は、バス106を介して他のハードウェアとのインタフェイスをなすプロセッサ102を有するコンピューティングデバイス101を含む。RAM、ROM、EEPROM等のような任意の適切な有体的な(かつ非一時的な)コンピュータ可読媒体を含み得るメモリ104により、コンピューティングデバイス101の動作を構成するプログラムコンポーネントが具体化される。この例において、コンピューティングデバイス101はさらに、一つ以上のネットワークインタフェイスデバイス110、入力/出力(I/O)インタフェイスコンポーネント112、及び付加的ストレージ114を含む。
ネットワークデバイス110は、ネットワーク接続を容易にする任意のコンポーネントの一つ以上を代表し得る。例としては、イーサネット(登録商標)、USB、IEEE1394のような有線インタフェイス、及び/又はIEEE802.11、ブルートゥース(登録商標)、若しくはセルラ電話ネットワークにアクセスするための無線インタフェイス(例えばCDMA、GSM(登録商標)、UMTS、又は他の移動通信ネットワークにアクセスするためのトランシーバ/アンテナ)のような無線インタフェイスを含むがこれらに限られない。
VR及びARヘッドセット若しくはタッチスクリーンのような一つ以上のディスプレイ、キーボード、マウス、スピーカ、マイクロホン、カメラ、及び/又はデータを入出力するべく使用される他のハードウェアのようなデバイスとの接続を容易にするべく、I/Oコンポーネント112を使用することができる。ストレージ114は、デバイス101に含まれる磁気、光又は他のストレージ媒体のような不揮発性ストレージを代表する。いくつかの実施形態において、I/Oコンポーネント112は、VRコントローラ又はAR入力デバイスを含み得る。他実施形態において、I/Oコンポーネントは、車又は船のような輸送デバイスにおけるコントローラ又は入力デバイスを含み得る。さらなる他実施形態において、コントローラ又は入力デバイスはユーザの手としてよく、センサ108は、自由空間におけるその動き及びジェスチャを検出することができる。
オーディオ/ビジュアル出力デバイス122は、プロセッサ102から信号を受信してオーディオ又はビジュアル出力をユーザに与えるべく構成された一つ以上のデバイスを含む。例えば、いくつかの実施形態において、オーディオ/ビジュアル出力デバイス122は、タッチ画面ディスプレイ、LCDディスプレイ、プラスズマディスプレイ、CRTディスプレイ、プロジェクションディスプレイ、又は業界周知の他の何らかのディスプレイのようなディスプレイを含み得る。拡張現実又は仮想現実における使用を目的として、オーディオ/ビジュアル出力デバイス122は、各眼のためのディスプレイを含むヘッドセット、例えば携帯電話機若しくはタブレットのような携帯型デバイス、車両のフロントガラス、又は業界周知の他の何らかのディスプレイを含み得る。さらに、オーディオ/ビジュアル出力デバイスは、オーディオをユーザに出力するべく構成された一つ以上のスピーカを含み得る。
システム100はさらに、一つ以上のセンサ108を含む。センサ108は、触覚出力デバイス118を検出し、プロセッサ102による使用を目的として適切なデータを与えるように構成される。任意の適切な数、タイプ又は配列のセンサを使用することができる。例えば、異なる実施形態が、カメラ、レーザ、レーダー、加速度計、ジャイロメータ、圧力センサ、磁気センサ、光センサ、マイクロホン、容量センサ、タッチセンサ、トラッキングセンサ、又はかかるセンサの任意の組み合わせを含み得る。一実施形態において、触覚出力デバイス18を識別するべく、カメラ、レーザマッピング、又はレーダースキャニングが使用される。かかる実施形態は、その識別を行うべく、人工知能(「AI」)を利用することができる。加速度計は、振動、変位及び速度を検出するべく使用することができる。ジャイロメータは、回転を感知するべく使用することができる。圧力センサは、高度を決定するべく使用することができ、磁気センサは、方向又は配向を決定するべく使用することができる。光センサは、認識された明度を決定するべく使用することができる。そして、マイクロホンは、音を検出するべく使用することができる。これらのセンサはいずれも、任意の他のセンサと組み合わせて使用することができる。
他実施形態において、センサ108は、LED検出器を含み得る。いくつかの実施形態においてプロセッサ102は一つのセンサ108と通信し、他実施形態においてプロセッサ102は複数のセンサ108と通信する。
一つの触覚出力デバイス118がここに示されるにもかかわらず、実施形態は、触覚効果を出力するべくそれと同じ又は異なるタイプの多数の触覚出力デバイスを使用することができる。例えば、触覚出力デバイス118は、例えば、圧電アクチュエータ、電気モータ、電磁アクチュエータ、ボイスコイル、形状記憶合金、電気活性ポリマー、ソレノイド、偏心回転質量モータ(ERM)若しくは線形共振アクチュエータ(LRA)、薄型(low profile)触覚アクチュエータ、触覚テープ、又は、静電摩擦(ESF)アクチュエータのような、静電効果を出力するべく構成された触覚出力デバイスの一つ以上を含み得る。いくつかの実施形態において、触覚出力デバイス118は、複数のアクチュエータ、例えば、薄型触覚アクチュエータ、圧電アクチュエータ及びLRAを含み得る。さらに、触覚出力デバイス118は、プロキシオブジェクトに統合し、又はユーザの衣服若しくはウェアラブルデバイスに統合してよい。
いくつかの実施形態において、触覚出力デバイス118は、熱的特性又は運動感覚特性をユーザに出力するべく使用してよい。例えば、異なる材料の熱伝導度を、例えばペルチェデバイスのような加熱トランスデューサ及び冷却トランスデューサを重ねることによって伝え得る。他実施形態において、フォース(force)フィードバック特性を、例えば電気活性ポリマーの緊張材を使用して、材料の剛性を修正するトランスデューサに重ねてよい。
メモリ104を参照すると、どのようにしてデバイスを、触覚効果を決定及び出力するように構成することができるのかを例示するべく、典型的なプログラムコンポーネント124、126及び128が描かれる。この例において、検出モジュール124により、プロセッサ102は、センサ108をモニタリングして触覚出力デバイス118の特性を決定するように構成される。例えば、検出モジュール124は、触覚出力デバイス118の経時的な箇所、経路、速度、加速度、圧力、及び/又は他の特性の一つ以上を追跡するべく、センサ108をサンプリングすることができる。
触覚効果決定モジュール126は、生成すべき触覚効果を選択するべくオーディオ及びビデオの特性に関するデータを解析するプログラムコンポーネントを代表する。特に、モジュール126は、生成されて触覚出力デバイス118により出力される一つ又は複数の効果を、触覚出力デバイス118及びAR環境の特性に基づいて決定するコードを含む。触覚効果決定モジュール126はさらに、触覚出力デバイス118の特性の変化の検出に応答して出力するべき一つ以上の既存の触覚効果を選択するコードを含んでよい。これらの特徴の様々な組み合わせに基づいて、異なる触覚効果を選択してよい。
触覚効果生成モジュール128は、プロセッサ102に触覚信号を生成させて当該触覚信号を触覚出力デバイス118に送信させるプログラミングを代表する。これにより、触覚出力デバイス118は、選択された触覚効果を生成する。例えば、生成モジュール128は、触覚出力デバイス118に送信される格納された波形又はコマンドにアクセスすることができる。他例として、触覚効果生成モジュール128は、所望されたタイプの触覚効果を受信し、触覚出力デバイス118に送信される適切な信号を生成するべく信号処理アルゴリズムを利用することができる。さらなる例として、所望された触覚効果を、触覚効果を与える表面(及び/又は他のデバイスコンポーネント)の適切な変位を生成するべく、テクスチャのための標的座標、及び一つ以上のアクチュエータに送信される適切な波形とともに示すことができる。いくつかの実施形態は、特徴を模擬するのと同時に多数の触覚出力デバイスを利用することができる。例えば、特定のテクスチャをユーザに伝えるべく振動を利用してよく、それと同時に、靴の甲の材料の剛性のようなオブジェクトの剛性を示すべく、運動感覚効果が出力される。かかる構成は、単なる例示であって、かかるシステムを構築し得る唯一の方法というわけではない。
図2は、触覚オーバーレイを拡張現実に統合する他の具体的なシステムを示す。図2に示される実施形態において、ユーザ206は、ウェアラブルARデバイス204を装着してプロキシオブジェクト202との相互作用をしている。この実施形態は、ウェアラブルARデバイス204を装着しているユーザを示すが、任意のタイプのARディスプレイシステムを使用してよい。図2の具体的なシステムは、プロキシオブジェクト202の状態を感知するための、並びに触覚効果を決定、生成及び出力するための、図1に例示されるシステムを組み入れることができる。ウェアラブルARデバイス204は、ビジュアルディスプレイ及びヘッドホン又はスピーカを含んでよい。
いくつかの実施形態において、プロキシオブジェクト202は、靴、バッグ、衣料品、電子デバイス、ディスプレイ又はインタフェイスオブジェクトを含むがこれらに限られない任意のオブジェクトの形態をとり得る。他実施形態において、プロキシオブジェクト202は、中性的な色及びテクスチャのような物理特性を含み得る。例えば、プロキシオブジェクトが、滑らかな表面材料により白色に作られる。さらなる他実施形態において、プロキシオブジェクト202は、高品質の視覚的プロトタイプ、例えば、写実的なグラフィック・ステンシル印刷による高品質の視覚的靴プロトタイプを含み得るので、ウェアラブルARデバイス204を使用する視覚的重ね合わせが不要となる。
ユーザ206は、例えば、皮革、プラスチック、ゴム、金属、黄麻布、スエード、デニム、木、布、セラミック、発泡材料又はガラスのような、所与のテクスチャライブラリから任意のテクスチャを選択することができ、ウェアラブルARデバイス204を介して、拡張現実視覚効果によりプロキシオブジェクトの外観が修正される。いくつかの実施形態において、ユーザは、オーディオキャプチャデバイス、タッチ画面、キーボード、マウス、ジョイスティック又は拡張現実制御盤のような入力キャプチャデバイスを使用してテクスチャを選択する。プロセッサ102は、入力キャプチャデバイスから入力信号を受信し、触覚信号及びディスプレイ信号それぞれを介して送信する必要がある触覚効果及び視覚効果の修正を決定する。
いくつかの実施形態において、ひとたびディスプレイ信号が送信されると、ウェアラブルARデバイス204を介して視覚効果が出力される。その結果、ユーザ206は、選択されたテクスチャを有するプロキシオブジェクトを、ウェアラブルARデバイス204を介して見ることができる。例えば、ユーザ206が赤い皮革を選択する場合、ユーザ206は、同じ赤い皮革から作られたプロキシオブジェクト202を、ウェアラブルARデバイス204を介して見ることとなる。
テクスチャの選択を介してAR視覚効果が変更されると、プロキシオブジェクト202に包含された触覚出力デバイス118に触覚信号が送信される。これらの触覚出力デバイスは、選択されたテクスチャに関連付けられる触覚効果を出力する。これにより、ユーザ206は、当該ユーザがプロキシオブジェクト202にタッチするときに、プロキシオブジェクト202においてもたらされた触覚効果を介して、選択されたテクスチャを感じることができる。
いくつかの実施形態において、センサ108がプロキシオブジェクト202を追跡するので、ユーザ206によるプロキシオブジェクト202の任意の動き及び回転にもかかわらず、プロキシオブジェクト202において触覚効果により生成されたテクスチャとAR視覚効果とのそれぞれを、感じ及び見ることができる。他実施形態において、ウェアラブルARデバイス204のスピーカ又はヘッドホンは、作用テクスチャオブジェクトがタッチされていたとすればユーザ206が聞いていたであろう音を伝えるべく、オーディオフィードバックを放射することができる。さらなる他実施形態において、オーディオフィードバックは放射されない。
図3は、触覚オーバーレイを拡張現実に統合する他の具体的なシステムを示す。図3に示される実施形態において、ユーザは、ウェアラブルARデバイス306及びウェアラブル周辺デバイス304を装着してプロキシオブジェクト302との相互作用をしている。いくつかの実施形態において、プロキシオブジェクト302は、プロキシオブジェクト202と同じ特徴のいずれかを含み得る。
ウェアラブル周辺デバイス304は、ユーザの手の全体を覆うグローブ、ユーザの手及び指の一部のみ、例えばユーザの親指及び人差し指のみ、を覆うグローブ、ユーザの指先のみを覆う小片、靴、シャツ、ズボン、又は任意の他の衣料品を含み得る。ウェアラブル周辺デバイス304及びプロキシオブジェクト302は、触覚効果をユーザに出力することができる一つ以上の触覚出力デバイス118、例えばアクチュエータ、を含む。
いくつかの実施形態において、ユーザは、プロキシオブジェクト302との相互作用をしない。その代わりに、選択されたオブジェクトが、ウェアラブルARデバイス306のARディスプレイを介して視覚効果として表示される。ユーザは再びテクスチャを選択してよく、当該テクスチャは、ARディスプレイを介して表示されているオブジェクト上に表示される。例えば、ユーザは、赤い革靴を選択してよく、赤い革靴は、ウェアラブルARデバイス306のARディスプレイを介して表示され得る。
センサ108は、ウェアラブル周辺デバイス304の位置又は他の特性を追跡するべく使用することができる。これにより、システムは、ウェアラブル周辺デバイス304が、ARディスプレイを介して表示されているオブジェクトに「接触」するときを決定することができる。ひとたびこの「接触」が生じると、触覚信号がウェアラブル周辺デバイス304に送信されるので、オブジェクトと選択されたテクスチャとに対応する触覚効果が、ウェアラブル周辺デバイス304によって出力され得る。例えば、上述からの赤い革靴の例を使用して、ユーザは、赤い革靴を感じるようになり得る。ユーザが、ウェアラブルARデバイス306のARディスプレイに基づいてオブジェクトにタッチすると、触覚効果がウェアラブル周辺デバイス304に出力されるので、ユーザは実際の赤い革靴に触れているかのように感じる。
他実施形態において、ユーザは、プロキシオブジェクト302及びウェアラブル周辺デバイス304の双方を使用する。選択されたテクスチャが、ウェアラブルARデバイス306のARディスプレイを介して表示されるので、プロキシオブジェクト302が当該選択されたテクスチャを有する外観となる。いくつかの実施形態において、プロキシオブジェクト302及びウェアラブル周辺デバイス304は、触覚効果を出力するべく構成された少なくとも一つの触覚出力デバイス118を含む。一つ以上のセンサ108が、プロキシオブジェクト302及びウェアラブル周辺デバイス304の双方の特性を追跡する。プロキシオブジェクト302及びウェアラブル周辺デバイス304の使用により、高品質のタッチ感覚が達成され得る。
図4は、触覚オーバーレイを拡張現実に統合する他の具体的なシステムを示す。図4に示される実施形態において、ユーザは、ウェアラブルARデバイス406及びウェアラブル周辺デバイス404を装着してプロキシオブジェクト402のシステムとの相互作用をしている。このプロキシオブジェクト402のシステムは、少なくとも一つのプロキシオブジェクトを含む。いくつかの実施形態において、プロキシオブジェクト402のシステムを構成するプロキシオブジェクトは、プロキシオブジェクト202と同じ特徴のいずれかを含み得る。
プロキシオブジェクト402のシステムは、車の内装、飛行機のコックピット、オフィスの机等を含む任意数のエリアに似せるように配列され得る。ユーザは、プロキシオブジェクト402のシステムを介して出力される様々なテクスチャを選択することができる。例えば、ユーザは、チェリーウォールナットの木製センターコンソールを有する車のステアリングホイール用に、黒い皮革テクスチャを選択するかもしれない。
図4の実施形態において、プロキシオブジェクト402のシステムのみを介して、又はプロキシオブジェクト402のシステムとウェアラブル周辺デバイス404との組み合わせを介して、触覚効果を出力することができる。例えば、車両販売特約店が、ショールーム内の所定スタイルの車両を模擬するように設定されたプロキシオブジェクト402のシステムを有してよい。潜在的な購買者が、異なる材料を、模擬された車両の異なるエリアに出力されるように選択することにより、システムと相互作用をすることができる。プロキシオブジェクト402のシステムは、異なる材料のテクスチャを模擬する触覚効果を、潜在的な購買者がウェアラブル周辺デバイス404を装着することなしに、正確に出力することができる。他実施形態において、プロキシオブジェクト402のシステムがウェアラブル周辺デバイス404と組み合わせられる。例えば、ゲーミング環境において、プロキシオブジェクト402のシステムは、ゲーム全体で繰り返し生じる環境を模擬するべく使用することができる(例えばレーシングゲームにおいて、プロキシオブジェクト402のシステムは、車両の内装を模擬することができる)。さらに、ウェアラブル周辺デバイス404を組み入れることにより、ユーザは、プロキシオブジェクト402のシステムの外側のゲーミング環境を探索するとともに、プロキシオブジェクト402のシステムとの相互作用のときのユーザの体験を増強することができる。
触覚オーバーレイを拡張現実に統合する具体的な方法
図5は、触覚オーバーレイを拡張現実に統合する実施形態の一例の方法ステップのフローチャートである。いくつかの実施形態において、図5におけるステップは、例えば汎用コンピュータ、携帯型デバイス、仮想及び拡張現実制御システム、又はサーバにおけるプロセッサのようなプロセッサにより実行されるプログラムコードに実装することができる。いくつかの実施形態において、これらのステップは、一群のプロセッサに実装してよい。いくつかの実施形態において、図5に示される一つ以上のステップは、省略してよく、又は異なる順序で行ってよい。同様に、いくつかの実施形態において、図3に示されない付加的なステップも行うことができる。以下のステップは、図1に示されるコンピュータデバイス101及び図2に示されるシステムに関して上述されたコンポーネントを参照して記載される。
示される実施形態において、プロセス500は、プロセッサ102のようなプロセッサが、修正視覚効果を決定するステップ502から開始する。プロセッサ102は、一つ以上のセンサ108からセンサ信号を受信する。センサ信号を使用して、プロセッサ102は、プロキシオブジェクト202の特性を識別するべく環境を解析する。当該特性に基づいて、プロセッサ102は、修正視覚効果を決定することができる。例えば、プロセッサ102は、青い皮革材料が、プロキシオブジェクト202、この場合は靴に表示されるように決定することができる。センサ108からのデータに基づいて、プロセッサ102は、ユーザによる靴の任意の動きを解析し、当該靴に青い皮革材料を表示するための適切な修正視覚効果を決定することができる。
ステップ504において、プロセッサ102は次に、センサ108から受信した信号に基づいて触覚効果を決定する。ステップ502と同様に、プロセッサ102は、センサ108からセンサ信号を受信し、当該センサ信号を使用してプロキシオブジェクト202の特性を識別するべく環境を解析し、触覚効果を決定する。いくつかの実施形態において、プロセッサ102は、テクスチャのライブラリを使用して触覚効果を決定する。例えば、プロセッサ102は、靴の青い皮革材料の適切なテクスチャを、触覚効果として出力するように決定することができる。いくつかの実施形態において、プロセッサ102は、メモリ114にあるテクスチャのライブラリに格納された青い皮革の触覚効果に基づいて、靴上の青い皮革材料を模擬するべく出力される触覚効果を決定することができる。プロセッサ102はまた、靴の任意の動きをモニタリングするセンサ108からデータを受信し、当該靴の動きが、触覚効果によりもたらされる青い皮革のテクスチャと干渉しないことを保証するように出力される触覚効果を決定する。
ステップ506において、プロセッサ102は、修正視覚効果に関連付けられるディスプレイ信号を、拡張現実ディスプレイ、例えばウェアラブルARデバイス204に送信する。例えば、ウェアラブルARデバイス204を介して見ると、靴は、青い皮革材料から作られているように見える。拡張現実ディスプレイは、ウェアラブルデバイス又は携帯型デバイスの少なくとも一方を含む。いくつかの実施形態において、修正視覚効果により、プロキシオブジェクト202の外観が、拡張現実ディスプレイを介して修正される。
ステップ508において、プロセッサ102は、触覚効果に関連付けられる触覚信号を触覚出力デバイスに送信する。例えば、靴における触覚出力デバイスは、当該靴上の青い皮革のテクスチャを模擬する触覚効果を出力することができる。いくつかの実施形態において、プロキシオブジェクト202は、一つ以上の触覚出力デバイス118を含み得る。プロキシオブジェクト202は、靴、衣料品、電子デバイス、ディスプレイ、インタフェイスオブジェクト、車両の内装の一つ以上としてよい。
ステップ510において、プロセッサが、入力信号を入力キャプチャデバイスから受信する。いくつかの実施形態において、ユーザは、どのようなテクスチャを表示する必要があるかをシステムに命令するべく、例えばオーディオキャプチャデバイス、タッチ画面、キーボード、マウス、ジョイスティック、又は拡張現実制御盤のような入力キャプチャデバイスを使用することができる。例えば、ユーザは、マイクロホンに「赤いスエード材料を靴に適用して」と言うことができる。プロセッサ102は、マイクロホンから、この命令を代表する入力信号を受信する。プロセッサ102はその後、この信号に基づいて、視覚効果又は触覚効果への任意の必要な修正を決定する。よって、ウェアラブルARデバイス204のディスプレイは、青い皮革材料から赤い皮革材料への靴の変化を示し、当該青い皮革材料から赤い皮革材料への靴の変化による触覚効果が出力される。
ここに記載されるいくつかの実施形態によれば、AR空間を、現実世界の触覚効果をフィーチャする現実のプロキシオブジェクトと組み合わせることにより、さらに没入型のかつ最適化された体験が得られる。他実施形態において、プロキシオブジェクトは、ウェアラブル周辺デバイスと組み合わせられると、さらに強制的な触覚が可能となる。すべての触覚フィードバックが触覚アクチュエータによって与えられるというわけではないからである。プロキシオブジェクトのテクスチャ及び外観の変更が容易となるので、製品設計が効率的となりコスト効果も高まる。
一般的な考慮事項
上述した方法、システム及びデバイスは例である。様々な構成は、適切な場合には、様々な手順又は部品を省略し、置換し、又は追加することができる。例えば、代替構成において、方法は、上述されたものとは異なる順序で行うことができ、並びに/又は、様々なステージを追加、省略、及び/若しくは結合することができる。また、所定の構成に関して記載された特徴は、様々な他構成と組み合わせることができる。当該構成の異なる側面及び要素を、同様の態様で組み合わせることができる。また、技術は進化するので、要素の多くは例であって本開示又は特許請求の範囲を制限することはない。
構成例(実装形態を含む)の完全な理解を与えるべく、本記載において特定の詳細が与えられる。しかしながら、構成は、これら特定の詳細なしに実施することもできる。例えば、当該構成が曖昧になるのを避けるべく、不要な詳細なしに周知の回路、プロセス、アルゴリズム、構造及び技法が示されてきた。本記載は、構成例のみを与え、請求項の範囲、適用性又は構成を制限することがない。むしろ、当該構成の先の記載は、当業者に対し、記載の技法を実装する実施可能な説明を与える。本開示の要旨又は範囲から逸脱することなく、要素の機能及び配列において様々な変更がなし得る。
また、構成は、フロー図又はブロック図として描かれるプロセスとして記載することができる。それぞれが順次プロセスとして動作を記載し得るにもかかわらず、当該動作の多くは並列して又は同時に行うこともできる。加えて、当該動作の順序は再配列してよい。プロセスは、図面に含まれない付加的なステップを有してよい。さらに、方法の例は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はこれらの任意の組み合わせにより実装してよい。ソフトウェア、ファームウェア、ミドルウェア又はマイクロコードで実施されるとき、必要なタスクを実行するためのプログラムコード又はコードセグメントは、記憶媒体のような非一時的コンピュータ可読媒体に格納することができる。プロセッサが、上記タスクを行い得る。
いくつかの構成例が記載されてきたが、本開示の要旨から逸脱することなく、様々な修正、代替構造及び均等物を使用することができる。例えば、上記要素は、大きなシステムの部品としてよく、ここで、他のルールが本発明の適用よりも優先され、そうでなければ本発明の適用を修正してよい。また、上記要素が考慮される前に、間に、又は上記要素が考慮された後に、一定数のステップを行うことができる。したがって、上記記載は、特許請求の範囲を拘束しない。
ここでの「〜するべく適合され」又は「〜するべく構成され」との使用は、付加的なタスク又はステップを行うべく適合され又は構成されたデバイスを排除しないオープンかつ包括的な言語を意味する。加えて、「〜に基づいて」の使用も、一つ以上の記載条件「に基づいて」のプロセス、ステップ、計算又は他の動作が、実際のところ、記載されたものを超える付加的な条件又は値に基づき得る点で、オープンかつ包括的な意味である。ここに含まれる見出し、リスト及び番号付けは、説明の容易のみを目的とし、制限を意味しない。
本主題の側面に係る実施形態は、デジタル電子回路に、コンピュータハードウェア、ファームウェア、ソフトウェアに、又は前述の組み合わせに実装することができる。一実施形態において、コンピュータは、一つのプロセッサ又は複数のプロセッサを含んでよい。プロセッサは、当該プロセッサに結合されたランダムアクセスメモリ(RAM)のようなコンピュータ可読媒体を含み、又はこれへのアクセスを有する。プロセッサは、上述の方法を行うためのセンササンプリングルーチン、選択ルーチン、及び他のルーチンを含む一つ以上のコンピュータプログラムの実行のような、メモリに格納されたコンピュータ実行可能プログラム命令を実行する。
かかるプロセッサは、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)及び状態機械を含み得る。かかるプロセッサはさらに、例えばPLC、プログラマブル割り込みコントローラ(PIC)、プログラマブルロジック装置(PLD)、プログラマブルリードオンリーメモリ(PROM)、電子的プログラム可能リードオンリーメモリ(EPROM又はEEPROM)又は他の同様の装置のようなプログラマブル電子装置を含み得る。
かかるプロセッサは、例えば有体コンピュータ可読媒体のような媒体を含み又はこれと通信する。媒体は、プロセッサにより実行されると、プロセッサにより実行され又は補助されるここに記載のステップを、当該プロセッサに行わせることができる命令を格納する。コンピュータ可読媒体の実施形態は、ウェブサーバにおけるプロセッサのようなプロセッサにコンピュータ可読命令を与えることができるすべての電子、光、磁気又は他の記憶装置を含むがこれらに限られない。他の例の媒体は、フロッピーディスク(登録商標)、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成プロセッサ、すべての光媒体、すべての磁気テープ若しくは他の磁気媒体、又はコンピュータプロセッサが読み取り可能な任意の他の媒体を含むがこれらに限られない。また、ルータ、プライベート若しくはパブリックネットワーク、又は他の伝送デバイスのような様々な他のデバイスは、コンピュータ可読媒体を含み得る。記載されたプロセッサ及び処理は一以上の構造にあり、及び一つ以上の構造に分散させることもできる。プロセッサは、ここに記載された方法(又は方法の部分)の一以上を実行するコードを含み得る。
本主題を特定の実施形態について詳細に述べたが、前述したことを理解すれば、当業者が、かかる実施形態の改変、変形及び均等物を容易にもたらし得ることは明かである。したがって、理解すべきことだが、本開示は、限定ではなく例示を目的として提示されており、当業者にとって容易に明らかとなる本主題のそのような修正、変形及び/又は付加を含むことを排除しない。

Claims (21)

  1. システムであって、
    触覚出力デバイスと、
    視覚効果を出力するべく構成されたディスプレイと、
    プロキシオブジェクトの位置を追跡するセンサと、
    プロセッサと
    を含み、
    前記プロセッサは、
    前記センサから受信したデータに部分的に基づいて修正視覚効果を決定することと、
    前記センサから受信したデータに部分的に基づいて触覚効果を決定することと、
    前記修正視覚効果に関連付けられるディスプレイ信号を前記ディスプレイに送信することと、
    前記触覚効果に関連付けられる触覚信号を前記触覚出力デバイスに送信することと、
    前記触覚出力デバイスを使用して前記触覚効果を出力することと
    を行うべく構成される、システム。
  2. 前記触覚出力デバイスは前記プロキシオブジェクトに結合される、請求項1のシステム
  3. 前記プロキシオブジェクトは、靴、衣料品、電子デバイス、ディスプレイ、インタフェイスオブジェクト、又は車両の内装の一つ以上を含む、請求項2のシステム。
  4. 前記プロキシオブジェクトは中性的な物理特性を含む、請求項2のシステム。
  5. 前記拡張現実視覚効果は、前記ディスプレイを介して前記プロキシオブジェクトの外観を修正するべく構成される、請求項2のシステム。
  6. 前記ディスプレイは、ウェアラブルデバイス又は携帯型デバイスの少なくとも一方を含む、請求項1のシステム。
  7. 前記センサは、カメラ、レーザ、レーダー、加速度計、ジャイロメータ、圧力センサ、磁気センサ、光センサ、追跡センサ又はマイクロホンの少なくとも一つを含む、請求項1のシステム。
  8. 前記プロセッサはさらに、入力信号を入力キャプチャデバイスから受信し、前記入力キャプチャデバイスから受信したデータに部分的に基づいて前記触覚効果を決定するべく構成される、請求項1のシステム。
  9. 前記触覚効果は、前記プロキシオブジェクトのテクスチャを修正するべく構成される、請求項1のシステム。
  10. 前記触覚効果は、皮革、プラスチック、ゴム、金属、黄麻布、スエード、デニム、木、布、セラミック、発泡材料又はガラスの一つ以上のテクスチャを模擬するべく構成される、請求項9のシステム。
  11. 方法であって、
    センサから受信したデータに部分的に基づいて修正視覚効果を決定することと、
    前記センサから受信したデータに部分的に基づいて触覚効果を決定することと、
    前記修正視覚効果に関連付けられるディスプレイ信号を前記ディスプレイに送信することと、
    前記触覚効果に関連付けられる触覚信号を触覚出力デバイスに送信することと、
    前記触覚出力デバイスを使用して前記触覚効果を出力することと
    を含む、方法。
  12. 前記触覚出力デバイスはプロキシオブジェクトに結合される、請求項11の方法。
  13. 前記プロキシオブジェクトは、靴、衣料品、電子デバイス、ディスプレイ、インタフェイスオブジェクト、又は車両の内装の一つ以上を含む、請求項12の方法。
  14. 前記プロキシオブジェクトは中性的な物理特性を含む、請求項12の方法。
  15. 前記拡張現実視覚効果は、前記ディスプレイを介して前記プロキシオブジェクトの外観を修正するべく構成される、請求項12の方法。
  16. 前記ディスプレイは、ウェアラブルデバイス又は携帯型デバイスの少なくとも一方を含む、請求項11の方法。
  17. 前記センサは、カメラ、レーザ、レーダー、加速度計、ジャイロメータ、圧力センサ、磁気センサ、光センサ、追跡センサ又はマイクロホンの少なくとも一つを含む、請求項11の方法。
  18. 入力信号を入力キャプチャデバイスから受信することと、
    前記入力キャプチャデバイスから受信したデータに部分的に基づいて前記触覚効果を決定することと
    をさらに含む、請求項11の方法。
  19. 前記触覚効果は、前記プロキシオブジェクトのテクスチャを修正するべく構成される、請求項12の方法。
  20. 前記触覚効果は、皮革、プラスチック、ゴム、金属、キャンバス、エナメル、黄麻布、スエード、デニム、木、布、セラミック、発泡材料又はガラスの一つ以上のテクスチャを模擬するべく構成される、請求項19の方法。
  21. 非一時的コンピュータ可読媒体であって、
    プロセッサにより実行されると前記プロセッサに、
    センサから受信したデータに部分的に基づいて修正視覚効果を決定することと、
    前記センサから受信したデータに部分的に基づいて触覚効果を決定することと、
    前記修正視覚効果に関連付けられるディスプレイ信号を前記ディスプレイに送信することと、
    前記触覚効果に関連付けられる触覚信号を触覚出力デバイスに送信することと、
    前記触覚出力デバイスを使用して前記触覚効果を出力することと
    を行わせるべく構成されたプログラムコードを含む、非一時的コンピュータ可読媒体。

JP2019107855A 2018-06-15 2019-06-10 触覚オーバーレイを拡張現実に統合するシステム、方法及び非一時的コンピュータ可読媒体 Active JP6732078B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/010,230 US10665067B2 (en) 2018-06-15 2018-06-15 Systems and methods for integrating haptics overlay in augmented reality
US16/010,230 2018-06-15

Publications (3)

Publication Number Publication Date
JP2019220170A true JP2019220170A (ja) 2019-12-26
JP2019220170A5 JP2019220170A5 (ja) 2020-06-25
JP6732078B2 JP6732078B2 (ja) 2020-07-29

Family

ID=66867068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019107855A Active JP6732078B2 (ja) 2018-06-15 2019-06-10 触覚オーバーレイを拡張現実に統合するシステム、方法及び非一時的コンピュータ可読媒体

Country Status (5)

Country Link
US (1) US10665067B2 (ja)
EP (1) EP3582080A1 (ja)
JP (1) JP6732078B2 (ja)
KR (1) KR102201678B1 (ja)
CN (1) CN110609615A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11500470B2 (en) * 2019-12-23 2022-11-15 Robert Bosch Gmbh System and method of vehicle aware gesture recognition in vehicles with smart helmets
WO2021134269A1 (zh) * 2019-12-30 2021-07-08 瑞声声学科技(深圳)有限公司 车载装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2755194A1 (en) * 2013-01-11 2014-07-16 SuperD Co. Ltd. 3D virtual training system and method
US20160274662A1 (en) * 2015-03-20 2016-09-22 Sony Computer Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in hmd rendered environments
WO2017024181A1 (en) * 2015-08-06 2017-02-09 Pcms Holdings, Inc. Methods and systems for providing haptic feedback for virtual 3d objects
JP2017157187A (ja) * 2016-02-18 2017-09-07 イマージョン コーポレーションImmersion Corporation 許可設定を有するウェアラブルハプティック効果

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9948885B2 (en) 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US9370704B2 (en) 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
JP5016117B2 (ja) 2008-01-17 2012-09-05 アーティキュレイト テクノロジーズ インコーポレーティッド 口腔内触知フィードバックのための方法及び装置
US9370459B2 (en) 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
WO2011127379A2 (en) 2010-04-09 2011-10-13 University Of Florida Research Foundation Inc. Interactive mixed reality system and uses thereof
US9462262B1 (en) 2011-08-29 2016-10-04 Amazon Technologies, Inc. Augmented reality environment with environmental condition control
US10852093B2 (en) 2012-05-22 2020-12-01 Haptech, Inc. Methods and apparatuses for haptic systems
FR2999741B1 (fr) 2012-12-17 2015-02-06 Centre Nat Rech Scient Systeme haptique pour faire interagir sans contact au moins une partie du corps d'un utilisateur avec un environnement virtuel
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
WO2015002850A1 (en) 2013-07-05 2015-01-08 Rubin Jacob A Whole-body human-computer interface
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
GB2521138B (en) 2013-12-10 2019-01-02 Flexenable Ltd Source/Drain Conductors for Transistor Devices
WO2015107386A1 (en) 2014-01-15 2015-07-23 Sony Corporation Haptic notification on wearables
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
CN111998027B (zh) 2014-07-28 2022-05-27 Ck高新材料有限公司 触觉信息提供方法
US9645646B2 (en) 2014-09-04 2017-05-09 Intel Corporation Three dimensional contextual feedback wristband device
US9799177B2 (en) 2014-09-23 2017-10-24 Intel Corporation Apparatus and methods for haptic covert communication
US9535550B2 (en) * 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects
US10166466B2 (en) 2014-12-11 2019-01-01 Elwha Llc Feedback for enhanced situational awareness
US20160170508A1 (en) 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Tactile display devices
US9870718B2 (en) 2014-12-11 2018-01-16 Toyota Motor Engineering & Manufacturing North America, Inc. Imaging devices including spacing members and imaging devices including tactile feedback devices
US9922518B2 (en) 2014-12-11 2018-03-20 Elwha Llc Notification of incoming projectiles
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US9746921B2 (en) 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US9843744B2 (en) 2015-01-13 2017-12-12 Disney Enterprises, Inc. Audience interaction projection system
US10322203B2 (en) 2015-06-26 2019-06-18 Intel Corporation Air flow generation for scent output
US9778746B2 (en) 2015-09-25 2017-10-03 Oculus Vr, Llc Transversal actuator for haptic feedback
US20170103574A1 (en) 2015-10-13 2017-04-13 Google Inc. System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience
US20170131775A1 (en) 2015-11-10 2017-05-11 Castar, Inc. System and method of haptic feedback by referral of sensation
WO2017095951A1 (en) 2015-11-30 2017-06-08 Nike Innovate C.V. Apparel with ultrasonic position sensing and haptic feedback for activities
US10310804B2 (en) 2015-12-11 2019-06-04 Facebook Technologies, Llc Modifying haptic feedback provided to a user to account for changes in user perception of haptic feedback
US10324530B2 (en) 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects
US10096163B2 (en) 2015-12-22 2018-10-09 Intel Corporation Haptic augmented reality to reduce noxious stimuli
US10065124B2 (en) 2016-01-15 2018-09-04 Disney Enterprises, Inc. Interacting with a remote participant through control of the voice of a toy device
US11351472B2 (en) 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US9846971B2 (en) 2016-01-19 2017-12-19 Disney Enterprises, Inc. Systems and methods for augmenting an appearance of a hilt to simulate a bladed weapon
US10477006B2 (en) 2016-01-22 2019-11-12 Htc Corporation Method, virtual reality system, and computer-readable recording medium for real-world interaction in virtual reality environment
US9933851B2 (en) 2016-02-22 2018-04-03 Disney Enterprises, Inc. Systems and methods for interacting with virtual objects using sensory feedback
US10555153B2 (en) 2016-03-01 2020-02-04 Disney Enterprises, Inc. Systems and methods for making non-smart objects smart for internet of things
CA3031769A1 (en) * 2016-08-04 2018-02-08 Fairwayiq, Inc. System and method for managing and interacting with spectators at an activity venue
US10155159B2 (en) 2016-08-18 2018-12-18 Activision Publishing, Inc. Tactile feedback systems and methods for augmented reality and virtual reality systems
US20180053351A1 (en) 2016-08-19 2018-02-22 Intel Corporation Augmented reality experience enhancement method and apparatus
US10372213B2 (en) 2016-09-20 2019-08-06 Facebook Technologies, Llc Composite ribbon in a virtual reality device
US10779583B2 (en) 2016-09-20 2020-09-22 Facebook Technologies, Llc Actuated tendon pairs in a virtual reality device
US10300372B2 (en) 2016-09-30 2019-05-28 Disney Enterprises, Inc. Virtual blaster
US10281982B2 (en) 2016-10-17 2019-05-07 Facebook Technologies, Llc Inflatable actuators in virtual reality
US10088902B2 (en) 2016-11-01 2018-10-02 Oculus Vr, Llc Fiducial rings in virtual reality
US9996980B1 (en) * 2016-11-18 2018-06-12 Toyota Jidosha Kabushiki Kaisha Augmented reality for providing vehicle functionality through virtual features
US20170102771A1 (en) 2016-12-12 2017-04-13 Leibs Technology Limited Wearable ultrasonic haptic feedback system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2755194A1 (en) * 2013-01-11 2014-07-16 SuperD Co. Ltd. 3D virtual training system and method
US20160274662A1 (en) * 2015-03-20 2016-09-22 Sony Computer Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in hmd rendered environments
WO2017024181A1 (en) * 2015-08-06 2017-02-09 Pcms Holdings, Inc. Methods and systems for providing haptic feedback for virtual 3d objects
JP2017157187A (ja) * 2016-02-18 2017-09-07 イマージョン コーポレーションImmersion Corporation 許可設定を有するウェアラブルハプティック効果

Also Published As

Publication number Publication date
JP6732078B2 (ja) 2020-07-29
KR102201678B1 (ko) 2021-01-12
US20190385419A1 (en) 2019-12-19
US10665067B2 (en) 2020-05-26
KR20190142226A (ko) 2019-12-26
CN110609615A (zh) 2019-12-24
EP3582080A1 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
US10444829B2 (en) Systems and methods for viewport-based augmented reality haptic effects
JP2022535315A (ja) 自己触覚型仮想キーボードを有する人工現実システム
US10324293B2 (en) Vision-assisted input within a virtual world
US9329678B2 (en) Augmented reality overlay for control devices
JP2022540315A (ja) 人工現実環境において周辺デバイスを使用する仮想ユーザインターフェース
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
JP7008730B2 (ja) 画像に挿入される画像コンテンツについての影生成
EP3364272A1 (en) Automatic localized haptics generation system
JP2022534639A (ja) 指マッピング自己触覚型入力方法を有する人工現実システム
KR20190122559A (ko) 증강 또는 가상 현실 환경들에 대한 동적 햅틱 재생을 제공하기 위한 시스템들 및 방법들
US11360550B2 (en) IMU for touch detection
EP3591503A1 (en) Rendering of mediated reality content
JP2021524971A (ja) 仮想オブジェクトとしての物理入力デバイスの表示
JP6732078B2 (ja) 触覚オーバーレイを拡張現実に統合するシステム、方法及び非一時的コンピュータ可読媒体
TWI653546B (zh) 具有外置追蹤及內置追蹤之虛擬實境系統及其控制方法
CN103752010B (zh) 用于控制设备的增强现实覆盖
US11782548B1 (en) Speed adapted touch detection
US11934584B2 (en) Finger orientation touch detection
CN117666769A (zh) 虚拟场景的交互方法、装置、存储介质及设备
CN116149474A (zh) 近眼显示设备的控制方法、装置及近眼显示设备
EP2886173A1 (en) Augmented reality overlay for control devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200515

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200515

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200707

R150 Certificate of patent or registration of utility model

Ref document number: 6732078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250