JP2019192243A - 没入型現実環境において触覚効果を生成する触覚対応ウェアラブルデバイス - Google Patents

没入型現実環境において触覚効果を生成する触覚対応ウェアラブルデバイス Download PDF

Info

Publication number
JP2019192243A
JP2019192243A JP2019079737A JP2019079737A JP2019192243A JP 2019192243 A JP2019192243 A JP 2019192243A JP 2019079737 A JP2019079737 A JP 2019079737A JP 2019079737 A JP2019079737 A JP 2019079737A JP 2019192243 A JP2019192243 A JP 2019192243A
Authority
JP
Japan
Prior art keywords
haptic
immersive
environment
haptic effect
real environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019079737A
Other languages
English (en)
Inventor
エス.リン ウィリアム
S Rihn William
エス.リン ウィリアム
デヴィットエム.ビルンバウム
M Birnbaum David
エム.ビルンバウム デヴィット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2019192243A publication Critical patent/JP2019192243A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/015Force feedback applied to a joystick

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】触覚効果を状況に依存した方法で提供する改良された方法及び装置を提供すること。【解決手段】没入型現実環境の触覚効果を提供する装置、方法、及び非一時的コンピューター可読媒体が提示される。本方法は、没入型現実モジュールによって実行されている没入型現実環境の触覚効果が生成されることを示す表示を受信することを含む。本方法は、没入型現実モジュールによって生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプを特定することを更に含む。本方法は、没入型現実モジュールによって生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果を生成するように、触覚対応ウェアラブルデバイスの触覚出力デバイスを制御することを更に含む。【選択図】図1A

Description

本発明は、状況型触覚対応ウェアラブルデバイス、並びに、状況に依存した方法で触覚効果を提供する方法及び装置に関し、ゲーミング、民生用電子機器、娯楽、及び他の状況において用途を有する。
仮想現実環境、拡張現実環境、複合現実環境、及び他の没入型現実環境は、ユーザーインターフェースの提供に用いられることが増えているので、そのような環境におけるユーザーの体験を強化するために、触覚フィードバックが実施されてきた。そのような触覚フィードバックの例として、没入型現実環境とインタラクトするのに用いられるジョイスティック又は他のゲーミング周辺機器における運動感覚触覚効果がある。
以下の詳細な説明は本来例示的なものでしかなく、本発明又は本発明の用途及び使用を限定するように意図されていない。さらに、前述の技術分野、背景技術、発明の概要又は以下の詳細な説明に提示されている、明示又は暗示されるいかなる理論にも制限されることは意図されていない。
本発明における実施の形態の1つの態様は、処理ユニット、又は、処理ユニットによって実行されると没入型現実環境の触覚効果を提供する方法を処理ユニットに実行させる命令が記憶されている非一時的コンピューター可読媒体に関する。本方法は、没入型現実モジュールによって実行されている没入型現実環境の触覚効果が生成されることを示す表示を処理装置によって受信することを含む。本方法は、没入型現実モジュールによって生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプを処理回路によって特定することを更に含む。本方法において、処理回路は、没入型現実モジュールによって生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果を生成するように、触覚対応ウェアラブルデバイスの触覚出力デバイスを処理回路によって制御する。
一実施形態では、没入型現実モジュールが実行されているデバイスのタイプは、触覚生成能力を有しない。
一実施形態では、没入型現実環境のタイプは、2次元(2D)環境、3次元(3D)環境、複合現実環境、仮想現実(VR)環境、又は拡張現実(AR)環境のうちの1つである。
一実施形態では、没入型現実環境のタイプが3D環境であるとき、処理回路は、3D環境の3D座標系におけるユーザーの手の3D座標に基づいて、又は、3D環境における3Dジェスチャーに基づいて触覚効果を生成するように触覚出力デバイスを制御する。
一実施形態では、没入型現実環境のタイプが2D環境であるとき、処理回路は、2D環境の2D座標系におけるユーザーの手の2D座標に基づいて、又は、2D環境における2Dジェスチャーに基づいて触覚効果を生成するように触覚出力デバイスを制御する。
一実施形態では、没入型現実環境のタイプがAR環境であるとき、処理回路は、AR環境の仮想物体とAR環境に示された物理環境との間のシミュレーションされたインタラクションに基づいて触覚効果を生成するように触覚出力デバイスを制御する。
一実施形態では、没入型現実環境のタイプは、没入型現実環境の第2のタイプであると特定され、触覚効果を生成するように触覚出力デバイスを制御するステップは、没入型現実環境の第1のタイプに関連した規定された触覚効果特性を取得することと、規定された触覚効果特性を変更して、変更された触覚効果特性を生成することとを含み、触覚効果は、変更された触覚効果特性を用いて生成される。
一実施形態では、規定された触覚効果特性は、触覚駆動信号又は触覚パラメーター値を含み、触覚パラメーター値は、駆動信号振幅、駆動信号持続時間、又は駆動信号周波数のうちの少なくとも1つを含む。
一実施形態では、規定された触覚効果特性は、振動若しくは変形の振幅、振動若しくは変形の持続時間、振動若しくは変形の周波数、静電摩擦効果若しくは超音波摩擦効果の摩擦係数、又は温度のうちの少なくとも1つを含む。
一実施形態では、没入型現実モジュールが実行されているデバイスのタイプは、ゲームコンソール、モバイルフォン、タブレットコンピューター、ラップトップ、デスクトップコンピューター、サーバー、又はスタンドアローンヘッドマウントディスプレイ(HMD)のうちの1つである。
一実施形態では、没入型現実モジュールが実行されているデバイスのタイプは、デバイスの第2のタイプであると特定され、触覚効果を生成するように触覚出力デバイスを制御するステップは、任意の没入型現実モジュールを実行するデバイスの第1のタイプに関連した規定された触覚効果特性を取得することと、規定された触覚効果特性を変更して、変更された触覚効果特性を生成することとを含み、触覚効果は、変更された触覚効果特性を用いて生成される。
一実施形態では、処理ユニットは、没入型現実環境とインタラクトしているユーザーが、没入型現実環境の電子信号入力を提供するように構成された触覚対応ハンドヘルドコントローラーを把持しているか否かを更に特定し、触覚対応ウェアラブルデバイスにおいて生成される触覚効果は、ユーザーが触覚対応ハンドヘルドコントローラーを把持しているか否かに基づいている。
一実施形態では、触覚効果は、没入型現実モジュール以外のどのようなソフトウェアがデバイスにおいて実行又はインストールされているのかに更に基づいている。
一実施形態では、触覚効果は、触覚対応ウェアラブルデバイスの触覚出力デバイスの触覚能力に更に基づいている。
一実施形態では、触覚出力デバイスは第2のタイプの触覚出力デバイスであり、触覚出力デバイスを制御することは、第1のタイプの触覚出力デバイスに関連した規定された触覚効果特性を取得することと、規定された触覚効果特性を変更して、変更された触覚効果特性を生成することとを含み、触覚効果は、変更された触覚効果特性に基づいて生成される。
本発明における実施の形態の1つの態様は、処理ユニット、又は、処理ユニットによって実行されると、没入型現実環境の触覚効果を提供する方法を処理ユニットに実行させる命令を有する非一時的コンピューター可読媒体に関する。本方法は、没入型現実環境と、没入型現実環境のユーザーによって制御されている物理物体と、の間のシミュレーションされたインタラクションを処理回路によって検出することを含む。本方法は、没入型現実環境と物理物体との間のシミュレーションされたインタラクションの触覚効果が生成されることを処理回路によって決定することを更に含む。本方法は、加えて、物理物体と没入型現実環境との間のシミュレーションされたインタラクションに基づいて触覚効果を生成するように触覚対応ウェアラブルデバイスの触覚出力デバイスを処理回路によって制御することを含む。
一実施形態では、物理物体は、没入型現実環境のユーザーによって移動されているハンドヘルド物体である。
一実施形態では、ハンドヘルド物体は、没入型現実環境の電子信号入力を提供するように構成されたハンドヘルドユーザー入力デバイスである。
一実施形態では、ハンドヘルド物体は、没入型現実環境の電子信号入力を提供する能力を有しない。
一実施形態では、シミュレーションされたインタラクションは、物理物体と没入型現実環境の仮想表面との間のシミュレーションされた接触を含み、触覚効果は、仮想表面の仮想テクスチャーに基づいている。
一実施形態では、処理ユニットは、物理物体の物理特性を更に求め、触覚効果は、物理物体の物理特性に基づいており、物理特性は、物理物体のサイズ、色、又は形状のうちの少なくとも1つを含む。
一実施形態では、処理ユニットは、物理物体に仮想特性を更に割り当て、触覚効果は、仮想特性に基づいており、仮想特性は、仮想質量、仮想形状、仮想テクスチャー、又は物理物体と没入型現実環境の仮想物体との間の仮想力の大きさのうちの少なくとも1つを含む。
一実施形態では、触覚効果は、触覚対応ウェアラブルデバイスと物理物体との間の物理的関係に基づいている。
一実施形態では、触覚効果は、触覚対応ウェアラブルデバイスと没入型現実環境の仮想物体との間の近接性に基づいている。
一実施形態では、触覚効果は、物理物体の移動特性に基づいている。
一実施形態では、物理物体は、物理物体の1つ以上の特性を記述したプロファイル情報を記憶するメモリを備え、触覚効果は、プロファイル情報に基づいている。
一実施形態では、没入型現実環境は、複数の異なる没入型現実環境を生成することができるデバイスによって生成される。処理ユニットは、物理物体の、物理特性又は仮想特性に基づいて複数の没入型現実環境の中から没入型現実環境を更に選択する。
一実施形態では、処理ユニットは、画像分類アルゴリズムを物理物体の物理外観に更に適用して、物理物体の画像分類を特定し、複数の没入型現実環境の中から没入型現実環境を選択することは、物理物体の画像分類に基づいている。
一実施形態では、物理物体は、物理物体の特性を記述したプロファイル情報を記憶するメモリを備え、複数の没入型現実環境の中から没入型現実環境を選択することは、メモリに記憶されたプロファイル情報に基づいている。
本発明における実施の形態の1つの態様は、処理ユニット、又は、処理ユニットによって実行されると、没入型現実環境の触覚効果を提供する方法を処理ユニットに実行させる命令を有する非一時的コンピューター可読媒体に関する。本方法は、没入型現実環境の触覚効果が生成されることを処理回路によって特定することを含む。本方法は、触覚効果が第1のタイプの触覚出力デバイスに関連した規定された触覚効果であると処理回路によって特定することを更に含む。本方法において、処理ユニットは、処理回路と通信する触覚対応デバイスの触覚能力を特定し、触覚能力は、触覚対応デバイスが、第2のタイプの触覚出力デバイスである触覚出力デバイスを有することを示す。本方法において、処理ユニットは、変更された触覚効果特性を有する変更された触覚効果を生成するために、触覚対応デバイスの触覚能力に基づいて規定された触覚効果の触覚効果特性を更に変更する。
一実施形態では、触覚対応デバイスの触覚能力は、どのようなタイプ(複数の場合もある)の触覚出力デバイスが触覚対応デバイスに存在するのか、どれだけの数の触覚出力デバイスが触覚対応デバイスに存在するのか、触覚出力デバイス(複数の場合もある)のそれぞれがどのようなタイプ(複数の場合もある)の触覚効果を生成することができるのか、触覚出力デバイス(複数の場合もある)のそれぞれが生成することができる最大触覚振幅、触覚出力デバイス(複数の場合もある)のそれぞれの周波数帯域幅、触覚出力デバイス(複数の場合もある)のそれぞれの最短立ち上がり時間若しくは最短制動時間、触覚対応デバイスの任意の熱触覚出力デバイスの最高温度若しくは最低温度、又は触覚対応デバイスの任意のESF触覚出力デバイス若しくはUSF触覚出力デバイスの最大摩擦係数のうちの少なくとも1つを示す。
一実施形態では、触覚効果特性を変更することは、触覚振幅、触覚効果タイプ、触覚効果周波数、温度、又は摩擦係数のうちの少なくとも1つを変更することを含む。
本発明における実施の形態の1つの態様は、処理ユニット、又は、処理ユニットによって実行されると、没入型現実環境の触覚効果を提供する方法を処理ユニットに実行させる命令を有する非一時的コンピューター可読媒体に関する。本方法は、処理回路によって生成されている没入型現実環境の触覚効果が生成されることを処理回路によって特定することを含む。本方法は、処理回路と通信する複数の触覚対応デバイスのそれぞれの触覚能力を処理回路によって特定することを更に含む。本方法において、処理ユニットは、複数の触覚対応デバイスのそれぞれの触覚能力に基づいて複数の触覚対応デバイスから或る触覚対応デバイスを選択する。方法は、触覚効果を生成するように選択された触覚対応デバイスを制御し、選択されていない触覚対応デバイスが触覚効果を生成しないようにすることを更に含む。
本発明における実施の形態の1つの態様は、処理ユニット、又は、処理ユニットによって実行されると、没入型現実環境の触覚効果を提供する方法を処理ユニットに実行させる命令を有する非一時的コンピューター可読媒体に関する。本方法は、没入型現実環境のユーザーによって装着された触覚対応リング又は触覚対応グローブの位置又は移動を処理回路によって追跡することを含む。本方法は、ユーザーと没入型現実環境との間のインタラクションを触覚対応リング又は触覚対応グローブの位置又は移動に基づいて特定することを更に含む。本方法において、処理ユニットは、ユーザーと没入型現実環境との間で特定されたインタラクションに基づいて触覚効果を生成するように、触覚対応リング又は触覚対応グローブを制御する。
一実施形態では、触覚効果は、触覚対応リング又は触覚対応グローブと没入型現実環境の仮想物体との間の近接性を含む関係に基づいている。
一実施形態では、関係は、触覚対応リング又は触覚対応グローブと没入型現実環境の仮想物体との間の近接性を示す。
一実施形態では、触覚効果は、仮想物体の仮想テクスチャー又は仮想硬度に基づいている。
一実施形態では、触覚効果は、触覚対応リング又は触覚対応グローブが没入型現実環境の仮想表面又は仮想境界を横断することに応答してトリガーされ、触覚効果は、運動感覚効果を近似するマイクロ変形効果である。
一実施形態では、触覚対応リング又は触覚対応グローブの位置又は移動を追跡することは、処理回路が、ユーザーが位置している物理環境の画像をカメラから受信し、画像検出アルゴリズムを画像に適用して触覚対応リング又は触覚対応グローブを検出することを含む。
本発明における実施の形態の1つの態様は、没入型現実生成デバイスと、触覚対応ウェアラブルデバイスとを備えるシステムに関する。没入型現実生成デバイスは、没入型現実環境を生成する没入型現実モジュールを記憶するように構成されたメモリと、没入型現実モジュールを実行するように構成された処理ユニットと、無線通信を行う通信インターフェースとを有し、没入型現実生成デバイスは、触覚出力デバイス及び触覚生成能力を有しない。触覚対応ウェアラブルデバイスは、触覚出力デバイスと、没入型現実生成デバイスの通信インターフェースと無線で通信するように構成された通信インターフェースとを有し、触覚効果が生成されることを示す表示を没入型現実生成デバイスから受信し、触覚効果を生成するように触覚出力デバイスを制御するように構成されている。
本発明の実施形態による、没入型現実環境とのユーザーインタラクションの状況に基づいて触覚効果を生成する様々なシステムを示す図である。 本発明の実施形態による、没入型現実環境とのユーザーインタラクションの状況に基づいて触覚効果を生成する様々なシステムを示す図である。 本発明の実施形態による、没入型現実環境とのユーザーインタラクションの状況に基づいて触覚効果を生成する様々なシステムを示す図である。 本発明の実施形態による、没入型現実環境とのユーザーインタラクションの状況に基づいて触覚効果を生成する様々なシステムを示す図である。 本発明の実施形態による、没入型現実環境とのユーザーインタラクションの状況に基づいて触覚効果を生成する様々なシステムを示す図である。 本発明の実施形態による、生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果を生成する態様を示す図である。 本発明の実施形態による、生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果を生成する態様を示す図である。 本発明の実施形態による、生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果を生成する態様を示す図である。 本発明の実施形態による、生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果を生成する態様を示す図である。 本発明の実施形態による、生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果を生成する一例示の方法を示す図である。 本発明の実施形態による、物理物体と没入型現実環境との間のインタラクションに基づいて触覚効果を生成する態様を示す図である。 本発明の実施形態による、物理物体と没入型現実環境との間のインタラクションに基づいて触覚効果を生成する態様を示す図である。 本発明の実施形態による、物理物体と没入型現実環境との間のインタラクションに基づいて触覚効果を生成する態様を示す図である。 本発明の実施形態による、物理物体と没入型現実環境との間のインタラクションに基づいて触覚効果を生成する態様を示す図である。 本発明の実施形態による、物理物体と没入型現実環境との間のインタラクションに基づいて触覚効果を生成する態様を示す図である。 本発明の一実施形態による、物理物体と没入型現実環境との間のインタラクションに基づいて触覚効果を生成する一例示の方法を示す図である。 本発明の一実施形態による、触覚対応デバイスの触覚能力に基づいて触覚効果を生成する態様を示す図である。 本発明の一実施形態による、触覚対応デバイスの触覚能力に基づいて触覚効果を生成する態様を示す図である。 本発明の一実施形態による、触覚対応ウェアラブルデバイスの位置又は移動を追跡することによって没入型現実環境とのユーザーインタラクションを特定する一例示の方法を示す図である。
本発明の上述の特徴、目的及び利点並びに他の特徴、目的及び利点は、添付の図面に示されるような本発明の実施形態の以下の詳細な説明から明らかであろう。本明細書に組み込まれるとともに本明細書の一部をなす添付の図面は更に、本発明の原理を説明するとともに、当業者が本発明を実施及び使用することを可能にする役割を果たす。図面は一定縮尺ではない。
以下の詳細な説明は本来例示的なものでしかなく、本発明又は本発明の用途及び使用を限定するように意図されていない。さらに、前述の技術分野、背景技術、発明の概要又は以下の詳細な説明に提示されている、明示又は暗示されるいかなる理論にも制限されることは意図されていない。
本発明における実施形態の1つの態様は、仮想現実環境、拡張現実環境、又は複合現実環境等の没入型現実環境の触覚効果を状況に依存した方法で提供することに関する。幾つかの場合には、触覚効果は、ユーザーと没入型現実環境とのインタラクションの状況に基づく。本発明における実施形態の1つの態様は、ユーザーの手に装着された触覚対応リング等の触覚対応ウェアラブルデバイスを用いて触覚効果を提供することに関する。幾つかの場合には、触覚対応ウェアラブルデバイスは、触覚生成能力を有しない没入型現実プラットフォーム(没入型現実生成デバイスとも呼ばれる)とともに用いられる。例えば、没入型現実プラットフォームには、触覚アクチュエーターが内蔵されていない。そのような場合には、モバイルフォン等の没入型現実プラットフォームは、より薄いプロファイル及び/又はより少ない重量を有することが可能になる。モバイルフォンが、触覚アラートをユーザーに提供する必要があるとき、このモバイルフォンは、触覚効果を生成する必要があることと、触覚対応ウェアラブルデバイスが触覚効果を生成することができることとを当該触覚対応ウェアラブルデバイスに示すことができる。このように、触覚対応ウェアラブルデバイスは、種々の没入型現実環境又は種々の没入型現実プラットフォームに対して共通の触覚インターフェースを提供することができる。触覚対応ウェアラブルデバイスによって生成される触覚アラートは、没入型現実環境とのユーザーインタラクションに関するものである場合もあるし、着信電話呼又はテキストメッセージがモバイルフォンによって受信されたことに関する触覚アラート等の他の状況に関するものである場合もある。本発明における実施形態の1つの態様は、ジェスチャー又はユーザーによる没入型現実環境との他の形態のインタラクションを追跡するために、触覚対応リング等の触覚対応ウェアラブルデバイスを用いて、ユーザーの手の位置又は移動を追跡することに関する。
上記のように、本発明における実施形態の1つの態様は、ユーザーと没入型現実環境とのインタラクションの状況に基づいて触覚効果を生成することに関する。幾つかの場合には、状況は、ユーザーがどのようなタイプの没入型現実環境とインタラクトしているのかを指すことができる。例えば、没入型現実環境のタイプは、仮想現実(VR)環境、拡張現実(AR)環境、複合現実(MR)環境、3D環境、2D環境、又はそれらの任意の組み合わせのうちの1つとすることができる。生成される触覚効果は、ユーザーがインタラクトしている没入型現実環境のタイプに基づいて異なる場合がある。例えば、2D環境の触覚効果は、2D環境の2つの座標軸に沿ったユーザーの手の2D座標又はユーザーの手の動きに基づくことができる一方、3D環境の触覚効果は、3D環境の3つの座標軸に沿ったユーザーの手の3D座標又はユーザーの手の動きに基づくことができる。
幾つかの場合には、状況依存型触覚効果機能は、没入型現実環境を提供する没入型現実モジュールから分離した触覚制御モジュールとして実施することができる。そのような実施態様によって、プログラマーが、状況固有の触覚効果を没入型現実モジュール(没入型現実アプリケーションとも呼ばれる)内にプログラミングする必要なく、没入型現実モジュールを作成することを可能にすることができる。むしろ、没入型現実モジュールは、触覚効果が状況に依存した方法で生成されることを確保するために、触覚制御モジュールを(例えば、プラグインとして)後に組み込むこともできるし、触覚制御モジュールと通信することもできる。例えば、状況固有でもなく、1つの状況のみに固有でもない一般的な触覚効果特性を有する没入型現実モジュールがプログラミングされた場合、触覚制御モジュールは、他の異なる状況に固有となるように触覚効果特性を変更する。幾つかの状況では、触覚効果を具体的にトリガーする命令を伴うことなく、又は、一般の触覚機能を伴うことなく、没入型現実モジュールをプログラミングすることができる。そのような状況では、触覚制御モジュールは、没入型現実環境内で発生するイベントを監視し、触覚効果をいつ生成するのかを決定することができる。
状況依存型触覚効果に関して、幾つかの場合には、状況は、没入型現実モジュール(没入型現実アプリケーションと呼ばれる場合もある)が実行されているデバイスのタイプを指すことができる。デバイスのタイプは、例えば、モバイルフォン、タブレットコンピューター、ラップトップコンピューター、デスクトップコンピューター、サーバー、又はスタンドアローンヘッドマウントディスプレイ(HMD)とすることができる。スタンドアローンHMDは、それ自身の表示能力及び処理能力を有することができ、没入型現実環境を生成するのにモバイルフォン等の別のデバイスを必要としないようになっている。幾つかの場合には、各タイプのデバイス用の没入型現実モジュールは、そのタイプのデバイスに固有の規定された触覚効果特性(既定触覚効果特性と呼ばれる場合もある)を有することができる。例えば、タブレットコンピューターにおいて実行されている没入型現実モジュールは、タブレットコンピューターに固有の触覚効果特性を有するようにプログラミングしておくことができる。触覚効果が触覚対応ウェアラブルデバイスにおいて生成される場合、既存の触覚効果特性は、触覚対応ウェアラブルデバイスに適するように、当該触覚対応ウェアラブルデバイスに従って触覚制御モジュールによって変更されなければならない場合がある。触覚対応ウェアラブルデバイスによる触覚制御モジュールは、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果の変更を行うことが必要な場合がある。
一実施形態では、状況は、どのようなソフトウェアが、没入型現実モジュールを実行するデバイスにおいて実行又はインストールされているのかを指すことができる(このデバイスは、没入型現実生成デバイス又は没入型現実プラットフォームと呼ばれる場合がある)。このソフトウェアは、没入型現実モジュール自体を指す場合もあるし、没入型現実プラットフォーム上の他のソフトウェアを指す場合もある。例えば、状況は、没入型現実モジュールの名称及びバージョン等の没入型現実モジュールの識別情報を指すこともできるし、没入型現実モジュールのタイプ(例えば、ファーストパーソンシューティングゲーム)を指すこともできる。別の例では、状況は、どのようなオペレーティングシステム(例えば、Android(商標)、Mac OS(登録商標)、又はWindows(登録商標))又は他のソフトウェアが没入型現実プラットフォーム上で動作しているのかを指すことができる。一実施形態では、状況は、どのようなハードウェア構成要素が没入型現実プラットフォームに存在するのかを指すことができる。このハードウェア構成要素は、例えば、処理回路、触覚出力デバイス(存在する場合)、メモリ、又は他の任意のハードウェア構成要素を指すことができる。
一実施形態では、ユーザーと没入型現実環境とのインタラクションの状況は、ユーザーが、ハンドヘルドゲームコントローラー等のハンドヘルドゲーミング周辺機器を用いて没入型現実環境とインタラクトしているのか、又は、ユーザーが、自身の手及びその手に装着された任意の触覚対応ウェアラブルデバイスのみを用いて没入型現実環境とインタラクトしているのかを指すことができる。このハンドヘルドゲームコントローラーは、例えば、Oculus Razer(登録商標)等のゲームコントローラーとすることもできるし、Wii(登録商標)リモートデバイス等の棒とすることもできる。例えば、触覚対応ウェアラブルデバイスにおける触覚効果は、ユーザーがハンドヘルドゲームコントローラーを把持していない場合には、ユーザーがハンドヘルドゲームコントローラーを把持しているときの駆動信号振幅よりも大きな駆動信号振幅を用いて生成することができる。1つの例では、状況は、ハンドヘルドゲームコントローラーの触覚能力(存在する場合)を更に指すことができる。
一実施形態では、状況は、ユーザーが物理物体を用いて没入型現実環境とインタラクトしているのか否か及び物理物体をどのように用いて没入型現実環境とインタラクトしているのかを指すことができる。この物理物体は、電子ゲームコントローラーでなく、没入型現実環境の電子信号入力を提供する能力を有しない日常品とすることができる。例えば、物理物体は、ユーザーが没入型現実環境の仮想レーストラックとインタラクトするためにピックアップした玩具自動車とすることができる。触覚効果は、物理物体の存在、及び/又は、物理物体が没入型現実環境とどのようにインタラクトしているのかに基づくことができる。一実施形態では、触覚効果は、物理物体の物理特性、及び/又は、物理物体に割り当てられた仮想特性に基づくことができる。一実施形態では、触覚効果は、物理物体と触覚対応ウェアラブルデバイスとの間の関係、及び/又は、物理物体と没入型現実環境の仮想物体との間の関係に基づくことができる。
一実施形態では、物理物体を用いて、複数の没入型現実環境のうちのいずれかの没入型現実環境を没入型現実プラットフォームにおいて生成するのかを選択することができる。この選択は、例えば、物理物体の物理外観(例えば、サイズ、色、形状)に基づくことができる。例えば、ユーザーが、Hot Wheels(登録商標)の玩具である物理物体をピックアップした場合、没入型現実プラットフォームは、画像分類アルゴリズムを用いて、その物理物体の物理外観を自動車の物理外観として分類することができる。その結果、自動車に関連した没入型現実環境を選択して生成することができる。この選択は、画像分類のみに依拠する必要もなければ、画像分類に全く依拠する必要もない。例えば、物理物体は、幾つかの例では、物理物体の特性を示すプロファイルを記憶するメモリを有することができる。プロファイルにおける特性は、例えば、物理物体の分類を玩具自動車として識別することができる。
一実施形態では、状況は、没入型現実環境の触覚効果を生成するのにどの触覚対応デバイスが利用可能であるのか、及び/又は、それらの触覚対応デバイスの能力を指すことができる。触覚対応デバイスは、ウェアラブルデバイスとすることもできるし、他のタイプの触覚対応デバイスとすることもできる。幾つかの場合には、選択されるデバイスの触覚能力に基づいて、複数の触覚対応デバイスの中から特定の触覚対応デバイスを選択することができる。幾つかの場合には、触覚効果特性は、選択されたデバイスの触覚能力により良く適するように変更することができる。
一実施形態では、触覚対応ウェアラブルデバイスを用いて、没入型現実環境において手追跡を行うことができる。例えば、画像認識アルゴリズムは、触覚対応リング又は触覚対応グローブの位置、向き、又は移動を検出し、触覚対応ウェアラブルデバイスのその位置、向き、又は移動を用いて、ユーザーの手の位置、向き、若しくは移動、又はそれらの代わりとなるものを求めることができる。このように、触覚対応ウェアラブルデバイスを用いて、ユーザーと没入型現実環境との間のインタラクションを特定することができる。
図1A〜図1Eは、VR環境、AR環境、又は複合現実環境等の没入型現実環境の触覚効果を状況に依存した方法で生成するそれぞれのシステム100A〜100Eを示している。より具体的には、図1Aは、没入型現実生成デバイス110A(没入型現実プラットフォームとも呼ばれる)と、触覚対応ウェアラブルデバイス120Aとを備えるシステム100Aを示している。一実施形態では、没入型現実生成デバイス110Aは、没入型現実モジュール(没入型現実アプリケーションとも呼ばれる)を実行するように構成されたデバイスとすることができる。没入型現実生成デバイス110Aは、例えば、没入型現実環境を生成するコンピューター可読命令を実行するように構成されたモバイルフォン、タブレットコンピューター、ラップトップコンピューター、デスクトップコンピューター、サーバー、スタンドアローンHMD、又は他の任意のデバイスとすることができる。スタンドアローンHMDデバイスは、没入型現実環境を生成するそれ自身の処理能力及び表示(又はより一般的にはレンダリング)能力を有することができる。幾つかの場合において、没入型現実生成デバイス110Aは、モバイルフォンである場合に、Samsung(登録商標)Gear(商標)VRヘッドセット又はGoogle(登録商標)Daydream(商標)View VRヘッドセット等のHMDシェルとドッキングして没入型現実環境を生成することができる。
一実施形態では、没入型現実生成デバイス110Aは、触覚生成能力を有しない場合がある。例えば、没入型現実生成デバイス110Aは、触覚出力デバイスを有しないモバイルフォンとすることができる。触覚出力デバイスを省略することによって、モバイルフォンの厚さの削減、重量の削減、及び/又は電池寿命の長期化を可能にすることができる。このように、本発明における幾つかの実施形態は、没入型現実生成デバイスが触覚生成能力を有せず、触覚対応ウェアラブルデバイスに依拠して触覚効果を生成する没入型現実生成デバイス及び触覚対応ウェアラブルデバイスの組み合わせに関する。
図1Aにおいて、没入型現実生成デバイス110Aは、記憶デバイス111、処理回路113、ディスプレイ/プロジェクター119、センサー117、及び通信インターフェース115を備えることができる。記憶デバイス111は、1つ以上のモジュールを記憶することができる非一時的コンピューター可読媒体とすることができ、1つ以上のモジュールのそれぞれは、処理回路113によって実行可能な命令を含む。1つの例では、1つ以上のモジュールは、没入型現実モジュール111a、状況特定モジュール111b、及び触覚制御モジュール111cを含むことができる。記憶デバイス111は、例えば、コンピューターメモリ、固体ドライブ、フラッシュドライブ、ハードドライブ、又は他の任意の記憶デバイスを含むことができる。処理回路113は、1つ以上のマイクロプロセッサ、1つ以上の処理コア、プログラマブルロジックアレイ(PLA)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、又は他の任意の処理回路を含むことができる。
図1Aにおいて、没入型現実環境は、ディスプレイ/プロジェクター119上にレンダリングされる(例えば、表示される)。例えば、没入型現実生成デバイス110Aが、HMDシェルとドッキングされたモバイルフォンである場合、ディスプレイ/プロジェクター119は、拡張現実環境等の没入型現実環境を表示することができるモバイルフォンのLCDディスプレイ又はOLEDディスプレイとすることができる。幾つかの拡張現実アプリケーションの場合、モバイルフォンは、ユーザーがHMDシェルを装着している間、拡張現実環境を表示することができる。幾つかの拡張現実アプリケーションの場合、モバイルフォンは、HMDシェルがなくても拡張現実環境を表示することができる。一実施形態では、ディスプレイ/プロジェクター119は、没入型現実環境を表す画像を投影するように構成された画像プロジェクター、及び/又は、没入型現実環境を表すホログラムを投影するように構成されたホログラフィックプロジェクターとして構成することができる。一実施形態では、ディスプレイ/プロジェクター119は、ユーザーの視神経又は他の神経構造に電圧信号を直接提供して、没入型現実環境の画像をユーザーに伝達するように構成された構成要素を備えることができる。画像、ホログラフィック投影、又は電圧信号は、没入型現実モジュール111a(没入型現実アプリケーションとも呼ばれる)によって生成することができる。
図1Aの実施形態では、ユーザーのインタラクションの状況を特定する機能及び触覚効果を制御する機能は、それぞれ、状況特定モジュール111b及び触覚制御モジュール111cを介して、没入型現実生成デバイス110Aにおいて実施することができる。モジュール111b、111cは、例えば、没入型現実モジュール111aと通信するスタンドアローンのアプリケーション若しくはプログラミングされた回路、没入型現実モジュール111aによってインストールされ若しくは没入型現実モジュール111a内に又は幾つかの他の形態のモジュール内に別の方法で組み込まれたプラグイン、ドライバー、静的ライブラリー若しくは動的ライブラリー、若しくはオペレーティングシステム構成要素として提供することができる。一実施形態では、モジュール111a、111b、111cのうちの2つ以上は、単一のアプリケーション、プラグイン、ライブラリー、又はドライバー等の単一のソフトウェアパッケージの一部とすることができる。
幾つかの場合には、没入型現実生成デバイス110Aは、状況を特定する情報を捕捉するセンサー117を更に備える。一実施形態では、センサー117は、カメラ、赤外線検出器、超音波検出センサー、ホールセンサー、ライダー若しくは他のレーザーベースセンサー、レーダー、又はそれらの任意の組み合わせを含むことができる。センサー117が赤外線検出器である場合、システム100Aは、例えば、没入型現実環境内のユーザー移動を追跡するのに用いられる一組の静止赤外線発光器(例えば、赤外線LED)を備えることができる。一実施形態では、センサー117は、同時位置推定地図構築(SLAM)システムの一部とすることができる。一実施形態では、センサー117は、電磁場を生成するとともに、場内の移動を場の変化によって検出するように構成されたデバイスを含むことができる。一実施形態では、センサーは、無線信号を送信して、三角測量を介して位置又は移動を求めるように構成されたデバイスを含むことができる。一実施形態では、センサー117は、加速度計、ジャイロスコープ、又はそれらの任意の組み合わせ等の慣性センサーを含むことができる。一実施形態では、センサー117は、全地球測位システム(GPS)センサーを含むことができる。一実施形態では、触覚対応リング等の触覚対応ウェアラブルデバイス120Aは、状況情報を特定するカメラ又は他のセンサーを備えることができる。
一実施形態では、状況特定モジュール111bは、センサー117からのデータに基づいて状況を特定するように構成することができる。例えば、状況特定モジュール111bは、畳み込みニューラルネットワーク若しくは他の機械学習アルゴリズム、又はより一般的には画像処理アルゴリズムを、センサー117からのカメラ画像データ又は他のデータに適用するように構成することができる。画像処理アルゴリズムは、例えば、上記で説明したように物理物体の存在を検出し、及び/又は、物理物体の物理外観の分類を特定することができる。別の例では、画像処理アルゴリズムは、手追跡又はハンドジェスチャー認識を行うために、ユーザーの手に装着された触覚対応デバイスの位置を検出することもできるし、ユーザーの手の位置を直接検出することもできる。一実施形態では、状況特定モジュール111bは、例えば、没入型現実モジュール111aによって実行されている没入型現実環境のタイプ、又は、没入型現実モジュール111aが実行されているデバイス110Aのタイプを特定するために、没入型現実モジュール111a及び/又はデバイス110Aのオペレーティングシステムと通信するように構成することができる。
一実施形態では、触覚制御モジュール111cは、触覚効果を生成する方法を制御するとともに、例えば、ユーザーと没入型現実環境とのインタラクションの状況に基づいてこの触覚効果を生成するように構成することができる。図1Aの実施形態では、触覚制御モジュール111cは、没入型現実生成デバイス110Aにおいて実行することができる。触覚制御モジュール111cは、通信インターフェース115を介して触覚コマンドを触覚出力デバイス127に送信すること等によって、触覚対応ウェアラブルデバイス120Aの触覚出力デバイス127を制御するように構成することができる。この触覚コマンドは、例えば、生成される触覚効果の触覚駆動信号又は触覚効果特性を含むことができる。
図1Aに示すように、触覚対応ウェアラブルデバイス120Aは、通信インターフェース125及び触覚出力デバイス127を備えることができる。触覚対応ウェアラブルデバイス120Aの通信インターフェース125は、没入型現実生成デバイス110Aの通信インターフェース115と通信するように構成することができる。幾つかの場合には、通信インターフェース115、125は、IEEE802.11プロトコル、Bluetooth(登録商標)プロトコル、近接場通信(NFC)プロトコル、又は無線通信用の他の任意のプロトコルを介した通信等の無線通信のプロトコルをサポートすることができる。幾つかの場合には、通信インターフェース115、125は、有線通信用のプロトコルであってもサポートすることができる。一実施形態では、没入型現実生成デバイス110A及び触覚対応ウェアラブルデバイス120Aは、インターネット等のネットワークを介して通信するように構成することができる。
一実施形態では、触覚対応ウェアラブルデバイス120Aは、身体接地型(body-grounded)触覚対応デバイスのタイプとすることができる。一実施形態では、触覚対応ウェアラブルデバイス120Aは、触覚対応リング、触覚対応グローブ、触覚対応ウォッチ若しくは触覚対応リストバンド、又はネイルアタッチメント等のユーザーの手又は手首に装着されたデバイスとすることができる。触覚対応リングは、「Haptic Ring」という発明の名称の米国特許出願第 号(IMM753)に詳細に論述されている。この米国特許出願の全内容は、引用することによってその全体が本明細書の一部をなすものとする。一実施形態では、触覚対応ウェアラブルデバイス120Aは、ヘッドバンド、ゲーミングベスト、レッグストラップ、アームストラップ、HMD、コンタクトレンズ、又は他の任意の触覚対応ウェアラブルデバイスとすることができる。
一実施形態では、触覚出力デバイス127は、触覚コマンドに応答して触覚効果を生成するように構成することができる。幾つかの場合には、触覚出力デバイス127は、触覚対応ウェアラブルデバイス120Aにおける唯一の触覚出力デバイスである場合もあるし、触覚対応ウェアラブルデバイス120Aにおける複数の触覚出力デバイスのうちの1つである場合もある。幾つかの場合には、触覚出力デバイス127は、振動触知性触覚効果を出力するように構成されたアクチュエーターとすることができる。例えば、触覚出力デバイス127は、偏心回転モーター(ERM)アクチュエーター、線形共振アクチュエーター(LRA)、ソレノイド共振アクチュエーター(SRA)、電磁アクチュエーター、圧電アクチュエーター、マクロファイバー複合材料(MFC)アクチュエーター、又は他の任意の振動触知性触覚アクチュエーターとすることができる。幾つかの場合には、触覚出力デバイス127は、変形触覚を生成するように構成することができる。例えば、触覚出力デバイス127は、電気活性ポリマー(EAP)、マクロファイバー複合材料(MFC)圧電材料(例えば、MFCリング)、形状記憶合金(SMA)、形状記憶ポリマー(SMP)、又は電圧、熱、若しくは他の刺激が材料に印加されると変形するように構成された他の任意の材料等のスマート材料を用いることができる。変形効果は、他の任意の方法で生み出すこともできる。一実施形態では、変形効果は、例えば、ユーザーの指を圧搾することができ、圧搾効果と呼ばれる場合がある。幾つかの場合には、触覚出力デバイス127は、静電摩擦(ESF)触覚効果又は超音波摩擦(USF)効果を生成するように構成することができる。そのような場合には、触覚出力デバイス127は、触覚対応ウェアラブルデバイス120Aの表面上に露出させることもできるし、表面の真下で僅かに電気的に絶縁することもできる1つ以上の電極を備えることができるとともに、これらの1つ以上の電極に対して信号を印加する信号発生器を備えることができる。幾つかの場合には、触覚出力デバイス127は、温度ベースの触覚効果を生成するように構成することができる。例えば、触覚出力デバイス127は、加熱効果又は冷却効果を生成するように構成されたペルティエ(Peltier)デバイスとすることができる。幾つかの場合には、触覚出力デバイスは、例えば、ユーザーに向けて空気を噴出するように構成された超音波デバイスとすることができる。
一実施形態では、没入型現実生成デバイス110Aの1つ以上の構成要素は、外部構成要素を用いて補助することもできるし、外部構成要素と取り替えることもできる。例えば、図1Bは、外部センサー130及び外部ディスプレイ/プロジェクター140に依拠する没入型現実生成デバイス110Bを有するシステム100Bを示している。例えば、外部センサー130は、外部カメラ、圧力マット、又は赤外線近接センサーとすることができる一方、外部ディスプレイ/プロジェクター140は、ホログラフィックプロジェクター、HMD、又はコンタクトレンズとすることができる。デバイス130、140は、例えば、デスクトップコンピューター又はサーバーとすることができる没入型現実生成デバイス110Bと通信することができる。より具体的には、没入型現実生成デバイス110Bは、状況特定モジュール111bにおいて用いられるセンサーデータをセンサー130から受信することができ、没入型現実モジュール111aによって生成された画像データをディスプレイ/プロジェクター140に送信することができる。
図1A及び図1Bにおいて、状況特定モジュール111b及び触覚制御モジュール111cはともに、没入型現実生成デバイス110A又は110Bにおいて実行することができる。例えば、没入型現実モジュール111aが没入型現実環境を生成している間、状況特定モジュール111bは、ユーザーインタラクションの状況を特定することができる。さらに、触覚制御モジュール111cは、触覚効果が生成されるべきであることを示す表示を没入型現実モジュール111aから受信することができる。この表示は、例えば、触覚コマンド、又は没入型現実環境内の特定のイベントが発生したことを示す表示を含むことができ、触覚制御モジュール111cは、このイベントに応答して触覚効果をトリガーするように構成されている。触覚制御モジュール111cは、次に、それ自身の触覚コマンドを生成し、この触覚コマンドを触覚対応ウェアラブルデバイス120Aに通信することができる。触覚対応ウェアラブルデバイス120Aは、この触覚コマンドに基づいて触覚出力デバイス127に触覚効果を生成させることによって、触覚制御モジュール111cからの触覚コマンドを実行する。触覚コマンドは、例えば、以下でより詳細に論述する触覚駆動信号及び/又は触覚効果特性を含むことができる。
一実施形態では、触覚制御機能は、触覚対応ウェアラブルデバイスに少なくとも部分的に存在することができる。例えば、図1Cは、触覚対応ウェアラブルデバイス120Cが触覚制御モジュール121aを記憶する記憶デバイス121を備えるとともに、触覚制御モジュール121aを実行する処理回路123を備えるシステム100Cを示している。触覚制御モジュール121aは、ユーザーインタラクションの状況を特定するために、没入型現実生成デバイス110Cと通信するように構成することができる。状況は、この実施形態では、没入型現実生成デバイス110Cにおいて実行されている状況特定モジュール111bを用いて特定することができる。触覚制御モジュール121aは、特定された状況に基づいて、生成する触覚効果を特定することができるとともに、特定された触覚効果を生成するように触覚出力デバイス127を制御することができる。図1Cにおいて、触覚効果を特定する機能が、触覚対応ウェアラブルデバイス120Cにおいて完全に実施されるように、没入型現実生成デバイス110Cは、触覚制御モジュールを省略してもよい。別の実施形態では、触覚効果を特定する機能が、没入型現実生成デバイス110C及び触覚対応ウェアラブルデバイス120Cによってともに実施されるように、没入型現実生成デバイス110Cは、上記実施形態において説明したように、触覚制御モジュール111cを引き続き実行することができる。
一実施形態では、状況特定機能は、触覚対応ウェアラブルデバイスに少なくとも部分的に存在することができる。例えば、図1Dは、触覚制御モジュール121a及び状況特定モジュール121bの双方を備える触覚対応ウェアラブルデバイス120Dを備えるシステム100Dを示している。触覚対応ウェアラブルデバイス120Dは、センサーデータをセンサー130から受信するように構成することができ、状況特定モジュール121bは、このセンサーデータを用いて、ユーザーインタラクションの状況を特定するように構成することができる。触覚対応ウェアラブルデバイス120Dが、触覚効果が生成されることを示す表示を没入型現実生成デバイス110Dの没入型現実モジュール111aから受信すると、触覚制御モジュール121aは、ユーザーインタラクションの状況に基づいて触覚効果を生成するように触覚出力デバイス127を制御するよう構成することができる。幾つかの場合には、状況特定モジュール121bは、特定された状況を没入型現実モジュール111aに通信することができる。
一実施形態では、触覚制御モジュールの機能は、没入型現実生成デバイス及び触覚対応ウェアラブルデバイスの双方に対して外部であるデバイスにおいて実施することができる。例えば、図1Eは、没入型現実生成デバイス110Cの外部でありかつ触覚対応ウェアラブルデバイス120Aの外部である触覚管理デバイス150を備えるシステム100Eを示している。触覚管理デバイス150は、記憶デバイス151、処理回路153、及び通信インターフェース155を備えることができる。処理回路153は、記憶デバイス151に記憶された触覚制御モジュール151aを実行するように構成することができる。触覚制御モジュール151aは、没入型現実環境の触覚効果を生成する必要があることを示す表示を没入型現実生成デバイス110Cから受信するとともに、没入型現実環境とのユーザーインタラクションの状況の表示を受信するように構成することができる。触覚制御モジュール151aは、このユーザーインタラクションの状況に基づいて触覚コマンドを生成し、この触覚コマンドを触覚対応ウェアラブルデバイス120Aに通信するように構成することができる。触覚対応ウェアラブルデバイス120Aは、その後、ユーザーインタラクションの状況に基づいて触覚効果を生成するように構成することができる。
上記のように、幾つかの場合には、ユーザーと没入型現実環境とのインタラクションの状況は、生成されている没入型現実環境のタイプ、又は、没入型現実環境が生成されている没入型現実生成デバイスのタイプを指すことができる。図2A〜図2Dは、没入型現実モジュールによって生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果を生成するシステム200を示している。図2Aに示すように、システム200は、図1Bの没入型プラットフォーム110B、センサー230、HMD250、及び触覚対応ウェアラブルデバイス270を備える。上記のように、没入型現実生成デバイス110Bは、没入型現実モジュール111a、状況特定モジュール111b、及び触覚制御モジュール111cを実行するように構成されたデスクトップコンピューター、ラップトップ、タブレットコンピューター、サーバー、又はモバイルフォンとすることができる。センサー230は、上述したセンサー130と同じもの又は類似のものとすることができる。1つの例では、センサー230はカメラである。一実施形態では、触覚対応ウェアラブルデバイス270は、手Hに装着された触覚対応リングである場合もあるし、触覚対応リストバンド又は触覚対応グローブ等の手に装着する他の任意の触覚対応ウェアラブルデバイスである場合もある。一実施形態では、HMD250は、もう1つのウェアラブルデバイスとみなすことができる。HMD250は触覚対応であってもよいし、触覚機能を欠いていてもよい。
一実施形態では、手H及び/又は触覚対応ウェアラブルデバイス270は、没入型現実環境とインタラクトするのに用いられる仮想カーソルの代わりとして用いることができる。例えば、図2Bは、HMD250によって表示される3D VR環境を示している。ユーザーの手H又は触覚対応ウェアラブルデバイス270は、この3D VR環境において仮想カーソル283の代わりとして機能することができる。より具体的には、ユーザーは、自身の手H及び/又は触覚対応ウェアラブルデバイス270を移動させることによって仮想カーソル283を移動させて、仮想物体281とインタラクトすることができる。カーソル283は、手Hの移動を追跡するように移動することができる。
同様に、図2Cは、HMD250によって表示される2D VR環境を示している。この2D VR環境では、ユーザーは、仮想カーソル287を用いて仮想2Dメニュー285とインタラクトすることができる。ユーザーは、自身の手H又は触覚対応ウェアラブルデバイス270を移動させることによって仮想カーソル287を制御することができる。一実施形態では、システム200は、ハンドヘルドゲームコントローラー又は他のゲーミング周辺機器を更に備えることができ、カーソル283/287は、このハンドヘルドゲームコントローラーの移動に基づいて移動させることができる。
さらに、図2Dは、HMD250に表示されるAR環境の一例を示している。このAR環境は、当該AR環境のユーザーが位置する公園等の物理環境を表示することができるとともに、この物理環境の画像上に重ね合わされた仮想物体289を表示することができる。一実施形態では、ユーザーの手Hの移動及び/又は触覚対応ウェアラブルデバイス270の移動に基づいて、仮想物体289を制御することができる。図2A〜図2Dにおける実施形態は、図3における方法の態様を示すためにより詳細に論述される。
図3は、没入型現実モジュールによって生成されている没入型現実環境のタイプの状況、又は、没入型現実モジュールが実行されているデバイスのタイプの状況に基づいて没入型現実環境の触覚効果を生成する方法300を示している。一実施形態では、方法300は、システム200によって実行することができ、より具体的には、没入型現実生成デバイス110Bにおいて触覚制御モジュール111cを実行する処理回路113によって実行することができる。一実施形態では、この方法は、図1C及び図1Dに示すような触覚対応ウェアラブルデバイス120C又は120Dにおいて触覚制御モジュール121aを実行する処理回路123によって実行することができる。一実施形態では、この方法は、図1Eに示すような触覚管理デバイス150の処理回路153によって実行することができる。
一実施形態では、方法300は、ステップ301から開始し、このステップにおいて、処理回路113/123/153は、没入型現実モジュール111a等の没入型現実モジュールによって実行されている没入型現実環境の触覚効果が生成されることを示す表示を受信する。この表示は、没入型現実モジュール111aからのコマンドを含むこともできるし、没入型現実環境内の特定のイベント(例えば、仮想衝突)が発生したことを示す表示を含むこともできる。このイベントは、触覚効果をトリガーする。
ステップ303において、処理回路113/123/153は、没入型現実モジュール111aによって生成されている没入型現実環境のタイプ、又は、没入型現実モジュール111aが実行されているデバイスのタイプを特定することができる。一実施形態では、没入型現実環境のタイプは、2次元(2D)環境、3次元(3D)環境、複合現実環境、仮想現実環境、又は拡張現実環境を含むことができる。一実施形態では、没入型現実モジュール111aが実行されるデバイスのタイプは、デスクトップコンピューター、ラップトップコンピューター、サーバー、スタンドアローンHMD、タブレットコンピューター、又はモバイルフォンを含むことができる。
ステップ305において、処理回路113/123/153は、没入型現実モジュール111aによって生成されている没入型現実環境のタイプ、又は、没入型現実モジュールが実行されているデバイスのタイプに基づいて触覚効果を生成するように、触覚対応ウェアラブルデバイス120A/120C/120D/270を制御することができる。
例えば、図2Bは、没入型現実環境が没入型現実生成デバイス100Bにおいて少なくとも部分的に生成されている3D環境である、ステップ305の一例を示している。この3D環境は、当該3D環境の3D座標系内に表示された3D仮想物体281を含むことができる。この例における触覚効果は、3D座標系におけるユーザーの手H(又はゲーミング周辺機器)の位置に基づくことができる。図2Bにおいて、3D環境の3D座標系は、高さ次元又は深さ次元を有することができる。この高さ次元又は深さ次元は、例えば、
仮想カーソル283、又はより具体的にはユーザーの手Hが、仮想物体の表面281aと仮想接触しているか否か、及び/又は、仮想カーソル283又はユーザーの手Hが表面281aを仮想的にどの程度押しのけているのかを示すことができる。そのような状況では、処理回路113/123/153は、仮想カーソル283又はユーザーの手Hが表面281aをどの程度押しのけているのかを示すことができる仮想カーソル283又はユーザーの手Hの高さ又は深さに基づくように触覚効果を制御することができる。
ステップ305の別の例において、図2Cは、2D環境の2D座標系に表示される仮想メニュー285を表示する2D環境を示している。この例では、処理回路113/123/153は、ユーザーの手H又はユーザー入力要素の2D座標に基づいて触覚効果を生成するように、触覚対応ウェアラブルデバイス270の触覚出力デバイスを制御することができる。例えば、この触覚効果は、どのようなボタン又は他のメニュー項目がカーソル287によって選択されたのかを示す2D座標系におけるユーザーの手H又はユーザー入力要素の位置に基づくことができる。
ステップ305の別の例において、図2Dは、HMD250に表示されるAR環境の一例を示している。この例では、AR環境は、公園等の物理環境の画像上に重ね合わされた仮想物体289を表示する。一実施形態では、処理回路113/123/153は、仮想物体289と物理環境の画像との間のシミュレーションされたインタラクションに基づいて触覚効果を生成するように、触覚対応ウェアラブルデバイス270の触覚出力デバイスを制御することができる。このシミュレーションされたインタラクションは、例えば、仮想物体289が、物理環境の画像内で公園の芝生の上をドライブするようなものである。この触覚効果は、例えば、物理環境の画像内の仮想物体289と芝生との間のシミュレーションされた静止摩擦(又はより一般的には摩擦)、AR環境の座標系内の仮想物体289の速度、仮想タイヤ品質等の仮想物体289の仮想特性(仮想プロパティとも呼ばれる)、又は他の任意の特性に基づくことができる。
一実施形態では、方法300の触覚効果は、没入型現実環境のユーザーが、ハンドヘルドゲームコントローラー又は他のゲーミング周辺機器等のハンドヘルドユーザー入力デバイスを把持しているか否かに基づくことができる。例えば、ユーザーがハンドヘルドユーザー入力デバイスを把持していない場合には、触覚効果ウェアラブルデバイス270に対する触覚効果の駆動信号振幅をより大きくすることができる。
一実施形態では、触覚効果は、触覚対応ウェアラブルデバイスの触覚能力に更に基づくことができる。一実施形態では、この触覚能力は、触覚対応ウェアラブルデバイス270が当該デバイスにおいて生成することが可能な触覚効果のタイプ又は強度のうちの少なくとも一方を示し、ここで、強度は、例えば、最大の加速度、変形、圧力、又は温度を指すことができる。一実施形態では、触覚対応ウェアラブルデバイス270の触覚能力は、どのようなタイプ(複数の場合もある)の触覚出力デバイスが触覚対応デバイスに存在するのか、どれだけの数の触覚出力デバイスが触覚対応デバイスに存在するのか、触覚出力デバイス(複数の場合もある)のそれぞれがどのようなタイプ(複数の場合もある)の触覚効果を生成することができるのか、触覚出力デバイス(複数の場合もある)のそれぞれが生成することができる最大触覚振幅、触覚出力デバイス(複数の場合もある)のそれぞれの周波数帯域幅、触覚出力デバイス(複数の場合もある)のそれぞれの最短立ち上がり時間若しくは最短制動時間、触覚対応デバイスの任意の熱触覚出力デバイスの最高温度若しくは最低温度、又は触覚対応デバイスの任意のESF触覚出力デバイス若しくはUSF触覚出力デバイスの最大摩擦係数のうちの少なくとも1つを示す。
一実施形態では、ステップ305は、触覚効果を生成するのに用いられる触覚パラメーター値又は触覚駆動信号等の触覚効果特性を変更することを伴うことができる。例えば、ステップ305は、触覚対応リング等の第2のタイプの触覚対応デバイスとすることができる触覚対応ウェアラブルデバイス270を伴うことができる。そのような例では、ステップ305は、触覚リストバンド等の第1のタイプの触覚対応ウェアラブルデバイスに関連した規定された触覚駆動信号又は規定された触覚パラメーター値を取得することを伴うことができる。ステップ305は、第1のタイプの触覚対応デバイスと第2のタイプの触覚対応デバイスとの間の相違に基づいて、規定された触覚駆動信号又は規定された触覚パラメーター値を変更することを伴うことができる。
上記のように、ユーザーインタラクションの状況は、ユーザーが物理物体を用いて没入型現実環境とインタラクトしている方法を指すことができる。図4Aは、図2Aのシステム200が物理物体Pと没入型現実環境との間のインタラクションに基づいている触覚効果を提供するのに用いられる一実施形態を示している。物理物体Pは、図4Aに示す玩具自動車等の任意の物理物体とすることができる。幾つかの場合には、物理物体Pは、ユーザーの手Hではなく、触覚対応ウェアラブルデバイスではなく、及び/又は電子ハンドヘルドゲームコントローラーではない物体を指す。幾つかの場合には、物理物体Pは、電子ゲームコントローラーの機能を有しない。より具体的には、物理物体Pは、没入型現実生成デバイス110Bの電子入力信号を提供する能力を有していない場合もあるし、物理物体Pの特性を記述した電子プロファイル情報(存在する場合)のみを提供することに制限されている場合もある。すなわち、幾つかの場合には、物理物体Pは、物理物体Pの特性を記述したプロファイル情報を記憶する記憶デバイス、又はより一般的には記憶媒体を有することができる。この記憶媒体は、例えば、RFIDタグ、フラッシュリードオンリーメモリ(ROM)、SSDメモリ、又は他の任意の記憶媒体とすることができる。この記憶媒体は、例えば、Bluetooth(登録商標)又は他の或る無線プロトコルを介して電子的に読み出すことができる。幾つかの場合には、物理物体Pは、プロファイル情報をコード化することができるバーコード等の物理マーキングを有することができる。プロファイル情報は、物理物体(例えば、玩具自動車)の識別情報又は物理物体のタイプ等の特性を記述することができる。幾つかの場合には、物理物体は、そのような記憶媒体又は物理マーキングを有しない。
一実施形態では、物理物体Pは、センサー230からのセンサーデータに基づいて検出又は別の方法で認識することができる。例えば、センサー230は、ユーザーの前方視野の画像をキャプチャーするように構成されたカメラとすることができる。この実施形態では、状況特定モジュール111bは、画像認識アルゴリズムを適用して、物理物体Pの存在を検出するように構成することができる。
図4Bは、図2A及び図4Aのシステム200と同様であるが、触覚対応ウェアラブルデバイス270に加えて又はこれに代えて触覚対応デバイス271を備えるシステム200Aを示している。触覚対応デバイス271は、物理物体Pを把持する手Hと異なる手Hに装着することができる。加えて、システム200Aは、HMD450に組み込まれたカメラであるセンサー430を有するHMD450を備えることができる。
図4Cは、HMD250/450に表示された没入型現実環境を示している。この没入型現実環境は、仮想レーストラックの画像とともに物理物体Pの画像を含むことができる。ユーザーが、ユーザーの物理環境において物理物体Pを移動させると、物理物体Pは、没入型現実環境においても同じ又は類似の方法で移動することができる。図4Dも、HMD250/450に表示された仮想レーストラックを含む没入型現実環境を示している。この実施形態では、物理物体Pは、仮想トラック等の仮想物体589の代わりの物とすることもできるし、仮想物体589に別の方法で関連付けることもできる。そのような実施形態では、仮想トラックを、物理玩具自動車の代わりに表示することができる。ユーザーは、ユーザーの物理環境において物理玩具自動車を移動させることによって、没入型現実環境の座標系における仮想トラックの移動を制御することができる。加えて、図4Eは、図4Cの没入型現実環境と同様であるが、物理物体Pとのシミュレーションされたインタラクションを有することができる仮想物体588を更に示している。
図5は、図4A及び図4Bの物理物体P等の物理物体と没入型現実環境との間のインタラクションに基づいて触覚効果を生成する方法500を示している。方法500は、図4A及び図4Bの処理回路113、又は、処理回路123若しくは153等の別の処理回路によって実行することができる。処理回路113/123/153は、触覚制御モジュール111c/121a/151a又は他の任意のモジュールを実行していてもよい。
一実施形態では、方法500は、ステップ501から開始することができ、このステップにおいて、処理回路113/123/153は、物理物体と没入型現実環境との間のシミュレーションされたインタラクションを検出することができる。例えば、ステップ501は、処理回路113が、物理玩具自動車と図4Cに示す没入型現実環境の仮想レーストラックとの間のシミュレーションされたインタラクションを検出することを伴うことができる。このシミュレーションされたインタラクションは、例えば、玩具自動車と仮想レーストラックとの間の静止摩擦(又はより一般的には摩擦)を生み出すシミュレーションされた接触とすることができる。
ステップ503において、処理回路113/123/153は、物理物体と没入型現実環境との間のシミュレーションされたインタラクションに基づいて生成される触覚効果を特定することができる。例えば、ステップ503は、処理回路113が、物理玩具自動車と図4Cの仮想レーストラックとの間のシミュレーションされた摩擦のレベルに基づいて触覚効果の大きさを調整することを伴うことができる。1つの例では、シミュレーションされた摩擦のレベルは、仮想テクスチャー等の仮想レーストラックの仮想特性に基づくことができる。例えば、仮想テクスチャーは、アスファルト、コンクリート、又はダートに関連したテクスチャーとすることができる。
ステップ505において、処理回路113/123/153は、シミュレーションされたインタラクションに基づいて触覚効果を生成するように、触覚対応ウェアラブルデバイス270の触覚出力デバイス等の、処理回路113/123/153と通信する触覚出力デバイスを制御することができる。
一実施形態では、触覚効果は、物理物体Pと触覚対応ウェアラブルデバイス270/271との間の物理的関係に基づくことができる。例えば、触覚効果は、図4Bにおける物理物体Pと触覚対応ウェアラブルデバイス271との間の近接性に基づく大きさ(例えば、変形効果、振動効果、摩擦効果、又は温度効果の大きさ)を有することができる。一実施形態では、触覚効果は、移動の速さ等の、物理物体がどのように移動されているのかの特性に基づくことができる。一実施形態では、触覚効果は、物理物体のサイズ若しくは形状等の物理物体の物理特性に基づくことができ、及び/又は、仮想質量若しくは仮想テクスチャー等の物理物体に割り当てられた仮想特性に基づくことができる。
図4Eは、触覚効果が没入型現実環境における物理物体Pと仮想物体588との間の関係に基づくことができる一実施形態を示している。この関係は、例えば、図4Eの没入型現実環境の座標系における物理物体Pと仮想物体588との間の距離(又はより一般的には近接レベル)を含むことができる。例えば、この距離は、没入型現実環境の座標系において測定された仮想距離とすることができる。図4Eの例では、仮想物体588によって引き起こされる雷鳴を伝達する触覚効果を生成することができる。この例では、触覚効果の大きさは、仮想物体588と物理物体Pとの間の仮想距離が増加するにつれて減少することができる。
上記のように、触覚効果は、物理物体のサイズ、重量、又は物理外観等の物理物体Pの物理特性に基づくことができる。例えば、第1のサイズを有する物理物体は、第1の触覚振幅に関連付けることができ、それよりも大きな第2のサイズを有する物理物体は、より大きな第2の触覚振幅に関連付けることができる。一実施形態では、触覚効果は、物理物体の物理外観の画像分類に基づくことができる。この画像分類は、画像分類アルゴリズムを介して行うことができる。例えば、画像分類アルゴリズムは、物理物体を自動車として分類することができ、これは、生成される触覚効果に影響を与えることができる。幾つかの場合には、画像分類は、どのような没入型現実環境が生成されるのかに影響を与えることができる。
一実施形態では、仮想質量、仮想外観(例えば、仮想形状)、仮想テクスチャー、仮想電荷、又は仮想引力若しくは仮想斥力等の1つ以上の仮想プロパティ(仮想特性とも呼ばれる)を物理物体に割り当てることができる。例えば、図4Dに関して、物理物体Pには、仮想トラックの形状である仮想形状、仮想質量、及びそのタイヤの仮想テクスチャーを割り当てることができる。仮想トラックと仮想レーストラックとの間の摩擦をシミュレーションする触覚効果を生成することができ、この摩擦は、トラックの仮想質量及びそのタイヤの仮想テクスチャーに基づくことができる。
一実施形態では、物理物体を用いて、どの没入型現実モジュールを実行するのか、又はより一般的にはどの没入型現実環境を生成するのかを特定することができる。例えば、図4Aに関して、没入型現実生成デバイス110Bは、仮想レーストラックを提示する第1の没入型現実環境及び仮想教室を提示する第2の没入型現実環境等の複数の異なる没入型現実環境を生成することを可能とすることができる。一実施形態では、方法500は、第1の没入型現実環境及び第2の没入型現実環境の中から、生成する没入型現実環境を物理物体の特性に基づいて選択することを含むことができる。幾つかのシナリオでは、この特性は、物理物体の形状、色、又はサイズとすることができる。幾つかのシナリオでは、この特性は、物理物体の画像分類とすることができる。例えば、図4A及び図4Bの物理物体Pは、畳み込みニューラルネットワーク等の画像分類アルゴリズムによって自動車として分類することができる。この分類と一致する没入型現実環境を選択することができる。例えば、第1の没入型現実環境は、この没入型現実環境がレーシングカーに関係しているので、自動車の分類と一致しているとみなすことができる。その結果、第1の没入型現実環境を選択することができる。
上記のように、物理物体は、物理物体の特性を記述したプロファイルを記憶する記憶媒体を有することができる。一実施形態では、没入型現実環境の選択は、このプロファイルに基づくことができる。1つの例では、プロファイルは、物理物体を自動車であるとして記述することができる。その結果、上述の第1の没入型現実環境を生成するように選択することができる。
上記のように、没入型現実環境におけるユーザーインタラクションの状況は、一実施形態では、触覚対応デバイス(例えば、触覚対応ウェアラブルデバイス)の触覚能力を指すことができ、触覚効果は、触覚対応デバイスの触覚能力に基づいて生成することができる。例えば、図6Aは、触覚能力に基づいて触覚効果を生成する方法600を示している。一実施形態では、方法600は、図6Bのシステム610によって実行することができる。システム610は、図1Aの没入型現実生成デバイス110A及び触覚対応ウェアラブルデバイス120Aと、通信インターフェース625及び触覚出力デバイス627を有する触覚対応ユーザーインターフェースデバイス620とを備えることができる。触覚対応ユーザーインターフェースデバイス620は、ウェアラブルデバイス又は別のタイプのデバイスとすることができる。
一実施形態では、方法600は、ステップ601から開始することができ、このステップにおいて、処理回路が、没入型現実環境の触覚効果が生成されることを決定する。この処理回路は、例えば、触覚制御モジュール111cを実行する処理回路113とすることができる。
ステップ603において、処理回路は、上記触覚効果が、第1のタイプの触覚出力デバイスに関連した規定された触覚効果(既定触覚効果とも呼ばれる)であると特定することができる。例えば、処理回路は、上記触覚効果がERMアクチュエーターに関連したものであり、ERMアクチュエーターに関連した触覚効果特性を有すると特定することができる。
ステップ605において、処理回路は、処理回路と通信する触覚対応デバイスの触覚能力を特定することができ、この触覚能力は、触覚対応デバイスが、第1のタイプの触覚出力デバイスと異なる第2のタイプの触覚出力デバイスである触覚出力デバイスを有することを示す。例えば、図6Bに関して、処理回路113は、触覚対応デバイス120Aの触覚能力を特定することができ、この特定は、デバイス120Aが、例えば、LRAアクチュエーターである触覚出力デバイス127を有すると特定することを伴うことができる。
ステップ607において、処理回路は、変更された触覚効果特性を有する変更された触覚効果を生成するために、触覚対応デバイスの触覚能力に基づいて、規定された触覚効果の触覚効果特性を変更することができる。例えば、図6Bに関して、処理回路は、触覚対応デバイス120AのLRAにより適した変更された触覚駆動信号を生成するように、ERMアクチュエーターに関連していた触覚駆動信号を変更することができる。
一実施形態では、触覚能力は、例えば、触覚対応ユーザーインターフェースデバイスが当該デバイスにおいて生成することが可能な触覚効果のタイプ、触覚対応ユーザーインターフェースデバイスが触覚効果について生成することが可能な最大振幅、触覚対応ユーザーインターフェースデバイスに含まれる触覚出力デバイスの総数、触覚対応ユーザーインターフェースデバイスが生成することができる触覚効果の帯域幅若しくは周波数帯域、又は触覚対応ユーザーインターフェースデバイスが触覚効果を定常状態に立ち上がりすることが可能な最短応答時間若しくは触覚効果を実質的に完全な停止に制動することが可能な最短応答時間のうちの少なくとも1つを示すことができる。
一実施形態では、様々な触覚対応デバイスの触覚能力を用いて、触覚対応デバイスの選択を行うことができる。例えば、上記ステップ607は、処理回路が触覚効果を生成するためにデバイス120A以外の触覚対応デバイスを選択するステップによって補助することもできるし、このステップと取り替えることもできる。図6Bを参照すると、触覚対応ユーザーインターフェースデバイス620が、ERMアクチュエーターである触覚出力デバイス627を備える場合、処理回路113は、この実施形態では、触覚効果を生成するために触覚対応ユーザーインターフェースデバイス620を選択することができる。幾つかの場合には、触覚効果は、選択された触覚対応デバイスのみによって生成される。
上記のように、触覚対応ウェアラブルデバイスは、一実施形態では、手追跡又はハンドジェスチャー検出を容易にすることができる。図7は、触覚対応リング又は触覚対応グローブを用いて、没入型現実環境におけるユーザーインタラクションの追跡を容易にする方法700を示している。一実施形態では、方法700は、図2Aのシステム200の処理回路113によって実行することができる。
一実施形態では、方法700は、ステップ701から開始し、このステップにおいて、処理回路は、没入型現実環境のユーザーによって装着された触覚対応リング(例えば、270)又は触覚対応グローブの位置又は移動を追跡する。幾つかの場合には、ステップ701は、触覚対応リング又は触覚対応グローブの形状を検出するように構成された画像処理アルゴリズムを適用することを伴うことができる。幾つかの場合には、ステップ701は、触覚対応リング又は触覚対応グローブによって放出された無線信号を追跡することを伴うことができる。幾つかの場合には、ステップ701は、赤外線検出を行って、触覚対応リング又は触覚対応グローブによって放出されたあらゆる熱を検出することを伴うことができる。
ステップ703において、処理回路は、触覚対応リング又は触覚対応グローブの位置又は移動に基づいて、ユーザーと没入型現実環境との間のインタラクションを特定する。例えば、処理回路は、触覚対応リング又は触覚対応グローブの位置を用いて、没入型現実環境の座標系におけるユーザーの位置を特定することができる。この特定は、手が、例えば、没入型現実環境の仮想物体からどれだけ離れているのかを示すことができる。別の例では、処理回路は、触覚対応リング又は触覚対応グローブの移動に基づいて、ハンドジェスチャー(例えば、VR環境と複合現実環境との間を切り替えるハンドジェスチャー)を検出することができる。ジェスチャー検出は、「Systems, Devices, and Methods for Providing Immersive Reality Interface Modes」という発明の名称の米国特許出願第15/958,617号により詳細に論述されている。この米国特許出願の全内容は、引用することによってその全体が本明細書の一部をなすものとする。更なる例では、処理回路は、触覚対応リング又は触覚対応グローブの移動を、図4A及び図4Bにおける物理物体P等の物理物体の移動の近似として用いることができる。
ステップ705において、処理回路は、ユーザーと没入型現実環境との間で特定されたインタラクションに基づいて触覚効果を生成するように触覚対応リング又は触覚対応グローブを制御する。一実施形態では、この触覚効果は、触覚対応リング又は触覚対応グローブと没入型現実環境の仮想物体との間の近接性等の関係に基づいている。一実施形態では、触覚効果は、仮想物体の仮想テクスチャー又は仮想硬度に基づいている。一実施形態では、触覚効果は、触覚対応リング又は触覚対応グローブが没入型現実環境の仮想表面又は仮想境界を横断することに応答してトリガーされ、触覚効果は、運動感覚効果を近似するマイクロ変形効果である。
上記実施形態の1つの例では、ユーザーは、触覚対応リングを装着している場合がある。ユーザーは、小さなサイズを有するモバイルフォン等のモバイルデバイスを有する場合がある。その結果、モバイルデバイスには、触覚アクチュエーターがもはや内蔵されていない場合がある。モバイルデバイスは、代わりに触覚対応リングと通信する。アラートを得るか又はモバイルデバイスとインタラクトするとき、触覚効果(例えば、触覚感覚)が触覚対応リングにおいてレンダリングされる。ユーザーがモバイルデバイスをHMDシェル内に収容すると、ユーザーが仮想現実(VR)世界とインタラクトしている間、ユーザーの手を追跡することができる。ユーザーが、物理物体又は仮想物体とインタラクトすると、触覚対応リングにおいて触覚効果をレンダリングすることができる。素早いジェスチャーを用いると、ユーザーのVR体験を複合現実体験に変えることができる。ユーザーは、この時、物理物体及び仮想物体とインタラクトすることができる。複合現実環境を生成しているシステムは、カメラ認識を用いて、ユーザーがどのような物体とインタラクトしているのか及びそれらの物体が触覚レンダリングを必要とするか否かを認識することができる。例えば、ユーザーは、小さなHot Wheels(登録商標)自動車をピックアップし、仮想レーストラックをロードすることができる。ユーザーが物理自動車を移動させると、触覚効果がユーザーの触覚対応リング(自動車を移動させている手)においてレンダリングされる。触覚効果は、自動車の動きの速度及び自動車の下方の仮想テクスチャー等のプロパティに基づくことができる。ユーザーが、自身の空いている側の手(自動車を把持していない手)に触覚対応リングを装着している場合、触覚効果は、ユーザーが行っているインタラクションと、ユーザーの周囲で発生している任意の空間インタラクションとに基づいて、その手(より一般的にはエンドポイントと呼ばれる場合がある)において異なってレンダリングすることができる。
一実施形態では、図1A〜図7の触覚対応ウェアラブルデバイスは、空気のバーストをユーザーに向けて推進するように構成された1つ以上の超音波触覚対応デバイス等の別のタイプの触覚対応デバイスと取り替えることができる。
種々の実施形態を上述してきたが、これらの実施形態は、限定としてではなく本発明の単なる説明及び例として提示されていることを理解すべきである。形式及び細部における種々の変更は本発明の趣旨及び範囲から逸脱することなく本発明内で行うことができることは当業者には明らかであろう。したがって、本発明の範囲は、上述の例示的な実施形態のいずれかによって限定されるべきではなく、添付の特許請求の範囲及びそれらの均等物によってのみ規定されるべきである。本明細書において論考された各実施形態、及び本明細書において引用された各引用文献の各特徴は、他の任意の実施形態の特徴と組み合わせて用いることができることも理解されるであろう。本明細書において論考された全ての特許及び刊行物は、引用することによりその全体が本明細書の一部をなす。
本願は、2018年4月20日に出願された米国特許出願第15/958,881号の利益を主張し、この出願の開示は引用することによりその全体が本明細書の一部をなす。

Claims (40)

  1. 没入型現実モジュールによって実行されている没入型現実環境の触覚効果が生成されることを示す表示を処理回路によって受信することと、
    前記没入型現実モジュールによって生成されている没入型現実環境のタイプ、又は、前記没入型現実モジュールが実行されているデバイスのタイプを前記処理回路によって特定することと、
    前記没入型現実モジュールによって生成されている前記没入型現実環境のタイプ、又は、前記没入型現実モジュールが実行されている前記デバイスのタイプに基づいて前記触覚効果を生成するように、触覚対応ウェアラブルデバイスの触覚出力デバイスを前記処理回路によって制御することと、
    を含む、没入型現実環境の触覚効果を提供する方法。
  2. 前記没入型現実モジュールが実行されている前記デバイスのタイプは、触覚生成能力を有しない、請求項1に記載の方法。
  3. 前記没入型現実環境の前記タイプは、2次元(2D)環境、3次元(3D)環境、複合現実環境、仮想現実(VR)環境、又は拡張現実(AR)環境のうちの1つである、請求項1に記載の方法。
  4. 前記没入型現実環境の前記タイプが3D環境であるとき、前記処理回路は、前記3D環境の3D座標系におけるユーザーの手の3D座標に基づいて、又は、前記3D環境における3Dジェスチャーに基づいて前記触覚効果を生成するように前記触覚出力デバイスを制御する、請求項3に記載の方法。
  5. 前記没入型現実環境のタイプが2D環境であるとき、前記処理回路は、前記2D環境の2D座標系におけるユーザーの手の2D座標に基づいて、又は、前記2D環境における2Dジェスチャーに基づいて前記触覚効果を生成するように前記触覚出力デバイスを制御する、請求項3に記載の方法。
  6. 前記没入型現実環境のタイプがAR環境であるとき、前記処理回路は、前記AR環境の仮想物体と前記AR環境に示された物理環境との間のシミュレーションされたインタラクションに基づいて前記触覚効果を生成するように前記触覚出力デバイスを制御する、請求項3に記載の方法。
  7. 前記没入型現実環境の前記タイプは、没入型現実環境の第2のタイプであると特定され、
    前記触覚効果を生成するように前記触覚出力デバイスを前記制御することは、没入型現実環境の第1のタイプに関連した規定された触覚効果特性を取得することと、前記規定された触覚効果特性を変更して、変更された触覚効果特性を生成することとを含み、前記触覚効果は、前記変更された触覚効果特性を用いて生成される、請求項1に記載の方法。
  8. 前記規定された触覚効果特性は、触覚駆動信号又は触覚パラメーター値を含み、前記触覚パラメーター値は、駆動信号振幅、駆動信号持続時間、又は駆動信号周波数のうちの少なくとも1つを含む、請求項1に記載の方法。
  9. 前記規定された触覚効果特性は、振動若しくは変形の振幅、振動若しくは変形の持続時間、振動若しくは変形の周波数、静電摩擦効果若しくは超音波摩擦効果の摩擦係数、又は温度のうちの少なくとも1つを含む、請求項1に記載の方法。
  10. 前記没入型現実モジュールが実行されている前記デバイスのタイプは、ゲームコンソール、モバイルフォン、タブレットコンピューター、ラップトップ、デスクトップコンピューター、サーバー、又はスタンドアローンヘッドマウントディスプレイ(HMD)のうちの1つである、請求項1に記載の方法。
  11. 前記没入型現実モジュールが実行されている前記デバイスの前記タイプは、デバイスの第2のタイプであると特定され、前記触覚効果を生成するように前記触覚出力デバイスを前記制御することは、任意の没入型現実モジュールを実行するデバイスの第1のタイプに関連した規定された触覚効果特性を取得することと、前記規定された触覚効果特性を変更して、変更された触覚効果特性を生成することとを含み、前記触覚効果は、前記変更された触覚効果特性を用いて生成される、請求項10に記載の方法。
  12. 前記没入型現実環境とインタラクトしているユーザーが、前記没入型現実環境の電子信号入力を提供するように構成された触覚対応ハンドヘルドコントローラーを把持しているか否かを前記処理回路によって特定することを更に含み、前記触覚対応ウェアラブルデバイスにおいて生成される前記触覚効果は、前記ユーザーが触覚対応ハンドヘルドコントローラーを把持しているか否かに基づいている、請求項1に記載の方法。
  13. 前記触覚効果は、前記没入型現実モジュール以外のどのようなソフトウェアが前記デバイスにおいて実行又はインストールされているのかに更に基づいている、請求項1に記載の方法。
  14. 前記触覚効果は、前記触覚対応ウェアラブルデバイスの前記触覚出力デバイスの触覚能力に更に基づいている、請求項1に記載の方法。
  15. 前記触覚出力デバイスは第2のタイプの触覚出力デバイスであり、前記触覚出力デバイスを制御することは、第1のタイプの触覚出力デバイスに関連した規定された触覚効果特性を取得することと、前記規定された触覚効果特性を変更して、変更された触覚効果特性を生成することとを含み、前記触覚効果は、前記変更された触覚効果特性に基づいて生成される、請求項14に記載の方法。
  16. 没入型現実環境と該没入型現実環境のユーザーによって制御されている物理物体との間のシミュレーションされたインタラクションを処理回路によって検出することと、
    前記没入型現実環境と前記物理物体との間の前記シミュレーションされたインタラクションの触覚効果が生成されることを前記処理回路によって決定することと、
    前記物理物体と前記没入型現実環境との間の前記シミュレーションされたインタラクションに基づいて前記触覚効果を生成するように触覚対応ウェアラブルデバイスの触覚出力デバイスを前記処理回路によって制御することと、
    を含む、没入型現実環境の触覚効果を提供する方法。
  17. 前記物理物体は、前記没入型現実環境のユーザーによって移動されているハンドヘルド物体である、請求項16に記載の方法。
  18. 前記ハンドヘルド物体は、前記没入型現実環境の電子信号入力を提供するように構成されたハンドヘルドユーザー入力デバイスである、請求項17に記載の方法。
  19. 前記ハンドヘルド物体は、前記没入型現実環境の電子信号入力を提供する能力を有しない、請求項17に記載の方法。
  20. 前記シミュレーションされたインタラクションは、前記物理物体と前記没入型現実環境の仮想表面との間のシミュレーションされた接触を含み、前記触覚効果は、前記仮想表面の仮想テクスチャーに基づいている、請求項19に記載の方法。
  21. 前記物理物体の物理特性を求めることを更に含み、前記触覚効果は、前記物理物体の前記物理特性に基づいており、前記物理特性は、前記物理物体のサイズ、色、又は形状のうちの少なくとも1つを含む、請求項16に記載の方法。
  22. 前記物理物体に仮想特性を割り当てることを更に含み、前記触覚効果は、前記仮想特性に基づいており、前記仮想特性は、仮想質量、仮想形状、仮想テクスチャー、又は前記物理物体と前記没入型現実環境の仮想物体との間の仮想力の大きさのうちの少なくとも1つを含む、請求項16に記載の方法。
  23. 前記触覚効果は、前記触覚対応ウェアラブルデバイスと前記物理物体との間の物理的関係に基づいている、請求項16に記載の方法。
  24. 前記触覚効果は、前記触覚対応ウェアラブルデバイスと前記没入型現実環境の仮想物体との間の近接性に基づいている、請求項16に記載の方法。
  25. 前記触覚効果は、前記物理物体の移動特性に基づいている、請求項16に記載の方法。
  26. 前記物理物体は、該物理物体の1つ以上の特性を記述したプロファイル情報を記憶するメモリを備え、前記触覚効果は、前記プロファイル情報に基づいている、請求項16に記載の方法。
  27. 前記没入型現実環境は、複数の異なる没入型現実環境を生成することができるデバイスによって生成され、前記方法は、前記物理物体の物理特性又は仮想特性に基づいて前記複数の没入型現実環境の中から前記没入型現実環境を選択することを更に含む、請求項16に記載の方法。
  28. 画像分類アルゴリズムを前記物理物体の物理外観に適用して、前記物理物体の画像分類を特定することを更に含み、前記複数の没入型現実環境の中から前記没入型現実環境を選択することは、前記物理物体の前記画像分類に基づいている、請求項27に記載の方法。
  29. 前記物理物体は、該物理物体の特性を記述したプロファイル情報を記憶するメモリを備え、前記複数の没入型現実環境の中から前記没入型現実環境を選択することは、前記メモリに記憶された前記プロファイル情報に基づいている、請求項27に記載の方法。
  30. 没入型現実環境の触覚効果が生成されることを処理回路によって決定することと、
    前記触覚効果が第1のタイプの触覚出力デバイスに関連した規定された触覚効果であると前記処理回路によって特定することと、
    前記処理回路と通信する触覚対応デバイスの触覚能力を前記処理回路によって特定することであって、該触覚能力は、前記触覚対応デバイスが、第2のタイプの触覚出力デバイスである触覚出力デバイスを有することを示すことと、
    変更された触覚効果特性を有する変更された触覚効果を生成するために、前記触覚対応デバイスの前記触覚能力に基づいて前記規定された触覚効果の触覚効果特性を変更することと、
    を含む、没入型現実環境の触覚効果を提供する方法。
  31. 前記触覚対応デバイスの前記触覚能力は、どのようなタイプ(複数の場合もある)の触覚出力デバイスが前記触覚対応デバイスに存在するのか、どれだけの数の触覚出力デバイスが前記触覚対応デバイスに存在するのか、前記触覚出力デバイス(複数の場合もある)のそれぞれがどのようなタイプ(複数の場合もある)の触覚効果を生成することができるのか、前記触覚出力デバイス(複数の場合もある)のそれぞれが生成することができる最大触覚振幅、前記触覚出力デバイス(複数の場合もある)のそれぞれの周波数帯域幅、前記触覚出力デバイス(複数の場合もある)のそれぞれの最短立ち上がり時間若しくは最短制動時間、前記触覚対応デバイスの任意の熱触覚出力デバイスの最高温度若しくは最低温度、又は前記触覚対応デバイスの任意のESF触覚出力デバイス若しくはUSF触覚出力デバイスの最大摩擦係数のうちの少なくとも1つを示す、請求項30に記載の方法。
  32. 前記触覚効果特性を変更することは、触覚振幅、触覚効果タイプ、触覚効果周波数、温度、又は摩擦係数のうちの少なくとも1つを変更することを含む、請求項30に記載の方法。
  33. 処理回路によって生成されている没入型現実環境の触覚効果が生成されることを前記処理回路によって決定することと、
    前記処理回路と通信する複数の触覚対応デバイスのそれぞれの触覚能力を前記処理回路によって特定することと、
    前記複数の触覚対応デバイスの前記それぞれの触覚能力に基づいて前記複数の触覚対応デバイスから或る触覚対応デバイスを選択することと、
    前記触覚効果を生成するように選択された前記触覚対応デバイスを制御し、選択されていない触覚対応デバイスが前記触覚効果を生成しないようにすることと、
    を含む、没入型現実環境の触覚効果を提供する方法。
  34. 没入型現実環境のユーザーによって装着された触覚対応リング又は触覚対応グローブの位置又は移動を処理回路によって追跡することと、
    前記ユーザーと前記没入型現実環境との間のインタラクションを前記触覚対応リング又は前記触覚対応グローブの前記位置又は前記移動に基づいて特定することと、
    前記ユーザーと前記没入型現実環境との間で特定された前記インタラクションに基づいて触覚効果を生成するように、前記触覚対応リング又は前記触覚対応グローブを制御することと、
    を含む、没入型現実環境の触覚効果を提供する方法。
  35. 前記触覚効果は、前記触覚対応リング又は前記触覚対応グローブと前記没入型現実環境の仮想物体との間の近接性を含む関係に基づいている、請求項34に記載の方法。
  36. 前記関係は、前記触覚対応リング又は前記触覚対応グローブと前記没入型現実環境の仮想物体との間の近接性を示す、請求項35に記載の方法。
  37. 前記触覚効果は、前記仮想物体の仮想テクスチャー又は仮想硬度に基づいている、請求項35に記載の方法。
  38. 前記触覚効果は、前記触覚対応リング又は前記触覚対応グローブが前記没入型現実環境の仮想表面又は仮想境界を横断することに応答してトリガーされ、前記触覚効果は、運動感覚効果を近似するマイクロ変形効果である、請求項34に記載の方法。
  39. 前記触覚対応リング又は前記触覚対応グローブの前記位置又は前記移動を追跡することは、前記処理回路が、前記ユーザーが位置している物理環境の画像をカメラから受信し、画像検出アルゴリズムを前記画像に適用して前記触覚対応リング又は前記触覚対応グローブを検出することを含む、請求項34に記載の方法。
  40. 没入型現実生成デバイスであって、
    没入型現実環境を生成する没入型現実モジュールを記憶するように構成されたメモリと、
    前記没入型現実モジュールを実行するように構成された処理ユニットと、
    無線通信を行う通信インターフェースと、
    を有し、
    触覚出力デバイス及び触覚生成能力を有しない、
    没入型現実生成デバイスと、
    触覚対応ウェアラブルデバイスであって、
    触覚出力デバイスと、
    前記没入型現実生成デバイスの前記通信インターフェースと無線で通信するように構成された通信インターフェースと、
    を有し、
    触覚効果が生成されることを示す表示を前記没入型現実生成デバイスから受信し、前記触覚効果を生成するように前記触覚出力デバイスを制御するように構成されている、
    触覚対応ウェアラブルデバイスと、
    を備える、システム。
JP2019079737A 2018-04-20 2019-04-19 没入型現実環境において触覚効果を生成する触覚対応ウェアラブルデバイス Pending JP2019192243A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/958,881 US20190324538A1 (en) 2018-04-20 2018-04-20 Haptic-enabled wearable device for generating a haptic effect in an immersive reality environment
US15/958,881 2018-04-20

Publications (1)

Publication Number Publication Date
JP2019192243A true JP2019192243A (ja) 2019-10-31

Family

ID=66239888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019079737A Pending JP2019192243A (ja) 2018-04-20 2019-04-19 没入型現実環境において触覚効果を生成する触覚対応ウェアラブルデバイス

Country Status (5)

Country Link
US (1) US20190324538A1 (ja)
EP (1) EP3557383A1 (ja)
JP (1) JP2019192243A (ja)
KR (1) KR20190122569A (ja)
CN (1) CN110389655A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024844A1 (ja) * 2020-07-30 2022-02-03 ソニーグループ株式会社 情報処理装置、触感提示システム及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10782651B2 (en) * 2018-06-03 2020-09-22 Apple Inc. Image capture to provide advanced features for configuration of a wearable device
US11003247B1 (en) 2020-03-20 2021-05-11 Microsoft Technology Licensing, Llc Deployable controller
KR102332318B1 (ko) * 2020-07-22 2021-12-01 이화여자대학교 산학협력단 시공간 인코딩을 사용하여 가상 객체의 거칠기 촉각을 제공하기 위한 방법 및 시스템
WO2022043925A1 (en) * 2020-08-26 2022-03-03 Eunoe Llc A system, modular platform and method for xr based self-feedback, dialogue, and publishing
US20220143821A1 (en) * 2020-11-11 2022-05-12 Sony Interactive Entertainment Inc. Method for robotic training based on randomization of surface stiffness
KR20220094988A (ko) * 2020-12-29 2022-07-06 삼성전자주식회사 증강 현실, 가상 현실, 혼합 현실 및 확장 현실 서비스를 제공하기 위한 장치 및 방법
US20230025019A1 (en) * 2021-07-23 2023-01-26 Sleepme Inc. Virtual reality and augmented reality headsets for meditation applications

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014139784A (ja) * 2013-01-15 2014-07-31 Immersion Corp 触覚フィードバックを備えた拡張現実ユーザ・インタフェース
JP2015018562A (ja) * 2009-07-22 2015-01-29 イマージョン コーポレーションImmersion Corporation 複数のプラットフォームを越える触覚フィードバックを用いた対話式タッチスクリーンゲーミング比喩
JP2015053043A (ja) * 2013-09-06 2015-03-19 イマージョン コーポレーションImmersion Corporation ハプティックワーピングシステム
JP2015092654A (ja) * 2013-09-06 2015-05-14 イマージョン コーポレーションImmersion Corporation 触覚フィードバックを提供するための制御トラックを変換する方法及び装置
JP2015187862A (ja) * 2014-03-19 2015-10-29 イマージョン コーポレーションImmersion Corporation 触覚効果を与えるシステム及び方法
JP2015219910A (ja) * 2014-05-19 2015-12-07 イマージョン コーポレーションImmersion Corporation 没入型環境における非コロケートな触覚キュー
JP2016126772A (ja) * 2014-12-31 2016-07-11 イマージョン コーポレーションImmersion Corporation 拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するシステム及び方法
JP2016522463A (ja) * 2013-03-11 2016-07-28 マジック リープ, インコーポレイテッド 拡張現実および仮想現実のためのシステムおよび方法
US20160274662A1 (en) * 2015-03-20 2016-09-22 Sony Computer Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in hmd rendered environments

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8020095B2 (en) * 1997-11-14 2011-09-13 Immersion Corporation Force feedback system including multi-tasking graphical host environment
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US9466187B2 (en) * 2013-02-04 2016-10-11 Immersion Corporation Management of multiple wearable haptic devices
US9489047B2 (en) * 2013-03-01 2016-11-08 Immersion Corporation Haptic device with linear resonant actuator
US9946348B2 (en) * 2014-03-21 2018-04-17 Immersion Corporation Automatic tuning of haptic effects
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US9606624B2 (en) * 2014-07-02 2017-03-28 Immersion Corporation Systems and methods for surface elements that provide electrostatic haptic effects
US10146308B2 (en) * 2014-10-14 2018-12-04 Immersion Corporation Systems and methods for impedance coupling for haptic devices
US10269392B2 (en) * 2015-02-11 2019-04-23 Immersion Corporation Automated haptic effect accompaniment

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015018562A (ja) * 2009-07-22 2015-01-29 イマージョン コーポレーションImmersion Corporation 複数のプラットフォームを越える触覚フィードバックを用いた対話式タッチスクリーンゲーミング比喩
JP2014139784A (ja) * 2013-01-15 2014-07-31 Immersion Corp 触覚フィードバックを備えた拡張現実ユーザ・インタフェース
JP2016522463A (ja) * 2013-03-11 2016-07-28 マジック リープ, インコーポレイテッド 拡張現実および仮想現実のためのシステムおよび方法
JP2015053043A (ja) * 2013-09-06 2015-03-19 イマージョン コーポレーションImmersion Corporation ハプティックワーピングシステム
JP2015092654A (ja) * 2013-09-06 2015-05-14 イマージョン コーポレーションImmersion Corporation 触覚フィードバックを提供するための制御トラックを変換する方法及び装置
JP2015187862A (ja) * 2014-03-19 2015-10-29 イマージョン コーポレーションImmersion Corporation 触覚効果を与えるシステム及び方法
JP2015219910A (ja) * 2014-05-19 2015-12-07 イマージョン コーポレーションImmersion Corporation 没入型環境における非コロケートな触覚キュー
JP2016126772A (ja) * 2014-12-31 2016-07-11 イマージョン コーポレーションImmersion Corporation 拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するシステム及び方法
US20160274662A1 (en) * 2015-03-20 2016-09-22 Sony Computer Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in hmd rendered environments

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024844A1 (ja) * 2020-07-30 2022-02-03 ソニーグループ株式会社 情報処理装置、触感提示システム及びプログラム

Also Published As

Publication number Publication date
CN110389655A (zh) 2019-10-29
US20190324538A1 (en) 2019-10-24
EP3557383A1 (en) 2019-10-23
KR20190122569A (ko) 2019-10-30

Similar Documents

Publication Publication Date Title
JP2019192243A (ja) 没入型現実環境において触覚効果を生成する触覚対応ウェアラブルデバイス
US10974138B2 (en) Haptic surround functionality
KR102194164B1 (ko) 홀로그램 객체 피드백
EP3588250A1 (en) Real-world haptic interactions for a virtual reality user
WO2019245604A1 (en) Interaction system for augmented reality objects
CN110476142A (zh) 虚拟对象用户界面显示
KR20160081809A (ko) 증강 및 가상 현실 애플리케이션들에 대한 햅틱 향상 객체들을 생성하기 위한 시스템 및 방법
JP2022535315A (ja) 自己触覚型仮想キーボードを有する人工現実システム
CN111771180B (zh) 增强现实环境中对象的混合放置
US20190163271A1 (en) Systems and methods for providing haptic feedback according to tilt-based inputs
US10001901B2 (en) System and method for texturing in virtual reality and mixed reality environments
EP3489804A1 (en) Haptic accessory apparatus
JP2022534639A (ja) 指マッピング自己触覚型入力方法を有する人工現実システム
CN108700944B (zh) 与在虚拟现实环境中的运动有关的系统和方法
US11989843B2 (en) Robotic learning of assembly tasks using augmented reality
CN110609615A (zh) 用于在增强现实中集成触觉覆盖的系统和方法
JP2018206029A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019020836A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6449922B2 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018206353A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20200286298A1 (en) Systems and methods for a user interaction proxy
WO2023250361A1 (en) Generating user interfaces displaying augmented reality graphics
Tecchia et al. Addressing the problem of Interaction in fully Immersive Virtual Environments: from raw sensor data to effective devices
CN117765208A (zh) 用于生成虚拟对象和声音的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210311