JP2019192238A - 拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚効果設計ツール - Google Patents
拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚効果設計ツール Download PDFInfo
- Publication number
- JP2019192238A JP2019192238A JP2019078645A JP2019078645A JP2019192238A JP 2019192238 A JP2019192238 A JP 2019192238A JP 2019078645 A JP2019078645 A JP 2019078645A JP 2019078645 A JP2019078645 A JP 2019078645A JP 2019192238 A JP2019192238 A JP 2019192238A
- Authority
- JP
- Japan
- Prior art keywords
- processor
- haptic
- haptic effect
- parameters
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するためのシステム及び方法を提供する。【解決手段】システム100は、メモリ104と、メモリ104と通信するプロセッサ102とを含むコンピューティング装置101を含んでいる。プロセッサ102は、対話型ユーザーインターフェースを生成し、対話型ユーザーインターフェースを介して入力パラメーターと触覚パラメーターとを取得する。プロセッサ102は、マッピングアルゴリズムを使用して入力パラメーターを触覚パラメーターにマッピングし、少なくとも部分的に入力パラメーターを触覚パラメーターにマッピングすることに基づいて動的触覚効果を設計する。次にプロセッサは、設計された動的触覚効果に少なくとも部分的に基づいて、複数のユーザー装置120のための複数の動的触覚効果を生成する。【選択図】図1
Description
本開示は、一般にユーザーインターフェース装置に関する。より具体的には、しかし限定としてではなく、本開示は、拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚効果を設計するためのツールに関する。
拡張現実感(「AR」)装置は、現実物体又は「現実世界」物体が仮想空間内の仮想物体と同時に表示される拡張現実環境を提供する。同様に、仮想現実(「VR」)装置を使用して、VR環境におけるユーザーの物理的存在をシミュレートすることができるVR環境を作成することができる。AR又はVR装置のユーザーは、AR又はVR環境を見て、AR又はVR環境内の仮想物体を見たり相互作用したりすることができる。しかしながら、いくつかのAR又はVR装置は、触覚フィードバック機能を欠く可能性がある。さらに、いくつかのAR又はVR装置は、動的な触覚フィードバック又は再生(例えば、ユーザーがAR又はVR環境と相互作用するにつれて時間とともに変化する1つ以上の触覚効果)を提供しないことがある。また、触覚効果を開発又は設計するための従来のシステム及び方法は、静的触覚効果(例えば、所定の触覚効果)を設計することに限定されることがあり、動的触覚効果の設計を可能にしないことがある。さらに、AR又はVR環境のための触覚効果を開発又は設計するための従来のシステム及び方法は、ユーザーを特定の装置(例えば、携帯電話)だけのための触覚効果の設計にすることがあるので、そのような従来のシステム及び方法を使用して設計された触覚効果は他の機器(ウェアラブル機器など)には適していないことがある。
本開示の様々な実施形態は、拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するためのシステム及び方法を提供する。
一実施形態では、システムは、処理装置と、処理装置に通信可能に接続された非一時的コンピュータ可読媒体とを含むコンピューティング装置を含んでいる。処理装置は、シミュレートされた現実環境のための動的触覚効果を設計するためのデータを取得するための対話型ユーザーインターフェースを生成することを含む動作を実行するように構成されている。処理装置はさらに、対話型ユーザーインターフェースを介して、シミュレートされた現実環境に関連する入力パラメーター又はシミュレートされた現実環境とのユーザーの相互作用を示すデータを取得するように構成されている。処理装置は、対話型ユーザーインターフェースを介して触覚パラメーターを示すデータを取得するようにさらに構成されている。処理装置は、マッピングアルゴリズムを使用して入力パラメーターを触覚パラメーターにマッピングするようにさらに構成されている。処理装置はさらに、少なくとも部分的に入力パラメーターを触覚パラメーターにマッピングすることに基づいて動的触覚効果を設計するように構成されている。処理装置は、設計された動的触覚効果に少なくとも部分的に基づいて、複数のユーザー装置のための複数の動的触覚効果を生成するようにさらに構成されている。
これらの例示的な実施形態は、本主題の制限を限定又は定義するためではなく、その理解を助けるために例を提供するために言及されている。例示的な実施形態は、詳細な説明において論じられ、そしてさらなる説明がそこに提供される。様々な実施形態によって提供される利点は、本明細書を検討することによって、及び/又は特許請求される主題の1つ以上の実施形態を実施することによってさらに理解することができる。
完全で可能な開示は、本明細書の残りの部分においてより具体的に説明される。本明細書は以下の添付の図面を参照する。
一実施形態による、拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するためのシステムを示すブロック図である。
一実施形態による、拡張又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するための方法を実行するためのステップのフローチャートである。
一実施形態による、拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するために生成することができる対話型ユーザーインターフェースの一例である。
別の実施形態による、拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するために生成することができる対話型ユーザーインターフェースの一例である。
別の実施形態による、拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するために生成することができる対話型ユーザーインターフェースの例である。
別の実施形態による、拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するために生成することができる対話型ユーザーインターフェースの例である。
一実施形態による、拡張又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するための方法を実行するためのステップのフローチャートである。
ここで、様々な代替の例示的実施形態及び添付の図面を詳細に参照する。各例は説明のために提供され、限定として提供されない。当業者には明らかなように、修正及び変形が可能である。例えば、一実施形態の一部として図示又は説明された特徴は、さらなる実施形態を生み出すために他の実施形態において使用されてもよい。したがって、本開示は添付の特許請求の範囲及びそれらの均等物の範囲内にある修正及び変形を含むことが意図されている。
拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するためのツールの実例
本開示の例示的な一実施形態は、これらの要素の各々と通信するメモリ、ディスプレイ、及びプロセッサを含むコンピューティング装置を含んでいる。いくつかの例では、プロセッサは、受け取った又は取得したデータ(例えば、ユーザー入力を介して受け取ったデータ)に基づいて、シミュレートされた現実環境(例えば拡張現実環境又は仮想現実環境)用のクロスプラットフォーム動的触覚効果を自動的に設計又は生成することができる。いくつかの例では、動的触覚効果は、シミュレートされた現実環境について取り込まれたデータ又はシミュレートされた現実環境とのユーザーの相互作用に基づいて変化することができる1つ以上の触覚効果を含むことができる。いくつかの例では、クロスプラットフォーム動的触覚効果を設計又は生成することは、第1の設計又は生成された動的触覚効果に基づいて、様々なユーザー装置に適した1つ以上の他の動的触覚効果を生成又は設計することを含んでいる。
本開示の例示的な一実施形態は、これらの要素の各々と通信するメモリ、ディスプレイ、及びプロセッサを含むコンピューティング装置を含んでいる。いくつかの例では、プロセッサは、受け取った又は取得したデータ(例えば、ユーザー入力を介して受け取ったデータ)に基づいて、シミュレートされた現実環境(例えば拡張現実環境又は仮想現実環境)用のクロスプラットフォーム動的触覚効果を自動的に設計又は生成することができる。いくつかの例では、動的触覚効果は、シミュレートされた現実環境について取り込まれたデータ又はシミュレートされた現実環境とのユーザーの相互作用に基づいて変化することができる1つ以上の触覚効果を含むことができる。いくつかの例では、クロスプラットフォーム動的触覚効果を設計又は生成することは、第1の設計又は生成された動的触覚効果に基づいて、様々なユーザー装置に適した1つ以上の他の動的触覚効果を生成又は設計することを含んでいる。
例えば、コンピューティング装置のプロセッサは、それを介して(例えば、ユーザー入力を介して)プロセッサがデータを受け取ってシミュレートされた現実環境のための動的触覚効果を設計(例えば生成)できる1つ以上の対話型ユーザーインターフェースを生成することができる。例えば、プロセッサは、シミュレートされた現実環境に関連する1つ以上の入力パラメーター又はシミュレートされた現実環境(例えば、シミュレートされた現実環境における仮想物体の速度)とのユーザーの相互作用を示すユーザー入力を受け取ることができる対話型ユーザーインターフェースを生成することができる。プロセッサはまた、入力パラメーターに対する値の範囲を示すユーザー入力を受け取ることができる。一例として、プロセッサは、仮想物体の速度の範囲が、毎時0マイルから毎時60マイルの間であることを示すユーザー入力を受け取る。この例では、プロセッサはまた、入力パラメーターに関連付けることができる(例えば、入力パラメーターにマッピングすることができる)動的触覚効果の1つ以上の触覚パラメーターを示すユーザー入力を受け取ることができる。いくつかの例では、触覚パラメーターは、動的触覚効果(例えば、大きさ、持続時間、位置、種類、ピッチ、周波数、1つ以上の触覚効果間の間隔、波形、周期的触覚効果のパラメーターなど)の特徴であり、1つ以上の入力パラメーターにマッピングする(例えば、それと相関させる)ことができ、又はその逆も可能である。この例では、プロセッサは、入力パラメーターの1つ以上の値に対応する触覚パラメーターの1つ以上の値を示すユーザー入力も受け取ることができる。一例として、プロセッサは、仮想物体の毎時0マイルの速度が動的触覚効果の最大の大きさの0パーセントに対応し、毎時60マイルの速度が動的触覚効果の最大の大きさの100パーセントに対応することを示すユーザー入力を受け取る。
この例を続けると、プロセッサは、入力パラメーターを触覚パラメーターにマッピングするために、1つ以上のマッピングアルゴリズムを入力パラメーター及び触覚パラメーターに適用することができる(例えば、入力パラメーターと触覚パラメーターとの間の関連又は関係を決定する)。例えば、プロセッサは、例えば線形モデルのようなマッピングアルゴリズムが、シミュレートされた現実環境における対象物の速度である入力パラメーターと、動的触覚効果の大きさである触覚パラメーターとに適用することができることを示すデータを受け取り、入力パラメーターを触覚パラメーターにマッピングすることができる。この例では、プロセッサは、線形モデルを入力パラメーターと触覚パラメーターとに適用して、仮想物体の速度についての値の受け取った範囲内の値(例えば、毎時0マイルと毎時60マイルとの間)と動的触覚効果の大きさ(例えば、動的触覚効果の大きさの0パーセントと動的触覚効果の大きさの100パーセントとの間)との間のマッピング又は関連付けを決定することができる。一例として、プロセッサは、線形モデルに基づいて、動的触覚効果の速度及び大きさの値が、動的触覚効果の大きさが速度の値に従って線形に増加又は減少するようにマッピング又は関係を有することを決定することができる。この例では、プロセッサは次いで、マッピングに基づいて1つ以上の動的触覚効果を自動的に設計することができる。例えば、プロセッサは、毎時0及び60マイルの間の様々な速度値及び0と100パーセントとの間の対応する大きさ値を補間し、動的触覚効果について様々な速度値と対応する大きさ値との間の関係をマッピングすることによって1つ以上の動的触覚効果を設計することができる。この例では、動的触覚効果の1つ以上は、ユーザーがシミュレートされた現実環境と相互作用するときに仮想物体の速度に従って線形に増加又は減少するようにユーザーが動的触覚効果の大きさを知覚できるように(例えば、ユーザー装置の触覚出力装置を介して)ユーザーに出力することができる。
例示的実施形態では、プロセッサは、設計された動的触覚効果を分析し、設計された動的触覚効果と同様であり、様々な装置に適した1つ以上の追加の動的触覚効果を生成することができる。例えば、プロセッサは、設計された動的触覚効果が特定のユーザー装置又は触覚出力装置を対象としている(例えば、それに適している)ことを示すデータを(例えば、ユーザー入力を介して又は他の装置から)受け取り又は取得することができる。この例では、プロセッサは、設計された動的触覚効果を自動的に変換して、設計された動的触覚効果に類似し、他の様々なユーザー装置又は触覚出力装置に適した1つ以上の動的触覚効果を生成することができる。
一例として、プロセッサは、設計された動的触覚効果が、広範囲の周波数値をサポートする高精細触覚出力装置を含むユーザー装置に適していることを示すデータを受け取ることができる。この例では、プロセッサは、(例えば、入力パラメーターにマッピングされた1つ以上の周波数値を修正することによって)設計された動的触覚効果を変換して、より狭い範囲の周波数値をサポートする触覚出力装置を含む様々なユーザー装置に適することができる1つ以上の類似の動的触覚効果を生成することができる。
いくつかの例では、プロセッサは、様々な入力パラメーターを様々な触覚パラメーターにマッピングするために、1つ以上のマッピングアルゴリズムを任意の入力パラメーター及び任意の触覚パラメーターに個別に又は組み合わせて適用することができる。例えば、プロセッサは、シミュレートされた現実環境における物体の速度及び動的触覚効果の周波数にマッピングアルゴリズムを適用して速度を周波数にマッピングすることができる。別の例として、プロセッサは、物体の速度及び動的触覚効果の大きさにマッピングアルゴリズムを適用して、速度を大きさにマッピングすることができる。さらに別の例では、プロセッサは、動的触覚効果の大きさ及び周波数に速度をマッピングするために、物体の速度ならびに動的触覚効果の大きさ及び周波数の両方にマッピングアルゴリズムを適用することができる。
このようにして、本明細書に記載のシステム及び方法は、シミュレートされた現実環境のためのクロスプラットフォーム動的触覚効果を設計することができる。
これらの例示的な例は、本明細書で論じられる一般的主題を読者に紹介するために与えられており、開示された概念の範囲を限定することを意図していない。以下の節は、図面を参照して様々な追加の特徴及び実施例を説明し、図面において類似の番号は類似の要素を示し、指定された説明は例示的な例を説明するために用いられるが、例示的例のように、本開示を限定するために用いられるべきではない。
拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するためのシステムの例示的な例
図1は、一実施形態による、シミュレートされた現実環境(例えば、拡張現実環境又は仮想現実環境)のためのクロスプラットフォーム動的触覚効果を設計するためのシステム100を示すブロック図である。図1に示す実施形態では、システム100は、バス106を介して他のハードウェアと通信するプロセッサ102を有するコンピューティング装置101を含んでいる。コンピューティング装置101は、例えば、パーソナルコンピュータ、モバイル装置(例えば、携帯端末)を含んでもよい。いくつかの実施形態では、コンピューティング装置101は、図1に示す構成部品の全部又はいくつかを含んでもよい。
図1は、一実施形態による、シミュレートされた現実環境(例えば、拡張現実環境又は仮想現実環境)のためのクロスプラットフォーム動的触覚効果を設計するためのシステム100を示すブロック図である。図1に示す実施形態では、システム100は、バス106を介して他のハードウェアと通信するプロセッサ102を有するコンピューティング装置101を含んでいる。コンピューティング装置101は、例えば、パーソナルコンピュータ、モバイル装置(例えば、携帯端末)を含んでもよい。いくつかの実施形態では、コンピューティング装置101は、図1に示す構成部品の全部又はいくつかを含んでもよい。
メモリ104は、ランダムアクセスメモリ(「RAM」)、読み取り専用メモリ(「ROM」)、消去可能及びプログラム可能読み取り専用などの任意の適切な有形(及び非一時的)コンピュータ可読媒体を含むことができる。図示の実施形態では、コンピューティング装置101は、1つ以上のネットワークインターフェース装置108、入出力(I/O)インターフェース構成部品110、及び記憶装置112をさらに含んでいる。
ネットワークインターフェース装置108は、ネットワーク接続を容易にする任意の構成部品のうちの1つ以上を表すことができる。例には、イーサネット(登録商標)、USB、IEEE1394などの有線インターフェース、及び/又はIEEE802.11、Bluetooth(登録商標)などの無線インターフェース、又はセルラ電話ネットワークにアクセスするための無線インターフェース(例えば、CDMA、GSM(登録商標)、UMTS、又は他の移動通信ネットワークにアクセスするためのトランシーバ/アンテナ)が含まれるが、これらに限定されない。
I/O構成部品110は、1つ以上のディスプレイ114、ゲームコントローラ、キーボード、マウス、ジョイスティック、カメラ、ボタン、スピーカ、マイクロフォン、及び/又はデータの入力又は出力のために使用される他のハードウェアなどの装置への有線又は無線接続を容易にするために使用されてもよい。記憶装置112は、コンピューティング装置101に含まれるか又はプロセッサ102に接続された磁気、光学、又は他の記憶媒体などの不揮発性記憶装置を表している。
いくつかの実施形態では、システム100は、例えば、モバイル機器(例えば、スマートフォン)、タブレット、電子書籍リーダー、スマートウォッチ、ヘッドマウントディスプレイ、メガネ、携帯電話などのユーザー装置120、ウェアラブル装置、ハンドヘルド装置(ビデオゲームコントローラなど)、又はその他の種類のユーザーインターフェース装置を含んでもよい。いくつかの例では、ユーザー装置120は、シミュレートされた現実環境(例えば、拡張現実環境又は仮想現実環境)と相互作用するために使用することができる任意の種類のユーザーインターフェース装置とすることができる。
ユーザー装置120は、バス124を介して他のハードウェアと通信するプロセッサ122を含むことができる。ユーザー装置120はまた、メモリ126、ネットワークインターフェース装置128、I/O構成部品130、及びディスプレイ132を含むことができ、これらのそれぞれは、そうである必要はないが、メモリ104、ネットワークインターフェース装置108、I/O構成部品110、及びディスプレイ114と実質的に同じ方法で構成することができる。
いくつかの実施形態では、ユーザー装置120は、バス124に通信可能に接続することができ、ユーザーの触覚入力を感知するように構成することができるタッチ面134(例えば、タッチパッド又はタッチセンシティブ面)を含んでいる。この例では、ユーザー装置120は、ユーザーの触覚入力を感知するように構成されていると説明されているタッチ面134を含むが、本開示はそのような構成に限定されない。そうではなく、他の例では、ユーザー装置120は、タッチ面134及び/又は触覚入力を感知するように構成されてもよい任意の面を含むことができる。
いくつかの例では、ユーザー装置120は、ユーザー装置120のタッチ面134とディスプレイ132とを組み合わせたタッチ対応ディスプレイを含んでいる。タッチ面134は、ディスプレイ132上に重ね合わせてもよく、ディスプレイ132としてもよい。他の実施形態では、ユーザー装置120は、タッチ可能ディスプレイ上の1つ以上の仮想ユーザーインターフェース構成部品(例えばボタン)を含むグラフィカルユーザインターフェース(「GUI」)を表示してもよく、タッチ面134は、仮想ユーザーインターフェース構成部品との相互作用を可能にすることができる。
いくつかの実施形態では、ユーザー装置120は1つ以上のセンサー136を含んでいる。いくつかの実施形態では、センサー136は、例えば、ジャイロスコープ、加速度計、撮像センサー、カメラ、マイクロフォン、力センサー、圧力センサー、及び/又はユーザー装置とシミュレートされた現実環境(例えば、仮想現実環境又は拡張現実環境)との相互作用のユーザーに関する情報を検出、監視、又は他の方法で取り込むことができる他のセンサーを含んでもよい。例えば、センサー136は、ユーザーがシミュレートされた現実環境と相互作用するときのユーザーの動き又はユーザー装置120の動きに関する情報を取り込むことができる任意のセンサーとすることができる。別の例として、センサー136は、シミュレートされた現実環境におけるユーザーの仮想物体との接触による圧力の量又はユーザーの接触による圧力の量の変化に関する情報を取り込む圧力センサーとすることができる。
ユーザー装置120は、プロセッサ122と通信する触覚出力装置138をさらに含んでいる。触覚出力装置138は、触覚信号に応じて触覚効果を出力するように構成されている。例えば、触覚出力装置138は、コンピューティング装置101のプロセッサ102からの触覚信号に応じて触覚効果を出力することができる。別の例として、ユーザー装置120のプロセッサ122はコンピューティング装置101のプロセッサ102から触覚信号を受け取ることができ、プロセッサ122は触覚信号を触覚出力装置138に送ることができる。いくつかの実施形態では、触覚出力装置118は、例えば、振動、圧搾、突くこと、知覚された摩擦係数の変化、シミュレートされたテクスチャー、打つ感覚、電気触覚効果、表面変形(例えば、ユーザー装置120に関連する表面の変形)、及び/又は固体、液体、又は気体のひと吹きを含む触覚効果を出力するように構成されている。また、いくつかの触覚効果は、同じ又は異なる種類の複数の触覚出力装置138を順番に及び/又は協調して使用してもよい。
図1には単一の触覚出力装置138が示されているが、いくつかの実施形態は、触覚効果を生み出すために同じ又は異なる種類の複数の触覚出力装置138を使用してもよい。いくつかの実施形態では、触覚出力装置138は、ユーザー装置120の内部にあり、コンピューティング装置101と(例えば、イーサネット(登録商標)、USB、IEEE1394などの有線インターフェース、及び/又はIEEE802.11、ブルートゥース(登録商標)などの無線インターフェース、又はラジオインターフェースを介して)通信する。例えば、触覚出力装置138は、ユーザー装置120と関連付けられて(例えば、それに対して又はその中に接続され)、プロセッサ102又はプロセッサ122から触覚信号を受け取るように構成されてもよい。
触覚出力装置138は、例えば、圧電アクチュエータ、電気モータ、電磁アクチュエータ、ボイスコイル、形状記憶合金、電気活性ポリマー、ソレノイド、ソレノイド、偏心回転質量モータ(ERM)、線形共振アクチュエータ(LRA)、回転又はスケーラブル回転アクチュエータ(SRA)、超音波アクチュエータ、圧電材料、変形装置、静電アクチュエータ、金属、ポリマー、又は複合材料を含む形状記憶材料、又はソレノイド共振アクチュエータのうちの1つ以上を含んでもよい。いくつかの実施形態では、触覚出力装置138は、変形触覚効果を出力するように(例えば、ユーザー装置120に関連する表面を曲げる又は変形させるために)構成された流体を含んでいる。いくつかの実施形態では、触覚出力装置138は機械的変形装置を含んでいる。例えば、いくつかの実施形態では、触覚出力装置138は、変形構成部品を回転させるアームに結合されたアクチュエータを含んでもよい。アクチュエータは、圧電アクチュエータ、回転/線形アクチュエータ、ソレノイド、電気活性ポリマーアクチュエータ、マクロ繊維複合材(MFC)アクチュエータ、形状記憶合金(SMA)アクチュエータ、及び/又は他のアクチュエータを含んでもよい。本明細書で使用されるとき、用語「MFC要素」は、アクチュエータ及びセンサーの両方として作用する構成部品又は要素を指すために使用される。いくつかの例では、「MFC要素」という用語は、触覚効果を出力するためにエネルギーを使用するか、又は入力としてエネルギーを受け取るトランスデューサを指すために使用することができる。例えば、MFC素子は、MFC素子が押圧され、触れられ、曲げられたとき等にセンサーとして使用されることができる。この例では、MFC素子が押圧され、触れられ、曲げられたとき等、1つ以上のアクチュエータリード又は端子MFC素子のうちの1つは、マイクロコントローラによって検出、増幅、分析などが可能な電圧を伝えることができる。
コンピューティング装置101のメモリ104に目を向けると、モジュール140、142、144、146、及び148が、シミュレートされた現実環境のためのクロスプラットフォーム動的触覚効果を設計するためのいくつかの実施形態において装置をどのように構成できるかを示すために示される。いくつかの実施形態では、モジュール140、142、144、146、及び148は、1つ以上の動作を実行するようにプロセッサ102を構成することができるプロセッサ実行可能命令を含むことができる。
例えば、パラメーターモジュール140は、コンテンツ(例えば、テキスト、画像、音声、ビデオなど)をユーザー(例えば、コンピューティング装置101又はユーザー装置120のユーザー)に提供するためにプロセッサ102によって実行されることができる命令を含んでいる。
一例として、パラメーターモジュール140は、プロセッサ102によって実行されたときに、それを介してプロセッサ102がシミュレートされた現実環境のための動的触覚効果を設計するためのデータを(例えば、ユーザー入力を介して)受け取り又は取得することができる、1つ以上の対話型ユーザーインターフェースをプロセッサ102に生成及び出力させる(例えばディスプレイ114を介して)ようにさせる命令を含むことができる。例えば、パラメーターモジュール140は、プロセッサ102によって実行されると、それを介してプロセッサ102がシミュレートされた現実環境に関連する1つ以上の入力パラメーターを示すデータを受け取ることができる、対話型ユーザーインターフェースをプロセッサ102に生成させる命令を含むことができる。ユーザーのシミュレートされた現実環境との相互作用入力パラメーターの例には、それだけに限らないが、シミュレートされた現実環境における仮想物体の経路、速度、加速度、力など、又はユーザーとシミュレートされた現実環境との相互作用(例えば、ユーザーがシミュレートされた現実環境と相互作用するときのユーザーの動き又はユーザー装置120の動き)、シミュレートされた現実環境における仮想物体とのユーザーの接触の量、仮想環境内の物体のシミュレートされた特徴(例えば、テクスチャー、剛性など)、シミュレートされた現実環境内の物体間の仮想距離、又はシミュレートされた現実環境に関連する他の任意のパラメーターが含まれる。いくつかの実施形態では、プロセッサ102は、対話型ユーザーインターフェースを介して入力パラメーターについての値の範囲を示すデータを受け取ることができる。一例として、プロセッサ102は、シミュレートされた現実環境における仮想物体の速度の値の範囲が毎時0マイルから毎時100マイルの間であることを示すデータを受け取る。いくつかの実施形態では、入力パラメーター又は入力パラメーターの値(例えば、入力パラメーターの値の範囲)は、1つ以上の入力パラメーターに関する情報を取得するように構成されたセンサーから取得又は収集されたセンサデータに基づいてプロセッサ102によって決定又は計算できる。さらに別の例では、プロセッサ102は、メモリ104、記憶装置112若しくは他のデータベース、又は他の装置から入力パラメーターの値又は入力パラメーターの値の範囲を取得することができる。
いくつかの実施形態では、プロセッサ102は、対話型ユーザーインターフェースを介して、プロセッサ102によって設計することができる動的触覚効果の1つ以上の触覚パラメーターを示すデータを受け取ることができる。いくつかの実施形態では、触覚パラメーターは、1つ以上の入力パラメーターにマッピングする(相関する)ことができ、その逆も同様である動的触覚効果(例えば、大きさ、持続時間、位置、種類、ピッチ、周波数、1つ以上の触覚効果間の間隔、波形、周期的触覚効果のパラメーターなど)の特徴である。いくつかの例では、プロセッサ102は、対話型ユーザーインターフェースを介して、入力パラメーターの1つ以上の値に対応する触覚パラメーターの1つ以上の値を示すデータを受け取ることができる。一例として、プロセッサ102は、シミュレートされた現実環境における仮想物体の毎時0マイルの速度が動的触覚効果の最大の大きさの0パーセントに対応し、毎時100マイルの速度が動的触覚効果の最大の大きさの100パーセントに対応することを示すデータを受け取る。
いくつかの実施形態では、パラメーターマッピングモジュール142は、プロセッサ102によって実行されると、プロセッサ102に、1つ以上のマッピングアルゴリズムを受け取った入力パラメーター及び触覚パラメーターに適用して入力パラメーターを触覚パラメーターにマッピングする(例えば、入力パラメーターと触覚パラメーターとの間の関連又は関係を決定する)命令を含むことができる。いくつかの事例では、プロセッサ102は、入力パラメーターと触覚パラメーターとにマッピングアルゴリズムを適用して、入力パラメーターに基づいて触覚パラメーターをどのように変調できるかを定義又は決定することができる。いくつかの例では、パラメーターマッピングモジュール142は、プロセッサ102によって実行されたときに、プロセッサ102に、マッピングアルゴリズムを任意の入力パラメーター及び任意の触覚パラメーターに個別に又は組み合わせて適用して様々な入力パラメーターを様々な触覚パラメーターにマッピングする命令を含むことができる。例えば、プロセッサ102は、シミュレートされた現実環境内の物体の速度及び動的触覚効果の周波数にマッピングアルゴリズムを適用して、速度を周波数にマッピングすることができる。別の例として、プロセッサ102は、物体の速度及び動的触覚効果の大きさにマッピングアルゴリズムを適用して速度を大きさにマッピングすることができる。さらに別の例では、プロセッサ102は、物体の速度ならびに動的触覚効果の大きさ及び周波数の両方にマッピングアルゴリズムを適用して動的触覚効果の大きさ及び周波数に速度をマッピングすることができる。
いくつかの実施形態では、パラメーターマッピングモジュール142は、プロセッサ102によって実行されたときに、プロセッサ102に、例えば、線形モデル、指数モデル、対数モデル、カスタムモデル(例えば、データベース、又は他の装置からのユーザー入力を介してプロセッサ102によって取得されたモデル)、又は任意の他の適切なモデルのような1つ以上のマッピングアルゴリズムを入力パラメーター及び触覚パラメーターに適用させる命令を含み、入力パラメーターを触覚パラメーターマッピングすることができる。
例えば、プロセッサ102は、例えば線形モデルのようなマッピングアルゴリズムが、シミュレートされた現実環境における物体の速度である入力パラメーターと、動的触覚効果のピッチ(例えば、調性又は周波数)である触覚パラメーターとに適用され得ることを示すデータを受け取り、入力パラメーターを触覚パラメーターにマッピングすることができる。この例では、プロセッサ102は、線形モデルを入力パラメーター及び触覚パラメーターに適用して、物体の速度に関する値(例えば、0マイルと0マイルとの間の速度値)及び動的触覚効果のピッチ(例えば、最大ピッチの0パーセントと最大ピッチの100パーセントとの間)の受け取った範囲内の値の間のマッピング又は関連付けを決定することができる。一例として、プロセッサ102は、線形モデルに基づいて、速度値及びピッチ値が、動的触覚効果のピッチの値が速度値に比例して増加又は減少するようなマッピング又は関係を有すると決定することができる。
いくつかの例では、パラメーターマッピングモジュール142は、プロセッサ102によって実行されると、プロセッサ102に、決定されたマッピングに基づいて1つ以上の動的触覚効果を自動的に設計させる命令を含むことができる。例えば、プロセッサ102は、毎時0から100マイルの間の様々な速度値及び最大ピッチ値の0から100パーセントの間の対応するピッチ値を補間し、動的触覚効果についての様々な速度値及び対応するピッチ値の間の関係をマッピングすることによって、1つ以上の動的触覚効果を設計することができる。この例では、1つ以上の動的触覚効果は、ユーザーがシミュレートされた現実環境と相互作用するとき、ユーザーが仮想物体の速度に比例して増加又は減少するとして動的触覚効果のピッチを知覚することができるように、(例えば、ユーザー装置120の触覚出力装置138を介して)ユーザーに出力することができる。
別の例として、プロセッサ102は、例えば線形モデル又は異なるマッピングアルゴリズムなどのマッピングアルゴリズムが、シミュレートされた現実環境における物体の速度と、動的触覚効果の周波数である触覚パラメーターに適用できることを示すデータを受け取り、速度を周波数にマッピングすることができる。この例では、プロセッサ102は、速度及び周波数にマッピングアルゴリズムを適用して、物体の速度(例えば、毎時0マイルと100マイルと間の速度値)及び動的触覚効果の周波数(例えば、最大周波数の0パーセントと最大周波数の100パーセントとの間)についての値の受け取った範囲内の値の間のマッピング又は関連付けを上述のものと実質的に同じ方法で決定することができる。
いくつかの例では、パラメーターマッピングモジュール142は、プロセッサ102によって実行されたときに、プロセッサ102に、1つ以上のマッピングアルゴリズムを使用して入力パラメーターについての値の受け取った範囲内の値の1つ以上のサブセットを触覚パラメーターにマッピングさせる命令を含むことができる。
例えば、プロセッサ102は、シミュレートされた現実環境における仮想物体の速度の値の範囲が、毎時0マイルと毎時100マイルとの間であることを示すデータを受け取ることができる。プロセッサ102は、速度値の第1のサブセットが毎時0マイルと毎時60マイルとの間であること、及び速度値の第1のサブセットが動的触覚効果の最大の大きさの0パーセントから80パーセントの間の第1触覚パラメーター範囲に対応することを示すデータを受け取ることができる。この例では、プロセッサ102は、上記と実質的に同じ方法で、任意の適切なマッピングアルゴリズムを使用して、速度値の第1のサブセット内の速度値を第1の触覚パラメーター範囲にマッピングすることができる。この例を続けると、プロセッサ102は、速度値の第2のサブセットが毎時60マイルと毎時100マイルとの間であり、速度値の第2のサブセットが動的触覚効果の最大の大きさの80パーセントと100パーセントとの間である第2の触覚パラメーター範囲に対応することを示すデータを受け取ることができる。この例では、プロセッサ102は、上記と実質的に同じ方法で、任意の適切なマッピングアルゴリズムを使用して、速度値の第2のサブセット内の速度値を第2の触覚パラメーター範囲にマッピングすることができる。
この例では、プロセッサ102は、同じマッピングアルゴリズム又は異なるマッピングアルゴリズムを使用して、速度値の第1のサブセットの速度値を第1の触覚パラメーター範囲にマッピングし、速度値を第2のサブセットの速度値を第2の触覚パラメーター範囲にマッピングすることができる。いくつかの例では、プロセッサ102は、次いで、(例えば、速度値の第1又は第2のサブセット内の様々な速度値及び第1又は第2の触覚パラメーター範囲内の動的触覚効果についての対応する大きさの値を補間することによって)上記と実質的に同じ方法によるマッピングに基づいて1つ以上の触覚効果を生成又は設計することができる。一例として、プロセッサ102は、毎時0と毎時60マイルとの間の様々な速度値、及び最大の大きさの値の0と80パーセントとの間の対応する大きさの値を補間することによって、1つ以上の動的触覚効果を設計することができる。
このようにして、プロセッサ102は、入力パラメーター、触覚パラメーター、入力パラメーターの範囲、触覚パラメーターの範囲、又はマッピングアルゴリズムの様々な組み合わせを使用し、及び動的触覚効果を設計するためにマッピングされた触覚パラメーターを使用して様々な触覚パラメーターを入力パラメーターにマッピングすることによって様々な動的触覚効果を設計又は生成することができる。
いくつかの実施形態では、触覚効果決定モジュール144は、プロセッサ102によって実行されると、プロセッサ102に動的触覚効果を生成させるように決定させる命令を含んでいる。触覚効果決定モジュール144は、プロセッサ102によって実行されると、プロセッサ102に、1つ以上のアルゴリズム又はルックアップテーブルを使用して出力する1つ以上の動的触覚効果を選択させる命令を含むことができる。いくつかの実施形態では、触覚効果決定モジュール144は、様々な触覚効果に対応し、動的触覚効果を決定するためにプロセッサ102によって使用可能なデータを含む1つ以上のアルゴリズム又はルックアップテーブルを含んでいる。
特に、いくつかの実施形態では、触覚効果決定モジュール160は、プロセッサ102によって実行されたときに、シミュレートされた現実環境又はユーザーのシミュレートされた現実環境との相互作用(例えば、プロセッサ102によってユーザー装置のセンサー136から受け取られたセンサー信号)の少なくとも一部に基づいてプロセッサ102に動的触覚効果を決定させる命令を含むことができる。
例えば、センサー136は、ユーザーがシミュレートされた現実環境と相互作用してセンサー信号をプロセッサ102に送ったときに、ユーザーの動き(例えば、ユーザー装置120を保持又は装着しているユーザー)又はユーザー装置120のユーザーの動きを検出することができる。プロセッサ102は、センサー信号を受け取り、ユーザー又はユーザー装置120の動き及び/又はユーザー又はユーザー装置120の動きの特徴を決定してもよい。触覚効果決定モジュール160プロセッサ102は、決定された動き又は動きの特徴に関連する入力パラメーターを決定することができる。例えば、プロセッサ102は、ユーザーがユーザー装置120を特定の速度で動かしていると決定し、その速度がその特定の速度値の速度入力パラメーターであると決定することができる。この例では、プロセッサ102は、決定されたユーザーの動き、ユーザー装置120の動き、及び/又はその動きの特徴に少なくとも部分的に基づいて動的触覚効果を決定することができる。例えば、パラメーターマッピングモジュール142は、プロセッサ102に速度値にマッピングアルゴリズムを適用させて、上記と実質的に同じ方法で速度値に関連する触覚パラメーターを決定することができる。この例では、触覚効果決定モジュール160は、決定された触覚パラメーターを有する動的触覚効果(例えば、速度値に対応する大きさを有する動的触覚効果)をプロセッサ102に決定させることができる。
別の例として、センサー136は、シミュレートされた現実環境における仮想物体とのユーザーの接触の量に関する情報、又はユーザーの接触の圧力の量の変化に関する情報をキャプチャし、センサー信号をセンサーに送信することができる。プロセッサ102は、センサー信号を受け取って圧力の量又は圧力の変化を決定してもよい。パラメーターマッピングモジュール142は、プロセッサ102に圧力の量又は圧力の変化にマッピングアルゴリズムを適用させて、圧力量又は圧力の変化に関連する触覚パラメーターを上記と実質的に同じ方法で決定することができる。この例では、触覚効果決定モジュール160は、決定された触覚パラメーターを有する動的触覚効果(例えば、圧力の量又は圧力の変化に対応する周波数及び/又は期間を有する動的触覚効果)をプロセッサ102に決定させることができる。)
いくつかの例では、クロスプラットフォームモジュール146は、プロセッサ102によって実行されたときに、プロセッサ102に、設計された動的触覚効果を分析させ(例えば、パラメーターマッピングモジュール142を使用して設計された動的触覚効果の触覚パラメーターを分析させる)、設計された動的効果に類似し、様々な装置又はプラットフォームに適したものであり得る1つ以上の追加の動的触覚効果を生成させる。
例えば、プロセッサ102は、設計された動的触覚効果(例えば、プロセッサ102がパラメーターマッピングモジュール142に含まれる命令を実行することによって生成された動的触覚効果)が特定のユーザー装置又は触覚出力装置を対象としている(例えば、それに適している)ことを示すデータを(例えば、ユーザー入力を介して又は他の装置から)受け取り又は取得することができる。この例では、クロスプラットフォームモジュール146は、プロセッサ102によって実行されると、プロセッサ102に、設計された動的触覚効果を自動的に変換させて、設計された動的触覚効果と同様で触覚効果及び他の様々なユーザー装置又は触覚出力装置に適する1つ以上の動的触覚効果を生成させる命令を含むことができる。
一例として、プロセッサ102は、設計された動的触覚効果が、広範囲の周波数値をサポートする高精細触覚出力装置138を含むユーザー装置120に適することを示すデータを受け取ることができる。この例では、クロスプラットフォームモジュール146は、プロセッサ102によって実行されると、プロセッサ102に、(例えば、入力パラメーターにマッピングされた1つ以上の周波数値を修正することによって)設計された触覚効果を自動的に変換させ、より狭い範囲の周波数値をサポートする触覚出力装置を含む様々なユーザー装置(例えば、線形共振アクチュエータ又は回転式若しくは拡大縮小可能な回転アクチュエータ)に適し得る1つ以上の類似の動的触覚効果を生成させる命令を含むことができる。
別の例として、プロセッサ102は、ユーザーがそれを介してシミュレートされた現実環境と相互作用することができる様々なユーザー装置120の種類又は他の特徴(例えば、ユーザー装置120の触覚出力装置138の種類)を示すデータを受け取ることができる。
この例では、プロセッサ102は、ユーザー装置120の種類又は特徴に基づいて、設計された動的触覚効果を1つ以上の動的触覚効果に変換することができる。例えば、プロセッサ102は、仮想物体の速度の動的触覚効果の周波数へのマッピングに基づいて動的触覚効果を設計する。この例では、プロセッサ102は、ユーザー装置120又は触覚出力装置138の種類を示すデータを受け取ることができ、プロセッサ102は、ユーザー装置120が触覚出力装置138を介して出力するために動的触覚効果の周波数を修正又は構成することができないと決定することができる。この例では、プロセッサ102は、仮想物体の速度にマッピングすることができる1つ以上の他の触覚パラメーター(例えば大きさ)を決定して、もともと設計された動的触覚効果に対応し(例えば類似し)、ユーザー装置120及び触覚出力装置138に適する動的触覚効果を生成することができる
いくつかの実施形態では、触覚効果生成モジュール148は、プロセッサ102に、触覚信号を生成し、触覚出力装置(例えば、ユーザー装置120の触覚出力装置138又は別の触覚出力装置)に送信させ、設計された動的触覚効果を生成させるプログラミングを表している。いくつかの実施形態において、プロセッサ102は、触覚出力装置に触覚信号を送信して、触覚出力装置に、パラメーターマッピングモジュール142、触覚効果決定モジュール144に含まれた命令を実行するプロセッサ102によって設計又は生成される動的触覚効果を生成させることができる。いくつかの例では、触覚効果生成モジュール148は、プロセッサ102によって実行されると、プロセッサ102に、記憶された波形又はコマンドにアクセスさせて触覚出力装置に送信させて選択された動的触覚効果を作成する命令を含むことができる。例えば、触覚効果生成モジュール148は、プロセッサ102に、1つ以上の設計された動的触覚効果に関連する1つ以上の触覚信号を示すデータを含むルックアップテーブルにアクセスさせ、触覚出力装置に送信して特定の動的触覚効果を生成する波形を決定してもよい。いくつかの実施形態において、触覚効果生成モジュール148は、触覚信号を決定するためのアルゴリズムを含んでもよい。いくつかの実施形態では、触覚効果生成モジュール148は、プロセッサ102によって実行されると、プロセッサ102に、触覚効果のための目標座標(例えば、触覚効果を出力する場所のための座標)を決定させる命令を含んでもよい。いくつかの実施形態では、プロセッサ102は、1つ以上の触覚出力装置を含む触覚出力装置に触覚信号を送信することができる。そのような実施形態では、触覚効果生成モジュール148は、プロセッサ102に1つ以上の触覚出力装置に触覚信号を送信させて、選択された動的触覚効果を生成することができる。
図1の例示的システム100は一定数の構成部品を有するように描かれているが、他の実施形態では、例示的システム100は任意の数の追加の又は代替の構成部品を有する。また、上述のいくつかの例では、プロセッサ102は、入力パラメーター及び触覚パラメーターに適用するマッピングアルゴリズムを示す受け取ったデータに基づいて、入力パラメーターを触覚パラメーターにマッピングすることができるが、本開示はそのような構成に限定されない。むしろ、他の例では、プロセッサ102は、(例えば、入力パラメーターの値の範囲及び対応する触覚パラメーターの1つ以上の値に基づいて)入力パラメーター及び触覚パラメーターに適用して入力パラメーターを触覚パラメーターにマッピングするマッピングアルゴリズムを決定又は予測することができる。
拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するための例示的方法
図2は、一実施形態による、拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するための方法200を実行するためのステップのフローチャートである。いくつかの実施形態では、図2のステップは、プロセッサ、例えば汎用コンピュータ内のプロセッサ、モバイル装置、又はサーバによって実行可能なプログラムコードで実装することができる。いくつかの実施形態では、これらのステップは一群のプロセッサによって実施されてもよい。いくつかの実施形態では、図2に示される1つ以上のステップは省略されてもよく、又は異なる順序で実行されてもよい。同様に、いくつかの実施形態では、図2に示されていない追加のステップも実行することができる。例示目的のために、方法200のステップは、図1に示されるシステムに関して上記で説明された構成部品を参照して以下に説明されるが、他の実装形態も可能である。
図2は、一実施形態による、拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するための方法200を実行するためのステップのフローチャートである。いくつかの実施形態では、図2のステップは、プロセッサ、例えば汎用コンピュータ内のプロセッサ、モバイル装置、又はサーバによって実行可能なプログラムコードで実装することができる。いくつかの実施形態では、これらのステップは一群のプロセッサによって実施されてもよい。いくつかの実施形態では、図2に示される1つ以上のステップは省略されてもよく、又は異なる順序で実行されてもよい。同様に、いくつかの実施形態では、図2に示されていない追加のステップも実行することができる。例示目的のために、方法200のステップは、図1に示されるシステムに関して上記で説明された構成部品を参照して以下に説明されるが、他の実装形態も可能である。
方法200は、シミュレートされた現実環境のための動的触覚効果を設計するためのデータを取得又は受け取るための対話型ユーザーインターフェースが生成されるときにステップ202で開始する。
いくつかの実施形態では、コンピューティング装置101のパラメーターモジュール140は、コンピューティング装置101のプロセッサ102に、それを介してプロセッサ102がシミュレートされた現実環境のための動的触覚効果を設計するための(例えば、ユーザー入力を介して)データを受け取り又は取得することができる1つ以上の対話型ユーザーインターフェースを生成及び(例えば、コンピューティング装置101のディスプレイ114を介して)出力させる。
方法200は、シミュレートされた現実環境か又はシミュレートされた現実環境とのユーザーの相互作用に関連する入力パラメーターを示すデータが対話型ユーザーインターフェースを介して取得されるときにステップ204で継続する。
いくつかの実施形態では、プロセッサ102は、対話型ユーザーインターフェースを生成し(例えばステップ202で)、それを介してプロセッサ102は、シミュレートされた現実環境シミュレートされた現実環境とのユーザーの相互作用に関連する1つ以上の入力パラメーターを示すデータを(例えばユーザー入力を介して)受け取ることができる。一例として、シミュレートされた現実環境は、ユーザーが仮想ペイントブラシを使用して環境と相互作用することができるシミュレートされた塗装環境を含むことができる。この例では、ステップ204でプロセッサ102が受け取ることができる入力パラメーターの例は、これに限定されないが、ユーザーがシミュレートされた現実環境でペイントすることができる速度(例えばペイントブラシ仮想速度)仮想ペイントブラシの移動距離又は経路、仮想ペイントブラシのサイズ、ユーザーの動きに関連するパラメーター(例えば、ユーザーの動き又はヘッドマウントディスプレイの回転)、シミュレートされた現実環境における仮想物体とのユーザーの接触、仮想環境における物体のシミュレートされた特徴(例えば、テクスチャー、剛性など)、シミュレートされた現実環境における物体間の仮想距離、又はシミュレートされた現実環境若しくはシミュレートされた現実環境とのユーザーの相互作用の他の任意のパラメーターを含むことができる。いくつかの例では、ステップ204において、プロセッサ102は、対話型ユーザーインターフェースを介して、入力パラメーターに対する値の範囲を示すデータを受け取ることができる。一例として、プロセッサ102は、シミュレートされた現実環境における仮想自動車の速度の値の範囲が、毎時0マイルと毎時60マイルとの間にあることを示すデータを受け取ることができる。
方法200は、触覚パラメーターを示すデータが対話型ユーザーインターフェースを介して取得されたときにステップ206で継続する。いくつかの実施形態では、プロセッサ102は、ユーザーインターフェースを介して、プロセッサ102によって設計することができる動的触覚効果の1つ以上の触覚パラメーターを示すデータを受け取ることができる。
いくつかの実施形態では、触覚パラメーターは、例えば波形の形状(例えば、正弦波、方形波、三角波、方形波、のこぎり波など)を含む周期的動的触覚効果(例えば、周期的波形に基づいて生成することができる動的触覚効果)のパラメーター又は特徴とすることができる。別の例では、触覚パラメーターは、1つ以上の入力パラメーターに対してマッピングすることができる(例えば、それと相関する)、又はその逆である動的触覚効果の任意の特徴(例えば、大きさ、持続時間、位置、種類、ピッチ、周波数、1つ以上の触覚効果間の間隔、波形など)であり得る。
いくつかの例では、プロセッサ102は、対話型ユーザーインターフェースを介して、入力パラメーターの1つ以上の値に対応する触覚パラメーターの1つ以上の値を示すことを受け取ることができる。一例として、プロセッサ102は、仮想自動車の毎時0マイルの速度が動的触覚効果の最大の大きさの0パーセントに対応し、毎時60マイルの速度が動的触覚効果の最大の大きさの100パーセントに対応することを示すユーザー入力を受け取る。
例えば、図3は、一実施形態による拡張又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するために(例えば、図2のステップ202において)生成することができる対話型ユーザーインターフェース300の一例である。この例では、図1のコンピューティング装置101のプロセッサ102は、対話型ユーザーインターフェース300を生成し、ディスプレイ(例えばディスプレイ114)を介して対話型ユーザーインターフェース300を表示することができる。
図3に示す例では、プロセッサ102は、対話型ユーザーインターフェース300を介して、入力パラメーターが仮想車両の速度を含み、速度が毎時0マイルから毎時0マイルと毎時300マイルとの間の範囲を有することができることを示すデータを受け取ることができる。この例では、プロセッサ102はまた、第1の触覚パラメーターが動的触覚効果の強さ(例えば大きさ)を含み、第2の触覚パラメーターが動的触覚効果のピッチ(例えば調性又は他の周波数に基づく音響特徴であり得る)を含むことを示すデータを受け取ることができる。この例では、プロセッサ102は、仮想車両の毎時0マイルの速度が動的触覚効果の最大の強さの0パーセントに対応し、毎時300マイルの速度が動的触覚効果の最大の強さの100パーセントに対応することを示すデータを受け取ることができる。この例では、プロセッサ102は、毎時0マイルの速度が動的触覚効果のピッチの最大値(例えば1の値)に対応し、毎時300マイルの速度が動的触覚効果のピッチの最小値(例えば0の値)に対応することを示すデータを受け取ることもできる。
図2に戻って、マッピングアルゴリズムを用いて入力パラメーターが触覚パラメーターにマッピングされると、方法200はステップ208で継続する。例えば、プロセッサ102は、マッピングアルゴリズムを使用して、入力パラメーター(例えば、ステップ204で取得した入力パラメーター)を触覚パラメーター(例えば、ステップ206で取得した触覚パラメーター)にマッピングすることができる。
例えば、パラメーターマッピングモジュール142は、プロセッサ102に受け取られた入力パラメーター及び触覚パラメーターに1つ以上のマッピングアルゴリズムを適用させて入力パラメーターを触覚パラメーターにマッピングすることができる(例えば、入力パラメーターと触覚パラメーターとの間の関連又は関係を決定する)。いくつかの事例では、プロセッサ102は、入力パラメーター及び触覚パラメーターにマッピングアルゴリズムを適用して、入力パラメーターに基づいて触覚パラメーターをどのように変調できるかを定義又は決定することができる。いくつかの例では、プロセッサ102は、任意の入力パラメーター及び任意の触覚パラメーターに個々に又は組み合わせてマッピングアルゴリズムを適用して、様々な入力パラメーターを様々な触覚パラメーターにマッピングすることができる。
いくつかの実施形態では、プロセッサ102は、例えば線形モデル、指数モデル、対数モデル、カスタムモデル(例えば、データベース、又は他の装置からユーザーを介してプロセッサ102によって取得されたモデル)又は任意の他の適切なモデルなどの1つ以上のマッピングアルゴリズムを入力パラメーター及び触覚パラメーターに適用して、入力パラメーターを触覚パラメーターにマッピングすることができる。
例えば、図3を参照すると、プロセッサ102は、仮想車両の速度及び動的触覚効果の強さにマッピングアルゴリズムを適用して、速度を強さにマッピングすることができる。この例では、プロセッサ102は、マッピングアルゴリズムを車両の速度及び動的触覚効果のピッチに適用して、速度をピッチにマッピングすることもできる。この例では、プロセッサ102は、動的触覚効果の速度と強さとの間の個々のマッピング、及び動的触覚効果の速度とピッチとの間の別のマッピングを決定することができる。
場合によっては、プロセッサ102は、1つ以上の入力パラメーターの1つ以上の触覚パラメーターへのマッピングを示すマッピング曲線を生成して出力することができる。例えば、図3に示す例では、プロセッサ102は、動的触覚効果の強さに対する速度のマッピングを示すマッピング曲線302と、動的触覚効果のピッチに対する速度のマッピングを示すマッピング曲線304とを生成することができる。この例では、プロセッサ102は、線形モデルを速度値及び強さの値に適用して速度を強さにマッピングすることができ、マッピング曲線302は速度と強さとの間の線形関係又はマッピングを示している。プロセッサ102はまた、線形モデルを速度値及びピッチ値に適用して速度をピッチにマッピングすることができ、マッピング曲線302は速度とピッチとの間の線形関係又はマッピングを示している。
この例では、プロセッサ102は、速度及び強さの値がマッピング又は関係を有し、速度の値が増加するにつれて動的触覚効果の強さが線形に増加するようであると決定することができる。プロセッサ102はまた、速度及びピッチの値がマッピング又は関係を有し、速度の値が増加するにつれて動的触覚効果のピッチが線形に減少するようであると決定することもできる。
上述の例では、プロセッサ102は、同じマッピングアルゴリズムを適用して、速度を強さにマッピングし、速度をピッチにマッピングするが、本開示はそのような構成に限定されない。むしろ、他の例では、プロセッサ102は、同じ又は異なるマッピングアルゴリズムを入力パラメーターと触覚パラメーターとの任意の組み合わせに適用することができる。一例として、プロセッサ102は、線形モデルを速度及び強さの値に適用して速度を強さにマッピングし、指数モデルを速度及びピッチの値に適用して速度をピッチにマッピングすることができる。
図2に戻って、いくつかの例では、ステップ208において、プロセッサ102は、1つ以上のマッピングアルゴリズムを使用して、入力パラメーターについての値の受け取られた範囲内の値の1つ以上のサブセットを触覚パラメーターにマッピングすることができる。
例えば、図4を参照すると、ステップ208において、プロセッサ102は、線形モデルを用いて仮想物体の速度を触覚パラメーターにマッピングし、速度から触覚パラメーターへの線形マッピングを描く対話型ユーザーインターフェース400を生成することができる。
別の例では、図5Aを参照すると、ステップ208で、プロセッサ102は、1つ以上のマッピングアルゴリズムを使用して、仮想物体の速度(又は他の入力パラメーター)に関する受け取られた値範囲内の様々な値のサブセットを触覚パラメーターにマッピングすることができる。
例えば、この例では、プロセッサ102は、シミュレートされた現実環境における仮想物体の速度の値の範囲が、毎時0マイルと毎時1マイルとの間であることを示すデータを受け取ることができる。プロセッサ102は、仮想物体の速度値の第1のサブセットが毎時0.3マイルと毎時0.7マイルとの間であり、動的効果の触覚パラメーターの最大値の0パーセントと100パーセントとの間の触覚パラメーター範囲に対応することを示すデータを受け取ることができる。この例では、プロセッサ102は、線形モデルを使用して仮想物体の速度を触覚パラメーターにマッピングし、速度の触覚パラメーターへの線形マッピングを描く対話型ユーザーインターフェース500を生成することができる。図5に描いた例では、プロセッサ102は、マッピングに基づいて、いかなる触覚パラメーター値も毎時0マイルと毎時0.3マイルとの間及び毎時0.7マイルと毎時1マイルとの間の速度範囲に対応しないと決定することができる。
図5Bに示す例では、プロセッサは、例えば指数モデルを含む別のモデルを使用して、別のマッピングアルゴリズムを適用して仮想物体の速度の第1のサブセット範囲を触覚パラメーター範囲にマッピングすることができる。
図2に戻ると、方法200は、入力パラメーターを触覚パラメーターにマッピングすることに少なくとも部分的に基づいて動的効果が設計されるときにステップ210で継続する。いくつかの実施形態では、プロセッサ102は動的触覚効果を設計又は生成することができる。
例えば、パラメーターマッピングモジュール142は、プロセッサ102に、1つ以上の動的触覚効果を自動的に設計させることができる。
例えば、プロセッサは、入力パラメーターの様々な値(例えば、仮想物体の速度)及び対応する触覚パラメーターの値を補間し、様々な入力パラメーター値と動的触覚効果についての対応する触覚パラメーター値との間の関係をマッピングすることによって、1つ以上の動的触覚効果を設計することができる。
方法200は、設計された動的触覚効果(例えば、ステップ210でプロセッサ102によって設計された動的触覚効果)に少なくとも部分的に基づいて、複数のユーザー装置についての複数の動的触覚効果が生成されるとき、ステップ212で継続する。いくつかの実施形態において、プロセッサ102は、設計された動的触覚効果に少なくとも部分的に基づいて、複数のユーザー装置のための複数の動的触覚効果を生成する。
例えば、クロスプラットフォームモジュール146は、プロセッサ102に、設計された動的触覚効果(例えば、ステップ210でパラメーターマッピングモジュール142を使用して設計された動的触覚効果の触覚パラメーター)を分析させ、設計された動的触覚効果と類似であり、様々な装置又はプラットフォームに適した1つ以上の追加の動的触覚効果を生成することができる。
例えば、プロセッサ102は、設計された動的触覚効果(例えば、プロセッサ102がパラメーターマッピングモジュール142に含まれた命令を実行することによって生成された動的触覚効果)が特定のユーザー装置又は触覚出力装置を対象としている(例えば、それに適している)ことを示すデータを(例えば、ユーザー入力を介して又は他の装置から)受け取り又は取得することができる。この例では、クロスプラットフォームモジュール146は、プロセッサ102によって実行されると、プロセッサ102に設計された動的触覚効果を自動的に変換させて、設計された動的触覚効果と類似で触覚効果及び他の様々なユーザー装置、触覚出力装置、又はプラットフォームに適する1つ以上の動的触覚効果を生成させる命令を含むことができる。
一例として、プロセッサ102は、設計された動的触覚効果が広範囲の周波数値をサポートする高精細触覚出力装置を含むユーザー装置に適していることを示すデータを受け取ることができる。この例では、クロスプラットフォームモジュール146は、プロセッサ102によって実行されたときに、プロセッサ102に、設計された動的触覚効果を変換させて(例えば、入力パラメーターにマッピングされた1つ以上の周波数値を修正することによって)、より狭い範囲の周波数値をサポートする触覚出力装置を含む様々なユーザー装置(例えば、線形共振アクチュエータ又は回転若しくは拡大縮小可能な回転アクチュエータ)に適し得る1つ以上の類似の動的触覚効果を生成させる。
図6は、一実施形態による拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚を設計するための方法600を実行するためのステップのフローチャートである。いくつかの実施形態では、図6のステップは、プロセッサ、例えば汎用コンピュータ内のプロセッサ、モバイル装置、又はサーバによって実行可能なプログラムコードで実装することができる。いくつかの実施形態では、これらのステップは一群のプロセッサによって実施されてもよい。いくつかの実施形態では、図6に示される1つ以上のステップは省略されてもよく、又は異なる順序で実行されてもよい。同様に、いくつかの実施形態では、図6に示されていない追加のステップも実行することができる。例示目的のために、方法600のステップは、図1に示されるシステムに関して上記で説明された構成部品を参照して以下に説明されるが、他の実装形態も可能である。
方法600は、シミュレートされた現実環境又はシミュレートされた現実環境とのユーザーの相互作用に関連する入力パラメーターを示すデータが対話型ユーザーインターフェースを介して取得されたときにステップ602で継続する。
いくつかの実施形態では、コンピューティング装置のプロセッサ102は、それを介してプロセッサ102がシミュレートされた現実環境又はシミュレートされた現実環境とのユーザーの相互作用の関連する1つ以上の入力パラメーターを示すデータを受け取ることができる対話型ユーザーインターフェースを生成できる。図6に描かれた例では、入力パラメーターは、これらに限定されないが、シミュレートされた現実環境における仮想物体の速度、仮想物体の移動距離、ユーザーが仮想物体に接触することによるユーザーの圧力の量、ユーザーによる仮想物体の圧搾などを含むことができる。
いくつかの実施形態では、ステップ602において、プロセッサ102は受け取った入力パラメーターに1つ以上のアルゴリズムを適用することができる。いくつかの例では、プロセッサ102は、パラメーターの種類又は特徴に基づいて受け取った入力パラメーターに適用するためのアルゴリズムを決定することができる。例えば、図6に描かれた例では、プロセッサ102は、シミュレートされた現実環境における仮想物体の速度である入力パラメーターに速度アルゴリズムを適用することができる。いくつかの例では、プロセッサ102は、仮想物体の移動距離である入力パラメーターに空間アルゴリズムを適用することができる。別の例では、プロセッサ102は、ユーザーの仮想物体との接触の量である入力パラメーターに圧力アルゴリズムを適用することができる。さらに別の例では、プロセッサ102は、ユーザーの仮想物体の圧搾に対応する入力パラメーターに圧搾アルゴリズムを適用することができる。
いくつかの例では、ステップ602において、プロセッサ102は、受け取った入力パラメーターに特定のアルゴリズムを適用して、その入力パラメーターに関連する動的触覚効果を実現すべきか又は生成すべきかを決定することができる。
例えば、方法600は、受け取った入力パラメーターに適用された特定のアルゴリズムに基づいて、入力パラメーターに関連する動的触覚効果を再生するか生成するかをプロセッサ102が決定するときにステップ604で継続する。
ステップ604で、受け取った入力パラメーターに関連する動的触覚効果をプレイ又は生成するべきではないとプロセッサ102が決定した場合、方法600はステップ602に戻り、プロセッサ102は1つ以上の追加の入力パラメーターを受け取り、ステップ604で、入力パラメーターに関連する動的触覚効果を実現するか生成するかを決定することができる。
ステップ604において、受け取った入力パラメーターに関連する動的触覚効果を実現又は生成すべきであるとプロセッサ102が決定した場合、プロセッサ102が受け取った入力パラメーターを正規化したときに方法600はステップ606で継続する。
方法600は、プロセッサ102が入力パラメーターを触覚パラメーターにマッピングしたとき(例えば、図2のステップ208において)、ステップ608で継続する。例えば、プロセッサ102は、マッピングアルゴリズムを用いて入力パラメーターを触覚パラメーターにマッピングすることができる。いくつかの例では、触覚パラメーターは、プロセッサ102によって設計することができる動的触覚効果の任意の特徴とすることができる。例えば、図6に描かれた例では、触覚パラメーターは強さ(例えば大きさ)、ピッチ(例えば、調性又は周波数に基づくことができる他の音響特徴)、又は動的触覚効果の任意の他の触覚パラメーター(例えば、持続時間、位置、種類、周波数など)を含むことができる。
例えば、ステップ608において、パラメーターマッピングモジュール142は、プロセッサ102に、1つ以上のマッピングアルゴリズムを受け取った入力パラメーター及び触覚パラメーターに適用させ、入力パラメーターを触覚パラメーターにマッピングさせることができる(例えば、入力パラメーターと触覚パラメーターとの間の関連又は関係を決定する)。いくつかの事例では、プロセッサ102は、入力パラメーターと触覚パラメーターとにマッピングアルゴリズムを適用して、入力パラメーターに基づいて触覚パラメーターをどのように変調できるかを定義又は決定することができる。いくつかの例では、プロセッサ102は、マッピングアルゴリズムを任意の入力パラメーター及び任意の触覚パラメーターに個々に又は組み合わせて適用して、様々な入力パラメーターを様々な触覚パラメーターにマッピングすることができる。
いくつかの実施形態では、プロセッサ102は、例えば、線形モデル、指数モデル、対数モデル、カスタムモデル(例えば、ユーザーを介して、データベース、又は他の装置からプロセッサ102によって取得されたモデル)、又は任意の他の適切なモデルなどの1つ以上のマッピングアルゴリズムを入力パラメーター及び触覚パラメーターに適用して、入力パラメーター及び触覚パラメーターにマッピングすることができる。
図6に描かれた例では、ステップ608において、プロセッサ102は、マッピングアルゴリズムを任意の入力パラメーター(例えば、シミュレートされた現実環境における仮想物体の速度、仮想物体の移動距離、ユーザーの仮想物体との接触の圧力の量、又はユーザーの仮想物体の圧搾)及び任意の触覚パラメーター(例えば、動的触覚効果の強さ、ピッチなど)に個々に、又は組み合わせて適用することができ、様々な入力パラメーターを様々な触覚パラメーターへマッピングすることができる。
一例として、ステップ608において、プロセッサ102は、仮想物体の速度と動的触覚効果の強さとにマッピングアルゴリズムを適用して、上記と実質的に同じ方法で仮想物体の速度と動的触覚効果の強さとの間の関連又は関係を決定することができる。別の例として、プロセッサ102は、仮想物体の移動距離及び動的触覚効果のピッチにマッピングアルゴリズムを適用して、上記と実質的に同じ方法で仮想物体の移動距離と動的触覚効果のピッチとの間の関連又は関係を決定することができる。
方法600は、入力パラメーターを触覚パラメーターにマッピングすることに少なくとも部分的に基づいて動的効果が設計又は生成されたとき(ステップ608)、ステップ610で継続する。いくつかの実施形態では、プロセッサ102は、動的触覚効果を設計又は生成することができる。
例えば、パラメーターマッピングモジュール142は、プロセッサ102に、1つ以上の動的触覚効果を自動的に設計又は生成させることができる。例えば、プロセッサ102は、様々な値の入力パラメーター(例えば、仮想物体の速度)及び対応する触覚パラメーターの値(例えば、触覚効果の強さ)を補間し、入力パラメーターと触覚パラメーターの様々な値の間の関係をマッピングすることによって、1つ以上の動的触覚効果を設計又は生成することができる。
上述のいくつかの例では、プロセッサ102は、マッピングアルゴリズムを示すユーザー入力に基づいて入力パラメーターを触覚パラメーターにマッピングすることができるが、本開示はそのような構成に限定されない。むしろ、他の例では、プロセッサ102は、入力パラメーター及び触覚パラメーターに適用するためのマッピングアルゴリズムを決定又は予測することができる。一例として、プロセッサは、入力パラメーター及び触覚パラメーターの対応する値の受け取った範囲に基づいて1つ以上の曲線適合操作を実行することによってマッピングアルゴリズムを決定することができる。
一般的な考慮事項
上述の方法、システム、及び装置は例である。様々な構成は、必要に応じて様々な手順又は構成部品を省略、置換、又は追加することができる。例えば、代替の構成では、方法は説明されたものとは異なる順序で実行されてもよく、及び/又は様々な段階が追加、省略、及び/又は組み合わされてもよい。また、特定の構成に関して説明された特徴は、他の様々な構成において組み合わせてもよい。構成の異なる態様及び要素は同様の方法で組み合わされてもよい。また、技術は進化しており、したがって、要素の多くは例であり、本開示又は特許請求の範囲を限定するものではない。
上述の方法、システム、及び装置は例である。様々な構成は、必要に応じて様々な手順又は構成部品を省略、置換、又は追加することができる。例えば、代替の構成では、方法は説明されたものとは異なる順序で実行されてもよく、及び/又は様々な段階が追加、省略、及び/又は組み合わされてもよい。また、特定の構成に関して説明された特徴は、他の様々な構成において組み合わせてもよい。構成の異なる態様及び要素は同様の方法で組み合わされてもよい。また、技術は進化しており、したがって、要素の多くは例であり、本開示又は特許請求の範囲を限定するものではない。
例示的な構成(実装形態を含む)の徹底的な理解を提供するために、説明において具体的な詳細が与えられている。しかしながら、構成はこれらの具体的な詳細なしで実施されてもよい。例えば、構成を不明瞭にすることを回避するために、不必要な詳細なしに、周知の回路、プロセス、アルゴリズム、構造、及び技法が示されている。この説明は例示的な構成のみを提供するものであり、特許請求の範囲、適用性、又は構成を限定するものではない。むしろ、構成に関する前述の説明は、説明された技法を実施するための実施可能な説明を当業者に提供するであろう。本開示の要旨又は範囲から逸脱することなく、要素の機能及び配置に様々な変更を加えることができる。
また、構成は、流れ図又はブロック図として描かれるプロセスとして説明され得る。それぞれが動作を逐次プロセスとして説明することがあるが、動作の多くは並行して又は同時に実行することができる。また、動作の順序は並べ替えられてもよい。プロセスには、図に含まれていない追加のステップがある場合がある。さらに、方法の例は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はそれらの任意の組み合わせによって実装され得る。ソフトウェア、ファームウェア、ミドルウェア、又はマイクロコードで実施されるとき、必要なタスクを実行するためのプログラムコード又はコードセグメントは、記憶媒体などの非一時的コンピュータ可読媒体に格納されてもよい。プロセッサは説明されたタスクを実行してもよい。
いくつかの例示的な構成を説明してきたが、本開示の要旨から逸脱することなく、様々な修正形態、代替構造、及び等価物を使用してもよい。例えば、上記の要素は、より大きなシステムの構成部品としてもよく、その場合、他の規則が本発明の適用に優先するか又はそうでなければ本発明の適用を修正してもよい。また、上記の要素が考慮される前、その間、又はその後に、いくつかのステップを踏んでもよい。したがって、上記の説明は特許請求の範囲を限定するものではない。
本明細書における「適合」又は「構成」の使用は、追加のタスク又はステップを実行するように構成又は構成された装置を排除しない、オープンで包括的な表現を意味する。さらに、「に基づく」の使用は、1つ以上の列挙された条件又は値に「基づく」プロセス、ステップ、計算、又は他の動作が、実際には追加の条件、又は列挙されたものを超える値に基づいてもよいという意味で、オープンかつ包括的であることを意味する。本明細書に含まれる見出し、リスト、及び番号付けは、説明を容易にするためだけのものであり、限定的であることを意味するものではない。
本主題の態様による実施形態は、デジタル電子回路内、コンピュータハードウェア内、ファームウェア内、ソフトウェア内、又はそれらの組み合わせ内で実装することができる。一実施形態では、コンピュータは1つ以上のプロセッサを含んでもよい。プロセッサは、プロセッサに接続されたランダムアクセスメモリ(RAM)などのコンピュータ可読媒体を含むか、又はこれにアクセスする。プロセッサは、センササンプリングルーチン、選択ルーチン、及び他のルーチンを含む1つ以上のコンピュータプログラムを実行するなど、メモリに格納されたコンピュータ実行可能プログラム命令を実行して、上述の方法を実行する。
そのようなプロセッサは、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、及び状態機械を含んでもよい。そのようなプロセッサは、PLC、プログラマブル割り込みコントローラ(PIC)、プログラマブルロジック装置(PLD)、プログラマブルリードオンリーメモリ(PROM)、電子的プログラマブルリードオンリーメモリ(EPROM又はEEPROM)、又は他の類似の装置などのプログラマブル電子装置をさらに含んでもよい。
そのようなプロセッサは、プロセッサによって実行されると、プロセッサによって、実行されるように本明細書に記載されるか、又は支援されるステップをプロセッサに実行させることができる命令を格納することができる媒体、例えば有形のコンピュータ可読媒体を含むか、又はそれと通信してもよい。コンピュータ可読媒体の実施形態は、ウェブサーバ内のプロセッサなどのプロセッサにコンピュータ可読命令を提供することができるすべての電子、光、磁気、又は他の記憶装置を含んでもよいが、それらに限定されない。媒体の他の例は、フロッピーディスク、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成されたプロセッサ、すべての光媒体、すべての磁気テープ又は他の磁気媒体、又は他の任意のコンピュータプロセッサが読み取ることができる媒体を含むが、これらに限定されない。また、他の様々な装置は、ルータ、プライベート又はパブリックネットワーク、又は他の伝送装置などのコンピュータ可読媒体を含んでもよい。本明細書のプロセッサ及び処理は、1つ以上の構造内にあってもよく、1つ以上の構造を通して分散されてもよい。プロセッサは、本明細書に記載の方法(又は方法の一部)のうちの1つ以上を実行するためのコードを含んでもよい。
本主題をその特定の実施形態に関して詳細に説明してきたが、当業者であれば、前述の理解に達すると、以下のものに対する変更、変形、及び均等物を容易に生み出すことができることを理解されよう。そのような実施形態。したがって、本開示は、限定ではなく例示を目的として提示されたものであり、当業者には容易に明らかとなるように本主題へのそのような修正、変形、及び/又は追加を含むことを排除しない。
Claims (1)
- 処理装置と、前記処理装置に通信可能に接続された非一時的コンピュータ可読媒体とを含むコンピューティング装置を含み、前記処理装置は、
シミュレートされた現実環境のための動的触覚効果を設計するためのデータを取得するための対話型ユーザーインターフェースを生成し、
前記対話型ユーザーインターフェースを介して前記シミュレートされた現実環境に関連する入力パラメーター又は前記シミュレートされた現実環境とのユーザー相互作用を示すデータを取得し、
前記対話型ユーザーインターフェースを介して触覚パラメーターを示すデータを取得し、
マッピングアルゴリズムを用いて、前記入力パラメーターを前記触覚パラメーターにマッピングし、
前記入力パラメーターを前記触覚パラメーターにマッピングすることに少なくとも部分的に基づいて動的触覚効果を設計し、
前記設計された動的触覚効果に少なくとも部分的に基づいて複数のユーザー装置のための複数の動的触覚効果を生成すること
を含む操作を実行するように構成されたシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/958,988 | 2018-04-20 | ||
US15/958,988 US10684689B2 (en) | 2018-04-20 | 2018-04-20 | Cross-platform dynamic haptic effect design tool for augmented or virtual reality environments |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019192238A true JP2019192238A (ja) | 2019-10-31 |
Family
ID=66239911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019078645A Pending JP2019192238A (ja) | 2018-04-20 | 2019-04-17 | 拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚効果設計ツール |
Country Status (5)
Country | Link |
---|---|
US (1) | US10684689B2 (ja) |
EP (1) | EP3557385A1 (ja) |
JP (1) | JP2019192238A (ja) |
KR (1) | KR20190122570A (ja) |
CN (1) | CN110389657A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021192712A1 (ja) * | 2020-03-27 | 2021-09-30 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8098235B2 (en) | 2007-09-28 | 2012-01-17 | Immersion Corporation | Multi-touch device having dynamic haptic effects |
WO2010042884A2 (en) | 2008-10-10 | 2010-04-15 | Internet Services, Llc | Haptic otuput device for use with haptic encoded media |
US9116546B2 (en) * | 2012-08-29 | 2015-08-25 | Immersion Corporation | System for haptically representing sensor input |
US8947216B2 (en) | 2012-11-02 | 2015-02-03 | Immersion Corporation | Encoding dynamic haptic effects |
US9898084B2 (en) | 2012-12-10 | 2018-02-20 | Immersion Corporation | Enhanced dynamic haptic effects |
US9274603B2 (en) * | 2013-05-24 | 2016-03-01 | Immersion Corporation | Method and apparatus to provide haptic feedback based on media content and one or more external parameters |
WO2014201151A1 (en) * | 2013-06-11 | 2014-12-18 | Immersion Corporation | Systems and methods for pressure-based haptic effects |
US10162416B2 (en) * | 2013-09-06 | 2018-12-25 | Immersion Corporation | Dynamic haptic conversion system |
US10437341B2 (en) | 2014-01-16 | 2019-10-08 | Immersion Corporation | Systems and methods for user generated content authoring |
US20150323994A1 (en) | 2014-05-07 | 2015-11-12 | Immersion Corporation | Dynamic haptic effect modification |
US9535550B2 (en) * | 2014-11-25 | 2017-01-03 | Immersion Corporation | Systems and methods for deformation-based haptic effects |
US9600076B2 (en) * | 2014-12-19 | 2017-03-21 | Immersion Corporation | Systems and methods for object manipulation with haptic feedback |
US9478109B2 (en) * | 2014-12-29 | 2016-10-25 | Immersion Corporation | Virtual sensor in a virtual environment |
US10031580B2 (en) * | 2016-01-13 | 2018-07-24 | Immersion Corporation | Systems and methods for haptically-enabled neural interfaces |
EP3455704A4 (en) | 2016-07-08 | 2019-11-13 | Immersion Corporation | MULTIMODAL HAPTIC EFFECTS |
US10102723B2 (en) | 2016-10-31 | 2018-10-16 | Immersion Corporation | Dynamic haptic generation based on detected video events |
-
2018
- 2018-04-20 US US15/958,988 patent/US10684689B2/en active Active
-
2019
- 2019-04-17 KR KR1020190044957A patent/KR20190122570A/ko unknown
- 2019-04-17 JP JP2019078645A patent/JP2019192238A/ja active Pending
- 2019-04-18 EP EP19170277.8A patent/EP3557385A1/en not_active Withdrawn
- 2019-04-19 CN CN201910317154.6A patent/CN110389657A/zh not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021192712A1 (ja) * | 2020-03-27 | 2021-09-30 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
US10684689B2 (en) | 2020-06-16 |
KR20190122570A (ko) | 2019-10-30 |
EP3557385A1 (en) | 2019-10-23 |
US20190324540A1 (en) | 2019-10-24 |
CN110389657A (zh) | 2019-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6734325B2 (ja) | ダイナミックハプティック効果のコード化 | |
JP6342619B2 (ja) | 動的イベントのためのハプティック効果の生成 | |
KR102169205B1 (ko) | 햅틱 효과 변환 시스템 및 컴퓨터-판독가능 저장 매체 | |
JP6479148B2 (ja) | 強化された動的ハプティック効果 | |
US10572017B2 (en) | Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments | |
JP2019121388A (ja) | 仮想現実の長距離相互作用のためのシステム及び方法 | |
JP2019192238A (ja) | 拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚効果設計ツール | |
JP6732078B2 (ja) | 触覚オーバーレイを拡張現実に統合するシステム、方法及び非一時的コンピュータ可読媒体 | |
US20200192480A1 (en) | Systems and methods for providing haptic effects based on a user's motion or environment | |
CN107977071B (zh) | 一种适用于空间系统的操作方法及装置 | |
KR20150137376A (ko) | 스마트폰 사용자의 개인화된 동작인식 방법 및 이를 이용한 게임방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190520 |