JP2020080152A - カスタマイズ可能な触覚再生を提供するシステムおよび方法 - Google Patents

カスタマイズ可能な触覚再生を提供するシステムおよび方法 Download PDF

Info

Publication number
JP2020080152A
JP2020080152A JP2019200345A JP2019200345A JP2020080152A JP 2020080152 A JP2020080152 A JP 2020080152A JP 2019200345 A JP2019200345 A JP 2019200345A JP 2019200345 A JP2019200345 A JP 2019200345A JP 2020080152 A JP2020080152 A JP 2020080152A
Authority
JP
Japan
Prior art keywords
haptic
user
content
track
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019200345A
Other languages
English (en)
Inventor
マアルーフ,ジョニー
Maalouf Johnny
サボーネ,ジャマール
Saboune Jamal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2020080152A publication Critical patent/JP2020080152A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Abstract

【課題】表示デバイスを用いて、映像や仮想現実環境や拡張現実環境等のシミュレート環境などのコンテンツの提供において、カスタマイズ可能な触覚再生を提供するシステムおよび方法を提供する。【解決手段】システムは、メモリ304と、メモリ304と通信するプロセッサ302とを備えるコンピューティングデバイス300を含む。プロセッサ302は、ユーザに提供するコンテンツを生成する。プロセッサ302は、コンテンツ中の様々なコンテンツ要素に関連する様々な触覚トラックを示すデータを取得する。さらに、プロセッサ302は、特定のコンテンツ要素に関連する様々な触覚トラックのうちの触覚トラックを選択する。その後、プロセッサ302は、触覚トラックの特性を決定し、触覚トラックに関連する触覚信号を触覚出力デバイス322に送信する。触覚出力デバイス322は触覚信号を受けて触覚トラックを出力する。【選択図】図3

Description

[0001]本開示は概してユーザインタフェイスデバイスに関する。限定しないものとして特定の例を挙げれば、本開示は、カスタマイズ可能な触覚再生を提供するシステムおよび方法に関する。
[0002]表示デバイスを用いて、映像やシミュレート環境(たとえば、仮想現実環境や拡張現実環境)などのコンテンツを提供することができる。ユーザにコンテンツを提供したりユーザがコンテンツとやり取りしたりするような触覚フィードバックをユーザに提供するのに、多くの最新のユーザインタフェイスデバイスを用いることができる。
[0003]しかし、多くのユーザインタフェイスデバイスやフィードバックシステムには、ユーザに関連するコンテンツに対応する触覚フィードバックを提供する機能がない場合がある。
[0004]本開示の様々な実施形態は、カスタマイズ可能な触覚再生を提供するシステムおよび方法を提供する。
システムの一例は、非一時的コンピュータ可読媒体と、非一時的コンピュータ可読媒体に通信接続されるプロセッサであって、プロセッサは、非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、ユーザに提供されるコンテンツを取得し、コンテンツの複数のコンテンツ要素に関連する複数の触覚トラックを特定するデータを取得し、複数のコンテンツ要素のうちのコンテンツ要素を選択し、複数の触覚トラックのうちの触覚トラックであって、選択されたコンテンツ要素に関連する触覚トラックを特定し、触覚トラックに基づいて触覚効果を決定し、コンテンツに基づいてコンテンツ信号を、コンテンツの少なくとも一部を出力するように構成されている出力デバイスに送信し、コンテンツの少なくとも一部に対応する触覚効果を触覚出力デバイスに出力させるように構成されている触覚信号を触覚出力デバイスに送信するように構成されている、プロセッサとを含む。
[0005]方法の一例は、ユーザに提供されるコンテンツを取得するステップと、コンテンツの複数のコンテンツ要素に関連する複数の触覚トラックを特定するデータを取得するステップと、複数のコンテンツ要素のうちのコンテンツ要素を選択するステップと、複数の触覚トラックのうちの触覚トラックであって、選択されたコンテンツ要素に関連する触覚トラックを特定するステップと、触覚トラックに基づいて触覚効果を決定するステップと、触覚効果の特性を決定するステップと、コンテンツに基づいてコンテンツ信号を、コンテンツの少なくとも一部を出力するように構成されている出力デバイスに送信するステップと、特性に基づいており、コンテンツの少なくとも一部に対応する触覚効果を触覚出力デバイスに出力させるように構成されている触覚信号を触覚出力デバイスに送信するステップとを含む。
[0006]これらの典型的な実施形態は、本保護対象を限定したり本保護対象の限定を定めたりするためではなく、その理解を助ける例を提供するために記載されている。発明を実施するための形態で典型的な実施形態が説明されており、さらなる説明がそこに記載されている。本明細書を検討しかつ/または請求されている保護対象の1つ以上の実施形態を実施することにより、様々な実施形態が奏する効果をさらに理解することができる。
[0007]本明細書に組み込まれ、その一部を構成する添付の図面が1つ以上の特定の例を図示しており、例の説明とともに、特定の例の原理および実施を説明するのに用いられている。
カスタマイズ可能な触覚再生を提供するシステム例を示す。 カスタマイズ可能な触覚再生を提供するシステム例を示す。 カスタマイズ可能な触覚再生を提供するコンピューティングデバイス例を示す。 シミュレーテッド・リアリティ環境例およびヘッドセット例を示す。 カスタマイズ可能な触覚再生を提供する方法例を示す。
[0012]カスタマイズ可能な触覚再生を提供するシステムおよび方法に関する例をここで説明する。以下の説明は例示にすぎず、何かを行なって限定を課すことを意図していないことは当業者であれば理解する。以下、添付の図面に示されている例の実施を詳細に説明する。図面および以下の説明を通じて、同じものや類似のものを参照するのに同じ参照符号を用いている。
[0013]明確にするために、ここで説明されている例の平凡な特徴のすべてを示して説明することはしていない。当然、いずれのこのような実際の実現例の開発でも、用途および事業に関連する制約に合わせるなど、開発者の特定の目的を達成するために、実現例に特有な多くの判断を行なわなければならず、また、当該特定の目的が実現例毎、開発者毎に異なることになることが分かる。
[0014]仮想現実(VR)または拡張現実(AR)環境(どちらも「シミュレーテッド・リアリティ」すなわちSRの典型)の観点で、ユーザはシミュレーテッド・リアリティ映画に類似する予め記録したイベントを観覧することができたり、ビデオゲームをプレイすることができたり、旅行することなくリアルワールド環境に踏み入ることができたり、無数の用途のいずれかが可能であったりする。没入型SR環境はSR環境中のオブジェクトまたはイベントに関連する触覚を提供する触覚効果を含む場合がある。その一方で、このような触覚効果が多くの様々な出来事に由来する場合があり、また、ユーザが環境中の特定のキャラクタなどの特定のものに注目しようとする場合がある。したがって、典型的なSR環境を用いることで、ユーザは関心のあるアイテムやイベントを選択して、当該アイテムに関連する触覚に及ぼされる、SRが提供する触覚効果に注目することができる。その後、SRシステムは、当該アイテムに関連する触覚効果に優先順位を付けたり、強調したり、当該アイテムに関係のない触覚効果を除外したりしてもよい。
[0015]したがって、「触覚トラック」とも呼ばれる場合があるユーザに対するこれらの触覚効果群に対して選択的に有効化、無効化、強調、抑制またはその他優先順位付けを行なうことができる。優先される触覚トラックは、オブジェクト、キャラクタなどに対するユーザによる明確な選択に基づいてもよいし、関心のある触覚トラック自体にさえ基づいてもよい。これの代わりに、視線トラッキングによる特定のオブジェクトに対するユーザによる見かけの注目に基づいて選択してもよく、武器を向けることや、ユーザが映画中の特定のキャラクタに対して好意を示したりSR環境のシーンに笑い声を上げたりするなどのコンテンツに関する音声兆候を検出することなどによるSR環境へのユーザ入力から推測してもよい。
[0016]このような機能を提供するために、典型的な実施形態の1つは、コンテンツ(たとえば、仮想現実環境や拡張現実環境、映像、ユーザインタフェイスなど)を生成して出力することができるコンピューティングデバイスを含む。コンピューティングデバイスのメモリは、キャラクタ、オブジェクト、イベントなどに関連する様々な触覚トラックに対応するデータを含むデータベースを含むことができる。触覚トラックは、提供されているコンテンツで発生するイベントに対応する触覚効果(たとえば振動)またはこれに対応する一連の触覚効果を含むことができる。
[0017]たとえば、映像が連続する爆発を含む場合、1つまたは複数の触覚トラックは各爆発に対応する連続する振動であることが可能である。この例では、ユーザは、関心のある特定のキャラクタ、オブジェクト、イベントなどを示すユーザ入力を提供したり、ユーザが知覚しようとし、関心を持った触覚トラックを提供したりすることができる。たとえば、映像が第1のキャラクタおよび第2のキャラクタを含む場合、第1のキャラクタを第1の触覚トラックに関連づけることができ、第2のキャラクタを第2の触覚トラックに関連づけることができ、ユーザは第1の触覚トラックを選択したことを示すユーザ入力を提供することができる(たとえば、特定のキャラクタや触覚トラックに関するデータを見たり、キャラクタ、オブジェクトなどの近くで動いたりするなどして、グラフィカルユーザインタフェイスを介して特定の触覚効果やキャラクタを選択することによってユーザ入力を提供する)。この例では、ユーザはユーザ入力を提供して第2の触覚トラックを弱めることもできる。
[0018]この典型的な例では、コンピューティングデバイスのプロセッサは、ユーザの関心のある特定のキャラクタ、オブジェクト、イベントなどや、ユーザが関心を持つ触覚トラックを自動的に選択することもできる。一例として、コンテンツが、第1の触覚トラックに関連する第1のキャラクタと、第2の触覚トラックに関連する第2のキャラクタとを含むSR環境を含む場合、プロセッサは、ユーザと第1または第2のキャラクタとの仮想距離やユーザの視野やユーザの視線の方向に基づいて触覚トラックを選択することができる。たとえば、ユーザがSR環境とやり取りする場合において、ユーザが第1のキャラクタと比較して第2のキャラクタに近い(ユーザがそのSR環境の範囲内にいる、すなわち「仮想的に近い」)とき、プロセッサは、第2のキャラクタに関連する第2の触覚トラックを自動的に選択することができる。別の例として、コンピューティングデバイスは、ユーザに提供されたコンテンツに対するユーザの視野を検出するセンサを有する表示デバイスを含むことができる。センサはプロセッサに信号を送信することができ、プロセッサは、ユーザの視線が第2のキャラクタと比較して第1のキャラクタにより合わせられていると判断する。この例では、プロセッサは、ユーザが第1のキャラクタにより合わせられているとの判断に応じて、第1のキャラクタに関連する第1の触覚トラックを自動的に選択することができる。
[0019]この典型的な実施形態を続けて説明すると、ユーザはユーザ入力を提供して、選択された関心のある触覚トラックを修正することができる。一例として、ユーザは、選択された触覚トラックや、触覚トラックの触覚効果の特性(たとえば、触覚トラックを出力するのに用いる触覚出力デバイスの強度、周波数、タイプなど)を修正するユーザ入力を提供することができる。一例として、コンピューティングデバイスは、ユーザがユーザ入力を提供することができるタッチ感知面を含むことができる(たとえば、タッチ感知面にタッチすることによってユーザ入力を提供する)。タッチ感知面は、ユーザによるタッチ感知面との接触圧力量を検出する圧力センサを含むことができる。たとえば、プロセッサは、ユーザによる接触圧力量が閾値を超える(振動の大きさ(magnitude)を増加させるというユーザの意図を示す)との判断に応じて振動強度を増加させるように触覚トラックを修正するか、逆に、加えられる圧力が同じ閾値または異なる閾値未満である(振動強度を減少させようとすることを示す)ことに基づいて振動の強度を減少させることができる。
[0020]別の例では、プロセッサは検出されたユーザの動きに基づいて、選択された触覚トラックの特性を決定したり修正したりすることができる。たとえば、ユーザは、ユーザによる動き(たとえばジェスチャ)を検出または感知するセンサを含むユーザデバイスを保持したり着用したりすることができ、ユーザの動きを用いて触覚効果の特性を修正することができる。たとえば、ユーザは手(たとえば、ユーザがユーザデバイスを着用している手や、ユーザがユーザデバイスを保持している手)を上げることができ、ユーザデバイスのセンサがユーザの動きを検出することができる。この例では、センサは、検出された動きを示す1つ以上の信号をプロセッサに送信することができ、プロセッサは、その後、たとえば、ユーザが手を上げているとの判断に応じて触覚トラックの大きさ(magnitude)を増加させたり、ユーザが自身の手を下げる場合に抑制したりすることによって、検出された動きに基づいて、選択された触覚トラックの特性を決定したり修正したりすることができる。
[0021]別の例として、プロセッサは、ユーザの視界や視線の方向に基づいて、選択された触覚トラックの特性を決定したり修正したりすることができる。たとえば、コンピューティングデバイスは、ユーザに提供されたコンテンツに対するユーザの視線方向を検出するセンサを有する表示デバイスを含むことができる。センサはプロセッサに信号を送信することができ、プロセッサは、選択された第1の触覚トラックに関連する第1のキャラクタにユーザの視線が合わせられていると判断する。この例では、プロセッサは、ユーザが第1のキャラクタに注目しているとの判断に応じて、触覚トラックが1つ以上の強い振動を含むことを決定することができる。
[0022]さらに別の例として、コンテンツがシミュレーテッド・リアリティ環境を含む場合、プロセッサは、ユーザと、選択された第1の触覚トラックに関連する第1のキャラクタとの仮想距離に基づいて、選択された触覚トラックの特性を決定したり修正したりすることができる。たとえば、ユーザがシミュレーテッド・リアリティ環境とやり取りする場合であって、ユーザが第1のキャラクタに近いとき、プロセッサは、ユーザが第1のキャラクタに近いとの判断に応じて、第1のキャラクタの触覚トラックが大きい振動を有することを決定することができる。
[0023]いくつかの例では、プロセッサは機械学習手法を訓練して、1つ以上の触覚トラックのユーザによる選択や触覚トラックの特性に関する履歴データやリアルタイムデータに基づいて、ユーザが選択することができる触覚トラックを予測したり、選択可能な触覚トラックの特性を予測したりすることができる。たとえば、プロセッサは機械学習アルゴリズムについて訓練して、ユーザが選択した触覚トラックに類似する1つ以上の触覚トラックの選択を予測したり推奨したりすることができる。
[0024]典型的な実施形態では、プロセッサは、選択された触覚トラックに関連する触覚信号を触覚出力デバイス(たとえば、コンピューティングデバイスの触覚出力デバイスや、ユーザに関連するユーザデバイスの触覚出力デバイス)に送信することができる。触覚出力デバイスは、プロセッサから触覚信号を受けて、選択された触覚トラックを触覚信号に基づいて出力するように構成されている。典型的な実施形態では、触覚トラックは、ユーザが関心を持つコンテンツに関連する1つ以上のイベントに対応する触覚効果を含むことができる。一例として、ユーザが第1のキャラクタに関連する第1の触覚トラックを選択する場合、触覚出力デバイスが第1の触覚トラックを出力することで、第1のキャラクタに関連する触覚効果をユーザが知覚することができる。したがって、たとえば、ユーザは、関心のある特定のキャラクタ、オブジェクト、イベントなどや、ユーザが知覚しようとし、関心を持った触覚トラックに関連するように触覚再生をカスタマイズすることができる。
[0025]この典型的な例はここで説明されている一般的な保護対象を読者に紹介するために与えられ、本開示はこの例に限定されない。以下の記載部分では、限定を課さない様々な別の例と、カスタマイズ可能な触覚再生を提供するシステムおよび方法の例とを説明する。
[0026]以下、図1を参照して、図1は、一実施形態に係る、カスタマイズ可能な触覚再生を提供するシステムを示すブロック図である。典型的なシステムは、サーバ120と無線通信する2つのユーザデバイス110a〜110bを含む。この例では、ユーザデバイス110a〜110bは、サーバ120からコンテンツを受けてそれぞれの対応するユーザ102および104に提供するコンピューティングデバイスである。コンテンツは、出力デバイスによりユーザに出力することができる適切な形式のコンテンツであってもよく、音声、映像(パノラマ映像コンテンツ、視点移動可能な映像コンテンツや360度映像コンテンツを含む)、ゲームコンテンツ、映画、テキスト、SR環境などが含まれる。「視点移動可能な(pannable)」映像コンテンツは、視認デバイス(たとえばスマートフォン)を様々な向きおよび位置にわたって動かすなどしてユーザが様々な観点から視認することができる映像コンテンツを指す。このようにして方向や位置を変更すると、映像中の視点が変更され、映像コンテンツ中のシーンの様々な様子を視認することを可能にすることができる。さらに、コンテンツは1つ以上の関連する触覚トラックを有してもよい。各触覚トラックは、コンテンツ自体またはコンテンツ中の1つ以上のコンテンツ要素に関連してもよく、以下でさらに詳細に説明されるように、出力のために特定することができる。
[0027]触覚トラックは、映画、テレビ(TV)番組、ビデオゲームなどのコンテンツ特徴自体に関連したり、コンテンツ特徴の1つ以上の様子を含むことができるコンテンツアイテムに関連したりする触覚情報にほぼ関係する。コンテンツ特徴の触覚トラックは、コンテンツ特徴に関連するファイルやメタデータによって記述されたり参照されたりする1つ以上の触覚効果を含むことができる。たとえば、360度映画は、映像情報の1つ以上のトラック、音声情報の1つ以上のトラックおよび触覚情報の1つ以上のトラックを有してもよい。したがって、触覚トラックはコンテンツに特有のトラックとは別体であってもよいが、触覚トラック中の触覚情報を音声トラックや映像トラックの一部に関連づける情報を含んでもよい。たとえば、触覚トラックがタイムラインを含み、タイムラインに合わせて触覚効果を配置してもよい。音声トラックおよび映像トラックが出力されると触覚トラックも「再生」され、触覚効果に達すると触覚効果が出力され、音声イベントや映像イベントと同期することが可能である。
[0028]一方で、いくつかの例では、触覚トラックは触覚情報および関連するラベルを含んでもよい。音声トラックや映像トラックは、触覚トラック中のラベルを特定するメタデータを含んでもよい。したがって、音声トラックおよび映像トラックが出力される場合において、触覚トラック中のラベルを参照するメタデータが出現するとき、対応する触覚効果を触覚情報に基づいて出力することができる。
[0029]これの代わりに、1つまたは複数の触覚トラックは、音声トラックや映像トラック中のラベルを特定するメタデータタグを含んでもよい。たとえば、音声トラックや映像トラックは、シーンやイベントを特定するラベルを含んでもよく、音声トラックおよび映像トラックが出力されると、ラベルが出現してもよい。その際、コンテンツプレーヤが、音声トラックや映像トラック中のラベルに関連する触覚効果を特定して触覚効果を出力してもよい。このような手法により触覚トラックを生成して、これを既存のコンテンツに関連づけてもよい。この既存のコンテンツは当初触覚化されなかったが、コンテンツに関するコンテキスト情報(contextual information)を特定する情報を含むというものである。たとえば、ストリーミングコンテンツは、画面上の俳優、シーン、楽曲の名前、画面上のイベントなどを特定するものを含む様々なメタデータを含んでもよく、これを用いることで、1つ以上の触覚トラックを介してコンテンツに追加される触覚効果と同期させることができる。
[0030]上記の触覚トラックは複数の触覚効果に関する触覚情報を含むものとして説明されているが、触覚トラックは単一の触覚効果しか含まなくてもよいし、触覚ライブラリ中などの別の場所に記憶されたりサーバにリモートで記憶されたりする触覚効果を参照するだけでもよいと当然解する。
[0031]再び図1を参照して、この例では、ユーザデバイス110a〜110bの各々は、ディスプレイと、スピーカ付きヘッドフォンと、SRヘッドセットの位置およびSRヘッドセットの動きを検出するのに用いることができるセンサと、触覚出力デバイスとを含むSRヘッドセットである。センサは、加速度計、ジャイロスコープ、高周波(RF)受信器、1つ以上の光検出器(たとえばフォトダイオード)、カメラおよび超音波トランスデューサなどのうちの1つ以上を含んでもよい。いくつかの例では、ユーザデバイス110a〜110bは、ユーザデバイスの外に置かれたセンサによって検出することができる1つ以上の送信器を含んでもよい。適切な送信器には、RF送信器、発光器(たとえば発光ダイオード)などが含まれる。
[0032]サーバ120によって提供されるSR環境とユーザがやり取りする際、ユーザは環境中でオブジェクトに遭遇したりイベントを知覚したりする場合がある。たとえば、ユーザ102および104は、敵、商人などのプレーヤではない仮想のキャラクタに遭遇したり、雷、雨、爆発などのイベントを見たりする場合がある。これらのコンテンツ要素の1つ以上は、それぞれのSRヘッドセットの触覚出力デバイスによって出力することができる関連触覚トラックを有してもよい。触覚トラックによって1つ以上の触覚効果を指定してもよく、降雨や衝撃をシミュレートしたり、重要なキャラクタの近さなどの情報を提供したりすることができる。場合によっては、ユーザは商人などの環境中の何かに注意を向けようとする場合があり、これに応じて、ユーザに提供される触覚効果をサーバがカスタマイズしてもよい。
[0033]たとえば、SR環境中の商人の見かけの方向にSRヘッドセットを向けるようにユーザ102および104が頭部または胴体を回転させる場合がある。その際、ユーザ102および104は商人を見る場合がある。サーバ120は、視線トラッキング技術を単独で用いるか、SRヘッドセットの向きを決定するのと組み合わせて視線トラッキング技術を用いるかのいずれかを行なうなどして、ユーザが商人を見ていることを検出してもよい。ユーザの視線が商人上にあると判断すると、サーバ120は、ユーザ102および104が商人に向かって移動し始めることを検出する場合があり、これを用いてサーバ120は、ユーザ102および104が商人に注目していると推測する。その後、サーバは、ユーザが注目しているコンテンツ要素として商人を選択して、商人に関連する触覚トラックを特定してもよい。その後、サーバ120は、触覚効果の特性、たとえば、大きさ、周波数、持続時間などを調節してもよい。
[0034]たとえば、サーバ120は、SR環境でのユーザと商人との距離、商人が味方か敵かなどに基づくなど、ユーザに基づいたり商人に基づいたりして特性を調節したり、ゲーム内のイベントや、食料や水が緊急に必要であるなどの状況に基づいて特性を調節したりするなどをしてもよい。その際、サーバ120は、調節された触覚トラックをSRヘッドセットに送信し、さらにコンテンツ信号のストリームも送信して、SRヘッドセットがコンテンツおよび対応する触覚トラックの両方を出力することを可能にしてもよい。これは、ユーザが注目先を変更したり別途商人の選択を解除したりするまで絶えず続行してもよい。
[0035]コンテンツ要素を選択して、対応する触覚トラックを特定することに加えて、サーバ120は、ユーザによって注目されていることをサーバ120が検出した商人や他のコンテンツ要素に関連する触覚効果をユーザが受けることを可能にするように別途出力される他の触覚効果を抑制したり無効にしたりすることもしてもよい。これの代わりに、ユーザは、シミュレーテッド・リアリティ環境でオブジェクトを明示的に選択することや、アクティブなクエストを選択したりステルスや戦闘などの特定のプレイモードを入力したりするなどして関心のあるコンテンツ要素を暗示的に選択することなどによって、関心のある特定のコンテンツ要素を選択してもよい。このような選択を用いて、サーバ120は触覚トラックをカスタマイズして関心のあるコンテンツ要素に関連する触覚トラックを強調する一方で、他のコンテンツ要素の触覚トラックを抑制したり無効にしたりしてもよい。
[0036]触覚トラックを強調するには、触覚トラックの強度(すなわち、その大きさ)の増加、持続時間や繰り返し率の増加などによって触覚トラックの特性を調節してもよい。逆に、触覚トラックの強度、持続時間や繰り返し率を減少させたり、強調するもの以外の一部またはすべての触覚トラックを完全に無効にしたりすることによって、触覚トラックを抑制してもよい。サーバ120は、ユーザコンテキストに基づいて、このような触覚トラックを抑制したり無効にしたりするか否かを判断してもよい。たとえば、ユーザが戦闘を入力する場合、システムはユーザインタフェイスコンポネントに関連する触覚トラックを抑制してもよい。ただし、ユーザに有用な情報を提供する可能性がある場合には当該触覚トラックを引き続き出力してもよいが、環境状況に関連する触覚トラックは無効にしてもよい。強調したり抑制したりする触覚トラックのさらに別の組み合わせを用いてもよい。
[0037]図1に示されているシステム例はSR環境に関して説明されているが、触覚トラックについて映画または他の映像コンテンツなどの他の種類のコンテンツを用意してもよい。このような場合、1つ以上の関心のあるキャラクタや関心のあるシーンをユーザが選択することで、選択されたキャラクタに関連したり、選択されたシーンや今後提供される同様のシーンに関連したりする触覚トラックをサーバが強調してもよい。以下、さらなる例をさらに詳細に説明する。
[0038]なお、図1に示されているシステム100では、2人のユーザ102および104がSR環境の共通の場所に参加している様子が示されているが、本開示に係るシステム例は、任意の適切な人数のユーザに対応することができると当然解する。すなわち、ただ1人のユーザから、サーバ120(または複数のサーバ)によって提供されるコンピューティングリソースによってのみ制限される任意の人数のユーザまで対応することができると当然解する。
[0039]以下、図2を参照して、図2は、カスタマイズ可能な触覚再生を提供するシステム例200を示す。この例では、2つのユーザデバイス210a〜210bが1つ以上の通信ネットワーク230を介してリモートサーバ220と通信する。この例では、ユーザデバイス210a〜210bはコンピューティングデバイスを含み、VRヘッドセットやARヘッドセット、1つ以上のユーザインタフェイスデバイス(たとえば、ゲームコントローラ、スタイラス、ハンドルおよびペダルなど)、1つ以上のウェアラブルデバイスなどの1つ以上の他の関連デバイスをさらに含んでもよい。各ユーザデバイス210a〜210bは互いが同じ環境に参加している場合があったり、各ユーザが、映画、映像、ビデオゲーム、音楽など、サーバ220からユーザ独自のコンテンツを取得している場合があったりする。したがって、図1に示されているシステム100では、サーバ120と実質的に同じ場所にあるユーザデバイス110a〜110bが示されている一方で、図2のシステム200では、ユーザがリモートサーバ220からコンテンツを取得することができる。この場合も、サーバ220は、ここで説明されているように、1つ以上のユーザデバイス210a〜210bにコンテンツを提供し、さらに、選択されたコンテンツ要素に基づいて、関連する触覚トラックおよびカスタマイズされた触覚トラックも提供してもよい。
[0040]以下、図3を参照して、図3は、本開示に係る、カスタマイズ可能な触覚再生を提供するコンピューティングデバイス例300を示す。コンピューティングデバイス300は、バス306を介して他のハードウェアと通信するプロセッサ302を含む。コンピューティングデバイス300は、たとえば、パーソナルコンピュータ、モバイルデバイス(たとえばスマートフォン)、ヘッドマウントディスプレイ、ハンドヘルドデバイス(たとえばタブレット)またはその他一切のタイプのユーザデバイスであってもよい。いくつかの例では、コンピューティングデバイス300は、コンテンツ(たとえば、テキスト、画像、音声、映像、仮想現実環境や拡張現実環境など)をユーザに提供するのに用いることができる任意のタイプのユーザインタフェイスデバイスであることが可能である。いくつかの例では、コンピューティングデバイス300は、コンテンツとやり取りする(たとえば、拡張現実環境や仮想現実環境などのシミュレーテッド・リアリティ環境とやり取りする)のに用いることができる任意のタイプのユーザインタフェイスデバイスであることが可能である。
[0041]ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラム可能リードオンリメモリ(EEPROM)などの任意の適切な実体のある(かつ非一時的な)コンピュータ可読媒体であることが可能であるメモリ304が、コンピューティングデバイス300の動作を構成するプログラムコンポネントを具現化する。示されている実施形態では、コンピューティングデバイス300は、1つ以上のネットワークインタフェイスデバイス308、入出力(I/O)インタフェイスコンポネント310および記憶装置312をさらに含む。
[0042]ネットワークインタフェイスデバイス308は、ネットワーク接続を容易にする任意の構成要素の1つ以上を表わすことができる。その例には、Ethernet、USB、IEEE 1394などの有線インタフェイスおよび/またはIEEE 802.11、Bluetooth(登録商標)や、セルラ電話ネットワークにアクセスするためのラジオインタフェイス(たとえば、CDMA、GSM(登録商標)、UMTSまたはその他モバイル通信ネットワークにアクセスするためのトランシーバ/アンテナ)などの無線インタフェイスが含まれるが、これらに限定されない。
[0043]1つ以上のディスプレイ314、ゲームコントローラ、キーボード、マウス、ジョイスティック、カメラ、ボタン、スピーカ、マイクおよび/またはデータの入出力に用いられるその他ハードウェアなどのデバイスに対する有線接続または無線接続を容易にするのにI/Oコンポネント310を用いてもよい。記憶装置312は、コンピューティングデバイス300に格納されたりプロセッサ302に接続されたりする磁気記憶媒体、光学記憶媒体またはその他記憶媒体などの不揮発性記憶装置を表わす。
[0044]いくつかの実施形態では、コンピューティングデバイス300は、バス306に通信可能に接続され、ユーザの触覚入力を感知するように構成することが可能なタッチ面316(たとえば、タッチパッドやタッチ感知面)を含む。たとえば、タッチ面316は、タッチエリア内でのタッチを検出して(たとえば、物体がタッチ面316に接触するとき)、タッチに関連する信号をプロセッサ302に送信するように構成可能な1つ以上のタッチセンサ(説明せず)を含むことができる。いくつかの例では、タッチ面316は、たとえば、抵抗型センサおよび/または静電容量型センサなどの、任意の適切な数、タイプや配置のタッチセンサを含むことができ、これは、タッチ面316に埋め込むことができ、タッチの位置と、圧力、速度および/または方向などのタッチに関するその他の情報とを決定するのに用いることができる。したがって、たとえば、コンピューティングデバイス300は、タッチ面316(たとえばタッチ感知画面)を含むスマートフォンであることが可能であり、スマートフォンのユーザがタッチ面316にタッチするときにタッチ面316のタッチセンサがユーザ入力を検出することができる。
[0045]いくつかの実施形態では、コンピューティングデバイス300は、コンピューティングデバイス300のタッチ面316と表示デバイス314とを組み合わせたタッチ対応ディスプレイ(touch−enabled display)を備える。タッチ面316は、表示デバイス314にかぶせてもよいし、表示デバイス314の外面であってもよいし、表示デバイス314の構成要素上の1つ以上の材料層であってもよい。他の実施形態では、コンピューティングデバイス300は、1つ以上の仮想ユーザインタフェイスコンポネント(たとえば、ボタン、ノブ、スライダなど)を含むグラフィカルユーザインタフェイス(GUI)をタッチ対応ディスプレイに表示してもよく、タッチ面316によって仮想ユーザインタフェイスコンポネントとのやり取りを可能にすることができる。
[0046]いくつかの実施形態では、コンピューティングデバイス300はカメラ320を備える。図1では、カメラ320はコンピューティングデバイス300内にあるように図示されているが、いくつかの実施形態では、カメラ320はコンピューティングデバイス300外にあって、コンピューティングデバイス300と通信してもよい。一例として、カメラ320は、コンピューティングデバイス300外にあって、たとえば、Ethernet、USB、IEEE 1394などの有線インタフェイス、および/またはIEEE 802.11、Bluetooth(登録商標)やラジオインタフェイスなどの無線インタフェイスを介してコンピューティングデバイス300と通信してもよい。
[0047]いくつかの実施形態では、コンピューティングデバイス300は1つ以上のセンサ318を備える。いくつかの実施形態では、センサ318は、たとえば、ジャイロスコープ、加速度計、撮像センサ、カメラ、磁力計、マイク、力センサ、圧力センサ、および/またはユーザに関する情報(たとえば、ユーザの動きに関する情報)の検出、モニタリングまたはその他捕捉を行なうことができるその他センサを備えてもよい。たとえば、センサ318は、ユーザの動き(たとえば、ユーザの身体の部分の動き)を捕捉するウェアラブルセンサ、ハンドヘルドセンサ、またはユーザに接続する(たとえば取り付ける)か、その他の手法でユーザに関連づけることができる任意のセンサであることが可能である。いくつかの実施形態では、センサ318は、ユーザの動きに関する情報を示す1つ以上のセンサ信号をプロセッサ302に送信することができる。たとえば、デバイスは、2つ以上の加速度計を含んでもよく、2次元以上で動きの指標を提供してもよい。いくつかの例では、デバイスは1つ以上のセンサを用いて、様々な身体の部分に関するユーザの動きを補足してもよい。たとえば、センサはユーザの腕、脚、頭、手、指などの動きを検出してもよい。別の例として、センサ318は、ユーザによる物体との接触圧力量や、ユーザによる接触圧力量の変化に関する情報を補足する圧力センサであることが可能である。
[0048]いくつかの実施形態では、センサ318は、コンピューティングデバイスやユーザデバイスのユーザによるコンテンツ(たとえば、仮想現実環境や拡張現実環境)とのやり取りに関する情報の検出、モニタリングまたはその他捕捉を行なうことができる任意のデバイスやセンサを備えてもよい。たとえば、センサ318は、ユーザがシミュレーテッド・リアリティ環境とやり取りする際のユーザの動きに関する情報を捕捉することができる任意のセンサであることが可能である。
[0049]いくつかの実施形態では、コンピューティングデバイス300はウェアラブルデバイス(たとえば、眼鏡、ヘッドセットなど)を備えてもよく、センサ318は、コンピューティングデバイス300のユーザの視線(eye gaze)、ライン・オブ・サイト(line−of−sight)や視野を検出する任意のデバイスを備えてもよい。たとえば、以下、図4を参照して、図4は、1つ以上のセンサ412を含むARヘッドセットやVRヘッドセット410を含んだりそれと通信したりするコンピューティングデバイス300を含むシステム例400を示す。1つまたは複数のセンサ412は、表示デバイス314や別の表示デバイスを介して表示されるコンテンツ(たとえば、キャラクタ、オブジェクト、仮想オブジェクト、仮想アニメーションなど)に対するユーザの視野420の方向を検出することができる。この例では、表示デバイス314は複数の仮想オブジェクト430〜434を出力し、そのうちの1つはユーザの視野420内にある。したがって、この例では、センサ412がユーザの視線や眼の方向を検出してこのような情報をプロセッサ302や他のコンピューティングデバイス(たとえば、サーバ120および220)に提供することができ、プロセッサ302や他のコンピューティングデバイスは、ユーザが見ているコンテンツ要素、たとえばオブジェクト432を決定することができる。
[0050]いくつかの例では、センサ412はカメラを含んだり、カメラ320に組み込まれたりしてもよい。このようなセンサは、コンピューティングデバイス300(この例ではヘッドセット410)のユーザの眼の画像を取り込むように構成することができ、プロセッサ302は、1つ以上のアイトラッキングすなわち視線トラッキング方法および技術を用いることによって画像に少なくとも部分的に基づいて表示デバイス314や他のディスプレイ上のコンテンツに対するユーザの視野の方向を決定することができる。別の実施形態では、センサ410は、コンピューティングデバイス300のユーザの眼の動きや、ユーザの眼の近くの筋肉の動きをモニタするように構成することができ、プロセッサ302は、モニタされた動きに少なくとも部分的に基づいて表示デバイス314上のコンテンツに対するユーザの視野の方向を決定するように構成されている。さらに別の実施形態では、センサ318は、ユーザの眼を動かす筋肉の電気的活動をモニタすなわち測定するように構成してもよく、プロセッサ302は、表示デバイス314や別の表示デバイス上のコンテンツに対するユーザの視野の方向を決定するように構成することができる。
[0051]再び図3を参照して、いくつかの実施形態では、センサ318は、ユーザの意図または意志を判定するのに用いられる他のセンサを含んでもよく、たとえば、機能的磁気共鳴画像法(「fMRI」)または脳波(「EEG」)に関連するセンサを含む。さらに別の実施形態では、センサ318は、たとえば、ユーザの胴体や頭部の姿勢の解析を含む様々な方法および手法を通じてユーザの視線、ライン・オブ・サイトや視野を検出してもよい。一例として、センサ318をヘッドマウントディスプレイに含めることができたり、センサ318が、ユーザの頭部の動きを検出したりユーザの頭部の姿勢を検出したりして、ユーザの頭部の動きに関するデータやユーザの頭部の姿勢に関するデータをプロセッサ302に送信するヘッドマウントセンサであることが可能であったりし、プロセッサ302は、データに基づいてコンピューティングデバイス300やユーザデバイス124のユーザの視野の方向を決定することができる。
[0052]いくつかの実施形態では、コンピューティングデバイス300はプロセッサ302と通信する触覚出力デバイス322をさらに含む。触覚出力デバイス322は、触覚信号に応じて触覚トラックすなわち触覚効果を出力するように構成されている。たとえば、触覚出力デバイス322はコンピューティングデバイス300のプロセッサ302からの触覚信号に応じて触覚トラックを出力することができる。いくつかの実施形態では、触覚出力デバイス322は、たとえば、振動、圧迫(squeeze)、突き立て(poke)、知覚される摩擦係数の変化、シミュレートされた質感、ストローク感、電気的触覚効果、表面変形(たとえば、コンピューティングデバイス300に関連する表面の変形)および/または固体、液体もしくは気体の噴出し(puff)を備える触覚トラックを出力するように構成されている。さらに、いくつかの触覚トラックについては、同じタイプまたは異なるタイプの複数の触覚出力デバイス322を順にかつ/または一斉に用いてもよい。
[0053]図3には単一の触覚出力デバイス322が示されているが、いくつかの実施形態では、同じタイプまたは異なるタイプの複数の触覚出力デバイス322を用いて触覚効果を発生させてもよい。いくつかの実施形態では、触覚出力デバイス322はコンピューティングデバイス300内にあったりコンピューティングデバイス300外にあったりし、コンピューティングデバイス300と通信する(たとえば、Ethernet、USB、IEEE 1394などの有線インタフェイス、および/またはIEEE 802.11、Bluetooth(登録商標)やラジオインタフェイスなどの無線インタフェイスを介して通信する)。たとえば、触覚出力デバイス322をコンピューティングデバイス300に関連づけて(たとえば、コンピューティングデバイス300に接続されたりコンピューティングデバイス300内にあったりする)、プロセッサ302から触覚信号を受けるように構成してもよい。
[0054]触覚出力デバイス322は、たとえば、圧電アクチュエータ、電気モータ、電磁アクチュエータ、ボイスコイル、形状記憶合金、電気活性ポリマー、ソレノイド、偏心モータ(eccentric rotating mass motor)(ERM)、リニア共振アクチュエータ(linear resonant actuator)(LRA)、スピニングもしくはスケーラブルロータリアクチュエータ(spinning or scalable rotary actuator)(SRA)、超音波アクチュエータ、圧電材料、変形デバイス、静電アクチュエータ、形状記憶材料(金属、ポリマーもしくは複合材を含む)またはソレノイド共振アクチュエータ(solenoid resonance actuator)のうちの1つ以上を備えてもよい。いくつかの実施形態では、触覚出力デバイス322は、変形触覚効果を出力する(たとえば、コンピューティングデバイス300に関連する表面を曲げたり変形させたりする)ように構成されている流体を備える。いくつかの実施形態では、触覚出力デバイス322は機械的変形デバイスを備える。たとえば、いくつかの実施形態では、触覚出力デバイス322は、変形構成要素を回転させるアームに接続されたアクチュエータを備えてもよい。アクチュエータは、圧電アクチュエータ、回転/リニアアクチュエータ、ソレノイド、電気活性ポリマーアクチュエータ、マクロ・ファイバ・コンポジット(MFC)アクチュエータ、形状記憶合金(SMA)アクチュエータおよび/またはその他アクチュエータを備えてもよい。本明細書で用いられている用語「MFC要素」は、アクチュエータとセンサとの両方として機能する構成要素または要素を指すのに用いられる。
[0055]いくつかの実施形態では、コンピューティングデバイス300は、たとえば、モバイルデバイス(たとえばスマートフォン)、スマートウォッチ、ヘッドマウントディスプレイ、ウェアラブルデバイス、ハンドヘルドデバイス(たとえば、タブレット、ビデオゲームコントローラ)またはその他のタイプのユーザインタフェイスデバイスであることが可能なユーザデバイスを含むことができる。いくつかの例では、ユーザデバイスは、ユーザにコンテンツ(テキスト、画像、音声、映像、仮想現実環境や拡張現実環境など)を提供するのに用いることができる任意のタイプのユーザインタフェイスデバイスであることが可能である。いくつかの例では、ユーザデバイスは、コンテンツとやり取りする(たとえば、拡張現実環境や仮想現実環境などのシミュレーテッド・リアリティ環境とやり取りする)のに用いることができる任意のタイプのユーザインタフェイスデバイスであることが可能である。
[0056]コンピューティングデバイス300を用いてコンテンツをユーザに提供し、カスタマイズされた触覚効果を提供してもよい。たとえば、コンピューティングデバイス300は、ディスプレイ314に画像を表示することなどによってユーザにコンテンツを提供することができる。このようなコンテンツをメモリ304や記憶装置312にローカルに記憶してもよいし、図1および図2に関して上記で説明されているようにリモートコンピューティングデバイスから受けてもよい。
[0057]上述のように、コンテンツは1つ以上の関連触覚トラックを有してもよい。たとえば、コンテンツまたはコンテンツ要素と1つ以上の触覚トラックとの対応をルックアップテーブルやデータベースに記憶してもよい。ユーザに提供されるコンテンツ中のキャラクタ、オブジェクト、イベントなどの1つ以上のコンテンツ要素に各触覚トラックを関連づけて、各コンテンツ要素を1つ以上の触覚トラックに関連づけてもよい。触覚トラックは、所定の触覚効果(たとえば、振動、摩擦効果、変形効果、熱効果)や、提供されたコンテンツ中のコンテンツ要素に対応する一連の触覚効果を含むことができる。いくつかの実施形態では、異なる触覚トラックを提供して、コンテンツ要素とコンテンツの特定の見え方での表示との両方に関連づけてもよい。たとえば、特定のコンテンツ要素に関連する正面表示が、ある触覚トラックを有し(たとえば、車両の正面表示がエンジン触覚トラックを有してもよい)、背面表示が別の触覚トラック(たとえば排気部触覚トラック)を有してもよい。
[0058]別の例では、映像がキャラクタを含む場合、触覚トラックは、映像中のキャラクタに関連する各アクションやイベントに対応する一連の振動またはその他触覚効果を含むことができ、ルックアップテーブルやデータベースがキャラクタの触覚トラックへのマッピングを示すデータを含むことができる。この例では、コンピューティングデバイス300は、ルックアップテーブルやデータベースにアクセスして、キャラクタと触覚トラックとの間のマッピングを示すデータを表示するインタラクティブユーザインタフェイスを生成してもよい。一例として、インタラクティブユーザインタフェイスは、映像中の各キャラクタ、イベント、オブジェクトなどに関連する触覚トラックを含むメニュー、リストなどを含むことができる。別の例では、コンテンツがシミュレーテッド・リアリティ環境を含む場合、触覚トラックは、シミュレーテッド・リアリティ環境の様々な視点(たとえば、ユーザの背後、ユーザの正面などからの視点)に対応する様々な触覚効果を含むことができる。この例では、コンピューティングデバイス300は、ルックアップテーブルにアクセスして、シミュレーテッド・リアリティ環境の様々な視点と様々な触覚トラックとの間のマッピングを表示するインタラクティブユーザインタフェイスを生成してもよい。いくつかの実施形態では、コンピューティングデバイス300は、コンテンツ中の各キャラクタ、イベント、オブジェクトなどに関連する各触覚トラックと、各キャラクタ、イベント、オブジェクトなどの各視点とを表示するインタラクティブユーザインタフェイスを生成してもよい。
[0059]たとえば、コンピューティングデバイス300は、触覚トラックやキャラクタの選択を示すインタラクティブユーザインタフェイスを介してユーザ入力を受けてもよい。たとえば、ユーザは、第1の触覚トラックや第1のキャラクタをクリックしたり、タッチ面316やタッチ面138にタッチして第1の触覚トラックや第1のキャラクタを選択したり、第1の触覚トラックや第1のキャラクタを指し示したり(たとえば、ユーザデバイス124を用いて行なう)などすることによって、関心のある触覚トラックを示すユーザ入力を提供することができる。この例では、ユーザがユーザ入力を提供して第2のキャラクタに関連する第2の触覚トラックを弱めることもしてもよく、これにより、ユーザは第1のキャラクタに一層注目することができる。
[0060]いくつかの例では、コンピューティングデバイス300は、ユーザ選択を取得するのではなく、ユーザに提供されるコンテンツ中のコンテンツ要素に関連する触覚トラックを自動的に選択してもよい(たとえば、ユーザ入力がない)。たとえば、コンピューティングデバイス300は、第1の触覚トラックに関連する第1のキャラクタと第2の触覚トラックに関連する第2のキャラクタとを有するシミュレート環境を含む表示デバイス314や表示デバイス136に出力されるコンテンツを提供してもよい。キャラクタや触覚トラックを選択するために、コンピューティングデバイス300は、ユーザと環境中の第1または第2のキャラクタとの距離を決定してもよい。シミュレート環境中のユーザおよび複数のキャラクタのそれぞれの座標を用いて距離を決定してもよいし、シミュレート環境中のユーザと別のユーザ(または他のユーザのアバタ)との距離を決定してもよい。
[0061]ユーザと他の複数のキャラクタとのそれぞれの距離を決定した後、コンピューティングデバイス300は、第1の仮想キャラクタが第2の仮想キャラクタよりもユーザに近いと判断することができる。この例では、その後、コンピューティングデバイス300は、ユーザと第1および第2のキャラクタとの決定された距離に基づいて触覚トラックを自動的に選択してもよい。たとえば、コンピューティングデバイス300は、ユーザが第2の仮想キャラクタと比較して第1の仮想キャラクタに近いとの判断に応じて、第1の仮想キャラクタに関連する第1の触覚トラックを自動的に選択することができる。コンピューティングデバイス300は第2のキャラクタに関連する第2の触覚トラックも選択してもよいが、第1の触覚トラックを強調し、第2の触覚トラックを抑制してもよい。
[0062]別の例として、コンピューティングデバイス300はウェアラブルデバイス(たとえば、眼鏡、ヘッドセットなど)であることが可能であったりウェアラブルデバイスと通信することが可能であったりし、センサ(たとえばセンサ412)は、ユーザの視線、ライン・オブ・サイトや視野の方向を検出することができる。センサはセンサ信号をプロセッサ302に送信することができ、プロセッサ302は、ユーザが第1の触覚キャラクタや、インタラクティブユーザインタフェイスの第1の触覚トラックに関するデータを見ていると判断したり、ユーザが当該キャラクタやデータの方向を見ていると判断したりすることができる。この例では、プロセッサ302は、ユーザが第1のキャラクタを見ているとの判断や、ユーザが第1のキャラクタの方向を見ているとの判断に応じて、第1の触覚トラックを選択することができる。
[0063]いくつかの実施形態では、ユーザに提供されるコンテンツ中の関心のある特定のキャラクタ、オブジェクト、イベントなどに関連する特定の触覚トラックを選択する(たとえば、上記で説明されているようにユーザ入力に基づいて選択したり自動的に選択したりする)ことで、選択されていない触覚トラックを弱めることを示すことができる。たとえば、ユーザが第1のキャラクタに関連する第1の触覚トラックを選択し、第2のキャラクタに関連する第2の触覚トラックを選択しない場合、プロセッサ302は第2の触覚トラックを弱めることができる。このようにして、システム100は、ユーザが関心を持つ特定のキャラクタ、オブジェクト、イベントなどに関連する特定の触覚トラックを選択することができる。
[0064]触覚トラックを様々な仕方で実施することができる。たとえば、触覚トラックが、単一の触覚効果が記述されている情報を有してもよいし、触覚トラックが、複数の触覚効果が記述されている情報を有していて、これらの触覚効果を順に出力したり並行して出力したりこれらの双方を組み合わせて出力したりしてもよい。さらに、触覚トラックはネストされた1つ以上の触覚トラックを含んでもよい。たとえば、映画のシーンの触覚トラックが、シーンに登場する各キャラクタについてのネストされた触覚トラック、シーンの背景セットやコンテキストの触覚トラック、シーン内の環境状況の、1つ以上の触覚トラックなどを有してもよい。いくつかの例では、触覚トラックは、関連するコンテンツ中の異なるコンテンツ要素に関連する触覚トラックの部分を示すメタデータを含んでもよい。たとえば、触覚トラックは、シーン内の様々な場面に応じて出力(track)される触覚効果列を含んでもよい。たとえば、触覚トラックは、画面に登場している主役に対応する第1の触覚効果を、主役を特定する、対応するメタデータタグとともに有してもよい。第2の触覚効果はこのシーンで次に登場する脇役に対応してもよく、触覚トラックは、第2の触覚効果に対応する第2のタグを有してもよい。したがって、触覚トラックが触覚効果の集合を有して、触覚効果の各々に1つ以上のコンテンツ要素に関するタグを付してもよい。このようにタグを付すことで、本開示に係るシステムおよび方法により、選択されたコンテンツ要素に関連しているものとして触覚トラックの特定の部分を特定することを可能にしてもよい。この場合、実現例または特定の構成に応じて、触覚トラックの当該特定の部分をここで説明されているように修正する一方で、触覚トラックの他の部分を変更しないでおいたり抑制したり無効にしたりしてもよい。
[0065]いくつかの例では、触覚トラックに関連する1つ以上のタイプに基づいて触覚トラックとコンテンツ要素との関連づけを推測してもよい。たとえば、データベースは、任意の適切なコンテンツの触覚トラックを提供するのに用いることができる多数の触覚トラックを含んでもよい。「爆発」、「降雨」、「車のエンジン」などのコンテンツ要素のタイプに基づいて触覚トラックの各々を特定してもよい。後の機会に、コンテンツを発展させて、様々なキャラクタ、イベント、コンテキストまたは環境状況を示すメタデータに関するタグを付してもよい。出力されたコンテンツをコンピューティングデバイスが受けると、コンテンツ中のタグを調べ、データベースにアクセスして、コンテンツ中のタグに合致する触覚トラックを取得してもよい。さらに、このようにタグを用いることで、ここで詳細に説明されているように、コンピューティングデバイス300が、選択されたコンテンツ要素に基づいて1つ以上の触覚トラックの強調、抑制や無効化を行なったり、2つ以上の触覚トラックをともに組み合わせるなどして触覚トラックを修正したりすることを可能にしてもよい。
[0066]いくつかの例では、コンテンツ要素に関連する異なる複数の触覚トラックを用いてもよい。たとえば、異なる触覚トラックをコンテンツ要素の異なる見え方での表示に関連づけてもよい。レーシングシミュレータを用いることで、ユーザがレーストラックでレースカーを運転することをシミュレートすることを可能にしてもよい。レースの他の車の各々が、それぞれの車の製造元およびモデルに基づくなどして、それぞれに関連する異なる触覚トラックを有してもよい。さらに、異なる触覚トラックをそれぞれの車の異なる表示に関連づけてもよい。たとえば、エンジンが位置する車前部に、ある触覚トラックを関連づけ、排気部が位置する車後部に第2の触覚トラックを関連づけてもよい。舗装面上のタイヤの音に関係する車側部にさらに別の触覚トラックを関連づけてもよい。また、複数の異なる触覚トラックを異なる見え方に関連づける一方で、いくつかの例では、特定の見え方に関係なく、触覚トラックの一部または全部をミックスして、所定の時点のユーザの特定の視点にしたがって各触覚トラックに重み付けしてもよい。
[0067]いくつかの実施形態では、コンピューティングデバイス300は特定された触覚トラックを修正してもよい。たとえば、コンピューティングデバイス300は、特定された触覚トラックの特性(たとえば、強度、大きさなど)を修正するユーザ入力を受けることができ、コンピューティングデバイス300はユーザ入力を受けたことに応じて触覚トラックを修正することができる。一例として、ユーザは、タッチ面316上での接触を介して触覚トラックの強度を修正するユーザ入力を提供することができ、タッチ面316のタッチセンサは、ユーザ入力を示すセンサ信号をコンピューティングデバイス300に送信することができる。この例では、コンピューティングデバイス300は、ユーザによるタッチ面316との接触圧力量を決定し、圧力量に基づいて触覚トラックの強度を決定することができる。たとえば、コンピューティングデバイス300は、ユーザによる接触圧力量が閾値を超えるとの判断に応じて、特定された触覚トラックが1つ以上の強い振動を含むことを決定することができる。いくつかの例では、1つ以上の振動の強さは、加えられる力の量に比例(または反比例)してもよい。たとえば、力が大きいことが、振動の強度を減少させるというユーザの意図を示すことで、弱い振動を再生する一方、力が小さいことが、強い振動を再生する要求を示してもよい。
[0068]別の例では、コンピューティングデバイス300は、1つ以上のセンサ信号に基づいて、特定された触覚トラックの特性を決定したり修正したりすることができる。たとえば、コンピューティングデバイス300は、ユーザによる動きに基づいて、特定された触覚トラックの特性を決定したり修正したりすることができる。たとえば、コンピューティングデバイス300は、ユーザがドアや別のキャラクタなどの選択されたコンテンツ要素に接近していると判断して、特定された触覚トラックの強度を増加させたり、選択されたコンテンツ要素に関連しない1つ以上の他の触覚トラックを抑制したりしてもよい。いくつかの例では、コンピューティングデバイス300は、キャラクタなどの選択されたコンテンツ要素を有するシーンのコンテキストを決定し、コンテキストに基づいて触覚トラックを修正してもよい。たとえば、ユーザが映画のキャラクタを選択していた場合、コンピューティングデバイス300は、このキャラクタが画面上にあるときは常に、このキャラクタに関連する触覚トラックを強調してもよい。その場合であっても、コンピューティングデバイス300は、選択されたキャラクタが危険にさらされているシーンに登場する場合にキャラクタの触覚トラックを修正してもよい。たとえば、コンピューティングデバイス300は、触覚トラックに心拍効果をオーバーレイして、キャラクタの緊迫感を示してもよい。または、キャラクタがリラックスするシーンにある場合、コンピューティングデバイスは触覚トラックを修正して、動揺を与える効果などの激しい触覚効果を排除してもよい。たとえば、コンピューティングデバイスは、高周波効果、たとえば、約1000Hzを超える周波数を持つ効果を触覚トラックから除いてもよい。
[0069]さらに別の例では、プロセッサ302は、ユーザとコンテンツ要素との距離に基づいて、選択された触覚トラックの特性を決定したり修正したりすることができる。たとえば、コンピューティングデバイス300は、表示デバイス314に出力されるコンテンツを受けたり提供したりすることができ、コンテンツは、1つ以上の他のキャラクタを含むシミュレート環境を含むことができる。この場合、ユーザがシミュレート環境とやり取りする際、コンピューティングデバイス300は、ユーザとキャラクタとの間の距離の変化に基づいて、選択された触覚トラックの特性を決定したり修正したりすることができる。たとえば、ユーザの視線に基づくなどして第1のキャラクタが選択される場合、コンピューティングデバイス300は、ユーザが第1のキャラクタに近いと判断し、特定された触覚トラックを修正して触覚効果の強度を増加させることができる。
[0070]いくつかの実施形態では、コンピューティングデバイス300は1つ以上の触覚トラックをともに組み合わせることによって触覚トラックの特性を修正してもよい。たとえば、コンテンツ要素を選択して、関連する触覚トラックを特定してもよい。ただし、危険な状況などの、キャラクタに関連するコンテキストも、関連する触覚トラックを有してもよい。その後、コンピューティングデバイス300は、ユーザが第1のキャラクタを選択していたかに関わらず、2つの触覚トラックを組み合わせてもよい。触覚トラックを組み合わせるために、コンピューティングデバイス300は2つの触覚トラックを合計してもよく、合計することは、重み値を一方または両方の触覚トラックに適用して、重み付けされた触覚トラックを合計することを含んでもよい。いくつかの例では、加える方の触覚トラックの特性を抜き出して、選択されたキャラクタの触覚トラックに適用してもよい。たとえば、加える方の触覚トラックは、その触覚効果のうちの1つ以上に関連する大きさや周波数を有してもよい。コンピューティングデバイス300はキャラクタの触覚トラックおよび加える方の触覚トラックを解析して同様の触覚効果を特定してもよい。その後、コンピューティングデバイス300は、加える方の触覚トラックの触覚効果の、1つ以上のパラメータをキャラクタの触覚トラックに適用してもよい。
[0071]いくつかの実施形態では、コンピューティングデバイス300はイベントに基づいて触覚トラックを決定してもよい。本明細書で用いられているイベントは、コンピューティングデバイス300の動作中に発生する任意のやり取り、アクション、衝突またはその他イベントであり、関連する触覚効果を有してもよい。いくつかの実施形態では、イベントは、ユーザ入力(たとえば、ボタンを押下する、ジョイスティックを操作する、タッチ面316やタッチ面138とやり取りする、コンピューティングデバイス300を傾けたり向きを変えたりする)、システムステータス(たとえば、低バッテリ残量、メモリ不足や、システムによるメッセージの受信、電話の着信、通知、更新に基づいて生成される通知などのシステム通知)、データの送信、データの受信、プログラムイベント(たとえば、プログラムがゲームの場合、プログラムイベントは、爆発、銃声、衝突、ゲームキャラクタ間のやり取り、ユーザとシミュレート環境中の1つ以上の要素とのやり取り、シミュレート環境中のキャラクタの動きなど)や、ユーザによるアクション(たとえばユーザの動き)を含んでもよい。
[0072]触覚トラックが特定され、触覚トラックの、1つ以上の特性が修正された後、コンピューティングデバイス300は、触覚信号を生成して触覚出力デバイスに送信してもよい。たとえば、コンピューティングデバイス300は触覚出力デバイスに信号を送信して、修正された触覚トラックを出力してもよい。
[0073]いくつかの実施形態では、コンピューティングデバイスは、機械学習手法を用いて、学習したユーザの好みに基づいてコンテンツ要素を自動的に選択したり選択を解除したりしてもよく、これにより、ユーザとやり取りすることなく1つ以上の触覚トラックの強調、抑制や無効化を自動的に行なってもよい。たとえば、コンピューティングデバイス300は、ユーザが暴力、たとえば、銃撃、爆発などに関連する触覚効果を嫌う一方で、特定の俳優が演じるキャラクタに関連する触覚効果や、特定の配役、たとえば、主人公に関連する触覚効果を好むかを所定の時間にわたって判断してもよい。これらの学習された好みに基づいて、コンピューティングデバイス300はコンテンツ要素を自動的に選択して、関連する触覚トラックを特定することができる。このような選択に基づいて、コンピューティングデバイス300はユーザの好みに基づく1つ以上のこのような触覚トラックの強調、抑制や無効化を行なうことができる。
[0074]たとえば、ユーザがコンテンツ中のキャラクタを選択する一方でコンテンツ中の1つ以上の爆発の選択を解除する場合、プロセッサ302はコンテンツを解析して、第1の触覚トラックまたは第2の触覚トラックに類似する1つ以上の他の触覚トラックを決定することができる。一例として、キャラクタがコンテンツ中の主役である場合、プロセッサ302はコンテンツを解析して、コンテンツが、コンテンツ中の別の主役に関連する触覚トラックを含み、この触覚トラックが、第1のキャラクタに関連する選択済みの触覚トラックに類似すると判断することができる。別の例として、プロセッサ302は、コンテンツを解析して、コンテンツが銃声や衝突に関連する触覚トラックを含み、銃声や衝突に関連する触覚トラックが、爆発に関連する弱められた触覚トラックに類似すると判断することができる。この例では、プロセッサ302は機械学習手法を訓練して、ユーザがキャラクタに関連する触覚トラックを好み、銃声、爆発、衝突などに関連する触覚トラックを好まないことを予測することができる。
[0075]いくつかの実施形態では、コンピューティングデバイス300は自動的に選択されたコンテンツ要素に関するユーザからのフィードバックを要求し、その応答を用いて機械学習手法をさらに訓練することができる。たとえば、コンピューティングデバイスは、ユーザが主役を選択しようとしているのか、さらに別の銃声や衝突の選択を解除しようとしているのかを尋ねる問い合わせをユーザに出力してもよい。いくつかの実施形態では、プロセッサ302は、リアルタイムデータ(たとえば、ユーザが1つ以上のコンテンツ要素を選択したり選択を解除したりする際のデータ)を用いたり、履歴データ(たとえば、プロセッサ302が取得したり受けたりする、ユーザによるコンテンツ要素の選択履歴や選択解除履歴を示すデータ)を用いたりしてユーザの触覚トラックの好みを予測するように機械学習手法を訓練することができる。たとえば、プロセッサ302は、ユーザに提供されるコンテンツ中のキャラクタ、イベント、オブジェクトなどに関連する1つ以上の触覚トラックのユーザによる選択や、これらの触覚トラックを弱めることを示すデータを取得したり受けたりする。この例では、ユーザが1つ以上の触覚トラックを選択したり弱めたりする際や、1つ以上の触覚トラックが自動的に選択されたり弱められたりする際、プロセッサ302は、上記で説明されているように同様の触覚トラックを特定するように機械学習手法を訓練することができ、プロセッサ302は、ほぼリアルタイムで同様の触覚トラックを選択したり弱めたりするための推奨案を出力したり(たとえば、触覚トラックを選択したり弱めたりしながら推奨案を出力する)かつ/またはユーザが推奨触覚トラックを選択したり弱めたりするか否かを示すユーザ入力を要求したりすることができる。
[0076]いくつかの実施形態では、コンピューティングデバイス300は選択された触覚トラックの特性に関するデータ(たとえば、ユーザによる触覚トラックの特性に対する修正や、触覚トラックの特性に対する自動修正)を用いて機械学習アルゴリズムを訓練して、上記とほぼ同じ仕方で触覚トラックの特性や触覚トラックに対する修正を予測することができる。
[0077]たとえば、コンピューティングデバイス300は、選択された触覚トラックに対するユーザによる修正や、選択された触覚トラックに対する自動修正(たとえば、選択された触覚トラックの強度に対する修正)を示すデータを取得したり受けたりすることができる。この例では、選択された触覚トラックが修正されると、コンピューティングデバイス300は機械学習手法を訓練して、同様の触覚トラックを決定し、同様の触覚トラックの修正をほぼリアルタイムで同じ仕方で出力したりかつ/または選択された触覚トラックをユーザが修正しようとしているか否かを示すユーザ入力を要求したりすることができる。たとえば、選択された触覚トラックの強度を増加させるユーザ入力をユーザが提供する場合、コンピューティングデバイス300はこの入力を用いて機械学習手法を訓練して、コンテンツ中の同様の触覚トラックを特定し、修正物を出力して同様の触覚トラックの強度を増加させたり、同様の触覚トラックの強度をユーザが増加させようとしているか否かを示すユーザ入力を要求したりすることができる。
[0078]上記で説明されているいくつかの例では、コンピューティングデバイス300はコンテンツを出力したり、インタラクティブユーザインタフェイスを生成したり、選択されたコンテンツ要素を決定したり、触覚トラックを特定したり、特定された触覚トラックを修正したりかつ/または機械学習手法を訓練したりするが、本開示はこのような構成に限定されない。
[0079]図3のコンピューティングデバイス例300は、特定の数の構成要素を有するように示されているが、他の実施形態では、コンピューティングデバイス300は、任意の数の追加構成要素を有してもよいし、代替構成要素を有してもよい。
[0080]以下、図5を参照して、図5は、カスタマイズ可能な触覚再生を提供する方法例500を示す。いくつかの例では、図5に示されているブロックは、プロセッサ、たとえば、汎用コンピュータ、モバイルデバイスやサーバのプロセッサによって実行可能なプログラムコードで実施してもよい。いくつかの実施形態では、これらのステップをプロセッサ群によって実施してもよい。いくつかの実施形態では、図5に示されている1つ以上のステップを省略したり異なる順序で実行したりしてもよい。同様に、いくつかの実施形態では、図5に示されていない別のステップも実行してもよい。例示目的で、図1に示されているシステム100に関して上記で説明されている構成要素を参照して方法500のステップを以下で説明しているが、本開示に係る任意の適切なシステムを用いてもよい。
[0081]方法500は、ユーザに提供されるコンテンツをサーバ120またはユーザデバイス110a,110bが取得する時点であるステップ510から開始される。この例では、ユーザデバイス110a,110bがサーバ120からコンテンツを受けるが、いくつかの例では、ユーザデバイス110a,110bがそれ自体のローカル記憶装置からコンテンツを取得したり、ゲーム環境やシミュレーテッド・リアリティ環境を生成するなどしてコンテンツを動的に生成したりする。上述のように、シミュレーテッド・リアリティ環境、ビデオゲームコンテンツ、映画、音楽などを含む任意の適切なコンテンツを取得してもよい。
[0082]ブロック520で、サーバ120またはユーザデバイス110a,110bが、コンテンツ中の1つ以上のコンテンツ要素に関連する複数の触覚トラックを特定するデータを取得する。たとえば、ユーザデバイス110a,110bが、ブロック510でコンテンツを取得する前、同時または後のいずれかにサーバ120から1つ以上の触覚トラックを受けてもよい。いくつかの例では、ユーザデバイス110a,110bは、メモリに記憶されているデータベースなど、ユーザデバイス110a,110bにローカルに記憶されている1つ以上の触覚トラックを有してもよい。
[0083]触覚トラックを取得することに加えて、ユーザデバイス110a,110bは、コンテンツ中の1つ以上のコンテンツ要素に関連する複数の触覚トラックを特定するデータを取得する。この例では、複数の触覚トラックを特定するデータは、コンテンツ中に含まれるメタデータを備える。たとえば、このようなメタデータは、1つ以上の触覚トラックを特定する1つ以上のメタデータタグを含んでもよい。一方で、他の例では、データは、データベースレコードに対する参照、触覚トラックのリポジトリから触覚トラックを選択するための1つ以上のフィルタパラメータなどを含んでもよい。一例では、データは、コンテンツ中の1つ以上のコンテンツ要素やコンテンツ要素の1つ以上のタイプに対する関連づけを含む触覚トラック自体であってもよい。
[0084]いくつかの例では、触覚トラックをコンテンツとは別に提供してもよい一方で、いくつかの例では、コンテンツは触覚トラックと、触覚トラックと1つ以上のコンテンツ要素との関連づけとを含んでもよい。いくつかの例では、触覚トラックは、音声トラックに類似するコンテンツ中のトラックであってもよく、この場合、1つ以上の触覚効果が音声データや映像データと時間的に同期される。このような例の1つでは、ユーザデバイス110a,110bによって実行される再生ソフトウェア、たとえば映像プレーヤがコンテンツから音声、映像および触覚データをストリーミングして、対応する信号をディスプレイ、スピーカおよび1つ以上の触覚出力デバイスに送信してもよい。
[0085]一例として、コンテンツがたとえばテニスボールなどのオブジェクトを含むシミュレーテッド・リアリティ環境を含む場合、オブジェクトに関連する触覚トラックは、たとえば、テニスボールの跳ね返り、テニスボール打ちなど、オブジェクトに関連する各アクションやイベントに対応する一連の振動や他の触覚効果を含むことができる。この例では、触覚トラックのデータベースは、オブジェクトと触覚トラックとの間のマッピングを示すデータを含むことができる。別の例として、コンテンツが、たとえばテニスの試合の映像などの映像を含む場合、テニスの試合のキャラクタやオブジェクトの視点や見え方に関連する触覚トラックは、たとえばテニスの試合のプレーヤ、観客などの見え方などのキャラクタやオブジェクトの見え方や視点に対応する1つ以上の触覚効果を含むことができる。
[0086]ブロック530で、サーバ120またはユーザデバイス110a,110bが、複数のコンテンツ要素のうちのコンテンツ要素を選択する。この例では、ユーザ102および104が、それぞれに対応するVRヘッドセット110a〜110bを用いてシミュレーテッド・リアリティ環境とやり取りし、環境中に表示されるオブジェクトを特定してやり取りすることができる。サーバ120は、VRヘッドセットから受けるセンサ信号に基づいてオブジェクト、キャラクタなどの選択されたコンテンツ要素を決定することができ、それぞれのVRヘッドセットの位置および向きと、ユーザの眼が見ている方向とに基づいてユーザの視線の方向を決定することができる。いくつかの例では、ユーザは、ハンドヘルドコントロールデバイス、ジョイスティック、ワンドなどのユーザインタフェイスデバイスも用いてもよく、ユーザはこれらを用いてコマンドをサーバ120に送信してもよい。いくつかの例では、ユーザはタッチ画面上や空中にジェスチャを行なって環境中のオブジェクトとやり取りすることができる。このようなコマンドは、シミュレーテッド・リアリティ環境中のコンテンツ要素の選択やコンテンツ要素とのやり取りを示してもよい。さらに、いくつかの例では、環境中のオブジェクトやキャラクタがユーザとやり取りしてもよく、したがって、クエストやタスクを完了した際や、環境中のイベントを開始した際に、ユーザがそれぞれのコンテンツ要素の閾値距離内に入るときにそれら自体を選択してもよい。
[0087]別の観点で考えると、ユーザは映画のキャラクタなどの特定のコンテンツ要素を明示的に選択してもよい。映画の再生中に選択を行なってもよいし、いくつかの例では、映画が再生される前にこのような選択肢をユーザに提示してもよい。他の例では、ユーザは、関連する触覚トラックを有する楽曲の、1つ以上の器楽トラックを選択してもよい。たとえば、オーケストラの曲が、オーケストラの様々な楽器や楽節、たとえばバイオリン、チェロ、木管楽器などに対応する触覚トラックを有してもよい。シミュレーテッド・リアリティ環境、映画、音楽などに関係するかに関わらず、このような選択は、コンテンツの特定の部分の特定のコンテンツ要素に関して行なってもよいし、すべての映画や音楽などのより広い範囲のレベルで行なってもよいし、特定の音楽グループや作曲家のすべてのアルバムや、映画シリーズの映画のキャラクタ、たとえばレイア姫のすべてのアルバムについてなど、中間レベルで行なってもよい。
[0088]ブロック540で、サーバ120またはユーザデバイス110a,110bが、選択されたコンテンツ要素に関連する触覚トラックを特定する。この例では、ユーザデバイス110a,110bが、ブロック520で以前に取得したデータを用いて、選択されたコンテンツ要素に関連する触覚トラックを特定するが、いくつかの例では、ブロック520で説明されている機能をリアルタイムで実行してもよい。たとえば、ブロック530でコンテンツ要素が選択されるときに、ブロック520で説明されている機能により、選択されたコンテンツ要素に関連する1つ以上の触覚トラックを特定するデータを取得してもよい。このような触覚トラックを受けた後、サーバ120またはユーザデバイス110a,110bがこのような触覚トラックの1つ以上を特定してもよい。
[0089]いくつかの例では、選択されたコンテンツ要素に特定された触覚トラックを間接的に関連づけてもよい。たとえば、主役が選択されるときに、脇役に関連する触覚トラックを特定してもよい。このような特定は、脇役と主役とが対立したりロマンチックに結びついたりする場合に行なってもよい。いくつかの例では、選択されたコンテンツ要素のタイプに基づいて触覚トラックを特定してもよい。たとえば、コンテンツ要素が爆発である場合、特定の触覚トラックが爆発に明示的には関連しなくてもよい一方で、爆発、銃撃、爆弾に関係するものとして示されている触覚トラックを特定してもよい。コンテンツ中に記憶され、イベント、キャラクタの登場や画面からの退場などを示すメタデータタグによってこのような特定を可能にしてもよい。したがって、取得したコンテンツが独自のカスタム触覚トラックを有さない場合であっても、コンテンツ中のメタデータにより、ライブラリ中の触覚トラックを特定することを可能にしてもよい。
[0090]いくつかの例では、ユーザは触覚トラックを明示的に特定してもよい。たとえば、サーバ120またはユーザデバイス110a,110bは、キャラクタ、オブジェクトやイベントと、キャラクタ、オブジェクトやイベントに関連する触覚トラックとに関するデータを表示するインタラクティブユーザインタフェイスを生成してもよい。一例として、ユーザデバイス110a,110bは、取得されたコンテンツ中の各キャラクタ、イベント、オブジェクトなどに関連する触覚トラックに関するデータを含むメニュー、リストなどを含むインタラクティブユーザインタフェイスを生成することができる。その後、ユーザは1つ以上のこのような触覚トラックを特定してもよい。別の例として、ユーザデバイス110a,110bは、コンテンツの1つ以上の視点や、コンテンツ中のキャラクタ、イベント、オブジェクトなどの視点に関連する触覚トラックを示すデータを含むメニュー、リストなどを含むインタラクティブユーザインタフェイスを生成することができる。たとえば、ユーザデバイス110a,110bは、ユーザやキャラクタの後ろ、ユーザやキャラクタの前、ユーザやキャラクタの横などの視点に関連する触覚トラックを含むメニューを含むインタラクティブユーザインタフェイスを生成することができる。いくつかの実施形態では、ユーザデバイス110a,110bは、コンテンツ中の各キャラクタ、イベント、オブジェクトなどと、各キャラクタ、イベント、オブジェクトなどの各視点とに関連する各触覚トラックを表示するインタラクティブユーザインタフェイスを生成することができる。
[0091]いくつかの例では、機械学習手法を訓練して、取得されたコンテンツ中で検出されたコンテンツ要素に基づいてコンテンツ要素を選択し、さらに、選択されたコンテンツ要素に関連する触覚トラックを特定してもよい。たとえば、機械学習手法を訓練して、たとえば顔認識を用いてキャラクタに類似するコンテンツ要素を認識したり、たとえばオブジェクト認識を用いてオブジェクトに類似するコンテンツ要素を認識したりしてもよい。さらに、爆発、銃声、雨、火事などのいくつかのイベントが検出可能であってもよく、1つ以上の触覚トラックを機械学習手法によって特定してもよい。ユーザの好みに応じて訓練された機械学習手法の一例を用いることで、1つ以上のコンテンツ要素を自動的に選択したり提案したりしてもよいし、逆に1つ以上のコンテンツ要素の選択を自動的に解除したり選択の解除を提案したりしてもよい。
[0092]いくつかの例では、サーバ120またはユーザデバイス110a,110bは、ユーザと、シミュレーテッド・リアリティ環境中の1つ以上のキャラクタや仮想オブジェクトとの距離に基づいて触覚トラックを特定してもよい。一例として、ユーザがシミュレート環境とやり取りする際、プロセッサ302は、仮想オブジェクトが最寄りのキャラクタよりもシミュレート環境中のユーザに近いと判断することができる。サーバ120またはユーザデバイス110a,110bは、ユーザがキャラクタよりも仮想オブジェクトに近いとの判断に応じて、仮想オブジェクトに関連する触覚トラックを特定してもよい。一方で、いくつかの例では、サーバ120またはユーザデバイス110a,110bは複数のコンテンツ要素の近さに基づいて複数の触覚トラックを特定してもよい。
[0093]別の例として、ユーザデバイス110a,110bはウェアラブルデバイス(たとえば、眼鏡、ヘッドセットなど)であることが可能であり、ユーザデバイス110a,110bのセンサは、ユーザの視線、ライン・オブ・サイトや視野の方向を検出することができる。ユーザデバイス110a,110b(またはサーバ120)は1つ以上のセンサ信号を受け、ユーザがキャラクタを見ていたりキャラクタの方向を見ていたりすると判断することができる。さらに別の例では、ユーザデバイス110a,110bはハンドヘルドデバイス(たとえば、ゲームコントローラ、ジョイスティックなど)であることが可能であり、ユーザデバイスのセンサはユーザの動きを検出して、センサ信号をサーバ120またはユーザデバイス110a,110bに送信することができ、サーバ120またはユーザデバイス110a,110bは、ユーザがキャラクタを指し示していたりユーザデバイス110a,110bをキャラクタに向けていたりすると判断することができる。
[0094]いくつかの実施形態では、ユーザに提供されるコンテンツ中の関心のある特定のキャラクタ、オブジェクト、イベントなどに関連する特定の触覚トラックを特定する(たとえば、上記で説明されているようにユーザ入力に基づいて特定したり自動的に特定したりする)と、選択されていない触覚トラックの選択を解除したり弱めたりすることができる。このようにして、システム100は、ユーザが関心を持つ特定のキャラクタ、オブジェクト、イベントなどに関連する特定の触覚トラックを選択する一方で、他の触覚トラックを弱めることができる(弱めなければ、選別されたコンテンツ要素から注意がそがれる)。
[0095]ブロック550で、システム100が、特定された触覚トラックに基づいて触覚効果を決定する。いくつかの例では、触覚トラックは、触覚トラックに埋め込まれた1つ以上の触覚効果を含んでもよいが、触覚トラックは、データベースなどの他の場所に記憶されている触覚効果への参照も含んでもよい。さらに、異なる複数のコンテンツ要素に関連する触覚効果を含む触覚トラックを複数の例で用いてもよく、この触覚トラックに、関連する1つまたは複数のコンテンツ要素を特定するメタデータに関するタグを付してもよい。
[0096]触覚トラックの一部としての触覚効果を特定の順序で出力したり特定のタイミングで出力したりしてもよい。いくつかの例では、選択されたコンテンツ要素やその要素に関与するイベントに関して行なわれるアクションに基づいて触覚トラックの特定の触覚効果を出力してもよい。したがって、選択されたコンテンツ要素の状態、選択されたコンテンツとのユーザによるやり取りや、コンテンツ要素に関与したりコンテンツ要素に緊密であったり(たとえば、シミュレーテッド・リアリティ環境で緊密である)するイベントに基づいて触覚効果を選択してもよい。
[0097]ブロック560で、システム100が触覚効果の特性を修正する。たとえば、プロセッサ302が、触覚効果の特性(たとえば、強度、大きさなど)を修正するユーザ入力を受けることができ、システム100、たとえば、サーバ120またはユーザデバイス110a,110bが、ユーザ入力を受けることに応じて触覚効果を修正することができる。一例として、ユーザは、タッチ面316上に対する接触を介して触覚トラックの強度を修正するユーザ入力を提供することができ、タッチ面316のタッチセンサはユーザ入力を示すセンサ信号をプロセッサ302に送信することができる。この例では、ユーザデバイス110a,110bは、ユーザによるタッチ面316との接触圧力量を決定して、圧力量に基づいて触覚トラックの強度を決定することができる。たとえば、プロセッサ302は、ユーザによる接触圧力量が閾値を超えるとの判断に応じて、触覚トラックの大きさすなわち触覚効果を減少させるように触覚トラックの特性を修正することができる。
[0098]別の例では、コンピューティングデバイス300はユーザによる動きに基づいて、選択された触覚トラックの特性を修正することができる。たとえば、ユーザデバイス110a,110bはコンテンツ要素のユーザ選択に基づいて触覚トラックの特性を修正してもよい。このようなコマンドは、ユーザがコンテンツ要素に注目していることと、このため、関連する触覚トラックの強度や持続時間を増加させて強調してもよいこととを示してもよい。いくつかの例では、関連するコンテンツ要素や触覚トラック自体のユーザによる選択の解除に基づいて触覚トラックを抑制したり無効にしたり(たとえば弱める)してもよい。
[0099]別の例では、コンピューティングデバイス300は、ユーザの視線、ライン・オブ・サイトや視野に基づいて、選択された触覚トラックの特性を決定したり修正したりすることができる。たとえば、選択されたコンテンツ要素に関連する触覚トラックをユーザの視線に応じて修正してもよい。選択されたコンテンツ要素をユーザが直接見る場合、コンピューティングデバイスは触覚トラックの特性を修正して、関連する1つまたは複数の触覚効果の大きさを最大にしてもよい一方で、ユーザが自身の視線の方向を変更する場合、コンピューティングデバイス300は、オブジェクトから離れるユーザの視線の角度に比例して触覚トラックの大きさを減少させてもよい。言い換えれば、ユーザの眼から、選択されたコンテンツ要素に向かって第1の線を延ばし、感知された視線方向に第2の線を延ばして、2つの線の角度を決定してもよい。さらに、いくつかの例では、コンピューティングデバイス300は、選択されたコンテンツ要素に向かってユーザを導くのを支援する、方向性を持つ触覚効果を提供するように触覚効果を修正してもよい。たとえば、VRヘッドセットやARヘッドセットが異なる場所に配列された複数の触覚出力デバイスを有する場合、ユーザの視線の方向やヘッドセットの向きに関係なく、選択されたコンテンツ要素の方向から触覚トラックが見かけ上出ていることで、ユーザが自身の頭部を動かして選択されたコンテンツ要素を見つけることが可能になるような様々な大きさの触覚効果をコンピューティングデバイス300が生成してもよい。したがって、様々な触覚出力デバイスに送られる触覚信号の大きさを修正して、見かけの方向性を持つ触覚効果を提供してもよい。
[0100]このような技術は、コンテンツとやり取りする空間で操作することができるハンドヘルドデバイスが関係する場合に用いてもよい。たとえば、ユーザがハンドヘルドデバイスの向きを変えてコンテンツの様々な部分を見ることができる場合、選択されたコンテンツ要素に対するハンドヘルドデバイスの向きに基づいて触覚トラックを修正してもよい。
[0101]さらに別の例では、コンピューティングデバイスは、ユーザと、シミュレーテッド・リアリティ環境中の選択されたコンテンツ要素との距離に基づいて、選択された触覚トラックの特性を決定したり修正したりすることができるし、画像や映像の場合には、選択されたコンテンツ要素の画面からの見かけの距離に基づいて行なうことができる。たとえば、選択された触覚トラックが第1のキャラクタに関連する第1の触覚トラックである場合、コンピューティングデバイス300は、シミュレート環境でユーザが第1のキャラクタに近いと判断して、選択された触覚トラックの大きさや持続時間を増加させることができる。
[0102]ブロック570で、コンピューティングデバイスが、ディスプレイやスピーカなどの出力デバイスにコンテンツ信号を送信し、触覚出力デバイスに修正された触覚トラックに関連する触覚信号を送信する。いくつかの例では、コンテンツおよび対応する触覚効果の同期出力を提供するようにコンテンツ信号および触覚信号を出力する。
[0103]いくつかの例では、さらなるブロック580を用いて、コンテンツ要素、触覚トラックの選択に基づいたり、触覚トラックに対してユーザが行なった修正に基づいたりして機械学習手法を訓練してもよい。たとえば、ユーザが特定の触覚トラックや1つ以上の触覚効果の選択を解除する場合、このような触覚トラックや触覚効果が今後選択される側に機械学習手法を偏重させてもよい。いくつかの例では、特定のキャラクタや俳優をユーザが選択する際、このようなコンテンツ要素を今後選択するように機械学習手法を偏重させてもよい。さらに、ユーザは爆発またはその他大きな騒音などの特定のタイプのイベントに関連する触覚トラックの選択を解除してもよい。したがって、機械学習手法は機械学習手法自体をこのようなイベントや特性に関連する触覚トラックやコンテンツ要素側に偏重させてもよい。
[0104]上記で説明されている方法、システムおよびデバイスは例である。様々な構成で、必要に応じて様々な手順や構成要素の省略、置換や付加を行なってもよい。たとえば、別の構成では、説明されている順序とは異なる順序で方法を実行してもよいしかつ/または様々な段階の付加、省略および/または組み合わせを行なってもよい。また、様々な他の構成で、特定の構成に関して説明されている特徴を組み合わせてもよい。構成の様々な態様および要素を同様の仕方で組み合わせてもよい。また、技術は進化しているので、要素の多くは例であり、本開示または請求項の範囲を限定しない。
[0105]構成例(実現例を含む)の完全な理解を実現するように特定の詳細が説明に記載されている。ただし、これらの特定の詳細がない状態で構成が実施されている場合がある。たとえば、構成が不明瞭になるのを避けるために、不必要な詳細がない状態で周知の回路、プロセス、アルゴリズム、構造および技術が示されている。本説明は構成例を提供するのにすぎず、請求項の範囲、適用可能性や構成を限定しない。むしろ、構成の前述の説明により、説明されている技術を実施するための実施可能な説明が当業者にもたらされる。本開示の精神または範囲から逸脱しない限りにおいて、要素の機能および配置に様々な変更を加えてもよい。
[0106]また、フロー図やブロック図として示されるプロセスとして構成を説明してもよい。各図は逐次的なプロセスとして動作を説明する場合があるが、動作の多くを並行して実行したり同時に実行したりすることができる。これに加えて、動作の順序を並べ替えてもよい。プロセスには、図に含まれていない追加ステップが存在してもよい。さらにまた、方法の例を、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語またはこれらの任意の組み合わせによって実施してもよい。ソフトウェア、ファームウェア、ミドルウェアやマイクロコードで実施される場合、必要なタスクを実行するためのプログラムコードやコードセグメントを記憶媒体などの非一時的コンピュータ可読媒体に記憶してもよい。プロセッサは説明されているタスクを実行してもよい。
[0107]ここで説明されている方法およびシステムのいくつかの例は、ソフトウェアが様々なマシンで実行されるという観点で説明されているが、様々な方法を実行するように仕様を定めたフィールドプログラマブルゲートアレイ(FPGA)などの特別に構成されたハードウェアとして方法およびシステムを実施することもしてもよい。たとえば、デジタル電子回路でこれらの例を実施することができるし、コンピュータ内蔵ハードウェア、ファームウェア、ソフトウェアで実施することもできるし、これらの組み合わせで実施することもできる。一例では、デバイスは1つ以上のプロセッサを含んでもよい。プロセッサはプロセッサに接続されたランダムアクセスメモリ(RAM)などのコンピュータ可読媒体を備える。プロセッサは、1つ以上のコンピュータプログラムを実行するなど、メモリに記憶されているコンピュータ実行可能プログラム指示を実行する。このようなプロセッサは、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)およびステートマシンを備えてもよい。このようなプロセッサは、PLC、プログラム可能割り込みコントローラ(PIC)、プログラム可能ロジックデバイス(PLD)、プログラム可能リードオンリメモリ(PROM)、電子的プログラム可能リードオンリメモリ(EPROMまたはEEPROM)または他の同様のデバイスなどのプログラム可能な電子デバイスをさらに備えてもよい。
[0108]このようなプロセッサは、指示を記憶することができる媒体、たとえばコンピュータ可読記憶媒体を備えたりこれと通信したりしてもよく、指示がプロセッサによって実行されると、プロセッサによって行なわれたり支援されたりするようにここで説明されているステップをプロセッサに実行させることができる。コンピュータ可読媒体の例には、ウェブサーバのプロセッサなどのプロセッサにコンピュータ可読指示を提供することができる電子、光学、磁気またはその他の記憶デバイスが含まれてもよいが、これらに限定されない。媒体の他の例には、フロッピーディスク、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成済みプロセッサ、すべての光学媒体、すべての磁気テープもしくはその他の磁気媒体またはコンピュータプロセッサが読み取ることができるその他一切の媒体が含まれてもよいが、これらに限定されない。説明されているプロセッサおよび処理が1つ以上の構造中にあってもよく、また、1つ以上の構造にわたって分散してもよい。プロセッサは、ここで説明されている方法(または方法の一部)の1つ以上を実行するためのコードを備えてもよい。
[0109]いくつかの例の前述の説明は例示および説明目的でのみ提示されており、網羅的であったり本開示を開示されているのと寸分違わない形態に限定したりすることを意図していない。本開示の精神および範囲から逸脱しない限りにおいて多数の修正とそれに対する適応とが当業者には明らかである。
[0110]ここで用いられている「に適する(adapted to)」または「ように構成されている(configured to)」の使用は、さらなるタスクまたはステップを実行するのに適するデバイスまたはこれを実行するように構成されているデバイスを除外しないオープンかつ包括的な文言としての使用を意図している。これに加えて、「に基づく」の使用は、1つ以上の記載されている状態または値に「基づく」プロセス、ステップ、計算または他のアクションが、実際には、記載されているものを上回るさらなる状態または値に基づいてもよいという点で、オープンかつ包括的であることを意図している。ここに含まれている見出し、リストおよび番号は説明を簡単にするためのものにすぎず、限定することを意図していない。
[0111]ここでの例や実現例に対する言及は、例に関連して説明されている特定の特徴、構造、動作またはその他特性が本開示の少なくとも1つの実現例に含まれてもよいことを意味する。本開示は本開示に忠実に説明されている特定の例や実現例に限定されない。本明細書の様々な箇所の語句「一例では(in one example)」、「例では(in an example)」、「一実現例では(in one implementation)」もしくは「実現例では(in an implementation)」またはこれらの変化形が登場する場合、必ずしも同じ例または実現例を指すとは限らない。一例や一実現例に関して本明細書で説明されている特定の特徴、構造、動作またはその他特性を、その他一切の例または実現例に関して説明されている別の特徴、構造、動作またはその他特性と組み合わせてもよい。
[0112]ここでの語「または」の使用は、包含的論理和および排他的論理和条件をカバーすることを意図している。言い換えると、AまたはBまたはCは、特定の用法に応じて、次の代替組み合わせ、すなわち、A単独、B単独、C単独、AかつBのみ、AかつCのみ、BかつCのみ、およびAかつBかつCのいずれかまたはすべてを含む。

Claims (20)

  1. 非一時的コンピュータ可読媒体と、
    前記非一時的コンピュータ可読媒体に通信接続されるプロセッサであって、前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、
    ユーザに提供されるコンテンツを取得し、
    前記コンテンツの複数のコンテンツ要素に関連する複数の触覚トラックを特定するデータを取得し、
    前記複数のコンテンツ要素のうちのコンテンツ要素の選択を決定し、
    前記複数の触覚トラックのうちの触覚トラックであって、前記選択されたコンテンツ要素に関連する触覚トラックを特定し、
    前記触覚トラックに基づいて触覚効果を決定し、
    前記コンテンツに基づいてコンテンツ信号を、前記コンテンツの少なくとも一部を出力するように構成されている出力デバイスに送信し、
    前記コンテンツの前記少なくとも一部に対応する前記触覚効果を触覚出力デバイスに出力させるように構成されている触覚信号を前記触覚出力デバイスに送信する
    ように構成されている、プロセッサと
    を備えるシステム。
  2. 前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、前記触覚効果の特性を修正するようにさらに構成されている、請求項1に記載のシステム。
  3. 前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、
    前記コンテンツ中の複数のコンテンツ要素に関連する前記複数の触覚トラックを示すデータをグラフィカルユーザインタフェイスを介して出力し、
    前記触覚トラックの前記選択を前記グラフィカルユーザインタフェイスを介して受ける
    ことにより前記触覚トラックを特定するようにさらに構成されている、請求項1に記載のシステム。
  4. 前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、
    前記ユーザとシミュレーテッド・リアリティ環境中の前記選択されたコンテンツ要素との距離を決定する
    ことにより前記触覚トラックを特定するようにさらに構成されており、
    前記触覚トラックの特定は、前記ユーザと前記選択されたコンテンツ要素との前記距離に基づく、
    請求項1に記載のシステム。
  5. 前記プロセッサに通信接続されるセンサであって、前記プロセッサは、
    前記センサから1つ以上の信号を受け、
    前記1つ以上の信号に基づいて、前記ユーザの視線が前記コンテンツ要素に向けられていると判断することに応じて、前記コンテンツ要素を選択する
    ことにより前記コンテンツ要素の前記選択を行なうようにさらに構成されている、センサ
    をさらに備える請求項1に記載のシステム。
  6. 前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、
    前記ユーザが前記複数のコンテンツ要素のうちの前記コンテンツ要素を指し示しているとの判断に応じて、前記コンテンツ要素を選択する
    ことにより前記コンテンツ要素の前記選択を行なうようにさらに構成されている、請求項1に記載のシステム。
  7. タッチ面と、
    前記プロセッサおよび前記タッチ面に通信接続されるセンサであって、前記センサは、
    前記タッチ面に対する接触に関連する圧力を検出し、
    前記圧力に関連する1つ以上の信号を送信する
    ように構成されており、
    前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、
    前記圧力に関連する前記信号を前記センサから受け、
    前記1つ以上の信号に基づいて圧力量を決定し、
    前記圧力量に基づいて前記触覚トラックの特性を決定する
    ようにさらに構成されている、センサと
    をさらに備える請求項1に記載のシステム。
  8. 前記プロセッサは、
    前記ユーザと前記選択されたコンテンツ要素との距離を決定し、
    前記距離に基づいて前記触覚トラックの特性を決定する
    ようにさらに構成されている、請求項1に記載のシステム。
  9. 前記プロセッサに通信接続されるセンサであって、前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、
    前記センサから1つ以上の信号を受け、
    前記1つ以上の信号に基づいて前記ユーザの動きを決定し、
    前記ユーザの前記動きに基づいて前記触覚トラックの特性を決定する
    ようにさらに構成されている、センサ
    をさらに備える請求項1に記載のシステム。
  10. 前記プロセッサに通信接続されるセンサであって、前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、
    前記センサから1つ以上の信号を受け、
    前記1つ以上の信号に基づいて、前記ユーザの視線が前記触覚トラックに関連する前記選択されたコンテンツ要素に向けられていると判断することに応じて、前記触覚トラックの特性を決定する
    ようにさらに構成されている、センサ
    をさらに備える請求項1に記載のシステム。
  11. 前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、
    機械学習手法を用いて、前記触覚トラックの前記特定に基づいて第2の触覚トラックを予測し、
    前記第2の触覚トラックの推奨案を出力する
    ようにさらに構成されている、請求項1に記載のシステム。
  12. 前記プロセッサは、前記非一時的コンピュータ可読媒体に記憶されているプロセッサ実行可能指示を実行して、前記機械学習手法を用いて、
    前記触覚トラックと前記複数の触覚トラックのうちの1つ以上の他の触覚トラックとを比較して、前記触覚トラックと前記第2の触覚トラックとの類似度を決定し、
    前記触覚トラックと前記第2の触覚トラックとの前記類似度に基づいて前記第2の触覚トラックを前記機械学習手法を用いて予測する
    ことにより前記第2の触覚トラックを予測するようにさらに構成されている、請求項11に記載のシステム。
  13. ユーザに提供されるコンテンツを取得するステップと、
    前記コンテンツの複数のコンテンツ要素に関連する複数の触覚トラックを特定するデータを取得するステップと、
    前記複数のコンテンツ要素のうちのコンテンツ要素の選択を決定するステップと、
    前記複数の触覚トラックのうちの触覚トラックであって、前記選択されたコンテンツ要素に関連する触覚トラックを特定するステップと、
    前記触覚トラックに基づいて触覚効果を決定するステップと、
    前記触覚効果の特性を決定するステップと、
    前記コンテンツに基づいてコンテンツ信号を、前記コンテンツの少なくとも一部を出力するように構成されている出力デバイスに送信するステップと、
    前記特性に基づいており、前記コンテンツの前記少なくとも一部に対応する前記触覚効果を触覚出力デバイスに出力させるように構成されている触覚信号を前記触覚出力デバイスに送信するステップと
    を含む方法。
  14. 前記触覚効果の特性を修正するステップをさらに含む請求項13に記載の方法。
  15. 前記触覚トラックを特定するステップは、
    前記コンテンツ中の前記複数のコンテンツ要素に関連する前記複数の触覚トラックを示すデータを出力するステップと、
    前記触覚トラックの前記選択を受けるステップと
    を含む、請求項13に記載の方法。
  16. 前記触覚トラックを特定するステップは、
    前記ユーザと前記選択されたコンテンツ要素との距離を決定するステップと、
    前記距離に基づいて前記複数の触覚トラックのうちの前記触覚トラックを選択するステップと
    を含む、請求項13に記載の方法。
  17. 前記触覚トラックを特定するステップは、
    センサからセンサ信号を受けるステップと、
    前記センサ信号に基づいて、前記ユーザの視線が前記選択されたコンテンツ要素に向けられていると判断することに応じて、前記特定のコンテンツ要素に関連する前記触覚トラックを特定するステップと
    を含む、請求項13に記載の方法。
  18. 前記触覚トラックの前記特性を決定するステップは、
    センサからセンサ信号を受けるステップであって、前記センサ信号は、コンピューティングデバイスのタッチ面に対する接触に関連する圧力を示す、ステップと、
    前記センサ信号に基づいて圧力量を決定するステップと、
    前記圧力量に基づいて前記触覚トラックの前記特性を決定するステップと
    を含む、請求項13に記載の方法。
  19. 前記触覚トラックの前記特性を決定するステップは、
    前記ユーザと前記選択されたコンテンツ要素との距離を決定するステップと、
    前記距離に基づいて前記触覚トラックの前記特性を決定するステップと
    を含む、請求項13に記載の方法。
  20. 前記触覚トラックの前記特性を決定するステップは、
    センサからセンサ信号を受けるステップであって、前記センサ信号は前記ユーザの動きを示す、ステップと、
    前記ユーザの前記動きに基づいて前記触覚トラックの前記特性を決定するステップと
    を含む、請求項13に記載の方法。
JP2019200345A 2018-11-02 2019-11-02 カスタマイズ可能な触覚再生を提供するシステムおよび方法 Pending JP2020080152A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/178,664 US10775894B2 (en) 2018-11-02 2018-11-02 Systems and methods for providing customizable haptic playback
US16/178,664 2018-11-02

Publications (1)

Publication Number Publication Date
JP2020080152A true JP2020080152A (ja) 2020-05-28

Family

ID=68426233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019200345A Pending JP2020080152A (ja) 2018-11-02 2019-11-02 カスタマイズ可能な触覚再生を提供するシステムおよび方法

Country Status (5)

Country Link
US (2) US10775894B2 (ja)
EP (1) EP3647915A1 (ja)
JP (1) JP2020080152A (ja)
KR (1) KR20200050869A (ja)
CN (1) CN111142658A (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK179978B1 (en) * 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
WO2019114921A1 (en) * 2017-12-11 2019-06-20 Telefonaktiebolaget Lm Ericsson (Publ) Method for capturing haptic content in multiple communication devices
JP7127562B2 (ja) * 2019-01-31 2022-08-30 株式会社島津製作所 触覚刺激呈示装置
US10924875B2 (en) * 2019-05-24 2021-02-16 Zack Settel Augmented reality platform for navigable, immersive audio experience
US11698680B2 (en) * 2020-06-23 2023-07-11 Immersion Corporation Methods and systems for decoding and rendering a haptic effect associated with a 3D environment
US11590411B2 (en) 2020-12-17 2023-02-28 Dell Products, Lp Pressure sensor with microphone and metal oxide sensor of a gaming headset microphone mouthpiece
EP4363951A1 (en) * 2021-06-28 2024-05-08 Distal Reality Llc Techniques for haptics communication
WO2023099133A1 (en) * 2021-12-02 2023-06-08 Interdigital Ce Patent Holdings, Sas Timeline based representation for haptic signal
US11755115B2 (en) 2021-12-07 2023-09-12 International Business Machines Corporation Simulated user interface in mixed reality for haptic effect management

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060284834A1 (en) 2004-06-29 2006-12-21 Sensable Technologies, Inc. Apparatus and methods for haptic rendering using a haptic camera view
US9582178B2 (en) * 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US9833697B2 (en) 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
WO2014201151A1 (en) * 2013-06-11 2014-12-18 Immersion Corporation Systems and methods for pressure-based haptic effects
US9965034B2 (en) * 2013-12-30 2018-05-08 Immersion Corporation Systems and methods for a haptically-enabled projected user interface
US9588588B2 (en) * 2014-09-22 2017-03-07 Disney Enterprises, Inc. Customized haptic effects
US20160342208A1 (en) * 2015-05-20 2016-11-24 Immersion Corporation Haptic effects based on predicted contact
EP3179336A1 (en) 2015-12-07 2017-06-14 Thomson Licensing Method and device for rendering haptic effects in an immersive content
US9880627B2 (en) * 2015-12-15 2018-01-30 Immersion Corporation Automated haptic setting generation
US10324531B2 (en) 2016-12-27 2019-06-18 Immersion Corporation Haptic feedback using a field of view

Also Published As

Publication number Publication date
US20200341551A1 (en) 2020-10-29
US10775894B2 (en) 2020-09-15
CN111142658A (zh) 2020-05-12
KR20200050869A (ko) 2020-05-12
EP3647915A1 (en) 2020-05-06
US20200142484A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
US10775894B2 (en) Systems and methods for providing customizable haptic playback
US11398067B2 (en) Virtual reality presentation of body postures of avatars
US9342147B2 (en) Non-visual feedback of visual change
JP6516477B2 (ja) ユーザ生成コンテンツをオーサリングするためのシステム及び方法
CN105009031B (zh) 增强现实设备以及在其上操作用户界面的方法
KR20150022694A (ko) 스포츠 이벤트를 햅틱으로 이용할 수 있는 시청
US20180232051A1 (en) Automatic localized haptics generation system
KR20150141151A (ko) 시각 및/또는 근접성에 기초하여 햅틱 강도를 변경하기 위한 프로그램가능한 햅틱 디바이스 및 방법
US10139901B2 (en) Virtual reality distraction monitor
KR20190122559A (ko) 증강 또는 가상 현실 환경들에 대한 동적 햅틱 재생을 제공하기 위한 시스템들 및 방법들
US11579752B1 (en) Augmented reality placement for user feedback
JP6273243B2 (ja) 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム
WO2019245726A1 (en) Gesture-based user interface for ar and vr with gaze trigger
US20240066399A1 (en) Smooth switchover of computer game control
US11934627B1 (en) 3D user interface with sliding cylindrical volumes
US11914146B2 (en) Methods and systems for adding real-world sounds to virtual reality scenes
US20240012468A1 (en) Method and apparatus for managing a virtual session
WO2023056225A2 (en) Systems and methods for haptic feedback effects
CN117836039A (zh) 用于触觉反馈效果的系统和方法
WO2024064529A1 (en) Systems and methods for modifying user sentiment for playing a game
KR20190127301A (ko) 게임 서비스 시스템 및 상기 시스템에서의 영상 제공 방법

Legal Events

Date Code Title Description
AA79 Non-delivery of priority document

Free format text: JAPANESE INTERMEDIATE CODE: A24379

Effective date: 20200313