JP2023540785A - 触覚シーン表現形式 - Google Patents

触覚シーン表現形式 Download PDF

Info

Publication number
JP2023540785A
JP2023540785A JP2023515688A JP2023515688A JP2023540785A JP 2023540785 A JP2023540785 A JP 2023540785A JP 2023515688 A JP2023515688 A JP 2023515688A JP 2023515688 A JP2023515688 A JP 2023515688A JP 2023540785 A JP2023540785 A JP 2023540785A
Authority
JP
Japan
Prior art keywords
haptic
geometric model
file
information representing
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023515688A
Other languages
English (en)
Inventor
ギロテル、フィリップ
ダニオー、ファビアン
ガルヴァヌ、クエンティン
Original Assignee
インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ filed Critical インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Publication of JP2023540785A publication Critical patent/JP2023540785A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

触覚レンダリングデバイス及び対応する方法は、少なくとも1つの触覚チャネルについて、幾何モデルを表現する情報と、触覚フィードバックを適用する幾何モデルの要素を表現する情報とを含むメタデータによって記述される触覚効果をレンダリングすることを可能にし、関連する触覚ファイルは、適用される触覚信号を構成する。必要な情報を搬送するためのファイル形式が提供される。【選択図】図3

Description

本実施形態の少なくとも1つは、概して触覚に関し、より詳細には触覚シーン表現形式の定義に関する。
完全没入型ユーザ体験は、没入とインタラクションに基づく仮想現実(virtual reality:VR)システムを通じてユーザに提案される。現在の視覚及び聴覚フィードバックは、満足のいくリアルな没入感を提供する。インタラクションは、制御及びフィードバックを必要とする。ユーザのニーズを満たす多くの異なる制御方法が存在する。フィードバックは、触覚によって提供され、人間のユーザが自分自身の感覚で仮想環境を知覚することを可能にする。しかしながら、触覚は、仮想現実システムにおける全体的なユーザ体験を向上させるための、まだ進歩の可能性がある分野の1つである。
従来、VRシステムは、仮想環境を表現する3Dシーンに基づいており、3Dシーン内に位置特定された仮想オブジェクトから構成されている。これらのオブジェクトは静的であっても動的であってもよい。仮想環境の要素とのユーザインタラクションを向上させるために、触覚フィードバックが使用されてもよい。したがって、生成される触覚フィードバックを記述する触覚信号は、仮想環境の要素に関連付けられることが好ましい。触覚信号は、仮想環境内でのユーザのインタラクションに基づいて触覚レンダリングデバイスによって取得され、次いで触覚レンダリングデバイスによってレンダリングされる。VRシステムのコンテキストで示されているが、本明細書で説明される原理は、例えば、拡張現実又は触覚拡張ビデオレンダリングなどの触覚を使用する他のコンテキストにも適用され、より一般的には、あらゆる触覚ベースのユーザ体験に適用される。
触覚とは、接触の感覚を指し、触覚及び運動感覚の2つのタイプを含む。第1に、摩擦、ざらつき、硬さ、温度などの触覚に関するものであり、皮膚の機械受容器(メルケル細胞、ルフィニ終末、マイスナー小体、パチニ小体)を通じて感じられる。第2に、関節における筋肉、腱及び機械受容器によって提供される力/トルク、位置、運動/速度の感覚に関連するものである。これらのモダリティに対応する信号は、振動信号に対応する、より低い周波数範囲を有するオーディオ信号(すなわち、一次元)に匹敵する。周波数範囲は、モダリティのタイプにより異なるが、約0~1KHzである。触覚信号をレンダリングすることができるほとんどの既存のデバイスは、振動を生成することができる。そのようなデバイス、すなわち触覚アクチュエータの例としては、リニア共振アクチュエータ(linear resonant actuator:LRA)、偏心回転質量(eccentric rotating mass:ERM)、ボイスコイル・リニア・モータが挙げられる。これらのアクチュエータは、触覚スーツなどの触覚レンダリングデバイスに統合されてもよいが、スマートフォン又はゲームコントローラに統合されてもよい。
触覚信号を符号化するために、XMLのような形式(例えば、MPEG-V)を使用する高レベル記述、jsonのような形式(Apple AHAP、immersion.com HAPT)を使用するパラメトリック表現、又は波形符号化(触覚信号及び運動感覚信号のためのIEEE1918.1.1の現在進行中の標準化)のいずれかに関連する、いくつかの形式が定義されている。HAPT形式は、近年、MPEG ISOBMFFファイル形式仕様(ISO/IEC14496part12)に含められている。
以下に記載される実施形態は、上記を念頭に置いて設計されている。
触覚レンダリングデバイス及び対応する方法は、少なくとも1つの触覚チャネルについて、幾何モデルを表現する情報と、触覚フィードバックを適用する幾何モデルの要素を表現する情報とを含むメタデータ、及び適用される触覚信号を表現する情報によって記述される触覚効果をレンダリングすることを可能にする。少なくとも1つの実施形態では、触覚信号は、複数のチャネルを含むことができるオーディオファイル形式を使用して別個のファイル上で搬送される。必要なメタデータ情報を搬送するためのファイル形式が提供される。
少なくとも1つの実施形態の第1の態様は、幾何モデルを表現する情報を含む触覚チャネルを表現する少なくとも1つの情報と、触覚フィードバックを適用する幾何モデルの要素を表現する情報とを含むメタデータファイル、及びレンダリングされる少なくとも1つの触覚信号を含む触覚ファイルを含む、触覚フィードバックを表現する情報を搬送する触覚フィードバックをレンダリングするための信号を対象とする。
少なくとも1つの実施形態の第2の態様は、第1の態様による触覚フィードバックを表現する情報を取得し、触覚フィードバックを表現する情報に基づいて、触覚信号及び触覚レンダリングデバイスの触覚アクチュエータのセットを選択し、選択された触覚信号を触覚レンダリングデバイスの選択された触覚アクチュエータに適用することによって触覚フィードバックをレンダリングするように構成されたプロセッサを含む、触覚信号をレンダリングするための装置を対象とする。
少なくとも1つの実施形態の第3の態様は、第1の態様による触覚フィードバックを表現する情報を取得するステップと、触覚フィードバックを表現する情報に基づいて、触覚信号及び触覚レンダリングデバイスの触覚アクチュエータのセットを選択するステップと、選択された触覚信号を触覚レンダリングデバイスの選択された触覚アクチュエータに適用することによって触覚フィードバックをレンダリングするステップとを含む、触覚信号をレンダリングするための方法を対象とする。
少なくとも1つの実施形態の第4の態様によれば、プロセッサによって実行可能なプログラムコード命令を含むコンピュータプログラムが提示され、コンピュータプログラムは、少なくとも第1の態様による方法のステップを実装する。
少なくとも1つの実施形態の第5の態様によれば、非一時的コンピュータ可読媒体に格納され、プロセッサによって実行可能なプログラムコード命令を含むコンピュータプログラム製品が提示され、コンピュータプログラム製品は、少なくとも第1の態様による方法のステップを実装する。
様々な態様及び実施形態が実装される、システムの一例のブロック図を示す。 少なくとも1つの実施形態による、触覚フィードバック記述ファイルをレンダリングするためのプロセスの例示的なフローチャートを示す。 少なくとも1つの実施形態による、触覚フィードバック記述ファイルのデータ編成の一例を示す。 少なくとも1つの実施形態による、触覚フィードバック記述ファイルの例示的なシンタックスを示す。 様々なメッシュ密度を有する3つの汎用幾何モデルを示す。 様々なメッシュ密度を有する3つの汎用幾何モデルを示す。 様々なメッシュ密度を有する3つの汎用幾何モデルを示す。 少なくとも1つの実施形態による、カスタム幾何モデルを使用するための例示的なシンタックスを示す。 少なくとも1つの実施形態による、触覚ファイルの例示的なシンタックスを示す。 少なくとも1つの実施形態による、身体部位の定義の一例を示す。 図9のカスタム幾何モデル上の身体部位のマッピングの一例を示す。 少なくとも1つの実施形態による、バイナリマスクを使用した身体部位の組み合わせの一例を示す。 それぞれ、上半身部、左脚部及び右腕部の身体部位のグループ分けを示す。 それぞれ、上半身部、左脚部及び右腕部の身体部位のグループ分けを示す。 それぞれ、上半身部、左脚部及び右腕部の身体部位のグループ分けを示す。
少なくとも1つの実施形態では、ファイル形式のシンタックス定義は、ユーザに触覚効果をレンダリングすることを可能にする情報を記述する。この目的のために、以下に説明される実施形態によれば、以下の用語が本明細書において使用される。
「触覚オブジェクト」は、ユーザに伝達される物理的現象に対応する。触覚オブジェクトは、微風などのグローバル環境に関連してもよいし、胸部のパンチなどの局所的な効果に関連してもよい。触覚オブジェクトの別の例としては、爆発が挙げられる。爆発は、振動及び熱を通じてレンダリングされ得、したがって、触覚フィードバックの異なる態様を必要とする。これは、複数の「触覚チャネル」を使用して行われる。「触覚フィードバック記述ファイル」は、触覚フィードバックを提供するために必要な要素を記述するために使用される。そのようなファイルには、複数のチャネルを搬送する複数の触覚オブジェクトそのものを集めてもよい。典型的には、ある触覚オブジェクトは、グローバルな効果(風)に関連付けられ得、ある触覚オブジェクトは、2つの触覚チャネルを通じて振動及び熱を使用することをレンダリングすることによって局所的な効果(爆発)に関連付けられ得る。
触覚効果は、正確な位置に適用されるときに最も効果的に発揮される。したがって、少なくとも1つの実施形態では、各触覚フィードバックチャネルに対して、効果が適用される位置を指定することが提案される。これは2つのステップで行われ得る。第1に、触覚知覚の空間的鋭敏さを表現する幾何モデルを選択するステップによって、第2に、触覚効果が適用される位置を選択するステップによって、行われてもよい。幾何モデルは、標準的な所定のモデルのセットから選択された汎用モデルとしていずれかを選択されてもよい。この場合、モデルは人体のメッシュに基づく。幾何モデルはまた、その幾何学的形状を指定することによってカスタム幾何モデルとして判定されてもよい。これは、例えば触覚チェアなどの非標準触覚レンダリングデバイスに適合することを可能にする。この場合、触覚知覚の空間的鋭敏さは、レンダリングデバイス上のアクチュエータの正確な位置によって制限される。提案されたファイル形式では、幾何モデルは「アバターモデル」と呼ばれ、「avatar_ID」によって識別される。加えて、触覚効果の「タイプ(type)」は、avatar_IDに関連付けられる。爆発の例では、2つの触覚チャネルが使用され、第1のチャネルは振動を伝達し、第2のチャネルは熱を伝達する。これらの触覚チャネルは、対応するavatar_IDに関連付けられ、1つは振動に適合され、1つは熱に適合される。更には、適用される触覚効果を記述するオーディオ信号が、触覚チャネルの各々に関連付けられる。これらの触覚信号は、オーディオファイル内に別個のオーディオチャネルとして格納される。
図1は、様々な態様及び実施形態が実装されるシステムの一例のブロック図を示す。図示された仮想現実システムにおいて、ユーザAliceは、触覚レンダリングデバイス100を使用して、通信ネットワーク170を通じて仮想現実シーン190をホストするサーバ180とインタラクションを行う。この仮想現実シーン190は、オーディオ、ビデオ、3Dモデル、VRシーン記述、及び少なくとも1つの触覚フィードバック記述ファイル191など、異なるタイプのコンテンツを表現する様々なファイルを含んでもよい。
触覚レンダリングデバイスはプロセッサ101を備える。プロセッサ101は、汎用プロセッサ、専用プロセッサ、従来のプロセッサ、デジタル信号プロセッサ(digital signal processor:DSP)、複数のマイクロプロセッサ、DSPコアに関連付けられた1つ以上のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(Application Specific Integrated Circuits:ASICs)、フィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array:FPGAs)回路、任意の他のタイプの集積回路(integrated circuit:IC)、状態機械などであってもよい。プロセッサは、触覚信号復号、入力/出力処理、及び/又はデバイスが仮想現実システムにおいて動作することを可能にする任意の他の機能などのデータ処理を行ってもよい。
プロセッサ101は、ユーザインタラクションを伝達するように構成された入力ユニット102に結合されてもよい。複数のタイプの入力及びモダリティが、その目的のために使用されることができる。物理的なキーパッド及びタッチセンサ面は、この用途に適合された入力ユニットの典型的な例であるが、音声制御も使用することができる。加えて、入力ユニットは、静止画像又はビデオを取り込むことができるデジタルカメラを備えてもよい。プロセッサ101は、スクリーン上に表示される視覚データを出力するように構成されたディスプレイユニット103に結合されてもよい。液晶ディスプレイ(LCD)又は有機発光ダイオード(OLED)ディスプレイユニットなど、複数のタイプのディスプレイがその目的のために使用されることができる。プロセッサ101はまた、例えば、ラウドスピーカなどの適合されたトランスデューサを通じてオーディオ波に変換されるサウンドデータをレンダリングするように構成されたオーディオユニット104に結合されてもよい。プロセッサ101は、外部デバイスとデータを交換するように構成された通信インターフェース105に結合されてもよい。通信は、好ましくは、LTE通信、Wi-Fi通信など、触覚レンダリングデバイスのモビリティを提供する無線通信規格を使用する。プロセッサ101は、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、ハードディスク、加入者識別モジュール(SIM)カード、メモリスティック、セキュアデジタル(SD)メモリカード、任意の他のタイプのメモリ記憶デバイスを含む、複数のタイプのメモリを備え得る、メモリ106からの情報にアクセスし、データをそこに格納してもよい。一実施形態では、プロセッサ101は、サーバ、ホームコンピュータ、又は別のデバイスなど、デバイス上に物理的に配置されていないメモリからの情報にアクセスし、そのメモリにデータを格納してもよい。
プロセッサ101は、ユーザに触覚フィードバックを提供するように構成された触覚ユニット107に結合されてもよく、触覚フィードバックは、仮想現実シーン190に関連付けられた触覚フィードバック記述ファイル191によって記述される。触覚フィードバック記述ファイル191は、以下で更に説明されるシンタックスに従って提供されるフィードバックのタイプを記述する。そのような記述ファイルは、典型的には、サーバ180から触覚レンダリングデバイス100に伝達される。触覚ユニット107は、触覚レンダリングデバイス上の複数の位置に配置された複数の触覚アクチュエータを備えてもよい。異なる触覚ユニットは異なる数のアクチュエータを有してもよく、及び/又はアクチュエータは触覚レンダリングデバイス上に異なるように配置されてもよい。
プロセッサ101は、電源108から電力を受信してもよく、デバイス100における他の構成要素に電力を分配し、且つ/又は制御するように構成されてもよい。電源は、デバイスに電力を供給するための任意の適切なデバイスであってもよい。例として、電源は、1つ以上の乾電池(例えば、ニッケル-カドミウム(nickel-cadmium:NiCd)、ニッケル-亜鉛(nickel-zinc:NiZn)、ニッケル水素(nickel metal hydride:NiMH)、リチウムイオン(lithium-ion:Li-ion)など)、太陽電池、燃料電池などを含んでもよい。
この図は、プロセッサ101及び他の要素102~108を別個の構成要素として示しているが、これらの要素は、電子パッケージ又はチップ内に共に統合されてもよいことが理解されよう。触覚レンダリングデバイス100は、一実施形態との整合性を保ちつつ、本明細書に記載の要素の任意の部分的組み合わせを含んでもよいことが理解されよう。プロセッサ101は、追加の特徴、機能、及び/又は有線若しくは無線接続を提供する1つ以上のソフトウェア及び/又はハードウェアモジュールを含み得る、図1に示されていない他の周辺機器又はユニットに更に結合されてもよい。例えば、周辺機器は、ユニバーサル・シリアル・バス(universal serial bus:USB)ポート、振動デバイス、テレビトランシーバ、ハンズ・フリー・ヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(frequency modulated:FM)ラジオユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオ・ゲーム・プレーヤ・モジュール、インターネットブラウザなどのセンサを含んでもよい。例えば、プロセッサ101は、その環境内で触覚レンダリングデバイスを位置特定するように構成された位置特定ユニットに結合されてもよい。位置特定ユニットは、触覚レンダリングデバイスの現在位置に関する経度及び緯度の位置を提供するGPSチップセットだけでなく、位置特定サービスを提供する加速度計及び/又は電子コンパスなどの他のモーションセンサも統合してもよい。
触覚レンダリングデバイス100の典型的な例としては、触覚スーツ、スマートフォン、ゲームコントローラ、触覚グローブ、触覚チェア、触覚プロップ、モーションプラットフォームなどが挙げられるが、同様の機能を提供する任意のデバイス又はデバイスの構成が、本開示の原理に準拠しつつ、触覚レンダリングデバイス100として使用され得る。
少なくとも1つの実施形態では、デバイスは、ディスプレイユニットを含まないが、触覚ユニットを含む。そのような実施形態では、デバイスは、シーンを視覚的にレンダリングせず、触覚効果のみをレンダリングする。しかしながら、デバイスは、表示のためのデータを準備し、そのデータをスクリーンなどのディスプレイデバイスに提供してもよく、その結果、このデバイスは表示を実行することができる。そのようなデバイスの例としては、触覚スーツ又はモーションプラットフォームが挙げられる。
少なくとも1つの実施形態では、デバイスは、触覚ユニットを含まないが、ディスプレイユニットを含む。そのような実施形態では、デバイスは、触覚効果をレンダリングせず、シーンを視覚的にレンダリングするのみである。しかしながら、デバイスは、触覚効果をレンダリングするためのデータを準備し、触覚プロップなどの触覚レンダリングデバイスにデータを提供してもよく、その結果、このデバイスは触覚レンダリングを実行することができる。そのようなデバイスの例としては、スマートフォン、ヘッドマウントディスプレイ又はラップトップが挙げられる。
少なくとも1つの実施形態では、デバイスは、ディスプレイユニットも触覚ユニットも含まない。そのような実施形態では、デバイスは、シーンを視覚的にレンダリングせず、触覚効果をレンダリングしないが、表示のためのデータを準備し、データをスクリーンなどのディスプレイデバイスに提供する結果、このデバイスは表示を実行できる。また、触覚効果をレンダリングするためのデータを準備し、データを触覚プロップなどの触覚レンダリングデバイスに提供する結果、このデバイスは触覚レンダリングを実行できる。そのようなデバイスの例としては、デスクトップコンピュータ、光メディアプレーヤ、又はセットトップボックスが挙げられる。
少なくとも1つの実施形態では、仮想現実シーン及び関連する触覚フィードバック記述ファイルは、局所的なインタラクションを可能にする触覚レンダリングデバイス100のメモリ106に直接ホストされる。
図2は、少なくとも1つの実施形態による、触覚フィードバック記述ファイルをレンダリングするためのプロセスの例示的なフローチャートを示す。そのようなプロセス200は、典型的には、触覚レンダリングデバイス100において実装され、そのようなデバイスのプロセッサ101によって実行される。ステップ201において、プロセッサは、触覚フィードバック記述ファイルを取得する(図1の191)。これは、例えば、通信ネットワークを通じてサーバからそれを受信することによって、外部記憶デバイス又はローカルメモリからそれを読み取ることによって、又は任意の他の手段によって行われてもよい。ステップ202において、プロセッサは、触覚レンダリングデバイスの触覚効果をどのように適用するかを判定するために、言い換えれば、どの触覚信号がどのアクチュエータ又はアクチュエータのセットに適用される必要があるかを選択するために、触覚フィードバック記述ファイルを解析する。ステップ203において、プロセッサは、選択された触覚信号を、触覚アクチュエータ又はアクチュエータのセットに適用する触覚ユニットに提供し、それにより、触覚フィードバックをレンダリングする。
少なくとも1つの実施形態では、ファイルの組合せを使用して触覚フィードバックを配信することが提案され、触覚フィードバック記述ファイルは、触覚フィードバックの異なるパラメータを記述するメタデータを含み、触覚ファイルは、典型的にはオーディオ信号の形態でレンダリングされる触覚信号を伝達する。少なくとも1つの実施形態では、メタデータは、MPEGオブジェクト・オーディオ・メタデータ「.oam」ファイル形式から示唆された別個のファイルに格納される(触覚ファイルは、波形オーディオファイル形式としても知られる「.wav」ファイル形式を使用する別個のファイルである)。他の実施形態では、本明細書で開示された原理を尊重しながら、他のファイル形式が使用される。
図3は、少なくとも1つの実施形態による、触覚フィードバック記述ファイルのデータ編成の一例を示す。この例としては、第1の触覚レンダリングデバイスは、2つのスリーブのみが振動をレンダリングするための触覚アクチュエータを備える触覚ベスト380が挙げられる。第2の触覚レンダリングデバイスは触覚チェア390であり、これも振動をレンダリングすることができる。
まず、触覚フィードバック記述ファイル300に、レンダリングされる触覚効果が記述される。少なくとも1つの実施形態によれば、このファイルは、aomファイル形式及びシンタックスを使用する。この例では、1つの触覚オブジェクト310が触覚フィードバック記述ファイル300内に存在する。しかしながら、上で紹介したように、触覚フィードバック記述ファイルは、複数の触覚オブジェクトを含んでもよい。
触覚オブジェクト310は、3つの触覚チャネル311、312、313から構成される。触覚チャネル311は、標準的な汎用事前定義幾何モデル350のセットから選択された幾何モデル351(avatar_ID)に関連付けられ、より正確には、幾何モデル351の左腕(左腕に対応するbody_part_mask)に関連付けられる。触覚チャネル310はまた、オーディオファイル311に関連付けられ、より具体的には、オーディオ信号321を含むオーディオファイルの第1のチャネルに関連付けられる。したがって、触覚レンダリングデバイス380は、左腕の触覚アクチュエータに適用されるオーディオ信号321を選択することができる。同様に、右腕については、第2の触覚チャネル312の情報によって定義されるように、オーディオ信号322(オーディオファイルの第2のチャネル)が右腕の触覚アクチュエータに適用され、触覚フィードバック記述ファイル300において定義されるような振動を触覚ベスト380上でレンダリングすることができる。
同じ原理が触覚チェア390に適用されるが、custom avatar_IDを使用する点が異なる。実際、その幾何学的形状は、汎用幾何モデルのセットの一部ではない。したがって、対応する幾何学的形状は、触覚フィードバック記述ファイル300内のcustom avatar_ID330として定義される。第3のオーディオ信号323は、触覚チェア390のアクチュエータに適用されるように選択される。
触覚チャネルとオーディオチャネルとの間の関連付けは暗黙的であり、出現の順序に従って行われる。触覚オブジェクトの第1の触覚チャネルは、触覚オブジェクトに(明示的に)関連付けられたオーディオファイルの第1のオーディオチャネルに関連付けられる。
少なくとも1つの実施形態による触覚フィードバック記述ファイルのデータ編成の第2の例(図示せず)では、ファイルは、2つの異なる触覚オブジェクトを含む。したがって、触覚チャネルは異なる触覚オブジェクト内にある。この場合、2つの異なるオーディオファイルfile1.wav及びfile2.wavを使用することが可能である。
モデル350のセットは、典型的には、異なるレベルの詳細を有する人体の幾何学的形状を表現し、したがって、異なるレベルの精度を提供する。図において、幾何モデル351の精度は、幾何モデル352の詳細メッシュよりもはるかに低い。
図4は、少なくとも1つの実施形態による触覚フィードバック記述ファイルの例示的なシンタックスを示す。この実施形態では、触覚フィードバック記述ファイルは、「.aom」オブジェクト・メタデータ・ファイル形式によって示唆される。別の実施形態では、xml形式が使用され、図4に記載されるシンタックスがこの形式に適合される。任意の他の記述形式(例えば、json、CSV、バイナリなど)が、そのような情報を伝達するように適合されてもよい。触覚フィードバック記述ファイルは、適用される触覚フィードバックを記述するメタデータを含む。それは、複数の触覚オブジェクト及び触覚チャネルをサポートする。特に、それは、触覚チャネルをユーザの身体メッシュの部位にマッピングする。これは、触覚効果の空間化を可能にし、レンダリングデバイスからの独立性を提供する。各チャネルは、身体部位にマッピングされる。マッピングは、バイナリマスクで指定されてもよく、触覚効果が生じる広い領域をカバーする大まかな定義を可能にする。あるいは、マッピングはまた、識別器によって識別された頂点のセットによって直接指定されてもよく、触覚効果のはるかに正確な配置を可能にする。
「.aom」オブジェクト・メタデータ・ファイル形式によって示唆されたメタデータファイルのシンタックス要素は、以下の通りであることができる。
-format_id_string:形式を識別するための一意の文字識別子であり、「OAM」に等しい。
-format_version:ファイル形式のバージョン番号であり、例えば1に等しい。
-number_of_haptic_objects:シーンをコンパイルする触覚オブジェクトの数。オブジェクトは、典型的には、エンドユーザの触覚レンダリングデバイスに対応する。
-number_of_avatar_models:1つ又はいくつかのモデルに対応する、アバター記述の数。
-description_string:人間が読めるコンテンツの記述を含む記述文字列。32バイトより短い場合には、その後にヌル文字がパディングされる。文字列が32バイト長である場合、文字列はヌル文字なしで終了する。
-avatar_description():ユーザのアバター身体表現、又はより一般的には触覚アクチュエータが基づく幾何学的形状を記述するためのモデル。このモデルは、図6及び図8に関連して以下で更に説明される。
-haptic_object_file_name:対応する触覚オブジェクトファイルのファイル名を含む記述文字列。64バイトより短い場合には、その後にヌル文字がパディングされる。文字列が64バイト長である場合、文字列はヌル文字なしで終了する。触覚オブジェクトファイルは、2つ以上のチャネルを含むことができる。
-number_of_haptic_channels:触覚オブジェクトごとの同時チャネルの数。
-avatar_ID:幾何モデルの識別子(触覚信号のタイプごとに1つのメッシュ解像度を有してもよい)。
-body_part_mask:効果が適用される身体部位を指定するバイナリマスク。
-number_of_vertices:触覚効果によって影響を受ける幾何モデル上の追加の頂点の数。
-vertex_ID:アバターモデル内の頂点の識別子へのリンク。
-coefficient:特定の頂点に適用されるゲイン。
format_id_stringは、例えばオブジェクト触覚メタデータを表すことができる「OHM」などの他の文字識別子を使用してもよいことに留意されたい。
係数は、触覚効果の適用をスケーリングするために使用されてもよい。全身触覚スーツ上で振動を生成すべき爆発の例では、身体の前面が爆発に面していると仮定すると、触覚効果は、1.0より大きい係数を適用することによってスーツの前面で増幅されてもよく、1.0より小さい係数を適用することによってスーツの背面で低減されてもよく、同じ触覚オーディオ信号を使用しても、異なる振幅になる。
少なくとも1つの実施形態では、description_stringは、トップレベルではなく、チャネルループ内に配置されており、より低レベルの正確な記述を可能にする一方で、サイズが増加する可能性がある。
一般に、幾何モデルは、人体のモデルに対応するが、いくつかの特定の場合において、レンダリングデバイスのトポロジは、触覚チェアの例を用いて図3に示されるように、人体モデルとは異なっていてもよい。この幾何モデルを特定するために2つの方法が提案され、第1の方法は汎用幾何モデルを使用し、第2の方法はカスタム幾何モデルを使用する。
汎用モデルの場合、avatar_IDの範囲、例えば0から255が予約される。これらの汎用モデルは、既知の身体セグメンテーション(すなわち、既知の頂点位置、頂点ID、顔及び身体部位)を有する。汎用幾何モデルはまた、詳細のレベル及び触覚効果のタイプが決められている。
カスタム幾何モデルが必要とされるときは、予約された範囲外の値のavatar_ID値が使用される必要がある。この場合、幾何モデルも提供される必要がある。そのようなモデルは、一般に、レンダリングデバイス上の触覚アクチュエータの位置を直接表現している(上記の触覚チェアの例を参照)。
図5A、図5B、図5Cは、例えば、温度、振動、又は圧力のレンダリングに適合される、種々のメッシュ密度を伴う汎用幾何モデルの3つの例を図示する。これらのモデルの各々のトポロジは、様々な触覚効果に対する感度に相関する異なるレベルの詳細を提示する。例えば、触覚効果は、運動感覚効果よりも高いメッシュ密度を必要とする。他方では、風又はグローバルな温度変動などの効果を、非常に粗い幾何モデルに適用することができる。
標準的な汎用モデルを使用することで、伝達するのに必要なデータの量を低減することができる。しかしながら、メッシュの各頂点と触覚デバイスの異なるアクチュエータとの間のマッピングを学習するために、更なる較正を必要とする場合がある。そのような較正は、典型的には、デバイスを送達する前に製造業者によって直接行われる。しかしながら、場合によっては、較正は、例えば、ユーザの触覚の好みを考慮するために、幾何学的形状処理方法を通じて自動的に、又はユーザによって手動で行われることができる。
図6は、少なくとも1つの実施形態によるカスタム幾何モデルを使用するための例示的なシンタックスを示す。用途に応じて、各コンテンツに対して、カスタム幾何モデルが使用されることができる。このモデルは、例えば、それ自身の特異性を考慮して、ユーザに適合されてもよい。少なくとも1つの実施形態では、モデルは、頂点のセット、面のセット、及びメッシュの関連付けられた身体部位を提供する、図6に提示された形式を使用して指定される。
カスタム幾何モデルのシンタックス要素は以下の通りである。
-format_version:ファイル形式のバージョン番号であり、例えば1に等しい。
-avatar_ID:アバター記述の識別子(触覚信号のタイプごとに1つのメッシュ解像度を有してもよい)。
-lod:アバターの詳細のレベルを指定する数:例えば、それぞれの低解像度、平均解像度、及び高解像度ついて、0、1、又は2。それは、多かれ少なかれ複雑な表現を使用することを可能にする。
-type:モデルに関連付けられた触覚効果のタイプ。典型的には、振動、圧力、温度などである。異なるタイプを異なるロッド解像度に関連付けることができる。
-number_of_vertices:メッシュの頂点の数。
-number_of_faces:メッシュ内の面の数。
-vertex_ID:vertex_x、vertex_y、vertex_zを有するその空間的位置(x,y,z)を有する対応する頂点のインデックス。
-face_ID:メッシュ内の対応する面のインデックス。
-vertex_ID_1、vertex_ID_2及びvertex_ID_3:現在の頂点vertex_IDに接続された3つの面。
-body_part_ID:対応する頂点に関連付けられた身体部位のインデックス。
上述の実施形態は、三角形メッシュを使用する。少なくとも1つの実施形態では、カスタム幾何モデルは、例えば四辺形を使用する別のタイプの多角形メッシュを使用する。
少なくとも1つの実施形態では、多角形メッシュは、外部幾何学的形状定義ファイル(例えば、OBJファイル又はメッシュを定義するための任意の他の既存の形式など)において定義される。この場合、外部ファイルの頂点とvertex_IDとの間の対応は、外部ファイルの第1の頂点は、0に等しいvertex_IDを有し、vertex_IDは、外部ファイルの各頂点についてインクリメントされるように、行われてもよい。
一実施形態では、タイプのシンタックス要素は、異なるタイプの触覚フィードバックの固定値の中から選択された符号なし整数値によって置き換えられる。例えば、振動については「1」、圧力については「2」、温度については「3」である。
図7は、少なくとも1つの実施形態による、触覚ファイルの例示的なシンタックスを示す。この実施形態では、触覚ファイルは、「.wav」オーディオ波形ファイル形式に基づく。別の実施形態では、「.flac」形式が使用され、図5に記載されるシンタックスがこの形式に適合される。他の実施形態は、同様に使用される他のファイル形式、例えば、「.ogg」、「.aac」、「.ac3」を使用する。
「.wav」形式は、一般にオーディオ信号を対象としており、したがって、いくつかのパラメータがそれらの信号に対して指定される。したがって、パラメータのいくつかは、触覚信号をサポートするように特に設定されている。符号化形式は、圧縮が適用されないように、PCM符号化を示す1に設定される。サンプリング周波数は、触覚信号に対して0~2KHzの間に設定される。チャネルの数は最大65535であってもよい。これはwavヘッダと互換性がある。ビット/サンプルの数は、最高解像度を得るために24に設定される。
図8は、少なくとも1つの実施形態による、身体部位の定義の一例を示す。この図の表では、第1列はbody_part_IDを識別し、第2列は身体部位の名称を記述し、第3列は身体部位のバイナリマスク値を定義し、第4列はマスクの16進数相当値を示す。身体部位IDは、幾何モデルの各面に割り当てられる(例えば、図7の最後の行)。したがって、共通の身体部位の面は、効率的に選択されるように共にグループ化される。図9は、図5Aの汎用幾何モデル上の身体部位のマッピングの一例を示す。これは、モデルの異なる身体部位(1は頭部、2は胸部など)上に重ねられたbody_part_ID(図8の第1列)を示す。
図10は、少なくとも1つの実施形態による、バイナリマスクを使用した身体部位の組み合わせの一例を示す。表の第1列は身体部位の名称に対応し、第2列は身体部位のバイナリマスク値を定義し、第3列はマスクの16進数相当値を示す。
上記のように、各身体部位はバイナリマスクに関連付けられる(図10の第3列)。これにより、容易に複数の身体部位を組み合わせることができる。例えば、上半身部は、ID1~14の身体部位をグループ化することに相当する。この組み合わせは、対応するマスク値を得るために、異なる身体部位のマスクに対するビットごとのOR演算によって実行される。したがって、000000000011111111111111のバイナリマスク(16進値で0x003FFF)は、ID1~ID14の身体部位を容易にグループ化することを可能にし、したがって、非常に効率的な方法で完全な上半身部を表現する。このグループ分けは図11Aに示され、一方、図11Bは左脚のグループ分け(マスク=0xAA8000)を示し、図11Cは右腕のグループ分け(マスク値0x001550)を示す。
本明細書で説明される実施形態は、触覚波形信号を符号化することを可能にする触覚効果記述ファイルを使用して触覚効果を指定し、様々な触覚信号のための統一されたファイル形式記述及びコンテナを提供し、マルチチャネル機能及びコーディングをサポートするための解決策を提供する。この解決策は、既存の信号ベースのワークフロー(別名オーディオワークフロー)と互換性があり、多くの触覚レンダリングデバイス(単一アクチュエータ、ゲームパッド、携帯電話、ベスト又はベルトなどの複雑なマルチアクチュエータデバイス)と互換性があり、ユーザのどこに効果が適用されるべきかを記述し、ユーザの生理機能及び触感覚に適応可能であり、潜在的にユーザごとにパーソナライズされ、エンドユーザのレンダリングデバイスとは独立している(効果をその機能及び位置に適応させるのはこのデバイス次第である)。
「一実施形態」若しくは「実施形態」又は「一実装形態」若しくは「実装形態」、並びにそれらの他の変形形態への言及は、実施形態に関連して記載される特定の特徴、構造、特性などが、少なくとも一実施形態に含まれることを意味する。したがって、本出願全体を通して様々な場所に現れる「一実施形態では(in one embodiment)」若しくは「ある実施形態では(in an embodiment)」又は「一実装形態では(in one implementation)」若しくは「ある実装形態では(in an implementation)」、並びに他の変形する語句の出現は、必ずしも全てが同じ実施形態を指すとは限らない。
加えて、本出願は、様々な情報を「判定すること」に言及し得る。情報を判定することは、例えば、情報を推定すること、情報を計算すること、情報を予測すること、又は情報をメモリから取り出すことのうちの1つ以上が含み得る。
加えて、本出願又はその特許請求の範囲は、様々な情報を「取得すること」に言及し得る。取得することは、「アクセスすること」と同様に、広義の用語であることを意図している。情報を取得することは、例えば、情報を受信すること、情報にアクセスすること、又は情報を(例えば、メモリ又は光学媒体記憶装置から)取り出すことのうちの1つ以上を含み得る。更に、「取得すること」は、一般には、例えば、情報を格納する、情報を処理する、情報を送信する、情報を移動する、情報をコピーする、情報を消去する、情報を計算する、情報を判定する、情報を予測する、又は情報を推定するなどの操作時に、何らかの形で関与する。
例えば、「A/B」、「A及び/又はB(A and/or B)」及び「A及びBのうちの少なくとも1つ(at least one of A and B)」の場合、次の「/」、「及び/又は(and/or)」、及び「のうちの少なくとも1つ(at least one of)」のいずれかの使用は、第1のリストされた選択肢(A)のみの選択、又は第2のリストされた選択肢(B)のみの選択、又は両方の選択肢(A及びB)の選択を包含することが意図されていることを理解されるべきである。更なる実施例として、「A、B、及び/又はC(A,B,and/or C)」及び「A、B、及びCのうちの少なくとも1つ(at least one of A,B,and C)」の場合、かかる表現は、第1のリストされた選択肢(A)のみの選択、又は第2のリストされた選択肢(B)のみの選択、又は第3のリストされた選択肢(C)のみの選択、又は第1及び第2のリストされた選択肢(A及びB)のみの選択、又は第1及び第3のリストされた選択肢(A及びC)のみの選択、又は第2及び第3のリストされた選択肢のみの選択(B及びC)のみ、又は3つ全ての選択肢の選択(A及びB及びC)を包含することが意図される。このことは、本技術分野及び関連技術分野の当業者によって容易に明らかであるように、列挙された項目の数だけ拡張され得る。

Claims (43)

  1. 触覚フィードバックをレンダリングするための方法であって、
    前記触覚フィードバックを表現する情報であって、
    メタデータファイル(300)であって、
    少なくとも1つの触覚チャネル(311、312、313)を表現する少なくとも1つの情報であって、
    幾何モデルを表現する情報と、
    前記触覚フィードバックを適用する前記幾何モデルの要素を表現する情報とを含む、少なくとも1つの情報を含む、メタデータファイルと、
    レンダリングされる少なくとも1つの触覚信号(321、322、323)を含む触覚ファイル(320)とを含む、情報を取得するステップ(201)と、
    前記触覚フィードバックを表現する前記情報に基づいて、触覚信号及び触覚レンダリングデバイスの触覚アクチュエータのセットを選択するステップ(202)と、
    前記選択された触覚信号を前記触覚レンダリングデバイスの前記選択された触覚アクチュエータに提供するステップ(203)とを含む、方法。
  2. 前記メタデータファイルが、前記触覚ファイルへの参照を更に含む、請求項1に記載の方法。
  3. 前記触覚ファイルが、触覚コーディングファイル若しくはオーディオ・コーディング・ファイル又は他のタイプの波形コーディングファイルである、請求項2に記載の方法。
  4. 前記オーディオファイルが波形オーディオファイルであり、前記波形オーディオファイルのチャネルが触覚チャネルに関連付けられ、レンダリングされる前記触覚信号を表現する、請求項3に記載の方法。
  5. 前記幾何モデルが、汎用モデルのセットの中から選択される、請求項1~4のいずれか一項に記載の方法。
  6. 前記触覚フィードバックを適用する前記幾何モデルの要素を表現する前記情報が、前記幾何モデルの対応する要素を識別するバイナリマスクである、請求項1~5のいずれか一項に記載の方法。
  7. 前記触覚フィードバックを適用する前記幾何モデルの要素を表現する前記情報が、前記幾何モデルの頂点のリストである、請求項1~6のいずれか一項に記載の方法。
  8. 前記幾何モデルが識別子によって識別され、識別子の範囲が汎用幾何モデルのために予約される、請求項1~7のいずれか一項に記載の方法。
  9. 前記幾何モデルが、人体の前記触覚の空間的鋭敏さを表現する、請求項1~8のいずれか一項に記載の方法。
  10. 前記幾何モデルが、前記触覚アクチュエータを含む前記触覚レンダリングデバイスの要素を表現する、請求項1~9のいずれか一項に記載の方法。
  11. 前記メタデータファイルが、非汎用幾何モデルの前記メッシュであって、前記メッシュが頂点のセット及び面のセットを含む、前記メッシュの記述(325)を更に含み、面が頂点のサブセットによって判定される、請求項1~5のいずれか一項に記載の方法。
  12. 前記幾何モデルの各頂点について、前記頂点への前記触覚信号の適用をスケーリングするための係数を更に含む、請求項11に記載の方法。
  13. 複数の触覚フィードバックを表現する情報を更に含む、請求項1~12のいずれか一項に記載の方法。
  14. 触覚フィードバックをレンダリングするための装置であって、プロセッサ(101)であって、
    前記触覚フィードバックを表現する情報であって、
    メタデータファイル(300)であって、
    少なくとも1つの触覚チャネル(311、312、313)を表現する少なくとも1つの情報であって、
    幾何モデルを表現する情報と、
    前記触覚フィードバックを適用する前記幾何モデルの要素を表現する情報とを含む、少なくとも1つの情報を含む、メタデータファイルと、
    レンダリングされる少なくとも1つの触覚信号(321、322、323)を含む触覚ファイル(320)とを含む、情報を取得し、
    前記触覚フィードバックを表現する前記情報に基づいて、触覚信号及び前記触覚レンダリングデバイスの少なくとも1つの触覚アクチュエータを選択し、
    前記選択された触覚信号を前記触覚レンダリングデバイスの前記少なくとも1つの選択された触覚アクチュエータに提供するように構成された、プロセッサを備える、装置。
  15. 前記触覚レンダリングデバイスを更に備える、請求項14に記載の装置。
  16. 前記メタデータファイルが、前記触覚ファイルへの参照を更に含む、請求項14又は15に記載の装置。
  17. 前記触覚ファイルが、触覚コーディングファイル若しくはオーディオ・コーディング・ファイル又は他のタイプの波形コーディングファイルである、請求項16に記載の装置。
  18. 前記オーディオファイルが波形オーディオファイルであり、前記波形オーディオファイルのチャネルが触覚チャネルに関連付けられ、レンダリングされる前記触覚信号を表現する、請求項17に記載の装置。
  19. 前記幾何モデルが、汎用モデルのセットの中から選択される、請求項14~18のいずれか一項に記載の装置。
  20. 前記触覚フィードバックを適用する前記幾何モデルの要素を表現する前記情報が、前記幾何モデルの対応する要素を識別するバイナリマスクである、請求項14~19のいずれか一項に記載の装置。
  21. 前記触覚フィードバックを適用する前記幾何モデルの要素を表現する前記情報が、前記幾何モデルの頂点のリストである、請求項14~20のいずれか一項に記載の装置。
  22. 前記幾何モデルが識別子によって識別され、識別子の範囲が汎用幾何モデルのために予約される、請求項14~21のいずれか一項に記載の装置。
  23. 前記幾何モデルが、人体の前記触覚の空間的鋭敏さを表現する、請求項14~22のいずれか一項に記載の装置。
  24. 前記幾何モデルが、前記触覚アクチュエータを含む前記触覚レンダリングデバイスの要素を表現する、請求項14~23のいずれか一項に記載の装置。
  25. 前記メタデータファイルが、非汎用幾何モデルの前記メッシュであって、前記メッシュが頂点のセット及び面のセットを含む、前記メッシュの記述(325)を更に含み、面が頂点のサブセットによって判定される、請求項14~18のいずれか一項に記載の装置。
  26. 前記幾何モデルの各頂点について、前記頂点への前記触覚信号の適用をスケーリングするための係数を更に含む、請求項22に記載の装置。
  27. 複数の触覚フィードバックを表現する情報を更に含む、請求項14~26のいずれか一項に記載の装置。
  28. 前記デバイスが、触覚スーツ、スマートフォン、ゲームコントローラ、触覚グローブ、触覚チェア、触覚プロップ、及びモーションプラットフォームを含むリストに属する、請求項14~27のいずれか一項に記載の装置。
  29. 触覚フィードバックをレンダリングするための信号であって、前記触覚フィードバックを表現する情報であって、
    メタデータファイル(300)であって、
    少なくとも1つの触覚チャネル(311、312、313)を表現する少なくとも1つの情報であって、
    幾何モデルを表現する情報と、
    前記触覚フィードバックを適用する前記幾何モデルの要素を表現する情報とを含む、少なくとも1つの情報を含む、メタデータファイルと、
    レンダリングされる少なくとも1つの触覚信号(321、322、323)を含む触覚ファイル(320)とを含む、情報を搬送する、信号。
  30. 前記メタデータファイルが、前記触覚ファイルへの参照を更に含む、請求項29に記載の信号。
  31. 前記触覚ファイルが、触覚コーディングファイル若しくはオーディオ・コーディング・ファイル又は他のタイプの波形コーディングファイルである、請求項30に記載の信号。
  32. 前記オーディオファイルが波形オーディオファイルであり、前記波形オーディオファイルのチャネルが触覚チャネルに関連付けられ、レンダリングされる前記触覚信号を表現する、請求項31に記載の信号。
  33. 前記幾何モデルが、汎用モデルのセットの中から選択される、請求項29~32のいずれか一項に記載の信号。
  34. 前記触覚フィードバックを適用する前記幾何モデルの要素を表現する前記情報が、前記幾何モデルの対応する要素を識別するバイナリマスクである、請求項29~33のいずれか一項に記載の信号。
  35. 前記触覚フィードバックを適用する前記幾何モデルの要素を表現する前記情報が、前記幾何モデルの頂点のリストである、請求項29~34のいずれか一項に記載の信号。
  36. 前記幾何モデルが識別子によって識別され、識別子の範囲が汎用幾何モデルのために予約される、請求項29~35のいずれか一項に記載の信号。
  37. 前記幾何モデルが、人体の前記触覚の空間的鋭敏さを表現する、請求項29~36のいずれか一項に記載の信号。
  38. 前記幾何モデルが、前記触覚アクチュエータを含む前記触覚レンダリングデバイスの要素を表現する、請求項29~37のいずれか一項に記載の信号。
  39. 前記メタデータファイルが、非汎用幾何モデルの前記メッシュであって、前記メッシュが頂点のセット及び面のセットを含む、前記メッシュの記述(325)を更に含み、面が頂点のサブセットによって判定される、請求項29~32のいずれか一項に記載の信号。
  40. 前記幾何モデルの各頂点について、前記頂点への前記触覚信号の適用をスケーリングするための係数を更に含む、請求項39に記載の信号。
  41. 複数の触覚フィードバックを表現する情報を更に含む、請求項29~40のいずれか一項に記載の信号。
  42. プロセッサによって実行されるときに、請求項1~13のいずれか一項に記載の方法のステップを実装するためのプログラムコード命令を備える、コンピュータプログラム。
  43. プロセッサによって実行されるときに、請求項1~13のいずれか一項に記載の方法のステップを実装するためのプログラムコード命令を備える、非一時的コンピュータ可読媒体。
JP2023515688A 2020-09-14 2021-09-06 触覚シーン表現形式 Pending JP2023540785A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20306028.0 2020-09-14
EP20306028 2020-09-14
PCT/EP2021/074515 WO2022053439A1 (en) 2020-09-14 2021-09-06 Haptic scene representation format

Publications (1)

Publication Number Publication Date
JP2023540785A true JP2023540785A (ja) 2023-09-26

Family

ID=72615795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023515688A Pending JP2023540785A (ja) 2020-09-14 2021-09-06 触覚シーン表現形式

Country Status (8)

Country Link
US (1) US20230367395A1 (ja)
EP (1) EP4211540A1 (ja)
JP (1) JP2023540785A (ja)
KR (1) KR20230065296A (ja)
CN (1) CN116324681A (ja)
AU (1) AU2021340188A1 (ja)
MX (1) MX2023002844A (ja)
WO (1) WO2022053439A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230065296A (ko) * 2020-09-14 2023-05-11 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 햅틱 장면 표현 포맷
EP4250060A1 (en) * 2022-03-25 2023-09-27 Nokia Technologies Oy Apparatus, systems, methods and computer programs for transferring sensations
EP4300264A1 (en) * 2022-07-01 2024-01-03 Go Touch VR Method and apparatus of signaling/parsing haptic data

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689669A (en) * 1994-04-29 1997-11-18 General Magic Graphical user interface for navigating between levels displaying hallway and room metaphors
US6016147A (en) * 1995-05-08 2000-01-18 Autodesk, Inc. Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device
CA2180899A1 (en) * 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
US5737533A (en) * 1995-10-26 1998-04-07 Wegener Internet Projects Bv System for generating a virtual reality scene in response to a database search
US6219045B1 (en) * 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
JPH10309381A (ja) * 1997-05-13 1998-11-24 Yoshimasa Tanaka 移動体用遊戯装置
US6271843B1 (en) * 1997-05-30 2001-08-07 International Business Machines Corporation Methods systems and computer program products for transporting users in three dimensional virtual reality worlds using transportation vehicles
US6243091B1 (en) * 1997-11-21 2001-06-05 International Business Machines Corporation Global history view
US6079982A (en) * 1997-12-31 2000-06-27 Meader; Gregory M Interactive simulator ride
US6362817B1 (en) * 1998-05-18 2002-03-26 In3D Corporation System for creating and viewing 3D environments using symbolic descriptors
US6119147A (en) * 1998-07-28 2000-09-12 Fuji Xerox Co., Ltd. Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space
US6414679B1 (en) * 1998-10-08 2002-07-02 Cyberworld International Corporation Architecture and methods for generating and displaying three dimensional representations
US6396522B1 (en) * 1999-03-08 2002-05-28 Dassault Systemes Selection navigator
WO2000060443A1 (en) * 1999-04-06 2000-10-12 Microsoft Corporation Method and apparatus for handling dismissed dialogue boxes
GB9930850D0 (en) * 1999-12-24 2000-02-16 Koninkl Philips Electronics Nv 3D environment labelling
US6621508B1 (en) * 2000-01-18 2003-09-16 Seiko Epson Corporation Information processing system
KR20000030430A (ko) * 2000-02-29 2000-06-05 김양신 3차원 그래픽 가상공간을 이용한 인터넷 광고시스템
JP4479051B2 (ja) * 2000-04-28 2010-06-09 ソニー株式会社 情報処理装置および方法、並びに記録媒体
US6784901B1 (en) * 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
US7788323B2 (en) * 2000-09-21 2010-08-31 International Business Machines Corporation Method and apparatus for sharing information in a virtual environment
US7168051B2 (en) * 2000-10-10 2007-01-23 Addnclick, Inc. System and method to configure and provide a network-enabled three-dimensional computing environment
US7176942B2 (en) * 2001-03-23 2007-02-13 Dassault Systemes Collaborative design
US6961055B2 (en) * 2001-05-09 2005-11-01 Free Radical Design Limited Methods and apparatus for constructing virtual environments
US7038694B1 (en) * 2002-03-11 2006-05-02 Microsoft Corporation Automatic scenery object generation
US20040113887A1 (en) * 2002-08-27 2004-06-17 University Of Southern California partially real and partially simulated modular interactive environment
US8458028B2 (en) * 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
US20050128212A1 (en) * 2003-03-06 2005-06-16 Edecker Ada M. System and method for minimizing the amount of data necessary to create a virtual three-dimensional environment
US7467356B2 (en) * 2003-07-25 2008-12-16 Three-B International Limited Graphical user interface for 3d virtual display browser using virtual display windows
JP3931336B2 (ja) * 2003-09-26 2007-06-13 マツダ株式会社 車両用情報提供装置
US7382288B1 (en) * 2004-06-30 2008-06-03 Rockwell Collins, Inc. Display of airport signs on head-up display
US7933929B1 (en) * 2005-06-27 2011-04-26 Google Inc. Network link for providing dynamic data layer in a geographic information system
US7817150B2 (en) * 2005-09-30 2010-10-19 Rockwell Automation Technologies, Inc. Three-dimensional immersive system for representing an automation control environment
EP1868149B1 (en) * 2006-06-14 2019-08-07 Dassault Systèmes Improved computerized collaborative work
KR100809479B1 (ko) * 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
US20080030429A1 (en) * 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
JP4861105B2 (ja) * 2006-09-15 2012-01-25 株式会社エヌ・ティ・ティ・ドコモ 空間掲示板システム
US20080125218A1 (en) * 2006-09-20 2008-05-29 Kelly James Collins Method of use for a commercially available portable virtual reality system
US9387402B2 (en) * 2007-09-18 2016-07-12 Disney Enterprises, Inc. Method and system for converting a computer virtual environment into a real-life simulation environment
US8368721B2 (en) * 2007-10-06 2013-02-05 Mccoy Anthony Apparatus and method for on-field virtual reality simulation of US football and other sports
US7844724B2 (en) * 2007-10-24 2010-11-30 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
JP2011523364A (ja) * 2008-05-09 2011-08-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 感情を伝達する方法及びシステム
US9132346B2 (en) * 2012-04-04 2015-09-15 Kenneth J. Huebner Connecting video objects and physical objects for handheld projectors
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US11956414B2 (en) * 2015-03-17 2024-04-09 Raytrx, Llc Wearable image manipulation and control system with correction for vision defects and augmentation of vision and sensing
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
US20190204917A1 (en) * 2017-12-28 2019-07-04 Immersion Corporation Intuitive haptic design
US11217076B1 (en) * 2018-01-30 2022-01-04 Amazon Technologies, Inc. Camera tampering detection based on audio and video
WO2019150321A1 (en) * 2018-02-01 2019-08-08 Isg Central Services Limited Improved augmented reality system
EP3906462A2 (en) * 2019-01-04 2021-11-10 Ultrahaptics IP Ltd Mid-air haptic textures
US10924875B2 (en) * 2019-05-24 2021-02-16 Zack Settel Augmented reality platform for navigable, immersive audio experience
KR20230065296A (ko) * 2020-09-14 2023-05-11 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 햅틱 장면 표현 포맷
US20230191077A1 (en) * 2021-09-08 2023-06-22 Brelyon, Inc. Methods, systems, apparatuses, and devices for facilitating stress-adaptive virtual exerience stations
WO2023046899A1 (en) * 2021-09-24 2023-03-30 Interdigital Ce Patent Holdings, Sas Location-based haptic signal compression

Also Published As

Publication number Publication date
AU2021340188A1 (en) 2023-04-13
CN116324681A (zh) 2023-06-23
EP4211540A1 (en) 2023-07-19
MX2023002844A (es) 2023-06-08
US20230367395A1 (en) 2023-11-16
WO2022053439A1 (en) 2022-03-17
KR20230065296A (ko) 2023-05-11

Similar Documents

Publication Publication Date Title
US9645648B2 (en) Audio computer system for interacting within a virtual reality environment
JP2023540785A (ja) 触覚シーン表現形式
CN107835971B (zh) 基于用户触觉空间(HapSpace)提供触觉反馈和交互的方法和装置
US20120183161A1 (en) Determining individualized head-related transfer functions
CN109426343B (zh) 基于虚拟现实的协作训练方法及系统
US20230418381A1 (en) Representation format for haptic object
WO2021102132A1 (en) Priority-based soundfield coding for virtual reality audio
CN107948724A (zh) 视频传输控制方法、装置及存储介质和移动终端
WO2021003397A1 (en) Password-based authorization for audio rendering
CN116897541A (zh) 使用渲染引擎的沉浸式技术媒体格式(itmf)规范的映射架构
KR20160039400A (ko) 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치
CN114040319B (zh) 一种终端设备外放音质优化方法、装置、设备和介质
CN118202320A (zh) 基于位置的触觉信号压缩
CN113784105A (zh) 一种沉浸式vr终端的信息处理方法及系统
CN111240615A (zh) 一种vr沉浸式大屏追踪环境的参数配置方法及系统
CN109302668A (zh) 基于非中心点的声场重建方法、设备、存储介质及装置
CN109324774A (zh) 用于视觉效果的音频定位技术
US11601776B2 (en) Smart hybrid rendering for augmented reality/virtual reality audio
KR102405385B1 (ko) 3d 컨텐츠를 위한 여러 오브젝트를 생성하는 방법 및 시스템
CN116601587A (zh) 触觉对象的表示格式
CN109213303A (zh) 基于增强现实的图书浏览方法及系统
WO2023198622A1 (en) Hybrid haptic textures
WO2023099233A1 (en) Adaptation of a haptic signal to device capabilities
WO2024002508A1 (en) Method and apparatus of transmitting haptic data
CN117793611A (zh) 生成立体声的方法、播放立体声的方法、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230516

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230517