WO2024024874A1 - 情報処理装置および方法 - Google Patents

情報処理装置および方法 Download PDF

Info

Publication number
WO2024024874A1
WO2024024874A1 PCT/JP2023/027489 JP2023027489W WO2024024874A1 WO 2024024874 A1 WO2024024874 A1 WO 2024024874A1 JP 2023027489 W JP2023027489 W JP 2023027489W WO 2024024874 A1 WO2024024874 A1 WO 2024024874A1
Authority
WO
WIPO (PCT)
Prior art keywords
media
haptic
information
unit
information processing
Prior art date
Application number
PCT/JP2023/027489
Other languages
English (en)
French (fr)
Inventor
光浩 平林
遼平 高橋
佑輔 中川
健太郎 吉田
正樹 折橋
修一郎 錦織
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2024024874A1 publication Critical patent/WO2024024874A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Abstract

本開示は、コンテンツ制作者の意図により近いハプティクス体験を提供することができるようにする情報処理装置および方法に関する。 ハプティクスメディアに関する周波数特性情報、ハプティクスメディアに関する信号立ち上がり特性情報、ハプティクスメディアの選択合成情報、および、マルチモーダルな代替手段に関する情報の内の少なくともいずれか1つが存在するシーンディスクリプションを供給する。また、そのシーンディスクリプションに含まれる情報に基づいて、ハプティクスメディアの出力を制御する。また、これらの情報はMPDに含まれてもよいし、ファイルコンテナのサンプルエントリに格納されてもよい。本開示は、例えば、情報処理装置、または情報処理方法等に適用することができる。

Description

情報処理装置および方法
 本開示は、情報処理装置および方法に関し、特に、コンテンツ制作者の意図により近いハプティクス体験を提供することができるようにした情報処理装置および方法に関する。
 従来、3D(3次元)オブジェクトを3次元空間内に配置し、レンダリングするためのシーンディスクリプション(Scene Description)のフォーマットであるglTF(The GL Transmission Format)(登録商標)2.0があった(例えば非特許文献1参照)。
 また、MPEG(Moving Picture Experts Group)-I Scene Descriptionにおいて、glTF2.0を拡張し、時間方向に動的なコンテンツを扱う方法が提案された(例えば非特許文献2参照)。
 ところで、ハプティクスメディア(Haptics media)は、オーディオメディア(audio media)やビデオメディア(video media)と同期して再生(振動)する、同期型のモデルと、視聴ユーザと3Dビデオオブジェクトとの間でのインタラクション(例えば、触る、動かす、ぶつかる等)型のモデルが想定される。そのインタラクション型のモデルについて、MPEG-I Scene Descriptionにおけるインタラクション処理に対応する技術探索検討が進んでいる(例えば、非特許文献3参照)。また、ハプティクスメディアの圧縮伝送技術の規格化と並行して、MPEG-I Scene Descriptionにおいてハプティクスメディアを扱うための技術探索検討が進んでいる(例えば、非特許文献4参照)。
 そして、2Dビデオコンテンツや3DoFビデオコンテンツや6DoFビデオコンテンツの構成要素であるオーディオメディアやビデオメディアに加えて、触覚情報を圧縮するハプティクスメディアの圧縮伝送技術の規格化が進んでいる(例えば、非特許文献5参照)。
 非特許文献3に記載のインタラクティビティフレームワークでは、インタラクション発生条件としてトリガ(Trigger)が定義され、発生するインタラクションとしてアクション(Action)が定義されている。さらに、複数のトリガと複数のアクションを列挙するビヘイビア(behavior)が定義されている。そのアクションとして非特許文献4に記載のMPEG_hapticsがメディアコントロール(media_control)で呼び出され、MPEG_hapticsが参照する、非特許文献2に記載のMPEGメディア(MPEG_media)に記述されたハプティクスメディアの再生が行われる。同期型の場合は、AVメディアと同期して、所定の時間でMPEGメディアに記述されたハプティクスメディアの再生が行われる。どちら場合も、ハプティクスメディアは、非特許文献5に記載のように、レンダリングするリファレンスハプティクスデバイスの情報と共に提供される。
Saurabh Bhatia, Patrick Cozzi, Alexey Knyazev, Tony Parisi, "Khronos glTF2.0", https://github.com/KhronosGroup/glTF/tree/master/specification/2.0, June 9, 2017 "Text of ISO/IEC CD 23090-14 Scene Description for MPEG Media", ISO/IEC JTC 1/SC 29/WG 3 N00485, 2021/10/12 "Exploration Experiments for MPEG-I Scene Description", ISO/IEC JTC 1/SC 29/WG 3 N 0540, 2022/4/29 Quentin Galvane, Eric Vezzoli, Yeshwant Muthusamy, Philippe Guillotel, Titouan Rabu,"Haptic Support extensions for MPEG-I SD ",ISO/IEC JTC 1/SC 29/WG 3 m59268,April 2022 "Considerations for a WD on Haptics", ISO/IEC JTC 1/SC 29/WG 2 N 0208, 2022/4/29
 しかしながら、例えば振動等のハプティクスメディアのユーザ体験は、そのハプティクスメディアを出力するハプティクスデバイスの仕様に大きく依存する。そのため、出力に使用されるハプティクスデバイスの仕様によっては、コンテンツ制作者の意図通りのハプティクス体験を提供することが困難になるおそれがあった。
 本開示は、このような状況に鑑みてなされたものであり、コンテンツ制作者の意図により近いハプティクス体験を提供することができるようにするものである。
 本技術の一側面の情報処理装置は、シーンディスクリプションに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部を備える情報処理装置である。
 本技術の一側面の情報処理方法は、シーンディスクリプションに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する情報処理装置である。
 本技術の他の側面の情報処理装置は、ハプティクスメディアに関する周波数特性情報が存在するシーンディスクリプションを供給する供給部を備える情報処理装置である。
 本技術の他の側面の情報処理方法は、ハプティクスメディアに関する周波数特性情報が存在するシーンディスクリプションを供給する情報処理方法である。
 本技術のさらに他の側面の情報処理装置は、シーンディスクリプションに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部を備える情報処理装置である。
 本技術のさらに他の側面の情報処理方法は、シーンディスクリプションに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する情報処理方法である。
 本技術のさらに他の側面の情報処理装置は、ハプティクスメディアに関する信号立ち上がり特性情報が存在するシーンディスクリプションを供給する供給部を備える情報処理装置である。
 本技術のさらに他の側面の情報処理方法は、ハプティクスメディアに関する信号立ち上がり特性情報が存在するシーンディスクリプションを供給する情報処理方法である。
 本技術のさらに他の側面の情報処理装置は、シーンディスクリプションに含まれる、ハプティクスメディアの優先度に関する優先度情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部を備える情報処理装置である。
 本技術のさらに他の側面の情報処理方法は、シーンディスクリプションに含まれる、ハプティクスメディアの優先度に関する優先度情報に基づいて、前記ハプティクスメディアの出力を制御する情報処理方法である。
 本技術のさらに他の側面の情報処理装置は、ハプティクスメディアの優先度に関する優先度情報が存在するシーンディスクリプションを供給する供給部を備える情報処理装置である。
 本技術のさらに他の側面の情報処理方法は、ハプティクスメディアの優先度に関する優先度情報が存在するシーンディスクリプションを供給する情報処理方法である。
 本技術のさらに他の側面の情報処理装置は、再生するハプティクスメディアを出力可能なハプティクスデバイスが存在しない場合、前記ハプティクスメディアの出力を制御する代わりに、シーンディスクリプションに含まれるマルチモーダルな代替手段に関する情報により指定される代替メディアの出力を制御する出力制御部を備える情報処理装置である。
 本技術のさらに他の側面の情報処理方法は、再生するハプティクスメディアを出力可能なハプティクスデバイスが存在しない場合、前記ハプティクスメディアの出力を制御する代わりに、シーンディスクリプションに含まれるマルチモーダルな代替手段に関する情報により指定される代替メディアの出力を制御する情報処理方法である。
 本技術のさらに他の側面の情報処理装置は、再生するハプティクスメディアのマルチモーダルな代替手段に関する情報が存在するシーンディスクリプションを供給する供給部を備える情報処理装置である。
 本技術のさらに他の側面の情報処理方法は、再生するハプティクスメディアのマルチモーダルな代替手段に関する情報が存在するシーンディスクリプションを供給する情報処理方法である。
 本技術の一側面の情報処理装置および方法においては、シーンディスクリプションに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、ハプティクスメディアの出力が制御される。
 本技術の他の側面の情報処理装置および方法においては、ハプティクスメディアに関する周波数特性情報が存在するシーンディスクリプションが供給される。
 本技術のさらに他の側面の情報処理装置および方法においては、シーンディスクリプションに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、ハプティクスメディアの出力が制御される。
 本技術のさらに他の側面の情報処理装置および方法においては、ハプティクスメディアに関する信号立ち上がり特性情報が存在するシーンディスクリプションが供給される。
 本技術のさらに他の側面の情報処理装置および方法においては、シーンディスクリプションに含まれる、ハプティクスメディアの優先度に関する優先度情報に基づいて、ハプティクスメディアの出力が制御される。
 本技術のさらに他の側面の情報処理装置および方法においては、ハプティクスメディアの優先度に関する優先度情報が存在するシーンディスクリプションが供給される。
 本技術のさらに他の側面の情報処理装置および方法においては、再生するハプティクスメディアを出力可能なハプティクスデバイスが存在しない場合、そのハプティクスメディアの出力を制御する代わりに、シーンディスクリプションに含まれるマルチモーダルな代替手段に関する情報により指定される代替メディアの出力が制御される。
 本技術のさらに他の側面の情報処理装置および方法においては、再生するハプティクスメディアのマルチモーダルな代替手段に関する情報が存在するシーンディスクリプションが供給される。
glTF2.0の主な構成例を示す図である。 glTFオブジェクトと参照関係の例を示す図である。 シーンディスクリプションの記述例を示す図である。 バイナリデータへのアクセス方法について説明する図である。 シーンディスクリプションの記述例を示す図である。 buffer object、buffer view object、accessor objectの関係を説明する図である。 buffer object、buffer view object、accessor objectの記述例を示す図である。 シーンディスクリプションのオブジェクトの構成例を説明する図である。 シーンディスクリプションの記述例を示す図である。 オブジェクトの拡張方法について説明する図である。 クライアント処理の構成について説明する図である。 タイムドメタデータを扱うためのextensionの構成例を示す図である。 シーンディスクリプションの記述例を示す図である。 シーンディスクリプションの記述例を示す図である。 タイムドメタデータを扱うためのextensionの構成例を示す図である。 クライアントの主な構成例を示す図である。 クライアント処理の流れの例を説明するフローチャートである。 MPEGメディアの定義について説明する図である。 MPEGメディアの定義について説明する図である。 MPEGメディアの定義について説明する図である。 MPEGメディアの定義について説明する図である。 MPEG-I シーンディスクリプションインタラクティビティフレームワークについて説明する図である。 インタラクション機能の概要について説明する図である。 トリガとアクションのアーキテクチャについて説明する図である。 トリガの定義について説明する図である。 アクションの定義について説明する図である。 アクションの定義について説明する図である。 ビヘイビアの定義について説明する図である。 MPEG_scene_interactionの拡張構造の例を示す図である。 処理モデルの例を示す図である。 処理モデルの例を示す図である。 ハプティクスメディアを扱うためのシーンディスクリプションの拡張例を示す図である。 MPEGハプティックの例を示す図である。 ハプティクスメディアの符号化の概要を説明する図である。 バイナリヘッダの構成例を示す図である。 ハプティクスファイルメタデータのセマンティクスの例を示す図である。 アバターメタデータのセマンティクスの例を示す図である。 パーセプションメタデータのセマンティクスの例を示す図である。 リファレンスデバイスメタデータのセマンティクスの例を示す図である。 トラックヘッダのセマンティクスの例を示す図である。 バンドヘッダのセマンティクスの例を示す図である。 トランジェントバンドボディとカーブバンドボディのセマンティクスの例を示す図である。 ウェーブバンドボディのセマンティクスの例を示す図である。 一般的なデータモデルの主な構成例を示す図である。 デバイス定義の例を示す図である。 トラックに格納されるデバイスの定義の例を示す図である。 バンド定義の例を示す図である。 エフェクト定義の例を示す図である。 ハプティクスメディアを格納するためのISOBMFFの拡張例を示す図である。 ハプティクスメディアの提供に有意な拡張例を示す図である。 MPEGメディアの拡張例を示す図である。 シーンディスクリプションの記述例を示す図である。 MPEGメディアの拡張例を示す図である。 シーンディスクリプションの記述例を示す図である。 MPEGメディアの拡張例を示す図である。 MPEGメディアの拡張例を示す図である。 シーンディスクリプションの記述例を示す図である。 MPEGメディアの拡張例を示す図である。 MPEGメディアの拡張例を示す図である。 MPDの拡張例を示す図である。 MPDの記述例を示す図である。 MPDの記述例を示す図である。 MPDの記述例を示す図である。 MPDの拡張例を示す図である。 MPDの記述例を示す図である。 MPDの記述例を示す図である。 MPDの記述例を示す図である。 MPDの拡張例を示す図である。 MPDの記述例を示す図である。 ISOBMFFのサンプルエントリの拡張例を示す図である。 ISOBMFFのサンプルエントリの拡張例を示す図である。 ファイルフォーマットの具体例を示す図である。 MPDの記述例を示す図である。 MPDの記述例を示す図である。 MPDの記述例を示す図である。 ISOBMFFのサンプルエントリの拡張例を示す図である。 ISOBMFFのサンプルエントリの拡張例を示す図である。 ファイルフォーマットの具体例を示す図である。 MPDの記述例を示す図である。 MPDの記述例を示す図である。 MPDの記述例を示す図である。 ISOBMFFのサンプルエントリの拡張例を示す図である。 ISOBMFFのサンプルエントリの拡張例を示す図である。 ファイルフォーマットの具体例を示す図である。 MPDの記述例を示す図である。 ファイル生成装置の主な構成例を示すブロック図である。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 クライアント装置の主な構成例を示すブロック図である。 再生処理の流れの例を示すフローチャートである。 3Dオブジェクトコンテンツ再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ファイル生成装置の主な構成例を示すブロック図である。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 クライアント装置の主な構成例を示すブロック図である。 再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ファイル生成装置の主な構成例を示すブロック図である。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 クライアント装置の主な構成例を示すブロック図である。 再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ファイル生成装置の主な構成例を示すブロック図である。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 ファイル生成処理の流れの例を示すフローチャートである。 クライアント装置の主な構成例を示すブロック図である。 再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 ハプティクスメディア再生処理の流れの例を示すフローチャートである。 コンピュータの主な構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.技術内容・技術用語をサポートする文献等
 2.ハプティクスメディアの再生
 3.ハプティクスメディアの再生制御のための拡張
 4.第1の実施の形態(ファイル生成装置・クライアント装置)
 5.第2の実施の形態(ファイル生成装置・クライアント装置)
 6.第3の実施の形態(ファイル生成装置・クライアント装置)
 7.第4の実施の形態(ファイル生成装置・クライアント装置)
 8.付記
 <1.技術内容・技術用語をサポートする文献等>
 本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の非特許文献等に記載されている内容や以下の非特許文献において参照されている他の文献の内容等も含まれる。
 非特許文献1:(上述)
 非特許文献2:(上述)
 非特許文献3:(上述)
 非特許文献4:(上述)
 非特許文献5:(上述)
 非特許文献6:Yeshwant Muthusamy, Chris Ullrich, Manuel Cruz,"Everything You Wanted to Know About Haptics", m59834_Haptics Tutorial, 2022/3/21
 非特許文献7:"Information technology - Dynamic adaptive streaming over HTTP (DASH) - Part 1: Media presentation description and segment formats", ISO/IEC JTC 1/SC 29/WG 3, WG3_00227, ISO 23009-1:2021(X), 2021-06-24
 非特許文献8:"Information technology - Coding of audio-visual objects - Part 12: ISO base media file format, TECHNICAL CORRIGENDUM 1",ISO/IEC 14496-12:2015/Cor.1, ISO/IEC JTC 1/SC 29/WG 11, [8]WG03N0233_20295-1_14496-12-7th, 2016/6/3
 つまり、上述の非特許文献に記載されている内容や、上述の非特許文献において参照されている他の文献の内容等も、サポート要件を判断する際の根拠となる。例えば、上述の非特許文献に記載されるglTF2.0やそのextensionなどのシンタックスや用語が本開示において直接的に定義されていない場合でも、本開示の範囲内であり、請求の範囲のサポート要件を満たすものとする。また、例えば、パース(Parsing)、シンタックス(Syntax)、セマンティクス(Semantics)等の技術用語についても同様に、本開示において直接的に定義されていない場合でも、本開示の範囲内であり、請求の範囲のサポート要件を満たすものとする。
 <2.ハプティクスメディアの再生>
  <gltf2.0>
 従来、例えば、非特許文献1に記載のように、3D(3次元)オブジェクトを3次元空間内に配置するためのフォーマットであるglTF(The GL Transmission Format)(登録商標)2.0があった。glTF2.0では、例えば図1に示されるように、JSONフォーマットファイル(.glTF)と、バイナリファイル(.bin)と、イメージファイル(.pngや.jpg等)とにより構成される。バイナリファイルは、ジオメトリやアニメーション等のバイナリデータを格納する。イメージファイルは、テクスチャ等のデータを格納する。
 JSONフォーマットファイルは、JSON(JavaScript(登録商標) Object Notation)で記述されたシーンディスクリプションファイル(scene description file)である。シーンディスクリプションとは、3Dコンテンツのシーン(の説明)を記述するメタデータである。このシーンディスクリプションの記述により、どのようなシーンであるかが定義される。シーンディスクリプションファイルは、そのようなシーンディスクリプションを格納するファイルである。本開示においては、シーンディスクリプションファイルのことをシーン記述ファイルとも称する。
 JSONフォーマットファイルの記述は、キー(KEY)とバリュー(VALUE)のペアの羅列により構成される。以下にその書式の例を示す。
 “KEY”:”VALUE”
 キーは文字列により構成される。バリューは数値、文字列、真偽値、配列、オブジェクト、またはnull等により構成される。
 また、複数のキーとバリューのペア(“KEY”:”VALUE”)を、{}(中かっこ)を用いてまとめることができる。この中かっこでまとめたものをJSONオブジェクトとも称する。以下にその書式の例を示す。
 “user”:{"id":1, "name":"tanaka”}
 この例の場合、キー(user)に対応するバリューとして、"id":1のペアと"name":"tanaka”のペアをまとめたJSONオブジェクトが定義されている。
 また、0個以上のバリューを、[](大かっこ)を用いて配列化することもできる。この配列をJSON配列とも称する。このJSON配列の要素として、例えば、JSONオブジェクトを適用することもできる。以下にその書式の例を示す。
 test":["hoge", "fuga", "bar"]
 "users":[{"id":1, "name":"tanaka"},{"id":2,"name":"yamada"},{"id":3, "name":"sato"}]
 JSONフォーマットファイルの最上位に記載できるglTFオブジェクト(glTF object)と、それらが持てる参照関係を図2に示す。図2に示されるツリー構造の長丸がオブジェクトを示し、そのオブジェクト間の矢印が参照関係を示している。図2に示されるように、"scene"、"node"、"mesh"、"camera"、"skin"、"material"、"texture"等のオブジェクトがJSONフォーマットファイルの最上位に記述される。
 このようなJSONフォーマットファイル(シーンディスクリプション)の記述例を図3に示す。図3のJSONフォーマットファイル20は、最上位の一部の記述例を示している。このJSONフォーマットファイル20において、使用されるトップレベルオブジェクト(top-level object)21は、全て最上位に記述される。このトップレベルオブジェクト21は、図2に示されるglTFオブジェクトである。また、JSONフォーマットファイル20においては、矢印22として示されるように、オブジェクト(object)間の参照関係が示される。より具体的には、上位オブジェクトのプロパティ(property)で、参照するオブジェクトの配列の要素のインデックス(index)を指定することによりその参照関係が示される。
 図4は、バイナリデータへのアクセス方法について説明する図である。図4に示されるように、バイナリデータは、バッファオブジェクト(buffer object)に格納される。つまり、バッファオブジェクトにおいてバイナリデータにアクセスするための情報(例えばURI(Uniform Resource Identifier)等)が示される。JSONフォーマットファイルにおいては、図4に示されるように、例えばメッシュ(mesh)、カメラ(camera)、スキン(skin)等のオブジェクトから、そのバッファオブジェクトに対して、アクセサオブジェクト(accessor object)とバッファビューオブジェクト(bufferView object)を介してアクセスすることができる。
 つまり、メッシュ(mesh)、カメラ(camera)、スキン(skin)等のオブジェクトにおいては、参照するアクセサオブジェクトが指定される。JSONフォーマットファイルにおけるメッシュオブジェクト(mesh)の記述例を図5に示す。例えば、図5のように、メッシュオブジェクトにおいては、NORMAL、POSITION、TANGENT、TEXCORD_0等の頂点の属性(アトリビュート(attribute))がキーとして定義され、その属性毎に、参照するアクセサオブジェクトがバリューとして指定されている。
 バッファオブジェクト、バッファビューオブジェクト、アクセサオブジェクトの関係を図6に示す。また、JSONフォーマットファイルにおけるそれらのオブジェクトの記述例を図7に示す。
 図6において、バッファオブジェクト41は、実データであるバイナリデータにアクセスするための情報(URI等)と、そのバイナリデータのデータ長(例えばバイト長)を示す情報とを格納するオブジェクトである。図7のAは、そのバッファオブジェクト41の記述例を示している。図7のAに示される「"bytelength":102040」は、図6に示されるように、バッファオブジェクト41のバイト長が102040バイト(bytes)であることを示している。また、図7のAに示される「"uri":"duck.bin"」は、図6に示されるように、バッファオブジェクト41のURIが"duck.bin"であることを示している。
 図6において、バッファビューオブジェクト42は、バッファオブジェクト41において指定されたバイナリデータのサブセット(subset)領域に関する情報(つまりバッファオブジェクト41の一部の領域に関する情報)を格納するオブジェクトである。図7のBは、そのバッファビューオブジェクト42の記述例を示している。図6や図7のBに示されるように、バッファビューオブジェクト42は、例えば、そのバッファビューオブジェクト42が属するバッファオブジェクト41の識別情報、そのバッファオブジェクト41内におけるそのバッファビューオブジェクト42の位置を示すオフセット(例えばバイトオフセット)、そのバッファビューオブジェクト42のデータ長(例えばバイト長)を示すレングス(例えばバイトレングス)等の情報を格納する。
 図7のBに示されるように、バッファビューオブジェクトが複数存在する場合、そのバッファビューオブジェクト毎(つまりサブセット領域毎)に情報が記述される。例えば、図7のBにおいて上側に示される、「"buffer":0」、「"bytelength":25272」、「"byteOffset":0」等の情報は、図6においてバッファオブジェクト41内に示される1つ目のバッファビューオブジェクト42(bufferView[0])の情報である。また、図7のBにおいて下側に示される、「"buffer":0」、「"bytelength":76768」、「"byteOffset":25272」等の情報は、図6においてバッファオブジェクト41内に示される2つ目のバッファビューオブジェクト42(bufferView[1])の情報である。
 図7のBに示される1つ目のバッファビューオブジェクト42(bufferView[0])の「"buffer":0」は、図6に示されるように、そのバッファビューオブジェクト42(bufferView[0])が属するバッファオブジェクト41の識別情報が「0」(Buffer[0])であることを示している。また、「"bytelength":25272」は、そのバッファビューオブジェクト42(bufferView[0])のバイト長が25272バイトであることを示している。さらに、「"byteOffset":0」は、そのバッファビューオブジェクト42(bufferView[0])のバイトオフセットが0バイトであることを示している。
 図7のBに示される2つ目のバッファビューオブジェクト42(bufferView[1])の「"buffer":0」は、図6に示されるように、そのバッファビューオブジェクト42(bufferView[0])が属するバッファオブジェクト41の識別情報が「0」(Buffer[0])であることを示している。また、「"bytelength":76768」は、そのバッファビューオブジェクト42(bufferView[0])のバイト長が76768バイトであることを示している。さらに、「"byteOffset":25272」は、そのバッファビューオブジェクト42(bufferView[0])のバイトオフセットが25272バイトであることを示している。
 図6において、アクセサオブジェクト43は、バッファビューオブジェクト42のデータの解釈方法に関する情報を格納するオブジェクトである。図7のCは、そのアクセサオブジェクト43の記述例を示している。図6や図7のCに示されるように、アクセサオブジェクト43は、例えば、そのアクセサオブジェクト43が属するバッファビューオブジェクト42の識別情報、そのバッファビューオブジェクト42の、バッファオブジェクト41内における位置を示すオフセット(例えばバイトオフセット)、そのバッファビューオブジェクト42のコンポーネントタイプ、そのバッファビューオブジェクト42に格納されるデータ数、そのバッファビューオブジェクト42に格納されるデータのタイプ等の情報を格納する。これらの情報は、バッファビューオブジェクト毎に記述される。
 図7のCの例では、「"bufferView":0」、「"byteOffset":0」、「"componentType":5126」、「"count":2106」、「"type":"VEC3"」等の情報が示されている。「"bufferView":0」は、図6に示されるように、そのアクセサオブジェクト43が属するバッファビューオブジェクト42の識別情報が「0」(bufferView[0])であることを示している。また、「"byteOffset":0」は、そのバッファビューオブジェクト42(bufferView[0])のバイトオフセットが0バイトであることを示している。さらに、「"componentType":5126」は、コンポーネントタイプが、FLOAT型(OpenGLマクロ定数)であることを示している。また、「"count":2106」は、そのバッファビューオブジェクト42(bufferView[0])に格納されるデータが2106個であることを示している。さらに、「"type":"VEC3"」は、そのバッファビューオブジェクト42(bufferView[0])に格納されるデータ(のタイプ)が3次元ベクトルであることを示している。
 イメージ(image)以外のデータへのアクセスは、全てこのアクセサオブジェクト43への参照により(アクセサのインデックスを指定することにより)定義される。
 次に、このようなglTF2.0に準拠するシーンディスクリプション(JSONフォーマットファイル)において、ポイントクラウドの3Dオブジェクトを指定する方法について説明する。ポイントクラウドは、立体構造物(3次元形状のオブジェクト)を多数の点の集合として表現する3Dコンテンツである。ポイントクラウドのデータは、各点の位置情報(ジオメトリ(geometry)とも称する)と属性情報(アトリビュート(attribute)とも称する)とにより構成される。アトリビュートは任意の情報を含むことができる。例えば、各ポイントの色情報、反射率情報、法線情報等がアトリビュートに含まれるようにしてもよい。このようにポイントクラウドは、データ構造が比較的単純であるとともに、十分に多くの点を用いることにより任意の立体構造物を十分な精度で表現することができる。
 ポイントクラウドが時間方向に変化しない(静的であるとも称する)場合、glTF2.0のmesh.primitives objectを用いて3Dオブジェクトを指定する。図8は、ポイントクラウドが静的な場合の、シーンディスクリプションにおけるオブジェクトの構成例を示す図である。図9は、そのシーンディスクリプションの記述例を示す図である。
 図9に示されるように、primitives objectのmodeは、データ(data)がポイントクラウドの点(point)として扱われることを示す0に指定される。図8や図9に示されるように、mesh.primitives内のattributesオブジェクトのポジションプロパティ(POSITION property)において、点(Point)の位置情報を格納するバッファ(buffer)へのアクセサ(accessor)が指定される。同様に、attributesオブジェクトのカラープロパティ(COLOR property)において、点(Point)の色情報を格納するバッファ(buffer)へのアクセサ(accessor)が指定される。バッファ(buffer)とバッファビュー(bufferView)は1つであってもよい(1つのファイル(file)にデータ(data)が格納されてもよい)。
 次に、このようなシーンディスクリプションのオブジェクトの拡張について説明する。glTF2.0の各オブジェクトは、拡張オブジェクト(extension object)内に新たに定義されたオブジェクトを格納することができる。図10は、新たに定義されたオブジェクト(ExtensionExample)を規定する場合の記述例を示す。図10に示されるように、新たに定義されたextensionを使用する場合、“extensionUsed”と”extensionRequired”にそのextension object名(図10の例の場合、ExtensionExample)が記述される。これにより、このextensionが、使用されるextensionであること、または、ロード(load)に必要なextensionであることが示される。
  <クライアント処理>
 次に、MPEG-I Scene Descriptionにおけるクライアント装置の処理について説明する。クライアント装置は、シーンディスクリプションを取得し、そのシーンディスクリプションに基づいて3Dオブジェクトのデータを取得し、そのシーンディスクリプションや3Dオブジェクトのデータを用いて表示画像を生成する。
 非特許文献2に記載のように、クライアント装置では、プレゼンテーションエンジンやメディアアクセスファンクション等が処理を行う。例えば、図11に示されるように、クライアント装置50のプレゼンテーションエンジン(Presentation Engine)51が、シーンディスクリプションの初期値やそのシーンディスクリプションを更新するための情報(以下、更新情報とも称する)を取得し、処理対象時刻のシーンディスクリプションを生成する。そして、プレゼンテーションエンジン51は、そのシーンディスクリプションを解析し、再生するメディア(動画や音声等)を特定する。そして、プレゼンテーションエンジン51は、メディアアクセスAPI(Media Access API(Application Program Interface))経由で、メディアアクセスファンクション(Media Access Function)52に対してそのメディアの取得を要求する。また、プレゼンテーションエンジン51は、パイプライン処理の設定やバッファの指定等も行う。
 メディアアクセスファンクション52は、プレゼンテーションエンジン51から要求されたメディアの各種データをクラウド(Cloud)やローカルストレージ(Local Storage)等から取得する。メディアアクセスファンクション52は、取得したメディアの各種データ(符号化データ)をパイプライン(Pipeline)53に供給する。
 パイプライン53は、供給されたメディアの各種データ(符号化データ)を、パイプライン処理により復号し、その復号結果をバッファ(Buffer)54に供給する。バッファ54は、供給されたメディアの各種データを保持する。
 プレゼンテーションエンジン51は、バッファ54に保持されているメディアの各種データを用いてレンダリング(Rendering)等を行う。
  <Timed mediaの適用>
 近年、例えば、非特許文献2に示されるように、MPEG-I Scene Descriptionにおいて、glTF2.0を拡張し、3Dオブジェクトコンテンツとしてタイムドメディア(Timed media)を適用することが検討されている。タイムドメディアとは、2次元画像における動画像のように、時間軸方向に変化するメディアデータである。
 glTFは、メディアデータ(3Dオブジェクトコンテンツ)として、静止画データのみ適用可能であった。つまり、glTFは、動画像のメディアデータには対応していなかった。3Dオブジェクトを動かす場合は、アニメーション(時間軸に沿って静止画を切り替える方法)が適用されていた。
 MPEG-I Scene Descriptionでは、そのglTF2.0を適用し、シーンディスクリプションとしてJSONフォーマットファイルを適用し、さらに、メディアデータとして、タイムドメディア(例えばビデオデータ)を扱うことができるようにglTFを拡張することが検討されている。タイムドメディアを扱うために、例えば以下のような拡張が行われる。
 図12は、タイムドメディアを扱うための拡張について説明する図である。図12の例において、MPEGメディアオブジェクト(MPEG_media)は、glTFのextensionであり、例えば、uri, track, renderingRate, startTime等、ビデオデータ等のMPEGメディアの属性を指定するオブジェクトである。
 また、図12に示されるように、テクスチャオブジェクト(texture)の拡張オブジェクト(extensions)として、MPEGテクスチャビデオオブジェクト(MPEG_texture_video)が設けられる。そのMPEGテクスチャビデオオブジェクトには、アクセスするバッファオブジェクトに対応するアクセサの情報が格納される。すなわち、MPEGテクスチャビデオオブジェクトは、MPEGメディアオブジェクト(MPEG_media)で指定されたテクスチャメディア(texture media)が復号されて格納されるバッファ(buffer)に対応するアクセサ(accessor)のインデックスを指定するオブジェクトである。
 図13は、タイムドメディアを扱うための拡張について説明するための、シーンディスクリプションにおけるMPEGメディアオブジェクト(MPEG_media)およびMPEGテクスチャビデオオブジェクト(MPEG_texture_video)の記述例を示す図である。図13の例の場合、上から2行目において下記のように、テクスチャオブジェクト(texture)の拡張オブジェクト(extensions)として、MPEGテクスチャビデオオブジェクト(MPEG_texture_video)が設定されている。そして、そのMPEGビデオテクスチャオブジェクトのバリューとして、アクセサのインデックス(この例では「2」)が指定されている。
"texture":[{"sampler":0, "source":1, "extensions":{"MPEG_texture_video ":"accessor":2}}],
 また、図13の例の場合、上から7行目乃至16行目において下記のように、glTFの拡張オブジェクト(extensions)として、MPEGメディアオブジェクト(MPEG_media)が設定されている。そして、そのMPEGメディアオブジェクトのバリューとして、例えば、そのMPEGメディアオブジェクトの符号化やURI等といった、MPEGメディアオブジェクトに関する様々な情報が格納されている。
"MPEG_media":{
  "media":[
        {"name":"source_1", "renderingRate":30.0, "startTime":9.0, "timeOffset":0.0,
          "loop":"true", "controls":"false",
          "alternatives":[{"mimeType":"video/mp4;codecs=\"avc1.42E01E\"", "uri":"video1.mp4",
                                     "tracks":[{"track":""#track_ID=1"}]
                         }]
        }
  ]
}
 また、各フレームデータはデコードされ順次バッファに格納されるが、その位置などが変動するため、シーンディスクリプションには、その変動する情報を格納して、レンダラ(renderer)がデータを読みだせるようにする仕組みが設けられる。例えば、図12に示されるように、バッファオブジェクト(buffer)の拡張オブジェクト(extensions)として、MPEGバッファサーキュラオブジェクト(MPEG_buffer_circular)が設けられる。そのMPEGバッファサーキュラオブジェクトには、バッファオブジェクト内にデータを動的に格納するための情報が格納される。例えば、バッファヘッダ(bufferHeader)のデータ長を示す情報や、フレーム数を示す情報等といった情報がこのMPEGバッファサーキュラオブジェクトに格納される。なお、バッファヘッダは、例えば、インデックス(index)、格納されるフレームデータのタイムスタンプやデータ長等といった情報を格納する。
 また、図12に示されるように、アクセサオブジェクト(accessor)の拡張オブジェクト(extensions)として、MPEGアクセサタイムドオブジェクト(MPEG_timed_accessor)が設けられる。この場合、メディアデータは動画なので時間方向に参照するバッファビューオブジェクト(bufferView)が変化し得る(位置が変動し得る)。そこで、その参照するバッファビューオブジェクトを示す情報が、このMPEGアクセサタイムドオブジェクトに格納される。例えば、MPEGアクセサタイムドオブジェクトには、タイムドアクセサインフォメーションヘッダ(timedAccessor information header)が記述されるバッファビューオブジェクト(bufferView)への参照を示す情報が格納される。なお、タイムドアクセサインフォメーションヘッダは、例えば、動的に変化するアクセサオブジェクトとバッファビューオブジェクト内の情報を格納するヘッダ情報である。
 図14は、タイムドメディアを扱うための拡張について説明するための、シーンディスクリプションにおけるMPEGバッファサーキュラオブジェクト(MPEG_buffer_circular)およびMPEGアクセサタイムドオブジェクト(MPEG_accessor_timed)の記述例を示す図である。図14の例の場合、上から5行目において下記のように、アクセサオブジェクト(accessors)の拡張オブジェクト(extensions)として、MPEGアクセサタイムドオブジェクト(MPEG_accessor_timed)が設定されている。そして、そのMPEGアクセサタイムドオブジェクトのバリューとして、バッファビューオブジェクトのインデックス(この例では「1」)、アップデートレート(updataRate)、不変の情報(immutable)等のパラメータとその値が指定されている。
"MPEG_accessor_timed":{"bufferView":1, "updateRate":25.0, "immutable":1,"}
 また、図14の例の場合、上から13行目において下記のように、バッファオブジェクト(buffer)の拡張オブジェクト(extensions)として、MPEGバッファサーキュラオブジェクト(MPEG_buffer_circular)が設定されている。そして、そのMPEGバッファサーキュラオブジェクトのバリューとして、バッファフレームカウント(count)、ヘッダ長(headerLength)、アップデートレート(updataRate)等のパラメータとその値が指定されている。
"MPEG_buffer_circular":{"count":5, "headerLength":12, "updateRate":25.0}
 図15は、タイムドメディアを扱うための拡張について説明するための図である。図15において、MPEGアクセサタイムドオブジェクトやMPEGバッファサーキュラオブジェクトと、アクセサオブジェクト、バッファビューオブジェクト、およびバッファオブジェクトとの関係の例を示す。
 バッファオブジェクトのMPEGバッファサーキュラオブジェクトには、上述したように、バッファフレームカウント(count)、ヘッダ長(headerLength)、アップデートレート(updataRate)等といった、バッファオブジェクトによって示されるバッファ領域に時間変化するdataを格納するのに必要な情報が格納される。また、そのバッファ領域のヘッダであるバッファヘッダ(bufferHeader)には、インデックス(idex)、タイムスタンプ(timestamp)、データ長(length)等のパラメータが格納される。
 アクセサオブジェクトのMPEGアクセサタイムドオブジェクトには、上述したように、バッファビューオブジェクトのインデックス(bufferView)、アップデートレート(updataRate)、不変の情報(immutable)等といった、参照するバッファビューオブジェクトに関する情報が格納される。また、このMPEGアクセサタイムドオブジェクトには、参照するタイムドアクセサインフォメーションヘッダが格納されるバッファビューオブジェクトに関する情報が格納される。タイムドアクセサインフォメーションヘッダには、タイムスタンプデルタ(timestamp_delta)、アクセサオブジェクトの更新データ、バッファビューオブジェクトの更新データ等が格納され得る。
  <MPEG_texture_video使用時のクライアント処理>
 シーンディスクリプションは、1つ以上の3Dオブジェクトを3D空間に配置するための空間配置情報である。このシーンディスクリプションは、時間軸に沿ってその内容を更新することができる。つまり、時間の経過とともに、3Dオブジェクトの配置を更新することができる。その際のクライアント装置において行われるクライアント処理について説明する。
 図16は、クライアント装置の、クライアント処理に関する主な構成例を示し、図17は、そのクライアント処理の流れの例を示すフローチャートである。図16に示されるように、クライアント装置は、プレゼンテーションエンジン(PresentaionEngine(以下、PEとも称する))51、メディアアクセスファンクション(MediaAccessFuncon(以下、MAFとも称する))52、パイプライン(Pipeline)53、およびバッファ(Buffer)54を有する。プレゼンテーションエンジン(PE)51は、glTF解析部63およびレンダリング(Rendering)処理部64を有する。
 プレゼンテーションエンジン(PE)51は、メディアアクセスファンクション52にメディアを取得させ、バッファ54を介してそのデータを取得し、表示に関する処理等を行う。具体的には例えば以下のような流れで処理が行われる。
 クライアント処理が開始されると、プレゼンテーションエンジン(PE)51のglTF解析部63は、図17の例のようにPE処理を開始し、ステップS21において、シーンディスクリプションファイルであるSD(glTF)ファイル62を取得し、そのシーンディスクリプションを解析(parse)する。
 ステップS22において、glTF解析部63は、3Dオブジェクト(texture)に紐づくメディア(media)と、そのメディアを処理後に格納するバッファ(buffer)と、アクセサ(accessor)を確認する。ステップS23において、glTF解析部63は、ファイル取得要求として、メディアアクセスファンクション52にその情報を通知する。
 メディアアクセスファンクション(MAF)52は、図17の例のようにMAF処理を開始し、ステップS11において、その通知を取得する。ステップS12において、メディアアクセスファンクション52は、その通知に基づいてメディア(3Dオブジェクトファイル(mp4))を取得する。
 ステップS13において、メディアアクセスファンクション52は、取得したメディア(3Dオブジェクトファイル(mp4))を復号する。ステップS14において、メディアアクセスファンクション52は、復号して得られたメディアのデータを、プレゼンテーションエンジン(PE51)からの通知に基づいて、バッファ54に格納する。
 ステップS24において、プレゼンテーションエンジン51のレンダリング処理部64は、そのデータを適切なタイミングにおいてバッファ54から読み出す(取得する)。ステップS25において、レンダリング処理部64は、取得したデータを用いてレンダリングを行い、表示用画像を生成する。
 メディアアクセスファンクション52は、ステップS13およびステップS14の処理を繰り返すことにより、各時刻(各フレーム)についてこれらの処理を実行する。また、プレゼンテーションエンジン51のレンダリング処理部64は、ステップS24およびステップS25の処理を繰り返すことにより、各時刻(各フレーム)についてこれらの処理を実行する。全てのフレームについて処理が終了すると、メディアアクセスファンクション52はMAF処理を終了し、プレゼンテーションエンジン51はPE処理を終了する。つまり、クライアント処理が終了する。
  <MPEG_mediaの定義>
 非特許文献2には、また、MPEGメディア(MPEG_media)の拡張について記載されている。MPEGメディアの拡張は、シーンディスクリプションにおいて参照されるメディアアイテムの配列として提供される。MPEGメディアのmedia array内において使用されるアイテムの定義の例を図18および図19に示す。例えば、startTimeは、時間指定されたメディアのレンダリングが開始される時刻を示す。値は秒単位で指定される。時間制限付きテクスチャの場合、startTimeに達するまで静的画像をテクスチャとしてレンダリングする必要がある。startTimeが「0」の場合、現在のシーンのプレゼンテーション時間を意味する。autoplayは、メディアの準備ができたらすぐに再生を開始することを指定する。autoplayGroupは、autoplayをグループ単位で指定できる機能である。Loopは、繰り返し再生を指定する。contorolsは、メディアの再生に関するユーザインタフェースの表示を指定する。alternativesは、同じメディアの代替手段(例えば、使用されているものとは異なるビデオコーデック等)を示す。なお、メディアアイテムに対してstartTimeまたはautoplayのいずれかが存在する必要がある。
 図20は、alternatives arrayの拡張例を示す。alternatives array内においては、図20において定義されるようなアイテムが使用される。図21は、tracks arrayの拡張例を示す。tracks array内においては、図21において定義されるようなアイテムが使用される。
  <MPEG-I Scene Description Interactivity Framework>
 非特許文献3においては、MPEG-I Scene Description Interactivity Frameworkについて記載されている。このフレームワークにおいては、メディアのインタラクティブ処理が定義される。インタラクティブ処理とは、ある実行条件が成立したことをトリガとしてメディア処理(アクション)が実行されるインタラクション型の処理である。このフレームワークにおいては、シーンディスクリプション(MPEG-I Scene Description)においてこの実行条件(トリガ)および処理内容(アクション)が提供される。つまり、非特許文献3においては、シーンディスクリプションによってメディアのインタラクティブ処理を制御するためのフレームワークについて記述されている。
 図22に示すように、MPEG_scene_interactivityと称するMPEGインタラクティビティのglTF拡張機能がシーンレベルで導入される。このシーンレベルのMPEG_scene_interactivityの拡張は、ビヘイビア(bihavior)、トリガ(trigger)、およびアクション(action)の定義に基づいたセマンティクスのアプローチを採用している。図23にそのセマンティクスの例を示す。
 ビヘイビアは、glTFノードに対応する専用仮想オブジェクトに対して、実行時にどの種類の対話性が許可されるかを定義する。ビヘイビアは、単数または複数のトリガと、単数または複数のアクションとを関連付ける機能を有する。トリガは、アクションを実行する前に満たすべき実行条件を定義する。つまり、トリガはインタラクティブ処理の実行条件を示す。アクションは、その動作がシーンにどのような影響を与えるかを定義する。つまり、アクションはインタラクティブ処理の処理内容を示す。ビヘイビアは、このようなトリガとアクションを関連付けることにより、インタラクティブ処理(どのような条件でどのような処理が実行されるか)を表現する。
 トリガとアクションのアーキテクチャの例を図24に示す。トリガがノードに提供されるとアクションが返される。つまり、トリガは、何らかの形式のインタラクティビティ(対話性)のきっかけとなるイベントであり、アクションはそのトリガに対するインタラクション型のフィードバックである。例えば、(仮想の)3次元空間において、3Dオブジェクト同士の衝突が検出されると、アニメーション、音声、または触覚(例えば振動等)等といった、フィードバック(インタラクション型のアクション)が返される。
 このトリガのセマンティクスの例を図25に示す。図25に示されるように、実行条件のタイプ(type)が定義され、さらに各タイプについて詳細(各種項目)が定義される。例えば、このトリガのタイプには、VISIBIRITY、PROXIMITY、USER_INPUT、TIMED、COLLIDER等がある。VISIBIRITYは視錘台(画角)によって作動するトリガである。PROXIMITYは、仮想シーンとアバターとの間の距離によって作動するトリガである。USER_INPUTは、ハンドジェスチャ等のユーザインタラクションによって作動するトリガである。TIMEDは、タイムドメディアによって特定の時間に作動するトリガである。COLLIDERは、シーン内のオブジェクト同士の衝突によって作動するトリガである。
 また、アクションのセマンティクスの例を図26および図27に示す。図26および図27に示されるように、処理内容のタイプ(type)が定義され、さらに、各タイプについて詳細(各種項目)が定義される。例えば、このアクションのタイプには、ACTIVATE、TRANSFORM、ANIMATE、CONTROL_MEDIA、PLACE_AT、MANIPULATE、SET_MATERIAL等がある。ACTIVATEは、ノードに対するアプリケーションによる作動に関するアクションである。TRANSFORMは、ノードに適用する変換行列の適用に関するアクションである。ANIMATEは、アニメーションの再生動作(通常再生(Play)、一時停止(Pouse)、再生再開(Resume)、再生終了(Stop)等)に関するアクションである。CONTROL_MEDIAは、メディアの再生動作(通常再生(Play)、一時停止(Pouse)、再生再開(Resume)、再生終了(Stop)等)に関するアクションである。PLACE_ATは、ノードを指定位置に配置する事に関するアクションである。MANIPULATEは、ユーザのポインティング デバイスによるノードに対する操作(例えば、追跡、移動、平行移動、回転、スケール変換等)に関するアクションである。SET_MATERIALは、ノードに対するマテリアルの設定に関するアクションである。
 また、ビヘイビアのセマンティクスの例を図28に示す。ビヘイビアにおいては、トリガとアクションの組み合わせが提供される。トリガとアクションはそれぞれ単数であってもよいし複数であってもよい。つまり、複数条件(and/or)による実行や、複数動作(シーケンシャル/同時)の実行が可能である。priorityは、複数のビヘイビアが同時に有効になった場合の優先度を示す。triggersControlは、複数のトリガ(trigger array)の組み合わせ条件(AND/OR)を示すフラグ情報である。actionsControlは、複数のアクション(action array)の組み合わせパタン(シーケンシャルに実行するか、並行して実行するか等)を示すフラグ情報である。InterruptActionは、シーンアップデート(SceneUpdate)の際にビヘイビアが「still-on-going」であれば実行するアクションである。
 MPEG_scene_interactionの拡張構造の例を図29に示す。図29において、トリガの対象となり得るものは、User Inputs、MPEG_media_collision、MPEG_avatar、MPEG_recommended_viewportである。またアクションの対象となり得るものは、MPEG_media、MPEG_haptic、MPEG_audio_spatial、MPEG_material_hapticである。
 実行時、アプリケーションは定義された各動作を反復し、図30に示されるような手順に従って、関連するトリガの実現を確認する。まず、定義されたビヘイビアのトリガがアクティブ化されると、対応するアクションが起動される。ビヘイビアは、起動から定義されたアクションの完了までの間、「進行中」ステータスを持つ。複数のビヘイビアが同一ノードに対して同時に影響を与える場合、最も高い優先度を持つビヘイビアがこのノードに対して処理される。他のビヘイビアは同時に処理されない。このような処理が繰り返し実行される。
 また、新しいシーンディスクリプションが提供されると、アプリケーションは図31に示されるような手順に従って処理を行う。シーンが更新される際に関連するアクションが実行中である場合、ビヘイビアは進行中であるとみなされる。シーン更新後もトリガとアクションの一意の関連付けが記述されている場合、そのビヘイビアは「まだ定義されている」とみなされる。ビヘイビアが「まだ定義されていない」場合は、その割り込みアクションが実行される。全ての割り込みアクション(割り込みアクションが存在する場合)が完了すると、アプリケーションは古いシーンデータを削除し、新しいデータが更新されたシーンディスクリプションと一致するとみなす。
  <ハプティクスメディア>
 ところで、例えば非特許文献4に記載のように、2Dビデオコンテンツや3DoF(Degree of Freedom)/6DoFビデオコンテンツの構成要素であるオーディオメディアやビデオメディアに加えて、触覚情報(ハプティクスメディア(haptics media)とも称する)の符号化伝送技術の規格化が始まった。ハプティクスメディアは、例えば振動等を用いて仮想の感覚を表現する情報である。ハプティクスメディアは例えば、3次元空間を表現する情報である3Dデータに関連付けられて利用される。3Dデータには、例えば、3次元空間に配置された3Dオブジェクトの3次元形状を表現するコンテンツ(例えば、メッシュやポイントクラウド等)や、3次元空間に展開されるビデオコンテンツやオーディオコンテンツ(例えばビデオやオーディオの6DoFコンテンツ等)等が含まれる。
 なお、3Dデータに関連付けられたメディアはどのような情報であってもよく、このハプティクスメディアに限定されない。例えば、画像や音声等がこのメディアに含まれてもよい。3Dデータに関連付けられたメディア(例えば、画像、音声、振動等)には、シーン(3次元空間の状態)の時間方向の進行(変化)に同期して再生される同期型メディアと、ユーザ操作等によりシーンにおいて所定の条件が満たされる場合に再生される(つまり、所定のイベントに対して再生される)インタラクション型メディアとがある。同期型メディアのハプティクスメディアを同期型ハプティクスメディアとも称する。また、インタラクション型メディアのハプティクスメディアをインタラクション型ハプティクスメディアとも称する。同期型ハプティクスメディアは、例えば、風が吹いたり、3Dオブジェクトが移動したりした場合に、その様子に合わせて(そのシーンの変化の様子を表現するように)発生する振動等である。インタラクション型ハプティクスメディアは、例えば、ユーザのアバターが3Dオブジェクトに触れた場合、アバターが3Dオブジェクトを動かした場合、または、アバターが3Dオブジェクトにぶつかった場合等に、その感覚を表現するように発生する振動等である。勿論、これらはハプティクスメディアの一例であり、ハプティクスメディアはこれらの例に限定されない。
 また、3Dデータに関連付けられたメディアには、時間方向に変化し得るメディアと変化しないメディアとがある。
 「時間方向に変化し得るメディア」には、例えば、再生内容(アクション)が時間方向に変化し得るメディアが含まれてもよい。その「再生内容が時間方向に変化し得るメディア」には、例えば、動画像や、長時間の音声情報や振動情報等が含まれてもよい。また、「再生内容が時間方向に変化し得るメディア」には、例えば、所定の時間帯においてのみ再生されるメディアや、時刻に応じた内容が再生されるメディア(例えば、時刻に応じて表示される画像、再生される音声、振動の仕方等が切り替わるメディア)等が含まれてもよい。また、「時間方向に変化し得るメディア」には、例えば、紐づけられる再生条件(イベント)が時間方向に変化し得るメディアが含まれてもよい。その「紐づけられる再生条件が時間方向に変化し得るメディア」には、例えば、触れる、押す、倒す等の、イベントの内容が時間方向に変化し得るメディアが含まれてもよい。また、「紐づけられる再生条件が時間方向に変化し得るメディア」には、例えば、イベントが発生する位置が時間方向に変化し得るメディアが含まれてもよい。例えば、時刻T1においてはオブジェクトの右側に触れた場合に再生され、時刻T2においてはオブジェクトの左側に触れた場合に再生されるメディアが含まれてもよい。勿論、時間方向に変化するものであればどのようなメディアであってもよく、これらの例には限定されない。これに対して、「時間方向に変化しないメディア」には、例えば、再生内容(アクション)が時間方向に変化しないメディア(どの時刻においてもアクションが同一なメディア)が含まれてもよい。また、「時間方向に変化しないメディア」には、例えば、紐づけられる再生条件(イベント)が時間方向に変化しないメディア(イベントの内容やイベントが発生する位置がどの時刻においても同一なメディア)が含まれてもよい。本明細書において、時間方向に変化し得ることを「動的」とも称する。例えば、時間方向に変化し得るメディア(Timed media)のことを動的なメディアとも称する。例えば、時間方向に変化し得るハプティクスメディアを動的なハプティクスメディアとも称する。また、時間方向に変化しないことを「静的」とも称する。例えば、時間方向に変化しないメディアのことを静的なメディアとも称する。例えば、時間方向に変化しないハプティクスメディアを静的なハプティクスメディアとも称する。
  <シーンディスクリプションのハプティクスメディア用の拡張>
 また、非特許文献4に記載のように、ハプティクスメディアの符号化伝送技術の規格化と並行して、MPEG-I Scene Descriptionでハプティクスメディアを扱うための技術探索検討が始まった。非特許文献4においては、シーンディスクリプションにおいてハプティクスメディアをサポートするために、図32に示されるように、MPEG_haptic、MPEG_material_haptic、MPEG_avatar、およびMPEG_interactionの4つのgLTF拡張が提案された。
 MPEG_hapticは、シーンディスクリプションから参照されるハプティクスメディアのデータ(ハプティクスデータとも称する)を参照するための情報(例えばリンク情報等)である。このハプティクスデータは、オーディオや画像等のデータと同様に、独立したデータとして存在する。また、このハプティクスデータは、符号化されていてもよい(符号化データであってもよい)。
 既に定義されている3Dオブジェクトのmesh/material拡張であるMPEG_material_hapticは、ハプティクス素材情報(3Dオブジェクト(メッシュ)の何処にどのハプティクスメディアが関連付けられるか等)を定義する。この素材情報には、静的なハプティクスメディアの情報が定義される。また、このハプティクス素材情報には、MPEG_hapticにアクセスするための情報(例えばリンク情報等)を定義することもできる。
 MPEG_avatarは、3次元空間を移動するユーザの3D形状(アバター)を定義する。MPEG_interactionは、アバター(ユーザ)が実行可能な条件(ユーザができること)と可能なアクション(オブジェクトの反応方法)をリストアップする。例えば、MPEG_interactionは、ユーザ(MPEG_avatar)と3Dオブジェクトとの間で発生するインタラクション(つまり、イベント)と、その結果発生するアクションを定義する(例えば、ユーザが3Dオブジェクトを触ると振動が起きる等)。
 例えば、MPEG_avatarに定義されるアバターがMPEG_interactionに定義されるインタラクション(イベント)を発生させると、そのインタラクションに対応するアクションを起こすように、MPEG_materal_hapticsの素材情報に従ってインタラクションが発生した場所等に応じた静的なハプティクスメディアが生成され、再生される(例えば、振動デバイスにより出力される振動がレンダリングされる)。MPEG_material_hapticは、シーンディスクリプションのテクスチャ情報に紐づく静的な情報である。または、MPEG_materal_hapticsに示されるMPEG_hapticが参照するハプティクスデータが読み出され、動的なハプティクスメディアが生成され、再生される。つまり、インタラクティビティのトリガ(実行条件)により、MPEG_hapticは、アクションのmedia_controlから起動される。MPEG_hapticのセマンティクスの例を図33に示す。
 非特許文献5においては、このようなハプティクスメディアの符号化方法が提案されている。この方法では、図34の上側に示されるようなアーキテクチャを用いて、ハプティクス信号(wav)や、ハプティクス信号記述(ivs,ahap)が符号化され、インターチェンジフォーマット(gmap)やディストリビューションフォーマット(mpg)が生成される。図34の下側の表は、ディストリビューションフォーマットの構成例を示す。この表に示されるように、ハプティクスメディアのビットストリームは、バイナリヘッダ(Binary Header)とバイナリボディ(Binary Body)とにより構成される。バイナリヘッダには、ハプティクスメディアの符号化データ(Haptics stream)の特性、レンダリングデバイス、符号化手法の情報等が格納される。また、バイナリボディには、ハプティクスメディアの符号化データ(Haptics stream)が格納される。
 バイナリヘッダは、例えば図35に示されるように、ハプティクスファイルメタデータ(Haptics file metadata)、アバターメタデータ(avatar metadata)、パーセプションメタデータ(perception metadata)、リファレンスデバイスメタデータ(reference device metadata)、およびトラックヘッダ(track header)を含み、図35に示されるような階層構造を有する。
 ハプティクスファイルメタデータは、ハプティクスメディアに関する情報を含む。そのハプティクスファイルメタデータのセマンティクスの例を図36に示す。アバターメタデータは、アバターに関する情報を含む。そのアバターメタデータのセマンティクスの例を図37に示す。パーセプションメタデータは、アイテムがどのような振る舞いをするかに関する情報を含む。そのパーセプションメタデータのセマンティクスの例を図38に示す。リファレンスデバイスメタデータは、参照デバイス(どのデバイスをどのように動かすか)に関する情報を含む。そのリファレンスデバイスメタデータのセマンティクスの例を図39に示す。トラックヘッダは、アイテムのバイナリデータが格納されるトラックと、そのバイナリデータの再生に関する情報を含む。そのトラックヘッダのセマンティクスの例を図40に示す。
 バイナリボディは、バンドヘッダ(Band header)、トランジェントバンドボディ(Transient band body)、カーブバンドボディ(Curve band body)、ウェーブバンドボディ(Wave band body)を含む。そのバンドヘッダのセマンティクスの例を図41に示す。また、トランジェントバンドボディおよびカーブバンドボディのセマンティクスの例を図42に示す。
 ウェーブバンドボディは、ベクトリアルバンドボディ(Vectorial band body)、クオンタイズドバンドボディ(Quantized band body)、ウェーブレットバンドボディ(Wavelet band body)のいずれかで符号化される。それらのセマンティクスの例を図43に示す。
 このような情報を有するハプティクスメディアのデータ構造は、一般的に、図44に示されるような階層構造を有する。
 図45に示されるように、参照デバイスは、ID(id)、名前(name)、および本体の位置(body location)によって定義される。オプションで、デバイス毎に特定のプロパティを指定することができる。
 図46に示されるように、トラックは、ID(id)、記述(description)、身体部分(body_part)、混合重み(mixing weight)、ゲイン値(gain value)、および触覚バンドのリスト(list of haptic bands)によって定義される。参照デバイスID(reference device id)、必要なサンプリング周波数(the desired sampling frequency)、サンプル数(the sample count)など、さまざまな追加プロパティを指定することもできる。
 図47に示されるように、ハプティックバンドは、バンドのタイプ(the type of the band)、エンコード モダリティ(the encoding modality)、補間関数(the interpolation function)、ウィンドウの長さ(window length)、周波数範囲(frequency range)、およびハプティックエフェクトのリスト(list of haptic effects)によって定義されます。
 図48に示されるように、エフェクトは、位置(タイムスタンプ)(its position (timestamp))、フェーズ(its phase)、信号タイプ(its signal type)、およびキーフレームのリスト(list of keyframes)によって定義される。
  <ISOBMFFのハプティクスメディア用の拡張>
 また、非特許文献8においては、そのハプティクスメディアが符号化されたビットストリームをISOBMFFに格納するための基本機能が作成された。図49は、そのハプティクスメディアを格納するためのISOBMFFの拡張例を示す図である。非特許文献8に記載の方法の場合、ハプティクスメディアを格納するために、メディアタイプ'hapt'が定義された。また、メディアインフォメーションボックスとして、ハプティクスサンプルエントリ(HapticsSampleEntry)が用意された。ただし、ハプティクスサンプルエントリの内部の構造については未定義であった。
  <ハプティクスメディアのユーザ体験>
 しかしながら、例えば振動等のハプティクスメディアのユーザ体験は、そのハプティクスメディアを出力するハプティクスデバイスの仕様に大きく依存する。そのため、出力に使用されるハプティクスデバイスの仕様によっては、コンテンツ制作者の意図通りのハプティクス体験を提供することが困難になるおそれがあった。
 <3.ハプティクスメディアの再生制御のための拡張>
  <周波数特性の違い>
 例えば、ハプティクスメディアの場合、そのハプティクスメディアの再生(復号、変換、レンダリング等)を想定した参照デバイスが定義され、その情報が付加される。つまり、ハプティクスメディアを生成する際に、制作者は、そのハプティクスメディアを出力するハプティクスデバイス(の仕様)を想定し、そのハプティクスデバイスにより出力されることを前提としてハプティクスメディアを生成する。このように出力デバイスとして想定されたハプティクスデバイスの仕様のモデルを参照モデルとも称する。ハプティクスメディアを再生する端末は、その端末が有するハプティクスデバイス(端末ハプティクスデバイスとも称する)とこの参照デバイスとの特性の違いを考慮して、復号したハプティクスメディアに対して、信号変換処理を行い、レンダリングする。しかしながら、この端末ハプティクスデバイスと参照デバイスとの間の周波数特性の違いが大きい場合、端末が、コンテンツ制作者が意図したハプティクス体験を提供することが困難になるおそれがあった。
  <方法1>
 そこで、図50の表の最上段に示されるように、ハプティクスメディアに関する周波数特性情報を提供してもよい(方法1)。
 例えば、第1の情報処理装置が、シーンディスクリプションに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、そのハプティクスメディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、シーンディスクリプションに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、そのハプティクスメディアの出力を制御する。
 例えば、第2の情報処理装置が、ハプティクスメディアに関する周波数特性情報が存在するシーンディスクリプションを供給する供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、ハプティクスメディアに関する周波数特性情報が存在するシーンディスクリプションを供給する。
 例えば、図51の上側に示されるように、MPEGメディアの拡張パラメータとして、より具体的には、MPEG_media.media.alternatives alternatives arraryのextraParamsオブジェクトの拡張として、HapticsDeviceInfoオブジェクトを定義する。HapticsDeviceInfoオブジェクトは、ハプティクスメディアやそのハプティクスメディアを出力するハプティクスデバイスの周波数特性に関する情報を提供するオブジェクトである。このHapticsDeviceInfoオブジェクトより提供される周波数特性は、コンテンツ制作者により指定されるか、または、コンテンツ等、コンテンツ制作者による制作物に基づいて指定される。つまり、このHapticsDeviceInfoオブジェクトには、コンテンツ制作者の意図が反映される。
 つまり、シーンディスクリプションにおいて、MPEGメディアの拡張パラメータとしてこのようなHapticsDeviceInfoオブジェクトを定義することにより、第1の情報処理装置に対して、ハプティクスメディアに関する周波数特性情報を提供することができる。第1の情報処理装置は、そのハプティクスメディアに関する周波数特性情報に基づいて、そのハプティクスメディアの出力を制御することにより、コンテンツ制作者の意図に従って、ハプティクスメディアの出力を制御することができる。したがって、第1の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 また、第2の情報処理装置は、このようなHapticsDeviceInfoオブジェクトが存在するシーンディスクリプションを供給することにより、第1の情報処理装置に対して、ハプティクスメディアに関する周波数特性情報を提供することができる。第1の情報処理装置は、その周波数特性に応じて、ハプティクスメディアの出力を制御することができる。つまり、第2の情報処理装置は、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、MPEG_media.media.alternatives.tracks tracks arrayを拡張して、このようなHapticsDeviceInfoオブジェクトを定義してもよい。
  <ハプティクスデバイスの選択>
 このハプティクスメディアに関する周波数特性情報(HapticsDeviceInfoオブジェクト)に基づく、ハプティクスメディアの出力制御はどのような制御であってもよい。例えば、ハプティクスメディアを出力するハプティクスデバイスの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その周波数特性情報により許容される仕様を有するハプティクスデバイスにそのハプティクスメディアを出力させてもよい。換言するに、出力制御部が、周波数特性が許容されないハプティクスデバイスの適用を禁止してもよい。
 このように制御することにより、第1の情報処理装置は、コンテンツ制作者の意図に従って、ハプティクスメディアを出力するハプティクスデバイスを選択することができる。つまり、第1の情報処理装置は、ハプティクスメディアを、コンテンツ制作者が意図した周波数特性を有するハプティクスデバイスから出力させることができる。換言するに、コンテンツ制作者が、ハプティクスデバイスがハプティクスメディアを出力することによりどのように振舞うか(ユーザがどのようなハプティクス体験をするか)を制御することができる。したがって、第1の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディアの選択>
 また、ハプティクスメディアの出力制御は、出力するハプティクスメディアの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その周波数特性情報に基づいて、互いに異なる周波数特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適なハプティクスメディアを選択し、その選択したハプティクスメディアをそのハプティクスデバイスに出力させてもよい。
 つまり、互いに異なる周波数特性を有する複数のハプティクスメディアを用意しておき、ハプティクスメディアを再生する端末(第1の情報処理装置)が有するハプティクスデバイスの周波数特性に最も近いハプティクスメディアを選択して再生する。このように互いに異なる周波数特性を有する複数のハプティクスメディアを用意することにより、第1の情報処理装置は、より多様な周波数特性のハプティクスデバイスに対応することができる。つまり、第1の情報処理装置は、より多様な周波数特性のハプティクスデバイスを用いてハプティクスメディアを出力することができる。また、第1の情報処理装置は、適用するハプティクスデバイスの周波数特性により近い周波数特性のハプティクスメディアを選択することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <HapticsDeviceInfoオブジェクト定義>
 また、このハプティクスメディアに関する周波数特性情報(HapticsDeviceInfoオブジェクト)に、どのような情報が含まれていてもよい。例えば、この周波数特性情報が、参照デバイスの中心周波数を示す情報を含んでもよい。また、この周波数特性情報が、ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含んでもよい。また、この周波数特性情報が、ハプティクスメディアの中心周波数における振幅の強さを示す情報を含んでもよい。また、この周波数特性情報が、ハプティクスメディアを出力するハプティクスデバイスとして許容される、ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含んでもよい。
 例えば、図51の下側に示されるように、HapticsDeviceInfoオブジェクトに、CenterFrequency、AcceptableFrequencyRange、SignalAcceleration、およびAcceptableSignalAcceleration等のオブジェクト定義が含まれてもよい。CenterFrequencyは、参照デバイスの中心周波数f0(単位Hz)を示す情報である。AcceptableFrequencyRangeは、端末ハプティクスデバイスの中心周波数の許容範囲を示す情報である。AcceptableFrequencyRangeは、プラスマイナスの周波数(単位Hz)により、この許容範囲を示す。SignalAccelerationは、ハプティクスメディアの信号の中心周波数における振幅の強さを、加速度のpeak to peakの値(単位GPP)を用いて示す情報である。AcceptableSignalAccelerationは、端末ハプティクスデバイスにおいて、ハプティクスメディアの信号の中心周波数における振幅の強さの許容範囲を、加速度のpeak to peakの値を用いて示す情報である。AcceptableSignalAccelerationは、プラスマイナスの値(単位GPP)により、この許容範囲を示す。
 図52にHapticsDeviceInfoオブジェクトを含むシーンディスクリプションの記述例を示す。図52に示されるように、この場合、ハプティクスメディアhap1として、3種類のデータ(haptic1.mp4、haptic2.mp4、haptic3.mp4)が用意されている。そして、haptic1.mp4、haptic2.mp4、haptic3.mp4のそれぞれについて、拡張パラメータ(exParam)として、HapticsDeviceInfoオブジェクトが記述されており、上述した各種定義が記述されている。このhaptic1.mp4、haptic2.mp4、haptic3.mp4は、互いに異なる周波数特性を有する。例えば、haptic1.mp4については、参照デバイスの中心周波数が40Hzであり、端末ハプティクスデバイスの中心周波数の許容範囲がプラスマイナス20Hzであり、ハプティクスメディアの信号の中心周波数における振幅の強さが5GPPであり、端末ハプティクスデバイスにおいて、ハプティクスメディアの信号の中心周波数における振幅の強さの許容範囲がプラスマイナス1GPPであることが示されている。
 HapticsDeviceInfoオブジェクトにこれらの情報が含まれることにより、第1の情報処理装置は、これらの情報に基づいてハプティクスメディアの出力を制御することができる。例えば、第1の情報処理装置は、中心周波数がCenterFrequency定義とAcceptableFrequencyRange定義により示される許容範囲内であるハプティクスデバイスを、ハプティクスデバイスメディアの出力に適用することができる。また、第1の情報処理装置は、ハプティクスメディアの信号の中心周波数における振幅の強さがSignalAcceleration定義とAcceptableSignalAcceleration定義により示される許容範囲内であるハプティクスデバイスを、ハプティクスデバイスメディアの出力に適用することができる。また、第1の情報処理装置は、中心周波数や信号の中心周波数における振幅の強さ等に基づいて、ハプティクスデバイスに最適なハプティクスメディアを選択し、再生することができる。換言するに、第2の情報処理装置は、第1の情報処理装置を介して、これらの情報に基づいてハプティクスメディアの出力を制御することができる。したがって、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、AcceptableFrequencyRangeは、プラス方向とマイナス方向で互いに独立したオブジェクト定義でもよい。つまり、プラス方向の値とマイナス方向の値が互いに異なり得るようにしてもよい。同様に、AcceptableSignalAccelerationは、プラス方向とマイナス方向で互いに独立したオブジェクト定義でもよい。つまり、プラス方向の値とマイナス方向の値が互いに異なり得るようにしてもよい。
 また、HapticsDeviceInfoオブジェクトに、CenterFrequency、AcceptableFrequencyRange、SignalAcceleration、およびAcceptableSignalAccelerationの内の一部のオブジェクト定義が含まれてもよい。例えば、CenterFrequency定義とAcceptableFrequencyRange定義が、HapticsDeviceInfoオブジェクトに含まれてもよい。また、SignalAcceleration定義とAcceptableSignalAcceleration定義が、HapticsDeviceInfoオブジェクトに含まれてもよい。また、CenterFrequency定義とSignalAcceleration定義が、HapticsDeviceInfoオブジェクトに含まれてもよい。
  <信号立ち上がり特性の違い>
 また、端末ハプティクスデバイスと参照デバイスとの間の信号立ち上がり特性の違いが大きい場合、端末が、コンテンツ制作者が意図したハプティクス体験を提供することが困難になるおそれがあった。
 ここで、信号立ち上がり特性とは、信号の到達すべき加速度や、信号の加速度の所定の到達レベルに達するまでの時間等といった、信号の変化の速度に関する特性を示す。つまり、その信号がどの程度の速さで変化するかを示す。デバイスの信号立ち上がり特性とは、そのデバイスが対応可能な(出力することができる)、つまり、そのデバイスが信号の変化をどの程度の速さまで表現することができるかを示す。
 例えば、ハプティクスメディアの信号立ち上がり特性に対して、出力可能な信号立ち上がり特性が遅過ぎるハプティクスデバイスでは、そのハプティクスメディアを正しく出力することができないおそれがあった。例えば、そのハプティクスデバイスが、そのハプティクスメディアが表現する高速に振動が変化する様子を表現することができないおそれがあった。つまり、コンテンツ制作者が意図したハプティクス体験を提供することが困難になるおそれがあった。
  <方法2>
 そこで、図50の表の上から2段目に示されるように、ハプティクスメディアに関する信号立ち上がり特性情報を提供してもよい(方法2)。
 例えば、第1の情報処理装置が、シーンディスクリプションに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、そのハプティクスメディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、シーンディスクリプションに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、そのハプティクスメディアの出力を制御する。
 例えば、第2の情報処理装置が、ハプティクスメディアに関する信号立ち上がり特性情報が存在するシーンディスクリプションを供給する供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、ハプティクスメディアに関する信号立ち上がり特性情報が存在するシーンディスクリプションを供給する。
 例えば、図53の上側に示されるように、MPEGメディアの拡張パラメータとして、より具体的には、MPEG_media.media.alternatives alternatives arraryのextraParamsオブジェクトの拡張として、HapticsDeviceTimingInfoオブジェクトを定義する。HapticsDeviceTimingInfoオブジェクトは、ハプティクスメディアやそのハプティクスメディアを出力するハプティクスデバイスの信号立ち上がり特性に関する情報を提供するオブジェクトである。このHapticsDeviceTimingInfoオブジェクトより提供される信号立ち上がり特性は、コンテンツ制作者により指定されるか、または、コンテンツ等、コンテンツ制作者による制作物に基づいて指定される。つまり、このHapticsDeviceTimingInfoオブジェクトには、コンテンツ制作者の意図が反映される。
 つまり、シーンディスクリプションにおいて、MPEGメディアの拡張パラメータとしてこのようなHapticsDeviceTimingInfoオブジェクトを定義することにより、第1の情報処理装置に対して、ハプティクスメディアに関する信号立ち上がり情報を提供することができる。第1の情報処理装置は、そのハプティクスメディアに関する信号立ち上がり特性情報に基づいて、そのハプティクスメディアの出力を制御することにより、コンテンツ制作者の意図に従って、ハプティクスメディアの出力を制御することができる。例えば、参照デバイスの周波数特性、信号立ち上がり特性の違いの許容範囲を提示することで、コンテンツ制作者が意図したタイミングでハプティクス体験を提供することができる。また、様々な周波数特性、信号立ち上がり特性のハプティクスデバイスに対して、複数の特性のハプティクスメディアを選択可能にすることで、端末デバイスのハプティクスデバイスの特性に適切なハプティクスメディアを選択し、復号、変換、レンダリング処理を行うことで、コンテンツ制作者が意図したタイミングでハプティクス体験を提供することができる。したがって、第1の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 また、第2の情報処理装置は、このようなHapticsDeviceTimingInfoオブジェクトが存在するシーンディスクリプションを供給することにより、第1の情報処理装置に対して、ハプティクスメディアに関する信号立ち上がり特性情報を提供することができる。第1の情報処理装置は、その信号立ち上がり特性に応じて、ハプティクスメディアの出力を制御することができる。つまり、第2の情報処理装置は、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、MPEG_media.media.alternatives.tracks tracks arrayを拡張して、このようなHapticsDeviceTimingInfoオブジェクトを定義してもよい。
  <ハプティクスデバイスの選択>
 このハプティクスメディアに関する信号立ち上がり特性情報(HapticsDeviceTimingInfoオブジェクト)に基づく、ハプティクスメディアの出力制御はどのような制御であってもよい。例えば、ハプティクスメディアを出力するハプティクスデバイスの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その信号立ち上がり特性情報により許容される仕様を有するハプティクスデバイスにそのハプティクスメディアを出力させてもよい。換言するに、出力制御部が、信号立ち上がり特性が許容されないハプティクスデバイスの適用を禁止してもよい。
 このように制御することにより、第1の情報処理装置は、コンテンツ制作者の意図に従って、ハプティクスメディアを出力するハプティクスデバイスを選択することができる。つまり、第1の情報処理装置は、ハプティクスメディアを、コンテンツ制作者が意図した信号立ち上がり特性を有するハプティクスデバイスから出力させることができる。換言するに、コンテンツ制作者が、ハプティクスデバイスがハプティクスメディアを出力することによりどのように振舞うか(ユーザがどのようなハプティクス体験をするか)を制御することができる。したがって、第1の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディアの選択>
 また、ハプティクスメディアの出力制御は、出力するハプティクスメディアの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その信号立ち上がり特性情報に基づいて、互いに異なる信号立ち上がり特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適なハプティクスメディアを選択し、その選択したハプティクスメディアをそのハプティクスデバイスに出力させてもよい。
 つまり、互いに異なる信号立ち上がり特性を有する複数のハプティクスメディアを用意しておき、ハプティクスメディアを再生する端末(第1の情報処理装置)が有するハプティクスデバイスの信号立ち上がり特性に最も近いハプティクスメディアを選択して再生する。このように互いに異なる信号立ち上がり特性を有する複数のハプティクスメディアを用意することにより、第1の情報処理装置は、より多様な信号立ち上がり特性のハプティクスデバイスに対応することができる。つまり、第1の情報処理装置は、より多様な信号立ち上がり特性のハプティクスデバイスを用いてハプティクスメディアを出力することができる。また、第1の情報処理装置は、適用するハプティクスデバイスの信号立ち上がり特性により近い信号立ち上がり特性のハプティクスメディアを選択することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <HapticsDeviceTimingInfoオブジェクト定義>
 また、このハプティクスメディアに関する信号立ち上がり特性情報(HapticsDeviceTimingInfoオブジェクト)に、どのような情報が含まれていてもよい。例えば、この信号立ち上がり特性情報が、参照デバイスの中心周波数を示す情報を含んでもよい。また、この信号立ち上がり特性情報が、ハプティクスメディアの信号が到達すべき加速度を表す情報を含んでもよい。また、この信号立ち上がり特性情報が、ハプティクスメディアの信号の加速度の到達レベルを表す情報を含んでもよい。また、この信号立ち上がり特性情報が、ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含んでもよい。
 例えば、図53の下側に示されるように、HapticsDeviceTimingInfoオブジェクトに、CenterFrequency、SignalAcceleration、SignalLevelRate、およびMaxReachTime等のオブジェクト定義が含まれてもよい。CenterFrequencyは、参照デバイスの中心周波数f0(単位Hz)を示す情報である。SignalAccelerationは、信号が到達すべき加速度(単位G)を表す情報である。SignalLevelRateは、信号の加速度の到達レベル(単位%)を表す情報である。MaxReachTimeは、信号の加速の到達レベルに達するまでの最大許容遅延時間(単位ms)を表す情報である。
 図54にHapticsDeviceTimingInfoオブジェクトを含むシーンディスクリプションの記述例を示す。図54に示されるように、この場合、ハプティクスメディアhap1として、3種類のデータ(haptic1.mp4、haptic2.mp4、haptic3.mp4)が用意されている。そして、haptic1.mp4、haptic2.mp4、haptic3.mp4のそれぞれについて、拡張パラメータ(exParam)として、HapticsDeviceTimingInfoオブジェクトが記述されており、上述した各種定義が記述されている。このhaptic1.mp4、haptic2.mp4、haptic3.mp4は、互いに異なる信号立ち上がり特性を有する。例えば、haptic1.mp4については、参照デバイスの中心周波数が40Hzであり、信号が到達すべき加速度が5Gであり、信号の加速度の到達レベルが80%であり、信号の加速の到達レベルに達するまでの最大許容遅延時間が50msであることが示されている。
 HapticsDeviceTimingInfoオブジェクトにこれらの情報が含まれることにより、第1の情報処理装置は、これらの情報に基づいてハプティクスメディアの出力を制御することができる。例えば、第1の情報処理装置は、信号の加速の到達レベルに達するまでの遅延時間が、CenterFrequency、SignalAcceleration、SignalLevelRate、MaxReachTime等の定義により示される許容範囲内であるハプティクスデバイスを、ハプティクスデバイスメディアの出力に適用することができる。また、第1の情報処理装置は、信号の加速の到達レベルに達するまでの遅延時間に基づいて、ハプティクスデバイスに最適なハプティクスメディアを選択し、再生することができる。換言するに、第2の情報処理装置は、第1の情報処理装置を介して、これらの情報に基づいてハプティクスメディアの出力を制御することができる。したがって、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <複数ハプティクスメディアの再生>
 例えば、単一のハプティクスデバイスにおいて、複数のハプティクスメディアを同時に出力する場合、端末の処理能力によっては、その全てのハプティクスメディアを処理できない場合がある。ここで、「同時」とは、複数のメディアの出力期間が重複することを意味する。複数メディアの出力開始タイミングや出力終了タイミングが一致している場合は勿論含まれるが、それらが一致していない場合も含まれる。
 つまり、ハプティクスデバイスが同時に再生可能なハプティクスメディアの数よりも多いハプティクスメディアを同時に再生するシーンが発生する場合が考えられる。このような場合、例えば、その複数のハプティクスメディアの中から出力可能な数のハプティクスメディアを選択して出力する方法が考えられる。また、複数のハプティクスメディアを合成することにより、ハプティクスメディアの数を、ハプティクスデバイスが出力可能な数まで低減し、出力する方法が考えられる。
 しかしながら、このようなハプティクスメディアの選択や合成は、その再生時において、出力するハプティクスデバイスの仕様等に基づいて行われるので、それをコンテンツ制作者側が制御することは困難であった。例えば、どのハプティクスメディアを優先的に選択するかをコンテンツ制作者側が制御することは困難であった。また、ハプティクスメディアを合成する際に、例えば、レベル調整等の信号処理をどのように行うかをコンテンツ制作者側が制御することは困難であった。そのため、コンテンツ制作者が意図しないハプティクスメディアが出力されるおそれがあり、コンテンツ制作者が意図したハプティクス体験を提供することが困難になるおそれがあった。
  <方法3>
 そこで、図50の表の上から3段目に示されるように、複数ハプティクスメディアの選択または合成のための選択合成情報を提供してもよい(方法3)。この選択合成情報として、例えば、ハプティクスメディアの優先度に関する優先度情報を提供してもよい。
 例えば、第1の情報処理装置が、シーンディスクリプションに含まれる、ハプティクスメディアの優先度に関する優先度情報に基づいて、そのハプティクスメディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、シーンディスクリプションに含まれる、ハプティクスメディアの優先度に関する優先度情報に基づいて、そのハプティクスメディアの出力を制御する。
 例えば、第2の情報処理装置が、ハプティクスメディアの優先度に関する優先度情報が存在するシーンディスクリプションを供給する供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、ハプティクスメディアの優先度に関する優先度情報が存在するシーンディスクリプションを供給する。
  <出力制御>
 このハプティクスメディアの出力の制御はどのような制御であってもよい。例えば、複数のハプティクスメディアから所望のハプティクスメディアを選択してもよいし、複数のハプティクスメディアを合成してもよい。例えば、第1の情報処理装置において、出力制御部が、優先度情報において単一のデバイスにおいて同時に再生可能なメディアとして指定される、複数のハプティクスメディアを選択し、その選択した複数のハプティクスメディアを合成してハプティクスデバイスに出力させてもよい。
  <優先度情報>
 また、優先度情報には、ハプティクスメディアの優先度に関する情報であれば、どのような情報が含まれてもよい。例えば、図55に示されるように、MPEGメディアの拡張パラメータとして、より具体的には、MPEG_media.mediaのmedia arraryの拡張として、複数のmediaから任意のmediaを取得可能にするPriorityGroupと取得優先度を示すProirityを拡張定義する。
 PriorityGroupは、同時に再生可能なメディアのグループを示す情報である。つまり、選択や合成が可能な複数のハプティクスメディアに対して互いに同一のPriorityGroupが割り当てられる。つまり、優先度情報は、単一のデバイスにおいて同時に再生可能なメディアのグループを示す情報を含んでもよい。
 Proirityは、そのグループ内における各ハプティクスメディアの優先度を示す情報である。つまり、優先度情報は、そのグループ内のメディアの優先度を示す情報を含んでもよい。
 これらの値は、コンテンツ制作者により指定されるか、または、コンテンツ等、コンテンツ制作者による制作物に基づいて指定される。つまり、このPriorityGroupやProirityの値には、コンテンツ制作者の意図が反映される。
 つまり、シーンディスクリプションにおいて、MPEGメディアの拡張パラメータとしてこのようなPriorityGroupやPriporityを定義することにより、第1の情報処理装置に対して、ハプティクスメディアの優先度に関する優先度情報を提供することができる。第1の情報処理装置は、その優先度情報に基づいて、出力するハプティクスメディアを選択したり合成したりすることにより、コンテンツ制作者の意図に従って、ハプティクスメディアの出力を制御することができる。したがって、第1の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 また、第2の情報処理装置は、このような優先度情報が存在するシーンディスクリプションを供給することにより、第1の情報処理装置に対して、その優先度情報を提供することができる。したがって、第1の情報処理装置は、その優先度情報に応じて、ハプティクスメディアの出力を制御することができる。つまり、第2の情報処理装置は、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、MPEG_media.media.alternativeを拡張して、このような優先度情報を定義してもよい。
  <合成情報>
 また、上述の選択合成情報として、例えば、ハプティクスメディアの合成に関する合成情報を提供してもよい。例えば、第1の情報処理装置において、出力制御部が、シーンディスクリプションに含まれる、ハプティクスメディアの合成に関する合成情報に基づいて、選択した複数のハプティクスメディアを合成してもよい。また、第2の情報処理装置の供給部が供給するシーンディスクリプションには、ハプティクスメディアの合成に関する合成情報がさらに存在してもよい。
 例えば、図56の上側に示されるように、MPEGメディアの拡張パラメータとして、より具体的には、MPEG_media.media.alternatives alternatives arraryのextraParamsオブジェクトの拡張として、HapticsMediaInfoオブジェクトを定義する。HapticsMediaInfoオブジェクトは、ハプティクスメディアの合成に利用される、メディアの情報と許容範囲指定の情報を提供するオブジェクトであり、ハプティクスメディアの合成に関する合成情報である。このHapticsMediaInfoオブジェクトより提供される合成情報は、コンテンツ制作者により指定されるか、または、コンテンツ等、コンテンツ制作者による制作物に基づいて指定される。つまり、このHapticsMediaInfoオブジェクトには、コンテンツ制作者の意図が反映される。
 つまり、シーンディスクリプションにおいて、MPEGメディアの拡張パラメータとしてこのようなHapticsMediaInfoオブジェクトを定義することにより、第1の情報処理装置に対して、合成情報を提供することができる。第1の情報処理装置は、その合成情報に基づくことにより、コンテンツ制作者の意図に従って複数のハプティクスメディアを合成することができる。例えば、その合成する各ハプティクスメディアに対して、コンテンツ制作者の意図に従って適宜信号レベル等の調整をしてから合成することができる。そして、第1の情報処理装置は、その合成結果(合成ハプティクスメディアとも称する)をハプティクスデバイスに出力させることができる。したがって、第1の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 また、第2の情報処理装置は、このようなHapticsMediaInfoオブジェクトが存在するシーンディスクリプションを供給することにより、第1の情報処理装置に対して、合成情報を提供することができる。第1の情報処理装置は、その合成情報に基づいて複数のハプティクスメディアを合成し、出力することができる。つまり、第2の情報処理装置は、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <HapticsMediaInfoオブジェクト定義>
 また、この合成情報(HapticsMediaInfoオブジェクト)に、どのような情報が含まれていてもよい。例えば、この合成情報が、ハプティクスメディアの信号の振幅の強さを示す情報を含んでもよい。また、この合成情報が、ハプティクスメディアの信号のピークレベルを示す情報を含んでもよい。また、この合成情報が、ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含んでもよい。また、この合成情報が、複数のハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含んでもよい。
 例えば、図56の下側に示されるように、HapticsMediaInfoオブジェクトに、SignalAcceleration、SignalLevel、MaxSignalDistortionLevel、およびMixedMaxSignalDistortionLevel等のオブジェクト定義が含まれてもよい。SignalAccelerationは、ハプティクスメディアの信号の振幅の強さを加速度のpeak to peakの値(単位GPP)で示す情報である。SignalLevelは、ハプティクスメディアの信号のピークレベル(単位dB)を示す情報である。MaxSignalDistortionLevelは、信号の振幅を大きくする許容最大レベル(単位dB)を示す情報である。MixedMaxSignalDistortionLevelは、複数の信号を合成した後に振幅を大きくする場合の許容最大レベル(単位dB)を示す情報である。この情報は、Priorityが最も高いハプティクスメディアに付加することができる。
 なお、HapticsMediaInfoオブジェクトには、SignalAcceleration、SignalLevel、MaxSignalDistortionLevel、およびMixedMaxSignalDistortionLevelの内の一部のオブジェクト定義が含まれてもよい。例えば、SignalAcceleration定義がHapticsMediaInfoオブジェクトに含まれてもよい。また、SignalLevel定義がHapticsMediaInfoオブジェクトに含まれてもよい。また、MaxSignalDistortionLevel定義とMixedMaxSignalDistortionLevel定義がHapticsMediaInfoオブジェクトに含まれてもよい。
 図57に上述の優先度情報や合成情報を含むシーンディスクリプションの記述例を示す。図57に示されるように、この場合、ハプティクスメディアhap1として、4種類のデータ(haptic1.mp4、haptic2.mp4、haptic3.mp4、haptic4.mp4)が用意されている。そして、haptic1.mp4、haptic2.mp4、haptic3.mp4、haptic4.mp4のそれぞれについて、PriorityGroup、Priority、およびHapticsMediaInfoオブジェクトが記述されている。このhaptic1.mp4、haptic2.mp4、haptic3.mp4、haptic4.mp4には、互いに異なる選択合成情報が付されている。例えば、haptic1.mp4については、ハプティクスメディアの信号の振幅の強さが5GPPであり、ハプティクスメディアの信号のピークレベルが0dBであり、信号の振幅を大きくする許容最大レベルがプラスマイナス6dBであり、複数の信号を合成した後に振幅を大きくする場合の許容最大レベルがプラスマイナス6dBであることが示されている。
 シーンディスクリプションにこれらの情報が含まれることにより、第1の情報処理装置は、これらの情報に基づいてハプティクスメディアを選択したり合成したりすることができる。例えば、第1の情報処理装置は、PriorityGroupに基づいて、同時再生可能な複数のハプティクスメディアを選択することができる。また、第1の情報処理装置は、Priorityに基づいて、その複数のハプティクスメディアの中から優先度の高いハプティクスメディアを選択することができる。また、第1の情報処理装置は、HapticsMediaInfoオブジェクトの各種情報に基づいて、複数のハプティクスメディアの信号を調整して合成することができる。また、第1の情報処理装置は、ハプティクスメディアの信号の強度を示すアクセラレート情報等を用いて、信号の調整の必用性を事前に判断し、適切なタイミングにおいてそのハプティクスメディアを取得することができる。また、第1の情報処理装置は、Priority情報とアクセラレート情報により、端末の処理能力に応じた、復号処理と変換処理を考慮した選択処理が可能になり、その端末で最適なハプティクス体験を提供することができる。換言するに、第2の情報処理装置は、第1の情報処理装置を介して、これらの情報に基づいてハプティクスメディアの出力を制御することができる。したがって、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <マルチモーダルな代替手段>
 ハプティクスメディアの出力制御として、例えば上述のようにコンテンツ制作者の意図に従って適用するハプティクスデバイスを選択する場合、ハプティクスメディアを出力可能な性能を有するハプティクスデバイスが存在しないことがあり得る。また、上述のようにハプティクスデバイスの性能に対して最適なハプティクスメディアを選択して出力させる場合、そのハプティクスデバイスが出力可能な仕様のハプティクスメディアが存在しないことがあり得る。これらのケースの場合、ハプティクスメディアを再生・出力することができない。
  <方法4>
 そこで、図50の表の上から4段目に示されるように、マルチモーダルな代替手段に関する情報を提供してもよい(方法4)。
 例えば、第1の情報処理装置が、再生するハプティクスメディアを出力可能なハプティクスデバイスが存在しない場合、そのハプティクスメディアの出力を制御する代わりに、シーンディスクリプションに含まれるマルチモーダルな代替手段に関する情報により指定される代替メディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、再生するハプティクスメディアを出力可能なハプティクスデバイスが存在しない場合、そのハプティクスメディアの出力を制御する代わりに、シーンディスクリプションに含まれるマルチモーダルな代替手段に関する情報により指定される代替メディアの出力を制御する。
 例えば、第2の情報処理装置が、再生するハプティクスメディアのマルチモーダルな代替手段に関する情報が存在するシーンディスクリプションを供給する供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、再生するハプティクスメディアのマルチモーダルな代替手段に関する情報が存在するシーンディスクリプションを供給する。
 例えば、図58に示されるように、MPEGメディアの拡張パラメータとして、より具体的には、MPEG_media.mediaに Multi-modal alternativeのarrayを拡張して、Multi-modal alternativesオブジェクトを定義する。Multi-modal alternativesオブジェクトは、ハプティクスメディアのマルチモーダルな代替手段(代わりに再生する代替メディア)を指定する情報である。このオブジェクトにおいては、配列として代替メディアを複数指定することもできる。このオブジェクトにおいて代替メディアとして指定するアイテムは、例えば、URIとトラック等でもよい。この代替メディアは、ハプティクスメディア以外のメディア(本明細書において異種メディアとも称する)も対象とすることができる。例えば、ハプティクスメディアの代替メディアとしてオーディオメディアやビデオメディアが指定されてもよい。つまり、例えば、あるコンテンツにおいて、ユーザのアバターがオブジェクトに衝突した際に、その衝突時の振動が出力される演出があるとする。例えば、出力されるハプティクスメディアに対して適切な性能を有するハプティクスデバイスが存在しなかったり、存在するハプティクスデバイスに対して適切な信号特性を有するハプティクスメディアが得られなかったりして、その衝突時の演出を実行できないとする。その場合、その振動の代わりとなり得る音声や映像を出力することにより、本来の衝突時の演出(振動)を疑似的に実行することができる。Multi-modal alternativesオブジェクトによって、このようなマルチモーダルな代替手段を指定することにより、このような疑似的な演出を実行することができる。このMulti-modal alternativesオブジェクトにより示される代替手段は、コンテンツ制作者により指定されるか、または、コンテンツ等、コンテンツ制作者による制作物に基づいて指定される。つまり、このMulti-modal alternativesオブジェクト(代替手段)には、コンテンツ制作者の意図が反映される。
 つまり、シーンディスクリプションにおいて、MPEGメディアの拡張パラメータとしてこのようなMulti-modal alternativesオブジェクトを定義することにより、第1の情報処理装置に対して、マルチモーダルな代替手段の指定を提供することができる。第1の情報処理装置は、その指定された代替手段を用いて演出を疑似的に実行することにより、コンテンツ制作者の意図に従って、ハプティクスメディアの出力を制御することができる。したがって、第1の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 また、第2の情報処理装置は、このようなMulti-modal alternativesオブジェクトが存在するシーンディスクリプションを供給することにより、第1の情報処理装置に対して、マルチモーダルな代替手段の指定を提供することができる。第1の情報処理装置は、その指定された代替手段を用いて演出を疑似的に実行することができる。つまり、第2の情報処理装置は、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、図59に示されるように、MPEG_media.media.alternativesを拡張し、マルチモーダルな代替手段を指定することができるようにしてもよい。つまり、alternativesオブジェクトにより、異種メディアを代替手段として指定することができるようにしてもよい。
  <方法5>
 以上においては、シーンディスクリプションを用いて、上述した方法1乃至方法4を実現するように説明したが、シーンディスクリプションの代わりに、MPEG-DASH(Moving Picture Experts Group Dynamic Adaptive Streaming over HTTP(Hypertext Transfer Protocol))で用いられるMPD(Media Presentation Description)を適用してもよい。つまり、図50の表の上から5段目に示されるように、MPDを用いて上述した各種情報を提供してもよい(方法5)。
  <MPDを用いた周波数特性情報の提供>
 例えば、MPDを用いて上述した方法1を実現してもよい。すなわち、MPDを用いてハプティクスメディアに関する周波数特性情報を提供してもよい。
 例えば、第1の情報処理装置が、MPDに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、そのハプティクスメディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、MPDに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、そのハプティクスメディアの出力を制御する。
 例えば、第2の情報処理装置が、ハプティクスメディアに関する周波数特性情報が存在するMPDを供給する供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、ハプティクスメディアに関する周波数特性情報が存在するMPDを供給する。
 例えば、図60に示されるように、MPDのエッセンシャルプロパティを拡張してHapticsDeviceInfoオブジェクト(ハプティクスメディアに関する周波数特性情報)を定義する。より具体的には、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022: hapticsDeviceInfo”」の記述を付加する。<方法1>において上述したように、このHapticsDeviceInfoオブジェクトには、コンテンツ制作者の意図が反映される。したがって、第1の情報処理装置は、このハプティクスメディアに関する周波数特性情報に基づいてハプティクスメディアの出力を制御することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。また、第2の情報処理装置は、このハプティクスメディアに関する周波数特性情報を含むMPDを供給することにより、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスデバイスの選択>
 シーンディスクリプションの場合と同様に、このハプティクスメディアに関する周波数特性情報(HapticsDeviceInfoオブジェクト)に基づく、ハプティクスメディアの出力制御はどのような制御であってもよい。例えば、ハプティクスメディアを出力するハプティクスデバイスの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その周波数特性情報により許容される仕様を有するハプティクスデバイスにそのハプティクスメディアを出力させてもよい。換言するに、出力制御部が、周波数特性が許容されないハプティクスデバイスの適用を禁止してもよい。このように制御することにより、第1の情報処理装置は、コンテンツ制作者の意図に従って、ハプティクスメディアを出力するハプティクスデバイスを選択することができる。
  <ハプティクスメディアの選択>
 また、シーンディスクリプションの場合と同様に、ハプティクスメディアの出力制御は、出力するハプティクスメディアの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その周波数特性情報に基づいて、互いに異なる周波数特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適なハプティクスメディアを選択し、その選択したハプティクスメディアをそのハプティクスデバイスに出力させてもよい。このようにすることにより、第1の情報処理装置は、より多様な周波数特性のハプティクスデバイスを用いてハプティクスメディアを出力することができる。また、第1の情報処理装置は、適用するハプティクスデバイスの周波数特性により近い周波数特性のハプティクスメディアを選択することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <HapticsDeviceInfoオブジェクト定義>
 また、シーンディスクリプションの場合と同様に、このハプティクスメディアに関する周波数特性情報(HapticsDeviceInfoオブジェクト)に、どのような情報が含まれていてもよい。例えば、この周波数特性情報が、参照デバイスの中心周波数を示す情報を含んでもよい。また、この周波数特性情報が、ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含んでもよい。また、この周波数特性情報が、ハプティクスメディアの中心周波数における振幅の強さを示す情報を含んでもよい。また、この周波数特性情報が、ハプティクスメディアを出力するハプティクスデバイスとして許容される、ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含んでもよい。
 例えば、図60に示されるように、HapticsDeviceInfoオブジェクトに、@CenterFrequency、@AcceptableFrequencyRange、@SignalAcceleration、および@AcceptableSignalAcceleration等の属性が定義されてもよい。@CenterFrequencyは、参照デバイスの中心周波数f0(単位Hz)を示す属性である。@AcceptableFrequencyRangeは、端末ハプティクスデバイスの中心周波数の許容範囲を示す属性である。@AcceptableFrequencyRangeは、プラスマイナスの周波数(単位Hz)により、この許容範囲を示す。@SignalAccelerationは、ハプティクスメディアの信号の中心周波数における振幅の強さを、加速度のpeak to peakの値(単位GPP)を用いて示す属性である。@AcceptableSignalAccelerationは、端末ハプティクスデバイスにおいて、ハプティクスメディアの信号の中心周波数における振幅の強さの許容範囲を、加速度のpeak to peakの値を用いて示す属性である。AcceptableSignalAccelerationは、プラスマイナスの値(単位GPP)により、この許容範囲を示す。
 図61にHapticsDeviceInfoオブジェクトを含むMPDの記述例を示す。図61に示されるように、この場合、1つのアダプテーションセット(AdaptationSet)内に3つのリプレゼンテーション(Representation)が設けられ、各リプレゼンテーションに、周波数特性が互いに異なるハプティクスデータ(haptic1.mp4、haptic2.mp4、haptic3.mp4)の情報が格納されている。つまりこの場合、アダプテーションセット内のリプレゼンテーション群の中の1つが選択され、そのリプレゼンテーションに対応するハプティクスデータが適用される。各リプレゼンテーションのエッセンシャルプロパティにおいて、それぞれのハプティクスデータの周波数特性情報(HapticsDeviceInfoオブジェクト)が定義され、その属性(@CenterFrequency、@AcceptableFrequencyRange、@SignalAcceleration、および@AcceptableSignalAcceleration)が設定されている。例えば、haptic1.mp4については、参照デバイスの中心周波数が40Hzであり、端末ハプティクスデバイスの中心周波数の許容範囲がプラスマイナス20Hzであり、ハプティクスメディアの信号の中心周波数における振幅の強さが5GPPであり、端末ハプティクスデバイスにおいて、ハプティクスメディアの信号の中心周波数における振幅の強さの許容範囲がプラスマイナス1GPPであることが示されている。したがって、シーンディスクリプションの場合と同様に、第1の情報処理装置および第2の情報処理装置は、このMPDを用いて、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、シーンディスクリプションの場合と同様に、AcceptableFrequencyRangeは、プラス方向とマイナス方向で互いに独立したオブジェクト定義でもよい。つまり、プラス方向の値とマイナス方向の値が互いに異なり得るようにしてもよい。同様に、AcceptableSignalAccelerationは、プラス方向とマイナス方向で互いに独立したオブジェクト定義でもよい。つまり、プラス方向の値とマイナス方向の値が互いに異なり得るようにしてもよい。
 また、シーンディスクリプションの場合と同様に、HapticsDeviceInfoオブジェクトに、CenterFrequency、AcceptableFrequencyRange、SignalAcceleration、およびAcceptableSignalAccelerationの内の一部のオブジェクト定義が含まれてもよい。例えば、CenterFrequency定義とAcceptableFrequencyRange定義が、HapticsDeviceInfoオブジェクトに含まれてもよい。また、SignalAcceleration定義とAcceptableSignalAcceleration定義が、HapticsDeviceInfoオブジェクトに含まれてもよい。また、CenterFrequency定義とSignalAcceleration定義が、HapticsDeviceInfoオブジェクトに含まれてもよい。
 なお、各ハプティクスデータの情報を互いに異なるアダプテーションセットに格納してもよい。その場合のMPDの記述例を図62に示す。ID「1」乃至「3」の各アダプテーションセットは、「Group=”0”」に属する。つまり、これらのアダプテーションセットは、互いに同一のグループに属す。これは、これらのアダプテーションセットの中の1つが選択されて、そのハプティクスデータが適用されることを示す。各ハプティクスデータの情報は、各アダプテーションセットのリプレゼンテーションに格納される。つまり、各ハプティクスデータのHapticsDeviceInfoオブジェクトとその属性は、各リプレゼンテーションのエッセンシャルプロパティにおいて定義される。その定義の方法は、図61の場合と同様である。図61の例の場合と同様に、第1の情報処理装置および第2の情報処理装置は、このようなMPDを用いて、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 また、プリセレクション(Preselection)により、アダプテーションセットを1つ選択してもよい。その場合のMPDの記述例を図63に示す。この例の場合も、図62の例の場合と同様に、各ハプティクスデータの情報は、各アダプテーションセットのリプレゼンテーションに格納され、各ハプティクスデータのHapticsDeviceInfoオブジェクトとその属性は、各リプレゼンテーションのエッセンシャルプロパティにおいて定義される。その定義の方法は、図61の場合と同様である。図61の例の場合と同様に、第1の情報処理装置および第2の情報処理装置は、このようなMPDを用いて、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <MPDを用いた信号立ち上がり特性情報の提供>
 例えば、MPDを用いて上述した方法2を実現してもよい。すなわち、MPDを用いてハプティクスメディアに関する信号立ち上がり特性情報を提供してもよい。
 例えば、第1の情報処理装置が、MPDに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、そのハプティクスメディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、MPDに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、そのハプティクスメディアの出力を制御する。
 例えば、第2の情報処理装置が、ハプティクスメディアに関する信号立ち上がり特性情報が存在するMPDを供給する供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、ハプティクスメディアに関する信号立ち上がり特性情報が存在するMPDを供給する。
 例えば、図64に示されるように、MPDのエッセンシャルプロパティを拡張してHapticsDeviceTimingInfoオブジェクト(ハプティクスメディアに関する信号立ち上がり特性情報)を定義する。より具体的には、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022: hapticsDeviceTimingInfo”」の記述を付加する。<方法2>において上述したように、このHapticsDeviceTimingInfoオブジェクトには、コンテンツ制作者の意図が反映される。したがって、第1の情報処理装置は、このハプティクスメディアに関する信号立ち上がり特性情報に基づいてハプティクスメディアの出力を制御することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。また、第2の情報処理装置は、このハプティクスメディアに関する信号立ち上がり特性情報を含むMPDを供給することにより、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスデバイスの選択>
 シーンディスクリプションの場合と同様に、このハプティクスメディアに関する信号立ち上がり特性情報(HapticsDeviceTimingInfoオブジェクト)に基づく、ハプティクスメディアの出力制御はどのような制御であってもよい。例えば、ハプティクスメディアを出力するハプティクスデバイスの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その信号立ち上がり特性情報により許容される仕様を有するハプティクスデバイスにそのハプティクスメディアを出力させてもよい。換言するに、出力制御部が、信号立ち上がり特性が許容されないハプティクスデバイスの適用を禁止してもよい。このように制御することにより、第1の情報処理装置は、コンテンツ制作者の意図に従って、ハプティクスメディアを出力するハプティクスデバイスを選択することができる。
  <ハプティクスメディアの選択>
 また、シーンディスクリプションの場合と同様に、ハプティクスメディアの出力制御は、出力するハプティクスメディアの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その信号立ち上がり特性情報に基づいて、互いに異なる信号立ち上がり特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適なハプティクスメディアを選択し、その選択したハプティクスメディアをそのハプティクスデバイスに出力させてもよい。このようにすることにより、第1の情報処理装置は、より多様な信号立ち上がり特性のハプティクスデバイスを用いてハプティクスメディアを出力することができる。また、第1の情報処理装置は、適用するハプティクスデバイスの信号立ち上がり特性により近い信号立ち上がり特性のハプティクスメディアを選択することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <HapticsDeviceTimingInfoオブジェクト定義>
 また、このハプティクスメディアに関する信号立ち上がり特性情報(HapticsDeviceTimingInfoオブジェクト)に、どのような情報が含まれていてもよい。例えば、この信号立ち上がり特性情報が、参照デバイスの中心周波数を示す情報を含んでもよい。また、この信号立ち上がり特性情報が、ハプティクスメディアの信号が到達すべき加速度を表す情報を含んでもよい。また、この信号立ち上がり特性情報が、ハプティクスメディアの信号の加速度の到達レベルを表す情報を含んでもよい。また、この信号立ち上がり特性情報が、ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含んでもよい。
 例えば、図64に示されるように、HapticsDeviceTimingInfoオブジェクトに、@CenterFrequency、@SignalAcceleration、@SignalLevelRate、および@MaxReachTime等の属性が定義されてもよい。@CenterFrequencyは、参照デバイスの中心周波数f0(単位Hz)を示す属性である。@SignalAccelerationは、信号が到達すべき加速度(単位G)を表す属性である。@SignalLevelRateは、信号の加速度の到達レベル(単位%)を表す属性である。@MaxReachTimeは、信号の加速の到達レベルに達するまでの最大許容遅延時間(単位ms)を表す属性である。
 図65にHapticsDeviceTimingInfoオブジェクトを含むMPDの記述例を示す。図65に示されるように、この場合、1つのアダプテーションセット(AdaptationSet)内に3つのリプレゼンテーション(Representation)が設けられ、各リプレゼンテーションに、信号立ち上がり特性が互いに異なるハプティクスデータ(haptic1.mp4、haptic2.mp4、haptic3.mp4)の情報が格納されている。つまりこの場合、アダプテーションセット内のリプレゼンテーション群の中の1つが選択され、そのリプレゼンテーションに対応するハプティクスデータが適用される。各リプレゼンテーションのエッセンシャルプロパティにおいて、それぞれのハプティクスデータの信号立ち上がり特性情報(HapticsDeviceTimingInfoオブジェクト)が定義され、その属性(@CenterFrequency、@SignalAcceleration、@SignalLevelRate、および@MaxReachTime)が設定されている。例えば、haptic1.mp4については、参照デバイスの中心周波数が40Hzであり、信号が到達すべき加速度が5Gであり、信号の加速度の到達レベルが80%であり、信号の加速の到達レベルに達するまでの最大許容遅延時間が50msであることが示されている。したがって、シーンディスクリプションの場合と同様に、第1の情報処理装置および第2の情報処理装置は、このMPDを用いて、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、各ハプティクスデータの情報を互いに異なるアダプテーションセットに格納してもよい。その場合のMPDの記述例を図66に示す。ID「1」乃至「3」の各アダプテーションセットは、「Group=”0”」に属する。つまり、これらのアダプテーションセットは、互いに同一のグループに属す。これは、これらのアダプテーションセットの中の1つが選択されて、そのハプティクスデータが適用されることを示す。各ハプティクスデータの情報は、各アダプテーションセットのリプレゼンテーションに格納される。つまり、各ハプティクスデータのHapticsDeviceTimingInfoオブジェクトとその属性は、各リプレゼンテーションのエッセンシャルプロパティにおいて定義される。その定義の方法は、図65の場合と同様である。図65の例の場合と同様に、第1の情報処理装置および第2の情報処理装置は、このようなMPDを用いて、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 また、プリセレクション(Preselection)により、アダプテーションセットを1つ選択してもよい。その場合のMPDの記述例を図67に示す。この例の場合も、図66の例の場合と同様に、各ハプティクスデータの情報は、各アダプテーションセットのリプレゼンテーションに格納され、各ハプティクスデータのHapticsDeviceTimingInfoオブジェクトとその属性は、各リプレゼンテーションのエッセンシャルプロパティにおいて定義される。その定義の方法は、図65の場合と同様である。図65の例の場合と同様に、第1の情報処理装置および第2の情報処理装置は、このようなMPDを用いて、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <MPDを用いた選択合成情報の提供>
 例えば、MPDを用いて上述した方法3を実現してもよい。すなわち、MPDを用いてハプティクスメディアに関する選択合成情報を提供してもよい。
 例えば、第1の情報処理装置が、MPDに含まれる、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報に基づいて、そのハプティクスメディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、MPDに含まれる、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報に基づいて、そのハプティクスメディアの出力を制御する。
 例えば、第2の情報処理装置が、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報が存在するMPDを供給する供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報が存在するMPDを供給する。
 例えば、図68に示されるように、MPDのエッセンシャルプロパティを拡張してHapticsMediaInfoオブジェクト(ハプティクスメディアに関する選択合成情報)を定義する。より具体的には、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022: hapticsMediaInfo”」の記述を付加する。<方法3>において上述したように、このHapticsMediaInfoオブジェクトには、コンテンツ制作者の意図が反映される。したがって、第1の情報処理装置は、このハプティクスメディアに関する選択合成情報に基づいてハプティクスメディアの出力を制御することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。また、第2の情報処理装置は、このハプティクスメディアに関する選択合成情報を含むMPDを供給することにより、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <出力制御>
 このハプティクスメディアの出力の制御はどのような制御であってもよい。例えば、複数のハプティクスメディアから所望のハプティクスメディアを選択してもよいし、複数のハプティクスメディアを合成してもよい。例えば、第1の情報処理装置において、出力制御部が、選択合成情報に基づいて複数のハプティクスメディアを選択し、選択した複数のハプティクスメディアを合成してハプティクスデバイスに出力させてもよい。
  <HapticsMediaInfoオブジェクト定義>
 また、この選択合成情報には、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する情報であれば、どのような情報が含まれてもよい。例えば、この選択合成情報が、ハプティクスメディアの優先度を示す情報を含んでもよい。また、この選択合成情報が、ハプティクスメディアの信号の振幅の強さを示す情報を含んでもよい。また、この選択合成情報が、ハプティクスメディアの信号のピークレベルを示す情報を含んでもよい。また、この選択合成情報が、ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含んでもよい。また、この選択合成情報が、複数のハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含んでもよい。
 例えば、図68に示されるように、HapticsMediaInfoオブジェクトに、@Priority、@SignalAcceleration、@SignalLevel、@MaxSignalDistortionLevel、および@MixedMaxSignalDistortionLevel等の属性が定義されてもよい。@Priorityは、ハプティクスメディアの優先度を示す属性である。@SignalAccelerationは、ハプティクスメディアの信号の振幅の強さを加速度のpeak to peakの値(単位GPP)で示す属性である。@SignalLevelは、ハプティクスメディアの信号のピークレベル(単位dB)を示す属性である。@MaxSignalDistortionLevelは、信号の振幅を大きくする許容最大レベル(単位dB)を示す属性である。@MixedMaxSignalDistortionLevelは、複数の信号を合成した後に振幅を大きくする場合の許容最大レベル(単位dB)を示す属性である。この属性は、Priorityが最も高いハプティクスメディアに付加することができる。
 図69にHapticsMediaInfoオブジェクトを含むMPDの記述例を示す。図69に示されるように、この場合、ハプティクスデータ(haptic1.mp4、haptic2.mp4、haptic3.mp4、haptic4.mp4)の情報が、互いに異なるアダプテーションセット(のリプレゼンテーション)に格納されている。これらのアダプテーションセットは、互いに同一のグループ(Group=”1”)に属す。つまり、これらのアダプテーションセットは、これは、これらのアダプテーションセットの中の1つが選択されて、そのハプティクスデータが適用されることを示す。各ハプティクスデータのHapticsMediaInfoオブジェクトとその属性は、各アダプテーションセットのリプレゼンテーションのエッセンシャルプロパティにおいて定義される。例えば、haptic1.mp4については、ハプティクスメディアの優先度が1であり、ハプティクスメディアの信号の振幅の強さが5GPPであり、ハプティクスメディアの信号のピークレベルが0dBであり、信号の振幅を大きくする許容最大レベルがプラスマイナス6dBであり、複数の信号を合成した後に振幅を大きくする場合の許容最大レベルがプラスマイナス6dBであることが示されている。したがって、シーンディスクリプションの場合と同様に、第1の情報処理装置および第2の情報処理装置は、このMPDを用いて、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <方法6>
 また、図50の表の最下段に示されるように、シーンディスクリプションの代わりに、ファイルコンテナのサンプルエントリを用いて上述した各種情報を提供してもよい(方法6)。3Dデータやハプティクスメディア等のコンテンツは、配信用ファイル(ファイルコンテナとも称する)に格納して配信してもよい。その場合、上述したようなハプティクスメディア等に関する各種情報を、そのファイルコンテナに格納してもよい。このようなファイルコンテナとして例えば、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルがある。ISOBMFFは、動画圧縮の国際標準技術MPEG-4(Moving Picture Experts Group - 4)のファイルコンテナ仕様であり、例えば動画像(MP4ファイル)等のコンテンツデータを配信するための配信用ファイルである。3Dデータやハプティクスメディア等のコンテンツを配信する際に、このようなISOBMFFファイルにコンテンツを格納して配信するようにしてもよい。その場合、さらに、上述したようなハプティクスメディア等に関する各種情報を、シーンディスクリプションやMPDを用いて提供する代わりに、そのISOBMFFファイルに格納してもよい。
  <ファイルコンテナを用いた周波数特性情報の提供>
 例えば、ファイルコンテナのサンプルエントリ(SampleEntry)を用いて上述した方法1を実現してもよい。すなわち、ISOBMFFファイルのサンプルエントリを用いてハプティクスメディアに関する周波数特性情報を提供してもよい。
 例えば、第1の情報処理装置が、ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、そのハプティクスメディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、そのハプティクスメディアの出力を制御する。
 例えば、第2の情報処理装置が、サンプルエントリにハプティクスメディアに関する周波数特性情報を格納するファイルコンテナを供給する第1の供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、サンプルエントリにハプティクスメディアに関する周波数特性情報を格納するファイルコンテナを供給する。
 例えば、図70に示されるように、ISOBMFFファイルのサンプルエントリ(sample entry)を拡張してハプティクスメディア用のサンプルエントリ「HapticSampleEntry」を定義し、ハプティクスメディア用のコンフィグレーションボックス「HapticConfigurationBox()」を定義する。なお、サンプルエントリの4CC ‘hap1’はハプティクスメディア用のコーデック「haptics codec」を適用することを示す。そして、図70に示されるように、HapticConfigurationBox()において、HapticsDeviceInfoオブジェクトを格納するボックス「HapticsDeviceInforbox()」を拡張定義する。なお、このHapticsDeviceInforbox()は、任意のボックスにおいて定義してもよい。例えば、サンプルエントリ以外のボックスにおいて定義してもよい。サンプルストラクチャ(MPEGHapticSample())においては、図70に示されるように、BandHeader()、TransientBandBody()、CureveBandBody()、VectorialBandBody()、QuantizedBandBody()、WaveletBandBody()等が定義される。
 シーンディスクリプションの場合と同様に、このHapticsDeviceInfoオブジェクトには、コンテンツ制作者の意図が反映される。したがって、第1の情報処理装置は、このハプティクスメディアに関する周波数特性情報に基づいてハプティクスメディアの出力を制御することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。また、第2の情報処理装置は、このハプティクスメディアに関する周波数特性情報を含むファイルコンテナ(例えばISOBMFFファイル)を供給することにより、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスデバイスの選択>
 シーンディスクリプションの場合と同様に、このハプティクスメディアに関する周波数特性情報(HapticsDeviceInfoオブジェクト)に基づく、ハプティクスメディアの出力制御はどのような制御であってもよい。例えば、ハプティクスメディアを出力するハプティクスデバイスの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その周波数特性情報により許容される仕様を有するハプティクスデバイスにそのハプティクスメディアを出力させてもよい。換言するに、出力制御部が、周波数特性が許容されないハプティクスデバイスの適用を禁止してもよい。このように制御することにより、第1の情報処理装置は、コンテンツ制作者の意図に従って、ハプティクスメディアを出力するハプティクスデバイスを選択することができる。
  <ハプティクスメディアの選択>
 また、シーンディスクリプションの場合と同様に、ハプティクスメディアの出力制御は、出力するハプティクスメディアの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その周波数特性情報に基づいて、互いに異なる周波数特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適なハプティクスメディアを選択し、その選択したハプティクスメディアをそのハプティクスデバイスに出力させてもよい。このようにすることにより、第1の情報処理装置は、より多様な周波数特性のハプティクスデバイスを用いてハプティクスメディアを出力することができる。また、第1の情報処理装置は、適用するハプティクスデバイスの周波数特性により近い周波数特性のハプティクスメディアを選択することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <HapticsDeviceInfoオブジェクト定義>
 また、シーンディスクリプションの場合と同様に、このハプティクスメディアに関する周波数特性情報(HapticsDeviceInfoオブジェクト)に、どのような情報が含まれていてもよい。例えば、この周波数特性情報が、参照デバイスの中心周波数を示す情報を含んでもよい。また、この周波数特性情報が、ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含んでもよい。また、この周波数特性情報が、ハプティクスメディアの中心周波数における振幅の強さを示す情報を含んでもよい。また、この周波数特性情報が、ハプティクスメディアを出力するハプティクスデバイスとして許容される、ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含んでもよい。
 HapticsDeviceInforbox()の例を図71に示す。図71に示されるように、このHapticsDeviceInforbox()において、HapticsDeviceInfoオブジェクトの各種情報が定義される。例えば、CenterFrequency、AcceptableFrequencyRange、SignalAcceleration、およびAcceptableSignalAccelerationが定義される。これらの情報は、シーンディスクリプションの場合と同様である。
 図72にHapticsDeviceInfoオブジェクトを含むISOBMFFファイルの構成例を示す。図72に示されるように、この例の場合、3つのハプティクスデータが1つのファイル(点線枠)の互いに異なるトラック(Haptics track1、Haptics track2、Haptics track3)に格納されている。各ハプティクスデータに対応するHapticsDeviceInfoオブジェクトは、各トラックのサンプルエントリにおいて定義される。したがって、シーンディスクリプションの場合と同様に、第1の情報処理装置は、各トラックのサンプルエントリに格納されるこの周波数特性情報に基づいてハプティクスメディアの出力を制御することができる。したがって、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、シーンディスクリプションの場合と同様に、AcceptableFrequencyRangeは、プラス方向とマイナス方向で互いに独立したオブジェクト定義でもよい。つまり、プラス方向の値とマイナス方向の値が互いに異なり得るようにしてもよい。同様に、AcceptableSignalAccelerationは、プラス方向とマイナス方向で互いに独立したオブジェクト定義でもよい。つまり、プラス方向の値とマイナス方向の値が互いに異なり得るようにしてもよい。
 また、シーンディスクリプションの場合と同様に、HapticsDeviceInfoオブジェクトに、CenterFrequency、AcceptableFrequencyRange、SignalAcceleration、およびAcceptableSignalAccelerationの内の一部のオブジェクト定義が含まれてもよい。例えば、CenterFrequency定義とAcceptableFrequencyRange定義が、HapticsDeviceInfoオブジェクトに含まれてもよい。また、SignalAcceleration定義とAcceptableSignalAcceleration定義が、HapticsDeviceInfoオブジェクトに含まれてもよい。また、CenterFrequency定義とSignalAcceleration定義が、HapticsDeviceInfoオブジェクトに含まれてもよい。
 また、上述した複数のハプティクスデータを、互いに異なるファイルに格納してもよい。例えば、互いに異なるハプティクスデータを格納する各トラック(図72の例の場合、Haptics track1、Haptics track2、Haptics track3)を、互いに異なるファイル(例えば、haptics1.mp4、haptics2.mp4、haptics3.mp4等)に格納してもよい。
  <MPDからの参照>
 また、このハプティクストラック(Haptics Track)がDASHのMPDから参照され、MPDからInitialization Segmentを取得することで、track情報を取得する構造でもよい。例えば、複数のハプティクスメディアが互いに異なるハプティクストラックに格納されており、第1の情報処理装置において、出力制御部が、ハプティクストラックの情報が存在するMPDの記述に基づいて、そのハプティクストラックのサンプルエントリに含まれるハプティクスメディアに関する周波数特性情報を参照し、その参照した周波数特性情報に基づいてハプティクスメディアを選択してもよい。また、第2の情報処理装置が、互いに異なる前記ハプティクスメディアを格納する複数のハプティクストラックの情報が存在するMPDを供給する第2の供給部をさらに備えてもよい。その場合の、MPDの記述例を図73乃至図75に示す。図73は、アダプテーションセット内の複数のリプレゼンテーションから1つを選択する場合の記述例を示す。つまり、MPDにおいて、複数のハプティクストラックの情報が、単一のアダプテーションセットの互いに異なるリプレゼンテーションに存在してもよい。この例では、Haptics Track1がhaptics1.mp4に格納され、Haptics Track2がhaptics2.mp4に格納され、Haptics Track3がhaptics3.mp4に格納されているものとする。図73に示されるように、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022:hapticsDeviceInfo”」の記述により、HapticsDeviceInfoオブジェクトの取得を示す。つまり、第1の情報処理装置は、このようなMPDを用いて、ISOBMFFに格納されるHapticsDeviceInfoオブジェクトを取得し、そのHapticsDeviceInfoオブジェクトに基づいてハプティクスメディアの出力を制御することができる。つまり、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 図74は、各ハプティクスデータの情報を互いに異なるアダプテーションセットに格納する場合の、MPDの記述例を示す。つまり、MPDにおいて、複数のハプティクストラックの情報が、互いに異なるアダプテーションセットのリプレゼンテーションに存在してもよい。ID「1」乃至「3」の各アダプテーションセットは、「Group="0"」に属する。つまり、これらのアダプテーションセットは、互いに同一のグループに属す。これは、これらのアダプテーションセットの中の1つが選択されて、そのハプティクスデータが適用されることを示す。各ハプティクスデータの情報は、各アダプテーションセットのリプレゼンテーションに格納される。各リプレゼンテーションにおいて、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022:hapticsDeviceInfo”」が定義され、HapticsDeviceInfoオブジェクトの取得が示される。したがって、この例の場合も、図73の例の場合と同様に、第1の情報処理装置は、このようなMPDを用いて、ISOBMFFに格納されるHapticsDeviceInfoオブジェクトを取得し、そのHapticsDeviceInfoオブジェクトに基づいてハプティクスメディアの出力を制御することができる。つまり、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 図75は、プリセレクション(Preselection)によりアダプテーションセットを1つ選択する場合のMPDの記述例を示す。この例の場合も、図74の例の場合と同様に、各ハプティクスデータの情報は、各アダプテーションセットのリプレゼンテーションに格納される。つまり、MPDにおいて、複数のハプティクストラックの情報が、プリセレクションにより1つ選択される互いに異なるアダプテーションセットに存在してもよい。各リプレゼンテーションにおいて、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022:hapticsDeviceInfo”」が定義され、HapticsDeviceInfoオブジェクトの取得が示される。したがって、この例の場合も、図74の例の場合と同様に、第1の情報処理装置は、このようなMPDを用いて、ISOBMFFに格納されるHapticsDeviceInfoオブジェクトを取得し、そのHapticsDeviceInfoオブジェクトに基づいてハプティクスメディアの出力を制御することができる。つまり、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイルコンテナを用いた信号立ち上がり特性情報の提供>
 例えば、ファイルコンテナのサンプルエントリ(SampleEntry)を用いて上述した方法2を実現してもよい。すなわち、ISOBMFFファイルのサンプルエントリを用いてハプティクスメディアに関する信号立ち上がり特性情報を提供してもよい。
 例えば、第1の情報処理装置が、ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、そのハプティクスメディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、そのハプティクスメディアの出力を制御する。
 例えば、第2の情報処理装置が、サンプルエントリにハプティクスメディアに関する信号立ち上がり特性情報を格納するファイルコンテナを供給する第1の供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、サンプルエントリにハプティクスメディアに関する信号立ち上がり特性情報を格納するファイルコンテナを供給する。
 例えば、図76に示されるように、ISOBMFFファイルのサンプルエントリ(sample entry)を拡張してハプティクスメディア用のサンプルエントリ「HapticSampleEntry」を定義し、ハプティクスメディア用のコンフィグレーションボックス「HapticConfigurationBox()」を定義する。なお、サンプルエントリの4CC ‘hap1’はハプティクスメディア用のコーデック「haptics codec」を適用することを示す。そして、図76に示されるように、HapticConfigurationBox()において、HapticsDeviceTimingInfoオブジェクトを格納するボックス「HapticsDeviceTimingInfoBox()」を拡張定義する。なお、このHapticsDeviceTimingInfoBox()は、任意のボックスにおいて定義してもよい。例えば、サンプルエントリ以外のボックスにおいて定義してもよい。サンプルストラクチャ(MPEGHapticSample())においては、図76に示されるように、BandHeader()、TransientBandBody()、CureveBandBody()、VectorialBandBody()、QuantizedBandBody()、WaveletBandBody()等が定義される。
 シーンディスクリプションの場合と同様に、このHapticsDeviceTimingInfoオブジェクトには、コンテンツ制作者の意図が反映される。したがって、第1の情報処理装置は、このハプティクスメディアに関する信号立ち上がり特性情報に基づいてハプティクスメディアの出力を制御することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。また、第2の情報処理装置は、このハプティクスメディアに関する信号立ち上がり特性情報を含むファイルコンテナ(例えばISOBMFFファイル)を供給することにより、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスデバイスの選択>
 シーンディスクリプションの場合と同様に、このハプティクスメディアに関する信号立ち上がり特性情報(HapticsDeviceTimingInfoオブジェクト)に基づく、ハプティクスメディアの出力制御はどのような制御であってもよい。例えば、ハプティクスメディアを出力するハプティクスデバイスの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その信号立ち上がり特性情報により許容される仕様を有するハプティクスデバイスにそのハプティクスメディアを出力させてもよい。換言するに、出力制御部が、信号立ち上がり特性が許容されないハプティクスデバイスの適用を禁止してもよい。このように制御することにより、第1の情報処理装置は、コンテンツ制作者の意図に従って、ハプティクスメディアを出力するハプティクスデバイスを選択することができる。
  <ハプティクスメディアの選択>
 また、シーンディスクリプションの場合と同様に、ハプティクスメディアの出力制御は、出力するハプティクスメディアの選択であってもよい。例えば、第1の情報処理装置において、出力制御部が、その信号立ち上がり特性情報に基づいて、互いに異なる信号立ち上がり特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適なハプティクスメディアを選択し、その選択したハプティクスメディアをそのハプティクスデバイスに出力させてもよい。このようにすることにより、第1の情報処理装置は、より多様な信号立ち上がり特性のハプティクスデバイスを用いてハプティクスメディアを出力することができる。また、第1の情報処理装置は、適用するハプティクスデバイスの信号立ち上がり特性により近い信号立ち上がり特性のハプティクスメディアを選択することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <HapticsDeviceTimingInfoオブジェクト定義>
 また、シーンディスクリプションの場合と同様に、このハプティクスメディアに関する信号立ち上がり特性情報(HapticsDeviceTimingInfoオブジェクト)に、どのような情報が含まれていてもよい。例えば、この信号立ち上がり特性情報が、参照デバイスの中心周波数を示す情報を含んでもよい。また、この信号立ち上がり特性情報が、ハプティクスメディアの信号が到達すべき加速度を表す情報を含んでもよい。また、この信号立ち上がり特性情報が、ハプティクスメディアの信号の加速度の到達レベルを表す情報を含んでもよい。また、この信号立ち上がり特性情報が、ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含んでもよい。
 HapticsDeviceTimingInfoBox()の例を図77に示す。図77に示されるように、このHapticsDeviceTimingInfoBox()において、HapticsDeviceTimingInfoオブジェクトの各種情報が定義される。例えば、CenterFrequency、SignalAcceleration、SignalLevelRate、およびMaxReachTimeが定義される。これらの情報は、シーンディスクリプションの場合と同様である。
 図78にHapticsDeviceTimingInfoオブジェクトを含むISOBMFFファイルの構成例を示す。図78に示されるように、この例の場合、3つのハプティクスデータが1つのファイル(点線枠)の互いに異なるトラック(Haptics track1、Haptics track2、Haptics track3)に格納されている。各ハプティクスデータに対応するHapticsDeviceTimingInfoオブジェクトは、各トラックのサンプルエントリにおいて定義される。したがって、シーンディスクリプションの場合と同様に、第1の情報処理装置は、各トラックのサンプルエントリに格納されるこの信号立ち上がり特性情報に基づいてハプティクスメディアの出力を制御することができる。したがって、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、上述した複数のハプティクスデータを、互いに異なるファイルに格納してもよい。例えば、互いに異なるハプティクスデータを格納する各トラック(図78の例の場合、Haptics track1、Haptics track2、Haptics track3)を、互いに異なるファイル(例えば、haptics1.mp4、haptics2.mp4、haptics3.mp4等)に格納してもよい。
  <MPDからの参照>
 また、このハプティクストラック(Haptics Track)がDASHのMPDから参照され、MPDからInitialization Segmentを取得することで、track情報を取得する構造でもよい。例えば、複数のハプティクスメディアが互いに異なるハプティクストラックに格納されており、第1の情報処理装置において、出力制御部が、ハプティクストラックの情報が存在するMPDの記述に基づいて、そのハプティクストラックのサンプルエントリに含まれる信号立ち上がり特性情報を参照し、その参照した信号立ち上がり特性情報に基づいてハプティクスメディアを選択してもよい。また、第2の情報処理装置が、互いに異なるハプティクスメディアを格納する複数のハプティクストラックの情報が存在するMPDを供給する第2の供給部をさらに備えてもよい。その場合の、MPDの記述例を図79乃至図81に示す。図79は、アダプテーションセット内の複数のリプレゼンテーションから1つを選択する場合の記述例を示す。つまり、MPDにおいて、複数のハプティクストラックの情報が、単一のアダプテーションセットの互いに異なるリプレゼンテーションに存在してもよい。この例では、Haptics Track1がhaptics1.mp4に格納され、Haptics Track2がhaptics2.mp4に格納され、Haptics Track3がhaptics3.mp4に格納されているものとする。図79に示されるように、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022:hapticsDeviceTimingInfo”」の記述により、HapticsDeviceTimingInfoオブジェクトの取得を示す。つまり、第1の情報処理装置は、このようなMPDを用いて、ISOBMFFに格納されるHapticsDeviceTimingInfoオブジェクトを取得し、そのHapticsDeviceTimingInfoオブジェクトに基づいてハプティクスメディアの出力を制御することができる。つまり、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 図80は、各ハプティクスデータの情報を互いに異なるアダプテーションセットに格納する場合の、MPDの記述例を示す。つまり、MPDにおいて、複数のハプティクストラックの情報が、互いに異なるアダプテーションセットのリプレゼンテーションに存在してもよい。ID「1」乃至「3」の各アダプテーションセットは、「Group="0"」に属する。つまり、これらのアダプテーションセットは、互いに同一のグループに属す。これは、これらのアダプテーションセットの中の1つが選択されて、そのハプティクスデータが適用されることを示す。各ハプティクスデータの情報は、各アダプテーションセットのリプレゼンテーションに格納される。各リプレゼンテーションにおいて、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022:hapticsDeviceTimingInfo”」が定義され、HapticsDeviceTimingInfoオブジェクトの取得が示される。したがって、この例の場合も、図79の例の場合と同様に、第1の情報処理装置は、このようなMPDを用いて、ISOBMFFに格納されるHapticsDeviceTimingInfoオブジェクトを取得し、そのHapticsDeviceTimingInfoオブジェクトに基づいてハプティクスメディアの出力を制御することができる。つまり、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 図81は、プリセレクション(Preselection)によりアダプテーションセットを1つ選択する場合のMPDの記述例を示す。この例の場合も、図80の例の場合と同様に、各ハプティクスデータの情報は、各アダプテーションセットのリプレゼンテーションに格納される。つまり、MPDにおいて、複数のハプティクストラックの情報が、プリセレクションにより1つ選択される互いに異なるアダプテーションセットに存在してもよい。各リプレゼンテーションにおいて、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022:hapticsDeviceTimingInfo”」が定義され、HapticsDeviceTimingInfoオブジェクトの取得が示される。したがって、この例の場合も、図80の例の場合と同様に、第1の情報処理装置は、このようなMPDを用いて、ISOBMFFに格納されるHapticsDeviceTimingInfoオブジェクトを取得し、そのHapticsDeviceTimingInfoオブジェクトに基づいてハプティクスメディアの出力を制御することができる。つまり、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイルコンテナを用いた選択合成情報の提供>
 例えば、ファイルコンテナのサンプルエントリ(SampleEntry)を用いて上述した方法3を実現してもよい。すなわち、ISOBMFFファイルのサンプルエントリを用いてハプティクスメディアに関する選択合成情報を提供してもよい。
 例えば、第1の情報処理装置が、ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報に基づいて、そのハプティクスメディアの出力を制御する出力制御部を備えるようにする。例えば、第1の情報処理装置が実行する第1の情報処理方法において、ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報に基づいて、そのハプティクスメディアの出力を制御する。
 例えば、第2の情報処理装置が、サンプルエントリにハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報を格納するファイルコンテナを供給する第1の供給部を備えるようにする。例えば、第2の情報処理装置が実行する第2の情報処理方法において、サンプルエントリにハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報を格納するファイルコンテナを供給する。
 例えば、図82に示されるように、ISOBMFFファイルのサンプルエントリ(sample entry)を拡張してハプティクスメディア用のサンプルエントリ「HapticSampleEntry」を定義し、ハプティクスメディア用のコンフィグレーションボックス「HapticConfigurationBox()」を定義する。なお、サンプルエントリの4CC ‘hap1’はハプティクスメディア用のコーデック「haptics codec」を適用することを示す。そして、図82に示されるように、HapticConfigurationBox()において、HapticsMediaInfoオブジェクトを格納するボックス「HapticsMediaInforBox()」を拡張定義する。なお、このHapticsMediaInforBox()は、任意のボックスにおいて定義してもよい。例えば、サンプルエントリ以外のボックスにおいて定義してもよい。サンプルストラクチャ(MPEGHapticSample())においては、図82に示されるように、BandHeader()、TransientBandBody()、CureveBandBody()、VectorialBandBody()、QuantizedBandBody()、WaveletBandBody()等が定義される。
 シーンディスクリプションの場合と同様に、このHapticsMediaInfoオブジェクトには、コンテンツ制作者の意図が反映される。したがって、第1の情報処理装置は、このハプティクスメディアに関する選択合成情報に基づいてハプティクスメディアの出力を制御することにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。また、第2の情報処理装置は、このハプティクスメディアに関する選択合成情報を含むファイルコンテナ(例えばISOBMFFファイル)を供給することにより、第1の情報処理装置を介して、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <出力制御>
 このハプティクスメディアの出力の制御はどのような制御であってもよい。例えば、複数のハプティクスメディアから所望のハプティクスメディアを選択してもよいし、複数のハプティクスメディアを合成してもよい。例えば、第1の情報処理装置において、出力制御部が、選択合成情報に基づいて複数のハプティクスメディアを選択し、選択した複数のハプティクスメディアを合成してハプティクスデバイスに出力させてもよい。
  <HapticsMediaInfoオブジェクト定義>
 また、この選択合成情報には、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する情報であれば、どのような情報が含まれてもよい。例えば、この選択合成情報が、ハプティクスメディアの信号の振幅の強さを示す情報を含んでもよい。また、この選択合成情報が、ハプティクスメディアの信号のピークレベルを示す情報を含んでもよい。また、この選択合成情報が、ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含んでもよい。また、この選択合成情報が、複数のハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含んでもよい。
 HapticsMediaInforBox()の例を図83に示す。図83に示されるように、このHapticsMediaInforBox()において、HapticsMediaInfoオブジェクトの各種情報が定義される。例えば、SignalAcceleration、SignalLevel、MaxSignalDistortionLevel、およびMixedMaxSignalDistortionLevelが定義される。これらの情報は、シーンディスクリプションの場合と同様である。
 図84にHapticsMediaInfoオブジェクトを含むISOBMFFファイルの構成例を示す。図84に示されるように、この例の場合、4つのハプティクスデータが1つのファイル(点線枠)の互いに異なるトラック(Haptics track1、Haptics track2、Haptics track3、Haptics track4)に格納されている。各ハプティクスデータに対応するHapticsMediaInfoオブジェクトは、各トラックのサンプルエントリにおいて定義される。したがって、シーンディスクリプションの場合と同様に、第1の情報処理装置は、各トラックのサンプルエントリに格納されるこの選択合成情報に基づいてハプティクスメディアの出力を制御することができる。したがって、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 なお、上述した複数のハプティクスデータを、互いに異なるファイルに格納してもよい。例えば、互いに異なるハプティクスデータを格納する各トラック(図84の例の場合、Haptics track1、Haptics track2、Haptics track3、Haptics track4)を、互いに異なるファイル(例えば、haptics1.mp4、haptics2.mp4、haptics3.mp4、haptics4.mp4等)に格納してもよい。
  <MPDからの参照>
 また、このハプティクストラック(Haptics Track)がDASHのMPDから参照され、MPDからInitialization Segmentを取得することで、track情報を取得する構造でもよい。例えば、複数のハプティクスメディアが互いに異なるハプティクストラックに格納されており、第1の情報処理装置において、出力制御部が、そのハプティクストラックの情報が存在するMPDの記述に基づいて、そのハプティクストラックのサンプルエントリに含まれる選択合成情報を参照し、その参照した選択合成情報に基づいてハプティクスメディアを選択してもよい。また、第2の情報処理装置が、互いに異なるハプティクスメディアを格納する複数のハプティクストラックの情報が存在するMPDを供給する第2の供給部をさらに備えてもよい。その場合の、MPDの記述例を図85に示す。図85に示されるように、この場合、ハプティクスデータ(haptics1.mp4、haptics2.mp4、haptics3.mp4、haptics4.mp4)の情報が、互いに異なるアダプテーションセット(のリプレゼンテーション)に格納されている。つまり、MPDにおいて、複数のハプティクストラックの情報が、互いに異なるアダプテーションセットに存在してもよい。これらのアダプテーションセットは、互いに同一のグループ(Group="1")に属す。つまり、これらのアダプテーションセットは、これは、これらのアダプテーションセットの中の1つが選択されて、そのハプティクスデータが適用されることを示す。各ハプティクスデータの情報は、各アダプテーションセットのリプレゼンテーションに格納される。各リプレゼンテーションにおいて、「EssentialProperty schemeIdUri=“urn:mpeg:haptics:2022:hapticsMediaInfo”」が定義され、HapticsMediaInfoオブジェクトの取得が示される。したがって、第1の情報処理装置は、このようなMPDを用いて、ISOBMFFに格納されるHapticsMediaInfoオブジェクトを取得し、そのHapticsMediaInfoオブジェクトに基づいてハプティクスメディアの出力を制御することができる。つまり、第1の情報処理装置および第2の情報処理装置は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <組み合わせ>
 上述した方法1乃至方法6は、単独で適用することもできるし、複数を適宜組み合わせて適用してもよい。また、これらの方法を、上述した以外の方法と組み合わせて適用してもよい。
 例えば、本実施例に記載されているサンプルエントリ(SampleEntry)に格納されるハプティクスメディア用のコンフィグレーションボックス(hapticConfigurationBox)下のHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderといったデータ構造体、または、hapticsMediaInfo、hapticsDeveiinfo、およびhapticsDeviceTimingInfoといった、ハプティクス再生のための選択情報のデータ構造体を定義してもよい。そして、シーンディスクリプション規格のMPEG.mediaの拡張により、DASH規格のEssentialPropertyの拡張により、または、SampleEntryに格納されるhapticConfigurationBox下、または、他の階層下のbox拡張定義によりその値を格納してもよい。また、SampleEntryに格納されるhapticConfigurationBox下、または、他の階層下の拡張定義boxを、DASH規格のEssentialPropertyの拡張により指し示してもよい。
 例えば、HapticsMediaInforBox()構造体をシーンディスクリプションまたはMPDで記述する例と同様に、HapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeader構造体の情報をシーンディスクリプションまたはMPDに記述してもよい。また、MPDにおいてHapticsMediaInfoBox()構造体を示す「EssentialProperty schemeIdUri="urn:mpeg:haptics:2022: hapticsMediaInfo"」を記述する例と同様に、HapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeader構造体をMPDのEssentialPropertyで記述してもよい。
 例えば、第1の情報処理装置において、出力制御部が、シーンディスクリプションのMPEG.mediaに格納されるサンプルエントリのデータ構造を示す情報に基づいて、ハプティクスメディアの出力を制御してもよい。また、第2の情報処理装置が、サンプルエントリのデータ構造を示す情報がMPEG.mediaに格納されるシーンディスクリプションを供給する第2の供給部をさらに備えてもよい。データ構造を示す情報は、例えば、データ構造体を定義する情報を含んでもよい。データ構造を示す情報は、例えば、データ構造体を定義する情報を含んでもよい。データ構造体は、どのようなものであってもよく、例えば、HapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを含んでもよい。なお、この情報の格納場所はどこであってもよく、MPEG.media以外でもよい。なお、この方法は、ハプティクスメディアに関する周波数特性情報が提供される場合、ハプティクスメディアに関する信号立ち上がり特性情報が提供される場合、ハプティクスメディアに関する選択合成情報が提供する場合のいずれの場合に適用してもよい。
 例えば、第1の情報処理装置において、出力制御部が、MPDのエッセンシャルプロパティに格納されるサンプルエントリのデータ構造を示す情報に基づいて、ハプティクスメディアの出力を制御してもよい。また、第2の情報処理装置が、サンプルエントリのデータ構造を示す情報がエッセンシャルプロパティに格納されるMPDを供給する第2の供給部をさらに備えてもよい。データ構造を示す情報は、例えば、データ構造体を定義する情報を含んでもよい。データ構造体は、どのようなものであってもよく、例えば、HapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを含んでもよい。また、データ構造を示す情報は、ファイルコンテナの、データ構造を示す情報を格納するボックスを示す情報であってもよい。なお、この情報の格納場所はどこであってもよく、エッセンシャルプロパティ以外でもよい。なお、この方法は、ハプティクスメディアに関する周波数特性情報が提供される場合、ハプティクスメディアに関する信号立ち上がり特性情報が提供される場合、ハプティクスメディアに関する選択合成情報が提供する場合のいずれの場合に適用してもよい。
 <4.第1の実施の形態>
  <ファイル生成装置1>
 上述した本技術(方法1乃至方法4)は、任意の装置に適用し得る。図86は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示すブロック図である。図86に示されるファイル生成装置300は、ハプティクスメディアが関連付けられた3Dオブジェクトコンテンツ(例えばポイントクラウド等の3Dデータ)を符号化する装置である。また、ファイル生成装置300は、その3Dオブジェクトコンテンツのシーンディスクリプションファイルを生成する。
 なお、図86においては、処理部やデータの流れ等の主なものを示しており、図86に示されるものが全てとは限らない。つまり、ファイル生成装置300において、図86においてブロックとして示されていない処理部が存在したり、図86において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図86に示されるようにファイル生成装置300は、制御部301およびファイル生成処理部302を有する。制御部301は、ファイル生成処理部302を制御する。ファイル生成処理部302は、制御部301により制御されて、ファイルの生成に関する処理を行う。
 ファイル生成処理部302は、入力部311、前処理部312、符号化部313、ファイル生成部314、記憶部315、および出力部316を有する。
 入力部311は、ファイル生成装置300の外部から供給されるデータの取得に関する処理を行う。したがって、入力部311は、取得部とも言える。入力部311は、SD入力部321、3D入力部322、およびHM入力部323を有する。SD入力部321は、ファイル生成装置300に供給されるシーン構成データ(シーンディスクリプションの生成に用いられるデータ)を取得する。SD入力部321は、その取得したシーン構成データを用いてシーンディスクリプションを生成する。したがって、SD入力部321は、シーンディスクリプションを生成する生成部(またはSD生成部)とも言える。なお、シーンディスクリプションがファイル生成装置300の外部から供給されてもよい。その場合、SD入力部321は、そのシーンディスクリプションを取得し、シーンディスクリプションの生成をスキップ(省略)すればよい。したがって、SD入力部321は、シーン構成データまたはシーンディスクリプションを取得する取得部(またはSD取得部)とも言える。SD入力部321は、取得または生成したシーンディスクリプションを前処理部312のSD前処理部331へ供給する。3D入力部322は、ファイル生成装置300に供給される3Dデータを取得する。3D入力部322は、その取得した3Dデータを前処理部312の3D前処理部332へ供給する。したがって、3D入力部322は、3Dデータを取得する取得部(または3D取得部)とも言える。HM入力部323は、ファイル生成装置300に供給されるハプティクスメディアのデータ(HMデータとも称する)を取得する。HM入力部323は、その取得したHMデータを前処理部312のHM前処理部333へ供給する。したがって、HM入力部323は、HMデータを取得する取得部(またはHM取得部)とも言える。また、HM入力部323は、ファイル生成装置300に供給される代替メディアのデータ(代替メディアデータとも称する)を取得してもよい。代替メディアとは、ハプティクスメディアの代わりに再生されるメディアである。HM入力部323は、その取得した代替メディアデータを前処理部312のHM前処理部333へ供給してもよい。したがって、HM入力部323は、代替メディア入力部とも言える。また、HM入力部323は、代替メディアデータを取得する取得部(または代替メディア取得部)とも言える。この代替メディアは、どのようなメディアであってもよい。つまり、HM入力部323は、任意のメディアを処理することができる。したがって、HM入力部323は、メディア入力部とも言える。また、HM入力部323は、任意のメディアのデータを取得する取得部(またはメディア取得部)とも言える。
 前処理部312は、入力部311から供給されたデータに対して符号化前に行う前処理に関する処理を実行する。前処理部312は、SD前処理部331、3D前処理部332、およびHM前処理部333を有する。SD前処理部331は、例えば、SD入力部321から供給されたシーンディスクリプションから、そのシーンディスクリプションを格納するファイル(SDファイルとも称する)の生成に必要な情報を取得し、ファイル生成部314のSDファイル生成部351へ供給する。また、SD前処理部331は、3D前処理部332から供給される3Dデータに関する情報や、HM前処理部333から供給されるHMデータに関する情報や代替メディアデータに関する情報を、シーンディスクリプションに格納する。その際、SD前処理部331は、供給された情報に基づいて新たな情報を生成し、シーンディスクリプションに格納してもよい。また、SD前処理部331は、シーンディスクリプションを符号化部313のSD符号化部341へ供給する。3D前処理部332は、例えば、3D入力部322から供給された3Dデータから、3Dデータを格納するファイル(3Dファイルとも称する)の生成に必要な情報を取得し、ファイル生成部314の3Dファイル生成部352へ供給する。また、3D前処理部332は、3Dデータから、シーンディスクリプションに格納する情報や、シーンディスクリプションに格納する情報を生成するための情報を抽出し、それらを3Dデータに関する情報としてSD前処理部331へ供給する。また、3D前処理部332は、3Dデータを符号化部313の3D符号化部342へ供給する。HM前処理部333は、例えば、HM入力部323から供給されたHMデータから、HMデータを格納するファイル(HMファイルとも称する)の生成に必要な情報を取得し、ファイル生成部314のHMファイル生成部353へ供給する。また、HM前処理部333は、HMデータから、シーンディスクリプションに格納する情報や、シーンディスクリプションに格納する情報を生成するための情報を抽出し、それらをHMデータに関する情報としてSD前処理部331へ供給する。また、HM前処理部333は、HMデータを符号化部313のHM符号化部343へ供給する。また、HM前処理部333は、例えば、HM入力部323から供給された代替メディアデータから、代替メディアデータを格納するファイル(代替メディアファイルとも称する)の生成に必要な情報を取得し、ファイル生成部314のHMファイル生成部353へ供給してもよい。また、HM前処理部333は、代替メディアデータから、シーンディスクリプションに格納する情報や、シーンディスクリプションに格納する情報を生成するための情報を抽出し、それらを代替メディアデータに関する情報としてSD前処理部331へ供給してもよい。また、HM前処理部333は、代替メディアデータを符号化部313のHM符号化部343へ供給してもよい。したがって、HM前処理部333は、代替メディア前処理部とも言える。つまり、HM前処理部333は、任意のメディアを処理することができる。したがって、HM前処理部333は、任意のメディアのデータを処理する前処理部(またはメディア前処理部)とも言える。
 符号化部313は、前処理部312から供給されたデータの符号化に関する処理を実行する。符号化部313は、SD符号化部341、3D符号化部342、およびHM符号化部343を有する。SD符号化部341は、SD前処理部331から供給されるシーンディスクリプションを符号化し、その符号化データをファイル生成部314のSDファイル生成部351へ供給する。3D符号化部342は、3D前処理部332から供給される3Dデータを符号化し、その符号化データをファイル生成部314の3Dファイル生成部352へ供給する。HM符号化部343は、HM前処理部333から供給されるHMデータを符号化し、その符号化データをファイル生成部314のHMファイル生成部353へ供給する。また、HM符号化部343は、HM前処理部333から供給される代替メディアデータを符号化し、その符号化データをファイル生成部314のHMファイル生成部353へ供給してもよい。したがって、HM符号化部343は、代替メディア符号化部とも言える。つまり、HM符号化部343は、任意のメディアを処理することができる。したがって、HM符号化部343は、任意のメディアのデータを符号化する符号化部(またはメディア符号化部)とも言える。
 ファイル生成部314は、ファイル等の生成に関する処理を行う。ファイル生成部314は、SDファイル生成部351、3Dファイル生成部352、およびHMファイル生成部353を有する。SDファイル生成部351は、SD前処理部331やSD符号化部341から供給された情報に基づいて、シーンディスクリプションを格納するSDファイルを生成する。SDファイル生成部351は、そのSDファイルを記憶部315のSD記憶部361へ供給する。3Dファイル生成部352は、3D前処理部332や3D符号化部342から供給された情報に基づいて、3Dデータの符号化データを格納する3Dファイルを生成する。3Dファイル生成部352は、その3Dファイルを記憶部315の3D記憶部362へ供給する。HMファイル生成部353は、HM前処理部333やHM符号化部343から供給された情報に基づいて、HMデータの符号化データを格納するHMファイルを生成する。HMファイル生成部353は、そのHMファイルを記憶部315のHM記憶部363へ供給する。また、HMファイル生成部353は、HM前処理部333やHM符号化部343から供給された情報に基づいて、代替メディアデータの符号化データを格納する代替メディアファイルを生成してもよい。HMファイル生成部353は、その代替メディアファイルを記憶部315のHM記憶部363へ供給してもよい。したがって、HMファイル生成部353は、代替メディアファイル生成部とも言える。つまり、HMファイル生成部353は、任意のメディアの符号化データを格納するファイルを生成することができる。したがって、HMファイル生成部353は、任意のメディアの符号化データを格納するファイルを生成するファイル生成部(またはメディアファイル生成部)とも言える。
 記憶部315は、例えば、ハードディスクや半導体メモリ等、任意の記憶媒体を有し、データの記憶に関する処理を実行する。記憶部315は、SD記憶部361、3D記憶部362、およびHM記憶部363を有する。SD記憶部361は、SDファイル生成部351から供給されたSDファイルを記憶する。また、SD記憶部361は、出力部316のSD出力部371等からの要求に応じて、または、所定のタイミングにおいて、そのSDファイルをSD出力部371へ供給する。3D記憶部362は、3Dファイル生成部352から供給された3Dファイルを記憶する。また、3D記憶部362は、出力部316の3D出力部372等からの要求に応じて、または、所定のタイミングにおいて、その3Dファイルを3D出力部372へ供給する。HM記憶部363は、HMファイル生成部353から供給されたHMファイルを記憶する。また、HM記憶部363は、出力部316のHM出力部373等からの要求に応じて、または、所定のタイミングにおいて、そのHMファイルをHM出力部373へ供給する。なお、HM記憶部363は、HMファイル生成部353から供給された代替メディアファイルを記憶してもよい。また、HM記憶部363は、出力部316のHM出力部373等からの要求に応じて、または、所定のタイミングにおいて、その代替メディアファイルをHM出力部373へ供給してもよい。したがって、HM記憶部363は、代替メディア記憶部とも言える。つまり、HM記憶部363は、任意のメディアのファイルを記憶することができる。したがって、HM記憶部363は、任意のメディアのファイルを記憶する記憶部(またはメディア記憶部)とも言える。
 出力部316は、記憶部315から供給されるファイル等を取得し、そのファイル等をファイル生成装置300の外部(例えば配信サーバや再生装置等)に出力する。出力部316は、SD出力部371、3D出力部372、およびHM出力部373を有する。SD出力部371は、SD記憶部361から読み出されたSDファイルを取得し、ファイル生成装置300の外部に出力する。3D出力部372は、3D記憶部362から読み出された3Dファイルを取得し、ファイル生成装置300の外部に出力する。HM出力部373は、HM記憶部363から読み出されたHMファイルを取得し、ファイル生成装置300の外部に出力する。また、HM出力部373は、HM記憶部363から読み出された代替メディアファイルを取得し、ファイル生成装置300の外部に出力してもよい。したがって、HM出力部373は、代替メディア出力部とも言える。つまり、HM出力部373は、任意のメディアのファイルをファイル生成装置300の外部に出力することができる。したがって、HM出力部373は、任意のメディアのファイルをファイル生成装置300の外部に出力する出力部(またはメディア出力部)とも言える。
 つまり、出力部316は、ファイルを他の装置に供給する供給部とも言える。SD出力部371は、SDファイルを他の装置に供給する供給部(またはSDファイル供給部)とも言える。3D出力部372は、3Dファイルを他の装置に供給する供給部(または3Dファイル供給部)とも言える。HM出力部373は、HMファイルを他の装置に供給する供給部(またはHMファイル供給部)とも言える。また、HM出力部373は、代替メディアファイルを他の装置に供給する供給部(または代替メディアファイル供給部)とも言える。また、HM出力部373は、任意のメディアのファイルを他の装置に供給する供給部(またはメディアファイル供給部)とも言える。
 以上のような構成のファイル生成装置300において、上述した第2の情報処理装置とし、<3.ハプティクスメディアの再生制御のための拡張>において上述した本技術を適用してもよい。例えば、上述した方法1乃至方法4の内のいずれか1つ以上を、このファイル生成装置300に適用してもよい。
 このようにすることにより、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ1>
 次に、このファイル生成装置300が実行するファイル生成処理の流れについて説明する。上述したように、ファイル生成装置300には、上述した方法1を適用してもよい。その場合の、ファイル生成処理の流れの例を、図87のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS301において、SD入力部321は、シーンディスクリプションを取得する。なお、SD入力部321は、シーン構成データを取得し、そのシーン構成データを用いてシーンディスクリプションを生成してもよい。3D入力部322は、3Dオブジェクトコンテンツ(3Dデータ)を取得する。HM入力部323は、ハプティクスメディア(HMデータ)を取得する。
 ステップS302において、SD前処理部331は、シーンディスクリプションに対して前処理を行い、シーンディスクリプションから、SDファイルの生成に必要な情報を抽出する。3D前処理部332は、3Dデータに対して前処理を行い、3Dデータから3Dファイルの生成に必要な情報を抽出する。HM前処理部333は、HMデータに対して前処理を行い、HMデータから、HMファイルの生成に必要な情報を抽出する。
 ステップS303において、3D前処理部332は、3Dデータに関する情報を生成する。また、HM前処理部333は、HMデータに関する情報を生成する。SD前処理部331は、それらの情報等に基づいて、3Dオブジェクトコンテンツ(3Dデータ)とハプティクスメディア(HMデータ)との関連性の記述を生成し、シーンディスクリプションに格納する。
 ステップS304において、SD前処理部331は、3Dデータに関する情報やHMデータに関する情報等に基づいて、ハプティクスメディアに関する周波数特性情報を生成し、シーンディスクリプションに格納する。
 ステップS305において、SD符号化部341は、シーンディスクリプションを符号化し、シーンディスクリプションの符号化データを生成する。3D符号化部342は、3Dオブジェクトコンテンツ(3Dデータ)を符号化し、3Dデータの符号化データを生成する。HM符号化部343は、ハプティクスメディア(HMデータ)を符号化し、HMデータの符号化データを生成する。
 ステップS306において、SDファイル生成部351は、シーンディスクリプションの符号化データを格納するSDファイルを生成する。3Dファイル生成部352は、3Dデータの符号化データを格納する3Dファイルを生成する。HMファイル生成部353は、HMデータの符号化データを格納するHMファイルを生成する。
 ステップS307において、SD記憶部361は、SDファイルを記憶する。3D記憶部362は、3Dファイルを記憶する。HM記憶部363は、HMファイルを記憶する。
 ステップS308において、SD出力部371は、SDファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。3D出力部372は、3Dファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。HM出力部373は、HMファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。
 ステップS308の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置300は、本技術の方法1を適用することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ2>
 また、ファイル生成装置300には、上述した方法2を適用してもよい。その場合の、ファイル生成処理の流れの例を、図88のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS321乃至ステップS323の各処理が、ステップS301乃至ステップS303の各処理(図87)と同様に実行される。
 ステップS324において、SD前処理部331は、3Dデータに関する情報やHMデータに関する情報等に基づいて、ハプティクスメディアに関する信号立ち上がり特性情報を生成し、シーンディスクリプションに格納する。
 ステップS325乃至ステップS328の各処理は、ステップS305乃至ステップS308の各処理(図87)と同様に実行される。
 ステップS328の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置300は、本技術の方法2を適用することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ3>
 また、ファイル生成装置300には、上述した方法3を適用してもよい。その場合の、ファイル生成処理の流れの例を、図89のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS341乃至ステップS343の各処理が、ステップS301乃至ステップS303の各処理(図87)と同様に実行される。
 ステップS344において、SD前処理部331は、3Dデータに関する情報やHMデータに関する情報等に基づいて、ハプティクスメディアの優先度に関する情報を生成し、シーンディスクリプションに格納する。
 ステップS345において、SD前処理部331は、3Dデータに関する情報やHMデータに関する情報等に基づいて、ハプティクスメディアの合成に関する情報を生成し、シーンディスクリプションに格納する。
 ステップS346乃至ステップS349の各処理は、ステップS305乃至ステップS308の各処理(図87)と同様に実行される。
 ステップS349の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置300は、本技術の方法3を適用することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ4>
 また、ファイル生成装置300には、上述した方法4を適用してもよい。その場合の、ファイル生成処理の流れの例を、図90のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS361において、SD入力部321は、シーンディスクリプションを取得する。なお、SD入力部321は、シーン構成データを取得し、そのシーン構成データを用いてシーンディスクリプションを生成してもよい。3D入力部322は、3Dオブジェクトコンテンツ(3Dデータ)を取得する。HM入力部(代替メディア入力部)323は、ハプティクスメディア(HMデータ)と代替メディア(代替メディアデータ)を取得する。
 ステップS362において、SD前処理部331は、シーンディスクリプションに対して前処理を行い、シーンディスクリプションから、SDファイルの生成に必要な情報を抽出する。3D前処理部332は、3Dデータに対して前処理を行い、3Dデータから3Dファイルの生成に必要な情報を抽出する。HM前処理部333は、HMデータに対して前処理を行い、HMデータから、HMファイルの生成に必要な情報を抽出する。また、HM前処理部(代替メディア前処理部)333は、代替メディアデータに対して前処理を行い、代替メディアデータから、代替メディアファイルの生成に必要な情報を抽出する。
 ステップS363において、3D前処理部332は、3Dデータに関する情報を生成する。また、HM前処理部(代替メディア前処理部)333は、HMデータに関する情報と代替メディアデータに関する情報を生成する。SD前処理部331は、それらの情報等に基づいて、3Dオブジェクトコンテンツ(3Dデータ)と、ハプティクスメディア(HMデータ)および代替メディア(代替メディアデータ)との関連性の記述を生成し、シーンディスクリプションに格納する。
 ステップS364において、SD前処理部331は、3Dデータに関する情報やHMデータに関する情報等に基づいて、マルチモーダルな代替手段に関する情報を生成し、シーンディスクリプションに格納する。
 ステップS365において、SD符号化部341は、シーンディスクリプションを符号化し、シーンディスクリプションの符号化データを生成する。3D符号化部342は、3Dオブジェクトコンテンツ(3Dデータ)を符号化し、3Dデータの符号化データを生成する。HM符号化部343は、ハプティクスメディア(HMデータ)を符号化し、HMデータの符号化データを生成する。また、HM符号化部(代替メディア符号化部)343は、代替メディア(代替メディアデータ)を符号化し、代替メディアデータの符号化データを生成する。
 ステップS366において、SDファイル生成部351は、シーンディスクリプションの符号化データを格納するSDファイルを生成する。3Dファイル生成部352は、3Dデータの符号化データを格納する3Dファイルを生成する。HMファイル生成部353は、HMデータの符号化データを格納するHMファイルを生成する。また、HMファイル生成部(代替メディアファイル生成部)353は、代替メディアデータの符号化データを格納する代替メディアファイルを生成する。
 ステップS367において、SD記憶部361は、SDファイルを記憶する。3D記憶部362は、3Dファイルを記憶する。HM記憶部(代替メディア記憶部)363は、HMファイルと代替メディアファイルを記憶する。
 ステップS308において、SD出力部371は、SDファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。3D出力部372は、3Dファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。HM出力部(代替メディア出力部)373は、HMファイルと代替メディアファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。
 ステップS308の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置300は、本技術の方法4を適用することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 本技術の方法1乃至方法4の内の、複数の方法を組み合わせて適用してももちろんよい。
  <クライアント装置1>
 上述した本技術は、任意の装置に適用し得る。図91は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示すブロック図である。図91に示されるクライアント装置400は、シーンディスクリプションに基づいて、3Dデータやその3Dデータに関連付けられたHMデータ等の再生処理を行う再生装置である。例えば、クライアント装置400は、ファイル生成装置300により生成されたファイルを取得し、そのファイルに格納される3DデータやHMデータ等を再生する。
 なお、図91においては、処理部やデータの流れ等の主なものを示しており、図91に示されるものが全てとは限らない。つまり、クライアント装置400において、図91においてブロックとして示されていない処理部が存在したり、図91において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図91に示されるようにクライアント装置400は、制御部401およびクライアント処理部402を有する。制御部401は、クライアント処理部402の制御に関する処理を行う。クライアント処理部402は、3DデータやHMデータの再生に関する処理を行う。
 クライアント処理部402は、取得部411、ファイル処理部412、復号部413、SD解析部414、出力制御部415、および出力部416を有する。
 取得部411は、配信サーバやファイル生成装置300等からクライアント装置400に供給されるデータの取得に関する処理を行う。例えば、取得部411は、SD取得部421、3D取得部422、およびHM取得部423を有する。SD取得部421は、クライアント装置400の外部から供給されるSDファイルを取得し、ファイル処理部412のSDファイル処理部431へ供給する。3D取得部422は、クライアント装置400の外部から供給される3Dファイルを取得し、ファイル処理部412の3Dファイル処理部432へ供給する。HM取得部423は、クライアント装置400の外部から供給されるHMファイルを取得し、ファイル処理部412のHMファイル処理部433へ供給する。また、HM取得部423は、HMファイルの代わりに、クライアント装置400の外部から供給される代替メディアファイルを取得し、ファイル処理部412のHMファイル処理部433へ供給してもよい。代替メディアファイルは、ハプティクスメディアの代わりに再生される代替メディアを格納するファイルである。したがって、HM取得部423は、代替メディア取得部とも言える。この代替メディアは、どのようなメディアであってもよい。つまり、HM取得部423は、任意のメディアを処理することができる。したがって、HM取得部423は、任意のメディアのデータを取得する取得部(またはメディア取得部)とも言える。
 ファイル処理部412は、取得部411により取得されたファイルに関する処理を行う。例えば、ファイル処理部412は、ファイルに格納されるデータを抽出してもよい。ファイル処理部412は、SDファイル処理部431、3Dファイル処理部432、およびHMファイル処理部433を有する。SDファイル処理部431は、SD取得部421から供給されたSDファイルを取得し、そのSDファイルからシーンディスクリプションの符号化データを抽出し、SD復号部441へ供給する。3Dファイル処理部432は、3D取得部422から供給された3Dファイルを取得し、その3Dファイルから3Dデータの符号化データを抽出し、3D復号部442へ供給する。HMファイル処理部433は、HM取得部423から供給されたHMファイルを取得し、そのHMファイルからHMデータの符号化データを抽出し、HM復号部443へ供給する。また、HMファイル処理部433は、HM取得部423から供給された代替メディアファイルを取得し、その代替メディアファイルから代替メディアデータの符号化データを抽出し、HM復号部443へ供給してもよい。代替メディアデータとは代替メディアのデータである。したがって、HMファイル処理部433は、代替メディアファイル処理部とも言える。つまり、HMファイル処理部433は、任意のメディアのファイルを処理することができる。したがって、HMファイル処理部433は、任意のメディアのファイルを処理するファイル処理部(またはメディアファイル処理部)とも言える。
 復号部413は、ファイル処理部412から供給される符号化データの復号に関する処理を行う。復号部413は、SD復号部441、3D復号部442、およびHM復号部443を有する。SD復号部441は、SDファイル処理部431から供給されたシーンディスクリプションの符号化データを復号し、シーンディスクリプションを生成(復元)し、SD解析部414へ供給する。3D復号部442は、3Dファイル処理部432から供給された3Dデータの符号化データを復号し、3Dデータを生成(復元)し、3D出力制御部452へ供給する。HM復号部443は、HMファイル処理部433から供給されたHMデータの符号化データを復号し、HMデータを生成(復元)し、HM出力制御部453へ供給する。また、HM復号部443は、HMファイル処理部433から供給された代替メディアデータの符号化データを復号し、代替メディアデータを生成(復元)し、HM出力制御部453へ供給してもよい。したがって、HM復号部443は、代替メディア復号部とも言える。つまり、HM復号部443は、任意のメディアの符号化データを復号することができる。したがって、HM復号部443は、任意のメディアの符号化データを復号する復号部(またはメディア復号部)とも言える。
 SD解析部414は、シーンディスクリプションの解析に関する処理を行う。例えば、SD解析部414は、SD復号部441から供給されるシーンディスクリプションを取得し、そのシーンディスクリプションを解析する。また、SD解析部414は、その解析結果、または、その解析結果に基づいて導出したり、取得したりした情報を、取得部411や出力制御部415へ供給し、情報の取得やコンテンツの再生を制御する。つまり、取得部411(3D取得部422およびHM取得部423)や、出力制御部415(3D出力制御部452およびHM出力制御部453)は、そのSD解析部414の制御に従って、処理を実行する。したがって、SD解析部414は、制御部(または、取得制御部若しくは再生制御部)とも言える。
 出力制御部415は、3DデータやHMデータ等の出力制御に関する処理を行う。例えば、出力制御部415は、3DデータやHMデータの信号変換やレンダリング等の処理を行うことができる。出力制御部415は、3D出力制御部452およびHM出力制御部453を有する。3D出力制御部452は、3D復号部442から供給される3Dデータを用いてレンダリング等を行い、出力する情報(例えば画像等)を生成し、出力部416の3D出力部462に供給する。HM出力制御部453は、HM復号部443から供給されるHMデータの信号変換やレンダリング等を行い、出力する情報(例えば振動情報等)を生成し、出力部416のHM出力部463へ供給する。また、HM出力制御部453は、HM復号部443から供給される代替メディアデータの信号変換やレンダリング等を行い、出力する情報(例えば音声情報や画像情報等)を生成し、出力部416のHM出力部463へ供給してもよい。したがって、HM出力制御部453は、代替メディア出力制御部とも言える。つまり、HM出力制御部453は、任意のメディアの出力を制御することができる。したがって、HM出力制御部453は、任意のメディアの出力を制御する出力制御部(またはメディア出力制御部)とも言える。
 出力制御部415は、3DデータやHMデータを再生するとも言える。つまり、出力制御部415は、それらのデータを再生する再生部とも言える。3D出力制御部452は、3Dデータを再生するとも言える。つまり、3D出力制御部452は、3Dデータを再生する再生部(または3D再生部)とも言える。HM出力制御部453は、HMデータを再生するとも言える。つまり、HM出力制御部453は、HMデータを再生する再生部(または、HM再生部)とも言える。また、HM出力制御部453は、代替メディアデータを再生するとも言える。つまり、HM出力制御部453は、代替メディアデータを再生する再生部(または、代替メディア再生部)とも言える。また、HM出力制御部453は、任意のメディアのデータを再生するとも言える。つまり、HM出力制御部453は、任意のメディアのデータを再生する再生部(または、メディア再生部)とも言える。
 出力部416は、表示デバイス、音声出力デバイス、ハプティクスデバイス(例えば振動デバイス)等を有し、情報の出力(画像表示、音声出力、ハプティクスメディア出力(例えば振動出力)等)に関する処理を行う。出力部416は、3D出力部462およびHM出力部463を有する。3D出力部462は、例えばディスプレイ等の画像表示デバイスやスピーカ等の音声出力デバイス等を有し、それらのデバイスを用いて、3D出力制御部452から供給される3Dデータの出力用情報(例えば、表示画像や出力音声情報等)を出力する。HM出力部463は、例えば振動デバイス等の、ハプティクスメディアの出力デバイスであるハプティクスデバイスを有し、そのハプティクスデバイスを用いて、HM出力制御部453から供給されるメディアデータの出力用情報(例えば、振動情報等)を出力する。また、HM出力部463は、例えば表示デバイスや音声出力デバイス等の、ハプティクスメディア以外のメディア(異種メディア)の出力デバイスを有してもよい。そして、HM出力部463は、その出力デバイスを用いて、HM出力制御部453から供給される代替メディアの出力用情報(例えば、音声情報や画像情報等)を出力してもよい。したがって、HM出力部463は、代替メディア出力部とも言える。つまり、HM出力部463は、任意のメディアを出力することができる。したがって、HM出力部463は、任意のメディアを出力する出力部(またはメディア出力部)とも言える。
 以上のような構成のクライアント装置400において、上述した第1の情報処理装置とし、<3.ハプティクスメディアの再生制御のための拡張>において上述した本技術を適用してもよい。例えば、上述した方法1乃至方法4の内のいずれか1つ以上を、このクライアント装置400に適用してもよい。
 このようにすることにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <再生処理の流れ1>
 このクライアント装置400が実行する再生処理の流れの例を図92のフローチャートを参照して説明する。
 再生処理が開始されると、SD取得部421は、ステップS401において、SDファイルを取得する。
 ステップS402において、SDファイル処理部431は、そのSDファイルに格納されているシーンディスクリプションの符号化データを抽出する。
 ステップS403において、SD復号部441は、抽出したシーンディスクリプションの符号化データを復号し、シーンディスクリプションを生成(復元)する。
 ステップS404において、SD解析部414は、そのシーンディスクリプションを解析する。
 ステップS405において、3D取得部422乃至3D出力部462は、解析されたシーンディスクリプションに基づいて3Dオブジェクトコンテンツ再生処理を開始する。
 ステップS406において、HM取得部423乃至HM出力部463は、解析されたシーンディスクリプションに基づいてハプティクスメディア再生処理を開始する。
 ステップS406の処理が終了すると、再生処理が終了する。
  <3Dオブジェクトコンテンツ再生処理の流れ1>
 次に、図92のステップS405において実行される3Dオブジェクトコンテンツ再生処理の流れの例を、図93のフローチャートを参照して説明する。
 3Dオブジェクトコンテンツ再生処理が開始されると、3D取得部422は、ステップS421において、3Dファイルを取得する。ステップS422において、3Dファイル処理部432は、3Dファイルから、3Dオブジェクトコンテンツ(3Dデータ)の符号化データを抽出する。ステップS423において、3D復号部442は、3Dオブジェクトコンテンツ(3Dデータ)の符号化データを復号する。ステップS424において、3D出力制御部452は、3Dオブジェクトコンテンツ(3Dデータ)を再構成し、レンダリングし、表示画像を生成する。ステップS425において、3D出力部462は、その表示画像を表示する。
 ステップS426において、制御部401は、3Dオブジェクトコンテンツ再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS421に戻り、それ以降の処理を繰り返す。3Dオブジェクトコンテンツ再生処理を終了すると判定された場合、3Dオブジェクトコンテンツ再生処理が終了し、処理は図92に戻る。
  <ハプティクスメディア再生処理の流れ1>
 次に、図92のステップS406において実行されるハプティクスメディア再生処理の流れについて説明する。上述したように、クライアント装置400には、上述した方法1を適用してもよい。その場合の、ハプティクスメディア再生処理の流れの例を、図94のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、ステップS441において、制御部401は、シーンディスクリプションに格納されたハプティクスメディアに関する周波数特性情報に基づいて、再生するハプティクスメディアを出力可能な端末ハプティクスデバイス(HM出力部463が有するハプティクスデバイス)が存在するか否かを判定する。存在すると判定された場合、処理はステップS442へ進む。
 ステップS442において、HM取得部423は、そのハプティクスメディアに関する周波数特性情報に基づいて、端末ハプティクスデバイスの周波数特性に最適なHMファイルを取得する。例えば、「デバイスの中心周波数が70Hzなので、中心周波数が最適となるhaptics3.mp4を取得する」、「デバイスの中心周波数が50Hzで、その周波数でのデバイス加速度が5GPPなので、両数値が最適となるhaptics1.mp4を取得する」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が2GPPなので、両数値が最適となるhaptics2.mp4を取得する」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が1GPPなので、最適なファイルがないため、取得再生しない」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が1GPPなので、最適なファイルはないが、haptics2.mp4を取得し、信号を調整して再生する」等のように、ハプティクスメディアに関する周波数特性情報に基づいてHMファイルの取得が制御される。
 ステップS443において、HM出力制御部453は、ハプティクスメディアの再生条件(ハプティクス再生条件とも称する)を満たすか否かを判定する。その条件を満たすと判定された場合、つまり、ハプティクスメディアを再生する状態にあると判定された場合、処理はステップS444へ進む。
 ステップS444において、HMファイル処理部433は、そのHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部443は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。
 ステップS445において、HM出力制御部453は、そのハプティクスメディア(HMデータ)を端末ハプティクスデバイスの周波数特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部463の端末ハプティクスデバイスに出力させる。
 ステップS445の処理が終了すると処理はステップS446へ進む。なお、ステップS441において、再生するハプティクスメディアを出力可能な端末ハプティクスデバイスが存在しないと判定された場合、処理はステップS446へ進む。また、ステップS443において、ハプティクス再生条件を満たさないと判定された場合、つまり、ハプティクスメディアを再生する状態にないと判定された場合、処理はステップS446へ進む。
 ステップS446において、制御部401は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS441へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置400は、本技術の方法1を適用することができる。したがって、クライアント装置400は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディア再生処理の流れ2>
 また、クライアント装置400には、上述した方法2を適用してもよい。その場合の、インタラクティブメディア再生処理の流れの例を、図95のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、ステップS461において、制御部401は、シーンディスクリプションに格納されたハプティクスメディアに関する信号立ち上がり特性情報に基づいて、再生するハプティクスメディアを出力可能な端末ハプティクスデバイス(HM出力部463が有するハプティクスデバイス)が存在するか否かを判定する。存在すると判定された場合、処理はステップS462へ進む。
 ステップS462において、HM取得部423は、そのハプティクスメディアに関する信号立ち上がり特性情報に基づいて、端末ハプティクスデバイスの周波数特性に最適なHMファイルを取得する。例えば、「デバイスの中心周波数が70Hzで、2.4GPP(3GPPx80%)に到達する時間が40msなので、最適となるhaptics3.mp4を取得する」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が40msなので、最適となるhaptics2.mp4を取得する」、「デバイスの中心周波数が50Hzで、4.0GPP(5GPPx80%)に到達する時間が50msなので、最適となるhaptics1.mp4を取得する」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が80msなので、最適となるファイルがないため、再生しない」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が80msなので、最適となるファイルがないが、haptics2.mp4を取得し、50msで立ち上がるように信号を調整する」等のように、ハプティクスメディアに関する信号立ち上がり特性情報に基づいてHMファイルの取得が制御される。
 なお、ステップS461において、再生するハプティクスメディアを出力可能な端末ハプティクスデバイスが存在しないと判定された場合、処理はステップS466へ進む。ステップS463乃至ステップS466の各処理は、ステップS443乃至ステップS446の各処理(図94)と同様に実行される。ただし、ステップS465において、ハプティクスメディア(HMデータ)は、端末ハプティクスデバイスの信号立ち上がり特性に合わせて変換されてレンダリングされる。ステップS466において、ハプティクスメディア再生処理を終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置400は、本技術の方法2を適用することができる。したがって、クライアント装置400は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディア再生処理の流れ3>
 また、クライアント装置400には、上述した方法3を適用してもよい。その場合の、インタラクティブメディア再生処理の流れの例を、図96のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、HM取得部423は、ステップS481において、シーンディスクリプションに格納されたハプティクスメディアの優先度に関する情報に基づいて、再生するハプティクスメディアを選択し、そのハプティクスメディアを格納するHMファイルを取得する。HM取得部423は、SD解析部414の解析結果に基づいてこの処理を行う。
 ステップS482において、HM出力制御部453は、ハプティクス再生条件を満たすか否かを判定する。満たすと判定された場合、処理はステップS483へ進む。
 ステップS483において、HMファイル処理部433は、ステップS481において取得されたHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部443は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。
 ステップS484において、HM出力制御部453は、ハプティクスメディアを合成するか否かを判定する。複数のハプティクスメディアを同時に再生するために、その複数のハプティクスメディアを合成すると判定された場合、処理はステップS485へ進む。
 ステップS485において、HM出力制御部453は、シーンディスクリプションに格納されたハプティクスメディアの合成に関する情報に基づいて、必要に応じて信号調整して、ハプティクスメディアを合成する。例えば、「加速度情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動の方がファイル2の振動よりもレベルが大きいため、ユーザがファイル2の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」、「レベル情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動のレベルよりもファイル2の振動のレベルの方が大きく、ファイル2の振動のピークレベルが0dBを超えているため、ユーザがファイル1の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」、「レベル情報と歪み情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動のレベルよりもファイル2の振動のレベルの方が大きいため、歪許容範囲内でユーザがファイル1の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」等のように、ハプティクスメディアに関する選択合成情報に基づいてHMファイルやHMデータに対する処理(取得や合成等)が制御される。
 ステップS485の処理が終了すると処理はステップS486へ進む。また、ステップS484において、合成しないと判定された場合、処理はステップS486へ進む。
 ステップS486において、HM出力制御部453は、そのハプティクスメディア(HMデータ)を端末ハプティクスデバイスの特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部463の端末ハプティクスデバイスに出力させる。
 ステップS486の処理が終了すると処理はステップS487へ進む。また、ステップS482において、ハプティクス再生条件を満たさないと判定された場合、処理はステップS487へ進む。
 ステップS487において、制御部401は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS481へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置400は、本技術の方法3を適用することができる。したがって、クライアント装置400は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディア再生処理の流れ4>
 また、クライアント装置400には、上述した方法4を適用してもよい。その場合の、インタラクティブメディア再生処理の流れの例を、図97のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、HM出力制御部453は、ステップS501において、シーンディスクリプションに基づいて、ハプティクスメディアの再生出力が可能か否かを判定する。HM出力制御部453は、SD解析部414の解析結果に基づいてこの処理を行う。
 再生出力可能であると判定された場合、処理はステップS502へ進む。ステップS502において、HM取得部423は、シーンディスクリプションに基づいてHMファイルを取得する。HM取得部423は、SD解析部414の解析結果に基づいてこの処理を行う。ステップS502の処理が終了すると、処理はステップS504へ進む。
 また、ステップS501において、ハプティクスメディアの再生出力が不可能であると判定された場合、処理はステップS503へ進む。ステップS503において、HM取得部(代替メディア取得部)423は、シーンディスクリプションのマルチモーダルな代替手段に関する情報に基づいて、ハプティクスメディアの代替メディアを格納する代替メディアファイルを取得する。ステップS503の処理が終了すると、処理はステップS504へ進む。
 ステップS504において、HM出力制御部(代替メディア出力制御部)453は、ハプティクスメディアまたは代替メディアの再生条件を満たすか否かを判定する。満たすと判定された場合、処理はステップS505へ進む。
 ステップS505において、HMファイル処理部433は、ステップS501において取得されたHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部443は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。または、HMファイル処理部(代替メディアファイル処理部)433は、ステップS501において取得された代替メディアファイルから代替メディアデータの符号化データを抽出する。HM復号部(代替メディア復号部)443は、その抽出した代替メディアデータの符号化データを復号し、代替メディア(代替メディアデータ)を生成する。
 ステップS506において、HM出力制御部(代替メディア出力制御部)453は、そのハプティクスメディア(HMデータ)または代替メディア(代替メディアデータ)をHM出力部(代替メディア出力部)463が有する出力デバイスの特性に合わせて変換し、変換後のHMデータまたは変換後の代替メディアデータをレンダリングし、HM出力部(代替メディア出力部)463のその出力デバイスに出力させる。例えば、HM出力制御部453は、HMデータをHM出力部463が有する端末ハプティクスデバイスの特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部463のその端末ハプティクスデバイスに出力させる。また、HM出力制御部(代替メディア出力制御部)453は、代替メディアデータをHM出力部(代替メディア出力部)463が有する、その代替メディアデータを出力する出力デバイス(例えば、音声出力デバイスや表示デバイス等)の特性に合わせて変換し、変換後の代替メディアデータをレンダリングし、HM出力部(代替メディア出力部)463のその出力デバイスに出力させる。
 ステップS506の処理が終了すると、処理はステップS507へ進む。また、ステップS504において、ハプティクスメディアまたは代替メディアの再生条件を満たさないと判定された場合、処理はステップS507へ進む。
 ステップS507において、制御部401は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS501へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置400は、本技術の方法4を適用することができる。したがって、クライアント装置400は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 <5.第2の実施の形態>
  <ファイル生成装置2>
 上述した本技術(方法5)は、任意の装置に適用し得る。図98は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示すブロック図である。図98に示されるファイル生成装置500は、ファイル生成装置300の場合と同様に、ハプティクスメディアが関連付けられた3Dオブジェクトコンテンツ(例えばポイントクラウド等の3Dデータ)を符号化する装置である。また、ファイル生成装置500は、その3DオブジェクトコンテンツのMPDを生成する。
 なお、図98においては、処理部やデータの流れ等の主なものを示しており、図98に示されるものが全てとは限らない。つまり、ファイル生成装置500において、図98においてブロックとして示されていない処理部が存在したり、図98において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図98に示されるようにファイル生成装置500は、基本的にファイル生成装置300と同様の構成を有する。ファイル生成装置500は、制御部501およびファイル生成処理部502を有する。制御部501は、ファイル生成処理部502を制御する。ファイル生成処理部502は、制御部501により制御されて、ファイルの生成に関する処理を行う。
 ファイル生成処理部502は、入力部511、前処理部512、符号化部513、ファイル生成部514、記憶部515、および出力部516を有する。
 入力部511は、ファイル生成装置300の入力部311と同様の処理部であり、入力部311と同様の処理を行う。したがって、入力部511は、取得部とも言える。入力部511は、MPD入力部521、3D入力部522、およびHM入力部523を有する。MPD入力部521は、ファイル生成装置500に供給される、MPDの生成に用いられるデータを取得する。MPD入力部521は、その取得したデータを用いてMPDを生成する。したがって、MPD入力部521は、MPDを生成する生成部(またはMPD生成部)とも言える。なお、MPDがファイル生成装置500の外部から供給されてもよい。その場合、MPD入力部521は、そのMPDを取得し、MPDの生成処理をスキップ(省略)すればよい。したがって、MPD入力部521は、MPDを生成するためのデータまたはMPDを取得する取得部(またはMPD取得部)とも言える。MPD入力部521は、取得または生成したMPDを前処理部512のMPD前処理部531へ供給する。3D入力部522は、3D入力部322と同様の処理部であり、3D入力部322と同様の処理を行う。したがって、3D入力部522は、3Dデータを取得する取得部(または3D取得部)とも言える。HM入力部523は、HM入力部323と同様の処理部であり、HM入力部323と同様の処理を行う。したがって、HM入力部523は、HMデータを取得する取得部(またはHM取得部)とも言える。また、HM入力部523は、代替メディア入力部とも言える。また、HM入力部523は、代替メディアデータを取得する取得部(または代替メディア取得部)とも言える。また、HM入力部523は、メディア入力部とも言える。また、HM入力部523は、任意のメディアのデータを取得する取得部(またはメディア取得部)とも言える。
 前処理部512は、ファイル生成装置300の前処理部312と同様の処理部であり、前処理部312と同様の処理を行う。前処理部512は、MPD前処理部531、3D前処理部532、およびHM前処理部533を有する。MPD前処理部531は、例えば、MPD入力部521から供給されたMPDから、そのMPDを格納するファイル(MPDファイルとも称する)の生成に必要な情報を取得し、ファイル生成部514のMPDファイル生成部551へ供給する。また、MPD前処理部531は、3D前処理部532から供給される3Dデータに関する情報や、HM前処理部533から供給されるHMデータに関する情報や代替メディアデータに関する情報を、MPDに格納する。その際、MPD前処理部531は、供給された情報に基づいて新たな情報を生成し、MPDに格納してもよい。また、MPD前処理部531は、MPDを符号化部513のMPD符号化部541へ供給する。3D前処理部532は、3D前処理部332と同様の処理部であり、3D前処理部332と同様の処理を行う。HM前処理部533は、HM前処理部333と同様の処理部であり、HM前処理部333と同様の処理を行う。したがって、HM前処理部533は、代替メディア前処理部とも言える。また、HM前処理部533は、任意のメディアのデータを処理する前処理部(またはメディア前処理部)とも言える。
 符号化部513は、ファイル生成装置300の符号化部313と同様の処理部であり、符号化部313と同様の処理を行う。符号化部513は、MPD符号化部541、3D符号化部542、およびHM符号化部543を有する。MPD符号化部541は、MPD前処理部531から供給されるMPDを符号化し、その符号化データをファイル生成部514のMPDファイル生成部551へ供給する。3D符号化部542は、3D符号化部342と同様の処理部であり、3D符号化部342と同様の処理を行う。HM符号化部543は、HM符号化部343と同様の処理部であり、HM符号化部343と同様の処理を行う。したがって、HM符号化部543は、代替メディア符号化部とも言える。また、HM符号化部543は、任意のメディアのデータを符号化する符号化部(またはメディア符号化部)とも言える。
 ファイル生成部514は、ファイル生成装置300のファイル生成部314と同様の処理部であり、ファイル生成部314と同様の処理を行う。ファイル生成部514は、MPDファイル生成部551、3Dファイル生成部552、およびHMファイル生成部553を有する。MPDファイル生成部551は、MPD前処理部531やMPD符号化部541から供給された情報に基づいて、MPDを格納するMPDファイルを生成する。MPDファイル生成部551は、そのMPDファイルを記憶部515のMPD記憶部561へ供給する。3Dファイル生成部552は、3Dファイル生成部352と同様の処理部であり、3Dファイル生成部352と同様の処理を行う。HMファイル生成部553は、HMファイル生成部353と同様の処理部であり、HMファイル生成部353と同様の処理を行う。したがって、HMファイル生成部553は、代替メディアファイル生成部とも言える。また、HMファイル生成部553は、任意のメディアの符号化データを格納するファイルを生成するファイル生成部(またはメディアファイル生成部)とも言える。
 記憶部515は、ファイル生成装置300の記憶部315と同様の処理部であり、記憶部315と同様の処理を行う。記憶部515は、MPD記憶部561、3D記憶部562、およびHM記憶部563を有する。MPD記憶部561は、MPDファイル生成部551から供給されたMPDファイルを記憶する。また、MPD記憶部561は、出力部516のMPD出力部571等からの要求に応じて、または、所定のタイミングにおいて、そのMPDファイルをMPD出力部571へ供給する。3D記憶部562は、3D記憶部362と同様の処理部であり、3D記憶部362と同様の処理を行う。HM記憶部563は、HM記憶部363と同様の処理部であり、HM記憶部363と同様の処理を行う。したがって、HM記憶部563は、代替メディア記憶部とも言える。また、HM記憶部563は、任意のメディアのファイルを記憶する記憶部(またはメディア記憶部)とも言える。
 出力部516は、ファイル生成装置300の出力部316と同様の処理部であり、出力部316と同様の処理を行う。出力部516は、MPD出力部571、3D出力部572、およびHM出力部573を有する。MPD出力部571は、MPD記憶部561から読み出されたMPDファイルを取得し、ファイル生成装置500の外部に出力する。3D出力部572は、3D出力部372と同様の処理部であり、3D出力部372と同様の処理を行う。HM出力部573は、HM出力部373と同様の処理部であり、HM出力部373と同様の処理を行う。したがって、HM出力部573は、代替メディア出力部とも言える。また、HM出力部573は、任意のメディアのファイルをファイル生成装置300の外部に出力する出力部(またはメディア出力部)とも言える。
 つまり、出力部516は、ファイルを他の装置に供給する供給部とも言える。MPD出力部571は、MPDファイルを他の装置に供給する供給部(またはMPDファイル供給部)とも言える。3D出力部572は、3Dファイルを他の装置に供給する供給部(または3Dファイル供給部)とも言える。HM出力部573は、HMファイルを他の装置に供給する供給部(またはHMファイル供給部)とも言える。また、HM出力部573は、代替メディアファイルを他の装置に供給する供給部(または代替メディアファイル供給部)とも言える。また、HM出力部573は、任意のメディアのファイルを他の装置に供給する供給部(またはメディアファイル供給部)とも言える。
 以上のような構成のファイル生成装置500において、上述した第2の情報処理装置とし、<3.ハプティクスメディアの再生制御のための拡張>において上述した本技術を適用してもよい。例えば、上述した方法5を、このファイル生成装置500に適用してもよい。
 このようにすることにより、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ5>
 次に、このファイル生成装置500が実行するファイル生成処理の流れについて説明する。上述したように、ファイル生成装置500には、上述した方法5を適用してもよい。例えば、MPDを用いて方法1を実現してもよい。その場合の、ファイル生成処理の流れの例を、図99のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS521において、MPD入力部521は、MPDを取得する。なお、MPD入力部521は、MPDを生成するためのデータを取得し、そのデータを用いてMPDを生成してもよい。3D入力部522は、3Dオブジェクトコンテンツ(3Dデータ)を取得する。HM入力部523は、ハプティクスメディア(HMデータ)を取得する。
 ステップS522において、MPD前処理部531は、MPDに対して前処理を行い、MPDから、MPDファイルの生成に必要な情報を抽出する。3D前処理部532は、3Dデータに対して前処理を行い、3Dデータから3Dファイルの生成に必要な情報を抽出する。HM前処理部533は、HMデータに対して前処理を行い、HMデータから、HMファイルの生成に必要な情報を抽出する。
 ステップS523において、3D前処理部532は、3Dデータに関する情報を生成する。また、HM前処理部533は、HMデータに関する情報を生成する。MPD前処理部531は、それらの情報等に基づいて、3Dオブジェクトコンテンツ(3Dデータ)とハプティクスメディア(HMデータ)との関連性の記述を生成し、MPDに格納する。
 ステップS524において、MPD前処理部531は、3Dデータに関する情報やHMデータに関する情報等に基づいて、ハプティクスメディアに関する周波数特性情報を生成し、MPDに格納する。
 ステップS525において、MPD符号化部541は、MPDを符号化し、MPDの符号化データを生成する。3D符号化部542は、3Dオブジェクトコンテンツ(3Dデータ)を符号化し、3Dデータの符号化データを生成する。HM符号化部543は、ハプティクスメディア(HMデータ)を符号化し、HMデータの符号化データを生成する。
 ステップS526において、MPDファイル生成部551は、MPDの符号化データを格納するMPDファイルを生成する。3Dファイル生成部552は、3Dデータの符号化データを格納する3Dファイルを生成する。HMファイル生成部553は、HMデータの符号化データを格納するHMファイルを生成する。
 ステップS527において、MPD記憶部561は、MPDファイルを記憶する。3D記憶部562は、3Dファイルを記憶する。HM記憶部563は、HMファイルを記憶する。
 ステップS528において、MPD出力部571は、MPDファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。3D出力部572は、3Dファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。HM出力部573は、HMファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。
 ステップS528の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置500は、本技術の方法5を適用し、MPDを用いてハプティクスメディアに関する周波数特性情報を供給することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ6>
 また、ファイル生成装置500には、上述した方法5を適用してもよい。例えば、MPDを用いて方法2を実現してもよい。その場合の、ファイル生成処理の流れの例を、図100のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS541乃至ステップS543の各処理が、ステップS521乃至ステップS523の各処理(図99)と同様に実行される。
 ステップS544において、MPD前処理部531は、3Dデータに関する情報やHMデータに関する情報等に基づいて、ハプティクスメディアに関する信号立ち上がり特性情報を生成し、MPDに格納する。
 ステップS545乃至ステップS548の各処理は、ステップS525乃至ステップS528の各処理(図99)と同様に実行される。
 ステップS548の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置500は、本技術の方法5を適用し、MPDを用いてハプティクスメディアに関する信号立ち上がり特性情報を供給することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ7>
 また、ファイル生成装置500には、上述した方法5を適用してもよい。例えば、MPDを用いて方法3を実現してもよい。その場合の、ファイル生成処理の流れの例を、図101のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS561乃至ステップS563の各処理が、ステップS521乃至ステップS523の各処理(図99)と同様に実行される。
 ステップS564において、MPD前処理部531は、3Dデータに関する情報やHMデータに関する情報等に基づいて、ハプティクスメディアの優先度に関する情報を生成し、MPDに格納する。
 ステップS565において、MPD前処理部531は、3Dデータに関する情報やHMデータに関する情報等に基づいて、ハプティクスメディアの合成に関する情報を生成し、MPDに格納する。
 ステップS566乃至ステップS569の各処理は、ステップS525乃至ステップS528の各処理(図99)と同様に実行される。
 ステップS569の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置500は、本技術の方法5を適用し、MPDを用いてハプティクスメディアに関する選択合成情報を供給することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 このように方法5を適用しMPDを適用する場合においても、本技術の方法1乃至方法4の内の、複数の方法を組み合わせて適用してももちろんよい。
  <クライアント装置2>
 上述した本技術(方法5)は、任意の装置に適用し得る。図102は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示すブロック図である。図102に示されるクライアント装置600は、MPDに基づいて、3Dデータやその3Dデータに関連付けられたHMデータ等の再生処理を行う再生装置である。例えば、クライアント装置600は、ファイル生成装置500により生成されたファイルを取得し、そのファイルに格納される3DデータやHMデータ等を再生する。
 なお、図102においては、処理部やデータの流れ等の主なものを示しており、図102に示されるものが全てとは限らない。つまり、クライアント装置600において、図102においてブロックとして示されていない処理部が存在したり、図102において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図102に示されるようにクライアント装置600は、制御部601およびクライアント処理部602を有する。制御部601は、クライアント処理部602の制御に関する処理を行う。クライアント処理部602は、3DデータやHMデータ等の再生に関する処理を行う。
 クライアント処理部602は、取得部611、ファイル処理部612、復号部613、MPD解析部614、出力制御部615、および出力部616を有する。
 取得部611は、クライアント装置400の取得部411と同様の処理部であり、取得部411と同様の処理を行う。取得部611は、MPD取得部621、3D取得部622、およびHM取得部623を有する。MPD取得部621は、クライアント装置600の外部から供給されるMPDファイルを取得し、ファイル処理部612のMPDファイル処理部631へ供給する。3D取得部622は、3D取得部422と同様の処理部であり、3D取得部622と同様の処理を行う。HM取得部623は、HM取得部423と同様の処理部であり、HM取得部423と同様の処理を行う。したがって、HM取得部623は、代替メディア取得部とも言える。また、HM取得部623は、任意のメディアのデータを取得する取得部(またはメディア取得部)とも言える。
 ファイル処理部612は、クライアント装置400のファイル処理部412と同様の処理部であり、ファイル処理部412と同様の処理を行う。ファイル処理部612は、MPDファイル処理部631、3Dファイル処理部632、およびHMファイル処理部633を有する。MPDファイル処理部631は、MPD取得部621から供給されたMPDファイルを取得し、そのMPDファイルからMPDの符号化データを抽出し、MPD復号部641へ供給する。3Dファイル処理部632は、3Dファイル処理部432と同様の処理部であり、3Dファイル処理部432と同様の処理を行う。HMファイル処理部633は、HMファイル処理部433と同様の処理部であり、HMファイル処理部433と同様の処理を行う。したがって、HMファイル処理部633は、代替メディアファイル処理部とも言える。また、HMファイル処理部633は、任意のメディアのファイルを処理するファイル処理部(またはメディアファイル処理部)とも言える。
 復号部613は、クライアント装置400の復号部413と同様の処理部であり、復号部413と同様の処理を行う。復号部613は、MPD復号部641、3D復号部642、およびHM復号部643を有する。MPD復号部641は、MPDファイル処理部631から供給されたMPDの符号化データを復号し、MPDを生成(復元)し、MPD解析部614へ供給する。3D復号部642は、3D復号部442と同様の処理部であり、3D復号部442と同様の処理を行う。HM復号部643は、HM復号部443と同様の処理部であり、HM復号部443と同様の処理を行う。したがって、HM復号部643は、代替メディア復号部とも言える。また、HM復号部643は、任意のメディアの符号化データを復号する復号部(またはメディア復号部)とも言える。
 MPD解析部614は、MPDの解析に関する処理を行う。例えば、MPD解析部614は、MPD復号部641から供給されるMPDを取得し、そのMPDを解析する。また、MPD解析部614は、その解析結果、または、その解析結果に基づいて導出したり、取得したりした情報を、取得部611や出力制御部615へ供給し、情報の取得やコンテンツの再生を制御する。つまり、取得部611(3D取得部622およびHM取得部623)や、出力制御部615(3D出力制御部652およびHM出力制御部653)は、そのMPD解析部614の制御に従って、処理を実行する。したがって、MPD解析部614は、制御部(または、取得制御部若しくは再生制御部)とも言える。
 出力制御部615は、クライアント装置400の出力制御部415と同様の処理部であり、出力制御部415と同様の処理を行う。出力制御部615は、3D出力制御部652およびHM出力制御部653を有する。3D出力制御部452は、3D出力制御部452と同様の処理部であり、3D出力制御部452と同様の処理を行う。HM出力制御部653は、HM出力制御部453と同様の処理部であり、HM出力制御部453と同様の処理を行う。したがって、HM出力制御部653は、代替メディア出力制御部とも言える。また、HM出力制御部653は、任意のメディアの出力を制御する出力制御部(またはメディア出力制御部)とも言える。
 出力制御部615は、3DデータやHMデータを再生するとも言える。つまり、出力制御部615は、それらのデータを再生する再生部とも言える。3D出力制御部652は、3Dデータを再生するとも言える。つまり、3D出力制御部652は、3Dデータを再生する再生部(または3D再生部)とも言える。HM出力制御部653は、HMデータを再生するとも言える。つまり、HM出力制御部653は、HMデータを再生する再生部(または、HM再生部)とも言える。また、HM出力制御部653は、代替メディアデータを再生するとも言える。つまり、HM出力制御部653は、代替メディアデータを再生する再生部(または、代替メディア再生部)とも言える。また、HM出力制御部653は、任意のメディアのデータを再生する再生部(または、メディア再生部)とも言える。
 出力部616は、クライアント装置400の出力部416と同様の処理部であり、出力部416と同様の処理を行う。出力部616は、3D出力部662およびHM出力部663を有する。3D出力部662は、3D出力部462と同様の処理部であり、3D出力部462と同様の処理を行う。HM出力部663は、HM出力部463と同様の処理部であり、HM出力部463と同様の処理を行う。したがって、HM出力部663は、代替メディア出力部とも言える。また、HM出力部663は、任意のメディアを出力する出力部(またはメディア出力部)とも言える。
 以上のような構成のクライアント装置600において、上述した第1の情報処理装置とし、<3.ハプティクスメディアの再生制御のための拡張>において上述した本技術を適用してもよい。例えば、上述した方法5を、このクライアント装置600に適用してもよい。
 このようにすることにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <再生処理の流れ2>
 このクライアント装置600が実行する再生処理の流れの例を図103のフローチャートを参照して説明する。
 再生処理が開始されると、MPD取得部621は、ステップS601において、MPDファイルを取得する。
 ステップS602において、MPDファイル処理部631は、そのMPDファイルに格納されているMPDの符号化データを抽出する。
 ステップS603において、MPD復号部641は、抽出したMPDの符号化データを復号し、MPDを生成(復元)する。
 ステップS604において、MPD解析部614は、そのMPDを解析する。
 ステップS605において、3D取得部622乃至3D出力部662は、解析されたMPDに基づいて3Dオブジェクトコンテンツ再生処理を開始する。この処理は、図93のフローチャートを参照して説明した場合と同様の流れで実行される。
 ステップS606において、HM取得部623乃至HM出力部663は、解析されたMPDに基づいてハプティクスメディア再生処理を開始する。
 ステップS606の処理が終了すると、再生処理が終了する。
  <ハプティクスメディア再生処理の流れ5>
 次に、図103のステップS606において実行されるハプティクスメディア再生処理の流れについて説明する。上述したように、クライアント装置600には、上述した方法5を適用してもよい。例えば、MPDを用いて供給されたハプティクスメディアに関する周波数特性情報に基づいて、ハプティクスメディアの出力を制御してもよい。その場合の、ハプティクスメディア再生処理の流れの例を、図104のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、ステップS641において、制御部601は、MPDに格納されたハプティクスメディアに関する周波数特性情報に基づいて、再生するハプティクスメディアを出力可能な端末ハプティクスデバイス(HM出力部663が有するハプティクスデバイス)が存在するか否かを判定する。存在すると判定された場合、処理はステップS642へ進む。
 ステップS642において、HM取得部623は、そのハプティクスメディアに関する周波数特性情報に基づいて、端末ハプティクスデバイスの周波数特性に最適なHMファイルを取得する。例えば、「デバイスの中心周波数が70Hzなので、中心周波数が最適となるhaptics3.mp4を取得する」、「デバイスの中心周波数が50Hzで、その周波数でのデバイス加速度が5GPPなので、両数値が最適となるhaptics1.mp4を取得する」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が2GPPなので、両数値が最適となるhaptics2.mp4を取得する」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が1GPPなので、最適なファイルがないため、取得再生しない」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が1GPPなので、最適なファイルはないが、haptics2.mp4を取得し、信号を調整して再生する」等のように、ハプティクスメディアに関する周波数特性情報に基づいてHMファイルの取得が制御される。
 ステップS643において、HM出力制御部653は、ハプティクスメディアの再生条件(ハプティクス再生条件とも称する)を満たすか否かを判定する。その条件を満たすと判定された場合、つまり、ハプティクスメディアを再生する状態にあると判定された場合、処理はステップS644へ進む。
 ステップS644において、HMファイル処理部633は、そのHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部643は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。
 ステップS645において、HM出力制御部653は、そのハプティクスメディア(HMデータ)を端末ハプティクスデバイスの周波数特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部663の端末ハプティクスデバイスに出力させる。
 ステップS645の処理が終了すると処理はステップS646へ進む。なお、ステップS641において、再生するハプティクスメディアを出力可能な端末ハプティクスデバイスが存在しないと判定された場合、処理はステップS646へ進む。また、ステップS643において、ハプティクス再生条件を満たさないと判定された場合、つまり、ハプティクスメディアを再生する状態にないと判定された場合、処理はステップS646へ進む。
 ステップS646において、制御部601は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS641へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置600は、本技術の方法5を適用し、MPDを用いて供給されたハプティクスメディアに関する周波数特性情報に基づいて、ハプティクスメディア等の出力を制御することができる。したがって、クライアント装置600は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディア再生処理の流れ6>
 また、クライアント装置600には、上述した方法5を適用してもよい。例えば、MPDを用いて供給されたハプティクスメディアに関する信号立ち上がり特性情報に基づいて、ハプティクスメディアの出力を制御してもよい。その場合の、インタラクティブメディア再生処理の流れの例を、図105のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、ステップS661において、制御部601は、MPDに格納されたハプティクスメディアに関する信号立ち上がり特性情報に基づいて、再生するハプティクスメディアを出力可能な端末ハプティクスデバイス(HM出力部663が有するハプティクスデバイス)が存在するか否かを判定する。存在すると判定された場合、処理はステップS662へ進む。
 ステップS662において、HM取得部623は、そのハプティクスメディアに関する信号立ち上がり特性情報に基づいて、端末ハプティクスデバイスの信号立ち上がり特性に最適なHMファイルを取得する。例えば、「デバイスの中心周波数が70Hzで、2.4GPP(3GPPx80%)に到達する時間が40msなので、最適となるhaptics3.mp4を取得する」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が40msなので、最適となるhaptics2.mp4を取得する」、「デバイスの中心周波数が50Hzで、4.0GPP(5GPPx80%)に到達する時間が50msなので、最適となるhaptics1.mp4を取得する」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が80msなので、最適となるファイルがないため、再生しない」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が80msなので、最適となるファイルがないが、haptics2.mp4を取得し、50msで立ち上がるように信号を調整する」等のように、ハプティクスメディアに関する信号立ち上がり特性情報に基づいてHMファイルの取得が制御される。
 なお、ステップS661において、再生するハプティクスメディアを出力可能な端末ハプティクスデバイスが存在しないと判定された場合、処理はステップS666へ進む。ステップS663乃至ステップS666の各処理は、ステップS643乃至ステップS646の各処理(図104)と同様に実行される。ただし、ステップS665において、ハプティクスメディア(HMデータ)は、端末ハプティクスデバイスの信号立ち上がり特性に合わせて変換されてレンダリングされる。ステップS666において、ハプティクスメディア再生処理を終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置600は、本技術の方法5を適用し、MPDを用いて供給されたハプティクスメディアに関する信号立ち上がり特性情報に基づいて、ハプティクスメディアの出力を制御することができる。したがって、クライアント装置600は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディア再生処理の流れ7>
 また、クライアント装置600には、上述した方法5を適用してもよい。例えば、MPDを用いて供給されたハプティクスメディアに関する選択合成情報に基づいて、ハプティクスメディアの出力を制御してもよい。その場合の、インタラクティブメディア再生処理の流れの例を、図106のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、HM取得部623は、ステップS681において、MPDに格納されたハプティクスメディアの優先度に関する情報に基づいて、再生するハプティクスメディアを選択し、そのハプティクスメディアを格納するHMファイルを取得する。HM取得部623は、MPD解析部614の解析結果に基づいてこの処理を行う。
 ステップS682において、HM出力制御部653は、ハプティクス再生条件を満たすか否かを判定する。満たすと判定された場合、処理はステップS683へ進む。
 ステップS683において、HMファイル処理部633は、ステップS681において取得されたHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部643は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。
 ステップS684において、HM出力制御部653は、ハプティクスメディアを合成するか否かを判定する。複数のハプティクスメディアを同時に再生するために、その複数のハプティクスメディアを合成すると判定された場合、処理はステップS685へ進む。
 ステップS685において、HM出力制御部653は、MPDに格納されたハプティクスメディアの合成に関する情報に基づいて、必要に応じて信号調整して、ハプティクスメディアを合成する。例えば、「加速度情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動の方がファイル2の振動よりもレベルが大きいため、ユーザがファイル2の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」、「レベル情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動のレベルよりもファイル2の振動のレベルの方が大きく、ファイル2の振動のピークレベルが0dBを超えているため、ユーザがファイル1の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」、「レベル情報と歪み情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動のレベルよりもファイル2の振動のレベルの方が大きいため、歪許容範囲内でユーザがファイル1の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」等のように、ハプティクスメディアに関する選択合成情報に基づいてHMファイルやHMデータに対する処理(取得や合成等)が制御される。
 ステップS685の処理が終了すると処理はステップS686へ進む。また、ステップS684において、合成しないと判定された場合、処理はステップS686へ進む。
 ステップS686において、HM出力制御部653は、そのハプティクスメディア(HMデータ)を端末ハプティクスデバイスの特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部663の端末ハプティクスデバイスに出力させる。
 ステップS686の処理が終了すると処理はステップS687へ進む。また、ステップS682において、ハプティクス再生条件を満たさないと判定された場合、処理はステップS687へ進む。
 ステップS687において、制御部601は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS681へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置600は、本技術の方法5を適用し、MPDを用いて供給されたハプティクスメディアに関する選択合成情報に基づいて、ハプティクスメディアの出力を制御することができる。したがって、クライアント装置600は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 このように方法5を適用しMPDを適用する場合においても、本技術の方法1乃至方法4の内の、複数の方法を組み合わせて適用してももちろんよい。
 <6.第3の実施の形態>
  <ファイル生成装置3>
 上述した本技術(方法6)は、任意の装置に適用し得る。図107は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示すブロック図である。図107に示されるファイル生成装置700は、ファイル生成装置300の場合と同様に、ハプティクスメディアが関連付けられた3Dオブジェクトコンテンツ(例えばポイントクラウド等の3Dデータ)を符号化する装置である。また、ファイル生成装置700は、その3Dオブジェクトコンテンツを配信用のファイルコンテナであるISOBMFFファイルに格納する。
 なお、図107においては、処理部やデータの流れ等の主なものを示しており、図107に示されるものが全てとは限らない。つまり、ファイル生成装置700において、図107においてブロックとして示されていない処理部が存在したり、図107において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図107に示されるようにファイル生成装置700は、基本的にファイル生成装置300と同様の構成を有する。ファイル生成装置700は、制御部701およびファイル生成処理部702を有する。制御部701は、ファイル生成処理部702を制御する。ファイル生成処理部702は、制御部701により制御されて、ファイルの生成に関する処理を行う。
 ファイル生成処理部702は、入力部711、前処理部712、符号化部713、ファイル生成部714、ISOBMFFファイル生成部715、ISOBMFF記憶部716、およびISOBMFF出力部717を有する。
 入力部711は、ファイル生成装置300の入力部311と同様の処理部であり、入力部311と同様の処理を行う。したがって、入力部711は、取得部とも言える。入力部711は、3D入力部721、およびHM入力部722を有する。3D入力部721は、3D入力部322と同様の処理部であり、3D入力部322と同様の処理を行う。したがって、3D入力部721は、3Dデータを取得する取得部(または3D取得部)とも言える。HM入力部722は、HM入力部323と同様の処理部であり、HM入力部323と同様の処理を行う。したがって、HM入力部722は、代替メディア入力部とも言える。また、HM入力部722は、任意のメディアを入力する入力部(または、メディア入力部)とも言える。また、HM入力部722は、HMデータを取得する取得部(またはHM取得部)とも言える。また、HM入力部722は、代替メディアデータを取得する取得部(または代替メディア取得部)とも言える。また、HM入力部722は、任意のメディアデータを取得する取得部(またはメディア取得部)とも言える。
 前処理部712は、ファイル生成装置300の前処理部312と同様の処理部であり、前処理部312と同様の処理を行う。前処理部712は、3D前処理部731、およびHM前処理部732を有する。3D前処理部731は、3D前処理部332と同様の処理部であり、3D前処理部332と同様の処理を行う。ただし、3D前処理部731は、ISOBMFFファイルの生成に必要な情報を取得し、ISOBMFFファイル生成部715のへ供給する。HM前処理部732は、HM前処理部333と同様の処理部であり、HM前処理部333と同様の処理を行う。したがって、HM前処理部732は、代替メディア前処理部とも言える。また、HM前処理部732は、任意のメディアのデータを処理する前処理部(またはメディア前処理部)とも言える。ただし、HM前処理部732は、ISOBMFFファイルの生成に必要な情報を取得し、ISOBMFFファイル生成部715のへ供給する。
 符号化部713は、ファイル生成装置300の符号化部313と同様の処理部であり、符号化部313と同様の処理を行う。符号化部713は、3D符号化部741、およびHM符号化部742を有する。3D符号化部741は、3D符号化部342と同様の処理部であり、3D符号化部342と同様の処理を行う。HM符号化部742は、HM符号化部343と同様の処理部であり、HM符号化部343と同様の処理を行う。したがって、HM符号化部742は、代替メディア符号化部とも言える。また、HM符号化部742は、任意のメディアのデータを符号化する符号化部(またはメディア符号化部)とも言える。
 ファイル生成部714は、ファイル生成装置300のファイル生成部314と同様の処理部であり、ファイル生成部314と同様の処理を行う。ファイル生成部714は、3Dファイル生成部751、およびHMファイル生成部752を有する。3Dファイル生成部751は、3Dファイル生成部352と同様の処理部であり、3Dファイル生成部352と同様の処理を行う。ただし、3Dファイル生成部751は、生成した3DファイルをISOBMFFファイル生成部715へ供給する。HMファイル生成部752は、HMファイル生成部353と同様の処理部であり、HMファイル生成部353と同様の処理を行う。したがって、HMファイル生成部752は、代替メディアファイル生成部とも言える。また、HMファイル生成部752は、任意のメディアの符号化データを格納するファイルを生成するファイル生成部(またはメディアファイル生成部)とも言える。ただし、HMファイル生成部752は、生成したHMファイルや代替メディアファイルをISOBMFFファイル生成部715へ供給する。
 ISOBMFFファイル生成部715は、ISOBMFFファイルを生成し、そこに3Dファイル、HMファイル、代替メディアファイル等を格納する。また、ISOBMFFファイル生成部715は、3D前処理部731やHM前処理部732等から供給された情報も、そのISOBMFFファイルに格納する。ISOBMFFファイル生成部715は、生成したISOBMFFファイルをISOBMFF記憶部716へ供給する。
 ISOBMFF記憶部716は、そのISOBMFFファイルを取得し、記憶する。また、ISOBMFF記憶部716は、ISOBMFF出力部717等からの要求に応じて、または、所定のタイミングにおいて、そのISOBMFFファイルをISOBMFF出力部717へ供給する。
 ISOBMFF出力部717は、ISOBMFF記憶部716から読み出されたISOBMFFファイルを取得し、ファイル生成装置700の外部に出力する。つまり、ISOBMFF出力部717は、ISOBMFFファイルを他の装置に供給する供給部とも言える。
 以上のような構成のファイル生成装置700において、上述した第2の情報処理装置とし、<3.ハプティクスメディアの再生制御のための拡張>において上述した本技術を適用してもよい。例えば、上述した方法6を、このファイル生成装置700に適用してもよい。
 このようにすることにより、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ8>
 次に、このファイル生成装置700が実行するファイル生成処理の流れについて説明する。上述したように、ファイル生成装置700には、上述した方法6を適用してもよい。例えば、ファイルコンテナを用いて方法1を実現してもよい。その場合の、ファイル生成処理の流れの例を、図108のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS701において、3D入力部721は、3Dオブジェクトコンテンツ(3Dデータ)を取得する。HM入力部722は、ハプティクスメディア(HMデータ)を取得する。
 ステップS702において、3D前処理部731は、3Dデータに対して前処理を行い、3Dデータから3Dファイルの生成に必要な情報を抽出する。また、3D前処理部731は、3DデータからISOBMFFファイルの生成に必要な情報を抽出する。HM前処理部732は、HMデータに対して前処理を行い、HMデータから、HMファイルの生成に必要な情報を抽出する。また、HM前処理部732は、HMデータからISOBMFFファイルの生成に必要な情報を抽出する。
 ステップS703において、3D符号化部741は、3Dオブジェクトコンテンツ(3Dデータ)を符号化し、3Dデータの符号化データを生成する。HM符号化部742は、ハプティクスメディア(HMデータ)を符号化し、HMデータの符号化データを生成する。
 ステップS704において、3Dファイル生成部751は、3Dデータの符号化データを格納する3Dファイルを生成する。HMファイル生成部752は、HMデータの符号化データを格納するHMファイルを生成する。
 ステップS705において、ISOBMFFファイル生成部715は、3DファイルとHMファイルを格納するISOBMFFファイルを生成する。
 ステップS706において、ISOBMFFファイル生成部715は、ステップS702において抽出された情報に基づく等して、3Dオブジェクトコンテンツとハプティクスメディアとの関連性の記述をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。
 ステップS707において、ISOBMFFファイル生成部715は、ステップS702において抽出された情報に基づく等して、ハプティクスメディアに関する周波数特性情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。
 ステップS708において、ISOBMFF記憶部716は、そのISOBMFFファイルを記憶する。
 ステップS709において、ISOBMFF出力部717は、そのISOBMFFファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。
 ステップS709の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置700は、本技術の方法6を適用し、ファイルコンテナを用いてハプティクスメディアに関する周波数特性情報を供給することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ9>
 また、ファイル生成装置700には、上述した方法6を適用してもよい。例えば、ファイルコンテナを用いて方法2を実現してもよい。その場合の、ファイル生成処理の流れの例を、図109のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS721乃至ステップS726の各処理が、ステップS701乃至ステップS706の各処理(図108)と同様に実行される。
 ステップS727において、ISOBMFFファイル生成部715は、ステップS702において抽出された情報に基づく等して、ハプティクスメディアに関する信号立ち上がり特性情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。
 ステップS728およびステップS729の各処理は、ステップS708およびステップS709の各処理(図108)と同様に実行される。
 ステップS729の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置700は、本技術の方法6を適用し、ファイルコンテナを用いてハプティクスメディアに関する信号立ち上がり特性情報を供給することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ10>
 また、ファイル生成装置700には、上述した方法6を適用してもよい。例えば、ファイルコンテナを用いて方法3を実現してもよい。その場合の、ファイル生成処理の流れの例を、図110のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS741乃至ステップS746の各処理が、ステップS701乃至ステップS706の各処理(図108)と同様に実行される。
 ステップS747において、ISOBMFFファイル生成部715は、ステップS702において抽出された情報に基づく等して、ハプティクスメディアの優先度に関する情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。また、ステップS748において、ISOBMFFファイル生成部715は、ステップS702において抽出された情報に基づく等して、ハプティクスメディアの合成に関する情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。つまり、ISOBMFFファイル生成部715は、ハプティクスメディアに関する選択合成情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。
 ステップS749およびステップS750の各処理は、ステップS708およびステップS709の各処理(図108)と同様に実行される。
 ステップS750の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置700は、本技術の方法6を適用し、ファイルコンテナを用いてハプティクスメディアに関する選択合成情報を供給することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 このように方法6を適用しファイルコンテナを適用する場合においても、本技術の方法1乃至方法4の内の、複数の方法を組み合わせて適用してももちろんよい。
  <クライアント装置3>
 上述した本技術(方法6)は、任意の装置に適用し得る。図111は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示すブロック図である。図111に示されるクライアント装置800は、配信用のファイルコンテナであるISOBMFFファイルに格納された情報に基づいて、3Dデータやその3Dデータに関連付けられたHMデータ等の再生処理を行う再生装置である。例えば、クライアント装置800は、ファイル生成装置700により生成されたISOBMFFファイルを取得し、そのISOBMFFファイルに格納される情報に基づいて、そのISOBMFFファイルに格納される3DデータやHMデータ等を再生する。
 なお、図111においては、処理部やデータの流れ等の主なものを示しており、図111に示されるものが全てとは限らない。つまり、クライアント装置800において、図111においてブロックとして示されていない処理部が存在したり、図111において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図111に示されるようにクライアント装置800は、制御部801およびクライアント処理部802を有する。制御部801は、クライアント処理部802の制御に関する処理を行う。クライアント処理部802は、3DデータやHMデータ等の再生に関する処理を行う。
 クライアント処理部802は、ISOBMFF取得部811、ファイル処理部812、復号部813、出力制御部814、および出力部815を有する。
 ISOBMFF取得部811は、クライアント装置800の外部からISOBMFFファイルを取得する。ISOBMFF取得部811は、そのISOBMFFファイルに格納される3Dファイルを抽出し、ファイル処理部812の3Dファイル処理部831へ供給する。また、ISOBMFF取得部811は、そのISOBMFFファイルに格納されるHMファイルを抽出し、ファイル処理部812のHMファイル処理部832へ供給する。また、ISOBMFF取得部811は、そのISOBMFFファイルに格納される代替メディアファイルを抽出し、ファイル処理部812のHMファイル処理部832へ供給してもよい。また、ISOBMFF取得部811は、そのISOBMFFファイルに格納される3Dデータに関する情報を出力制御部814の3D出力制御部851へ供給する。また、ISOBMFF取得部811は、そのISOBMFFファイルに格納されるHMデータに関する情報を出力制御部814のHM出力制御部852へ供給する。また、ISOBMFF取得部811は、そのISOBMFFファイルに格納される代替メディアデータに関する情報を出力制御部814のHM出力制御部852へ供給してもよい。
 ファイル処理部812は、クライアント装置400のファイル処理部412と同様の処理部であり、ファイル処理部412と同様の処理を行う。ファイル処理部812は、3Dファイル処理部831、およびHMファイル処理部832を有する。3Dファイル処理部831は、ISOBMFFファイルから抽出された3Dファイルを取得する。3Dファイル処理部831は、その3Dファイルから3Dデータの符号化データを抽出し、復号部813の3D復号部841へ供給する。HMファイル処理部832は、ISOBMFFファイルから抽出されたHMファイルを取得する。HMファイル処理部832は、そのHMファイルからHMデータの符号化データを抽出し、復号部813のHM復号部842へ供給する。また、HMファイル処理部832は、ISOBMFFファイルから抽出された代替メディアファイルを取得してもよい。HMファイル処理部832は、その代替メディアファイルから代替メディアデータの符号化データを抽出し、復号部813のHM復号部842へ供給してもよい。したがって、HMファイル処理部832は、代替メディアファイル処理部とも言える。また、HMファイル処理部832は、任意のメディアのファイルを処理するファイル処理部(またはメディアファイル処理部)とも言える。
 復号部813は、クライアント装置400の復号部413と同様の処理部であり、復号部413と同様の処理を行う。復号部813は、3D復号部841、およびHM復号部842を有する。3D復号部841は、3D復号部442と同様の処理部であり、3D復号部442と同様の処理を行う。HM復号部842は、HM復号部443と同様の処理部であり、HM復号部443と同様の処理を行う。したがって、HM復号部842は、代替メディア復号部とも言える。また、HM復号部842は、任意のメディアの符号化データを復号する復号部(またはメディア復号部)とも言える。
 出力制御部814は、クライアント装置400の出力制御部415と同様の処理部であり、出力制御部415と同様の処理を行う。出力制御部814は、3D出力制御部851およびHM出力制御部852を有する。3D出力制御部851は、3D復号部841から供給される3Dデータを取得する。3D出力制御部851は、ISOBMFF取得部811から供給される3Dデータに関する情報を取得する。3D出力制御部851は、その3Dデータに関する情報に基づいて、3Dデータの出力を制御し、その3Dデータを出力部815の3D出力部861に出力させる。例えば、3D出力制御部851は、3Dデータに関する情報に基づいて、3Dデータを用いてレンダリング等を行い、出力する情報(例えば画像等)を生成し、出力部815の3D出力部861に供給する。HM出力制御部852は、HM復号部842から供給されるHMデータを取得する。HM出力制御部852は、ISOBMFF取得部811から供給されるHMデータに関する情報を取得する。HM出力制御部852は、そのHMデータに関する情報に基づいて、HMデータの出力を制御し、そのHMデータを出力部815のHM出力部862に出力させる。例えば、HM出力制御部852は、HMデータに関する情報に基づいて、HMデータの信号変換やレンダリング等を行い、出力する情報(例えば振動情報等)を生成し、出力部815のHM出力部862へ供給する。また、HM出力制御部852は、HM復号部842から供給される代替メディアデータを取得してもよい。HM出力制御部852は、ISOBMFF取得部811から供給される代替メディアデータに関する情報を取得してもよい。HM出力制御部852は、その代替メディアデータに関する情報に基づいて、代替メディアデータの出力を制御し、その代替メディアデータを出力部815のHM出力部862(HM出力部862が有する、代替メディアを出力する出力デバイス)に出力させてもよい。例えば、HM出力制御部852は、代替メディアデータに関する情報に基づいて、代替メディアデータの信号変換やレンダリング等を行い、出力する情報(例えば画像情報や音声情報等)を生成し、出力部815のHM出力部862へ供給してもよい。したがって、HM出力制御部852は、代替メディア出力制御部とも言える。また、HM出力制御部852は、任意のメディアの出力を制御する出力制御部(またはメディア出力制御部)とも言える。
 出力制御部814は、3DデータやHMデータを再生するとも言える。つまり、出力制御部814は、それらのデータを再生する再生部とも言える。3D出力制御部851は、3Dデータを再生するとも言える。つまり、3D出力制御部851は、3Dデータを再生する再生部(または3D再生部)とも言える。HM出力制御部852は、HMデータを再生するとも言える。つまり、HM出力制御部852は、HMデータを再生する再生部(または、HM再生部)とも言える。また、HM出力制御部852は、代替メディアデータを再生するとも言える。つまり、HM出力制御部852は、代替メディアデータを再生する再生部(または、代替メディア再生部)とも言える。また、HM出力制御部852は、任意のメディアのデータを再生するとも言える。つまり、HM出力制御部852は、任意のメディアのデータを再生する再生部(または、メディア再生部)とも言える。
 出力部815は、クライアント装置400の出力部416と同様の処理部であり、出力部416と同様の処理を行う。出力部815は、3D出力部861およびHM出力部862を有する。3D出力部861は、3D出力部462と同様の処理部であり、3D出力部462と同様の処理を行う。HM出力部862は、HM出力部463と同様の処理部であり、HM出力部463と同様の処理を行う。したがって、HM出力部862は、代替メディア出力部とも言える。つまり、HM出力部862は、任意のメディアを出力する出力部(またはメディア出力部)とも言える。
 以上のような構成のクライアント装置800において、上述した第1の情報処理装置とし、<3.ハプティクスメディアの再生制御のための拡張>において上述した本技術を適用してもよい。例えば、上述した方法6を、このクライアント装置800に適用してもよい。
 このようにすることにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <再生処理の流れ3>
 このクライアント装置800が実行する再生処理の流れの例を図112のフローチャートを参照して説明する。
 再生処理が開始されると、ISOBMFF取得部811は、ステップS801において、ISOBMFFファイルを取得する。ISOBMFF取得部811は、そのISOBMFFファイルから3DファイルやHMファイル等を抽出する。また、ISOBMFF取得部811は、そのISOBMFFファイルに格納される3Dファイルに関する情報やHMファイルに関する情報等を抽出する。
 ステップS802において、3Dファイル処理部831乃至3D出力部861は、ISOBMFFファイルから抽出された3Dデータに関する情報等に基づいて3Dオブジェクトコンテンツ再生処理を開始する。この処理は、図93のフローチャートを参照して説明した場合と同様の流れで実行される。
 ステップS803において、HMファイル処理部832乃至HM出力部862は、ISOBMFFファイルから抽出されたHMデータに関する情報等に基づいてハプティクスメディア再生処理を開始する。
 ステップS803の処理が終了すると、再生処理が終了する。
  <ハプティクスメディア再生処理の流れ8>
 次に、図112のステップS803において実行されるハプティクスメディア再生処理の流れについて説明する。上述したように、クライアント装置800には、上述した方法6を適用してもよい。例えば、ファイルコンテナ(例えばサンプルエントリ)を用いて供給されたハプティクスメディアに関する周波数特性情報に基づいて、ハプティクスメディアの出力を制御してもよい。その場合の、ハプティクスメディア再生処理の流れの例を、図113のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、ステップS841において、制御部801は、ISOBMFFファイルに格納されたハプティクスメディアに関する周波数特性情報に基づいて、再生するハプティクスメディアを出力可能な端末ハプティクスデバイス(HM出力部862が有するハプティクスデバイス)が存在するか否かを判定する。存在すると判定された場合、処理はステップS842へ進む。
 ステップS842において、HMファイル処理部832は、そのハプティクスメディアに関する周波数特性情報に基づいて、ISOBMFFファイルから抽出された、端末ハプティクスデバイスの周波数特性に最適なHMファイルを取得する。例えば、「デバイスの中心周波数が70Hzなので、中心周波数が最適となるhaptics3.mp4を取得する」、「デバイスの中心周波数が50Hzで、その周波数でのデバイス加速度が5GPPなので、両数値が最適となるhaptics1.mp4を取得する」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が2GPPなので、両数値が最適となるhaptics2.mp4を取得する」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が1GPPなので、最適なファイルがないため、取得再生しない」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が1GPPなので、最適なファイルはないが、haptics2.mp4を取得し、信号を調整して再生する」等のように、ハプティクスメディアに関する周波数特性情報に基づいてHMファイルの取得が制御される。
 ステップS843において、HM出力制御部852は、ハプティクスメディアの再生条件(ハプティクス再生条件とも称する)を満たすか否かを判定する。その条件を満たすと判定された場合、つまり、ハプティクスメディアを再生する状態にあると判定された場合、処理はステップS844へ進む。
 ステップS844において、HMファイル処理部832は、そのHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部842は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。
 ステップS845において、HM出力制御部852は、そのハプティクスメディア(HMデータ)を端末ハプティクスデバイスの周波数特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部862の端末ハプティクスデバイスに出力させる。
 ステップS845の処理が終了すると処理はステップS846へ進む。なお、ステップS841において、再生するハプティクスメディアを出力可能な端末ハプティクスデバイスが存在しないと判定された場合、処理はステップS846へ進む。また、ステップS843において、ハプティクス再生条件を満たさないと判定された場合、つまり、ハプティクスメディアを再生する状態にないと判定された場合、処理はステップS846へ進む。
 ステップS846において、制御部801は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS841へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置800は、本技術の方法6を適用し、ファイルコンテナを用いて供給されたハプティクスメディアに関する周波数特性情報に基づいて、ハプティクスメディア等の出力を制御することができる。したがって、クライアント装置800は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディア再生処理の流れ9>
 また、クライアント装置800には、上述した方法6を適用してもよい。例えば、ファイルコンテナを用いて供給されたハプティクスメディアに関する信号立ち上がり特性情報に基づいて、ハプティクスメディアの出力を制御してもよい。その場合の、インタラクティブメディア再生処理の流れの例を、図114のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、ステップS861において、制御部801は、ISOBMFFファイルに格納されたハプティクスメディアに関する信号立ち上がり特性情報に基づいて、再生するハプティクスメディアを出力可能な端末ハプティクスデバイス(HM出力部862が有するハプティクスデバイス)が存在するか否かを判定する。存在すると判定された場合、処理はステップS862へ進む。
 ステップS862において、HMファイル処理部832は、そのハプティクスメディアに関する信号立ち上がり特性情報に基づいて、端末ハプティクスデバイスの信号立ち上がり特性に最適なHMファイルを取得する。例えば、「デバイスの中心周波数が70Hzで、2.4GPP(3GPPx80%)に到達する時間が40msなので、最適となるhaptics3.mp4を取得する」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が40msなので、最適となるhaptics2.mp4を取得する」、「デバイスの中心周波数が50Hzで、4.0GPP(5GPPx80%)に到達する時間が50msなので、最適となるhaptics1.mp4を取得する」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が80msなので、最適となるファイルがないため、再生しない」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が80msなので、最適となるファイルがないが、haptics2.mp4を取得し、50msで立ち上がるように信号を調整する」等のように、ハプティクスメディアに関する信号立ち上がり特性情報に基づいてHMファイルの取得が制御される。
 なお、ステップS861において、再生するハプティクスメディアを出力可能な端末ハプティクスデバイスが存在しないと判定された場合、処理はステップS866へ進む。ステップS863乃至ステップS866の各処理は、ステップS843乃至ステップS846の各処理(図113)と同様に実行される。ただし、ステップS865において、ハプティクスメディア(HMデータ)は、端末ハプティクスデバイスの信号立ち上がり特性に合わせて変換されてレンダリングされる。ステップS866において、ハプティクスメディア再生処理を終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置800は、本技術の方法6を適用し、ファイルコンテナを用いて供給されたハプティクスメディアに関する信号立ち上がり特性情報に基づいて、ハプティクスメディアの出力を制御することができる。したがって、クライアント装置800は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディア再生処理の流れ10>
 また、クライアント装置800には、上述した方法6を適用してもよい。例えば、ファイルコンテナを用いて供給されたハプティクスメディアに関する選択合成情報に基づいて、ハプティクスメディアの出力を制御してもよい。その場合の、インタラクティブメディア再生処理の流れの例を、図115のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、HMファイル処理部832は、ステップS881において、ISOBMFFファイルに格納されたハプティクスメディアの優先度に関する情報に基づいて、再生するハプティクスメディアを選択し、ISOBMFFファイルから抽出された、そのハプティクスメディアを格納するHMファイルを取得する。
 ステップS882において、HM出力制御部852は、ハプティクス再生条件を満たすか否かを判定する。満たすと判定された場合、処理はステップS883へ進む。
 ステップS883において、HMファイル処理部832は、ステップS881において取得されたHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部842は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。
 ステップS884において、HM出力制御部852は、ハプティクスメディアを合成するか否かを判定する。複数のハプティクスメディアを同時に再生するために、その複数のハプティクスメディアを合成すると判定された場合、処理はステップS885へ進む。
 ステップS885において、HM出力制御部852は、ISOBMFFファイルに格納されたハプティクスメディアの合成に関する情報に基づいて、必要に応じて信号調整して、ハプティクスメディアを合成する。例えば、「加速度情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動の方がファイル2の振動よりもレベルが大きいため、ユーザがファイル2の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」、「レベル情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動のレベルよりもファイル2の振動のレベルの方が大きく、ファイル2の振動のピークレベルが0dBを超えているため、ユーザがファイル1の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」、「レベル情報と歪み情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動のレベルよりもファイル2の振動のレベルの方が大きいため、歪許容範囲内でユーザがファイル1の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」等のように、ハプティクスメディアに関する選択合成情報に基づいてHMファイルやHMデータに対する処理(取得や合成等)が制御される。
 ステップS885の処理が終了すると処理はステップS886へ進む。また、ステップS884において、合成しないと判定された場合、処理はステップS886へ進む。
 ステップS886において、HM出力制御部852は、そのハプティクスメディア(HMデータ)を端末ハプティクスデバイスの特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部862の端末ハプティクスデバイスに出力させる。
 ステップS886の処理が終了すると処理はステップS887へ進む。また、ステップS882において、ハプティクス再生条件を満たさないと判定された場合、処理はステップS887へ進む。
 ステップS887において、制御部801は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS881へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置800は、本技術の方法6を適用し、ファイルコンテナを用いて供給されたハプティクスメディアに関する選択合成情報に基づいて、ハプティクスメディアの出力を制御することができる。したがって、クライアント装置800は、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 このように方法6を適用しファイルコンテナを適用する場合においても、本技術の方法1乃至方法4の内の、複数の方法を組み合わせて適用してももちろんよい。
 <7.第4の実施の形態>
  <ファイル生成装置4>
 図116は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示すブロック図である。図116に示されるファイル生成装置1100は、ファイル生成装置300の場合と同様に、ハプティクスメディアが関連付けられた3Dオブジェクトコンテンツ(例えばポイントクラウド等の3Dデータ)を符号化する装置である。また、ファイル生成装置1100は、その3DオブジェクトコンテンツのMPDを生成する。また、ファイル生成装置1100は、その3Dオブジェクトコンテンツを配信用のファイルコンテナであるISOBMFFファイルに格納する。
 なお、図116においては、処理部やデータの流れ等の主なものを示しており、図116に示されるものが全てとは限らない。つまり、ファイル生成装置1100において、図116においてブロックとして示されていない処理部が存在したり、図116において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図116に示されるようにファイル生成装置1100は、基本的にファイル生成装置300と同様の構成を有する。ファイル生成装置1100は、制御部1101およびファイル生成処理部1102を有する。制御部1101は、ファイル生成処理部1102を制御する。ファイル生成処理部1102は、制御部1101により制御されて、ファイルの生成に関する処理を行う。
 ファイル生成処理部1102は、入力部1111、前処理部1112、符号化部1113、およびファイル生成部1114を有する。また、ファイル生成処理部1102は、MPD記憶部1115、およびMPD出力部1116を有する。また、ファイル生成処理部1102は、ISOBMFFファイル生成部1117、ISOBMFF記憶部1118、およびISOBMFF出力部1119を有する。
 入力部1111は、ファイル生成装置500の入力部511と同様の処理部であり、入力部511と同様の処理を行う。したがって、入力部1111は、取得部とも言える。入力部1111は、MPD入力部1121、3D入力部1122、およびHM入力部1123を有する。MPD入力部1121は、ファイル生成装置1100に供給される、MPDの生成に用いられるデータを取得する。MPD入力部1121は、その取得したデータを用いてMPDを生成する。したがって、MPD入力部1121は、MPDを生成する生成部(またはMPD生成部)とも言える。なお、MPDがファイル生成装置1100の外部から供給されてもよい。その場合、MPD入力部1121は、そのMPDを取得し、MPDの生成処理をスキップ(省略)すればよい。したがって、MPD入力部1121は、MPDを生成するためのデータまたはMPDを取得する取得部(またはMPD取得部)とも言える。MPD入力部1121は、取得または生成したMPDを前処理部1112のMPD前処理部1131へ供給する。3D入力部1122は、3D入力部721と同様の処理部であり、3D入力部721と同様の処理を行う。したがって、3D入力部1122は、3Dデータを取得する取得部(または3D取得部)とも言える。HM入力部1123は、HM入力部722と同様の処理部であり、HM入力部722と同様の処理を行う。したがって、HM入力部1123は、代替メディア入力部とも言える。また、HM入力部1123は、HMデータを取得する取得部(またはHM取得部)とも言える。また、HM入力部1123は、代替メディアデータを取得する取得部(または代替メディア取得部)とも言える。
 前処理部1112は、ファイル生成装置500の前処理部512と同様の処理部であり、前処理部512と同様の処理を行う。前処理部1112は、MPD前処理部1131、3D前処理部1132、およびHM前処理部1133を有する。MPD前処理部1131は、例えば、MPD入力部1121から供給されたMPDから、そのMPDを格納するMPDファイルの生成に必要な情報を取得し、ファイル生成部1114のMPDファイル生成部1151へ供給する。また、MPD前処理部1131は、3D前処理部1132から供給される3Dデータに関する情報や、HM前処理部1133から供給されるHMデータに関する情報や代替メディアデータに関する情報を、MPDに格納してもよい。その際、MPD前処理部1131は、供給された情報に基づいて新たな情報を生成し、MPDに格納してもよい。また、MPD前処理部1131は、MPDを符号化部1113のMPD符号化部1141へ供給する。3D前処理部1132は、3D前処理部731と同様の処理部であり、3D前処理部731と同様の処理を行う。HM前処理部1133は、HM前処理部732と同様の処理部であり、HM前処理部732と同様の処理を行う。したがって、HM前処理部1133は、代替メディア前処理部とも言える。また、HM前処理部1133は、任意のメディアのデータを処理する前処理部(またはメディア前処理部)とも言える。
 符号化部1113は、ファイル生成装置500の符号化部513と同様の処理部であり、符号化部513と同様の処理を行う。符号化部1113は、MPD符号化部1141、3D符号化部1142、およびHM符号化部1143を有する。MPD符号化部1141は、MPD前処理部1131から供給されるMPDを符号化し、その符号化データをファイル生成部1114のMPDファイル生成部1151へ供給する。3D符号化部1142は、3D符号化部741と同様の処理部であり、3D符号化部741と同様の処理を行う。HM符号化部1143は、HM符号化部742と同様の処理部であり、HM符号化部742と同様の処理を行う。したがって、HM符号化部1143は、代替メディア符号化部とも言える。また、HM符号化部1143は、任意のメディアのデータを符号化する符号化部(またはメディア符号化部)とも言える。
 ファイル生成部1114は、ファイル生成装置500のファイル生成部514と同様の処理部であり、ファイル生成部514と同様の処理を行う。ファイル生成部1114は、MPDファイル生成部1151、3Dファイル生成部1152、およびHMファイル生成部1153を有する。MPDファイル生成部1151は、MPD前処理部1131やMPD符号化部1141から供給された情報に基づいて、MPDを格納するMPDファイルを生成する。MPDファイル生成部1151は、そのMPDファイルをMPD記憶部1115へ供給する。3Dファイル生成部1152は、3Dファイル生成部751と同様の処理部であり、3Dファイル生成部751と同様の処理を行う。3Dファイル生成部1152は、生成した3DファイルをISOBMFFファイル生成部1117へ供給する。HMファイル生成部1153は、HMファイル生成部752と同様の処理部であり、HMファイル生成部752と同様の処理を行う。したがって、HMファイル生成部1153は、代替メディアファイル生成部とも言える。また、HMファイル生成部1153は、任意のメディアの符号化データを格納するファイルを生成するファイル生成部(またはメディアファイル生成部)とも言える。HMファイル生成部1153は、生成したHMファイルや代替メディアファイルをISOBMFFファイル生成部1117へ供給する。
 ISOBMFFファイル生成部1117は、ISOBMFFファイルを生成し、そこに3Dファイル、HMファイル、代替メディアファイル等を格納する。また、ISOBMFFファイル生成部1117は、3D前処理部1132やHM前処理部1133等から供給された情報も、そのISOBMFFファイルに格納する。ISOBMFFファイル生成部1117は、生成したISOBMFFファイルをISOBMFF記憶部1118へ供給する。
 ISOBMFF記憶部1118は、そのISOBMFFファイルを取得し、記憶する。また、ISOBMFF記憶部1118は、ISOBMFF出力部1119等からの要求に応じて、または、所定のタイミングにおいて、そのISOBMFFファイルをISOBMFF出力部1119へ供給する。
 ISOBMFF出力部1119は、ISOBMFF記憶部1118から読み出されたISOBMFFファイルを取得し、ファイル生成装置1100の外部に出力する。つまり、ISOBMFF出力部1119は、ISOBMFFファイルを他の装置に供給する供給部とも言える。
 以上のような構成のファイル生成装置1100において、上述した第2の情報処理装置とし、<3.ハプティクスメディアの再生制御のための拡張>において上述した本技術を適用してもよい。
 例えば、図73乃至図75を参照して上述した方法を、このファイル生成装置1100に適用してもよい。つまり、デコーダが、DASHのMPDからInitialization Segmentを取得することで、ハプティクストラック(Haptics Track)のtrack情報を取得してもよい。その際、各ハプティクスデータの情報は、図73の例のように、MPDの1つのアダプテーションセット内の互いに異なるリプレゼンテーションに格納されてもよい。また、図74の例のように、各ハプティクスデータの情報が、MPDの互いに異なるアダプテーションセットに格納されてもよい。また、図75の例のように、プリセレクション(Preselection)によりアダプテーションセットが1つ選択されるようにしてもよい。
 また、図79乃至図81を参照して上述した方法を、このファイル生成装置1100に適用してもよい。つまり、デコーダが、DASHのMPDからInitialization Segmentを取得することで、ハプティクストラック(Haptics Track)のtrack情報を取得してもよい。その際、各ハプティクスデータの情報は、図79の例のように、MPDの1つのアダプテーションセット内の互いに異なるリプレゼンテーションに格納されてもよい。また、図80の例のように、各ハプティクスデータの情報が、MPDの互いに異なるアダプテーションセットに格納されてもよい。また、図81の例のように、プリセレクション(Preselection)によりアダプテーションセットが1つ選択されるようにしてもよい。
 また、図85を参照して上述した方法を、このファイル生成装置1100に適用してもよい。つまり、デコーダが、DASHのMPDからInitialization Segmentを取得することで、ハプティクストラック(Haptics Track)のtrack情報を取得してもよい。
 このようにすることにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ11>
 次に、このファイル生成装置1100が実行するファイル生成処理の流れについて説明する。上述したように、ファイル生成装置1100には、図73乃至図75を参照して上述した方法を適用してもよい。例えば、ファイルコンテナを用いて方法1を実現し、さらに、MPDを用いてハプティクスメディアを格納するトラックが選択されるようにしてもよい。その場合の、ファイル生成処理の流れの例を、図117のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS1101において、MPD入力部1121は、MPDを取得する。なお、MPD入力部1121は、MPDを生成するためのデータを取得し、そのデータを用いてMPDを生成してもよい。3D入力部1122は、3Dオブジェクトコンテンツ(3Dデータ)を取得する。HM入力部1123は、ハプティクスメディア(HMデータ)を取得する。
 ステップS1102において、MPD前処理部1131は、MPDに対して前処理を行い、MPDから、MPDファイルの生成に必要な情報を抽出する。3D前処理部1132は、3Dデータに対して前処理を行い、3Dデータから3Dファイルの生成に必要な情報を抽出する。また、3D前処理部1132は、3DデータからISOBMFFファイルの生成に必要な情報を抽出する。HM前処理部1133は、HMデータに対して前処理を行い、HMデータから、HMファイルの生成に必要な情報を抽出する。また、HM前処理部1133は、HMデータからISOBMFFファイルの生成に必要な情報を抽出する。
 ステップS1103において、3D前処理部1132は、3Dデータに関する情報を生成する。また、HM前処理部1133は、HMデータに関する情報を生成する。MPD前処理部1131は、それらの情報等に基づいて、ハプティクスメディア(HMデータ)に関する記述を生成し、MPDに格納する。例えば、MPD前処理部1131は、このハプティクスメディア(HMデータ)に関する記述として、図73の例の記述をMPDに格納してもよい。また、MPD前処理部1131は、このハプティクスメディア(HMデータ)に関する記述として、図74の例の記述をMPDに格納してもよい。また、MPD前処理部1131は、このハプティクスメディア(HMデータ)に関する記述として、図75の例の記述をMPDに格納してもよい。
 ステップS1104において、MPD符号化部1141は、MPDを符号化し、MPDの符号化データを生成する。3D符号化部1142は、3Dオブジェクトコンテンツ(3Dデータ)を符号化し、3Dデータの符号化データを生成する。HM符号化部1143は、ハプティクスメディア(HMデータ)を符号化し、HMデータの符号化データを生成する。
 ステップS1105において、MPDファイル生成部1151は、MPDの符号化データを格納するMPDファイルを生成する。3Dファイル生成部1152は、3Dデータの符号化データを格納する3Dファイルを生成する。HMファイル生成部1153は、HMデータの符号化データを格納するHMファイルを生成する。
 ステップS1106において、ISOBMFFファイル生成部1117は、3DファイルとHMファイルを格納するISOBMFFファイルを生成する。
 ステップS1107において、ISOBMFFファイル生成部1117は、ステップS1102において抽出された情報に基づく等して、3Dオブジェクトコンテンツとハプティクスメディアとの関連性の記述をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。
 ステップS1108において、ISOBMFFファイル生成部1117は、ステップS1102において抽出された情報に基づく等して、ハプティクスメディアに関する周波数特性情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。
 ステップS1109において、MPD記憶部1115は、ステップS1105において生成されたMPDファイルを記憶する。また、ISOBMFF記憶部1118は、ステップS1106において生成され、ステップS1107およびステップS1108において情報が格納されたISOBMFFファイルを記憶する。
 ステップS1110において、MPD出力部1116は、そのMPDを出力し、他の装置(例えば、クライアント装置)へ供給する。例えば、MPD出力部1116は、図73の例のようなハプティクスメディア(HMデータ)に関する記述が存在するMPDを供給してもよい。また、MPD出力部1116は、図74の例のようなハプティクスメディア(HMデータ)に関する記述が存在するMPDを供給してもよい。また、MPD出力部1116は、図75の例のようなハプティクスメディア(HMデータ)に関する記述が存在するMPDを供給してもよい。また、ISOBMFF出力部1119は、そのISOBMFFファイルを出力し、他の装置(例えば、クライアント装置)へ供給する。
 ステップS1110の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置1100は、本技術を適用し、ファイルコンテナを用いてハプティクスメディアに関する周波数特性情報を供給することができる。また、そのファイルコンテナのハプティクスメディアを格納するトラックを、MPDを用いて選択することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ12>
 また、ファイル生成装置1100には、図79乃至図81を参照して上述した方法を適用してもよい。例えば、ファイルコンテナを用いて方法2を実現し、さらに、MPDを用いてハプティクスメディアを格納するトラックが選択されるようにしてもよい。その場合の、ファイル生成処理の流れの例を、図118のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS1121乃至ステップS1127の各処理が、ステップS1101乃至ステップS1107の各処理(図117)と同様に実行される。例えば、ステップS1123において、MPD前処理部1131は、ハプティクスメディア(HMデータ)に関する記述として、図79の例の記述をMPDに格納してもよい。また、MPD前処理部1131は、このハプティクスメディア(HMデータ)に関する記述として、図80の例の記述をMPDに格納してもよい。また、MPD前処理部1131は、このハプティクスメディア(HMデータ)に関する記述として、図81の例の記述をMPDに格納してもよい。
 ステップS1128において、ISOBMFFファイル生成部1117は、ステップS1102において抽出された情報に基づく等して、ハプティクスメディアに関する信号立ち上がり特性情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。
 ステップS1129およびステップS1130の各処理は、ステップS1109およびステップS1110の各処理(図117)と同様に実行される。例えば、ステップS1130において、MPD出力部1116は、図79の例のようなハプティクスメディア(HMデータ)に関する記述が存在するMPDを供給してもよい。また、MPD出力部1116は、図80の例のようなハプティクスメディア(HMデータ)に関する記述が存在するMPDを供給してもよい。また、MPD出力部1116は、図81の例のようなハプティクスメディア(HMデータ)に関する記述が存在するMPDを供給してもよい。
 ステップS1130の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置1100は、本技術を適用し、ファイルコンテナを用いてハプティクスメディアに関する信号立ち上がり特性情報を供給することができる。また、そのファイルコンテナのハプティクスメディアを格納するトラックを、MPDを用いて選択することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ファイル生成処理の流れ13>
 また、ファイル生成装置1100には、図85を参照して上述した方法を適用してもよい。例えば、ファイルコンテナを用いて方法3を実現し、さらに、MPDを用いてハプティクスメディアを格納するトラックが選択されるようにしてもよい。その場合の、ファイル生成処理の流れの例を、図119のフローチャートを参照して説明する。
 ファイル生成処理が開始されると、ステップS1141乃至ステップS1147の各処理が、ステップS1101乃至ステップS1107の各処理(図117)と同様に実行される。例えば、ステップS1143において、MPD前処理部1131は、ハプティクスメディア(HMデータ)に関する記述として、図85の例の記述をMPDに格納してもよい。
 ステップS1148において、ISOBMFFファイル生成部1117は、ステップS1142において抽出された情報に基づく等して、ハプティクスメディアの優先度に関する情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。また、ステップS1149において、ISOBMFFファイル生成部1117は、ステップS1142において抽出された情報に基づく等して、ハプティクスメディアの合成に関する情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。つまり、ISOBMFFファイル生成部1117は、ハプティクスメディアに関する選択合成情報をISOBMFFファイル(例えば、サンプルエントリ等)に格納する。
 ステップS1150およびステップS1151の各処理は、ステップS1109およびステップS1110の各処理(図117)と同様に実行される。例えば、ステップS1151において、MPD出力部1116は、図85の例のようなハプティクスメディア(HMデータ)に関する記述が存在するMPDを供給してもよい。
 ステップS1151の処理が終了すると、ファイル生成処理が終了する。
 このように各処理を実行することにより、ファイル生成装置1100は、本技術を適用し、ファイルコンテナを用いてハプティクスメディアに関する選択合成情報を供給することができる。また、そのファイルコンテナのハプティクスメディアを格納するトラックを、MPDを用いて選択することができる。したがって、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 このようにMPDからファイルコンテナのハプティクスメディアのトラックを選択する場合においても、本技術の方法1乃至方法4の内の、複数の方法を組み合わせて適用してももちろんよい。
  <クライアント装置4>
 図120は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示すブロック図である。図120に示されるクライアント装置1200は、配信用のファイルコンテナであるISOBMFFファイルに格納された3Dデータやその3Dデータに関連付けられたHMデータ等の再生処理を行う再生装置である。クライアント装置1200は、MPDに基づいて、ファイルコンテナのハプティクスメディアのトラックにアクセスする。また、クライアント装置1200は、ISOBMFFファイルに格納された情報に基づいて、3Dデータやその3Dデータに関連付けられたHMデータ等の再生処理を行う。例えば、クライアント装置1200は、ファイル生成装置1100により生成されたMPDファイルやISOBMFFファイルを取得し、そのISOBMFFファイルに格納される3DデータやHMデータ等を再生する。
 なお、図120においては、処理部やデータの流れ等の主なものを示しており、図120に示されるものが全てとは限らない。つまり、クライアント装置1200において、図120においてブロックとして示されていない処理部が存在したり、図120において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図120に示されるようにクライアント装置1200は、制御部1201およびクライアント処理部1202を有する。制御部1201は、クライアント処理部1202の制御に関する処理を行う。クライアント処理部1202は、3DデータやHMデータ等の再生に関する処理を行う。
 クライアント処理部1202は、取得部1211、ファイル処理部1212、復号部1213、MPD解析部1214、出力制御部1215、および出力部1216を有する。
 取得部1211は、クライアント装置600の取得部611と同様の処理部であり、取得部611と同様の処理を行う。取得部1211は、MPD取得部1221およびISOBMFF取得部1222を有する。MPD取得部1221は、クライアント装置1200の外部から供給されるMPDファイルを取得し、ファイル処理部1212のMPDファイル処理部1231へ供給する。ISOBMFF取得部1222は、クライアント装置1200の外部からISOBMFFファイルを取得する。ISOBMFF取得部1222は、そのISOBMFFファイルに格納される3Dファイルを抽出し、ファイル処理部1212の3Dファイル処理部1232へ供給する。また、ISOBMFF取得部1222は、そのISOBMFFファイルに格納されるHMファイルを抽出し、ファイル処理部1212のHMファイル処理部1233へ供給する。また、ISOBMFF取得部1222は、そのISOBMFFファイルに格納される代替メディアファイルを抽出し、ファイル処理部1212のHMファイル処理部1233へ供給してもよい。また、ISOBMFF取得部1222は、そのISOBMFFファイルに格納される3Dデータに関する情報を出力制御部1215の3D出力制御部1252へ供給する。また、ISOBMFF取得部1222は、そのISOBMFFファイルに格納されるHMデータに関する情報を出力制御部1215のHM出力制御部1253へ供給する。また、ISOBMFF取得部1222は、そのISOBMFFファイルに格納される代替メディアデータに関する情報を出力制御部1215のHM出力制御部1253へ供給してもよい。
 ファイル処理部1212は、クライアント装置600のファイル処理部612と同様の処理部であり、ファイル処理部612と同様の処理を行う。ファイル処理部1212は、MPDファイル処理部1231、3Dファイル処理部1232、およびHMファイル処理部1233を有する。MPDファイル処理部1231は、MPD取得部1221から供給されたMPDファイルを取得し、そのMPDファイルからMPDの符号化データを抽出し、復号部1213のMPD復号部1241へ供給する。3Dファイル処理部1232は、ISOBMFFファイルから抽出された3Dファイルを取得する。3Dファイル処理部1232は、その3Dファイルから3Dデータの符号化データを抽出し、復号部1213の3D復号部1242へ供給する。HMファイル処理部1233は、ISOBMFFファイルから抽出されたHMファイルを取得する。HMファイル処理部1233は、そのHMファイルからHMデータの符号化データを抽出し、復号部1213のHM復号部1243へ供給する。また、HMファイル処理部1233は、ISOBMFFファイルから抽出された代替メディアファイルを取得してもよい。HMファイル処理部1233は、その代替メディアファイルから代替メディアデータの符号化データを抽出し、復号部1213のHM復号部1243へ供給してもよい。したがって、HMファイル処理部1233は、代替メディアファイル処理部とも言える。また、HMファイル処理部1233は、任意のメディアのファイルを処理するファイル処理部(またはメディアファイル処理部)とも言える。
 復号部1213は、クライアント装置600の復号部613と同様の処理部であり、復号部613と同様の処理を行う。復号部1213は、MPD復号部1241、3D復号部1242、およびHM復号部1243を有する。MPD復号部1241は、MPDファイル処理部1231から供給されたMPDの符号化データを復号し、MPDを生成(復元)し、MPD解析部1214へ供給する。3D復号部1242は、3D復号部642と同様の処理部であり、3D復号部642と同様の処理を行う。HM復号部1243は、HM復号部643と同様の処理部であり、HM復号部643と同様の処理を行う。したがって、HM復号部1243は、代替メディア復号部とも言える。また、HM復号部1243は、任意のメディアの符号化データを復号する復号部(またはメディア復号部)とも言える。
 MPD解析部1214は、MPDの解析に関する処理を行う。例えば、MPD解析部1214は、MPD復号部1241から供給されるMPDを取得し、そのMPDを解析する。また、MPD解析部1214は、その解析結果、または、その解析結果に基づいて導出したり、取得したりした情報を、取得部1211や出力制御部1215へ供給し、情報の取得やコンテンツの再生を制御する。つまり、取得部1211(ISOBMFF取得部1222)や、出力制御部1215(3D出力制御部1252およびHM出力制御部1253)は、そのMPD解析部1214の制御に従って、処理を実行する。したがって、MPD解析部1214は、制御部(または、取得制御部若しくは再生制御部)とも言える。
 出力制御部1215は、クライアント装置600の出力制御部615と同様の処理部であり、出力制御部615と同様の処理を行う。出力制御部1215は、3D出力制御部1252およびHM出力制御部1253を有する。3D出力制御部1252は、3D復号部1242から供給される3Dデータを取得する。3D出力制御部1252は、ISOBMFF取得部1222から供給される3Dデータに関する情報を取得する。3D出力制御部1252は、その3Dデータに関する情報に基づいて、3Dデータの出力を制御し、その3Dデータを出力部1216の3D出力部1262に出力させる。例えば、3D出力制御部1252は、3Dデータに関する情報に基づいて、3Dデータを用いてレンダリング等を行い、出力する情報(例えば画像等)を生成し、出力部1216の3D出力部1262に供給する。HM出力制御部1253は、HM復号部1243から供給されるHMデータを取得する。HM出力制御部1253は、ISOBMFF取得部1222から供給されるHMデータに関する情報を取得する。HM出力制御部1253は、そのHMデータに関する情報に基づいて、HMデータの出力を制御し、そのHMデータを出力部1216のHM出力部1263に出力させる。例えば、HM出力制御部1253は、HMデータに関する情報に基づいて、HMデータの信号変換やレンダリング等を行い、出力する情報(例えば振動情報等)を生成し、出力部1216のHM出力部1263へ供給する。また、HM出力制御部1253は、HM復号部1243から供給される代替メディアデータを取得してもよい。HM出力制御部1253は、ISOBMFF取得部1222から供給される代替メディアデータに関する情報を取得してもよい。HM出力制御部1253は、その代替メディアデータに関する情報に基づいて、代替メディアデータの出力を制御し、その代替メディアデータを出力部1216のHM出力部1263(HM出力部1263が有する、代替メディアを出力する出力デバイス)に出力させてもよい。例えば、HM出力制御部1253は、代替メディアデータに関する情報に基づいて、代替メディアデータの信号変換やレンダリング等を行い、出力する情報(例えば画像情報や音声情報等)を生成し、出力部1216のHM出力部1263へ供給してもよい。したがって、HM出力制御部1253は、代替メディア出力制御部とも言える。また、HM出力制御部1253は、任意のメディアの出力を制御する出力制御部(またはメディア出力制御部)とも言える。
 出力制御部1215は、3DデータやHMデータを再生するとも言える。つまり、出力制御部1215は、それらのデータを再生する再生部とも言える。3D出力制御部1252は、3Dデータを再生するとも言える。つまり、3D出力制御部1252は、3Dデータを再生する再生部(または3D再生部)とも言える。HM出力制御部1253は、HMデータを再生するとも言える。つまり、HM出力制御部1253は、HMデータを再生する再生部(または、HM再生部)とも言える。また、HM出力制御部1253は、代替メディアデータを再生するとも言える。つまり、HM出力制御部1253は、代替メディアデータを再生する再生部(または、代替メディア再生部)とも言える。また、HM出力制御部1253は、任意のメディアのデータを再生するとも言える。つまり、HM出力制御部1253は、任意のメディアのデータを再生する再生部(または、メディア再生部)とも言える。
 出力部1216は、クライアント装置600の出力部616と同様の処理部であり、出力部616と同様の処理を行う。出力部1216は、3D出力部1262およびHM出力部1263を有する。3D出力部1262は、3D出力部662と同様の処理部であり、3D出力部662と同様の処理を行う。HM出力部1263は、HM出力部663と同様の処理部であり、HM出力部663と同様の処理を行う。したがって、HM出力部1263は、代替メディア出力部とも言える。また、HM出力部1263は、任意のメディアを出力する出力部(またはメディア出力部)とも言える。
 以上のような構成のクライアント装置1200において、上述した第1の情報処理装置とし、<3.ハプティクスメディアの再生制御のための拡張>において上述した本技術を適用してもよい。
 例えば、図73乃至図75を参照して上述した方法を、このクライアント装置1200に適用してもよい。つまり、クライアント装置1200が、DASHのMPDからInitialization Segmentを取得することで、ハプティクストラック(Haptics Track)のtrack情報を取得してもよい。その際、各ハプティクスデータの情報は、図73の例のように、MPDの1つのアダプテーションセット内の互いに異なるリプレゼンテーションに格納されてもよい。また、図74の例のように、各ハプティクスデータの情報が、MPDの互いに異なるアダプテーションセットに格納されてもよい。また、図75の例のように、プリセレクション(Preselection)によりアダプテーションセットが1つ選択されるようにしてもよい。
 また、図79乃至図81を参照して上述した方法を、このクライアント装置1200に適用してもよい。つまり、クライアント装置1200が、DASHのMPDからInitialization Segmentを取得することで、ハプティクストラック(Haptics Track)のtrack情報を取得してもよい。その際、各ハプティクスデータの情報は、図79の例のように、MPDの1つのアダプテーションセット内の互いに異なるリプレゼンテーションに格納されてもよい。また、図80の例のように、各ハプティクスデータの情報が、MPDの互いに異なるアダプテーションセットに格納されてもよい。また、図81の例のように、プリセレクション(Preselection)によりアダプテーションセットが1つ選択されるようにしてもよい。
 また、図85を参照して上述した方法を、このクライアント装置1200に適用してもよい。つまり、クライアント装置1200が、DASHのMPDからInitialization Segmentを取得することで、ハプティクストラック(Haptics Track)のtrack情報を取得してもよい。
 このようにすることにより、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <再生処理の流れ4>
 このクライアント装置1200が実行する再生処理の流れの例を図121のフローチャートを参照して説明する。
 再生処理が開始されると、ステップS1201において、MPD取得部1221は、MPDファイルを取得する。ISOBMFF取得部1222は、ISOBMFFファイルを取得する。
 ステップS1202において、MPDファイル処理部1231は、そのMPDファイルに格納されているMPDの符号化データを抽出する。
 ステップS1203において、MPD復号部1241は、抽出したMPDの符号化データを復号し、MPDを生成(復元)する。
 ステップS1204において、MPD解析部1214は、そのMPDを解析する。
 ステップS1205において、ISOBMFF取得部1222、並びに、3Dファイル処理部1232乃至3D出力部1262は、ISOBMFFファイルから抽出された3Dデータに関する情報等に基づいて3Dオブジェクトコンテンツ再生処理を開始する。この処理は、図93のフローチャートを参照して説明した場合と同様の流れで実行される。
 ステップS1206において、ISOBMFF取得部1222、並びに、HMファイル処理部1233乃至HM出力部1263は、MPDや、ISOBMFFファイルから抽出されたHMデータに関する情報等に基づいて、ハプティクスメディア再生処理を開始する。
 ステップS1206の処理が終了すると、再生処理が終了する。
  <ハプティクスメディア再生処理の流れ11>
 次に、図121のステップS1206において実行されるハプティクスメディア再生処理の流れについて説明する。上述したように、クライアント装置1200には、図73乃至図75を参照して上述した方法を適用してもよい。例えば、ファイルコンテナを用いて方法1を実現し、さらに、MPDを用いてハプティクスメディアを格納するトラックが選択されるようにしてもよい。その場合の、ハプティクスメディア再生処理の流れの例を、図122のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、ステップS1241において、ISOBMFF取得部1222は、MPD解析部1214により解析されたMPDの記述に基づいて、ISOBMFFファイルに格納されたハプティクスメディアに関する周波数特性情報を参照する。例えば、MPD解析部1214が、図73の例のようなハプティクスメディア(HMデータ)に関する記述を解析し、ISOBMFF取得部1222が、その記述に基づいて、ハプティクスメディアに関する周波数特性情報を参照してもよい。また、MPD解析部1214が、図74の例のようなハプティクスメディア(HMデータ)に関する記述を解析し、ISOBMFF取得部1222が、その記述に基づいて、ハプティクスメディアに関する周波数特性情報を参照してもよい。また、MPD解析部1214が、図75の例のようなハプティクスメディア(HMデータ)に関する記述を解析し、ISOBMFF取得部1222が、その記述に基づいて、ハプティクスメディアに関する周波数特性情報を参照してもよい。
 ステップS1242において、ISOBMFF取得部1222は、その参照したハプティクスメディアに関する周波数特性情報に基づいて、再生するハプティクスメディアを出力可能な端末ハプティクスデバイス(HM出力部1263が有するハプティクスデバイス)が存在するか否かを判定する。存在すると判定された場合、処理はステップS1243へ進む。
 ステップS1243において、ISOBMFF取得部1222は、そのハプティクスメディアに関する周波数特性情報に基づいて、ISOBMFFファイルから、端末ハプティクスデバイスの周波数特性に最適なHMファイルを抽出する。HMファイル処理部1233は、そのHMファイルを取得する。つまり、HMファイル処理部1233は、参照されたハプティクスメディアに関する周波数特性情報に基づいて、ISOBMFFファイルから抽出された、端末ハプティクスデバイスの周波数特性に最適なHMファイルを取得する。例えば、「デバイスの中心周波数が70Hzなので、中心周波数が最適となるhaptics3.mp4を取得する」、「デバイスの中心周波数が50Hzで、その周波数でのデバイス加速度が5GPPなので、両数値が最適となるhaptics1.mp4を取得する」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が2GPPなので、両数値が最適となるhaptics2.mp4を取得する」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が1GPPなので、最適なファイルがないため、取得再生しない」、「デバイスの中心周波数が40Hzで、その周波数でのデバイス加速度が1GPPなので、最適なファイルはないが、haptics2.mp4を取得し、信号を調整して再生する」等のように、ハプティクスメディアに関する周波数特性情報に基づいてHMファイルの取得が制御される。
 ステップS1244において、HM出力制御部1253は、ハプティクスメディアの再生条件(ハプティクス再生条件とも称する)を満たすか否かを判定する。その条件を満たすと判定された場合、つまり、ハプティクスメディアを再生する状態にあると判定された場合、処理はステップS1245へ進む。
 ステップS1245において、HMファイル処理部1233は、そのHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部1243は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。
 ステップS1246において、HM出力制御部1253は、そのハプティクスメディア(HMデータ)を端末ハプティクスデバイスの周波数特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部1263の端末ハプティクスデバイスに出力させる。
 ステップS1246の処理が終了すると処理はステップS1247へ進む。なお、ステップS1242において、再生するハプティクスメディアを出力可能な端末ハプティクスデバイスが存在しないと判定された場合、処理はステップS1247へ進む。また、ステップS1244において、ハプティクス再生条件を満たさないと判定された場合、つまり、ハプティクスメディアを再生する状態にないと判定された場合、処理はステップS1247へ進む。
 ステップS1247において、制御部1201は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS1241へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置1200は、本技術を適用し、ファイルコンテナを用いて供給されたハプティクスメディアに関する周波数特性情報に基づいて、ハプティクスメディア等の出力を制御することができる。また、そのファイルコンテナのハプティクスメディアを格納するトラックを、MPDを用いて選択することができる。したがって、クライアント装置1200は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディア再生処理の流れ12>
 また、クライアント装置1200には、図79乃至図81を参照して上述した方法を適用してもよい。例えば、ファイルコンテナを用いて方法2を実現し、さらに、MPDを用いてハプティクスメディアを格納するトラックが選択されるようにしてもよい。その場合の、インタラクティブメディア再生処理の流れの例を、図123のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、ステップS1261において、ISOBMFF取得部1222は、MPD解析部1214により解析されたMPDの記述に基づいて、ISOBMFFファイルに格納されたハプティクスメディアに関する信号立ち上がり特性情報を参照する。例えば、MPD解析部1214が、図79の例のようなハプティクスメディア(HMデータ)に関する記述を解析し、ISOBMFF取得部1222が、その記述に基づいて、ハプティクスメディアに関する信号立ち上がり特性情報を参照してもよい。また、MPD解析部1214が、図80の例のようなハプティクスメディア(HMデータ)に関する記述を解析し、ISOBMFF取得部1222が、その記述に基づいて、ハプティクスメディアに関する信号立ち上がり特性情報を参照してもよい。また、MPD解析部1214が、図81の例のようなハプティクスメディア(HMデータ)に関する記述を解析し、ISOBMFF取得部1222が、その記述に基づいて、ハプティクスメディアに関する信号立ち上がり特性情報を参照してもよい。
 ステップS1262において、ISOBMFF取得部1222は、その参照したハプティクスメディアに関する信号立ち上がり特性情報に基づいて、再生するハプティクスメディアを出力可能な端末ハプティクスデバイス(HM出力部1263が有するハプティクスデバイス)が存在するか否かを判定する。存在すると判定された場合、処理はステップS1263へ進む。
 ステップS1263において、ISOBMFF取得部1222は、そのハプティクスメディアに関する信号立ち上がり特性情報に基づいて、ISOBMFFファイルから、端末ハプティクスデバイスの信号立ち上がり特性に最適なHMファイルを抽出する。HMファイル処理部1233は、そのHMファイルを取得する。つまり、HMファイル処理部1233は、参照されたハプティクスメディアに関する信号立ち上がり特性情報に基づいて、ISOBMFFファイルから抽出された、端末ハプティクスデバイスの信号立ち上がり特性に最適なHMファイルを取得する。例えば、「デバイスの中心周波数が70Hzで、2.4GPP(3GPPx80%)に到達する時間が40msなので、最適となるhaptics3.mp4を取得する」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が40msなので、最適となるhaptics2.mp4を取得する」、「デバイスの中心周波数が50Hzで、4.0GPP(5GPPx80%)に到達する時間が50msなので、最適となるhaptics1.mp4を取得する」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が80msなので、最適となるファイルがないため、再生しない」、「デバイスの中心周波数が50Hzで、2.4GPP(3GPPx80%)に到達する時間が80msなので、最適となるファイルがないが、haptics2.mp4を取得し、50msで立ち上がるように信号を調整する」等のように、ハプティクスメディアに関する信号立ち上がり特性情報に基づいてHMファイルの取得が制御される。
 ステップS1264において、HM出力制御部1253は、ハプティクスメディアの再生条件(ハプティクス再生条件とも称する)を満たすか否かを判定する。その条件を満たすと判定された場合、つまり、ハプティクスメディアを再生する状態にあると判定された場合、処理はステップS1265へ進む。
 ステップS1265において、HMファイル処理部1233は、そのHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部1243は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。
 ステップS1266において、HM出力制御部1253は、そのハプティクスメディア(HMデータ)を端末ハプティクスデバイスの信号立ち上がり特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部1263の端末ハプティクスデバイスに出力させる。
 ステップS1266の処理が終了すると処理はステップS1267へ進む。なお、ステップS1262において、再生するハプティクスメディアを出力可能な端末ハプティクスデバイスが存在しないと判定された場合、処理はステップS1267へ進む。また、ステップS1264において、ハプティクス再生条件を満たさないと判定された場合、つまり、ハプティクスメディアを再生する状態にないと判定された場合、処理はステップS1267へ進む。
 ステップS1267において、制御部1201は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS1261へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置1200は、本技術を適用し、ファイルコンテナを用いて供給されたハプティクスメディアに関する信号立ち上がり特性情報に基づいて、ハプティクスメディア等の出力を制御することができる。また、そのファイルコンテナのハプティクスメディアを格納するトラックを、MPDを用いて選択することができる。したがって、クライアント装置1200は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
  <ハプティクスメディア再生処理の流れ13>
 また、クライアント装置1200には、図85を参照して上述した方法を適用してもよい。例えば、ファイルコンテナを用いて方法3を実現し、さらに、MPDを用いてハプティクスメディアを格納するトラックが選択されるようにしてもよい。その場合の、インタラクティブメディア再生処理の流れの例を、図124のフローチャートを参照して説明する。
 ハプティクスメディア再生処理が開始されると、ステップS1281において、ISOBMFF取得部1222は、MPD解析部1214により解析されたMPDの記述に基づいて、ISOBMFFファイルに格納されたハプティクスメディアに関する選択合成情報を参照する。例えば、MPD解析部1214が、図85の例のようなハプティクスメディア(HMデータ)に関する記述を解析し、ISOBMFF取得部1222が、その記述に基づいて、ハプティクスメディアに関する選択合成情報を参照してもよい。
 ステップS1282において、ISOBMFF取得部1222は、その参照したハプティクスメディアに関する選択合成情報に含まれる、ハプティクスメディアの優先度に関する情報に基づいて、再生するハプティクスメディアを選択し、そのハプティクスメディアを格納するHMファイルを抽出する。HMファイル処理部1233は、その抽出したHMファイルを取得する。つまり、HMファイル処理部1233は、そのハプティクスメディアの優先度に関する情報に基づいて、再生するハプティクスメディアを選択し、ISOBMFFファイルから抽出された、そのハプティクスメディアを格納するHMファイルを取得する。
 ステップS1283において、HM出力制御部1253は、ハプティクス再生条件を満たすか否かを判定する。満たすと判定された場合、処理はステップS1284へ進む。
 ステップS1284において、HMファイル処理部1233は、ステップS1282において取得されたHMファイルからハプティクスメディアの符号化データを抽出する。HM復号部1243は、その抽出したハプティクスメディアの符号化データを復号し、ハプティクスメディア(HMデータ)を生成する。
 ステップS1285において、HM出力制御部1253は、ハプティクスメディアを合成するか否かを判定する。複数のハプティクスメディアを同時に再生するために、その複数のハプティクスメディアを合成すると判定された場合、処理はステップS1286へ進む。
 ステップS1286において、HM出力制御部1253は、ステップS1281において参照されたハプティクスメディアに関する選択合成情報に含まれる、ハプティクスメディアの合成に関する情報に基づいて、必要に応じて信号調整して、ハプティクスメディアを合成する。例えば、「加速度情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動の方がファイル2の振動よりもレベルが大きいため、ユーザがファイル2の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」、「レベル情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動のレベルよりもファイル2の振動のレベルの方が大きく、ファイル2の振動のピークレベルが0dBを超えているため、ユーザがファイル1の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」、「レベル情報と歪み情報に基づいてファイル1およびファイル2を取得し、ファイル1の振動のレベルよりもファイル2の振動のレベルの方が大きいため、歪許容範囲内でユーザがファイル1の振動を感じることができるように、ファイル1およびファイル2の信号を相対的に調整する」等のように、ハプティクスメディアに関する選択合成情報に基づいてHMファイルやHMデータに対する処理(取得や合成等)が制御される。
 ステップS1286の処理が終了すると処理はステップS1287へ進む。また、ステップS1285において、合成しないと判定された場合、処理はステップS1287へ進む。
 ステップS1287において、HM出力制御部1253は、そのハプティクスメディア(HMデータ)を端末ハプティクスデバイスの特性に合わせて変換し、変換後のHMデータをレンダリングし、HM出力部862の端末ハプティクスデバイスに出力させる。
 ステップS1287の処理が終了すると処理はステップS1288へ進む。また、ステップS1283において、ハプティクス再生条件を満たさないと判定された場合、処理はステップS1288へ進む。
 ステップS1288において、制御部1201は、ハプティクスメディア再生処理を終了するか否かを判定する。終了しないと判定された場合、処理はステップS1281へ戻る。終了すると判定された場合、ハプティクスメディア再生処理が終了する。
 このように各処理を実行することにより、クライアント装置1200は、本技術を適用し、ファイルコンテナを用いて供給されたハプティクスメディアに関する選択合成情報に基づいて、ハプティクスメディア等の出力を制御することができる。また、そのファイルコンテナのハプティクスメディアを格納するトラックを、MPDを用いて選択することができる。したがって、クライアント装置1200は、コンテンツ制作者の意図により近いハプティクス体験を提供することができる。
 このようにMPDからファイルコンテナのハプティクスメディアのトラックを選択する場合においても、本技術の方法1乃至方法4の内の、複数の方法を組み合わせて適用してももちろんよい。
  <シーンディスクリプションとの組み合わせ>
 <3.ハプティクスメディアの再生制御のための拡張>において上述したように、サンプルエントリのデータ構造を示す情報をシーンディスクリプションに格納してもよい。その場合、ファイル生成装置1100は、MPD入力部1121、MPD前処理部1131、MPD符号化部1141、MPDファイル生成部1151、MPD記憶部1115、およびMPD出力部1116の代わりに、SD入力部321、SD前処理部331、SD符号化部341、SDファイル生成部351、SD記憶部361、およびSD出力部371を有し、サンプルエントリのデータ構造を示す情報を含むシーンディスクリプションを生成し、符号化し、SDファイルに格納し、そのSDファイルを供給すればよい。また、クライアント装置1200は、MPD取得部1221、MPDファイル処理部1231、MPD復号部1241、およびMPD解析部1214の代わりに、SD取得部421、SDファイル処理部431、SD復号部441、およびSD解析部414を有し、SDファイルを取得し、符号化データを抽出して復号し、サンプルエントリのデータ構造を示す情報を含むシーンディスクリプションを生成(復元)して解析し、その情報に基づいてハプティクスメディアの出力を制御すればよい。
  <MPDとの組み合わせ>
 また、<3.ハプティクスメディアの再生制御のための拡張>において上述したように、サンプルエントリのデータ構造を示す情報をMPDに格納してもよい。その場合、ファイル生成装置1100は、サンプルエントリのデータ構造を示す情報を含むMPDを生成し、符号化し、MPDファイルに格納し、そのMPDファイルを供給すればよい。また、クライアント装置1200は、MPDファイルを取得し、符号化データを抽出して復号し、サンプルエントリのデータ構造を示す情報を含むMPDを生成(復元)して解析し、その情報に基づいてハプティクスメディアの出力を制御すればよい。
 <8.付記>
  <組み合わせ>
 上述した本技術の各例(各方法)は、矛盾が生じない限り、他の例(他の方法)と適宜組み合わせて適用してもよい。また、上述した本技術の各例を、上述した以外の他の技術と組み合わせて適用してもよい。
  <コンピュータ>
 上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
 図125は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 図125に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
 バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
 入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
 以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
 コンピュータが実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
 また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
 その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
  <本技術の適用可能な対象>
 本技術は、任意の符号化・復号方式に適用することができる。
 また、本技術は、任意の構成に適用することができる。例えば、本技術は、様々な電子機器に応用され得る。
 また、例えば、本技術は、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、または、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等、装置の一部の構成として実施することもできる。
 また、例えば、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、本技術を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングとして実施するようにしてもよい。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスにおいて本技術を実施するようにしてもよい。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
  <本技術を適用可能な分野・用途>
 本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
 例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。
  <その他>
 なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
 また、符号化データ(ビットストリーム)に関する各種情報(メタデータ等)は、符号化データに関連づけられていれば、どのような形態で伝送または記録されるようにしてもよい。ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の伝送路上で伝送されるようにしてもよい。また、例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。
 なお、本明細書において、「合成する」、「多重化する」、「付加する」、「一体化する」、「含める」、「格納する」、「入れ込む」、「差し込む」、「挿入する」等の用語は、例えば符号化データとメタデータとを1つのデータにまとめるといった、複数の物を1つにまとめることを意味し、上述の「関連付ける」の1つの方法を意味する。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、上述したプログラムは、任意の装置において実行されるようにしてもよい。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
 また、例えば、1つのフローチャートの各ステップを、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。さらに、1つのステップに複数の処理が含まれる場合、その複数の処理を、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
 また、例えば、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
 また、例えば、本技術に関する複数の技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
 なお、本技術は以下のような構成も取ることができる。
 (1) シーンディスクリプションに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
 を備える情報処理装置。
 (2) 前記出力制御部は、前記周波数特性情報により許容される仕様を有するハプティクスデバイスに前記ハプティクスメディアを出力させる
 (1)に記載の情報処理装置。
 (3) 前記出力制御部は、前記周波数特性情報に基づいて、互いに異なる周波数特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適な前記ハプティクスメディアを選択し、選択した前記ハプティクスメディアを前記ハプティクスデバイスに出力させる
 (1)または(2)に記載の情報処理装置。
 (4) 前記周波数特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (1)乃至(3)のいずれかに記載の情報処理装置。
 (5) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含む
 (1)乃至(4)のいずれかに記載の情報処理装置。
 (6) 前記周波数特性情報は、前記ハプティクスメディアの中心周波数における振幅の強さを示す情報を含む
 (1)乃至(5)のいずれかに記載の情報処理装置。
 (7) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、前記ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含む
 (1)乃至(6)のいずれかに記載の情報処理装置。
 (8) シーンディスクリプションに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する
 情報処理方法。
 (11) ハプティクスメディアに関する周波数特性情報が存在するシーンディスクリプションを供給する供給部
 を備える情報処理装置。
 (12) 前記周波数特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (11)に記載の情報処理装置。
 (13) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含む
 (11)または(12)に記載の情報処理装置。
 (14) 前記周波数特性情報は、前記ハプティクスメディアの中心周波数における振幅の強さを示す情報を含む
 (11)乃至(13)のいずれかに記載の情報処理装置。
 (15) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、前記ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含む
 (11)乃至(14)のいずれかに記載の情報処理装置。
 (16) ハプティクスメディアに関する周波数特性情報が存在するシーンディスクリプションを供給する
 情報処理方法。
 (21) シーンディスクリプションに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
 を備える情報処理装置。
 (22) 前記出力制御部は、前記信号立ち上がり特性情報により許容される仕様を有するハプティクスデバイスに前記ハプティクスメディアを出力させる
 (21)に記載の情報処理装置。
 (23) 前記出力制御部は、前記信号立ち上がり特性情報に基づいて、互いに異なる信号立ち上がり特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適な前記ハプティクスメディアを選択し、選択した前記ハプティクスメディアを前記ハプティクスデバイスに出力させる
 (21)または(22)に記載の情報処理装置。
 (24) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (21)乃至(23)のいずれかに記載の情報処理装置。
 (25) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号が到達すべき加速度を表す情報を含む
 (21)乃至(24)のいずれかに記載の情報処理装置。
 (26) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号の加速度の到達レベルを表す情報を含む
 (21)乃至(25)のいずれかに記載の情報処理装置。
 (27) 前記信号立ち上がり特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含む
 (21)乃至(26)のいずれかに記載の情報処理装置。
 (28) シーンディスクリプションに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する
 情報処理方法。
 (31) ハプティクスメディアに関する信号立ち上がり特性情報が存在するシーンディスクリプションを供給する供給部
 を備える情報処理装置。
 (32) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (31)に記載の情報処理装置。
 (33) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号が到達すべき加速度を表す情報を含む
 (31)または(32)に記載の情報処理装置。
 (34) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号の加速度の到達レベルを表す情報を含む
 (31)乃至(33)のいずれかに記載の情報処理装置。
 (35) 前記信号立ち上がり特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含む
 (31)乃至(34)のいずれかに記載の情報処理装置。
 (36) ハプティクスメディアに関する信号立ち上がり特性情報が存在するシーンディスクリプションを供給する
 情報処理方法。
 (41) シーンディスクリプションに含まれる、ハプティクスメディアの優先度に関する優先度情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
 を備える情報処理装置。
 (42) 前記出力制御部は、前記優先度情報において単一のデバイスにおいて同時に再生可能なメディアとして指定される、複数の前記ハプティクスメディアを選択し、選択した複数の前記ハプティクスメディアを合成してハプティクスデバイスに出力させる
 (41)に記載の情報処理装置。
 (43) 前記優先度情報は、単一のデバイスにおいて同時に再生可能なメディアのグループを示す情報を含む
 (42)に記載の情報処理装置。
 (44) 前記優先度情報は、前記グループ内のメディアの優先度を示す情報を含む
 (43)に記載の情報処理装置。
 (45) 前記出力制御部は、前記シーンディスクリプションに含まれる、前記ハプティクスメディアの合成に関する合成情報に基づいて、選択した複数の前記ハプティクスメディアを合成する
 (42)乃至(44)のいずれかに記載の情報処理装置。
 (46) 前記合成情報は、前記ハプティクスメディアの信号の振幅の強さを示す情報を含む
 (45)に記載の情報処理装置。
 (47) 前記合成情報は、前記ハプティクスメディアの信号のピークレベルを示す情報を含む
 (45)または(46)に記載の情報処理装置。
 (48) 前記合成情報は、前記ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (45)乃至(47)のいずれかに記載の情報処理装置。
 (49) 前記合成情報は、複数の前記ハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (45)乃至(48)のいずれかに記載の情報処理装置。
 (50) シーンディスクリプションに含まれる、ハプティクスメディアの優先度に関する優先度情報に基づいて、前記ハプティクスメディアの出力を制御する
 情報処理方法。
 (51) ハプティクスメディアの優先度に関する優先度情報が存在するシーンディスクリプションを供給する供給部
 を備える情報処理装置。
 (52) 前記優先度情報は、単一のデバイスにおいて同時に再生可能なメディアのグループを示す情報を含む
 (51)に記載の情報処理装置。
 (53) 前記優先度情報は、前記グループ内のメディアの優先度を示す情報を含む
 (52)に記載の情報処理装置。
 (54) 前記シーンディスクリプションには、ハプティクスメディアの合成に関する合成情報がさらに存在する
 (51)乃至(53)のいずれかに記載の情報処理装置。
 (55) 前記合成情報は、前記ハプティクスメディアの信号の振幅の強さを示す情報を含む
 (54)に記載の情報処理装置。
 (56) 前記合成情報は、前記ハプティクスメディアの信号のピークレベルを示す情報を含む
 (54)または(55)に記載の情報処理装置。
 (57) 前記合成情報は、前記ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (54)乃至(56)のいずれかに記載の情報処理装置。
 (58) 前記合成情報は、複数の前記ハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (54)乃至(57)のいずれかに記載の情報処理装置。
 (59) ハプティクスメディアの優先度に関する優先度情報が存在するシーンディスクリプションを供給する
 情報処理方法。
 (61) 再生するハプティクスメディアを出力可能なハプティクスデバイスが存在しない場合、前記ハプティクスメディアの出力を制御する代わりに、シーンディスクリプションに含まれるマルチモーダルな代替手段に関する情報により指定される代替メディアの出力を制御する出力制御部
 を備える情報処理装置。
 (62) 再生するハプティクスメディアを出力可能なハプティクスデバイスが存在しない場合、前記ハプティクスメディアの出力を制御する代わりに、シーンディスクリプションに含まれるマルチモーダルな代替手段に関する情報により指定される代替メディアの出力を制御する
 情報処理方法。
 (71) 再生するハプティクスメディアのマルチモーダルな代替手段に関する情報が存在するシーンディスクリプションを供給する供給部
 を備える情報処理装置。
 (72) 再生するハプティクスメディアのマルチモーダルな代替手段に関する情報が存在するシーンディスクリプションを供給する
 情報処理方法。
 (101) MPD(Media Presentation Description)に含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
 を備える情報処理装置。
 (102) 前記出力制御部は、前記周波数特性情報により許容される仕様を有するハプティクスデバイスに前記ハプティクスメディアを出力させる
 (101)に記載の情報処理装置。
 (103) 前記出力制御部は、前記周波数特性情報に基づいて、互いに異なる周波数特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適な前記ハプティクスメディアを選択し、選択した前記ハプティクスメディアを前記ハプティクスデバイスに出力させる
 (101)または(102)に記載の情報処理装置。
 (104) 前記周波数特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (101)乃至(103)のいずれかに記載の情報処理装置。
 (105) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含む
 (101)乃至(104)のいずれかに記載の情報処理装置。
 (106) 前記周波数特性情報は、前記ハプティクスメディアの中心周波数における振幅の強さを示す情報を含む
 (101)乃至(105)のいずれかに記載の情報処理装置。
 (107) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、前記ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含む
 (101)乃至(106)のいずれかに記載の情報処理装置。
 (108) MPD(Media Presentation Description)に含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する
 情報処理方法。
 (111) ハプティクスメディアに関する周波数特性情報が存在するMPD(Media Presentation Description)を供給する供給部
 を備える情報処理装置。
 (112) 前記周波数特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (111)に記載の情報処理装置。
 (113) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含む
 (111)または(112)に記載の情報処理装置。
 (114) 前記周波数特性情報は、前記ハプティクスメディアの中心周波数における振幅の強さを示す情報を含む
 (111)乃至(113)のいずれかに記載の情報処理装置。
 (115) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、前記ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含む
 (111)乃至(114)のいずれかに記載の情報処理装置。
 (116) ハプティクスメディアに関する周波数特性情報が存在するMPD(Media Presentation Description)を供給する
 情報処理方法。
 (121) MPD(Media Presentation Description)に含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
 を備える情報処理装置。
 (122) 前記出力制御部は、前記信号立ち上がり特性情報により許容される仕様を有するハプティクスデバイスに前記ハプティクスメディアを出力させる
 (121)に記載の情報処理装置。
 (123) 前記出力制御部は、前記信号立ち上がり特性情報に基づいて、互いに異なる信号立ち上がり特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適な前記ハプティクスメディアを選択し、選択した前記ハプティクスメディアを前記ハプティクスデバイスに出力させる
 (121)または(122)に記載の情報処理装置。
 (124) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (121)乃至(123)のいずれかに記載の情報処理装置。
 (125) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号が到達すべき加速度を表す情報を含む
 (121)乃至(124)のいずれかに記載の情報処理装置。
 (126) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号の加速度の到達レベルを表す情報を含む
 (121)乃至(125)のいずれかに記載の情報処理装置。
 (127) 前記信号立ち上がり特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含む
 (121)乃至(126)のいずれかに記載の情報処理装置。
 (128) MPD(Media Presentation Description)に含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する
 情報処理方法。
 (131) ハプティクスメディアに関する信号立ち上がり特性情報が存在するMPD(Media Presentation Description)を供給する供給部
 を備える情報処理装置。
 (132) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (131)に記載の情報処理装置。
 (133) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号が到達すべき加速度を表す情報を含む
 (131)または(132)に記載の情報処理装置。
 (134) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号の加速度の到達レベルを表す情報を含む
 (131)乃至(133)のいずれかに記載の情報処理装置。
 (135) 前記信号立ち上がり特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含む
 (131)乃至(134)のいずれかに記載の情報処理装置。
 (136) ハプティクスメディアに関する信号立ち上がり特性情報が存在するMPD(Media Presentation Description)を供給する
 情報処理方法。
 (141) MPD(Media Presentation Description)に含まれる、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
 を備える情報処理装置。
 (142) 前記出力制御部は、前記選択合成情報に基づいて複数の前記ハプティクスメディアを選択し、選択した複数の前記ハプティクスメディアを合成してハプティクスデバイスに出力させる
 (141)に記載の情報処理装置。
 (143) 前記選択合成情報は、前記ハプティクスメディアの優先度を示す情報を含む
 (142)に記載の情報処理装置。
 (144) 前記選択合成情報は、前記ハプティクスメディアの信号の振幅の強さを示す情報を含む
 (142)または(143)に記載の情報処理装置。
 (145) 前記選択合成情報は、前記ハプティクスメディアの信号のピークレベルを示す情報を含む
 (142)乃至(144)のいずれかに記載の情報処理装置。
 (146) 前記選択合成情報は、前記ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (142)乃至(145)のいずれかに記載の情報処理装置。
 (147) 前記選択合成情報は、複数の前記ハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (142)乃至(146)のいずれかに記載の情報処理装置。
 (148) MPD(Media Presentation Description)に含まれる、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報に基づいて、前記ハプティクスメディアの出力を制御する
 情報処理方法。
 (151) ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報が存在するMPD(Media Presentation Description)を供給する供給部
 を備える情報処理装置。
 (152) 前記選択合成情報は、前記ハプティクスメディアの優先度を示す情報を含む
 (151)に記載の情報処理装置。
 (153) 前記選択合成情報は、前記ハプティクスメディアの信号の振幅の強さを示す情報を含む
 (151)または(152)に記載の情報処理装置。
 (154) 前記選択合成情報は、前記ハプティクスメディアの信号のピークレベルを示す情報を含む
 (151)乃至(153)のいずれかに記載の情報処理装置。
 (155) 前記選択合成情報は、前記ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (151)乃至(154)のいずれかに記載の情報処理装置。
 (156) 前記選択合成情報は、複数の前記ハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (151)乃至(155)のいずれかに記載の情報処理装置。
 (157) ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報が存在するMPD(Media Presentation Description)を供給する
 情報処理方法。
 (201) ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
 を備える情報処理装置。
 (202) 前記出力制御部は、前記周波数特性情報により許容される仕様を有するハプティクスデバイスに前記ハプティクスメディアを出力させる
 (201)に記載の情報処理装置。
 (203) 前記出力制御部は、前記周波数特性情報に基づいて、互いに異なる周波数特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適な前記ハプティクスメディアを選択し、選択した前記ハプティクスメディアを前記ハプティクスデバイスに出力させる
 (201)または(202)に記載の情報処理装置。
 (204) 前記複数のハプティクスメディアは、互いに異なるハプティクストラックに格納されており、
 前記出力制御部は、前記ハプティクストラックの情報が存在するMPD(Media Presentation Description)の記述に基づいて、前記ハプティクストラックの前記サンプルエントリに含まれる前記周波数特性情報を参照し、参照した前記周波数特性情報に基づいて前記ハプティクスメディアを選択する
 (203)に記載の情報処理装置。
 (205) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、単一のアダプテーションセットの互いに異なるリプレゼンテーションに存在する
 (204)に記載の情報処理装置。
 (206) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、互いに異なるアダプテーションセットのリプレゼンテーションに存在する
 (204)に記載の情報処理装置。
 (207) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、プリセレクションにより1つ選択される互いに異なるアダプテーションセットに存在する
 (204)に記載の情報処理装置。
 (208) 前記周波数特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (201)乃至(207)のいずれかに記載の情報処理装置。
 (209) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含む
 (201)乃至(208)のいずれかに記載の情報処理装置。
 (210) 前記周波数特性情報は、前記ハプティクスメディアの中心周波数における振幅の強さを示す情報を含む
 (201)乃至(209)のいずれかに記載の情報処理装置。
 (211) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、前記ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含む
 (201)乃至(210)のいずれかに記載の情報処理装置。
 (212) 前記出力制御部は、シーンディスクリプションのMPEG.mediaに格納される前記サンプルエントリのデータ構造を示す情報に基づいて、前記ハプティクスメディアの出力を制御する
 (201)乃至(211)のいずれかに記載の情報処理装置。
 (213) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (212)に記載の情報処理装置。
 (214) 前記出力制御部は、MPD(Media Presentation Description)のエッセンシャルプロパティに格納される前記サンプルエントリのデータ構造を示す情報に基づいて、前記ハプティクスメディアの出力を制御する
 (201)乃至(211)のいずれかに記載の情報処理装置。
 (215) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (214)に記載の情報処理装置。
 (216) 前記データ構造を示す情報は、前記ファイルコンテナの、前記データ構造を示す情報を格納するボックスを示す情報である
 (214)に記載の情報処理装置。
 (217) ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する
 情報処理方法。
 (221) サンプルエントリにハプティクスメディアに関する周波数特性情報を格納するファイルコンテナを供給する第1の供給部
 を備える情報処理装置。
 (222) 前記周波数特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (221)に記載の情報処理装置。
 (223) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含む
 (221)または(222)に記載の情報処理装置。
 (224) 前記周波数特性情報は、前記ハプティクスメディアの中心周波数における振幅の強さを示す情報を含む
 (221)乃至(223)のいずれかに記載の情報処理装置。
 (225) 前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、前記ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含む
 (221)乃至(224)のいずれかに記載の情報処理装置。
 (226) 互いに異なる前記ハプティクスメディアを格納する複数のハプティクストラックの情報が存在するMPD(Media Presentation Description)を供給する第2の供給部をさらに備える
 (221)乃至(225)のいずれかに記載の情報処理装置。
 (227) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、単一のアダプテーションセットの互いに異なるリプレゼンテーションに存在する
 (226)に記載の情報処理装置。
 (228) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、互いに異なるアダプテーションセットのリプレゼンテーションに存在する
 (226)に記載の情報処理装置。
 (229) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、プリセレクションにより1つ選択される互いに異なるアダプテーションセットに存在する
 (226)に記載の情報処理装置。
 (230) 前記サンプルエントリのデータ構造を示す情報がMPEG.mediaに格納されるシーンディスクリプションを供給する第2の供給部をさらに備える
 (221)乃至(229)のいずれかに記載の情報処理装置。
 (231) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (230)に記載の情報処理装置。
 (232) 前記サンプルエントリのデータ構造を示す情報がエッセンシャルプロパティに格納されるMPD(Media Presentation Description)を供給する第2の供給部をさらに備える
 (221)乃至(229)のいずれかに記載の情報処理装置。
 (233) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (232)に記載の情報処理装置。
 (234) 前記データ構造を示す情報は、前記ファイルコンテナの、前記データ構造を示す情報を格納するボックスを示す情報である
 (232)に記載の情報処理装置。
 (235) サンプルエントリにハプティクスメディアに関する周波数特性情報を格納するファイルコンテナを供給する
 情報処理方法。
 (241) ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
 を備える情報処理装置。
 (242) 前記出力制御部は、前記信号立ち上がり特性情報により許容される仕様を有するハプティクスデバイスに前記ハプティクスメディアを出力させる
 (241)に記載の情報処理装置。
 (243) 前記出力制御部は、前記信号立ち上がり特性情報に基づいて、互いに異なる信号立ち上がり特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適な前記ハプティクスメディアを選択し、選択した前記ハプティクスメディアを前記ハプティクスデバイスに出力させる
 (241)または(242)に記載の情報処理装置。
 (244) 前記複数のハプティクスメディアは、互いに異なるハプティクストラックに格納されており、
 前記出力制御部は、前記ハプティクストラックの情報が存在するMPD(Media Presentation Description)の記述に基づいて、前記ハプティクストラックの前記サンプルエントリに含まれる前記信号立ち上がり特性情報を参照し、参照した前記信号立ち上がり特性情報に基づいて前記ハプティクスメディアを選択する
 (243)に記載の情報処理装置。
 (245) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、単一のアダプテーションセットの互いに異なるリプレゼンテーションに存在する
 (244)に記載の情報処理装置。
 (246) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、互いに異なるアダプテーションセットのリプレゼンテーションに存在する
 (244)に記載の情報処理装置。
 (247) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、プリセレクションにより1つ選択される互いに異なるアダプテーションセットに存在する
 (244)に記載の情報処理装置。
 (248) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (241)乃至(247)のいずれかに記載の情報処理装置。
 (249) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号が到達すべき加速度を表す情報を含む
 (241)乃至(248)のいずれかに記載の情報処理装置。
 (250) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号の加速度の到達レベルを表す情報を含む
 (241)乃至(249)のいずれかに記載の情報処理装置。
 (251) 前記信号立ち上がり特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含む
 (241)乃至(250)のいずれかに記載の情報処理装置。
 (252) 前記出力制御部は、シーンディスクリプションのMPEG.mediaに格納される前記サンプルエントリのデータ構造を示す情報に基づいて、前記ハプティクスメディアの出力を制御する
 (241)乃至(251)のいずれかに記載の情報処理装置。
 (253) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (252)に記載の情報処理装置。
 (254) 前記出力制御部は、MPD(Media Presentation Description)のエッセンシャルプロパティに格納される前記サンプルエントリのデータ構造を示す情報に基づいて、前記ハプティクスメディアの出力を制御する
 (241)乃至(251)のいずれかに記載の情報処理装置。
 (255) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (254)に記載の情報処理装置。
 (256) 前記データ構造を示す情報は、前記ファイルコンテナの、前記データ構造を示す情報を格納するボックスを示す情報である
 (254)に記載の情報処理装置。
 (257) ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する
 情報処理方法。
 (261) サンプルエントリにハプティクスメディアに関する信号立ち上がり特性情報を格納するファイルコンテナを供給する第1の供給部
 を備える情報処理装置。
 (262) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
 (261)に記載の情報処理装置。
 (263) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号が到達すべき加速度を表す情報を含む
 (261)または(262)に記載の情報処理装置。
 (264) 前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号の加速度の到達レベルを表す情報を含む
 (261)乃至(263)のいずれかに記載の情報処理装置。
 (265) 前記信号立ち上がり特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含む
 (261)乃至(264)のいずれかに記載の情報処理装置。
 (266) 互いに異なる前記ハプティクスメディアを格納する複数のハプティクストラックの情報が存在するMPD(Media Presentation Description)を供給する第2の供給部をさらに備える
 (261)乃至(265)のいずれかに記載の情報処理装置。
 (267) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、単一のアダプテーションセットの互いに異なるリプレゼンテーションに存在する
 (266)に記載の情報処理装置。
 (268) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、互いに異なるアダプテーションセットのリプレゼンテーションに存在する
 (266)に記載の情報処理装置。
 (269) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、プリセレクションにより1つ選択される互いに異なるアダプテーションセットに存在する
 (266)に記載の情報処理装置。
 (270) 前記サンプルエントリのデータ構造を示す情報がMPEG.mediaに格納されるシーンディスクリプションを供給する第2の供給部をさらに備える
 (261)乃至(269)のいずれかに記載の情報処理装置。
 (271) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (270)に記載の情報処理装置。
 (272) 前記サンプルエントリのデータ構造を示す情報がエッセンシャルプロパティに格納されるMPD(Media Presentation Description)を供給する第2の供給部をさらに備える
 (261)乃至(269)のいずれかに記載の情報処理装置。
 (273) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (272)に記載の情報処理装置。
 (274) 前記データ構造を示す情報は、前記ファイルコンテナの、前記データ構造を示す情報を格納するボックスを示す情報である
 (272)に記載の情報処理装置。
 (275) サンプルエントリにハプティクスメディアに関する信号立ち上がり特性情報を格納するファイルコンテナを供給する
 情報処理方法。
 (281) ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
 を備える情報処理装置。
 (282) 前記出力制御部は、前記選択合成情報に基づいて複数の前記ハプティクスメディアを選択し、選択した複数の前記ハプティクスメディアを合成してハプティクスデバイスに出力させる
 (281)に記載の情報処理装置。
 (283) 前記選択合成情報は、前記ハプティクスメディアの信号の振幅の強さを示す情報を含む
 (282)に記載の情報処理装置。
 (284) 前記選択合成情報は、前記ハプティクスメディアの信号のピークレベルを示す情報を含む
 (282)または(283)に記載の情報処理装置。
 (285) 前記選択合成情報は、前記ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (282)乃至(284)のいずれかに記載の情報処理装置。
 (286) 前記選択合成情報は、複数の前記ハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (282)乃至(285)のいずれかに記載の情報処理装置。
 (287) 前記複数のハプティクスメディアは、互いに異なるハプティクストラックに格納されており、
 前記出力制御部は、前記ハプティクストラックの情報が存在するMPD(Media Presentation Description)の記述に基づいて、前記ハプティクストラックの前記サンプルエントリに含まれる前記選択合成情報を参照し、参照した前記選択合成情報に基づいて前記ハプティクスメディアを選択する
 (282)乃至(286)のいずれかに記載の情報処理装置。
 (288) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、互いに異なるアダプテーションセットに存在する
 (287)に記載の情報処理装置。
 (289) 前記出力制御部は、シーンディスクリプションのMPEG.mediaに格納される前記サンプルエントリのデータ構造を示す情報に基づいて、前記ハプティクスメディアの出力を制御する
 (281)乃至(288)のいずれかに記載の情報処理装置。
 (290) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (289)に記載の情報処理装置。
 (291) 前記出力制御部は、MPD(Media Presentation Description)のエッセンシャルプロパティに格納される前記サンプルエントリのデータ構造を示す情報に基づいて、前記ハプティクスメディアの出力を制御する
 (281)乃至(288)のいずれかに記載の情報処理装置。
 (292) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (291)に記載の情報処理装置。
 (293) 前記データ構造を示す情報は、前記ファイルコンテナの、前記データ構造を示す情報を格納するボックスを示す情報である
 (291)に記載の情報処理装置。
 (294) ファイルコンテナのサンプルエントリに含まれる、ハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報に基づいて、前記ハプティクスメディアの出力を制御する
 情報処理方法。
 (301) サンプルエントリにハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報を格納するファイルコンテナを供給する第1の供給部
 を備える情報処理装置。
 (302) 前記選択合成情報は、前記ハプティクスメディアの信号の振幅の強さを示す情報を含む
 (301)に記載の情報処理装置。
 (303) 前記選択合成情報は、前記ハプティクスメディアの信号のピークレベルを示す情報を含む
 (301)または(302)に記載の情報処理装置。
 (304) 前記選択合成情報は、前記ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (301)乃至(303)のいずれかに記載の情報処理装置。
 (305) 前記選択合成情報は、複数の前記ハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
 (301)乃至(304)のいずれかに記載の情報処理装置。
 (306) 互いに異なる前記ハプティクスメディアを格納する複数のハプティクストラックの情報が存在するMPD(Media Presentation Description)を供給する第2の供給部をさらに備える
 (301)乃至(305)のいずれかに記載の情報処理装置。
 (307) 前記MPDにおいて、複数の前記ハプティクストラックの情報は、互いに異なるアダプテーションセットに存在する
 (306)に記載の情報処理装置。
 (308) 前記サンプルエントリのデータ構造を示す情報がMPEG.mediaに格納されるシーンディスクリプションを供給する第2の供給部をさらに備える
 (301)乃至(307)のいずれかに記載の情報処理装置。
 (309) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (308)に記載の情報処理装置。
 (310) 前記サンプルエントリのデータ構造を示す情報がエッセンシャルプロパティに格納されるMPD(Media Presentation Description)を供給する第2の供給部をさらに備える
 (301)乃至(307)のいずれかに記載の情報処理装置。
 (311) 前記データ構造を示す情報は、データ構造体であるHapticFileHeaderBox、AvaterMetadataBox、PerceptionHeaderBox、ReferenceDeviceMetadataBox、およびTrackHeaderを定義する情報を含む
 (310)に記載の情報処理装置。
 (312) 前記データ構造を示す情報は、前記ファイルコンテナの、前記データ構造を示す情報を格納するボックスを示す情報である
 (310)に記載の情報処理装置。
 (313) サンプルエントリにハプティクスメディアの選択および合成の少なくともいずれか一方に関する選択合成情報を格納するファイルコンテナを供給する
 情報処理方法。
 300 ファイル生成装置, 301 制御部, 302 ファイル生成処理部, 311 入力部, 312 前処理部, 313 符号化部, 314 ファイル生成部, 315 記憶部, 316 出力部, 321 SD入力部, 322 3D入力部, 323 IM入力部, 331 SD前処理部, 332 3D前処理部, 333 IM前処理部, 341 SD符号化部, 342 3D符号化部, 343 IM符号化部, 351 SDファイル生成部, 352 3Dファイル生成部, 353 IMファイル生成部, 361 SD記憶部, 362 3D記憶部, 363 IM記憶部, 371 SD出力部, 372 3D出力部, 373 IM出力部, 400 クライアント装置, 401 制御部, 402 クライアント処理部, 411 取得部, 412 ファイル処理部, 413 復号部, 414 SD解析部, 415 出力制御部, 416 出力部, 421 SD取得部, 422 3D取得部, 423 IM取得部, 431 SDファイル処理部, 432 3Dファイル処理部, 433 IMファイル処理部, 441 SD復号部, 442 3D復号部, 443 IM復号部, 452 3D出力制御部, 453 IM出力制御部, 462 3D出力部, 463 IM出力部, 500 ファイル生成装置, 571 MPD出力部, 600 クライアント装置, 614 MPD解析部, 653 HM出力制御部, 700 ファイル生成装置, 715 ISOBMFFファイル生成部, 717 ISOBMFF出力部, 800 クライアント装置, 811 ISOBMFF取得部, 852 HM出力制御部, 900 コンピュータ

Claims (36)

  1.  シーンディスクリプションに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
     を備える情報処理装置。
  2.  前記出力制御部は、前記周波数特性情報により許容される仕様を有するハプティクスデバイスに前記ハプティクスメディアを出力させる
     請求項1に記載の情報処理装置。
  3.  前記出力制御部は、前記周波数特性情報に基づいて、互いに異なる周波数特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適な前記ハプティクスメディアを選択し、選択した前記ハプティクスメディアを前記ハプティクスデバイスに出力させる
     請求項1に記載の情報処理装置。
  4.  前記周波数特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
     請求項1に記載の情報処理装置。
  5.  前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される中心周波数の範囲を示す情報を含む
     請求項1に記載の情報処理装置。
  6.  前記周波数特性情報は、前記ハプティクスメディアの中心周波数における振幅の強さを示す情報を含む
     請求項1に記載の情報処理装置。
  7.  前記周波数特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、前記ハプティクスメディアの中心周波数における振幅の強さの範囲を示す情報を含む
     請求項1に記載の情報処理装置。
  8.  シーンディスクリプションに含まれる、ハプティクスメディアに関する周波数特性情報に基づいて、前記ハプティクスメディアの出力を制御する
     情報処理方法。
  9.  ハプティクスメディアに関する周波数特性情報が存在するシーンディスクリプションを供給する供給部
     を備える情報処理装置。
  10.  ハプティクスメディアに関する周波数特性情報が存在するシーンディスクリプションを供給する
     情報処理方法。
  11.  シーンディスクリプションに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
     を備える情報処理装置。
  12.  前記出力制御部は、前記信号立ち上がり特性情報により許容される仕様を有するハプティクスデバイスに前記ハプティクスメディアを出力させる
     請求項11に記載の情報処理装置。
  13.  前記出力制御部は、前記信号立ち上がり特性情報に基づいて、互いに異なる信号立ち上がり特性を有する複数のハプティクスメディアの中からハプティクスデバイスの仕様に最適な前記ハプティクスメディアを選択し、選択した前記ハプティクスメディアを前記ハプティクスデバイスに出力させる
     請求項11に記載の情報処理装置。
  14.  前記信号立ち上がり特性情報は、前記ハプティクスメディアの出力デバイスとして想定されるハプティクスデバイスの仕様のモデルである参照デバイスの中心周波数を示す情報を含む
     請求項11に記載の情報処理装置。
  15.  前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号が到達すべき加速度を表す情報を含む
     請求項11に記載の情報処理装置。
  16.  前記信号立ち上がり特性情報は、前記ハプティクスメディアの信号の加速度の到達レベルを表す情報を含む
     請求項11に記載の情報処理装置。
  17.  前記信号立ち上がり特性情報は、前記ハプティクスメディアを出力するハプティクスデバイスとして許容される、信号の加速の到達レベルに達するまでの最大遅延時間を表す情報を含む
     請求項11に記載の情報処理装置。
  18.  シーンディスクリプションに含まれる、ハプティクスメディアに関する信号立ち上がり特性情報に基づいて、前記ハプティクスメディアの出力を制御する
     情報処理方法。
  19.  ハプティクスメディアに関する信号立ち上がり特性情報が存在するシーンディスクリプションを供給する供給部
     を備える情報処理装置。
  20.  ハプティクスメディアに関する信号立ち上がり特性情報が存在するシーンディスクリプションを供給する
     情報処理方法。
  21.  シーンディスクリプションに含まれる、ハプティクスメディアの優先度に関する優先度情報に基づいて、前記ハプティクスメディアの出力を制御する出力制御部
     を備える情報処理装置。
  22.  前記出力制御部は、前記優先度情報において単一のデバイスにおいて同時に再生可能なメディアとして指定される、複数の前記ハプティクスメディアを選択し、選択した複数の前記ハプティクスメディアを合成してハプティクスデバイスに出力させる
     請求項21に記載の情報処理装置。
  23.  前記優先度情報は、単一のデバイスにおいて同時に再生可能なメディアのグループを示す情報を含む
     請求項22に記載の情報処理装置。
  24.  前記優先度情報は、前記グループ内のメディアの優先度を示す情報を含む
     請求項23に記載の情報処理装置。
  25.  前記出力制御部は、前記シーンディスクリプションに含まれる、前記ハプティクスメディアの合成に関する合成情報に基づいて、選択した複数の前記ハプティクスメディアを合成する
     請求項22に記載の情報処理装置。
  26.  前記合成情報は、前記ハプティクスメディアの信号の振幅の強さを示す情報を含む
     請求項25に記載の情報処理装置。
  27.  前記合成情報は、前記ハプティクスメディアの信号のピークレベルを示す情報を含む
     請求項25に記載の情報処理装置。
  28.  前記合成情報は、前記ハプティクスメディアの信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
     請求項25に記載の情報処理装置。
  29.  前記合成情報は、複数の前記ハプティクスメディアを合成後に信号の振幅を拡大する場合に許容される最大レベルを示す情報を含む
     請求項25に記載の情報処理装置。
  30.  シーンディスクリプションに含まれる、ハプティクスメディアの優先度に関する優先度情報に基づいて、前記ハプティクスメディアの出力を制御する
     情報処理方法。
  31.  ハプティクスメディアの優先度に関する優先度情報が存在するシーンディスクリプションを供給する供給部
     を備える情報処理装置。
  32.  ハプティクスメディアの優先度に関する優先度情報が存在するシーンディスクリプションを供給する
     情報処理方法。
  33.  再生するハプティクスメディアを出力可能なハプティクスデバイスが存在しない場合、前記ハプティクスメディアの出力を制御する代わりに、シーンディスクリプションに含まれるマルチモーダルな代替手段に関する情報により指定される代替メディアの出力を制御する出力制御部
     を備える情報処理装置。
  34.  再生するハプティクスメディアを出力可能なハプティクスデバイスが存在しない場合、前記ハプティクスメディアの出力を制御する代わりに、シーンディスクリプションに含まれるマルチモーダルな代替手段に関する情報により指定される代替メディアの出力を制御する
     情報処理方法。
  35.  再生するハプティクスメディアのマルチモーダルな代替手段に関する情報が存在するシーンディスクリプションを供給する供給部
     を備える情報処理装置。
  36.  再生するハプティクスメディアのマルチモーダルな代替手段に関する情報が存在するシーンディスクリプションを供給する
     情報処理方法。
PCT/JP2023/027489 2022-07-27 2023-07-27 情報処理装置および方法 WO2024024874A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263392557P 2022-07-27 2022-07-27
US63/392,557 2022-07-27

Publications (1)

Publication Number Publication Date
WO2024024874A1 true WO2024024874A1 (ja) 2024-02-01

Family

ID=89706576

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/027489 WO2024024874A1 (ja) 2022-07-27 2023-07-27 情報処理装置および方法

Country Status (1)

Country Link
WO (1) WO2024024874A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015215891A (ja) * 2014-05-07 2015-12-03 イマージョン コーポレーションImmersion Corporation 触覚効果の動的変更
JP2017221631A (ja) * 2016-06-10 2017-12-21 任天堂株式会社 ゲームコントローラ
WO2022100985A1 (en) * 2020-11-12 2022-05-19 Interdigital Ce Patent Holdings, Sas Representation format for haptic object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015215891A (ja) * 2014-05-07 2015-12-03 イマージョン コーポレーションImmersion Corporation 触覚効果の動的変更
JP2017221631A (ja) * 2016-06-10 2017-12-21 任天堂株式会社 ゲームコントローラ
WO2022100985A1 (en) * 2020-11-12 2022-05-19 Interdigital Ce Patent Holdings, Sas Representation format for haptic object

Similar Documents

Publication Publication Date Title
JP4959504B2 (ja) 適応制御を行うことができるmpegコード化オーディオ・ビジュアルオブジェクトをインターフェイスで連結するためのシステムおよび方法
WO2020137642A1 (ja) 情報処理装置および情報処理方法
US20210392386A1 (en) Data model for representation and streaming of heterogeneous immersive media
TWI729430B (zh) 浸入式媒體內容覆蓋的方法和裝置
WO2021065277A1 (ja) 情報処理装置、再生処理装置及び情報処理方法
US20240048676A1 (en) Method, apparatus and device for processing immersive media data, storage medium
US20230319328A1 (en) Reference of neural network model for adaptation of 2d video for streaming to heterogeneous client end-points
JPWO2020137854A1 (ja) 情報処理装置および情報処理方法
WO2021241190A1 (ja) メディア配信装置およびメディア配信方法、並びにプログラム
US20230007427A1 (en) Audio scene change signaling
WO2024024874A1 (ja) 情報処理装置および方法
EP4088451A1 (en) Method and apparatus for media scene description
EP4016994A1 (en) Information processing device and information processing method
US11937070B2 (en) Layered description of space of interest
WO2023204289A1 (ja) 情報処理装置および方法
JP7448677B2 (ja) 没入型メディアをストリーミングする方法、並びにそのデバイス、及びコンピュータプログラム
WO2022075342A1 (ja) 情報処理装置および方法
WO2020261689A1 (ja) 情報処理装置、情報処理方法、再生処理装置及び再生処理方法
WO2023176928A1 (ja) 情報処理装置および方法
WO2024014526A1 (ja) 情報処理装置および方法
WO2021140956A1 (ja) 情報処理装置および方法
US11943271B2 (en) Reference of neural network model by immersive media for adaptation of media for streaming to heterogenous client end-points
WO2022220278A1 (ja) 情報処理装置および方法
TW202403508A (zh) 編碼/解碼觸覺資料的方法及設備

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23846604

Country of ref document: EP

Kind code of ref document: A1