JP2013538469A - 実感効果処理システム及び方法 - Google Patents

実感効果処理システム及び方法 Download PDF

Info

Publication number
JP2013538469A
JP2013538469A JP2013504806A JP2013504806A JP2013538469A JP 2013538469 A JP2013538469 A JP 2013538469A JP 2013504806 A JP2013504806 A JP 2013504806A JP 2013504806 A JP2013504806 A JP 2013504806A JP 2013538469 A JP2013538469 A JP 2013538469A
Authority
JP
Japan
Prior art keywords
actual
metadata
information
type
shows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013504806A
Other languages
English (en)
Inventor
ジュ ハン,スン
ジュン ハン,ジェ
チョル パン,ウォン
ギュン キム,ド
ギュン キム,サン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industry Academy Cooperation Foundation of Myongji University
Original Assignee
Industry Academy Cooperation Foundation of Myongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industry Academy Cooperation Foundation of Myongji University filed Critical Industry Academy Cooperation Foundation of Myongji University
Publication of JP2013538469A publication Critical patent/JP2013538469A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • G06F16/164File meta data generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【解決手段】
実感効果処理システム及び方法が開示される。本発明の実施形態によれば、実感効果情報及び実感装置に対する特性情報に基づいて実感装置を制御する命令情報を生成することによって、コンテンツに含まれる実感効果を現実世界で実現することができる。また、メタデータを2進数フォーマットに符号化して送信したり、XML形態に符号化して送信したり、XML形態に符号化した後再び2進数フォーマットに符号化して送信することによって、データの送信速度を高めて低い帯域幅を用いることができる。

Description

本発明の実施形態は実感効果処理システム及び方法に関し、より詳しくは、コンテンツに含まれた実感効果を高速で処理するためのシステム及び方法に関する。
最近のコンテンツ再生装置は、コンテンツ情報を単に表示してユーザに提供するのに留まらず、別途の駆動装置(Actuator)を用いて様々な効果と共にコンテンツ情報をユーザに提供している。例えば、最近脚光を浴びている4Dシアターの場合、映画映像を提供するだけではなく、映画内容に対応してシアターの椅子が振動する効果、風が吹く効果、水がはねる効果などを共に提供している。したがって、ユーザはより多くの効果を実感することができ、コンテンツを楽しむことが可能になった。
このように、ユーザに実感的な効果を共に提供するコンテンツ再生装置及び駆動装置は様々な生活領域に適用されている。コントローラが振動するゲーム機、匂いを提供するTVなどが販売及び研究されている。
しかし、コンテンツに含まれる効果情報が駆動装置で効率よく実現されるように制御する装置及び方法については研究されていないため、効果情報を効果的に現実世界で実現することができない。
本明細書では効果情報を現実世界のアクチュエータで実現する動作を制御する装置及び方法に対する新しい方案が提示される。
一実施形態に係る実感効果情報を含むコンテンツを再生する実感メディア再生装置は、前記コンテンツから前記実感効果情報を抽出する抽出部と、前記抽出された実感効果情報を実感効果メタデータに符号化する符号化部と、前記実感効果メタデータを実感効果制御装置に送信する送信部とを備える。
一実施形態に係る実感効果情報を含むコンテンツを再生する実感メディア再生方法は、前記コンテンツから前記実感効果情報を抽出するステップと、前記抽出された実感効果情報を実感効果メタデータに符号化するステップと、前記実感効果メタデータを実感効果制御装置に送信するステップとを含む。
本発明の一実施形態に係る実感効果処理システムを示す図である。 本発明の一実施形態に係る実感効果処理システムを示す図である。 本発明の一実施形態に係る実感効果処理システムを示す図である。 本発明の一実施形態に係る実感効果処理システムを示す図である。 本発明の一実施形態に係る実感装置の構成を示す図である。 本発明の一実施形態に係る実感効果制御装置の構成を示す図である。 本発明の一実施形態に係る実感メディア再生装置の構成を示す図である。 本発明の一実施形態に係る実感効果処理システムの動作方法を示す図である。
以下、本発明に係る実施形態を添付する図面を参照しながら詳細に説明する。しかし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、本発明の一実施形態に係る実感効果処理システムを示す図である。図1を参照すると、本発明の一実施形態に係る実感効果処理システム100は、実感メディア再生装置110、実感効果制御装置120及び実感装置130を備える。
実感メディア再生装置110は、少なくとも1つの実感効果情報を含むコンテンツを再生する装置である。実感メディア再生装置110は、DVDプレーヤ、映画上映機、パーソナルコンピュータ(PC)、ゲーム機、仮想世界処理装置などを含んでもよい。
実感効果情報は、実感メディア再生装置110で再生するコンテンツに対応して現実世界で実現される所定の効果に関する情報である。例えば、実感効果情報は、ゲーム機で再生する仮想世界内で地震が発生すれば、ゲーム機のコントローラが振動するという効果に関する情報である。実感効果情報について後述する。
一実施形態に係る実感メディア再生装置110は、コンテンツから実感効果情報を抽出してもよい。また、実感メディア再生装置110は、抽出された実感効果情報を実感効果メタデータ(Sensory Effect Metadata、SEM)に符号化してもよい。すなわち、実感メディア再生装置110は実感効果情報を符号化して実感効果メタデータを生成することができる。また、一実施形態に係る実感メディア再生装置110は、生成した実感効果メタデータを実感効果制御装置120に送信する。
実感装置130は、実感効果情報に対応する効果イベントを行う装置である。一実施形態に係る実感装置130は、効果イベントを現実世界で実現するアクチュエータ(Actuator)であってもよい。実感装置130は、振動ゲームコントローラ、4Dシアターの座席、仮想世界再生ゴーグルなどを含んでもよい。
効果イベントは、実感効果情報に対応して実感装置130によって現実世界で実現されるイベントであってもよい。例えば、効果イベントは、ゲーム機のコントローラが振動するようにする実感効果情報に対応してゲーム機の振動部を動作させるイベントであってもよい。
一実施形態に係る実感装置130は、実感装置130の特性に対する特性情報を実感装置特性メタデータ(Sensory Device Capability Metadata、SDCap Metadata)に符号化してもよい。すなわち、実感装置130は、特性情報を符号化して実感装置特性メタデータを生成する。実感装置130の特性に対する特性情報について後述する。
また、一実施形態に係る実感装置130は、生成した実感装置特性メタデータを実感効果制御装置120に送信する。
本発明の一側面によれば、実感装置130は、ユーザの実感効果に対する嗜好情報をユーザ実感嗜好メタデータに符号化する。すなわち、実感装置130は、ユーザの実感効果に対する嗜好情報を符号化してユーザ実感嗜好メタデータ(User Sensory Preference Metadata、USP Metadata)を生成してもよい。
ユーザの実感効果に対する嗜好情報は、個々の実感効果に対するユーザの嗜好程度を示す情報であってもよい。また、一実施形態に係る嗜好情報は、実感効果情報に対応して行われる効果イベントのレベルに関する情報であってもよい。例えば、コントローラが振動するようにする効果イベントにおいて、ユーザが振動を所望しなければ、嗜好情報は振動効果に対する効果イベントのレベルを0にする情報であってもよい。ユーザの実感効果に対する嗜好情報について後述する。
一実施形態に係る実感装置130は、嗜好情報をユーザから入力されてもよい。また、実感装置130は、生成されたユーザ実感嗜好メタデータを実感効果制御装置120に送信してもよい。
実感効果制御装置120は、実感メディア再生装置110から実感効果メタデータを受信し、実感装置130から実感装置特性メタデータを受信してもよい。また、実感効果制御装置120は、実感効果メタデータ及び実感装置特性メタデータを復号化してもよい。
一実施形態に係る実感効果制御装置120は、実感効果メタデータを復号化して実感効果情報を抽出する。また、実感効果制御装置120は、実感装置特性メタデータを復号化して実感装置130の特性に対する特性情報を抽出してもよい。
実感効果制御装置120は、デコードされた実感効果メタデータ及びデコードされた実感装置特性メタデータに基づいて実感装置130を制御する命令情報を生成してもよい。したがって、実感効果制御装置120は、実感装置130が実感装置130の特性に適するように効果イベントを行うことができるように制御する命令情報を生成してもよい。
命令情報は、実感装置130による効果イベントの実行を制御する情報であってもよい。実施形態によって命令情報は実感効果情報を含んでもよい。
本発明の一側に係る実感効果制御装置120は、実感装置130から実感装置特性メタデータ及びユーザ実感嗜好メタデータを受信してもよい。ここで、実感効果制御装置120は、ユーザ実感嗜好メタデータを復号化してユーザの実感効果に対する嗜好情報を抽出してもよい。
また、実感効果制御装置120は、デコードされた実感効果メタデータ、デコードされた実感装置特性メタデータ及びデコードされたユーザ実感嗜好メタデータに基づいて命令情報を生成してもよい。実施形態によっては、命令情報は実感効果情報を含んでもよい。したがって、実感効果制御装置120は、実感装置130が実感装置130の特性に適しながらもユーザの嗜好の程度を反映して効果イベントを行うように制御する命令情報を生成することができる。
実感効果制御装置120は、生成した命令情報を実感装置命令メタデータに符号化してもよい。すなわち、実感効果制御装置120は、生成した命令情報を符号化して実感装置命令メタデータを生成してもよい。
また、実感効果制御装置120は、実感装置命令メタデータを実感装置130に送信してもよい。実感装置130は、実感効果制御装置120から実感装置命令メタデータを受信し、受信した実感装置命令メタデータを復号化してもよい。すなわち、実感装置130は、実感装置命令メタデータを復号化して実感効果情報を抽出してもよい。ここで、実感装置130は、実感効果情報に対応する効果イベントを行う。
本発明の一側面によれば、実感装置130は、実感装置命令メタデータを復号化して命令情報を抽出する。ここで、実感装置130は命令情報に基づいて実感効果情報に対応する効果イベントを行う。
図2から図4は、本発明の一実施形態に係る実感効果処理システムを示す図である。図2を参照すると、本発明の一実施形態に係る実感効果処理システム200は、実感メディア再生装置210、実感効果制御装置220及び実感装置230を備える。
実感メディア再生装置210は、XMLエンコーダ(XML Encoder、eXtensible Mark−up Language Encoder)211を含んでもよい。
XMLエンコーダ211は、実感効果情報をXML形態に符号化して実感効果メタデータを生成してもよい。ここで、実感メディア再生装置210は、実感効果制御装置220にXML形態に符号化された実感効果メタデータを送信してもよい。
実感効果制御装置220は、XMLデコーダ(XML Decoder)221を含んでもよい。XMLデコーダ221は、実感メディア再生装置210から受信された実感効果メタデータを復号化してもよい。一実施形態に係るXMLデコーダ221は、実感効果メタデータを復号化して実感効果情報を抽出してもよい。
実感装置230は、XMLエンコーダ231を含んでもよい。XMLエンコーダ231は、実感装置230の特性に対する特性情報をXML形態に符号化して実感装置特性メタデータを生成してもよい。ここで、実感装置230は、実感効果制御装置220にXML形態に符号化された実感装置特性メタデータを送信してもよい。
本発明の一側面によれば、XMLエンコーダ231は、ユーザの実感効果に対する嗜好情報をXML形態に符号化してユーザ実感嗜好メタデータを生成してもよい。ここで、実感装置230は、実感効果制御装置220にXML形態に符号化されたユーザ実感嗜好メタデータを送信してもよい。実感効果制御装置220はXMLデコーダ222を含んでもよい。
XMLデコーダ222は、実感装置230から受信された実感装置特性メタデータを復号化してもよい。一実施形態に係るXMLデコーダ222は、実感装置特性メタデータを復号化して実感装置230の特性に対する特性情報を抽出してもよい。また、XMLデコーダ222は、実感装置230から受信されたユーザ実感嗜好メタデータを復号化してもよい。一実施形態に係るXMLデコーダ222は、ユーザ実感嗜好メタデータを復号化して実感効果に対するユーザの嗜好情報を抽出してもよい。
実感効果制御装置220はXMLエンコーダ223を含んでもよい。XMLエンコーダ223は、実感装置230による効果イベントの実行を制御する命令情報をXML形態に符号化して実感装置命令メタデータを生成してもよい。ここで、実感効果制御装置220は、実感装置230にXML形態に符号化された実感装置命令メタデータを送信してもよい。
実感装置230はXMLデコーダ232を含んでもよい。XMLデコーダ232は、実感効果制御装置220から受信された実感装置命令メタデータを復号化してもよい。一実施形態に係るXMLデコーダ232は、実感装置命令メタデータを復号化して命令情報を抽出してもよい。
図3を参照すると、本発明の一実施形態に係る実感効果処理システム300は、実感メディア再生装置310、実感効果制御装置320及び実感装置330を備える。実感メディア再生装置310は、2進エンコーダ(Binary Encoder)311を含んでもよい。
2進エンコーダ311は、実感効果情報を2進数フォーマットに符号化して実感効果メタデータを生成する。ここで、実感メディア再生装置310は、実感効果制御装置320に2進数フォーマットに符号化された実感効果メタデータを送信してもよい。
実感効果制御装置320は、2進デコーダ(Binary Decoder)321を含んでもよい。2進デコーダ321は、実感メディア再生装置310から受信された実感効果メタデータを復号化する。一実施形態に係る2進デコーダ321は実感効果メタデータを復号化して実感効果情報を抽出してもよい。
実感装置330は2進エンコーダ331を含んでもよい。2進エンコーダ331は、実感装置330の特性に対する特性情報を2進数フォーマットに符号化して実感装置特性メタデータを生成する。ここで、実感装置330は、実感効果制御装置320に2進数フォーマットに符号化された実感装置特性メタデータを送信してもよい。
本発明の一側面によれば、2進エンコーダ331は、ユーザの実感効果に対する嗜好情報を2進数フォーマットに符号化してユーザ実感嗜好メタデータを生成する。ここで、実感装置330は、実感効果制御装置320で2進数フォーマットに符号化されたユーザ実感嗜好メタデータを送信してもよい。実感効果制御装置320は2進デコーダ322を含んでもよい。
2進デコーダ322は、実感装置330から受信された実感装置特性メタデータを復号化してもよい。一実施形態に係る2進デコーダ322は、実感装置特性メタデータを復号化して実感装置330の特性に対する特性情報を抽出する。また、2進デコーダ322は、実感装置330から受信されたユーザ実感嗜好メタデータを復号化してもよい。一実施形態に係る2進デコーダ322は、ユーザ実感嗜好メタデータを復号化して実感効果に対するユーザの嗜好情報を抽出してもよい。
実感効果制御装置320は2進エンコーダ323を含んでもよい。2進エンコーダ323は、実感装置330による効果イベントの実行を制御する命令情報を2進数フォーマットに符号化して実感装置命令メタデータを生成してもよい。ここで、実感効果制御装置320は、実感装置330に2進数フォーマットに符号化された実感装置命令メタデータを送信してもよい。実感装置330は2進デコーダ332を含んでもよい。2進デコーダ332は、実感効果制御装置320から受信された実感装置命令メタデータを復号化してもよい。一実施形態に係る2進デコーダ332は、実感装置命令メタデータを復号化して命令情報を抽出する。
図4を参照すると、本発明の一実施形態に係る実感効果処理システム400は、実感メディア再生装置410、実感効果制御装置420及び実感装置430を備える。実感メディア再生装置410は、XMLエンコーダ411及び2進エンコーダ412を含む。
XMLエンコーダ411は、実感効果情報をXML形態に符号化して第3メタデータを生成する。また、2進エンコーダ412は、第3メタデータを2進数フォーマットに符号化して実感効果メタデータを生成する。ここで、実感メディア再生装置410は実感効果制御装置420で実感効果メタデータを送信してもよい。
実感効果制御装置420は、2進デコーダ421及びXMLデコーダ422を含む。2進デコーダ421は、実感メディア再生装置410から受信された実感効果メタデータを復号化して第3メタデータを抽出する。また、XMLデコーダ422は、第3メタデータを復号化して実感効果情報を抽出する。
実感装置430はXMLエンコーダ431及び2進エンコーダ432を含む。XMLエンコーダ431は、実感装置430の特性に対する特性情報をXML形態に符号化して第2メタデータを生成する。また、2進エンコーダ432は、第2メタデータを2進数フォーマットに符号化して実感装置特性メタデータを生成する。ここで、実感装置430は実感効果制御装置420で実感装置特性メタデータを送信してもよい。
本発明の一側面によれば、XMLエンコーダ431は、ユーザの実感効果に対する嗜好情報をXML形態に符号化して第4メタデータを生成してもよい。また、2進エンコーダ432は、第4メタデータを2進数フォーマットに符号化してユーザ実感嗜好メタデータを生成してもよい。ここで、実感装置430は、実感効果制御装置420にユーザ実感嗜好メタデータを送信してもよい。実感効果制御装置420は、2進デコーダ423及びXMLデコーダ424を含んでもよい。
2進デコーダ423は、実感装置430から受信された実感装置特性メタデータを復号化して第2メタデータを抽出する。また、XMLデコーダ424は、第2メタデータを復号化して実感装置430の特性に対する特性情報を抽出する。
また、2進デコーダ423は、実感装置430から受信されたユーザ実感嗜好メタデータを復号化して第4メタデータを抽出してもよい。また、XMLデコーダ424は、第4メタデータを復号化して実感効果に対するユーザの嗜好情報を抽出してもよい。
実感効果制御装置420は、XMLエンコーダ425及び2進エンコーダ426を含んでもよい。XMLエンコーダ425は、実感装置430による効果イベントの実行を制御する命令情報をXML形態に符号化して第1メタデータを生成する。また、2進エンコーダ426は、第1メタデータを2進数フォーマットに符号化して実感装置命令メタデータを生成する。ここで、実感効果制御装置420は実感装置430で実感装置命令メタデータを送信してもよい。
実感装置430は、2進デコーダ433及びXMLデコーダ434を含んでもよい。2進デコーダ433は、実感効果制御装置420から受信された実感装置命令メタデータを復号化して第1メタデータを抽出する。また、XMLデコーダ434は第1メタデータを復号化して命令情報を抽出する。
図5は、本発明の一実施形態に係る実感装置の構成を示す図である。図5を参照すると、本発明の一実施形態に係る実感装置530は、復号化部531及び駆動部532を備える。
復号化部531は、少なくとも1つの実感効果情報を含む実感装置命令メタデータを復号化する。すなわち、復号化部531は、実感装置命令メタデータを復号化して少なくとも1つの実感効果情報を抽出してもよい。
実感装置命令メタデータは、実感効果制御装置520から受信してもよい。実施形態によって、実感装置命令メタデータは命令情報を含んでもよい。
一実施形態に係る復号化部531は、実感装置命令メタデータを復号化して命令情報を抽出してもよい。駆動部532は、少なくとも1つの実感効果情報に対応する効果イベントを行う。一実施形態に係る駆動部532は命令情報に基づいて効果イベントを行う。
実感メディア再生装置510で再生するコンテンツは、少なくとも1つの実感効果情報を含む。本発明の一側に係る実感装置530は、符号化部533をさらに含んでもよい。符号化部533は、実感装置530の特性に対する特性情報を実感装置特性メタデータに符号化する。すなわち、符号化部533は、特性情報を符号化して実感装置特性メタデータを生成してもよい。符号化部533は、XMLエンコーダ及び2進エンコーダのうち少なくとも1つを含んでもよい。
一実施形態に係る符号化部533は、特性情報をXML形態に符号化して実感装置特性メタデータを生成してもよい。また、符号化部533は、特性情報を2進数フォーマットに符号化して実感装置特性メタデータを生成してもよい。また、符号化部533は、特性情報をXML形態に符号化して第2メタデータを生成し、第2メタデータを2進数フォーマットに符号化して実感装置特性メタデータを生成してもよい。
特性情報は実感装置530の特性に関する情報であってもよい。本発明の一側面によれば、実感装置特性メタデータは、実感装置530に対する基本的な特性情報を示す実感装置特性基本タイプ(Sensory Device Capability Base Type)を含んでもよい。実感装置特性基本タイプは、全ての実感装置530に共通して適用される特性情報に対するメタデータであってもよい。
表1は、一実施形態に係る実感装置特性基本タイプに対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表2は、一実施形態に係る実感装置特性基本タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表3は、一実施形態に係る実感装置特性基本タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
本発明の一側面によれば、実感装置特性メタデータは、実感装置530の共通的な属性(Common Attributes)に対するグループを示す実感装置特性基本属性(Sensory Device Capability Base Attributes)を含んでもよい。
表4は、一実施形態に係る実感装置特性基本属性に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表5は、一実施形態に係る実感装置特性基本属性に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表6は、一実施形態に係る実感装置特性基本属性のうち位置タイプ(Location Type)に対する2進符号化を示す。
Figure 2013538469
表7は、一実施形態に係る実感装置特性基本属性に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
本発明の一側面によれば、実感装置処理システムはMPEG−V情報(MPEG−V Information)を含んでもよい。
表7−1は一実施形態に係るMPEG−V情報に対する2進符号化シンタックスを示す。
Figure 2013538469
表7−2は、一実施形態に係るMPEG−V情報に対する記述語構成意味論を示す。
Figure 2013538469
本発明の一側面によれば、実感装置530は、効果イベントを行う駆動部532のタイプ(Type)に応じて複数の類型に分類されてもよい。
一実施形態に係る実感装置530は、光類型(Light Type)、フラッシュ類型(Flash Type)、ヒーティング類型(Heating Type)、クーリング類型(Cooling Type)、風類型(Wind Type)、振動類型(Vibration Type)、匂い類型(Scent Type)、霧類型(Fog Type)、スプレイ類型(Sprayer Type)、色彩矯正類型(Color Correction Type)、触覚類型(Tactile Type)、筋感覚類型(Kinesthetic Type)及び剛体モーション類型(RigidBody Motion Type)を含んでもよい。
表7−2は、実感装置530の個々の類型に対する2進符号化を示す。
Figure 2013538469
以下、個々の実感装置に対する特性情報について詳説する。
表8は、一実施形態に係る光類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表9は、一実施形態に係る光類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表10は、一実施形態に係る光類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表11は、一実施形態に係るフラッシュ類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表12は、一実施形態に係るフラッシュ類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表13は、一実施形態に係るフラッシュ類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表14は、一実施形態に係るヒーティング類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表15は、一実施形態に係るヒーティング類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表16は、一実施形態に係るヒーティング類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表17は、一実施形態に係るクーリング類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表18は、一実施形態に係るクーリング類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表19は、一実施形態に係るクーリング類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表20は、一実施形態に係る風類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表21は、一実施形態に係る風類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表22は、一実施形態に係る風類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表23は、一実施形態に係る振動類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表24は、一実施形態に係る振動類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表25は、一実施形態に係る振動類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表26は、一実施形態に係る匂い類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表27は、一実施形態に係る匂い類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表28は、一実施形態に係る匂い類型に対する2進符号化を示す。
Figure 2013538469
表29は、一実施形態に係る匂い類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表30は、一実施形態に係る霧類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表31は、一実施形態に係る霧類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表32は、一実施形態に係る霧類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表33は、一実施形態に係るスプレイ類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表34は、一実施形態に係るスプレイ類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表35は、一実施形態に係るスプレイ類型に対する2進符号化を示す。
Figure 2013538469
表36は、一実施形態に係るスプレイ類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表37は、一実施形態に係る色彩矯正類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表38は、一実施形態に係る色彩矯正類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表39は、一実施形態に係る色彩矯正類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表40は、一実施形態に係る触覚類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表41は、一実施形態に係る触覚類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
Figure 2013538469
表42は、一実施形態に係る触覚ディスプレイ類型に対する2進符号化を示す。
Figure 2013538469
表43は、一実施形態に係る触覚類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
表44は、一実施形態に係る筋感覚類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表45は、一実施形態に係る筋感覚類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469

Figure 2013538469
表46は、一実施形態に係る筋感覚類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
表47は、一実施形態に係る剛体モーション類型の実感装置に対する特性情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
Figure 2013538469
表48は、一実施形態に係る剛体モーション類型の実感装置に対する特性情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
表49は、一実施形態に係る剛体モーション類型の実感装置に対する特性情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
本発明の一側面によれば、符号化部533は、ユーザの実感効果に対する嗜好情報をユーザ実感嗜好メタデータに符号化する。すなわち、符号化部533は、嗜好情報を符号化してユーザ実感嗜好メタデータを生成する。符号化部533は、XMLエンコーダ及び2進エンコーダのうち少なくとも1つを含んでもよい。
一実施形態に係る符号化部533は、嗜好情報をXML形態に符号化してユーザ実感嗜好メタデータを生成してもよい。また、符号化部533は、嗜好情報を2進数フォーマットに符号化してユーザ実感嗜好メタデータを生成してもよい。また、符号化部533は、嗜好情報をXML形態に符号化して第4メタデータを生成し、第4メタデータを2進数フォーマットに符号化してユーザ実感嗜好メタデータを生成してもよい。
実施形態によって実感装置530は入力部534をさらに備えてもよい。入力部534は、実感装置530のユーザから嗜好情報が入力される。
本発明の一側面によれば、ユーザ実感嗜好メタデータはユーザの実感効果に対する基本的な嗜好情報を示すユーザ実感嗜好基本タイプ(User Sensory Preference Base Type)を含んでもよい。ユーザ実感嗜好基本タイプは、全てのユーザに共通して適用される嗜好情報に対するメタデータであってもよい。
表50は、一実施形態に係るユーザ実感嗜好基本タイプに対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表51は、一実施形態に係るユーザ実感嗜好基本タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表52は、一実施形態に係るユーザ実感嗜好基本タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
本発明の一側面によれば、ユーザ実感嗜好メタデータはユーザの実感効果に対する嗜好情報の共通的な属性(Common Attributes)に対するグループを示すユーザ実感嗜好基本属性(User Sensory Preference Base Attributes)を含んでもよい。
表53は、一実施形態に係るユーザ実感嗜好基本属性に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表54は、一実施形態に係るユーザ実感嗜好基本属性に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表55は、一実施形態に係るユーザ実感嗜好基本属性のうち適応モードタイプ(Adaptation Mode Type)に対する2進符号化を示す。
Figure 2013538469
表56は、一実施形態に係るユーザ実感選好基本属性に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
以下、個々の実感装置に対する嗜好情報について詳説する。
表57は、一実施形態に係る光類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表58は、一実施形態に係る光類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表59は、一実施形態に係るユニットCS(Unit CS)に対する2進符号化を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
表60は、一実施形態に係る光類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表61は、一実施形態に係るフラッシュ類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表62は、一実施形態に係るフラッシュ類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表63は、一実施形態に係るフラッシュ類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表64は、一実施形態に係るヒーティング類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表65は、一実施形態に係るヒーティング類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表66は、一実施形態に係るヒーティング類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表67は、一実施形態に係るクーリング類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表68は、一実施形態に係るクーリング類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表69は、一実施形態に係るクーリング類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表70は、一実施形態に係る風類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表71は、一実施形態に係る風類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表72は、一実施形態に係る風類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表73は、一実施形態に係る振動類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表74は、一実施形態に係る振動類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表75は、一実施形態に係る振動類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表76は、一実施形態に係る匂い類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表77は、一実施形態に係る匂い類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表78は、一実施形態に係る匂い類型に対する2進符号化を示す。
Figure 2013538469
表79は、一実施形態に係る匂い類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表80は、一実施形態に係る霧類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表81は、一実施形態に係る霧類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表82は、一実施形態に係る霧類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表83は、一実施形態に係るスプレイ類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表84は、一実施形態に係るスプレイ類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表85は、一実施形態に係るスプレイ類型に対する2進符号化を示す。
Figure 2013538469
表86は、一実施形態に係るスプレイ類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表87は、一実施形態に係る色彩矯正類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表88は、一実施形態に係る色彩矯正類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表89は、一実施形態に係る色彩矯正類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表90は、一実施形態に係る触覚類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表91は、一実施形態に係る触覚類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表92は、一実施形態に係る触覚類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
表93は、一実施形態に係る筋感覚類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表94は、一実施形態に係る筋感覚類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表95は、一実施形態に係る筋感覚類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表96は、一実施形態に係る剛体モーション類型の実感装置に対する嗜好情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
表97は、一実施形態に係る剛体モーション類型の実感装置に対する嗜好情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
表98は、一実施形態に係る剛体モーション類型の実感装置に対する嗜好情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
図6は、本発明の一実施形態に係る実感効果制御装置の構成を示す図である。図6を参照すると、本発明の一実施形態に係る実感効果制御装置620は、復号化部621、生成部622及び符号化部623を備える。
復号化部621は、実感効果メタデータ及び実感装置特性メタデータを復号化する。実感効果制御装置620は、実感メディア再生装置610から実感効果メタデータを受信し、実感装置630から実感装置特性メタデータを受信してもよい。
一実施形態に係る復号化部621は、実感効果メタデータを復号化して実感効果情報を抽出してもよい。また、復号化部621は、実感装置特性メタデータを復号化して実感装置630に対する特性情報を抽出してもよい。
復号化部621は、XMLデコーダ及び2進デコーダのうち少なくともいずれか1つを含む。一実施形態に係る復号化部621は、図2を参照して説明したXMLデコーダ221、図3を参照して説明した2進デコーダ321及び図4を参照して説明した2進デコーダ421、XMLデコーダ422のうち少なくともいずれか1つを含んでもよい。
生成部622は、デコードされた実感効果メタデータ及びデコードされた実感装置特性メタデータに基づいて実感装置630を制御する命令情報を生成する。
命令情報は、実感装置630による実感効果情報に対応する効果イベントの実行を制御する情報であってもよい。本発明の一側面によれば、実感効果制御装置620は受信部(図示せず)をさらに備えてもよい。受信部は、実感装置630からユーザ実感嗜好メタデータを受信する。
ここで、復号化部621は、ユーザ実感嗜好メタデータを復号化する。すなわち、復号化部621は、ユーザ実感嗜好メタデータを復号化して実感効果に対するユーザの嗜好情報を抽出してもよい。
また、生成部622は、デコードされた実感効果メタデータ、デコードされた実感装置特性メタデータ、及びデコードされたユーザ実感嗜好メタデータに基づいて実感装置630を制御する命令情報を生成する。
符号化部623は、命令情報を実感装置命令メタデータに符号化する。すなわち、符号化部623は、命令情報を符号化して実感装置命令メタデータを生成してもよい。符号化部623は、XMLエンコーダ及び2進エンコーダのうち少なくとも1つを含んでもよい。一実施形態に係る符号化部623は、命令情報をXML形態に符号化して実感装置命令メタデータを生成してもよい。また、符号化部623は、命令情報を2進数フォーマットに符号化して実感装置命令メタデータを生成してもよい。また、符号化部623は、命令情報をXML形態に符号化して第1メタデータを生成し、第1メタデータを2進数フォーマットに符号化して実感装置命令メタデータを生成してもよい。
本発明の一側面によれば、実感装置命令メタデータは、実感装置630を制御する基本的な命令情報を示す実感装置命令基本タイプ(Sensory Device Command Base Type)を含む。実感装置命令基本タイプは、全ての実感装置630の制御に共通して適用される命令情報に対するメタデータであってもよい。
表99は、一実施形態に係る実感装置命令基本タイプに対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表100は、一実施形態に係る実感装置命令基本タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表101は、一実施形態に係る実感装置命令基本タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
本発明の一側面によれば、実感装置命令メタデータは、命令情報の共通的な属性(Common Attributes)に対するグループを示す実感装置命令基本属性(Sensory Device Command Base Attributes)を含んでもよい。
表102は、一実施形態に係る実感装置命令基本属性に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表103は、一実施形態に係る実感装置命令基本属性に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表104は、一実施形態に係る実感装置命令基本属性に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
以下、個々の実感装置に対する命令情報について詳説する。
表105は、一実施形態に係る光類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表106は、一実施形態に係る光類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表107は、一実施形態に係る色彩CS(Color CS)に対する2進表現を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
表108は、一実施形態に係る光類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表109は、一実施形態に係るフラッシュ類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表110は、一実施形態に係るフラッシュ類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表111は、一実施形態に係るフラッシュ類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表112は、一実施形態に係るヒーティング類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表113は、一実施形態に係るヒーティング類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表114は、一実施形態に係るヒーティング類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表115は、一実施形態に係るクーリング類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表116は、一実施形態に係るクーリング類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表117は、一実施形態に係るクーリング類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表118は、一実施形態に係る風類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表119は、一実施形態に係る風類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表120は、一実施形態に係る風類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表121は、一実施形態に係る振動類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表122は、一実施形態に係る振動類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表123は、一実施形態に係る振動類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表124は、一実施形態に係る匂い類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表125は、一実施形態に係る匂い類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表126は、一実施形態に係る匂い類型に対する2進符号化を示す。
Figure 2013538469
表127は、一実施形態に係る匂い類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表128は、一実施形態に係る霧類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表129は、一実施形態に係る霧類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表130は、一実施形態に係る霧類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表131は、一実施形態に係るスプレイ類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表132は、一実施形態に係るスプレイ類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表133は、一実施形態に係るスプレイ類型に対する2進符号化を示す。
Figure 2013538469
表134は、一実施形態に係るスプレイ類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表135は、一実施形態に係る色彩矯正類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表136は、一実施形態に係る色彩矯正類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表137は、一実施形態に係る色彩矯正類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表138は、一実施形態に係る触覚類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表139は、一実施形態に係る触覚類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表140は、一実施形態に係る触覚類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表141は、一実施形態に係る筋感覚類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表142は、一実施形態に係る筋感覚類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表143は、一実施形態に係る筋感覚類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表144は、一実施形態に係る剛体モーション類型の実感装置に対する命令情報のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表145は、一実施形態に係る剛体モーション類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
Figure 2013538469
表146は、他の一実施形態に係る剛体モーション類型の実感装置に対する命令情報の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表147は、一実施形態に係る剛体モーション類型の実感装置に対する命令情報の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
本発明の一側面によれば、色彩矯正類型は初期色彩矯正パラメータ類型(Initialize Color Correction Parameter Type)を含んでもよい。
また、初期色彩矯正パラメートル類型は、トーン複写曲線類型(Tone Reproduction Curves Type)、変換LUT類型(Conversion LUT Type)、発光類型(illuminant Type)及び入力装置色彩全体類型(Input Device Color Gamut Type)を含んでもよい。
表148は、一実施形態に係る初期色彩矯正パラメータ類型のXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表149は、一実施形態に係る初期色彩矯正パラメータ類型の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表150は、一実施形態に係るトーン複写曲射類型の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表151は、一実施形態に係る変換LUT類型の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表152は、一実施形態に係る発光類型の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表153は、一実施形態に係る入力装置色彩全体類型の2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表154は、一実施形態に係る初期色彩矯正パラメータ類型の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表155は、一実施形態に係るトーン複写曲線類型の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表156は、一実施形態に係る変換LUT類型の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表157は、一実施形態に係る発光類型の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表158は、一実施形態に係る入力装置色彩全体類型の記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
図7Aは、本発明の一実施形態に係る実感メディア再生装置の構成を示す図である。図7Aを参照すると、本発明の一実施形態に係る実感効果情報を含むコンテンツを再生する実感メディア再生装置710は、抽出部711、符号化部712及び送信部713を備える。抽出部711は、コンテンツから実感効果情報を抽出する。実感装置730は、実感効果情報に対応する効果イベントを実現する。
符号化部712は、抽出された実感効果情報を実感効果メタデータに符号化する。すなわち、符号化部712は、実感効果情報を符号化して実感効果メタデータを生成する。符号化部712は、XMLエンコーダ及び2進エンコーダのうち少なくとも1つを含んでもよい。送信部713は、符号化された実感効果メタデータを実感効果制御装置720に送信する。
本発明の一側面によれば、実感効果メタデータは基本的な実感効果情報を示すSEM基本タイプ(SEM Base Type、Sensory Effect Metadata Base Type)を含んでもよい。
表159は、一実施形態に係るSEM基本タイプに対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表160は、一実施形態に係るSEM基本タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
本発明の一側面によれば、実感効果メタデータに対する2進符号化は、メタデータのタイプ(Type of Metadata)、個々のメタデータのタイプ(Type of Individual Metadata)及び個別的メタデータタイプ(Individual Metadata Type)のデータフィールドタイプ(Data Field Type)を含む。
表160−2は、一実施形態に係る2進符号化の基本構造(Basic Structure)を示す。
Figure 2013538469
一実施形態に係るメタデータのタイプは、実感装置命令情報に対するメタデータ(すなわち、実感装置命令メタデータ、Sensory Device Command Metadata)、実感効果メタデータ(Sensory Effect Metadata)などを含んでもよい。表160−3は、メタデータのタイプに対する2進符号化を示す。
Figure 2013538469
表160−3を参照すると、一実施形態に係るメタデータのタイプは、実感効果メタデータ(SEM)、インタラクション情報メタデータ(Interaction Information Metadata)、命令情報メタデータ(Control Information Metadata)、仮想世界オブジェクト特性(Virtual World Object Characteristics)及び予約メタデータ(Reserved Metadata)を含む。
一実施形態に係る個々のメタデータのタイプは、光効果(Light Effect)、フラッシュ効果(Flash Effect)などに対する選択(Selection)であってもよい。表160−4は、個々のメタデータのタイプの効果タイプ(Effect Type)に対する識別子(ID)を示す。
Figure 2013538469
表161は、一実施形態に係るSEM基本タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
本発明の一側面によれば、実感効果メタデータは実感効果情報の共通的な属性(Common Attributes)に対するグループを示すSEM基本属性(SEM Base Attributes)を含んでもよい。
表162は、一実施形態に係るSEM基本属性に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表163は、一実施形態に係るSEM基本属性に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表164は、一実施形態に係るSEM基本属性に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469

Figure 2013538469
表165は、一実施形態に係るSEM適応属性(SEM Adaptability Attributes)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
表166は、一実施形態に係るsi属性リスト(si Attribute List)に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表167は、一実施形態に係るsi属性リストに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表168は、一実施形態に係る技術メタデータタイプ(Description Metadata Type)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
表169は、一実施形態に係るSEMルートエレメント(SEM Root Element)に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表170は、一実施形態に係るSEMルートエレメントに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表171は、一実施形態に係るSEMに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
表172は、一実施形態に係る技術メタデータ(Description Metadata)に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表173は、一実施形態に係る技術メタデータに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表174は、他の一実施形態に係る技術メタデータタイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表175は、一実施形態に係る宣言タイプ(Declarations Type)に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表176は、一実施形態に係る宣言タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表177は、他の一実施形態に係る宣言タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表178は、一実施形態に係る効果グループタイプ(Group of Effect Type)に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表179は、一実施形態に係る効果グループタイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表180は、他の一実施形態に係る効果タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表181は、一実施形態に係る効果基本タイプ(Effect Base Type)に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表182は、一実施形態に係る効果基本タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表183は、一実施形態に係る効果基本タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表184は、一実施形態に係る補充情報タイプ(Supplimental Information Type)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表185は、一実施形態に係る参照効果タイプ(Reference Effect Type)に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表186は、一実施形態に係る参照効果タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表187は、一実施形態に係る参照効果タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表188は、一実施形態に係るパラメータ基本タイプ(Parameter Base Type)に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表189は、一実施形態に係るパラメータ基本タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表190は、一実施形態に係るパラメータ基本タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表191は、一実施形態に係る色彩矯正パラメータタイプ(Color Correction Parameter Type)に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表192は、一実施形態に係る色彩矯正パラメータタイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
Figure 2013538469
表193は、一実施形態に係る色彩矯正パラメータタイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
色彩矯正パラメートルタイプは、トーン複写曲線タイプ(Tone Reproduction Curves Type)、変換LUTタイプ(Conversion LUT Type)、発光タイプ(illuminant Type)及び入力装置色彩全体タイプ(Input Device Color Gamut Type)を含んでもよい。
表194は、一実施形態に係るトーン複写曲線タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表195は、一実施形態に係る変換LUTタイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表196は、一実施形態に係る発光タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表197は、一実施形態に係る入力装置色彩全体タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表198は、一実施形態に係る光タイプ(Light Type)の実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表199は、一実施形態に係る光タイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表200は、一実施形態に係る光タイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
表201は、一実施形態に係る色彩タイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表202は、一実施形態に係る色彩RGBタイプに対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表203は、一実施形態に係るフラッシュタイプ(Flash Type)の実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表204は、一実施形態に係るフラッシュタイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表204は、一実施形態に係るフラッシュタイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
本発明の一側面によれば、実感装置730は、温度タイプ(Temperature Type)をさらに含んでもよい。
表205は、一実施形態に係る温度タイプの実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表206は、一実施形態に係る温度タイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表207は、一実施形態に係る温度タイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表208は、一実施形態に係る風タイプの実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表209は、一実施形態に係る風タイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表210は、一実施形態に係る風タイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表211は、一実施形態に係る振動タイプの実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表212は、一実施形態に係る振動タイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表213は、一実施形態に係る振動タイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表214は、一実施形態に係るスプレイタイプの実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表215は、一実施形態に係るスプレイタイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表216は、一実施形態に係るスプレイタイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表217は、一実施形態に係る匂いタイプの実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表218は、一実施形態に係る匂いタイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表219は、一実施形態に係る匂いタイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表220は、一実施形態に係る霧タイプの実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表221は、一実施形態に係る霧タイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表222は、一実施形態に係る霧タイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表223は、一実施形態に係る色彩矯正タイプの実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表224は、一実施形態に係る色彩矯正タイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表225は、一実施形態に係る色彩矯正タイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表226は、一実施形態に係る剛体モーションタイプの実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
表227は、一実施形態に係る剛体モーションタイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
Figure 2013538469
Figure 2013538469
Figure 2013538469
表228は、一実施形態に係る剛体モーションタイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
Figure 2013538469
表229は、一実施形態に係る移動トゥウォードタイプ(Move Toward Type)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表230は、一実施形態に係る傾斜タイプ(Incline Type)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表231は、一実施形態に係るシェークタイプ(Shake Type)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表232は、一実施形態に係るウェーブタイプ(Wave Type)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表233は、一実施形態に係るスピンタイプ(Spin Type)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表234は、一実施形態に係るターンタイプ(Turn Type)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表235は、一実施形態に係る衝突タイプ(Collide Type)に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
本発明の一側面によれば、筋感覚タイプの実感装置はパッシブ筋感覚モーションタイプ、パッシブ筋感覚力タイプ及びアクティブ筋感覚タイプを含んでもよい。
表236は、一実施形態に係るパッシブ筋感覚モーションタイプ(Passive Kinesthetic Motion Type)の実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表237は、一実施形態に係るパッシブ筋感覚モーションタイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表238は、一実施形態に係るパッシブ筋感覚モーションタイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表238−2は、一実施形態に係るパッシブ筋感覚力タイプ(Passive Kinesthetic Force Type)の実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表238−3は、一実施形態に係るパッシブ筋感覚モーションタイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表238−4は、一実施形態に係るパッシブ筋感覚モーションタイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表239は、一実施形態に係るアクティブ筋感覚タイプ(Active Kinesthetic Type)の実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表240は、一実施形態に係るアクティブ筋感覚タイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表241は、一実施形態に係るアクティブ筋感覚タイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表242は、一実施形態に係る触覚タイプの実感装置で実現される実感効果情報に対するXML符号化シンタックス(XML Representation Syntax)を示す。
Figure 2013538469
表243は、一実施形態に係る触覚タイプの実感装置で実現される実感効果情報に対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2013538469
表244は、一実施形態に係る触覚タイプの実感装置で実現される実感効果情報に対する記述語構成意味論(Descriptor Components Semantics)を示す。
Figure 2013538469
表245は、一実施形態に係る連想記号(Mnemonics)を示す。
Figure 2013538469
図7Bは、本発明の一実施形態に係る実感効果処理システムの動作方法を示す図である。図7Bを参照すると、実感メディア再生装置710は少なくとも1つの実感効果情報を含むコンテンツを再生する。
実感メディア再生装置710はコンテンツから実感効果情報を抽出する。ここで、実感メディア再生装置710は、実感効果情報を実感効果メタデータ(Sensory Effect Metadata、SEM)に符号化する(S741)。すなわち、実感メディア再生装置710は実感効果情報を符号化して実感効果メタデータを生成してもよい。また、一実施形態に係る実感メディア再生装置710は、生成した実感効果メタデータを実感効果制御装置720に送信してもよい。
実感装置730は、実感装置730の特性に対する特性情報を実感装置特性メタデータ(Sensory Device Capability Metadata、SDCap Metadata)に符号化する(S742)。すなわち、実感装置730は特性情報を符号化して実感装置特性メタデータを生成してもよい。また、一実施形態に係る実感装置730は、生成した実感装置特性メタデータを実感効果制御装置720に送信してもよい。実感効果制御装置720は、実感効果メタデータ及び実感装置特性メタデータを復号化してもよい(S743)。
一実施形態に係る実感効果制御装置720は、実感効果メタデータを復号化して実感効果情報を抽出してもよい。また、実感効果制御装置720は、実感装置特性メタデータを復号化して実感装置730の特性に対する特性情報を抽出してもよい。実感効果制御装置720は、デコードされた実感効果メタデータ及びデコードされた実感装置特性メタデータに基づいて実感装置730を制御する命令情報を生成する(S744)。
実感効果制御装置720は、生成した命令情報を実感装置命令メタデータに符号化する(S745)。すなわち、実感効果制御装置720は、生成した命令情報を符号化して実感装置命令メタデータを生成してもよい。また、実感効果制御装置720は、実感装置命令メタデータを実感装置730に送信する。
実感装置730は、実感効果制御装置720から実感装置命令メタデータを受信し、受信した実感装置命令メタデータを復号化する(S746)。すなわち、実感装置730は、実感装置命令メタデータを復号化して実感効果情報を抽出してもよい。ここで、実感装置730は実感効果情報に対応する効果イベントを行う(S747)。
本発明の一側面によれば、実感装置730は、実感装置命令メタデータを復号化して命令情報を抽出してもよい。ここで、実感装置730は、命令情報に基づいて実感効果情報に対応する効果イベントを行う。
本発明の他の一側面によれば、実感装置730は、ユーザの実感効果に対する嗜好情報をユーザ実感嗜好メタデータに符号化する(S751)。すなわち、実感装置730は、ユーザの実感効果に対する嗜好情報を符号化してユーザ実感嗜好メタデータ(User Sensory Preference Metadata、USP Metadata)を生成してもよい。
また、実感装置730は、生成されたユーザ実感嗜好メタデータを実感効果制御装置720に送信してもよい。本発明の一側に係る実感効果制御装置720は実感装置730から実感装置特性メタデータ及びユーザ実感嗜好メタデータを受信する(S752)。ここで、実感効果制御装置720は、ユーザ実感嗜好メタデータを復号化してユーザの実感効果に対する嗜好情報を抽出する(S753)。
また、実感効果制御装置720はデコードされた実感効果メタデータ、デコードされた実感装置特性メタデータ及びデコードされたユーザ実感嗜好メタデータに基づいて命令情報を生成してもよい。実施形態によっては、命令情報は実感効果情報を含んでもよい。
本発明の一側面によれば、実感効果制御方法は、実感効果制御装置720がステップS743からステップS745を行う方法であってもよい。また、本発明の一側面によれば、実感装置動作方法は、実感装置730がステップS746及びステップS747を行う方法であってもよい。
本発明に係る実施形態は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などの単独または組み合わせたものを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コード(machine code)だけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コード(higher level code)を含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
以上のように本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定して定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。

Claims (11)

  1. 実感効果情報を含むコンテンツを再生する実感メディア再生装置において、
    前記コンテンツから前記実感効果情報を抽出する抽出部と、
    前記抽出された実感効果情報を実感効果メタデータに符号化する符号化部と、
    前記実感効果メタデータを実感効果制御装置に送信する送信部と、
    を備えることを特徴とする実感メディア再生装置。
  2. 前記符号化部は、前記実感効果情報をXML形態に符号化して前記実感効果メタデータを生成することを特徴とする請求項1に記載の実感メディア再生装置。
  3. 前記符号化部は、前記実感効果情報を2進数フォーマットに符号化して前記実感効果メタデータを生成することを特徴とする請求項1に記載の実感メディア再生装置。
  4. 前記符号化部は、前記実感効果情報をXML形態に符号化して第1メタデータを生成し、前記第1メタデータを2進数フォーマットに符号化して前記実感効果メタデータを生成することを特徴とする請求項1に記載の実感メディア再生装置。
  5. 前記2進数フォーマットに符号化された前記実感効果メタデータは、2進符号化シンタックス、前記2進符号化シンタックスの属性のビット数、及び前記属性の形式を含むことを特徴とする請求項3に記載の実感メディア再生装置。
  6. 実感効果情報を含むコンテンツを再生する実感メディア再生方法において、
    前記コンテンツから前記実感効果情報を抽出するステップと、
    前記抽出された実感効果情報を実感効果メタデータに符号化するステップと、
    前記実感効果メタデータを実感効果制御装置に送信するステップと、
    を含むことを特徴とする実感メディア再生方法。
  7. 前記符号化するステップは、前記実感効果情報をXML形態に符号化して前記実感効果メタデータを生成することを特徴とする請求項6に記載の実感メディア再生方法。
  8. 前記符号化するステップは、前記実感効果情報を2進数フォーマットに符号化して前記実感効果メタデータを生成することを特徴とする請求項6に記載の実感メディア再生方法。
  9. 前記符号化するステップは、前記実感効果情報をXML形態に符号化して第1メタデータを生成し、前記第1メタデータを2進数フォーマットに符号化して前記実感効果メタデータを生成することを特徴とする請求項6に記載の実感メディア再生方法。
  10. 前記2進数フォーマットに符号化された前記実感効果メタデータは、2進符号化シンタックス、前記2進符号化シンタックスの属性のビット数、及び前記属性の形式を含むことを特徴とする請求項8に記載の実感メディア再生方法。
  11. コンピュータにより実行されると、該コンピュータに請求項6から請求項10のいずれか一項の方法を実行させるプログラム。
JP2013504806A 2010-04-12 2011-04-06 実感効果処理システム及び方法 Pending JP2013538469A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020100033297A KR101746453B1 (ko) 2010-04-12 2010-04-12 실감 효과 처리 시스템 및 방법
KR10-2010-0033297 2010-04-12
PCT/KR2011/002409 WO2011129544A2 (ko) 2010-04-12 2011-04-06 실감 효과 처리 시스템 및 방법

Publications (1)

Publication Number Publication Date
JP2013538469A true JP2013538469A (ja) 2013-10-10

Family

ID=44799128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013504806A Pending JP2013538469A (ja) 2010-04-12 2011-04-06 実感効果処理システム及び方法

Country Status (6)

Country Link
US (1) US20130103703A1 (ja)
EP (1) EP2560395A4 (ja)
JP (1) JP2013538469A (ja)
KR (1) KR101746453B1 (ja)
CN (1) CN102893612B (ja)
WO (1) WO2011129544A2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2713994A2 (en) * 2011-05-26 2014-04-09 The Procter and Gamble Company Compositions comprising an efficient perfume bloom
KR101888529B1 (ko) * 2012-05-04 2018-08-14 엘지전자 주식회사 미디어 기기 및 그것의 제어 방법
KR101888528B1 (ko) * 2012-05-04 2018-08-14 엘지전자 주식회사 미디어 기기 및 그것의 제어 방법
KR20130134130A (ko) * 2012-05-30 2013-12-10 한국전자통신연구원 융합형 미디어 서비스 플랫폼에서의 미디어 처리 장치 및 그 방법
US9098984B2 (en) * 2013-03-14 2015-08-04 Immersion Corporation Haptic effects broadcasting during a group event
US10595095B2 (en) * 2014-11-19 2020-03-17 Lg Electronics Inc. Method and apparatus for transceiving broadcast signal for viewing environment adjustment
KR102300997B1 (ko) * 2015-03-11 2021-09-13 한국전자통신연구원 전정 재활 운동을 위한 실감 효과 장치 및 방법
CN108885500A (zh) * 2016-04-07 2018-11-23 国立研究开发法人科学技术振兴机构 触觉信息转换装置、触觉信息转换方法、及触觉信息转换程序
US10861221B2 (en) * 2017-07-14 2020-12-08 Electronics And Telecommunications Research Institute Sensory effect adaptation method, and adaptation engine and sensory device to perform the same
US20220236120A1 (en) * 2019-06-24 2022-07-28 Albert-Ludwigs-Universität Freiburg Tactile Sensor and Method for Operating a Tactile Sensor
US11647261B2 (en) 2019-11-22 2023-05-09 Sony Corporation Electrical devices control based on media-content context

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092753A (ja) * 2000-12-21 2003-03-28 Victor Co Of Japan Ltd 構造化メタデータの伝送方法
JP2003324402A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
JP2005284903A (ja) * 2004-03-30 2005-10-13 Matsushita Electric Ind Co Ltd 文書符号化装置、文書復号化装置、文書符号化方法及び文書復号化方法
JP2009171624A (ja) * 2002-04-12 2009-07-30 Mitsubishi Electric Corp メタデータ配信装置、メタデータ検索装置、メタデータ再生成条件設定装置、メタデータ再生成装置、メタデータ配信方法及びメタデータ再生成方法
WO2010008139A2 (en) * 2008-07-14 2010-01-21 Electronics And Telecommunications Research Institute Multimedia application system and method using metadata for sensory device
WO2010007987A1 (ja) * 2008-07-15 2010-01-21 シャープ株式会社 データ送信装置、データ受信装置、データ送信方法、データ受信方法および視聴環境制御方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4167000A (en) * 1976-09-29 1979-09-04 Schlumberger Technology Corporation Measuring-while drilling system and method having encoder with feedback compensation
US4077061A (en) * 1977-03-25 1978-02-28 Westinghouse Electric Corporation Digital processing and calculating AC electric energy metering system
US4375287A (en) * 1981-03-23 1983-03-01 Smith Henry C Audio responsive digital toy
US6940405B2 (en) * 1996-05-30 2005-09-06 Guardit Technologies Llc Portable motion detector and alarm system and method
US6590588B2 (en) * 1998-05-29 2003-07-08 Palm, Inc. Wireless, radio-frequency communications using a handheld computer
WO2002007000A2 (en) * 2000-07-13 2002-01-24 The Belo Company System and method for associating historical information with sensory data and distribution thereof
US20050203927A1 (en) * 2000-07-24 2005-09-15 Vivcom, Inc. Fast metadata generation and delivery
US6678641B2 (en) * 2001-08-08 2004-01-13 Sony Corporation System and method for searching selected content using sensory data
US20030090531A1 (en) * 2001-11-02 2003-05-15 Eastman Kodak Company Digital data preservation system
WO2003089100A1 (en) * 2002-04-22 2003-10-30 Intellocity Usa, Inc. Method and apparatus for data receiver and controller
WO2004097350A2 (en) * 2003-04-28 2004-11-11 The Board Of Trustees Of The University Of Illinois Room volume and room dimension estimation
KR100581060B1 (ko) * 2003-11-12 2006-05-22 한국전자통신연구원 오감 데이터 동기화 전송 장치 및 그 방법과 그를 이용한실감형 멀티미디어 데이터 제공 시스템 및 그 방법
US20060015560A1 (en) * 2004-05-11 2006-01-19 Microsoft Corporation Multi-sensory emoticons in a communication system
US8949395B2 (en) * 2004-06-01 2015-02-03 Inmage Systems, Inc. Systems and methods of event driven recovery management
US8634606B2 (en) * 2004-12-07 2014-01-21 Mitsubishi Electric Research Laboratories, Inc. Method and system for binarization of biometric data
KR100737804B1 (ko) * 2005-03-30 2007-07-10 전자부품연구원 센서 네트워크 및 메타데이터를 이용한 미디어 서비스 제공시스템
US20100201512A1 (en) * 2006-01-09 2010-08-12 Harold Dan Stirling Apparatus, systems, and methods for evaluating body movements
EP2092739A4 (en) * 2006-10-19 2011-01-19 Lg Electronics Inc CODING DEVICE METHOD; METHOD AND DEVICE FOR DECODING
EP2081636A4 (en) * 2006-10-26 2010-12-22 Wicab Inc SYSTEMS AND METHODS FOR ALTERING FUNCTIONS AND TREATING BRAIN AND BODY CONDITIONS AND DISEASES
US8635307B2 (en) * 2007-02-08 2014-01-21 Microsoft Corporation Sensor discovery and configuration
US7667596B2 (en) * 2007-02-16 2010-02-23 Panasonic Corporation Method and system for scoring surveillance system footage
US9052817B2 (en) * 2007-06-13 2015-06-09 Apple Inc. Mode sensitive processing of touch data
US8095646B2 (en) * 2007-08-16 2012-01-10 Sony Computer Entertainment Inc. Content ancillary to sensory work playback
CN101919248A (zh) * 2007-09-11 2010-12-15 Rgb光线有限公司 增强型图像压缩的字节表示
CN101408873A (zh) * 2007-10-09 2009-04-15 劳英杰 全范围语义信息综合认知系统及其应用
WO2009051428A1 (en) * 2007-10-16 2009-04-23 Electronics And Telecommunications Research Institute Sensory effect media generating and consuming method and apparatus thereof
US20100275235A1 (en) * 2007-10-16 2010-10-28 Sanghyun Joo Sensory effect media generating and consuming method and apparatus thereof
US8245124B1 (en) * 2008-03-20 2012-08-14 Adobe Systems Incorporated Content modification and metadata
US20110125788A1 (en) * 2008-07-16 2011-05-26 Electronics And Telecommunications Research Institute Method and apparatus for representing sensory effects and computer readable recording medium storing sensory device capability metadata
KR20100008777A (ko) * 2008-07-16 2010-01-26 한국전자통신연구원 실감 효과 표현 방법 및 그 장치 및 실감 기기 제어 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
KR20100008774A (ko) * 2008-07-16 2010-01-26 한국전자통신연구원 실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
KR20100008775A (ko) * 2008-07-16 2010-01-26 한국전자통신연구원 실감 효과 표현 방법 및 그 장치 및 사용자 환경 정보 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
KR20100033954A (ko) * 2008-09-22 2010-03-31 한국전자통신연구원 실감 효과 표현 방법 및 장치
KR101014630B1 (ko) * 2008-09-25 2011-02-16 한국전자통신연구원 다중 디바이스 제어 서버와 지그비 코디네이터 및 앤드 디바이스와 이를 위한 다중 디바이스 제어 방법
US9189670B2 (en) * 2009-02-11 2015-11-17 Cognex Corporation System and method for capturing and detecting symbology features and parameters
KR101318756B1 (ko) * 2009-02-20 2013-10-16 엘지디스플레이 주식회사 터치정보 처리방법 및 장치와 이를 이용한 평판표시장치
KR20100114482A (ko) * 2009-04-15 2010-10-25 한국전자통신연구원 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치
KR20100138725A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
US9027062B2 (en) * 2009-10-20 2015-05-05 Time Warner Cable Enterprises Llc Gateway apparatus and methods for digital content delivery in a network
US8675010B2 (en) * 2010-04-02 2014-03-18 Electronics And Telecommunications Research Institute Method and apparatus for providing metadata for sensory effect, computer readable record medium on which metadata for sensory effect is recorded, method and apparatus for representating sensory effect
US20110241908A1 (en) * 2010-04-02 2011-10-06 Samsung Electronics Co., Ltd. System and method for processing sensory effect
US20110282967A1 (en) * 2010-04-05 2011-11-17 Electronics And Telecommunications Research Institute System and method for providing multimedia service in a communication system
KR101685922B1 (ko) * 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
US20110276659A1 (en) * 2010-04-05 2011-11-10 Electronics And Telecommunications Research Institute System and method for providing multimedia service in a communication system
KR101677718B1 (ko) * 2010-04-14 2016-12-06 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101640043B1 (ko) * 2010-04-14 2016-07-15 삼성전자주식회사 가상 세계 처리 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092753A (ja) * 2000-12-21 2003-03-28 Victor Co Of Japan Ltd 構造化メタデータの伝送方法
JP2009171624A (ja) * 2002-04-12 2009-07-30 Mitsubishi Electric Corp メタデータ配信装置、メタデータ検索装置、メタデータ再生成条件設定装置、メタデータ再生成装置、メタデータ配信方法及びメタデータ再生成方法
JP2003324402A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
JP2005284903A (ja) * 2004-03-30 2005-10-13 Matsushita Electric Ind Co Ltd 文書符号化装置、文書復号化装置、文書符号化方法及び文書復号化方法
WO2010008139A2 (en) * 2008-07-14 2010-01-21 Electronics And Telecommunications Research Institute Multimedia application system and method using metadata for sensory device
WO2010007987A1 (ja) * 2008-07-15 2010-01-21 シャープ株式会社 データ送信装置、データ受信装置、データ送信方法、データ受信方法および視聴環境制御方法

Also Published As

Publication number Publication date
US20130103703A1 (en) 2013-04-25
WO2011129544A3 (ko) 2012-01-12
EP2560395A2 (en) 2013-02-20
KR20110113942A (ko) 2011-10-19
CN102893612B (zh) 2015-11-25
CN102893612A (zh) 2013-01-23
KR101746453B1 (ko) 2017-06-13
EP2560395A4 (en) 2015-04-15
WO2011129544A2 (ko) 2011-10-20

Similar Documents

Publication Publication Date Title
JP2013538469A (ja) 実感効果処理システム及び方法
US8520872B2 (en) Apparatus and method for sound processing in a virtual reality system
KR101492635B1 (ko) 실감 미디어 생성 및 소비 방법 및 그 장치
JP6499324B2 (ja) ビデオを再生するための方法、クライアント及びコンピュータ記憶媒体
KR100989079B1 (ko) 오케스트라 미디어 서비스 시스템 및 방법
JP2018129054A (ja) ヘッドマウントシステムに関連するホップ数を削減するためのシステム及び方法
CN106303555A (zh) 一种基于混合现实的直播方法、装置和系统
CN107835971A (zh) 基于用户触觉空间(HapSpace)提供触觉反馈和交互的方法和装置
US9952668B2 (en) Method and apparatus for processing virtual world
JP2021047907A (ja) 触覚効果をストリーミングするためのシステム、装置、および方法
Kim Authoring multisensorial content
US11128739B2 (en) Network-edge-deployed transcoding methods and systems for just-in-time transcoding of media data
JP6424331B2 (ja) 静止画情報処理方法
KR101651432B1 (ko) 실감 효과 처리 시스템 및 방법
EP2597575B1 (en) Method for transmitting data between virtual worlds
JP2017028701A (ja) 触力覚オーディオビジュアルコンテンツにおけるウォッシュアウト要求を伝達するための信号、関連する方法およびデバイス
JP2011155532A (ja) 体感効果再生装置
JPWO2010087153A1 (ja) 感覚効果情報のデータ構造、感覚効果情報出力装置、感覚効果情報出力方法、感覚効果情報生成装置、制御装置、システム、プログラムおよび記録媒体
US20210014292A1 (en) Systems and methods for virtual reality engagement
KR101706595B1 (ko) 발향 장치가 구비된 실감 미디어 콘텐츠 구현 시스템
TWI809786B (zh) 用於自舊有遊戲產生元遊戲之系統及方法
TW200809567A (en) Ambient experience instruction generation
US20110090310A1 (en) Method and apparatus for reproducing adaptive motion effect using schema structure indicating information associated with performance of motion device
WO2020183235A1 (en) Smart furniture content interaction system and method
JP2011119883A (ja) 体感効果再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150910

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151027

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20151225