JP2006217653A - 多重化装置及び方法、並びに合成装置および方法 - Google Patents

多重化装置及び方法、並びに合成装置および方法 Download PDF

Info

Publication number
JP2006217653A
JP2006217653A JP2006099977A JP2006099977A JP2006217653A JP 2006217653 A JP2006217653 A JP 2006217653A JP 2006099977 A JP2006099977 A JP 2006099977A JP 2006099977 A JP2006099977 A JP 2006099977A JP 2006217653 A JP2006217653 A JP 2006217653A
Authority
JP
Japan
Prior art keywords
data
circuit
information
dimensional
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006099977A
Other languages
English (en)
Other versions
JP4529933B2 (ja
Inventor
Teruhiko Suzuki
輝彦 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006099977A priority Critical patent/JP4529933B2/ja
Publication of JP2006217653A publication Critical patent/JP2006217653A/ja
Application granted granted Critical
Publication of JP4529933B2 publication Critical patent/JP4529933B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】VRML方式により記述されたオブジェクトと、自然画像とを同一のストリームに多重化して伝送する。
【解決手段】構文解析回路307は、記憶装置302からのシーン記述子SDに含まれているURLを抽出し、そのURLに対応するエレメンタリストリームESとオブジェクトストリーム情報IOを記憶装置306,305にそれぞれ出力する。OD発生回路304は、情報OIからオブジェクト記述子ODを抽出し、そのID番号OD_ID
を生成して、BIFSエンコーダ308に供給するとともに、オブジェクト記述子ODに付与して多重化回路303に出力する。多重化回路303は、BIFSエンコーダ308においてバイナリフォーマットに変換された、ID番号OD_IDが含まれるシ
ーン記述子SDと、オブジェクト記述子ODと、エレメンタリストリームESとを多重化し、多重化ストリームFSとして出力する。
【選択図】図1

Description

本発明は、動画像信号を、例えば光磁気ディスクや磁気テープなどの記録媒体に記録し、これを再生してディスプレイに表示したり、テレビ会議システム、テレビ電話システム、放送用機器、マルチメディアデータベース検索システムなど、動画像信号を伝送路を介して送信側から受信側に伝送し、受信側においてこれを受信し、表示する場合、あるいは動画像信号を編集し、記録する場合などに用いて好適な多重化装置及び方法、並びに合成装置および方法に関する。
例えば、テレビ会議システム、テレビ電話システムなどのように、動画像信号を遠隔地に伝送するシステムにおいては、伝送路を効率良く利用するため、映像信号のライン相関やフレーム間相関を利用して、画像信号を圧縮符号化するようになされている。
また、近年においては、コンピュータの処理能力が向上した事から、コンピュータを用いた動画像情報端末も普及しつつある。こうしたシステムでは、ネットワークなどの伝送路を通じて情報を遠隔地に伝送する。その場合においても、伝送路を効率よく利用するために、伝送する画像、音声、または、コンピュータデータなどの信号を圧縮符号化して伝送するようになされている。
端末側においては、伝送されてきた圧縮信号を圧縮符号化方法に対応する所定の復号方法に基づいて復号し、元の画像、音声、または、コンピュータデータなどを復元し、端末が備える表示装置や、スピーカ等に出力する。
従来においては、伝送されてきた画像信号などをそのまま表示端末に出力するのみであったが、コンピュータを用いた情報端末においては、複数の画像、音声、または、コンピュータデータを扱うことが可能であるとともに、これらに対して所定の変換処理を施した後、2次元または3次元空間に表示することが可能となってきている。このような処理は、送信側において、2次元または3次元空間の情報をある所定の方法により記述し、端末側がその記述に従って、例えば、画像信号などに対して所定の変換処理を行うことにより実現することができる。
こうした空間情報の記述の方式として代表的なものにVRML(Virtual Reality Modeling Language)がある。これは、ISO-IEC/JTC1/SC24においても標準化され、最新版のVRML2.0は、IS14772に記載されている。VRMLは、3次元空間を記述する言語であり、3次元空間の属性や形状などを記述するためのデータの集まりが定義されている。このようなデータの集まりをノードと呼ぶ。3次元空間を記述するためには、予め規定されているこれらのノードをどのように組み合わせるのかを記述する事になる。ノードには、色やテクスチャなどの属性を示すデータや、ポリゴンの形状を示すデータなどが含まれている。
コンピュータによる情報端末では、前述のVRMLなどの記述に従い、CG(Computer Graphics)により、ポリゴンなどを用いて、所定のオブジェクトを生成する。VRMLでは、こうして生成したポリゴンから構成される3次元オブジェクトに対してテクスチャを貼り付けることも可能である。静止画像の場合にはTextureが、また、動画像の場合にはMovieTextureと呼ばれるノードが定義されており、これらのノードには、貼り付けようとするテクスチャに関する情報(ファイル名、表示開始時刻または表示終了時刻など)が記載されている。ここで、図23を参照して、テクスチャの貼り付け処理(以下、適宜テクスチャマッピング処理という)について説明する。
図23は、テクスチャマッピング装置の構成例を示す図である。この図において、メモリ群200は、テクスチャメモリ200a、グレースケールメモリ200b、および、3次元オブジェクトメモリ200cから構成されている。テクスチャメモリ200aは、外部から入力されたテクスチャ情報を記憶するようになされている。また、グレースケールメモリ200bおよび3次元オブジェクトメモリ200cは、同様に外部から入力されたテクスチャの透過度を示すkeyデータと、3次元オブジェクト情報とがそれぞれ格納されるようになされている。ここで、3次元オブジェクト情報とは、ポリゴンを生成するために必要な情報や、照明に関する情報である。
レンダリング回路201は、メモリ群200の3次元オブジェクトメモリ200cに記憶されている3次元オブジェクト情報からポリゴンを生成し、3次元オブジェクトを生成する。また、レンダリング回路201は、3次元オブジェクト情報に基づいて、メモリ200aとメモリ200bから、テクスチャ情報とテクスチャの透明度を示すkeyデータとをそれぞれ読み出し、keyデータを参照して、テクスチャとその背景の画像とを重畳処理する。keyデータは、対応する位置のテクスチャの透過度を示しているので、換言すると、このkeyデータは、対応する位置のオブジェクトの透明度を示していることになる。
2次元変換回路202は、外部から供給された視点(View Point)情報に基づいて、レンダリング回路201により生成された3次元オブジェクトを2次元平面に写像することにより得られる2次元画像信号を出力する。なお、テクスチャが動画である場合には、前述のような処理がフレーム単位で実行されることになる。
VRMLにおいては、静止画像の高能率符号化方法の1つであるJPEG(Joint Photographic Experts Group)や動画像の高能率符号化方法の1つであるMPEG(Moving Picture Experts Group)などにより圧縮されたデータもテクスチャ情報として扱うことが可能である。このような圧縮された画像をテクスチャとして使用する場合には、圧縮方式に対応する復号処理によりテクスチャ(画像)が復号される。そして、復号画像がメモリ群200のテクスチャメモリ200aに格納される。その後、前述の場合と同様の処理がなされることになる。
レンダリング回路201は、画像のフォーマットや、動画または静止画の区別に拘わりなく、テクスチャメモリ200aに格納されているテクスチャ情報を、オブジェクトの所定の位置に貼り付ける。従って、ある一つのポリゴンに貼り付けることが可能なのは、常に1つのメモリに記憶されているテクスチャである。ところで、3次元オブジェクト情報としては、各頂点の3次元座標を伝送する必要があり、それぞれの座標成分に32ビットの実数データが必要になる。また、各3次元オブジェクトの反射などの属性にも、32ビット以上の実数データが必要となるので、伝送すべき情報は多大なものとなる。更に、複雑な3次元オブジェクトを伝送しようとする場合や、動画像を送ろうとする場合には、伝送すべき情報は一層膨大なものとなる。従って、伝送路を経由して、以上のような3次元情報やテクスチャ情報を伝送する場合、伝送効率を向上させるためには、情報を圧縮して送る必要がある。
例えば、上述したMPEG(Moving Picture Experts Group)は、ISO-IEC/JTC1/SC2/WG11にて議論され、標準案として提案されたものであり、動き補償予測符号化とDCT(Discrete Cosine Transform)符号化を組み合わせたハイブリッド方式が採用されている。MPEGでは様々なアプリケーションや機能に対応するために、いくつかのプロファイル(機能の分類)およびレベル(画像サイズなどの量)が定義されている。最も基本となるのが、メインプロファイルのメインレベル(MP@ML)である。
図24を参照して、MPEG方式の MP@ML のエンコーダ(画像信号符号化装置)の構成例について説明する。入力画像信号はまずフレームメモリ1に入力され、所定の順番で符号化される。符号化されるべき画像データは、マクロブロック単位で動きベクトル検出回路(ME)2に入力される。動きベクトル検出回路2は、予め設定されている所定のシーケンスに従って、各フレームの画像データを、Iピクチャ、Pピクチャ、またはBピクチャとして処理する。シーケンシャルに入力される各フレームの画像を、I,P,Bのいずれのピクチャとして処理するかは、予め定められている(例えば、I,B,P,B,P,・・・B,Pとして処理される)。
動きベクトル検出回路2は予め定められた所定の参照フレームを参照し、動き補償を行い、その動きベクトルを検出する。動き補償(フレーム間予測)には、前方予測、後方予測、両方向予測の3種類の予測モードがある。Pピクチャの予測モードは前方予測のみであり、Bピクチャの予測モードには前方予測、後方予測、両方向予測の3種類がある。動きベクトル検出回路2は予測誤差を最小にする予測モードを選択し、そのときの予測ベクトルを発生する。
このとき、予測誤差は、例えば、符号化するマクロブロックの分散と比較され、マクロブロックの分散の方が小さい場合、そのマクロブロックでは予測は行わず、フレーム内符号化が行われる。この場合、予測モードは画像内予測(イントラ)となる。動きベクトル検出回路2で検出された動きベクトルおよび上記予測モードは、可変長符号化回路6および動き補償回路(MC)12に入力される。
動き補償回路12では所定の動きベクトルに基づいて予測画像データを生成し、その予測画像データが演算回路3と演算回路10に入力される。演算回路3では符号化するマクロブロックの値と予測画像の値の差分データを演算し、 DCT 回路4に出力する。イントラマクロブロックの場合、演算回路3は符号化するマクロブロックの信号を、そのまま DCT 回路4に出力する。
DCT 回路4は、入力された信号を DCT(離散コサイン変換)処理し、 DCT 係数に変換する。このDCT係数は、量子化回路(Q)5に入力され、送信バッファ7のデータ蓄積量(バッファ蓄積量)に対応した量子化ステップで量子化された後、量子化データが可変長符号化回路6に入力される。
可変長符号化回路6は、量子化回路5より供給される量子化データを、例えばハフマン符号などの可変長符号に変換し、送信バッファ7に出力する。可変長符号化回路6にはまた、量子化回路5より量子化ステップ(スケール)、動きベクトル検出回路2より予測モード(画像内予測、前方予測、後方予測、または両方向予測のいずれが設定されたかを示すモード)および動きベクトル、が入力されており、これらも可変長符号化される。
送信バッファ7は、入力されたデータを一時蓄積し、蓄積量に対応する量子化制御信号を量子化回路5に出力する。送信バッファ7は、その符号化データ残量が許容上限値まで増量すると、量子化制御信号によって量子化回路5の量子化スケールを大きくすることにより、量子化データのデータ量を低下させる。また、これとは逆に、データ残量が許容下限値まで減少すると、送信バッファ7は、量子化制御信号によって量子化回路5の量子化スケールを小さくすることにより、量子化データのデータ量を増大させる。このようにして、送信バッファ7のオーバフローまたはアンダフローが防止される。そして、送信バッファ7に蓄積された符号化データは、所定のタイミングで読み出され、ビットストリームとして伝送路に出力される。
一方、量子化回路5より出力された量子化データは、逆量子化回路(IQ)8に入力され、量子化回路5より供給される量子化ステップに対応して逆量子化される。逆量子化回路8の出力データ(DCT係数)は、IDCT(逆DCT)回路9に入力される。IDCT回路9は、入力されたDCT係数を逆DCT処理し、得られた出力データ(差分データ)が、演算回路10に供給される。演算回路10は、差分データと動き補償回路12からの予測画像データとを加算し、その結果得られた画像データがフレームメモリ(FM)11に記憶される。なお、イントラマクロブロックの場合には、演算回路10は、IDCT回路9からの出力データをそのままフレームメモリ(FM)11に供給する。
次に、図25を用いて、MPEG の MP@ML のデコーダ(画像信号復号化装置)の構成例を説明する。伝送路を介して伝送されてきた、符号化されている画像データ(ビットストリーム)は、図示せぬ受信回路で受信されたり、再生装置で再生され、受信バッファ21に一時記憶された後、符号化データとして、可変長復号化(IVLC)回路22に供給される。可変長復号化回路22は、受信バッファ21より供給された符号化データを可変長復号し、動きベクトルと予測モードを動き補償回路27に、また、量子化ステップを逆量子化回路23に、それぞれ出力するとともに、復号された量子化データを逆量子化回路23に出力する。
逆量子化回路23は、可変長復号回路22より供給された量子化データを、同じく可変長復号回路22より供給された量子化ステップに従って逆量子化し、その結果得られたDCT係数をIDCT回路24に出力する。逆量子化回路23からのDCT係数は、IDCT回路24で、逆DCT処理され、そして、その結果得られた差分データが演算回路25に供給される。IDCT回路24より供給された差分データが、Iピクチャのデータである場合、その出力データが画像データとして演算回路25より出力され、演算回路25に後に入力される画像データ(PまたはBピクチャのデータ)の予測画像データ生成のために、フレームメモリ26に供給されて記憶される。また、この画像データは、そのまま、再生画像として外部に出力される。IDCT回路24より供給された出力データがPまたはBピクチャの場合、動き補償回路27は可変長復号回路22より供給される、動きベクトルおよび予測モードに従って、フレームメモリ26に記憶されている画像データから予測画像データを生成し、演算回路25に出力する。演算回路25では IDCT 回路24より入力される出力データ(差分データ)と動き補償回路27より供給される予測画像データを加算し、出力画像とする。Pピクチャの場合、演算回路25の出力データはまた、フレームメモリ26に予測画像データが入力され記憶され、次に復号化する画像信号の参照画像とされる。
MPEG では MP@ML の他に、様々なプロファイルおよびレベルが定義され、また各種ツールが用意されている。スケーラビリティもMPEGのこのようなツールの1つである。MPEGでは、異なる画像サイズやフレームレートに対応するスケーラビリティを実現するスケーラブル符号化方式が導入されている。例えば空間スケーラビリティの場合、下位レイヤのビットストリームのみを復号化するとき、画像サイズの小さい画像信号を復号化し、下位レイヤおよび上位レイヤのビットストリームを復号化するとき、画像サイズの大きい画像信号を復号化する。図26を用いて空間スケーラビリティのエンコーダを説明する。空間スケーラビリティの場合、下位レイヤは画像サイズの小さい画像信号に対応し、また上位レイヤは画像サイズの大きい画像信号に対応する。
下位レイヤの画像信号はまずフレームメモリ1に入力され、以下、MP@ML の場合と同様に符号化される。ただし、演算回路10の出力データはフレームメモリ11に供給され、下位レイヤの予測画像データとして用いられるだけでなく、画像拡大回路(Up Sampling)31により上位レイヤの画像サイズと同一の画像サイズに拡大された後、上位レイヤの予測画像データにも用いられる。
上位レイヤの画像信号はまず、フレームメモリ51に入力される。動きベクトル検出回路52は MP@ML の場合と同様に、動きベクトルおよび予測モードを決定する。動き補償回路62は、動きベクトル検出回路52によって決定された動きベクトルおよび予測モードに従って、予測画像データを生成し、重み付加回路(W)34に出力する。重み付加回路34では予測画像データに対して重みWを乗算し、演算回路33に出力する。
演算回路10の出力データは上述したように画像拡大回路31に入力されている。画像拡大回路31では演算回路10によって生成された画像データを拡大して、上位レイヤの画像サイズと同一の大きさにして重み付加回路(1-W)32に出力する。重み付加回路32では、画像拡大回路31の出力データに重み (1-W) を乗算し、演算回路33に出力する。演算回路33は、重み付加回路32および34の出力データを加算し、予測画像データとして演算回路53に出力する。演算回路33の出力データはまた、演算回路60に入力され、IDCT 回路59の出力データと加算された後、フレームメモリ61に入力され、その後、符号化される画像データの予測参照データとして用いられる。演算回路53は符号化する画像データと演算回路33の出力データ(予測画像データ)との差分を計算し、差分データとして出力する。ただし、フレーム内符号化マクロブロックの場合、演算回路53は符号化する画像信号を、そのまま DCT 回路54に出力する。
DCT 回路54は、演算回路53の出力データを DCT(離散コサイン変換)処理してDCT係数を生成し、その結果得られたDCT係数を量子化回路55に出力する。量子化回路55では MP@ML の場合と同様に、送信バッファ57のデータ蓄積量などから決定された量子化スケールにしたがって DCT 係数を量子化し、量子化データを可変長符号化回路56に出力する。量子化データを可変長符号化回路56は、量子化データ(量子化された DCT 係数)を可変長符号化した後、送信バッファ57を介して上位レイヤのビットストリームとして出力する。
量子化回路55の出力データはまた、量子化回路55で用いた量子化スケールで逆量子化回路58において逆量子化される。量子化回路8の出力データ(DCT係数)は、IDCT回路59に供給され、逆DCT 回路59で逆 DCT 処理された後、演算回路60に入力される。演算回路60では演算回路33の出力データ(予測画像データ)と逆DCT回路59の出力データ(差分データ)を加算し、その出力データがフレームメモリ61に入力される。可変長符号化回路56にはまた、動きベクトル検出回路52で検出された動きベクトルおよび予測モード、量子化回路55で用いた量子化スケール、重み付加回路32および34で用いた重み W が入力され、それぞれが符号化され、符号化データとして、バッファ57に供給される。その符号化データがバッファ57を介してビットストリームとして伝送される。
次に図27を用いて空間スケーラビリティのデコーダの一例を説明する。下位レイヤのビットストリームは受信バッファ21に入力された後、MP@ML と同様に復号化される。ただし、演算回路25の出力データは外部に出力されるとともに、フレームメモリ26に蓄えられて、それ以後、復号化する画像信号の予測参照画像として用いられるだけでなく、画像信号拡大回路81により上位レイヤの画像信号と同一の画像サイズに拡大された後、上位レイヤの予測画像データとしても用いられる。
上位レイヤのビットストリームは受信バッファ71を介し可変長復号回路72に供給され、可変長符号が復号される。すなわち、DCT 係数とともに、量子化スケール、動きベクトル、予測モードおよび重み係数が復号される。可変長復号回路72により復号された量子化データは、復号された量子化スケールを用いて逆量子化回路73において逆量子化された後、DCT係数がIDCT回路74に供給される。そして、DCT係数は、IDCT 回路74により逆DCT 処理され、出力データが演算回路75に供給される。
動き補償回路77は復号された動きベクトルおよび予測モードに従って、予測画像データを生成し、重み付加回路84に入力する。重み付加回路84では復号化された重み W を動き補償回路77の出力データに乗算し、演算回路83に出力する。
演算回路25の出力データは、下位レイヤの再生画像データとして出力され、フレームメモリ26に出力されると同時に、画像信号拡大回路81により上位レイヤの画像サイズと同一の画像サイズに拡大された後、重み付加回路82に出力される。重み付加回路82では画像信号拡大回路81の出力データに、復号された重み W を用いて(1-W) を乗算し、演算回路83に出力する。
演算回路83は、重み付加回路82および84の出力データを加算し、演算回路75に出力する。演算回路75は、IDCT 回路74の出力データと演算回路83の出力データを加算して、上位レイヤの再生画像データとして出力するとともに、フレームメモリ76に供給して、その後、復号する画像データの予測画像データとして使用する。
以上の説明は、輝度信号の処理に適用されるが、色差信号の処理も同様に行われる。但し、この場合、動きベクトルは、輝度信号用のものを、垂直方向および水平方向に1/2にしたものが用いられる。
以上、MPEG 方式について説明したが、この他にも様々な動画像の高能率符号化方式が標準化されている。例えば、ITU-T(International Telecommunication Union,Telecommunication Standard Sector)では、主に通信用の符号化方式として、H.261 や H.263 という方式を規定している。この H.261 や H.263 も、基本的には、 MPEG 方式と同様に、動き補償予測符号化と DCT 変換符号化を組み合わせたものであり、ヘッダ情報などの詳細は異なるが、符号化装置や復号化装置は同様の構成となる。また、前述のMPEG方式においても、MPEG4と呼ばれる新たな動画像信号の高能率符号化方式の標準化が進められている。このMPEG4の大きな特徴は、画像をオブジェクト単位で符号化し(複数の画像に分けて符号化し)、また、加工処理することが可能であることである。つまり、復号側では、各オブジェクトの画像信号、複数の画像信号を合成して1つの画像を再構成することになる。
ISO-IEC/JTC1/SC29/WG11において、標準化作業が現在進められているMPEG4では、自然画像とCGとを共通の枠組みで取り扱う方式が検討されている。この方式では、3次元のオブジェクトはVRMLを用いて記述し、動画像や音声は、MPEG方式で標準化されている方式に基づいて圧縮する。また、複数の3次元オブジェクトや動画像などから構成されるシーンは、VRMLにより記述する。こうして得られたシーンの記述(以下、シーン記述と略記する)、3次元オブジェクトの記述、または、MPEG方式により圧縮された動画像や音声などにより構成されるAVデータには、多重化回路においてタイムスタンプが付加され、これらが多重化され、多重化ビットストリームとして、伝送される。受信端末では、多重化されたビットストリームを受信すると、逆多重化回路によりシーン記述、3次元オブジェクトの記述、および、AVストリーム(AVデータに対応するストリーム)が抽出され、対応するデコーダによりビットストリームが復号された後、シーン構成回路により再構成したシーンをディスプレイ上に表示する。
ところで、以上のような方法では、VRMLにより記述されたノード(3次元オブジェクトの記述およびシーン記述から構成される)と、動画像および音声などのAVデータとの関係を明確にする必要がある。例えば、ある3次元オブジェクトに対してテクスチャマッピングするのは、どのAVストリームなのかを示しておく必要がある。VRMLでは、3次元オブジェクトに貼り付ける(マッピングする)テクスチャは、URL(Uniform Resource Locator)(ネットワーク上のどのサーバのファイルであるかを示す文字列)により指定する。この指定方法は、ネットワーク上でのAVデータファイルの絶対アドレスを指定することに相当する。これに対して、MPEG方式によるシステムでは、各AVストリームは、そのストリームのIDを指定することにより識別する。これは、あるセッション(通信回線)が確立した際に、そのセッション内におけるストリームの相対パスを指定することに相当する。
即ち、VRMLでは、URL以外によりストリームを識別する方法がなく、また、MPEGのリアルタイム通信などのアプリケーションでは、IDによる指定が要求されるので、これらの間に不整合が存在するという課題があった。視点を変えると、VRMLでは、クライアントが情報を要求するモデルを想定している。一方、MPEGではサーバが主導して放送などの情報を送信するモデルを想定している。従って、それぞれのモデルが異なるため、VRML2.0との互換を保持したまま、コンピュータグラフィックスと自然画像との融合が困難であるという課題があった。
本発明は、以上のような状況に鑑みてなされたものであり、VRMLにより記述されたコンピュータグラフィックスと、MPEG方式により圧縮された画像などを同一のストリームに多重化して伝送することを可能とするものである。
本発明の第1の側面の多重化装置は、AVデータ、2次元または3次元データの複数の情報に対応する複数のノードで構成されるシーン記述子及び上記AVデータに関する情報である複数のオブジェクト記述子を多重化する多重化装置において、上記複数のノード中の文字列を読み出し、該文字列に対応するAVデータに関する情報である上記複数のオブジェクト記述子を生成する生成手段と、上記複数のノード中の文字列を所定の手法で置換する置換手段と、上記生成手段により生成された上記複数のオブジェクト記述子、上記置換手段より置換された上記複数のノード及び上記AVデータとを符号化し、同一のストリームに多重化する多重化手段とを備えることを特徴とする。
上記文字列は、URLであり、上記URLの表現形式は、ASCIIフォーマットであるようにすることができる。
上記所定の手法として、上記複数のノード中の文字列をバイナリフォーマットの文字列に変換することができる。
本発明の第1の側面の多重化方法は、AVデータ、2次元または3次元データの複数の情報に対応する複数のノードで構成されるシーン記述子及び上記AVデータに関する情報である複数のオブジェクト記述子を多重化する多重化方法において、上記複数のノード中の文字列を読み出し、該文字列に対応するAVデータに関する情報である上記複数のオブジェクト記述子を生成する生成ステップと、上記複数のノード中の文字列を所定の手法で置換する置換ステップと、上記生成ステップの処理で生成された上記複数のオブジェクト記述子、上記置換ステップより置換された上記複数のノード及び上記AVデータとを符号化し、同一のストリームに多重化する多重化ステップとを含むことを特徴とする。
本発明の第1の側面の多重化装置または多重化方法においては、AVデータ、2次元または3次元データの複数の情報に対応する複数のノード中の文字列が読み出され、該文字列に対応するAVデータに関する情報である複数のオブジェクト記述子が生成され、上記複数のノード中の文字列が所定の手法で置換され、生成された上記複数のオブジェクト記述子、置換された上記複数のノード及び上記AVデータとが符号化され、同一のストリームに多重化される。
本発明の第2の側面の合成装置は、符号化されたAVデータ、2次元または3次元データの複数の情報に対応する複数のノードで構成されるシーン記述子及び上記AVデータに関する情報である複数のオブジェクト記述子とを多重化したストリームを分離し、該分離された上記複数のノード及び上記複数のオブジェクト記述子に基づき上記AVデータを復元する合成装置において、上記複数のノードの文字列を所定の手法により解析を行う解析手段と、上記解析手段により出力された結果と上記複数のオブジェクト記述子とを照合する照合手段と、上記複数のオブジェクト記述子の解析結果を用いて上記符号化されたAVデータを復号する復号手段と、上記照合手段の結果を用いて上記復号されたAVデータと上記2次元または3次元データとを合成する合成手段とを備えることを特徴とする。
上記文字列は、URLであり、上記URLの表現形式は、ASCIIフォーマットであるようにすることができる。
上記所定の手法として、上記複数のノード中の文字列をバイナリフォーマットの文字列に変換することができる。
本発明の第2の側面の合成方法は、符号化されたAVデータ、2次元または3次元データの複数の情報に対応する複数のノードで構成されるシーン記述子及び上記AVデータに関する情報である複数のオブジェクト記述子とを多重化したストリームを分離し、該分離された上記複数のノード及び上記複数のオブジェクト記述子に基づき上記AVデータを復元する合成方法において、上記複数のノードの文字列を所定の手法により解析を行う解析ステップと、上記解析ステップの処理で出力された結果と上記複数のオブジェクト記述子とを照合する照合ステップと、上記複数のオブジェクト記述子の解析結果を用いて上記符号化されたAVデータを復号する復号ステップと、上記照合ステップでの結果を用いて上記復号されたAVデータと上記2次元または3次元データとを合成する合成ステップとを含むことを特徴とする。
本発明の第2の側面の合成装置または方法においては、2次元または3次元データの複数の情報に対応する複数のノードの文字列が所定の手法により解析され、解析結果とAVデータに関する情報である複数のオブジェクト記述子とが照合され、上記複数のオブジェクト記述子の解析結果を用いて上記符号化されたAVデータが復号され、照合結果を用いて上記復号されたAVデータと上記2次元または3次元データとが合成される。
本発明の第1の側面によれば、例えば、VRMLデータにより記述されたオブジェクトと、MPEGなどにより圧縮された自然画像とを同一のストリームに多重化して伝送することが可能となる。
本発明の第2の側面によれば、例えば、VRMLデータにより記述されたオブジェクトと、MPEGなどにより圧縮された自然画像とが同一のストリームに多重化されて伝送されたデータを簡単に復号することが可能となる。
図1は、本発明の符号化装置の第1の実施の形態の構成例を示すブロック図である。
この図において、シーンコントロール回路301は、要求信号(Scene Request)REQを入力し、記憶装置302に記憶されているシーン記述子SD(詳細は後述する)を参照して、どのAVオブジェクト(3次元オブジェクト、自然画像、または、音声など)を伝送するかを決定し、シーン要求信号(Scene Request)SREQを記憶装置302に対して出力するようになされている。記憶装置302は、2次元または3次元のシーンを記述するシーン記述子SDを記憶している。ここで、シーン記述子SDは、VRML2.0に準拠したASCII(アスキー)フォーマットで記述されている。
記憶装置306は、動画像、静止画像、または、音声などのAVデータ(エレメンタリストリーム(ES))を記憶している。また、記憶装置305は、記憶装置306に記憶されているAVオブジェクトをデコードする際に必要な情報(オブジェクトストリーム(OI))を記憶している。ここで、情報OIは、例えば、AVオブジェクトをデコードする際に必要なバッファサイズや、各アクセスユニットのタイムスタンプなどである。情報OIには、各AVオブジェクトに対応しているAVデータの情報が全て含まれている。
ここで、図2を参照して、シーン記述子、AVデータ、および、3次元オブジェクトの関係について説明する。図2の例では、画面352に長方形の画像シーケンスとコンピュータグラフィックス(以下、適宜CGと略記する)により生成された三角錐が表示されている。この例では、三角錐のオブジェクトには、テクスチャが貼り付けられていないが、他の3次元オブジェクトと同様にテクスチャを貼り付けるようにしてもよい。なお、この貼り付けるテクスチャは静止画でもよいし、また、動画でもよい。
シーン記述子SD350は、ノードと呼ばれる記述群から構成されている。まず、画像全体に各オブジェクトをどのように配置するかを記述した親ノードSD0がある。この親ノードSD0の子ノードとして、三角錐に関する情報がノードSD1に記述されている。また、親ノードSD0の子ノードとして、画像が貼り付けられる長方形の平面に関する情報がノードSD2に記述されている。
図2の例では、画像信号が3つのビデオオブジェクトVO(背景、太陽、および、人物)から構成されている。背景に関する情報は、ノードSD2に記述されている。また、太陽を貼り付けるための長方形の平面に関する情報が、ノードSD3に記述されている。更に、人物を貼り付ける平面に関する情報が、ノードSD4に記載されている。各ノードには、対応するAVデータのファイルの所在アドレスを示すURLが記述されている。なお、ノードSD3およびノードSD4は、ノードSD2の子ノードとなる。
SD0乃至SD4の全てのノードをまとめて1つのシーン記述子SDが構成されている。以下では、全てのノードの記述の集まりをシーン記述と呼び、それぞれのノードをオブジェクト(2次元または3次元オブジェクト)と呼ぶ。従って、各ノードは1つの2次元または3次元オブジェクトに対応する。また、それぞれのオブジェクトには、そのオブジェクトに関連するAVデータを記述したオブジェクト記述子ODが1対1に対応することになる。
構文解析回路307は、記憶装置302から出力されたノードに記述されているURL(AVデータのファイルの所在アドレスを示す)を読み出し、そのURLに対応するAVデータの出力を要求する要求信号(ES Request)ESREQを記憶装置306に対して出力する。また、構文解析回路307は、URLに対応するAVデータに関する情報が記述されているオブジェクトストリーム情報OIの出力を要求する要求信号(OI Request)OIREQを記憶装置305に対して出力するようになされている。
OD(オブジェクト記述子)発生回路304は、記憶装置305から出力されたAVオブジェクトに関する情報OIを入力し、要求信号OIREQにより要求されたAVデータの情報のみをオブジェクト記述子ODとして抽出し、多重化回路303に出力するようになされている。また、OD発生回路304は、抽出した各オブジェクト記述子ODに対してID番号OD_IDを発生し、オブジェクト記述子OD中に記録して出力するとともに、生成されたID番号OD_IDをBIFSエンコーダ308に対して出力するようになされている。
BIFSエンコーダ308は、記憶装置302から出力されるアスキーフォーマットのシーン記述子SDを、バイナリフォーマットに変換するとともに、OD発生回路304から出力されるID番号OD_IDで、シーン記述子SDに含まれているURLを置換するようになされている。そして、BIFSエンコーダ308は、その置換されたバイナリフォーマットに変換されたシーン記述子B_SDを多重化回路303に出力するようになされている。
多重化回路303は、記憶装置306に記憶されているAVデータ、BIFSエンコーダ308によりバイナリフォーマットに変換されたシーン記述子B−SD、および、OD発生回路304により生成されたオブジェクト記述子ODを所定の順序で多重化し、多重化ビットストリームとして出力するようになされている。なお、この多重化回路303の詳細な構成例については図7を参照して後述する。
次に、以上の実施の形態の動作について説明する。ユーザが図示せぬ外部の端末から、所定のAVオブジェクトを表示させる要求信号を入力すると、要求信号REQがシーンコントロール回路301に供給される。要求信号REQが供給されたシーンコントロール回路301は、要求信号に従って、記憶装置302に記憶されているシーン記述子SDを参照して、どのAVオブジェクトを伝送するかを決定し、シーン要求信号SREQを記憶装置302に対して出力する。シーン要求信号SREQが供給された記憶装置302は、対応するシーン記述子SD(アスキーフォーマットで記述されている)を読み出し、構文解析回路307とBIFSエンコーダ308とに供給する。
図3は、動画をテクスチャとして貼り付けるためのシーン記述子SD(アスキーフォマットで記述されている)の一例を示している。この例では、第6行目に、貼り付けようとする動画ファイルのアドレスを示すURLが記述されている。図4は、静止画をテクスチャとして貼り付けるためのシーン記述子(アスキーフォーマットで記述されている)の一例を示している。この例では、第2行目に、貼り付けようとする静止画ファイルのアドレスを示すURLが記述されている。なお、図3および図4の書式は、VRMLのノード記述に準拠している。
構文解析回路307は、供給されたシーン記述子SDを構成するノードに含まれているURL(AVデータのファイルのアドレスを示す)を読み出し、そのURLに対応するAVデータを出力させるための要求信号ESREQを記憶装置306に対して出力する。その結果、記憶装置306からは、対応するAVデータが出力され、多重化回路303に供給される。
また、構文解析回路307は、ノードに含まれているURLが示すAVデータに関する情報OIの出力を要求する要求信号OIREQを記憶装置305に対して出力する。その結果、記憶装置305からは、URLに対応する情報OIが出力され、OD発生回路304に供給される。
OD発生回路304は、記憶装置305から供給されたAVオブジェクトに関する情報OIから、OIREQにより要求された情報のみをオブジェクト記述子ODとして抽出するとともに、ID番号OD_IDを発生する。そして、ID番号OD_IDがオブジェクト記述子OD中に記録されて、オブジェクト記述子ODが多重化回路303に対して出力される。また、OD発生回路304は、各オブジェクト記述子ODに対して生成されたID番号OD_IDをBIFSエンコーダ308に対して出力する。
BIFSエアスキーフォーマット記憶装置302から供給されたアスキーフォーマットのシーン記述子SDを、所定の手法に基づいて、バイナリフォーマットのデータに変換するとともに、OD発生回路304から出力されるID番号OD_IDで、シーン記述子SDに含まれているURLを置換する。そして、バイナリフォーマットに変換されたシーン記述子B_SDを多重化回路303に出力する。なお、バイナリフォーマットは、ISOにおいて標準化されているMPEG4WDと呼ばれる文書(文書番号N1825)にその詳細が記述されている。なお、以下では、その一例について説明する。
図5は、動画をテクスチャとして貼り付けるためのシーン記述子(アスキーフォーマット(図3参照))がバイナリフォーマットに変換されたものを示している。この図において、第29行目に示すObjectDescriptorIDは、このノードに貼り付ける動画像のID番号OD_IDを示すフラグである。BIFSエンコーダ308は、OD発生回路304より供給されるID番号OD_IDを、この部分に書き込む。その結果、アスキーフォーマットではURLにより記述されていたAVデータのアドレスが、ID番号OD_IDに変換される。図6は、静止画をテクスチャとして貼り付けるためのシーン記述子(アスキーフォーマアスキーフォーマットがバイナリフォーマットに変換されたものを示している。この例では、第17行目にObjectDescriptorIDが示されており、この部分にID番号OD_IDが書き込まれる。以上のようにして生成されたバイナリフォーマットに変換されたシーン記述子B_SDは、多重化回路303に供給されることになる。多重化回路303は、記憶装置306から供給されるAVデータ、BIFSエンコーダ308から供給されるバイナリフォーマットに変換されたシーン記述子B_SDおよびOD発生回路304から供給されるオブジェクト記述子ODを所定の順序で多重化し、多重化ビットストリームFSとして出力する。
図7は、多重化回路303の詳細な構成例を示す図である。この図において、スタートコード生成回路303aは、ストリームのスタート位置を示すスタートコードを生成して出力する。
例えば、記憶回路306から出力されたN個のAVデータES1乃至ESNが供給される場合、それぞれのAVデータは、対応する端子にそれぞれ供給される。また、BIFSエンコーダ308から出力されたバイナリフォーマットのシーン記述子SDと、OD発生回路304から出力されたオブジェクト記述子ODも対応する端子に供給される。更に、スタートコード発生回路303aから出力されるスタートコードも対応する端子に供給される。
多重化回路303は、先ず、スタートコード発生回路303aが接続されている端子にスイッチを接続し、スタートコードを出力する。次に、スイッチはシーン記述子SDが入力されている端子に切り換えられ、シーン記述子SDが出力される。続いて、オブジェクト記述子ODが入力されている端子にスイッチが切り換えられ、オブジェクト記述子ODが出力される。最後に、AVデータが入力される端子にスイッチがデータのサイズに応じて順次接続され、AVデータES1乃至ESNが出力される。
このように、多重化回路303は、スタートコード、シーン記述子SD、オブジェクト記述子OD、および、AVデータを、スイッチによって選択することにより、多重化ビットストリームFSとして外部に出力する。多重化されたビットストリームFSは、伝送路を介して、受信端末に供給されることになる。
次に、図8を参照して、図1に示す符号化装置に対応する復号装置の実施の形態の構成例について説明する。
図8は、本発明の復号装置の実施の形態の構成例を示すブロック図である。この図において、逆多重化回路404は、多重化されたビットストリームFSを受信し、その多重化ビットストリームFSを構成する各ビットストリームを分離抽出するようになされている。
図9は、逆多重化回路404の構成例を示す図である。この図に示すように、逆多重化回路404は、スタートコードを検出して、以降の各ビットストリームを認識する。入力された多重化ビットストリームFSは、スイッチにより、ストリーム記述子SDとオブジェクト記述子ODに分離されてそれぞれの端子から出力されるようになされている。また、同様にして、AVデータのデータストリームであるES1乃至ESNが分離され、それぞれ対応する端子から出力されるようになされている。
図8に戻って、構文解析回路406は、逆多重化回路404により分離されたオブジェクト記述子ODを入力し、AVデータをデコードするのに必要な、デコーダの種類と個数とを同定し、各AVデータに対応するデータストリームを対応するデコーダに対して供給するように制御する。また、構文解析回路406は、各ビットストリームをデコードするために必要なバッファの容量などをオブジェクト記述子ODから読み出し、デコーダ407乃至409に初期情報Initとして供給する。構文解析回路406は、各ビットストリームES1乃至ESNが、どのノードに所属するものであるかを特定するために、オブジェクト記述子ODに記述されているビットストリームを復号するデコーダに対して、各オブジェクト記述子のID番号OD_IDを出力するようになされている。
デコーダ407乃至409は、エンコードに対応する所定のデコード方法に基づいて、ビットストリームを復号し、得られたビデオデータまたはオーディオデータを再構成回路411に対して出力する。また、デコーダ407乃至409は、復号されたデータ(ビデオデータまたはオーディオデータ)が、どのノードに所属するのかを示すOD_IDをそれぞれ再構成回路411に対して出力する。更に、デコーダ407乃至409は、入力されたビットストリームが画像データである場合には、その画像の大きさ(SZ)と表示位置(PCS)を示す情報および画像の透過度を表すデータ(Keyデータ)がビットストリーム中に含まれてり、そのビットストリームからその画像の大きさ(SZ)と表示位置(PCS)を示す情報を復号するとともに、そのビットストリームから画像の透過度を示すデータ(keyデータ)を復号し、再構成回路411に対して出力するようになされている。
なお、以上の実施の形態では、N=3の場合に対応する、3つのデコーダ407乃至409を備えるようにしたが、処理するデータに応じて、その個数を変更してもよいことは言うまでもない。また、構文解析回路410は、バイナリフォーマットのシーン記述子B_IDを構文解析し、その解析結果であるノードを再構成回路411に供給する。さらに、構文解析回路410は、オブジェクト記述子ODの中のID番号OD_IDに対応するシーン記述子B_SDの中のID番号を読み出し、それらを再構成回路411に供給する。
図10は、再構成回路411の詳細な構成例を示す図である。この図に示すように、再構成回路411は、合成回路351を有しており、合成回路351で生成された画像信号は、ディスプレイ352に供給される。合成回路351は、デコーダ407乃至409より供給される、ノードデータ、構文解析回路410から供給されるID番号OD_ID、画像データ、keyデータ、画像の大きさ(SZ)と表示位置(PCS)を示す情報、およびID番号OD_IDを入力し、ID番号OD_IDに対応する画像データを読み込み、keyデータ、画像の大きさ(SZ)と表示位置(PCS)を示す情報に応じて、画像データをノードに貼り付け、得られた画像データに対応する画像信号をディスプレイ352に出力するようになされている。なお、図10において、合成回路351とディスプレイ352が再構成回路411として示されているが、これは、合成回路351で生成された画像が、このように、ディスプレイ352に表示されることを示しているためで、実際には、ディスプレイ352は、再構成回路411には、含まれていない。
図11は、合成回路351の詳細な構成例を示すブロック図である。この図に示すように、合成回路351は、オブジェクト合成回路500乃至502および2次元変換回路503により構成されている。また、オブジェクト合成回路500は、メモリ群500−1とレンダリング回路500−2により構成されている。更に、メモリ群500−1は、テクスチャメモリ500−1a、グレースケールメモリ500−1b、および、3次元オブジェクトメモリ500−1cにより構成されている。
例えば、テクスチャメモリ500−1aは、デコーダ407から供給されたAVデータをテクスチャデータとして記憶するようになされている。また、グレースケールメモリ500−1bは、デコーダ407から供給された透過度を示すkeyデータと、ID番号OD_IDとを記憶するようになされている。更に、3次元オブジェクトメモリ500−1cは、構文解析回路410から出力された3次元オブジェクト情報(ノードデータ)を記憶するようになされている。ここで、3次元オブジェクト情報とは、ポリゴンの形成情報やポリゴンを照明するための照明情報などである。画像の大きさ(SZ)および表示位置(PCS)を示す情報もまた、所定のメモリ、例えば、グレースケールメモリ500−1に記憶される。
レンダリング回路500−2は、3次元オブジェクトメモリ500−1cに記憶されているノードに基づいて、3次元オブジェクトをポリゴンにより生成する。また、レンダリング回路500−2は、テクスチャメモリ500−1aおよびグレースケールメモリ500−1bより、テクスチャおよび透過度を示すkeyデータをそれぞれ入力し、対応するノードに対してテクスチャを貼り付けた後、keyデータに応じた処理を施し、テクスチャが所定の透明度を持つようにする。そして、得られたデータは、2次元変換回路503に出力される。さらに、画像の大きさ(SZ)および表示位置(PCS)を示す情報が2次元変換回路503に供給される。なお、オブジェクト合成回路501およびオブジェクト合成回路502は、オブジェクト合成回路500と同様の構成とされているので、その説明は省略する。
2次元変換回路503は、外部より供給される視点(View Point)情報および各オブジェクト合成回路500乃至502から供給される画像の大きさ(SZ)および表示位置(PCS)を示す情報に応じて、各オブジェクト合成回路500乃至502から出力される、テクスチャが貼り付けられたオブジェクトを、2次元平面上に写像して得られる2次元画像信号に変換する。そして、得られた2次元画像信号は、ディスプレイ352に供給されて表示される。
次に、以上の実施の形態の動作について説明する。テクスチャ(画像データ)が、オブジェクトに張り付けられる時、テクスチャとオブジェクトの関係を、認識する必要性がある。その関係を認識するために、オブジェクト記述子ODの中に記述されているID番号OD_IDと、シーン記述子B_SDの中に記述されているID番号OD_IDが使用される。従って、再構成回路411に出力されるデータは、それらのデータが対応するオブジェクト合成回路500乃至502に供給される前に、最初に照合回路360に供給される。そして、照合回路360で、図8に示すように、オブジェクト記述子ODに記述されているID番号OD_IDとシーン記述子B_SDに記述されているID番号とが照合され、それによって、関係が見つけられる。伝送路を介して伝送された、多重化されたビットストリームFSは、逆多重化回路404に供給される。
逆多重化回路404は、スタートコードを検出して、以降の各ビットストリームを確認する。そして、逆多重化回路404は、図9に示すスイッチを適宜切り換えることによって、多重化されたビットストリームFSから、AVデータに対応するストリームES1乃至ESN、シーン記述子SD、および、オブジェクト記述子ODを分離して出力する。そして、オブジェクト記述子ODは、構文解析回路406に供給され、また、ビットストリームES1乃至ESNは、デコーダ407乃至409に、更に、バイナリフォーマットのシーン記述子B_SDは、構文解析回路410に供給される。
構文解析回路410は、逆多重化回路404から出力されたバイナリフォーマットのシーン記述子B_SDを構文解析し、その結果(3次元オブジェクト情報(ノードデータ))を再構成回路411に供給する。また、構文解析回路410は、ノードに貼り付けるAVデータのオブジェクト記述子ODのID番号OD_IDを復号し、再構成回路411に供給する。
構文解析回路406は、オブジェクト記述子ODを入力し、ビットストリームをデコードするために必要なデコーダの種類と数を同定し、ビットストリームES1乃至ESNを対応するデコーダに供給する。また、構文解析回路406は、各ビットストリームをデコードするために必要なバッファの容量および各アクセスユニットのタイムスタンプなどをオブジェクト記述子ODから読み出し、初期情報(Init)としてデコーダ407乃至409に供給する。その結果、各デコーダ407乃至409は、初期情報(Init)として供給された値を参照して、初期化処理を行うことになる。更に、構文解析回路406は、各デコーダ407乃至409により処理されるビットストリームがどのオブジェクトに属するのかを示すために、各オブジェクト記述子のID番号OD_IDを出力する。
デコーダ407乃至409は、構文解析回路406から供給される初期化情報に従って、バッファの確保などの初期化処理を実行する。そして、逆多重化回路404から出力されたAVデータに対応するビットストリームが入力されると、デコーダ407乃至409は、エンコードに対応する所定のデコード方法に基づいてビットストリームを復号し、得られたビデオデータまたはオーディオデータを再構成回路411に対して出力する。
また、デコーダ407乃至409は、そのデコーダにおいて復号されたビットストリームがどのオブジェクトに対応するかを示すID番号OD_IDを、再生構成回路411に対して出力する。更に、デコーダ407乃至409は、デコードされたビットストリームが画像である場合には、画像の大きさ(SZ)および表示位置(PCS)を示す情報と、画像の透過度を示すデータ(keyデータ)とを出力する。
再構成回路411に出力された各種データは、図11に示すように、対応するオブジェクト合成回路500乃至502に供給される。1つのノードには、1つのオブジェクト合成回路が対応している。上述したように、各種のデータが対応するオブジェクト合成回路500乃至502に供給される時、オブジェクトが、それぞれのデコーダ407乃至409によって処理されるどのビットストリームに対応するかを見つける必要性がある。従って、照合回路360によって、オブジェクト記述子ODに記述されたID番号OD_IDとシーン記述子B_SDに記述されたID番号OD_IDが、各データが対応するオブジェクト合成回路500乃至502に供給される前に照合される。それによって、デコード信号(ビットストリーム)と3次元オブジェクト情報(ノード)との関係を認識することができる。各オブジェクト合成回路500乃至502は、ノードに示されるID番号OD_IDを有するデコード信号をデコーダ407乃至409より受け取る。そして、受け取ったデコード信号が画像データである場合には、生成する2次元または3次元オブジェクトに対して、その画像を貼り付ける。
例えば、オブジェクト合成回路500を例に挙げて説明すると、オブジェクトに貼り付けるテクスチャデータは、テクスチャメモリ500−1aに記憶される。また、keyデータとID番号OD_IDは、グレースケールメモリ500−1bに供給されて、記憶される。更に、ノードは、3次元オブジェクトメモリ500−1cに記憶される。さらに、画像の大きさ(SZ)および表示位置(PCS)を示す情報が所定の位置、例えば、グレースケールメモリ500−1bに記憶される。また、ID番号OD_IDは、上述したように、ノードを認識するために使用される。
レンダリング回路500−2は、3次元オブジェクトメモリ500−1cに記憶されているノードを読み出し、対応するオブジェクトをポリゴンを用いて生成する。そして、テクスチャメモリ500−1aから入力した画像データを、グレースケールメモリ500−1bから入力した透過度を示すkeyデータを参照して、得られたポリゴンに対して貼り付け、出力する。また、画像の大きさ(SZ)および表示位置(PCS)を示す信号は、グレースケールメモリ500−1bから読み出されて、2次元変換回路503に対して出力される。同様の処理は、オブジェクト合成回路501およびオブジェクト合成回路502においても実行される。
2次元変換回路503には、オブジェクト合成回路500乃至502から、テクスチャを貼り付けた2次元または3次元オブジェクトが供給される。2次元変換回路503では、外部より供給される視点情報、画像の大きさ(SZ)、および表示位置(PCS)を示す信号に基づいて、3次元オブジェクトを2次元平面に写像することによって得られる2次元画像信号に変換する。2次元画像信号に変換された3次元オブジェクトは、ディスプレイ352に表示出力される。
なお、全てのオブジェクトが2次元オブジェクトである場合には、各レンダリング回路500−2乃至502−2からの出力をその透過度(keyデータ)に従って合成し、出力する。その場合、視点による変換処理は実行されない。
図12乃至図14は、オブジェクト記述子ODの構成を示す図である。図12は、オブジェクト記述子ODの全体構成を示す図である。この図において、第3行目に示されているNodeIdは、その記述子のID番号を示す10ビットのフラグである。これは、前述のID番号OD_IDに対応している。また、第4行目に示されているstreamCountは、8ビットのフラグで、そのオブジェクト記述子ODに含まれているAVデータ(ビットストリームES)の個数を示している。従って、このstreamCountに示されている個数だけ、ビットストリームESの復号時に必要な情報であるES_Descriptorが伝送される。更に、第5行目に示されているextentionFlagは、その他の情報を伝送するか否かを示すフラグで、この値が“1”である場合には、その他の記述子が伝送される。続いて、第8行目に示されているES_Descriptorは、各ビットストリームに関する情報を示す記述子である。
図13にES_Descriptorの詳細を示す。この図において第3行目に示されているES_Numberは、ビットストリームを識別するためのID番号を示す5ビットのフラグである。また、第6行目に示されているStreamTypeは、そのビットストリームのフォーマットを示し、例えば、MPEG2ビデオなどのデータを示す8ビットのフラグである。第7行目に示されているQoS_Descriptorは、伝送の際に、ネットワークへの要求を示す8ビットのフラグである。第8行目に示されているESConfigParamsは、そのビットストリームを復号するのに必要な情報が記述されている記述子であり、その詳細を図14に示す。なお、ESConfigParamsの詳細は、MPEG4SystemVMに詳細が記述されている。
以上の実施の形態によれば、符号化装置において、3次元空間構成データ(VRMLデータ)を構成するノードに含まれている位置指定情報(URL)を、その位置指定情報(URL)によって指定されるAVデータに対応するオブジェクト記述子ODのID番号OD_IDによって置換し、復号側では、ノードに含まれているID番号OD_IDに対応するオブジェクト記述子ODを探索することにより、対応するAVデータを検出(認識)するようにしたので、シーンや3次元オブジェクトの記述方法を、例えば、VRML方式と互換をとったまま、CGと自然画像とを同一のストリームに多重化して伝送することが可能となる。
なお、以上の実施の形態においては、符号化されたオーディオおよびビデオデータ(AVデータ)は、記憶装置306に記憶されている構成としたが、例えば、このような記憶装置を介さずに、オーディオまたはビデオの符号化装置から直接入力するようにしてもよい。
また、以上の実施の形態においては、AVデータ、オブジェクト記述子OD、および、シーン記述子SDをそれぞれ個別の記憶装置に記憶するようにしたが、これらを同一の記憶装置または記録媒体に記憶させるようにしてもよい。
更に、シーン記述子SDは、ファイルとして予め記憶させておく必要があるが、AVデータ、および、オブジェクトストリーム情報OIは、伝送時にリアルタイムで発生させても差し支えない。
次に、図15を参照して本発明の符号化装置の第2の実施の形態の構成例について説明する。なお、この図において、図1に示す場合と対応する部分には、同一の符号が付してあるのでその説明は省略する。
この実施の形態においては、図1の場合と比較して、URL変更回路309が新たに追加されている。また、構文解析回路307の出力データおよびOD発生回路304からのID番号OD_IDがURL変更回路309に供給されているとともに、URL変更回路309の出力データがBIFSエンコーダ308に供給されている。なお、その他の構成は、図1に示す場合と同様である。
URL変更回路309は、OD発生回路304から出力されたID番号OD_IDを、対応するアスキーフォーマットの文字列に変換して出力するようになされている。例えば、記憶装置302に記憶されている所定のノードに貼り付けようとするAVデータをデコードする際に必要なオブジェクトストリーム情報OIが記載されているファイルのアドレスが以下の場合を考える。
http://serverA/AV_scene1/object_file.1 ・・・(1)
この場合、記憶装置305からオブジェクトストリーム情報OIが読み出され、このオブジェクトストリーム情報OIに対応するオブジェクト記述子ODのID番号OD_IDがOD発生回路304より供給される。URL変更回路309は、このID番号OD_IDを入力し、これに基づきURLをアスキーフォーマットの所定の文字列に書き換える。例えば、ID番号OD_IDが4である場合には、前述の式(1)は、以下のように書き換えられる。
mpeg4://4 ・・・(2)
この場合、URLを示す文字列において、“mpeg”という文字列がその先頭にある場合には、それに続く文字列“://”の直後に配置されている数字を示す文字列(この例では、文字“4”)がID番号OD_IDを示している。
ところで、記憶装置302に記憶されているノードに記述されているURLが、図15に示す符号化装置とは異なる他の符号化装置(ネットワーク上の異なるサーバ)に存在するファイルを指定している場合がある。そのような場合には、URL変更回路309は、その変更処理を停止する。その結果、例えば、式(1)に示すURLがそのままBIFSエンコーダ308に供給されることになる。
次に、以上の実施の形態の動作について簡単に説明する。要求信号REQを入力したシーンコントロール回路301は、要求信号REQに従って、記憶装置302に記憶されているシーン記述子SDを参照して、どのAVオブジェクトを伝送するかを決定し、シーン要求信号SREQを記憶装置302に対して出力する。
シーン要求信号SREQを入力した記憶装置302は、対応するシーン記述子SD(アスキーフォーマットで記述されている)を読み出し、構文解析回路307とBIFSエンコーダ308とに供給する。
構文解析回路307は、供給されたシーン記述子SDを構成するノードに含まれているURL(AVデータのファイルのアドレスを示す)を読み出し、そのURLに対応するAVデータを出力させるための要求信号ESREQを記憶装置306に対して出力する。その結果、記憶装置306からは、対応するAVデータが出力され、多重化回路303に供給されることになる。
また、構文解析回路307は、ノードに含まれているURLが示すAVデータに関する情報OIの出力を要求する要求信号OIREQを記憶装置305に対して出力する。その結果、記憶装置305からは、URLに対応するオブジェクトストリーム情報OIが出力され、OD発生回路304に供給される。さらに、構文解析回路307は、ノードに含まれているURL(String)をURL変更回路309に供給する。
OD発生回路304は、記憶装置305から供給されたAVオブジェクトに関するオブジェクトストリーム情報OIから、要求信号OIREQにより要求された情報のみをオブジェクト記述子ODとして抽出するとともに、ID番号OD_IDを発生する。そして、そのID番号OD_IDがオブジェクト記述子OD中に記録されて、オブジェクト記述子ODが多重化回路303に対して出力される。また、OD発生回路304は、各オブジェクト記述子ODに対して生成されたID番号OD_IDをURL変更回路309に対して出力する。
URL変更回路309は、構文解析回路307から供給されたURLが、ネットワーク上の他のサーバに存在するファイルを指定している場合には、URLをそのままBIFSエンコーダ308に対して出力する。また、供給されたURLが記憶装置306に記憶されているAVデータのファイルを指定している場合には、例えば、式(2)に示すような文字列を、OD発生回路304から出力されるID番号OD_IDを参照して生成し、BIFSエンコーダ308に対して出力する。
BIFSエンコーダ308は、記憶装置302から供給されたアスキーフォーマットのシーン記述子SDを、所定の手法に基づいて、バイナリフォーマットのデータに変換する。そして、BIFSエンコーダ308は、シーン記述子SDの中に含まれるURLを、URL変更回路309から供給されるURLまたは文字列に変換する。その後、バイナリフォーマットは変換されたシーン記述子B_SDが多重化回路303に対して出力される。
図16は、動画をテクスチャとして貼り付けるためのシーン記述子SDのバイナリフォーマットの一例を示している。ここで、第29行目に記述されているURLは、URL変更回路309から出力されたアスキーフォーマットの文字列である。即ち、この実施の形態においては、バイナリフォーマットにおいてもURLが文字列で記述される。図17は、静止画をテクスチャとして貼り付けるためのシーン記述子SDのバイナリフォーマットの一例を示している。この図の第17行目に示すURLは、前述の図16の場合と同様に、アスキーフォーマットの文字列である。
BIFSエンコーダ308によりバイナリフォーマットに変換されたシーン記述子SDは、多重化回路303に供給され、そこで、オブジェクト記述子ODおよびAVデータと多重化され、多重化ビットストリームFSとして出力されることになる。多重化されたビットストリームFSは、伝送路を経由して、受信端末である復号装置に供給される。
次に、図18を参照して、図15に示す符号化装置に対応する復号装置の実施の形態の構成例について説明する。図18は、本発明の復号装置の第2の実施の形態の構成例を示すブロック図である。この図において、図8と対応する部分には、同一の符号が付してあるのでその説明は省略する。
なお、図18の実施の形態においては、図8の場合と比較して、URL変換回路412が新たに追加されている。さらに、構文解析回路410は、アスキーフォーマットの文字列で表現された情報をURL変換回路412に出力する。そして、URL変換回路412は、アスキーフォーマットの文字列で表現されアスキーフォーマットオブジェクト記述子ODのID番号OD_IDに変換し、再構成回路411に供給するようになされている。その他の構成は、図8に示す場合と同様である。
次に、以上の実施の形態の動作について簡単に説明する。
構文解析回路410において、ノードから抽出されたURLが、URL変換回路412に供給され、例えば、式(2)に示す形式の文字列である場合には、URL変換回路412が、この文字列をID番号OD_IDに変換して、再構成回路411に供給する。その結果、再構成回路411は、ノードに対して対応するAVデータをテクスチャとして貼り付けることになる。
また、ノードから抽出されたURLが、ネットワーク上の他のサーバに記憶されているファイルを指定している場合(即ち、式(1)に示す形式の文字列である場合)には、URL変換回路412は、その結果を逆多重化回路404に供給し、そして、逆多重化回路404が、他のサーバに対してファイルの送信要求を行い、その結果、同様の処理により送られてくる多重化ビットストリームFS'を受信して、表示処理を行うことになる。
以上の実施の形態によれば、ノードに貼り付けようとするAVデータが、ネットワーク上の他のサーバに存在している場合においても、所望のAVデータを読み込んで表示させることが可能となる。
次に、図19を参照して、本発明の符号化装置の第3の実施の形態の構成例について説明する。図19は、本発明の符号化装置の第3の実施の形態の構成例を示すブロック図である。この図において、図1の場合と対応する部分には同一の符号が付してあるのでその説明は省略する。図19に示す実施の形態においては、図1の場合と比較して、URL変更回路309、スイッチ310、および、制御回路311が新たに追加されている。さらに、構文解析回路307からの出力データおよびOD発生回路304からのID番号OD_IDがURL変更回路309に供給され、URL変更回路309の出力データとOD発生回路304からのID番号OD_IDがスイッチ310に供給される。制御回路311は、そのスイッチ310を制御している。その他の構成は、図1の場合と同様である。
URL変更回路309は、OD発生回路304から出力されたID番号OD_IDを、対応するアスキーフォーマットの文字列に変換して出力するようになされている。なお、その動作は、図15に示す第2の実施の形態において説明したので省略する。スイッチ310は、制御回路311により制御され、OD発生回路304から出力されるID番号OD_IDまたはURL変更回路309から出力されるURLの何れか一方を選択してBIFSエンコーダ308に出力するようになされている。制御回路311は、後述するように、例えば、アプリケーションの種類により、スイッチ310を切り換えるようになされている。
次に、以上の実施の形態の動作について簡単に説明する。URL変更回路309によりフォーマットが変更されたURL(詳細は、第2の実施の形態において参照されている)は、スイッチ310に供給される。また、OD発生回路304から出力されたID番号OD_IDも同様に、スイッチ310に供給される。
スイッチ310は、制御回路311によって制御され、その接続が変更される。例えば、リアルタイムの通信やハードウエアを設計する上では、ID番号OD_IDは文字列ではなく、例えば、10ビットのフラグなどで直接数字を記述しておいた方が有利である。従って、そのようなアプリケーションでは、スイッチ310は、制御回路311に制御されてOD発生回路304からのID番号OD_IDを選択し、ID番号OD_IDがBIFSエンコーダ308によってそのままバイナリフォーマットのシーン記述子B_SDに記録される。なお、URLによって指定されるAVファイルがネットワーク上の他のサーバに記憶されている場合には、制御回路311は、スイッチ310の接続をURL変更回路309側に変更し、URLをBIFSエンコーダ308に出力させる。
これに対して、コンピュータ上のアプリケーションでは、文字列URLによりストリームを指定した方が自由度が高いので有利である。従って、そのようなアプリケーションでは、スイッチ310がURL変更回路309側に接続され、URLがBIFSエンコーダ308に対して出力され、バイナリフォーマットのシーン記述子SDに記録される。BIFSエンコーダ308はまた、ID番号OD_IDまたはURLが記録されているかどうかを示すフラグを記録する
図20は、動画をテクスチャとして貼り付けるためのシーン記述子SDのバイナリフォーマットの一例を示している。この図において、第29行目および第30行目に示されているisStringは、ID番号OD_IDが記述されているか、URLが記述されているかを示す1ビットのフラグである。この値が“0”である場合には、そのノードには、10ビットのID番号OD_IDが記録されている。これに対して、isStringの値が“1”である場合には、URLが記録されている。URLは、このノードに貼り付ける動画像のID番号OD_IDを示すようにURL変更回路309において書き換えられた文字列である。図20は、静止画をテクスチャとして貼り付けるためのシーン記述子SDのバイナリフォーマットの一例を示している。この図において、第17行目および第18行目に示されているisStringは、前述の場合と同様に、OD_IDが記述されているか、URLが記述されているかを示す1ビットのフラグである。
以上の符号化装置において符号化された多重化ストリームFSは、伝送路を介して、受信端末である復号装置に対して伝送される。図19の符号化装置に対応する復号装置の実施の形態の構成例を図22に示す。
図22は、本発明の復号装置の第3の実施の形態の構成例を示すブロック図である。この図において、図8の場合と対応する部分には同一の符号を付してあるのでその説明は省略する。図22の実施の形態では、図8の場合と比較して、URL変換回路412が新たに追加されている。その他の構成は、図8の場合と同様である。
この実施の形態においては、構文解析回路410は、isStringを復号し、この値が“1”である場合には、URLをURL変換回路412に供給し、また、この値が“0”である場合には、ID番号OD_IDを復号し、これを再構成回路411に供給するようになされている。また、URL変換回路412では、URLが例えば、式(2)に示すように記述されている場合には、ID番号OD_IDを復号して再構成回路411に出力し、また、URLが他のサーバ上のファイルを示している場合には、その情報が逆多重化回路404に供給され、逆多重化回路404がそのサーバにアクセスして、所望のファイルを読み込むようになされている。
次に以上の実施の形態の動作について簡単に説明する。読み出されたシーン記述子SDは、構文解析回路410に供給され、解析される。構文解析されたシーン記述は、再構成回路411に供給されることになる。また、構文解析回路410は、isStringを復号し、この値が“1”であるか否かを判定する。その結果、この値が“1”であると判定した場合には、ノードにテクスチャとして貼り付けるAVデータのURLをURL変換回路412に供給する。その結果、URL変換回路412は、URLが、例えば、式(2)に示すように記述されている場合(文字列の先頭が“mpeg4”である場合)には、文字列情報からオブジェクト記述子ODのIDであるID番号OD_IDを復号し、再構成回路411に対して出力する。また、URLが他のサーバ上のファイルを指定している場合には、その情報が逆多重化回路404に供給され、逆多重化回路404は、そのサーバに対してアクセスし、所望のファイルの転送を要求し、受信することになる。なお、複数のサーバと通信する場合においても、それぞれのサーバの動作は、前述の場合と同様である。
一方、構文解析回路410は、また、isStringが“0”である場合、ID番号OD_IDを復号し、これを再構成回路411に対して出力する。その他の動作は、第1の実施の形態の場合と同様であるのでその説明は省略する。
以上の実施の形態によれば、例えば、アプリケーションの種類に応じて、最適な符号化方法を選択することが可能となる。
なお、本明細書中において、記録媒体には、FD,CD-ROMなどの情報記録媒体の他、インターネット、ディジタル衛星などのネットワーク伝送媒体も含まれる。
本発明の符号化装置の第1の実施の形態の構成例を示すブロック図である。 シーン記述子SDとノードとの関係を示す図である。 ノードに動画をテクスチャとして貼り付けるためのシーン記述子のアスキーフォーマットの一例を示す図である。 ノードに静止画をテクスチャとして貼り付けるためのシーン記述子のアスキーフォーマットの一例を示す図である。 ノードに動画をテクスチャとして貼り付けるためのシーン記述子のバイナリフォーマットの一例を示す図である。 ノードに静止画をテクスチャとして貼り付けるためのシーン記述子のバイナリフォーマットの一例を示す図である。 図1に示す多重化装置の詳細な構成例を示す図である。 本発明の復号装置の第1の実施の形態の構成例を示すブロック図である。 図8に示す逆多重化回路404の詳細な構成例を示す図である。 各ビットストリー右の対応関係および図8に示す再構成回路411の構成例を示す図である。 図9に示す合成回路351の詳細な構成例を示すブロック図である。 オブジェクト記述子ODの一例を示す図である。 ES_Descriptorの一例を示す図である。 ES_ConfigParamsの一例を示す図である。 本発明の符号化装置の第2の実施の形態の構成例を示すブロック図である。 ノードに動画をテクスチャとして貼り付けるためのシーン記述子のバイナリフォーマットの一例を示す図である。 ノードに静止画をテクスチャとして貼り付けるためのシーン記述子のバイナリフォーマットの一例を示す図である。 本発明の復号装置の第2の実施の形態の構成例を示すブロック図である。 本発明の符号化装置の第3の実施の形態の構成例を示すブロック図である。 動画をテクスチャとして貼り付けるためのシーン記述子SDのバイナリフォーマットの一例を示す図である。 静止画をテクスチャとして貼り付けるためのシーン記述子SDのバイナリフォーマットの一例を示す図である。 本発明の復号装置の第3の実施の形態の構成例を示すブロック図である。 テクスチャマッピングについて説明するための図である。 MPEG方式のMP@MLのエンコーダの構成例を示すブロック図である。 MPEG方式のMP@MLのデコーダの構成例を示すブロック図である。 空間スケーラビリティのエンコーダの構成例を示すブロック図である。 空間スケーラビリティのデコーダの構成例を示すブロック図である。
符号の説明
302 記憶装置, 303 多重化回路, OD発生回路, 306 記憶装置, 307 構文解析回路, 308 BIFSエンコーダ, 309 URL変更回路, 311 制御回路, 404 逆多重化回路, 410 構文解析回路, 411 再構成回路

Claims (8)

  1. AVデータ、2次元または3次元データの複数の情報に対応する複数のノードで構成されるシーン記述子及び上記AVデータに関する情報である複数のオブジェクト記述子を多重化する多重化装置において、
    上記複数のノード中の文字列を読み出し、該文字列に対応するAVデータに関する情報である上記複数のオブジェクト記述子を生成する生成手段と、
    上記複数のノード中の文字列を所定の手法で置換する置換手段と、
    上記生成手段により生成された上記複数のオブジェクト記述子、上記置換手段より置換された上記複数のノード及び上記AVデータとを符号化し、同一のストリームに多重化する多重化手段とを
    備えることを特徴とする多重化装置。
  2. 上記文字列は、URLであり、
    上記URLの表現形式は、ASCIIフォーマットである
    ことを特徴とする請求項1に記載の多重化装置。
  3. 上記所定の手法とは、上記複数のノード中の文字列をバイナリフォーマットの文字列に変換する
    ことを特徴とする請求項1に記載の多重化装置。
  4. AVデータ、2次元または3次元データの複数の情報に対応する複数のノードで構成されるシーン記述子及び上記AVデータに関する情報である複数のオブジェクト記述子を多重化する多重化方法において、
    上記複数のノード中の文字列を読み出し、該文字列に対応するAVデータに関する情報である上記複数のオブジェクト記述子を生成する生成ステップと、
    上記複数のノード中の文字列を所定の手法で置換する置換ステップと、
    上記生成ステップの処理で生成された上記複数のオブジェクト記述子、上記置換ステップより置換された上記複数のノード及び上記AVデータとを符号化し、同一のストリームに多重化する多重化ステップとを
    含むことを特徴とする多重化方法。
  5. 符号化されたAVデータ、2次元または3次元データの複数の情報に対応する複数のノードで構成されるシーン記述子及び上記AVデータに関する情報である複数のオブジェクト記述子とを多重化したストリームを分離し、該分離された上記複数のノード及び上記複数のオブジェクト記述子に基づき上記AVデータを復元する合成装置において、
    上記複数のノードの文字列を所定の手法により解析を行う解析手段と、
    上記解析手段により出力された結果と上記複数のオブジェクト記述子とを照合する照合手段と、
    上記複数のオブジェクト記述子の解析結果を用いて上記符号化されたAVデータを復号する復号手段と、
    上記照合手段の結果を用いて上記復号されたAVデータと上記2次元または3次元データとを合成する合成手段と
    を備えることを特徴とする合成装置。
  6. 上記文字列は、URLであり、
    上記URLの表現形式は、ASCIIフォーマットである
    ことを特徴とする請求項5に記載の合成装置。
  7. 上記所定の手法とは、上記複数のノード中の文字列をバイナリフォーマットの文字列に変換する
    ことを特徴とする請求項5に記載の合成装置。
  8. 符号化されたAVデータ、2次元または3次元データの複数の情報に対応する複数のノードで構成されるシーン記述子及び上記AVデータに関する情報である複数のオブジェクト記述子とを多重化したストリームを分離し、該分離された上記複数のノード及び上記複数のオブジェクト記述子に基づき上記AVデータを復元する合成方法において、
    上記複数のノードの文字列を所定の手法により解析を行う解析ステップと、
    上記解析ステップの処理で出力された結果と上記複数のオブジェクト記述子とを照合する照合ステップと、
    上記複数のオブジェクト記述子の解析結果を用いて上記符号化されたAVデータを復号する復号ステップと、
    上記照合ステップでの結果を用いて上記復号されたAVデータと上記2次元または3次元データとを合成する合成ステップと
    を含むことを特徴とする合成方法。
JP2006099977A 1997-09-22 2006-03-31 多重化装置及び方法、並びに合成装置および方法 Expired - Fee Related JP4529933B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006099977A JP4529933B2 (ja) 1997-09-22 2006-03-31 多重化装置及び方法、並びに合成装置および方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP27519697 1997-09-22
JP2006099977A JP4529933B2 (ja) 1997-09-22 2006-03-31 多重化装置及び方法、並びに合成装置および方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP26825098A Division JPH11177946A (ja) 1997-09-22 1998-09-22 符号化装置、符号化方法、復号装置、復号方法、および、提供媒体

Publications (2)

Publication Number Publication Date
JP2006217653A true JP2006217653A (ja) 2006-08-17
JP4529933B2 JP4529933B2 (ja) 2010-08-25

Family

ID=17552031

Family Applications (2)

Application Number Title Priority Date Filing Date
JP26825098A Pending JPH11177946A (ja) 1997-09-22 1998-09-22 符号化装置、符号化方法、復号装置、復号方法、および、提供媒体
JP2006099977A Expired - Fee Related JP4529933B2 (ja) 1997-09-22 2006-03-31 多重化装置及び方法、並びに合成装置および方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP26825098A Pending JPH11177946A (ja) 1997-09-22 1998-09-22 符号化装置、符号化方法、復号装置、復号方法、および、提供媒体

Country Status (9)

Country Link
US (1) US6611262B1 (ja)
EP (1) EP0903698A3 (ja)
JP (2) JPH11177946A (ja)
KR (1) KR100563013B1 (ja)
CN (2) CN100479525C (ja)
AU (1) AU761202B2 (ja)
CA (1) CA2247594C (ja)
IL (6) IL126270A (ja)
SG (1) SG89267A1 (ja)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6389375B1 (en) 1999-01-22 2002-05-14 Interlego Ag Virtual reality modelling
ATE278226T1 (de) * 1999-01-22 2004-10-15 Lego As Virtuelle-realität modellierung
US6934906B1 (en) 1999-07-08 2005-08-23 At&T Corp. Methods and apparatus for integrating external applications into an MPEG-4 scene
KR100353843B1 (ko) * 1999-12-24 2002-09-26 한국전자통신연구원 인터넷에서의 3차원 데이터 저장 및 검색 방법
US7685534B2 (en) * 2000-02-16 2010-03-23 Jlb Ventures Llc Method and apparatus for a three-dimensional web-navigator
JP2001243043A (ja) * 2000-02-29 2001-09-07 Sony Corp ユーザインタフェースシステム、シーン記述生成装置及び方法、シーン記述変換装置及び方法、記録媒体並びに伝送媒体
US6898320B2 (en) * 2000-03-14 2005-05-24 Samsung Electronics Co., Ltd. Method for processing nodes in 3D scene and apparatus thereof
KR100429838B1 (ko) * 2000-03-14 2004-05-03 삼성전자주식회사 인터랙티브 멀티미디어 콘텐츠 서비스에서 업스트림채널을 이용한 사용자 요구 처리방법 및 그 장치
KR100374797B1 (ko) * 2000-03-14 2003-03-03 삼성전자주식회사 삼차원 장면의 노드를 처리하는 방법 및 그 장치
FR2806570B1 (fr) * 2000-03-15 2002-05-17 Thomson Multimedia Sa Procede et dispositif de codage d'images video
FR2807268A1 (fr) * 2000-04-04 2001-10-05 Koninkl Philips Electronics Nv Reseau, terminal d'emission et methode de constitution d'un point d'acces dans un flux de donnees
JP2002064802A (ja) * 2000-08-21 2002-02-28 Sony Corp データ伝送システム、データ伝送装置及び方法、シーン記述処理装置及び方法
JP2002232841A (ja) * 2000-11-10 2002-08-16 Satake Corp マルチメディア情報処理装置
US7500017B2 (en) * 2001-04-19 2009-03-03 Microsoft Corporation Method and system for providing an XML binary format
FR2823942A1 (fr) * 2001-04-24 2002-10-25 Koninkl Philips Electronics Nv Dispositif pour une conversion d'un format bifs textuel vers un format bifs binaire
KR100424762B1 (ko) * 2001-09-06 2004-03-30 삼성전자주식회사 영상 데이터 제공 시스템 및 방법
KR100491956B1 (ko) * 2001-11-07 2005-05-31 경북대학교 산학협력단 엠펙(mpeg)-4 컨텐츠 생성 방법 및 그 장치
KR20030065001A (ko) * 2002-01-29 2003-08-06 주식회사 리코시스 Mpeg-4 데이터 편집장치 및 편집방법
US8421804B2 (en) 2005-02-16 2013-04-16 At&T Intellectual Property Ii, L.P. System and method of streaming 3-D wireframe animations
WO2004036955A1 (en) 2002-10-15 2004-04-29 Electronics And Telecommunications Research Institute Method for generating and consuming 3d audio scene with extended spatiality of sound source
EP1445954A1 (en) * 2003-02-10 2004-08-11 Thomson Licensing S.A. Method to transmit and receive font information in streaming systems
US7142602B2 (en) * 2003-05-21 2006-11-28 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting 3D objects from compressed videos
US7978716B2 (en) 2003-11-24 2011-07-12 Citrix Systems, Inc. Systems and methods for providing a VPN solution
US7617531B1 (en) * 2004-02-18 2009-11-10 Citrix Systems, Inc. Inferencing data types of message components
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US7821516B2 (en) * 2004-05-17 2010-10-26 Pixar Automatic pre-render pinning of change isolated assets methods and apparatus
KR20050117826A (ko) * 2004-06-11 2005-12-15 삼성전자주식회사 디지털 오디오 방송에서 인터랙티브 정보를 포함하는슬라이드 쇼 제공방법, 처리장치 및 dab 수신장치
US8495305B2 (en) 2004-06-30 2013-07-23 Citrix Systems, Inc. Method and device for performing caching of dynamically generated objects in a data communication network
US8739274B2 (en) 2004-06-30 2014-05-27 Citrix Systems, Inc. Method and device for performing integrated caching in a data communication network
US7757074B2 (en) 2004-06-30 2010-07-13 Citrix Application Networking, Llc System and method for establishing a virtual private network
CN101938408B (zh) * 2004-07-22 2013-07-10 韩国电子通信研究院 简单聚合格式同步层分组的结构、提供方法和其用户终端
US7808906B2 (en) 2004-07-23 2010-10-05 Citrix Systems, Inc. Systems and methods for communicating a lossy protocol via a lossless protocol using false acknowledgements
JP2008507929A (ja) 2004-07-23 2008-03-13 サイトリックス システムズ, インコーポレイテッド プライベートネットワークへの遠隔アクセスを安全にする方法およびシステム
US8510657B2 (en) 2004-09-30 2013-08-13 Microsoft Corporation Editing the text of an arbitrary graphic via a hierarchical list
US8134575B2 (en) 2004-09-30 2012-03-13 Microsoft Corporation Maintaining graphical presentations based on user customizations
US7348982B2 (en) 2004-09-30 2008-03-25 Microsoft Corporation Method, system, and computer-readable medium for creating and laying out a graphic within an application program
US8549149B2 (en) 2004-12-30 2013-10-01 Citrix Systems, Inc. Systems and methods for providing client-side accelerated access to remote applications via TCP multiplexing
US8700695B2 (en) 2004-12-30 2014-04-15 Citrix Systems, Inc. Systems and methods for providing client-side accelerated access to remote applications via TCP pooling
US7810089B2 (en) * 2004-12-30 2010-10-05 Citrix Systems, Inc. Systems and methods for automatic installation and execution of a client-side acceleration program
US8706877B2 (en) 2004-12-30 2014-04-22 Citrix Systems, Inc. Systems and methods for providing client-side dynamic redirection to bypass an intermediary
US8954595B2 (en) 2004-12-30 2015-02-10 Citrix Systems, Inc. Systems and methods for providing client-side accelerated access to remote applications via TCP buffering
AU2005325674A1 (en) 2005-01-24 2006-08-03 Citrix Systems, Inc. Systems and methods for performing caching of dynamically generated objects in a network
US8255456B2 (en) 2005-12-30 2012-08-28 Citrix Systems, Inc. System and method for performing flash caching of dynamically generated objects in a data communication network
KR100612890B1 (ko) * 2005-02-17 2006-08-14 삼성전자주식회사 3차원 이미지의 다중 특수 효과 표현 방법 및 장치
KR100785012B1 (ko) 2005-04-11 2007-12-12 삼성전자주식회사 3d 압축 데이터 생성, 복원 방법 및 그 장치
CN101156319B (zh) * 2005-04-11 2012-05-30 三星电子株式会社 产生和恢复3d压缩数据的方法和设备
TWI388216B (zh) * 2005-10-13 2013-03-01 Lg Electronics Inc 用於編碼/解碼之方法與裝置
US8301839B2 (en) 2005-12-30 2012-10-30 Citrix Systems, Inc. System and method for performing granular invalidation of cached dynamically generated objects in a data communication network
US7921184B2 (en) 2005-12-30 2011-04-05 Citrix Systems, Inc. System and method for performing flash crowd caching of dynamically generated objects in a data communication network
US8438486B2 (en) 2006-02-09 2013-05-07 Microsoft Corporation Automatically converting text to business graphics
EP2001235B1 (en) * 2007-06-08 2013-05-22 Samsung Electronics Co., Ltd. MPEG-4 format extension for recording stereoscopic or synthetic 3D video data with related metadata
KR100955578B1 (ko) * 2007-12-18 2010-04-30 한국전자통신연구원 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치
US8624898B1 (en) 2009-03-09 2014-01-07 Pixar Typed dependency graphs
JP5573316B2 (ja) * 2009-05-13 2014-08-20 セイコーエプソン株式会社 画像処理方法および画像処理装置
WO2011082647A1 (zh) * 2010-01-07 2011-07-14 Dong futian 空间数据渐进传输方法及装置
US8799325B2 (en) 2010-03-12 2014-08-05 Microsoft Corporation Reordering nodes in a hierarchical structure
US8908103B2 (en) * 2010-10-01 2014-12-09 Sony Corporation Content supplying apparatus, content supplying method, content reproduction apparatus, content reproduction method, program and content viewing system
JP5793871B2 (ja) * 2011-01-25 2015-10-14 ソニー株式会社 受信装置、受信方法、供給装置、供給方法、プログラム、および放送システム
CN102819851B (zh) * 2012-08-08 2015-03-18 成都思珩网络科技有限公司 一种有声图片的计算机实现方法
US9171401B2 (en) 2013-03-14 2015-10-27 Dreamworks Animation Llc Conservative partitioning for rendering a computer-generated animation
US9224239B2 (en) 2013-03-14 2015-12-29 Dreamworks Animation Llc Look-based selection for rendering a computer-generated animation
US9230294B2 (en) 2013-03-15 2016-01-05 Dreamworks Animation Llc Preserving and reusing intermediate data
US9589382B2 (en) 2013-03-15 2017-03-07 Dreamworks Animation Llc Render setup graph
US9514562B2 (en) 2013-03-15 2016-12-06 Dreamworks Animation Llc Procedural partitioning of a scene
US9626787B2 (en) 2013-03-15 2017-04-18 Dreamworks Animation Llc For node in render setup graph
US9208597B2 (en) 2013-03-15 2015-12-08 Dreamworks Animation Llc Generalized instancing for three-dimensional scene data
US9218785B2 (en) 2013-03-15 2015-12-22 Dreamworks Animation Llc Lighting correction filters
US9659398B2 (en) 2013-03-15 2017-05-23 Dreamworks Animation Llc Multiple visual representations of lighting effects in a computer animation scene
US9811936B2 (en) * 2013-03-15 2017-11-07 Dreamworks Animation L.L.C. Level-based data sharing for digital content production
CN105578172B (zh) * 2015-12-10 2017-12-05 四川长虹电器股份有限公司 基于Unity3D引擎的裸眼3D视频显示方法
US10297087B2 (en) * 2017-05-31 2019-05-21 Verizon Patent And Licensing Inc. Methods and systems for generating a merged reality scene based on a virtual object and on a real-world object represented from different vantage points in different video data streams
CN110099242A (zh) * 2019-04-02 2019-08-06 视联动力信息技术股份有限公司 一种远程直播方法和装置
CN112995766B (zh) * 2019-12-12 2023-10-10 天翼数字生活科技有限公司 用于标识iptv多路视频流的方法和装置
US20210105451A1 (en) * 2019-12-23 2021-04-08 Intel Corporation Scene construction using object-based immersive media
US20220134222A1 (en) * 2020-11-03 2022-05-05 Nvidia Corporation Delta propagation in cloud-centric platforms for collaboration and connectivity
US11797475B2 (en) * 2021-01-14 2023-10-24 Tencent America LLC Method and apparatus for media scene description

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099223A (ja) * 1995-06-16 1997-01-10 Sony Corp 情報通信方法及び装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2180899A1 (en) 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
CA2180891C (en) 1995-07-12 2010-01-12 Junichi Rekimoto Notification of updates in a three-dimensional virtual reality space sharing system
JP3859018B2 (ja) * 1995-07-12 2006-12-20 ソニー株式会社 3次元仮想現実空間共有方法、3次元仮想現実空間共有システム、アドレス管理方法、並びにアドレス管理サーバ端末
JP3702525B2 (ja) * 1996-03-06 2005-10-05 株式会社日立製作所 インタラクティブ映像記録再生方式
CA2257566C (en) * 1997-04-07 2002-01-01 At&T Corp. System and method for generation and interfacing of bitstreams representing mpeg-coded audiovisual objects
US6317131B2 (en) * 1997-07-15 2001-11-13 At&T Corp. Interaction modalities for multimedia delivery and presentation using nodes

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099223A (ja) * 1995-06-16 1997-01-10 Sony Corp 情報通信方法及び装置

Also Published As

Publication number Publication date
IL175071A0 (en) 2006-08-20
EP0903698A3 (en) 2000-05-17
CN100479525C (zh) 2009-04-15
IL144758A (en) 2006-12-10
CN1247029C (zh) 2006-03-22
CN1744717A (zh) 2006-03-08
AU8316198A (en) 1999-04-01
KR19990029911A (ko) 1999-04-26
CN1224982A (zh) 1999-08-04
EP0903698A2 (en) 1999-03-24
IL126270A (en) 2005-12-18
IL126270A0 (en) 1999-05-09
KR100563013B1 (ko) 2006-11-30
CA2247594A1 (en) 1999-03-22
IL144759A (en) 2006-08-01
IL144758A0 (en) 2002-06-30
US6611262B1 (en) 2003-08-26
AU761202B2 (en) 2003-05-29
SG89267A1 (en) 2002-06-18
JP4529933B2 (ja) 2010-08-25
IL144759A0 (en) 2002-06-30
CA2247594C (en) 2009-11-24
JPH11177946A (ja) 1999-07-02

Similar Documents

Publication Publication Date Title
JP4529933B2 (ja) 多重化装置及び方法、並びに合成装置および方法
JP4930810B2 (ja) 画像処理装置、画像処理方法、および記録媒体
KR100556826B1 (ko) Mpeg-4 기반의 양안식 3차원 동영상을 서비스하기 위한 인터넷 방송 시스템 및 그 방법
US6377309B1 (en) Image processing apparatus and method for reproducing at least an image from a digital data sequence
JP3516585B2 (ja) データ処理装置及びデータ処理方法
EP0905976A1 (en) Method of processing, transmitting and receiving dynamic image data and apparatus therefor
GB2579389A (en) Method, device and computer program for encapsulating media data into a media file
US7690018B2 (en) Data processing apparatus and method
JP2003534741A (ja) Mpeg−4リモートアクセス端末を有する通信システム
WO2024041239A1 (zh) 一种沉浸媒体的数据处理方法、装置、设备、存储介质及程序产品
KR100368301B1 (ko) 동영상 메일 시스템 및 방법
US20020080399A1 (en) Data processing apparatus, data processing method, data processing program, and computer-readable memory storing codes of data processing program
JP4499204B2 (ja) 画像信号多重化装置および方法、並びに伝送媒体
Puri et al. Overview of the MPEG Standards
JP2001016582A (ja) 画像処理装置およびその方法
MXPA98007713A (en) Generation of a bits flow containing binary image / audio data that multiplexes with a code defining an object in format as
Puri et al. Scene description, composition, and playback systems for MPEG-4
JP2022090106A (ja) 復号装置
JP4209045B2 (ja) データ変換方法および装置
CN114503599A (zh) 使用gltf2场景描述中的扩展来支持视频和音频数据
Puri et al. AT&T Labs, Red Bank, New Jersey
Angelides et al. Capabilities and Limitations of PC’s in the Networked Multimedia Environment
Weinstein Digital Coding of Audio and Video
JP2003199062A (ja) 送信装置及び受信装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees