JP3380983B2 - 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体 - Google Patents

画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体

Info

Publication number
JP3380983B2
JP3380983B2 JP2000176666A JP2000176666A JP3380983B2 JP 3380983 B2 JP3380983 B2 JP 3380983B2 JP 2000176666 A JP2000176666 A JP 2000176666A JP 2000176666 A JP2000176666 A JP 2000176666A JP 3380983 B2 JP3380983 B2 JP 3380983B2
Authority
JP
Japan
Prior art keywords
vop
time
precision
image
time information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000176666A
Other languages
English (en)
Other versions
JP2001036911A (ja
Inventor
陽一 矢ヶ崎
輝彦 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2001036911A publication Critical patent/JP2001036911A/ja
Application granted granted Critical
Publication of JP3380983B2 publication Critical patent/JP3380983B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Numerical Control (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像符号化装置お
よび画像符号化方法、画像復号装置および画像復号方
法、並びに記録媒体に関する。特に、例えば、動画像デ
ータを、光磁気ディスクや磁気テープなどの記録媒体に
記録し、これを再生してディスプレイなどに表示した
り、テレビ会議システム、テレビ電話システム、放送用
機器、マルチメディアデータベース検索システムなどの
ように、動画像データを伝送路を介して送信側から受信
側に伝送し、受信側において、受信された動画像データ
を表示する場合や、編集して記録する場合などに用いて
好適な画像符号化装置および画像符号化方法、画像復号
装置および画像復号方法、並びに記録媒体に関する。
【0002】
【従来の技術】例えば、テレビ会議システム、テレビ電
話システムなどのように、動画像データを遠隔地に伝送
するシステムにおいては、伝送路を効率良く利用するた
め、画像データを、そのライン相関やフレーム間相関を
利用して圧縮符号化するようになされている。
【0003】動画像の高能率符号化方式として代表的な
ものとしてMPEG(Moving Picture Experts Group)(蓄
積用動画像符号化)方式がある。これはISO−IEC
/JTC1/SC2/WG11において議論され、標準
案として提案されたものであり、動き補償予測符号化と
DCT(Discrete Cosine Transform)符号化を組み合
わせたハイブリッド方式が採用されている。
【0004】MPEGでは、様々なアプリケーションや
機能に対応するために、いくつかのプロファイルおよび
レベルが定義されている。最も基本となるのが、メイン
プロファイルメインレベル(MP@ML(Main Profile
at Main Level))である。
【0005】図38は、MPEG方式におけるMP@M
Lのエンコーダの一例の構成を示している。
【0006】符号化すべき画像データは、フレームメモ
リ31に入力され、一時記憶される。そして、動きベク
トル検出器32は、フレームメモリ31に記憶された画
像データを、例えば、16画素×16画素などで構成さ
れるマクロブロック単位で読み出し、その動きベクトル
を検出する。
【0007】ここで、動きベクトル検出器32において
は、各フレームの画像データを、Iピクチャ(フレーム
内符号化)、Pピクチャ(前方予測符号化)、またはB
ピクチャ(両方向予測符号化)のうちのいずれかとして
処理する。なお、シーケンシャルに入力される各フレー
ムの画像を、I,P,Bピクチャのいずれのピクチャと
して処理するかは、例えば、予め定められている(例え
ば、I,B,P,B,P,・・・B,Pとして処理され
る)。
【0008】即ち、動きベクトル検出器32は、フレー
ムメモリ31に記憶された画像データの中の、予め定め
られた所定の参照フレームを参照し、その参照フレーム
と、現在符号化の対象となっているフレームの16画素
×16ラインの小ブロック(マクロブロック)とをパタ
ーンマッチング(ブロックマッチング)することによ
り、そのマクロブロックの動きベクトルを検出する。
【0009】ここで、MPEGにおいては、画像の予測
モードには、イントラ符号化(フレーム内符号化)、前
方予測符号化、後方予測符号化、両方向予測符号化の4
種類があり、Iピクチャはイントラ符号化され、Pピク
チャはイントラ符号化または前方予測符号化のいずれか
で符号化され、Bピクチャはイントラ符号化、前方予測
符号化、後方予測符号化、または両方法予測符号化のい
ずれかで符号化される。
【0010】即ち、動きベクトル検出器32は、Iピク
チャについては、予測モードとしてイントラ符号化モー
ドを設定する。この場合、動きベクトル検出器32は、
動きベクトルの検出は行わず、予測モード(イントラ予
測モード)を、VLC(可変長符号化)器36および動
き補償器42に出力する。
【0011】また、動きベクトル検出器32は、Pピク
チャについては、前方予測を行い、その動きベクトルを
検出する。さらに、動きベクトル検出器32は、前方予
測を行うことにより生じる予測誤差と、符号化対象のマ
クロブロック(Pピクチャのマクロブロック)の、例え
ば分散とを比較する。その比較の結果、マクロブロック
の分散の方が予測誤差より小さい場合、動きベクトル検
出器32は、予測モードとしてイントラ符号化モードを
設定し、VLC器36および動き補償器42に出力す
る。また、動きベクトル検出器32は、前方予測を行う
ことにより生じる予測誤差の方が小さければ、予測モー
ドとして前方予測符号化モードを設定し、検出した動き
ベクトルとともに、VLC器36および動き補償器42
に出力する。
【0012】さらに、動きベクトル検出器32は、Bピ
クチャについては、前方予測、後方予測、および両方向
予測を行い、それぞれの動きベクトルを検出する。そし
て、動きベクトル検出器32は、前方予測、後方予測、
および両方向予測についての予測誤差の中の最小のもの
(以下、適宜、最小予測誤差という)を検出し、その最
小予測誤差と、符号化対象のマクロブロック(Bピクチ
ャのマクロブロック)の、例えば分散とを比較する。そ
の比較の結果、マクロブロックの分散の方が最小予測誤
差より小さい場合、動きベクトル検出器32は、予測モ
ードとしてイントラ符号化モードを設定し、VLC器3
6および動き補償器42に出力する。また、動きベクト
ル検出器32は、最小予測誤差の方が小さければ、予測
モードとして、その最小予測誤差が得られた予測モード
を設定し、対応する動きベクトルとともに、VLC器3
6および動き補償器42に出力する。
【0013】動き補償器42は、動きベクトル検出器3
2から予測モードと動きベクトルの両方を受信すると、
その予測モードおよび動きベクトルにしたがって、フレ
ームメモリ41に記憶されている、符号化され、かつ既
に局所復号された画像データを読み出し、この読み出さ
れた画像データを、予測画像データとして、演算器33
および40に供給する。
【0014】演算器33は、動きベクトル検出器32が
フレームメモリ31から読み出した画像データと同一の
マクロブロックをフレームメモリ31から読み出し、そ
のマクロブロックと、動き補償器42からの予測画像と
の差分を演算する。この差分値は、DCT器34に供給
される。
【0015】一方、動き補償器42は、動きベクトル検
出器32から予測モードのみを受信した場合、即ち、予
測モードがイントラ符号化モードである場合には、予測
画像を出力しない。この場合、演算器33(演算器40
も同様)は、特に処理を行わず、フレームメモリ31か
ら読み出したマクロブロックを、そのままDCT器34
に出力する。
【0016】DCT器34では、演算器33の出力デー
タに対して、DCT処理が施され、その結果得られるD
CT係数が、量子化器35に供給される。量子化器35
では、バッファ37のデータ蓄積量(バッファ37に記
憶されているデータの量)(バッファフィードバック)
に対応して量子化ステップ(量子化スケール)が設定さ
れ、その量子化ステップで、DCT器34からのDCT
係数が量子化される。この量子化されたDCT係数(以
下、適宜、量子化係数という)は、設定された量子化ス
テップとともに、VLC器36に供給される。
【0017】VLC器36では、量子化器35より供給
される量子化係数が、例えばハフマン符号などの可変長
符号に変換され、バッファ37に出力される。さらに、
VLC器36は、量子化器35からの量子化ステップ、
動きベクトル検出器32からの予測モード(イントラ符
号化(画像内予測符号化)、前方予測符号化、後方予測
符号化、または両方向予測符号化のうちのいずれが設定
されたかを示すモード)および動きベクトルも可変長符
号化し、その結果得られる符号化データを、バッフ37
に出力する。
【0018】バッファ37は、VLC器36からの符号
化データを一時蓄積することにより、そのデータ量を平
滑化し、符号化ビットストリームとして、例えば、伝送
路に出力し、または記録媒体に記録する。
【0019】また、バッファ37は、そのデータ蓄積量
を量子化器35に出力しており、量子化器35は、この
バッファ37からのデータ蓄積量にしたがって量子化ス
テップを設定する。即ち、量子化器35は、バッファ3
7がオーバーフローしそうなとき、量子化ステップを大
きくし、これにより、量子化係数のデータ量を低下させ
る。また、量子化器35は、バッファ37がアンダーフ
ローしそうなとき、量子化ステップを小さくし、これに
より、量子化係数のデータ量を増大させる。このように
して、バッファ37のオーバフローとアンダフローを防
止するようになっている。
【0020】量子化器35が出力する量子化係数と量子
化ステップは、VLC器36だけでなく、逆量子化器3
8にも供給されるようになされている。逆量子化器38
では、量子化器35からの量子化係数が、同じく量子化
器35からの量子化ステップにしたがって逆量子化さ
れ、これによりDCT係数に変換される。このDCT係
数は、IDCT器(逆DCT器)39に供給される。I
DCT器39では、DCT係数が逆DCT処理され、そ
の処理の結果得られるデータが、演算器40に供給され
る。
【0021】演算器40には、IDCT器39の出力デ
ータの他、上述したように、動き補償器42から、演算
器33に供給されている予測画像と同一のデータが供給
されている。演算器40は、IDCT器39の出力デー
タ(予測残差(差分データ))と、動き補償器42から
の予測画像データとを加算することで、元の画像データ
を局所復号し、この局所復号された画像データ(局所復
号画像データ)が出力される(但し、予測モードがイン
トラ符号化である場合には、IDCT器39の出力デー
タは、演算器40をスルーして、そのまま、局所復号画
像データとして、フレームメモリ41に供給される)。
なお、この復号画像データは、受信側において得られる
復号画像データと同一のものである。
【0022】演算器40において得られた復号画像デー
タ(局所復号画像データ)は、フレームメモリ41に供
給されて記憶され、その後、インター符号化(前方予測
符号化、後方予測符号化、量方向予測符号化)される画
像に対する参照画像データ(参照フレーム)として用い
られる。
【0023】次に、図39は、図38のエンコーダから
出力される符号化データを復号する、MPEGにおける
MP@MLのデコーダの一例の構成を示している。
【0024】伝送路を介して伝送されてきた符号化ビッ
トストリーム(符号化データ)が図示せぬ受信装置で受
信され、または記録媒体に記録された符号化ビットスト
リーム(符号化データ)が図示せぬ再生装置で再生さ
れ、バッファ101に供給されて記憶される。
【0025】IVLC器(逆VLC器(可変長復号
器))102は、バッファ101に記憶された符号化デ
ータを読み出し、可変長復号することにより、その符号
化データを、マクロブロック単位で、動きベクトル、予
測モード、量子化ステップ、および量子化係数に分離す
る。これらのデータのうち、動きベクトルおよび予測モ
ードは動き補償器107に供給され、量子化ステップお
よびマクロブロックの量子化係数は逆量子化器103に
供給される。
【0026】逆量子化器103は、IVLC器102よ
り供給されたマクロブロックの量子化係数を、同じくI
VLC器102より供給された量子化ステップにしたが
って逆量子化し、その結果得られるDCT係数を、ID
CT器104に出力する。IDCT器104は、逆量子
化器103からのマクロブロックのDCT係数を逆DC
Tし、演算器105に供給する。
【0027】演算器105には、IDCT器104の出
力データの他、動き補償器107の出力データも供給さ
れている。即ち、動き補償器107は、フレームメモリ
106に記憶されている、既に復号された画像データ
を、図38の動き補償器42における場合と同様に、I
VLC器102からの動きベクトルおよび予測モードに
したがって読み出し、予測画像データとして、演算器1
05に供給する。演算器105は、IDCT器104の
出力データ(予測残差(差分値))と、動き補償器10
7からの予測画像データとを加算することで、元の画像
データを復号する。この復号画像データは、フレームメ
モリ106に供給されて記憶される。なお、IDCT器
104の出力データが、イントラ符号化されたものであ
る場合には、その出力データは、演算器105をスルー
して、復号画像データとして、そのままフレームメモリ
106に供給されて記憶される。
【0028】フレームメモリ106に記憶された復号画
像データは、その後に復号される画像データの参照画像
データとして用いられる。さらに、復号画像データは、
出力再生画像として、例えば、図示せぬディスプレイな
どに供給されて表示される。
【0029】なお、MPEG1および2では、Bピクチ
ャは、参照画像データとして用いられないため、エンコ
ーダまたはデコーダのそれぞれにおいて、フレームメモ
リ41(図38)または106(図39)には記憶され
ない。
【0030】
【発明が解決しようとする課題】以上の図38、図39
に示したエンコーダ、デコーダは、MPEG1/2の規
格に準拠したものであるが、現在、画像を構成する物体
などのオブジェクトのシーケンスであるVO(Video Ob
ject)単位で符号化を行う方式につき、ISO−IEC
/JTC1/SC29/WG11において、MPEG
(Moving Picture Experts Group)4として標準化作業
が進められている。
【0031】ところで、MPEG4については、主とし
て、通信の分野で利用されるものとして、標準化作業が
進められていたため、MPEG1/2において規定され
ているGOP(Group Of Picture)は、MPEG4では
規定されておらず、従って、MPEG4が蓄積メディア
に利用された場合には、効率的なランダムアクセスが困
難になることが予想される。
【0032】本発明は、このような状況に鑑みてなされ
たものであり、効率的なランダムアクセスをすることが
できるようにするものである。
【0033】
【課題を解決するための手段】本発明の画像符号化装置
は、複数のVOPをグループ化し、各グループのVOP
の符号化を開始した絶対時刻を表す絶対時刻情報をグル
ープ単位に付加する第1の付加手段と、グループ内にお
ける相対時刻を、秒精度で表す秒精度時刻情報を生成す
る秒精度時刻情報生成手段と、I−VOP,P−VO
P、またはB−VOPそれぞれの表示時刻の直前の秒精
度時刻情報から、それぞれの表示時刻までの時間を、秒
精度より細かい精度で表す詳細時間情報を生成する詳細
時間情報生成手段と、I−VOP,P−VOP、または
B−VOPの表示時刻を表す情報として、秒精度時刻情
報および詳細時間情報を、対応するI−VOP,P−V
OP、またはB−VOPにそれぞれ付加する第2の付加
手段とを備え、絶対時刻情報に、I−VOP,P−VO
P、またはB−VOPそれぞれに付加されている秒精度
時刻情報および詳細時間情報を加算した時刻を、I−V
OP、P−VOP、またはB−VOPそれぞれの表示時
刻とすることを特徴とする。
【0034】本発明の画像符号化方法は、複数のVOP
をグループ化し、各グループのVOPの符号化を開始し
た絶対時刻を表す絶対時刻情報をグループ単位に付加す
る第1の付加ステップと、グループ内における相対時刻
を、秒精度で表す秒精度時刻情報を生成する秒精度時刻
情報生成ステップと、I−VOP,P−VOP、または
B−VOPそれぞれの表示時刻の直前の秒精度時刻情報
から、それぞれの表示時刻までの時間を、秒精度より細
かい精度で表す詳細時間情報を生成する詳細時間情報生
成ステップと、I−VOP,P−VOP、またはB−V
OPの表示時刻を表す情報として、秒精度時刻情報およ
び詳細時間情報を、対応するI−VOP,P−VOP、
またはB−VOPにそれぞれ付加する第2の付加ステッ
プとを備え、絶対時刻情報に、I−VOP,P−VO
P、またはB−VOPそれぞれに付加されている秒精度
時刻情報および詳細時間情報を加算した時刻を、I−V
OP、P−VOP、またはB−VOPそれぞれの表示時
刻とすることを特徴とする。
【0035】本発明の画像復号装置は、絶対時刻情報
に、I−VOP,P−VOP、またはB−VOPそれぞ
れに付加されている秒精度時刻情報および詳細時間情報
を加算することで、I−VOP、P−VOP、またはB
−VOPそれぞれの表示時刻を求める表示時刻算出手段
を備えることを特徴とする。
【0036】本発明の画像復号方法は、絶対時刻情報
に、I−VOP,P−VOP、またはB−VOPそれぞ
れに付加されている秒精度時刻情報および詳細時間情報
を加算することで、I−VOP、P−VOP、またはB
−VOPそれぞれの表示時刻を求める表示時刻算出ステ
ップを備えることを特徴とする。
【0037】本発明の記録媒体は、複数のVOPをグル
ープ化し、各グループのVOPの符号化を開始した絶対
時刻を表す絶対時刻情報をグループ単位に付加し、グル
ープ内における相対時刻を、秒精度で表す秒精度時刻情
報を生成し、I−VOP,P−VOP、またはB−VO
Pそれぞれの表示時刻の直前の秒精度時刻情報から、そ
れぞれの表示時刻までの時間を、秒精度より細かい精度
で表す詳細時間情報を生成し、I−VOP,P−VO
P、またはB−VOPの表示時刻を表す情報として、秒
精度時刻情報および詳細時間情報を、対応するI−VO
P,P−VOP、またはB−VOPにそれぞれ付加する
ことにより得られる符号化ビットストリームが記録され
おり、絶対時刻情報に、I−VOP,P−VOP、ま
たはB−VOPそれぞれに付加されている秒精度時刻情
報および詳細時間情報を加算した時刻が、I−VOP、
P−VOP、またはB−VOPそれぞれの表示時刻を表
ことを特徴とする。
【0038】本発明の画像符号化装置においては、第1
の付加手段は、複数のVOPをグループ化し、各グルー
プのVOPの符号化を開始した絶対時刻を表す絶対時刻
情報をグループ単位に付加する。秒精度時刻情報生成手
段は、グループ内における相対時刻を、秒精度で表す秒
精度時刻情報を生成し、詳細時間情報生成手段は、I−
VOP,P−VOP、またはB−VOPそれぞれの表示
時刻の直前の秒精度時刻情報から、それぞれの表示時刻
までの時間を、秒精度より細かい精度で表す詳細時間情
報を生成するようになされている。そして、絶対時刻情
報に、I−VOP,P−VOP、またはB−VOPそれ
ぞれに付加されている秒精度時刻情報および詳細時間情
報を加算した時刻が、I−VOP、P−VOP、または
B−VOPそれぞれの表示時刻とされる。
【0039】本発明の画像符号化方法においては、複数
のVOPをグループ化し、各グループのVOPの符号化
を開始した絶対時刻を表す絶対時刻情報をグループ単位
に付加する。秒精度時刻情報生成手段は、グループ内に
おける相対時刻を、秒精度で表す秒精度時刻情報を生成
し、I−VOP,P−VOP、またはB−VOPそれぞ
れの表示時刻の直前の秒精度時刻情報から、それぞれの
表示時刻までの時間を、秒精度より細かい精度で表す詳
細時間情報を生成するようになされている。そして、絶
対時刻情報に、I−VOP,P−VOP、またはB−V
OPそれぞれに付加されている秒精度時刻情報および詳
細時間情報を加算した時刻が、I−VOP、P−VO
P、またはB−VOPそれぞれの表示時刻とされる。
【0040】本発明の画像復号装置においては、表示時
刻算出手段が、絶対時刻情報に、I−VOP,P−VO
P、またはB−VOPそれぞれに付加されている秒精度
時刻情報および詳細時間情報を加算することで、I−V
OP、P−VOP、またはB−VOPそれぞれの表示時
刻を求めるようになされている。
【0041】本発明の画像復号方法においては、絶対時
刻情報に、I−VOP,P−VOP、またはB−VOP
それぞれに付加されている秒精度時刻情報および詳細時
間情報を加算することで、I−VOP、P−VOP、ま
たはB−VOPそれぞれの表示時刻を求めるようになさ
れている。
【0042】本発明の記録媒体においては、複数のVO
Pをグループ化し、各グループのVOPの符号化を開始
した絶対時刻を表す絶対時刻情報をグループ単位に付加
し、グループ内における相対時刻を、秒精度で表す秒精
度時刻情報を生成し、I−VOP,P−VOP、または
B−VOPそれぞれの表示時刻の直前の秒精度時刻情報
から、それぞれの表示時刻までの時間を、秒精度より細
かい精度で表す詳細時間情報を生成し、I−VOP,P
−VOP、またはB−VOPの表示時刻を表す情報とし
て、秒精度時刻情報および詳細時間情報を、対応するI
−VOP,P−VOP、またはB−VOPにそれぞれ付
加することにより得られる符号化ビットストリームが記
録されている。そして、絶対時刻情報に、I−VOP,
P−VOP、またはB−VOPそれぞれに付加されてい
る秒精度時刻情報および詳細時間情報を加算した時刻
が、I−VOP、P−VOP、またはB−VOPそれぞ
れの表示時刻を表す。
【0043】
【発明の実施の形態】
【0044】
【0045】
【0046】
【0047】図1は、本発明を適用したエンコーダの一
実施の形態の構成例を示している。
【0048】符号化すべき画像(動画像)データは、V
O(Video Object)構成部1に入力され、VO構成部1
では、そこに入力される画像を構成するオブジェクトご
とに、そのシーケンスであるVOが構成され、VOP構
成部21乃至2Nに出力される。即ち、VO構成部1にお
いてN個のVO#1乃至VO#Nが構成された場合、そ
のN個のVO#1乃至VO#Nは、VOP構成部21乃
至2Nにそれぞれ出力される。
【0049】具体的には、例えば、符号化すべき画像デ
ータが、独立した背景F1のシーケンスと前景F2のシ
ーケンスとから構成される場合、VO構成部1は、例え
ば、前景F2のシーケンスを、VO#1として、VOP
構成部21に出力するとともに、背景F1のシーケンス
を、VO#2として、VOP構成部22に出力する。
【0050】なお、VO構成部1は、符号化すべき画像
データが、例えば、背景F1と前景F2とを、既に合成
したものである場合、所定のアルゴリズムにしたがっ
て、画像を領域分割することにより、背景F1と前景F
2とを取り出し、それぞれのシーケンスとしてのVO
を、対応するVOP構成部2n(但し、n=1,2,・
・・,N)に出力する。
【0051】VOP構成部2nは、VO構成部1の出力
から、VOP(VO Plane)を構成する。即ち、例えば、
各フレームから物体を抽出し、その物体を囲む、例え
ば、最小の長方形(以下、適宜、最小長方形という)を
VOPとする。なお、このとき、VOP構成部2nは、
その横および縦の画素数が、例えば、16の倍数となる
ようにVOPを構成する。VO構成部2nは、VOPを
構成すると、そのVOPを、VOP符号化部3nに出力
する。
【0052】さらに、VOP構成部2nは、VOPの大
きさ(例えば、横および縦の長さ)を表すサイズデータ
(VOP size)と、フレームにおける、そのVOPの位置
(例えば、フレームの最も左上を原点とするときの座
標)を表すオフセットデータ(VOP offset)とを検出
し、これらのデータも、VOP符号化部3nに供給す
る。
【0053】VOP符号化部3nは、VOP構成部2nの
出力を、例えば、MPEGや、H.263などの規格に
準拠した方式で符号化し、その結果得られるビットスト
リームを、多重化部4に出力する。多重化部4は、VO
P符号化部31乃至3Nからのビットストリームを多重化
し、その結果得られる多重化データを、例えば、地上波
や、衛星回線、CATV網その他の伝送路5を介して伝
送し、または、例えば、磁気ディスク、光磁気ディス
ク、光ディスク、磁気テープその他の記録媒体6に記録
する。
【0054】ここで、VOおよびVOPについて説明す
る。
【0055】VOは、ある合成画像のシーケンスが存在
する場合の、その合成画像を構成する各オブジェクト
(物体)のシーケンスであり、VOPは、ある時刻にお
けるVOを意味する。即ち、例えば、いま、画像F1お
よびF2を合成して構成される合成画像F3がある場
合、画像F1またはF2が時系列に並んだものが、それ
ぞれVOであり、ある時刻における画像F1またはF2
が、それぞれVOPである。従って、VOは、異なる時
刻の、同一オブジェクトのVOPの集合ということがで
きる。
【0056】なお、例えば、画像F1を背景とするとと
もに、画像F2を前景とすると、合成画像F3は、画像
F2を抜くためのキー信号を用いて、画像F1およびF
2を合成することによって得られるが、この場合におけ
る画像F2のVOPには、その画像F2を構成する画像
データ(輝度信号および色差信号)の他、適宜、そのキ
ー信号も含まれるものとする。
【0057】画像フレーム(画枠)のシーケンスは、そ
の大きさおよび位置のいずれも変化しないが、VOは、
大きさや位置が変化する場合がある。即ち、同一のVO
を構成するVOPであっても、時刻によって、その大き
さや位置が異なる場合がある。
【0058】具体的には、図2は、背景である画像F1
と、前景である画像F2とからなる合成画像を示してい
る。
【0059】画像F1は、例えば、ある自然の風景を撮
影したものであり、その画像全体のシーケンスが1つの
VO(VO#0とする)とされている。また、画像F2
は、例えば、人が歩いている様子を撮影したものであ
り、その人を囲む最小の長方形のシーケンスが1つのV
O(VO#1とする)とされている。
【0060】この場合、VO#0は風景の画像であるか
ら、基本的に、通常の画像のフレームと同様に、その位
置および大きさの両方とも変化しない。これに対して、
VO#1は人の画像であるから、人物が左右に移動した
り、また、図面において手前側または奥側に移動するこ
とにより、その大きさや位置が変化する。従って、図2
は、同一時刻におけるVO#0およびVO#1を表して
いるが、VOの位置や大きさは、時間の経過にともなっ
て変化することがある。
【0061】そこで、図1のVOP符号化部3nは、そ
の出力するビットストリームに、VOPを符号化したデ
ータの他、所定の絶対座標系におけるVOPの位置(座
標)および大きさに関する情報も含めるようになされて
いる。なお、図2においては、VO#0を構成する、あ
る時刻のVOP(画像F1)の位置を示すベクトルをO
ST0と、その時刻と同一時刻における、VO#1のV
OP(画像F2)の位置を表すベクトルをOST1と、
それぞれ表してある。
【0062】次に、図3は、スケーラビリティを実現す
る、図1のVOP符号化部3nの構成例を示している。
即ち、MPEGでは、異なる画像サイズやフレームレー
トに対応するスケーラビリティを実現するスケーラブル
符号化方式が導入されており、図3に示したVOP符号
化部3nでは、そのようなスケーラビリティを実現する
ことができるようになされている。
【0063】VOP構成部2nからのVOP(画像デー
タ)、並びにそのサイズデータ(VOPsize)、およびオ
フセットデータ(VOP offset)は、いずれも画像階層化
部21に供給される。
【0064】画像階層化部21は、VOPから、1以上
の階層の画像データを生成する(VOPの1以上の階層
化を行う)。即ち、例えば、空間スケーラビリティの符
号化を行う場合においては、画像階層化部21は、そこ
に入力される画像データを、そのまま上位レイヤ(上位
階層)の画像データとして出力するとともに、それらの
画像データを構成する画素数を間引くことなどにより縮
小し(解像度を低下させ)、これを下位レイヤ(下位階
層)の画像データとして出力する。
【0065】なお、入力されたVOPを下位レイヤのデ
ータとするとともに、そのVOPの解像度を、何らかの
手法で高くし(画素数を多くし)、これを、上位レイヤ
のデータとすることなども可能である。
【0066】また、階層数は、1とすることが可能であ
るが、この場合、スケーラビリティは実現されない。な
お、この場合、VOP符号化部3nは、例えば、下位レ
イヤ符号化部25だけで構成されることになる。
【0067】さらに、階層数は、3以上とすることも可
能であるが、ここでは、簡単のために、2階層の場合に
ついて説明を行う。
【0068】画像階層化部21は、例えば、時間スケー
ラビリティ(テンポラルスケーラビリティ)の符号化を
行う場合、時刻に応じて、画像データを、下位レイヤま
たは上位レイヤのデータとして、例えば、交互に出力す
る。即ち、例えば、画像階層化部21は、そこに、ある
VOを構成するVOPが、VOP0,VOP1,VOP
2,VOP3,・・・の順で入力されたとした場合、V
OP0,VOP2,VOP4,VOP6,・・・を、下
位レイヤのデータとして、また、VOP1,VOP3,
VOP5,VOP7,・・・を、上位レイヤデータとし
て出力する。なお、時間スケーラビリティの場合は、こ
のようにVOPが間引かれたものが、下位レイヤおよび
上位レイヤのデータとされるだけで、画像データの拡大
または縮小(解像度の変換)は行われない(但し、行う
ようにすることも可能である)。
【0069】また、画像階層化部21は、例えば、SN
R(Signal to Noise Ratio)スケーラビリティの符号
化を行う場合、入力された画像データを、そのまま上位
レイヤまたは下位レイヤのデータそれぞれとして出力す
る。即ち、この場合、下位レイヤ並びに上位レイヤの画
像データは、同一のデータとなる。
【0070】ここで、VOPごとに符号化を行う場合の
空間スケーラビリティについては、例えば、次のような
3種類が考えられる。
【0071】即ち、例えば、いま、VOPとして、図2
に示したような画像F1およびF2でなる合成画像が入
力されたとすると、第1の空間スケーラビリティは、図
4に示すように、入力されたVOP全体(図4(A))
を上位レイヤ(EnhancementLayer)とするとともに、そ
のVOP全体を縮小したもの(図4(B))を下位レイ
ヤ(Base Layer)とするものである。
【0072】また、第2の空間スケーラビリティは、図
5に示すように、入力されたVOPを構成する一部の物
体(図5(A)(ここでは、画像F2に相当する部
分)))を抜き出して(なお、このような抜き出しは、
例えば、VOP構成部2nにおける場合と同様にして行
われ、従って、これにより抜き出された物体も、1つの
VOPと考えることができる)、上位レイヤとするとと
もに、そのVOP全体を縮小したもの(図5(B))を
下位レイヤとするものである。
【0073】さらに、第3の空間スケーラビリティは、
図6および図7に示すように、入力されたVOPを構成
する物体(VOP)を抜き出して、その物体ごとに、上
位レイヤおよび下位レイヤを生成するものである。な
お、図6は、図2のVOPを構成する背景(画像F1)
から上位レイヤおよび下位レイヤを生成した場合を示し
ており、また、図7は、図2のVOPを構成する前景
(画像F2)から上位レイヤおよび下位レイヤを生成し
た場合を示している。
【0074】以上のようなスケーラビリティのうちのい
ずれを用いるかは予め決められており、画像階層化部2
1は、その予め決められたスケーラビリティによる符号
化を行うことができるように、VOPの階層化を行う。
【0075】さらに、画像階層化部21は、そこに入力
されるVOPのサイズデータおよびオフセットデータ
(それぞれを、以下、適宜、初期サイズデータ、初期オ
フセットデータという)から、生成した下位レイヤおよ
び上位レイヤのVOPの所定の絶対座標系における位置
を表すオフセットデータと、その大きさを示すサイズデ
ータとを計算(決定)する。
【0076】ここで、下位レイヤ並びに上位レイヤのV
OPのオフセットデータ(位置情報)およびサイズデー
タの決定方法について、例えば、上述の第2のスケーラ
ビリティ(図5)を行う場合を例に説明する。
【0077】この場合、下位レイヤのオフセットデータ
FPOS_Bは、例えば、図8(A)に示すように、下
位レイヤの画像データを、その解像度および上位レイヤ
の解像度の違いに基づいて拡大(アップサンプリング)
したときに、即ち、下位レイヤの画像を、上位レイヤの
画像の大きさと一致するような拡大率(上位レイヤの画
像を縮小して下位レイヤの画像を生成したときの、その
縮小率の逆数)(以下、適宜、倍率FRという)で拡大
したときに、その拡大画像の絶対座標系におけるオフセ
ットデータが、初期オフセットデータと一致するように
決定される。また、下位レイヤのサイズデータFSZ_
Bも同様に、下位レイヤの画像を倍率FRで拡大したと
きに得られる拡大画像のサイズデータが初期サイズデー
タと一致するように決定される。即ち、オフセットデー
タFPOS_BまたはサイズデータFSZ_Bは、それ
ぞれのFR倍か、初期オフセットデータまたは初期サイ
ズデータと一致するように決定される。
【0078】一方、上位レイヤのオフセットデータFP
OS_Eは、例えば、図8(B)に示すように、入力さ
れたVOPから抜き出した物体を囲む最小長方形(VO
P)の、例えば、左上の頂点の座標が、初期オフセット
データに基づいて求められ、この値に決定される。ま
た、上位レイヤのサイズデータFPOS_Eは、入力さ
れたVOPから抜き出した物体を囲む最小長方形の、例
えば横および縦の長さに決定される。
【0079】従って、この場合、下位レイヤのオフセッ
トデータFPOS_BおよびサイズデータFPOS_B
を、倍率FRにしたがって変換し(変換後のオフセット
データFPOS_BまたはサイズデータFPOS_B
を、それぞれ、変換オフセットデータFPOS_Bまた
は変換サイズデータFPOS_Bという)、絶対座標系
において、変換オフセットデータFPOS_Bに対応す
る位置に、変換サイズデータFSZ_Bに対応する大き
さの画枠を考え、そこに、下位レイヤの画像データをF
R倍だけした拡大画像を配置するとともに(図8
(A))、その絶対座標系において、上位レイヤのオフ
セットデータFPOS_EおよびサイズデータFPOS
_Eにしたがって、上位レイヤの画像を同様に配置する
と(図8(B))、拡大画像を構成する各画素と、上位
レイヤの画像を構成する各画素とは、対応するものどう
しが同一の位置に配置されることになる。即ち、この場
合、例えば、図8において、上位レイヤの画像である人
の部分と、拡大画像の中の人の部分とは、同一の位置に
配置されることになる。
【0080】第1および第3のスケーラビリティにおけ
る場合も、同様にして、下位レイヤの拡大画像および上
位レイヤの画像を構成する、対応する画素どうしが、絶
対座標系において同一の位置に配置されるように、オフ
セットデータFPOS_BおよびFPOS_E、並びに
サイズデータFSZ_BおよびFSZ_Eが決定され
る。
【0081】図3に戻り、画像階層化部21において生
成された上位レイヤの画像データ、オフセットデータF
POS_E、およびサイズデータFSZ_Eは、遅延回
路22で、後述する下位レイヤ符号化部25における処
理時間だけ遅延され、上位レイヤ符号化部23に供給さ
れる。また、下位レイヤの画像データ、オフセットデー
タFPOS_B、およびサイズデータFSZ_Bは、下
位レイヤ符号化部25に供給される。また、倍率FR
は、遅延回路22を介して、上位レイヤ符号化部23お
よび解像度変換部24に供給される。
【0082】下位レイヤ符号化部25では、下位レイヤ
の画像データが符号化され、その結果得られる符号化デ
ータ(ビットストリーム)に、オフセットデータFPO
S_BおよびサイズデータFSZ_Bが含められ、多重
化部26に供給される。
【0083】また、下位レイヤ符号化部25は、符号化
データを局所復号し、その結果局所復号結果である下位
レイヤの画像データを、解像度変換部24に出力する。
解像度変換部24は、下位レイヤ符号化部25からの下
位レイヤの画像データを、倍率FRにしたがって拡大
(または縮小)することにより、元の大きさに戻し、こ
れにより得られる拡大画像を、上位レイヤ符号化部23
に出力する。
【0084】一方、上位レイヤ符号化部23では、上位
レイヤの画像データが符号化され、その結果得られる符
号化データ(ビットストリーム)に、オフセットデータ
FPOS_EおよびサイズデータFSZ_Eが含めら
れ、多重化部26に供給される。なお、上位レイヤ符号
化部23においては、上位レイヤ画像データの符号化
は、解像度変換部24から供給される拡大画像をも参照
画像として用いて行われる。
【0085】多重化部26では、上位レイヤ符号化部2
3および下位レイヤ符号化部25の出力が多重化されて
出力される。
【0086】なお、下位レイヤ符号化部25から上位レ
イヤ符号化部23に対しては、下位レイヤのサイズデー
タFSZ_B、オフセットデータFPOS_B、動きベ
クトルMV、フラグCODなどが供給されており、上位
レイヤ符号化部23では、これらのデータを必要に応じ
て参照しながら、処理を行うようになされているが、こ
の詳細については、後述する。
【0087】次に、図9は、図3の下位レイヤ符号化部
25の詳細構成例を示している。なお、図中、図38に
おける場合と対応する部分については、同一の符号を付
してある。即ち、下位レイヤ符号化部25は、基本的に
は、図38のエンコーダと同様に構成されている。
【0088】画像階層化部21(図3)からの画像デー
タ、即ち、下位レイヤのVOPは、図38における場合
と同様に、フレームメモリ31に供給されて記憶され、
動きベクトル検出器32において、マクロブロック単位
で動きベクトルの検出が行われる。
【0089】但し、下位レイヤ符号化部25の動きベク
トル検出器32には、下位レイヤのVOPのサイズデー
タFSZ_BおよびオフセットデータFPOS_Bが供
給されるようになされており、そこでは、このサイズデ
ータFSZ_BおよびオフセットデータFPOS_Bに
基づいて、マクロブロックの動きベクトルが検出され
る。
【0090】即ち、上述したように、VOPは、時刻
(フレーム)によって、大きさや位置が変化するため、
その動きベクトルの検出にあたっては、その検出のため
の基準となる座標系を設定し、その座標系における動き
を検出する必要がある。そこで、ここでは、動きベクト
ル検出器32は、上述の絶対座標系を基準となる座標系
とし、その絶対座標系に、サイズデータFSZ_Bおよ
びオフセットデータFPOS_Bにしたがって、符号化
対象のVOPおよび参照画像とするVOPを配置して、
動きベクトルを検出するようになされている。
【0091】なお、検出された動きベクトル(MV)
は、予測モードとともに、VLC器36および動き補償
器42に供給される他、上位レイヤ符号化部23(図
3)にも供給される。
【0092】また、動き補償を行う場合においても、や
はり、上述したように、基準となる座標系における動き
を検出する必要があるため、動き補償器42には、サイ
ズデータFSZ_BおよびオフセットデータFPOS_
Bが供給されるようになされている。
【0093】動きベクトルの検出されたVOPは、図3
8における場合と同様に量子化係数とされてVLC器3
6に供給される。VLC器36には、やはり図38にお
ける場合と同様に、量子化係数、量子化ステップ、動き
ベクトル、および予測モードが供給される他、画像階層
化部21からのサイズデータFSZ_Bおよびオフセッ
トデータFPOS_Bも供給されており、そこでは、こ
れらのデータすべてが可変長符号化される。
【0094】動きベクトルの検出されたVOPは、上述
したように符号化される他、やはり図38における場合
と同様に局所復号され、フレームメモリ41に記憶され
る。この復号画像は、前述したように参照画像として用
いられる他、解像度変換部24(図3)に出力される。
【0095】なお、MPEG4においては、MPEG1
および2と異なり、Bピクチャ(B−VOP)も参照画
像として用いられるため、Bピクチャも、局所復号さ
れ、フレームメモリ41に記憶されるようになされてい
る(但し、現時点においては、Bピクチャが参照画像と
して用いられるのは上位レイヤについてだけである)。
【0096】一方、VLC器36は、図38で説明した
ように、I,P,Bピクチャ(I−VOP,P−VO
P,B−VOP)のマクロブロックについて、スキップ
マクロブロックとするかどうかを決定し、その決定結果
を示すフラグCOD,MODBを設定する。このフラグ
COD,MODBは、やはり可変長符号化されて伝送さ
れる。さらに、フラグCODは、上位レイヤ符号化部2
3にも供給される。
【0097】次に、図10は、図3の上位レイヤ符号化
部23の構成例を示している。なお、図中、図9または
図38における場合と対応する部分については、同一の
符号を付してある。即ち、上位レイヤ符号化部23は、
フレームメモリ52が新たに設けられていることを除け
ば、基本的には、図9の下位レイヤ符号化部25または
図38のエンコーダと同様に構成されている。
【0098】画像階層化部21(図3)からの画像デー
タ、即ち、上位レイヤのVOPは、図38における場合
と同様に、フレームメモリ31に供給されて記憶され、
動きベクトル検出器32において、マクロブロック単位
で動きベクトルの検出が行われる。なお、この場合も、
動きベクトル検出器32には、図9における場合と同様
に、上位レイヤのVOPの他、そのサイズデータFSZ
_EおよびオフセットデータFPOS_Eが供給される
ようになされており、動きベクトル検出器32では、上
述の場合と同様に、このサイズデータFSZ_Eおよび
オフセットデータFPOS_Eに基づいて、絶対座標系
における上位レイヤのVOPの配置位置が認識され、マ
クロブロックの動きベクトルが検出される。
【0099】ここで、上位レイヤ符号化部23および下
位レイヤ符号化部25における動きベクトル検出器32
では、図38で説明したように、予め設定されている所
定のシーケンスにしたがって、VOPが処理されていく
が、そのシーケンスは、ここでは、例えば、次のように
設定されている。
【0100】即ち、空間スケーラビリティの場合におい
ては、図11(A)または図11(B)に示すように、
上位レイヤまたは下位レイヤのVOPは、例えば、P,
B,B,B,・・・またはI,P,P,P,・・・の順
でそれぞれ処理されていく。
【0101】そして、この場合、上位レイヤの最初のV
OPであるPピクチャ(P−VOP)は、例えば、同時
刻における下位レイヤのVOP(ここでは、Iピクチャ
(I−VOP))を参照画像として用いて符号化され
る。また、上位レイヤの2番目以降のVOPであるBピ
クチャ(B−VOP)は、例えば、その直前の上位レイ
ヤのVOPおよびそれと同時刻の下位レイヤのVOPを
参照画像として用いて符号化される。即ち、ここでは、
上位レイヤのBピクチャは、下位レイヤのPピクチャと
同様に他のVOPを符号化する場合の参照画像として用
いられる。
【0102】なお、下位レイヤについては、例えば、M
PEG1や2、あるいはH.263における場合と同様
に符号化が行われていく。
【0103】SNRスケーラビリティは、空間スケーラ
ビリティにおける倍率FRが1のときと考えられるか
ら、上述の空間スケーラビリティの場合と同様に処理さ
れる。
【0104】テンポラルスケーラビリティの場合、即
ち、例えば、上述したように、VOが、VOP0,VO
P1,VOP2,VOP3,・・・で構成され、VOP
1,VOP3,VOP5,VOP7,・・・が上位レイ
ヤとされ(図12(A))、VOP0,VOP2,VO
P4,VOP6,・・・が下位レイヤとされた場合にお
いては(図12(B))、図12に示すように、上位レ
イヤまたは下位レイヤのVOPは、例えば、B,B,
B,・・・またはI,P,P,P,・・・の順でそれぞ
れ処理されていく。
【0105】そして、この場合、上位レイヤの最初のV
OP1(Bピクチャ)は、例えば、下位レイヤのVOP
0(Iピクチャ)およびVOP2(Pピクチャ)を参照
画像として用いて符号化される。また、上位レイヤの2
番目のVOP3(Bピクチャ)は、例えば、その直前に
Bピクチャとして符号化された上位レイヤのVOP1、
およびVOP3の次の時刻(フレーム)における画像で
ある下位レイヤのVOP4(Pピクチャ)を参照画像と
して用いて符号化される。上位レイヤの3番目のVOP
5(Bピクチャ)も、VOP3と同様に、例えば、その
直前にBピクチャとして符号化された上位レイヤのVO
P3、およびVOP5の次の時刻(フレーム)における
画像である下位レイヤのVOP6(Pピクチャ)を参照
画像として用いて符号化される。
【0106】以上のように、あるレイヤのVOP(ここ
では、上位レイヤ)については、PおよびBピクチャを
符号化するための参照画像として、他のレイヤ(スケー
ラブルレイヤ)(ここでは、下位レイヤ)のVOPを用
いることができる。このように、あるレイヤのVOPを
符号化するのに、他のレイヤのVOPを参照画像として
用いる場合、即ち、ここでは、上位レイヤのVOPを予
測符号化するのに、下位レイヤのVOPを参照画像とし
て用いる場合、上位レイヤ符号化部23(図10)の動
きベクトル検出器32は、その旨を示すフラグref_
layer_id(階層数が3以上存在する場合、フラ
グref_layer_idは、参照画像として用いる
VOPが属するレイヤを表す)を設定して出力するよう
になされている。
【0107】さらに、上位レイヤ符号化部23の動きベ
クトル検出器32は、VOPについてのフラグref_
layer_idにしたがい、前方予測符号化または後
方予測符号化を、それぞれ、どのレイヤのVOPを参照
画像として行うかを示すフラグref_select_
code(参照画像情報)を設定して出力するようにも
なされている。
【0108】即ち、例えば、上位レイヤ(Enhancement
Layer)のPピクチャが、その直前に復号(局所復号)
される、それと同一のレイヤに属するVOPを参照画像
として用いて符号化される場合、フラグref_sel
ect_codeは「00」とされる。また、Pピクチ
ャが、その直前に表示される、それと異なるレイヤ(こ
こでは、下位レイヤ)(Reference Layer)に属するV
OPを参照画像として用いて符号化される場合、フラグ
ref_select_codeは「01」とされる。
さらに、Pピクチャが、その直後に表示される、それと
異なるレイヤに属するVOPを参照画像として用いて符
号化される場合、フラグref_select_cod
eは「10」とされる。また、Pピクチャが、それと同
時刻における、異なるレイヤのVOPを参照画像として
用いて符号化される場合、フラグref_select
_codeは「11」とされる。
【0109】一方、例えば、上位レイヤのBピクチャ
が、それと同時刻における、異なるレイヤのVOPを前
方予測のための参照画像として用い、かつ、その直前に
復号される、それと同一のレイヤに属するVOPを後方
予測のための参照画像として用いて符号化される場合、
フラグref_select_codeは「00」とさ
れる。また、上位レイヤのBピクチャが、それと同一の
レイヤに属するVOPを前方予測のための参照画像とし
て用い、かつ、その直前に表示される、それと異なるレ
イヤに属するVOPを後方予測のための参照画像として
用いて符号化される場合、フラグref_select
_codeは「01」とされる。さらに、上位レイヤの
Bピクチャが、その直前に復号される、それと同一のレ
イヤに属するVOPを前方予測のための参照画像として
用い、かつその直後に表示される、それと異なるレイヤ
に属するVOPを後方予測のための参照画像として用い
て符号化される場合、フラグref_select_c
odeは「10」とされる。また、上位レイヤのBピク
チャが、その直前に表示される、それと異なるレイヤに
属するVOPを前方予測のための参照画像として用い、
かつその直後に表示される、それと異なるレイヤに属す
るVOPを後方予測のための参照画像として用いて符号
化される場合、フラグref_select_code
は「11」とされる。
【0110】ここで、図11および図12で説明した予
測符号化の方法は、1つの例であり、前方予測符号化、
後方予測符号化、または両方向予測符号化における参照
画像として、どのレイヤの、どのVOPを用いるかは、
例えば、上述した範囲で、自由に設定することが可能で
ある。
【0111】なお、上述の場合においては、便宜的に、
「空間スケーラビリティ」、「時間スケーラビリテ
ィ」、「SNRスケーラビリティ」という語を用いた
が、フラグref_select_codeによって、
予測符号化に用いる参照画像を設定する場合、空間スケ
ーラビリティや、テンポラルスケーラビリティ、SNR
スケーラビリティを明確に区別することは困難となる。
即ち、逆にいえば、フラグref_select_co
deを用いることによって、上述のようなスケーラビリ
ティの区別をせずに済むようになる。
【0112】ここで、上述のスケーラビリティとフラグ
ref_select_codeとを対応付けるとすれ
ば、例えば、次のようになる。即ち、Pピクチャについ
ては、フラグref_select_codeが「1
1」の場合が、フラグref_layer_idが示す
レイヤの同時刻におけるVOPを参照画像(前方予測の
ための参照画像)として用いる場合であるから、これ
は、空間スケーラビリティまたはSNRスケーラビリテ
ィに対応する。そして、フラグref_select_
codeが「11」の場合以外は、テンポラルスケーラ
ビリティに対応する。
【0113】また、Bピクチャについては、フラグre
f_select_codeが「00」の場合が、やは
り、フラグref_layer_idが示すレイヤの同
時刻におけるVOPを前方予測のための参照画像として
用いる場合であるから、これが、空間スケーラビリティ
またはSNRスケーラビリティに対応する。そして、フ
ラグref_select_codeが「00」の場合
以外は、テンポラルスケーラビリティに対応する。
【0114】なお、上位レイヤのVOPの予測符号化の
ために、それと異なるレイヤ(ここでは、下位レイヤ)
の、同時刻におけるVOPを参照画像として用いる場
合、両者の間に動きはないので、動きベクトルは、常に
0((0,0))とされる。
【0115】図10に戻り、上位レイヤ符号化部23の
動きベクトル検出器32では、以上のようなフラグre
f_layer_idおよびref_select_c
odeが設定され、動き補償器42およびVLC器36
に供給される。
【0116】また、動きベクトル検出器32では、フラ
グref_layer_idおよびref_selec
t_codeにしたがって、フレームメモリ31を参照
するだけでなく、必要に応じて、フレームメモリ52を
も参照して、動きベクトルが検出される。
【0117】ここで、フレームメモリ52には、解像度
変換部24(図3)から、局所復号された下位レイヤの
拡大画像が供給されるようになされている。即ち、解像
度変換部24では、局所復号された下位レイヤのVOP
が、例えば、いわゆる補間フィルタなどによって拡大さ
れ、これにより、そのVOPを、FR倍だけした拡大画
像、つまり、その下位レイヤのVOPに対応する上位レ
イヤのVOPと同一の大きさとした拡大画像が生成さ
れ、上位レイヤ符号化部23に供給される。フレームメ
モリ52では、このようにして解像度変換部24から供
給される拡大画像が記憶される。
【0118】従って、倍率FRが1の場合は、解像度変
換部24は、下位レイヤ符号化部25からの局所復号さ
れたVOPに対して、特に処理を施すことなく、そのま
ま、上位レイヤ符号化部23に供給する。
【0119】動きベクトル検出器32には、下位レイヤ
符号化部25からサイズデータFSZ_Bおよびオフセ
ットデータFPOS_Bが供給されるとともに、遅延回
路22(図3)からの倍率FRが供給されるようになさ
れており、動きベクトル検出器32は、フレームメモリ
52に記憶された拡大画像を参照画像として用いる場
合、即ち、上位レイヤのVOPの予測符号化に、そのV
OPと同時刻における下位レイヤのVOPを参照画像と
して用いる場合(この場合、フラグref_selec
t_codeは、Pピクチャについては「11」に、B
ピクチャについては「00」にされる)、その拡大画像
に対応するサイズデータFSZ_Bおよびオフセットデ
ータFPOS_Bに、倍率FRを乗算する。そして、そ
の乗算結果に基づいて、絶対座標系における拡大画像の
位置を認識し、動きベクトルの検出を行う。
【0120】なお、動きベクトル検出器32には、下位
レイヤの動きベクトルと予測モードが供給されるように
なされており、これは、次のような場合に使用される。
即ち、動きベクトル検出部32は、例えば、上位レイヤ
のBピクチャについてのフラグref_select_
codeが「00」である場合において、倍率FRが1
であるとき、即ち、SNRスケーラビリティのとき(但
し、この場合、上位レイヤの予測符号化に、上位レイヤ
のVOPが用いられるので、この点で、ここでいうSN
Rスケーラビリティは、MPEG2に規定されているも
のと異なる)、上位レイヤと下位レイヤは同一の画像で
あるから、上位レイヤのBピクチャの予測符号化には、
下位レイヤの同時刻における画像の動きベクトルと予測
モードをそのまま用いることができる。そこで、この場
合、動きベクトル検出部32は、上位レイヤのBピクチ
ャについては、特に処理を行わず、下位レイヤの動きベ
クトルと予測モードをそのまま採用する。
【0121】なお、この場合、上位レイヤ符号化部23
では、動きベクトル検出器32からVLC器36には、
動きベクトルおよび予測モードは出力されない(従っ
て、伝送されない)。これは、受信側において、上位レ
イヤの動きベクトルおよび予測モードを、下位レイヤの
復号結果から認識することができるからである。
【0122】以上のように、動きベクトル検出器32
は、上位レイヤのVOPの他、拡大画像をも参照画像と
して用いて、動きベクトルを検出し、さらに、図38で
説明したように、予測誤差(あるいは分散)を最小にす
る予測モードを設定する。また、動きベクトル検出器3
2は、例えば、フラグref_select_code
やref_layer_idその他の必要な情報を設定
して出力する。
【0123】なお、図10では、下位レイヤ符号化部2
5から、下位レイヤにおけるIまたはPピクチャを構成
するマクロブロックがスキップマクロブロックであるか
どうかを示すフラグCODが、動きベクトル検出器3
2、VLC器36、および動き補償器42に供給される
ようになされている。
【0124】動きベクトルの検出されたマクロブロック
は、上述した場合と同様に符号化され、これにより、V
LC器36からは、その符号化結果としての可変長符号
が出力される。
【0125】なお、上位レイヤ符号化部23のVLC器
36は、下位レイヤ符号化部25における場合と同様
に、フラグCOD,MODBを設定して出力するように
なされている。ここで、フラグCODは、上述したよう
に、IまたはPピクチャのマクロブロックがスキップマ
クロブロックであるかどうかを示すものであるが、フラ
グMODBは、Bピクチャのマクロブロックがスキップ
マクロブロックであるかどうかを示すものである。
【0126】また、VLC器36には、量子化係数、量
子化ステップ、動きベクトル、および予測モードの他、
倍率FR、フラグref_serect_code,r
ef_layer_id、サイズデータFSZ_E、オ
フセットデータFPOS_E、も供給されるようになさ
れており、VLC器36では、これらのデータがすべて
可変長符号化されて出力される。
【0127】一方、動きベクトルの検出されたマクロブ
ロックは符号化された後、やはり上述したように局所復
号され、フレームメモリ41に記憶される。そして、動
き補償器42において、動きベクトル検出器32におけ
る場合と同様にして、フレームメモリ41に記憶され
た、局所復号された上位レイヤのVOPだけでなく、フ
レームメモリ52に記憶された、局所復号されて拡大さ
れた下位レイヤのVOPをも参照画像として用いて動き
補償が行われ、予測画像が生成される。
【0128】即ち、動き補償器42には、動きベクトル
および予測モードの他、フラグref_serect_
code,ref_layer_id、倍率FR、サイ
ズデータFSZ_B,FSZ_E、オフセットデータF
POS_B,FPOS_Eが供給されるようになされて
おり、動き補償器42は、フラグref_serect
_code,ref_layer_idに基づいて、動
き補償すべき参照画像を認識し、さらに、参照画像とし
て、局所復号された上位レイヤのVOP、または拡大画
像を用いる場合には、その絶対座標系における位置と大
きさを、サイズデータFSZ_Eおよびオフセットデー
タFPOS_E、またはサイズデータFSZ_Bおよび
オフセットデータFPOS_Bに基づいて認識し、必要
に応じて、倍率FRを用いて予測画像を生成する。
【0129】次に、図13は、図1のエンコーダから出
力されるビットストリームを復号するデコーダの一実施
の形態の構成例を示している。
【0130】このデコーダには、図1のエンコーダから
伝送路5または記録媒体6を介して提供されるビットス
トリームが供給される。即ち、図1のエンコーダから出
力され、伝送路5を介して伝送されてくるビットストリ
ームは、図示せぬ受信装置で受信され、あるいは、記録
媒体6に記録されたビットストリームは、図示せぬ再生
装置で再生され、逆多重化部71に供給される。
【0131】逆多重化部71では、そこに入力されたビ
ットストリーム(後述するVS(Video Stream))が受
信される。さらに、逆多重化部71では、入力されたビ
ットストリームが、VOごとのビットストリームVO#
1,VO#2,・・・に分離され、それぞれ、対応する
VOP復号部72nに供給される。VOP復号部72nで
は、逆多重化部71からのビットストリームから、VO
を構成するVOP(画像データ)、サイズデータ(VOP
size)、およびオフセットデータ(VOP offset)が復号
され、画像再構成部73に供給される。
【0132】画像再構成部73では、VOP復号部72
1乃至72Nそれぞれからの出力に基づいて、元の画像が
再構成される。この再構成された画像は、例えば、モニ
タ74に供給されて表示される。
【0133】次に、図14は、スケーラビリティを実現
する、図13のVOP復号部72nの構成例を示してい
る。
【0134】逆多重化部71(図13)から供給される
ビットストリームは、逆多重化部91に入力され、そこ
で、上位レイヤのVOPのビットストリームと、下位レ
イヤのVOPのビットストリームとに分離される。上位
レイヤのVOPのビットストリームは、遅延回路92に
おいて、下位レイヤ復号部95における処理の時間だけ
遅延された後、上位レイヤ復号部93に供給され、ま
た、下位レイヤのVOPのビットストリームは、下位レ
イヤ復号部95に供給される。
【0135】下位レイヤ復号部95では、下位レイヤの
ビットストリームが復号され、その結果得られる下位レ
イヤの復号画像が解像度変換部94に供給される。ま
た、下位レイヤ復号部95は、下位レイヤのビットスト
リームを復号することにより得られるサイズデータFS
Z_B、オフセットデータFPOS_B、動きベクトル
(MV)、予測モード、フラグCODなどの、上位レイ
ヤのVOPを復号するのに必要な情報を、上位レイヤ復
号部93に供給する。
【0136】上位レイヤ復号部93では、遅延回路92
を介して供給される上位レイヤのビットストリームが、
下位レイヤ復号部95および解像度変換部94の出力を
必要に応じて参照することにより復号され、その結果得
られる上位レイヤの復号画像、サイズデータFSZ_
E、およびオフセットデータFPOS_Eが出力され
る。さらに、上位レイヤ復号部93は、上位レイヤのビ
ットストリームを復号することにより得られる倍率FR
を、解像度変換部94に出力する。解像度変換部94で
は、上位レイヤ復号部93からの倍率FRを用いて、図
3における解像度変換部24における場合と同様にし
て、下位レイヤの復号画像が変換される。この変換によ
り得られる拡大画像は、上位レイヤ復号部93に供給さ
れ、上述したように、上位レイヤのビットストリームの
復号に用いられる。
【0137】次に、図15は、図14の下位レイヤ復号
部95の構成例を示している。なお、図中、図39のデ
コーダにおける場合と対応する部分については、同一の
符号を付してある。即ち、下位レイヤ復号部95は、基
本的に、図39のデコーダと同様に構成されている。
【0138】逆多重化部91からの下位レイヤのビット
ストリームは、バッファ101に供給され、そこで受信
されて一時記憶される。IVLC器102は、その後段
のブロックの処理状態に対応して、バッファ101から
ビットストリームを適宜読み出し、そのビットストリー
ムを可変長復号することで、量子化係数、動きベクト
ル、予測モード、量子化ステップ、サイズデータFSZ
_B、オフセットデータFPOS_B、およびフラグC
ODなどを分離する。量子化係数および量子化ステップ
は、逆量子化器103に供給され、動きベクトルおよび
予測モードは、動き補償器107と上位レイヤ復号部9
3(図14)に供給される。また、サイズデータFSZ
_BおよびオフセットデータFPOS_Bは、動き補償
器107、画像再構成部73(図13)、および上位レ
イヤ復号部93に供給され、フラグCODは、上位レイ
ヤ復号部93に供給される。
【0139】逆量子化器103、IDCT器104、演
算器105、フレームメモリ106、または動き補償器
107では、図9の下位レイヤ符号化部25の逆量子化
器38、IDCT器39、演算器40、フレームメモリ
41、または動き補償器42における場合とそれぞれ同
様の処理が行われることで、下位レイヤのVOPが復号
され、画像再構成部73、上位レイヤ復号部93、およ
び解像度変換部94(図14)に供給される。
【0140】次に、図16は、図14の上位レイヤ復号
部93の構成例を示している。なお、図中、図39にお
ける場合と対応する部分については、同一の符号を付し
てある。即ち、上位レイヤ復号部93は、フレームメモ
リ112が新たに設けられていることを除けば、基本的
に、図39のエンコーダと同様に構成されている。
【0141】逆多重化部91からの上位レイヤのビット
ストリームは、バッファ101を介してIVLC器10
2に供給される。IVLC器102は、上位レイヤのビ
ットストリームを可変長復号することで、量子化係数、
動きベクトル、予測モード、量子化ステップ、サイズデ
ータFSZ_E、オフセットデータFPOS_E、倍率
FR、フラグref_layer_id,ref_se
lect_code,COD,MODBなどを分離す
る。量子化係数および量子化ステップは、図15におけ
る場合と同様に、逆量子化器103に供給され、動きベ
クトルおよび予測モードは、動き補償器107に供給さ
れる。また、サイズデータFSZ_Eおよびオフセット
データFPOS_Eは、動き補償器107および画像再
構成部73(図13)に供給され、フラグCOD,MO
DB,ref_layer_id、およびref_se
lect_codeは、動き補償器107に供給され
る。さらに、倍率FRは、動き補償器107および解像
度変換部94(図14)に供給される。
【0142】なお、動き補償器107には、上述したデ
ータの他、下位レイヤ復号部95(図14)から、下位
レイヤの動きベクトル、フラグCOD、サイズデータF
SZ_B、およびオフセットデータFPOS_Bが供給
されるようになされている。また、フレームメモリ11
2には、解像度変換部94から拡大画像が供給される。
【0143】逆量子化器103、IDCT器104、演
算器105、フレームメモリ106、動き補償器10
7、またはフレームメモリ112では、図10の上位レ
イヤ符号化部23の逆量子化器38、IDCT器39、
演算器40、フレームメモリ41、動き補償器42、ま
たはフレームメモリ52における場合とそれぞれ同様の
処理が行われることで、上位レイヤのVOPが復号さ
れ、画像再構成部73に供給される。
【0144】ここで、以上のように構成される上位レイ
ヤ復号部93および下位レイヤ復号部95を有するVO
P復号部72nにおいては、上位レイヤについての復号
画像、サイズデータFSZ_E、およびオフセットデー
タFPOS_E(以下、適宜、これらをすべて含めて、
上位レイヤデータという)と、下位レイヤについての上
位レイヤについての復号画像、サイズデータFSZ_
B、およびオフセットデータFPOS_B(以下、適
宜、これらをすべて含めて、下位レイヤデータという)
が得られるが、画像再構成部73では、この上位レイヤ
データまたは下位レイヤデータから、例えば、次のよう
にして画像が再構成されるようになされている。
【0145】即ち、例えば、第1の空間スケーラビリテ
ィ(図4)が行われた場合(入力されたVOP全体が上
位レイヤとされるとともに、そのVOP全体を縮小した
ものが下位レイヤされた場合)において、下位レイヤデ
ータおよび上位レイヤデータの両方のデータが復号され
たときには、画像再構成部73は、上位レイヤデータの
みに基づき、サイズデータFSZ_Eに対応する大きさ
の上位レイヤの復号画像(VOP)を、オフセットデー
タFPOS_Eによって示される位置に配置する。ま
た、例えば、上位レイヤのビットストリームにエラーが
生じたり、また、モニタ74が、低解像度の画像にしか
対応していないため、下位レイヤデータのみの復号が行
われたときには、画像再構成部73は、その下位レイヤ
データのみに基づき、サイズデータFSZ_Bに対応す
る大きさの上位レイヤの復号画像(VOP)を、オフセ
ットデータFPOS_Bによって示される位置に配置す
る。
【0146】また、例えば、第2の空間スケーラビリテ
ィ(図5)が行われた場合(入力されたVOPの一部が
上位レイヤとされるとともに、そのVOP全体を縮小し
たものが下位レイヤとされた場合)において、下位レイ
ヤデータおよび上位レイヤデータの両方のデータが復号
されたときには、画像再構成部73は、サイズデータF
SZ_Bに対応する大きさの下位レイヤの復号画像を、
倍率FRにしたがって拡大し、その拡大画像を生成す
る。さらに、画像再構成部73は、オフセットデータF
POS_BをFR倍し、その結果得られる値に対応する
位置に、拡大画像を配置する。そして、画像再構成部7
3は、サイズデータFSZ_Eに対応する大きさの上位
レイヤの復号画像を、オフセットデータFPOS_Eに
よって示される位置に配置する。
【0147】この場合、上位レイヤの復号画像の部分
が、それ以外の部分に比較して高い解像度で表示される
ことになる。
【0148】なお、上位レイヤの復号画像を配置する場
合においては、その復号画像と、拡大画像とは合成され
る。
【0149】また、図14(図13)には図示しなかっ
たが、上位レイヤ復号部93(VOP復号部72n)か
ら画像再構成部73に対しては、上述したデータの他、
倍率FRも供給されるようになされており、画像再構成
部73は、これを用いて、拡大画像を生成するようにな
されている。
【0150】一方、第2の空間スケーラビリティが行わ
れた場合において、下位レイヤデータのみが復号された
ときには、上述の第1の空間スケーラビリティが行われ
た場合と同様にして、画像が再構成される。
【0151】さらに、第3の空間スケーラビリティ(図
6、図7)が行われた場合(入力されたVOPを構成す
る物体ごとに、その物体(オブジェクト)全体を上位レ
イヤとするとともに、その物体全体を間引いたものを下
位レイヤとした場合)においては、上述の第2の空間ス
ケーラビリティが行われた場合と同様にして、画像が再
構成される。
【0152】上述したように、オフセットデータFPO
S_BおよびFPOS_Eは、下位レイヤの拡大画像お
よび上位レイヤの画像を構成する、対応する画素どうし
が、絶対座標系において同一の位置に配置されるように
なっているため、以上のように画像を再構成すること
で、正確な(位置ずれのない)画像を得ることができ
る。
【0153】次に、図1のエンコーダが出力する符号化
ビットストリームのシンタクスについて、例えば、MPEG
4規格のVideo Verification Model(Version6.0)(以
下、適宜、VM6.0と記述する)を例に説明する。
【0154】図17は、VM6.0における符号化ビットス
トリームの構成を示している。
【0155】符号化ビットストリームは、VS(Video
Session Class)を単位として構成され、各VSは、1
以上のVO(Video Object Class)から構成される。そ
して、VOは、1以上のVOL(Video Object Layer C
lass)から構成され(画像を階層化しないときは1のV
OLで構成され、画像を階層化する場合には、その階層
数だけのVOLで構成される)、VOLは、VOP(Vi
deo Object Plane Class)から構成される。
【0156】なお、VSは、画像シーケンスであり、例
えば、一本の番組や映画などに相当する。
【0157】図18または図19は、VSまたはVOの
シンタクスをそれぞれ示している。VOは、画像全体ま
たは画像の一部(物体)のシーケンスに対応するビット
ストリームであり、従って、VSは、そのようなシーケ
ンスの集合で構成される(よって、VSは、例えば、一
本の番組などに相当する)。
【0158】図20は、VOLのシンタクスを示してい
る。
【0159】VOLは、上述したようなスケーラビリテ
ィのためのクラスであり、video_object_layer_idで示
される番号によって識別される。即ち、例えば、下位レ
イヤのVOLについてのvideo_object_layer_idは0と
され、また、例えば、上位レイヤのVOLについてのvi
deo_object_layer_idは1とされる。なお、上述したよ
うに、スケーラブルのレイヤの数は2に限られることな
く、1や3以上を含む任意の数とすることができる。
【0160】また、各VOLについて、それが画像全体
であるのか、画像の一部であるのかは、video_object_l
ayer_shapeで識別される。このvideo_object_layer_sha
peは、VOLの形状を示すフラグで、例えば、以下のよ
うに設定される。
【0161】即ち、VOLの形状が長方形状であると
き、video_object_layer_shapeは、例えば「00」とさ
れる。また、VOLが、ハードキー(0または1のうち
のいずれか一方の値をとる2値(Binary)の信号)によ
って抜き出される領域の形状をしているとき、video_ob
ject_layer_shapeは、例えば「01」とされる。さら
に、VOLが、ソフトキー(0乃至1の範囲の連続した
値(Gray-Scale)をとることが可能な信号)によって抜
き出される領域の形状をしているとき(ソフトキーを用
いて合成されるものであるとき)、video_object_layer
_shapeは、例えば「10」とされる。
【0162】ここで、video_object_layer_shapeが「0
0」とされるのは、VOLの形状が長方形状であり、か
つ、そのVOLの絶対座標形における位置および大きさ
が、時間とともに変化しない、即ち、一定の場合であ
る。なお、この場合、その大きさ(横の長さと縦の長
さ)は、video_object_layer_widthとvideo_object_lay
er_heightによって示される。video_object_layer_widt
hおよびvideo_object_layer_heightは、いずれも10ビ
ットの固定長のフラグで、video_object_layer_shapeが
「00」の場合には、最初に、一度だけ伝送される(こ
れは、video_object_layer_shapeが「00」の場合、上
述したように、VOLの絶対座標系における大きさが一
定であるからである)。
【0163】また、VOLが、下位レイヤまたは上位レ
イヤのうちのいずれであるかは、1ビットのフラグであ
るscalabilityによって示される。VOLが下位レイヤ
の場合、scalabilityは、例えば1とされ、それ以外の
場合、scalabilityは、例えば0とされる。
【0164】さらに、VOLが、自身以外のVOLにお
ける画像を参照画像として用いる場合、その参照画像が
属するVOLは、上述したように、ref_layer_idで表さ
れる。なお、ref_layer_idは、上位レイヤについてのみ
伝送される。
【0165】また、図20において、hor_sampling_fac
tor_nとhor_sampling_factor_mは、下位レイヤのVOP
の水平方向の長さに対応する値と、上位レイヤのVOP
の水平方向の長さに対応する値をそれぞれ示す。従っ
て、下位レイヤに対する上位レイヤの水平方向の長さ
(水平方向の解像度の倍率)は、式hor_sampling_facto
r_n/hor_sampling_factor_mで与えられる。
【0166】さらに、図20において、ver_sampling_f
actor_nとver_sampling_factor_mは、下位レイヤのVO
Pの垂直方向の長さに対応する値と、上位レイヤのVO
Pの垂直方向の長さに対応する値をそれぞれ示す。従っ
て、下位レイヤに対する上位レイヤの垂直方向の長さ
(垂直方向の解像度の倍率)は、式ver_sampling_facto
r_n/ver_sampling_factor_mで与えられる。
【0167】次に、図21は、VOP(Video Object P
lane Class)のシンタクスを示している。
【0168】VOPの大きさ(横と縦の長さ)は、例え
ば、10ビット固定長のVOP_widthとVOP_heightで表さ
れる。また、VOPの絶対座標系における位置は、例え
ば、10ビット固定長のVOP_horizontal_spatial_mc_re
fとVOP_vertical_mc_refで表される。なお、VOP_width
またはVOP_heightは、VOPの水平方向または垂直方向
の長さをそれぞれ表し、これらは、上述のサイズデータ
FSZ_BやFSZ_Eに相当する。また、VOP_horizo
ntal_spatial_mc_refまたはVOP_vertical_mc_refは、V
OPの水平方向または垂直方向の座標(xまたはy座
標)をそれぞれ表し、これらは、上述のオフセットデー
タFPOS_BやFPOS_Eに相当する。
【0169】VOP_width,VOP_height,VOP_horizontal_
spatial_mc_ref、およびVOP_vertical_mc_refは、video
_object_layer_shapeが「00」以外の場合にのみ伝送
される。即ち、video_object_layer_shapeが「00」の
場合、上述したように、VOPの大きさおよび位置はい
ずれも一定であるから、VOP_width,VOP_height,VOP_h
orizontal_spatial_mc_ref、およびVOP_vertical_mc_re
fは伝送する必要がない。この場合、受信側では、VO
Pは、その左上の頂点が、例えば、絶対座標系の原点に
一致するように配置され、また、その大きさは、図20
で説明したvideo_object_layer_widthおよびvideo_obje
ct_layer_heightから認識される。
【0170】図21において、ref_select_codeは、図
17で説明したように、参照画像として用いる画像を表
すもので、VOPのシンタクスにおいて規定されてい
る。
【0171】ところで、VM6.0では、各VOP(Video Objec
t Plane:従来のFrameに相当する)の表示時刻は、modulo
_time_baseと、VOP_time_increment(図21)によっ
て、次のように定められる。
【0172】即ち、modulo_time_baseは、エンコーダの
ローカルな時間軸上における時刻を、1秒(1000ms(ミ
リ秒))の精度で表す。modulo_time_baseは、VOPヘッ
ダの中で伝送されるマーカ(marker)で表現され、必要
な数の「1」と、1の「0」とで構成される。modulo_tim
e_baseを構成する「1」の数が、最後に(現在から遡っ
て、最も最近に)(直前に)符号化/復号されたmodulo
_time_baseによって示された同期点(1秒精度の時刻)
からの累積時間を表す。即ち、modulo_time_baseが、例
えば、「0」の場合は、直前に符号化/復号されたmodu
lo_time_baseによって示された同期点からの累積時間が
0秒であることを表す。また、modulo_time_baseが、例
えば、「10」の場合は、直前に符号化/復号されたmo
dulo_time_baseによって示された同期点からの累積時間
が1秒であることを表す。さらに、modulo_time_base
が、例えば、「110」の場合は、直前に符号化/復号
されたmodulo_time_baseによって示された同期点からの
累積時間が2秒であることを表す。以上のように、modu
lo_time_baseの「1」の数が、直前に符号化/復号され
たmodulo_time_baseによって示された同期点からの秒数
になっている。
【0173】なお、VM6.0では、modulo_time_baseにつ
いて、「This value represents thelocal time base a
t the one second resolution unit (1000 millisecond
s).It is represented as a marker transmitted in th
e VOP header. The number of consecutive "1" follow
ed by a "0" indicates the number of seconds has el
apsed since the synchronization point marked by th
e last encoded/decoded modulo_time_base.」と記載さ
れている。
【0174】VOP_time_incrementは、エンコーダのロー
カルな時間軸上における時刻を、1msの精度で表す。VM
6.0では、VOP_time_incrementは、I-VOPおよびP-VOPに
ついては、直前に符号化/復号されたmodulo_time_base
によって示された同期点からの時間を表し、B-VOPにつ
いては、直前に符号化/復号されたI-VOPまたはP-VOPか
らの相対時間を表す。
【0175】なお、VM6.0では、VOP_time_incrementに
ついて、「This value represents the local time bas
e in the units of milliseconds. For I and P-VOP's
thisvalue is the absolute VOP_time_increment from
the synchronization pointmarked by the last modulo
_time_base. For the B-VOP's this value is the rela
tive VOP_time_increment from the last encoded/deco
ded I- or P-VOP.」と記載されている。
【0176】そして、VM6.0では、「At the encoder, t
he following formula are used todetermine the abso
lute and relative VOP_time_increments for I/P-VOP'
s and B-VOP's, respectively.」と記載されている。
【0177】即ち、エンコーダにおいて、以下の式を使
って、I-VOPおよびP-VOPと、B-VOPとについて、それぞ
れの表示時刻を符号化する旨が規定されている。
【0178】 tGTB(n)=n×1000ms+tEST tAVTI=tETB(I/P)−tGTB(n) tRVTI=tETB(B)−tETB(I/P) ・・・(1) 但し、式(1)において、tGTB(n)は、n番目に符号化
されたmodulo_time_baseによって示された同期点の時刻
(上述したように、秒精度)を表し、tESTは、エンコ
ーダにおけるVOの符号化開始時刻(VOの符号化が開
始された絶対時刻)を表す。また、tAVTIは、I-VOPま
たはP-VOPについてのVOP_time_incrementを表し、tETB
(I/P)は、エンコーダにおけるI-VOPまたはP-VOPの符号
化開始時刻(VOPの符号化が開始された絶対時刻)を
表す。さらに、tRVTIは、B-VOPについてのVOP_time_in
crementを表し、tETB(B)は、エンコーダにおけるB-VOP
の符号化開始時刻を表す。
【0179】なお、VM6.0では、式(1)におけるtGTB
(n),tEST,tAVTI,tETB(I/P),tRVTI,tETB(B)に
ついて、「tGTB(n) is the encoder time base marked
by the nth encoded modulo_time_base, tEST is the e
ncoder time base start time, tAVTI is the absolute
VOP_time_increment for the I or P-VOP, tETB(I/P)
is the encoder time base at the start of the encod
ing of the I or P-VOP, tRVTI is the relative VOP_t
ime_increment for the B-VOP, and tETB(B) is the en
coder time base at the start of the encoding of th
e B-VOP.」と記載されている。
【0180】また、VM6.0では、「At the decoder, the
following formula are used to determine the recov
ered time base of the I/P-VOP's and B-VOP's, respe
ctively:」と記載されている。
【0181】即ち、デコーダ側では、以下の式を使っ
て、I-VOPおよびP-VOPと、B-VOPについて、それぞれの
表示時刻を復号する旨が規定されている。
【0182】 tGTB(n)=n×1000ms+tDST tDTB(I/P)=tAVTI+tGTB(n) tDTB(B)=tRVTI+tDTB(I/P) ・・・(2) 但し、式(2)において、tGTB(n)は、n番目に復号さ
れたmodulo_time_baseによって示された同期点の時刻を
表し、tDSTは、デコーダにおけるVOの復号開始時刻
(VOの復号が開始された絶対時刻)を表す。また、t
DTB(I/P)は、デコーダにおけるI-VOPまたはP-VOPの復号
開始時刻を表し、tAVTIは、I-VOPまたはP-VOPについて
のVOP_time_incrementを表す。さらに、tDTB(B)は、デ
コーダにおけるB-VOPの復号開始時刻(VOPの復号が
開始された絶対時刻)を表し、tRVTIは、B-VOPについ
てのVOP_time_incrementを表す。
【0183】なお、VM6.0では、式(2)におけるtGTB
(n),tDST,tDTB(I/P),tAVTI,tDTB(B),tRVTIに
ついて、「tGTB(n) is the encoding time base marked
bythe nth decoded modulo_time_base, tDST is the d
ecoding time base start time, tDTB(I/P) is the dec
oding time base at the start of the decoding ofthe
I or P-VOP, tAVTI is the decoding absolute VOP_ti
me_increment for the I or P-VOP, tDTB(B) is the de
coding time base at the start of the decoding of t
he B-VOP, and tRVTI is the decoded relative VOP_ti
me_incrementfor the B-VOP.」と記載されている。
【0184】図22は、以上の定義に基づいて、modulo
_time_baseとVOP_time_incrementとの関係を示した図で
ある。
【0185】図22において、VOは、I1(I−VO
P),B2(B−VOP),B3,P4(P−VO
P),B5,P6,・・・というVOPのシーケンスで
構成されている。いま、VOの符号化/復号開始時刻
(絶対時刻)をt0とすると、modulo_time_baseは、時
刻t0からの経過時間を、1秒精度で表すから、t0+
1秒、t0+2秒,・・・という時刻(同期点)を表
す。なお、図22において、表示順は、I1,B2,B
3,P4,B5,P6,・・・であるが、符号化/復号
順は、I1,P4,B2,B3,P6,・・・である。
【0186】図22では(後述する図25乃至図28、
および図33においても同様)、各VOPについてのVO
P_time_incrementを、四角形で囲んだ数字(単位はms)
で示してあり、modulo_time_baseによって示される同期
点の切り替わりを、▼印で示してある。従って、図22
では、I1,B2,B3,P4,B5,P6についての
VOP_time_incrementが、350ms,400ms,80
0ms,550ms,400ms,350msとそれぞ
れされており、P4およびP6において、同期点が切り
替わっている。
【0187】いま、図22において、I1のVOP_time_i
ncrementは、350msであるから、I1の符号化/復号
時刻は、直前に符号化/復号されたmodulo_time_baseに
よって示された同期点から350ms後の時刻となる。
なお、符号化/復号の開始直後は、その開始時刻(符号
化/復号開始時刻)t0が同期点となるので、I1の符
号化/復号時刻は、符号化/復号開始時刻t0から35
0ms後の時刻t0+350msということになる。
【0188】そして、B2またはB3の符号化/復号時
刻は、直前に符号化/復号されたI-VOPまたはP-VOPか
ら、VOP_time_incrementだけ経過した時刻であるから、
いまの場合、最後の符号化/復号されたI1の符号化/
復号時刻t0+350msから、400msまたは80
0ms後の時刻t0+750msまたはt0+1200
msということに、それぞれなる。
【0189】次に、P4についてであるが、P4では、
modulo_time_baseによって示される同期点が切り替わっ
ており、従って、同期点は時刻t0+1秒となる。その
結果、P4の符号化/復号時刻は、時刻t0+1秒から
550ms後の時刻(t0+1)秒+550msという
ことになる。
【0190】B5の符号化/復号時刻は、直前に符号化
/復号されたI-VOPまたはP-VOPから、VOP_time_increme
ntだけ経過した時刻であるから、いまの場合、最後の符
号化/復号されたP4の符号化/復号時刻(t0+1)
秒+550msから、400ms後の時刻(t0+1)
秒+950msということになる。
【0191】次に、P6についてであるが、P6では、
modulo_time_baseによって示される同期点が切り替わっ
ており、従って、同期点は時刻t0+2秒となる。その
結果、P6の符号化/復号時刻は、時刻t0+2秒から
350ms後の時刻(t0+2)秒+350msという
ことになる。
【0192】なお、VM6.0では、modulo_time_baseによ
って示される同期点の切り替わりは、I−VOPとP−
VOPとに対してだけ許されており、B−VOPに対し
ては許されていない。
【0193】また、VM6.0において、VOP_time_incremen
tが、I−VOPとP−VOPについては、直前に符号化/復号
されたmodulo_time_baseによって示された同期点からの
時間を表すのに対し、B-VOPについてだけは、直前に符
号化/復号されたI-VOPまたはP-VOPからの相対時間を表
すこととされているのは、主として、次のような理由に
よる。即ち、B-VOPは、表示順で、そのB-VOPを挟むI−V
OPまたはP−VOPを参照画像として予測符号化されるの
で、その予測符号化時に参照画像として用いるI−VOPま
たはP−VOPに対する重みを、B-VOPから、それを挟むI−
VOPまたはP−VOPまでの時間的距離に基づいて決めるた
めに、その時間的距離を、B-VOPについてのVOP_time_in
crementとしたことによる。
【0194】ところで、上述したVM6.0のVOP_time_incr
ementの定義では、不都合が生じる。即ち、図22で
は、B-VOPについてのVOP_time_incrementが、そのB-VOP
の直前に符号化/復号されるI-VOPまたはP-VOPからの相
対時間ではなく、直前に表示されるI-VOPまたはP-VOPか
らの相対時間を表すものとしてある。これは、次のよう
な理由による。即ち、例えば、B2やB3に注目した場
合、その直前に符号化/復号されるI-VOPまたはP-VOP
は、上述した符号化/復号順からいって、P4である。
従って、B-VOPについて、VOP_time_incrementが、そのB
-VOPの直前に符号化/復号されたI-VOPまたはP-VOPから
の相対時間を表すとした場合、B2やB3についてのVO
P_time_incrementは、P4の符号化/復号時刻からの相
対時間を表すこととなり、負の値になる。
【0195】一方、MPEG4規格では、VOP_time_incremen
tは、10ビットとされており、0以上の値のみをとる
ものとすれば、0乃至1023の範囲の値を表現するこ
とができるから、隣接する同期点の間の位置を、時間的
に前(図22において左方向)に位置する同期点を基準
として、1ms単位で表すことができる。
【0196】しかしながら、VOP_time_incrementが、0
以上の値だけでなく、負の値もとることを許すと、例え
ば、隣接する同期点の間の位置が、時間的に前に位置す
る同期点を基準として表されたり、また、時間的に後に
位置する同期点を基準として表されたりすることになる
ため、VOPの符号化時刻や復号時刻を求める処理が煩
雑になる。
【0197】従って、VM6.0では、上述したように、VOP
_time_incrementが、「This valuerepresents the loca
l time base in the units of milliseconds. For I a
ndP-VOP's this value is the absolute VOP_time_incr
ement from the synchronization point marked by the
last modulo_time_base. For the B-VOP's thisvalue
is the relative VOP_time_increment from the last
encoded/decoded I- or P-VOP.」と定義されているが、
最後の文の“For the B-VOP's this valueis the relat
ive VOP_time_increment from the last encoded/decod
ed I- or P-VOP”は、“For the B-VOP's this value i
s the relative VOP_time_increment from the last di
splayed I- or P-VOP”と変更するべきであり、これに
より、VOP_time_incrementが、直前に符号化/復号され
たI-VOPまたはP-VOPからの相対時間ではなく、直前に表
示されるI-VOPまたはP-VOPからの相対時間を表すものと
定義すべきである。
【0198】VOP_time_incrementを、このような定義に
することにより、B-VOPについての符号化/復号時刻の
計算の基準が、B-VOPよりも過去の表示時刻を持つI/P-V
OP(I-VOPまたはP-VOP)の表示時刻になるので、B-VOP
についてのVOP_time_incrementは、それが参照するI-VO
Pが、そのB-VOPよりも先に表示されない限り、常に、正
の値をとることになり、従って、I/P-VOPのVOP_time_in
crementも、常に正の値をとることになる。
【0199】また、図22では、さらにVM6.0の定義を
変更して、modulo_time_baseおよびVOP_time_increment
によって表される時刻が、符号化/復号時刻ではなく、
VOPの表示時刻であるとしてある。即ち、図22では、V
OPのシーケンス上の絶対時刻を考えた場合に、式(1)
におけるtEST(I/P)および式(2)におけるtDTB(I/P)
は、IまたはP-VOPが位置するシーケンス上の絶対時刻
を、式(1)におけるtEST(B)および式(2)におけるt
DTB(B)は、B-VOPが位置するシーケンス上の絶対時刻
を、それぞれ表すものとしてある。
【0200】次に、VM6.0では、式(1)における符号
化開始時刻tEST (the encoder timebase start time)は
符号化されず、その符号化開始時刻tESTと、各VOPの表
示時刻(VOPのシーケンス上の各VOPの位置を表す絶対時
刻)との差分情報としてのmodulo_time_baseおよびVOP_
time_incrementが符号化される。このため、デコーダ側
では、modulo_time_baseおよびVOP_time_incrementを用
いて、各VOPの間の相対的な時間関係は定めることがで
きるが、各VOPの絶対的な表示時刻、即ち、各VOPが、VO
Pのシーケンスの中のどの位置にあるものなのかを定め
ることはできない。従って、modulo_time_baseおよびVO
P_time_incrementだけでは、ビットストリームの途中に
アクセスすること、つまり、ランダムアクセスを行うこ
とはできない。
【0201】一方、単に符号化開始時刻tESTを符号化す
ると、デコーダでは、それを用いて、各VOPの絶対時刻
を復号することはできるが、常に、符号化ビットストリ
ームの先頭から、符号化開始時刻tESTと、各VOPの相対
的な時間情報であるmodulo_time_baseおよびVOP_time_i
ncrementを復号しながら、それを累積して、絶対時刻を
管理する必要があり、これは面倒であり、効率的なラン
ダムアクセスができない。
【0202】そこで、本実施の形態では、容易に、効率
的なランダムアクセスを行うことができるように、VM6.
0の符号化ビットストリームの構成(階層)の中に、VOP
のシーケンス上の絶対時刻を符号化する階層(この階層
は、スケーラビリティを実現する階層(上述の下位レイ
ヤや上位レイヤ)ではなく、符号化ビットストリームの
階層である)を導入する。この階層は、符号化ビットス
トリームの先頭だけでなく、適当な位置に挿入できるよ
うな符号化ビットストリームの階層とする。
【0203】ここでは、この階層として、例えば、MPEG
1/2で用いられているGOP(Group ofPicture)層と同様に
規定されるものを導入する。これにより、MPEG4に独自
な符号化ストリームの階層を用いる場合に比べて、MPEG
4と、MPEG1/2とのコンパチビリティ(Compatibility)
を高めることができる。この新規に導入する階層を、こ
こでは、GOV(またはGVOP)(Group Of Video O
bject Plane)と呼ぶ。
【0204】図23は、VOPのシーケンス上の絶対時刻
を符号化するGOV層を導入した符号化ビットストリーム
の構成例を示している。
【0205】GOV層は、ビットストリームの先頭だけで
なく、符号化ビットストリームの任意の位置に挿入する
ことができるように、VOL層とVOP層との間に規定されて
いる。
【0206】これにより、あるVOL#0が、VOP#0,VOP#
1,・・・,VOP#n,VOP#(n+1),・・・,VOP#mといった
VOPのシーケンスで構成される場合において、GOV層は、
その先頭のVOP#0の直前だけでなく、VOP#(n+1)の直前に
も挿入することができる。従って、エンコーダにおい
て、GOV層は、例えば、符号化ストリームの中の、ラン
ダムアクセスさせたい位置に挿入することができ、従っ
て、GOV層を挿入することで、あるVOLを構成するVOPの
一連のシーケンスは、GOV層によって、複数のグループ
(以下、適宜、GOVという)に分けられて符号化される
ことになる。
【0207】GOV層のシンタクス(Syntax)は、例え
ば、図24に示すように定義される。
【0208】同図に示すように、GOV層は、グループス
タートコード(group_start_code)、タイムコード(ti
me_code)、クローズドGOP(closed_gop)、ブロークン
リンク(broken_link)、ネクストスタートコード(nex
t_start_code())が順次配置されて構成される。
【0209】次に、GOV層のセマンティクス(Semantic
s)について説明する。なお、GOV層のセマンティクス
は、基本的には、MPEG2のGOP層と同様であり、従って、
特に記述しない部分については、MPEG2Video規格(ISO/I
EC13818-2)を参照されたい。
【0210】group_start_codeは、000001B8 (16進
数)で、GOVの開始位置を示す。
【0211】time_codeは、表1に示すような、1ビッ
トのdrop_frame_flag、5ビットのtime_code_hours、6
ビットのtime_code_minutes、1ビットのmarker_bit、
6ビットのtime_code_seconds、および6ビットのtime_
code_picturesの合計25ビットで構成される。
【0212】
【表1】
【0213】time_codeは、IEC standard publication
461で規定されている「time and control codes for vi
deo tape recorders」に相当する。ここで、MPEG4で
は、ビデオのフレームレート(VideoのFrame Rate)の
概念がないので(従って、VOPは、任意の時刻に表示す
ることができる)、ここでは、time_codeがドロップフ
レームモード(drop_frame_mode)で記述されているか
否かを示すdrop_frame_flagを利用せず、その値は、例
えば、0に固定する。同様の理由で、time_code_picture
sも利用せず、その値は、例えば、0に固定する。従っ
て、ここでは、time_codeは、時刻の時間の単位を表すt
ime_code_hours、時刻の分の単位を表すtime_code_minu
tes、および時刻の秒の単位を表すtime_code_secondsに
よって、GOVの先頭の時刻を表す。その結果、GOV層のti
me_code(符号化開始秒精度絶対時刻)は、秒精度で、
その先頭の時刻、即ち、そのGOV層の符号化が開始され
た、VOPのシーケンス上の絶対時刻を表現することとな
る。このため、本実施の形態では、秒より細かい精度の
時刻(時間)(ここでは、ミリ秒)は、VOP毎に設定す
る。
【0214】なお、time_codeのmarker_bitは、符号化
ビットストリームにおいて、0が23個以上連続しない
ように1とされる。
【0215】closed_gopは、MPEG2Video規格(ISO/IEC 1
3818-2)におけるclose_gopの定義の記載の中のI,P、
またはBピクチャを、I-VOP,P-VOP、またはB-VOPにそ
れぞれ置き換えたものを意味し、従って、あるGOVの中
のB-VOPが、そのGOVを構成するVOPだけでなく、他のGOV
を構成するVOPを参照画像として符号化されているかど
うかを表す。ここで、以下に、MPEG2Video規格(ISO/IEC
13818-2)におけるclose_gopの定義について、上述のよ
うな置き換えを行った文を示す。
【0216】This is a one-bit flag which indicates
the nature of the predictions used in the first c
onsecutive B-VOPs (if any) immediately following t
he first coded I-VOP following the group of plane
header. The closed_gop isset to 1 to indicate that
these B-VOPs have been encoded using only backwar
d prediction or intra coding. This bit is provided
for use during anyediting which occurs after enco
ding. If the previous pictures have beenremoved by
editing, broken_link may be set to 1 so that a de
coder may avoid displaying these B-VOPs following
the first I-VOP following the group of plane heade
r. However if the closed_gop bit is set to 1, then
theeditor may choose not to set the broken_link b
it as these B-VOPs can becorrectly decoded.
【0217】broken_linkも、MPEG2Video規格(ISO/IEC
13818-2)におけるbroken_linkの記載について、closed_
gopにおける場合と同様の置き換を行ったものを意味
し、従って、GOVの先頭のB-VOPが正確に再生することが
できるかどうかを表す。ここで、以下に、MPEG2Video規
格(ISO/IEC 13818-2)におけるbroken_linkの定義につい
て、上述のような置き換えを行った文を示す。
【0218】This is a one-bit flag which shall be
set to 0 during encoding. It isset to 1 to indicat
e that the first consecutive B-VOPs (if any) immed
iately following the first coded I-VOP following t
he group of plane headermay not be correctly decod
ed because the reference frame which is used for p
rediction is not available (because of the action
of editing). A decoder may use this flag to avoid
displaying frames that cannot be correctly decode
d.
【0219】next_start_code()は、次のGOVの先頭の位
置を与える。
【0220】以上のようなGOV層を導入し、GOVの符号化
を開始する、GOVのシーケンス上の絶対時刻(以下、適
宜、符号化開始絶対時刻という)を、GOVのタイムコー
ドtime_codeに設定する。さらに、上述のように、GOV層
のtime_codeは秒精度なので、ここでは、各VOPの、VOP
のシーケンス上の絶対時刻の、さらに細かい精度の部分
を、VOP毎に設定する。
【0221】即ち、図25は、図24のGOV層を導入し
た場合のtime_codeと、modulo_time_baseおよびVOP_tim
e_incrementとの関係を示している。
【0222】図25において、GOVは、その先頭から、
表示順で、I1,B2,B3,P4,B5,P6が配置
されて構成されている。
【0223】いま、例えば、GOVの符号化開始絶対時刻
を、0h:12m:35sec:350msec(0時12分35秒350ミ
リ秒)とすると、GOVのtime_codeは、上述したように、
秒精度(秒単位)なので、0h:12m:35secとされる(time
_codeを構成するtime_code_hours,time_code_minute
s、またはtime_code_secondsが、それぞれ0,12、ま
たは35とされる)。一方、I1の、VOPのシーケンス
上の絶対時刻(図25のGOVを含むVSの符号化前(また
は復号後)のVOPのシーケンスの絶対時刻)(これは、V
OPのシーケンスが表示されるときの、I1が表示される
時刻に相当するので、以下、適宜、表示時刻という)
が、例えば、0h:12m:35sec:350msecである場合には、そ
の表示時刻の、秒精度より細かい精度である350msは、
I1についてのI-VOPのVOP_time_incrementに設定され
て符号化されるように(I1についてのVOP_time_incre
ment=350とされて符号化されるように)、VOP_time_in
crementのセマンティクスを変更する。
【0224】即ち、図25において、GOVの、表示順で
先頭のI-VOP(I1)のVOP_time_incrementは、GOVのti
me_codeと、I-VOPの表示時刻の差分値とする。従って、
秒精度によるtime_codeで表された時刻が、GOVの最初の
同期点(ここでは、秒精度の時刻を表す点)となる。
【0225】なお、図25において、GOVの2番目以降
に配置されたVOPであるB2,B3,P4,B5,P6
についてのVOP_time_incrementのセマンティクスは、図
22で説明したように、VM6.0の定義を変更したものと
同様である。
【0226】従って、図25において、B2またはB3
の表示時刻は、直前に表示されるI-VOPまたはP-VOPの表
示時刻から、VOP_time_incrementだけ経過した時刻であ
るから、いまの場合、直前に表示されるI1の表示時刻
0h:12m:35s+350msから、400msまたは800ms後の時刻0h:12
m:35s:750msまたは0h:12m:36s:200msということに、それ
ぞれなる。
【0227】次に、P4についてであるが、P4では、
modulo_time_baseによって示される同期点が切り替わっ
ており、従って、同期点は時刻0h:12m:35sから1秒経過
した0h:12m:36sとなる。その結果、P4の表示時刻は、
時刻0h:12m:36sから550ms後の時刻0h:12m:36:550msとい
うことになる。
【0228】B5の表示時刻は、直前に表示されるI-VO
PまたはP-VOPから、VOP_time_incrementだけ経過した時
刻であるから、いまの場合、直前に表示されるP4の表
示時刻0h:12m:36:550msから、400ms後の時刻0h:12m:36s:
950msということになる。
【0229】そして、P6についてであるが、P6で
は、modulo_time_baseによって示される同期点が切り替
わっており、従って、同期点は時刻0h:12m:35s+2秒、即
ち、0h:12m:37sとなる。その結果、P6の表示時刻は、
時刻0h:12m:37sから350ms後の時刻0h:12m:37s:350msと
いうことになる。
【0230】次に、図26は、表示順で、先頭のVOPがB
-VOPになっている場合の、GOVについてのtime_codeと、
modulo_time_baseおよびVOP_time_incrementとの関係を
示している。
【0231】図26において、GOVは、その先頭から、
表示順で、B0,I1,B2,B3,P4,B5,P6
が配置されて構成されている。即ち、図26では、図2
5において、I1の前にB0が追加されて、GOVが構成
されている。
【0232】この場合、GOVの先頭のB0についてのVOP
_time_incrementを、そのGOVを構成するI/P-VOPの表示
時刻を基準として定めることとすると、即ち、例えば、
I1の表示時刻を基準として定めることとすると、その
値は負になり、上述したように、都合が悪い。
【0233】そこで、GOVの中の、I-VOPよりも先に表示
されるB-VOP(GOVの中で、最初に表示されるI-VOPより
も先行して表示されるB-VOP)のVOP_time_incrementに
ついては、そのセマンティクスを、以下のように変更す
る。
【0234】すなわち、そのようなB-VOPのVOP_time_in
crementは、GOVのtime_codeの時刻と、B-VOPの表示時刻
との差分値とする。この場合、図26に示すように、B
0の表示時刻が、例えば、0h:12m:35s:200msであり、GO
Vのtime_codeが、例えば、0h:12m:35sであるときには、
B0のVOP_time_incrementは、350ms(=0h:12m:35s:20
0ms−0h:12m:35s)になる。このようにすることで、VOP
_time_incrementは、常に正の値になる。
【0235】以上のような、VOP_time_incrementについ
てのセマンティクスの2つの変更により、GOVのtime_co
deと、VOPのmodulo_time_baseおよびVOP_time_incremen
tとを関係付けることができ、さらに、これにより、各V
OPが表示される絶対時刻(表示時刻)を特定することが
できる。
【0236】次に、図27は、I-VOPの表示時刻と、そ
れから予測されるB-VOPの表示時刻との間隔が1秒(正
確には、1.023秒)より大きい場合の、GOVについ
てのtime_codeと、modulo_time_baseおよびVOP_time_in
crementとの関係を示している。
【0237】図27において、GOVは、表示順で、I
1,B2,B3,B4,P6が順次配置されて構成され
ており、B4が、直前に表示されるI-VOPであるI1の
表示時刻よりも、1秒より後の時刻において表示される
ようになされている。
【0238】この場合、上述のようにセマンティクスを
変更したVOP_time_incrementによって、B4の表示時刻
を符号化しようとしても、VOP_time_incrementは、上述
のように10ビットであるため、1023までしか表現でき
ず、1.023秒より長い時間を表現することはできない。
そこで、VOP_time_incrementのセマンティクスをさらに
変更するとともに、modulo_time_baseのセマンティクス
をも変更し、このような場合であっても対応できるよう
にする。
【0239】ここでは、例えば、次のような第1または
第2の方法のいずれかによって対応する。
【0240】即ち、第1の方法では、I/P-VOPの表示時
刻と、それから予測されるB-VOPの表示時刻との間の時
間を、ミリ秒精度で求め、その時間を、秒の単位まで
は、modulo_time_baseで表現し、残りのミリ秒の精度
を、VOP_time_incrementで表現する。
【0241】図27に示した場合において、第1の方法
にしたがって、modulo_time_baseおよびVOP_time_incre
mentを符号化した場合の、GOVについてのtime_codeと、
modulo_time_baseおよびVOP_time_incrementとの関係
を、図28に示す。
【0242】即ち、第1の方法では、modulo_time_base
の付加を、I-VOPおよびP-VOPだけでなく、B-VOPに対し
ても許可する。そして、B-VOPに付加されているmodulo_
time_baseは、同期点の切り替わりではなく、直前に表
示されるI/P-VOPの表示時刻からの秒単位の繰り上がり
を表すものとする。
【0243】さらに、第1の方法では、B-VOPに付加さ
れるmodulo_time_baseによって示される、直前に表示さ
れるI/P-VOPの表示時刻からの秒単位の繰り上がり後の
時刻を、そのB-VOPの表示時刻から減算した値を、そのV
OP_time_incrementとして設定する。
【0244】従って、第1の方法によれば、図27にお
いて、例えば、I1の表示時刻を、0h:12m:35s:350msと
するとともに、B4の表示時刻を、0h:12m:36s:550msと
すると、I1とB4との表示時刻の差は、1秒以上の12
00msecであるから、B4には、図28に示すように、直
前に表示されるI1の表示時刻からの秒単位の繰り上が
りを示すmodulo_time_base(図28において、▼印で示
す)が付加される。具体的には、B4に付加されるmodu
lo_time_baseは、1200msの1秒の位の値である1秒の繰
り上がりを表す「10」とされる。そして、B4のVOP_
time_incrementは、図28に示すように、I1とB4と
の表示時刻の差の、1秒未満の値(B4の表示時刻か
ら、そのmodulo_time_baseによって示される、直前に表
示されるI/P-VOPであるI1の表示時刻からの秒単位の
繰り上がり後の時刻を減算した値)であるである200
とされる。
【0245】以上のような、第1の方法によるmodulo_t
ime_baseとVOP_time_incrementについての処理は、エン
コーダ側では、例えば、図9および図10に示したVL
C器36において、デコーダ側では、例えば、図15お
よび図16に示したIVLC器102において、それぞ
れ行われる。
【0246】そこで、まず、図29のフローチャートを
参照して、VLC器36が行うI/P-VOPのmodulo_time_b
aseおよびVOP_time_incrementに関する処理について説
明する。
【0247】VLC器36は、VOPのシーケンスを、GOV
ごとに分けて処理を行うようになされている。なお、GO
Vは、少なくとも1のイントラ符号化されるVOPを含むよ
うに構成される。
【0248】VLC器36は、GOVを受信すると、例え
ば、その受信時刻を、そのGOVの符号化開始絶対時刻と
し、その符号化開始絶対時刻の秒精度まで(秒の桁まで
の符号化開始絶対時刻)を、time_codeとして符号化し
て、符号化ビットストリームの中に含める。その後、V
LC器36は、GOVを構成するI/P-VOPを受信するごと
に、そのI/P-VOPを注目I/P-VOPとして、図29のフロー
チャートにしたがい、注目I/P-VOPのmodulo_time_base
およびVOP_time_incrementを求めて、符号化する。
【0249】即ち、VLC器36では、まず最初に、ス
テップS1において、modulo_time_baseに0B(Bは2
進数を表す)がセットされるとともに、VOP_time_incre
mentに0がセットされることにより、modulo_time_base
およびVOP_time_incrementがリセットされる。
【0250】そして、ステップS2に進み、注目I/P-VO
Pが、処理対象としているGOV(処理対象GOV)の中で、
最初に表示されるI-VOP(First I-VOP)であるかどうか
が判定される。ステップS2において、注目I/P-VOP
が、処理対象GOVの中で、最初に表示されるI-VOPである
と判定された場合、ステップS4に進み、処理対象GOV
のtime_codeと、注目I/P-VOP(ここでは、処理対象GOV
の中で、最初に表示されるI-VOP)の表示時刻の秒精度
との差分、即ち、time_codeと、注目I/P-VOPの表示時刻
の秒の桁までとの差分が求められ、変数Dにセットされ
て、ステップS5に進む。
【0251】また、ステップS2において、注目I/P-VO
Pが、処理対象GOVの中で、最初に表示されるI-VOPでな
いと判定された場合、ステップS3に進み、注目I/P-VO
Pの表示時刻の秒の桁までと、その直前に表示されるI/P
-VOP(処理対象GOVを構成するVOPのうちの、注目I/P-VO
Pの直前に表示されるI/P-VOP)(Last display I/P-VO
P)の表示時刻の秒の桁までとの差分値が求められ、そ
の差分値が、変数Dにセットされて、ステップS5に進
む。
【0252】ステップS5では、変数Dが0に等しいか
どうか、即ち、time_codeと、注目I/P-VOPの表示時刻の
秒の桁までとの差分、または注目I/P-VOPの表示時刻の
秒の桁までと、その直前に表示されるI/P-VOPの表示時
刻の秒の桁までとの差分値が0秒であるかどうかが判定
される。ステップS5において、変数Dが0に等しくな
いと判定された場合、即ち、変数Dが1以上である場
合、ステップS6に進み、modulo_time_baseのMSB
(Most Significant Bit)として、1が付加される。即
ち、この場合、modulo_time_baseが、例えば、リセット
直後の0Bであるときには、10Bとされ、また、modu
lo_time_baseが、例えば、10Bであるときには、11
0Bとされる。
【0253】そして、ステップS7に進み、変数Dが1
だけデクリメントされ、ステップS5に戻る。その後、
ステップS5において、変数Dが0に等しいと判定され
るまで、ステップS5乃至S7の処理が繰り返される。
即ち、これにより、modulo_time_baseは、time_code
と、注目I/P-VOPの表示時刻の秒の桁までとの差分、ま
たは注目I/P-VOPの表示時刻の秒の桁までと、その直前
に表示されるI/P-VOPの表示時刻の秒の桁までとの差分
値に対応する秒数と同一の数だけ「1」が連続し、その
最後に0が付加された値とされる。
【0254】そして、ステップS5において、変数Dが
0に等しいと判定された場合、ステップS8に進み、VO
P_time_incrementに、注目I/P-VOPの表示時刻の秒精度
より細かい精度の時刻、即ち、ミリ秒単位の時刻がセッ
トされ、処理を終了する。
【0255】以上のようにして求められた注目I/P-VOP
のmodulo_time_baseおよびVOP_time_incrementは、VL
C回路36において、注目I/P-VOPに付加され、これに
より、符号化ビットストリームの中に含められる。
【0256】なお、modulo_time_baseおよびVOP_time_i
ncrement、並びにtime_codeは、VLC回路36におい
て可変長符号化される。
【0257】次に、VLC器36は、処理対象GOVを構
成するB-VOPを受信するごとに、そのB-VOPを注目B-VOP
として、図30のフローチャートにしたがい、注目B-VO
Pのmodulo_time_baseおよびVOP_time_incrementを求め
て、符号化する。
【0258】即ち、VLC器36では、まず最初に、ス
テップS11において、図29のステップS1における
場合と同様に、modulo_time_baseおよびVOP_time_incre
mentがリセットされる。
【0259】そして、ステップS12に進み、注目B-VO
Pが、処理対象GOVの中で、最初に表示されるI-VOP(Fir
st I-VOP)よりも先に表示されるものであるかどうかが
判定される。ステップS12において、注目B-VOPが、
処理対象GOVの中で、最初に表示されるI-VOPよりも先に
表示されるものであると判定された場合、ステップS1
4に進み、処理対象GOVのtime_codeと、注目B-VOP(こ
こでは、処理対象GOVの中で、最初に表示されるI-VOPよ
りも先行して表示されるB-VOP)の表示時刻との差分が
求められ、変数Dにセットされて、ステップS15に進
む。従って、ここでは、変数Dには、ミリ秒精度の時間
(ミリ秒の桁までの時間)がセットされる(これに対し
て、図29における変数Dには、上述したように、秒精
度の時間がセットされる)。
【0260】また、ステップS12において、注目B-VO
Pが、処理対象GOVの中で、最初に表示されるI-VOPより
も後に表示されるものであると判定された場合、ステッ
プS14に進み、注目B-VOPの表示時刻と、その直前に
表示されるI/P-VOP(処理対象GOVを構成するVOPのうち
の、注目B-VOPの直前に表示されるI/P-VOP)(Last dis
play I/P-VOP)の表示時刻との差分値が求められ、その
差分値が、変数Dにセットされて、ステップS15に進
む。
【0261】ステップS15では、変数Dが1より大で
あるかどうか、即ち、time_codeと、注目B-VOPの表示時
刻との差分値、または注目B-VOPの表示時刻と、その直
前に表示されるI/P-VOPの表示時刻との差分値が、1秒
より大であるかどうかが判定される。ステップS5にお
いて、変数Dが1より大であると判定された場合、即
ち、modulo_time_baseのMSBとして、1が付加され、
ステップS17に進む。ステップS17では、変数Dが
1だけデクリメントされ、ステップS15に戻る。そし
て、ステップS15において、変数Dが1より大でない
と判定されるまで、ステップS15乃至S17の処理が
繰り返される。即ち、これにより、modulo_time_base
は、time_codeと、注目B-VOPの表示時刻との差分値、ま
たは注目B-VOPの表示時刻と、その直前に表示されるI/P
-VOPの表示時刻との差分値に対応する時間の秒数と同一
の数だけ「1」が連続し、その最後に0が付加された値
とされる。
【0262】そして、ステップS15において、変数D
が1より大でないと判定された場合、ステップS8に進
み、そのときの変数Dの値、即ち、time_codeと、注目B
-VOPの表示時刻との差分値、または注目B-VOPの表示時
刻と、その直前に表示されるI/P-VOPの表示時刻との差
分値の秒の位より下の位(ミリ秒単位の時間)が、VOP_
time_incrementにセットされ、処理を終了する。
【0263】以上のようにして求められた注目B-VOPのm
odulo_time_baseおよびVOP_time_incrementは、VLC
回路36において、注目B-VOPに付加され、これによ
り、符号化ビットストリームの中に含められる。
【0264】次に、IVLC器102は、上述のように
して、VLC器36が、VOPのシーケンスを、GOVごとに
分けて処理を行うことにより出力する符号化ストリーム
の中のVOPの表示時刻を、各VOPについての符号化データ
を受信するごとに、そのVOPを注目VOPとして処理を行う
ことにより認識し、その表示時刻にVOPが表示されるよ
うに、可変長復号を行うようになされている。即ち、I
VLC器102は、GOVを受信すると、そのGOVのtime_c
odeを認識し、そのGOVを構成するI/P-VOPを受信するご
とに、そのI/P-VOPを注目I/P-VOPとして、図31のフロ
ーチャートにしたがい、注目I/P-VOPのmodulo_time_bas
eおよびVOP_time_incrementに基づき、その表示時刻を
求める。
【0265】即ち、IVLC器102では、まず最初
に、ステップS21において、注目I/P-VOPが、処理対
象GOVの中で、最初に表示されるI-VOP(First I-VOP)
であるかどうかが判定される。ステップS21におい
て、注目I/P-VOPが、処理対象GOVの中で、最初に表示さ
れるI-VOPであると判定された場合、ステップS23に
進み、変数Tに、処理対象GOVのtime_codeがセットさ
れ、ステップS24に進む。
【0266】また、ステップS21において、注目I/P-
VOPが、処理対象GOVの中で、最初に表示されるI-VOPで
ないと判定された場合、ステップS22に進み、注目I/
P-VOPの直前に表示されるI/P-VOP(処理対象GOVを構成
するVOPのうちの、注目I/P-VOPの直前に表示されるI/P-
VOP)(Last display I/P-VOP)の表示時刻の秒の桁ま
でが、変数Tにセットされて、ステップS24に進む。
【0267】ステップS24では、注目I/P-VOPに付加
されているmodulo_time_baseが0Bに等しいかどうかが
判定される。ステップS24において、注目I/P-VOPに
付加されているmodulo_time_baseが0Bに等しくないと
判定された場合、即ち、注目I/P-VOPに付加されているm
odulo_time_baseに1が含まれる場合、ステップS25
に進み、そのmodulo_time_baseのMSBの1が削除さ
れ、ステップS26に進む。ステップS26では、変数
Tが1秒だけインクリメントされ、ステップS24に戻
り、以下、ステップS24において、注目I/P-VOPに付
加されているmodulo_time_baseが0Bに等しいと判定さ
れるまで、ステップS24乃至S26の処理を繰り返
す。これにより、変数Tは、注目I/P-VOPに、最初に付
加されていたmodulo_time_baseの1の数に対応する秒数
だけインクリメントされる。
【0268】そして、ステップS24において、注目I/
P-VOPに付加されているmodulo_time_baseが0Bに等し
いと判定された場合、ステップS27に進み、変数T
に、VOP_time_incrementが表すミリ秒精度の時刻が加算
され、その加算値が、注目I/P-VOPの表示時刻として認
識されて、処理を終了する。
【0269】次に、IVLC器102では、GOVを構成
するB-VOPを受信した場合には、図32のフローチャー
トにしたがい、注目B-VOPのmodulo_time_baseおよびVOP
_time_incrementに基づき、その表示時刻が求められ
る。
【0270】即ち、IVLC器102では、まず最初
に、ステップS31において、注目B-VOPが、処理対象G
OVの中で、最初に表示されるI-VOP(First I-VOP)より
も先に表示されるものであるかどうかが判定される。ス
テップS31において、注目B-VOPが、処理対象GOVの中
で、最初に表示されるI-VOPよりも先に表示されるもの
であると判定された場合、ステップS33に進み、以
下、ステップS33乃至S37において、図31のステ
ップS23乃至S27における場合とそれぞれ同様の処
理が行われることにより、注目B-VOPの表示時刻が求め
られる。
【0271】一方、ステップS31において、注目B-VO
Pが、処理対象GOVの中で、最初に表示されるI-VOPより
も後に表示されるものであると判定された場合、ステッ
プS32に進み、以下、ステップS32,S34乃至S
37において、図31のステップS22,S24乃至S
27における場合とそれぞれ同様の処理が行われること
により、注目B-VOPの表示時刻が求められる。
【0272】次に、第2の方法では、I-VOPの表示時刻
と、それから予測されるB-VOPの表示時刻との間の時間
を、秒の桁まで求め、その値を、modulo_time_baseで表
現し、B-VOPの表示時刻のミリ秒精度を、VOP_time_incr
ementで表現する。即ち、VM6.0では、上述したように、
B-VOPの予測符号化時に参照画像として用いるI−VOPま
たはP−VOPに対する重みを、B-VOPから、それを挟むI−
VOPまたはP−VOPまでの時間的距離に基づいて決めるの
に、その時間的距離を、B-VOPについてのVOP_time_incr
ementとしており、このため、I−VOPおよびP−VOPにつ
いてのVOP_time_incrementが、直前に符号化/復号され
たmodulo_time_baseによって示された同期点からの時間
を表すのと異なっているが、B-VOPの表示時刻と、それ
を挟むI−VOPまたはP−VOPの表示時刻が分かれば、それ
らの間の時間的距離は、差分をとるだけで求めることが
でき、従って、B-VOPについてのVOP_time_incrementだ
けを、I−VOPおよびP−VOPについてのVOP_time_increme
ntと異なる取り扱いとする必要性は小さい。むしろ、処
理効率の観点からは、I,B,PのすべてのVOPのVOP_t
ime_incrment(詳細時間情報)、さらには、modulo_tim
e_base(秒精度時刻情報)は、同一の取り扱いとするの
が望ましい。
【0273】そこで、第2の方法では、B-VOPについて
のmodulo_time_baseおよびVOP_time_incrementを、I/P
−VOPについてのものと同一の取り扱いとしている。
【0274】例えば、図27に示した場合において、第
2の方法にしたがって、modulo_time_baseおよびVOP_ti
me_incrementを符号化した場合の、GOVについてのtime_
codeと、modulo_time_baseおよびVOP_time_incrementと
の関係を、図33に示す。
【0275】即ち、第2の方法でも、modulo_time_base
の付加を、I-VOPおよびP-VOPだけでなく、B-VOPに対し
ても許可する。そして、B-VOPに付加されるmodulo_time
_baseも、I/P-VOPに付加されるmodulo_time_baseと同様
に、同期点の切り替わりを表すものとする。
【0276】さらに、第2の方法では、B-VOPに付加さ
れているmodulo_time_baseによって示される同期点の時
刻を、そのB-VOPの表示時刻から減算した値が、そのVOP
_time_incrementとして設定される。
【0277】従って、第2の方法によれば、図27にお
いて、GOVのtime_codeが表す時刻である、GOVの最初の
同期点から、時刻time_code+1秒で示される同期点ま
での間に表示されるI1またはB2のmodulo_time_base
は、いずれも0Bとされるとともに、それぞれのVOP_ti
me_incrementは、I1またはB2の表示時刻の秒の位よ
り下の位のミリ秒単位の値がセットされる。また、時刻
time_code+1秒で示される同期点から、時刻time_code
+2秒で示される同期点までの間に表示されるB3また
はB4のmodulo_time_baseは、いずれも10Bとされる
とともに、それぞれのVOP_time_incrementは、B3また
はB4の表示時刻の秒の位より下の位のミリ秒単位の値
がセットされる。さらに、時刻time_code+2秒で示さ
れる同期点から、時刻time_code+3秒で示される同期
点までの間に表示されるP5のmodulo_time_baseは11
0Bとされるとともに、そのVOP_time_incrementは、P
5の表示時刻の秒の位より下の位のミリ秒単位の値がセ
ットされる。
【0278】図27において、例えば、上述したよう
に、I1の表示時刻を、0h:12m:35s:350msとするととも
に、B4の表示時刻を、0h:12m:36s:550msとすると、I
1またはB4のmodulo_time_baseは、上述したように、
それぞれ0Bまたは10Bとされる。また、I1または
B4のVOP_time_incrementは、それぞれ、表示時刻のミ
リ秒単位である350msまたは550msとされる。
【0279】以上のような、第2の方法によるmodulo_t
ime_baseとVOP_time_incrementについての処理も、例え
ば、第1の方法による場合と同様に、図9および図10
に示したVLC器36、並びに図15および図16に示
したIVLC器102において行われる。
【0280】即ち、VLC器36では、I/P-VOPについ
ては、図29における場合と同様にして、modulo_time_
baseおよびVOP_time_incrementが求められる。
【0281】また、B-VOPについては、VLC器36に
おいて、GOVを構成するB-VOPを受信するごとに、そのB-
VOPを注目B-VOPとして、図34のフローチャートにした
がい、注目B-VOPのmodulo_time_baseおよびVOP_time_in
crementが求められる。
【0282】即ち、VLC器36では、まず最初に、ス
テップS41において、図29のステップS1における
場合と同様にして、modulo_time_baseおよびVOP_time_i
ncrementがリセットされる。
【0283】そして、ステップS42に進み、注目B-VO
Pが、処理対象としているGOV(処理対象GOV)の中で、
最初に表示されるI-VOP(First I-VOP)よりも先行して
表示されるものであるかどうかが判定される。ステップ
S12において、注目B-VOPが、処理対象GOVの中で、最
初に表示されるI-VOPよりも先行して表示されるもので
あると判定された場合、ステップS44に進み、処理対
象GOVのtime_codeと、注目B-VOPの表示時刻の秒精度と
の差分、即ち、time_codeと、注目B-VOPの表示時刻の秒
の桁までとの差分が求められ、変数Dにセットされて、
ステップS45に進む。
【0284】また、ステップS42において、注目B-VO
Pが、処理対象GOVの中で、最初に表示されるI-VOPより
も後に表示されるものであると判定された場合、ステッ
プS43に進み、注目B-VOPの表示時刻の秒の桁まで
と、その直前に表示されるI/P-VOP(処理対象GOVを構成
するVOPのうちの、注目B-VOPの直前に表示されるI/P-VO
P)(Last display I/P-VOP)の表示時刻の秒の桁まで
との差分値が求められ、その差分値が、変数Dにセット
されて、ステップS45に進む。
【0285】ステップS45では、変数Dが0に等しい
かどうか、即ち、time_codeと、注目B-VOPの表示時刻の
秒の桁までとの差分、または注目B-VOPの表示時刻の秒
の桁までと、その直前に表示されるI/P-VOPの表示時刻
の秒の桁までとの差分値が0秒であるかどうかが判定さ
れる。ステップS45において、変数Dが0に等しくな
いと判定された場合、即ち、変数Dが1以上である場
合、ステップS46に進み、modulo_time_baseのMSB
として、1が付加される。
【0286】そして、ステップS47に進み、変数Dが
1だけデクリメントされ、ステップS45に戻る。その
後、ステップS45において、変数Dが0に等しいと判
定されるまで、ステップS45乃至S47の処理が繰り
返される。即ち、これにより、modulo_time_baseは、ti
me_codeと、注目B-VOPの表示時刻の秒の桁までとの差
分、または注目B-VOPの表示時刻の秒の桁までと、その
直前に表示されるI/P-VOPの表示時刻の秒の桁までとの
差分値に対応する秒数と同一の数だけ「1」が連続し、
その最後に0が付加された値とされる。
【0287】そして、ステップS45において、変数D
が0に等しいと判定された場合、ステップS48に進
み、VOP_time_incrementに、注目B-VOPの表示時刻の秒
精度より細かい精度の時刻、即ち、ミリ秒単位の時刻が
セットされ、処理を終了する。
【0288】一方、IVLC器102では、I/P-VOPに
ついては、上述の図31における場合と同様にして、mo
dulo_time_baseおよびVOP_time_incrementに基づき、そ
の表示時刻が求められる。
【0289】また、B−VOPについては、IVLC器1
02において、GOVを構成するB-VOPを受信するごとに、
そのB-VOPを注目B-VOPとして、図35のフローチャート
にしたがい、注目B-VOPのmodulo_time_baseおよびVOP_t
ime_incrementに基づき、その表示時刻が求められる。
【0290】即ち、IVLC器102では、まず最初
に、ステップS51において、注目B-VOPが、処理対象G
OVの中で、最初に表示されるI-VOP(First I-VOP)より
も先行して表示されるものであるかどうかが判定され
る。ステップS51において、注目B-VOPが、処理対象G
OVの中で、最初に表示されるI-VOPよりも先行して表示
されるものであると判定された場合、ステップS52に
進み、変数Tに、処理対象GOVのtime_codeがセットさ
れ、ステップS54に進む。
【0291】また、ステップS51において、注目B-VO
Pが、処理対象GOVの中で、最初に表示されるI-VOPより
も後に表示されるものであると判定された場合、ステッ
プS53に進み、注目B-VOPの直前に表示されるI/P-VOP
(処理対象GOVを構成するVOPのうちの、注目B-VOPの直
前に表示されるI/P-VOP)(Last display I/P-VOP)の
表示時刻の秒の桁までが、変数Tにセットされて、ステ
ップS54に進む。
【0292】ステップS54では、注目B-VOPに付加さ
れているmodulo_time_baseが0Bに等しいかどうかが判
定される。ステップS54において、注目B-VOPに付加
されているmodulo_time_baseが0Bに等しくないと判定
された場合、即ち、注目B-VOPに付加されているmodulo_
time_baseに1が含まれる場合、ステップS55に進
み、そのmodulo_time_baseのMSBの1が削除され、ス
テップS56に進む。ステップS56では、変数Tが1
秒だけインクリメントされ、ステップS54に戻り、以
下、ステップS54において、注目B-VOPに付加されて
いるmodulo_time_baseが0Bに等しいと判定されるま
で、ステップS54乃至S56の処理を繰り返す。これ
により、変数Tは、注目B-VOPに、最初に付加されてい
たmodulo_time_baseの1の数に対応する秒数だけインク
リメントされる。
【0293】そして、ステップS54において、注目B-
VOPに付加されているmodulo_time_baseが0Bに等しい
と判定された場合、ステップS57に進み、変数Tに、
VOP_time_incrementが表すミリ秒精度の時刻が加算さ
れ、その加算値が、注目B-VOPの表示時刻として認識さ
れて、処理を終了する。
【0294】以上のように、符号化ビットストリームの
構成(階層)の中に、符号化開始絶対時刻を符号化する
GOV層を導入し、このGOV層を、ビットストリームの先頭
だけでなく、適当な位置に挿入できるようなものとする
とともに、VM6.0で規定されていたmodulo_time_baseとV
OP_time_incrementの定義を、上述のように変更したの
で、VOPのピクチャタイプの並びや、隣接するVOPの時間
間隔などによらず、すべての場合において、各VOPの表
示時刻(絶対時刻)を求めることが可能となる。
【0295】従って、エンコーダにおいて、符号化開始
絶対時刻を、GOV単位で符号化するとともに、各VOPのmo
dulo_time_baseとVOP_time_incrementを符号化し、符号
化ビットストリームに含めることで、デコーダでは、符
号化開始絶対時刻を、GOV単位で復号するとともに、VOP
のmodulo_time_baseおよびVOP_time_incrementを復号
し、それらから、各VOPの表示時刻を復号することがで
きるので、ランダムアクセスを、GOV単位で、効率的に
行うことが可能となる。
【0296】なお、modulo_time_baseに付加する1の数
を、同期点の切り替わりにしたがって、単純に増加して
いくと、time_codeが示す時刻から、例えば、1時間
(3600秒)経過後は(但し、GOVが、それだけの時
間に相当するVOPで構成されるとする)、modulo_time_b
aseは、3600ビットの1と、1ビットの0とで構成
されるから、3601ビットという莫大なビット数にな
ることになる。
【0297】そこで、MPEG4では、modulo_time_base
は、同期点の切り替わり後に最初に現れるI/P-VOPにお
いてリセットされるように規定されている。
【0298】従って、例えば、図36に示すように、GO
Vが、そのtime_codeが表す時刻である、GOVの最初の同
期点から、時刻time_code+1秒で示される同期点まで
の間に表示されるI1およびB2、時刻time_code+1
秒で示される同期点から、時刻time_code+2秒で示さ
れる同期点までの間に表示されるB3およびB4、時刻
time_code+2秒で示される同期点から、時刻time_code
+3秒で示される同期点までの間に表示されるP5およ
びB6、時刻time_code+3秒で示される同期点から、
時刻time_code+4秒で示される同期点までの間に表示
されるB7、並びに時刻time_code+4秒で示される同
期点から、時刻time_code+5秒で示される同期点まで
の間に表示されるB8で構成される場合には、GOVの最
初の同期点から、時刻time_code+1秒で示される同期
点までの間に表示されるI1およびB2のmodulo_time_
baseは、0Bとされる。
【0299】また、時刻time_code+1秒で示される同
期点から、時刻time_code+2秒で示される同期点まで
の間に表示されるB3およびB4のmodulo_time_base
は、10Bとされる。さらに、時刻time_code+2秒で
示される同期点から、時刻time_code+3秒で示される
同期点までの間に表示されるP5のmodulo_time_base
は、110Bとされる。
【0300】そして、P5は、GOVの最初の同期点か
ら、時刻time_code+1秒で示される同期点に切り替わ
った後に、最初に表示されるP-VOPであるから、modulo_
time_baseは、0Bにリセットされ、その後に表示され
るB6のmodulo_time_baseは、P5の表示時刻を求める
ときに参照される同期点、即ち、いまの場合、時刻time
_code+2秒で示される同期点を、GOVの最初の同期点と
みなして設定される。従って、B6のmodulo_time_base
は、0Bとされる。
【0301】その後、時刻time_code+3秒で示される
同期点から、時刻time_code+4秒で示される同期点ま
での間に表示されるB7のmodulo_time_baseは、10B
とされ、時刻time_code+4秒で示される同期点から、
時刻time_code+5秒で示される同期点までの間に表示
されるB8のmodulo_time_baseは、110Bとされる。
【0302】図29、図30、および図34で説明した
エンコーダ側(VLC器36)の処理は、上述のように
して、modulo_time_baseを設定するようになっている。
【0303】また、この場合、デコーダ側(IVLC器
102)では、同期点の切り替わり後に最初に表示され
るI/P-VOPを検出した場合は、それに付加されているmod
ulo_time_baseによって示される秒数を、time_codeに累
積加算して、表示時刻を求める必要があるが、即ち、例
えば、図36に示した場合においては、I1乃至P5の
表示時刻は、time_codeに、各VOPに付加されているmodu
lo_time_baseに対応する秒数と、VOP_time_incrementと
を加算して求めれば良いが、同期点の切り替わり後に最
初に表示されるP5の後に表示されるB6乃至B8の表
示時刻は、time_codeに、各VOPに付加されているmodulo
_time_baseに対応する秒数と、VOP_time_incrementとを
加算する他に、さらに、P5のmodulo_time_baseに対応
する秒数である2秒を加算して求める必要があるが、図
31、図32、および図35で説明した処理は、そのよ
うにして、表示時刻を求めるようになされている。
【0304】次に、以上説明したエンコーダおよびデコ
ーダは、それ専用のハードウェアによって実現すること
もできるし、コンピュータに、上述したような処理を行
わせるためのプログラムを実行させることによっても実
現することができる。
【0305】図37は、図1のエンコーダまたは図13
のデコーダとして機能するコンピュータの一実施の形態
の構成例を示している。
【0306】ROM(Read Only Memory)201は、例
えば、ブートプログラムなどを記憶している。CPU
(Central Processing Unit)202は、例えば、HD
(HardDisk)206に記憶されたプログラムを、RAM
(Read Only Memory)203上に展開して実行すること
で、各種の処理を行うようになされている。RAM20
3は、CPU202が実行するプログラムや、CPU2
02の処理上必要なデータを一時記憶するようになされ
ている。入力部204は、例えば、キーボードやマウス
などでなり、必要なコマンドやデータを入力するときな
どに操作される。出力部205は、例えば、ディスプレ
イなどでなり、CPU202の制御にしたがったデータ
を表示する。HD206は、CPU202が実行すべき
プログラム、さらには、エンコード対象の画像データ
や、エンコード後のデータ(符号化ビットストリー
ム)、デコード後の画像データなどを記憶するようにな
されている。通信I/F(Interface)207は、外部
との通信を制御することにより、例えば、エンコード対
象の画像データを、外部から受信したり、また、エンコ
ード後の符号化ビットストリームを外部に送信したりす
るようになされている。また、通信I/F207は、外
部でエンコードされた符号化ビットストリームを受信し
たり、また、デコード後の画像データを、外部に送信す
るようにもなされている。
【0307】以上のように構成されるコンピュータのC
PU202に、上述したような処理を行うためのプログ
ラムを実行させることにより、このコンピュータは、図
1に示したエンコーダや、図13に示したデコーダとし
て機能することになる。
【0308】なお、本実施の形態では、VOP_time_incre
mentは、VOPの表示時刻を、1ms単位で表すものとした
が、VOP_time_incrementは、その他、例えば、次のよう
なものとすることも可能である。即ち、1の同期点か
ら、その次の同期点までの間を、N個に分割し、VOPの
表示時刻に対応する分割点が、1の同期点から何番目の
分割点かを表す値を、VOP_time_incrementとすることが
可能である。このようにVOP_time_incrementを定義した
場合、N=1000とすると、VOP_time_incrementは、
VOPの表示時刻を、1ms単位で表すものとなる。なお、こ
の場合、デコーダでは、1の同期点から、その次の同期
点までの間を幾つに分割したかという情報が必要となる
が、同期点の間の分割数は、あらかじめ定めておいても
良いし、あるいは、GOV層よりも上位の階層に含めて、
デコーダに提供するようにしても良い。
【0309】
【発明の効果】本発明の画像符号化装置および画像符号
化方法によれば、複数のVOPがグループ化され、各グ
ループのVOPの符号化を開始した絶対時刻を表す絶対
時刻情報がグループ単位に付加される。さらに、グルー
プ内における相対時刻を、秒精度で表す秒精度時刻情報
が生成され、I−VOP,P−VOP、またはB−VO
Pそれぞれの表示時刻の直前の秒精度時刻情報から、そ
れぞれの表示時刻までの時間を、秒精度より細かい精度
で表す詳細時間情報が生成される。そして、絶対時刻情
報に、I−VOP,P−VOP、またはB−VOPそれ
ぞれに付加されている秒精度時刻情報および詳細時間情
報を加算した時刻が、I−VOP、P−VOP、または
B−VOPそれぞれの表示時刻とされる。従って、絶対
時刻情報、秒精度時刻情報、および詳細時間情報に基づ
いて、I−VOP,P−VOP、またはB−VOPそれ
ぞれの表示時刻を認識し、その認識結果に基づいて、ラ
ンダムアクセスを行うことが可能となる。
【0310】本発明の画像復号装置および画像復号方法
によれば、I−VOP,P−VOP、またはB−VOP
それぞれの表示時刻が、絶対時刻情報に、I−VOP,
P−VOP、またはB−VOPそれぞれに付加されてい
る秒精度時刻情報および詳細時間情報を加算することで
求められる。従って、その表示時刻に基づいて、ランダ
ムアクセスを行うことが可能となる。
【0311】本発明の記録媒体によれば、複数のVOP
をグループ化し、各グループのVOPの符号化を開始し
た絶対時刻を表す絶対時刻情報をグループ単位に付加
し、グループ内における相対時刻を、秒精度で表す秒精
度時刻情報を生成し、I−VOP,P−VOP、または
B−VOPそれぞれの表示時刻の直前の秒精度時刻情報
から、それぞれの表示時刻までの時間を、秒精度より細
かい精度で表す詳細時間情報を生成し、I−VOP,P
−VOP、またはB−VOPの表示時刻を表す情報とし
て、秒精度時刻情報および詳細時間情報を、対応するI
−VOP,P−VOP、またはB−VOPにそれぞれ付
加することにより得られる符号化ビットストリームが記
録されている。そして、絶対時刻情報に、I−VOP,
P−VOP、またはB−VOPそれぞれに付加されてい
る秒精度時刻情報および詳細時間情報を加算した時刻
が、I−VOP、P−VOP、またはB−VOPそれぞ
れの表示時刻を表す。従って、絶対時刻情報、秒精度時
刻情報、および詳細時間情報に基づいて、I−VOP,
P−VOP、またはB−VOPそれぞれの表示時刻を認
識し、その認識結果に基づいて、ランダムアクセスを行
うことが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したエンコーダの一実施の形態の
構成例を示すブロック図である。
【図2】時刻によって、VOの位置、大きさが変化する
ことを説明するための図である。
【図3】図1のVOP符号化部31乃至3Nの構成例を示
すブロック図である。
【図4】空間スケーラビリティを説明するための図であ
る。
【図5】空間スケーラビリティを説明するための図であ
る。
【図6】空間スケーラビリティを説明するための図であ
る。
【図7】空間スケーラビリティを説明するための図であ
る。
【図8】VOPのサイズデータおよびオフセットデータ
の決定方法を説明するための図である。
【図9】図3の下位レイヤ符号化部25の構成例を示す
ブロック図である。
【図10】図3の上位レイヤ符号化部23の構成例を示
すブロック図である。
【図11】空間スケーラビリティを説明するための図で
ある。
【図12】時間スケーラビリティを説明するための図で
ある。
【図13】本発明を適用したデコーダの一実施の形態の
構成例を示すブロック図である。
【図14】図13のVOP復号部721乃至72Nの他の
構成例を示すブロック図である。
【図15】図14の下位レイヤ復号部95の構成例を示
すブロック図である。
【図16】図14の上位レイヤ復号部93の構成例を示
すブロック図である。
【図17】スケーラブル符号化によって得られるビット
ストリームのシンタクスを示す図である。
【図18】VSのシンタクスを示す図である。
【図19】VOのシンタクスを示す図である。
【図20】VOLのシンタクスを示す図である。
【図21】VOPのシンタクスを示す図である。
【図22】modulo_time_baseとVOP_time_incrementとの
関係を示す図である。
【図23】本発明によるビットストリームのシンタクス
を示す図である。
【図24】GOVのシンタクスを示す図である。
【図25】GOV層のtime_code、並びにGOVの先頭
のI−VOPのmodulo_time_baseとVOP_time_increment
の符号化方法を示す図である。
【図26】GOV層のtime_code、並びにGOVの先頭
のI−VOPよりも前に位置するB−VOPのmodulo_t
ime_baseとVOP_time_incrementの符号化方法を示す図で
ある。
【図27】modulo_time_baseとVOP_time_incrementの定
義を変更しない場合のそれらの関係を示す図である。
【図28】B−VOPのmodulo_time_baseとVOP_time_i
ncrementの第1の方法による符号化処理を示す図であ
る。
【図29】I/P−VOPのmodulo_time_baseとVOP_ti
me_incrementの第1および第2の方法による符号化処理
を示すフローチャートである。
【図30】B−VOPのmodulo_time_baseとVOP_time_i
ncrementの第1の方法による符号化処理を示すフローチ
ャートである。
【図31】第1および第2の方法により符号化したI/
P−VOPのmodulo_time_baseとVOP_time_incrementの
復号処理を示すフローチャートである。
【図32】第1の方法により符号化したB−VOPのmo
dulo_time_baseとVOP_time_incrementの復号処理を示す
フローチャートである。
【図33】B−VOPのmodulo_time_baseとVOP_time_i
ncrementの第2の方法による符号化処理を示す図であ
る。
【図34】B−VOPのmodulo_time_baseとVOP_time_i
ncrementの第2の方法による符号化処理を示すフローチ
ャートである。
【図35】第2の方法により符号化したB−VOPのmo
dulo_time_baseとVOP_time_incrementの復号処理を示す
フローチャートである。
【図36】modulo_time_baseについて説明するための図
である。
【図37】本発明を適用したエンコーダおよびデコーダ
の他の実施の形態の構成例を示すブロック図である。
【図38】従来のエンコーダの一例の構成を示すブロッ
ク図である。
【図39】従来のデコーダの一例の構成を示すブロック
図である。
【符号の説明】
1 VO構成部, 21乃至2N VOP構成部, 31
乃至3N VOP符号化部, 4 多重化部, 21
画像階層化部, 23 上位レイヤ符号化部,24 解
像度変換部, 25 下位レイヤ符号化部, 26 多
重化部, 31フレームメモリ, 32 動きベクトル
検出器, 33 演算器, 34 DCT器, 35
量子化器, 36 VLC器, 38 逆量子化器,
39IDCT器, 40 演算器, 41 フレームメ
モリ, 42 動き補償器,53 フレームメモリ,
71 逆多重化部, 721乃至72N VOP復号部,
73 画像再構成部, 91 逆多重化部, 93
上位レイヤ復号部,94 解像度変換部, 95 下位
レイヤ復号部, 102 IVLC器,103 逆量子
化器, 104 IDCT器, 105 演算器, 1
06 フレームメモリ, 107 動き補償器, 11
2 フレームメモリ, 201ROM, 202 CP
U, 203 RAM, 204 入力部, 205出
力部, 206 HD, 207 通信I/F
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−128823(JP,A) 特表 平11−513222(JP,A) 国際公開95/23411(WO,A1) MPEG−4最新情報,電子情報通信 学会技術研究報告,日本,1997年3月19 日,IE96−141,p.1−8 (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68 H04N 5/91 - 5/95

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】 画像を、その画像を構成するオブジェク
    トであるVOP(Video Object Plane)ごとに符号化
    し、その結果得られる符号化ビットストリームを出力す
    る画像符号化装置であって、 イントラ符号化されるVOPをI−VOP(Intra-VO
    P)と、イントラ符号化または前方予測符号化のうちの
    いずれかで符号化されるVOPをP−VOP(Predicti
    ve-VOP)と、イントラ符号化、前方予測符号化、後方予
    測符号化、または両方向予測符号化のうちのいずれかで
    符号化されるVOPをB−VOP(Biderectionally Pr
    edictive-VOP)と、それぞれするとき、 複数の前記VOPをグループ化し、各グループのVOP
    の符号化を開始した絶対時刻を表す絶対時刻情報を前記
    グループ単位に付加する第1の付加手段と、前記グルー
    プ内における相対時刻を、秒精度で表す秒精度時刻情報
    を生成する秒精度時刻情報生成手段と、 前記I−VOP,P−VOP、またはB−VOPそれぞ
    れの表示時刻の直前の前記秒精度時刻情報から、それぞ
    れの表示時刻までの時間を、秒精度より細かい精度で表
    す詳細時間情報を生成する詳細時間情報生成手段と、 前記I−VOP,P−VOP、またはB−VOPの表示
    時刻を表す情報として、前記秒精度時刻情報および詳細
    時間情報を、対応する前記I−VOP,P−VOP、ま
    たはB−VOPにそれぞれ付加する第2の付加手段とを
    備え 前記絶対時刻情報に、前記I−VOP,P−VOP、ま
    たはB−VOPそれぞれに付加されている前記秒精度時
    刻情報および詳細時間情報を加算した時刻を、前記I−
    VOP、P−VOP、またはB−VOPそれぞれの表示
    時刻とする ことを特徴とする画像符号化装置。
  2. 【請求項2】 画像を、その画像を構成するオブジェク
    トであるVOP(Video Object Plane)ごとに符号化
    し、その結果得られる符号化ビットストリームを出力す
    る画像符号化方法であって、 イントラ符号化されるVOPをI−VOP(Intra-VO
    P)と、イントラ符号化または前方予測符号化のうちの
    いずれかで符号化されるVOPをP−VOP(Predicti
    ve-VOP)と、イントラ符号化、前方予測符号化、後方予
    測符号化、または両方向予測符号化のうちのいずれかで
    符号化されるVOPをB−VOP(Biderectionally Pr
    edictive-VOP)と、それぞれするとき、 複数の前記VOPをグループ化し、各グループのVOP
    の符号化を開始した絶対時刻を表す絶対時刻情報を前記
    グループ単位に付加する第1の付加ステップと、 前記グループ内における相対時刻を、秒精度で表す秒精
    度時刻情報を生成する秒精度時刻情報生成ステップと、 前記I−VOP,P−VOP、またはB−VOPそれぞ
    れの表示時刻の直前の前記秒精度時刻情報から、それぞ
    れの表示時刻までの時間を、秒精度より細かい精度で表
    す詳細時間情報を生成する詳細時間情報生成ステップ
    と、 前記I−VOP,P−VOP、またはB−VOPの表示
    時刻を表す情報として、前記秒精度時刻情報および詳細
    時間情報を、対応する前記I−VOP,P−VOP、ま
    たはB−VOPにそれぞれ付加する第2の付加ステップ
    とを備え 前記絶対時刻情報に、前記I−VOP,P−VOP、ま
    たはB−VOPそれぞれに付加されている前記秒精度時
    刻情報および詳細時間情報を加算した時刻を、前記I−
    VOP、P−VOP、またはB−VOPそれぞれの表示
    時刻とする ことを特徴とする画像符号化方法。
  3. 【請求項3】 画像を、その画像を構成するオブジェク
    トであるVOP(Video Object Plane)ごとに符号化し
    て得られる符号化ビットストリームを復号する画像復号
    装置であって、 イントラ符号化されるVOPをI−VOP(Intra-VO
    P)と、イントラ符号化または前方予測符号化のうちの
    いずれかで符号化されるVOPをP−VOP(Predicti
    ve-VOP)と、イントラ符号化、前方予測符号化、後方予
    測符号化、または両方向予測符号化のうちのいずれかで
    符号化されるVOPをB−VOP(Biderectionally Pr
    edictive-VOP)と、それぞれするとともに、 複数の前記VOPがグループ化され、各グループのVO
    Pの符号化を開始した絶対時刻を表す絶対時刻情報が前
    記グループ単位に付加されており、 前記グループ内における相対時刻を、秒精度で表す秒精
    度時刻情報と、前記I−VOP,P−VOP、またはB
    −VOPそれぞれの表示時刻の直前の前記秒精度時刻情
    報から、それぞれの表示時刻までの時間を、秒精度より
    細かい精度で表す詳細時間情報とが、前記表示時刻を表
    す情報として、対応する前記I−VOP,P−VOP、
    またはB−VOPにそれぞれ付加されているとき、前記絶対時刻情報に、前記I−VOP,P−VOP、ま
    たはB−VOPそれぞれに付加されている前記秒精度時
    刻情報および詳細時間情報を加算することで、前記I−
    VOP、P−VOP、またはB−VOPそれぞれの表示
    時刻を 求める表示時刻算出手段と、 前記I−VOP,P−VOP、またはB−VOPを、対
    応する表示時刻にしたがって復号する復号手段とを備え
    ることを特徴とする画像復号装置。
  4. 【請求項4】 画像を、その画像を構成するオブジェク
    トであるVOP(Video Object Plane)ごとに符号化し
    て得られる符号化ビットストリームを復号する画像復号
    方法であって、 イントラ符号化されるVOPをI−VOP(Intra-VO
    P)と、イントラ符号化または前方予測符号化のうちの
    いずれかで符号化されるVOPをP−VOP(Predicti
    ve-VOP)と、イントラ符号化、前方予測符号化、後方予
    測符号化、または両方向予測符号化のうちのいずれかで
    符号化されるVOPをB−VOP(Biderectionally Pr
    edictive-VOP)と、それぞれするとともに、 複数の前記VOPがグループ化され、各グループのVO
    Pの符号化を開始した絶対時刻を表す絶対時刻情報が前
    記グループ単位に付加されており、 前記グループ内における相対時刻を、秒精度で表す秒精
    度時刻情報と、前記I−VOP,P−VOP、またはB
    −VOPそれぞれの表示時刻の直前の前記秒精度時刻情
    報から、それぞれの表示時刻までの時間を、秒精度より
    細かい精度で表す詳細時間情報とが、前記表示時刻を表
    す情報として、対応する前記I−VOP,P−VOP、
    またはB−VOPにそれぞれ付加されているとき、前記絶対時刻情報に、前記I−VOP,P−VOP、ま
    たはB−VOPそれぞれに付加されている前記秒精度時
    刻情報および詳細時間情報を加算することで、 前記I−
    VOP、P−VOP、またはB−VOPそれぞれの表示
    時刻を 求める表示時刻算出ステップと、 前記I−VOP,P−VOP、またはB−VOPを、対
    応する表示時刻にしたがって復号する復号ステップとを
    備えることを特徴とする画像復号方法。
  5. 【請求項5】 画像を、その画像を構成するオブジェク
    トであるVOP(Video Object Plane)ごとに符号化し
    て得られる符号化ビットストリームが記録されている記
    録媒体であって、 イントラ符号化されるVOPをI−VOP(Intra-VO
    P)と、イントラ符号化または前方予測符号化のうちの
    いずれかで符号化されるVOPをP−VOP(Predicti
    ve-VOP)と、イントラ符号化、前方予測符号化、後方予
    測符号化、または両方向予測符号化のうちのいずれかで
    符号化されるVOPをB−VOP(Biderectionally Pr
    edictive-VOP)と、それぞれするとき、 複数の前記VOPをグループ化し、各グループのVOP
    の符号化を開始した絶対時刻を表す絶対時刻情報を前記
    グループ単位に付加し、 前記グループ内における相対時刻を、秒精度で表す秒精
    度時刻情報を生成し、 前記I−VOP,P−VOP、またはB−VOPそれぞ
    れの表示時刻の直前の前記秒精度時刻情報から、それぞ
    れの表示時刻までの時間を、秒精度より細かい精度で表
    す詳細時間情報を生成し、 前記I−VOP,P−VOP、またはB−VOPの表示
    時刻を表す情報として、前記秒精度時刻情報および詳細
    時間情報を、対応する前記I−VOP,P−VOP、ま
    たはB−VOPにそれぞれ付加することにより得られる
    前記符号化ビットストリームが記録されており、 前記絶対時刻情報に、前記I−VOP,P−VOP、ま
    たはB−VOPそれぞれに付加されている前記秒精度時
    刻情報および詳細時間情報を加算した時刻が、前記I−
    VOP、P−VOP、またはB−VOPそれぞれの表示
    時刻を表す ことを特徴とする記録媒体。
JP2000176666A 1997-04-01 2000-06-13 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体 Expired - Fee Related JP3380983B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9968397 1997-04-01
JP9-99683 1997-04-01

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP08075898A Division JP3380980B2 (ja) 1997-04-01 1998-03-27 画像符号化方法、並びに画像復号方法および画像復号装置

Publications (2)

Publication Number Publication Date
JP2001036911A JP2001036911A (ja) 2001-02-09
JP3380983B2 true JP3380983B2 (ja) 2003-02-24

Family

ID=14253845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000176666A Expired - Fee Related JP3380983B2 (ja) 1997-04-01 2000-06-13 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体

Country Status (14)

Country Link
US (5) US6414991B1 (ja)
EP (2) EP1152622B9 (ja)
JP (1) JP3380983B2 (ja)
KR (2) KR100417932B1 (ja)
CN (3) CN100579230C (ja)
AT (2) ATE425637T1 (ja)
AU (1) AU732452B2 (ja)
CA (1) CA2255923C (ja)
ES (2) ES2323358T3 (ja)
HK (3) HK1043461B (ja)
ID (1) ID20680A (ja)
IL (2) IL127274A (ja)
TW (1) TW398150B (ja)
WO (1) WO1998044742A1 (ja)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100417932B1 (ko) * 1997-04-01 2004-02-11 소니 가부시끼 가이샤 영상 인코더, 영상 부호화 방법, 영상 디코더 및 영상 복호화 방법
JP4261630B2 (ja) * 1998-02-04 2009-04-30 キヤノン株式会社 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体
JP2000013790A (ja) 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
US6637031B1 (en) * 1998-12-04 2003-10-21 Microsoft Corporation Multimedia presentation latency minimization
EP1018840A3 (en) * 1998-12-08 2005-12-21 Canon Kabushiki Kaisha Digital receiving apparatus and method
ID24586A (id) * 1998-12-21 2000-07-27 Matsushita Electric Ind Co Ltd Perangkat dan metode penyelarasan waktu dengan menggunakan modul basis waktu dan resolusi peningkatan waktu
US6499060B1 (en) 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
US7589789B2 (en) * 1999-05-08 2009-09-15 Lg Electronics Inc. Video converting device and method for digital TV
US6639943B1 (en) * 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
US7020195B1 (en) * 1999-12-10 2006-03-28 Microsoft Corporation Layered coding and decoding of image data
WO2001045425A1 (en) * 1999-12-14 2001-06-21 Scientific-Atlanta, Inc. System and method for adaptive decoding of a video signal with coordinated resource allocation
US6697426B1 (en) * 2000-03-17 2004-02-24 Koninklijke Philips Electronics N.V. Reduction of layer-decoding complexity by reordering the transmission of enhancement layer frames
JP4208398B2 (ja) * 2000-10-05 2009-01-14 株式会社東芝 動画像復号再生装置、動画像復号再生方法及びマルチメディア情報受信装置
US6618445B1 (en) * 2000-11-09 2003-09-09 Koninklijke Philips Electronics N.V. Scalable MPEG-2 video decoder
EP1336303A2 (en) * 2000-11-23 2003-08-20 Koninklijke Philips Electronics N.V. Video coding method
US7397851B2 (en) * 2001-05-10 2008-07-08 Roman Kendyl A Separate plane compression
JP2005506815A (ja) * 2001-10-26 2005-03-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 空間拡張可能圧縮のための方法及び装置
JP2005513926A (ja) * 2001-12-20 2005-05-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオの符号化及び復号の方法
US7274857B2 (en) 2001-12-31 2007-09-25 Scientific-Atlanta, Inc. Trick modes for compressed video streams
US7483487B2 (en) * 2002-04-11 2009-01-27 Microsoft Corporation Streaming methods and systems
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
JP4007594B2 (ja) * 2002-09-26 2007-11-14 株式会社東芝 動画像符号化装置及び方法、動画像符号化方式変換装置及び方法
US7864838B2 (en) * 2002-10-01 2011-01-04 Panasonic Corporation Picture encoding device, image decoding device and their methods
US7738552B2 (en) * 2002-12-06 2010-06-15 Broadcom Company Processing data streams
KR20060105408A (ko) * 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US8761252B2 (en) * 2003-03-27 2014-06-24 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
KR20060109247A (ko) * 2005-04-13 2006-10-19 엘지전자 주식회사 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치
WO2004093001A1 (en) * 2003-04-11 2004-10-28 Sumtotal Llc Adaptive subtraction image compression
US8085844B2 (en) * 2003-09-07 2011-12-27 Microsoft Corporation Signaling reference frame distances
US7577198B2 (en) 2003-09-07 2009-08-18 Microsoft Corporation Number of reference fields for an interlaced forward-predicted field
US7966642B2 (en) * 2003-09-15 2011-06-21 Nair Ajith N Resource-adaptive management of video storage
US20050100098A1 (en) * 2003-10-23 2005-05-12 Gong-Sheng Lin Highly integrated mpeg-4 video decoding unit
SE0303085D0 (sv) * 2003-11-18 2003-11-18 Scalado Ab Method for creating a compressed digital image representation and image representation format
US20050135478A1 (en) * 2003-12-18 2005-06-23 Van Der Schaar Mihaela Reduction of layer-decoding complexity by reordering the transmission of enhancement layer frames
US8600217B2 (en) * 2004-07-14 2013-12-03 Arturo A. Rodriguez System and method for improving quality of displayed picture during trick modes
JP2008507194A (ja) * 2004-07-15 2008-03-06 サムスン エレクトロニクス カンパニー リミテッド 動き情報符号化装置及び方法、動き情報復号化装置及び方法、これを採用したスケーラブル映像符号化装置及び方法とスケーラブル映像復号化装置及び方法
US7792190B2 (en) * 2004-09-09 2010-09-07 Media Tek Singapore Pte Ltd. Inserting a high resolution still image into a lower resolution video stream
US20090080519A1 (en) * 2004-10-18 2009-03-26 Electronics And Telecommunications Research Institute Method for encoding/decoding video sequence based on mctf using adaptively-adjusted gop structure
WO2006049412A1 (en) * 2004-11-01 2006-05-11 Electronics And Telecommunications Research Institute Method for encoding/decoding a video sequence based on hierarchical b-picture using adaptively-adjusted gop structure
US8634413B2 (en) * 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
US8175168B2 (en) * 2005-03-18 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for picture up-sampling
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
US7725799B2 (en) * 2005-03-31 2010-05-25 Qualcomm Incorporated Power savings in hierarchically coded modulation
US8660180B2 (en) * 2005-04-01 2014-02-25 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
EP1880553A4 (en) * 2005-04-13 2011-03-02 Lg Electronics Inc METHOD AND DEVICE FOR DECODING A VIDEO SIGNAL USING REFERENCE PICTURES
US8619860B2 (en) * 2005-05-03 2013-12-31 Qualcomm Incorporated System and method for scalable encoding and decoding of multimedia data using multiple layers
US8842666B2 (en) * 2005-05-13 2014-09-23 Qualcomm Incorporated Methods and apparatus for packetization of content for transmission over a network
US20070014346A1 (en) * 2005-07-13 2007-01-18 Nokia Corporation Coding dependency indication in scalable video coding
US8755434B2 (en) * 2005-07-22 2014-06-17 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
US20070031054A1 (en) * 2005-08-08 2007-02-08 Neomagic Israel Ltd. Encoding DCT coordinates
KR100891662B1 (ko) * 2005-10-05 2009-04-02 엘지전자 주식회사 비디오 신호 디코딩 및 인코딩 방법
KR20070038396A (ko) * 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
FR2895172A1 (fr) * 2005-12-20 2007-06-22 Canon Kk Procede et dispositif de codage d'un flux video code suivant un codage hierarchique, flux de donnees, procede et dispositif de decodage associes
US20070230567A1 (en) * 2006-03-28 2007-10-04 Nokia Corporation Slice groups and data partitioning in scalable video coding
US20080043832A1 (en) * 2006-08-16 2008-02-21 Microsoft Corporation Techniques for variable resolution encoding and decoding of digital video
US8773494B2 (en) 2006-08-29 2014-07-08 Microsoft Corporation Techniques for managing visual compositions for a multimedia conference call
US20090033791A1 (en) * 2007-07-31 2009-02-05 Scientific-Atlanta, Inc. Video processing systems and methods
US20090167775A1 (en) * 2007-12-30 2009-07-02 Ning Lu Motion estimation compatible with multiple standards
US8300696B2 (en) 2008-07-25 2012-10-30 Cisco Technology, Inc. Transcoding for systems operating under plural video coding specifications
KR101557504B1 (ko) * 2009-04-13 2015-10-07 삼성전자주식회사 채널 적응형 비디오 전송 방법, 이를 이용한 장치 및 이를 제공하는 시스템
WO2011005624A1 (en) 2009-07-04 2011-01-13 Dolby Laboratories Licensing Corporation Encoding and decoding architectures for format compatible 3d video delivery
US8681858B2 (en) * 2009-12-23 2014-03-25 General Instrument Corporation Rate control for two-pass encoder
US8731152B2 (en) 2010-06-18 2014-05-20 Microsoft Corporation Reducing use of periodic key frames in video conferencing
WO2012047496A1 (en) * 2010-10-08 2012-04-12 Dolby Laboratories Licensing Corporation Scalable frame compatible multiview encoding and decoding methods
US8553109B2 (en) * 2011-07-20 2013-10-08 Broadcom Corporation Concurrent image processing for generating an output image
KR102059060B1 (ko) 2011-09-28 2019-12-24 선 페이턴트 트러스트 화상 부호화 방법, 화상 복호화 방법, 화상 부호화 장치, 화상 복호화 장치 및 화상 부호화 복호화 장치
US9161060B2 (en) * 2011-09-30 2015-10-13 Broadcom Corporation Multi-mode error concealment, recovery and resilience coding
CN104620583A (zh) * 2012-05-14 2015-05-13 卢卡·罗萨托 基于支持信息的残差数据的编码和重构
US9961363B2 (en) 2012-10-09 2018-05-01 Intellectual Discovery Co., Ltd. Inter-layer prediction method for multi-layer video and device therefor
KR20140087971A (ko) 2012-12-26 2014-07-09 한국전자통신연구원 계층적 비디오 부호화에서 다중참조계층을 적용한 화면간 부/복호화 방법 및 그 장치
US9998750B2 (en) 2013-03-15 2018-06-12 Cisco Technology, Inc. Systems and methods for guided conversion of video from a first to a second compression format
US9998765B2 (en) * 2014-07-16 2018-06-12 Qualcomm Incorporated Transport stream for carriage of video coding extensions

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5060285A (en) 1989-05-19 1991-10-22 Gte Laboratories Incorporated Hierarchical variable block size address-vector quantization using inter-block correlation
US5414469A (en) * 1991-10-31 1995-05-09 International Business Machines Corporation Motion video compression system with multiresolution features
GB9206860D0 (en) * 1992-03-27 1992-05-13 British Telecomm Two-layer video coder
KR100317868B1 (ko) * 1993-07-12 2002-04-24 이데이 노부유끼 화상복호화방법및장치와,화상부호화방법및장치
CA2126467A1 (en) * 1993-07-13 1995-01-14 Barin Geoffry Haskell Scalable encoding and decoding of high-resolution progressive video
US5515377A (en) * 1993-09-02 1996-05-07 At&T Corp. Adaptive video encoder for two-layer encoding of video signals on ATM (asynchronous transfer mode) networks
KR960020018A (ko) * 1994-11-17 1996-06-17 배순훈 가변길이복호화장치
JPH08294127A (ja) * 1995-04-24 1996-11-05 Matsushita Electric Ind Co Ltd 画像圧縮装置
US5828788A (en) * 1995-06-29 1998-10-27 Thomson Multimedia, S.A. System for processing data in variable segments and with variable data resolution
JP3788823B2 (ja) * 1995-10-27 2006-06-21 株式会社東芝 動画像符号化装置および動画像復号化装置
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US6111596A (en) * 1995-12-29 2000-08-29 Lucent Technologies Inc. Gain and offset correction for efficient stereoscopic coding and improved display
JP3186775B2 (ja) * 1996-07-05 2001-07-11 松下電器産業株式会社 Vopの時刻復号化方法
EP0818930B1 (en) * 1996-07-08 2002-05-22 Hyundai Curitel, Inc. Video coding method
US5886736A (en) * 1996-10-24 1999-03-23 General Instrument Corporation Synchronization of a stereoscopic video sequence
US6043846A (en) * 1996-11-15 2000-03-28 Matsushita Electric Industrial Co., Ltd. Prediction apparatus and method for improving coding efficiency in scalable video coding
US6148026A (en) * 1997-01-08 2000-11-14 At&T Corp. Mesh node coding to enable object based functionalities within a motion compensated transform video coder
KR100417932B1 (ko) * 1997-04-01 2004-02-11 소니 가부시끼 가이샤 영상 인코더, 영상 부호화 방법, 영상 디코더 및 영상 복호화 방법
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
US6233356B1 (en) * 1997-07-08 2001-05-15 At&T Corp. Generalized scalability for video coder based on video objects
WO1999021367A1 (fr) * 1997-10-20 1999-04-29 Mitsubishi Denki Kabushiki Kaisha Codeur et decodeur d'image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MPEG−4最新情報,電子情報通信学会技術研究報告,日本,1997年3月19日,IE96−141,p.1−8

Also Published As

Publication number Publication date
ES2323482T3 (es) 2009-07-16
US20020114391A1 (en) 2002-08-22
US6643328B2 (en) 2003-11-04
EP1152622A1 (en) 2001-11-07
CN1630375A (zh) 2005-06-22
JP2001036911A (ja) 2001-02-09
EP0914007A4 (en) 2001-11-07
EP1152622B1 (en) 2009-03-11
CN1220804A (zh) 1999-06-23
EP0914007B1 (en) 2009-03-11
IL127274A0 (en) 1999-09-22
CN1312655A (zh) 2001-09-12
WO1998044742A1 (en) 1998-10-08
CA2255923C (en) 2005-06-07
US20020122486A1 (en) 2002-09-05
CN100579230C (zh) 2010-01-06
EP0914007A1 (en) 1999-05-06
KR20000016220A (ko) 2000-03-25
CN1186944C (zh) 2005-01-26
EP1152622B9 (en) 2009-09-09
US6414991B1 (en) 2002-07-02
HK1043707A1 (en) 2002-09-20
ES2323358T3 (es) 2009-07-14
US20030133502A1 (en) 2003-07-17
EP0914007B9 (en) 2009-09-09
HK1043461A1 (en) 2002-09-13
CN1185876C (zh) 2005-01-19
AU732452B2 (en) 2001-04-26
KR100418141B1 (ko) 2004-06-09
KR100417932B1 (ko) 2004-02-11
HK1043461B (zh) 2005-08-19
US6535559B2 (en) 2003-03-18
TW398150B (en) 2000-07-11
ATE425637T1 (de) 2009-03-15
ATE425638T1 (de) 2009-03-15
US7302002B2 (en) 2007-11-27
IL167288A (en) 2012-03-29
HK1080650A1 (en) 2006-04-28
US20020118750A1 (en) 2002-08-29
CA2255923A1 (en) 1998-10-08
ID20680A (id) 1999-02-11
IL127274A (en) 2006-06-11
AU6520298A (en) 1998-10-22

Similar Documents

Publication Publication Date Title
JP3380983B2 (ja) 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体
US6427027B1 (en) Picture encoding and/or decoding apparatus and method for providing scalability of a video object whose position changes with time and a recording medium having the same recorded thereon
KR100629092B1 (ko) 화상 인코딩 장치와 방법, 화상 디코딩 장치와 방법, 및 제공 매체
JP3371191B2 (ja) 画像信号の符号化方法及び復号方法、並びに、符号化装置及び復号装置
JP3380980B2 (ja) 画像符号化方法、並びに画像復号方法および画像復号装置
JP3345887B2 (ja) 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体
CA2421090C (en) Picture coding device, picture coding method, picture decoding device, picture decoding method, and providing medium
JP2001045496A (ja) 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、並びに記録媒体および記録方法
JP3263812B2 (ja) 画像符号化装置および画像符号化方法、並びに画像復号化装置および画像復号化方法
AU731425B2 (en) Picture encoding and decoding
JP2001054120A (ja) 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071220

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081220

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091220

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091220

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101220

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101220

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111220

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111220

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121220

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121220

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131220

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees