JP2001036911A - 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体 - Google Patents
画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体Info
- Publication number
- JP2001036911A JP2001036911A JP2000176666A JP2000176666A JP2001036911A JP 2001036911 A JP2001036911 A JP 2001036911A JP 2000176666 A JP2000176666 A JP 2000176666A JP 2000176666 A JP2000176666 A JP 2000176666A JP 2001036911 A JP2001036911 A JP 2001036911A
- Authority
- JP
- Japan
- Prior art keywords
- vop
- time
- precision
- image
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/177—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/29—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Numerical Control (AREA)
Abstract
秒精度の符号化開始絶対時刻が配置されるGOV(Grou
p of Video Object Plane)層を設ける。GOV層は、
符号化ビットストリームの先頭だけでなく、その他の任
意の位置に挿入することができるものとする。さらに、
符号化開始絶対時刻を基準とする相対時刻を1秒単位で
表すmodulo_time_base、およびmodulo_time_baseによっ
て示される時刻(同期点)からの時刻を1ミリ秒単位で
表すVOP_time_incrementによって、GOVを構成する各
VOP(Video Object Plane)の表示時刻を表す。
Description
よび画像符号化方法、画像復号装置および画像復号方
法、並びに記録媒体に関する。特に、例えば、動画像デ
ータを、光磁気ディスクや磁気テープなどの記録媒体に
記録し、これを再生してディスプレイなどに表示した
り、テレビ会議システム、テレビ電話システム、放送用
機器、マルチメディアデータベース検索システムなどの
ように、動画像データを伝送路を介して送信側から受信
側に伝送し、受信側において、受信された動画像データ
を表示する場合や、編集して記録する場合などに用いて
好適な画像符号化装置および画像符号化方法、画像復号
装置および画像復号方法、並びに記録媒体に関する。
話システムなどのように、動画像データを遠隔地に伝送
するシステムにおいては、伝送路を効率良く利用するた
め、画像データを、そのライン相関やフレーム間相関を
利用して圧縮符号化するようになされている。
ものとしてMPEG(Moving Picture Experts Group)(蓄
積用動画像符号化)方式がある。これはISO−IEC
/JTC1/SC2/WG11において議論され、標準
案として提案されたものであり、動き補償予測符号化と
DCT(Discrete Cosine Transform)符号化を組み合
わせたハイブリッド方式が採用されている。
機能に対応するために、いくつかのプロファイルおよび
レベルが定義されている。最も基本となるのが、メイン
プロファイルメインレベル(MP@ML(Main Profile
at Main Level))である。
Lのエンコーダの一例の構成を示している。
リ31に入力され、一時記憶される。そして、動きベク
トル検出器32は、フレームメモリ31に記憶された画
像データを、例えば、16画素×16画素などで構成さ
れるマクロブロック単位で読み出し、その動きベクトル
を検出する。
は、各フレームの画像データを、Iピクチャ(フレーム
内符号化)、Pピクチャ(前方予測符号化)、またはB
ピクチャ(両方向予測符号化)のうちのいずれかとして
処理する。なお、シーケンシャルに入力される各フレー
ムの画像を、I,P,Bピクチャのいずれのピクチャと
して処理するかは、例えば、予め定められている(例え
ば、I,B,P,B,P,・・・B,Pとして処理され
る)。
ムメモリ31に記憶された画像データの中の、予め定め
られた所定の参照フレームを参照し、その参照フレーム
と、現在符号化の対象となっているフレームの16画素
×16ラインの小ブロック(マクロブロック)とをパタ
ーンマッチング(ブロックマッチング)することによ
り、そのマクロブロックの動きベクトルを検出する。
モードには、イントラ符号化(フレーム内符号化)、前
方予測符号化、後方予測符号化、両方向予測符号化の4
種類があり、Iピクチャはイントラ符号化され、Pピク
チャはイントラ符号化または前方予測符号化のいずれか
で符号化され、Bピクチャはイントラ符号化、前方予測
符号化、後方予測符号化、または両方法予測符号化のい
ずれかで符号化される。
チャについては、予測モードとしてイントラ符号化モー
ドを設定する。この場合、動きベクトル検出器32は、
動きベクトルの検出は行わず、予測モード(イントラ予
測モード)を、VLC(可変長符号化)器36および動
き補償器42に出力する。
チャについては、前方予測を行い、その動きベクトルを
検出する。さらに、動きベクトル検出器32は、前方予
測を行うことにより生じる予測誤差と、符号化対象のマ
クロブロック(Pピクチャのマクロブロック)の、例え
ば分散とを比較する。その比較の結果、マクロブロック
の分散の方が予測誤差より小さい場合、動きベクトル検
出器32は、予測モードとしてイントラ符号化モードを
設定し、VLC器36および動き補償器42に出力す
る。また、動きベクトル検出器32は、前方予測を行う
ことにより生じる予測誤差の方が小さければ、予測モー
ドとして前方予測符号化モードを設定し、検出した動き
ベクトルとともに、VLC器36および動き補償器42
に出力する。
クチャについては、前方予測、後方予測、および両方向
予測を行い、それぞれの動きベクトルを検出する。そし
て、動きベクトル検出器32は、前方予測、後方予測、
および両方向予測についての予測誤差の中の最小のもの
(以下、適宜、最小予測誤差という)を検出し、その最
小予測誤差と、符号化対象のマクロブロック(Bピクチ
ャのマクロブロック)の、例えば分散とを比較する。そ
の比較の結果、マクロブロックの分散の方が最小予測誤
差より小さい場合、動きベクトル検出器32は、予測モ
ードとしてイントラ符号化モードを設定し、VLC器3
6および動き補償器42に出力する。また、動きベクト
ル検出器32は、最小予測誤差の方が小さければ、予測
モードとして、その最小予測誤差が得られた予測モード
を設定し、対応する動きベクトルとともに、VLC器3
6および動き補償器42に出力する。
2から予測モードと動きベクトルの両方を受信すると、
その予測モードおよび動きベクトルにしたがって、フレ
ームメモリ41に記憶されている、符号化され、かつ既
に局所復号された画像データを読み出し、この読み出さ
れた画像データを、予測画像データとして、演算器33
および40に供給する。
フレームメモリ31から読み出した画像データと同一の
マクロブロックをフレームメモリ31から読み出し、そ
のマクロブロックと、動き補償器42からの予測画像と
の差分を演算する。この差分値は、DCT器34に供給
される。
出器32から予測モードのみを受信した場合、即ち、予
測モードがイントラ符号化モードである場合には、予測
画像を出力しない。この場合、演算器33(演算器40
も同様)は、特に処理を行わず、フレームメモリ31か
ら読み出したマクロブロックを、そのままDCT器34
に出力する。
タに対して、DCT処理が施され、その結果得られるD
CT係数が、量子化器35に供給される。量子化器35
では、バッファ37のデータ蓄積量(バッファ37に記
憶されているデータの量)(バッファフィードバック)
に対応して量子化ステップ(量子化スケール)が設定さ
れ、その量子化ステップで、DCT器34からのDCT
係数が量子化される。この量子化されたDCT係数(以
下、適宜、量子化係数という)は、設定された量子化ス
テップとともに、VLC器36に供給される。
される量子化係数が、例えばハフマン符号などの可変長
符号に変換され、バッファ37に出力される。さらに、
VLC器36は、量子化器35からの量子化ステップ、
動きベクトル検出器32からの予測モード(イントラ符
号化(画像内予測符号化)、前方予測符号化、後方予測
符号化、または両方向予測符号化のうちのいずれが設定
されたかを示すモード)および動きベクトルも可変長符
号化し、その結果得られる符号化データを、バッフ37
に出力する。
化データを一時蓄積することにより、そのデータ量を平
滑化し、符号化ビットストリームとして、例えば、伝送
路に出力し、または記録媒体に記録する。
を量子化器35に出力しており、量子化器35は、この
バッファ37からのデータ蓄積量にしたがって量子化ス
テップを設定する。即ち、量子化器35は、バッファ3
7がオーバーフローしそうなとき、量子化ステップを大
きくし、これにより、量子化係数のデータ量を低下させ
る。また、量子化器35は、バッファ37がアンダーフ
ローしそうなとき、量子化ステップを小さくし、これに
より、量子化係数のデータ量を増大させる。このように
して、バッファ37のオーバフローとアンダフローを防
止するようになっている。
化ステップは、VLC器36だけでなく、逆量子化器3
8にも供給されるようになされている。逆量子化器38
では、量子化器35からの量子化係数が、同じく量子化
器35からの量子化ステップにしたがって逆量子化さ
れ、これによりDCT係数に変換される。このDCT係
数は、IDCT器(逆DCT器)39に供給される。I
DCT器39では、DCT係数が逆DCT処理され、そ
の処理の結果得られるデータが、演算器40に供給され
る。
ータの他、上述したように、動き補償器42から、演算
器33に供給されている予測画像と同一のデータが供給
されている。演算器40は、IDCT器39の出力デー
タ(予測残差(差分データ))と、動き補償器42から
の予測画像データとを加算することで、元の画像データ
を局所復号し、この局所復号された画像データ(局所復
号画像データ)が出力される(但し、予測モードがイン
トラ符号化である場合には、IDCT器39の出力デー
タは、演算器40をスルーして、そのまま、局所復号画
像データとして、フレームメモリ41に供給される)。
なお、この復号画像データは、受信側において得られる
復号画像データと同一のものである。
タ(局所復号画像データ)は、フレームメモリ41に供
給されて記憶され、その後、インター符号化(前方予測
符号化、後方予測符号化、量方向予測符号化)される画
像に対する参照画像データ(参照フレーム)として用い
られる。
出力される符号化データを復号する、MPEGにおける
MP@MLのデコーダの一例の構成を示している。
トストリーム(符号化データ)が図示せぬ受信装置で受
信され、または記録媒体に記録された符号化ビットスト
リーム(符号化データ)が図示せぬ再生装置で再生さ
れ、バッファ101に供給されて記憶される。
器))102は、バッファ101に記憶された符号化デ
ータを読み出し、可変長復号することにより、その符号
化データを、マクロブロック単位で、動きベクトル、予
測モード、量子化ステップ、および量子化係数に分離す
る。これらのデータのうち、動きベクトルおよび予測モ
ードは動き補償器107に供給され、量子化ステップお
よびマクロブロックの量子化係数は逆量子化器103に
供給される。
り供給されたマクロブロックの量子化係数を、同じくI
VLC器102より供給された量子化ステップにしたが
って逆量子化し、その結果得られるDCT係数を、ID
CT器104に出力する。IDCT器104は、逆量子
化器103からのマクロブロックのDCT係数を逆DC
Tし、演算器105に供給する。
力データの他、動き補償器107の出力データも供給さ
れている。即ち、動き補償器107は、フレームメモリ
106に記憶されている、既に復号された画像データ
を、図38の動き補償器42における場合と同様に、I
VLC器102からの動きベクトルおよび予測モードに
したがって読み出し、予測画像データとして、演算器1
05に供給する。演算器105は、IDCT器104の
出力データ(予測残差(差分値))と、動き補償器10
7からの予測画像データとを加算することで、元の画像
データを復号する。この復号画像データは、フレームメ
モリ106に供給されて記憶される。なお、IDCT器
104の出力データが、イントラ符号化されたものであ
る場合には、その出力データは、演算器105をスルー
して、復号画像データとして、そのままフレームメモリ
106に供給されて記憶される。
像データは、その後に復号される画像データの参照画像
データとして用いられる。さらに、復号画像データは、
出力再生画像として、例えば、図示せぬディスプレイな
どに供給されて表示される。
ャは、参照画像データとして用いられないため、エンコ
ーダまたはデコーダのそれぞれにおいて、フレームメモ
リ41(図38)または106(図39)には記憶され
ない。
に示したエンコーダ、デコーダは、MPEG1/2の規
格に準拠したものであるが、現在、画像を構成する物体
などのオブジェクトのシーケンスであるVO(Video Ob
ject)単位で符号化を行う方式につき、ISO−IEC
/JTC1/SC29/WG11において、MPEG
(Moving Picture Experts Group)4として標準化作業
が進められている。
て、通信の分野で利用されるものとして、標準化作業が
進められていたため、MPEG1/2において規定され
ているGOP(Group Of Picture)は、MPEG4では
規定されておらず、従って、MPEG4が蓄積メディア
に利用された場合には、効率的なランダムアクセスが困
難になることが予想される。
たものであり、効率的なランダムアクセスをすることが
できるようにするものである。
号化装置は、秒精度の時刻を表す秒精度時刻情報を生成
する秒精度時刻情報生成手段と、I−VOP,P−VO
P、またはB−VOPそれぞれの表示時刻の直前の秒精
度時刻情報から、それぞれの表示時刻までの時間を、秒
精度より細かい精度で表す詳細時間情報を生成する詳細
時間情報生成手段とを備えることを特徴とする。
度の時刻を表す秒精度時刻情報を生成する秒精度時刻情
報生成ステップと、I−VOP,P−VOP、またはB
−VOPそれぞれの表示時刻の直前の秒精度時刻情報か
ら、それぞれの表示時刻までの時間を、秒精度より細か
い精度で表す詳細時間情報を生成する詳細時間情報生成
ステップとを備えることを特徴とする。
OP,P−VOP、またはB−VOPそれぞれの表示時
刻を、秒精度時刻情報および詳細時間情報に基づいて求
める表示時刻算出手段を備えることを特徴とする。
OP,P−VOP、またはB−VOPそれぞれの表示時
刻を、秒精度時刻情報および詳細時間情報に基づいて求
める表示時刻算出ステップを備えることを特徴とする。
刻を表す秒精度時刻情報を生成し、I−VOP,P−V
OP、またはB−VOPそれぞれの表示時刻の直前の秒
精度時刻情報から、それぞれの表示時刻までの時間を、
秒精度より細かい精度で表す詳細時間情報を生成し、I
−VOP,P−VOP、またはB−VOPの表示時刻を
表す情報として、秒精度時刻情報および詳細時間情報
を、対応するI−VOP,P−VOP、またはB−VO
Pにそれぞれ付加することにより得られる符号化ストリ
ームが記録されていることを特徴とする。
は、秒精度時刻情報生成手段は、秒精度の時刻を表す秒
精度時刻情報を生成し、詳細時間情報生成手段は、I−
VOP,P−VOP、またはB−VOPそれぞれの表示
時刻の直前の秒精度時刻情報から、それぞれの表示時刻
までの時間を、秒精度より細かい精度で表す詳細時間情
報を生成するようになされている。
は、秒精度の時刻を表す秒精度時刻情報を生成し、I−
VOP,P−VOP、またはB−VOPそれぞれの表示
時刻の直前の秒精度時刻情報から、それぞれの表示時刻
までの時間を、秒精度より細かい精度で表す詳細時間情
報を生成するようになされている。
は、表示時刻算出手段が、I−VOP,P−VOP、ま
たはB−VOPそれぞれの表示時刻を、秒精度時刻情報
および詳細時間情報に基づいて求めるようになされてい
る。
は、I−VOP,P−VOP、またはB−VOPそれぞ
れの表示時刻を、秒精度時刻情報および詳細時間情報に
基づいて求めるようになされている。
精度の時刻を表す秒精度時刻情報を生成し、I−VO
P,P−VOP、またはB−VOPそれぞれの表示時刻
の直前の秒精度時刻情報から、それぞれの表示時刻まで
の時間を、秒精度より細かい精度で表す詳細時間情報を
生成し、I−VOP,P−VOP、またはB−VOPの
表示時刻を表す情報として、秒精度時刻情報および詳細
時間情報を、対応するI−VOP,P−VOP、または
B−VOPにそれぞれ付加することにより得られる符号
化ストリームが記録されている。
明するが、その前に、特許請求の範囲に記載の発明の各
手段と以下の実施の形態との対応関係を明らかにするた
めに、各手段の後の括弧内に、対応する実施の形態(但
し、一例)を付加して、本発明の特徴を記述すると、次
のようになる。
は、画像を、その画像を構成するオブジェクトごとに符
号化し、その結果得られる符号化ビットストリームを出
力する画像符号化装置であって、イントラ符号化される
オブジェクトをI−VOP(Intra-Video Object Plan
e)と、イントラ符号化または前方予測符号化のうちの
いずれかで符号化されるオブジェクトをP−VOP(Pr
edictive-VOP)と、イントラ符号化、前方予測符号化、
後方予測符号化、または両方向予測符号化のうちのいず
れかで符号化されるオブジェクトをB−VOP(Bidere
ctionally Predictive-VOP)と、それぞれするとき、秒
精度の時刻を表す秒精度時刻情報を生成する秒精度時刻
情報生成手段(例えば、図29に示すプログラムの処理
ステップS3乃至S7、および図34に示すプログラム
の処理ステップS43乃至S47など)と、I−VO
P,P−VOP、またはB−VOPそれぞれの表示時刻
の直前の秒精度時刻情報から、それぞれの表示時刻まで
の時間を、秒精度より細かい精度で表す詳細時間情報を
生成する詳細時間情報生成手段(例えば、図29に示す
プログラムの処理ステップS8、および図34に示すプ
ログラムの処理ステップS48など)と、I−VOP,
P−VOP、またはB−VOPの表示時刻を表す情報と
して、秒精度時刻情報および詳細時間情報を、対応する
I−VOP,P−VOP、またはB−VOPにそれぞれ
付加する付加手段(例えば、図9や図10に示すVLC
器36など)とを備えることを特徴とする。
ラ符号化されるオブジェクトをI−VOP(Intra-Vide
o Object Plane)と、イントラ符号化または前方予測符
号化のうちのいずれかで符号化されるオブジェクトをP
−VOP(Predictive-VOP)と、イントラ符号化、前方
予測符号化、後方予測符号化、または両方向予測符号化
のうちのいずれかで符号化されるオブジェクトをB−V
OP(Biderectionally Predictive-VOP)と、それぞれ
するととともに、秒精度の時刻を表す秒精度時刻情報
と、I−VOP,P−VOP、またはB−VOPそれぞ
れの表示時刻の直前の秒精度時刻情報から、それぞれの
表示時刻までの時間を、秒精度より細かい精度で表す詳
細時間情報とが、表示時刻を表す情報として、対応する
I−VOP,P−VOP、またはB−VOPにそれぞれ
付加されているとき、I−VOP,P−VOP、または
B−VOPそれぞれの表示時刻を、秒精度時刻情報およ
び詳細時間情報に基づいて求める表示時刻算出手段(例
えば、図31に示すプログラムの処理ステップS22乃
至S27、および図35に示すプログラムの処理ステッ
プS52乃至S57など)と、I−VOP,P−VO
P、またはB−VOPを、対応する表示時刻にしたがっ
て復号する復号手段(例えば、図15や図16に示すI
VLC器102など)とを備えることを特徴とする。
ものに限定することを意味するものではない。
実施の形態の構成例を示している。
O(Video Object)構成部1に入力され、VO構成部1
では、そこに入力される画像を構成するオブジェクトご
とに、そのシーケンスであるVOが構成され、VOP構
成部21乃至2Nに出力される。即ち、VO構成部1にお
いてN個のVO#1乃至VO#Nが構成された場合、そ
のN個のVO#1乃至VO#Nは、VOP構成部21乃
至2Nにそれぞれ出力される。
ータが、独立した背景F1のシーケンスと前景F2のシ
ーケンスとから構成される場合、VO構成部1は、例え
ば、前景F2のシーケンスを、VO#1として、VOP
構成部21に出力するとともに、背景F1のシーケンス
を、VO#2として、VOP構成部22に出力する。
データが、例えば、背景F1と前景F2とを、既に合成
したものである場合、所定のアルゴリズムにしたがっ
て、画像を領域分割することにより、背景F1と前景F
2とを取り出し、それぞれのシーケンスとしてのVO
を、対応するVOP構成部2n(但し、n=1,2,・
・・,N)に出力する。
から、VOP(VO Plane)を構成する。即ち、例えば、
各フレームから物体を抽出し、その物体を囲む、例え
ば、最小の長方形(以下、適宜、最小長方形という)を
VOPとする。なお、このとき、VOP構成部2nは、
その横および縦の画素数が、例えば、16の倍数となる
ようにVOPを構成する。VO構成部2nは、VOPを
構成すると、そのVOPを、VOP符号化部3nに出力
する。
きさ(例えば、横および縦の長さ)を表すサイズデータ
(VOP size)と、フレームにおける、そのVOPの位置
(例えば、フレームの最も左上を原点とするときの座
標)を表すオフセットデータ(VOP offset)とを検出
し、これらのデータも、VOP符号化部3nに供給す
る。
出力を、例えば、MPEGや、H.263などの規格に
準拠した方式で符号化し、その結果得られるビットスト
リームを、多重化部4に出力する。多重化部4は、VO
P符号化部31乃至3Nからのビットストリームを多重化
し、その結果得られる多重化データを、例えば、地上波
や、衛星回線、CATV網その他の伝送路5を介して伝
送し、または、例えば、磁気ディスク、光磁気ディス
ク、光ディスク、磁気テープその他の記録媒体6に記録
する。
る。
する場合の、その合成画像を構成する各オブジェクト
(物体)のシーケンスであり、VOPは、ある時刻にお
けるVOを意味する。即ち、例えば、いま、画像F1お
よびF2を合成して構成される合成画像F3がある場
合、画像F1またはF2が時系列に並んだものが、それ
ぞれVOであり、ある時刻における画像F1またはF2
が、それぞれVOPである。従って、VOは、異なる時
刻の、同一オブジェクトのVOPの集合ということがで
きる。
もに、画像F2を前景とすると、合成画像F3は、画像
F2を抜くためのキー信号を用いて、画像F1およびF
2を合成することによって得られるが、この場合におけ
る画像F2のVOPには、その画像F2を構成する画像
データ(輝度信号および色差信号)の他、適宜、そのキ
ー信号も含まれるものとする。
の大きさおよび位置のいずれも変化しないが、VOは、
大きさや位置が変化する場合がある。即ち、同一のVO
を構成するVOPであっても、時刻によって、その大き
さや位置が異なる場合がある。
と、前景である画像F2とからなる合成画像を示してい
る。
影したものであり、その画像全体のシーケンスが1つの
VO(VO#0とする)とされている。また、画像F2
は、例えば、人が歩いている様子を撮影したものであ
り、その人を囲む最小の長方形のシーケンスが1つのV
O(VO#1とする)とされている。
ら、基本的に、通常の画像のフレームと同様に、その位
置および大きさの両方とも変化しない。これに対して、
VO#1は人の画像であるから、人物が左右に移動した
り、また、図面において手前側または奥側に移動するこ
とにより、その大きさや位置が変化する。従って、図2
は、同一時刻におけるVO#0およびVO#1を表して
いるが、VOの位置や大きさは、時間の経過にともなっ
て変化することがある。
の出力するビットストリームに、VOPを符号化したデ
ータの他、所定の絶対座標系におけるVOPの位置(座
標)および大きさに関する情報も含めるようになされて
いる。なお、図2においては、VO#0を構成する、あ
る時刻のVOP(画像F1)の位置を示すベクトルをO
ST0と、その時刻と同一時刻における、VO#1のV
OP(画像F2)の位置を表すベクトルをOST1と、
それぞれ表してある。
る、図1のVOP符号化部3nの構成例を示している。
即ち、MPEGでは、異なる画像サイズやフレームレー
トに対応するスケーラビリティを実現するスケーラブル
符号化方式が導入されており、図3に示したVOP符号
化部3nでは、そのようなスケーラビリティを実現する
ことができるようになされている。
タ)、並びにそのサイズデータ(VOPsize)、およびオ
フセットデータ(VOP offset)は、いずれも画像階層化
部21に供給される。
の階層の画像データを生成する(VOPの1以上の階層
化を行う)。即ち、例えば、空間スケーラビリティの符
号化を行う場合においては、画像階層化部21は、そこ
に入力される画像データを、そのまま上位レイヤ(上位
階層)の画像データとして出力するとともに、それらの
画像データを構成する画素数を間引くことなどにより縮
小し(解像度を低下させ)、これを下位レイヤ(下位階
層)の画像データとして出力する。
ータとするとともに、そのVOPの解像度を、何らかの
手法で高くし(画素数を多くし)、これを、上位レイヤ
のデータとすることなども可能である。
るが、この場合、スケーラビリティは実現されない。な
お、この場合、VOP符号化部3nは、例えば、下位レ
イヤ符号化部25だけで構成されることになる。
能であるが、ここでは、簡単のために、2階層の場合に
ついて説明を行う。
ラビリティ(テンポラルスケーラビリティ)の符号化を
行う場合、時刻に応じて、画像データを、下位レイヤま
たは上位レイヤのデータとして、例えば、交互に出力す
る。即ち、例えば、画像階層化部21は、そこに、ある
VOを構成するVOPが、VOP0,VOP1,VOP
2,VOP3,・・・の順で入力されたとした場合、V
OP0,VOP2,VOP4,VOP6,・・・を、下
位レイヤのデータとして、また、VOP1,VOP3,
VOP5,VOP7,・・・を、上位レイヤデータとし
て出力する。なお、時間スケーラビリティの場合は、こ
のようにVOPが間引かれたものが、下位レイヤおよび
上位レイヤのデータとされるだけで、画像データの拡大
または縮小(解像度の変換)は行われない(但し、行う
ようにすることも可能である)。
R(Signal to Noise Ratio)スケーラビリティの符号
化を行う場合、入力された画像データを、そのまま上位
レイヤまたは下位レイヤのデータそれぞれとして出力す
る。即ち、この場合、下位レイヤ並びに上位レイヤの画
像データは、同一のデータとなる。
空間スケーラビリティについては、例えば、次のような
3種類が考えられる。
に示したような画像F1およびF2でなる合成画像が入
力されたとすると、第1の空間スケーラビリティは、図
4に示すように、入力されたVOP全体(図4(A))
を上位レイヤ(EnhancementLayer)とするとともに、そ
のVOP全体を縮小したもの(図4(B))を下位レイ
ヤ(Base Layer)とするものである。
5に示すように、入力されたVOPを構成する一部の物
体(図5(A)(ここでは、画像F2に相当する部
分)))を抜き出して(なお、このような抜き出しは、
例えば、VOP構成部2nにおける場合と同様にして行
われ、従って、これにより抜き出された物体も、1つの
VOPと考えることができる)、上位レイヤとするとと
もに、そのVOP全体を縮小したもの(図5(B))を
下位レイヤとするものである。
図6および図7に示すように、入力されたVOPを構成
する物体(VOP)を抜き出して、その物体ごとに、上
位レイヤおよび下位レイヤを生成するものである。な
お、図6は、図2のVOPを構成する背景(画像F1)
から上位レイヤおよび下位レイヤを生成した場合を示し
ており、また、図7は、図2のVOPを構成する前景
(画像F2)から上位レイヤおよび下位レイヤを生成し
た場合を示している。
ずれを用いるかは予め決められており、画像階層化部2
1は、その予め決められたスケーラビリティによる符号
化を行うことができるように、VOPの階層化を行う。
されるVOPのサイズデータおよびオフセットデータ
(それぞれを、以下、適宜、初期サイズデータ、初期オ
フセットデータという)から、生成した下位レイヤおよ
び上位レイヤのVOPの所定の絶対座標系における位置
を表すオフセットデータと、その大きさを示すサイズデ
ータとを計算(決定)する。
OPのオフセットデータ(位置情報)およびサイズデー
タの決定方法について、例えば、上述の第2のスケーラ
ビリティ(図5)を行う場合を例に説明する。
FPOS_Bは、例えば、図8(A)に示すように、下
位レイヤの画像データを、その解像度および上位レイヤ
の解像度の違いに基づいて拡大(アップサンプリング)
したときに、即ち、下位レイヤの画像を、上位レイヤの
画像の大きさと一致するような拡大率(上位レイヤの画
像を縮小して下位レイヤの画像を生成したときの、その
縮小率の逆数)(以下、適宜、倍率FRという)で拡大
したときに、その拡大画像の絶対座標系におけるオフセ
ットデータが、初期オフセットデータと一致するように
決定される。また、下位レイヤのサイズデータFSZ_
Bも同様に、下位レイヤの画像を倍率FRで拡大したと
きに得られる拡大画像のサイズデータが初期サイズデー
タと一致するように決定される。即ち、オフセットデー
タFPOS_BまたはサイズデータFSZ_Bは、それ
ぞれのFR倍か、初期オフセットデータまたは初期サイ
ズデータと一致するように決定される。
OS_Eは、例えば、図8(B)に示すように、入力さ
れたVOPから抜き出した物体を囲む最小長方形(VO
P)の、例えば、左上の頂点の座標が、初期オフセット
データに基づいて求められ、この値に決定される。ま
た、上位レイヤのサイズデータFPOS_Eは、入力さ
れたVOPから抜き出した物体を囲む最小長方形の、例
えば横および縦の長さに決定される。
トデータFPOS_BおよびサイズデータFPOS_B
を、倍率FRにしたがって変換し(変換後のオフセット
データFPOS_BまたはサイズデータFPOS_B
を、それぞれ、変換オフセットデータFPOS_Bまた
は変換サイズデータFPOS_Bという)、絶対座標系
において、変換オフセットデータFPOS_Bに対応す
る位置に、変換サイズデータFSZ_Bに対応する大き
さの画枠を考え、そこに、下位レイヤの画像データをF
R倍だけした拡大画像を配置するとともに(図8
(A))、その絶対座標系において、上位レイヤのオフ
セットデータFPOS_EおよびサイズデータFPOS
_Eにしたがって、上位レイヤの画像を同様に配置する
と(図8(B))、拡大画像を構成する各画素と、上位
レイヤの画像を構成する各画素とは、対応するものどう
しが同一の位置に配置されることになる。即ち、この場
合、例えば、図8において、上位レイヤの画像である人
の部分と、拡大画像の中の人の部分とは、同一の位置に
配置されることになる。
る場合も、同様にして、下位レイヤの拡大画像および上
位レイヤの画像を構成する、対応する画素どうしが、絶
対座標系において同一の位置に配置されるように、オフ
セットデータFPOS_BおよびFPOS_E、並びに
サイズデータFSZ_BおよびFSZ_Eが決定され
る。
成された上位レイヤの画像データ、オフセットデータF
POS_E、およびサイズデータFSZ_Eは、遅延回
路22で、後述する下位レイヤ符号化部25における処
理時間だけ遅延され、上位レイヤ符号化部23に供給さ
れる。また、下位レイヤの画像データ、オフセットデー
タFPOS_B、およびサイズデータFSZ_Bは、下
位レイヤ符号化部25に供給される。また、倍率FR
は、遅延回路22を介して、上位レイヤ符号化部23お
よび解像度変換部24に供給される。
の画像データが符号化され、その結果得られる符号化デ
ータ(ビットストリーム)に、オフセットデータFPO
S_BおよびサイズデータFSZ_Bが含められ、多重
化部26に供給される。
データを局所復号し、その結果局所復号結果である下位
レイヤの画像データを、解像度変換部24に出力する。
解像度変換部24は、下位レイヤ符号化部25からの下
位レイヤの画像データを、倍率FRにしたがって拡大
(または縮小)することにより、元の大きさに戻し、こ
れにより得られる拡大画像を、上位レイヤ符号化部23
に出力する。
レイヤの画像データが符号化され、その結果得られる符
号化データ(ビットストリーム)に、オフセットデータ
FPOS_EおよびサイズデータFSZ_Eが含めら
れ、多重化部26に供給される。なお、上位レイヤ符号
化部23においては、上位レイヤ画像データの符号化
は、解像度変換部24から供給される拡大画像をも参照
画像として用いて行われる。
3および下位レイヤ符号化部25の出力が多重化されて
出力される。
イヤ符号化部23に対しては、下位レイヤのサイズデー
タFSZ_B、オフセットデータFPOS_B、動きベ
クトルMV、フラグCODなどが供給されており、上位
レイヤ符号化部23では、これらのデータを必要に応じ
て参照しながら、処理を行うようになされているが、こ
の詳細については、後述する。
25の詳細構成例を示している。なお、図中、図38に
おける場合と対応する部分については、同一の符号を付
してある。即ち、下位レイヤ符号化部25は、基本的に
は、図38のエンコーダと同様に構成されている。
タ、即ち、下位レイヤのVOPは、図38における場合
と同様に、フレームメモリ31に供給されて記憶され、
動きベクトル検出器32において、マクロブロック単位
で動きベクトルの検出が行われる。
トル検出器32には、下位レイヤのVOPのサイズデー
タFSZ_BおよびオフセットデータFPOS_Bが供
給されるようになされており、そこでは、このサイズデ
ータFSZ_BおよびオフセットデータFPOS_Bに
基づいて、マクロブロックの動きベクトルが検出され
る。
(フレーム)によって、大きさや位置が変化するため、
その動きベクトルの検出にあたっては、その検出のため
の基準となる座標系を設定し、その座標系における動き
を検出する必要がある。そこで、ここでは、動きベクト
ル検出器32は、上述の絶対座標系を基準となる座標系
とし、その絶対座標系に、サイズデータFSZ_Bおよ
びオフセットデータFPOS_Bにしたがって、符号化
対象のVOPおよび参照画像とするVOPを配置して、
動きベクトルを検出するようになされている。
は、予測モードとともに、VLC器36および動き補償
器42に供給される他、上位レイヤ符号化部23(図
3)にも供給される。
はり、上述したように、基準となる座標系における動き
を検出する必要があるため、動き補償器42には、サイ
ズデータFSZ_BおよびオフセットデータFPOS_
Bが供給されるようになされている。
8における場合と同様に量子化係数とされてVLC器3
6に供給される。VLC器36には、やはり図38にお
ける場合と同様に、量子化係数、量子化ステップ、動き
ベクトル、および予測モードが供給される他、画像階層
化部21からのサイズデータFSZ_Bおよびオフセッ
トデータFPOS_Bも供給されており、そこでは、こ
れらのデータすべてが可変長符号化される。
したように符号化される他、やはり図38における場合
と同様に局所復号され、フレームメモリ41に記憶され
る。この復号画像は、前述したように参照画像として用
いられる他、解像度変換部24(図3)に出力される。
および2と異なり、Bピクチャ(B−VOP)も参照画
像として用いられるため、Bピクチャも、局所復号さ
れ、フレームメモリ41に記憶されるようになされてい
る(但し、現時点においては、Bピクチャが参照画像と
して用いられるのは上位レイヤについてだけである)。
ように、I,P,Bピクチャ(I−VOP,P−VO
P,B−VOP)のマクロブロックについて、スキップ
マクロブロックとするかどうかを決定し、その決定結果
を示すフラグCOD,MODBを設定する。このフラグ
COD,MODBは、やはり可変長符号化されて伝送さ
れる。さらに、フラグCODは、上位レイヤ符号化部2
3にも供給される。
部23の構成例を示している。なお、図中、図9または
図38における場合と対応する部分については、同一の
符号を付してある。即ち、上位レイヤ符号化部23は、
フレームメモリ52が新たに設けられていることを除け
ば、基本的には、図9の下位レイヤ符号化部25または
図38のエンコーダと同様に構成されている。
タ、即ち、上位レイヤのVOPは、図38における場合
と同様に、フレームメモリ31に供給されて記憶され、
動きベクトル検出器32において、マクロブロック単位
で動きベクトルの検出が行われる。なお、この場合も、
動きベクトル検出器32には、図9における場合と同様
に、上位レイヤのVOPの他、そのサイズデータFSZ
_EおよびオフセットデータFPOS_Eが供給される
ようになされており、動きベクトル検出器32では、上
述の場合と同様に、このサイズデータFSZ_Eおよび
オフセットデータFPOS_Eに基づいて、絶対座標系
における上位レイヤのVOPの配置位置が認識され、マ
クロブロックの動きベクトルが検出される。
位レイヤ符号化部25における動きベクトル検出器32
では、図38で説明したように、予め設定されている所
定のシーケンスにしたがって、VOPが処理されていく
が、そのシーケンスは、ここでは、例えば、次のように
設定されている。
ては、図11(A)または図11(B)に示すように、
上位レイヤまたは下位レイヤのVOPは、例えば、P,
B,B,B,・・・またはI,P,P,P,・・・の順
でそれぞれ処理されていく。
OPであるPピクチャ(P−VOP)は、例えば、同時
刻における下位レイヤのVOP(ここでは、Iピクチャ
(I−VOP))を参照画像として用いて符号化され
る。また、上位レイヤの2番目以降のVOPであるBピ
クチャ(B−VOP)は、例えば、その直前の上位レイ
ヤのVOPおよびそれと同時刻の下位レイヤのVOPを
参照画像として用いて符号化される。即ち、ここでは、
上位レイヤのBピクチャは、下位レイヤのPピクチャと
同様に他のVOPを符号化する場合の参照画像として用
いられる。
PEG1や2、あるいはH.263における場合と同様
に符号化が行われていく。
ビリティにおける倍率FRが1のときと考えられるか
ら、上述の空間スケーラビリティの場合と同様に処理さ
れる。
ち、例えば、上述したように、VOが、VOP0,VO
P1,VOP2,VOP3,・・・で構成され、VOP
1,VOP3,VOP5,VOP7,・・・が上位レイ
ヤとされ(図12(A))、VOP0,VOP2,VO
P4,VOP6,・・・が下位レイヤとされた場合にお
いては(図12(B))、図12に示すように、上位レ
イヤまたは下位レイヤのVOPは、例えば、B,B,
B,・・・またはI,P,P,P,・・・の順でそれぞ
れ処理されていく。
OP1(Bピクチャ)は、例えば、下位レイヤのVOP
0(Iピクチャ)およびVOP2(Pピクチャ)を参照
画像として用いて符号化される。また、上位レイヤの2
番目のVOP3(Bピクチャ)は、例えば、その直前に
Bピクチャとして符号化された上位レイヤのVOP1、
およびVOP3の次の時刻(フレーム)における画像で
ある下位レイヤのVOP4(Pピクチャ)を参照画像と
して用いて符号化される。上位レイヤの3番目のVOP
5(Bピクチャ)も、VOP3と同様に、例えば、その
直前にBピクチャとして符号化された上位レイヤのVO
P3、およびVOP5の次の時刻(フレーム)における
画像である下位レイヤのVOP6(Pピクチャ)を参照
画像として用いて符号化される。
では、上位レイヤ)については、PおよびBピクチャを
符号化するための参照画像として、他のレイヤ(スケー
ラブルレイヤ)(ここでは、下位レイヤ)のVOPを用
いることができる。このように、あるレイヤのVOPを
符号化するのに、他のレイヤのVOPを参照画像として
用いる場合、即ち、ここでは、上位レイヤのVOPを予
測符号化するのに、下位レイヤのVOPを参照画像とし
て用いる場合、上位レイヤ符号化部23(図10)の動
きベクトル検出器32は、その旨を示すフラグref_
layer_id(階層数が3以上存在する場合、フラ
グref_layer_idは、参照画像として用いる
VOPが属するレイヤを表す)を設定して出力するよう
になされている。
クトル検出器32は、VOPについてのフラグref_
layer_idにしたがい、前方予測符号化または後
方予測符号化を、それぞれ、どのレイヤのVOPを参照
画像として行うかを示すフラグref_select_
code(参照画像情報)を設定して出力するようにも
なされている。
Layer)のPピクチャが、その直前に復号(局所復号)
される、それと同一のレイヤに属するVOPを参照画像
として用いて符号化される場合、フラグref_sel
ect_codeは「00」とされる。また、Pピクチ
ャが、その直前に表示される、それと異なるレイヤ(こ
こでは、下位レイヤ)(Reference Layer)に属するV
OPを参照画像として用いて符号化される場合、フラグ
ref_select_codeは「01」とされる。
さらに、Pピクチャが、その直後に表示される、それと
異なるレイヤに属するVOPを参照画像として用いて符
号化される場合、フラグref_select_cod
eは「10」とされる。また、Pピクチャが、それと同
時刻における、異なるレイヤのVOPを参照画像として
用いて符号化される場合、フラグref_select
_codeは「11」とされる。
が、それと同時刻における、異なるレイヤのVOPを前
方予測のための参照画像として用い、かつ、その直前に
復号される、それと同一のレイヤに属するVOPを後方
予測のための参照画像として用いて符号化される場合、
フラグref_select_codeは「00」とさ
れる。また、上位レイヤのBピクチャが、それと同一の
レイヤに属するVOPを前方予測のための参照画像とし
て用い、かつ、その直前に表示される、それと異なるレ
イヤに属するVOPを後方予測のための参照画像として
用いて符号化される場合、フラグref_select
_codeは「01」とされる。さらに、上位レイヤの
Bピクチャが、その直前に復号される、それと同一のレ
イヤに属するVOPを前方予測のための参照画像として
用い、かつその直後に表示される、それと異なるレイヤ
に属するVOPを後方予測のための参照画像として用い
て符号化される場合、フラグref_select_c
odeは「10」とされる。また、上位レイヤのBピク
チャが、その直前に表示される、それと異なるレイヤに
属するVOPを前方予測のための参照画像として用い、
かつその直後に表示される、それと異なるレイヤに属す
るVOPを後方予測のための参照画像として用いて符号
化される場合、フラグref_select_code
は「11」とされる。
測符号化の方法は、1つの例であり、前方予測符号化、
後方予測符号化、または両方向予測符号化における参照
画像として、どのレイヤの、どのVOPを用いるかは、
例えば、上述した範囲で、自由に設定することが可能で
ある。
「空間スケーラビリティ」、「時間スケーラビリテ
ィ」、「SNRスケーラビリティ」という語を用いた
が、フラグref_select_codeによって、
予測符号化に用いる参照画像を設定する場合、空間スケ
ーラビリティや、テンポラルスケーラビリティ、SNR
スケーラビリティを明確に区別することは困難となる。
即ち、逆にいえば、フラグref_select_co
deを用いることによって、上述のようなスケーラビリ
ティの区別をせずに済むようになる。
ref_select_codeとを対応付けるとすれ
ば、例えば、次のようになる。即ち、Pピクチャについ
ては、フラグref_select_codeが「1
1」の場合が、フラグref_layer_idが示す
レイヤの同時刻におけるVOPを参照画像(前方予測の
ための参照画像)として用いる場合であるから、これ
は、空間スケーラビリティまたはSNRスケーラビリテ
ィに対応する。そして、フラグref_select_
codeが「11」の場合以外は、テンポラルスケーラ
ビリティに対応する。
f_select_codeが「00」の場合が、やは
り、フラグref_layer_idが示すレイヤの同
時刻におけるVOPを前方予測のための参照画像として
用いる場合であるから、これが、空間スケーラビリティ
またはSNRスケーラビリティに対応する。そして、フ
ラグref_select_codeが「00」の場合
以外は、テンポラルスケーラビリティに対応する。
ために、それと異なるレイヤ(ここでは、下位レイヤ)
の、同時刻におけるVOPを参照画像として用いる場
合、両者の間に動きはないので、動きベクトルは、常に
0((0,0))とされる。
動きベクトル検出器32では、以上のようなフラグre
f_layer_idおよびref_select_c
odeが設定され、動き補償器42およびVLC器36
に供給される。
グref_layer_idおよびref_selec
t_codeにしたがって、フレームメモリ31を参照
するだけでなく、必要に応じて、フレームメモリ52を
も参照して、動きベクトルが検出される。
変換部24(図3)から、局所復号された下位レイヤの
拡大画像が供給されるようになされている。即ち、解像
度変換部24では、局所復号された下位レイヤのVOP
が、例えば、いわゆる補間フィルタなどによって拡大さ
れ、これにより、そのVOPを、FR倍だけした拡大画
像、つまり、その下位レイヤのVOPに対応する上位レ
イヤのVOPと同一の大きさとした拡大画像が生成さ
れ、上位レイヤ符号化部23に供給される。フレームメ
モリ52では、このようにして解像度変換部24から供
給される拡大画像が記憶される。
換部24は、下位レイヤ符号化部25からの局所復号さ
れたVOPに対して、特に処理を施すことなく、そのま
ま、上位レイヤ符号化部23に供給する。
符号化部25からサイズデータFSZ_Bおよびオフセ
ットデータFPOS_Bが供給されるとともに、遅延回
路22(図3)からの倍率FRが供給されるようになさ
れており、動きベクトル検出器32は、フレームメモリ
52に記憶された拡大画像を参照画像として用いる場
合、即ち、上位レイヤのVOPの予測符号化に、そのV
OPと同時刻における下位レイヤのVOPを参照画像と
して用いる場合(この場合、フラグref_selec
t_codeは、Pピクチャについては「11」に、B
ピクチャについては「00」にされる)、その拡大画像
に対応するサイズデータFSZ_Bおよびオフセットデ
ータFPOS_Bに、倍率FRを乗算する。そして、そ
の乗算結果に基づいて、絶対座標系における拡大画像の
位置を認識し、動きベクトルの検出を行う。
レイヤの動きベクトルと予測モードが供給されるように
なされており、これは、次のような場合に使用される。
即ち、動きベクトル検出部32は、例えば、上位レイヤ
のBピクチャについてのフラグref_select_
codeが「00」である場合において、倍率FRが1
であるとき、即ち、SNRスケーラビリティのとき(但
し、この場合、上位レイヤの予測符号化に、上位レイヤ
のVOPが用いられるので、この点で、ここでいうSN
Rスケーラビリティは、MPEG2に規定されているも
のと異なる)、上位レイヤと下位レイヤは同一の画像で
あるから、上位レイヤのBピクチャの予測符号化には、
下位レイヤの同時刻における画像の動きベクトルと予測
モードをそのまま用いることができる。そこで、この場
合、動きベクトル検出部32は、上位レイヤのBピクチ
ャについては、特に処理を行わず、下位レイヤの動きベ
クトルと予測モードをそのまま採用する。
では、動きベクトル検出器32からVLC器36には、
動きベクトルおよび予測モードは出力されない(従っ
て、伝送されない)。これは、受信側において、上位レ
イヤの動きベクトルおよび予測モードを、下位レイヤの
復号結果から認識することができるからである。
は、上位レイヤのVOPの他、拡大画像をも参照画像と
して用いて、動きベクトルを検出し、さらに、図38で
説明したように、予測誤差(あるいは分散)を最小にす
る予測モードを設定する。また、動きベクトル検出器3
2は、例えば、フラグref_select_code
やref_layer_idその他の必要な情報を設定
して出力する。
5から、下位レイヤにおけるIまたはPピクチャを構成
するマクロブロックがスキップマクロブロックであるか
どうかを示すフラグCODが、動きベクトル検出器3
2、VLC器36、および動き補償器42に供給される
ようになされている。
は、上述した場合と同様に符号化され、これにより、V
LC器36からは、その符号化結果としての可変長符号
が出力される。
36は、下位レイヤ符号化部25における場合と同様
に、フラグCOD,MODBを設定して出力するように
なされている。ここで、フラグCODは、上述したよう
に、IまたはPピクチャのマクロブロックがスキップマ
クロブロックであるかどうかを示すものであるが、フラ
グMODBは、Bピクチャのマクロブロックがスキップ
マクロブロックであるかどうかを示すものである。
子化ステップ、動きベクトル、および予測モードの他、
倍率FR、フラグref_serect_code,r
ef_layer_id、サイズデータFSZ_E、オ
フセットデータFPOS_E、も供給されるようになさ
れており、VLC器36では、これらのデータがすべて
可変長符号化されて出力される。
ロックは符号化された後、やはり上述したように局所復
号され、フレームメモリ41に記憶される。そして、動
き補償器42において、動きベクトル検出器32におけ
る場合と同様にして、フレームメモリ41に記憶され
た、局所復号された上位レイヤのVOPだけでなく、フ
レームメモリ52に記憶された、局所復号されて拡大さ
れた下位レイヤのVOPをも参照画像として用いて動き
補償が行われ、予測画像が生成される。
および予測モードの他、フラグref_serect_
code,ref_layer_id、倍率FR、サイ
ズデータFSZ_B,FSZ_E、オフセットデータF
POS_B,FPOS_Eが供給されるようになされて
おり、動き補償器42は、フラグref_serect
_code,ref_layer_idに基づいて、動
き補償すべき参照画像を認識し、さらに、参照画像とし
て、局所復号された上位レイヤのVOP、または拡大画
像を用いる場合には、その絶対座標系における位置と大
きさを、サイズデータFSZ_Eおよびオフセットデー
タFPOS_E、またはサイズデータFSZ_Bおよび
オフセットデータFPOS_Bに基づいて認識し、必要
に応じて、倍率FRを用いて予測画像を生成する。
力されるビットストリームを復号するデコーダの一実施
の形態の構成例を示している。
伝送路5または記録媒体6を介して提供されるビットス
トリームが供給される。即ち、図1のエンコーダから出
力され、伝送路5を介して伝送されてくるビットストリ
ームは、図示せぬ受信装置で受信され、あるいは、記録
媒体6に記録されたビットストリームは、図示せぬ再生
装置で再生され、逆多重化部71に供給される。
ットストリーム(後述するVS(Video Stream))が受
信される。さらに、逆多重化部71では、入力されたビ
ットストリームが、VOごとのビットストリームVO#
1,VO#2,・・・に分離され、それぞれ、対応する
VOP復号部72nに供給される。VOP復号部72nで
は、逆多重化部71からのビットストリームから、VO
を構成するVOP(画像データ)、サイズデータ(VOP
size)、およびオフセットデータ(VOP offset)が復号
され、画像再構成部73に供給される。
1乃至72Nそれぞれからの出力に基づいて、元の画像が
再構成される。この再構成された画像は、例えば、モニ
タ74に供給されて表示される。
する、図13のVOP復号部72nの構成例を示してい
る。
ビットストリームは、逆多重化部91に入力され、そこ
で、上位レイヤのVOPのビットストリームと、下位レ
イヤのVOPのビットストリームとに分離される。上位
レイヤのVOPのビットストリームは、遅延回路92に
おいて、下位レイヤ復号部95における処理の時間だけ
遅延された後、上位レイヤ復号部93に供給され、ま
た、下位レイヤのVOPのビットストリームは、下位レ
イヤ復号部95に供給される。
ビットストリームが復号され、その結果得られる下位レ
イヤの復号画像が解像度変換部94に供給される。ま
た、下位レイヤ復号部95は、下位レイヤのビットスト
リームを復号することにより得られるサイズデータFS
Z_B、オフセットデータFPOS_B、動きベクトル
(MV)、予測モード、フラグCODなどの、上位レイ
ヤのVOPを復号するのに必要な情報を、上位レイヤ復
号部93に供給する。
を介して供給される上位レイヤのビットストリームが、
下位レイヤ復号部95および解像度変換部94の出力を
必要に応じて参照することにより復号され、その結果得
られる上位レイヤの復号画像、サイズデータFSZ_
E、およびオフセットデータFPOS_Eが出力され
る。さらに、上位レイヤ復号部93は、上位レイヤのビ
ットストリームを復号することにより得られる倍率FR
を、解像度変換部94に出力する。解像度変換部94で
は、上位レイヤ復号部93からの倍率FRを用いて、図
3における解像度変換部24における場合と同様にし
て、下位レイヤの復号画像が変換される。この変換によ
り得られる拡大画像は、上位レイヤ復号部93に供給さ
れ、上述したように、上位レイヤのビットストリームの
復号に用いられる。
部95の構成例を示している。なお、図中、図39のデ
コーダにおける場合と対応する部分については、同一の
符号を付してある。即ち、下位レイヤ復号部95は、基
本的に、図39のデコーダと同様に構成されている。
ストリームは、バッファ101に供給され、そこで受信
されて一時記憶される。IVLC器102は、その後段
のブロックの処理状態に対応して、バッファ101から
ビットストリームを適宜読み出し、そのビットストリー
ムを可変長復号することで、量子化係数、動きベクト
ル、予測モード、量子化ステップ、サイズデータFSZ
_B、オフセットデータFPOS_B、およびフラグC
ODなどを分離する。量子化係数および量子化ステップ
は、逆量子化器103に供給され、動きベクトルおよび
予測モードは、動き補償器107と上位レイヤ復号部9
3(図14)に供給される。また、サイズデータFSZ
_BおよびオフセットデータFPOS_Bは、動き補償
器107、画像再構成部73(図13)、および上位レ
イヤ復号部93に供給され、フラグCODは、上位レイ
ヤ復号部93に供給される。
算器105、フレームメモリ106、または動き補償器
107では、図9の下位レイヤ符号化部25の逆量子化
器38、IDCT器39、演算器40、フレームメモリ
41、または動き補償器42における場合とそれぞれ同
様の処理が行われることで、下位レイヤのVOPが復号
され、画像再構成部73、上位レイヤ復号部93、およ
び解像度変換部94(図14)に供給される。
部93の構成例を示している。なお、図中、図39にお
ける場合と対応する部分については、同一の符号を付し
てある。即ち、上位レイヤ復号部93は、フレームメモ
リ112が新たに設けられていることを除けば、基本的
に、図39のエンコーダと同様に構成されている。
ストリームは、バッファ101を介してIVLC器10
2に供給される。IVLC器102は、上位レイヤのビ
ットストリームを可変長復号することで、量子化係数、
動きベクトル、予測モード、量子化ステップ、サイズデ
ータFSZ_E、オフセットデータFPOS_E、倍率
FR、フラグref_layer_id,ref_se
lect_code,COD,MODBなどを分離す
る。量子化係数および量子化ステップは、図15におけ
る場合と同様に、逆量子化器103に供給され、動きベ
クトルおよび予測モードは、動き補償器107に供給さ
れる。また、サイズデータFSZ_Eおよびオフセット
データFPOS_Eは、動き補償器107および画像再
構成部73(図13)に供給され、フラグCOD,MO
DB,ref_layer_id、およびref_se
lect_codeは、動き補償器107に供給され
る。さらに、倍率FRは、動き補償器107および解像
度変換部94(図14)に供給される。
ータの他、下位レイヤ復号部95(図14)から、下位
レイヤの動きベクトル、フラグCOD、サイズデータF
SZ_B、およびオフセットデータFPOS_Bが供給
されるようになされている。また、フレームメモリ11
2には、解像度変換部94から拡大画像が供給される。
算器105、フレームメモリ106、動き補償器10
7、またはフレームメモリ112では、図10の上位レ
イヤ符号化部23の逆量子化器38、IDCT器39、
演算器40、フレームメモリ41、動き補償器42、ま
たはフレームメモリ52における場合とそれぞれ同様の
処理が行われることで、上位レイヤのVOPが復号さ
れ、画像再構成部73に供給される。
ヤ復号部93および下位レイヤ復号部95を有するVO
P復号部72nにおいては、上位レイヤについての復号
画像、サイズデータFSZ_E、およびオフセットデー
タFPOS_E(以下、適宜、これらをすべて含めて、
上位レイヤデータという)と、下位レイヤについての上
位レイヤについての復号画像、サイズデータFSZ_
B、およびオフセットデータFPOS_B(以下、適
宜、これらをすべて含めて、下位レイヤデータという)
が得られるが、画像再構成部73では、この上位レイヤ
データまたは下位レイヤデータから、例えば、次のよう
にして画像が再構成されるようになされている。
ィ(図4)が行われた場合(入力されたVOP全体が上
位レイヤとされるとともに、そのVOP全体を縮小した
ものが下位レイヤされた場合)において、下位レイヤデ
ータおよび上位レイヤデータの両方のデータが復号され
たときには、画像再構成部73は、上位レイヤデータの
みに基づき、サイズデータFSZ_Eに対応する大きさ
の上位レイヤの復号画像(VOP)を、オフセットデー
タFPOS_Eによって示される位置に配置する。ま
た、例えば、上位レイヤのビットストリームにエラーが
生じたり、また、モニタ74が、低解像度の画像にしか
対応していないため、下位レイヤデータのみの復号が行
われたときには、画像再構成部73は、その下位レイヤ
データのみに基づき、サイズデータFSZ_Bに対応す
る大きさの上位レイヤの復号画像(VOP)を、オフセ
ットデータFPOS_Bによって示される位置に配置す
る。
ィ(図5)が行われた場合(入力されたVOPの一部が
上位レイヤとされるとともに、そのVOP全体を縮小し
たものが下位レイヤとされた場合)において、下位レイ
ヤデータおよび上位レイヤデータの両方のデータが復号
されたときには、画像再構成部73は、サイズデータF
SZ_Bに対応する大きさの下位レイヤの復号画像を、
倍率FRにしたがって拡大し、その拡大画像を生成す
る。さらに、画像再構成部73は、オフセットデータF
POS_BをFR倍し、その結果得られる値に対応する
位置に、拡大画像を配置する。そして、画像再構成部7
3は、サイズデータFSZ_Eに対応する大きさの上位
レイヤの復号画像を、オフセットデータFPOS_Eに
よって示される位置に配置する。
が、それ以外の部分に比較して高い解像度で表示される
ことになる。
合においては、その復号画像と、拡大画像とは合成され
る。
たが、上位レイヤ復号部93(VOP復号部72n)か
ら画像再構成部73に対しては、上述したデータの他、
倍率FRも供給されるようになされており、画像再構成
部73は、これを用いて、拡大画像を生成するようにな
されている。
れた場合において、下位レイヤデータのみが復号された
ときには、上述の第1の空間スケーラビリティが行われ
た場合と同様にして、画像が再構成される。
6、図7)が行われた場合(入力されたVOPを構成す
る物体ごとに、その物体(オブジェクト)全体を上位レ
イヤとするとともに、その物体全体を間引いたものを下
位レイヤとした場合)においては、上述の第2の空間ス
ケーラビリティが行われた場合と同様にして、画像が再
構成される。
S_BおよびFPOS_Eは、下位レイヤの拡大画像お
よび上位レイヤの画像を構成する、対応する画素どうし
が、絶対座標系において同一の位置に配置されるように
なっているため、以上のように画像を再構成すること
で、正確な(位置ずれのない)画像を得ることができ
る。
ビットストリームのシンタクスについて、例えば、MPEG
4規格のVideo Verification Model(Version6.0)(以
下、適宜、VM6.0と記述する)を例に説明する。
トリームの構成を示している。
Session Class)を単位として構成され、各VSは、1
以上のVO(Video Object Class)から構成される。そ
して、VOは、1以上のVOL(Video Object Layer C
lass)から構成され(画像を階層化しないときは1のV
OLで構成され、画像を階層化する場合には、その階層
数だけのVOLで構成される)、VOLは、VOP(Vi
deo Object Plane Class)から構成される。
えば、一本の番組や映画などに相当する。
シンタクスをそれぞれ示している。VOは、画像全体ま
たは画像の一部(物体)のシーケンスに対応するビット
ストリームであり、従って、VSは、そのようなシーケ
ンスの集合で構成される(よって、VSは、例えば、一
本の番組などに相当する)。
る。
ィのためのクラスであり、video_object_layer_idで示
される番号によって識別される。即ち、例えば、下位レ
イヤのVOLについてのvideo_object_layer_idは0と
され、また、例えば、上位レイヤのVOLについてのvi
deo_object_layer_idは1とされる。なお、上述したよ
うに、スケーラブルのレイヤの数は2に限られることな
く、1や3以上を含む任意の数とすることができる。
であるのか、画像の一部であるのかは、video_object_l
ayer_shapeで識別される。このvideo_object_layer_sha
peは、VOLの形状を示すフラグで、例えば、以下のよ
うに設定される。
き、video_object_layer_shapeは、例えば「00」とさ
れる。また、VOLが、ハードキー(0または1のうち
のいずれか一方の値をとる2値(Binary)の信号)によ
って抜き出される領域の形状をしているとき、video_ob
ject_layer_shapeは、例えば「01」とされる。さら
に、VOLが、ソフトキー(0乃至1の範囲の連続した
値(Gray-Scale)をとることが可能な信号)によって抜
き出される領域の形状をしているとき(ソフトキーを用
いて合成されるものであるとき)、video_object_layer
_shapeは、例えば「10」とされる。
0」とされるのは、VOLの形状が長方形状であり、か
つ、そのVOLの絶対座標形における位置および大きさ
が、時間とともに変化しない、即ち、一定の場合であ
る。なお、この場合、その大きさ(横の長さと縦の長
さ)は、video_object_layer_widthとvideo_object_lay
er_heightによって示される。video_object_layer_widt
hおよびvideo_object_layer_heightは、いずれも10ビ
ットの固定長のフラグで、video_object_layer_shapeが
「00」の場合には、最初に、一度だけ伝送される(こ
れは、video_object_layer_shapeが「00」の場合、上
述したように、VOLの絶対座標系における大きさが一
定であるからである)。
イヤのうちのいずれであるかは、1ビットのフラグであ
るscalabilityによって示される。VOLが下位レイヤ
の場合、scalabilityは、例えば1とされ、それ以外の
場合、scalabilityは、例えば0とされる。
ける画像を参照画像として用いる場合、その参照画像が
属するVOLは、上述したように、ref_layer_idで表さ
れる。なお、ref_layer_idは、上位レイヤについてのみ
伝送される。
tor_nとhor_sampling_factor_mは、下位レイヤのVOP
の水平方向の長さに対応する値と、上位レイヤのVOP
の水平方向の長さに対応する値をそれぞれ示す。従っ
て、下位レイヤに対する上位レイヤの水平方向の長さ
(水平方向の解像度の倍率)は、式hor_sampling_facto
r_n/hor_sampling_factor_mで与えられる。
actor_nとver_sampling_factor_mは、下位レイヤのVO
Pの垂直方向の長さに対応する値と、上位レイヤのVO
Pの垂直方向の長さに対応する値をそれぞれ示す。従っ
て、下位レイヤに対する上位レイヤの垂直方向の長さ
(垂直方向の解像度の倍率)は、式ver_sampling_facto
r_n/ver_sampling_factor_mで与えられる。
lane Class)のシンタクスを示している。
ば、10ビット固定長のVOP_widthとVOP_heightで表さ
れる。また、VOPの絶対座標系における位置は、例え
ば、10ビット固定長のVOP_horizontal_spatial_mc_re
fとVOP_vertical_mc_refで表される。なお、VOP_width
またはVOP_heightは、VOPの水平方向または垂直方向
の長さをそれぞれ表し、これらは、上述のサイズデータ
FSZ_BやFSZ_Eに相当する。また、VOP_horizo
ntal_spatial_mc_refまたはVOP_vertical_mc_refは、V
OPの水平方向または垂直方向の座標(xまたはy座
標)をそれぞれ表し、これらは、上述のオフセットデー
タFPOS_BやFPOS_Eに相当する。
spatial_mc_ref、およびVOP_vertical_mc_refは、video
_object_layer_shapeが「00」以外の場合にのみ伝送
される。即ち、video_object_layer_shapeが「00」の
場合、上述したように、VOPの大きさおよび位置はい
ずれも一定であるから、VOP_width,VOP_height,VOP_h
orizontal_spatial_mc_ref、およびVOP_vertical_mc_re
fは伝送する必要がない。この場合、受信側では、VO
Pは、その左上の頂点が、例えば、絶対座標系の原点に
一致するように配置され、また、その大きさは、図20
で説明したvideo_object_layer_widthおよびvideo_obje
ct_layer_heightから認識される。
17で説明したように、参照画像として用いる画像を表
すもので、VOPのシンタクスにおいて規定されてい
る。
t Plane:従来のFrameに相当する)の表示時刻は、modulo
_time_baseと、VOP_time_increment(図21)によっ
て、次のように定められる。
ローカルな時間軸上における時刻を、1秒(1000ms(ミ
リ秒))の精度で表す。modulo_time_baseは、VOPヘッ
ダの中で伝送されるマーカ(marker)で表現され、必要
な数の「1」と、1の「0」とで構成される。modulo_tim
e_baseを構成する「1」の数が、最後に(現在から遡っ
て、最も最近に)(直前に)符号化/復号されたmodulo
_time_baseによって示された同期点(1秒精度の時刻)
からの累積時間を表す。即ち、modulo_time_baseが、例
えば、「0」の場合は、直前に符号化/復号されたmodu
lo_time_baseによって示された同期点からの累積時間が
0秒であることを表す。また、modulo_time_baseが、例
えば、「10」の場合は、直前に符号化/復号されたmo
dulo_time_baseによって示された同期点からの累積時間
が1秒であることを表す。さらに、modulo_time_base
が、例えば、「110」の場合は、直前に符号化/復号
されたmodulo_time_baseによって示された同期点からの
累積時間が2秒であることを表す。以上のように、modu
lo_time_baseの「1」の数が、直前に符号化/復号され
たmodulo_time_baseによって示された同期点からの秒数
になっている。
いて、「This value represents thelocal time base a
t the one second resolution unit (1000 millisecond
s).It is represented as a marker transmitted in th
e VOP header. The number of consecutive "1" follow
ed by a "0" indicates the number of seconds has el
apsed since the synchronization point marked by th
e last encoded/decoded modulo_time_base.」と記載さ
れている。
カルな時間軸上における時刻を、1msの精度で表す。VM
6.0では、VOP_time_incrementは、I-VOPおよびP-VOPに
ついては、直前に符号化/復号されたmodulo_time_base
によって示された同期点からの時間を表し、B-VOPにつ
いては、直前に符号化/復号されたI-VOPまたはP-VOPか
らの相対時間を表す。
ついて、「This value represents the local time bas
e in the units of milliseconds. For I and P-VOP's
thisvalue is the absolute VOP_time_increment from
the synchronization pointmarked by the last modulo
_time_base. For the B-VOP's this value is the rela
tive VOP_time_increment from the last encoded/deco
ded I- or P-VOP.」と記載されている。
he following formula are used todetermine the abso
lute and relative VOP_time_increments for I/P-VOP'
s and B-VOP's, respectively.」と記載されている。
って、I-VOPおよびP-VOPと、B-VOPとについて、それぞ
れの表示時刻を符号化する旨が規定されている。
されたmodulo_time_baseによって示された同期点の時刻
(上述したように、秒精度)を表し、tESTは、エンコ
ーダにおけるVOの符号化開始時刻(VOの符号化が開
始された絶対時刻)を表す。また、tAVTIは、I-VOPま
たはP-VOPについてのVOP_time_incrementを表し、tETB
(I/P)は、エンコーダにおけるI-VOPまたはP-VOPの符号
化開始時刻(VOPの符号化が開始された絶対時刻)を
表す。さらに、tRVTIは、B-VOPについてのVOP_time_in
crementを表し、tETB(B)は、エンコーダにおけるB-VOP
の符号化開始時刻を表す。
(n),tEST,tAVTI,tETB(I/P),tRVTI,tETB(B)に
ついて、「tGTB(n) is the encoder time base marked
by the nth encoded modulo_time_base, tEST is the e
ncoder time base start time, tAVTI is the absolute
VOP_time_increment for the I or P-VOP, tETB(I/P)
is the encoder time base at the start of the encod
ing of the I or P-VOP, tRVTI is the relative VOP_t
ime_increment for the B-VOP, and tETB(B) is the en
coder time base at the start of the encoding of th
e B-VOP.」と記載されている。
following formula are used to determine the recov
ered time base of the I/P-VOP's and B-VOP's, respe
ctively:」と記載されている。
て、I-VOPおよびP-VOPと、B-VOPについて、それぞれの
表示時刻を復号する旨が規定されている。
れたmodulo_time_baseによって示された同期点の時刻を
表し、tDSTは、デコーダにおけるVOの復号開始時刻
(VOの復号が開始された絶対時刻)を表す。また、t
DTB(I/P)は、デコーダにおけるI-VOPまたはP-VOPの復号
開始時刻を表し、tAVTIは、I-VOPまたはP-VOPについて
のVOP_time_incrementを表す。さらに、tDTB(B)は、デ
コーダにおけるB-VOPの復号開始時刻(VOPの復号が
開始された絶対時刻)を表し、tRVTIは、B-VOPについ
てのVOP_time_incrementを表す。
(n),tDST,tDTB(I/P),tAVTI,tDTB(B),tRVTIに
ついて、「tGTB(n) is the encoding time base marked
bythe nth decoded modulo_time_base, tDST is the d
ecoding time base start time, tDTB(I/P) is the dec
oding time base at the start of the decoding ofthe
I or P-VOP, tAVTI is the decoding absolute VOP_ti
me_increment for the I or P-VOP, tDTB(B) is the de
coding time base at the start of the decoding of t
he B-VOP, and tRVTI is the decoded relative VOP_ti
me_incrementfor the B-VOP.」と記載されている。
_time_baseとVOP_time_incrementとの関係を示した図で
ある。
P),B2(B−VOP),B3,P4(P−VO
P),B5,P6,・・・というVOPのシーケンスで
構成されている。いま、VOの符号化/復号開始時刻
(絶対時刻)をt0とすると、modulo_time_baseは、時
刻t0からの経過時間を、1秒精度で表すから、t0+
1秒、t0+2秒,・・・という時刻(同期点)を表
す。なお、図22において、表示順は、I1,B2,B
3,P4,B5,P6,・・・であるが、符号化/復号
順は、I1,P4,B2,B3,P6,・・・である。
および図33においても同様)、各VOPについてのVO
P_time_incrementを、四角形で囲んだ数字(単位はms)
で示してあり、modulo_time_baseによって示される同期
点の切り替わりを、▼印で示してある。従って、図22
では、I1,B2,B3,P4,B5,P6についての
VOP_time_incrementが、350ms,400ms,80
0ms,550ms,400ms,350msとそれぞ
れされており、P4およびP6において、同期点が切り
替わっている。
ncrementは、350msであるから、I1の符号化/復号
時刻は、直前に符号化/復号されたmodulo_time_baseに
よって示された同期点から350ms後の時刻となる。
なお、符号化/復号の開始直後は、その開始時刻(符号
化/復号開始時刻)t0が同期点となるので、I1の符
号化/復号時刻は、符号化/復号開始時刻t0から35
0ms後の時刻t0+350msということになる。
刻は、直前に符号化/復号されたI-VOPまたはP-VOPか
ら、VOP_time_incrementだけ経過した時刻であるから、
いまの場合、最後の符号化/復号されたI1の符号化/
復号時刻t0+350msから、400msまたは80
0ms後の時刻t0+750msまたはt0+1200
msということに、それぞれなる。
modulo_time_baseによって示される同期点が切り替わっ
ており、従って、同期点は時刻t0+1秒となる。その
結果、P4の符号化/復号時刻は、時刻t0+1秒から
550ms後の時刻(t0+1)秒+550msという
ことになる。
/復号されたI-VOPまたはP-VOPから、VOP_time_increme
ntだけ経過した時刻であるから、いまの場合、最後の符
号化/復号されたP4の符号化/復号時刻(t0+1)
秒+550msから、400ms後の時刻(t0+1)
秒+950msということになる。
modulo_time_baseによって示される同期点が切り替わっ
ており、従って、同期点は時刻t0+2秒となる。その
結果、P6の符号化/復号時刻は、時刻t0+2秒から
350ms後の時刻(t0+2)秒+350msという
ことになる。
って示される同期点の切り替わりは、I−VOPとP−
VOPとに対してだけ許されており、B−VOPに対し
ては許されていない。
tが、I−VOPとP−VOPについては、直前に符号化/復号
されたmodulo_time_baseによって示された同期点からの
時間を表すのに対し、B-VOPについてだけは、直前に符
号化/復号されたI-VOPまたはP-VOPからの相対時間を表
すこととされているのは、主として、次のような理由に
よる。即ち、B-VOPは、表示順で、そのB-VOPを挟むI−V
OPまたはP−VOPを参照画像として予測符号化されるの
で、その予測符号化時に参照画像として用いるI−VOPま
たはP−VOPに対する重みを、B-VOPから、それを挟むI−
VOPまたはP−VOPまでの時間的距離に基づいて決めるた
めに、その時間的距離を、B-VOPについてのVOP_time_in
crementとしたことによる。
ementの定義では、不都合が生じる。即ち、図22で
は、B-VOPについてのVOP_time_incrementが、そのB-VOP
の直前に符号化/復号されるI-VOPまたはP-VOPからの相
対時間ではなく、直前に表示されるI-VOPまたはP-VOPか
らの相対時間を表すものとしてある。これは、次のよう
な理由による。即ち、例えば、B2やB3に注目した場
合、その直前に符号化/復号されるI-VOPまたはP-VOP
は、上述した符号化/復号順からいって、P4である。
従って、B-VOPについて、VOP_time_incrementが、そのB
-VOPの直前に符号化/復号されたI-VOPまたはP-VOPから
の相対時間を表すとした場合、B2やB3についてのVO
P_time_incrementは、P4の符号化/復号時刻からの相
対時間を表すこととなり、負の値になる。
tは、10ビットとされており、0以上の値のみをとる
ものとすれば、0乃至1023の範囲の値を表現するこ
とができるから、隣接する同期点の間の位置を、時間的
に前(図22において左方向)に位置する同期点を基準
として、1ms単位で表すことができる。
以上の値だけでなく、負の値もとることを許すと、例え
ば、隣接する同期点の間の位置が、時間的に前に位置す
る同期点を基準として表されたり、また、時間的に後に
位置する同期点を基準として表されたりすることになる
ため、VOPの符号化時刻や復号時刻を求める処理が煩
雑になる。
_time_incrementが、「This valuerepresents the loca
l time base in the units of milliseconds. For I a
ndP-VOP's this value is the absolute VOP_time_incr
ement from the synchronization point marked by the
last modulo_time_base. For the B-VOP's thisvalue
is the relative VOP_time_increment from the last
encoded/decoded I- or P-VOP.」と定義されているが、
最後の文の“For the B-VOP's this valueis the relat
ive VOP_time_increment from the last encoded/decod
ed I- or P-VOP”は、“For the B-VOP's this value i
s the relative VOP_time_increment from the last di
splayed I- or P-VOP”と変更するべきであり、これに
より、VOP_time_incrementが、直前に符号化/復号され
たI-VOPまたはP-VOPからの相対時間ではなく、直前に表
示されるI-VOPまたはP-VOPからの相対時間を表すものと
定義すべきである。
することにより、B-VOPについての符号化/復号時刻の
計算の基準が、B-VOPよりも過去の表示時刻を持つI/P-V
OP(I-VOPまたはP-VOP)の表示時刻になるので、B-VOP
についてのVOP_time_incrementは、それが参照するI-VO
Pが、そのB-VOPよりも先に表示されない限り、常に、正
の値をとることになり、従って、I/P-VOPのVOP_time_in
crementも、常に正の値をとることになる。
変更して、modulo_time_baseおよびVOP_time_increment
によって表される時刻が、符号化/復号時刻ではなく、
VOPの表示時刻であるとしてある。即ち、図22では、V
OPのシーケンス上の絶対時刻を考えた場合に、式(1)
におけるtEST(I/P)および式(2)におけるtDTB(I/P)
は、IまたはP-VOPが位置するシーケンス上の絶対時刻
を、式(1)におけるtEST(B)および式(2)におけるt
DTB(B)は、B-VOPが位置するシーケンス上の絶対時刻
を、それぞれ表すものとしてある。
化開始時刻tEST (the encoder timebase start time)は
符号化されず、その符号化開始時刻tESTと、各VOPの表
示時刻(VOPのシーケンス上の各VOPの位置を表す絶対時
刻)との差分情報としてのmodulo_time_baseおよびVOP_
time_incrementが符号化される。このため、デコーダ側
では、modulo_time_baseおよびVOP_time_incrementを用
いて、各VOPの間の相対的な時間関係は定めることがで
きるが、各VOPの絶対的な表示時刻、即ち、各VOPが、VO
Pのシーケンスの中のどの位置にあるものなのかを定め
ることはできない。従って、modulo_time_baseおよびVO
P_time_incrementだけでは、ビットストリームの途中に
アクセスすること、つまり、ランダムアクセスを行うこ
とはできない。
ると、デコーダでは、それを用いて、各VOPの絶対時刻
を復号することはできるが、常に、符号化ビットストリ
ームの先頭から、符号化開始時刻tESTと、各VOPの相対
的な時間情報であるmodulo_time_baseおよびVOP_time_i
ncrementを復号しながら、それを累積して、絶対時刻を
管理する必要があり、これは面倒であり、効率的なラン
ダムアクセスができない。
的なランダムアクセスを行うことができるように、VM6.
0の符号化ビットストリームの構成(階層)の中に、VOP
のシーケンス上の絶対時刻を符号化する階層(この階層
は、スケーラビリティを実現する階層(上述の下位レイ
ヤや上位レイヤ)ではなく、符号化ビットストリームの
階層である)を導入する。この階層は、符号化ビットス
トリームの先頭だけでなく、適当な位置に挿入できるよ
うな符号化ビットストリームの階層とする。
1/2で用いられているGOP(Group ofPicture)層と同様に
規定されるものを導入する。これにより、MPEG4に独自
な符号化ストリームの階層を用いる場合に比べて、MPEG
4と、MPEG1/2とのコンパチビリティ(Compatibility)
を高めることができる。この新規に導入する階層を、こ
こでは、GOV(またはGVOP)(Group Of Video O
bject Plane)と呼ぶ。
を符号化するGOV層を導入した符号化ビットストリーム
の構成例を示している。
なく、符号化ビットストリームの任意の位置に挿入する
ことができるように、VOL層とVOP層との間に規定されて
いる。
1,・・・,VOP#n,VOP#(n+1),・・・,VOP#mといった
VOPのシーケンスで構成される場合において、GOV層は、
その先頭のVOP#0の直前だけでなく、VOP#(n+1)の直前に
も挿入することができる。従って、エンコーダにおい
て、GOV層は、例えば、符号化ストリームの中の、ラン
ダムアクセスさせたい位置に挿入することができ、従っ
て、GOV層を挿入することで、あるVOLを構成するVOPの
一連のシーケンスは、GOV層によって、複数のグループ
(以下、適宜、GOVという)に分けられて符号化される
ことになる。
ば、図24に示すように定義される。
タートコード(group_start_code)、タイムコード(ti
me_code)、クローズドGOP(closed_gop)、ブロークン
リンク(broken_link)、ネクストスタートコード(nex
t_start_code())が順次配置されて構成される。
s)について説明する。なお、GOV層のセマンティクス
は、基本的には、MPEG2のGOP層と同様であり、従って、
特に記述しない部分については、MPEG2Video規格(ISO/I
EC13818-2)を参照されたい。
数)で、GOVの開始位置を示す。
トのdrop_frame_flag、5ビットのtime_code_hours、6
ビットのtime_code_minutes、1ビットのmarker_bit、
6ビットのtime_code_seconds、および6ビットのtime_
code_picturesの合計25ビットで構成される。
461で規定されている「time and control codes for vi
deo tape recorders」に相当する。ここで、MPEG4で
は、ビデオのフレームレート(VideoのFrame Rate)の
概念がないので(従って、VOPは、任意の時刻に表示す
ることができる)、ここでは、time_codeがドロップフ
レームモード(drop_frame_mode)で記述されているか
否かを示すdrop_frame_flagを利用せず、その値は、例
えば、0に固定する。同様の理由で、time_code_picture
sも利用せず、その値は、例えば、0に固定する。従っ
て、ここでは、time_codeは、時刻の時間の単位を表すt
ime_code_hours、時刻の分の単位を表すtime_code_minu
tes、および時刻の秒の単位を表すtime_code_secondsに
よって、GOVの先頭の時刻を表す。その結果、GOV層のti
me_code(符号化開始秒精度絶対時刻)は、秒精度で、
その先頭の時刻、即ち、そのGOV層の符号化が開始され
た、VOPのシーケンス上の絶対時刻を表現することとな
る。このため、本実施の形態では、秒より細かい精度の
時刻(時間)(ここでは、ミリ秒)は、VOP毎に設定す
る。
ビットストリームにおいて、0が23個以上連続しない
ように1とされる。
3818-2)におけるclose_gopの定義の記載の中のI,P、
またはBピクチャを、I-VOP,P-VOP、またはB-VOPにそ
れぞれ置き換えたものを意味し、従って、あるGOVの中
のB-VOPが、そのGOVを構成するVOPだけでなく、他のGOV
を構成するVOPを参照画像として符号化されているかど
うかを表す。ここで、以下に、MPEG2Video規格(ISO/IEC
13818-2)におけるclose_gopの定義について、上述のよ
うな置き換えを行った文を示す。
the nature of the predictions used in the first c
onsecutive B-VOPs (if any) immediately following t
he first coded I-VOP following the group of plane
header. The closed_gop isset to 1 to indicate that
these B-VOPs have been encoded using only backwar
d prediction or intra coding. This bit is provided
for use during anyediting which occurs after enco
ding. If the previous pictures have beenremoved by
editing, broken_link may be set to 1 so that a de
coder may avoid displaying these B-VOPs following
the first I-VOP following the group of plane heade
r. However if the closed_gop bit is set to 1, then
theeditor may choose not to set the broken_link b
it as these B-VOPs can becorrectly decoded.
13818-2)におけるbroken_linkの記載について、closed_
gopにおける場合と同様の置き換を行ったものを意味
し、従って、GOVの先頭のB-VOPが正確に再生することが
できるかどうかを表す。ここで、以下に、MPEG2Video規
格(ISO/IEC 13818-2)におけるbroken_linkの定義につい
て、上述のような置き換えを行った文を示す。
set to 0 during encoding. It isset to 1 to indicat
e that the first consecutive B-VOPs (if any) immed
iately following the first coded I-VOP following t
he group of plane headermay not be correctly decod
ed because the reference frame which is used for p
rediction is not available (because of the action
of editing). A decoder may use this flag to avoid
displaying frames that cannot be correctly decode
d.
置を与える。
を開始する、GOVのシーケンス上の絶対時刻(以下、適
宜、符号化開始絶対時刻という)を、GOVのタイムコー
ドtime_codeに設定する。さらに、上述のように、GOV層
のtime_codeは秒精度なので、ここでは、各VOPの、VOP
のシーケンス上の絶対時刻の、さらに細かい精度の部分
を、VOP毎に設定する。
た場合のtime_codeと、modulo_time_baseおよびVOP_tim
e_incrementとの関係を示している。
表示順で、I1,B2,B3,P4,B5,P6が配置
されて構成されている。
を、0h:12m:35sec:350msec(0時12分35秒350ミ
リ秒)とすると、GOVのtime_codeは、上述したように、
秒精度(秒単位)なので、0h:12m:35secとされる(time
_codeを構成するtime_code_hours,time_code_minute
s、またはtime_code_secondsが、それぞれ0,12、ま
たは35とされる)。一方、I1の、VOPのシーケンス
上の絶対時刻(図25のGOVを含むVSの符号化前(また
は復号後)のVOPのシーケンスの絶対時刻)(これは、V
OPのシーケンスが表示されるときの、I1が表示される
時刻に相当するので、以下、適宜、表示時刻という)
が、例えば、0h:12m:35sec:350msecである場合には、そ
の表示時刻の、秒精度より細かい精度である350msは、
I1についてのI-VOPのVOP_time_incrementに設定され
て符号化されるように(I1についてのVOP_time_incre
ment=350とされて符号化されるように)、VOP_time_in
crementのセマンティクスを変更する。
先頭のI-VOP(I1)のVOP_time_incrementは、GOVのti
me_codeと、I-VOPの表示時刻の差分値とする。従って、
秒精度によるtime_codeで表された時刻が、GOVの最初の
同期点(ここでは、秒精度の時刻を表す点)となる。
に配置されたVOPであるB2,B3,P4,B5,P6
についてのVOP_time_incrementのセマンティクスは、図
22で説明したように、VM6.0の定義を変更したものと
同様である。
の表示時刻は、直前に表示されるI-VOPまたはP-VOPの表
示時刻から、VOP_time_incrementだけ経過した時刻であ
るから、いまの場合、直前に表示されるI1の表示時刻
0h:12m:35s+350msから、400msまたは800ms後の時刻0h:12
m:35s:750msまたは0h:12m:36s:200msということに、それ
ぞれなる。
modulo_time_baseによって示される同期点が切り替わっ
ており、従って、同期点は時刻0h:12m:35sから1秒経過
した0h:12m:36sとなる。その結果、P4の表示時刻は、
時刻0h:12m:36sから550ms後の時刻0h:12m:36:550msとい
うことになる。
PまたはP-VOPから、VOP_time_incrementだけ経過した時
刻であるから、いまの場合、直前に表示されるP4の表
示時刻0h:12m:36:550msから、400ms後の時刻0h:12m:36s:
950msということになる。
は、modulo_time_baseによって示される同期点が切り替
わっており、従って、同期点は時刻0h:12m:35s+2秒、即
ち、0h:12m:37sとなる。その結果、P6の表示時刻は、
時刻0h:12m:37sから350ms後の時刻0h:12m:37s:350msと
いうことになる。
-VOPになっている場合の、GOVについてのtime_codeと、
modulo_time_baseおよびVOP_time_incrementとの関係を
示している。
表示順で、B0,I1,B2,B3,P4,B5,P6
が配置されて構成されている。即ち、図26では、図2
5において、I1の前にB0が追加されて、GOVが構成
されている。
_time_incrementを、そのGOVを構成するI/P-VOPの表示
時刻を基準として定めることとすると、即ち、例えば、
I1の表示時刻を基準として定めることとすると、その
値は負になり、上述したように、都合が悪い。
されるB-VOP(GOVの中で、最初に表示されるI-VOPより
も先行して表示されるB-VOP)のVOP_time_incrementに
ついては、そのセマンティクスを、以下のように変更す
る。
crementは、GOVのtime_codeの時刻と、B-VOPの表示時刻
との差分値とする。この場合、図26に示すように、B
0の表示時刻が、例えば、0h:12m:35s:200msであり、GO
Vのtime_codeが、例えば、0h:12m:35sであるときには、
B0のVOP_time_incrementは、350ms(=0h:12m:35s:20
0ms−0h:12m:35s)になる。このようにすることで、VOP
_time_incrementは、常に正の値になる。
てのセマンティクスの2つの変更により、GOVのtime_co
deと、VOPのmodulo_time_baseおよびVOP_time_incremen
tとを関係付けることができ、さらに、これにより、各V
OPが表示される絶対時刻(表示時刻)を特定することが
できる。
れから予測されるB-VOPの表示時刻との間隔が1秒(正
確には、1.023秒)より大きい場合の、GOVについ
てのtime_codeと、modulo_time_baseおよびVOP_time_in
crementとの関係を示している。
1,B2,B3,B4,P6が順次配置されて構成され
ており、B4が、直前に表示されるI-VOPであるI1の
表示時刻よりも、1秒より後の時刻において表示される
ようになされている。
変更したVOP_time_incrementによって、B4の表示時刻
を符号化しようとしても、VOP_time_incrementは、上述
のように10ビットであるため、1023までしか表現でき
ず、1.023秒より長い時間を表現することはできない。
そこで、VOP_time_incrementのセマンティクスをさらに
変更するとともに、modulo_time_baseのセマンティクス
をも変更し、このような場合であっても対応できるよう
にする。
第2の方法のいずれかによって対応する。
刻と、それから予測されるB-VOPの表示時刻との間の時
間を、ミリ秒精度で求め、その時間を、秒の単位まで
は、modulo_time_baseで表現し、残りのミリ秒の精度
を、VOP_time_incrementで表現する。
にしたがって、modulo_time_baseおよびVOP_time_incre
mentを符号化した場合の、GOVについてのtime_codeと、
modulo_time_baseおよびVOP_time_incrementとの関係
を、図28に示す。
の付加を、I-VOPおよびP-VOPだけでなく、B-VOPに対し
ても許可する。そして、B-VOPに付加されているmodulo_
time_baseは、同期点の切り替わりではなく、直前に表
示されるI/P-VOPの表示時刻からの秒単位の繰り上がり
を表すものとする。
れるmodulo_time_baseによって示される、直前に表示さ
れるI/P-VOPの表示時刻からの秒単位の繰り上がり後の
時刻を、そのB-VOPの表示時刻から減算した値を、そのV
OP_time_incrementとして設定する。
いて、例えば、I1の表示時刻を、0h:12m:35s:350msと
するとともに、B4の表示時刻を、0h:12m:36s:550msと
すると、I1とB4との表示時刻の差は、1秒以上の12
00msecであるから、B4には、図28に示すように、直
前に表示されるI1の表示時刻からの秒単位の繰り上が
りを示すmodulo_time_base(図28において、▼印で示
す)が付加される。具体的には、B4に付加されるmodu
lo_time_baseは、1200msの1秒の位の値である1秒の繰
り上がりを表す「10」とされる。そして、B4のVOP_
time_incrementは、図28に示すように、I1とB4と
の表示時刻の差の、1秒未満の値(B4の表示時刻か
ら、そのmodulo_time_baseによって示される、直前に表
示されるI/P-VOPであるI1の表示時刻からの秒単位の
繰り上がり後の時刻を減算した値)であるである200
とされる。
ime_baseとVOP_time_incrementについての処理は、エン
コーダ側では、例えば、図9および図10に示したVL
C器36において、デコーダ側では、例えば、図15お
よび図16に示したIVLC器102において、それぞ
れ行われる。
参照して、VLC器36が行うI/P-VOPのmodulo_time_b
aseおよびVOP_time_incrementに関する処理について説
明する。
ごとに分けて処理を行うようになされている。なお、GO
Vは、少なくとも1のイントラ符号化されるVOPを含むよ
うに構成される。
ば、その受信時刻を、そのGOVの符号化開始絶対時刻と
し、その符号化開始絶対時刻の秒精度まで(秒の桁まで
の符号化開始絶対時刻)を、time_codeとして符号化し
て、符号化ビットストリームの中に含める。その後、V
LC器36は、GOVを構成するI/P-VOPを受信するごと
に、そのI/P-VOPを注目I/P-VOPとして、図29のフロー
チャートにしたがい、注目I/P-VOPのmodulo_time_base
およびVOP_time_incrementを求めて、符号化する。
テップS1において、modulo_time_baseに0B(Bは2
進数を表す)がセットされるとともに、VOP_time_incre
mentに0がセットされることにより、modulo_time_base
およびVOP_time_incrementがリセットされる。
Pが、処理対象としているGOV(処理対象GOV)の中で、
最初に表示されるI-VOP(First I-VOP)であるかどうか
が判定される。ステップS2において、注目I/P-VOP
が、処理対象GOVの中で、最初に表示されるI-VOPである
と判定された場合、ステップS4に進み、処理対象GOV
のtime_codeと、注目I/P-VOP(ここでは、処理対象GOV
の中で、最初に表示されるI-VOP)の表示時刻の秒精度
との差分、即ち、time_codeと、注目I/P-VOPの表示時刻
の秒の桁までとの差分が求められ、変数Dにセットされ
て、ステップS5に進む。
Pが、処理対象GOVの中で、最初に表示されるI-VOPでな
いと判定された場合、ステップS3に進み、注目I/P-VO
Pの表示時刻の秒の桁までと、その直前に表示されるI/P
-VOP(処理対象GOVを構成するVOPのうちの、注目I/P-VO
Pの直前に表示されるI/P-VOP)(Last display I/P-VO
P)の表示時刻の秒の桁までとの差分値が求められ、そ
の差分値が、変数Dにセットされて、ステップS5に進
む。
どうか、即ち、time_codeと、注目I/P-VOPの表示時刻の
秒の桁までとの差分、または注目I/P-VOPの表示時刻の
秒の桁までと、その直前に表示されるI/P-VOPの表示時
刻の秒の桁までとの差分値が0秒であるかどうかが判定
される。ステップS5において、変数Dが0に等しくな
いと判定された場合、即ち、変数Dが1以上である場
合、ステップS6に進み、modulo_time_baseのMSB
(Most Significant Bit)として、1が付加される。即
ち、この場合、modulo_time_baseが、例えば、リセット
直後の0Bであるときには、10Bとされ、また、modu
lo_time_baseが、例えば、10Bであるときには、11
0Bとされる。
だけデクリメントされ、ステップS5に戻る。その後、
ステップS5において、変数Dが0に等しいと判定され
るまで、ステップS5乃至S7の処理が繰り返される。
即ち、これにより、modulo_time_baseは、time_code
と、注目I/P-VOPの表示時刻の秒の桁までとの差分、ま
たは注目I/P-VOPの表示時刻の秒の桁までと、その直前
に表示されるI/P-VOPの表示時刻の秒の桁までとの差分
値に対応する秒数と同一の数だけ「1」が連続し、その
最後に0が付加された値とされる。
0に等しいと判定された場合、ステップS8に進み、VO
P_time_incrementに、注目I/P-VOPの表示時刻の秒精度
より細かい精度の時刻、即ち、ミリ秒単位の時刻がセッ
トされ、処理を終了する。
のmodulo_time_baseおよびVOP_time_incrementは、VL
C回路36において、注目I/P-VOPに付加され、これに
より、符号化ビットストリームの中に含められる。
ncrement、並びにtime_codeは、VLC回路36におい
て可変長符号化される。
成するB-VOPを受信するごとに、そのB-VOPを注目B-VOP
として、図30のフローチャートにしたがい、注目B-VO
Pのmodulo_time_baseおよびVOP_time_incrementを求め
て、符号化する。
テップS11において、図29のステップS1における
場合と同様に、modulo_time_baseおよびVOP_time_incre
mentがリセットされる。
Pが、処理対象GOVの中で、最初に表示されるI-VOP(Fir
st I-VOP)よりも先に表示されるものであるかどうかが
判定される。ステップS12において、注目B-VOPが、
処理対象GOVの中で、最初に表示されるI-VOPよりも先に
表示されるものであると判定された場合、ステップS1
4に進み、処理対象GOVのtime_codeと、注目B-VOP(こ
こでは、処理対象GOVの中で、最初に表示されるI-VOPよ
りも先行して表示されるB-VOP)の表示時刻との差分が
求められ、変数Dにセットされて、ステップS15に進
む。従って、ここでは、変数Dには、ミリ秒精度の時間
(ミリ秒の桁までの時間)がセットされる(これに対し
て、図29における変数Dには、上述したように、秒精
度の時間がセットされる)。
Pが、処理対象GOVの中で、最初に表示されるI-VOPより
も後に表示されるものであると判定された場合、ステッ
プS14に進み、注目B-VOPの表示時刻と、その直前に
表示されるI/P-VOP(処理対象GOVを構成するVOPのうち
の、注目B-VOPの直前に表示されるI/P-VOP)(Last dis
play I/P-VOP)の表示時刻との差分値が求められ、その
差分値が、変数Dにセットされて、ステップS15に進
む。
あるかどうか、即ち、time_codeと、注目B-VOPの表示時
刻との差分値、または注目B-VOPの表示時刻と、その直
前に表示されるI/P-VOPの表示時刻との差分値が、1秒
より大であるかどうかが判定される。ステップS5にお
いて、変数Dが1より大であると判定された場合、即
ち、modulo_time_baseのMSBとして、1が付加され、
ステップS17に進む。ステップS17では、変数Dが
1だけデクリメントされ、ステップS15に戻る。そし
て、ステップS15において、変数Dが1より大でない
と判定されるまで、ステップS15乃至S17の処理が
繰り返される。即ち、これにより、modulo_time_base
は、time_codeと、注目B-VOPの表示時刻との差分値、ま
たは注目B-VOPの表示時刻と、その直前に表示されるI/P
-VOPの表示時刻との差分値に対応する時間の秒数と同一
の数だけ「1」が連続し、その最後に0が付加された値
とされる。
が1より大でないと判定された場合、ステップS8に進
み、そのときの変数Dの値、即ち、time_codeと、注目B
-VOPの表示時刻との差分値、または注目B-VOPの表示時
刻と、その直前に表示されるI/P-VOPの表示時刻との差
分値の秒の位より下の位(ミリ秒単位の時間)が、VOP_
time_incrementにセットされ、処理を終了する。
odulo_time_baseおよびVOP_time_incrementは、VLC
回路36において、注目B-VOPに付加され、これによ
り、符号化ビットストリームの中に含められる。
して、VLC器36が、VOPのシーケンスを、GOVごとに
分けて処理を行うことにより出力する符号化ストリーム
の中のVOPの表示時刻を、各VOPについての符号化データ
を受信するごとに、そのVOPを注目VOPとして処理を行う
ことにより認識し、その表示時刻にVOPが表示されるよ
うに、可変長復号を行うようになされている。即ち、I
VLC器102は、GOVを受信すると、そのGOVのtime_c
odeを認識し、そのGOVを構成するI/P-VOPを受信するご
とに、そのI/P-VOPを注目I/P-VOPとして、図31のフロ
ーチャートにしたがい、注目I/P-VOPのmodulo_time_bas
eおよびVOP_time_incrementに基づき、その表示時刻を
求める。
に、ステップS21において、注目I/P-VOPが、処理対
象GOVの中で、最初に表示されるI-VOP(First I-VOP)
であるかどうかが判定される。ステップS21におい
て、注目I/P-VOPが、処理対象GOVの中で、最初に表示さ
れるI-VOPであると判定された場合、ステップS23に
進み、変数Tに、処理対象GOVのtime_codeがセットさ
れ、ステップS24に進む。
VOPが、処理対象GOVの中で、最初に表示されるI-VOPで
ないと判定された場合、ステップS22に進み、注目I/
P-VOPの直前に表示されるI/P-VOP(処理対象GOVを構成
するVOPのうちの、注目I/P-VOPの直前に表示されるI/P-
VOP)(Last display I/P-VOP)の表示時刻の秒の桁ま
でが、変数Tにセットされて、ステップS24に進む。
されているmodulo_time_baseが0Bに等しいかどうかが
判定される。ステップS24において、注目I/P-VOPに
付加されているmodulo_time_baseが0Bに等しくないと
判定された場合、即ち、注目I/P-VOPに付加されているm
odulo_time_baseに1が含まれる場合、ステップS25
に進み、そのmodulo_time_baseのMSBの1が削除さ
れ、ステップS26に進む。ステップS26では、変数
Tが1秒だけインクリメントされ、ステップS24に戻
り、以下、ステップS24において、注目I/P-VOPに付
加されているmodulo_time_baseが0Bに等しいと判定さ
れるまで、ステップS24乃至S26の処理を繰り返
す。これにより、変数Tは、注目I/P-VOPに、最初に付
加されていたmodulo_time_baseの1の数に対応する秒数
だけインクリメントされる。
P-VOPに付加されているmodulo_time_baseが0Bに等し
いと判定された場合、ステップS27に進み、変数T
に、VOP_time_incrementが表すミリ秒精度の時刻が加算
され、その加算値が、注目I/P-VOPの表示時刻として認
識されて、処理を終了する。
するB-VOPを受信した場合には、図32のフローチャー
トにしたがい、注目B-VOPのmodulo_time_baseおよびVOP
_time_incrementに基づき、その表示時刻が求められ
る。
に、ステップS31において、注目B-VOPが、処理対象G
OVの中で、最初に表示されるI-VOP(First I-VOP)より
も先に表示されるものであるかどうかが判定される。ス
テップS31において、注目B-VOPが、処理対象GOVの中
で、最初に表示されるI-VOPよりも先に表示されるもの
であると判定された場合、ステップS33に進み、以
下、ステップS33乃至S37において、図31のステ
ップS23乃至S27における場合とそれぞれ同様の処
理が行われることにより、注目B-VOPの表示時刻が求め
られる。
Pが、処理対象GOVの中で、最初に表示されるI-VOPより
も後に表示されるものであると判定された場合、ステッ
プS32に進み、以下、ステップS32,S34乃至S
37において、図31のステップS22,S24乃至S
27における場合とそれぞれ同様の処理が行われること
により、注目B-VOPの表示時刻が求められる。
と、それから予測されるB-VOPの表示時刻との間の時間
を、秒の桁まで求め、その値を、modulo_time_baseで表
現し、B-VOPの表示時刻のミリ秒精度を、VOP_time_incr
ementで表現する。即ち、VM6.0では、上述したように、
B-VOPの予測符号化時に参照画像として用いるI−VOPま
たはP−VOPに対する重みを、B-VOPから、それを挟むI−
VOPまたはP−VOPまでの時間的距離に基づいて決めるの
に、その時間的距離を、B-VOPについてのVOP_time_incr
ementとしており、このため、I−VOPおよびP−VOPにつ
いてのVOP_time_incrementが、直前に符号化/復号され
たmodulo_time_baseによって示された同期点からの時間
を表すのと異なっているが、B-VOPの表示時刻と、それ
を挟むI−VOPまたはP−VOPの表示時刻が分かれば、それ
らの間の時間的距離は、差分をとるだけで求めることが
でき、従って、B-VOPについてのVOP_time_incrementだ
けを、I−VOPおよびP−VOPについてのVOP_time_increme
ntと異なる取り扱いとする必要性は小さい。むしろ、処
理効率の観点からは、I,B,PのすべてのVOPのVOP_t
ime_incrment(詳細時間情報)、さらには、modulo_tim
e_base(秒精度時刻情報)は、同一の取り扱いとするの
が望ましい。
のmodulo_time_baseおよびVOP_time_incrementを、I/P
−VOPについてのものと同一の取り扱いとしている。
2の方法にしたがって、modulo_time_baseおよびVOP_ti
me_incrementを符号化した場合の、GOVについてのtime_
codeと、modulo_time_baseおよびVOP_time_incrementと
の関係を、図33に示す。
の付加を、I-VOPおよびP-VOPだけでなく、B-VOPに対し
ても許可する。そして、B-VOPに付加されるmodulo_time
_baseも、I/P-VOPに付加されるmodulo_time_baseと同様
に、同期点の切り替わりを表すものとする。
れているmodulo_time_baseによって示される同期点の時
刻を、そのB-VOPの表示時刻から減算した値が、そのVOP
_time_incrementとして設定される。
いて、GOVのtime_codeが表す時刻である、GOVの最初の
同期点から、時刻time_code+1秒で示される同期点ま
での間に表示されるI1またはB2のmodulo_time_base
は、いずれも0Bとされるとともに、それぞれのVOP_ti
me_incrementは、I1またはB2の表示時刻の秒の位よ
り下の位のミリ秒単位の値がセットされる。また、時刻
time_code+1秒で示される同期点から、時刻time_code
+2秒で示される同期点までの間に表示されるB3また
はB4のmodulo_time_baseは、いずれも10Bとされる
とともに、それぞれのVOP_time_incrementは、B3また
はB4の表示時刻の秒の位より下の位のミリ秒単位の値
がセットされる。さらに、時刻time_code+2秒で示さ
れる同期点から、時刻time_code+3秒で示される同期
点までの間に表示されるP5のmodulo_time_baseは11
0Bとされるとともに、そのVOP_time_incrementは、P
5の表示時刻の秒の位より下の位のミリ秒単位の値がセ
ットされる。
に、I1の表示時刻を、0h:12m:35s:350msとするととも
に、B4の表示時刻を、0h:12m:36s:550msとすると、I
1またはB4のmodulo_time_baseは、上述したように、
それぞれ0Bまたは10Bとされる。また、I1または
B4のVOP_time_incrementは、それぞれ、表示時刻のミ
リ秒単位である350msまたは550msとされる。
ime_baseとVOP_time_incrementについての処理も、例え
ば、第1の方法による場合と同様に、図9および図10
に示したVLC器36、並びに図15および図16に示
したIVLC器102において行われる。
ては、図29における場合と同様にして、modulo_time_
baseおよびVOP_time_incrementが求められる。
おいて、GOVを構成するB-VOPを受信するごとに、そのB-
VOPを注目B-VOPとして、図34のフローチャートにした
がい、注目B-VOPのmodulo_time_baseおよびVOP_time_in
crementが求められる。
テップS41において、図29のステップS1における
場合と同様にして、modulo_time_baseおよびVOP_time_i
ncrementがリセットされる。
Pが、処理対象としているGOV(処理対象GOV)の中で、
最初に表示されるI-VOP(First I-VOP)よりも先行して
表示されるものであるかどうかが判定される。ステップ
S12において、注目B-VOPが、処理対象GOVの中で、最
初に表示されるI-VOPよりも先行して表示されるもので
あると判定された場合、ステップS44に進み、処理対
象GOVのtime_codeと、注目B-VOPの表示時刻の秒精度と
の差分、即ち、time_codeと、注目B-VOPの表示時刻の秒
の桁までとの差分が求められ、変数Dにセットされて、
ステップS45に進む。
Pが、処理対象GOVの中で、最初に表示されるI-VOPより
も後に表示されるものであると判定された場合、ステッ
プS43に進み、注目B-VOPの表示時刻の秒の桁まで
と、その直前に表示されるI/P-VOP(処理対象GOVを構成
するVOPのうちの、注目B-VOPの直前に表示されるI/P-VO
P)(Last display I/P-VOP)の表示時刻の秒の桁まで
との差分値が求められ、その差分値が、変数Dにセット
されて、ステップS45に進む。
かどうか、即ち、time_codeと、注目B-VOPの表示時刻の
秒の桁までとの差分、または注目B-VOPの表示時刻の秒
の桁までと、その直前に表示されるI/P-VOPの表示時刻
の秒の桁までとの差分値が0秒であるかどうかが判定さ
れる。ステップS45において、変数Dが0に等しくな
いと判定された場合、即ち、変数Dが1以上である場
合、ステップS46に進み、modulo_time_baseのMSB
として、1が付加される。
1だけデクリメントされ、ステップS45に戻る。その
後、ステップS45において、変数Dが0に等しいと判
定されるまで、ステップS45乃至S47の処理が繰り
返される。即ち、これにより、modulo_time_baseは、ti
me_codeと、注目B-VOPの表示時刻の秒の桁までとの差
分、または注目B-VOPの表示時刻の秒の桁までと、その
直前に表示されるI/P-VOPの表示時刻の秒の桁までとの
差分値に対応する秒数と同一の数だけ「1」が連続し、
その最後に0が付加された値とされる。
が0に等しいと判定された場合、ステップS48に進
み、VOP_time_incrementに、注目B-VOPの表示時刻の秒
精度より細かい精度の時刻、即ち、ミリ秒単位の時刻が
セットされ、処理を終了する。
ついては、上述の図31における場合と同様にして、mo
dulo_time_baseおよびVOP_time_incrementに基づき、そ
の表示時刻が求められる。
02において、GOVを構成するB-VOPを受信するごとに、
そのB-VOPを注目B-VOPとして、図35のフローチャート
にしたがい、注目B-VOPのmodulo_time_baseおよびVOP_t
ime_incrementに基づき、その表示時刻が求められる。
に、ステップS51において、注目B-VOPが、処理対象G
OVの中で、最初に表示されるI-VOP(First I-VOP)より
も先行して表示されるものであるかどうかが判定され
る。ステップS51において、注目B-VOPが、処理対象G
OVの中で、最初に表示されるI-VOPよりも先行して表示
されるものであると判定された場合、ステップS52に
進み、変数Tに、処理対象GOVのtime_codeがセットさ
れ、ステップS54に進む。
Pが、処理対象GOVの中で、最初に表示されるI-VOPより
も後に表示されるものであると判定された場合、ステッ
プS53に進み、注目B-VOPの直前に表示されるI/P-VOP
(処理対象GOVを構成するVOPのうちの、注目B-VOPの直
前に表示されるI/P-VOP)(Last display I/P-VOP)の
表示時刻の秒の桁までが、変数Tにセットされて、ステ
ップS54に進む。
れているmodulo_time_baseが0Bに等しいかどうかが判
定される。ステップS54において、注目B-VOPに付加
されているmodulo_time_baseが0Bに等しくないと判定
された場合、即ち、注目B-VOPに付加されているmodulo_
time_baseに1が含まれる場合、ステップS55に進
み、そのmodulo_time_baseのMSBの1が削除され、ス
テップS56に進む。ステップS56では、変数Tが1
秒だけインクリメントされ、ステップS54に戻り、以
下、ステップS54において、注目B-VOPに付加されて
いるmodulo_time_baseが0Bに等しいと判定されるま
で、ステップS54乃至S56の処理を繰り返す。これ
により、変数Tは、注目B-VOPに、最初に付加されてい
たmodulo_time_baseの1の数に対応する秒数だけインク
リメントされる。
VOPに付加されているmodulo_time_baseが0Bに等しい
と判定された場合、ステップS57に進み、変数Tに、
VOP_time_incrementが表すミリ秒精度の時刻が加算さ
れ、その加算値が、注目B-VOPの表示時刻として認識さ
れて、処理を終了する。
構成(階層)の中に、符号化開始絶対時刻を符号化する
GOV層を導入し、このGOV層を、ビットストリームの先頭
だけでなく、適当な位置に挿入できるようなものとする
とともに、VM6.0で規定されていたmodulo_time_baseとV
OP_time_incrementの定義を、上述のように変更したの
で、VOPのピクチャタイプの並びや、隣接するVOPの時間
間隔などによらず、すべての場合において、各VOPの表
示時刻(絶対時刻)を求めることが可能となる。
絶対時刻を、GOV単位で符号化するとともに、各VOPのmo
dulo_time_baseとVOP_time_incrementを符号化し、符号
化ビットストリームに含めることで、デコーダでは、符
号化開始絶対時刻を、GOV単位で復号するとともに、VOP
のmodulo_time_baseおよびVOP_time_incrementを復号
し、それらから、各VOPの表示時刻を復号することがで
きるので、ランダムアクセスを、GOV単位で、効率的に
行うことが可能となる。
を、同期点の切り替わりにしたがって、単純に増加して
いくと、time_codeが示す時刻から、例えば、1時間
(3600秒)経過後は(但し、GOVが、それだけの時
間に相当するVOPで構成されるとする)、modulo_time_b
aseは、3600ビットの1と、1ビットの0とで構成
されるから、3601ビットという莫大なビット数にな
ることになる。
は、同期点の切り替わり後に最初に現れるI/P-VOPにお
いてリセットされるように規定されている。
Vが、そのtime_codeが表す時刻である、GOVの最初の同
期点から、時刻time_code+1秒で示される同期点まで
の間に表示されるI1およびB2、時刻time_code+1
秒で示される同期点から、時刻time_code+2秒で示さ
れる同期点までの間に表示されるB3およびB4、時刻
time_code+2秒で示される同期点から、時刻time_code
+3秒で示される同期点までの間に表示されるP5およ
びB6、時刻time_code+3秒で示される同期点から、
時刻time_code+4秒で示される同期点までの間に表示
されるB7、並びに時刻time_code+4秒で示される同
期点から、時刻time_code+5秒で示される同期点まで
の間に表示されるB8で構成される場合には、GOVの最
初の同期点から、時刻time_code+1秒で示される同期
点までの間に表示されるI1およびB2のmodulo_time_
baseは、0Bとされる。
期点から、時刻time_code+2秒で示される同期点まで
の間に表示されるB3およびB4のmodulo_time_base
は、10Bとされる。さらに、時刻time_code+2秒で
示される同期点から、時刻time_code+3秒で示される
同期点までの間に表示されるP5のmodulo_time_base
は、110Bとされる。
ら、時刻time_code+1秒で示される同期点に切り替わ
った後に、最初に表示されるP-VOPであるから、modulo_
time_baseは、0Bにリセットされ、その後に表示され
るB6のmodulo_time_baseは、P5の表示時刻を求める
ときに参照される同期点、即ち、いまの場合、時刻time
_code+2秒で示される同期点を、GOVの最初の同期点と
みなして設定される。従って、B6のmodulo_time_base
は、0Bとされる。
同期点から、時刻time_code+4秒で示される同期点ま
での間に表示されるB7のmodulo_time_baseは、10B
とされ、時刻time_code+4秒で示される同期点から、
時刻time_code+5秒で示される同期点までの間に表示
されるB8のmodulo_time_baseは、110Bとされる。
エンコーダ側(VLC器36)の処理は、上述のように
して、modulo_time_baseを設定するようになっている。
102)では、同期点の切り替わり後に最初に表示され
るI/P-VOPを検出した場合は、それに付加されているmod
ulo_time_baseによって示される秒数を、time_codeに累
積加算して、表示時刻を求める必要があるが、即ち、例
えば、図36に示した場合においては、I1乃至P5の
表示時刻は、time_codeに、各VOPに付加されているmodu
lo_time_baseに対応する秒数と、VOP_time_incrementと
を加算して求めれば良いが、同期点の切り替わり後に最
初に表示されるP5の後に表示されるB6乃至B8の表
示時刻は、time_codeに、各VOPに付加されているmodulo
_time_baseに対応する秒数と、VOP_time_incrementとを
加算する他に、さらに、P5のmodulo_time_baseに対応
する秒数である2秒を加算して求める必要があるが、図
31、図32、および図35で説明した処理は、そのよ
うにして、表示時刻を求めるようになされている。
ーダは、それ専用のハードウェアによって実現すること
もできるし、コンピュータに、上述したような処理を行
わせるためのプログラムを実行させることによっても実
現することができる。
のデコーダとして機能するコンピュータの一実施の形態
の構成例を示している。
えば、ブートプログラムなどを記憶している。CPU
(Central Processing Unit)202は、例えば、HD
(HardDisk)206に記憶されたプログラムを、RAM
(Read Only Memory)203上に展開して実行すること
で、各種の処理を行うようになされている。RAM20
3は、CPU202が実行するプログラムや、CPU2
02の処理上必要なデータを一時記憶するようになされ
ている。入力部204は、例えば、キーボードやマウス
などでなり、必要なコマンドやデータを入力するときな
どに操作される。出力部205は、例えば、ディスプレ
イなどでなり、CPU202の制御にしたがったデータ
を表示する。HD206は、CPU202が実行すべき
プログラム、さらには、エンコード対象の画像データ
や、エンコード後のデータ(符号化ビットストリー
ム)、デコード後の画像データなどを記憶するようにな
されている。通信I/F(Interface)207は、外部
との通信を制御することにより、例えば、エンコード対
象の画像データを、外部から受信したり、また、エンコ
ード後の符号化ビットストリームを外部に送信したりす
るようになされている。また、通信I/F207は、外
部でエンコードされた符号化ビットストリームを受信し
たり、また、デコード後の画像データを、外部に送信す
るようにもなされている。
PU202に、上述したような処理を行うためのプログ
ラムを実行させることにより、このコンピュータは、図
1に示したエンコーダや、図13に示したデコーダとし
て機能することになる。
mentは、VOPの表示時刻を、1ms単位で表すものとした
が、VOP_time_incrementは、その他、例えば、次のよう
なものとすることも可能である。即ち、1の同期点か
ら、その次の同期点までの間を、N個に分割し、VOPの
表示時刻に対応する分割点が、1の同期点から何番目の
分割点かを表す値を、VOP_time_incrementとすることが
可能である。このようにVOP_time_incrementを定義した
場合、N=1000とすると、VOP_time_incrementは、
VOPの表示時刻を、1ms単位で表すものとなる。なお、こ
の場合、デコーダでは、1の同期点から、その次の同期
点までの間を幾つに分割したかという情報が必要となる
が、同期点の間の分割数は、あらかじめ定めておいても
良いし、あるいは、GOV層よりも上位の階層に含めて、
デコーダに提供するようにしても良い。
請求項2に記載の画像符号化方法によれば、秒精度の時
刻を表す秒精度時刻情報が生成され、I−VOP,P−
VOP、またはB−VOPそれぞれの表示時刻の直前の
秒精度時刻情報から、それぞれの表示時刻までの時間
を、秒精度より細かい精度で表す詳細時間情報が生成さ
れる。従って、秒精度時刻情報および詳細時間情報に基
づいて、I−VOP,P−VOP、またはB−VOPそ
れぞれの表示時刻を認識し、その認識結果に基づいて、
ランダムアクセスを行うことが可能となる。
項6に記載の画像復号方法によれば、I−VOP,P−
VOP、またはB−VOPそれぞれの表示時刻が、秒精
度時刻情報および詳細時間情報に基づいて求められる。
従って、その表示時刻に基づいて、ランダムアクセスを
行うことが可能となる。
度の時刻を表す秒精度時刻情報を生成し、I−VOP,
P−VOP、またはB−VOPそれぞれの表示時刻の直
前の秒精度時刻情報から、それぞれの表示時刻までの時
間を、秒精度より細かい精度で表す詳細時間情報を生成
し、I−VOP,P−VOP、またはB−VOPの表示
時刻を表す情報として、秒精度時刻情報および詳細時間
情報を、対応するI−VOP,P−VOP、またはB−
VOPにそれぞれ付加することにより得られる符号化ス
トリームが記録されている。従って、秒精度時刻情報お
よび詳細時間情報に基づいて、I−VOP,P−VO
P、またはB−VOPそれぞれの表示時刻を認識し、そ
の認識結果に基づいて、ランダムアクセスを行うことが
可能となる。
構成例を示すブロック図である。
ことを説明するための図である。
すブロック図である。
る。
る。
る。
る。
の決定方法を説明するための図である。
ブロック図である。
すブロック図である。
ある。
ある。
構成例を示すブロック図である。
構成例を示すブロック図である。
すブロック図である。
すブロック図である。
ストリームのシンタクスを示す図である。
関係を示す図である。
を示す図である。
のI−VOPのmodulo_time_baseとVOP_time_increment
の符号化方法を示す図である。
のI−VOPよりも前に位置するB−VOPのmodulo_t
ime_baseとVOP_time_incrementの符号化方法を示す図で
ある。
義を変更しない場合のそれらの関係を示す図である。
ncrementの第1の方法による符号化処理を示す図であ
る。
me_incrementの第1および第2の方法による符号化処理
を示すフローチャートである。
ncrementの第1の方法による符号化処理を示すフローチ
ャートである。
P−VOPのmodulo_time_baseとVOP_time_incrementの
復号処理を示すフローチャートである。
dulo_time_baseとVOP_time_incrementの復号処理を示す
フローチャートである。
ncrementの第2の方法による符号化処理を示す図であ
る。
ncrementの第2の方法による符号化処理を示すフローチ
ャートである。
dulo_time_baseとVOP_time_incrementの復号処理を示す
フローチャートである。
である。
の他の実施の形態の構成例を示すブロック図である。
ク図である。
図である。
乃至3N VOP符号化部, 4 多重化部, 21
画像階層化部, 23 上位レイヤ符号化部,24 解
像度変換部, 25 下位レイヤ符号化部, 26 多
重化部, 31フレームメモリ, 32 動きベクトル
検出器, 33 演算器, 34 DCT器, 35
量子化器, 36 VLC器, 38 逆量子化器,
39IDCT器, 40 演算器, 41 フレームメ
モリ, 42 動き補償器,53 フレームメモリ,
71 逆多重化部, 721乃至72N VOP復号部,
73 画像再構成部, 91 逆多重化部, 93
上位レイヤ復号部,94 解像度変換部, 95 下位
レイヤ復号部, 102 IVLC器,103 逆量子
化器, 104 IDCT器, 105 演算器, 1
06 フレームメモリ, 107 動き補償器, 11
2 フレームメモリ, 201ROM, 202 CP
U, 203 RAM, 204 入力部, 205出
力部, 206 HD, 207 通信I/F
Claims (9)
- 【請求項1】 画像を、その画像を構成するオブジェク
トごとに符号化し、その結果得られる符号化ビットスト
リームを出力する画像符号化装置であって、 イントラ符号化されるオブジェクトをI−VOP(Intr
a-Video Object Plane)と、イントラ符号化または前方
予測符号化のうちのいずれかで符号化されるオブジェク
トをP−VOP(Predictive-VOP)と、イントラ符号
化、前方予測符号化、後方予測符号化、または両方向予
測符号化のうちのいずれかで符号化されるオブジェクト
をB−VOP(Biderectionally Predictive-VOP)と、
それぞれするとき、 秒精度の時刻を表す秒精度時刻情報を生成する秒精度時
刻情報生成手段と、 前記I−VOP,P−VOP、またはB−VOPそれぞ
れの表示時刻の直前の前記秒精度時刻情報から、それぞ
れの表示時刻までの時間を、秒精度より細かい精度で表
す詳細時間情報を生成する詳細時間情報生成手段と、 前記I−VOP,P−VOP、またはB−VOPの表示
時刻を表す情報として、前記秒精度時刻情報および詳細
時間情報を、対応する前記I−VOP,P−VOP、ま
たはB−VOPにそれぞれ付加する付加手段とを備える
ことを特徴とする画像符号化装置。 - 【請求項2】 画像を、その画像を構成するオブジェク
トごとに符号化し、その結果得られる符号化ビットスト
リームを出力する画像符号化方法であって、 イントラ符号化されるオブジェクトをI−VOP(Intr
a-Video Object Plane)と、イントラ符号化または前方
予測符号化のうちのいずれかで符号化されるオブジェク
トをP−VOP(Predictive-VOP)と、イントラ符号
化、前方予測符号化、後方予測符号化、または両方向予
測符号化のうちのいずれかで符号化されるオブジェクト
をB−VOP(Biderectionally Predictive-VOP)と、
それぞれするとき、 秒精度の時刻を表す秒精度時刻情報を生成する秒精度時
刻情報生成ステップと、 前記I−VOP,P−VOP、またはB−VOPそれぞ
れの表示時刻の直前の前記秒精度時刻情報から、それぞ
れの表示時刻までの時間を、秒精度より細かい精度で表
す詳細時間情報を生成する詳細時間情報生成ステップ
と、 前記I−VOP,P−VOP、またはB−VOPの表示
時刻を表す情報として、前記秒精度時刻情報および詳細
時間情報を、対応する前記I−VOP,P−VOP、ま
たはB−VOPにそれぞれ付加する付加ステップとを備
えることを特徴とする画像符号化方法。 - 【請求項3】 前記秒精度時刻情報生成ステップにおい
て、前記オブジェクトのシーケンスを、1以上のグルー
プに分けて符号化する場合の、そのグループのオブジェ
クトの符号化を開始した、前記画像のシーケンス上の絶
対時刻であって、秒精度の時刻である符号化開始秒精度
絶対時刻を基準とした秒精度の時刻を、前記秒精度時刻
情報として生成することを特徴とする請求項2に記載の
画像符号化方法。 - 【請求項4】 前記秒精度時刻情報生成ステップにおい
て、所定のオブジェクトについての秒精度時刻情報とし
て、前記符号化開始秒精度絶対時刻から、前記所定のオ
ブジェクトの表示時刻までの時間を、秒精度で表したも
の、または前記所定のオブジェクトの直前に表示される
I−VOPもしくはP−VOPの表示時刻から、前記所
定のオブジェクトの表示時刻までの時間を、秒精度で表
したものを生成することを特徴とする請求項3に記載の
画像符号化方法。 - 【請求項5】 画像を、その画像を構成するオブジェク
トごとに符号化して得られる符号化ビットストリームを
復号する画像復号装置であって、 イントラ符号化されるオブジェクトをI−VOP(Intr
a-Video Object Plane)と、イントラ符号化または前方
予測符号化のうちのいずれかで符号化されるオブジェク
トをP−VOP(Predictive-VOP)と、イントラ符号
化、前方予測符号化、後方予測符号化、または両方向予
測符号化のうちのいずれかで符号化されるオブジェクト
をB−VOP(Biderectionally Predictive-VOP)と、
それぞれするととともに、 秒精度の時刻を表す秒精度時刻情報と、前記I−VO
P,P−VOP、またはB−VOPそれぞれの表示時刻
の直前の前記秒精度時刻情報から、それぞれの表示時刻
までの時間を、秒精度より細かい精度で表す詳細時間情
報とが、前記表示時刻を表す情報として、対応する前記
I−VOP,P−VOP、またはB−VOPにそれぞれ
付加されているとき、 前記I−VOP,P−VOP、またはB−VOPそれぞ
れの表示時刻を、前記秒精度時刻情報および詳細時間情
報に基づいて求める表示時刻算出手段と、 前記I−VOP,P−VOP、またはB−VOPを、対
応する表示時刻にしたがって復号する復号手段とを備え
ることを特徴とする画像復号装置。 - 【請求項6】 画像を、その画像を構成するオブジェク
トごとに符号化して得られる符号化ビットストリームを
復号する画像復号方法であって、 イントラ符号化されるオブジェクトをI−VOP(Intr
a-Video Object Plane)と、イントラ符号化または前方
予測符号化のうちのいずれかで符号化されるオブジェク
トをP−VOP(Predictive-VOP)と、イントラ符号
化、前方予測符号化、後方予測符号化、または両方向予
測符号化のうちのいずれかで符号化されるオブジェクト
をB−VOP(Biderectionally Predictive-VOP)と、
それぞれするととともに、 秒精度の時刻を表す秒精度時刻情報と、前記I−VO
P,P−VOP、またはB−VOPそれぞれの表示時刻
の直前の前記秒精度時刻情報から、それぞれの表示時刻
までの時間を、秒精度より細かい精度で表す詳細時間情
報とが、前記表示時刻を表す情報として、対応する前記
I−VOP,P−VOP、またはB−VOPにそれぞれ
付加されているとき、 前記I−VOP,P−VOP、またはB−VOPそれぞ
れの表示時刻を、前記秒精度時刻情報および詳細時間情
報に基づいて求める表示時刻算出ステップと、 前記I−VOP,P−VOP、またはB−VOPを、対
応する表示時刻にしたがって復号する復号ステップとを
備えることを特徴とする画像復号方法。 - 【請求項7】 前記秒精度時刻情報は、前記オブジェク
トのシーケンスが、1以上のグループに分けて符号化さ
れている場合の、そのグループのオブジェクトの符号化
を開始した、前記画像のシーケンス上の絶対時刻であっ
て、秒精度の時刻である符号化開始秒精度絶対時刻を基
準とした秒精度の時刻を表すことを特徴とする請求項6
に記載の画像復号方法。 - 【請求項8】 所定のオブジェクトについての秒精度時
刻情報として、前記符号化開始秒精度絶対時刻から、前
記所定のオブジェクトの表示時刻までの時間を、秒精度
で表したもの、または前記所定のオブジェクトの直前に
表示されるI−VOPもしくはP−VOPの表示時刻か
ら、前記所定のオブジェクトの表示時刻までの時間を、
秒精度で表したものが用いられていることを特徴とする
請求項7に記載の画像復号方法。 - 【請求項9】 画像を、その画像を構成するオブジェク
トごとに符号化して得られる符号化ビットストリームが
記録されている記録媒体であって、 イントラ符号化されるオブジェクトをI−VOP(Intr
a-Video Object Plane)と、イントラ符号化または前方
予測符号化のうちのいずれかで符号化されるオブジェク
トをP−VOP(Predictive-VOP)と、イントラ符号
化、前方予測符号化、後方予測符号化、または両方向予
測符号化のうちのいずれかで符号化されるオブジェクト
をB−VOP(Biderectionally Predictive-VOP)と、
それぞれするとき、 秒精度の時刻を表す秒精度時刻情報を生成し、 前記I−VOP,P−VOP、またはB−VOPそれぞ
れの表示時刻の直前の前記秒精度時刻情報から、それぞ
れの表示時刻までの時間を、秒精度より細かい精度で表
す詳細時間情報を生成し、 前記I−VOP,P−VOP、またはB−VOPの表示
時刻を表す情報として、前記秒精度時刻情報および詳細
時間情報を、対応する前記I−VOP,P−VOP、ま
たはB−VOPにそれぞれ付加することにより得られる
前記符号化ストリームが記録されていることを特徴とす
る記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9968397 | 1997-04-01 | ||
JP9-99683 | 1997-04-01 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP08075898A Division JP3380980B2 (ja) | 1997-04-01 | 1998-03-27 | 画像符号化方法、並びに画像復号方法および画像復号装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001036911A true JP2001036911A (ja) | 2001-02-09 |
JP3380983B2 JP3380983B2 (ja) | 2003-02-24 |
Family
ID=14253845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000176666A Expired - Fee Related JP3380983B2 (ja) | 1997-04-01 | 2000-06-13 | 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体 |
Country Status (14)
Country | Link |
---|---|
US (5) | US6414991B1 (ja) |
EP (2) | EP1152622B9 (ja) |
JP (1) | JP3380983B2 (ja) |
KR (2) | KR100417932B1 (ja) |
CN (3) | CN100579230C (ja) |
AT (2) | ATE425637T1 (ja) |
AU (1) | AU732452B2 (ja) |
CA (1) | CA2255923C (ja) |
ES (2) | ES2323358T3 (ja) |
HK (3) | HK1043461B (ja) |
ID (1) | ID20680A (ja) |
IL (2) | IL127274A (ja) |
TW (1) | TW398150B (ja) |
WO (1) | WO1998044742A1 (ja) |
Families Citing this family (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100417932B1 (ko) * | 1997-04-01 | 2004-02-11 | 소니 가부시끼 가이샤 | 영상 인코더, 영상 부호화 방법, 영상 디코더 및 영상 복호화 방법 |
JP4261630B2 (ja) * | 1998-02-04 | 2009-04-30 | キヤノン株式会社 | 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体 |
JP2000013790A (ja) | 1998-06-19 | 2000-01-14 | Sony Corp | 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体 |
US6637031B1 (en) * | 1998-12-04 | 2003-10-21 | Microsoft Corporation | Multimedia presentation latency minimization |
EP1018840A3 (en) * | 1998-12-08 | 2005-12-21 | Canon Kabushiki Kaisha | Digital receiving apparatus and method |
ID24586A (id) * | 1998-12-21 | 2000-07-27 | Matsushita Electric Ind Co Ltd | Perangkat dan metode penyelarasan waktu dengan menggunakan modul basis waktu dan resolusi peningkatan waktu |
US6499060B1 (en) | 1999-03-12 | 2002-12-24 | Microsoft Corporation | Media coding for loss recovery with remotely predicted data units |
US7589789B2 (en) * | 1999-05-08 | 2009-09-15 | Lg Electronics Inc. | Video converting device and method for digital TV |
US6639943B1 (en) * | 1999-11-23 | 2003-10-28 | Koninklijke Philips Electronics N.V. | Hybrid temporal-SNR fine granular scalability video coding |
US7020195B1 (en) * | 1999-12-10 | 2006-03-28 | Microsoft Corporation | Layered coding and decoding of image data |
WO2001045425A1 (en) * | 1999-12-14 | 2001-06-21 | Scientific-Atlanta, Inc. | System and method for adaptive decoding of a video signal with coordinated resource allocation |
US6697426B1 (en) * | 2000-03-17 | 2004-02-24 | Koninklijke Philips Electronics N.V. | Reduction of layer-decoding complexity by reordering the transmission of enhancement layer frames |
JP4208398B2 (ja) * | 2000-10-05 | 2009-01-14 | 株式会社東芝 | 動画像復号再生装置、動画像復号再生方法及びマルチメディア情報受信装置 |
US6618445B1 (en) * | 2000-11-09 | 2003-09-09 | Koninklijke Philips Electronics N.V. | Scalable MPEG-2 video decoder |
EP1336303A2 (en) * | 2000-11-23 | 2003-08-20 | Koninklijke Philips Electronics N.V. | Video coding method |
US7397851B2 (en) * | 2001-05-10 | 2008-07-08 | Roman Kendyl A | Separate plane compression |
JP2005506815A (ja) * | 2001-10-26 | 2005-03-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 空間拡張可能圧縮のための方法及び装置 |
JP2005513926A (ja) * | 2001-12-20 | 2005-05-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオの符号化及び復号の方法 |
US7274857B2 (en) | 2001-12-31 | 2007-09-25 | Scientific-Atlanta, Inc. | Trick modes for compressed video streams |
US7483487B2 (en) * | 2002-04-11 | 2009-01-27 | Microsoft Corporation | Streaming methods and systems |
KR100865034B1 (ko) | 2002-07-18 | 2008-10-23 | 엘지전자 주식회사 | 모션 벡터 예측 방법 |
JP4007594B2 (ja) * | 2002-09-26 | 2007-11-14 | 株式会社東芝 | 動画像符号化装置及び方法、動画像符号化方式変換装置及び方法 |
US7864838B2 (en) * | 2002-10-01 | 2011-01-04 | Panasonic Corporation | Picture encoding device, image decoding device and their methods |
US7738552B2 (en) * | 2002-12-06 | 2010-06-15 | Broadcom Company | Processing data streams |
KR20060105408A (ko) * | 2005-04-01 | 2006-10-11 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
US8761252B2 (en) * | 2003-03-27 | 2014-06-24 | Lg Electronics Inc. | Method and apparatus for scalably encoding and decoding video signal |
KR20060109247A (ko) * | 2005-04-13 | 2006-10-19 | 엘지전자 주식회사 | 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치 |
WO2004093001A1 (en) * | 2003-04-11 | 2004-10-28 | Sumtotal Llc | Adaptive subtraction image compression |
US8085844B2 (en) * | 2003-09-07 | 2011-12-27 | Microsoft Corporation | Signaling reference frame distances |
US7577198B2 (en) | 2003-09-07 | 2009-08-18 | Microsoft Corporation | Number of reference fields for an interlaced forward-predicted field |
US7966642B2 (en) * | 2003-09-15 | 2011-06-21 | Nair Ajith N | Resource-adaptive management of video storage |
US20050100098A1 (en) * | 2003-10-23 | 2005-05-12 | Gong-Sheng Lin | Highly integrated mpeg-4 video decoding unit |
SE0303085D0 (sv) * | 2003-11-18 | 2003-11-18 | Scalado Ab | Method for creating a compressed digital image representation and image representation format |
US20050135478A1 (en) * | 2003-12-18 | 2005-06-23 | Van Der Schaar Mihaela | Reduction of layer-decoding complexity by reordering the transmission of enhancement layer frames |
US8600217B2 (en) * | 2004-07-14 | 2013-12-03 | Arturo A. Rodriguez | System and method for improving quality of displayed picture during trick modes |
JP2008507194A (ja) * | 2004-07-15 | 2008-03-06 | サムスン エレクトロニクス カンパニー リミテッド | 動き情報符号化装置及び方法、動き情報復号化装置及び方法、これを採用したスケーラブル映像符号化装置及び方法とスケーラブル映像復号化装置及び方法 |
US7792190B2 (en) * | 2004-09-09 | 2010-09-07 | Media Tek Singapore Pte Ltd. | Inserting a high resolution still image into a lower resolution video stream |
US20090080519A1 (en) * | 2004-10-18 | 2009-03-26 | Electronics And Telecommunications Research Institute | Method for encoding/decoding video sequence based on mctf using adaptively-adjusted gop structure |
WO2006049412A1 (en) * | 2004-11-01 | 2006-05-11 | Electronics And Telecommunications Research Institute | Method for encoding/decoding a video sequence based on hierarchical b-picture using adaptively-adjusted gop structure |
US8634413B2 (en) * | 2004-12-30 | 2014-01-21 | Microsoft Corporation | Use of frame caching to improve packet loss recovery |
US8175168B2 (en) * | 2005-03-18 | 2012-05-08 | Sharp Laboratories Of America, Inc. | Methods and systems for picture up-sampling |
US7961963B2 (en) * | 2005-03-18 | 2011-06-14 | Sharp Laboratories Of America, Inc. | Methods and systems for extended spatial scalability with picture-level adaptation |
US7725799B2 (en) * | 2005-03-31 | 2010-05-25 | Qualcomm Incorporated | Power savings in hierarchically coded modulation |
US8660180B2 (en) * | 2005-04-01 | 2014-02-25 | Lg Electronics Inc. | Method and apparatus for scalably encoding and decoding video signal |
EP1880553A4 (en) * | 2005-04-13 | 2011-03-02 | Lg Electronics Inc | METHOD AND DEVICE FOR DECODING A VIDEO SIGNAL USING REFERENCE PICTURES |
US8619860B2 (en) * | 2005-05-03 | 2013-12-31 | Qualcomm Incorporated | System and method for scalable encoding and decoding of multimedia data using multiple layers |
US8842666B2 (en) * | 2005-05-13 | 2014-09-23 | Qualcomm Incorporated | Methods and apparatus for packetization of content for transmission over a network |
US20070014346A1 (en) * | 2005-07-13 | 2007-01-18 | Nokia Corporation | Coding dependency indication in scalable video coding |
US8755434B2 (en) * | 2005-07-22 | 2014-06-17 | Lg Electronics Inc. | Method and apparatus for scalably encoding and decoding video signal |
US20070031054A1 (en) * | 2005-08-08 | 2007-02-08 | Neomagic Israel Ltd. | Encoding DCT coordinates |
KR100891662B1 (ko) * | 2005-10-05 | 2009-04-02 | 엘지전자 주식회사 | 비디오 신호 디코딩 및 인코딩 방법 |
KR20070038396A (ko) * | 2005-10-05 | 2007-04-10 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
FR2895172A1 (fr) * | 2005-12-20 | 2007-06-22 | Canon Kk | Procede et dispositif de codage d'un flux video code suivant un codage hierarchique, flux de donnees, procede et dispositif de decodage associes |
US20070230567A1 (en) * | 2006-03-28 | 2007-10-04 | Nokia Corporation | Slice groups and data partitioning in scalable video coding |
US20080043832A1 (en) * | 2006-08-16 | 2008-02-21 | Microsoft Corporation | Techniques for variable resolution encoding and decoding of digital video |
US8773494B2 (en) | 2006-08-29 | 2014-07-08 | Microsoft Corporation | Techniques for managing visual compositions for a multimedia conference call |
US20090033791A1 (en) * | 2007-07-31 | 2009-02-05 | Scientific-Atlanta, Inc. | Video processing systems and methods |
US20090167775A1 (en) * | 2007-12-30 | 2009-07-02 | Ning Lu | Motion estimation compatible with multiple standards |
US8300696B2 (en) | 2008-07-25 | 2012-10-30 | Cisco Technology, Inc. | Transcoding for systems operating under plural video coding specifications |
KR101557504B1 (ko) * | 2009-04-13 | 2015-10-07 | 삼성전자주식회사 | 채널 적응형 비디오 전송 방법, 이를 이용한 장치 및 이를 제공하는 시스템 |
WO2011005624A1 (en) | 2009-07-04 | 2011-01-13 | Dolby Laboratories Licensing Corporation | Encoding and decoding architectures for format compatible 3d video delivery |
US8681858B2 (en) * | 2009-12-23 | 2014-03-25 | General Instrument Corporation | Rate control for two-pass encoder |
US8731152B2 (en) | 2010-06-18 | 2014-05-20 | Microsoft Corporation | Reducing use of periodic key frames in video conferencing |
WO2012047496A1 (en) * | 2010-10-08 | 2012-04-12 | Dolby Laboratories Licensing Corporation | Scalable frame compatible multiview encoding and decoding methods |
US8553109B2 (en) * | 2011-07-20 | 2013-10-08 | Broadcom Corporation | Concurrent image processing for generating an output image |
KR102059060B1 (ko) | 2011-09-28 | 2019-12-24 | 선 페이턴트 트러스트 | 화상 부호화 방법, 화상 복호화 방법, 화상 부호화 장치, 화상 복호화 장치 및 화상 부호화 복호화 장치 |
US9161060B2 (en) * | 2011-09-30 | 2015-10-13 | Broadcom Corporation | Multi-mode error concealment, recovery and resilience coding |
CN104620583A (zh) * | 2012-05-14 | 2015-05-13 | 卢卡·罗萨托 | 基于支持信息的残差数据的编码和重构 |
US9961363B2 (en) | 2012-10-09 | 2018-05-01 | Intellectual Discovery Co., Ltd. | Inter-layer prediction method for multi-layer video and device therefor |
KR20140087971A (ko) | 2012-12-26 | 2014-07-09 | 한국전자통신연구원 | 계층적 비디오 부호화에서 다중참조계층을 적용한 화면간 부/복호화 방법 및 그 장치 |
US9998750B2 (en) | 2013-03-15 | 2018-06-12 | Cisco Technology, Inc. | Systems and methods for guided conversion of video from a first to a second compression format |
US9998765B2 (en) * | 2014-07-16 | 2018-06-12 | Qualcomm Incorporated | Transport stream for carriage of video coding extensions |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5060285A (en) | 1989-05-19 | 1991-10-22 | Gte Laboratories Incorporated | Hierarchical variable block size address-vector quantization using inter-block correlation |
US5414469A (en) * | 1991-10-31 | 1995-05-09 | International Business Machines Corporation | Motion video compression system with multiresolution features |
GB9206860D0 (en) * | 1992-03-27 | 1992-05-13 | British Telecomm | Two-layer video coder |
KR100317868B1 (ko) * | 1993-07-12 | 2002-04-24 | 이데이 노부유끼 | 화상복호화방법및장치와,화상부호화방법및장치 |
CA2126467A1 (en) * | 1993-07-13 | 1995-01-14 | Barin Geoffry Haskell | Scalable encoding and decoding of high-resolution progressive video |
US5515377A (en) * | 1993-09-02 | 1996-05-07 | At&T Corp. | Adaptive video encoder for two-layer encoding of video signals on ATM (asynchronous transfer mode) networks |
KR960020018A (ko) * | 1994-11-17 | 1996-06-17 | 배순훈 | 가변길이복호화장치 |
JPH08294127A (ja) * | 1995-04-24 | 1996-11-05 | Matsushita Electric Ind Co Ltd | 画像圧縮装置 |
US5828788A (en) * | 1995-06-29 | 1998-10-27 | Thomson Multimedia, S.A. | System for processing data in variable segments and with variable data resolution |
JP3788823B2 (ja) * | 1995-10-27 | 2006-06-21 | 株式会社東芝 | 動画像符号化装置および動画像復号化装置 |
US6055012A (en) * | 1995-12-29 | 2000-04-25 | Lucent Technologies Inc. | Digital multi-view video compression with complexity and compatibility constraints |
US6111596A (en) * | 1995-12-29 | 2000-08-29 | Lucent Technologies Inc. | Gain and offset correction for efficient stereoscopic coding and improved display |
JP3186775B2 (ja) * | 1996-07-05 | 2001-07-11 | 松下電器産業株式会社 | Vopの時刻復号化方法 |
EP0818930B1 (en) * | 1996-07-08 | 2002-05-22 | Hyundai Curitel, Inc. | Video coding method |
US5886736A (en) * | 1996-10-24 | 1999-03-23 | General Instrument Corporation | Synchronization of a stereoscopic video sequence |
US6043846A (en) * | 1996-11-15 | 2000-03-28 | Matsushita Electric Industrial Co., Ltd. | Prediction apparatus and method for improving coding efficiency in scalable video coding |
US6148026A (en) * | 1997-01-08 | 2000-11-14 | At&T Corp. | Mesh node coding to enable object based functionalities within a motion compensated transform video coder |
KR100417932B1 (ko) * | 1997-04-01 | 2004-02-11 | 소니 가부시끼 가이샤 | 영상 인코더, 영상 부호화 방법, 영상 디코더 및 영상 복호화 방법 |
US6057884A (en) * | 1997-06-05 | 2000-05-02 | General Instrument Corporation | Temporal and spatial scaleable coding for video object planes |
US6233356B1 (en) * | 1997-07-08 | 2001-05-15 | At&T Corp. | Generalized scalability for video coder based on video objects |
WO1999021367A1 (fr) * | 1997-10-20 | 1999-04-29 | Mitsubishi Denki Kabushiki Kaisha | Codeur et decodeur d'image |
-
1998
- 1998-03-31 KR KR10-2001-7007032A patent/KR100417932B1/ko not_active IP Right Cessation
- 1998-03-31 AT AT98911112T patent/ATE425637T1/de active
- 1998-03-31 IL IL127274A patent/IL127274A/en not_active IP Right Cessation
- 1998-03-31 EP EP20010115561 patent/EP1152622B9/en not_active Expired - Lifetime
- 1998-03-31 EP EP98911112A patent/EP0914007B9/en not_active Expired - Lifetime
- 1998-03-31 ID ID980127D patent/ID20680A/id unknown
- 1998-03-31 CN CN200410102290A patent/CN100579230C/zh not_active Expired - Fee Related
- 1998-03-31 KR KR10-1998-0709790A patent/KR100418141B1/ko not_active IP Right Cessation
- 1998-03-31 AT AT01115561T patent/ATE425638T1/de active
- 1998-03-31 CA CA 2255923 patent/CA2255923C/en not_active Expired - Fee Related
- 1998-03-31 CN CNB988003767A patent/CN1186944C/zh not_active Expired - Fee Related
- 1998-03-31 ES ES01115561T patent/ES2323358T3/es not_active Expired - Lifetime
- 1998-03-31 IL IL167288A patent/IL167288A/en not_active IP Right Cessation
- 1998-03-31 WO PCT/JP1998/001453 patent/WO1998044742A1/ja active Application Filing
- 1998-03-31 AU AU65202/98A patent/AU732452B2/en not_active Ceased
- 1998-03-31 TW TW87104835A patent/TW398150B/zh not_active IP Right Cessation
- 1998-03-31 ES ES98911112T patent/ES2323482T3/es not_active Expired - Lifetime
- 1998-11-25 US US09/200,064 patent/US6414991B1/en not_active Expired - Lifetime
-
2000
- 2000-06-13 JP JP2000176666A patent/JP3380983B2/ja not_active Expired - Fee Related
-
2001
- 2001-04-02 CN CNB011123478A patent/CN1185876C/zh not_active Expired - Fee Related
-
2002
- 2002-03-08 HK HK02101793.5A patent/HK1043461B/zh not_active IP Right Cessation
- 2002-04-24 US US10/128,903 patent/US20020114391A1/en not_active Abandoned
- 2002-04-24 US US10/131,016 patent/US6535559B2/en not_active Expired - Lifetime
- 2002-04-24 US US10/128,904 patent/US6643328B2/en not_active Expired - Lifetime
- 2002-05-06 HK HK02103434A patent/HK1043707A1/xx not_active IP Right Cessation
- 2002-12-30 US US10/334,174 patent/US7302002B2/en not_active Expired - Fee Related
-
2005
- 2005-12-12 HK HK05111418A patent/HK1080650A1/xx not_active IP Right Cessation
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3380983B2 (ja) | 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体 | |
KR100629092B1 (ko) | 화상 인코딩 장치와 방법, 화상 디코딩 장치와 방법, 및 제공 매체 | |
US6427027B1 (en) | Picture encoding and/or decoding apparatus and method for providing scalability of a video object whose position changes with time and a recording medium having the same recorded thereon | |
US6567427B1 (en) | Image signal multiplexing apparatus and methods, image signal demultiplexing apparatus and methods, and transmission media | |
JP3371191B2 (ja) | 画像信号の符号化方法及び復号方法、並びに、符号化装置及び復号装置 | |
JP3380980B2 (ja) | 画像符号化方法、並びに画像復号方法および画像復号装置 | |
JP3345887B2 (ja) | 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体 | |
CA2421090C (en) | Picture coding device, picture coding method, picture decoding device, picture decoding method, and providing medium | |
JP2001045496A (ja) | 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、並びに記録媒体および記録方法 | |
JP2001054120A (ja) | 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに記録媒体 | |
JP3263812B2 (ja) | 画像符号化装置および画像符号化方法、並びに画像復号化装置および画像復号化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021106 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071220 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081220 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091220 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091220 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101220 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101220 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111220 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111220 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121220 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121220 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131220 Year of fee payment: 11 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |