JPWO2002080575A1 - 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体 - Google Patents

画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体 Download PDF

Info

Publication number
JPWO2002080575A1
JPWO2002080575A1 JP2002577446A JP2002577446A JPWO2002080575A1 JP WO2002080575 A1 JPWO2002080575 A1 JP WO2002080575A1 JP 2002577446 A JP2002577446 A JP 2002577446A JP 2002577446 A JP2002577446 A JP 2002577446A JP WO2002080575 A1 JPWO2002080575 A1 JP WO2002080575A1
Authority
JP
Japan
Prior art keywords
activity
act
normalization
average
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002577446A
Other languages
English (en)
Inventor
杉山 晃
晃 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2002080575A1 publication Critical patent/JPWO2002080575A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4342Demultiplexing isochronously with video sync, e.g. according to bit-parallel or bit-serial interface formats, as SDI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23602Multiplexing isochronously with the video sync, e.g. according to bit-parallel or bit-serial interface formats, as SDI

Abstract

フレームの絵柄の特性に応じてアクティビティの正規化を行い、適応量子化による画質の最適化を行う。マクロブロック毎の正規化アクティビティnorm_act[m]を、フレームの平均アクティビティavg_actおよびマクロブロック毎のアクティビティact[m]を用いて、次の式(1)および式(2)により求める。attはパラメータであり、例えばatt=0.125とする。これにより、正規化アクティビティnorm_act[m]は、1/norm_gainからnorm_gainの範囲に正規化される。norm_gainは、平均アクティビティavg_actに比例するので、平均アクティビティavg_actの小さい平坦な絵柄の画像は、正規化の範囲も小さくなり、マクロブロック間の量子化値に余り差が付かず、画面均一的に量子化される。一方、平均アクティビティavg_actが大きい複雑な絵柄の画像は、正規化の範囲も大きくなり、マクロブロック間の量子化が積極的に差を付けられ、平坦なマクロブロックでは細かな量子化が、複雑なマクロブロックでは粗い量子化が行われる。

Description

技術分野
この発明は、画像信号に対してブロック単位で量子化することで画像信号の圧縮符号化を行い、その際に、フレーム毎の符号量が一定量以下になるように発生符号量を制御する画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体に関する。
背景技術
従来から、画像データの圧縮符号化方式として、画像データを所定画素数から成るブロック単位で量子化を行うことで圧縮符号化するものが知られている。例えばMPEG2(Moving Pictures Experts Group 2)では、このような圧縮符号化方式が採用されている。MPEG2では、画像データを所定画素数から成るブロック単位でDCT(Discrete Cosine Transform)し、得られたDCT係数に対して量子化を行うことで、画像データを圧縮符号化する。MPEG2では、量子化の際の量子化ステップが量子化スケールにより指定されて、DCT係数の圧縮符号化が行われる。
従来より、例えばこのMPEG2の圧縮符号化において、圧縮する画像の複雑さや滑らかさを示すアクティビティ(Activity)という指数を算出し、このアクティビティに基づく適応量子化を用いて画質の最適化を図る方法が知られている。
これは、圧縮処理による画質劣化が視覚的に目立ちやすい、画像が単調で滑らかな領域(以下、平坦領域という)では、量子化ステップの細かい量子化スケールを用いて細かく量子化し、これと反対に、画質劣化の目立ちにくい画像が複雑な領域では、量子化ステップの粗い量子化スケールを用いて粗く量子化を行なう手法であり、限られた符号量の中で画質の最適化を図る有効な手法である。
ところで、画像データの圧縮を行なう場合、上述したように、各画像の領域を所定サイズの画素ブロックに分割し、各ブロック毎に量子化やDCTを行なうことになる。MPEG2による規格では、8画素×8ラインのブロックが最小処理単位として規定される。この8画素×8ラインのブロックでDCTを行ない、このDCTにより得られたDCT係数を、16画素×16ラインのマクロブロック単位で量子化するように規定されている。
一方、上述したアクティビティの算出を行なう単位としては、明確な規定はないものの、MPEG2のTM5(Test Model 5)においては、DCTブロックと同様の8画素×8ラインのサブブロックで処理することが提案されている。
以下、MPEG2のTM5で採用された「視覚特性を考慮した適応量子化」におけるアクティビティの算出方法について説明する。
先ず、適応量子化とは、例えば1フレーム内での発生符号量を制御するために、画像の状態によって異なる量子化スケールQjを用いて量子化を行うように、量子化スケールQjを各マクロブロック毎のアクティビティにより変化させて、高画質を達成するものである。例えば、視覚的に画質劣化の目立ちやすい画像の平坦領域では、より細かい量子化ステップを有する量子化スケールQjを用いて量子化を行い、画質劣化の比較的目立ちにくい絵柄の複雑な画像領域で、より粗い量子化ステップを有する量子化スケールQjを用いて量子化を行うように、アクティビティにより量子化スケールQjを変化させる。
アクティビティは、予測誤差でなく、原画における輝度信号の画素値を用い、フレームDCT符号化モードにおける4個のブロックと、フィールドDCT符号化モードにおける4個のブロックとの合計8個のブロックの画素値を用いて算出される。例えば、j番目のマクロブロックについて、以下の式(1)〜式(3)で与えられる演算を、式(3)、式(2)、式(1)の順に行なうことにより、アクティビティactが求められる。
Figure 2002080575
ここで、Pは、原画の輝度信号ブロック内の画素値であり、式(3)では8×8のブロック内の64個の画素値を合計し、これを64で割ることにより、ブロック内の画素値Pの平均値Pavgを求めている。次に、式(2)では、平均値Pavgと画素値Pそれぞれとの差分をとり、8×8のブロック内の平均差分値var_sblkを算出している。さらに、式(1)において、平均差分値var_sblkの最小値を採用し、j番目のマクロブロックのアクティビティactを求める。なお、ここで最小値を採用するのは、マクロブロック内の一部だけでも平坦な部分のある場合には、このマクロブロックに対する量子化を細かくする必要があるからである。
そして、MPEG2のTM5では、以上のようにして求めた各マクロブロックのアクティビティactから、「2.0」〜「0.5」の範囲の値をとる正規化アクティビティNactを、次の式(4)より求める。
Figure 2002080575
ここで、「avg_act」は、現在処理中のフレーム(ピクチャ)の1つ前に符号化したフレームにおけるアクティビティactの平均値(平均アクティビティ)である。
そして、視覚特性を考慮した量子化スケールmquantは、1フレームの発生符号量を制御するために別途求められた量子化スケールQに基づいて、次の(5)式で与えられる。
Figure 2002080575
このような量子化スケールmquantを用いて各マクロブロックの量子化を行なうことにより、1フレームの全体の符号量を所定の範囲内に保ちながら、そのフレームにおける画像の平坦度や複雑度に応じた最適な量子化を行ない、限られた符号量を有効に用いて画像の品位をできるだけ劣化させることなく効率的な画像圧縮を行なう。
上述したMPEG2のTM5による正規化では、正規化アクティビティNactは、上述した式(4)で求められる。つまり、どのような絵柄のフレームであろうと、正規化の範囲は、「0.5」〜「2.0」となる。したがって、例えば平坦な絵柄のフレームでは、各マクロブロック間の量子化値に差がつきすぎてしまうという問題点があった。
一方、複雑な絵柄のフレームでは、絵柄が複雑な部分のマクロブロックに符号量をとられて、相対的に絵柄が平坦な部分のマクロブロックの符号量が制限される。そのため、視覚的に劣化の目立ちやすい平坦なマクロブロックの画質が劣化するという問題点があった。
この画質劣化は、特に圧縮率が低く符号量に比較的余裕のある場合に、画像全体が高画質になることにより、顕著になる。
したがって、この発明の目的は、フレームの絵柄の特性に応じてアクティビティの正規化を行い、適応量子化による画質の最適化を行うことができる画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体を提供することにある。
発明の開示
この発明は、上述した課題を解決するために、画像データから平均アクティビティを算出する平均アクティビティ算出手段と、平均アクティビティ算出手段により算出された平均アクティビティに応じて正規化範囲を動的に設定し、正規化範囲に基づき平均アクティビティを用いて正規化アクティビティを算出する正規化アクティビティ算出手段と、正規化アクティビティ算出手段により算出された正規化アクティビティを用いて画像データを量子化する量子化手段とを有することを特徴とする画像処理装置である。
また、この発明は、画像データから平均アクティビティを算出する平均アクティビティ算出のステップと、平均アクティビティ算出のステップにより算出された平均アクティビティに応じて正規化範囲を動的に設定し、正規化範囲に基づき平均アクティビティを用いて正規化アクティビティを算出する正規化アクティビティ算出のステップと、正規化アクティビティ算出のステップにより算出された正規化アクティビティを用いて画像データを量子化する量子化のステップとを有することを特徴とする画像処理方法である。
また、この発明は、画像データを量子化する画像処理方法をコンピュータ装置に実行させる画像処理プログラムにおいて、画像処理方法は、入力された画像データから平均アクティビティを算出する平均アクティビティ算出のステップと、平均アクティビティ算出のステップにより算出された平均アクティビティに応じて正規化範囲を動的に設定し、正規化範囲に基づき平均アクティビティを用いて正規化アクティビティを算出する正規化アクティビティ算出のステップと、正規化アクティビティ算出のステップにより算出された正規化アクティビティを用いて画像データを量子化する量子化のステップとを有することを特徴とする画像処理プログラムである。
また、この発明は、画像データを量子化する画像処理方法をコンピュータ装置に実行させる画像処理プログラムが記録された記録媒体において、画像処理方法は、入力された画像データから平均アクティビティを算出する平均アクティビティ算出のステップと、平均アクティビティ算出のステップにより算出された平均アクティビティに応じて正規化範囲を動的に設定し、正規化範囲に基づき平均アクティビティを用いて正規化アクティビティを算出する正規化アクティビティ算出のステップと、正規化アクティビティ算出のステップにより算出された正規化アクティビティを用いて画像データを量子化する量子化のステップとを有することを特徴とする記録媒体である。
上述したように、この発明は、入力された画像データから算出された平均アクティビティに応じて正規化範囲を動的に設定し、正規化範囲に基づき平均アクティビティを用いて正規化アクティビティを算出し、算出された正規化アクティビティを用いて画像データを量子化するようにしているため、画像の特性に応じて量子化を行うことができる。
発明を実施するための最良の形態
以下、この発明の実施の一形態について説明する。この発明では、対象となる範囲の正規化アクティビティを、その対象範囲の画像の特性、例えば対象範囲の絵柄の平坦さや複雑さ、すなわち平均アクティビティに基づき正規化範囲を動的に変更して求める。こうして求められた正規化アクティビティに基づき、対象範囲の画像を量子化する。
一例として、対象範囲をフレームとすると、フレーム全体が平坦な絵柄の画像については、アクティビティの正規化の範囲を狭くする。これにより、画像全体で均一に近いアクティビティを用いて量子化を行なうことができ、画像全体で均一な平坦度を確保し、高画質を得ることが可能となる。逆に、1フレーム内に絵柄の複雑な領域と平坦領域が混在するような画像については、アクティビティの正規化の範囲を広くする。これにより、ノイズの目立ちやすい絵柄の平坦な領域にはより大きい符号量を割り当てて精細な量子化を行ない、ノイズの目立ちにくい、絵柄の複雑な領域には粗い量子化を行なうことにより、視覚的に良質な画像を得ることができる。
より具体的には、第1の例として、1フレームの平均アクティビティをavg_act、マクロブロックアドレスmのマクロブロックのアクティビティをact[m]とした場合、正規化アクティビティnorm_act[m]を、以下に示す式(6)および式(7)により算出する。
Figure 2002080575
なお、式(6)および式(7)において、act[m]およびavg_actが共に0になると、分母が0になってしまうので、この場合は、norm_act[m]=1として扱うものとする。また、attは、パラメータであり、例えばatt=0.125を与える。
ここで、式(7)は、従来技術で既に説明した、MPEGのTM5による正規化アクティビティの算出方法における式(4)の係数「2」を、値norm_gainに置き換えたものである。式(7)によれば、アクティビティact[m]=0であれば、正規化アクティビティnorm_act[m]=1/norm_gainとなる。一方、アクティビティact[m]が平均アクティビティavg_actに対して非常に大きな値であれば、正規化アクティビティnorm_act[m]は、値norm_gainに近づく。すなわち、マクロブロック毎の正規化アクティビティnorm_act[m]は、1/norm_gainからnorm_gainの範囲に正規化されることになる。
値norm_gainは、式(6)に示されるように、平均アクティビティavg_actに比例する。したがって、平均アクティビティavg_actの小さい、絵柄の平坦なフレームは、正規化の範囲が狭くなり、マクロブロック間の量子化値にあまり差を付けず、フレームで均一的に量子化が行われる。一方、平均アクティビティavg_actの大きい、絵柄の複雑なフレームは、正規化の範囲が広くなり、マクロブロック間の量子化値に対して積極的に差を付けられ、平坦なマクロブロックでは細かな量子化がなされ、複雑なマクロブロックでは粗く量子化がなされる。
第2の例として、上述の第1の例による式(7)における被除数側のアクティビティact[m]および除数側の平均アクティビティavg_actをそれぞれ二乗した式を用いることもできる。この第2の例によるマクロブロック毎の正規化アクティビティnorm_act[m]の算出方法を、式(8)および式(9)に示す。なお、式(8)および式(9)において、各値の意味は、上述の式(6)および式(7)と同一である。
Figure 2002080575
Figure 2002080575
なお、式(8)および式(9)において、act[m]およびavg_actが共に0になると、分母が0になってしまうので、この場合は、norm_act[m]=1として扱うものとする。また、attは、パラメータであり、例えばatt=0.125を与える。
この第2の例の式(8)および式(9)によっても、上述した第1の例による式(6)および式(7)と同様に、マクロブロック毎の正規化アクティビティnorm_act[m]は、1/norm_gainからnorm_gainの範囲に正規化されることになる。したがって、上述の第1の例と同様に、平均アクティビティavg_actの小さい、絵柄の平坦な画像では、均一的に量子化が行われ、平均アクティビティavg_actの大きい、絵柄の複雑な画像では、マクロブロック間の量子化値に対して積極的に差を付けられる。
この第2の例では、上述の第1の例に対して被除数側のアクティビティact[m]および除数側の平均アクティビティavg_act[m]がそれぞれ二乗されている。そのため、第1の例による結果よりも、平均アクティビティavg_actの値およびマクロブロック毎のアクティビティact[m]の値の変化に対する正規化アクティビティnorm_act[m]の差を顕著にすることでき、より好ましい結果が得られる。以下では、この第2の例を中心に説明する。
第1図は、上述した第2の例による正規化を表す式(8)および式(9)の一例の特性を示すグラフである。また、第2図は、従来の技術で説明したMPEGのTM5による正規化の式(4)の一例の特性を示すグラフである。第1図および第2図において、X軸、Y軸、Z軸は、それぞれ平均アクティビティavg_act、アクティビティact[m]、正規化アクティビティnorm_act[m]を示す。また、第1図および第2図中に示される範囲「女性」、「NOISE」、「羊」および「芝」は、それぞれ第3図および第4図に示されるサンプル画像の、対応する部分における正規化アクティビティnorm_act[m]の範囲を示す。
なお、第3図は、全体的に平坦な絵柄から構成される画像の例である。特に、背景に掲げられる絵柄は、それぞれが単一若しくは数色により塗り潰された図形より構成され、画像としては簡単な構成であるといえる。「芝」および「羊」部分は、共に背景の絵の一部である。一方、第4図は、複雑な絵柄と平坦な絵柄とが混在する画像の例である。中央部に円で縁取りされて表示される「女性」と、周囲の「NOISE」部分からなる。「女性」部分は、第3図と同様に、比較的平坦な絵柄であるが、周囲の「NOISE」部分は、画素レベルで見たときの部隣接との相関性が低く、複雑な絵柄である。
第1図において、平均アクティビティavg_act=0では、正規化アクティビティnorm_act=1であり、平均アクティビティavg_act=16のときnorm_gain=3となり、正規化アクティビティnorm_act[m]は、1/3<norm_act[m]<3の範囲に分布することが分かる。なお、第1図では、norm_gainは、rateとして記述されている。
一方、第2図では、アクティビティact[m]が64までしか表示されていないので、わかりにくいが、平均アクティビティavg_actがどのような値をとっても、正規化アクティビティnorm_act[m]は、1/2<norm_act[m]<2の正規化範囲に分布するのが分かる。
第1図と第2図とを対比させると、この発明が適用された第1図では、正規化アクティビティnorm_act[m]は、同一画像内の複雑な絵柄である「NOISE」には広い範囲が、比較的平坦な絵柄である「女性」には狭い範囲が割り当てられているのが分かる。これに対して、MPEGのTM5が適用された第2図では、「NOISE」および「女性」に対して、それぞれ同程度の正規化アクティビティnorm_act[m]の範囲が割り当てられている。一方、平坦な絵柄である「羊」および「芝」に対しては、正規化アクティビティnorm_act[m]の範囲は、MPEGのTM5による第2図に比して、この発明による第1図の方が小さく抑えられている。
第5図〜第8図は、上述の第3図および第4図に示すサンプル画像のそれぞれにおける、MPEGのTM5による正規化アクティビティnorm_act[m]と、この発明による正規化アクティビティnorm_act[m]の画像内での分布を示す。これら第5図〜第8図において、図中の「●(黒丸)」は、その直径が、画像内の対応する位置(マクロブロック)の正規化アクティビティnorm_act[m]の値を相対的に示す。また、第5図および第6図が上述の第3図に対応し、第7図および第8図が上述の第4図に対応する。
なお、上述した第3図に示される画像の平均アクティビティavg_actは、avg_act=3程度である。また、上述した第4図に示される画像の平均アクティビティavg_actは、avg_act=16程度である。
第5図は、上述の第3図に示される画像について、従来の技術であるMPEGのTM5による正規化を用いた場合の正規化アクティビティnorm_act[m]の例を示す。平坦な画像(例えばカレンダーの文字の無い部分、列車の手前側の部分)を含むマクロブロックは、小さな値の正規化アクティビティnorm_act[m]となり、複雑な画像(例えばカレンダーの絵の部分、左上部の木の部分)を含むマクロブロックは大きな値の正規化アクティビティnorm_act[m]として求められ、画像全体としては、マクロブロック毎に正規化アクティビティnorm_act[m]が大きく変化していることが分かる。
これは、特に圧縮率が低く、符号量に比較的余裕がある場合には、マクロブロック間の量子化値に大きな差が生じてしまう。そのため、画像全体が高画質になった分、マクロブロック間の画質の差が顕著に観測されることになる。
第6図は、上述の第3図に示される画像ついて、この発明による正規化を用いた場合の正規化アクティビティnorm_act[m]の例を示す。上述の第5図と比べて、「●(黒丸)」の大きさのバラツキが少なく、正規化アクティビティnorm_act[m]の値が画像全体で比較的に均一化されていることが分かる。すなわち、平坦な画像を含むマクロブロックも、複雑な画像を含むマクロブロックも、第5図の例に比べて、正規化アクティビティnorm_act[m]の値にそれ程、差が付けられていないことが分かる。適応量子化は、正規化アクティビティnorm_act[m]の値に比例した量子化値で量子化されるため、画像全体が比較的均一に量子化されることになる。
平均アクティビティavg_actが大きい第4図の例について説明する。第7図は、上述の第4図の画像について、従来の技術であるMPEGのTM5による正規化を用いた場合の正規化アクティビティnorm_act[m]の例を示す。なお、この第7図は、上述の第5図に対して、正規化アクティビティnorm_act[m]の値を示す「●(黒丸)」の直径の比率が変更されている。
第7図では上述の第5図と同様に、平坦な画像(例えば「女性」の部分)を含むマクロブロックは、小さな値の正規化アクティビティnorm_act[m]となり、複雑な画像(「NOISE」の部分)を含むマクロブロックは、大きな値の正規化アクティビティnorm_act[m]として求められ、マクロブロック毎に正規化アクティビティnorm_act[m]が変化していることが分かる。
しかしながら、第7図の例では、ノイズ(NOISE)部分のように非常に複雑な画像を含むマクロブロックに符号量をとられて、相対的に、平坦な画像を含むマクロブロックの符号量が制限されてしまう。そのため、視覚的に劣化の目立ち易い平坦な画像を含むマクロブロックの画質が劣化してしまう。
第8図は、上述の第4図に示される画像について、この発明による正規化を用いた場合の正規化アクティビティnorm_act[m]の例を示す。この発明では、画像の平均アクティビティavg_actに応じて正規化アクティビティnorm_act[m]の正規化範囲を動的に変更している。そのため、第4図のように、画像が複雑で、平均アクティビティavg_actの値が大きい(第4図の例ではact_avg=16程度)場合には、正規化アクティビティnorm_act[m]の範囲は、例えば1/3<norm_act[m]<3というように、平均アクティビティavg_actが小さい画像に比して大きくされ、広い正規化範囲とされる。
そのため、平坦な画像を含むマクロブロックは、より小さな正規化アクティビティnorm_act[m]とされ、ノイズ部分のように非常に複雑な画像を含むマクロブロックは、より大きな正規化アクティビティnorm_act[m]の値とされる。第8図の例では、平坦な画像を含む部分と非常に複雑な画像を含む部分とで、正規化アクティビティnorm_act[m]の値に大きな差が付けられていることが分かる。
このように、この発明を用いることにより、絵柄などの画像の特性に応じて適応量子化が変更され、視覚特性上その画像の特性に最適な画質を達成することが可能とされる。
次に、この発明の実施の一形態を実際の構成に適用した例について説明する。第9図Aおよび第9図Bは、この発明の実施の一形態が適用されたディジタルVTRの一例の構成を示す。このディジタルVTRは、MPEG方式により圧縮符号化されたディジタルビデオ信号を記録媒体に直接的に記録することができるようにしたものである。
先ず、このディジタルVTRにおける記録系の構成および処理動作について説明する。この記録系に外部より入力される信号は、SDI(Serial Data Interface)信号およびSDTI(Serial Data Transport Interface)信号の2種類のシリアルディジタルインターフェイス信号、アナログインターフェイス信号および制御信号である外部基準信号REFである。
なお、SDIは、(4:2:2)コンポーネントビデオ信号とディジタルオーディオ信号と付加的データとを伝送するために、SMPTEによって規定されたインターフェイスである。また、SDTIは、ディジタルビデオ信号がMPEG方式で圧縮符号化されたストリームであるMPEGエレメンタリストリーム(以下、MPEG ESと称する)が伝送されるインターフェイスである。ESは、4:2:2のコンポーネントであり、また、上述したように、全てIピクチャのストリームであり、IGOP=1ピクチャの関係を有する。SDTI−CP(Content Package)のフォーマットでは、MPEG ESがアクセスユニットへ分離され、また、フレーム単位のパケットにパッキングされている。SDTI−CPでは、十分な伝送帯域(クロックレートで27MHzまたは36MHz、ストリームビットレートで270M bpsまたは360M bps)を使用しており、1フレーム期間で、バースト的にESを送ることが可能である。
SDIにより伝送されるSDI信号は、SDI入力部101に入力される。また、アナログビデオ信号からなるアナログ入力信号がアナログ入力部120に入力される。アナログ入力部120では、入力されたアナログ入力信号をディジタル信号に変換し、例えば上述のSDIフォーマットにマッピングして出力する。アナログ入力信号が変換されSDIフォーマットにマッピングされたこのSDI信号は、SDI入力部101に供給される。
SDI入力部101では、供給されたSDI信号をシリアル信号からパラレル信号に変換して出力すると共に、SDI信号に含まれる入力の位相基準である入力同期信号を抽出し、タイミングジェネレータTG102に出力する。
また、SDI入力部101は、変換したパラレル信号からビデオ信号とオーディオ信号とを分離する。分離されたビデオ入力信号とオーディオ入力信号は、それぞれMPEGエンコーダ103とディレイ回路104に出力される。
タイミングジェネレータTG102は、入力された外部基準信号REFから基準同期信号を抽出する。タイミングジェネレータTGでは、この基準同期信号とSDI入力部101から供給された入力同期信号とのうち、所定に指定された基準信号に同期して、このディジタルVTRで必要なタイミング信号を生成し、タイミングパルスとして各ブロックに供給する。
MPEGエンコーダ103は、入力されたビデオ入力信号を、DCT変換して係数データに変換し、係数データを量子化した後、可変長符号化する。MPEGエンコーダ103から出力される可変長符号化(VLC)データは、MPEG2に準拠したエレメンタリストリーム(ES)である。この出力は、記録側のマルチフォーマットコンバータ(以下、記録側MFCと称する)106の一方の入力端に供給される。
ディレイ回路104は、入力されたオーディオ入力信号を、非圧縮データのままで、MPEGエンコーダ103でのビデオ信号に対する処理のディレイに合わせるためのディレイラインの働きをするものである。このディレイ回路104で所定に遅延されたオーディオ信号は、ECCエンコーダ107に出力される。これは、この実施の一形態によるディジタルVTRにおいて、オーディオ信号が非圧縮信号として扱われるためである。
外部からSDTIにより伝送され供給されたSDTI信号は、SDTI入力部105に入力される。SDTI信号は、SDTI入力部105で同期検出される。そして、バッファに一旦溜め込まれ、エレメンタリストリームが抜き出される。抜き出されたエレメンタリストリームは、記録側MFC106の他方の入力端に供給される。同期検出されて得られた同期信号は、上述したタイミングジェネレータTG102に供給される(図示しない)。
なお、SDTI入力部105では、さらに、入力されたSDTI信号からディジタルオーディオ信号を抽出する。抽出されたディジタルオーディオ信号は、ECCエンコーダ107に供給される。
このように、この実施の一形態によるディジタルVTRは、SDI入力部101から入力されるベースバンドのビデオ信号と独立して、MPEG ESを直接的に入力することができる。
記録側MFC回路106は、ストリームコンバータとセレクタとを有し、SDI入力部101およびSDTI入力部105から供給されたMPEG ESのうち、何れかが選択され、選択されたMPEG ESのDCT係数を、1マクロブロックを構成する複数のDCTブロックを通して周波数成分毎にまとめ、まとめた周波数成分を低周波数成分から順に並び替える。MPEG ESの係数が並べ替えられたストリームを、以下、変換エレメンタリストリームと称する。このようにMPEG ESを再配置することにより、サーチ再生時にもなるべく多くのDC係数と低次のAC係数を拾い、サーチ画の品位向上に貢献している。変換エレメンタリストリームは、ECCエンコーダ107に供給される。
ECCエンコーダ107は、大容量のメインメモリが接続され(図示しない)、パッキングおよびシャフリング部、オーディオ用外符号エンコーダ、ビデオ用外符号エンコーダ、内符号エンコーダ、オーディオ用シャフリング部およびビデオ用シャフリング部などを内蔵する。また、ECCエンコーダ109は、シンクブロック単位でIDを付加する回路や、同期信号を付加する回路を含む。なお、実施の第1の形態では、ビデオ信号およびオーディオ信号に対するエラー訂正符号としては、積符号が使用される。積符号は、ビデオ信号またはオーディオ信号の2次元配列の縦方向に外符号の符号化を行い、その横方向に内符号の符号化を行い、データシンボルを2重に符号化するものである。外符号および内符号としては、リードソロモンコード(Reed−Solomon code)を使用できる。
ECCエンコーダ107には、MFC回路106から出力された変換エレメンタリストリームが供給されると共に、SDTI入力部105およびディレイ回路104から出力されたオーディオ信号が供給される。ECCエンコーダ107では、供給された変換エレメンタリストリーム及びオーディオ信号に対してシャフリング及びエラー訂正符号化を施し、シンクブロック毎にIDおよび同期信号を付加し記録データとして出力する。
ECCエンコーダ107から出力された記録データは、記録アンプを含むイコライザEQ108で記録RF信号に変換される。記録RF信号は、回転ヘッドが所定に設けられた回転ドラム109に供給され、磁気テープ110上に記録される。回転ドラム109には、実際には、隣接するトラックを形成するヘッドのアジマスが互いに異なる複数の磁気ヘッドが取り付けられている。
記録データに対して必要に応じてスクランブル処理を行っても良い。また、記録時にディジタル変調を行っても良く、さらに、パーシャル・レスポンスクラス4とビタビ符号を使用しても良い。なお、イコライザ108は、記録側の構成と再生側の構成とを共に含む。
次に、このディジタルVTRにおける再生系の構成および処理動作について説明する。再生時には、磁気テープ110から回転ドラム109で再生された再生信号が再生アンプなどを含むイコライザ108の再生側の構成に供給される。イコライザ108では、再生信号に対して、等化や波形整形などがなされる。また、ディジタル変調の復調、ビタビ復号等が必要に応じてなされる。イコライザ108の出力は、ECCデコーダ111に供給される。
ECCデコーダ111は、上述したECCエンコーダ107と逆の処理を行うもので、大容量のメインメモリと、内符号デコーダ、オーディオ用およびビデオ用それぞれのデシャフリング部ならびに外符号デコーダを含む。さらに、ECCデコーダ111は、ビデオ用として、デシャフリングおよびデパッキング部、データ補間部を含む。同様に、オーディオ用として、オーディオAUX分離部とデータ補間部を含む。
ECCデコーダ111では、再生データに対して同期検出を行い、シンクブロックの先頭に付加されている同期信号を検出してシンクブロックを切り出す。再生データは、シンクブロック毎の内符号のエラー訂正がなされ、その後、シンクブロックに対してID補間処理がなされる。IDが補間された再生データは、ビデオデータとオーディオデータとに分離される。ビデオデータおよびオーディオデータは、それぞれデシャフリング処理され、記録時にシャフリングされたデータ順が元に戻される。デシャフリングされたデータは、それぞれ外符号のエラー訂正が行われる。
ECCデコーダ111において、エラー訂正能力を超え、訂正できないエラーがあるデータに関しては、エラーフラグがセットされる。ここで、ビデオデータのエラーに関しては、エラーを含むデータを指し示す信号ERRが出力される。
エラー訂正された再生オーディオデータは、SDTI出力部115に供給されると共に、ディレイ回路114で所定の遅延を与えられてSDI出力部116に供給される。ディレイ回路114は、後述するMPEGデコーダ113でのビデオデータの処理による遅延を吸収するために設けられる。
一方、エラー訂正されたビデオデータは、再生変換エレメンタリストリームとして再生側MFC回路112に供給される。上述した信号ERRも、再生側MFC回路112に供給される。再生側MFC112は、上述した記録側MFC106と逆の処理を行うものであって、ストリームコンバータを含む。ストリームコンバータでは、記録側のストリームコンバータと逆の処理がなされる。すなわち、DCTブロックに跨がって周波数成分毎に並べられていたDCT係数を、DCTブロック毎に並び替える。これにより、再生信号がMPEG2に準拠したエレメンタリストリームに変換される。このとき、ECCデコーダ111から信号ERRが供給された場合は、対応するデータをMPEG2に完全に準拠する信号に置き換えて出力する。
再生側MFC回路112から出力されたMPEG ESは、MPEGデコーダ113およびSDTI出力部115に供給される。MPEGデコーダ113は、供給されたMPEG ESを復号し、非圧縮の元のビデオ信号に戻す。すなわち、MPEGデコーダ113は、供給されたMPEG ESに対して逆量子化処理と、逆DCT処理とを施す。復号されたビデオ信号は、SDI出力部116に供給される。
上述したように、SDI出力部116には、ECCデコーダ111でビデオデータと分離されたオーディオデータがディレイ114を介して供給されている。SDI出力部116では、供給されたビデオデータとオーディオデータとを、SDIのフォーマットにマッピングし、SDIフォーマットのデータ構造を有するSDI信号へ変換される。このSDI信号が外部に出力される。
一方、SDTI出力部115には、上述したように、ECCデコーダ111でビデオデータと分離されたオーディオデータが供給されている。SDTI出力部115では、供給された、エレメンタリストリームとしてのビデオデータと、オーディオデータとをSDTIのフォーマットにマッピングし、SDTIフォーマットのデータ構造を有するSDTI信号へ変換されるこのSDTI信号が外部に出力される。
なお、システムコントローラ117(第9図Aおよび第9図B中では、シスコン117と略記する)は、例えばマイクロコンピュータからなり、信号SY_IOにより各ブロックと通信を行うことにより、このディジタルVTRの全体の動作を制御する。サーボ118は、信号SY_SVによりシステムコントローラ117と互いに通信を行いながら、信号SV_IOにより、磁気テープ110の走行制御や回転ドラム109の駆動制御などを行う。
第10図A、第10図Bおよび第10図Cは、上述したMPEGエンコーダ103の一例の構成を、より具体的に示す。また、第10図A、第10図Bおよび第10図Cの各部において転送されるストリームの構成例を、第11図A、第11図Bおよび第11図C、第12図A、第12図Bおよび第12図C、第13図Aおよび第13図B、第14図Aおよび第14図B、第15図A、第15図Bおよび第15図C、第16図A、第16図Bおよび第16図C、ならびに、第17図にそれぞれ示す。
MPEGエンコーダ103は、入力フィールドアクティビティ平均化処理部103A、プリエンコード処理部103Bおよびエンコード部103Cからなる。入力フィールドアクティビティ平均化処理部103Aでは、入力されたビデオデータのアクティビティの平均値が求められてプリエンコード処理部103Bに渡される。プリエンコード処理部103Bでは、このアクティビティの平均値を用いて入力ビデオデータの量子化による発生符号量が見積もられる。この見積もり結果に基づき、エンコード部103Cにおいて、符号量制御しながら入力ビデオデータに対する実際の量子化が行われ、量子化されたビデオデータに対しさらに可変長符号化がなされ、MPEG ESとされて出力される。
なお、タイミングジェネレータTG220は、例えば第9図Aおよび第9図BのタイミングジェネレータTG103から供給された水平同期信号HD、垂直同期信号VDおよびフィールド同期信号FLDに基づき、MPEGエンコーダ103内で必要とされるタイミング信号を生成し出力する。また、CPU I/Fブロック221は、第9図Aおよび第9図Bのシステムコントローラ117とのインターフェイスであり、CPU I/Fブロック221を介してやりとりされた制御信号やデータにより、MPEGエンコーダ103における動作が制御される。
先ず、入力フィールドアクティビティ平均化処理部103Aの処理について説明する。SDI入力部101から出力されMPEGエンコーダ103に入力されたビデオデータは、入力部201に供給され、メインメモリ203に格納するのに適したインターフェイスに変換されると共に、パリティチェックがなされる。入力部201から出力されたビデオデータは、ヘッダ作成部202に供給され、垂直ブランキング区間などを利用してMPEGにおける、sequence_header、quantizer_matrix、gop_headerなどの各ヘッダが抽出される。抽出された各ヘッダは、メインメモリ203に格納される。これらのヘッダは、主に、CPU I/Fブロック221から指定される。また、ヘッダ作成部202において、垂直ブランキング区間以外では、入力部201から供給されたビデオデータがメインメモリ203に格納される。
メインメモリ203は、画像のフレームメモリであり、ビデオデータの再配列やシステムディレイの吸収などが行われる。ビデオデータの再配列は、例えば図示されないアドレスコントローラによりメインメモリ203からの読み出しアドレスを制御されることによりなされる。なお、図中、メインメモリ203のブロック中に記載される8ライン、0.5フレームおよび1フレームは、ディレイ値であり、メインメモリ203からのリードタイミングが示される。これらは、タイミングジェネレータTG220の指令に基づき適切に制御される。
ラスタスキャン/ブロックスキャン変換部204は、ライン毎にメインメモリ203に格納されたビデオデータを、MPEGで扱うマクロブロック毎に切り出して後段のアクティビティ部205に送る。この実施の一形態では、第1フィールドだけを用いてアクティビティの計算を行うため、ラスタスキャン/ブロックスキャン変換部204から出力されるマクロブロックは、第1フィールド分のビデオデータにより構成される。
ラスタスキャン/ブロックスキャン変換部204から出力データとして出力されたストリームは、第11図Aに一例が示されるように、垂直および水平方向のマクロブロックのアドレス情報が先頭に配され、所定サイズの空き領域の後ろに、1マクロブロック分の画像データが格納される。
なお、ストリームは、例えば8ビットを1ワードとして、576ワードのデータ長を有し、後半の512ワード(データ部と称する)が1マクロブロック分の画像データを格納する領域に割り当てられている。前半の64ワード(ヘッダ部と称する)は、先頭に上述のマクロブロックのアドレス情報が格納され、その他の部分は、後段の各部にて埋め込まれるデータやフラグなどのため空き領域とされる。
MPEGで扱うマクロブロックは、16画素×16ラインのマトリクスである。一方、このMPEGエンコーダ103では、第3図を用いて上述したように、第1フィールドだけによるアクティビティを求める処理を行う。そのため、第1フィールドの8ラインまでがメインメモリ203に格納された時点で処理を開始することができる。なお、実際には、タイミングジェネレータTG220からの指令にて処理が適切に開始される。
アクティビティ部205は、マクロブロック毎のアクティビティを計算する。このMPEGエンコーダ103においては、第1フィールドだけからアクティビティが計算され、その計算結果がフィールドアクティビティ信号field_actとして出力される。信号field_actは、平均化部206に供給され、1フィールド分が積算され、その平均値avg_actが求められる。平均値avg_actは、後述するプリエンコード処理部103Bのアクティビティ部209に供給される。アクティビティ部209では、第1および第2フィールドの平均値avg_actを共に用いてプリエンコード処理が行われる。
したがって、第1フィールドにおけるアクティビティの平均値avg_actが判明した後、その平均値を用いて、適応量子化を考慮したプリエンコード処理を行うことが可能となる。
次に、プリエンコード処理部103Bについて説明する。ラスタスキャン/ブロックスキャン変換部207Aは、上述したラスタスキャン/ブロックスキャン変換部204と基本的には同様の処理を行う。但し、このラスタスキャン/ブロックスキャン変換部207Aは、符号量の見積もりを行うプリエンコード処理のために行われるため、第1フィールドおよび第2フィールドのビデオデータが共に必要とされる。そのため、ラスタスキャン/ブロックスキャン変換部207Aでは、第2フィールドの8ラインまでがメインメモリ203に格納された時点で、MPEGで扱う16画素×16ラインのサイズのマクロブロックを構成することが可能となり、この時点で処理を開始することができる。なお、実際には、タイミングジェネレータTG220からの指令によって、処理が適切に開始される。
ラスタスキャン/ブロックスキャン変換部207Aから出力されたビデオデータは、DCTモード部208に供給される。DCTモード部208は、フィールドDCT符号化モードおよびフレームDCT符号化モードの何れを用いて符号化するかを決める。
ここでは、実際に符号化するのではなく、垂直方向に隣接した画素間差分値の絶対値和をフィールドDCT符号化モードで計算したものと、フレームDCT符号化モードで計算したものとが比較され、その値が小さい符号化モードが選択される。選択結果は、DCTモードタイプデータdct_typとしてストリーム中に一時的にフラグとして挿入され、後段に伝えられる。DCTモードタイプデータdct_typは、第11図Bに示されるように、ヘッダ部中の空き領域の後端側に格納される。
アクティビティ部209は、上述したアクティビティ部205と、基本的には同様の処理を行う。ただし、このアクティビティ部209では、上述のように、プリエンコード処理を行うためのもので、第1フィールドおよび第2フィールドのデータが共に用いられて、マクロブロック毎のアクティビティが計算される。
アクティビティ部209により、先ず、アクティビティactが求められ、第11図Cに示されるように、ヘッダ部のマクロブロックアドレスに続けて格納される。次に、このアクティビティactと上述した平均化部206から得られるフィールドアクティビティの平均値avg_actとを用いて、上述した式(8)および式(9)に基づき、この発明による正規化アクティビティnorm_actが求められる。このアクティビティ部209における、この発明による正規化アクティビティnorm_actを計算する構成については、後述する。
求められた正規化アクティビティnorm_actは、第12図Aに示されるように、ストリーム中のヘッダ部に一時的にフラグとして挿入され、後段に伝えられる。なお、上述のアクティビティactは、ストリーム中で、正規化アクティビティデータnorm_actに上書きされる。
アクティビティ部209の出力は、DCT部210Aに供給される。DCT部210Aでは、供給されたマクロブロックを8画素×8画素からなるDCTブロックに分割し、DCTブロックに対して2次元DCTが行われ、DCT係数が生成される。DCT係数は、第12図Bに示されるように、ストリームのデータ部に格納され、量子化テーブル部211Aに供給される。
量子化テーブル部211Aでは、DCT部210Aで変換されたDCT係数に対して量子化マトリクス(quantizer_matrix)による量子化が行われる。量子化テーブル部211Aで量子化されたDCT係数は、第12図Cに示されるように、ストリームのデータ部に格納され、出力される。量子化テーブル部211Aの出力は、複数のQ_n(量子化)部212、212、・・・、VLC部213、213、・・・、積算部Σ214、214、・・・、ならびに、積算部Σ215、215、・・・とからなる多段階の量子化部に供給される。量子化テーブル部211Aで量子化されたDCT係数は、この多段階ステップの量子化部で多段階に量子化される。
DCT係数は、Q_n部212、212、・・・において、それぞれ異なった量子化スケール(quantizer_scale)Qを用いて量子化される。なお、量子化スケールQの値は、例えばMPEG2の規格によって予め決められており、Q_n部212、212、・・・は、この規格に基づき、例えば31個の量子化器で構成される。このとき、n=31であって、Q_n部212、212、・・・は、Q_1部、Q_2部、・・・、Q_31部である。そして、各量子化器がそれぞれに割り振られた量子化スケールQnを用いて、DCT係数の量子化が合計で31ステップ、行われる。以下では、Q_n部212、212、・・・のそれぞれに対応する量子化スケール値を量子化スケールQn値とする。
Q_n部212、212、・・・において、それぞれの量子化スケールQn値により量子化が行われる。このとき、上述のアクティビティ部209で得られた正規化アクティビティデータnorm_actを用いてmqaunt=Q_n×norm_actにより求めた、視覚特性を考慮した量子化スケールであるmqauntにより適応量子化が行われる。
Q_n部212、212、・・・において適応量子化された、量子化スケールQn毎のDCT係数は、それぞれ第13図Aに示されるようにストリーム中のデータ部に格納され、VLC部213、213、・・・にそれぞれ供給される。量子化スケールQn毎のDCT係数は、VLC部213、213、・・・において、ジグザグスキャンなどのスキャニングが施され、2次元ハフマンコードなどに基づくVLCテーブルが参照されてそれぞれ可変長符号化される。
VLC部213、213、・・・で可変長符号化されたデータは、第13図Bに示されるようにストリーム中のデータ部に格納され、それぞれ出力される。VLC部213、213、・・・の出力は、それぞれ対応する積算部Σ214、214、・・・に供給される。
積算部Σ214、214、・・・では、それぞれマクロブロック毎に発生符号量が積算される。上述のように31種類の量子化器を用いる場合には、それぞれに対応する31種類の発生符号量がマクロブロック毎に得られることになる。マクロブロック毎の発生符号量は、第14図Aに示されるように、積算部Σ214、214、・・・において積算された発生符号量がストリーム中のヘッダ部に、各々格納される。すなわち、Q_1部212〜Q_n部212のそれぞれの量子化による発生符号量が、マクロブロック毎に、ストリームのヘッダ部に格納される。なお、ストリームのデータ部は、削除される。このマクロブロック毎のストリームは、メインメモリ203に供給される。
また、積算部Σ214、214、・・・から出力されたマクロブロック毎の発生符号量は、それぞれ積算部Σ215、215、・・・に供給される。積算部Σ215、215、・・・は、上述した視覚特性を考慮したquantizer_scale(=mquant)で量子化した場合のマクロブロック毎の発生符号量に対応する符号量を、積算部Σ214で求めたマクロブロック毎の発生符号量の中から選択し、それをフレーム分積算する。
積算部Σ215、215、・・・で量子化スケールQn毎にそれぞれフレーム分積算された値は、そのフレームにおける発生符号量(フレームデータレート)とされて、第14図Bに示されるように、nワードのストリームとして後述するレートコントロール部217に供給される。なお、上述のように31種類の量子化器を用いる場合には、それぞれに対応する31種類の発生符号量がフレーム毎に得られることになる。
発生符号量を求める方法を、より具体的に説明する。例えば、「Q_4部212による発生符号量」は、次のようにして求められる。
例えば、
norm_act[1]=1.3
norm_act[2]=1.5
norm_act[3]=0.8
norm_act[4]=1.0
・・・
である場合、
mqaunt[1]=4x1.3=5.2
:Q_5部212による発生符号量を、第14図Aのヘッダ部から求める。
mqaunt[2]=4x1.5=6.0
:Q_6部212による発生符号量を、第14図Aのヘッダ部から求める。
mqaunt[3]=4x0.8=3.2
:Q_3部212による発生符号量を、第14図Aのヘッダ部から求める。
mqaunt[4]=4x1.0=4.0
:Q_4部212による発生符号量を、第14図Aのヘッダ部から求める。
・・・
以上を、1フレーム分、積算する。これを、Q_1部212〜Q_n部212に対してそれぞれ行い、1フレーム分の発生符号量を求める。
次に、エンコード処理部103Cについて説明する。エンコード処理部103Cでは、最終的なエンコード処理が行われる。上述したように、プリエンコード処理部103Bにおいて、様々な量子化を行った場合の1フレーム分の発生符号量が見積もられる。エンコード処理部103Cでは、この1フレーム分で見積もられた発生符号量に基づき、予め設定された目標発生符号量を絶対に超えないようにエンコードが行われ、MPEG ESが出力される。
エンコード処理部103Cで用いられるデータは、既にメインメモリ203に格納されているが、上述したように、プリエンコード処理部103Bにより様々な量子化を行った場合の1フレームにおける発生符号量が見積もられた時点で処理を開始することができる。エンコード処理部103Cの各部における処理は、上述と同様に、タイミングジェネレータTG220からの指令に基づき適切に開始される。
メインメモリ203から読み出されたビデオデータは、ラスタスキャン/ブロックスキャン変換部207Bにおいて、上述のラスタスキャン/ブロックスキャン変換部207Aと同様の処理をされて16画素×16ラインのマクロブロックが切り出される。切り出されたマクロブロックは、第15図Aに示されるように、上述した第14図Aに示されるヘッダ部に対応するデータ部に格納され、DCTモード部216に供給される。
DCTモード部216では、、上述のDCTモード部208と同様に、フィールドDCT符号化モードおよびフレームDCT符号化モードのうち何れを用いて符号化するかが決められる。このとき、既にDCTモード部208において符号化モードが決められ、その結果がDCTタイプデータdct_typとしてストリーム中に一時的に挿入されている(第15図A参照)。DCTモード部216では、ストリームからこのDCTタイプデータdct_typを検出し、検出されたDCTタイプデータdct_typに基づきフィールド符号化モードおよびフレーム符号化モードを切り換える。DCTモード部216の出力を第15図Bに示す。
DCTモード部216から出力されたマクロブロックは、DCT部210Bに供給され、上述のDCT部210Aと同様にして8画素×8画素のDCTブロック単位で2次元DCTされる。2次元DCTされたDCT係数は、第15図Cに示されるように、ストリーム中のデータ部に格納されて、DCT部210Bから出力される。
量子化テーブル部211Bは、上述の量子化テーブル部211Aと同様に構成することができ、DCT部210Bで変換されたDCT係数に対して量子化マトリクスによる量子化が行われる。量子化テーブル部211Bで量子化されたDCT係数は、第16図Aに示されるように、ストリーム中のデータ部に格納されてレートコントロール部217に供給される。
レートコントロール部217では、上述したプリエンコード処理部103Bにおいて積算部Σ215、215、・・・で得られた、各量子化スケールQn毎のフレームデータレートの中から、システムコントローラ117により設定される1フレーム当たりの最大発生符号量を超えないもので、且つ、最も設定値に近いものが選択される。そして、選択されたフレームデータレートに対応する量子化器において用いられたマクロブロック毎の量子化スケール(mquant)が、ストリーム中に挿入された正規化アクティビティデータnorm_actから再度求められ、量子化部218に供給される。
マクロブロック毎の量子化スケールは、第16図Bに示されるように、ストリーム中のヘッダ部の後端側にqauntiser_scaleとして格納され、量子化部218に伝えられる。
なお、1フレーム当たりの最大発生符号量は、例えばシステムコントローラ117により設定され、CPU I/F221を介してレートコントロール部217に伝えられる。
また、この際、システムコントローラ117で設定されCPU I/F221を介して伝えられる、1フレームあたりの最大発生符号量と、上述したストリーム中に挿入された正規化アクティビティデータnorm_actから求められたマクロブロック毎の量子化スケール(mqaunt)による発生符号量との差分を超えない範囲で、マクロブロック毎に量子化スケール(mquant)の値を1サイズ小さくするようにできる。これにより、システムコントローラ117で設定されCPU I/F221を介して伝えられる1フレーム当たりの最大発生符号量に近付け、高画質を実現することが可能である。
量子化部218では、レートコントロール部217により上述のようにして指定される量子化スケール(quantizes_scale)をストリーム中から取り出し、取り出された量子化スケールに基づき量子化テーブル部211Bで量子化されたDCT係数の量子化が行われる。このとき、レートコントロール部217から与えられる量子化スケールは、正規化アクティビティデータnorm_actから求められた量子化スケール(mquant)の値であるため、視覚特性が考慮された適応量子化が行われることになる。
量子化部218で量子化されたDCT係数は、第16図Cに示されるようにストリーム中のデータ部に格納され、VLC部219に供給される。量子化されVLC部219に供給されたDCT係数は、ジグザグスキャンなどのスキャンニングが施され、2次元ハフマンコードに基づくVLCテーブルが参照されてそれぞれ可変長符号化される。さらに、可変長符号に対して、バイト単位で整列するようにビットシフトが施され、MPEG ESとされて出力される。
このとき、VLC部219までストリームの前半部を構成していたヘッダ部が第17図に示されるようにスライス層以下のMPEGのヘッダ情報が格納されるMPEGのヘッダ部にすげ替えられて出力される。可変長符号は、ストリームの後半側のデータ部に格納される。
第18図は、上述したアクティビティ部209における、この発明による正規化アクティビティnorm_actを計算するための一例の構成を示す。なお、正規化アクティビティnorm_actは、上述の式(8)および式(9)により計算されるものとする。
上述したように、アクティビティ部209により、先ず、アクティビティactが求められる。このアクティビティactが乗算器301の一方および他方の入力端に供給され、act×actが計算される。計算結果は、レジスタ304および307を介して乗算器311の一方の入力端に供給されると共に、レジスタ315をさらに介して加算器318の一方の入力端に供給される。
平均化部206から出力された平均アクティビティavg_actが乗算器302の一歩および他方の入力端に供給され、avg_act×avg_actが計算される。計算結果は、レジスタ305および308を介して乗算器312の一方の入力端に供給されると共に、レジスタ313をさらに介して加算器317の一方の入力端に供給される。
平均化部206から出力された平均アクティビティavg_actは、乗算器303の一方の入力端にも供給される。乗算器303の他方の入力端には、パラメータattが供給される。なお、パラメータattは、例えばシステムコントローラ117で設定されCPU I/F221を介して供給される。乗算器303の計算結果は、レジスタ306を介して加算器310の一方の入力端に供給される。加算器310の他方の入力端には、定数「1」が供給される。乗算器303および加算器310により、att×avg_act+1が計算され、norm_gainが求められる。norm_gainは、レジスタ309を介して乗算器311および312それぞれの他方の入力端に供給される。
乗算器311では、norm_gain×(act×act)が計算され、計算結果がレジスタ314を介して加算器317の他方の入力端に供給される。加算器317では、avg_act×avg_act+norm_gain×(act×act)が計算される。計算結果は、レジスタ319を介して除算器321の被除数入力端に供給される。
同様に、乗算器312では、norm_gain×(avg_act×avg_act)が計算され、計算結果がレジスタ316を介して加算器318の他方の入力端に供給される。加算器318では、norm_gain×(avg_act×avg_act)+act×actが計算される。計算結果は、レジスタ320を介して除算器321の除数入力端に供給される。
除算器321では、{avg_act×avg_act+norm_gain×(act×act)}÷{norm_gain×(avg_act×avg_act)+act×act}が計算される。すなわち、この除算器321の出力がこの発明の実施の一形態による正規化アクティビティnorm_actとされる。除算器321から出力された正規化アクティビティnorm_actは、セレクタ325およびレジスタ324を介して出力される。そして、この正規化アクティビティnorm_actは、ストリームにおいて、上述の第11Cのアクティビティactに上書きされ、第12図Aのようにストリーム中に埋め込まれて後段に伝えられる。
なお、比較部322において、レジスタ320に供給された値(除数)が監視される。若し、除数が「0」であれば、例えばその旨示すフラグがレジスタ326を介してセレクタ325に供給される。セレクタ325は、一方の入力端に上述の除算器321の出力が供給され、他方の入力端には、定数「1」が供給される。比較器322から供給されたフラグにより、除数が「0」であることが示されると、セレクタにより定数「1」が選択され、正規化アクティビティnorm_actとして出力される。
なお、上述では、MPEGエンコーダ103における処理がハードウェアにより行われるように説明したが、これはこの例に限定されない。MPEGエンコーダ103の処理は、ソフトウェアによっても同様に実現可能なものである。例えば、コンピュータ装置にビデオ信号のアナログおよびディジタルの入力インターフェイスを設け、コンピュータ上に搭載されたソフトウェアによりCPUおよびメモリなどを利用して実行することができる。また、上述のディジタルVTRの構成において、MPEGエンコーダ103をCPUおよびメモリに置き換えたような構成としてもよい。
このソフトウェアは、例えばCD−ROM(Compact Disc−Read Only Memory)といった記録媒体にプログラムデータとして記録されて提供される。このソフトウェアが記録された記録媒体をコンピュータ装置に装填し、所定の操作を行うことで当該ソフトウェアがコンピュータ装置にインストールされ、当該ソフトウェアによる処理を実行することが可能な状態とされる。なお、コンピュータ装置の構成は、極めて周知であるため、ここでは説明を省略する。
第19図は、MPEGエンコーダ103の処理をソフトウェアで行う場合の一例のフローチャートである。このフローチャートによる処理は、上述したハードウェアによる処理と同様なものであるので、以下では、上述したハードウェアにおける処理を考慮しながら、概略的に説明する。ステップS1〜S7は、上述の入力フィールドアクティビティ平均化処理部103Aによる処理に対応する。ステップS11〜S21は、上述のプリエンコード処理部103Bに対応する。また、ステップS31〜S38は、上述のエンコード処理部103Cに対応する。
最初のステップS1で、ビデオデータが取り込まれる。次のステップS2で、取り込まれたビデオデータから、垂直ブランキング区間でMPEGにおける各ヘッダが抽出されメモリに格納される。垂直ブランキング区間以外では、取り込まれたビデオデータがメモリに格納される。
ステップS3では、ビデオデータがラスタスキャンからブロックスキャンへと変換され、マクロブロックが切り出される。これは、例えばメモリに格納されたビデオデータを読み出す際の読み出しアドレスを制御することでなされる。ステップS4で、マクロブロックに切り出されたビデオデータに対して第1フィールドによるアクティビティ計算がなされ、計算結果のアクティビティActibity(act)がステップS5で積算され、積算値sumとしてメモリに格納される。これらステップS3〜S5までの処理は、ステップS6において第1フィールドの最終マクロブロックの処理が終了したと判断されるまで繰り返される。すなわち、積算値sumは、1フィールド分のマクロブロックのアクティビティの合計となる。
ステップS6において1フィールドの最終マクロブロックまで処理が終了したと判断されたら、ステップS7で、メモリに格納された積算値sumが1フィールド分のマクロブロック数で除され、1フィールド分のアクティビティが平均化されたフィールドアクティビティの平均値Actibity(avg_act)が求められ、メモリに格納される。
フィールドアクティビティの平均値Actibity(avg_act)が求められると、処理はステップS11に移行する。ステップS11では、上述のステップS3と同様に、メモリに格納されたビデオデータがラスタスキャンからブロックスキャンへと変換され、マクロブロックが切り出される。次のステップS12で、DCTをフィールドDCT符号化モードおよびフレームDCT符号化モードの何れで行うかが選択され、選択結果がDCTモードタイプデータdct_typとしてメモリに格納される。
ステップS13では、第1および第2フィールドが共に用いられて、先ず、マクロブロック毎のアクティビティactが計算される。そして、このアクティビティactと、上述のステップS7で求められメモリに格納されたフィールドアクティビティの平均値Actibity(avg_act)とを用いて、上述した式(8)および(9)に基づきこの発明による正規化アクティビティActibity(norm_act)が求められる。求められた正規化アクティビティActibity(norm_act)は、メモリに格納される。
上述した式(8)および式(9)は、ソフトウェア的には、例えばプログラミング言語であるC言語的な表現を用いて次のように表すことができる。なお、「MB_num」は、1フレームのマクロブロックの総数である。また、パラメータattは、常数であって、例えばatt=0.125とする。
Figure 2002080575
ステップS13では、例えばこのようなプログラムに基づき正規化アクティビティActibity(norm_act)が求められる。
次のステップS14で、上述のステップS11でビデオデータから切り出されたマクロブロックが8画素×8画素からなるDCTブロックに分割され、このDCTブロックに対して2次元DCTが行われる。2次元DCTによりDCTブロックが変換されたDCT係数は、ステップS15で量子化テーブル(quantizer_table)による量子化がなされ、処理はステップS16に移行される。
ステップS16〜S20の処理を、量子化スケール(quantizer_scale)Qn値それぞれについて行うように繰り返すことで、上述のQ_n部212、212、・・・、VLC部213、213、・・・、積算部Σ214、214、・・・、ならびに、積算部Σ215、215、・・・に相当する処理が行われる。すなわち、ステップS16で、DCT係数に対して量子化スケールQ=1での量子化が行われ、ステップS17で、VLCテーブルが参照されて量子化されたDCT係数が可変長符号化される。そして、ステップS18で可変長符号化によるマクロブロックにおける発生符号量が計算され、ステップS19で、ステップS18で求められたマクロブロック毎の発生符号量が1フレーム分、積算される。ステップS20で次の量子化スケールQnがあるか否かが判断され、次の量子化スケールQnがあると判断されたら、処理はステップS16に戻され、次の量子化スケールQnに基づく処理が行われる。量子化スケールQn毎の1フレーム分の発生符号量は、それぞれメモリに格納される。
ステップS20で、全ての量子化スケールQnの値についてフレームにおける発生符号量の積算値が求められたとされれば、ステップS21で、1フレームの最終マクロブロック(MB)まで処理が終了したかどうかが判断され、最終マクロブロックまでの処理が終了していなければ、処理がステップS11に戻される。最終マクロブロックまでの処理が終了され1フレーム分の発生符号量が見積もられれば、ステップS31に移行され、実際のエンコード処理が行われる。
ステップS31では、上述のステップS11と同様に、メモリに格納されたビデオデータがラスタスキャンからブロックスキャンへと変換され、マクロブロックが切り出される。次のステップS32では、上述のステップS12でメモリに格納されたDCTモードタイプデータdct_typに基づきDCT符号化モードが設定される。
ステップS33では、ステップS31でビデオデータから切り出されたマクロブロックが8画素×8画素からなるDCTブロックに分割され、このDCTブロックに対して次元DCTが行われる。2次元DCTによりDCTブロックが変換されたDCT係数は、ステップS34で量子化テーブル(quantizer_table)による量子化がなされ、処理はステップS35に移行される。
ステップS35では、上述したステップS11〜S21において見積もられた、量子化スケールQn毎の1フレーム分の発生符号量に基づき、実際のエンコード処理において発生される符号量の制御を行うために、後述するステップS36で用いられる量子化スケールQnがマクロブロック毎に設定される。
そして、処理はステップS36に移行され、ステップS35で設定された量子化スケールQnを用いて、ステップS34で量子化テーブルを用いて量子化されたDCT係数の量子化が行われる。ステップS36で量子化されたDCT係数は、次のステップS37でVLCテーブルが参照され可変長符号化される。そして、ステップS38で1フレームの最終マクロブロックまで処理が行われたか否かが判断され、1フレームの最終マクロブロックまで処理されていないと判断されれば、処理がステップS31に戻され、次のマクロブロックに対する量子化処理および可変長符号化処理が行われる。一方、ステップS37で、1フレームの最終マクロブロックまで処理が行われたと判断されれば、1フレーム分のエンコード処理が終了したとされる。
なお、上述では、ステップS11〜S21までのプリエンコード処理と、ステップS31〜S38までのエンコード処理とを別々の処理として説明したが、これはこの例に限定されない。例えば、ステップS11〜S21において発生符号量の見積もりにより得られたデータをメモリに格納し、そこから実際のエンコード処理により得られるデータを選択して取り出すようにする。これにより、ステップS31〜S38の処理をステップS11〜S21による処理に含まれるループとして組み込むことができる。
なお、上述では、パラメータattの値を「0.125」としたが、これはこの例に限定されず、他の値とすることができる。このパラメータattの値を変更することで、様々な圧縮率に適した適応量子化に対応することが可能とされる。
以上説明したように、この実施の一形態では、正規化アクティビティを算出する際に、対象となる画像の平坦さや複雑さといった特性、すなわち、当該画像の平均アクティビティに応じて正規化の範囲を変更するようにしている。
そのため、全体的に平坦な画像については、アクティビティの正規化の範囲を小さくし、画像全体で均一に近いアクティビティを用いて量子化を行うことができる。そのため、画像全体で均一な平坦度を確保し、高画質を得ることが可能となる。
一方、複雑な領域と平坦な領域とが混在するような画像については、アクティビティの正規化の範囲を大きくし、複雑な領域にはより大きい符号量を割り当てて精細な量子化を行い、平坦な領域では粗い量子化を行うことにより、視覚的に良質な画像を得ることができる。
【図面の簡単な説明】
第1図は、第2の例による正規化を表す式の一例の特性を示すグラフ、第2図は、MPEGのTM5による正規化の一例の特性を示すグラフ、第3図は、全体的に平坦な絵柄から構成される一例の図、第4図は、複雑な絵柄と平坦な絵柄とが混在する一例の図、第5図は、全体的に平坦な絵柄から構成される画像に対してMPEGのTM5による正規化を用いた場合の正規化アクティビティの例を示す略線図、第6図は、全体的に平坦な絵柄から構成される画像に対してこの発明による正規化を用いた場合の正規化アクティビティの例を示す略線図、第7図は、複雑な絵柄と平坦な絵柄とが混在する画像に対してMPEGのTM5による正規化を用いた場合の正規化アクティビティの例を示す略線図、第8図は、複雑な絵柄と平坦な絵柄とが混在する画像に対してこの発明による正規化を用いた場合の正規化アクティビティの例を示す略線図、第9図Aおよび第9図Bは、この発明の実施の一形態が適用されたディジタルVTRの一例の構成を示すブロック図、第10図A、第10図Bおよび第10図Cは、MPEGエンコーダの一例の構成をより具体的に示すブロック図、第11図A、第11図Bおよび第11図Cは、MPEGエンコーダの各部において転送されるストリームの構成例を示す略線図、第12図A、第12図Bおよび第12図Cは、MPEGエンコーダの各部において転送されるストリームの構成例を示す略線図、第13図Aおよび第13図Bは、MPEGエンコーダの各部において転送されるストリームの構成例を示す略線図、第14図Aおよび第14図Bは、MPEGエンコーダの各部において転送されるストリームの構成例を示す略線図、第15図A、第15図Bおよび第15図Cは、MPEGエンコーダの各部において転送されるストリームの構成例を示す略線図、第16図A、第16図Bおよび第16図Cは、MPEGエンコーダの各部において転送されるストリームの構成例を示す略線図、第17図は、MPEGエンコーダの各部において転送されるストリームの構成例を示す略線図、第18図は、この発明による正規化アクティビティを計算するための一例の構成を示すブロック図、第19図は、MPEGエンコーダの処理をソフトウェアで行う場合の一例のフローチャートである。
符号の説明
102 タイミングジェネレータTG
103 MPEGエンコーダ
117 システムコントローラ
203 メインメモリ
204,207A,207B ラスタスキャン/ブロックスキャン変換部
205,209 アクティビティ部
206 平均化部
208,216 DCTモード部
210A,210B DCT部
211A,211B 量子化テーブル部
212 量子化部
213 VLC部
214,215 積算部Σ
217 レートコントロール部
218 量子化部
219 VLC部
S1 画像の取り込み
S2 ヘッダの付加
S3 ラスタスキャン→ブロックスキャン変換
S4 第1フィールドによるアクティビティ(act)計算
S5 アクティビティ(act)積算
sum=sum+act
S6 第1フィールドの最終MBか?
S7 第1フィールドの平均アクティビティ(avg_act)の計算
avg_act=sum/MB数
S11 ラスタスキャン→ブロックスキャン変換
S12 DCTモードの決定(field_dct/frame_dct)
S13 アクティビティ(norm_act)の計算
S14 DCTの計算
S15 Q_tableによる量子化
S16 Q_scaleによる量子化
S17 VLCによる可変長符号化
S18 MBにおける発生符号量の計算
S19 フレームにおける発生符号量の積算(Q_scaleの種類毎)
S20 他のQ_scaleがあるか?
S21 最終MBか?
S31 ラスタスキャン→ブロックスキャン変換
S32 DCTモードの選択(field_dct/frame_dct)
S33 DCTの計算
S34 Q_tableによる量子化
S35 符号量の制御(Q_scaleの設定)
S36 Q_scaleによる量子化
S37 VLCによる可変長符号化
S38 最終MBか?
【0011】
れ第3図および第4図に示されるサンプル画像の、対応する部分における正規化アクティビティnorm_act[m]の範囲を示す。
なお、第3図は、全体的に平坦な絵柄から構成される画像の例である。特に、背景に掲げられる絵柄は、それぞれが単一若しくは数色により塗り潰された図形より構成され、画像としては簡単な構成であるといえる。「芝」および「羊」部分は、共に背景の絵の一部である。一方、第4図は、複雑な絵柄と平坦な絵柄とが混在する画像の例である。中央部に円で縁取りされて表示される「女性」と、周囲の「NOISE」部分からなる。「女性」部分は、第3図と同様に、比較的平坦な絵柄であるが、周囲の「NOISE」部分は、画素レベルで見たときの隣接部との相関性が低く、複雑な絵柄である。
第1図において、平均アクティビティavg_act=0では、正規化アクティビティnorm_act=1であり、平均アクティビティavg_act=16のときnorm_gain=3となり、正規化アクティビティnorm_act[m]は、1/3<norm_act[m]<3の範囲に分布することが分かる。なお、第1図では、norm_gainは、rateとして記述されている。
一方、第2図では、アクティビティact[m]が64までしか表示されていないので、わかりにくいが、平均アクティビティavg_actがどのような値をとっても、正規化アクティビティnorm_act[m]は、1/2<norm_act[m]<2の正規化範囲に分布するのが分かる。
第1図と第2図とを対比させると、この発明が適用された第1図では、正規化アクティビティnorm_act[m]は、同一画像内の複雑な絵柄である「NOISE」には広い範囲が、比較的平坦な絵柄である「女性」には狭い範囲が割り当てられているのが分かる。これに対して、MPEGのTM5が適用された第2図では、「NOISE」および「女性」に対して、それぞれ同程度の正規化アクティビティnorm_act[m]の範囲が割り
【0018】
しない)、パッキングおよびシャフリング部、オーディオ用外符号エンコーダ、ビデオ用外符号エンコーダ、内符号エンコーダ、オーディオ用シャフリング部およびビデオ用シャフリング部などを内蔵する。また、ECCエンコーダ107は、シンクブロック単位でIDを付加する回路や、同期信号を付加する回路を含む。なお、実施の第1の形態では、ビデオ信号およびオーディオ信号に対するエラー訂正符号としては、積符号が使用される。積符号は、ビデオ信号またはオーディオ信号の2次元配列の縦方向に外符号の符号化を行い、その横方向に内符号の符号化を行い、データシンボルを2重に符号化するものである。外符号および内符号としては、リードソロモンコード(Reed−Solomon code)を使用できる。
ECCエンコーダ107には、MFC回路106から出力された変換エレメンタリストリームが供給されると共に、SDTI入力部105およびディレイ回路104から出力されたオーディオ信号が供給される。ECCエンコーダ107では、供給された変換エレメンタリストリーム及びオーディオ信号に対してシャフリング及びエラー訂正符号化を施し、シンクブロック毎にIDおよび同期信号を付加し記録データとして出力する。
ECCエンコーダ107から出力された記録データは、記録アンプを含むイコライザEQ108で記録RF信号に変換される。記録RF信号は、回転ヘッドが所定に設けられた回転ドラム109に供給され、磁気テープ110上に記録される。回転ドラム109には、実際には、隣接するトラックを形成するヘッドのアジマスが互いに異なる複数の磁気ヘッドが取り付けられている。
記録データに対して必要に応じてスクランブル処理を行っても良い。また、記録時にディジタル変調を行っても良く、さらに、パーシャル・
【0022】
03Cからなる。入力フィールドアクティビティ平均化処理部103Aでは、入力されたビデオデータのアクティビティの平均値が求められてプリエンコード処理部103Bに渡される。プリエンコード処理部103Bでは、このアクティビティの平均値を用いて入力ビデオデータの量子化による発生符号量が見積もられる。この見積もり結果に基づき、エンコード部103Cにおいて、符号量制御しながら入力ビデオデータに対する実際の量子化が行われ、量子化されたビデオデータに対しさらに可変長符号化がなされ、MPEG ESとされて出力される。
なお、タイミングジェネレータTG220は、例えば第9図Aおよび第9図BのタイミングジェネレータTG102から供給された水平同期信号HD、垂直同期信号VDおよびフィールド同期信号FLDに基づき、MPEGエンコーダ103内で必要とされるタイミング信号を生成し出力する。また、CPU I/Fブロック221は、第9図Aおよび第9図Bのシステムコントローラ117とのインターフェイスであり、CPU I/Fブロック221を介してやりとりされた制御信号やデータにより、MPEGエンコーダ103における動作が制御される。
先ず、入力フィールドアクティビティ平均化処理部103Aの処理について説明する。SDI入力部101から出力されMPEGエンコーダ103に入力されたビデオデータは、入力部201に供給され、メインメモリ203に格納するのに適したインターフェイスに変換されると共に、パリティチェックがなされる。入力部201から出力されたビデオデータは、ヘッダ作成部202に供給され、垂直ブランキング区間などを利用してMPEGにおける、sequence_header、quantizer_matrix、gop_headerなどの各ヘッダが抽出される。抽出された各ヘッダは、メインメモリ203に格納される。これらのヘッダは、主に、CPU I/Fブロック221から指定される。また、ヘッダ作成部202におい
【0024】
のアドレス情報が格納され、その他の部分は、後段の各部にて埋め込まれるデータやフラグなどのため空き領域とされる。
MPEGで扱うマクロブロックは、16画素×16ラインのマトリクスである。一方、この入力フィールドアクティビティ平均化処理部103Aでは、第1フィールドだけによるアクティビティを求める処理を行う。そのため、第1フィールドの8ラインまでがメインメモリ203に格納された時点で処理を開始することができる。なお、実際には、タイミングジェネレータTG220からの指令にて処理が適切に開始される。
アクティビティ部205は、マクロブロック毎のアクティビティを計算する。この入力フィールドアクティビティ平均化処理部103Aにおいては、第1フィールドだけからアクティビティが計算され、その計算結果がフィールドアクティビティ信号field_actとして出力される。信号field_actは、平均化部206に供給され、1フィールド分が積算され、その平均値avg_actが求められる。平均値avg_actは、後述するプリエンコード処理部103Bのアクティビティ部209に供給される。アクティビティ部209では、第1および第2フィールドの平均値avg_actを共に用いてプリエンコード処理が行われる。
したがって、第1フィールドにおけるアクティビティの平均値avg_actが判明した後、その平均値を用いて、適応量子化を考慮したプリエンコード処理を行うことが可能となる。
次に、プリエンコード処理部103Bについて説明する。ラスタスキャン/ブロックスキャン変換部207Aは、上述したラスタスキャン/ブロックスキャン変換部204と基本的には同様の処理を行う。但し、このラスタスキャン/ブロックスキャン変換部207Aは、符号量の見積もりを行うプリエンコード処理のために行われるため、第1フィール
【0026】
部206から得られるフィールドアクティビティの平均値avg_actとを用いて、上述した式(8)および式(9)に基づき、この発明による正規化アクティビティnorm_actが求められる。このアクティビティ部209における、この発明による正規化アクティビティnorm_actを計算する構成については、後述する。
求められた正規化アクティビティnorm_actは、第12図Aに示されるように、ストリーム中のヘッダ部に一時的にフラグとして挿入され、後段に伝えられる。なお、上述のアクティビティactは、ストリーム中で、正規化アクティビティデータnorm_actに上書きされる。
アクティビティ部209の出力は、DCT部210Aに供給される。DCT部210Aでは、供給されたマクロブロックを8画素×8ラインからなるDCTブロックに分割し、DCTブロックに対して2次元DCTが行われ、DCT係数が生成される。DCT係数は、第12図Bに示されるように、ストリームのデータ部に格納され、量子化テーブル部211Aに供給される。
量子化テーブル部211Aでは、DCT部210Aで変換されたDCT係数に対して量子化マトリクス(quantizer_matrix)による量子化が行われる。量子化テーブル部211Aで量子化されたDCT係数は、第12図Cに示されるように、ストリームのデータ部に格納され、出力される。量子化テーブル部211Aの出力は、複数のQ_n(量子化)部212、212、・・・、VLC部213、213、・・・、積算部Σ214、214、・・・、ならびに、積算部Σ215、215、・・・とからなる多段階の量子化部に供給される。量子化テーブル部211Aで量子化されたDCT係数は、この多段階ステップの量子化部で多段階に量子化される。
DCT係数は、Q_n部212、212、・・・において、それぞれ
【0030】
エンコード処理部103Cで用いられるデータは、既にメインメモリ203に格納されているが、上述したように、プリエンコード処理部103Bにより様々な量子化を行った場合の1フレームにおける発生符号量が見積もられた時点で処理を開始することができる。エンコード処理部103Cの各部における処理は、上述と同様に、タイミングジェネレータTG220からの指令に基づき適切に開始される。
メインメモリ203から読み出されたビデオデータは、ラスタスキャン/ブロックスキャン変換部207Bにおいて、上述のラスタスキャン/ブロックスキャン変換部207Aと同様の処理をされて16画素×16ラインのマクロブロックが切り出される。切り出されたマクロブロックは、第15図Aに示されるように、上述した第14図Aに示されるヘッダ部に対応するデータ部に格納され、DCTモード部216に供給される。
DCTモード部216では、上述のDCTモード部208と同様に、フィールドDCT符号化モードおよびフレームDCT符号化モードのうち何れを用いて符号化するかが決められる。このとき、既にDCTモード部208において符号化モードが決められ、その結果がDCTタイプデータdct_typとしてストリーム中に一時的に挿入されている(第15図A参照)。DCTモード部216では、ストリームからこのDCTタイプデータdct_typを検出し、検出されたDCTタイプデータdct_typに基づきフィールド符号化モードおよびフレーム符号化モードを切り換える。DCTモード部216の出力を第15図Bに示す。
DCTモード部216から出力されたマクロブロックは、DCT部210Bに供給され、上述のDCT部210Aと同様にして8画素×8ラインのDCTブロック単位で2次元DCTされる。2次元DCTされたDCT係数は、第15図Cに示されるように、ストリーム中のデータ部に
【0033】
(9)により計算されるものとする。
上述したように、アクティビティ部209により、先ず、アクティビティactが求められる。このアクティビティactが乗算器301の一方および他方の入力端に供給され、act×actが計算される。計算結果は、レジスタ304および307を介して乗算器311の一方の入力端に供給されると共に、レジスタ315をさらに介して加算器318の一方の入力端に供給される。
平均化部206から出力された平均アクティビティavg_actが乗算器302の一方および他方の入力端に供給され、avg_act×avg_actが計算される。計算結果は、レジスタ305および308を介して乗算器312の一方の入力端に供給されると共に、レジスタ313をさらに介して加算器317の一方の入力端に供給される。
平均化部206から出力された平均アクティビティavg_actは、乗算器303の一方の入力端にも供給される。乗算器303の他方の入力端には、パラメータattが供給される。なお、パラメータattは、例えばシステムコントローラ117で設定されCPU I/F221を介して供給される。乗算器303の計算結果は、レジスタ306を介して加算器310の一方の入力端に供給される。加算器310の他方の入力端には、定数「1」が供給される。乗算器303および加算器310により、att×avg_act+1が計算され、norm_gainが求められる。norm_gainは、レジスタ309を介して乗算器311および312それぞれの他方の入力端に供給される。
乗算器311では、norm_gain×(act×act)が計算され、計算結果がレジスタ314を介して加算器317の他方の入力端に供給される。加算器317では、avg_act×avg_act+norm_gain×(act×act)が計算される。計算結果は、レジスタ319を介して除算器321の被除数入力端に供
【0034】
給される。
同様に、乗算器312では、norm_gain×(avg_act×avg_act)が計算され、計算結果がレジスタ316を介して加算器318の他方の入力端に供給される。加算器318では、norm_gain×(avg_act×avg_act)+act×actが計算される。計算結果は、レジスタ320を介して除算器321の除数入力端に供給される。
除算器321では、{avg_act×avg_act+norm_gain×(act×act)}÷{norm_gain×(avg_act×avg_act)+act×act}が計算される。すなわち、この除算器321の出力がこの発明の実施の一形態による正規化アクティビティnorm_actとされる。除算器321から出力された正規化アクティビティnorm_actは、セレクタ325およびレジスタ324を介して出力される。そして、この正規化アクティビティnorm_actは、ストリームにおいて、上述の第11図Cのアクティビティactを上書きし、第12図Aのようにストリーム中に埋め込まれて後段に伝えられる。
なお、比較部322において、レジスタ320に供給された値(除数)が監視される。若し、除数が「0」であれば、例えばその旨示すフラグがレジスタ326を介してセレクタ325に供給される。セレクタ325は、一方の入力端に上述の除算器321の出力が供給され、他方の入力端には、定数「1」が供給される。比較器322から供給されたフラグにより、除数が「0」であることが示されると、セレクタにより定数「1」が選択され、正規化アクティビティnorm_actとして出力される。
なお、上述では、MPEGエンコーダ103における処理がハードウェアにより行われるように説明したが、これはこの例に限定されない。MPEGエンコーダ103の処理は、ソフトウェアによっても同様に実現可能なものである。例えば、コンピュータ装置にビデオ信号のアナロ
【0038】
に相当する処理が行われる。すなわち、ステップS16で、DCT係数に対して量子化スケールQ=1での量子化が行われ、ステップS17で、VLCテーブルが参照されて量子化されたDCT係数が可変長符号化される。そして、ステップS18で可変長符号化によるマクロブロックにおける発生符号量が計算され、ステップS19で、ステップS18で求められたマクロブロック毎の発生符号量が1フレーム分、積算される。ステップS20で次の量子化スケールQnがあるか否かが判断され、次の量子化スケールQnがあると判断されたら、処理はステップS16に戻され、次の量子化スケールQnに基づく処理が行われる。量子化スケールQn毎の1フレーム分の発生符号量は、それぞれメモリに格納される。
ステップS20で、全ての量子化スケールQnの値についてフレームにおける発生符号量の積算値が求められたとされれば、ステップS21で、1フレームの最終マクロブロック(MB)まで処理が終了したかどうかが判断され、最終マクロブロックまでの処理が終了していなければ、処理がステップS11に戻される。最終マクロブロックまでの処理が終了され1フレーム分の発生符号量が見積もられれば、ステップS31に移行され、実際のエンコード処理が行われる。
ステップS31では、上述のステップS11と同様に、メモリに格納されたビデオデータがラスタスキャンからブロックスキャンへと変換され、マクロブロックが切り出される。次のステップS32では、上述のステップS12でメモリに格納されたDCTモードタイプデータdct_typに基づきDCT符号化モードが設定される。
ステップS33では、ステップS31でビデオデータから切り出されたマクロブロックが8画素×8ラインからなるDCTブロックに分割され、このDCTブロックに対して2次元DCTが行われる。2次元DCTによ
【0039】
りDCTブロックが変換されたDCT係数は、ステップS34で量子化テーブル(quantizer_table)による量子化がなされ、処理はステップS35に移行される。
ステップS35では、上述したステップS11〜S21において見積もられた、量子化スケールQn毎の1フレーム分の発生符号量に基づき、実際のエンコード処理において発生される符号量の制御を行うために、後述するステップS36で用いられる量子化スケールQnがマクロブロック毎に設定される。
そして、処理はステップS36に移行され、ステップS35で設定された量子化スケールQnを用いて、ステップS34で量子化テーブルを用いて量子化されたDCT係数の量子化が行われる。ステップS36で量子化されたDCT係数は、次のステップS37でVLCテーブルが参照され可変長符号化される。そして、ステップS38で1フレームの最終マクロブロックまで処理が行われたか否かが判断され、1フレームの最終マクロブロックまで処理されていないと判断されれば、処理がステップS31に戻され、次のマクロブロックに対する量子化処理および可変長符号化処理が行われる。一方、ステップS38で、1フレームの最終マクロブロックまで処理が行われたと判断されれば、1フレーム分のエンコード処理が終了したとされる。
なお、上述では、ステップS11〜S21までのプリエンコード処理と、ステップS31〜S38までのエンコード処理とを別々の処理として説明したが、これはこの例に限定されない。例えば、ステップS11〜S21において発生符号量の見積もりにより得られたデータをメモリに格納し、そこから実際のエンコード処理により得られるデータを選択して取り出すようにする。これにより、ステップS31〜S38の処理をステップS11〜S21による処理に含まれるループとして組み込む
【0040】
ことができる。
なお、上述では、パラメータattの値を「0.125」としたが、これはこの例に限定されず、他の値とすることができる。このパラメータattの値を変更することで、様々な圧縮率に適した適応量子化に対応することが可能とされる。
以上説明したように、この実施の一形態では、正規化アクティビティを算出する際に、対象となる画像の平坦さや複雑さといった特性、すなわち、当該画像の平均アクティビティに応じて正規化の範囲を変更するようにしている。
そのため、全体的に平坦な画像については、アクティビティの正規化の範囲を小さくし、画像全体で均一に近いアクティビティを用いて量子化を行うことができる。そのため、画像全体で均一な平坦度を確保し、高画質を得ることが可能となる。
一方、複雑な領域と平坦な領域とが混在するような画像については、アクティビティの正規化の範囲を大きくし、平坦な領域にはより大きい符号量を割り当てて精細な量子化を行い、複雑な領域では粗い量子化を行うことにより、視覚的に良質な画像を得ることができる。

Claims (10)

  1. 画像データから平均アクティビティを算出する平均アクティビティ算出手段と、
    上記平均アクティビティ算出手段により算出された上記平均アクティビティに応じて正規化範囲を動的に設定し、該正規化範囲に基づき該平均アクティビティを用いて正規化アクティビティを算出する正規化アクティビティ算出手段と、
    上記正規化アクティビティ算出手段により算出された上記正規化アクティビティを用いて上記画像データを量子化する量子化手段と
    を有することを特徴とする画像処理装置。
  2. 請求の範囲第1項に記載の画像処理装置において、
    上記正規化アクティビティ算出手段は、上記平均アクティビティが小さいときは、上記正規化範囲をより狭く設定し、上記平均アクティビティが大きいときは、上記正規化範囲をより広く設定するようにしたことを特徴とする画像処理装置。
  3. 請求の範囲第1項に記載の画像処理装置において、
    上記正規化アクティビティ算出手段は、上記画像データを分割したブロック毎に上記正規化アクティビティを算出するようにされ、
    上記平均アクティビティに比例する係数に上記ブロック毎のアクティビティを乗じた結果に上記平均アクティビティを加算した値を、上記係数に上記平均アクティビティを乗じた結果に上記ブロック毎のアクティビティを加算した値で除した値を、上記ブロック毎の上記正規化アクティビティとすることを特徴とする画像処理装置。
  4. 請求の範囲第3項に記載の画像処理装置において、
    上記正規化アクティビティ算出手段は、上記ブロック毎のアクティビティの値および上記平均アクティビティの値が共に0であれば、上記正規化アクティビティの値を1として算出するようにしたことを特徴とする画像処理装置。
  5. 請求の範囲第1項に記載の画像処理装置において、
    上記正規化アクティビティ算出手段は、上記画像データを分割したブロック毎に上記正規化アクティビティを算出するようにされ、
    上記平均アクティビティに比例する係数に上記ブロック毎のアクティビティを二乗した値を乗じた結果に上記平均アクティビティを加算した値を、上記係数に上記平均アクティビティを二乗した値を乗じた結果に上記ブロック毎のアクティビティを加算した値で除した値を、上記ブロック毎の上記正規化アクティビティとすることを特徴とする画像処理装置。
  6. 請求の範囲第5項に記載の画像処理装置において、
    上記正規化アクティビティ算出手段は、上記ブロック毎のアクティビティの値および上記平均アクティビティの値が共に0であれば、上記正規化アクティビティの値を1として算出するようにしたことを特徴とする画像処理装置。
  7. 請求の範囲第1項に記載の画像処理装置において、
    上記正規化アクティビティ算出手段は、1フレームの上記平均アクティビティを、該1フレームの第1フィールドの画像データから算出するようにしたことを特徴とする画像処理装置。
  8. 画像データから平均アクティビティを算出する平均アクティビティ算出のステップと、
    上記平均アクティビティ算出のステップにより算出された上記平均アクティビティに応じて正規化範囲を動的に設定し、該正規化範囲に基づき該平均アクティビティを用いて正規化アクティビティを算出する正規化アクティビティ算出のステップと、
    上記正規化アクティビティ算出のステップにより算出された上記正規化アクティビティを用いて上記画像データを量子化する量子化のステップと
    を有することを特徴とする画像処理方法。
  9. 画像データを量子化する画像処理方法をコンピュータ装置に実行させる画像処理プログラムにおいて、
    上記画像処理方法は、
    入力された画像データから平均アクティビティを算出する平均アクティビティ算出のステップと、
    上記平均アクティビティ算出のステップにより算出された上記平均アクティビティに応じて正規化範囲を動的に設定し、該正規化範囲に基づき該平均アクティビティを用いて正規化アクティビティを算出する正規化アクティビティ算出のステップと、
    上記正規化アクティビティ算出のステップにより算出された上記正規化アクティビティを用いて上記画像データを量子化する量子化のステップと
    を有することを特徴とする画像処理プログラム。
  10. 画像データを量子化する画像処理方法をコンピュータ装置に実行させる画像処理プログラムが記録された記録媒体において、
    上記画像処理方法は、
    入力された画像データから平均アクティビティを算出する平均アクティビティ算出のステップと、
    上記平均アクティビティ算出のステップにより算出された上記平均アクティビティに応じて正規化範囲を動的に設定し、該正規化範囲に基づき該平均アクティビティを用いて正規化アクティビティを算出する正規化アクティビティ算出のステップと、
    上記正規化アクティビティ算出のステップにより算出された上記正規化アクティビティを用いて上記画像データを量子化する量子化のステップと
    を有することを特徴とする記録媒体。
JP2002577446A 2001-03-29 2002-03-28 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体 Pending JPWO2002080575A1 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2001095298 2001-03-29
JP2001095298 2001-03-29
JP2001156818 2001-05-25
JP2001156818 2001-05-25
PCT/JP2002/003063 WO2002080575A1 (en) 2001-03-29 2002-03-28 Image processing apparatus, image processing method, image processing program, and recording medium

Publications (1)

Publication Number Publication Date
JPWO2002080575A1 true JPWO2002080575A1 (ja) 2004-07-22

Family

ID=26612508

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2002577446A Pending JPWO2002080575A1 (ja) 2001-03-29 2002-03-28 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP2002577443A Abandoned JPWO2002080572A1 (ja) 2001-03-29 2002-03-28 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2002577443A Abandoned JPWO2002080572A1 (ja) 2001-03-29 2002-03-28 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体

Country Status (3)

Country Link
US (2) US20040131116A1 (ja)
JP (2) JPWO2002080575A1 (ja)
WO (2) WO2002080575A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126283B1 (en) * 2005-10-13 2012-02-28 Maxim Integrated Products, Inc. Video encoding statistics extraction using non-exclusive content categories
JP4529919B2 (ja) * 2006-02-28 2010-08-25 日本ビクター株式会社 適応量子化装置及び適応量子化プログラム
US7995649B2 (en) * 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US8711925B2 (en) 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
JP4908943B2 (ja) * 2006-06-23 2012-04-04 キヤノン株式会社 画像符号化装置及び画像符号化方法
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
CN102567961B (zh) * 2010-12-30 2016-05-18 意法半导体研发(深圳)有限公司 感知块屏蔽估算系统
US9787989B2 (en) * 2013-06-11 2017-10-10 Blackberry Limited Intra-coding mode-dependent quantization tuning

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05167998A (ja) * 1991-12-16 1993-07-02 Nippon Telegr & Teleph Corp <Ntt> 画像の符号化制御処理方法
JP3450384B2 (ja) 1993-09-20 2003-09-22 株式会社東芝 動画像符号化装置
KR100213015B1 (ko) * 1994-03-31 1999-08-02 윤종용 양자화 방법 및 회로
US5506844A (en) * 1994-05-20 1996-04-09 Compression Labs, Inc. Method for configuring a statistical multiplexer to dynamically allocate communication channel bandwidth
JPH0818959A (ja) * 1994-07-04 1996-01-19 Matsushita Electric Ind Co Ltd 画像信号符号化方法及び画像信号符号化装置
JPH0965339A (ja) * 1995-08-18 1997-03-07 Mitsubishi Electric Corp 画像ブロック動き検出装置
US6192075B1 (en) * 1997-08-21 2001-02-20 Stream Machine Company Single-pass variable bit-rate control for digital video coding
US6885702B1 (en) * 1997-10-06 2005-04-26 Telediffusion De France Method for spatial synchronization of a digitally coded video image and/or for identification of the syntax of a video sequence
US5978029A (en) * 1997-10-10 1999-11-02 International Business Machines Corporation Real-time encoding of video sequence employing two encoders and statistical analysis
JPH11346365A (ja) 1998-04-03 1999-12-14 Matsushita Electric Ind Co Ltd 符号化圧縮方法、および符号化圧縮装置
JP2000138938A (ja) * 1998-10-30 2000-05-16 Sony Corp 画像圧縮符号化方法及び装置
US6480539B1 (en) * 1999-09-10 2002-11-12 Thomson Licensing S.A. Video encoding method and apparatus

Also Published As

Publication number Publication date
US20040114816A1 (en) 2004-06-17
US20040131116A1 (en) 2004-07-08
US7289676B2 (en) 2007-10-30
WO2002080572A1 (en) 2002-10-10
WO2002080575A1 (en) 2002-10-10
JPWO2002080572A1 (ja) 2004-07-22

Similar Documents

Publication Publication Date Title
US8411741B2 (en) Picture processing apparatus, picture processing method, picture processing program and recording medium
US5416604A (en) Image compression method for bit-fixation and the apparatus therefor
US5629779A (en) Image coding method and apparatus therefor
US7065138B2 (en) Video signal quantizing apparatus and method thereof
US7075983B2 (en) Image processing apparatus
JP2002359853A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JPWO2002080573A1 (ja) 量子化装置、量子化方法、量子化プログラムおよび記録媒体
JP3900155B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム、ならびに、量子化制御装置、量子化制御方法および量子化制御プログラム
JPH07177464A (ja) リアルタイム画像圧縮処理装置
JPWO2002080575A1 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP2959831B2 (ja) 画像データの符号化装置
JP4135427B2 (ja) 画像処理装置および方法、ならびに、画像処理プログラム
JP3763276B2 (ja) 信号処理装置および方法、記録装置および方法、ならびに、記録再生装置および方法
JP2004056677A (ja) 画像情報符号化装置及び画像情報符号化方法
JP3038022B2 (ja) 電子カメラ装置
JP2002290914A (ja) 記録再生装置及びそのバックサーチ方法
JP3192133B2 (ja) 電子カメラ装置
JPH09214772A (ja) 静止画像データの圧縮装置
JP2003169330A (ja) 信号処理装置および方法、記録装置および方法、ならびに、記録再生装置および方法
JPH09135418A (ja) 画像記録装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060627

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070604

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070627

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080328