JP2004080166A - Information compressing method, still image compressing method and moving picture compressing method - Google Patents

Information compressing method, still image compressing method and moving picture compressing method Download PDF

Info

Publication number
JP2004080166A
JP2004080166A JP2002235120A JP2002235120A JP2004080166A JP 2004080166 A JP2004080166 A JP 2004080166A JP 2002235120 A JP2002235120 A JP 2002235120A JP 2002235120 A JP2002235120 A JP 2002235120A JP 2004080166 A JP2004080166 A JP 2004080166A
Authority
JP
Japan
Prior art keywords
value
compression method
screen
image compression
quantization step
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002235120A
Other languages
Japanese (ja)
Inventor
Tomohito Monno
門野 智史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KYOSHIN TECHNOSONIC CO Ltd
Original Assignee
KYOSHIN TECHNOSONIC CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KYOSHIN TECHNOSONIC CO Ltd filed Critical KYOSHIN TECHNOSONIC CO Ltd
Priority to JP2002235120A priority Critical patent/JP2004080166A/en
Publication of JP2004080166A publication Critical patent/JP2004080166A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To suitably control the rate of still images, moving picture, etc. <P>SOLUTION: The method comprises extracting a field to be compressed from input information, wavelet-transforming the field into sub-bands from a high frequency to a low frequency, calculating the entropy value H from the sub-bands of the lower frequency components, calculating the quantizing step value Δ from the entropy value H, using a transformation expression, and coding, using the quantizing step value Δ. Thus a desired compression ratio is attained in a compression process realized by quantization, using the quantizing step value Δ calculated from the entropy value H. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像情報等の圧縮方法に関し、特に量子化ステップ値を調節することにより所定の圧縮率を達成する情報圧縮方法、画像圧縮方法および動画像圧縮方法に関するものである。
【0002】
【従来の技術】
従来の代表的な画像圧縮方式としては、ISO(国際標準化機構:International Organization fo r Standardization)によって標準化されたJPEG(Joint Photographic Coding Experts Group)方式がある。このJPEG方式とは、DCT(離散コサイン変換:Discrete Cosine Transform)を用いて主に静止画を圧縮符号化する方式であり、比較的高いビットが割り当てられる場合には、良好な符号化・復号画像を供することが知られている。ただしこの方式においては、ある程度符号化ビット数を少なくすると、DCT特有のブロック歪みが顕著になり、主観的に劣化が目立つようになる。
【0003】
これとは別に、最近においては、画像をフィルタバンクと呼ばれるハイパス・フィルタとローパス・フィルタを組み合わせたフィルタによって複数の帯域に分割し、それらの帯域毎に符号化を行う方式の研究が盛んになっている。その中でも、ウェーブレット符号化は、DCTで問題とされた高圧縮でブロック歪みが顕著になる、という欠点が無いことから、DCTに代わる新たな技術として有力視されている。
【0004】
現在、電子スチルカメラやビデオムービ等の製品では、圧縮符号化にJPEG方式やMPEG(Moving Picture image coding Experts Group)方式、あるいはいわゆるDV(Digital Video) 方式を採用するものが多く、これらの圧縮符号化方式はいずれも変換方式にDCTを用いている。そして、DCTにより変換された係数は、量子化の工程および符号化の工程を経て圧縮される。また、MPEGでは、符号化対象となるマクロブロックと呼ばれるブロック単位に、前フレームとの間で動き補償予測を行うことで、符号化効率を向上させている。
【0005】
【発明が解決しようとする課題】
しかしながら、上述したような画像等の情報の圧縮方法は、以下に示すような問題点を有していた。
【0006】
第1に、従来の画像等の圧縮方法に於いて、量子化を行う工程では、予め決められた量子化ステップ値を用いて量子化を行っていた。従って、圧縮される画像の特性によっては、圧縮率が不足する、あるいは画像の劣化が激しくなる問題があった。
【0007】
第2に、特に動画像の圧縮では、動画を形成する各フィールドの圧縮率を制御するレートコントロールが重要となる。このレートコントロールを行う手法の1つとして、量子化ステップ値を制御する手法があるが、量子化ステップ値を制御することにより、安定したレートコントロールを行うことは非常に難しい問題があった。
【0008】
第3に、前述したようなMPG等では、画像圧縮・伸張の処理の大部分を動き補償予測の工程が占めていた。動き補償予測の工程では、必ず過去のフレームと現在のフレームとの比較の処理等が必要となり、このことが画像圧縮の全体的な工程の複雑化を招いていた。更に、複数の保存および比較を行うために、大きなRAM等の記憶装置が必要になる問題があった。更にまた、予測がはずれた場合に、画質が大きく劣化してしまう問題があった。更にまた、1画面単位での編集および再生が困難になる問題があった。
【0009】
本発明は上述した問題を鑑みて成されたものであり、本発明の主な目的は、少なくとも量子化を行う動画像等の情報の圧縮に於いて、画像等の情報自体が有するエントロピ値から適切な量子化ステップ値を算出することにより、適切なレートコントロールを行う方法を提供することにある。
【0010】
【課題を解決するための手段】
本発明は、入力された入力情報から圧縮対象となる情報を抽出する工程と、前記情報を基に量子化ステップ値を算出する工程と、前記量子化ステップ値を用いて前記情報の量子化を行うことにより前記情報の圧縮を行う工程とを有することを特徴する。
【0011】
更に、本発明の静止画像の圧縮方法は、入力された静止画像から圧縮対象となるフィールドを抽出する工程と、前記フィールドの情報を基に量子化に用いる量子化ステップ値を算出する工程と、前記量子化ステップ値を用いて前記量子化を行うことにより前記フィールドの圧縮を行う工程とを有することを特徴とする。
【0012】
ここで、上記した前記フィールドの情報としては、そのフィールドのエントロピ値を用いることができる。即ち、所定の圧縮率を実現するエントロピ値と量子化ステップ値の関係式を用意し、前記フィールドのエントロピ値から量子化ステップ値を算出することで、適切な量子ステップ値を算出することができる。
【0013】
更に、本発明の動画像の圧縮方法は、入力された動画像信号から圧縮対象となるフィールドを抽出する工程と、少なくとも量子化を行うことにより前記フィールドの圧縮を行う工程と、前記フィールドの情報を基に前記量子化に用いる量子化ステップ値を算出する工程とを有することを特徴とする。
【0014】
ここで、フィールドの圧縮を行う工程と、量子化ステップ値を算出する工程とは平行して行う。そして、量子化を含む前記フィールドの圧縮は、直前の画像のエントロピ値より算出された量子化ステップ値を用いて行う。このことから、N番目のフィールドF[N]のエントロピ値および量子化ステップ値を、H[N]およびΔ[N]とした場合、フィールド[N]の量子化を行う際に用いるΔ[H]は、直前のフィールドF[N―1]のH[N―1]から算出したΔ[N−1]を使用することになる。
【0015】
動画像から抽出されたフィールドに於いては、F[N]とF[N−1]の図柄は、ほぼ同等であると仮定することができる。従って、本発明では、F[N]の圧縮を、F[N−1]から算出したΔ[N−1]を用いて行っている。
【0016】
更に、Δ[N―1]を用いてF[N]の圧縮を行う工程と、F[N+1]の圧縮を行う工程で用いるΔ[N]を算出する工程とは、平行して行っている。このことから、Δ[N]を算出することによる処理時間の増大を防止している。
【0017】
本発明では、量子化ステップ値を、画像自体が有する情報の1つであるエントロピ値から算出している。エントロピ値が大きな画像は図柄が複雑な画像であり、符号化の工程に於ける圧縮率が低下することが予想される。従って、エントロピ値が大きな画像に対しては、符号化を行う前の工程である量子化の工程で、大きな量子化ステップ値をもって量子化を行うことにより画像の情報量を削減している。
【0018】
【発明の実施の形態】
上記したような画像情報の圧縮方法、特に動画像の圧縮方法では、予め圧縮率の目標値を固定しておき、圧縮率が目標値に達しなかった場合は、何らかの方法により圧縮率を制御している。このように情報の圧縮率を制御することを一般的にレートコントロールという。レートコントロールを行う手法は様々であるが、1つの方法として、量子化を行う際に用いる量子化ステップ値を変化させることによりレートコントロールを行うことができる。
【0019】
量子化とは、データの値を離散的なレベルで近似する非可逆な工程である。従って、量子化を行うことにより得られる情報は、オリジナルの画像と比較すると確実に劣化する。量子化による画像の圧縮率および画像の劣化の度合いは、それに用いる量子化ステップ値の大きさに依る。具体的には、大きな量子化ステップ値を用いて画像の量子化を行った場合は、画像の情報量は小さくなり、画像の劣化の度合いは大きくなる。それに対して、小さな量子化ステップ値を用いて画像の量子化を行った場合は、画像の情報量は大きくなり、画像の劣化の度合いは小さくなる。
【0020】
ここで画像の圧縮率について説明する。圧縮率とは、画像等の情報量に対して圧縮を施したときの、情報量の変化を示す指標である。従って、高い圧縮率とは小さな圧縮率を示しており、低い圧縮率とは大きな圧縮率を示している。具体的には、圧縮率が0.01である場合と、圧縮率が0.1である場合を比較すると、圧縮率が0.01である場合の方が圧縮率が高いことになる。
【0021】
本発明では、画像自体の情報、特に画像自体が有するエントロピ値から算出された量子化ステップ値を用いて画像の圧縮を行うことで、適切なレートコントロールを行っている。このような本発明の実施の形態について、以下図面を参照しながら説明する。
【0022】
(静止画像の圧縮方法を説明する第1の実施の形態)
本発明の静止画像の圧縮方法は、入力された静止画像から圧縮対象となる画面を抽出する工程と、前記画面の情報を基に量子化に用いる量子化ステップ値を算出する工程と、前記量子化ステップ値を用いて前記量子化を行うことにより前記画面の圧縮を行う工程とを有する。このような圧縮方法を以下にて説明する。
【0023】
図1のブロック図を参照して、本発明の静止画像の圧縮方法は、具体的に次のような構成を有する。即ち、入力された静止画像から圧縮対象となる画面を抽出する工程と、抽出された画面をウェーブレット変換することによりウェーブレット変換係数を得る工程と、ウェーブレット変換係数から量子化ステップ値を算出する工程と、算出された量子化ステップ値を用いて量子化を行い量子化係数を得る工程と、量子化係数をエントロピ符号化する工程とで構成されている。このような各工程を以下にて説明する。
【0024】
第1の工程:図2参照
本工程は、入力された静止画像から圧縮対象となる画面を抽出する工程である。具体的には、最初に、カメラ等の光電変換装置の出力として得られた画像信号は、先ずアナログ・ディジタル変換(A−D変換)によって、2次元なディジタルデータの配列に変換される。このディジタルデータの配列は、個々の成分が画像の標本値(画素)である。個々の画素は、白黒画像の場合は、8ビット(1バイト)で表現される。
【0025】
画像がカラー画像の場合、個々の画素をディジタルデータで表現する方法は2つ有る。第1の方法は、カラー画像の情報をRGB3原色の情報で表現する方法であり、個々の画素は24ビット(3バイト)で表現される。第2の方法は、カラー画像の情報を輝度信号Yと2つの色相信号Uおよび彩度信号Vを用いて表現する方法である。以下の説明では、第2の方法を採用した場合について説明するが、第1の方法を使用した場合でも同様に静止画像の圧縮を行うことができる。更に、圧縮対象となる画像が白黒画像の場合でも、同様に静止画像の圧縮を行うことができる。
【0026】
次に、カラー画像を構成する要素である輝度信号Y、色相信号Uおよび彩度信号Vをそれぞれ分離して個々の画面を抽出する。以降の圧縮工程は、輝度信号Y、色相信号Uおよび彩度信号Vの各画面に付いて個別に行われる。
【0027】
第2の工程:図3および図4参照
本工程は、抽出された画面をウェーブレット変換することによりウェーブレット変換係数を得る工程である。本工程では、前工程で分離された後に抽出された輝度信号Y、色相信号Uおよび彩度信号Vの個々の画面に付いて、ウェーブレット変換を行っている。以下にて詳細を説明するウェーブレット変換は、画素間の相関関係を除去する周波数変換の1つであり、本発明では他の直交変換を採用することも可能である。具体的には、ウェーブレット変換の他に、DCT(離散コサイン変換:Discrete Cosine Transform)等を採用することも可能である。
【0028】
図3を参照して、まず通常のウェーブレット変換部の構成例を示す。これは、幾つかあるウェーブレット変換手法の中で、最も一般的なウェーブレット変換であるオクターブ分割を複数レベルにわたって行った例である。この場合は、レベル数が3(レベル1〜レベル3)であり、画面信号を低域と高域に分割し、且つ低域成分のみを階層的に分割する構成を採っている。また、同図では1次元の信号(例えば画面の水平成分)についてのウェーブレット変換を例示しているが、これを2次元に拡張することで2次元画面信号に対応することができる。
【0029】
次に、上記のように構成されたウェーブレット変換部の動作について説明する。図3に示すウェーブレット変換部への入力画面1は、まずローパスフィルタ11(伝達関数H0(z))とハイパスフィルタ12(伝達関数H1(z))とによって帯域分割され、得られた低域成分と高域成分は、それぞれ対応するダウンサンプラ13A、13Bによって、解像度がそれぞれ2分の1倍に間引かれる(レベル1)。この時の出力がL成分2とH成分7の2つである。ここで、上記LはLowで低域、HはHighで高域を示す。この図2のローパスフィルタ11、ハイパスフィルタ12、及び2個のダウンサンプラ13A、13Bによってレベル1の回路部20が構成されている。
【0030】
上記ダウンサンプラ13A、13Bによりそれぞれ間引かれた信号の内の低域成分、すなわちダウンサンプラ13Aからの信号のみが、さらに、レベル2の回路部21のローパスフィルタ及びハイパスフィルタによって帯域分割され、それぞれ対応するダウンサンプラによって、解像度をそれぞれ2分の1倍に間引かれる(レベル2)。これらのレベル2のローパスフィルタ、ハイパスフィルタ及びダウンサンプラから成る回路部21としては、上記レベル1のローパスフィルタ11、ハイパスフィルタ12及びダウンサンプラ13A、13Bから成る回路部20と同様な構成が用いられる。
【0031】
このような処理を所定のレベルまで行うことで、低域成分を階層的に帯域分割した帯域成分が順次生成されていくことになる。レベル2で生成された帯域成分は、LL成分2とLH成分6である。図3はレベル3まで帯域分割する例が示されており、レベル2の回路部21のローパスフィルタ側のダウンサンプラからの出力が、上記回路部21と同様な構成のレベル3の回路部22に供給されている。このようにレベル3まで帯域分割した結果、LLL成分4、LLH成分5、LH成分6、H成分7が生成されている。
【0032】
ここで図4は、レベル3まで2次元画像を帯域分割した結果得られる帯域成分を図示したものである。この図4でのL及びHの表記法は、1次元信号を扱った図3でのL及びHの表記法とは異なる。すなわち図4では、先ずレベル1の帯域分割(水平・垂直方向)により4つの成分LL、LH、HL、HHに分かれる。ここでLLは水平・垂直成分が共にLであること、LHは水平成分がHで垂直成分がLであることを意味している。次に、LL成分は再度帯域分割されて、LLLL、LLHL、LLLH、LLHHが生成される。さらに、LLLL成分は再度帯域分割されて、LLLLLL、LLLLHL、LLLLLH、LLLLHHが生成される。
【0033】
第3の工程:図5および図6参照
本工程は、本発明の特徴とする工程であり、前工程で得られたウェーブレット変換係数から量子化ステップ値Δを算出する工程である。具体的には、先ず、輝度成分(Y成分)のウェーブレット変換係数の低周波領域から、エントロピ値Hを算出する。次に、変換式を用いて、エントロピ値Hから量子化ステップ値Δを算出する。この変換式は、Δ=f(H)で表され、この関数を用いることにより、所定の画像の圧縮率を達成する量子化ステップ値Δをエントロピ値(H)から算出することができる。この変換式の導出方法に関しては、後述する。
【0034】
ここで、エントロピについて説明する。エントロピとは、ある情報が得られる確率を基に、情報がどれだけ欠如しているかの状態を示す量であり、この量は情報の不確定さの度合いを示している。具体的には、エントロピの量が小さい場合は、情報が偏って出現していることを意味している。従って、大きなエントロピ値を有する画像に対して符号化を含む圧縮を行った場合は、画像の圧縮率は低くなる。また、小さなエントロピ値を有する画像に対して符号化を含む圧縮を行った場合は、画像の圧縮率は高くなる。
【0035】
本工程で算出した量子化ステップ値Δは、量子化を行う工程に於いて、全周波数領域のサブバンドの量子化を行う際に用いられる。更に、本工程で算出した量子化ステップ値Δは、画像を形成する他の成分の量子化にも用いられる。従って、ここで算出した量子化ステップ値Δは、色相信号Uおよび彩度信号Vの量子化を行う際にも用いられる。以下にて、具体的な量子化ステップ値Δの算出方法を説明する。
【0036】
図5を参照して、エントロピ値の計算方法を説明する。本工程に於いて計算の対象となるのは、輝度成分(Y成分)のウェーブレット変換により分割されたサブバンドHH、HLおよびLHを除いた領域である。換言すると、計算の対象となるのはY成分のLLの領域(以下、Y(LL)と省略する)である。画素数がn個のY(LL)のエントロピ値Hは、一般的に次式で算出される。
【0037】
【数1】

Figure 2004080166
【0038】
数1に於いて、P(Ni)はシンボルNiの出現確率を示す。ここで、所定の圧縮率(例えば0.05)を達成する量子化ステップ値Δと、Y(LL)のエントロピ値Hとの間には、以下の関係がある。
【0039】
【数2】
Figure 2004080166
【0040】
従って、上記した数2にY(LL)のエントロピ値Hを代入することにより、所定の圧縮率を達成する量子化ステップ値Δを得ることができる。
【0041】
図6を参照して、上記した数2を導出する方法を説明する。図6のグラフは、横軸が輝度信号Yの低周波領域のエントロピ値Hを示しており、縦軸が量子化ステップ値Δを示している。線形な変換式であるこの数2の導出は、異なる図柄を有する多数個の画像を用意し、各々の画像に付いてエントロピ値Hを算出し、更に各々の画像に付いて所定の圧縮率を達成する為の量子化ステップ値Δを求め、個々の画像について算出されたエントロピ値Hおよび量子化ステップ値Δの情報からエントロピ値Hと量子化ステップ値Δとの関係を示す近似直線を求めることにより行われる。この方法を以下にて説明する。
【0042】
用意される画像としては、得られるエントロピ値Hの値が分布する範囲を広くするために、図柄が単純な画像(エントロピ値Hが小さい画像)から図柄が複雑な画像(エントロピ値Hが大きい画像)までを複数個用意する。
【0043】
次に、上記のように用意した多数個の画像の各々に関して、輝度信号Yの低周波成分のエントロピ値Hを算出する。即ち、画像に対してウェーブレット変換を施した後に、低周波領域のサブバンドについて、エントロピ値Hを算出する。この際には、上記した式1を用いてエントロピ値Hの算出を行う。
【0044】
次に、上記のように用意した多数個の画像の各々に関して、所定の圧縮率を達成するような量子化ステップ値Δを求める。ここで、所定の圧縮率は予め決定されている値であり、例えば0.05程度である。
【0045】
次に、図6を参照して、上記にて得られた量子化係数Δとエントロピ値Hとの近似式を求める。同図から、プロットされた点はほぼ直線的に配列している。両者について相関関係を求めたところ、高い相関があることが認められた。そこで1次式を用いて近似式を作成する。そして、近似式の係数(aおよびb)は、最小二乗法等の統計学的手法により算出する。
【0046】
第4の工程:図7参照
本工程は、前工程で算出された量子化ステップ値Δを用いて量子化を行うことにより、ウェーブレット変換係数から量子化係数を得る工程である。原画像であるカラー画像は、輝度信号Y、色相信号Uおよび彩度信号Vに分離されているので、量子化は各々の信号に関して施される。本工程では、輝度信号Yの低周波領域Y(LL)の領域から算出された量子化ステップ値Δを用いて、画像を構成する3つの信号全てのサブバンドの量子化を行っている。
【0047】
具体的には、先ず、輝度信号Y、色相信号Uおよび彩度信号V毎に、量子化ステップ値Δに異なるウェイトを乗算する。ここで、ウェイトとは各信号毎に決められた定数値であり、例えば輝度信号Yのウェイトが乗算された量子化ステップ値Δは、輝度信号Yの量子化に用いられる。
【0048】
次に、ウェーブレット変換係数を量子化ステップ値Δで除算することにより、量子化係数を計算する。ここで、量子化手段としては、例えば下記の式3に示すように通常用いるスカラ量子化を用いる。
【0049】
【数3】
Figure 2004080166
【0050】
上記した数3に於いて、Qは量子化された量子化係数値を示しており、Wはウェーブレット変換係数値を示しており、Δは各信号毎にウェイトが乗算された量子化ステップ値を示している。更に、量子化ステップ値Δで除算することにより得られた量子化係数Qは、整数に丸め込まれる。
【0051】
図7は上記した量子化の工程を示す図である。同図の横軸は入力されるウェーブレット変換係数の大きさを示し、縦軸は出力される代表値である量子化係数の大きさを示している。同図から、量子化ステップ値Δは、量子化係数Δの値が同一に成るようなウェーブレット変換係数の値の幅を決定していることが理解できる。従って、量子化ステップ値Δの値が大きくなるに比例して粗い量子化を行っていることになる。このことにより、量子化ステップ値Δを大きくすることによって、出力である量子化係数の値が同一になる頻度が増え、結果として、後段の工程である符号化工程での圧縮効率が向上するメリットがある。
【0052】
第5の工程:図8参照
本工程は、前工程で得られた量子化係数をエントロピ符号化する工程である。ここで、エントロピ符号化を行う手法としては、ハフマン符号化、算術符号化等を採用することが可能であり、本発明では、効率の良い算術符号化を採用している。算術符号化とは、シンボル(ここでは量子化係数)の系列を、生起確率に確率に応じて区間[0、1]に射影し、数直線上の確率区間を、区間内の適当な数でバイナリ表現する手法である。この手法により、符号化係数を得ることができる。
【0053】
図8を参照して算術符号化の1例を説明する。同図は、1例として符号化シンボル{101}を、それぞれ推定生起確率Pを参照しながら、[0,1.0]の実数区間を分割して行く様子を示したものである。ここで、最初の符号化シンボルは1であることと、1の推定生起確率をP(1)とするとき、P(1)=0.6であることから、初期区間の内、シンボル1に対応した部分区間[0.4,1]を選択する。同様にして、今度は、この[0.4,1]を母区間として、シンボル0に対応した部分区間[0.4,0.64]を生成する。以後同様にして、最終的に[0.52,0.64]が選択される。最後に、最終的な区間[0.52,0.64]=[0.1000…,0.1010…]に含まれる例えば0.1001等の小数部を符号とする。
【0054】
これまでの工程により得られた符号化係数は、ハードディスク、CD等の情報記録媒体に書き込まれて蓄積されても良い。また、この符号化係数の復号化は、図1に示した手法とは逆の手法を行うことにより行うことができる。即ち、逆エントロピ符号化、逆量子化および逆ウェーブレット変換を行うことにより、視覚的に原画像に近い画像を得ることができる。
【0055】
(動画像の圧縮方法を説明する第2の実施の形態)
図9〜図17を参照して、本実施の形態である動画像の圧縮方法を説明する。図9(A)を参照して、本発明の動画像の圧縮方法は、入力された動画像信号から圧縮対象となる画面F(N)を抽出する工程と、少なくとも量子化を行うことにより画面F(N)の圧縮を行う工程と、画面F(N)の情報を基に量子化に用いる量子化ステップ値Δ(N)を算出する工程とを有する。そして、圧縮された画面は、ハードディスク等の記憶媒体に出力される。
【0056】
ここで、上記した画面とは、動画像を形成する各々の構成要素をいう。そして、圧縮対象の情報が例えば現行テレビ(NTSC方式)である場合は、2枚のフィールドからなるフレームが上記した画面となる。以降の説明では、入力された動画像を各フィールド毎に圧縮する場合について説明するが、入力された動画像を各フレーム毎に圧縮することも可能である。
【0057】
図9(B)を参照して、本発明では、直前のフィールドF(N−1)のエントロピ値H(N−1)から算出した量子化ステップ値Δ(N−1)を用いて、フィールドF(N)の圧縮を行っている。そして、フィールドF(N)のエントロピ値H(N)から算出した量子化ステップ値Δ(N)を用いて、次のフィールドF(N+1)の圧縮を行っている。
【0058】
図10のフローを参照して、本発明の動画像の圧縮方法の1実施例は、次のような工程を有している。即ち、圧縮対象となるフィールドF(N)を抽出する工程と、ウェーブレット変換を行う工程と、少なくとも1つ前のフィールドから算出した量子化ステップ値Δ(N−1)を用いて量子化を行う工程と、エントロピ符号化を行う工程と、エントロピ値H(N)を計算する工程と、エントロピ値H(N)から量子化ステップ値Δ(N)を算出する工程とで本発明の動画像の圧縮方法は構成されている。このような各工程の詳細を以下にて説明する。
【0059】
第1の工程:図11参照
本工程は、入力された動画像信号から、圧縮対象となるフィールドF(N)を抽出する工程である。入力された画像が、例えばカラーテレビ放送のNTSC信号の場合は、輝度信号Yに、色相信号Uおよび彩度信号Vが多重化されている。従って、先ず、NTSC信号から、輝度信号Y、色相信号Uおよび彩度信号Vを個々に分離する。その後に、フィールドF(N)の抽出を行う。抽出された輝度信号Y、色相信号Uおよび彩度信号Vは個別に圧縮される。
【0060】
第2の工程:図12および図13参照
本工程は、フィールドF(N)の圧縮を行う工程の1つであり、入力されたフィールドF(N)をウェーブレット変換することにより、ウェーブレット変換係数を得る工程である。
【0061】
本工程では、テレビ画像から分離された後に抽出された輝度信号Y、色相信号Uおよび彩度信号Vの個々のフィールドに付いて、ウェーブレット変換を行っている。以下にて詳細を説明するウェーブレット変換は、画素間の相関関係を除去する直交変換の1つであり、本発明では他の直交変換を採用することも可能である。具体的には、ウェーブレット変換の他に、DCT(離散コサイン変換:Discrete Cosine Transform)等を採用することも可能である。
【0062】
図12を参照して、まず通常のウェーブレット変換部の構成例を示す。これは、幾つかあるウェーブレット変換手法の中で、最も一般的なウェーブレット変換であるオクターブ分割を複数レベルにわたって行った例である。この場合は、レベル数が3(レベル1〜レベル3)であり、フィールド信号を低域と高域に分割し、且つ低域成分のみを階層的に分割する構成を採っている。また、同図では1次元の信号(例えばフィールドの水平成分)についてのウェーブレット変換を例示しているが、これを2次元に拡張することで2次元フィールド信号に対応することができる。
【0063】
次に、上記のように構成されたウェーブレット変換部の動作について説明する。図2に示すウェーブレット変換部への入力フィールド1は、まずローパスフィルタ11(伝達関数H0(z))とハイパスフィルタ12(伝達関数H1(z))とによって帯域分割され、得られた低域成分と高域成分は、それぞれ対応するダウンサンプラ13A、13Bによって、解像度がそれぞれ2分の1倍に間引かれる(レベル1)。この時の出力がL成分2とH成分7の2つである。ここで、上記LはLowで低域、HはHighで高域を示す。この図12のローパスフィルタ11、ハイパスフィルタ12、及び2個のダウンサンプラ13A、13Bによってレベル1の回路部20が構成されている。
【0064】
上記ダウンサンプラ13A、13Bによりそれぞれ間引かれた信号の内の低域成分、すなわちダウンサンプラ13Aからの信号のみが、さらに、レベル2の回路部21のローパスフィルタ及びハイパスフィルタによって帯域分割され、それぞれ対応するダウンサンプラによって、解像度をそれぞれ2分の1倍に間引かれる(レベル2)。これらのレベル2のローパスフィルタ、ハイパスフィルタ及びダウンサンプラから成る回路部21としては、上記レベル1のローパスフィルタ11、ハイパスフィルタ12及びダウンサンプラ13A、13Bから成る回路部20と同様な構成が用いられる。
【0065】
このような処理を所定のレベルまで行うことで、低域成分を階層的に帯域分割した帯域成分が順次生成されていくことになる。レベル2で生成された帯域成分は、LL成分2とLH成分6である。図12はレベル3まで帯域分割する例が示されており、レベル2の回路部21のローパスフィルタ側のダウンサンプラからの出力が、上記回路部21と同様な構成のレベル3の回路部22に供給されている。このようにレベル3まで帯域分割した結果、LLL成分4、LLH成分5、LH成分6、H成分7が生成されている。
【0066】
ここで図13は、レベル3まで2次元画像を帯域分割した結果得られる帯域成分を図示したものである。同図でのL及びHの表記法は、1次元信号を扱った図12でのL及びHの表記法とは異なる。すなわち、先ずレベル1の帯域分割(水平・垂直方向)により4つの成分LL、LH、HL、HHに分かれる。ここでLLは水平・垂直成分が共にLであること、LHは水平成分がHで垂直成分がLであることを意味している。次に、LL成分は再度帯域分割されて、LLLL、LLHL、LLLH、LLHHが生成される。さらに、LLLL成分は再度帯域分割されて、LLLLLL、LLLLHL、LLLLLH、LLLLHHが生成される。
【0067】
第3の工程:図14参照
本工程は、少なくとも1つ前のフィールドF(N−1)から算出された量子化ステップ値Δ(N−1)を用いて量子化を行うことにより、ウェーブレット変換係数から量子化係数を得る工程である。原画像であるカラー画像は、輝度信号Y、色相信号Uおよび彩度信号Vに分離されているので、量子化は各々の信号に関して施される。本工程では、輝度信号Yの低周波領域Y(LL)の領域から算出された量子化ステップ値Δを用いて、画像を構成する3つの信号全てのサブバンドの量子化を行っている。
【0068】
先ず、輝度信号Y、色相信号Uおよび彩度信号V毎に、量子化ステップ値Δ(N−1)に異なるウェイトを乗算する。ここで、ウェイトとは各信号毎に決められた定数値であり、例えば輝度信号Yのウェイトが乗算された量子化ステップ値Δ(N−1)は、輝度信号Yの量子化に用いられる。
【0069】
次に、ウェーブレット変換係数を量子化ステップ値Δ(N−1)で除算することにより、量子化係数を計算する。ここで、量子化手段としては、例えば下記の式4に示すように通常用いるスカラ量子化を用いる。
【0070】
【数4】
Figure 2004080166
【0071】
上記した数4に於いて、Q(N)は量子化された量子化係数を示しており、W(N)はウェーブレット変換係数を示しており、Δ(N−1)は各信号毎にウェイトが乗算された量子化ステップ値を示している。更に、量子化ステップ値Δで除算することにより得られた量子化係数Qは、整数に丸め込まれる。
【0072】
図14は上記した量子化の工程を示す図である。同図の横軸は入力されるウェーブレット変換係数の大きさを示し、縦軸は出力される代表値である量子化係数の大きさを示している。同図から、量子化ステップ値Δ(N−1)は、量子化係数Q(N)の値が同一に成るようなウェーブレット変換係数の値の幅を決定していることが理解できる。従って、量子化ステップ値Δ(N−1)の値が大きくなるに比例して粗い量子化を行っていることになる。このことにより、量子化ステップ値Δを大きくすることによって、出力である量子化係数の値が同一になる頻度が増え、結果として、後段の工程である符号化工程での圧縮効率が向上するメリットがある。
【0073】
第4の工程:図15参照
本工程は、前工程で得られた量子化係数をエントロピ符号化する工程である。ここで、エントロピ符号化を行う手法としては、ハフマン符号化、算術符号化等を採用することが可能であり、本発明では、効率の良い算術符号化を採用している。算術符号化とは、シンボル(ここでは量子化係数)の系列を、生起確率に確率に応じて区間[0、1]に射影し、数直線上の確率区間を、区間内の適当な数でバイナリ表現する手法である。この手法により、符号化係数を得ることができる。
【0074】
図15を参照して算術符号化の1例を説明する。同図は、1例として符号化シンボル{101}を、それぞれ推定生起確率Pを参照しながら、[0,1.0]の実数区間を分割して行く様子を示したものである。ここで、最初の符号化シンボルは1であることと、1の推定生起確率をP(1)とするとき、P(1)=0.6であることから、初期区間の内、シンボル1に対応した部分区間[0.4,1]を選択する。同様にして、今度は、この[0.4,1]を母区間として、シンボル0に対応した部分区間[0.4,0.64]を生成する。以後同様にして、最終的に[0.52,0.64]が選択される。最後に、最終的な区間[0.52,0.64]=[0.1000…,0.1010…]に含まれる例えば0.1001等の小数部を符号とする。
【0075】
これまでの工程により得られた符号化係数は、ハードディスク、CD等の情報記録媒体に書き込まれて蓄積されても良い。また、この符号化係数の復号化は、圧縮を行う手法とは逆の手法を行うことにより行うことができる。即ち、逆エントロピ符号化、逆量子化および逆ウェーブレット変換を行うことにより、視覚的に原画像に近い画像を得ることができる。
【0076】
第5の工程:図16および図17参照
本工程は、量子化ステップ値Δ(N)の計算を行う工程の1つであり、フィールドF(N)のエントロピ値H(N)を算出し、量子化ステップ値Δ(N)を算出する工程である。
【0077】
図16を参照して、エントロピ値の計算方法を説明する。本工程に於いて計算の対象となるのは、輝度成分(Y成分)のウェーブレット変換により分割されたサブバンドHH、HLおよびLHを除いた領域である。換言すると、計算の対象となるのはY成分のLLの領域(以下、Y(LL)と省略する)である。画素数がn個のY(LL)のエントロピ値H(N)は、一般的に次式で算出される。
【0078】
【数5】
Figure 2004080166
【0079】
ここで、所定の圧縮率(例えば0.05)を達成する量子化ステップ値Δ(N)と、Y(LL)のエントロピ値H(N)との間には、以下の関係がある。
【0080】
【数6】
Figure 2004080166
【0081】
従って、上記した数6にY(LL)のエントロピ値Hを代入することにより、所定の圧縮率を達成する量子化ステップ値Δ(N)を得ることができる。
【0082】
図17を参照して、上記した数7を導出する方法を説明する。同図のグラフは、横軸が輝度信号Yの低周波領域のエントロピ値H(N)を示しており、縦軸が量子化ステップ値Δ(N)を示している。この数7の導出は、異なる図柄を有する多数個の画像を用意し、各々の画像に付いてエントロピ値Hを算出し、更に各々の画像に付いて所定の圧縮率を達成する為の量子化ステップ値Δを求め、個々の画像について算出されたエントロピ値Hおよび量子化ステップ値Δの情報からエントロピ値Hと量子化ステップ値Δとの関係を示す近似直線を求めることにより行われる。この方法を以下にて説明する。
【0083】
用意される画像としては、得られるエントロピ値Hの値が分布する範囲を広くするために、図柄が単純な画像(エントロピ値Hが小さい画像)から図柄が複雑な画像(エントロピ値Hが大きい画像)までを複数個用意する。
【0084】
次に、上記のように用意した多数個の画像の各々に関して、輝度信号Yの低周波成分のエントロピ値Hを算出する。即ち、画像に対してウェーブレット変換を施した後に、低周波領域のサブバンドについて、エントロピ値Hを算出する。この際には、上記した式1を用いてエントロピ値Hの算出を行う。
【0085】
次に、上記のように用意した多数個の画像の各々に関して、所定の圧縮率を達成するような量子化ステップ値Δを求める。ここで、所定の圧縮率は予め決定されている値であり、例えば0.05程度である。
【0086】
次に、図17を参照して、上記にて得られた量子化係数Δとエントロピ値Hとの近似式を求める。同図から、プロットされた点はほぼ直線的に配列している。両者について相関関係を求めたところ、高い相関があることが認められた。そこで1次式を用いて近似式を作成する。そして、近似式の係数であるaおよびbは、最小二乗法等の統計学的手法により算出する。
【0087】
本工程で算出された量子化ステップ値Δ(N)は、次フィールドF(N+1)の圧縮を行う際に、量子化の工程にて用いられる。
【0088】
(動画像の圧縮方法を説明する第3の実施の形態)
図18〜図26を参照して、本実施の形態である動画像の圧縮方法を説明する。図18(A)を参照して、本発明の動画像の圧縮方法は、入力された動画像信号から圧縮対象となる画面F(N)を抽出する工程と、少なくとも量子化を行うことにより前記画面F(N)の圧縮を行う工程と、前記画面F(N)の情報を基に前記量子化に用いる量子化ステップ値Δ(N)を算出する工程とを有する。ここで、上記した量子化ステップ値Δ(N)の算出は、画面F(N)が有するエントロピ値H(N)から算出される。更に、画面F(N)を圧縮する行程と、量子化ステップ値Δ(N)を算出する工程とは平行して行われる。更にまた、上記した工程の後段に、画面F(N)の圧縮率および量子化ステップ値Δ(N)の値からオフセット値O(N)を算出する工程がある。本実施の形態では、オフセット値O(N)を用いることにより、量子化ステップ値Δの調節を行い、結果的に圧縮率の調節を行っている。
【0089】
ここで、上記した画面とは、動画像を形成する各々の構成要素をいう。そして、圧縮対象の情報が例えば現行テレビ(NTSC方式)である場合は、2枚のフィールドからなるフレームが上記した画面となる。以降の説明では、入力された動画像を各フィールド毎に圧縮する場合について説明するが、入力された動画像を各フレーム毎に圧縮することも可能である。
【0090】
図18(B)を参照して、本発明では、直前のフィールドF(N−1)のエントロピ値H(N−1)から算出した量子化ステップ値Δ(N−1)を用いて、フィールドF(N)の圧縮を行っている。そして、フィールドF(N)のエントロピ値H(N)から算出した量子化ステップ値Δ(N)を用いて、次のフィールドF(N+1)の圧縮を行っている。
【0091】
図19のフローを参照して、本発明の動画像の圧縮方法の1実施例は、次のような工程を有している。即ち、圧縮対象となるフィールドF(N)を抽出する工程と、オフセット値O(N−1)を加算する工程と、ウェーブレット変換を行う工程と、量子化を行う工程と、エントロピ符号化を行う工程と、圧縮率の比較を行う工程と、エントロピ値H(N)を計算する工程と、エントロピ値H(N)から量子化ステップ値Δ(N)を算出する工程と、量子化ステップ値Δ(N)の比較を行う工程と、オフセット値O(N)の計算を行う工程とで、本発明の動画像の圧縮方法は構成されている。このような各工程の詳細を以下にて説明する。
【0092】
第1の工程:図20参照
本工程は、入力された動画像信号から、圧縮対象となるフィールドF(N)を抽出する工程である。入力された画像が、例えばカラーテレビ放送のNTSC信号の場合は、輝度信号Yに、色相信号Uおよび彩度信号Vが多重化されている。従って、先ず、NTSC信号から、輝度信号Y、色相信号Uおよび彩度信号Vを個々に分離する。その後に、フィールドF(N)の抽出を行う。抽出された輝度信号Y、色相信号Uおよび彩度信号Vは個別に圧縮される。
【0093】
第2の工程:図19参照
本工程は、フィールドF(N)の圧縮を行う工程の1つであり、オフセット値O(N−1)を加算する工程である。ここでは、直前に圧縮されたフィールドF(N−1)のエントロピ値H(N−1)から算出された量子化ステップ値Δ(N−1)に、オフセット値O(N−1)を加算することで、フィールドF(N)の量子化に用いる量子化ステップ値Δ(N)を求めている。具体的には以下に示すような処理を行う。
【0094】
【数7】
Figure 2004080166
【0095】
上記した数7に於いて、O(N−1)はオフセット値であり、直前のフィールドF(N−1)の圧縮率が所定の圧縮率を達成しているか否かにより、その値が決定されている。具体的には、F(N−1)の圧縮率が圧縮率の閾値よりも低い場合は、圧縮率が不足しているとして、O(N−1)は定数が加算された値となる。そして、F(N−1)の圧縮率が圧縮率の閾値よりも高い場合は、O(N−1)は定数が加算されない値となる。更に、フィールドF(N)の図柄が大きく変化した場合には、O(N−1)は零の値が代入されている。このことから、フィールドの図柄が大きく変化した場合には、F(N)の圧縮は、Δ(N−1)を用いて行うことになる。オフセット値O(N)の算出方法等に関しては後述する。
【0096】
第3の工程:図21および図22参照
本工程は、フィールドF(N)の圧縮を行う工程の1つであり、入力されたフィールドF(N)をウェーブレット変換することにより、ウェーブレット変換係数を得る工程である。
【0097】
本工程では、テレビ画像から分離された後に抽出された輝度信号Y、色相信号Uおよび彩度信号Vの個々のフィールドに付いて、ウェーブレット変換を行っている。以下にて詳細を説明するウェーブレット変換は、画素間の相関関係を除去する直交変換の1つであり、本発明では他の直交変換を採用することも可能である。具体的には、ウェーブレット変換の他に、DCT(離散コサイン変換:Discrete Cosine Transform)等を採用することも可能である。
【0098】
図21を参照して、まず通常のウェーブレット変換部の構成例を示す。これは、幾つかあるウェーブレット変換手法の中で、最も一般的なウェーブレット変換であるオクターブ分割を複数レベルにわたって行った例である。この場合は、レベル数が3(レベル1〜レベル3)であり、フィールド信号を低域と高域に分割し、且つ低域成分のみを階層的に分割する構成を採っている。また、同図では1次元の信号(例えばフィールドの水平成分)についてのウェーブレット変換を例示しているが、これを2次元に拡張することで2次元フィールド信号に対応することができる。
【0099】
次に、上記のように構成されたウェーブレット変換部の動作について説明する。図2に示すウェーブレット変換部への入力フィールド1は、まずローパスフィルタ11(伝達関数H0(z))とハイパスフィルタ12(伝達関数H1(z))とによって帯域分割され、得られた低域成分と高域成分は、それぞれ対応するダウンサンプラ13A、13Bによって、解像度がそれぞれ2分の1倍に間引かれる(レベル1)。この時の出力がL成分2とH成分7の2つである。ここで、上記LはLowで低域、HはHighで高域を示す。この図21のローパスフィルタ11、ハイパスフィルタ12、及び2個のダウンサンプラ13A、13Bによってレベル1の回路部20が構成されている。
【0100】
上記ダウンサンプラ13A、13Bによりそれぞれ間引かれた信号の内の低域成分、すなわちダウンサンプラ13Aからの信号のみが、さらに、レベル2の回路部21のローパスフィルタ及びハイパスフィルタによって帯域分割され、それぞれ対応するダウンサンプラによって、解像度をそれぞれ2分の1倍に間引かれる(レベル2)。これらのレベル2のローパスフィルタ、ハイパスフィルタ及びダウンサンプラから成る回路部21としては、上記レベル1のローパスフィルタ11、ハイパスフィルタ12及びダウンサンプラ13A、13Bから成る回路部20と同様な構成が用いられる。
【0101】
このような処理を所定のレベルまで行うことで、低域成分を階層的に帯域分割した帯域成分が順次生成されていくことになる。レベル2で生成された帯域成分は、LL成分2とLH成分6である。図2はレベル3まで帯域分割する例が示されており、レベル2の回路部21のローパスフィルタ側のダウンサンプラからの出力が、上記回路部21と同様な構成のレベル3の回路部22に供給されている。このようにレベル3まで帯域分割した結果、LLL成分4、LLH成分5、LH成分6、H成分7が生成されている。
【0102】
ここで図22は、レベル3まで2次元画像を帯域分割した結果得られる帯域成分を図示したものである。同図でのL及びHの表記法は、1次元信号を扱った図21でのL及びHの表記法とは異なる。すなわち、先ずレベル1の帯域分割(水平・垂直方向)により4つの成分LL、LH、HL、HHに分かれる。ここでLLは水平・垂直成分が共にLであること、LHは水平成分がHで垂直成分がLであることを意味している。次に、LL成分は再度帯域分割されて、LLLL、LLHL、LLLH、LLHHが生成される。さらに、LLLL成分は再度帯域分割されて、LLLLLL、LLLLHL、LLLLLH、LLLLHHが生成される。
【0103】
第4の工程:図23参照
本工程は、量子化ステップ値Δ(N)を用いて量子化を行うことにより、ウェーブレット変換係数から量子化係数を得る工程である。原画像であるカラー画像は、輝度信号Y、色相信号Uおよび彩度信号Vに分離されているので、量子化は各々の信号に関して施される。本工程では、輝度信号Yの低周波領域Y(LL)の領域から算出された量子化ステップ値Δを用いて、画像を構成する3つの信号全てのサブバンドの量子化を行っている。
【0104】
先ず、輝度信号Y、色相信号Uおよび彩度信号V毎に、量子化ステップ値Δ(N)に異なるウェイトを乗算する。ここで、ウェイトとは各信号毎に決められた定数値であり、例えば輝度信号Yのウェイトが乗算された量子化ステップ値Δ(N)は、輝度信号Yの量子化に用いられる。
【0105】
次に、ウェーブレット変換係数を量子化ステップ値Δ(N)で除算することにより、量子化係数を計算する。ここで、量子化手段としては、例えば下記の式8に示すように通常用いるスカラ量子化を用いる。
【0106】
【数8】
Figure 2004080166
【0107】
上記した数8に於いて、Q(N)は量子化された量子化係数を示しており、W(N)はウェーブレット変換係数を示しており、Δ(N)は各信号毎にウェイトが乗算された量子化ステップ値を示している。更に、量子化ステップ値Δで除算することにより得られた量子化係数Qは、整数に丸め込まれる。
【0108】
図23は上記した量子化の工程を示す図である。同図の横軸は入力されるウェーブレット変換係数の大きさを示し、縦軸は出力される代表値である量子化係数の大きさを示している。同図から、量子化ステップ値Δ(N)は、量子化係数Q(N)の値が同一に成るようなウェーブレット変換係数の値の幅を決定していることが理解できる。従って、量子化ステップ値Δ(N)の値が大きくなるに比例して粗い量子化を行っていることになる。このことにより、量子化ステップ値Δを大きくすることによって、出力である量子化係数の値が同一になる頻度が増え、結果として、後段の工程である符号化工程での圧縮効率が向上するメリットがある。
【0109】
第5の工程:図24参照
本工程は、前工程で得られた量子化係数をエントロピ符号化する工程である。ここで、エントロピ符号化を行う手法としては、ハフマン符号化、算術符号化等を採用することが可能であり、本発明では、効率の良い算術符号化を採用している。算術符号化とは、シンボル(ここでは量子化係数)の系列を、生起確率に確率に応じて区間[0、1]に射影し、数直線上の確率区間を、区間内の適当な数でバイナリ表現する手法である。この手法により、符号化係数を得ることができる。
【0110】
図24を参照して算術符号化の1例を説明する。同図は、1例として符号化シンボル{101}を、それぞれ推定生起確率Pを参照しながら、[0,1.0]の実数区間を分割して行く様子を示したものである。ここで、最初の符号化シンボルは1であることと、1の推定生起確率をP(1)とするとき、P(1)=0.6であることから、初期区間の内、シンボル1に対応した部分区間[0.4,1]を選択する。同様にして、今度は、この[0.4,1]を母区間として、シンボル0に対応した部分区間[0.4,0.64]を生成する。以後同様にして、最終的に[0.52,0.64]が選択される。最後に、最終的な区間[0.52,0.64]=[0.1000…,0.1010…]に含まれる例えば0.1001等の小数部を符号とする。
【0111】
これまでの工程により得られた符号化係数は、ハードディスク、CD等の情報記録媒体に書き込まれて蓄積されても良い。また、この符号化係数の復号化は、圧縮を行う手法とは逆の手法を行うことにより行うことができる。即ち、逆エントロピ符号化、逆量子化および逆ウェーブレット変換を行うことにより、視覚的に原画像に近い画像を得ることができる。
【0112】
第6の工程:図19参照
本工程は、フィールドF(N)の圧縮を行う工程の1つであり、前工程までの工程で圧縮されたフィールドF(N)の符号量と、符号量の閾値とを比較する工程である。圧縮を行った後の符号量をその閾値と比較することにより、フィールドF(N)の圧縮率がその目標の値を達成しているか否かの判断を行っている。本発明では、エントロピ値から算出された量子化ステップ値を用いて量子化を行うことにより、フィールドの圧縮率を制御(レートコントロール)している。そして、更に安定したレートコントロールを行うために、圧縮されたフィールドF(N)の符号量を確認している。フィールドF(N)の符号量が、その閾値よりも小さい場合には、ここではフラグであるCHECKに1を代入している。また、フィールドF(N)の符号量が、その閾値よりも大きい場合には、ここではCHECKに零を代入している。値が代入されたCHECKは、オフセット値を算出する工程にて、フィールドF(N)の圧縮率がその目標値を達成したか否かを判断する為に使用される。
【0113】
第7の工程:図25および図26参照
本工程は、量子化ステップ値Δ(N)の計算を行う工程の1つであり、フィールドF(N)のエントロピ値H(N)を算出し、量子化ステップ値Δ(N)を算出する工程である。
【0114】
図25を参照して、エントロピ値の計算方法を説明する。本工程に於いて計算の対象となるのは、輝度成分(Y成分)のウェーブレット変換により分割されたサブバンドHH、HLおよびLHを除いた領域である。換言すると、計算の対象となるのはY成分のLLの領域(以下、Y(LL)と省略する)である。画素数がn個のY(LL)のエントロピ値H(N)は、一般的に次式で算出される。
【0115】
【数9】
Figure 2004080166
【0116】
ここで、所定の圧縮率(例えば0.05)を達成する量子化ステップ値Δ(N)と、Y(LL)のエントロピ値H(N)との間には、以下の関係がある。
【0117】
【数10】
Figure 2004080166
【0118】
従って、上記した数10にY(LL)のエントロピ値Hを代入することにより、所定の圧縮率を達成する量子化ステップ値Δ(N)を得ることができる。
【0119】
図26を参照して、上記した数10を導出する方法を説明する。同図のグラフは、横軸が輝度信号Yの低周波領域のエントロピ値H(N)を示しており、縦軸が量子化ステップ値Δ(N)を示している。この数7の導出は、異なる図柄を有する多数個の画像を用意し、各々の画像に付いてエントロピ値Hを算出し、更に各々の画像に付いて所定の圧縮率を達成する為の量子化ステップ値Δを求め、個々の画像について算出されたエントロピ値Hおよび量子化ステップ値Δの情報からエントロピ値Hと量子化ステップ値Δとの関係を示す近似直線を求めることにより行われる。この方法を以下にて説明する。
【0120】
用意される画像としては、得られるエントロピ値Hの値が分布する範囲を広くするために、図柄が単純な画像(エントロピ値Hが小さい画像)から図柄が複雑な画像(エントロピ値Hが大きい画像)までを複数個用意する。
【0121】
次に、上記のように用意した多数個の画像の各々に関して、輝度信号Yの低周波成分のエントロピ値Hを算出する。即ち、画像に対してウェーブレット変換を施した後に、低周波領域のサブバンドについて、エントロピ値Hを算出する。この際には、上記した式1を用いてエントロピ値Hの算出を行う。
【0122】
次に、上記のように用意した多数個の画像の各々に関して、所定の圧縮率を達成するような量子化ステップ値Δを求める。ここで、所定の圧縮率は予め決定されている値であり、例えば0.05程度である。
【0123】
次に、図26を参照して、上記にて得られた量子化係数Δとエントロピ値Hとの近似式を求める。同図から、プロットされた点はほぼ直線的に配列している。両者について相関関係を求めたところ、高い相関があることが認められた。そこで1次式を用いて近似式を作成する。そして、近似式の係数であるaおよびbは、最小二乗法等の統計学的手法により算出する。
【0124】
第8の工程:図19参照
本工程は、量子化ステップ値Δ(N)の計算を行う工程の1つであり、上記の工程で算出した量子化ステップ値Δ(N)と、直前のフィールドF(N−1)との比較を行う工程である。
【0125】
具体的には、先ず、前工程で算出した量子化ステップ値Δ(N)と、直前のフィールドF(N−1)から算出した量子化ステップ値Δ(N−1)との差の絶対値を算出する。次に、その差の絶対値と閾値との大小の比較を行う。差の絶対値が、閾値よりも小さい場合は、オフセット値O(N)を計算する工程に於いは、圧縮を行う工程で零または1が代入されたCHECKを基にオフセット値O(N)の計算を行う。それに対して、差の絶対値が、閾値よりも大きい場合は、オフセット値O(N)を計算する工程に於いは、圧縮を行う工程で計算されたCHECKの値に関わらずオフセット値O(N)を零とする。
【0126】
第9の工程:図19参照
本発明は、量子化ステップ値Δ(N+1)に加算される変数であるオフセット値O(N)の計算を行う工程である。
【0127】
ここで、オフセット値O(N)を説明する。オフセット値O(N)は、フィールドF(N)のエントロピ値H(N)から算出された量子化ステップ値Δ(N)に加算される変数である。オフセット値O(N)は、フィールドFの符号量が所望の値以上であった場合に、定数STEPを加算することで計算される。以下にその詳細を説明する。
【0128】
先ず、フィールドF(N)の圧縮を行う工程から出力されたCHECKが零であるか否かの判断を行う。フィールドF(N)の圧縮を行う工程に於いて、フィールドF(N)の符号量が閾値以下の場合はCHECKには1が代入されており、符号量が閾値以上の場合はCHECKには零が代入されている。
【0129】
次に、CHECKに零が代入されている場合には、オフセット値O(N−1)に定数STEPが加算された値を、オフセット値O(N)とする。これに対して、CHECKに1が代入されている場合には、オフセット値O(N−1)をそのままオフセット値O(N)とする。
【0130】
CHECKが零の場合は、フィールドF(N)の符号量がその閾値よりも大きく、圧縮率が不足していることを意味している。従って、オフセット値O(N−1)に定数STEPが加算された値を、オフセット値O(N)とすることにより、次フィールドF(N+1)で使用されるオフセット値O(N)は大きな値となる。そして、オフセット値O(N)は、次フィールドF(N+1)の圧縮を行う工程で、量子化ステップ値Δ(N+1)に加算されるので、次フィールドF(N)の圧縮率を高くすることができる。このことから、フィールドFの圧縮率が、その目標値に到達するまで、オフセット値Oの値は増加を続けることになる。
【0131】
CHECKが1の場合は、フィールドF(N)の符号量がその閾値よりも小さく、圧縮率が充分であることを意味している。従って、オフセット値O(N−1)と同じ値を有するオフセット値O(N)を使用して、次フィールドF(N+1)の圧縮を行っても、所定の圧縮率を達成することができる。
【0132】
次に、前工程からの出力を参照して、フィールド間の量子化ステップ値Δの差の絶対値が、閾値よりも大きい場合は、上記で計算されたオフセット値O(N)の値に関わらず、オフセット値O(N)を零とする。
【0133】
このように、フィールド間の量子化ステップ値Δの差の絶対値が、閾値よりも大きい場合に、オフセット値O(N)を零とすることのメリットを述べる。本発明に於いては、量子化ステップ値Δは、そのエントロピ値Hから算出されている。従って、フィールド間で量子化ステップ値Δが大きく変化したことは、フィールド間でエントロピ値Hが大きく変化したことを意味する。更に、フィールドのエントロピ値Hは、そのフィールドの図柄を示す複雑さを示している。このことから、量子化ステップ値Δが大きく変化したことは、図柄が大きく変化したと判断することができる。従って、量子化ステップ値Δが大きく変化した時点で、オフセット値Oを零とすることにより、オフセット値Oを再計算することができるので、適切なレートコントロールを行うことができる。
【0134】
尚、上記した各実施の形態において、圧縮の対象物は、動画像だけに限定されない。例えば、音声情報を圧縮の対象物として採用することもできる。即ち、入力された音声情報を、サンプル数毎にブロック化して、このブロックのエントロピ値から算出された量子化ステップ値Δを用いて量子化を行うことができる。
【0135】
更に、上記した各実施の形態では、画面自体が有する情報の1つであるエントロピ値Hから量子化ステップ値Δを求めたが、エントロピ値H以外の指標値から量子化ステップ値Δを算出することも可能である。例えば、画面自体が有する情報の分散から量子化ステップ値Δを算出することも可能である。その具体例を以下にて説明する。
【0136】
先ず、画面(フィールド)に対してウェーブレット変換を行うことにより、複数個のサブバンドに分割されたウェーブレット変換係数を得る。次に、各サブバンドについて分散を算出する。具体的には、例えば、図4を参照して、HH、LH、HL、LLHH、LLLH、LLHLの6個のサブバンドについて各々の分散を算出する。次に、これら各サブバンドにつて算出された分散の平均値を算出する。更に、分散の平均値から所定の圧縮率を達成する量子化ステップ値Δを算出する。分散の平均値と、所定の圧縮率(例えば0.05)を達成するような量子化ステップ値Δとは高い相関関係にあり、従って、線形の変換式を用いて、所定の圧縮率を達成する量子化ステップ値Δを分散の平均値から算出することができる。この量子化ステップ値Δを用いて量子化を行うことにより、画面の圧縮率を所定の値に制御することができる。
【0137】
更に、量子化ステップ値Δを算出するための指標として実効値を用いることも可能である。具体的には、ウェーブレット変換を行うことにより得られるウェーブレット変換係数は、直流成分以外の平均値が零になる。このことは、ウェーブレット変換係数の標準偏差と、その実効値が同一になることを意味している。上記したように、ウェーブレット変換係数の分散から量子化ステップ値Δは算出可能であり、分散の平方根である標準偏差と実効値が同一であることは、すなわち、実効値から量子化ステップ値Δが算出可能である。ここで、実効値とは、ウェーブレット変換係数のエネルギー量の大きさを示す指標であり、ウェーブレット変換係数の瞬時エネルギーレベルについて各サブバンド毎に自乗和の平均を求め、その値の平方根で表した指標である。
【0138】
また、上記した第3の実施の形態では、符号量の閾値は1つの固定値として示されていたが、「上限および下限を有する符号量の幅」を閾値の代替として用いることも可能である。そして、圧縮を行った後の画面の符号量が、符号量の上限を上回る場合は、オフセット値を大きくすることで、次画面の符号量を小さくすることができる。そして、圧縮を行った後の画面の符号量が、符号量の下限を下回る場合は、過度の圧縮を行っていることになるので、オフセット値を小さくすることで、圧縮を行った後の符号量を上記した符号量の幅の範囲に収めることができる。また、このことは、「上限および下限を有する圧縮率の幅」を閾値の代替として用いることに等しい。更に、上記した「符号量の幅」または「圧縮率の幅」の上限と下限との差は、零以上にすることとする。そして、これらの上限と下限の差が零である場合は、目標符号量または目標圧縮率を1つの値で与えることに相当する。更にまた、上記したオフセット値は、正の値または負の値をとることが可能である。
【0139】
上記した各実施の形態では、静止画像または動画像の圧縮方法を説明したが、CPU等の演算装置およびRAM等の記憶媒体を用いることにより、静止画像または動画像の圧縮装置を構成することができる。この場合は、本発明の静止画像または動画像の圧縮装置は、入力された静止画像から圧縮対象となる画面を抽出する抽出部と、前記画面の情報を基に量子化に用いる量子化ステップ値を算出する量子化ステップ値算出部と、前記量子化ステップ値を用いて前記量子化を行うことにより前記画面の圧縮を行う圧縮部とを有する。そして各部の機能は上述した各行程と同様の機能を有する。
【0140】
【発明の効果】
本発明では以下に示すような効果を奏することができる。
【0141】
第1に、本発明では、画像自体が有する情報であるエントロピ値Hから算出された量子化ステップ値Δを用いて量子化行うので、圧縮率の制御(レートコントロール)を適切に行うことができる。具体的には、画像のエントロピ値Hを算出し、エントロピ値Hと量子化ステップ値Δとの関係式を用いて量子化ステップ値Δを求めている。このことにより、エントロピ値Hの値に応じた量子化ステップ値Δを供給することが可能となり、望ましい画像の圧縮率を実現することができる。
【0142】
第2に、本発明では、ウェーブレット変換された低周波成分のサブバンドから算出されたエントロピ値Hを用いて量子化ステップ値Δを算出するので、エントロピ値Hの算出に要する計算量を低減することができる。低周波成分のサブバンドの画像情報は、高周波成分のサブバンドと比較すると、画像の特徴を良く表している。そして、本発明でエントロピ値Hの算出に用いる低周波成分のサブバンドの情報量は、全体の1/4程度である。
【0143】
第3に、本発明では、動画像の圧縮を行う工程と、量子化ステップ値Δを算出する工程とを平行して行い、直前のフィールドF(N−1)で算出した量子化ステップ値Δ(N−1)を用いてフィールドF(N)の量子化を行うので、処理速度を向上させて動画像の圧縮を行うことができる。
【0144】
第4に、本発明では、オフセット値O(N)が加算された量子化ステップ値Δ(N)を用いて量子化を行っている。ここで、オフセット値O(N)は、フィールドF(N)の圧縮率が所望の値に到達するまで、フィールド毎に増加する。従って、精度良くレートコントロールを行うことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の、静止画像の圧縮方法の概略構成を示すブロック図である。
【図2】本発明の第1の実施の形態の、フィールドの抽出工程を示す概念図である。
【図3】本発明の第1の実施の形態の、ウェーブレット変換する工程を示す概念図である。
【図4】本発明の第1の実施の形態の、ウェーブレット変換する工程を示す概念図である。
【図5】本発明の第1の実施の形態の、量子化ステップ値を算出する工程を示す概念図である。
【図6】本発明の第1の実施の形態の、量子化ステップ値を算出する工程を示す特性図である。
【図7】本発明の第1の実施の形態の、量子化の工程を示す概念図である。
【図8】本発明の第1の実施の形態の、符号化の工程を示す概念図である。
【図9】本発明の第2の実施の形態の、動画像の圧縮方法の概略構成を示すブロック図(A)、概略図(B)である。
【図10】本発明の第2の実施の形態の、動画像の圧縮方法の概略構成を示すブロック図である。
【図11】本発明の第2の実施の形態の、フィールドの抽出工程を示す概念図である。
【図12】本発明の第2の実施の形態の、ウェーブレット変換する工程を示す概念図である。
【図13】本発明の第2の実施の形態の、ウェーブレット変換する工程を示す概念図である。
【図14】本発明の第2の実施の形態の、量子化の工程を示す概念図である。
【図15】本発明の第2の実施の形態の、符号化の工程を示す概念図である。
【図16】本発明の第2の実施の形態の、量子化ステップ値を算出する工程を示す概念図である。
【図17】本発明の第2の実施の形態の、量子化ステップ値を算出する工程を示す概念図である。
【図18】本発明の第3の実施の形態の、動画像の圧縮方法の概略構成を示すブロック図(A)、概略図(B)である。
【図19】本発明の第3の実施の形態の、動画像の圧縮方法の概略構成を示すブロック図である。
【図20】本発明の第3の実施の形態の、フィールドの抽出工程を示す概念図である。
【図21】本発明の第3の実施の形態の、ウェーブレット変換する工程を示す概念図である。
【図22】本発明の第3の実施の形態の、ウェーブレット変換する工程を示す概念図である。
【図23】本発明の第3の実施の形態の、量子化の工程を示す概念図である。
【図24】本発明の第3の実施の形態の、符号化の工程を示す概念図である。
【図25】本発明の第3の実施の形態の、量子化ステップ値を算出する工程を示す概念図である。
【図26】本発明の第3の実施の形態の、量子化ステップ値を算出する工程を示す概念図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a compression method for image information and the like, and more particularly, to an information compression method, an image compression method, and a moving image compression method that achieve a predetermined compression ratio by adjusting a quantization step value.
[0002]
[Prior art]
As a conventional typical image compression method, there is a JPEG (Joint Photographic Coding Experts Group) method standardized by ISO (International Organization for Standardization). The JPEG method is a method for mainly compressing and encoding a still image using DCT (Discrete Cosine Transform). When a relatively high bit is allocated, a good encoded / decoded image is obtained. It is known to provide However, in this system, if the number of coded bits is reduced to some extent, block distortion peculiar to DCT becomes remarkable, and deterioration becomes conspicuous subjectively.
[0003]
Apart from this, recently, researches on a method of dividing an image into a plurality of bands by a filter combining a high-pass filter and a low-pass filter called a filter bank and performing encoding for each of the bands have become active. ing. Above all, wavelet coding is regarded as a promising new technology to replace DCT because it does not have the drawback that block distortion becomes remarkable due to high compression, which is a problem in DCT.
[0004]
At present, many products such as an electronic still camera and a video movie adopt a JPEG system, a Moving Picture Image Coding Experts Group (MPEG) system, or a so-called DV (Digital Video) system for compression coding. Each of the conversion schemes uses DCT as a conversion scheme. The coefficients transformed by DCT are compressed through a quantization step and an encoding step. In MPEG, the coding efficiency is improved by performing motion compensation prediction between a previous frame and a block called a macroblock to be coded.
[0005]
[Problems to be solved by the invention]
However, the above-described method of compressing information such as images has the following problems.
[0006]
First, in a conventional method of compressing an image or the like, in the step of performing quantization, quantization is performed using a predetermined quantization step value. Therefore, depending on the characteristics of the image to be compressed, there has been a problem that the compression ratio is insufficient or the image is greatly deteriorated.
[0007]
Secondly, particularly in the compression of moving images, rate control for controlling the compression ratio of each field forming a moving image is important. As one of the methods for performing this rate control, there is a method of controlling a quantization step value. However, it is very difficult to perform stable rate control by controlling the quantization step value.
[0008]
Third, in the above-described MPG or the like, the process of motion compensation prediction occupies most of the image compression / decompression processing. In the motion compensation prediction process, a process of comparing a past frame with a current frame is always required, and this has caused the overall process of image compression to be complicated. Further, there is a problem that a storage device such as a large RAM is required to perform a plurality of storages and comparisons. Furthermore, there is a problem that the image quality is greatly deteriorated when the prediction is incorrect. Furthermore, there has been a problem that editing and reproduction in units of one screen become difficult.
[0009]
The present invention has been made in view of the above-described problems, and a main object of the present invention is to at least compress information such as a moving image to be quantized, from an entropy value of information itself such as an image. An object of the present invention is to provide a method for performing an appropriate rate control by calculating an appropriate quantization step value.
[0010]
[Means for Solving the Problems]
The present invention includes a step of extracting information to be compressed from input input information, a step of calculating a quantization step value based on the information, and a step of quantizing the information using the quantization step value. Performing the compression of the information.
[0011]
Further, the still image compression method of the present invention, a step of extracting a field to be compressed from the input still image, a step of calculating a quantization step value used for quantization based on the information of the field, Compressing the field by performing the quantization using the quantization step value.
[0012]
Here, as the information of the field, an entropy value of the field can be used. That is, an appropriate quantum step value can be calculated by preparing a relational expression between the entropy value and the quantization step value for realizing a predetermined compression ratio and calculating the quantization step value from the entropy value of the field. .
[0013]
Further, the moving image compression method of the present invention includes a step of extracting a field to be compressed from an input moving image signal, a step of compressing the field by performing at least quantization, and a step of compressing the field. And calculating a quantization step value to be used for the quantization based on
[0014]
Here, the step of compressing the field and the step of calculating the quantization step value are performed in parallel. The compression of the field including the quantization is performed using the quantization step value calculated from the entropy value of the immediately preceding image. From this, when the entropy value and the quantization step value of the N-th field F [N] are H [N] and Δ [N], Δ [H] used when quantizing the field [N] is used. ] Uses Δ [N−1] calculated from H [N−1] of the immediately preceding field F [N−1].
[0015]
In the field extracted from the moving image, it can be assumed that the symbols of F [N] and F [N-1] are almost equivalent. Therefore, in the present invention, the compression of F [N] is performed using Δ [N−1] calculated from F [N−1].
[0016]
Further, the step of compressing F [N] using Δ [N−1] and the step of calculating Δ [N] used in the step of compressing F [N + 1] are performed in parallel. . This prevents an increase in processing time caused by calculating Δ [N].
[0017]
According to the present invention, the quantization step value is calculated from the entropy value which is one of the information of the image itself. An image with a large entropy value is an image with a complicated design, and it is expected that the compression ratio in the encoding process will decrease. Therefore, for an image having a large entropy value, the amount of information of the image is reduced by performing quantization with a large quantization step value in a quantization step which is a step before encoding.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
In the method of compressing image information as described above, particularly in the method of compressing a moving image, a target value of the compression ratio is fixed in advance, and if the compression ratio does not reach the target value, the compression ratio is controlled by some method. ing. Controlling the information compression ratio in this way is generally called rate control. Although there are various methods for performing the rate control, as one method, the rate control can be performed by changing a quantization step value used when performing the quantization.
[0019]
Quantization is an irreversible process of approximating data values at discrete levels. Therefore, the information obtained by performing the quantization is definitely deteriorated as compared with the original image. The compression ratio of an image and the degree of image deterioration due to quantization depend on the size of the quantization step value used for the image. Specifically, when an image is quantized using a large quantization step value, the amount of information of the image decreases, and the degree of image deterioration increases. On the other hand, when the image is quantized using a small quantization step value, the amount of information of the image increases, and the degree of deterioration of the image decreases.
[0020]
Here, the image compression ratio will be described. The compression ratio is an index indicating a change in the amount of information when the amount of information such as an image is compressed. Therefore, a high compression ratio indicates a small compression ratio, and a low compression ratio indicates a large compression ratio. Specifically, comparing the case where the compression ratio is 0.01 and the case where the compression ratio is 0.1, the compression ratio is higher when the compression ratio is 0.01.
[0021]
In the present invention, an appropriate rate control is performed by compressing an image using information of the image itself, particularly, a quantization step value calculated from an entropy value of the image itself. Such an embodiment of the present invention will be described below with reference to the drawings.
[0022]
(First Embodiment Explaining a Still Image Compression Method)
In the method for compressing a still image according to the present invention, a step of extracting a screen to be compressed from an input still image, a step of calculating a quantization step value used for quantization based on the information of the screen, Compressing the screen by performing the quantization using a quantization step value. Such a compression method will be described below.
[0023]
With reference to the block diagram of FIG. 1, the still image compression method of the present invention has the following configuration specifically. That is, a step of extracting a screen to be compressed from the input still image, a step of obtaining a wavelet transform coefficient by performing a wavelet transform on the extracted screen, and a step of calculating a quantization step value from the wavelet transform coefficient. And a step of performing quantization using the calculated quantization step value to obtain a quantized coefficient, and a step of entropy-encoding the quantized coefficient. Each of these steps will be described below.
[0024]
First step: See FIG.
This step is a step of extracting a screen to be compressed from the input still image. Specifically, first, an image signal obtained as an output of a photoelectric conversion device such as a camera is first converted into a two-dimensional digital data array by analog-to-digital conversion (AD conversion). In this digital data array, each component is a sample value (pixel) of the image. Each pixel is represented by 8 bits (1 byte) in the case of a monochrome image.
[0025]
When the image is a color image, there are two methods for expressing each pixel by digital data. The first method is a method of expressing information of a color image by information of three primary colors of RGB, and each pixel is expressed by 24 bits (3 bytes). The second method is a method of expressing information of a color image using a luminance signal Y, two hue signals U, and a saturation signal V. In the following description, the case where the second method is adopted will be described. However, even when the first method is used, the still image can be compressed similarly. Further, even when the image to be compressed is a monochrome image, the still image can be compressed in the same manner.
[0026]
Next, the luminance signal Y, the hue signal U, and the saturation signal V, which are components of the color image, are separated from each other to extract individual screens. The subsequent compression process is performed individually for each screen of the luminance signal Y, the hue signal U, and the saturation signal V.
[0027]
Second step: see FIGS. 3 and 4
This step is a step of obtaining a wavelet transform coefficient by performing a wavelet transform on the extracted screen. In this step, wavelet transform is performed on each screen of the luminance signal Y, hue signal U, and chroma signal V extracted after being separated in the previous step. The wavelet transform, which will be described in detail below, is one of frequency transforms for removing a correlation between pixels, and another orthogonal transform can be adopted in the present invention. Specifically, DCT (Discrete Cosine Transform) or the like can be adopted in addition to the wavelet transform.
[0028]
First, a configuration example of a normal wavelet transform unit will be described with reference to FIG. This is an example in which octave division, which is the most general wavelet transform, among several wavelet transform methods is performed over a plurality of levels. In this case, the number of levels is three (level 1 to level 3), the screen signal is divided into a low band and a high band, and only the low band component is hierarchically divided. Although FIG. 2 illustrates a wavelet transform for a one-dimensional signal (for example, a horizontal component of a screen), it is possible to cope with a two-dimensional screen signal by extending the wavelet transform to two-dimensional.
[0029]
Next, the operation of the wavelet transform unit configured as described above will be described. The input screen 1 to the wavelet transform unit shown in FIG. 3 is first band-divided by the low-pass filter 11 (transfer function H0 (z)) and the high-pass filter 12 (transfer function H1 (z)), and the obtained low-frequency component The high-frequency components are thinned by a factor of two by the corresponding downsamplers 13A and 13B (level 1). The outputs at this time are the L component 2 and the H component 7. Here, L indicates Low for a low band and H indicates High for a high band. The low-pass filter 11, the high-pass filter 12, and the two downsamplers 13A and 13B of FIG. 2 constitute a level 1 circuit section 20.
[0030]
Only the low-frequency components of the signals decimated by the downsamplers 13A and 13B, that is, only the signal from the downsampler 13A, are further band-divided by the low-pass filter and the high-pass filter of the level 2 circuit unit 21. The corresponding downsampler reduces the resolution by a factor of two each (level 2). The circuit section 21 including the low-pass filter, the high-pass filter, and the downsampler of level 2 has the same configuration as the circuit section 20 including the low-pass filter 11, the high-pass filter 12, and the downsamplers 13A and 13B of level 1. .
[0031]
By performing such processing up to a predetermined level, band components obtained by hierarchically dividing low-frequency components into bands are sequentially generated. The band components generated at level 2 are LL component 2 and LH component 6. FIG. 3 shows an example in which band division is performed up to level 3. An output from the down sampler on the low-pass filter side of the level 2 circuit section 21 is transmitted to a level 3 circuit section 22 having the same configuration as the circuit section 21 described above. Supplied. As a result of the band division up to level 3, an LLL component 4, an LLH component 5, an LH component 6, and an H component 7 are generated.
[0032]
Here, FIG. 4 illustrates band components obtained as a result of band division of a two-dimensional image up to level 3. The notation of L and H in FIG. 4 is different from the notation of L and H in FIG. That is, in FIG. 4, first, four components LL, LH, HL, and HH are divided by level 1 band division (horizontal and vertical directions). Here, LL means that the horizontal and vertical components are both L, and LH means that the horizontal component is H and the vertical component is L. Next, the LL component is band-divided again to generate LLLL, LLHL, LLLH, and LLHH. Further, the LLLL component is band-divided again to generate LLLLLL, LLLLHL, LLLLLLH, and LLLLHH.
[0033]
Third step: see FIGS. 5 and 6
This step is a step characteristic of the present invention, and is a step of calculating a quantization step value Δ from the wavelet transform coefficients obtained in the previous step. Specifically, first, the entropy value H is calculated from the low frequency region of the wavelet transform coefficient of the luminance component (Y component). Next, a quantization step value Δ is calculated from the entropy value H using a conversion formula. This conversion formula is represented by Δ = f (H), and by using this function, the quantization step value Δ that achieves a predetermined image compression ratio can be calculated from the entropy value (H). A method for deriving this conversion formula will be described later.
[0034]
Here, entropy will be described. The entropy is a quantity indicating how much information is missing based on the probability of obtaining certain information, and this quantity indicates the degree of uncertainty of the information. Specifically, when the amount of entropy is small, it means that the information appears unevenly. Therefore, when compression including encoding is performed on an image having a large entropy value, the compression ratio of the image is low. Further, when compression including encoding is performed on an image having a small entropy value, the compression ratio of the image increases.
[0035]
The quantization step value Δ calculated in this step is used when quantizing sub-bands in all frequency regions in the step of performing quantization. Further, the quantization step value Δ calculated in this step is also used for quantization of other components forming the image. Therefore, the quantization step value Δ calculated here is also used when quantizing the hue signal U and the saturation signal V. Hereinafter, a specific method of calculating the quantization step value Δ will be described.
[0036]
A method of calculating the entropy value will be described with reference to FIG. The target of calculation in this step is a region excluding the sub-bands HH, HL, and LH divided by the wavelet transform of the luminance component (Y component). In other words, the calculation target is the LL region of the Y component (hereinafter abbreviated as Y (LL)). An entropy value H of Y (LL) having n pixels is generally calculated by the following equation.
[0037]
(Equation 1)
Figure 2004080166
[0038]
In Equation 1, P (Ni) indicates the appearance probability of the symbol Ni. Here, the following relationship exists between the quantization step value Δ that achieves a predetermined compression ratio (for example, 0.05) and the entropy value H of Y (LL).
[0039]
(Equation 2)
Figure 2004080166
[0040]
Therefore, by substituting the entropy value H of Y (LL) into the above equation 2, it is possible to obtain a quantization step value Δ that achieves a predetermined compression ratio.
[0041]
With reference to FIG. 6, a method for deriving the above Equation 2 will be described. In the graph of FIG. 6, the horizontal axis represents the entropy value H in the low frequency region of the luminance signal Y, and the vertical axis represents the quantization step value Δ. The derivation of this equation 2, which is a linear conversion equation, is performed by preparing a large number of images having different designs, calculating an entropy value H for each image, and further calculating a predetermined compression ratio for each image. Calculating a quantization step value Δ to achieve, and obtaining an approximate straight line indicating a relationship between the entropy value H and the quantization step value Δ from information of the entropy value H and the quantization step value Δ calculated for each image. It is performed by. This method is described below.
[0042]
As the prepared image, in order to widen the range in which the obtained entropy value H is distributed, an image having a simple design (an image having a small entropy value H) to an image having a complicated design (an image having a large entropy value H) are used. ) Are prepared.
[0043]
Next, the entropy value H of the low frequency component of the luminance signal Y is calculated for each of the multiple images prepared as described above. That is, after performing the wavelet transform on the image, the entropy value H is calculated for the subband in the low frequency region. At this time, the entropy value H is calculated using the above-described equation (1).
[0044]
Next, a quantization step value Δ that achieves a predetermined compression ratio is obtained for each of the large number of images prepared as described above. Here, the predetermined compression ratio is a predetermined value, for example, about 0.05.
[0045]
Next, with reference to FIG. 6, an approximate expression of the quantization coefficient Δ obtained above and the entropy value H is obtained. From the figure, the plotted points are arranged almost linearly. When a correlation was obtained for both, it was found that there was a high correlation. Therefore, an approximate expression is created using a linear expression. Then, the coefficients (a and b) of the approximate expression are calculated by a statistical method such as the least square method.
[0046]
Fourth step: See FIG.
This step is a step of obtaining quantization coefficients from wavelet transform coefficients by performing quantization using the quantization step value Δ calculated in the previous step. Since the color image as the original image is separated into a luminance signal Y, a hue signal U, and a saturation signal V, quantization is performed on each signal. In this step, the sub-bands of all three signals constituting the image are quantized using the quantization step value Δ calculated from the low frequency region Y (LL) of the luminance signal Y.
[0047]
Specifically, first, the quantization step value Δ is multiplied by a different weight for each of the luminance signal Y, the hue signal U, and the saturation signal V. Here, the weight is a constant value determined for each signal. For example, a quantization step value Δ multiplied by the weight of the luminance signal Y is used for quantization of the luminance signal Y.
[0048]
Next, a quantization coefficient is calculated by dividing the wavelet transform coefficient by the quantization step value Δ. Here, as the quantization means, for example, scalar quantization that is usually used as shown in the following Expression 3 is used.
[0049]
[Equation 3]
Figure 2004080166
[0050]
In the above Equation 3, Q represents a quantized quantization coefficient value, W represents a wavelet transform coefficient value, and Δ represents a quantization step value multiplied by a weight for each signal. Is shown. Further, the quantization coefficient Q obtained by dividing by the quantization step value Δ is rounded to an integer.
[0051]
FIG. 7 is a diagram showing the above-described quantization process. The abscissa in the figure indicates the magnitude of the input wavelet transform coefficient, and the ordinate indicates the magnitude of the quantized coefficient which is the output representative value. From the figure, it can be understood that the quantization step value Δ determines the width of the value of the wavelet transform coefficient such that the value of the quantization coefficient Δ becomes the same. Therefore, coarse quantization is performed in proportion to an increase in the value of the quantization step value Δ. As a result, by increasing the quantization step value Δ, the frequency at which the values of the output quantized coefficients become the same increases, and as a result, the compression efficiency in the encoding step, which is a subsequent step, is improved. There is.
[0052]
Fifth step: see FIG.
This step is a step of entropy-encoding the quantized coefficients obtained in the previous step. Here, Huffman coding, arithmetic coding, or the like can be used as a method of performing entropy coding. In the present invention, efficient arithmetic coding is used. Arithmetic coding refers to projecting a sequence of symbols (quantized coefficients in this case) into an interval [0, 1] in accordance with the probability of occurrence probability, and probabilistic intervals on a number line by an appropriate number in the interval. This is a binary representation method. By this method, a coding coefficient can be obtained.
[0053]
An example of arithmetic coding will be described with reference to FIG. The figure shows an example in which a coded symbol {101} is divided into [0, 1.0] real number sections with reference to the estimated occurrence probability P. Here, since the first coded symbol is 1 and the estimated occurrence probability of 1 is P (1), P (1) = 0.6. The corresponding partial section [0.4, 1] is selected. Similarly, a partial section [0.4, 0.64] corresponding to symbol 0 is generated using this [0.4, 1] as a mother section. Thereafter, similarly, [0.52, 0.64] is finally selected. Finally, a decimal part such as 0.1001 included in the final section [0.52, 0.64] = [0.1000..., 0.1010.
[0054]
The coding coefficients obtained by the above steps may be written and stored in an information recording medium such as a hard disk or a CD. The decoding of the encoded coefficients can be performed by performing a method reverse to the method shown in FIG. That is, by performing inverse entropy coding, inverse quantization, and inverse wavelet transform, an image that is visually close to the original image can be obtained.
[0055]
(Second Embodiment Explaining Compression Method of Moving Image)
A method for compressing a moving image according to the present embodiment will be described with reference to FIGS. Referring to FIG. 9A, a moving image compression method according to the present invention includes a step of extracting a screen F (N) to be compressed from an input moving image signal, and at least performing quantization to obtain a screen F (N). It includes a step of compressing F (N) and a step of calculating a quantization step value Δ (N) used for quantization based on information of the screen F (N). Then, the compressed screen is output to a storage medium such as a hard disk.
[0056]
Here, the above-mentioned screen refers to each component that forms a moving image. When the information to be compressed is, for example, the current television (NTSC system), a frame including two fields becomes the above-described screen. In the following description, a case will be described in which the input moving image is compressed for each field, but the input moving image can also be compressed for each frame.
[0057]
Referring to FIG. 9B, in the present invention, a field is calculated using a quantization step value Δ (N−1) calculated from an entropy value H (N−1) of the immediately preceding field F (N−1). F (N) is being compressed. Then, the next field F (N + 1) is compressed using the quantization step value Δ (N) calculated from the entropy value H (N) of the field F (N).
[0058]
Referring to the flowchart of FIG. 10, one embodiment of the moving image compression method of the present invention includes the following steps. That is, a step of extracting a field F (N) to be compressed, a step of performing a wavelet transform, and performing quantization using a quantization step value Δ (N−1) calculated from at least one previous field. A step of performing entropy encoding, a step of calculating an entropy value H (N), and a step of calculating a quantization step value Δ (N) from the entropy value H (N). The compression method is configured. The details of each of these steps will be described below.
[0059]
First step: See FIG.
This step is a step of extracting a field F (N) to be compressed from the input moving image signal. When the input image is, for example, an NTSC signal of a color television broadcast, the hue signal U and the saturation signal V are multiplexed on the luminance signal Y. Therefore, first, the luminance signal Y, the hue signal U, and the chroma signal V are individually separated from the NTSC signal. After that, the field F (N) is extracted. The extracted luminance signal Y, hue signal U, and saturation signal V are individually compressed.
[0060]
Second step: see FIGS. 12 and 13
This step is one of the steps of compressing the field F (N), and is a step of performing wavelet transform on the input field F (N) to obtain wavelet transform coefficients.
[0061]
In this step, the wavelet transform is performed on each field of the luminance signal Y, the hue signal U, and the chroma signal V extracted after being separated from the television image. The wavelet transform, which will be described in detail below, is one of orthogonal transforms for removing a correlation between pixels, and the present invention can employ another orthogonal transform. Specifically, DCT (Discrete Cosine Transform) or the like can be adopted in addition to the wavelet transform.
[0062]
First, a configuration example of a normal wavelet transform unit will be described with reference to FIG. This is an example in which octave division, which is the most general wavelet transform, among several wavelet transform methods is performed over a plurality of levels. In this case, the number of levels is three (level 1 to level 3), the field signal is divided into a low band and a high band, and only the low band component is hierarchically divided. Although FIG. 2 illustrates a wavelet transform for a one-dimensional signal (for example, a horizontal component of a field), the wavelet transform can be extended to two-dimensional to correspond to a two-dimensional field signal.
[0063]
Next, the operation of the wavelet transform unit configured as described above will be described. The input field 1 to the wavelet transform unit shown in FIG. 2 is first band-divided by the low-pass filter 11 (transfer function H0 (z)) and the high-pass filter 12 (transfer function H1 (z)), and the obtained low-frequency component The high-frequency components are thinned by a factor of two by the corresponding downsamplers 13A and 13B (level 1). The outputs at this time are the L component 2 and the H component 7. Here, L indicates Low for a low band and H indicates High for a high band. The low-pass filter 11, the high-pass filter 12, and the two downsamplers 13A and 13B in FIG. 12 constitute a level 1 circuit section 20.
[0064]
Only the low-frequency components of the signals decimated by the downsamplers 13A and 13B, that is, only the signal from the downsampler 13A, are further band-divided by the low-pass filter and the high-pass filter of the level 2 circuit unit 21. The corresponding downsampler reduces the resolution by a factor of two each (level 2). The circuit section 21 including the low-pass filter, the high-pass filter, and the downsampler of level 2 has the same configuration as the circuit section 20 including the low-pass filter 11, the high-pass filter 12, and the downsamplers 13A and 13B of level 1. .
[0065]
By performing such processing up to a predetermined level, band components obtained by hierarchically dividing low-frequency components into bands are sequentially generated. The band components generated at level 2 are LL component 2 and LH component 6. FIG. 12 shows an example in which the frequency band is divided up to level 3. The output from the down sampler on the low-pass filter side of the level 2 circuit section 21 is sent to the level 3 circuit section 22 having the same configuration as the circuit section 21 described above. Supplied. As a result of the band division up to level 3, an LLL component 4, an LLH component 5, an LH component 6, and an H component 7 are generated.
[0066]
Here, FIG. 13 illustrates band components obtained as a result of band division of a two-dimensional image up to level 3. The notation of L and H in the figure is different from the notation of L and H in FIG. That is, first, the signal is divided into four components LL, LH, HL, and HH by level 1 band division (horizontal and vertical directions). Here, LL means that the horizontal and vertical components are both L, and LH means that the horizontal component is H and the vertical component is L. Next, the LL component is band-divided again to generate LLLL, LLHL, LLLH, and LLHH. Further, the LLLL component is band-divided again to generate LLLLLL, LLLLHL, LLLLLLH, and LLLLHH.
[0067]
Third step: See FIG.
This step is a step of obtaining quantization coefficients from wavelet transform coefficients by performing quantization using a quantization step value Δ (N−1) calculated from at least one previous field F (N−1). It is. Since the color image as the original image is separated into a luminance signal Y, a hue signal U, and a saturation signal V, quantization is performed on each signal. In this step, the sub-bands of all three signals constituting the image are quantized using the quantization step value Δ calculated from the low frequency region Y (LL) of the luminance signal Y.
[0068]
First, the quantization step value Δ (N−1) is multiplied by a different weight for each of the luminance signal Y, the hue signal U, and the saturation signal V. Here, the weight is a constant value determined for each signal. For example, a quantization step value Δ (N−1) multiplied by the weight of the luminance signal Y is used for quantization of the luminance signal Y.
[0069]
Next, a quantization coefficient is calculated by dividing the wavelet transform coefficient by the quantization step value Δ (N−1). Here, as the quantization means, for example, scalar quantization that is usually used as shown in the following Expression 4 is used.
[0070]
(Equation 4)
Figure 2004080166
[0071]
In the above equation 4, Q (N) represents a quantized quantization coefficient, W (N) represents a wavelet transform coefficient, and Δ (N−1) represents a weight for each signal. Indicates the quantization step value multiplied by. Further, the quantization coefficient Q obtained by dividing by the quantization step value Δ is rounded to an integer.
[0072]
FIG. 14 is a diagram showing the above-described quantization process. The abscissa in the figure indicates the magnitude of the input wavelet transform coefficient, and the ordinate indicates the magnitude of the quantized coefficient which is the output representative value. From the figure, it can be understood that the quantization step value Δ (N−1) determines the width of the value of the wavelet transform coefficient such that the value of the quantization coefficient Q (N) becomes the same. Therefore, coarse quantization is performed in proportion to the increase in the value of the quantization step value Δ (N−1). As a result, by increasing the quantization step value Δ, the frequency at which the values of the output quantized coefficients become the same increases, and as a result, the compression efficiency in the encoding step, which is a subsequent step, is improved. There is.
[0073]
Fourth step: See FIG.
This step is a step of entropy-encoding the quantized coefficients obtained in the previous step. Here, Huffman coding, arithmetic coding, or the like can be used as a method of performing entropy coding. In the present invention, efficient arithmetic coding is used. Arithmetic coding refers to projecting a sequence of symbols (quantized coefficients in this case) into an interval [0, 1] in accordance with the probability of occurrence probability, and probabilistic intervals on a number line by an appropriate number in the interval. This is a binary representation method. By this method, a coding coefficient can be obtained.
[0074]
An example of arithmetic coding will be described with reference to FIG. The figure shows an example in which a coded symbol {101} is divided into [0, 1.0] real number sections with reference to the estimated occurrence probability P. Here, since the first coded symbol is 1 and the estimated occurrence probability of 1 is P (1), P (1) = 0.6. The corresponding partial section [0.4, 1] is selected. Similarly, a partial section [0.4, 0.64] corresponding to symbol 0 is generated using this [0.4, 1] as a mother section. Thereafter, similarly, [0.52, 0.64] is finally selected. Finally, a decimal part such as 0.1001 included in the final section [0.52, 0.64] = [0.1000..., 0.1010.
[0075]
The coding coefficients obtained by the above steps may be written and stored in an information recording medium such as a hard disk or a CD. The decoding of the encoded coefficients can be performed by performing a method reverse to the method of performing compression. That is, by performing inverse entropy coding, inverse quantization, and inverse wavelet transform, an image that is visually close to the original image can be obtained.
[0076]
Fifth step: see FIGS. 16 and 17
This step is one of the steps for calculating the quantization step value Δ (N), and calculates the entropy value H (N) of the field F (N) and calculates the quantization step value Δ (N). It is a process.
[0077]
A method of calculating the entropy value will be described with reference to FIG. The target of calculation in this step is a region excluding the sub-bands HH, HL, and LH divided by the wavelet transform of the luminance component (Y component). In other words, the calculation target is the LL region of the Y component (hereinafter abbreviated as Y (LL)). The entropy value H (N) of Y (LL) having n pixels is generally calculated by the following equation.
[0078]
(Equation 5)
Figure 2004080166
[0079]
Here, the following relationship exists between the quantization step value Δ (N) that achieves a predetermined compression ratio (for example, 0.05) and the entropy value H (N) of Y (LL).
[0080]
(Equation 6)
Figure 2004080166
[0081]
Therefore, by substituting the entropy value H of Y (LL) into the above Equation 6, a quantization step value Δ (N) that achieves a predetermined compression ratio can be obtained.
[0082]
With reference to FIG. 17, a method for deriving Equation 7 will be described. In the graph of FIG. 7, the horizontal axis represents the entropy value H (N) of the luminance signal Y in the low frequency region, and the vertical axis represents the quantization step value Δ (N). The derivation of Equation 7 is performed by preparing a large number of images having different designs, calculating an entropy value H for each image, and further performing quantization for achieving a predetermined compression ratio for each image. The step value Δ is obtained, and an approximate straight line indicating the relationship between the entropy value H and the quantization step value Δ is obtained from the information on the entropy value H and the quantization step value Δ calculated for each image. This method is described below.
[0083]
As the prepared image, in order to widen the range in which the obtained entropy value H is distributed, an image having a simple design (an image having a small entropy value H) to an image having a complicated design (an image having a large entropy value H) are used. ) Are prepared.
[0084]
Next, the entropy value H of the low frequency component of the luminance signal Y is calculated for each of the multiple images prepared as described above. That is, after performing the wavelet transform on the image, the entropy value H is calculated for the subband in the low frequency region. At this time, the entropy value H is calculated using the above-described equation (1).
[0085]
Next, a quantization step value Δ that achieves a predetermined compression ratio is obtained for each of the large number of images prepared as described above. Here, the predetermined compression ratio is a predetermined value, for example, about 0.05.
[0086]
Next, referring to FIG. 17, an approximate expression of the quantization coefficient Δ and the entropy value H obtained above is obtained. From the figure, the plotted points are arranged almost linearly. When a correlation was obtained for both, it was found that there was a high correlation. Therefore, an approximate expression is created using a linear expression. Then, the coefficients a and b of the approximate expression are calculated by a statistical method such as the least square method.
[0087]
The quantization step value Δ (N) calculated in this step is used in the quantization step when compressing the next field F (N + 1).
[0088]
(Third Embodiment Explaining a Moving Image Compression Method)
A moving image compression method according to the present embodiment will be described with reference to FIGS. Referring to FIG. 18A, a moving image compression method according to the present invention includes a step of extracting a screen F (N) to be compressed from an input moving image signal, The method includes a step of compressing the screen F (N) and a step of calculating a quantization step value Δ (N) used for the quantization based on the information of the screen F (N). Here, the above-mentioned quantization step value Δ (N) is calculated from the entropy value H (N) of the screen F (N). Further, the process of compressing the screen F (N) and the process of calculating the quantization step value Δ (N) are performed in parallel. Further, after the above-described step, there is a step of calculating the offset value O (N) from the compression ratio of the screen F (N) and the value of the quantization step value Δ (N). In the present embodiment, the quantization step value Δ is adjusted by using the offset value O (N), and as a result, the compression ratio is adjusted.
[0089]
Here, the above-mentioned screen refers to each component that forms a moving image. When the information to be compressed is, for example, the current television (NTSC system), a frame including two fields becomes the above-described screen. In the following description, a case will be described in which the input moving image is compressed for each field, but the input moving image can also be compressed for each frame.
[0090]
Referring to FIG. 18B, in the present invention, a field is calculated using a quantization step value Δ (N−1) calculated from an entropy value H (N−1) of the immediately preceding field F (N−1). F (N) is being compressed. Then, the next field F (N + 1) is compressed using the quantization step value Δ (N) calculated from the entropy value H (N) of the field F (N).
[0091]
Referring to the flowchart of FIG. 19, one embodiment of the moving image compression method of the present invention includes the following steps. That is, a step of extracting a field F (N) to be compressed, a step of adding an offset value O (N-1), a step of performing wavelet transform, a step of performing quantization, and performing entropy coding A step of comparing the compression ratio, a step of calculating an entropy value H (N), a step of calculating a quantization step value Δ (N) from the entropy value H (N), and a step of calculating a quantization step value Δ The step of comparing (N) and the step of calculating the offset value O (N) constitute the moving image compression method of the present invention. The details of each of these steps will be described below.
[0092]
First step: See FIG.
This step is a step of extracting a field F (N) to be compressed from the input moving image signal. When the input image is, for example, an NTSC signal of a color television broadcast, the hue signal U and the saturation signal V are multiplexed on the luminance signal Y. Therefore, first, the luminance signal Y, the hue signal U, and the chroma signal V are individually separated from the NTSC signal. After that, the field F (N) is extracted. The extracted luminance signal Y, hue signal U, and saturation signal V are individually compressed.
[0093]
Second step: See FIG.
This step is one of the steps of compressing the field F (N), and is a step of adding the offset value O (N-1). Here, the offset value O (N-1) is added to the quantization step value Δ (N-1) calculated from the entropy value H (N-1) of the field F (N-1) compressed immediately before. Thus, a quantization step value Δ (N) used for quantization of the field F (N) is obtained. Specifically, the following processing is performed.
[0094]
(Equation 7)
Figure 2004080166
[0095]
In the above equation (7), O (N-1) is an offset value, and the value is determined depending on whether or not the compression ratio of the immediately preceding field F (N-1) has achieved a predetermined compression ratio. Have been. Specifically, when the compression ratio of F (N-1) is lower than the compression ratio threshold, it is determined that the compression ratio is insufficient, and O (N-1) is a value to which a constant is added. When the compression ratio of F (N-1) is higher than the compression ratio threshold, O (N-1) is a value to which no constant is added. Further, when the symbol of the field F (N) changes greatly, a value of 0 is substituted for O (N-1). From this, when the design of the field changes greatly, the compression of F (N) is performed using Δ (N−1). The method of calculating the offset value O (N) will be described later.
[0096]
Third step: See FIGS. 21 and 22
This step is one of the steps of compressing the field F (N), and is a step of performing wavelet transform on the input field F (N) to obtain wavelet transform coefficients.
[0097]
In this step, the wavelet transform is performed on each field of the luminance signal Y, the hue signal U, and the chroma signal V extracted after being separated from the television image. The wavelet transform, which will be described in detail below, is one of orthogonal transforms for removing a correlation between pixels, and the present invention can employ another orthogonal transform. Specifically, DCT (Discrete Cosine Transform) or the like can be adopted in addition to the wavelet transform.
[0098]
First, a configuration example of a normal wavelet transform unit will be described with reference to FIG. This is an example in which octave division, which is the most general wavelet transform, among several wavelet transform methods is performed over a plurality of levels. In this case, the number of levels is three (level 1 to level 3), and the field signal is divided into a low band and a high band, and only the low band component is hierarchically divided. Although FIG. 1 illustrates a wavelet transform for a one-dimensional signal (for example, a horizontal component of a field), the wavelet transform can be extended to two-dimensional to correspond to a two-dimensional field signal.
[0099]
Next, the operation of the wavelet transform unit configured as described above will be described. The input field 1 to the wavelet transform unit shown in FIG. 2 is first band-divided by the low-pass filter 11 (transfer function H0 (z)) and the high-pass filter 12 (transfer function H1 (z)), and the obtained low-frequency component The high-frequency components are thinned by a factor of two by the corresponding downsamplers 13A and 13B (level 1). The outputs at this time are the L component 2 and the H component 7. Here, L indicates Low for a low band and H indicates High for a high band. The low-pass filter 11, the high-pass filter 12, and the two down-samplers 13A and 13B of FIG.
[0100]
Only the low-frequency components of the signals decimated by the downsamplers 13A and 13B, that is, only the signal from the downsampler 13A, are further band-divided by the low-pass filter and the high-pass filter of the level 2 circuit unit 21. The corresponding downsampler reduces the resolution by a factor of two each (level 2). The circuit section 21 including the low-pass filter, the high-pass filter, and the downsampler of level 2 has the same configuration as the circuit section 20 including the low-pass filter 11, the high-pass filter 12, and the downsamplers 13A and 13B of level 1. .
[0101]
By performing such processing up to a predetermined level, band components obtained by hierarchically dividing low-frequency components into bands are sequentially generated. The band components generated at level 2 are LL component 2 and LH component 6. FIG. 2 shows an example in which the band is divided up to the level 3. The output from the down-sampler on the low-pass filter side of the level 2 circuit section 21 is transmitted to the level 3 circuit section 22 having the same configuration as the circuit section 21 described above. Supplied. As a result of the band division up to level 3, an LLL component 4, an LLH component 5, an LH component 6, and an H component 7 are generated.
[0102]
Here, FIG. 22 illustrates band components obtained as a result of band division of a two-dimensional image up to level 3. The notation of L and H in the figure is different from the notation of L and H in FIG. That is, first, the signal is divided into four components LL, LH, HL, and HH by level 1 band division (horizontal and vertical directions). Here, LL means that the horizontal and vertical components are both L, and LH means that the horizontal component is H and the vertical component is L. Next, the LL component is band-divided again to generate LLLL, LLHL, LLLH, and LLHH. Further, the LLLL component is band-divided again to generate LLLLLL, LLLLHL, LLLLLLH, and LLLLHH.
[0103]
Fourth step: See FIG.
This step is a step of obtaining quantization coefficients from wavelet transform coefficients by performing quantization using a quantization step value Δ (N). Since the color image as the original image is separated into a luminance signal Y, a hue signal U, and a saturation signal V, quantization is performed on each signal. In this step, the sub-bands of all three signals constituting the image are quantized using the quantization step value Δ calculated from the low frequency region Y (LL) of the luminance signal Y.
[0104]
First, the quantization step value Δ (N) is multiplied by a different weight for each of the luminance signal Y, the hue signal U, and the saturation signal V. Here, the weight is a constant value determined for each signal. For example, a quantization step value Δ (N) multiplied by the weight of the luminance signal Y is used for quantization of the luminance signal Y.
[0105]
Next, a quantization coefficient is calculated by dividing the wavelet transform coefficient by the quantization step value Δ (N). Here, as the quantization means, for example, scalar quantization that is usually used as shown in the following Expression 8 is used.
[0106]
(Equation 8)
Figure 2004080166
[0107]
In the above equation 8, Q (N) indicates a quantized quantized coefficient, W (N) indicates a wavelet transform coefficient, and Δ (N) indicates a weight multiplied for each signal. 5 shows the quantized step value obtained. Further, the quantization coefficient Q obtained by dividing by the quantization step value Δ is rounded to an integer.
[0108]
FIG. 23 is a diagram showing the above-described quantization process. The abscissa in the figure indicates the magnitude of the input wavelet transform coefficient, and the ordinate indicates the magnitude of the quantized coefficient which is the output representative value. From the figure, it can be understood that the quantization step value Δ (N) determines the width of the value of the wavelet transform coefficient so that the value of the quantization coefficient Q (N) becomes the same. Accordingly, coarse quantization is performed in proportion to an increase in the value of the quantization step value Δ (N). As a result, by increasing the quantization step value Δ, the frequency at which the values of the output quantized coefficients become the same increases, and as a result, the compression efficiency in the encoding step, which is a subsequent step, is improved. There is.
[0109]
Fifth step: see FIG.
This step is a step of entropy-encoding the quantized coefficients obtained in the previous step. Here, Huffman coding, arithmetic coding, or the like can be used as a method of performing entropy coding. In the present invention, efficient arithmetic coding is used. Arithmetic coding refers to projecting a sequence of symbols (quantized coefficients in this case) into an interval [0, 1] in accordance with the probability of occurrence probability, and probabilistic intervals on a number line by an appropriate number in the interval. This is a binary representation method. By this method, a coding coefficient can be obtained.
[0110]
An example of arithmetic coding will be described with reference to FIG. The figure shows an example in which a coded symbol {101} is divided into [0, 1.0] real number sections with reference to the estimated occurrence probability P. Here, since the first coded symbol is 1 and the estimated occurrence probability of 1 is P (1), P (1) = 0.6. The corresponding partial section [0.4, 1] is selected. Similarly, a partial section [0.4, 0.64] corresponding to symbol 0 is generated using this [0.4, 1] as a mother section. Thereafter, similarly, [0.52, 0.64] is finally selected. Finally, a decimal part such as 0.1001 included in the final section [0.52, 0.64] = [0.1000..., 0.1010.
[0111]
The coding coefficients obtained by the above steps may be written and stored in an information recording medium such as a hard disk or a CD. The decoding of the encoded coefficients can be performed by performing a method reverse to the method of performing compression. That is, by performing inverse entropy coding, inverse quantization, and inverse wavelet transform, an image that is visually close to the original image can be obtained.
[0112]
Sixth step: See FIG.
This step is one of the steps of compressing the field F (N), and is a step of comparing the code amount of the field F (N) compressed in the previous steps and the code amount threshold value. . By comparing the code amount after compression with the threshold value, it is determined whether or not the compression rate of the field F (N) has reached the target value. In the present invention, the field compression ratio is controlled (rate controlled) by performing quantization using the quantization step value calculated from the entropy value. Then, in order to perform more stable rate control, the code amount of the compressed field F (N) is confirmed. If the code amount of the field F (N) is smaller than the threshold value, 1 is substituted for the flag CHECK here. If the code amount of the field F (N) is larger than the threshold value, zero is substituted for CHECK here. The CHECK into which the value is substituted is used in the step of calculating the offset value to determine whether or not the compression ratio of the field F (N) has reached its target value.
[0113]
Seventh step: See FIGS. 25 and 26
This step is one of the steps for calculating the quantization step value Δ (N), and calculates the entropy value H (N) of the field F (N) and calculates the quantization step value Δ (N). It is a process.
[0114]
A method of calculating the entropy value will be described with reference to FIG. The target of calculation in this step is a region excluding the sub-bands HH, HL, and LH divided by the wavelet transform of the luminance component (Y component). In other words, the calculation target is the LL region of the Y component (hereinafter abbreviated as Y (LL)). The entropy value H (N) of Y (LL) having n pixels is generally calculated by the following equation.
[0115]
(Equation 9)
Figure 2004080166
[0116]
Here, the following relationship exists between the quantization step value Δ (N) that achieves a predetermined compression ratio (for example, 0.05) and the entropy value H (N) of Y (LL).
[0117]
(Equation 10)
Figure 2004080166
[0118]
Therefore, by substituting the entropy value H of Y (LL) into the above equation 10, a quantization step value Δ (N) that achieves a predetermined compression ratio can be obtained.
[0119]
With reference to FIG. 26, a method for deriving the above Equation 10 will be described. In the graph of FIG. 7, the horizontal axis represents the entropy value H (N) of the luminance signal Y in the low frequency region, and the vertical axis represents the quantization step value Δ (N). The derivation of Equation 7 is performed by preparing a large number of images having different designs, calculating an entropy value H for each image, and further performing quantization for achieving a predetermined compression ratio for each image. The step value Δ is obtained, and an approximate straight line indicating the relationship between the entropy value H and the quantization step value Δ is obtained from the information on the entropy value H and the quantization step value Δ calculated for each image. This method is described below.
[0120]
As the prepared image, in order to widen the range in which the obtained entropy value H is distributed, an image having a simple design (an image having a small entropy value H) to an image having a complicated design (an image having a large entropy value H) are used. ) Are prepared.
[0121]
Next, the entropy value H of the low frequency component of the luminance signal Y is calculated for each of the multiple images prepared as described above. That is, after performing the wavelet transform on the image, the entropy value H is calculated for the subband in the low frequency region. At this time, the entropy value H is calculated using the above-described equation (1).
[0122]
Next, a quantization step value Δ that achieves a predetermined compression ratio is obtained for each of the large number of images prepared as described above. Here, the predetermined compression ratio is a predetermined value, for example, about 0.05.
[0123]
Next, referring to FIG. 26, an approximate expression of the quantization coefficient Δ obtained above and the entropy value H is obtained. From the figure, the plotted points are arranged almost linearly. When a correlation was obtained for both, it was found that there was a high correlation. Therefore, an approximate expression is created using a linear expression. Then, the coefficients a and b of the approximate expression are calculated by a statistical method such as the least square method.
[0124]
Eighth step: see FIG.
This step is one of the steps for calculating the quantization step value Δ (N), and is performed between the quantization step value Δ (N) calculated in the above step and the immediately preceding field F (N−1). This is the step of performing the comparison.
[0125]
Specifically, first, the absolute value of the difference between the quantization step value Δ (N) calculated in the previous process and the quantization step value Δ (N−1) calculated from the immediately preceding field F (N−1). Is calculated. Next, the absolute value of the difference is compared with the threshold value. When the absolute value of the difference is smaller than the threshold value, in the step of calculating the offset value O (N), the offset value O (N) is calculated based on the CHECK to which zero or 1 has been substituted in the compression step. Is calculated. On the other hand, when the absolute value of the difference is larger than the threshold value, the offset value O (N) is calculated in the step of calculating the offset value O (N) regardless of the value of the CHECK calculated in the compression step. N) is set to zero.
[0126]
Ninth step: see FIG.
The present invention is a step of calculating an offset value O (N) which is a variable added to the quantization step value Δ (N + 1).
[0127]
Here, the offset value O (N) will be described. The offset value O (N) is a variable that is added to the quantization step value Δ (N) calculated from the entropy value H (N) of the field F (N). The offset value O (N) is calculated by adding a constant STEP when the code amount of the field F is equal to or more than a desired value. The details will be described below.
[0128]
First, it is determined whether or not the CHECK output from the step of compressing the field F (N) is zero. In the process of compressing the field F (N), 1 is substituted for CHECK when the code amount of the field F (N) is equal to or smaller than the threshold, and zero is set for CHECK when the code amount is equal to or larger than the threshold. Is assigned.
[0129]
Next, when zero is substituted for CHECK, a value obtained by adding a constant STEP to the offset value O (N-1) is set as the offset value O (N). On the other hand, when 1 is assigned to CHECK, the offset value O (N-1) is used as it is as the offset value O (N).
[0130]
When CHECK is zero, it means that the code amount of the field F (N) is larger than the threshold value and the compression ratio is insufficient. Therefore, by setting the value obtained by adding the constant STEP to the offset value O (N-1) as the offset value O (N), the offset value O (N) used in the next field F (N + 1) becomes a large value. It becomes. Then, the offset value O (N) is added to the quantization step value Δ (N + 1) in the step of compressing the next field F (N + 1), so that the compression rate of the next field F (N) is increased. Can be. From this, the value of the offset value O continues to increase until the compression rate of the field F reaches its target value.
[0131]
When CHECK is 1, it means that the code amount of the field F (N) is smaller than the threshold value and the compression ratio is sufficient. Therefore, a predetermined compression ratio can be achieved even when the next field F (N + 1) is compressed using the offset value O (N) having the same value as the offset value O (N-1).
[0132]
Next, referring to the output from the previous process, if the absolute value of the difference between the quantization step values Δ between the fields is larger than the threshold value, regardless of the value of the offset value O (N) calculated above. Instead, the offset value O (N) is set to zero.
[0133]
As described above, the merits of setting the offset value O (N) to zero when the absolute value of the difference between the quantization step values Δ between the fields is larger than the threshold value will be described. In the present invention, the quantization step value Δ is calculated from the entropy value H. Therefore, a large change in the quantization step value Δ between the fields means that the entropy value H has changed greatly between the fields. Further, the entropy value H of the field indicates the complexity indicating the design of the field. From this, it can be determined that a large change in the quantization step value Δ indicates that the symbol has changed significantly. Therefore, when the quantization step value Δ greatly changes, the offset value O can be recalculated by setting the offset value O to zero, so that appropriate rate control can be performed.
[0134]
In each of the above-described embodiments, the compression target is not limited to only a moving image. For example, audio information can be adopted as a compression target. That is, the input audio information is divided into blocks for each sample number, and quantization can be performed using the quantization step value Δ calculated from the entropy value of this block.
[0135]
Further, in each of the above-described embodiments, the quantization step value Δ is obtained from the entropy value H, which is one of the information of the screen itself. However, the quantization step value Δ is calculated from the index value other than the entropy value H. It is also possible. For example, the quantization step value Δ can be calculated from the variance of information included in the screen itself. A specific example will be described below.
[0136]
First, a wavelet transform is performed on a screen (field) to obtain a wavelet transform coefficient divided into a plurality of subbands. Next, the variance is calculated for each subband. Specifically, for example, with reference to FIG. 4, each variance is calculated for six subbands HH, LH, HL, LLHH, LLLH, and LLHL. Next, the average of the variance calculated for each of these subbands is calculated. Further, a quantization step value Δ for achieving a predetermined compression ratio is calculated from the average value of the variance. There is a high correlation between the average value of the variance and the quantization step value Δ that achieves a predetermined compression ratio (for example, 0.05). Therefore, the predetermined compression ratio is achieved using a linear conversion equation. Can be calculated from the average value of the variance. By performing quantization using this quantization step value Δ, the compression ratio of the screen can be controlled to a predetermined value.
[0137]
Furthermore, an effective value can be used as an index for calculating the quantization step value Δ. Specifically, the wavelet transform coefficient obtained by performing the wavelet transform has an average value of zero other than the DC component. This means that the standard deviation of the wavelet transform coefficient and its effective value are the same. As described above, the quantization step value Δ can be calculated from the variance of the wavelet transform coefficient, and the fact that the standard deviation, which is the square root of the variance, and the effective value are the same means that the quantization step value Δ is calculated from the effective value. It can be calculated. Here, the effective value is an index indicating the magnitude of the energy amount of the wavelet transform coefficient, and the instantaneous energy level of the wavelet transform coefficient is obtained by averaging the sum of squares for each subband, and expressed as the square root of the value. It is an indicator.
[0138]
Further, in the third embodiment, the code amount threshold is shown as one fixed value, but “the width of the code amount having an upper limit and a lower limit” may be used as an alternative to the threshold. . If the code amount of the screen after compression exceeds the upper limit of the code amount, the code amount of the next screen can be reduced by increasing the offset value. If the code amount of the screen after the compression is smaller than the lower limit of the code amount, it means that excessive compression is being performed. Therefore, by reducing the offset value, the code after the compression is performed. The amount can be within the range of the code amount described above. This is equivalent to using the “width of the compression ratio having the upper limit and the lower limit” as an alternative to the threshold. Further, the difference between the upper limit and the lower limit of the “width of the code amount” or the “width of the compression ratio” is set to zero or more. When the difference between the upper limit and the lower limit is zero, this corresponds to giving the target code amount or the target compression ratio as one value. Furthermore, the above-mentioned offset value can take a positive value or a negative value.
[0139]
In each of the above-described embodiments, a method for compressing a still image or a moving image has been described. However, a compression device for a still image or a moving image can be configured by using an arithmetic device such as a CPU and a storage medium such as a RAM. it can. In this case, the still image or moving image compression apparatus of the present invention includes an extraction unit that extracts a screen to be compressed from an input still image, and a quantization step value used for quantization based on the information on the screen. And a compression unit that compresses the screen by performing the quantization using the quantization step value. And the function of each part has the same function as each process mentioned above.
[0140]
【The invention's effect】
According to the present invention, the following effects can be obtained.
[0141]
First, in the present invention, since quantization is performed using the quantization step value Δ calculated from the entropy value H, which is information contained in the image itself, control of the compression ratio (rate control) can be performed appropriately. . Specifically, the entropy value H of the image is calculated, and the quantization step value Δ is obtained using a relational expression between the entropy value H and the quantization step value Δ. As a result, it is possible to supply the quantization step value Δ according to the value of the entropy value H, and it is possible to realize a desired image compression ratio.
[0142]
Second, in the present invention, since the quantization step value Δ is calculated using the entropy value H calculated from the sub-band of the low-frequency component subjected to the wavelet transform, the amount of calculation required for calculating the entropy value H is reduced. be able to. The image information of the sub-band of the low-frequency component expresses the characteristics of the image better than the sub-band of the high-frequency component. The information amount of the subband of the low frequency component used for calculating the entropy value H in the present invention is about 1/4 of the whole.
[0143]
Third, in the present invention, the step of compressing a moving image and the step of calculating a quantization step value Δ are performed in parallel, and the quantization step value Δ calculated in the immediately preceding field F (N−1) is obtained. Since the field F (N) is quantized using (N-1), the processing speed can be improved and the moving image can be compressed.
[0144]
Fourth, in the present invention, quantization is performed using the quantization step value Δ (N) to which the offset value O (N) is added. Here, the offset value O (N) increases for each field until the compression rate of the field F (N) reaches a desired value. Therefore, rate control can be performed with high accuracy.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of a still image compression method according to a first embodiment of the present invention.
FIG. 2 is a conceptual diagram showing a field extraction process according to the first embodiment of this invention.
FIG. 3 is a conceptual diagram illustrating a step of performing a wavelet transform according to the first embodiment of this invention.
FIG. 4 is a conceptual diagram illustrating a step of performing a wavelet transform according to the first embodiment of this invention.
FIG. 5 is a conceptual diagram illustrating a process of calculating a quantization step value according to the first embodiment of this invention.
FIG. 6 is a characteristic diagram illustrating a process of calculating a quantization step value according to the first embodiment of this invention.
FIG. 7 is a conceptual diagram showing a quantization step according to the first embodiment of the present invention.
FIG. 8 is a conceptual diagram showing an encoding process according to the first embodiment of the present invention.
FIGS. 9A and 9B are a block diagram (A) and a schematic diagram (B) showing a schematic configuration of a moving image compression method according to the second embodiment of the present invention.
FIG. 10 is a block diagram illustrating a schematic configuration of a moving image compression method according to a second embodiment of the present invention.
FIG. 11 is a conceptual diagram illustrating a field extraction process according to the second embodiment of this invention.
FIG. 12 is a conceptual diagram illustrating a step of performing a wavelet transform according to the second embodiment of this invention.
FIG. 13 is a conceptual diagram illustrating a step of performing a wavelet transform according to the second embodiment of this invention.
FIG. 14 is a conceptual diagram illustrating a quantization step according to the second embodiment of this invention.
FIG. 15 is a conceptual diagram showing an encoding step according to the second embodiment of the present invention.
FIG. 16 is a conceptual diagram illustrating a process of calculating a quantization step value according to the second embodiment of this invention.
FIG. 17 is a conceptual diagram illustrating a process of calculating a quantization step value according to the second embodiment of this invention.
18A and 18B are a block diagram (A) and a schematic diagram (B) showing a schematic configuration of a moving image compression method according to the third embodiment of the present invention.
FIG. 19 is a block diagram illustrating a schematic configuration of a moving image compression method according to a third embodiment of the present invention.
FIG. 20 is a conceptual diagram showing a field extracting step according to the third embodiment of the present invention.
FIG. 21 is a conceptual diagram showing a step of performing a wavelet transform according to the third embodiment of the present invention.
FIG. 22 is a conceptual diagram illustrating a step of performing a wavelet transform according to the third embodiment of this invention.
FIG. 23 is a conceptual diagram showing a quantization step according to the third embodiment of the present invention.
FIG. 24 is a conceptual diagram showing an encoding step according to the third embodiment of the present invention.
FIG. 25 is a conceptual diagram illustrating a process of calculating a quantization step value according to the third embodiment of this invention.
FIG. 26 is a conceptual diagram illustrating a step of calculating a quantization step value according to the third embodiment of this invention.

Claims (58)

入力された入力情報から圧縮対象となる情報を抽出する工程と、
前記情報を基に量子化ステップ値を算出する工程と、
前記量子化ステップ値を用いて前記情報の量子化を行うことにより前記情報の圧縮を行う工程とを有することを特徴する情報圧縮方法。
Extracting information to be compressed from the input information input;
Calculating a quantization step value based on the information;
Compressing the information by quantizing the information using the quantization step value.
前記量子化ステップ値の算出は、前記情報のエントロピ値から行うことを特徴とする請求項1記載の情報圧縮方法。2. The information compression method according to claim 1, wherein the calculation of the quantization step value is performed from an entropy value of the information. 前記情報の低周波領域の前記エントロピ値から、前記量子化ステップ値を算出することを特徴とする請求項2記載の情報圧縮方法。3. The information compression method according to claim 2, wherein the quantization step value is calculated from the entropy value in a low frequency region of the information. 所定の圧縮率を達成する変換式を用いて、前記エントロピ値から前記量子化ステップ値を算出することを特徴とする請求項2または請求項3に記載の情報圧縮方法。4. The information compression method according to claim 2, wherein the quantization step value is calculated from the entropy value using a conversion formula that achieves a predetermined compression ratio. 前記情報の圧縮を行う工程は、前記情報に対して変換を行い変換係数を得る工程と、前記変換係数に対して量子化を行い量子化係数を得る工程と、前記量子化係数に対して符号化を行い符号化係数を得る工程とを有することを特徴とする請求項1記載の情報圧縮方法。Compressing the information, converting the information to obtain a transform coefficient, quantizing the transform coefficient to obtain a quantized coefficient, and coding the quantized coefficient. 2. The information compression method according to claim 1, further comprising the step of performing coding to obtain a coding coefficient. 前記変換は、サブバンド符号化であることを特徴とする請求項5記載の情報圧縮方法。The information compression method according to claim 5, wherein the conversion is subband coding. 前記サブバンド符号化はウェーブレット変換であることを特徴とする請求項6記載の情報圧縮方法。7. The information compression method according to claim 6, wherein the sub-band coding is a wavelet transform. 前記変換は、直交変換であることを特徴とする請求項5記載の情報圧縮方法。The information compression method according to claim 5, wherein the transformation is an orthogonal transformation. 前記符号化は算術符号化であることを特徴とする請求項5記載の情報圧縮方法。The information compression method according to claim 5, wherein the encoding is arithmetic encoding. 入力された静止画像から圧縮対象となる画面を抽出する工程と、
前記画面の情報を基に量子化ステップ値を算出する工程と、
前記量子化ステップ値を用いて量子化を行うことにより前記画面の圧縮を行う工程とを有することを特徴とする静止画像圧縮方法。
Extracting a screen to be compressed from the input still image;
Calculating a quantization step value based on the information of the screen;
Compressing the screen by performing quantization using the quantization step value.
前記画面はフィールドであることを特徴とする請求項10記載の静止画像圧縮方法。The still image compression method according to claim 10, wherein the screen is a field. 前記量子化ステップ値の算出は、前記画面の指標値から行うことを特徴とする請求項10記載の静止画像圧縮方法。The still image compression method according to claim 10, wherein the calculation of the quantization step value is performed from the index value of the screen. 前記指標値はエントロピ値であることを特徴とする請求項12記載の静止画像圧縮方法。13. The still image compression method according to claim 12, wherein the index value is an entropy value. 前記指標値は分散であることを特徴とする請求項12記載の静止画像圧縮方法。13. The still image compression method according to claim 12, wherein the index value is a variance. 前記画面の低周波領域の前記エントロピ値から、前記量子化ステップ値を算出することを特徴とする請求項13記載の静止画像圧縮方法。14. The still image compression method according to claim 13, wherein the quantization step value is calculated from the entropy value in a low frequency region of the screen. 所定の圧縮率を達成する変換式を用いて、前記エントロピ値から前記画面の量子化ステップ値を算出することを特徴とする請求項15記載の静止画像圧縮方法。16. The still image compression method according to claim 15, wherein a quantization step value of the screen is calculated from the entropy value using a conversion formula that achieves a predetermined compression ratio. 前記画面の圧縮を行う工程は、前記画面に対して変換を行い変換係数を得る工程と、前記変換係数に対して量子化を行い量子化係数を得る工程と、前記量子化係数に対して符号化を行い符号化係数を得る工程とを有することを特徴とする請求項10記載の静止画像圧縮方法。Compressing the screen, converting the screen to obtain a transform coefficient, quantizing the transform coefficient to obtain a quantized coefficient, and coding the quantized coefficient 11. A still image compression method according to claim 10, further comprising the step of: 前記変換は、サブバンド符号化であることを特徴とする請求項17記載の静止画像圧縮方法。18. The still image compression method according to claim 17, wherein the conversion is subband coding. 前記サブバンド符号化はウェーブレット変換であることを特徴とする請求項18記載の静止画像圧縮方法。19. The still image compression method according to claim 18, wherein the sub-band encoding is a wavelet transform. 前記変換は、直交変換であることを特徴とする請求項17記載の情報圧縮方法。18. The information compression method according to claim 17, wherein the transform is an orthogonal transform. 前記符号化は算術符号化であることを特徴とする請求項17記載の静止画像圧縮方法。18. The still image compression method according to claim 17, wherein the encoding is arithmetic encoding. 入力された動画像信号から圧縮対象となる画面を抽出する工程と、
少なくとも量子化を行うことにより前記画面の圧縮を行う工程と、
前記画面の情報を基に前記量子化に用いる量子化ステップ値を算出する工程とを有することを特徴とする動画像圧縮方法。
Extracting a screen to be compressed from the input video signal,
Performing compression of the screen by performing at least quantization;
Calculating a quantization step value used for the quantization based on the information on the screen.
前記画面は、フィールドであることを特徴とする請求項22記載の動画像圧縮方法。The moving image compression method according to claim 22, wherein the screen is a field. 前記画面は、フレームであることを特徴とする請求項22記載の動画像圧縮方法。The moving image compression method according to claim 22, wherein the screen is a frame. 前記量子化ステップ値の算出は、前記画面の指標値から行うことを特徴とする請求項10記載の静止画像圧縮方法。The still image compression method according to claim 10, wherein the calculation of the quantization step value is performed from the index value of the screen. 前記指標値はエントロピ値であることを特徴とする請求項25記載の静止画像圧縮方法。26. The still image compression method according to claim 25, wherein the index value is an entropy value. 前記指標値は分散であることを特徴とする請求項25記載の静止画像圧縮方法。26. The still image compression method according to claim 25, wherein the index value is a variance. 前記画面の低周波領域の前記エントロピ値から、前記量子化ステップを算出することを特徴とする請求項26記載の動画像圧縮方法。27. The moving image compression method according to claim 26, wherein the quantization step is calculated from the entropy value in a low frequency region of the screen. 所定の圧縮率を達成する変換式を用いて、前記エントロピ値から前記画面の量子化ステップ値を算出することを特徴とする請求項26記載の動画像圧縮方法。The moving image compression method according to claim 26, wherein a quantization step value of the screen is calculated from the entropy value using a conversion formula that achieves a predetermined compression ratio. 少なくとも1つ前の画面から算出した量子化ステップ値を用いて前記画面の量子化を行うことを特徴とする請求項22記載の動画像圧縮方法。23. The moving image compression method according to claim 22, wherein said screen is quantized using a quantization step value calculated from at least one previous screen. 前記画面から算出した量子化ステップ値を用いて次画面の量子化を行うことを特徴とする請求項22記載の動画像圧縮方法。23. The moving picture compression method according to claim 22, wherein the next picture is quantized using a quantization step value calculated from the picture. 前記画面の圧縮を行う工程と、前記量子化ステップ値を算出する工程とは並列処理することを特徴とする請求項22記載の動画像圧縮方法。23. The moving image compression method according to claim 22, wherein the step of compressing the screen and the step of calculating the quantization step value are performed in parallel. 前記画面の圧縮を行う工程は、前記画面に対して変換を行い変換係数を得る工程と、前記変換係数に対して量子化を行い量子化係数を得る工程と、前記量子化係数に対して符号化を行い符号化係数を得る工程とを有することを特徴とする請求項22記載の動画像圧縮方法。Compressing the screen, converting the screen to obtain a transform coefficient, quantizing the transform coefficient to obtain a quantized coefficient, and coding the quantized coefficient 23. A moving picture compression method according to claim 22, further comprising the step of: 前記変換は、サブバンド符号化であることを特徴とする請求項33記載の動画像圧縮方法。The moving picture compression method according to claim 33, wherein the conversion is subband coding. 前記サブバンド符号化はウェーブレット変換であることを特徴とする請求項34記載の動画像圧縮方法。The moving image compression method according to claim 34, wherein the subband encoding is a wavelet transform. 前記変換は、直交変換であることを特徴とする請求項33記載の動画像圧縮方法。The moving image compression method according to claim 33, wherein the transformation is an orthogonal transformation. 前記符号化は算術符号化であることを特徴とする請求項33記載の動画像圧縮方法。The moving image compression method according to claim 33, wherein the encoding is arithmetic encoding. 入力された動画像信号から圧縮対象となる画面を抽出する工程と、
少なくとも1つ前の画面の情報から算出された量子化ステップ値にオフセット値を加算する工程と、
前記オフセット値が加算された前記量子化ステップ値を用いて、量子化を行うことにより前記画面の圧縮を行う工程とを有することを特徴とする動画像圧縮方法。
Extracting a screen to be compressed from the input video signal,
Adding an offset value to a quantization step value calculated from information of at least one previous screen;
Compressing the screen by performing quantization using the quantization step value to which the offset value has been added.
少なくとも1つ前の前記画面から算出された前記量子化ステップ値に前記オフセット値を加算することを特徴とする請求項38記載の動画像圧縮方法。The moving image compression method according to claim 38, wherein the offset value is added to the quantization step value calculated from at least one previous screen. 前記画面の圧縮率が、圧縮率の閾値よりも低い場合は、前記オフセット値を大きくすることを特徴とする請求項38記載の動画像圧縮方法。39. The moving image compression method according to claim 38, wherein when the compression rate of the screen is lower than a compression rate threshold, the offset value is increased. 前記画面の圧縮率が、圧縮率の閾値よりも高い場合は、前記オフセット値を変化させないことを特徴とする請求項38記載の動画像圧縮方法。39. The moving image compression method according to claim 38, wherein when the compression rate of the screen is higher than a compression rate threshold, the offset value is not changed. 前記オフセット値に定数を加算することで前記オフセット値を大きくすることを特徴とする請求項40記載の動画像圧縮方法。41. The moving image compression method according to claim 40, wherein the offset value is increased by adding a constant to the offset value. 圧縮率の上限および下限を有する目標圧縮率幅を設け、前記画面の圧縮率が、前記圧縮率の下限よりも低い場合は、前記オフセット値を大きくすることを特徴とする請求項38記載の動画像圧縮方法。The moving image according to claim 38, wherein a target compression ratio width having an upper limit and a lower limit of a compression ratio is provided, and when the compression ratio of the screen is lower than the lower limit of the compression ratio, the offset value is increased. Image compression method. 前記オフセット値に定数を加算することで前記オフセット値を大きくすることを特徴とする請求項43記載の動画像圧縮方法。The moving image compression method according to claim 43, wherein the offset value is increased by adding a constant to the offset value. 前記画面の圧縮率が、前記圧縮率の上限よりも高い場合は、前記オフセット値を小さくすることを特徴とする請求項43記載の動画像圧縮方法。The moving image compression method according to claim 43, wherein when the compression rate of the screen is higher than an upper limit of the compression rate, the offset value is reduced. 前記画面の前記量子化ステップ値と、直前の画面の前記量子化ステップ値が大きく異なった場合は、前記オフセット値を零とすることを特徴とする請求項38記載の動画像圧縮方法。39. The moving image compression method according to claim 38, wherein when the quantization step value of the screen is significantly different from the quantization step value of the immediately preceding screen, the offset value is set to zero. 前記画面の圧縮を行う工程は、前記画面に対して変換を行い変換係数を得る工程と、前記変換係数に対して量子化を行い量子化係数を得る工程と、前記量子化係数に対して符号化を行い符号化係数を得る工程とを有することを特徴とする請求項38記載の動画像圧縮方法。Compressing the screen, converting the screen to obtain a transform coefficient, quantizing the transform coefficient to obtain a quantized coefficient, and coding the quantized coefficient 39. The moving image compression method according to claim 38, further comprising the step of: performing coding to obtain a coding coefficient. 前記変換は、サブバンド符号化であることを特徴とする請求項47記載の動画像圧縮方法。The moving image compression method according to claim 47, wherein the conversion is subband coding. サブバンド符号化はウェーブレット変換であることを特徴とする請求項48記載の動画像圧縮方法。The moving image compression method according to claim 48, wherein the subband encoding is a wavelet transform. 前記変換は、直交変換であることを特徴とする請求項47記載の動画像圧縮方法。The moving image compression method according to claim 47, wherein the transformation is an orthogonal transformation. 前記符号化は算術符号化であることを特徴とする請求項47記載の動画像圧縮方法。The moving image compression method according to claim 47, wherein the encoding is arithmetic encoding. 前記画面は、フィールドであることを特徴とする請求項38記載の動画像圧縮方法。The moving image compression method according to claim 38, wherein the screen is a field. 前記画面は、フレームであることを特徴とする請求項38記載の動画像圧縮方法。The moving image compression method according to claim 38, wherein the screen is a frame. 前記量子化ステップ値の算出は、前記画面の指標値から行うことを特徴とする請求項38記載の静止画像圧縮方法。39. The still image compression method according to claim 38, wherein the calculation of the quantization step value is performed from the index value of the screen. 前記指標値はエントロピ値であることを特徴とする請求項54記載の静止画像圧縮方法。The still image compression method according to claim 54, wherein the index value is an entropy value. 前記指標値は分散であることを特徴とする請求項54記載の静止画像圧縮方法。The still image compression method according to claim 54, wherein the index value is a variance. 前記画面の低周波領域の前記エントロピ値から、前記量子化ステップを算出することを特徴とする請求項55記載の動画像圧縮方法。The moving image compression method according to claim 55, wherein the quantization step is calculated from the entropy value in a low frequency region of the screen. 所定の圧縮率を達成する変換式を用いて、前記エントロピ値から前記画面の量子化ステップ値を算出することを特徴とする請求項55記載の動画像圧縮方法。The moving image compression method according to claim 55, wherein a quantization step value of the screen is calculated from the entropy value using a conversion formula that achieves a predetermined compression ratio.
JP2002235120A 2002-08-12 2002-08-12 Information compressing method, still image compressing method and moving picture compressing method Pending JP2004080166A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002235120A JP2004080166A (en) 2002-08-12 2002-08-12 Information compressing method, still image compressing method and moving picture compressing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002235120A JP2004080166A (en) 2002-08-12 2002-08-12 Information compressing method, still image compressing method and moving picture compressing method

Publications (1)

Publication Number Publication Date
JP2004080166A true JP2004080166A (en) 2004-03-11

Family

ID=32019723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002235120A Pending JP2004080166A (en) 2002-08-12 2002-08-12 Information compressing method, still image compressing method and moving picture compressing method

Country Status (1)

Country Link
JP (1) JP2004080166A (en)

Similar Documents

Publication Publication Date Title
US7822282B2 (en) Moving image coding apparatus, moving image decoding apparatus, control method therefor, computer program, and computer-readable storage medium
KR100946600B1 (en) An apparatus and method for encoding digital image data in a lossless manner
KR101223983B1 (en) Bitrate reduction techniques for image transcoding
EP1195993B1 (en) Transcoding of video signal
JP4656190B2 (en) Information processing apparatus and method
US6757438B2 (en) Method and apparatus for video compression using microwavelets
US20100034287A1 (en) Variable general purpose compression for video images (ZLN)
WO2019191983A1 (en) Encoding method and device, image processing system, and computer readable storage medium
US6865229B1 (en) Method and apparatus for reducing the “blocky picture” effect in MPEG decoded images
JP4541896B2 (en) Apparatus and method for multiple description encoding
US7702161B2 (en) Progressive differential motion JPEG codec
US20100002946A1 (en) Method and apparatus for compressing for data relating to an image or video frame
US8873878B2 (en) Image processing apparatus and method with reduced processing load
Sahooinst et al. Haar wavelet transform image compression using various run length encoding schemes
JP3853708B2 (en) Digital image encoding apparatus, encoding method, and program
CA2521467C (en) Fixed bit rate, intraframe compression and decompression of video
US8279098B2 (en) Compression rate control system and method with variable subband processing
JP2004080166A (en) Information compressing method, still image compressing method and moving picture compressing method
US20090074059A1 (en) Encoding method and device for image data
JP2019068385A (en) Encoder, control method thereof, and control program, and imaging apparatus
JP2007043495A (en) Image processing device and image processing method
WO2009130540A1 (en) Method for high definition video encoding/decoding suitable for real-time video streaming
JP3958033B2 (en) Method and system for compressing moving picture information
KR100619685B1 (en) Method and apparatus of image transmitting control using wavelet coding for picturephone
KR20070099911A (en) Method for compressing digital image, and a medium having computer readable program executing the method