JP2004104598A - Video signal encoder and decoder, and recording medium - Google Patents
Video signal encoder and decoder, and recording medium Download PDFInfo
- Publication number
- JP2004104598A JP2004104598A JP2002265729A JP2002265729A JP2004104598A JP 2004104598 A JP2004104598 A JP 2004104598A JP 2002265729 A JP2002265729 A JP 2002265729A JP 2002265729 A JP2002265729 A JP 2002265729A JP 2004104598 A JP2004104598 A JP 2004104598A
- Authority
- JP
- Japan
- Prior art keywords
- data
- bit
- pixel
- video signal
- bit data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Color Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】
【産業上の利用分野】
本発明は、映像制作、映像データの素材保管、ロケ素材の中継など映像制作分野、特にNTSC以上の品質の高い高精細映像制作を行う分野、DVD等のデジタル記録媒体を用いた映像記録再生装置分野、遠隔医療における医用動画像の伝送等、データの改変が嫌われる分野等において好適なデータの可逆圧縮技術に関する。
【0002】
【従来の技術】
従来より、映像信号の圧縮には様々な手法が用いられている。映像信号を圧縮して符号化する手法として、MPEG−1、MPEG−2、MPEG−4などが実用化されている。このような圧縮符号化方式により、映像信号を小さいデータとして扱うことが可能となり、データの記録・伝送の効率化に貢献している。
【0003】
【特許文献1】
特開平8−322050号公報
【0004】
【発明が解決しようとする課題】
上述のようなMPEG−1、MPEG−2、MPEG−4等はいずれもロッシー符号化方式といわれるものであり、効率的な圧縮が可能であるが、復号化にあたって、少なからず品質の劣化を伴い、原信号を完全に再現することはできない。そのため、映像制作、素材保管、ロケ素材の中継など映像制作分野では、これらの符号化方式を適用できず、非効率ではあるが、非圧縮で保存・伝送する方式がとられている。特に最近は高精細HDTV映像を扱うプロダクションが増え、素材容量が膨大になり、ワークディスクを管理する上で問題になってきている。
【0005】
映像信号であっても、コンピュータグラフィックスやアニメーション映像、人工動画像については、ランレングス法を基本とした可逆(ロスレス)圧縮技術が利用されているが、カメラ等で入力する実写映像には適用できない。理由として、カメラ等で入力する実写映像には予測不可能な量子化雑音成分が含まれていて、基本的にデータランが存在しないことが挙げられる。
【0006】
上記のような点に鑑み、本発明は、カメラ等で入力した映像信号に対しても十分な圧縮を行うことが可能であると共に、復号時には、元の映像信号が完全に復号することが可能な可逆圧縮方式の映像信号の符号化装置、復号化装置および記録媒体を提供することを課題とする。
【0007】
【課題を解決するための手段】
上記課題を解決するため、本発明では、時系列の各フレームを形成する画素の輝度または色情報に対応した画素データで構成される映像信号に対して、前記全ての画素データを再現できるように情報量を圧縮する符号化装置を、前記画素データを構成する各ビットデータを所定のビット位置で分断し、画素データの上位ビットで構成される上位ビットデータと、画素データの下位ビットで構成される下位ビットデータとに分離するためのデータ分離手段と、前記上位ビットデータに対しては空間的に隣接した画素の画素データからの予測誤差を基に符号化を行うようにした上位ビット符号化手段と、前記下位ビットデータに対しては情報が失われない条件で必要最小限のビット幅で符号化を行うようにした下位ビット符号化手段とを有する構成としたことを特徴とする。
【0008】
本発明によれば、映像信号の各フレームの各画素データを構成するビットデータを上位ビットデータと下位ビットデータに分離し、上位ビットデータに対しては空間的に隣接した画素の画素データからの予測誤差を基に符号化を行い、下位ビットデータとは別々に符号化を行うようにしたので、映像信号をデジタル化する際に用いる回路の熱雑音成分を下位ビットとして分離した状態で、主成分である上位ビットデータに対して予測誤差を用いた符号化を行うことができるため圧縮効率の高い符号化が可能となる。
【0009】
【発明の実施の形態】
以下、本発明の実施形態について図面を参照して詳細に説明する。
(装置構成)
図1は、本発明に係る映像信号の符号化装置の一実施形態を示す構成図である。図1において、10は色信号間演算手段、20はフレーム差分演算手段、30は信号平坦部符号化手段、40はデータ分離手段、50は上位ビット符号化手段、51は線形予測手段、52は予測誤差算出手段、53は可変ビット長符号化手段、54はルックアップテーブル作成手段、55はビットデータ変換手段、56はビットデータ符号化手段、60は下位ビット符号化手段である。
【0010】
図1において、色信号間演算手段10は、1つの画像フレームにおける各画素が複数の色に対応する輝度値を持つ場合、すなわち一つの画像フレームが複数の輝度値プレーンで構成される場合に、1つの色を基準値として、他の2つの色の輝度値には、基準値との差分を与える機能を有する。フレーム差分演算手段20は、連続するフレーム間の各画素データの差分を演算する機能を有する。信号平坦部符号化手段30は、差分演算処理された各フレームに対して、画素データの値が一定である平坦部を検出し、効率的に符号化する機能を有する。データ分離手段40は、信号平坦部の処理が行われたフレームを構成する各画素データを所定の位置で上位ビットデータと下位ビットデータに分離する機能を有する。上位ビット符号化手段50は、データ分離手段40により分離された上位ビットデータを効率良く符号化する機能を有する。下位ビット符号化手段60は、データ分離手段40により分離された下位ビットデータを効率良く符号化する機能を有する。図1に示した各構成要素は、実際には、コンピュータおよびコンピュータにより実行される専用のソフトウェアプログラムにより実現される。
【0011】
(処理動作)
次に、図1に示した映像信号の符号化装置の処理動作について説明する。まず、映像をTVカメラ等で撮影してデジタル化する。これにより、デジタル映像信号が得られる。このようなデジタル映像信号は、1秒間に複数フレーム(静止画像)を有し、各フレームがR、G、Bの3色の輝度値を有するものとなっている。なお、本実施形態では、1秒間に30フレーム、各画素の各色に8ビットが割り当てられているものとして説明する。
【0012】
このようにしてデジタル化されたデジタル映像信号は、色信号間演算手段10により色信号間の差分演算が行われる。ここで、色信号間の差分演算の様子を図2を用いて説明する。図2(a)は、デジタル映像信号を模式的に示したものである。図示のように映像信号は1フレームがRGBの3プレーンで構成されている。図2(a)に示したような映像信号の各フレームに対して色信号間演算手段10は、プレーン間の差分演算を行うことになる。具体的には、Gプレーンを基準として、RプレーンとGプレーンの同一座標の画素データの差分演算を行い、その値をRプレーンの各画素の新たな値とし、BプレーンとGプレーンの同一座標の画素データの差分演算を行い、その値をBプレーンの各画素の新たな値とするのである。ここで、Gプレーンを基準とするのは、輝度信号はGを主体としており、R−G、B−Gの色差信号の空間分解能はG信号に対して1/2程度になるためである。すなわち、R、Bの2プレーンを差分信号にすると、隣接画素間の輝度差が小さくなり、後述する符号化の際の予測誤差が小さくなる。この結果、各フレームは、図2(b)に示すような状態となる。なお、入力されるデジタル映像信号がY・Pb・Prのように、輝度信号であるY信号と、色差信号であるPb、Prの形式で入力される場合は、色信号間演算手段10による処理を行わず、直接フレーム間差分演算手段20による処理を行う。
【0013】
次に、色信号間演算されたデジタル映像信号に対して、フレーム間差分演算手段20が、隣接するフレーム間の差分演算を行う。具体的には、各フレーム間の各プレーン同士で同一座標の画素同士の差分演算を行い、その値を後続するフレームの各画素の新たな値とする処理を行う。この場合、時間的に先頭である開始フレームだけは差分演算が行われない。この結果、図2(b)に示したデジタル映像信号は、図2(c)に示すような状態になる。すなわち、フレームF1は、フレーム間差分演算手段20の処理による変化はないが、フレームF2の各プレーンには、フレームF1とフレームF2の差分値が与えられ、フレームFnの各プレーンには、フレームFn−1とフレームFnの差分値が与えられる。ただし、映像においてシーンが変わる場合は、照明や自然光等も変化し、輝度値も大きく変化することになる。このような場合、差分演算を行っても差分後の値はむしろ大きくなり、データ量の圧縮に寄与しない。そこで、本実施形態では、更新されたフレームの各画素の値が更新前のフレームの各画素の値に比べ、所定のレベル以上に増大する場合、フレームを更新前のフレームに戻す処理を行っている。その結果、映像信号中には開始フレームが複数存在することになる。
【0014】
続いて、信号平坦部符号化手段30が、各フレームの各プレーンに対して、信号平坦部の処理を行う。信号平坦部とは、信号レベルが均一な値になっている箇所をいうが、コンピュータグラフィックス映像等を除き、均一な値として信号レベルの最小値「0」または信号レベルの最大値(例えば255)が通常候補になる。実写映像では、一般にこのような箇所はまれであるが、照明が全暗になりA/D変換器入力が零校正レベル以下であったり(カメラの校正により全暗時にはカメラ信号出力が負値になる場合もある)、映像が逆光照明になってA/D変換器が飽和したりすると、このような箇所が生じる。信号レベルが「0」および信号レベルが最大値のいずれであっても、信号平坦部は、同一の信号レベルが所定の領域(所定の画素数)連続して記録される。このため、この部分は圧縮し易いデータになっている。具体的には、信号平坦部となる矩形領域の左上点、右下点の画素座標(x,y)と画素データの値(Gプレーンの場合は輝度値、R−Gプレーン、B−Gプレーンの場合は差分値)を平坦部情報として各フレームの各プレーンと分離して記録する。各フレームの各プレーンからは、信号平坦部が削除される。これを模式的に示すと図3(a)に示すようになる。図3(a)において、網掛けで示した部分は信号平坦部を示す。信号平坦部符号化手段30の処理により、信号平坦部はフレームの各プレーンから削除される。ただし、復号時に元通りに復元するために、削除された信号平坦部は、図3(b)に示すような形式で記録しておく。信号平坦部情報は、信号平坦部ごとに、左上点の画素座標(x,y)、右下点の画素座標(x,y)と画素データの値で記録される。本実施形態では、各プレーンの各画素には8ビットが割り当てられているので、画素データが0または255の場合に信号平坦部を形成し易くなる。ただし、信号平坦部符号化手段30は、信号平坦部を無条件には処理しない。本発明は、データの圧縮を目的としているため、各プレーンからの削減分よりも平坦部情報が大きくなると意味がないからである。したがって、平坦部が所定以上の大きさになる場合に限り平坦部情報を作成して各プレーンから削除するのである。
【0015】
上記のようにして、各プレーン間(色信号間)の差分算出処理、各フレーム間の差分算出処理、信号平坦部の符号化処理が行われたら、次に、データ分離手段40が、各画素データの上位ビットと下位ビットの分離を行う。本実施形態では、撮影映像をデジタル化する際に、各色について量子化ビット数8で量子化している。そのため、デジタルデータは各プレーンの各画素について8ビットが割り当てられている。この場合、本実施形態では、上位ビット6ビットと、下位ビット2ビットに分離する。この分離は、基本的に、A/D変換機等、映像信号をデジタル化する際に用いる回路の熱雑音等に起因する量子化雑音(アナログからデジタル数値に変換する際の端数のゆらぎ成分)を分離するために行う。そのため、量子化雑音であると考えられる下位ビットを分離するのである。下位ビットとして、どの程度分離するかは、撮影環境や利用した回路の特性によっても変化するが、通常量子化ビット数の1/4程度とすることが望ましい。したがって、ここでは、8ビットの1/4にあたる2ビットを下位ビットとして分離しているのである。
【0016】
ここで、データ分離手段40によるデータ分離の様子を図4に模式的に示す。図4において、Hは上位ビットデータを示し、Lは下位ビットデータを示す。図4(a)は分離前の画素データである。データ分離手段40により、サンプルデータは、図4(b)に示す上位ビットデータと図4(c)に示す下位ビットデータに分離されることになる。このようにして分離された画素データは、以降別々に処理されることになる。
【0017】
(上位ビットの符号化)
上位ビットデータは、上位ビット符号化手段50により処理される。上位ビット符号化手段50においては、線形予測手段51と予測誤差算出手段52が、近傍の2つの画素を基に各画素の予測値と予測誤差を算出した後、予測誤差に置きかえられた各ビットデータを可変長ビット符号化手段53が可変長に変換する。ここで、予測誤差の算出手法について、図5を用いて説明する。ここでは、走査線方向(x軸方向)に予測を行う場合を想定して、上位ビット値が図5(a)に示すような状態である場合を考えてみる。図5(a)において、横軸はプレーン上のx軸座標、縦軸は上位ビット値G(x)である。また、各座標値における線分は、各座標における画素の上位ビット値G(x)の値を示している。このような状態で、座標(x,y)の画素における予測誤差E(x)を算出する場合、直前の画素x−1における上位ビット値G(x−1)および2つ前の画素x−2における上位ビット値G(x−2)を利用して以下の〔数式1〕により算出する。
【0018】
〔数式1〕
E(x)=G(x)−2×G(x−1)+G(x−2)−E(x−1)/2
【0019】
上記〔数式1〕において、「2×G(x−1)−G(x−2)」は直前の2つの画素の上位ビット値に基づく線形予測成分であり、線形予測手段51により算出される。予測誤差算出手段52は、算出された線形予測成分、および、直前の画素において算出された予測誤差「E(x−1)/2」(誤差フィードバック成分)を用いて座標xにおける予測誤差E(x)を算出する。全画素について、予測誤差の算出を行い、画素データの上位ビット値の代わりに予測誤差が記録される。
【0020】
これを図5(a)に示した画素データの上位ビット値を基に説明する。まず、誤差フィードバック成分を加えない状態で各予測誤差Eo(x)を算出する。図5(b)に示すように、画素xの予測誤差Eo(x)を算出する場合、直前の画素x−1における上位ビット値G(x−1)および2つ前の画素x−2における上位ビット値G(x−2)を結ぶ予測線が座標xでとる値と、座標xにおける上位ビット値G(x)の差分(図中太点線で示す)に基づいて予測誤差Eo(x)が算出される。画素x+1以降も同様に行って予測誤差Eo(x+1)を算出する。算出された予測誤差Eo(x)は、図5(c)に示すようになる。図5(a)と図5(c)を比較するとわかるように値が変動する範囲が大きく狭まり、データ圧縮に都合が良くなる。続いて、〔数式1〕に基づいて予測誤差Eo(x)に対して直前の画素x−1における補正が加わった予測誤差E(x−1)の50%を減算させて、誤差フィードバック処理を加えた結果が図5(d)である。図5(c)と比べると、画素x+1およびx+2における予測誤差の低減が顕著である。逆に画素x+3およびx+4では予測誤差が増大しているが、平均的には予測誤差が低減し、図5(a)と比較すると値が変動する範囲が更に狭まり、データ圧縮効果が向上する。
【0021】
上記のようにして予測誤差の算出が行われるが、図5の例では、画像のx軸方向すなわち走査線方向に従って予測を行った。本発明では、予測精度をさらに高めるため、複数の方向のうち、予測誤差の算出に最も適した方向を選定する処理を行っている。ここでは、図6(a)に示すような走査線方向、副走査線方向、対角線方向の3方向のうち、いずれが最適であるかを選定することになる。具体的には、画素(x,y)の予測誤差を求めるための方向を決定する場合、まず、走査線方向の直前の画素(x−1,y)のさらに直前の2画素による予測誤差Eh(x−1,y)、副走査線方向の直前の画素(x,y−1)のさらに直前の2画素による予測誤差Ev(x,y−1)、対角線方向の直前の画素(x−1,y−1)のさらに直前の2画素による予測誤差Ed(x−1,y−1)を求める。なお、走査線方向の予測誤差Eh(x,y)、副走査線方向の予測誤差Ev(x,y)、対角線方向の予測誤差Ed(x,y)はそれぞれ以下の〔数式2〕〜〔数式4〕で算出される。
【0022】
〔数式2〕
Eh(x,y)=G(x,y)−2×G(x−1,y)+G(x−2,y)−E(x−1,y)/2
【0023】
〔数式3〕
Ev(x,y)=G(x,y)−2×G(x,y−1)+G(x,y−2)−E(x,y−1)/2
【0024】
〔数式4〕
Ed(x,y)=G(x,y)−2×G(x−1,y−1)+G(x−2,y−2)−E(x−1,y−1)/2
【0025】
そして、予測誤差が最小となる画素の方向を画素(x,y)の予測方向とする。例えば、Eh(x−1,y)、Ev(x,y−1)、Ed(x−1,y−1)のうち、Ev(x,y−1)が最小であった場合、副走査線方向について予測誤差を求めることになる。すなわち、画素(x,y)の予測誤差は、上記〔数式3〕に従って画素(x,y−1)、画素(x,y−2)の値を利用して、Ev(x,y)として算出される。同様にして全フレーム、全プレーンの全画素について、同様の処理を行って各画素の値を予測誤差値に置き換えていく。
【0026】
なお、プレーン上の各画素データの中には、信号平坦部符号化手段30により一括して信号平坦部領域として処理されて、各画素として符号化されないものがある。そのような画素については、予測誤差の算出は行わないが、信号平坦部に属さない画素の予測誤差の算出のために利用される。例えば、図6(b)に示すようなプレーンにおいて、信号平坦部に属さない画素Aの予測誤差を求めるにあたって、対角線方向が最適であると判断されたとする。この場合、信号平坦部に属する画素B、画素Cの画素データ(上位ビット)および予測誤差が必要になる。このような場合、画素B、画素Cの基のデータを利用して画素Aの予測誤差の算出を行う。
【0027】
次に、可変ビット長符号化手段53が、予測誤差値で記録された上位ビットデータをより少ないデータ量で表現するために、ビット構成の変換を行う。まず、ビット構成の変換を行うために利用するルックアップテーブルの作成を行う。具体的には、まず全フレーム、全プレーンについて、各画素データのヒストグラムを算出する。予測誤差に置きかえられたことにより、画素データは正負の値をとるが、ここでは、その絶対値ごとにヒストグラムを算出する。その結果、出現頻度の高い画素値から順に、少ないビット数のビットパターンを割り当てていく。この際、割り当てるビットパターンには規則が有り、最上位ビットは必ず「1」とし、「01」のビットパターンを含むビットパターンは禁止する。したがって、ビットパターンの最小値は1ビットの「1」となる。図7(c)に作成されたルックアップテーブルの一例を示す。
【0028】
上記のようにして作成されたルックアップテーブルを用いて、6ビット固定長の連続する上位ビットデータを、可変長のビットパターンに変換していく。可変長になるため、変換後の各データの区切りを区別する必要が生じる。そのため、本実施形態では、各データ間に1ビットのセパレータビット「0」を挿入する。なお、ルックアップテーブルにおいて、「01」を含むビットパターンを禁止するのは、セパレータビット「0」とそれに続くビットデータの最上位ビット「1」で構成される「01」パターンでデータ間の区切りを判断するようにしているためで、ビットデータ中に「01」パターンが存在すると区切りと誤判断してしまうためである。また、ルックアップテーブルにおいては、上位固定長ビットデータがとる値の絶対値で変換するため、正負の値を記録する必要が生じる。このため、ビットデータと重複しない値をもつ正負反転データを挿入する。例えば、正負反転データ以前の可変長ビットが正である場合は、それ以降の可変長ビットは負であるとして認識されることになる。図7(a)(b)に、可変ビット長符号化手段53によるデータ変換の様子を模式的に示す。図7(a)(b)はいずれも画素データの上位ビット部分に対応しており、図7(a)は固定長の上位ビットデータが連続して記録されている様子を示している。図7(a)に示したような上位ビットデータは、図7(c)に示したルックアップテーブルを用いて図7(b)に示すように変換されることになる。
【0029】
(下位ビットの符号化)
一方、下位ビットデータは、下位ビット符号化手段60により処理される。具体的には、データ分離手段40により分離された下位2ビットのデータを連続に配置していく。
【0030】
(符号データの記録)
以上のようにして得られた符号データは、図8に示すようになる。すなわち、上位可変長ビットデータ、下位固定長ビットデータ、ルックアップテーブル、フレーム構造情報、信号平坦部情報、色信号間情報となる。このデータを記録すべき記録媒体に合わせたフォーマットで記録する。
【0031】
(復号化)
次に、上記符号化装置により符号化された符号データの復号について説明する。図9は、本発明に係る映像信号の復号化装置の構成を示す機能ブロック図である。図9において、91はデータ読込手段、92は上位ビット変換手段、93は下位ビット変換手段、94はデータ統合手段、95は信号平坦部挿入手段、96はフレーム復元手段、97は色信号復元手段である。図9に示す構成は、コンピュータおよびコンピュータに搭載される専用のソフトウェアプログラムにより実現される。
【0032】
続いて、図9に示した復号装置の処理動作について説明する。まず、図8に示したような符号データを記録した記録媒体を、データ読込手段91が読み込む。データ読込手段91は、読み込んだデータのうち、上位可変長ビットデータとルックアップテーブルを、上位ビット変換手段92に渡すと共に、下位固定長ビットデータを、下位ビット変換手段93に渡す。上位ビット変換手段92では、ルックアップテーブルを参照することにより、上位可変長ビットデータから、固定長の上位固定長ビットデータすなわち線形予測誤差E(x,y)を復元し、〔数式1〕の左辺の項と右辺第1項を交換した式に基づいて、6ビット固定長の上位ビットデータG(x,y)を順次復元してゆく。また、下位ビット変換手段93では、下位固定長ビットデータから、2ビット固定長の下位ビットデータを復元してゆく。続いて、データ統合手段94が上位固定長ビットデータと下位ビットデータを統合する。具体的には、上位ビットデータから6ビットを抽出し、下位ビットデータから2ビットを抽出して順次統合する処理を行う。
【0033】
この時点で、各プレーンの画素データは、各画素が8ビットで表現された形式となっている。信号平坦部挿入手段95は図3(b)に示したような信号平坦部情報を用いて、所定の位置に信号平坦部を挿入し、全画素が値を持つプレーンに復元される。この時点で各フレーム、プレーンは図2(c)に示したような状態となっている。フレーム復元手段96は、フレーム構造情報を用いてどのフレームが先頭フレームであるか、また、各フレームはどのフレームと差分演算されたものであるかを認識し、元のフレームを復元していく。この結果、図2(b)に示すようなフレームが復元される。最後に、色信号復元手段97が色信号間情報を用いて、どの色信号が元のままであるか、どの色信号がどの色信号との差分情報となっているかを認識して、色信号を復元する。これにより、アナログ信号をデジタル化した状態のデジタル映像信号がデータの欠落無く復元される。
【0034】
【発明の効果】
以上、説明したように本発明によれば、時系列の各フレームを形成する画素の輝度または色情報に対応した画素データで構成される映像信号に対して、前記全ての画素データを再現できるように情報量を圧縮する符号化装置を、画素データを構成する各ビットデータを所定のビット位置で分断し、画素データの上位ビットで構成される上位ビットデータと、画素データの下位ビットで構成される下位ビットデータとに分離するためのデータ分離手段と、上位ビットデータに対しては空間的に隣接した画素の画素データからの予測誤差を基に符号化を行うようにした上位ビット符号化手段と、下位ビットデータに対しては情報が失われない条件で必要最小限のビット幅で符号化を行うようにした下位ビット符号化手段とを有する構成としたので、映像信号をデジタル化する際に生じる予測困難な量子化誤差成分を下位ビットとして分離した状態で、主成分である上位ビットデータに対して予測誤差を用いた符号化を行うことができるため圧縮効率の高い符号化が可能となるという効果を奏する。
【図面の簡単な説明】
【図1】本発明に係る映像信号の符号化装置の一実施形態を示す機能ブロック図である。
【図2】色信号間演算手段10およびフレーム差分演算手段20による処理の様子を示す図である。
【図3】信号平坦部符号化手段30による処理の様子を示す図である。
【図4】データ分離手段40による処理の様子を示す図である。
【図5】上位ビット符号化手段50による予測誤差算出処理の様子を示す図である。
【図6】予測誤差算出処理を行う際の各画素の位置関係を示す図である。
【図7】可変ビット長符号化手段53によるデータ変換の様子を示す図である。
【図8】本発明に係る映像信号の符号化装置により得られる符号データを示す図である。
【図9】本発明に係る映像信号の復号化装置の一実施形態を示す機能ブロック図である。
【符号の説明】
10・・・色信号間演算手段
20・・・フレーム差分演算手段
30・・・信号平坦部符号化手段
40・・・データ分離手段
50・・・上位ビット符号化手段
51・・・線形予測手段
52・・・予測誤差算出手段
53・・・可変ビット長符号化手段
54・・・ルックアップテーブル作成手段
55・・・ビットデータ変換手段
56・・・ビットデータ符号化手段
60・・・下位ビット符号化手段
91・・・データ読込手段
92・・・上位ビット変換手段
93・・・下位ビット変換手段
94・・・データ統合手段
95・・・信号平坦部挿入手段
96・・・フレーム復元手段
97・・・色信号復元手段[0001]
[Industrial applications]
The present invention relates to a video production field such as video production, storage of video data materials, and relaying of location materials, in particular, a field for producing high-definition video of a quality higher than NTSC, and a video recording / reproducing apparatus using a digital recording medium such as a DVD. The present invention relates to a reversible data compression technique suitable for use in the field, transmission of medical moving images in telemedicine, and the like where data modification is not desired.
[0002]
[Prior art]
Conventionally, various techniques have been used for compressing video signals. MPEG-1, MPEG-2, MPEG-4 and the like have been put to practical use as a technique for compressing and encoding a video signal. With such a compression encoding method, a video signal can be treated as small data, which contributes to the efficiency of data recording and transmission.
[0003]
[Patent Document 1]
JP-A-8-322050
[0004]
[Problems to be solved by the invention]
The above-described MPEG-1, MPEG-2, MPEG-4, etc. are all referred to as lossy encoding methods, and can be efficiently compressed. However, decoding involves a considerable deterioration in quality. However, the original signal cannot be completely reproduced. For this reason, in the field of video production such as video production, material storage, and location material relay, these encoding methods cannot be applied, and although inefficient, non-compressed storage and transmission methods are adopted. In particular, recently, the number of productions for handling high-definition HDTV video has increased, and the material capacity has become enormous, which has become a problem in managing work disks.
[0005]
Even for video signals, reversible (lossless) compression technology based on the run-length method is used for computer graphics, animation images, and artificial moving images. Can not. The reason is that a real shot image input by a camera or the like contains an unpredictable quantization noise component and basically has no data run.
[0006]
In view of the above points, the present invention can perform sufficient compression on a video signal input by a camera or the like, and can completely decode the original video signal during decoding. It is an object to provide an encoding device, a decoding device, and a recording medium for a video signal of a reversible compression system.
[0007]
[Means for Solving the Problems]
In order to solve the above problem, the present invention provides a method for reproducing all the pixel data for a video signal composed of pixel data corresponding to luminance or color information of pixels forming each frame of a time series. An encoding device that compresses the information amount is configured by dividing each bit data configuring the pixel data at a predetermined bit position, and configured by upper bit data configured by upper bits of pixel data and lower bits of pixel data. Data separating means for separating the lower-order bit data into upper-order bit data, and upper-order bit encoding for performing coding on the upper-order bit data based on a prediction error from pixel data of a spatially adjacent pixel. Means, and low-order bit encoding means for encoding the low-order bit data with a minimum necessary bit width on condition that information is not lost. And said that the content was.
[0008]
According to the present invention, bit data constituting each pixel data of each frame of a video signal is separated into upper bit data and lower bit data, and upper bit data is separated from pixel data of spatially adjacent pixels. Since the encoding is performed based on the prediction error and the encoding is performed separately from the lower bit data, the thermal noise component of the circuit used when digitizing the video signal is separated as the lower bit. Since encoding using the prediction error can be performed on the higher-order bit data as a component, encoding with high compression efficiency can be performed.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Device configuration)
FIG. 1 is a configuration diagram showing an embodiment of a video signal encoding device according to the present invention. In FIG. 1,
[0010]
In FIG. 1, the inter-color-signal calculating means 10 is configured such that when each pixel in one image frame has a luminance value corresponding to a plurality of colors, that is, when one image frame includes a plurality of luminance value planes, It has a function of giving a difference from the reference value to the luminance value of the other two colors using one color as a reference value. The frame difference calculation means 20 has a function of calculating a difference between each pixel data between consecutive frames. The signal flat part encoding means 30 has a function of detecting a flat part in which the value of pixel data is constant for each frame subjected to the difference operation processing, and efficiently encoding the same. The data separating means 40 has a function of separating each pixel data constituting the frame on which the signal flat portion has been processed into upper bit data and lower bit data at a predetermined position. The upper
[0011]
(Processing operation)
Next, the processing operation of the video signal encoding device shown in FIG. 1 will be described. First, an image is captured and digitized by a TV camera or the like. Thereby, a digital video signal is obtained. Such a digital video signal has a plurality of frames (still images) per second, and each frame has luminance values of three colors of R, G, and B. In the present embodiment, description will be made assuming that 30 frames are allocated per second and 8 bits are allocated to each color of each pixel.
[0012]
The digital video signal digitized in this way is subjected to a difference operation between color signals by the inter-color-signal operation means 10. Here, the state of the difference calculation between the color signals will be described with reference to FIG. FIG. 2A schematically shows a digital video signal. As shown in the figure, one frame of the video signal is composed of three planes of RGB. The inter-color-signal calculating means 10 performs a difference calculation between planes for each frame of the video signal as shown in FIG. Specifically, a difference operation is performed on the pixel data at the same coordinates of the R plane and the G plane with reference to the G plane, and the value is set as a new value for each pixel of the R plane, and the same coordinates of the B plane and the G plane are calculated. Is performed, and the value is used as a new value for each pixel on the B plane. Here, the G plane is used as a reference because the luminance signal is mainly composed of G, and the spatial resolution of the RG and BG color difference signals is about 1/2 of that of the G signal. That is, when the two planes of R and B are used as the difference signal, the luminance difference between adjacent pixels is reduced, and the prediction error at the time of encoding described later is reduced. As a result, each frame is in a state as shown in FIG. When the input digital video signal is input in the form of a Y signal, which is a luminance signal, and Pb, Pr, which are color difference signals, such as Y, Pb, Pr, the processing by the inter-color signal calculating means 10 is performed. And the processing by the inter-frame difference calculating means 20 is performed directly.
[0013]
Next, the inter-frame difference calculation means 20 performs a difference calculation between adjacent frames on the digital video signal calculated between the color signals. More specifically, a difference operation is performed between pixels having the same coordinates in each plane between frames, and a process of setting the value as a new value for each pixel in a subsequent frame is performed. In this case, only the start frame that is temporally the first is not subjected to the difference calculation. As a result, the digital video signal shown in FIG. 2B is in a state as shown in FIG. That is, frame F 1 Is not changed by the processing of the inter-frame difference calculating means 20, but each plane of the frame F2 has the frame F 1 And frame F 2 Of the frame F n Each plane has a frame F n-1 And frame F n Are given. However, when the scene changes in the video, the illumination, natural light, and the like also change, and the luminance value also changes greatly. In such a case, even if the difference calculation is performed, the value after the difference becomes rather large, and does not contribute to the compression of the data amount. Therefore, in the present embodiment, when the value of each pixel in the updated frame increases to a predetermined level or more compared to the value of each pixel in the frame before update, a process of returning the frame to the frame before update is performed. I have. As a result, a plurality of start frames exist in the video signal.
[0014]
Subsequently, the signal flat part encoding means 30 performs a signal flat part process on each plane of each frame. The signal flat portion refers to a portion where the signal level has a uniform value. However, except for computer graphics images and the like, the signal level has a uniform minimum value of “0” or a maximum signal level value (for example, 255). ) Is usually a candidate. In actual shooting images, such locations are generally rare, but the illumination is totally dark and the input of the A / D converter is below the zero calibration level. This may occur when the image is backlit and the A / D converter is saturated. Regardless of whether the signal level is “0” or the signal level is the maximum value, the same signal level is continuously recorded in a predetermined area (a predetermined number of pixels) in the signal flat portion. For this reason, this part is data that can be easily compressed. More specifically, pixel coordinates (x, y) and pixel data values (luminance value, RG plane, BG plane in the case of a G plane) of an upper left point and a lower right point of a rectangular area serving as a signal flat portion Is recorded as the flat portion information separately from each plane of each frame. The signal flat portion is deleted from each plane of each frame. This is schematically shown in FIG. In FIG. 3A, a shaded portion indicates a signal flat portion. By the processing of the signal flat part encoding means 30, the signal flat part is deleted from each plane of the frame. However, the deleted signal flat part is recorded in a format as shown in FIG. The signal flat portion information is recorded as the pixel coordinates (x, y) of the upper left point, the pixel coordinates (x, y) of the lower right point, and the value of pixel data for each signal flat portion. In this embodiment, since 8 bits are assigned to each pixel of each plane, a signal flat portion is easily formed when pixel data is 0 or 255. However, the signal flat part encoding means 30 does not unconditionally process the signal flat part. This is because the purpose of the present invention is to compress data, and it is meaningless if the flat portion information is larger than the amount reduced from each plane. Therefore, only when the flat portion has a size equal to or larger than a predetermined value, flat portion information is created and deleted from each plane.
[0015]
As described above, after the difference calculation processing between the respective planes (between the color signals), the difference calculation processing between the respective frames, and the encoding processing of the signal flat part are performed, next, the
[0016]
Here, the state of data separation by the data separation means 40 is schematically shown in FIG. In FIG. 4, H indicates upper bit data, and L indicates lower bit data. FIG. 4A shows pixel data before separation. The sample data is separated by the data separating means 40 into upper bit data shown in FIG. 4B and lower bit data shown in FIG. 4C. The pixel data separated in this way will be separately processed thereafter.
[0017]
(Encoding of upper bits)
The upper bit data is processed by the upper bit encoding means 50. In the upper
[0018]
[Formula 1]
E (x) = G (x) −2 × G (x−1) + G (x−2) −E (x−1) / 2
[0019]
In the above [Equation 1], “2 × G (x−1) −G (x−2)” is a linear prediction component based on the upper bit values of the two immediately preceding pixels, and is calculated by the
[0020]
This will be described based on the upper bit value of the pixel data shown in FIG. First, each prediction error Eo (x) is calculated without adding an error feedback component. As shown in FIG. 5B, when calculating the prediction error Eo (x) of the pixel x, the upper bit value G (x−1) of the immediately preceding pixel x−1 and the pixel G−2 of the immediately preceding pixel x−2 are calculated. The prediction error Eo (x) is based on the difference between the value taken by the prediction line connecting the upper bit values G (x−2) at the coordinate x and the upper bit value G (x) at the coordinate x (indicated by the thick dotted line in the figure). Is calculated. The prediction error Eo (x + 1) is calculated in the same manner for the pixel x + 1 and thereafter. The calculated prediction error Eo (x) is as shown in FIG. As can be seen from a comparison between FIG. 5A and FIG. 5C, the range in which the value fluctuates is greatly narrowed, and data compression becomes more convenient. Subsequently, based on [Equation 1], the prediction error Eo (x) is subtracted by 50% of the prediction error E (x-1) obtained by adding the correction in the immediately preceding pixel x-1, and the error feedback processing is performed. FIG. 5D shows the added result. Compared with FIG. 5C, the reduction of the prediction error in the pixels x + 1 and x + 2 is remarkable. Conversely, although the prediction error is increased in the pixels x + 3 and x + 4, the prediction error is reduced on average, and the range in which the value fluctuates is further narrowed as compared with FIG. 5A, and the data compression effect is improved.
[0021]
Although the prediction error is calculated as described above, in the example of FIG. 5, the prediction is performed according to the x-axis direction of the image, that is, the scanning line direction. In the present invention, in order to further increase the prediction accuracy, a process of selecting a direction most suitable for calculating a prediction error from among a plurality of directions is performed. Here, which of the three directions of the scanning line direction, the sub-scanning line direction, and the diagonal direction as shown in FIG. Specifically, when determining the direction for obtaining the prediction error of the pixel (x, y), first, the prediction error Eh by the two pixels immediately before the immediately preceding pixel (x-1, y) in the scanning line direction. (X-1, y), a prediction error Ev (x, y-1) by two pixels immediately before the immediately preceding pixel (x, y-1) in the sub-scanning line direction, and a immediately preceding pixel (x-y A prediction error Ed (x-1, y-1) by two pixels immediately before (1, y-1) is obtained. The prediction error Eh (x, y) in the scanning line direction, the prediction error Ev (x, y) in the sub-scanning line direction, and the prediction error Ed (x, y) in the diagonal direction are expressed by the following [Equation 2] to [Equation 2], respectively. Equation 4].
[0022]
[Formula 2]
Eh (x, y) = G (x, y) −2 × G (x−1, y) + G (x−2, y) −E (x−1, y) / 2
[0023]
[Equation 3]
Ev (x, y) = G (x, y) −2 × G (x, y−1) + G (x, y−2) −E (x, y−1) / 2
[0024]
[Equation 4]
Ed (x, y) = G (x, y) -2 × G (x-1, y-1) + G (x-2, y-2) -E (x-1, y-1) / 2
[0025]
Then, the direction of the pixel that minimizes the prediction error is set as the prediction direction of the pixel (x, y). For example, when Ev (x, y-1) is the smallest among Eh (x-1, y), Ev (x, y-1), and Ed (x-1, y-1), sub-scanning is performed. A prediction error is determined for the line direction. That is, the prediction error of the pixel (x, y) is calculated as Ev (x, y) using the values of the pixel (x, y-1) and the pixel (x, y-2) according to the above [Equation 3]. Is calculated. Similarly, the same process is performed for all pixels in all frames and all planes, and the value of each pixel is replaced with a prediction error value.
[0026]
Some of the pixel data on the plane is collectively processed as a signal flat portion area by the signal flat portion coding means 30 and is not coded as each pixel. For such a pixel, the prediction error is not calculated, but is used for calculating the prediction error of a pixel that does not belong to the signal flat part. For example, in a plane as shown in FIG. 6B, it is assumed that the diagonal direction is determined to be optimal in obtaining the prediction error of the pixel A which does not belong to the signal flat portion. In this case, pixel data (upper bits) of pixel B and pixel C belonging to the signal flat portion and a prediction error are required. In such a case, the prediction error of the pixel A is calculated using the original data of the pixels B and C.
[0027]
Next, the variable bit
[0028]
Using the look-up table created as described above, 6-bit fixed-length continuous high-order bit data is converted into a variable-length bit pattern. Since the length is variable, it is necessary to distinguish the breaks of each data after conversion. Therefore, in the present embodiment, a one-bit separator bit “0” is inserted between each data. In the look-up table, the bit pattern including “01” is prohibited by separating the data with a “01” pattern consisting of a separator bit “0” and the most significant bit “1” of the bit data that follows. This is because if there is a “01” pattern in the bit data, it will be erroneously determined to be a break. In the look-up table, since the conversion is performed using the absolute value of the value taken by the upper fixed-length bit data, it is necessary to record positive and negative values. Therefore, inverted positive / negative data having a value that does not overlap with the bit data is inserted. For example, if the variable-length bits before the positive / negative inverted data are positive, the variable-length bits thereafter are recognized as negative. FIGS. 7A and 7B schematically show how data is converted by the variable bit length coding means 53. FIG. 7 (a) and 7 (b) correspond to the upper bit portion of the pixel data, and FIG. 7 (a) shows a state in which fixed-length upper bit data is continuously recorded. The upper bit data as shown in FIG. 7A is converted as shown in FIG. 7B using the look-up table shown in FIG. 7C.
[0029]
(Encoding of lower bits)
On the other hand, the lower bit data is processed by the lower bit encoding means 60. Specifically, the lower two bits of data separated by the data separating means 40 are continuously arranged.
[0030]
(Recording of code data)
The code data obtained as described above is as shown in FIG. That is, upper variable length bit data, lower fixed length bit data, look-up table, frame structure information, signal flat portion information, and color signal information. This data is recorded in a format suitable for the recording medium to be recorded.
[0031]
(Decryption)
Next, decoding of the encoded data encoded by the encoding device will be described. FIG. 9 is a functional block diagram showing a configuration of a video signal decoding device according to the present invention. 9,
[0032]
Subsequently, the processing operation of the decoding device shown in FIG. 9 will be described. First, the data reading means 91 reads a recording medium on which code data as shown in FIG. 8 is recorded. The data reading means 91 transfers the upper variable length bit data and the look-up table of the read data to the upper bit conversion means 92 and also transfers the lower fixed length bit data to the lower bit conversion means 93. The upper bit conversion means 92 restores the fixed-length upper fixed-length bit data, that is, the linear prediction error E (x, y), from the upper variable-length bit data by referring to the look-up table. The 6-bit fixed-length high-order bit data G (x, y) is sequentially restored based on an equation in which the left-hand term and the right-hand first term are exchanged. In addition, the lower-order bit conversion means 93 restores lower-order 2-bit fixed-length bit data from lower-order fixed-length bit data. Subsequently, the
[0033]
At this point, the pixel data of each plane has a format in which each pixel is represented by 8 bits. The signal flat portion insertion means 95 inserts a signal flat portion at a predetermined position using signal flat portion information as shown in FIG. 3B, and is restored to a plane in which all pixels have values. At this point, each frame and plane are in a state as shown in FIG. The frame restoring means 96 uses the frame structure information to recognize which frame is the first frame and which frame has been subjected to the difference operation with respect to each frame, and restores the original frame. As a result, a frame as shown in FIG. 2B is restored. Finally, the color signal restoring means 97 recognizes which color signal remains the original and which color signal is difference information from which color signal by using the color signal To restore. As a result, a digital video signal in which an analog signal is digitized is restored without data loss.
[0034]
【The invention's effect】
As described above, according to the present invention, all the pixel data can be reproduced with respect to a video signal composed of pixel data corresponding to luminance or color information of pixels forming each frame of a time series. An encoding device for compressing the amount of information is divided into upper bit data composed of upper bits of pixel data and lower bits of pixel data by dividing each bit data constituting pixel data at predetermined bit positions. Data separating means for separating the data into lower-order bit data, and upper-bit encoding means for performing coding on the upper-order bit data based on a prediction error from pixel data of a spatially adjacent pixel And low-order bit encoding means for encoding the low-order bit data with a minimum necessary bit width on condition that information is not lost. With the quantization error component, which is difficult to predict when digitizing the video signal, separated as the lower bits, high-order bit data, which is the main component, can be coded using the prediction error, resulting in compression efficiency. Is achieved.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing an embodiment of a video signal encoding device according to the present invention.
FIG. 2 is a diagram showing a state of processing by an inter-color-
FIG. 3 is a diagram illustrating a state of processing by a signal flat
FIG. 4 is a diagram showing a state of processing by a
FIG. 5 is a diagram illustrating a state of a prediction error calculation process performed by a higher-order
FIG. 6 is a diagram illustrating a positional relationship between pixels when performing a prediction error calculation process.
FIG. 7 is a diagram showing a state of data conversion by a variable bit length encoding means 53.
FIG. 8 is a diagram showing code data obtained by the video signal coding apparatus according to the present invention.
FIG. 9 is a functional block diagram showing an embodiment of a video signal decoding apparatus according to the present invention.
[Explanation of symbols]
10... Arithmetic means between color signals
20 ... Frame difference calculation means
30 ... Signal flat part coding means
40 ... Data separation means
50: Upper bit encoding means
51 ··· Linear prediction means
52... Prediction error calculation means
53 ... variable bit length coding means
54 ... Lookup table creation means
55 ··· Bit data conversion means
56... Bit data encoding means
60 ... Lower bit encoding means
91 Data reading means
92 ··· Upper bit conversion means
93 ... Lower bit conversion means
94 ・ ・ ・ Data integration means
95 ... Signal flat part insertion means
96 ・ ・ ・ Frame restoration means
97 ... Color signal restoration means
Claims (17)
前記画素データを構成する各ビットデータを所定のビット位置で分断し、画素データの上位ビットで構成される上位ビットデータと、画素データの下位ビットで構成される下位ビットデータとに分離するためのデータ分離手段と、
前記上位ビットデータに対しては空間的に隣接した画素の画素データからの予測誤差を基に符号化を行うようにした上位ビット符号化手段と、
前記下位ビットデータに対しては情報が失われない条件で必要最小限のビット幅で符号化を行うようにした下位ビット符号化手段と、
を有することを特徴とする映像信号の符号化装置。For a video signal composed of pixel data corresponding to luminance or color information of pixels forming each frame of a time series, an encoding device for compressing an information amount so as to reproduce all the pixel data, ,
Each bit data constituting the pixel data is divided at a predetermined bit position to separate upper bit data composed of upper bits of the pixel data and lower bit data composed of lower bits of the pixel data. Data separation means;
For the upper bit data, upper bit encoding means that performs encoding based on a prediction error from pixel data of a spatially adjacent pixel,
For the lower bit data, a lower bit encoding means that performs encoding with a minimum necessary bit width under a condition that information is not lost,
A video signal encoding device comprising:
前記上位ビット符号化手段は、近傍2画素に対応する上位ビットデータから線形予測を行って予測値を得るための線形予測手段と、
前記予測値と対象の上位ビットデータとの誤差値を算出するための予測誤差算出手段と、
前記誤差値のビットデータに対して各々異なるビット長で符号化する可変ビット長符号化手段と、
を有することを特徴とする映像信号の符号化装置。In claim 1,
The higher-order bit encoding unit performs linear prediction from upper-order bit data corresponding to two neighboring pixels to obtain a prediction value;
Prediction error calculating means for calculating an error value between the predicted value and the target upper bit data,
Variable bit length encoding means for encoding the bit data of the error value with different bit lengths,
A video signal encoding device comprising:
前記予測誤差算出手段は、直前の画素に対して得られた誤差値に所定の割合を乗じた値を減算させるような、誤差フィードバック機能を有することを特徴とする映像信号の符号化装置。In claim 2,
The video signal encoding apparatus according to claim 1, wherein said prediction error calculating means has an error feedback function of subtracting a value obtained by multiplying an error value obtained for a previous pixel by a predetermined ratio.
前記線形予測手段は、近傍2画素の選定を、予測誤差を算出する対象画素に対して走査線方向、副走査線方向、対角線方向の3方向に位置する近傍画素を候補として、前記予測誤差算出手段で算出される誤差値が最も小さくなる方向を選定することにより行うものであることを特徴とする映像信号の符号化装置。In claim 2,
The linear prediction means may select two neighboring pixels as candidates for neighboring pixels located in three directions of a scanning line direction, a sub-scanning line direction, and a diagonal direction with respect to a target pixel for which a prediction error is to be calculated. A video signal encoding apparatus which performs the calculation by selecting a direction in which an error value calculated by the means is the smallest.
前記誤差値が最も小さくなる方向の選定は、予測誤差を算出する対象画素に対して3方向に1画素分だけ直前に位置する画素の予測誤差の中で最小となる方向を選定するものであることを特徴とする映像信号の符号化装置。In claim 4,
The selection of the direction in which the error value becomes the smallest is to select the direction in which the prediction error of the pixel located immediately before by one pixel in three directions with respect to the target pixel for which the prediction error is calculated is the smallest. A video signal encoding device characterized by the above-mentioned.
前記可変ビット長符号化手段は、
対象ビットデータのヒストグラムに基づいて、変換されたビットデータの最上位ビットが1になるような最小ビット長で記述したルックアップテーブルを作成するルックアップテーブル作成手段と、
前記対象ビットデータに対して前記ルックアップテーブルを用いて変換を施すビットデータ変換手段と、
変換後のビットデータ間には所定のビット数の区分ビットデータを挿入するようにビットデータを符号化するビットデータ符号化手段と、
を有することを特徴とする映像信号の符号化装置。In claim 2,
The variable bit length encoding means,
Lookup table creation means for creating a lookup table described with a minimum bit length such that the most significant bit of the converted bit data is 1 based on the histogram of the target bit data;
Bit data conversion means for performing conversion using the lookup table for the target bit data,
Bit data encoding means for encoding bit data so as to insert a predetermined number of bits of bit data between the converted bit data;
A video signal encoding device comprising:
前記ルックアップテーブルは、対象ビットデータの出現頻度が高いほど少ないビット長になるように変換がなされるようにし、前記区分ビットデータが1ビット0である場合、01という2ビットのパターンを含まないようなビットデータに変換がなされていることを特徴とする映像信号の符号化装置。In claim 6,
The look-up table performs a conversion so that the higher the frequency of appearance of the target bit data, the smaller the bit length. If the division bit data is 1 bit 0, it does not include a 2-bit pattern of 01. A video signal encoding device characterized by being converted into such bit data.
前記対象ビットデータが正負の符号を持つ場合、前記ルックアップテーブルは対象ビットデータの絶対値の出現頻度が高い程少ないビット長になるように変換がなされるようにし、前記対象ビットデータの絶対値と重複しない値を正負反転データとして定義し、符号化されるビットデータの正負が反転するビットデータの直前に、前記正負反転データを挿入するようにして、ビットデータの絶対値を符号化するようにしていることを特徴とする映像信号の符号化装置。In claim 6 or claim 7,
When the target bit data has a positive or negative sign, the look-up table is converted such that the higher the frequency of appearance of the absolute value of the target bit data, the smaller the bit length, and the absolute value of the target bit data. Is defined as positive / negative inverted data, and the absolute value of the bit data is encoded by inserting the positive / negative inverted data immediately before the bit data of the encoded bit data whose polarity is inverted. A video signal encoding apparatus characterized in that:
前記フレームを形成する画素データの集合の中で、画素データの値が走査線方向または副走査線方向に連続して同一値になっている矩形領域を抽出し、抽出した矩形の対角2点の2次元画素座標値2対と、画素データの3つの値を符号化するようにした信号平坦部符号化手段を有し、
当該信号平坦部符号化手段により処理された矩形領域を除く画素データに対して、前記データ分離手段が処理を行うことを特徴とする映像信号の符号化装置。In claim 1,
In a set of pixel data forming the frame, a rectangular area in which the value of the pixel data is continuously the same in the scanning line direction or the sub-scanning line direction is extracted, and two diagonal points of the extracted rectangle are extracted. Two pairs of two-dimensional pixel coordinate values, and signal flat portion encoding means for encoding three values of pixel data,
A video signal encoding apparatus, wherein the data separation unit performs processing on pixel data excluding a rectangular area processed by the signal flat unit encoding unit.
前記画素データが、1フレームの同一座標値に3種類の色に対応する輝度値をもつ場合、1つの色の輝度値を基準値として、他の2つの色の輝度値に対して前記基準値との差分値を与えるように画素データを更新するようにした色信号間演算手段を有し、
当該色信号間演算手段により処理された画素データに対して、前記データ分離手段が処理を行うことを特徴とする映像信号の符号化装置。In claim 1,
When the pixel data has luminance values corresponding to three kinds of colors at the same coordinate value of one frame, the luminance value of one color is used as a reference value, and the luminance value of the other two colors is used as the reference value. Having a color signal calculation means for updating the pixel data so as to give a difference value with
A video signal encoding apparatus, wherein the data separation means performs processing on pixel data processed by the color signal calculation means.
前記画素データに対して、時間的に直前のフレームの同一座標値に位置する画素の対応する色の輝度値との差分値に置換するフレーム間の演算を施し、開始フレームに後続する全てのフレームの画素データを更新するフレーム差分演算手段を有し、
当該フレーム差分演算手段により処理された画素データに対して、前記データ分離手段が処理を行うことを特徴とする映像信号の符号化装置。In claim 1,
The pixel data is subjected to an operation between frames to be replaced with a difference value from a luminance value of a corresponding color of a pixel located at the same coordinate value of the immediately preceding frame, and all frames subsequent to the start frame are processed. Having frame difference calculating means for updating the pixel data of
A video signal encoding apparatus, wherein the data separation means performs processing on the pixel data processed by the frame difference calculation means.
前記フレーム差分演算手段が、更新されたフレームの各画素の値が更新前のフレームの各画素の値に比べ、所定のレベル以上に増大する場合、前記フレームを更新前のフレームに戻すようにし、1つの映像信号に対して複数の開始フレームを持たせるようにしていることを特徴とする映像信号の符号化装置。In claim 11,
The frame difference calculation means, when the value of each pixel of the updated frame is greater than or equal to a predetermined level compared to the value of each pixel of the frame before the update, returns the frame to the frame before the update, A video signal encoding device, wherein one video signal is provided with a plurality of start frames.
前記読込んだ符号データを基に上位固定長ビットデータを復元する上位ビット変換手段と、
前記読込んだ符号データを基に下位固定長ビットデータを復元する下位ビット変換手段と、
前記上位固定長ビットデータと、前記下位固定長ビットデータを統合して画素データを復元するデータ統合手段と、
前記読込んだ符号データに含まれる信号平坦部情報を用いて、前記画素データで構成される各フレームの各輝度または色情報に対応した画素データに信号平坦部を挿入する信号平坦部挿入手段と、
前記信号平坦部が挿入された各輝度または色信号情報を、前記読込んだ符号データに含まれるフレーム構造情報に従って、各フレーム単位の輝度または色信号情報に復元するフレーム復元手段と、
前記読込んだ符号データに含まれる色信号間情報を用いて、元の色信号情報を復元する色信号復元手段と、
を有することを特徴とする映像信号の復号化装置。Data reading means for reading code data recorded on a recording medium,
Upper bit conversion means for restoring upper fixed-length bit data based on the read code data,
Lower bit conversion means for restoring lower fixed length bit data based on the read code data,
The upper fixed-length bit data, data integration means for integrating the lower fixed-length bit data to restore pixel data,
Using signal flat portion information included in the read code data, signal flat portion inserting means for inserting a signal flat portion into pixel data corresponding to each luminance or color information of each frame composed of the pixel data; ,
Frame restoration means for restoring each luminance or chrominance signal information in which the signal flat part is inserted, according to the frame structure information included in the read code data, into luminance or chrominance signal information for each frame unit;
Using color signal information included in the read code data, color signal restoration means for restoring the original color signal information,
A video signal decoding device comprising:
前記読込んだ符号データを基に空間的に隣接した画素の画素データからの予測誤差を利用して上位固定長ビットデータを復元する上位ビット変換手段と、
前記読込んだ符号データを基に下位固定長ビットデータを復元する下位ビット変換手段と、
前記上位固定長ビットデータと、前記下位固定長ビットデータを統合して画素データを復元するデータ統合手段と、
を有することを特徴とする映像信号の復号化装置。Data reading means for reading code data recorded on a recording medium,
Upper bit conversion means for restoring upper fixed-length bit data using a prediction error from pixel data of spatially adjacent pixels based on the read code data,
Lower bit conversion means for restoring lower fixed length bit data based on the read code data,
The upper fixed-length bit data, data integration means for integrating the lower fixed-length bit data to restore pixel data,
A video signal decoding device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002265729A JP4139657B2 (en) | 2002-09-11 | 2002-09-11 | Video signal encoding apparatus and decoding apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002265729A JP4139657B2 (en) | 2002-09-11 | 2002-09-11 | Video signal encoding apparatus and decoding apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004104598A true JP2004104598A (en) | 2004-04-02 |
JP4139657B2 JP4139657B2 (en) | 2008-08-27 |
Family
ID=32264786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002265729A Expired - Fee Related JP4139657B2 (en) | 2002-09-11 | 2002-09-11 | Video signal encoding apparatus and decoding apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4139657B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006262161A (en) * | 2005-03-17 | 2006-09-28 | Ricoh Co Ltd | Image processor, image processing method, and storage medium with the method stored therein |
KR100717002B1 (en) | 2005-06-11 | 2007-05-10 | 삼성전자주식회사 | Apparatus for encoding and decoding image, and method thereof, and a recording medium storing program to implement the method |
CN112585971A (en) * | 2018-08-17 | 2021-03-30 | 佳能株式会社 | Method, apparatus and system for encoding and decoding a transform block of video samples |
-
2002
- 2002-09-11 JP JP2002265729A patent/JP4139657B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006262161A (en) * | 2005-03-17 | 2006-09-28 | Ricoh Co Ltd | Image processor, image processing method, and storage medium with the method stored therein |
JP4627670B2 (en) * | 2005-03-17 | 2011-02-09 | 株式会社リコー | Image forming apparatus, image forming method, and computer-readable storage medium storing program for executing the method |
KR100717002B1 (en) | 2005-06-11 | 2007-05-10 | 삼성전자주식회사 | Apparatus for encoding and decoding image, and method thereof, and a recording medium storing program to implement the method |
CN112585971A (en) * | 2018-08-17 | 2021-03-30 | 佳能株式会社 | Method, apparatus and system for encoding and decoding a transform block of video samples |
Also Published As
Publication number | Publication date |
---|---|
JP4139657B2 (en) | 2008-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101122861B1 (en) | Predictive lossless coding of images and video | |
JP4673758B2 (en) | Image data decoding method and computer-readable medium having recorded program therefor | |
US6912318B2 (en) | Method and system for compressing motion image information | |
US9525880B2 (en) | Lossless video data compressor with very high data rate | |
JP2009027698A (en) | Improved compaction in representation of non-frame edge block of image frame | |
US20110135009A1 (en) | Combined lossy and lossless video compression | |
JP2000244935A (en) | Method for compressing picture data | |
JP4833309B2 (en) | Video compression encoding device | |
JP4139657B2 (en) | Video signal encoding apparatus and decoding apparatus | |
KR20010110053A (en) | Method for compressing dynamic image information and system therefor | |
CA2436437A1 (en) | Moving picture information compressing method and its system | |
EP0921685B1 (en) | Image processing method, image processing apparatus, and data storage media | |
JP2006203744A (en) | Still image generating apparatus and still image generation method | |
JPWO2006011197A1 (en) | Encoded data re-encoding device, decoding device and program thereof | |
JP2004222142A (en) | Method for compressing and decoding video signal | |
JP2000165873A (en) | Compression method for moving picture information and its system | |
JP4594163B2 (en) | Image coding method and image coding apparatus | |
JP2000244744A (en) | Image data compression method and image data management method | |
EP1170956A2 (en) | Method and system for compressing motion image information | |
US7209591B2 (en) | Motion compensation method for video sequence encoding in low bit rate systems | |
JP2009038740A (en) | Image encoding device | |
JP3958033B2 (en) | Method and system for compressing moving picture information | |
JP2010010768A (en) | Image encoding apparatus and image encoding method | |
JP2005184525A (en) | Image processor | |
JP2001112002A (en) | Digital moving picture decoder capable of image size conversion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080304 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080529 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080609 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110613 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110613 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130613 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140613 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |