JP2010287917A - Image encoding/decoding device and method - Google Patents
Image encoding/decoding device and method Download PDFInfo
- Publication number
- JP2010287917A JP2010287917A JP2007249654A JP2007249654A JP2010287917A JP 2010287917 A JP2010287917 A JP 2010287917A JP 2007249654 A JP2007249654 A JP 2007249654A JP 2007249654 A JP2007249654 A JP 2007249654A JP 2010287917 A JP2010287917 A JP 2010287917A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- edge component
- unit
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/20—Contour coding, e.g. using detection of edges
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、画像の符号化及び復号化に関する。 The present invention relates to image encoding and decoding.
従来、動画像符号化方式としてMPEG−2やH.264/MPEG4 AVC(以下、単にH.264と称する)が知られている。これらの動画像符号化方式では、原画像を所定の大きさのブロックに分割し、このブロック単位で動き推定及び動き補償によるフレーム間予測を行って予測画像を生成する。更に、上記動画像符号化方式では、この予測画像と原画像との間の予測残差に離散コサイン変換(以下、単にDCTと称する)、量子化及びエントロピー符号化を行って、符号化データを生成する。 Conventionally, MPEG-2 or H.264 has been used as a moving image encoding method. H.264 / MPEG4 AVC (hereinafter simply referred to as H.264) is known. In these moving image encoding methods, an original image is divided into blocks of a predetermined size, and prediction images are generated by performing inter-frame prediction based on motion estimation and motion compensation in units of blocks. Further, in the above-described moving image coding method, discrete cosine transform (hereinafter simply referred to as DCT), quantization and entropy coding is performed on the prediction residual between the predicted image and the original image, and the encoded data is converted into the encoded data. Generate.
また、H.264における動き推定では、多数のブロックサイズ(16×16画素、16×8画素、8×16画素、8×8画素、8×4画素、4×8画素、4×4画素)から物体の形状や動きの複雑さに応じて適切なブロックサイズを選択するため、MPEG−2などに比べて予測効率が高い。しかしながら、このようなブロックサイズの選択を伴う動き推定は、剛体が画面内を平行移動する場合のフレーム間予測には適しているものの、例えばフレーム間で物体の変形が生じる場合には予測に失敗し、予測残差が発生する。特に、エッジ及びテクスチャなどの空間的な画素値変化の激しい箇所では予測残差が発生しやすく、この予測残差は復号画像においてモスキート雑音などの視認されやすい画質劣化を引き起こす。 H. In motion estimation in H.264, the shape of an object is determined from a large number of block sizes (16 × 16 pixels, 16 × 8 pixels, 8 × 16 pixels, 8 × 8 pixels, 8 × 4 pixels, 4 × 8 pixels, 4 × 4 pixels). Since an appropriate block size is selected according to the complexity of the motion, the prediction efficiency is higher than that of MPEG-2. However, such motion estimation with block size selection is suitable for inter-frame prediction when a rigid body moves in parallel on the screen, but fails when, for example, object deformation occurs between frames. Thus, a prediction residual is generated. In particular, a prediction residual is likely to occur in a portion where the spatial pixel value changes drastically, such as an edge and a texture, and this prediction residual causes image quality deterioration such as mosquito noise that is easily visible in a decoded image.
上記予測残差は、動き推定においてより小さなブロックサイズを選択することにより低減させることができるものの、小さなブロックサイズを選択すれば動きベクトルを含むヘッダ情報の符号量が増大する。更に、エッジやテクスチャなどの空間的な画素値変化の激しい箇所は、例えばDCTなどの直交変換後の変換係数が高周波成分に散在しやすく、この変換係数の量子化誤差によって復号画像においてエッジ鮮鋭度の劣化やテクスチャ情報の欠落が起こる。また、局所復号画像に含まれる予測残差が以降のフレーム間予測において参照される際に伝搬してしまう。 Although the prediction residual can be reduced by selecting a smaller block size in motion estimation, if a small block size is selected, the code amount of header information including a motion vector increases. Further, in places where the spatial pixel value changes drastically, such as edges and textures, transform coefficients after orthogonal transform such as DCT are likely to be scattered in high frequency components, and the edge sharpness in the decoded image due to quantization errors of the transform coefficients Deterioration or loss of texture information occurs. Further, the prediction residual included in the locally decoded image is propagated when it is referred to in the subsequent inter-frame prediction.
特許文献1では、原画像からエッジ成分を予め抽出して、エッジ成分が除去された画像をMPEG−2やH.264などの既存のブロックベース符号化により符号化するとともに、エッジ成分のみの画像を別途正確に(予測残差が発生しないように)符号化する。このように、視覚上重要なエッジ成分を単独で正確に符号化することにより、従来の動画像符号化方式に比べてエッジ周辺における符号化歪を低減させることができるので、復号画像におけるモスキート雑音の発生を抑えられる。従って、特に高圧縮な再生画像における主観的な画質改善が期待できる。
In
特許文献2では、動き補償を行う際に、物体の平行移動、回転及び伸縮などを考慮した射影変換を行っており、この射影変換パラメータを決定するために、原画像から抽出した上記物体の輪郭情報が補助情報として用いられる。従って、フレーム間で物体の変形が生じる場合でも、上記輪郭情報に基づいて参照画像に幾何学的な変形を加えた予測画像を生成できるので、予測残差を低減できる。また、原画像から抽出した輪郭情報を符号化するのでなく、上記輪郭情報と既に符号化済みの参照画像から抽出した輪郭情報との残差を符号化するため、符号量を抑えられる。
特許文献1では、エッジ成分のみの画像を単独で正確に符号化するため、画像全体をまとめて符号化する場合に比べて発生符号量が増大する。また、エッジ成分のみの画像の符号化はエッジ成分を除いた画像に対する符号化とは別に行われるため、両方の符号化データの符号量及び画質のバランスを考慮した制御が困難である。例えば、エッジ成分のみの画像による発生符号量が増大した場合、全体の符号量を保つためにはエッジ成分以外の画像の画質が劣化し、全体の画質を保つためにはエッジ成分以外の画像による発生符号量が増大する。
In
また、特許文献2では、射影変換パラメータを決定するための補助情報として輪郭情報を用いているが、輪郭情報にはエッジの形状情報は反映されるものの、被写体の動きによる輪郭のぼけや量子化誤差によって生じるエッジ鮮鋭度の劣化は反映されない。従って、輪郭情報を用いて射影変換パラメータを決定したとしても、エッジ鮮鋭度の再現性は向上させられない。
Further, in
従って、本発明は、エッジ成分に代表される空間的な画素値変化に基づく特徴を含む符号化対象領域の再現性を高めた予測画像を生成し、予測残差を低減可能な動画像符号化/復号化装置を提供することを目的とする。 Therefore, the present invention generates a predicted image with improved reproducibility of a coding target region including a feature based on a spatial pixel value change typified by an edge component and can reduce a prediction residual. An object is to provide a decoding apparatus.
本発明の一態様に係る画像符号化装置は、原画像から第1エッジ成分画像を抽出する抽出部と;参照画像を、第2エッジ成分画像とエッジ除去画像とに分離する分離部と;前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成する補助情報生成部と;前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測する予測部と;前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成する予測画像生成部と;前記原画像と前記予測画像との間の予測残差を求める予測残差計算部と;前記予測残差及び前記補助情報を符号化する符号化部と;を具備する。 An image encoding device according to an aspect of the present invention includes an extraction unit that extracts a first edge component image from an original image; a separation unit that separates a reference image into a second edge component image and an edge-removed image; An auxiliary information generation unit for generating auxiliary information for predicting the first edge component image from the second edge component image; and prediction for predicting a third edge component image from the second edge component image using the auxiliary information A prediction image generation unit that generates a prediction image by synthesizing the edge-removed image and the third edge component image; a prediction residual calculation for obtaining a prediction residual between the original image and the prediction image A coding unit for coding the prediction residual and the auxiliary information.
本発明の他の態様に係る画像復号化装置は、入力された符号化データを復号化して、対象画像の予測残差および前記対象画像の第1エッジ成分画像を予測するための補助情報を求める復号化部と;既に復号化された参照画像を当該参照画像の第2エッジ成分画像と、当該参照画像から第2エッジ成分を除去したエッジ除去画像とに分離する分離部と;前記補助情報を用いて前記第2エッジ成分画像から前記第1エッジ成分画像を予測する予測部と;前記エッジ除去画像と前記第2エッジ成分画像とを合成して、予測画像を生成する合成部と;前記予測残差と前記予測画像とを用いて、前記対象画像の復号画像を生成する復号画像生成部と;を具備する。 An image decoding apparatus according to another aspect of the present invention decodes input encoded data to obtain a prediction residual of a target image and auxiliary information for predicting a first edge component image of the target image. A decoding unit; a separation unit that separates a reference image that has already been decoded into a second edge component image of the reference image and an edge-removed image obtained by removing the second edge component from the reference image; A prediction unit that uses the second edge component image to predict the first edge component image; and combines the edge-removed image and the second edge component image to generate a prediction image; and the prediction A decoded image generation unit that generates a decoded image of the target image using a residual and the predicted image.
本発明によれば、エッジ成分に代表される空間的な画素値変化に基づく特徴を含む符号化対象領域の再現性を高めた予測画像を生成し、予測残差を低減可能な動画像符号化/復号化装置を提供できる。 According to the present invention, a moving picture coding capable of generating a prediction image with improved reproducibility of a coding target region including a feature based on a spatial pixel value change represented by an edge component and reducing a prediction residual. / Decoding device can be provided.
以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1に示すように、本発明の第1の実施形態に係る画像符号化装置は符号化部100及び符号化制御部150を有し、符号化部100は減算器101、変換・量子化部102、逆変換・逆量子化部103、エントロピー符号化器104、加算器105、フレームメモリ106、動き推定・動き補償部107及び予測部110を含む。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
As shown in FIG. 1, the image coding apparatus according to the first embodiment of the present invention includes a
符号化部100は、符号化制御部150によって制御され、入力された動画像の原画像信号10に対して、ハイブリッド符号化と呼ばれる動画像符号化処理を行って符号化データ14を出力する。即ち、符号化部100は、既に符号化済みの参照画像信号から予測した予測画像信号と原画像信号10との間の予測残差信号を変換・量子化して、量子化された変換係数をエントロピー符号化して符号化データ14を出力する。以下、符号化部100において、原画像信号10は図示しないブロックスキャン変換器によって所定の大きさのブロックに分割され、当該ブロック単位で処理が行われるものとして説明するが、フレームまたはフィールド単位で処理が行われてもよい。
The
減算器101は、原画像信号10より、後述する予測部110からの第2予測画像信号19を減算して予測残差信号11を算出し、変換・量子化部102に渡す。
The
変換・量子化部102は減算器101からの予測残差信号11に例えばDCTなどの変換を行って、符号化制御部150によって設定される量子化パラメータに基づいて量子化し、量子化された変換係数12を逆変換・逆量子化部103及びエントロピー符号化器104に渡す。尚、変換・量子化部102が予測残差信号11に行う変換はDCTに限らず、例えばウェーブレット変換または独立成分分析でもよいし、その他の直交変換であってもよい。
The transform /
逆変換・逆量子化部103は、量子化された変換係数12を上記量子化パラメータに基づいて逆量子化し、例えばIDCTなどの逆変換を行って、復号予測残差信号13を加算器105に渡す。尚、逆変換・逆量子化部103が量子化された変換係数12に行う逆変換はIDCTに限らないが、変換・量子化部102で予測残差信号11に行われた変換の逆変換であるものとする。
The inverse transform /
エントロピー符号化器104は、変換・量子化部102からの量子化された変換係数12、後述する動き推定・動き補償部107からの動きベクトル18及び予測部110からの補助情報20に、例えばハフマン符号化または算術符号化などのエントロピー符号化を行い、符号化データ14として出力する。また、エントロピー符号化器104は、量子化パラメータや予測モード情報についても同様に符号化する。
The
加算器105は、逆変換・逆量子化部103からの復号予測残差信号13と、後述する予測部110からの第2予測画像信号19とを加算し、局所復号画像信号15としてフレームメモリ106に渡す。
The
フレームメモリ106は、加算器105からの局所復号画像信号15を参照画像信号16として一時的に保存する。この参照画像信号16は、後述する動き推定・動き補償部107によって参照される。尚、フレームメモリ106の前段にデブロッキングフィルタを設け、局所復号画像信号15からブロック歪を除去しておいてもよい。
The
動き推定・動き補償部107は、原画像信号10と、フレームメモリ106に保存されている参照画像信号16とを用いて、動き推定・動き補償処理を行って第1予測画像信号17を生成すると共に、動きベクトル18を生成する。第1予測画像信号17は予測部110に入力され、動きベクトル18はエントロピー符号化器104に入力される。
The motion estimation /
動き推定・動き補償部107が行う動き推定・動き補償処理は、例えば所定の大きさのブロック単位で行うものであり、原画像信号10の符号化対象ブロックと参照画像信号16との間でブロックマッチングを行う。上記ブロックマッチングの結果、符号化コストが最小となる参照画像信号16のブロックが第1予測画像信号17として出力され、当該第予測画像信号17の参照画像信号16における位置を示す動きベクトル18が生成される。尚、上記符号化コストは、例えば原画像信号10と第1予測画像信号17との差分の絶対値和(SAD)を用いる。
The motion estimation / compensation processing performed by the motion estimation /
また、参照画像信号16は既に符号化済みであるから、時間的に未来のフレームまたは複数のフレームに基づいて予測を行ってもよく、次に示す数式に基づいて符号化コストを求めてもよい。
ここで、Kは符号化コスト、SADは差分の絶対値和、λは量子化幅や量子化パラメータの値に基づいて決められる定数、OHは動きベクトル及び参照するフレームを示すインデックスなどのヘッダ情報を夫々示す。また、符号化コストKとしてヘッダ情報OHのみを用いてもよいし差分をアダマール変換または近似してもよい。その他、原画像信号10のアクティビティを用いてコスト関数を作成してもよい。
Here, K is the coding cost, SAD is the sum of absolute values of differences, λ is a constant determined based on the quantization width and the value of the quantization parameter, OH is header information such as a motion vector and an index indicating the frame to be referred to Respectively. Further, only the header information OH may be used as the encoding cost K, or the difference may be Hadamard transformed or approximated. In addition, a cost function may be created using the activity of the
予測部110は、動き推定・動き補償部107からの第1予測画像信号17を取得し、例えばエッジなどの画像内の空間的な画素値変化に基づく特徴成分の再現性を高めた第2予測画像信号19を生成し、当該第2予測画像信号19を減算器101及び加算器105に渡す。また、予測部110は第1予測画像信号17から第2予測画像信号19を予測するための補助情報20をエントロピー符号化器104に渡す。尚、以下の説明では特徴成分の一例としてエッジについて説明するが、本実施形態に係る符号化器が適用可能な特徴成分はエッジに限らず、例えばテクスチャ、コントラスト及びノイズであってもよい。
The
図2に示すように、予測部110は、特徴抽出部121、補助情報生成部122、特徴分離部130、特徴予測部141及び信号合成部142を含む。
As illustrated in FIG. 2, the
特徴分離部130は、動き推定・動き補償部107からの第1予測画像信号17から特徴成分を抽出して第1特徴信号21を生成すると共に、第1予測画像信号17から第1特徴信号21を除去した特徴除去信号22を生成する。即ち、特徴分離部130は、第1予測画像信号17を第1特徴信号21と特徴除去信号22とに分離する。第1特徴信号21は補助情報生成部122及び特徴予測部141に入力され、特徴除去信号22は信号合成部142に入力される。図2に示すように、特徴分離部130の一例は、特徴抽出部131及び減算器132を含む。
The
特徴抽出部131は、動き推定・動き補償部107からの第1予測画像信号17に対して例えばエッジ抽出処理やフィルタリング処理を行ってエッジ成分を抽出し、第1特徴信号21を生成して、減算器132、特徴予測部141及び信号合成部142に渡す。特徴抽出部131は、画像処理において一般的な微分オペレータによるエッジ検出手法を用いてよく、例えば1次微分であるSobelオペレータまたは2次微分であるラプラシアンオペレータなどを用いてもよい。
The
減算器132は、動き推定・動き補償部107からの第1予測画像信号17より、特徴抽出部131からの第1特徴信号21を減算し、特徴除去信号22を信号合成部142に渡す。
The
尚、特徴分離部130は図2に示す構成に限らず、例えば図3Aまたは図3Bに示す構成であってもよい。
図3Aに示すように、特徴分離部130の一変形例は平滑化フィルタ133及び減算器134を含む。
Note that the
As illustrated in FIG. 3A, one modification of the
平滑化フィルタ133は、例えば移動平均フィルタ、加重平均フィルタ、メディアンフィルタまたはガウシアンフィルタなどの画像処理で一般的に用いられる平滑化フィルタである。平滑化フィルタ133は、動き推定・動き補償部107からの第1予測画像信号17より高周波成分を除去する。一般に、画像を周波数変換するとエッジは主に高周波成分に含まれるので、第1予測画像信号17から高周波成分を除去することにより、特徴除去信号22が生成される。平滑化フィルタ133は、特徴除去信号22を減算器134及び信号合成部142に渡す。
The smoothing
減算器134は、動き推定・動き補償部107からの第1予測画像信号17より、平滑化フィルタ133からの特徴除去信号22を減算して第1特徴信号21を生成し、補助情報生成部122及び特徴予測部141に渡す。
The
図3Bに示すように、特徴分離部130の他の変形例は帯域分割部135を含む。帯域分割部135は、動き推定・動き補償部107からの第1予測画像信号17に、例えばウェーブレット変換、離散コサイン変換または独立成分分析などの周波数変換を用いた周波数帯域分割を行って、高周波成分と低周波成分に分割する。前述したように、画像を周波数変換するとエッジは主に高周波成分に含まれるので、帯域分割部135は第1予測画像信号17の高周波成分を第1特徴信号21、低周波成分を特徴除去信号22として夫々出力する。第1特徴信号21は補助情報生成部122及び特徴予測部141に入力され、特徴除去信号22は信号合成部142に入力される。
As illustrated in FIG. 3B, another modification of the
また、特徴分離部130において、エッジを関数によって表現したエッジモデルを用いて、当該エッジモデルと相関が高い部分をエッジ成分として抽出してもよい。その他、特徴分離部130における特徴成分の抽出は、復号化装置において同様に実施可能であれば多様な方法を用いることができる。
In addition, the
特徴抽出部121は、原画像信号10から特徴成分を抽出して第2特徴信号23を生成し、補助情報生成部122に渡す。特徴抽出部121は、前述した特徴分離部130と同様に、フィルタリング処理や周波数帯域分割処理など様々な手法によって特徴成分を抽出してよい。
The
補助情報生成部122は、特徴分離部130からの第1特徴信号21及び特徴抽出部121からの第2特徴信号23を取得し、上記第1特徴信号21から第2特徴信号23を予測するためのパラメータとして用いられる補助情報20を生成する。補助情報20は、特徴予測部141及びエントロピー符号化器104に入力される。尚、補助情報20の詳細な説明は後述する。
The auxiliary
特徴予測部141は、補助情報生成部122からの補助情報20を用いて、特徴分離部130からの第1特徴信号23より上記第2特徴信号21を予測して特徴予測信号24を生成し、信号合成部142に渡す。
The
信号合成部142は、特徴分離部130からの特徴除去信号22と、特徴予測部141からの特徴予測信号24とを合成して第2予測画像信号19を生成し、減算器101及び加算器105に渡す。
The
尚、原画像信号10または第1予測画像信号17から抽出して予測または合成する特徴信号は1つに限らず、複数の特徴信号を抽出して夫々予測し、全ての特徴信号を一括して合成してもよい。また、第1予測画像信号17から複数の第1特徴信号21を抽出した場合、抽出した全ての第1特徴信号21に関して補助情報20を生成する必要はない。即ち、一部の第1特徴信号21については補助情報20を生成せずに、抽出した第1特徴信号21を特徴予測信号24として特徴除去信号22に合成してもよい。
Note that the number of feature signals extracted from the
符号化制御部150は、発生符号量のフィードバック制御、量子化特性制御、動き推定精度の制御及び特徴予測精度の制御を含む符号化部100全体の制御を行う。
The encoding control unit 150 performs overall control of the
次に、図4及び図5A乃至Jを用いて予測部110の動作例について説明する。ここでは、図5Aに示す原画像信号10及びこれに対応する図5Cに示す第1予測画像信号17から図5Jに示す第2予測画像信号19を生成するまでの処理の流れについて説明する。
Next, an operation example of the
まず、特徴分離部130は、図5Cの第1予測画像信号17を動き推定・動き補償部107より取得する(ステップS201)。次に、特徴分離部130は、ステップS201において取得した図5Cの第1予測画像信号17から図5Dに示す第1特徴信号21を抽出する(ステップS202)。次に、特徴分離部130は、ステップS201において取得した図5Cの第1予測画像信号17より、ステップS202において取得した図5Dの第1特徴信号21を除去し、図5Eに示す特徴除去信号22を生成する(ステップS203)。ここで、ステップS202及びステップS203の行われる順序は上記に限らない。例えば、図3Aに示す特徴分離部130であればステップS202及びステップS203の行われる順序を入れ替えてもよいし、図3Bに示す特徴分離部130であればステップS202及びステップS203が同時に行われてもよい。
First, the
一方、特徴抽出部121は、図5Aの原画像信号10を取得する(ステップS204)。次に、特徴抽出部121は、図5Aの原画像信号10から図5Bに示す第2特徴信号23を抽出する(ステップS205)。ここで、ステップS201乃至ステップS203と、ステップS204及びステップS205とが行われる順序は上記に限らず、順序を入れ替えてもよいし、同時に行われてもよい。
On the other hand, the
次に、補助情報生成部122は、ステップS202において抽出した図5Dの第1特徴信号21及びステップS205において抽出した図5Eの第2特徴信号23から補助情報20を生成する(ステップS206)。以下、補助情報20について詳しく述べる。本実施形態では、エッジが形状、強度及び広がりの3つの情報で表現されるものとしており、補助情報20は、第1特徴信号21及び第2特徴信号23の間における上記3つの情報の少なくとも1つの差分を示す。
Next, the auxiliary
まず、形状に関する補助情報20の生成について説明する。補助情報生成部122は、形状に関する補助情報20を生成するために、第1特徴信号21及び第2特徴信号23に対して細線化処理を行ってエッジ中心線を検出する。尚、補助情報生成部122が、第1特徴信号21及び第2特徴信号23に対して行う細線化処理は、画像処理で一般に用いられる手法でよい。補助情報生成部122が図5Dの第1特徴信号21及び図5Bの第2特徴信号23に対して細線化処理を行うことにより、図5Fに示すエッジ中心線が得られる。図5Fにおいて、図5Dの第1特徴信号21から得られるエッジ中心線を実線、図5Bの第2特徴信号23から得られるエッジ中心線を破線で夫々示している。補助情報生成部122は、両エッジ中心線の形状誤差を形状に関する補助情報20として生成する。尚、形状誤差は例えばチェインコードやBスプライン曲線などの高次のパラメトリック曲線を用いて表すことができる。
First, generation of the
次に、強度及び広がりに関する補助情報20の生成について説明する。図5Gに示すように、補助情報生成部122は、強度及び広がりに関する補助情報20を生成するために、エッジに対して垂直方向に隣接する2点を始点及び終点とする複数の垂線を引いて当該垂線上でのエッジの強度分布を夫々求め、当該複数の強度分布を平均化して1つの強度分布を求める。補助情報生成部122が図5Dの第1特徴信号21及び図5Bの第2特徴信号23に対して上記強度分布を求めると、図5Hに示す強度分布が得られる。図5Hにおいて、横軸が上記垂線上での相対位置を示し、縦軸が当該垂線上の位置におけるエッジ強度を示し、図5Dの第1特徴信号21から得られる強度分布が実線、図5Bの第2特徴信号23から得られる強度分布が破線で夫々表されている。図5Hにおいて、各位置におけるエッジ強度は、当該位置における画素値と上記始点及び終点における画素値との差分の絶対値で表されている。
Next, generation of the
補助情報生成部122は、両強度分布の差分を強度及び広がりに関する補助情報20として生成する。補助情報生成部122は、強度分布を何らかの関数を用いて近似して扱う。例えば図5Hに示す強度分布であれば、横軸で表される垂線上の位置をx、当該位置におけるエッジ強度をf(x)とすると、次の式で表すことができる。
ここで、Eはエッジの強度、σはエッジの広がり(分散)、aはエッジの中心座標を夫々表す。補助情報生成部122は、第1特徴信号21から得られる強度分布及び第2特徴信号23から得られる強度分布の夫々について、数式(2)で表される分布との誤差が最も小さくなる強度E及び広がりσを求め、これらの差分値を強度及び広がりに関する補助情報20として生成する。尚、強度分布を近似するための関数は、数式(2)に限られず例えば上記始点及び終点の間を描くBスプライン曲線などのパラメトリック曲線で近似してもよいし、その他の関数で近似してもよい。また、固定の関数で近似するのではなく、複数の関数から近似に適した関数を選択するようにしてもよい。
Here, E represents edge strength, σ represents edge spread (dispersion), and a represents edge center coordinates. The auxiliary
また、補助情報生成部122は、第1特徴信号21及び第2特徴信号23を用いて動き推定・動き補償処理を行い、補助情報20として動きベクトルを生成してもよい。
Further, the auxiliary
次に、特徴予測部141は、ステップS206において生成した補助情報20及びステップS202において抽出した図5Dの第1特徴信号21を用いて図5Iに示す特徴予測信号24を生成する(ステップS207)。
Next, the
次に、信号合成部142は、ステップS203において生成した図5Eの特徴除去信号22及びステップS207において生成した図5Iの特徴予測信号24を合成して、図5Jに示す第2予測画像信号19を生成する(ステップS208)。
Next, the
以上説明したように、本実施形態に係る動画像符号化装置では、第1予測画像信号から抽出した第1特徴信号及び補助情報を用いて、原画像信号の第2特徴信号を予測して特徴予測信号を生成し、第1予測画像信号から第1特徴信号を除去した特徴除去信号に特徴予測信号を合成して第2予測画像信号を生成し、原画像信号との間の予測残差信号を補助情報と共に符号化している。従って、本実施形態に係る動画像符号化装置によれば、第1予測画像信号と原画像信号との間の予測残差を符号化する場合に比べて、特徴信号の再現性を高め、予測残差を低減させられる。 As described above, in the video encoding device according to the present embodiment, the second feature signal of the original image signal is predicted and featured using the first feature signal and auxiliary information extracted from the first predicted image signal. A prediction residual signal is generated by generating a prediction signal, generating a second prediction image signal by synthesizing the feature prediction signal with the feature removal signal obtained by removing the first feature signal from the first prediction image signal. Are encoded together with auxiliary information. Therefore, according to the video encoding device according to the present embodiment, the reproducibility of the feature signal is improved compared to the case where the prediction residual between the first predicted image signal and the original image signal is encoded, and the prediction is performed. Residual can be reduced.
また、本実施形態に係る動画像符号化装置では、第2特徴信号をそのまま符号化するのではなく、第1予測画像信号から抽出した第1特徴信号及び補助情報を用いて上記第2特徴信号を予測するようにしているため、符号量を削減することができる。また、特徴信号の再現性の高低は上記補助情報の内容で決まるが、補助情報による発生符号量は符号化制御部が設定する量子化パラメータなどによって制御することができるので、特徴信号の再現性と発生符号量のバランスを容易に制御できる。 Further, in the video encoding device according to the present embodiment, the second feature signal is not encoded as it is, but the second feature signal is used by using the first feature signal extracted from the first predicted image signal and the auxiliary information. Therefore, the amount of codes can be reduced. In addition, the level of reproducibility of the feature signal is determined by the content of the auxiliary information. However, since the amount of code generated by the auxiliary information can be controlled by a quantization parameter set by the encoding control unit, the reproducibility of the feature signal And the balance of the generated code amount can be easily controlled.
尚、本実施形態に係る動画像符号化装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。即ち、減算器101、変換・量子化部102、逆変換・逆量子化部103、エントロピー符号化器104、加算器105、動き推定・動き補償部107、予測部110及び符号化制御部150は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、本実施形態に係る動画像符号化装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、フレームメモリ106は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
Note that the moving picture encoding apparatus according to the present embodiment can also be realized by using, for example, a general-purpose computer apparatus as basic hardware. That is, the
また、本実施形態に係る動画像符号化装置は動画像の符号化に限らず、既に符号化済みの画像から予測画像信号を生成し、入力画像信号と予測画像信号との間の予測残差信号を符号化する符号化方式であれば、静止画像の符号化に対しても適用できる。 Further, the moving picture coding apparatus according to the present embodiment is not limited to coding a moving picture, but generates a predicted picture signal from an already coded picture, and a prediction residual between the input picture signal and the predicted picture signal. Any coding scheme that encodes a signal can be applied to still image coding.
なお、本実施形態を変形して、動き推定・動き補償部107と予測部110とを統合しても構わない。この変形例では、フレームメモリ106から参照画像をフレーム単位で予測部110に入力する。予測部110で特徴毎に分離する。分離した成分を用いて補助情報生成部122で動き推定・動き補償を行う。そして、補助情報20として動きベクトル18を送信する。
Note that the present embodiment may be modified to integrate the motion estimation /
(第2の実施形態)
図6に示すように、本発明の第2の実施形態に係る復号化装置は、復号化部300及び復号化制御部320を有し、復号化部300はエントロピー復号化器301、逆変換・逆量子化部302、加算器303、フレームメモリ304、動き補償部305及び予測部310を含む。
(Second Embodiment)
As shown in FIG. 6, the decoding apparatus according to the second embodiment of the present invention includes a
復号化部300は、復号化制御部320によって制御され、入力された符号化データ30をエントロピー復号化し、逆量子化・逆直交変換を行って予測残差信号を復号し、この復号予測残差信号に既に復号化済みの参照画像信号を用いて予測した予測画像信号を加算して復号画像信号35を生成する。
The
エントロピー復号化器301は、所定のデータ構造に従って符号化データ30を復号化し、量子化された変換係数31、補助情報32、動きベクトル33、量子化パラメータ及び予測モード情報などを復元する。エントロピー復号化器301は、量子化された変換係数31を逆変換・逆量子化部302に渡し、補助情報32を予測部310に渡し、動きベクトル33を動き補償部305に渡す。
The
逆変換・逆量子化部302は、エントロピー復号化器301からの量子化された変換係数31を復元された量子化パラメータに従って逆量子化し、例えばIDCTなどの逆変換を行って、復号予測残差信号34を加算器303に渡す。尚、逆変換・逆量子化部302が量子化された変換係数31に行う逆変換はIDCTに限らず、例えば逆ウェーブレット変換やその他の逆直交変換であってもよいが、符号化側で予測残差信号に対して行われた変換の逆変換であるものとする。
The inverse transform /
加算器303は、逆変換・逆量子化部302からの復号予測残差信号34と、後述する予測部310からの第2予測画像信号38とを加算し、復号画像信号35を生成する。生成された復号画像信号35は出力されると共に、フレームメモリ304に渡される。
The
フレームメモリ304は、加算器303からの復号画像信号35を参照画像信号36として一時的に保存する。この参照画像信号36は、後述する動き補償部305によって参照される。尚、フレームメモリ304の前段にデブロッキングフィルタを設け、復号画像信号35からブロック歪を除去してもよい。
The frame memory 304 temporarily stores the decoded
動き補償部305は、フレームメモリ304に保存されている参照画像信号36を取得し、エントロピー復号化器301からの動きベクトル33によって示される参照画像信号36の領域を第1予測画像信号37として予測部310に渡す。
The
予測部310は、動き補償部305のから第1予測画像信号37及びエントロピー符号化器301からの補助情報32を取得し、例えばエッジなどの画像内の空間的な画素値変化に基づく特徴成分の再現性を高めた第2予測画像信号38を生成し、当該第2予測画像信号38を加算器303に渡す。尚、以下の説明では特徴成分の一例としてエッジについて説明するが、本実施形態に係る符号化器が適用可能な特徴成分はエッジに限らず、例えばテクスチャ、コントラスト及びノイズであってもよい。図7に示すように、予測部310は、特徴分離部311、特徴予測部312及び信号合成部313を含む。
The
特徴分離部311は、特徴分離部130と同様、動き補償部305からの第1予測画像信号37から特徴成分を抽出して第1特徴信号39を生成すると共に、第1予測画像信号37から第1特徴信号39を除去した特徴除去信号40を生成する。第1特徴信号39は特徴予測部312に入力され、特徴除去信号40は信号合成部313に入力される。尚、特徴分離部311は、図2、図3Aまたは図3Bのいずれかに示す特徴分離部130と同じ構成であってもよいし、その他の構成であってもよい。
Similar to the
特徴予測部312は、エントロピー復号化器301からの補助情報32を用いて、特徴分離部311からの第1特徴信号39より特徴予測信号41を生成し、信号合成部313に渡す。
The
信号合成部313は、特徴分離部311からの特徴除去信号40と、特徴予測部312からの特徴予測信号41とを合成して第2予測画像信号38を生成し、加算器303に渡す。
The
復号化制御部320は、復号化タイミングの制御を含む復号化部300全体の制御を行う。
次に、図8を用いて予測部310の動作について説明する。
まず、特徴分離部311は、第1予測画像信号37を動き補償部305より取得する(ステップS401)。次に、特徴分離部311は、ステップS401において取得した第1予測画像信号37から第1特徴信号39を抽出する(ステップS402)。次に、特徴分離部311は、ステップS401において取得した第1予測画像信号37より、ステップS402において取得した第1特徴信号39を除去し、特徴除去信号40を生成する(ステップS403)。ここで、ステップS402及びステップS403の行われる順序は上記に限らない。例えば、図3Aに示す特徴分離部130と同様の特徴分離部311であればステップS402及びステップS403の行われる順序を入れ替えてもよいし、図3Bに示す特徴分離部130と同様の特徴分離部311であればステップS402及びステップS403が同時に行われてもよい。
The decoding control unit 320 controls the
Next, the operation of the
First, the
次に、特徴予測部312は、エントロピー復号化器301からの補助情報32を取得する(ステップS404)。次に、特徴予測部312はステップS404において取得した補助情報32及びステップS402において抽出した第1特徴信号39を用いて特徴予測信号41を生成する(ステップS405)。
Next, the
次に、信号合成部313は、ステップS403において生成した特徴除去信号40及びステップS405において生成した特徴予測信号41を合成して、第2予測画像信号38を生成する(ステップS406)。
Next, the
以上説明したように、本実施形態に係る動画像復号化装置では、第1予測画像信号から抽出した第1特徴信号及び符号化データから復元した補助情報を用いて、原画像信号の第2特徴信号を予測して特徴予測信号を生成し、第1予測画像信号から第1特徴信号を除去した特徴除去信号に特徴予測信号を合成して第2予測画像信号を生成し、符号化データから復元した予測残差信号と第2予測画像信号とを加算して復号画像信号を生成している。従って、本実施形態に係る動画像復号化装置によれば、第1予測画像信号と予測残差信号とを加算して復号画像信号を生成する場合に比べて、特徴信号の再現性を高め、予測残差を低減させられる。 As described above, in the video decoding device according to the present embodiment, the second feature of the original image signal is used by using the first feature signal extracted from the first predicted image signal and the auxiliary information restored from the encoded data. A feature prediction signal is generated by predicting a signal, and a feature prediction signal is synthesized with a feature removal signal obtained by removing the first feature signal from the first prediction image signal to generate a second prediction image signal, and restored from the encoded data The decoded residual signal and the second predicted image signal are added to generate a decoded image signal. Therefore, according to the video decoding device according to the present embodiment, compared with the case where the first predicted image signal and the prediction residual signal are added to generate a decoded image signal, the reproducibility of the feature signal is improved, The prediction residual can be reduced.
尚、本実施形態に係る動画像復号化装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。即ち、エントロピー復号化器301、逆変換・逆量子化部302、加算器303、動き補償部305、予測部310及び復号化制御部320は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、本実施形態に係る動画像復号化装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、フレームメモリ304は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
Note that the moving picture decoding apparatus according to the present embodiment can also be realized by using, for example, a general-purpose computer apparatus as basic hardware. That is, the
尚、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. Further, for example, a configuration in which some components are deleted from all the components shown in each embodiment is also conceivable. Furthermore, you may combine suitably the component described in different embodiment.
その他、本発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。 In addition, it goes without saying that the present invention can be similarly implemented even if various modifications are made without departing from the gist of the present invention.
10・・・原画像信号
11・・・予測残差信号
12・・・量子化された変換係数
13・・・復号予測残差信号
14・・・符号化データ
15・・・局所復号画像信号
16・・・参照画像信号
17・・・第1予測画像信号
18・・・動きベクトル
19・・・第2予測画像信号
20・・・補助情報
21・・・第1特徴信号
22・・・特徴除去信号
23・・・第2特徴信号
24・・・特徴予測信号
30・・・符号化データ
31・・・量子化された変換係数
32・・・補助情報
33・・・動きベクトル
34・・・復号予測残差信号
35・・・復号画像信号
36・・・参照画像信号
37・・・第1予測画像信号
38・・・第2予測画像信号
39・・・第1特徴信号
40・・・特徴除去信号
41・・・特徴予測信号
100・・・符号化部
101・・・減算器
102・・・変換・量子化部
103・・・逆変換・逆量子化部
104・・・エントロピー符号化器
105・・・加算器
106・・・フレームメモリ
107・・・動き推定・動き補償部
110・・・予測部
121・・・特徴抽出部
122・・・補助情報生成部
130・・・特徴分離部
131・・・特徴抽出部
132・・・減算器
133・・・平滑化フィルタ
134・・・減算器
135・・・帯域分割部
141・・・特徴予測部
142・・・信号合成部
150・・・符号化制御部
300・・・復号化部
301・・・エントロピー復号化器
302・・・逆変換・逆量子化部
303・・・加算器
304・・・フレームメモリ
305・・・動き補償部
310・・・予測部
311・・・特徴分離部
312・・・特徴予測部
313・・・信号合成部
320・・・復号化制御部
DESCRIPTION OF
Claims (11)
参照画像を、第2エッジ成分画像とエッジ除去画像とに分離する分離部と、
前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成する補助情報生成部と、
前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測する予測部と、
前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成する予測画像生成部と、
前記原画像と前記予測画像との間の予測残差を求める予測残差計算部と、
前記予測残差及び前記補助情報を符号化する符号化部と、
を具備することを特徴とする画像符号化装置。 An extraction unit for extracting the first edge component image from the original image;
A separation unit that separates the reference image into a second edge component image and an edge-removed image;
An auxiliary information generating unit that generates auxiliary information for predicting the first edge component image from the second edge component image;
A prediction unit that predicts a third edge component image from the second edge component image using the auxiliary information;
A predicted image generation unit that generates a predicted image by combining the edge-removed image and the third edge component image;
A prediction residual calculation unit for obtaining a prediction residual between the original image and the prediction image;
An encoding unit for encoding the prediction residual and the auxiliary information;
An image encoding apparatus comprising:
前記参照画像から前記第2エッジ成分画像を抽出する第2の抽出部と、
前記参照画像から前記第2エッジ成分画像を減算して、前記エッジ除去画像を生成する減算器と
を含むことを特徴とする請求項1記載の画像符号化装置。 The separator is
A second extraction unit for extracting the second edge component image from the reference image;
The image coding apparatus according to claim 1, further comprising: a subtractor that subtracts the second edge component image from the reference image to generate the edge removed image.
前記参照画像から前記エッジ除去画像を抽出する平滑化フィルタと、
前記参照画像から前記エッジ除去画像を減算して、前記第2エッジ成分を生成する減算器と
を含むことを特徴とする請求項1記載の画像符号化装置。 The separator is
A smoothing filter for extracting the edge-removed image from the reference image;
The image coding apparatus according to claim 1, further comprising: a subtracter that subtracts the edge-removed image from the reference image to generate the second edge component.
既に復号化された参照画像を当該参照画像の第2エッジ成分画像と、当該参照画像から第2エッジ成分を除去したエッジ除去画像とに分離する分離部と、
前記補助情報を用いて前記第2エッジ成分画像から前記第1エッジ成分画像を予測する予測部と、
前記エッジ除去画像と前記第2エッジ成分画像とを合成して、予測画像を生成する合成部と、
前記予測残差と前記予測画像とを用いて、前記対象画像の復号画像を生成する復号画像生成部と、
を具備することを特徴とする画像復号化装置。 A decoding unit that decodes input encoded data to obtain a prediction residual of a target image and auxiliary information for predicting a first edge component image of the target image;
A separation unit that separates a reference image that has already been decoded into a second edge component image of the reference image and an edge-removed image obtained by removing the second edge component from the reference image;
A prediction unit that predicts the first edge component image from the second edge component image using the auxiliary information;
A combining unit that combines the edge-removed image and the second edge component image to generate a predicted image;
A decoded image generating unit that generates a decoded image of the target image using the prediction residual and the predicted image;
An image decoding apparatus comprising:
参照画像を、第2エッジ成分画像とエッジ除去画像とに分離し、
前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成し、
前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測し、
前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成し、
前記原画像と前記予測画像との間の予測残差を求め、
前記予測残差及び前記補助情報を符号化する
ことを特徴とする画像符号化方法。 Extract the first edge component image from the original image,
Separating the reference image into a second edge component image and an edge-removed image;
Generating auxiliary information for predicting the first edge component image from the second edge component image;
Predicting a third edge component image from the second edge component image using the auxiliary information;
Combining the edge-removed image and the third edge component image to generate a predicted image;
Obtaining a prediction residual between the original image and the predicted image;
The image encoding method, wherein the prediction residual and the auxiliary information are encoded.
既に復号化された参照画像を当該参照画像の第2エッジ成分画像と、当該参照画像から第2エッジ成分を除去したエッジ除去画像とに分離し、
前記補助情報を用いて前記第2エッジ成分画像から前記第1エッジ成分画像を予測し、
前記エッジ除去画像と前記第2エッジ成分画像とを合成して、予測画像を生成し、
前記予測残差と前記予測画像とを用いて、前記対象画像の復号画像を生成する復号画像生成する
ことを特徴とする画像復号化方法。 Decoding the input encoded data, obtaining the prediction residual of the target image and auxiliary information for predicting the first edge component image of the target image;
Separating the already decoded reference image into a second edge component image of the reference image and an edge-removed image obtained by removing the second edge component from the reference image;
Predicting the first edge component image from the second edge component image using the auxiliary information;
Combining the edge-removed image and the second edge component image to generate a predicted image;
A decoded image that generates a decoded image of the target image using the prediction residual and the predicted image is generated.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007249654A JP2010287917A (en) | 2007-09-26 | 2007-09-26 | Image encoding/decoding device and method |
PCT/JP2008/066000 WO2009041243A1 (en) | 2007-09-26 | 2008-09-04 | Image encoding/decoding device and method |
TW97135352A TW200922338A (en) | 2007-09-26 | 2008-09-15 | Image encoding/decoding device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007249654A JP2010287917A (en) | 2007-09-26 | 2007-09-26 | Image encoding/decoding device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010287917A true JP2010287917A (en) | 2010-12-24 |
Family
ID=40511132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007249654A Pending JP2010287917A (en) | 2007-09-26 | 2007-09-26 | Image encoding/decoding device and method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2010287917A (en) |
TW (1) | TW200922338A (en) |
WO (1) | WO2009041243A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015506010A (en) * | 2011-11-23 | 2015-02-26 | ロッサト、ルカ | Signal analysis and generation of transient information |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101452859B1 (en) | 2009-08-13 | 2014-10-23 | 삼성전자주식회사 | Method and apparatus for encoding and decoding motion vector |
CN103780904B (en) * | 2014-01-23 | 2016-11-09 | 西安电子科技大学 | High spectrum image self-adaptive non-loss predictive coding system and method based on edge |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04277982A (en) * | 1991-03-06 | 1992-10-02 | Matsushita Electric Ind Co Ltd | High efficient coder for video signal |
JP3169147B2 (en) * | 1992-09-02 | 2001-05-21 | 日本電信電話株式会社 | High-efficiency coding device for video data |
KR100927967B1 (en) * | 2001-10-26 | 2009-11-24 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Spatial scalable compression scheme using spatial sharpness enhancement techniques |
-
2007
- 2007-09-26 JP JP2007249654A patent/JP2010287917A/en active Pending
-
2008
- 2008-09-04 WO PCT/JP2008/066000 patent/WO2009041243A1/en active Application Filing
- 2008-09-15 TW TW97135352A patent/TW200922338A/en unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015506010A (en) * | 2011-11-23 | 2015-02-26 | ロッサト、ルカ | Signal analysis and generation of transient information |
US10321161B2 (en) | 2011-11-23 | 2019-06-11 | V-Nova International Limited | Signal analysis and generation of transient information |
Also Published As
Publication number | Publication date |
---|---|
TW200922338A (en) | 2009-05-16 |
WO2009041243A1 (en) | 2009-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5194833B2 (en) | Encoding apparatus and method, recording medium, and program | |
KR101311402B1 (en) | An video encoding/decoding method and apparatus | |
KR101200865B1 (en) | An video encoding/decoding method and apparatus | |
WO2010001916A1 (en) | Image processing device and method | |
EP2063644A2 (en) | Image encoding device and encoding method, and image decoding device and decoding method | |
JP4533081B2 (en) | Image encoding apparatus and method | |
US9167271B2 (en) | Image processing device, method, and program, dynamic image encoding device, method, and program, dynamic image decoding device, method, and program, and encoding/decoding system and method | |
RU2559839C1 (en) | Method and device for predictive motion compensation | |
JP2009060153A (en) | Intra prediction mode decision device, method, and program | |
JP2006157481A (en) | Image coding apparatus and method thereof | |
US20070160298A1 (en) | Image encoder, image decoder, image encoding method, and image decoding method | |
KR20090098214A (en) | Method and apparatus for video encoding and decoding | |
JP4931214B2 (en) | Image processing apparatus and method | |
JP5055078B2 (en) | Image processing apparatus and method | |
JP2004215275A (en) | Motion compensation based improved noise prediction method and apparatus, and moving image encoding method and apparatus using the same | |
JP2008301336A (en) | Image processing device, image encoding device and image decoding device | |
WO2008072500A1 (en) | Dynamic image encoding device and dynamic image decoding device | |
JPWO2006100946A1 (en) | Image signal re-encoding device and image signal re-encoding method | |
JP2010287917A (en) | Image encoding/decoding device and method | |
JP7309959B2 (en) | Image decoding device and image decoding method | |
JP5180550B2 (en) | Image processing apparatus and image processing method | |
KR101702937B1 (en) | Method for scaling a resolution and an apparatus thereof | |
JP6016488B2 (en) | Video compression format conversion apparatus, video compression format conversion method, and program | |
JP2011130192A (en) | Encoder and image converting apparatus | |
WO2010061515A1 (en) | Dynamic image encoding device, encoding method, dynamic image decoding device, and decoding method |