JP2010287917A - Image encoding/decoding device and method - Google Patents

Image encoding/decoding device and method Download PDF

Info

Publication number
JP2010287917A
JP2010287917A JP2007249654A JP2007249654A JP2010287917A JP 2010287917 A JP2010287917 A JP 2010287917A JP 2007249654 A JP2007249654 A JP 2007249654A JP 2007249654 A JP2007249654 A JP 2007249654A JP 2010287917 A JP2010287917 A JP 2010287917A
Authority
JP
Japan
Prior art keywords
image
edge
edge component
unit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007249654A
Other languages
Japanese (ja)
Inventor
Tadashi Wada
直史 和田
Takeshi Nakajo
健 中條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007249654A priority Critical patent/JP2010287917A/en
Priority to PCT/JP2008/066000 priority patent/WO2009041243A1/en
Priority to TW97135352A priority patent/TW200922338A/en
Publication of JP2010287917A publication Critical patent/JP2010287917A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving image encoding device for generating a prediction image with improved reproducibility of an encoding object area including a feature based on spatial pixel value change represented by an edge component and reducing a predictive residual. <P>SOLUTION: The image encoding device includes: an extraction unit 121 for extracting a first edge component image from an original image; a separation unit 130 for separating a reference image into a second edge component image and an edge-removed image; an auxiliary information generation unit 122 for generating auxiliary information for predicting the first edge component image from the second edge component image; a prediction unit 141 for predicting, using the auxiliary information, a third edge component image from the second edge component image; and a prediction image generation unit 142 for generating an prediction image by combining the edge-removed image and the third edge component image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像の符号化及び復号化に関する。   The present invention relates to image encoding and decoding.

従来、動画像符号化方式としてMPEG−2やH.264/MPEG4 AVC(以下、単にH.264と称する)が知られている。これらの動画像符号化方式では、原画像を所定の大きさのブロックに分割し、このブロック単位で動き推定及び動き補償によるフレーム間予測を行って予測画像を生成する。更に、上記動画像符号化方式では、この予測画像と原画像との間の予測残差に離散コサイン変換(以下、単にDCTと称する)、量子化及びエントロピー符号化を行って、符号化データを生成する。   Conventionally, MPEG-2 or H.264 has been used as a moving image encoding method. H.264 / MPEG4 AVC (hereinafter simply referred to as H.264) is known. In these moving image encoding methods, an original image is divided into blocks of a predetermined size, and prediction images are generated by performing inter-frame prediction based on motion estimation and motion compensation in units of blocks. Further, in the above-described moving image coding method, discrete cosine transform (hereinafter simply referred to as DCT), quantization and entropy coding is performed on the prediction residual between the predicted image and the original image, and the encoded data is converted into the encoded data. Generate.

また、H.264における動き推定では、多数のブロックサイズ(16×16画素、16×8画素、8×16画素、8×8画素、8×4画素、4×8画素、4×4画素)から物体の形状や動きの複雑さに応じて適切なブロックサイズを選択するため、MPEG−2などに比べて予測効率が高い。しかしながら、このようなブロックサイズの選択を伴う動き推定は、剛体が画面内を平行移動する場合のフレーム間予測には適しているものの、例えばフレーム間で物体の変形が生じる場合には予測に失敗し、予測残差が発生する。特に、エッジ及びテクスチャなどの空間的な画素値変化の激しい箇所では予測残差が発生しやすく、この予測残差は復号画像においてモスキート雑音などの視認されやすい画質劣化を引き起こす。   H. In motion estimation in H.264, the shape of an object is determined from a large number of block sizes (16 × 16 pixels, 16 × 8 pixels, 8 × 16 pixels, 8 × 8 pixels, 8 × 4 pixels, 4 × 8 pixels, 4 × 4 pixels). Since an appropriate block size is selected according to the complexity of the motion, the prediction efficiency is higher than that of MPEG-2. However, such motion estimation with block size selection is suitable for inter-frame prediction when a rigid body moves in parallel on the screen, but fails when, for example, object deformation occurs between frames. Thus, a prediction residual is generated. In particular, a prediction residual is likely to occur in a portion where the spatial pixel value changes drastically, such as an edge and a texture, and this prediction residual causes image quality deterioration such as mosquito noise that is easily visible in a decoded image.

上記予測残差は、動き推定においてより小さなブロックサイズを選択することにより低減させることができるものの、小さなブロックサイズを選択すれば動きベクトルを含むヘッダ情報の符号量が増大する。更に、エッジやテクスチャなどの空間的な画素値変化の激しい箇所は、例えばDCTなどの直交変換後の変換係数が高周波成分に散在しやすく、この変換係数の量子化誤差によって復号画像においてエッジ鮮鋭度の劣化やテクスチャ情報の欠落が起こる。また、局所復号画像に含まれる予測残差が以降のフレーム間予測において参照される際に伝搬してしまう。   Although the prediction residual can be reduced by selecting a smaller block size in motion estimation, if a small block size is selected, the code amount of header information including a motion vector increases. Further, in places where the spatial pixel value changes drastically, such as edges and textures, transform coefficients after orthogonal transform such as DCT are likely to be scattered in high frequency components, and the edge sharpness in the decoded image due to quantization errors of the transform coefficients Deterioration or loss of texture information occurs. Further, the prediction residual included in the locally decoded image is propagated when it is referred to in the subsequent inter-frame prediction.

特許文献1では、原画像からエッジ成分を予め抽出して、エッジ成分が除去された画像をMPEG−2やH.264などの既存のブロックベース符号化により符号化するとともに、エッジ成分のみの画像を別途正確に(予測残差が発生しないように)符号化する。このように、視覚上重要なエッジ成分を単独で正確に符号化することにより、従来の動画像符号化方式に比べてエッジ周辺における符号化歪を低減させることができるので、復号画像におけるモスキート雑音の発生を抑えられる。従って、特に高圧縮な再生画像における主観的な画質改善が期待できる。   In Patent Document 1, an edge component is previously extracted from an original image, and an image from which the edge component has been removed is MPEG-2 or H.264. In addition to encoding by existing block-based encoding such as H.264, an image having only an edge component is separately accurately encoded (so that a prediction residual does not occur). In this way, by encoding accurately the edge component that is visually important alone, encoding distortion around the edge can be reduced as compared with the conventional video encoding method, so that mosquito noise in the decoded image can be reduced. Can be suppressed. Therefore, a subjective improvement in image quality can be expected particularly in a highly compressed reproduced image.

特許文献2では、動き補償を行う際に、物体の平行移動、回転及び伸縮などを考慮した射影変換を行っており、この射影変換パラメータを決定するために、原画像から抽出した上記物体の輪郭情報が補助情報として用いられる。従って、フレーム間で物体の変形が生じる場合でも、上記輪郭情報に基づいて参照画像に幾何学的な変形を加えた予測画像を生成できるので、予測残差を低減できる。また、原画像から抽出した輪郭情報を符号化するのでなく、上記輪郭情報と既に符号化済みの参照画像から抽出した輪郭情報との残差を符号化するため、符号量を抑えられる。
特開平7−240925号公報 特許第3233185号公報
In Patent Document 2, when performing motion compensation, projective transformation is performed in consideration of parallel movement, rotation, expansion and contraction of an object, and the contour of the object extracted from the original image is determined in order to determine the projection transformation parameter. Information is used as auxiliary information. Therefore, even when an object is deformed between frames, a prediction image obtained by adding a geometric deformation to the reference image can be generated based on the contour information, so that a prediction residual can be reduced. Further, since the outline information extracted from the original image is not encoded, but the residual between the outline information and the outline information extracted from the already encoded reference image is encoded, the amount of code can be reduced.
Japanese Patent Laid-Open No. 7-240925 Japanese Patent No. 3233185

特許文献1では、エッジ成分のみの画像を単独で正確に符号化するため、画像全体をまとめて符号化する場合に比べて発生符号量が増大する。また、エッジ成分のみの画像の符号化はエッジ成分を除いた画像に対する符号化とは別に行われるため、両方の符号化データの符号量及び画質のバランスを考慮した制御が困難である。例えば、エッジ成分のみの画像による発生符号量が増大した場合、全体の符号量を保つためにはエッジ成分以外の画像の画質が劣化し、全体の画質を保つためにはエッジ成分以外の画像による発生符号量が増大する。   In Patent Document 1, since an image having only an edge component is accurately encoded alone, the amount of generated code is increased as compared with a case where the entire image is encoded together. In addition, since the encoding of the image with only the edge component is performed separately from the encoding with respect to the image excluding the edge component, it is difficult to control in consideration of the balance of the code amount and the image quality of both encoded data. For example, when the generated code amount due to the image of only the edge component increases, the image quality of the image other than the edge component deteriorates in order to maintain the entire code amount, and the image other than the edge component in order to maintain the entire image quality. The amount of generated code increases.

また、特許文献2では、射影変換パラメータを決定するための補助情報として輪郭情報を用いているが、輪郭情報にはエッジの形状情報は反映されるものの、被写体の動きによる輪郭のぼけや量子化誤差によって生じるエッジ鮮鋭度の劣化は反映されない。従って、輪郭情報を用いて射影変換パラメータを決定したとしても、エッジ鮮鋭度の再現性は向上させられない。   Further, in Patent Document 2, contour information is used as auxiliary information for determining projective transformation parameters. Although edge shape information is reflected in the contour information, contour blur and quantization due to the movement of the subject are reflected. The deterioration of the edge sharpness caused by the error is not reflected. Therefore, even if the projective transformation parameter is determined using the contour information, the reproducibility of the edge sharpness cannot be improved.

従って、本発明は、エッジ成分に代表される空間的な画素値変化に基づく特徴を含む符号化対象領域の再現性を高めた予測画像を生成し、予測残差を低減可能な動画像符号化/復号化装置を提供することを目的とする。   Therefore, the present invention generates a predicted image with improved reproducibility of a coding target region including a feature based on a spatial pixel value change typified by an edge component and can reduce a prediction residual. An object is to provide a decoding apparatus.

本発明の一態様に係る画像符号化装置は、原画像から第1エッジ成分画像を抽出する抽出部と;参照画像を、第2エッジ成分画像とエッジ除去画像とに分離する分離部と;前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成する補助情報生成部と;前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測する予測部と;前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成する予測画像生成部と;前記原画像と前記予測画像との間の予測残差を求める予測残差計算部と;前記予測残差及び前記補助情報を符号化する符号化部と;を具備する。   An image encoding device according to an aspect of the present invention includes an extraction unit that extracts a first edge component image from an original image; a separation unit that separates a reference image into a second edge component image and an edge-removed image; An auxiliary information generation unit for generating auxiliary information for predicting the first edge component image from the second edge component image; and prediction for predicting a third edge component image from the second edge component image using the auxiliary information A prediction image generation unit that generates a prediction image by synthesizing the edge-removed image and the third edge component image; a prediction residual calculation for obtaining a prediction residual between the original image and the prediction image A coding unit for coding the prediction residual and the auxiliary information.

本発明の他の態様に係る画像復号化装置は、入力された符号化データを復号化して、対象画像の予測残差および前記対象画像の第1エッジ成分画像を予測するための補助情報を求める復号化部と;既に復号化された参照画像を当該参照画像の第2エッジ成分画像と、当該参照画像から第2エッジ成分を除去したエッジ除去画像とに分離する分離部と;前記補助情報を用いて前記第2エッジ成分画像から前記第1エッジ成分画像を予測する予測部と;前記エッジ除去画像と前記第2エッジ成分画像とを合成して、予測画像を生成する合成部と;前記予測残差と前記予測画像とを用いて、前記対象画像の復号画像を生成する復号画像生成部と;を具備する。   An image decoding apparatus according to another aspect of the present invention decodes input encoded data to obtain a prediction residual of a target image and auxiliary information for predicting a first edge component image of the target image. A decoding unit; a separation unit that separates a reference image that has already been decoded into a second edge component image of the reference image and an edge-removed image obtained by removing the second edge component from the reference image; A prediction unit that uses the second edge component image to predict the first edge component image; and combines the edge-removed image and the second edge component image to generate a prediction image; and the prediction A decoded image generation unit that generates a decoded image of the target image using a residual and the predicted image.

本発明によれば、エッジ成分に代表される空間的な画素値変化に基づく特徴を含む符号化対象領域の再現性を高めた予測画像を生成し、予測残差を低減可能な動画像符号化/復号化装置を提供できる。   According to the present invention, a moving picture coding capable of generating a prediction image with improved reproducibility of a coding target region including a feature based on a spatial pixel value change represented by an edge component and reducing a prediction residual. / Decoding device can be provided.

以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1に示すように、本発明の第1の実施形態に係る画像符号化装置は符号化部100及び符号化制御部150を有し、符号化部100は減算器101、変換・量子化部102、逆変換・逆量子化部103、エントロピー符号化器104、加算器105、フレームメモリ106、動き推定・動き補償部107及び予測部110を含む。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
As shown in FIG. 1, the image coding apparatus according to the first embodiment of the present invention includes a coding unit 100 and a coding control unit 150. The coding unit 100 includes a subtracter 101, a transform / quantization unit. 102, an inverse transform / inverse quantization unit 103, an entropy encoder 104, an adder 105, a frame memory 106, a motion estimation / motion compensation unit 107, and a prediction unit 110.

符号化部100は、符号化制御部150によって制御され、入力された動画像の原画像信号10に対して、ハイブリッド符号化と呼ばれる動画像符号化処理を行って符号化データ14を出力する。即ち、符号化部100は、既に符号化済みの参照画像信号から予測した予測画像信号と原画像信号10との間の予測残差信号を変換・量子化して、量子化された変換係数をエントロピー符号化して符号化データ14を出力する。以下、符号化部100において、原画像信号10は図示しないブロックスキャン変換器によって所定の大きさのブロックに分割され、当該ブロック単位で処理が行われるものとして説明するが、フレームまたはフィールド単位で処理が行われてもよい。   The encoding unit 100 is controlled by the encoding control unit 150, performs moving image encoding processing called hybrid encoding on the input original image signal 10 of the moving image, and outputs encoded data 14. That is, the encoding unit 100 transforms and quantizes the prediction residual signal between the predicted image signal predicted from the already encoded reference image signal and the original image signal 10, and applies the quantized transform coefficient to the entropy. Encode and output encoded data 14. Hereinafter, in the encoding unit 100, the original image signal 10 is divided into blocks of a predetermined size by a block scan converter (not shown), and processing is performed in units of the blocks. However, processing is performed in units of frames or fields. May be performed.

減算器101は、原画像信号10より、後述する予測部110からの第2予測画像信号19を減算して予測残差信号11を算出し、変換・量子化部102に渡す。   The subtractor 101 subtracts a second predicted image signal 19 from a prediction unit 110 described later from the original image signal 10 to calculate a prediction residual signal 11 and passes it to the transform / quantization unit 102.

変換・量子化部102は減算器101からの予測残差信号11に例えばDCTなどの変換を行って、符号化制御部150によって設定される量子化パラメータに基づいて量子化し、量子化された変換係数12を逆変換・逆量子化部103及びエントロピー符号化器104に渡す。尚、変換・量子化部102が予測残差信号11に行う変換はDCTに限らず、例えばウェーブレット変換または独立成分分析でもよいし、その他の直交変換であってもよい。   The transform / quantization unit 102 performs transform such as DCT on the prediction residual signal 11 from the subtractor 101, performs quantization based on the quantization parameter set by the encoding control unit 150, and performs the quantized transform. The coefficient 12 is passed to the inverse transform / inverse quantization unit 103 and the entropy encoder 104. The transform performed by the transform / quantization unit 102 on the prediction residual signal 11 is not limited to DCT, and may be, for example, wavelet transform or independent component analysis, or other orthogonal transform.

逆変換・逆量子化部103は、量子化された変換係数12を上記量子化パラメータに基づいて逆量子化し、例えばIDCTなどの逆変換を行って、復号予測残差信号13を加算器105に渡す。尚、逆変換・逆量子化部103が量子化された変換係数12に行う逆変換はIDCTに限らないが、変換・量子化部102で予測残差信号11に行われた変換の逆変換であるものとする。   The inverse transform / inverse quantization unit 103 inversely quantizes the quantized transform coefficient 12 based on the quantization parameter, performs inverse transform such as IDCT, and sends the decoded prediction residual signal 13 to the adder 105. hand over. The inverse transform performed on the quantized transform coefficient 12 by the inverse transform / inverse quantization unit 103 is not limited to IDCT, but is the inverse transform of the transform performed on the prediction residual signal 11 by the transform / quantization unit 102. It shall be.

エントロピー符号化器104は、変換・量子化部102からの量子化された変換係数12、後述する動き推定・動き補償部107からの動きベクトル18及び予測部110からの補助情報20に、例えばハフマン符号化または算術符号化などのエントロピー符号化を行い、符号化データ14として出力する。また、エントロピー符号化器104は、量子化パラメータや予測モード情報についても同様に符号化する。   The entropy encoder 104 converts the quantized transform coefficient 12 from the transform / quantization unit 102, the motion vector 18 from the motion estimation / motion compensation unit 107, which will be described later, and the auxiliary information 20 from the prediction unit 110 into, for example, a Huffman Entropy encoding such as encoding or arithmetic encoding is performed and output as encoded data 14. The entropy encoder 104 also encodes the quantization parameter and prediction mode information in the same manner.

加算器105は、逆変換・逆量子化部103からの復号予測残差信号13と、後述する予測部110からの第2予測画像信号19とを加算し、局所復号画像信号15としてフレームメモリ106に渡す。   The adder 105 adds the decoded prediction residual signal 13 from the inverse transform / inverse quantization unit 103 and a second predicted image signal 19 from the prediction unit 110 described later, and adds the frame memory 106 as a local decoded image signal 15. To pass.

フレームメモリ106は、加算器105からの局所復号画像信号15を参照画像信号16として一時的に保存する。この参照画像信号16は、後述する動き推定・動き補償部107によって参照される。尚、フレームメモリ106の前段にデブロッキングフィルタを設け、局所復号画像信号15からブロック歪を除去しておいてもよい。   The frame memory 106 temporarily stores the locally decoded image signal 15 from the adder 105 as a reference image signal 16. The reference image signal 16 is referred to by a motion estimation / motion compensation unit 107 described later. Note that a deblocking filter may be provided before the frame memory 106 to remove block distortion from the locally decoded image signal 15.

動き推定・動き補償部107は、原画像信号10と、フレームメモリ106に保存されている参照画像信号16とを用いて、動き推定・動き補償処理を行って第1予測画像信号17を生成すると共に、動きベクトル18を生成する。第1予測画像信号17は予測部110に入力され、動きベクトル18はエントロピー符号化器104に入力される。   The motion estimation / motion compensation unit 107 performs a motion estimation / motion compensation process using the original image signal 10 and the reference image signal 16 stored in the frame memory 106 to generate the first predicted image signal 17. At the same time, a motion vector 18 is generated. The first predicted image signal 17 is input to the prediction unit 110, and the motion vector 18 is input to the entropy encoder 104.

動き推定・動き補償部107が行う動き推定・動き補償処理は、例えば所定の大きさのブロック単位で行うものであり、原画像信号10の符号化対象ブロックと参照画像信号16との間でブロックマッチングを行う。上記ブロックマッチングの結果、符号化コストが最小となる参照画像信号16のブロックが第1予測画像信号17として出力され、当該第予測画像信号17の参照画像信号16における位置を示す動きベクトル18が生成される。尚、上記符号化コストは、例えば原画像信号10と第1予測画像信号17との差分の絶対値和(SAD)を用いる。   The motion estimation / compensation processing performed by the motion estimation / motion compensation unit 107 is performed, for example, in units of blocks of a predetermined size, and blocks between the encoding target block of the original image signal 10 and the reference image signal 16. Perform matching. As a result of the block matching, a block of the reference image signal 16 that minimizes the coding cost is output as the first predicted image signal 17, and a motion vector 18 indicating the position of the first predicted image signal 17 in the reference image signal 16 is generated. Is done. The encoding cost uses, for example, the absolute value sum (SAD) of the difference between the original image signal 10 and the first predicted image signal 17.

また、参照画像信号16は既に符号化済みであるから、時間的に未来のフレームまたは複数のフレームに基づいて予測を行ってもよく、次に示す数式に基づいて符号化コストを求めてもよい。

Figure 2010287917
In addition, since the reference image signal 16 has already been encoded, the prediction may be performed based on a temporally future frame or a plurality of frames, and the encoding cost may be obtained based on the following mathematical formula. .
Figure 2010287917

ここで、Kは符号化コスト、SADは差分の絶対値和、λは量子化幅や量子化パラメータの値に基づいて決められる定数、OHは動きベクトル及び参照するフレームを示すインデックスなどのヘッダ情報を夫々示す。また、符号化コストKとしてヘッダ情報OHのみを用いてもよいし差分をアダマール変換または近似してもよい。その他、原画像信号10のアクティビティを用いてコスト関数を作成してもよい。 Here, K is the coding cost, SAD is the sum of absolute values of differences, λ is a constant determined based on the quantization width and the value of the quantization parameter, OH is header information such as a motion vector and an index indicating the frame to be referred to Respectively. Further, only the header information OH may be used as the encoding cost K, or the difference may be Hadamard transformed or approximated. In addition, a cost function may be created using the activity of the original image signal 10.

予測部110は、動き推定・動き補償部107からの第1予測画像信号17を取得し、例えばエッジなどの画像内の空間的な画素値変化に基づく特徴成分の再現性を高めた第2予測画像信号19を生成し、当該第2予測画像信号19を減算器101及び加算器105に渡す。また、予測部110は第1予測画像信号17から第2予測画像信号19を予測するための補助情報20をエントロピー符号化器104に渡す。尚、以下の説明では特徴成分の一例としてエッジについて説明するが、本実施形態に係る符号化器が適用可能な特徴成分はエッジに限らず、例えばテクスチャ、コントラスト及びノイズであってもよい。   The prediction unit 110 obtains the first predicted image signal 17 from the motion estimation / compensation unit 107 and performs second prediction with improved reproducibility of feature components based on a spatial pixel value change in an image such as an edge. An image signal 19 is generated, and the second predicted image signal 19 is passed to the subtracter 101 and the adder 105. The prediction unit 110 also passes auxiliary information 20 for predicting the second predicted image signal 19 from the first predicted image signal 17 to the entropy encoder 104. In the following description, an edge will be described as an example of a feature component. However, a feature component to which the encoder according to the present embodiment can be applied is not limited to an edge, and may be texture, contrast, and noise, for example.

図2に示すように、予測部110は、特徴抽出部121、補助情報生成部122、特徴分離部130、特徴予測部141及び信号合成部142を含む。   As illustrated in FIG. 2, the prediction unit 110 includes a feature extraction unit 121, an auxiliary information generation unit 122, a feature separation unit 130, a feature prediction unit 141, and a signal synthesis unit 142.

特徴分離部130は、動き推定・動き補償部107からの第1予測画像信号17から特徴成分を抽出して第1特徴信号21を生成すると共に、第1予測画像信号17から第1特徴信号21を除去した特徴除去信号22を生成する。即ち、特徴分離部130は、第1予測画像信号17を第1特徴信号21と特徴除去信号22とに分離する。第1特徴信号21は補助情報生成部122及び特徴予測部141に入力され、特徴除去信号22は信号合成部142に入力される。図2に示すように、特徴分離部130の一例は、特徴抽出部131及び減算器132を含む。   The feature separation unit 130 extracts a feature component from the first predicted image signal 17 from the motion estimation / motion compensation unit 107 to generate the first feature signal 21 and also generates the first feature signal 21 from the first predicted image signal 17. A feature removal signal 22 is generated by removing. That is, the feature separation unit 130 separates the first predicted image signal 17 into the first feature signal 21 and the feature removal signal 22. The first feature signal 21 is input to the auxiliary information generation unit 122 and the feature prediction unit 141, and the feature removal signal 22 is input to the signal synthesis unit 142. As illustrated in FIG. 2, an example of the feature separation unit 130 includes a feature extraction unit 131 and a subtracter 132.

特徴抽出部131は、動き推定・動き補償部107からの第1予測画像信号17に対して例えばエッジ抽出処理やフィルタリング処理を行ってエッジ成分を抽出し、第1特徴信号21を生成して、減算器132、特徴予測部141及び信号合成部142に渡す。特徴抽出部131は、画像処理において一般的な微分オペレータによるエッジ検出手法を用いてよく、例えば1次微分であるSobelオペレータまたは2次微分であるラプラシアンオペレータなどを用いてもよい。   The feature extraction unit 131 performs, for example, edge extraction processing or filtering processing on the first predicted image signal 17 from the motion estimation / motion compensation unit 107 to extract edge components, and generates the first feature signal 21. The data is passed to the subtractor 132, the feature prediction unit 141, and the signal synthesis unit 142. The feature extraction unit 131 may use an edge detection method by a general differential operator in image processing, and may use, for example, a Sobel operator that is a primary differential or a Laplacian operator that is a secondary differential.

減算器132は、動き推定・動き補償部107からの第1予測画像信号17より、特徴抽出部131からの第1特徴信号21を減算し、特徴除去信号22を信号合成部142に渡す。   The subtracter 132 subtracts the first feature signal 21 from the feature extraction unit 131 from the first predicted image signal 17 from the motion estimation / motion compensation unit 107 and passes the feature removal signal 22 to the signal synthesis unit 142.

尚、特徴分離部130は図2に示す構成に限らず、例えば図3Aまたは図3Bに示す構成であってもよい。
図3Aに示すように、特徴分離部130の一変形例は平滑化フィルタ133及び減算器134を含む。
Note that the feature separation unit 130 is not limited to the configuration illustrated in FIG. 2, and may have the configuration illustrated in FIG. 3A or FIG. 3B, for example.
As illustrated in FIG. 3A, one modification of the feature separation unit 130 includes a smoothing filter 133 and a subtracter 134.

平滑化フィルタ133は、例えば移動平均フィルタ、加重平均フィルタ、メディアンフィルタまたはガウシアンフィルタなどの画像処理で一般的に用いられる平滑化フィルタである。平滑化フィルタ133は、動き推定・動き補償部107からの第1予測画像信号17より高周波成分を除去する。一般に、画像を周波数変換するとエッジは主に高周波成分に含まれるので、第1予測画像信号17から高周波成分を除去することにより、特徴除去信号22が生成される。平滑化フィルタ133は、特徴除去信号22を減算器134及び信号合成部142に渡す。   The smoothing filter 133 is a smoothing filter generally used in image processing such as a moving average filter, a weighted average filter, a median filter, or a Gaussian filter. The smoothing filter 133 removes high frequency components from the first predicted image signal 17 from the motion estimation / motion compensation unit 107. In general, when an image is frequency-converted, an edge is mainly included in a high-frequency component, so that a feature removal signal 22 is generated by removing the high-frequency component from the first predicted image signal 17. The smoothing filter 133 passes the feature removal signal 22 to the subtractor 134 and the signal synthesis unit 142.

減算器134は、動き推定・動き補償部107からの第1予測画像信号17より、平滑化フィルタ133からの特徴除去信号22を減算して第1特徴信号21を生成し、補助情報生成部122及び特徴予測部141に渡す。   The subtractor 134 subtracts the feature removal signal 22 from the smoothing filter 133 from the first predicted image signal 17 from the motion estimation / motion compensation unit 107 to generate the first feature signal 21, and the auxiliary information generation unit 122. To the feature prediction unit 141.

図3Bに示すように、特徴分離部130の他の変形例は帯域分割部135を含む。帯域分割部135は、動き推定・動き補償部107からの第1予測画像信号17に、例えばウェーブレット変換、離散コサイン変換または独立成分分析などの周波数変換を用いた周波数帯域分割を行って、高周波成分と低周波成分に分割する。前述したように、画像を周波数変換するとエッジは主に高周波成分に含まれるので、帯域分割部135は第1予測画像信号17の高周波成分を第1特徴信号21、低周波成分を特徴除去信号22として夫々出力する。第1特徴信号21は補助情報生成部122及び特徴予測部141に入力され、特徴除去信号22は信号合成部142に入力される。   As illustrated in FIG. 3B, another modification of the feature separation unit 130 includes a band division unit 135. The band division unit 135 performs frequency band division on the first predicted image signal 17 from the motion estimation / motion compensation unit 107 using frequency transformation such as wavelet transformation, discrete cosine transformation, or independent component analysis, for example, to obtain a high frequency component And divided into low frequency components. As described above, since the edge is mainly included in the high-frequency component when the frequency of the image is converted, the band dividing unit 135 uses the high-frequency component of the first predicted image signal 17 as the first feature signal 21 and the low-frequency component as the feature removal signal 22. Respectively. The first feature signal 21 is input to the auxiliary information generation unit 122 and the feature prediction unit 141, and the feature removal signal 22 is input to the signal synthesis unit 142.

また、特徴分離部130において、エッジを関数によって表現したエッジモデルを用いて、当該エッジモデルと相関が高い部分をエッジ成分として抽出してもよい。その他、特徴分離部130における特徴成分の抽出は、復号化装置において同様に実施可能であれば多様な方法を用いることができる。   In addition, the feature separation unit 130 may extract a portion having a high correlation with the edge model as an edge component using an edge model in which the edge is expressed by a function. In addition, various methods can be used for extracting feature components in the feature separation unit 130 as long as they can be similarly performed in the decoding apparatus.

特徴抽出部121は、原画像信号10から特徴成分を抽出して第2特徴信号23を生成し、補助情報生成部122に渡す。特徴抽出部121は、前述した特徴分離部130と同様に、フィルタリング処理や周波数帯域分割処理など様々な手法によって特徴成分を抽出してよい。   The feature extraction unit 121 extracts a feature component from the original image signal 10 to generate the second feature signal 23 and passes it to the auxiliary information generation unit 122. The feature extraction unit 121 may extract feature components by various methods such as filtering processing and frequency band division processing, similar to the feature separation unit 130 described above.

補助情報生成部122は、特徴分離部130からの第1特徴信号21及び特徴抽出部121からの第2特徴信号23を取得し、上記第1特徴信号21から第2特徴信号23を予測するためのパラメータとして用いられる補助情報20を生成する。補助情報20は、特徴予測部141及びエントロピー符号化器104に入力される。尚、補助情報20の詳細な説明は後述する。   The auxiliary information generation unit 122 acquires the first feature signal 21 from the feature separation unit 130 and the second feature signal 23 from the feature extraction unit 121, and predicts the second feature signal 23 from the first feature signal 21. Auxiliary information 20 used as a parameter is generated. The auxiliary information 20 is input to the feature prediction unit 141 and the entropy encoder 104. A detailed description of the auxiliary information 20 will be described later.

特徴予測部141は、補助情報生成部122からの補助情報20を用いて、特徴分離部130からの第1特徴信号23より上記第2特徴信号21を予測して特徴予測信号24を生成し、信号合成部142に渡す。   The feature prediction unit 141 uses the auxiliary information 20 from the auxiliary information generation unit 122 to generate the feature prediction signal 24 by predicting the second feature signal 21 from the first feature signal 23 from the feature separation unit 130. The signal is passed to the signal synthesis unit 142.

信号合成部142は、特徴分離部130からの特徴除去信号22と、特徴予測部141からの特徴予測信号24とを合成して第2予測画像信号19を生成し、減算器101及び加算器105に渡す。   The signal synthesis unit 142 synthesizes the feature removal signal 22 from the feature separation unit 130 and the feature prediction signal 24 from the feature prediction unit 141 to generate a second predicted image signal 19, and the subtracter 101 and the adder 105. To pass.

尚、原画像信号10または第1予測画像信号17から抽出して予測または合成する特徴信号は1つに限らず、複数の特徴信号を抽出して夫々予測し、全ての特徴信号を一括して合成してもよい。また、第1予測画像信号17から複数の第1特徴信号21を抽出した場合、抽出した全ての第1特徴信号21に関して補助情報20を生成する必要はない。即ち、一部の第1特徴信号21については補助情報20を生成せずに、抽出した第1特徴信号21を特徴予測信号24として特徴除去信号22に合成してもよい。   Note that the number of feature signals extracted from the original image signal 10 or the first predicted image signal 17 and predicted or synthesized is not limited to one, but a plurality of feature signals are extracted and predicted, and all the feature signals are collectively collected. You may synthesize. When a plurality of first feature signals 21 are extracted from the first predicted image signal 17, it is not necessary to generate auxiliary information 20 for all the extracted first feature signals 21. That is, some of the first feature signals 21 may be combined with the feature removal signal 22 as the feature prediction signal 24 without generating the auxiliary information 20.

符号化制御部150は、発生符号量のフィードバック制御、量子化特性制御、動き推定精度の制御及び特徴予測精度の制御を含む符号化部100全体の制御を行う。   The encoding control unit 150 performs overall control of the encoding unit 100 including feedback control of generated code amount, quantization characteristic control, motion estimation accuracy control, and feature prediction accuracy control.

次に、図4及び図5A乃至Jを用いて予測部110の動作例について説明する。ここでは、図5Aに示す原画像信号10及びこれに対応する図5Cに示す第1予測画像信号17から図5Jに示す第2予測画像信号19を生成するまでの処理の流れについて説明する。   Next, an operation example of the prediction unit 110 will be described with reference to FIGS. 4 and 5A to 5J. Here, the flow of processing from the generation of the original image signal 10 shown in FIG. 5A and the corresponding first predicted image signal 17 shown in FIG. 5C to the generation of the second predicted image signal 19 shown in FIG. 5J will be described.

まず、特徴分離部130は、図5Cの第1予測画像信号17を動き推定・動き補償部107より取得する(ステップS201)。次に、特徴分離部130は、ステップS201において取得した図5Cの第1予測画像信号17から図5Dに示す第1特徴信号21を抽出する(ステップS202)。次に、特徴分離部130は、ステップS201において取得した図5Cの第1予測画像信号17より、ステップS202において取得した図5Dの第1特徴信号21を除去し、図5Eに示す特徴除去信号22を生成する(ステップS203)。ここで、ステップS202及びステップS203の行われる順序は上記に限らない。例えば、図3Aに示す特徴分離部130であればステップS202及びステップS203の行われる順序を入れ替えてもよいし、図3Bに示す特徴分離部130であればステップS202及びステップS203が同時に行われてもよい。   First, the feature separation unit 130 acquires the first predicted image signal 17 of FIG. 5C from the motion estimation / motion compensation unit 107 (step S201). Next, the feature separation unit 130 extracts the first feature signal 21 shown in FIG. 5D from the first predicted image signal 17 of FIG. 5C acquired in step S201 (step S202). Next, the feature separation unit 130 removes the first feature signal 21 of FIG. 5D acquired in step S202 from the first predicted image signal 17 of FIG. 5C acquired in step S201, and the feature removal signal 22 shown in FIG. 5E. Is generated (step S203). Here, the order in which step S202 and step S203 are performed is not limited to the above. For example, in the case of the feature separation unit 130 shown in FIG. 3A, the order in which steps S202 and S203 are performed may be changed, and in the case of the feature separation unit 130 shown in FIG. Also good.

一方、特徴抽出部121は、図5Aの原画像信号10を取得する(ステップS204)。次に、特徴抽出部121は、図5Aの原画像信号10から図5Bに示す第2特徴信号23を抽出する(ステップS205)。ここで、ステップS201乃至ステップS203と、ステップS204及びステップS205とが行われる順序は上記に限らず、順序を入れ替えてもよいし、同時に行われてもよい。   On the other hand, the feature extraction unit 121 acquires the original image signal 10 of FIG. 5A (step S204). Next, the feature extraction unit 121 extracts the second feature signal 23 shown in FIG. 5B from the original image signal 10 of FIG. 5A (step S205). Here, the order in which steps S201 to S203 and steps S204 and S205 are performed is not limited to the above, and the order may be changed or may be performed simultaneously.

次に、補助情報生成部122は、ステップS202において抽出した図5Dの第1特徴信号21及びステップS205において抽出した図5Eの第2特徴信号23から補助情報20を生成する(ステップS206)。以下、補助情報20について詳しく述べる。本実施形態では、エッジが形状、強度及び広がりの3つの情報で表現されるものとしており、補助情報20は、第1特徴信号21及び第2特徴信号23の間における上記3つの情報の少なくとも1つの差分を示す。   Next, the auxiliary information generation unit 122 generates auxiliary information 20 from the first feature signal 21 of FIG. 5D extracted in step S202 and the second feature signal 23 of FIG. 5E extracted in step S205 (step S206). Hereinafter, the auxiliary information 20 will be described in detail. In the present embodiment, the edge is expressed by three pieces of information of shape, intensity, and spread, and the auxiliary information 20 is at least one of the three pieces of information between the first feature signal 21 and the second feature signal 23. Indicates the difference between the two.

まず、形状に関する補助情報20の生成について説明する。補助情報生成部122は、形状に関する補助情報20を生成するために、第1特徴信号21及び第2特徴信号23に対して細線化処理を行ってエッジ中心線を検出する。尚、補助情報生成部122が、第1特徴信号21及び第2特徴信号23に対して行う細線化処理は、画像処理で一般に用いられる手法でよい。補助情報生成部122が図5Dの第1特徴信号21及び図5Bの第2特徴信号23に対して細線化処理を行うことにより、図5Fに示すエッジ中心線が得られる。図5Fにおいて、図5Dの第1特徴信号21から得られるエッジ中心線を実線、図5Bの第2特徴信号23から得られるエッジ中心線を破線で夫々示している。補助情報生成部122は、両エッジ中心線の形状誤差を形状に関する補助情報20として生成する。尚、形状誤差は例えばチェインコードやBスプライン曲線などの高次のパラメトリック曲線を用いて表すことができる。   First, generation of the auxiliary information 20 regarding the shape will be described. The auxiliary information generation unit 122 detects the edge center line by performing thinning processing on the first feature signal 21 and the second feature signal 23 in order to generate auxiliary information 20 related to the shape. The thinning process performed by the auxiliary information generation unit 122 on the first feature signal 21 and the second feature signal 23 may be a method generally used in image processing. The auxiliary information generation unit 122 performs the thinning process on the first feature signal 21 in FIG. 5D and the second feature signal 23 in FIG. 5B, thereby obtaining the edge center line shown in FIG. 5F. 5F, the edge center line obtained from the first feature signal 21 of FIG. 5D is indicated by a solid line, and the edge center line obtained from the second feature signal 23 of FIG. 5B is indicated by a broken line. The auxiliary information generation unit 122 generates the shape error of both edge center lines as auxiliary information 20 regarding the shape. The shape error can be expressed by using a higher-order parametric curve such as a chain code or a B-spline curve.

次に、強度及び広がりに関する補助情報20の生成について説明する。図5Gに示すように、補助情報生成部122は、強度及び広がりに関する補助情報20を生成するために、エッジに対して垂直方向に隣接する2点を始点及び終点とする複数の垂線を引いて当該垂線上でのエッジの強度分布を夫々求め、当該複数の強度分布を平均化して1つの強度分布を求める。補助情報生成部122が図5Dの第1特徴信号21及び図5Bの第2特徴信号23に対して上記強度分布を求めると、図5Hに示す強度分布が得られる。図5Hにおいて、横軸が上記垂線上での相対位置を示し、縦軸が当該垂線上の位置におけるエッジ強度を示し、図5Dの第1特徴信号21から得られる強度分布が実線、図5Bの第2特徴信号23から得られる強度分布が破線で夫々表されている。図5Hにおいて、各位置におけるエッジ強度は、当該位置における画素値と上記始点及び終点における画素値との差分の絶対値で表されている。   Next, generation of the auxiliary information 20 relating to strength and spread will be described. As shown in FIG. 5G, the auxiliary information generation unit 122 draws a plurality of perpendicular lines starting and ending with two points adjacent to the edge in the vertical direction in order to generate auxiliary information 20 related to strength and spread. An edge intensity distribution on the perpendicular is obtained, and the plurality of intensity distributions are averaged to obtain one intensity distribution. When the auxiliary information generation unit 122 obtains the intensity distribution for the first feature signal 21 of FIG. 5D and the second feature signal 23 of FIG. 5B, the intensity distribution shown in FIG. 5H is obtained. In FIG. 5H, the horizontal axis indicates the relative position on the vertical line, the vertical axis indicates the edge intensity at the position on the vertical line, the intensity distribution obtained from the first feature signal 21 of FIG. 5D is a solid line, Intensity distributions obtained from the second feature signal 23 are respectively represented by broken lines. In FIG. 5H, the edge intensity at each position is represented by the absolute value of the difference between the pixel value at that position and the pixel value at the start point and end point.

補助情報生成部122は、両強度分布の差分を強度及び広がりに関する補助情報20として生成する。補助情報生成部122は、強度分布を何らかの関数を用いて近似して扱う。例えば図5Hに示す強度分布であれば、横軸で表される垂線上の位置をx、当該位置におけるエッジ強度をf(x)とすると、次の式で表すことができる。

Figure 2010287917
The auxiliary information generation unit 122 generates a difference between the two intensity distributions as auxiliary information 20 regarding the intensity and the spread. The auxiliary information generation unit 122 handles the intensity distribution by approximating it using some function. For example, the intensity distribution shown in FIG. 5H can be expressed by the following equation, where x is the position on the vertical line represented by the horizontal axis, and f (x) is the edge intensity at the position.
Figure 2010287917

ここで、Eはエッジの強度、σはエッジの広がり(分散)、aはエッジの中心座標を夫々表す。補助情報生成部122は、第1特徴信号21から得られる強度分布及び第2特徴信号23から得られる強度分布の夫々について、数式(2)で表される分布との誤差が最も小さくなる強度E及び広がりσを求め、これらの差分値を強度及び広がりに関する補助情報20として生成する。尚、強度分布を近似するための関数は、数式(2)に限られず例えば上記始点及び終点の間を描くBスプライン曲線などのパラメトリック曲線で近似してもよいし、その他の関数で近似してもよい。また、固定の関数で近似するのではなく、複数の関数から近似に適した関数を選択するようにしてもよい。 Here, E represents edge strength, σ represents edge spread (dispersion), and a represents edge center coordinates. The auxiliary information generation unit 122 has an intensity E that minimizes an error from the distribution represented by Equation (2) for each of the intensity distribution obtained from the first feature signal 21 and the intensity distribution obtained from the second feature signal 23. And the spread σ are obtained, and these difference values are generated as auxiliary information 20 relating to the strength and spread. The function for approximating the intensity distribution is not limited to Equation (2), and may be approximated by a parametric curve such as a B-spline curve drawn between the start point and the end point, or may be approximated by other functions. Also good. Further, instead of approximating with a fixed function, a function suitable for approximation may be selected from a plurality of functions.

また、補助情報生成部122は、第1特徴信号21及び第2特徴信号23を用いて動き推定・動き補償処理を行い、補助情報20として動きベクトルを生成してもよい。   Further, the auxiliary information generation unit 122 may perform motion estimation / motion compensation processing using the first feature signal 21 and the second feature signal 23 to generate a motion vector as the auxiliary information 20.

次に、特徴予測部141は、ステップS206において生成した補助情報20及びステップS202において抽出した図5Dの第1特徴信号21を用いて図5Iに示す特徴予測信号24を生成する(ステップS207)。   Next, the feature prediction unit 141 generates the feature prediction signal 24 shown in FIG. 5I using the auxiliary information 20 generated in step S206 and the first feature signal 21 of FIG. 5D extracted in step S202 (step S207).

次に、信号合成部142は、ステップS203において生成した図5Eの特徴除去信号22及びステップS207において生成した図5Iの特徴予測信号24を合成して、図5Jに示す第2予測画像信号19を生成する(ステップS208)。   Next, the signal synthesis unit 142 synthesizes the feature removal signal 22 of FIG. 5E generated in step S203 and the feature prediction signal 24 of FIG. 5I generated in step S207, and generates the second predicted image signal 19 shown in FIG. 5J. Generate (step S208).

以上説明したように、本実施形態に係る動画像符号化装置では、第1予測画像信号から抽出した第1特徴信号及び補助情報を用いて、原画像信号の第2特徴信号を予測して特徴予測信号を生成し、第1予測画像信号から第1特徴信号を除去した特徴除去信号に特徴予測信号を合成して第2予測画像信号を生成し、原画像信号との間の予測残差信号を補助情報と共に符号化している。従って、本実施形態に係る動画像符号化装置によれば、第1予測画像信号と原画像信号との間の予測残差を符号化する場合に比べて、特徴信号の再現性を高め、予測残差を低減させられる。   As described above, in the video encoding device according to the present embodiment, the second feature signal of the original image signal is predicted and featured using the first feature signal and auxiliary information extracted from the first predicted image signal. A prediction residual signal is generated by generating a prediction signal, generating a second prediction image signal by synthesizing the feature prediction signal with the feature removal signal obtained by removing the first feature signal from the first prediction image signal. Are encoded together with auxiliary information. Therefore, according to the video encoding device according to the present embodiment, the reproducibility of the feature signal is improved compared to the case where the prediction residual between the first predicted image signal and the original image signal is encoded, and the prediction is performed. Residual can be reduced.

また、本実施形態に係る動画像符号化装置では、第2特徴信号をそのまま符号化するのではなく、第1予測画像信号から抽出した第1特徴信号及び補助情報を用いて上記第2特徴信号を予測するようにしているため、符号量を削減することができる。また、特徴信号の再現性の高低は上記補助情報の内容で決まるが、補助情報による発生符号量は符号化制御部が設定する量子化パラメータなどによって制御することができるので、特徴信号の再現性と発生符号量のバランスを容易に制御できる。   Further, in the video encoding device according to the present embodiment, the second feature signal is not encoded as it is, but the second feature signal is used by using the first feature signal extracted from the first predicted image signal and the auxiliary information. Therefore, the amount of codes can be reduced. In addition, the level of reproducibility of the feature signal is determined by the content of the auxiliary information. However, since the amount of code generated by the auxiliary information can be controlled by a quantization parameter set by the encoding control unit, the reproducibility of the feature signal And the balance of the generated code amount can be easily controlled.

尚、本実施形態に係る動画像符号化装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。即ち、減算器101、変換・量子化部102、逆変換・逆量子化部103、エントロピー符号化器104、加算器105、動き推定・動き補償部107、予測部110及び符号化制御部150は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、本実施形態に係る動画像符号化装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、フレームメモリ106は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。   Note that the moving picture encoding apparatus according to the present embodiment can also be realized by using, for example, a general-purpose computer apparatus as basic hardware. That is, the subtractor 101, the transform / quantization unit 102, the inverse transform / inverse quantization unit 103, the entropy encoder 104, the adder 105, the motion estimation / motion compensation unit 107, the prediction unit 110, and the encoding control unit 150 This can be realized by causing a processor mounted on the computer apparatus to execute a program. At this time, the moving picture encoding apparatus according to the present embodiment may be realized by installing the above program in a computer apparatus in advance, or may be stored in a storage medium such as a CD-ROM or via a network. The above program may be distributed, and this program may be installed in a computer device as appropriate. The frame memory 106 is realized by appropriately using a memory built in or externally attached to the computer device, a hard disk or a storage medium such as a CD-R, CD-RW, DVD-RAM, DVD-R, or the like. Can do.

また、本実施形態に係る動画像符号化装置は動画像の符号化に限らず、既に符号化済みの画像から予測画像信号を生成し、入力画像信号と予測画像信号との間の予測残差信号を符号化する符号化方式であれば、静止画像の符号化に対しても適用できる。   Further, the moving picture coding apparatus according to the present embodiment is not limited to coding a moving picture, but generates a predicted picture signal from an already coded picture, and a prediction residual between the input picture signal and the predicted picture signal. Any coding scheme that encodes a signal can be applied to still image coding.

なお、本実施形態を変形して、動き推定・動き補償部107と予測部110とを統合しても構わない。この変形例では、フレームメモリ106から参照画像をフレーム単位で予測部110に入力する。予測部110で特徴毎に分離する。分離した成分を用いて補助情報生成部122で動き推定・動き補償を行う。そして、補助情報20として動きベクトル18を送信する。   Note that the present embodiment may be modified to integrate the motion estimation / motion compensation unit 107 and the prediction unit 110. In this modification, a reference image is input from the frame memory 106 to the prediction unit 110 in units of frames. The prediction unit 110 separates each feature. The auxiliary information generation unit 122 performs motion estimation / compensation using the separated components. Then, the motion vector 18 is transmitted as the auxiliary information 20.

(第2の実施形態)
図6に示すように、本発明の第2の実施形態に係る復号化装置は、復号化部300及び復号化制御部320を有し、復号化部300はエントロピー復号化器301、逆変換・逆量子化部302、加算器303、フレームメモリ304、動き補償部305及び予測部310を含む。
(Second Embodiment)
As shown in FIG. 6, the decoding apparatus according to the second embodiment of the present invention includes a decoding unit 300 and a decoding control unit 320. The decoding unit 300 includes an entropy decoder 301, an inverse transform / An inverse quantization unit 302, an adder 303, a frame memory 304, a motion compensation unit 305, and a prediction unit 310 are included.

復号化部300は、復号化制御部320によって制御され、入力された符号化データ30をエントロピー復号化し、逆量子化・逆直交変換を行って予測残差信号を復号し、この復号予測残差信号に既に復号化済みの参照画像信号を用いて予測した予測画像信号を加算して復号画像信号35を生成する。   The decoding unit 300 is controlled by the decoding control unit 320, performs entropy decoding on the input encoded data 30, performs inverse quantization / inverse orthogonal transformation, decodes the prediction residual signal, and decodes the prediction prediction residual. A decoded image signal 35 is generated by adding a predicted image signal predicted using a reference image signal that has already been decoded to the signal.

エントロピー復号化器301は、所定のデータ構造に従って符号化データ30を復号化し、量子化された変換係数31、補助情報32、動きベクトル33、量子化パラメータ及び予測モード情報などを復元する。エントロピー復号化器301は、量子化された変換係数31を逆変換・逆量子化部302に渡し、補助情報32を予測部310に渡し、動きベクトル33を動き補償部305に渡す。   The entropy decoder 301 decodes the encoded data 30 according to a predetermined data structure, and restores the quantized transform coefficient 31, auxiliary information 32, motion vector 33, quantization parameter, prediction mode information, and the like. The entropy decoder 301 passes the quantized transform coefficient 31 to the inverse transform / inverse quantization unit 302, passes the auxiliary information 32 to the prediction unit 310, and passes the motion vector 33 to the motion compensation unit 305.

逆変換・逆量子化部302は、エントロピー復号化器301からの量子化された変換係数31を復元された量子化パラメータに従って逆量子化し、例えばIDCTなどの逆変換を行って、復号予測残差信号34を加算器303に渡す。尚、逆変換・逆量子化部302が量子化された変換係数31に行う逆変換はIDCTに限らず、例えば逆ウェーブレット変換やその他の逆直交変換であってもよいが、符号化側で予測残差信号に対して行われた変換の逆変換であるものとする。   The inverse transform / inverse quantization unit 302 inversely quantizes the quantized transform coefficient 31 from the entropy decoder 301 according to the restored quantization parameter, performs inverse transform such as IDCT, and the like, thereby performing a decoded prediction residual. The signal 34 is passed to the adder 303. Note that the inverse transform performed by the inverse transform / inverse quantization unit 302 on the quantized transform coefficient 31 is not limited to IDCT, and may be, for example, inverse wavelet transform or other inverse orthogonal transform, but is predicted on the encoding side. It is assumed that this is an inverse transformation of the transformation performed on the residual signal.

加算器303は、逆変換・逆量子化部302からの復号予測残差信号34と、後述する予測部310からの第2予測画像信号38とを加算し、復号画像信号35を生成する。生成された復号画像信号35は出力されると共に、フレームメモリ304に渡される。   The adder 303 adds a decoded prediction residual signal 34 from the inverse transform / inverse quantization unit 302 and a second predicted image signal 38 from the prediction unit 310 to be described later to generate a decoded image signal 35. The generated decoded image signal 35 is output and passed to the frame memory 304.

フレームメモリ304は、加算器303からの復号画像信号35を参照画像信号36として一時的に保存する。この参照画像信号36は、後述する動き補償部305によって参照される。尚、フレームメモリ304の前段にデブロッキングフィルタを設け、復号画像信号35からブロック歪を除去してもよい。   The frame memory 304 temporarily stores the decoded image signal 35 from the adder 303 as the reference image signal 36. The reference image signal 36 is referred to by a motion compensation unit 305 described later. Note that a deblocking filter may be provided in the previous stage of the frame memory 304 to remove block distortion from the decoded image signal 35.

動き補償部305は、フレームメモリ304に保存されている参照画像信号36を取得し、エントロピー復号化器301からの動きベクトル33によって示される参照画像信号36の領域を第1予測画像信号37として予測部310に渡す。   The motion compensation unit 305 acquires the reference image signal 36 stored in the frame memory 304 and predicts the region of the reference image signal 36 indicated by the motion vector 33 from the entropy decoder 301 as the first predicted image signal 37. To the unit 310.

予測部310は、動き補償部305のから第1予測画像信号37及びエントロピー符号化器301からの補助情報32を取得し、例えばエッジなどの画像内の空間的な画素値変化に基づく特徴成分の再現性を高めた第2予測画像信号38を生成し、当該第2予測画像信号38を加算器303に渡す。尚、以下の説明では特徴成分の一例としてエッジについて説明するが、本実施形態に係る符号化器が適用可能な特徴成分はエッジに限らず、例えばテクスチャ、コントラスト及びノイズであってもよい。図7に示すように、予測部310は、特徴分離部311、特徴予測部312及び信号合成部313を含む。   The prediction unit 310 acquires the first predicted image signal 37 from the motion compensation unit 305 and the auxiliary information 32 from the entropy encoder 301, and for example, features components based on spatial pixel value changes in the image such as edges. A second predicted image signal 38 with improved reproducibility is generated, and the second predicted image signal 38 is passed to the adder 303. In the following description, an edge will be described as an example of a feature component. However, a feature component to which the encoder according to the present embodiment can be applied is not limited to an edge, and may be texture, contrast, and noise, for example. As illustrated in FIG. 7, the prediction unit 310 includes a feature separation unit 311, a feature prediction unit 312, and a signal synthesis unit 313.

特徴分離部311は、特徴分離部130と同様、動き補償部305からの第1予測画像信号37から特徴成分を抽出して第1特徴信号39を生成すると共に、第1予測画像信号37から第1特徴信号39を除去した特徴除去信号40を生成する。第1特徴信号39は特徴予測部312に入力され、特徴除去信号40は信号合成部313に入力される。尚、特徴分離部311は、図2、図3Aまたは図3Bのいずれかに示す特徴分離部130と同じ構成であってもよいし、その他の構成であってもよい。   Similar to the feature separation unit 130, the feature separation unit 311 extracts a feature component from the first predicted image signal 37 from the motion compensation unit 305 to generate a first feature signal 39, and also generates a first feature signal 39 from the first predicted image signal 37. A feature removal signal 40 obtained by removing one feature signal 39 is generated. The first feature signal 39 is input to the feature prediction unit 312 and the feature removal signal 40 is input to the signal synthesis unit 313. The feature separation unit 311 may have the same configuration as the feature separation unit 130 shown in any of FIGS. 2, 3A, or 3B, or may have another configuration.

特徴予測部312は、エントロピー復号化器301からの補助情報32を用いて、特徴分離部311からの第1特徴信号39より特徴予測信号41を生成し、信号合成部313に渡す。   The feature prediction unit 312 generates the feature prediction signal 41 from the first feature signal 39 from the feature separation unit 311 using the auxiliary information 32 from the entropy decoder 301 and passes it to the signal synthesis unit 313.

信号合成部313は、特徴分離部311からの特徴除去信号40と、特徴予測部312からの特徴予測信号41とを合成して第2予測画像信号38を生成し、加算器303に渡す。   The signal synthesis unit 313 synthesizes the feature removal signal 40 from the feature separation unit 311 and the feature prediction signal 41 from the feature prediction unit 312 to generate a second predicted image signal 38 and passes it to the adder 303.

復号化制御部320は、復号化タイミングの制御を含む復号化部300全体の制御を行う。
次に、図8を用いて予測部310の動作について説明する。
まず、特徴分離部311は、第1予測画像信号37を動き補償部305より取得する(ステップS401)。次に、特徴分離部311は、ステップS401において取得した第1予測画像信号37から第1特徴信号39を抽出する(ステップS402)。次に、特徴分離部311は、ステップS401において取得した第1予測画像信号37より、ステップS402において取得した第1特徴信号39を除去し、特徴除去信号40を生成する(ステップS403)。ここで、ステップS402及びステップS403の行われる順序は上記に限らない。例えば、図3Aに示す特徴分離部130と同様の特徴分離部311であればステップS402及びステップS403の行われる順序を入れ替えてもよいし、図3Bに示す特徴分離部130と同様の特徴分離部311であればステップS402及びステップS403が同時に行われてもよい。
The decoding control unit 320 controls the entire decoding unit 300 including control of decoding timing.
Next, the operation of the prediction unit 310 will be described with reference to FIG.
First, the feature separation unit 311 acquires the first predicted image signal 37 from the motion compensation unit 305 (step S401). Next, the feature separation unit 311 extracts the first feature signal 39 from the first predicted image signal 37 acquired in step S401 (step S402). Next, the feature separation unit 311 removes the first feature signal 39 acquired in step S402 from the first predicted image signal 37 acquired in step S401, and generates a feature removal signal 40 (step S403). Here, the order in which step S402 and step S403 are performed is not limited to the above. For example, in the case of the feature separation unit 311 similar to the feature separation unit 130 illustrated in FIG. 3A, the order in which steps S402 and S403 are performed may be switched, or the feature separation unit similar to the feature separation unit 130 illustrated in FIG. 3B. If it is 311, step S402 and step S403 may be performed simultaneously.

次に、特徴予測部312は、エントロピー復号化器301からの補助情報32を取得する(ステップS404)。次に、特徴予測部312はステップS404において取得した補助情報32及びステップS402において抽出した第1特徴信号39を用いて特徴予測信号41を生成する(ステップS405)。   Next, the feature prediction unit 312 acquires the auxiliary information 32 from the entropy decoder 301 (step S404). Next, the feature prediction unit 312 generates the feature prediction signal 41 using the auxiliary information 32 acquired in step S404 and the first feature signal 39 extracted in step S402 (step S405).

次に、信号合成部313は、ステップS403において生成した特徴除去信号40及びステップS405において生成した特徴予測信号41を合成して、第2予測画像信号38を生成する(ステップS406)。   Next, the signal synthesis unit 313 synthesizes the feature removal signal 40 generated in step S403 and the feature prediction signal 41 generated in step S405 to generate the second predicted image signal 38 (step S406).

以上説明したように、本実施形態に係る動画像復号化装置では、第1予測画像信号から抽出した第1特徴信号及び符号化データから復元した補助情報を用いて、原画像信号の第2特徴信号を予測して特徴予測信号を生成し、第1予測画像信号から第1特徴信号を除去した特徴除去信号に特徴予測信号を合成して第2予測画像信号を生成し、符号化データから復元した予測残差信号と第2予測画像信号とを加算して復号画像信号を生成している。従って、本実施形態に係る動画像復号化装置によれば、第1予測画像信号と予測残差信号とを加算して復号画像信号を生成する場合に比べて、特徴信号の再現性を高め、予測残差を低減させられる。   As described above, in the video decoding device according to the present embodiment, the second feature of the original image signal is used by using the first feature signal extracted from the first predicted image signal and the auxiliary information restored from the encoded data. A feature prediction signal is generated by predicting a signal, and a feature prediction signal is synthesized with a feature removal signal obtained by removing the first feature signal from the first prediction image signal to generate a second prediction image signal, and restored from the encoded data The decoded residual signal and the second predicted image signal are added to generate a decoded image signal. Therefore, according to the video decoding device according to the present embodiment, compared with the case where the first predicted image signal and the prediction residual signal are added to generate a decoded image signal, the reproducibility of the feature signal is improved, The prediction residual can be reduced.

尚、本実施形態に係る動画像復号化装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。即ち、エントロピー復号化器301、逆変換・逆量子化部302、加算器303、動き補償部305、予測部310及び復号化制御部320は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、本実施形態に係る動画像復号化装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、フレームメモリ304は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。   Note that the moving picture decoding apparatus according to the present embodiment can also be realized by using, for example, a general-purpose computer apparatus as basic hardware. That is, the entropy decoder 301, the inverse transform / inverse quantization unit 302, the adder 303, the motion compensation unit 305, the prediction unit 310, and the decoding control unit 320 execute a program on a processor mounted on the computer device. This can be realized. At this time, the video decoding device according to the present embodiment may be realized by installing the above program in a computer device in advance, or may be stored in a storage medium such as a CD-ROM or via a network. The above program may be distributed, and this program may be installed in a computer device as appropriate. The frame memory 304 is realized by appropriately using a memory, a hard disk or a storage medium such as a CD-R, a CD-RW, a DVD-RAM, a DVD-R, etc., which is built in or externally attached to the computer device. Can do.

尚、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. Further, for example, a configuration in which some components are deleted from all the components shown in each embodiment is also conceivable. Furthermore, you may combine suitably the component described in different embodiment.

その他、本発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。   In addition, it goes without saying that the present invention can be similarly implemented even if various modifications are made without departing from the gist of the present invention.

第1の実施形態に係る動画像符号化装置を示すブロック図。1 is a block diagram showing a moving image encoding apparatus according to a first embodiment. 図1の予測部を示すブロック図。The block diagram which shows the estimation part of FIG. 図2の特徴分離部の一変形例を示すブロック図。The block diagram which shows the modification of the characteristic separation part of FIG. 図2の特徴分離部の他の変形例を示すブロック図。The block diagram which shows the other modification of the characteristic separation part of FIG. 図2の予測部の動作を示すフローチャート。The flowchart which shows operation | movement of the estimation part of FIG. 原画像信号の一例を示す図。The figure which shows an example of an original image signal. 図5Aの原画像信号から抽出される第2特徴信号の一例を示す図。The figure which shows an example of the 2nd feature signal extracted from the original image signal of FIG. 5A. 図5Aの原画像信号に動き推定・動き補償を行った第1予測画像信号の一例を示す図。The figure which shows an example of the 1st prediction image signal which performed motion estimation and motion compensation to the original image signal of FIG. 5A. 図5Cの第1予測画像信号から抽出される第1特徴信号の一例を示す図。The figure which shows an example of the 1st feature signal extracted from the 1st prediction image signal of FIG. 5C. 図5Cの第1予測画像信号から図5Dの第1特徴信号を除去した特徴除去信号の一例を示す図。The figure which shows an example of the feature removal signal which removed the 1st feature signal of FIG. 5D from the 1st prediction image signal of FIG. 5C. 図5Dの第1特徴信号と図5Bの第2特徴信号のエッジ中心線を示す図。The figure which shows the edge centerline of the 1st feature signal of FIG. 5D, and the 2nd feature signal of FIG. 5B. エッジの強度分布の求め方の一例を示す図。The figure which shows an example of how to obtain | require the intensity distribution of an edge. 図5Dの第1特徴信号と図5Bの第2特徴信号の強度分布を示すグラフ図。The graph which shows intensity distribution of the 1st feature signal of Drawing 5D, and the 2nd feature signal of Drawing 5B. 図5Dの第1特徴信号と補助情報を用いて生成した特徴予測信号の一例を示す図。The figure which shows an example of the feature prediction signal produced | generated using the 1st feature signal and auxiliary information of FIG. 5D. 図5Eの特徴除去信号と図5Iの特徴予測信号を合成した第2予測画像信号の一例を示す図。The figure which shows an example of the 2nd prediction image signal which synthesize | combined the feature removal signal of FIG. 5E, and the feature prediction signal of FIG. 5I. 第2の実施形態に係る動画像復号化装置を示すブロック図。The block diagram which shows the moving image decoding apparatus which concerns on 2nd Embodiment. 図6の予測部を示すブロック図。The block diagram which shows the estimation part of FIG. 図7の予測部の動作を示すフローチャート。The flowchart which shows operation | movement of the estimation part of FIG.

符号の説明Explanation of symbols

10・・・原画像信号
11・・・予測残差信号
12・・・量子化された変換係数
13・・・復号予測残差信号
14・・・符号化データ
15・・・局所復号画像信号
16・・・参照画像信号
17・・・第1予測画像信号
18・・・動きベクトル
19・・・第2予測画像信号
20・・・補助情報
21・・・第1特徴信号
22・・・特徴除去信号
23・・・第2特徴信号
24・・・特徴予測信号
30・・・符号化データ
31・・・量子化された変換係数
32・・・補助情報
33・・・動きベクトル
34・・・復号予測残差信号
35・・・復号画像信号
36・・・参照画像信号
37・・・第1予測画像信号
38・・・第2予測画像信号
39・・・第1特徴信号
40・・・特徴除去信号
41・・・特徴予測信号
100・・・符号化部
101・・・減算器
102・・・変換・量子化部
103・・・逆変換・逆量子化部
104・・・エントロピー符号化器
105・・・加算器
106・・・フレームメモリ
107・・・動き推定・動き補償部
110・・・予測部
121・・・特徴抽出部
122・・・補助情報生成部
130・・・特徴分離部
131・・・特徴抽出部
132・・・減算器
133・・・平滑化フィルタ
134・・・減算器
135・・・帯域分割部
141・・・特徴予測部
142・・・信号合成部
150・・・符号化制御部
300・・・復号化部
301・・・エントロピー復号化器
302・・・逆変換・逆量子化部
303・・・加算器
304・・・フレームメモリ
305・・・動き補償部
310・・・予測部
311・・・特徴分離部
312・・・特徴予測部
313・・・信号合成部
320・・・復号化制御部
DESCRIPTION OF SYMBOLS 10 ... Original image signal 11 ... Prediction residual signal 12 ... Quantized transform coefficient 13 ... Decoded prediction residual signal 14 ... Encoded data 15 ... Local decoded image signal 16 ... Reference image signal 17 ... First predicted image signal 18 ... Motion vector 19 ... Second predicted image signal 20 ... Auxiliary information 21 ... First feature signal 22 ... Feature removal Signal 23 ... Second feature signal 24 ... Feature prediction signal 30 ... Encoded data 31 ... Quantized transform coefficient 32 ... Auxiliary information 33 ... Motion vector 34 ... Decoding Prediction residual signal 35 ... Decoded image signal 36 ... Reference image signal 37 ... First prediction image signal 38 ... Second prediction image signal 39 ... First feature signal 40 ... Feature removal Signal 41 ... feature prediction signal 100 ... encoding unit DESCRIPTION OF SYMBOLS 101 ... Subtractor 102 ... Transformation / quantization part 103 ... Inverse transformation / inverse quantization part 104 ... Entropy encoder 105 ... Adder 106 ... Frame memory 107 ... Motion estimation / compensation unit 110 ... prediction unit 121 ... feature extraction unit 122 ... auxiliary information generation unit 130 ... feature separation unit 131 ... feature extraction unit 132 ... subtractor 133 ... Smoothing filter 134: Subtractor 135: Band division unit 141 ... Feature prediction unit 142 ... Signal synthesis unit 150 ... Coding control unit 300 ... Decoding unit 301 ... Entropy decoder 302 ... Inverse transform / inverse quantization unit 303 ... Adder 304 ... Frame memory 305 ... Motion compensation unit 310 ... Prediction unit 311 ... Feature separation unit 312 ... ·Characteristic Measuring unit 313 ... signal synthesizer 320 ... decryption controller

Claims (11)

原画像から第1エッジ成分画像を抽出する抽出部と、
参照画像を、第2エッジ成分画像とエッジ除去画像とに分離する分離部と、
前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成する補助情報生成部と、
前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測する予測部と、
前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成する予測画像生成部と、
前記原画像と前記予測画像との間の予測残差を求める予測残差計算部と、
前記予測残差及び前記補助情報を符号化する符号化部と、
を具備することを特徴とする画像符号化装置。
An extraction unit for extracting the first edge component image from the original image;
A separation unit that separates the reference image into a second edge component image and an edge-removed image;
An auxiliary information generating unit that generates auxiliary information for predicting the first edge component image from the second edge component image;
A prediction unit that predicts a third edge component image from the second edge component image using the auxiliary information;
A predicted image generation unit that generates a predicted image by combining the edge-removed image and the third edge component image;
A prediction residual calculation unit for obtaining a prediction residual between the original image and the prediction image;
An encoding unit for encoding the prediction residual and the auxiliary information;
An image encoding apparatus comprising:
前記補助情報は、前記第1エッジ成分画像に含まれる第1エッジと前記第2エッジ成分画像に含まれる第2エッジとの間の形状、強度及び広がりのうち少なくとも1つの差分を示す情報を含むことを特徴とする請求項1記載の画像符号化装置。   The auxiliary information includes information indicating at least one difference among shape, intensity, and spread between a first edge included in the first edge component image and a second edge included in the second edge component image. The image coding apparatus according to claim 1. 前記分離部は、
前記参照画像から前記第2エッジ成分画像を抽出する第2の抽出部と、
前記参照画像から前記第2エッジ成分画像を減算して、前記エッジ除去画像を生成する減算器と
を含むことを特徴とする請求項1記載の画像符号化装置。
The separator is
A second extraction unit for extracting the second edge component image from the reference image;
The image coding apparatus according to claim 1, further comprising: a subtractor that subtracts the second edge component image from the reference image to generate the edge removed image.
前記分離部は、
前記参照画像から前記エッジ除去画像を抽出する平滑化フィルタと、
前記参照画像から前記エッジ除去画像を減算して、前記第2エッジ成分を生成する減算器と
を含むことを特徴とする請求項1記載の画像符号化装置。
The separator is
A smoothing filter for extracting the edge-removed image from the reference image;
The image coding apparatus according to claim 1, further comprising: a subtracter that subtracts the edge-removed image from the reference image to generate the second edge component.
前記分離部は、前記参照画像を高周波成分と低周波成分とに分割し、前記高周波成分を前記第2エッジ成分画像として出力し、前記低周波成分を前記エッジ除去画像として出力することを特徴とする請求項1記載の画像符号化装置。   The separating unit divides the reference image into a high-frequency component and a low-frequency component, outputs the high-frequency component as the second edge component image, and outputs the low-frequency component as the edge-removed image. The image encoding device according to claim 1. 入力された符号化データを復号化して、対象画像の予測残差および前記対象画像の第1エッジ成分画像を予測するための補助情報を求める復号化部と、
既に復号化された参照画像を当該参照画像の第2エッジ成分画像と、当該参照画像から第2エッジ成分を除去したエッジ除去画像とに分離する分離部と、
前記補助情報を用いて前記第2エッジ成分画像から前記第1エッジ成分画像を予測する予測部と、
前記エッジ除去画像と前記第2エッジ成分画像とを合成して、予測画像を生成する合成部と、
前記予測残差と前記予測画像とを用いて、前記対象画像の復号画像を生成する復号画像生成部と、
を具備することを特徴とする画像復号化装置。
A decoding unit that decodes input encoded data to obtain a prediction residual of a target image and auxiliary information for predicting a first edge component image of the target image;
A separation unit that separates a reference image that has already been decoded into a second edge component image of the reference image and an edge-removed image obtained by removing the second edge component from the reference image;
A prediction unit that predicts the first edge component image from the second edge component image using the auxiliary information;
A combining unit that combines the edge-removed image and the second edge component image to generate a predicted image;
A decoded image generating unit that generates a decoded image of the target image using the prediction residual and the predicted image;
An image decoding apparatus comprising:
前記補助情報は、前記第1エッジ成分画像に含まれる第1エッジと前記第2エッジ成分画像に含まれる第2エッジとの間の形状、強度及び広がりのうち少なくとも1つの差分を示す情報を含むことを特徴とする請求項6記載の画像復号化装置。   The auxiliary information includes information indicating at least one difference among shape, intensity, and spread between a first edge included in the first edge component image and a second edge included in the second edge component image. The image decoding apparatus according to claim 6. 原画像から第1エッジ成分画像を抽出し、
参照画像を、第2エッジ成分画像とエッジ除去画像とに分離し、
前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成し、
前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測し、
前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成し、
前記原画像と前記予測画像との間の予測残差を求め、
前記予測残差及び前記補助情報を符号化する
ことを特徴とする画像符号化方法。
Extract the first edge component image from the original image,
Separating the reference image into a second edge component image and an edge-removed image;
Generating auxiliary information for predicting the first edge component image from the second edge component image;
Predicting a third edge component image from the second edge component image using the auxiliary information;
Combining the edge-removed image and the third edge component image to generate a predicted image;
Obtaining a prediction residual between the original image and the predicted image;
The image encoding method, wherein the prediction residual and the auxiliary information are encoded.
前記補助情報は、前記第1エッジ成分画像に含まれる第1エッジと前記第2エッジ成分画像に含まれる第2エッジとの間の形状、強度及び広がりのうち少なくとも1つの差分を示す情報を含むことを特徴とする請求項8記載の画像符号化方法。   The auxiliary information includes information indicating at least one difference among shape, intensity, and spread between a first edge included in the first edge component image and a second edge included in the second edge component image. The image encoding method according to claim 8. 入力された符号化データを復号化して、対象画像の予測残差および前記対象画像の第1エッジ成分画像を予測するための補助情報を求め、
既に復号化された参照画像を当該参照画像の第2エッジ成分画像と、当該参照画像から第2エッジ成分を除去したエッジ除去画像とに分離し、
前記補助情報を用いて前記第2エッジ成分画像から前記第1エッジ成分画像を予測し、
前記エッジ除去画像と前記第2エッジ成分画像とを合成して、予測画像を生成し、
前記予測残差と前記予測画像とを用いて、前記対象画像の復号画像を生成する復号画像生成する
ことを特徴とする画像復号化方法。
Decoding the input encoded data, obtaining the prediction residual of the target image and auxiliary information for predicting the first edge component image of the target image;
Separating the already decoded reference image into a second edge component image of the reference image and an edge-removed image obtained by removing the second edge component from the reference image;
Predicting the first edge component image from the second edge component image using the auxiliary information;
Combining the edge-removed image and the second edge component image to generate a predicted image;
A decoded image that generates a decoded image of the target image using the prediction residual and the predicted image is generated.
前記補助情報は、前記第1エッジ成分画像に含まれる第1エッジと前記第2エッジ成分に含まれる第2エッジとの間の形状、強度及び広がりのうち少なくとも1つの差分を示す情報を含むことを特徴とする請求項10記載の画像復号化方法。   The auxiliary information includes information indicating at least one difference among shape, intensity, and spread between a first edge included in the first edge component image and a second edge included in the second edge component. The image decoding method according to claim 10.
JP2007249654A 2007-09-26 2007-09-26 Image encoding/decoding device and method Pending JP2010287917A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007249654A JP2010287917A (en) 2007-09-26 2007-09-26 Image encoding/decoding device and method
PCT/JP2008/066000 WO2009041243A1 (en) 2007-09-26 2008-09-04 Image encoding/decoding device and method
TW97135352A TW200922338A (en) 2007-09-26 2008-09-15 Image encoding/decoding device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007249654A JP2010287917A (en) 2007-09-26 2007-09-26 Image encoding/decoding device and method

Publications (1)

Publication Number Publication Date
JP2010287917A true JP2010287917A (en) 2010-12-24

Family

ID=40511132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007249654A Pending JP2010287917A (en) 2007-09-26 2007-09-26 Image encoding/decoding device and method

Country Status (3)

Country Link
JP (1) JP2010287917A (en)
TW (1) TW200922338A (en)
WO (1) WO2009041243A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015506010A (en) * 2011-11-23 2015-02-26 ロッサト、ルカ Signal analysis and generation of transient information

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452859B1 (en) 2009-08-13 2014-10-23 삼성전자주식회사 Method and apparatus for encoding and decoding motion vector
CN103780904B (en) * 2014-01-23 2016-11-09 西安电子科技大学 High spectrum image self-adaptive non-loss predictive coding system and method based on edge

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04277982A (en) * 1991-03-06 1992-10-02 Matsushita Electric Ind Co Ltd High efficient coder for video signal
JP3169147B2 (en) * 1992-09-02 2001-05-21 日本電信電話株式会社 High-efficiency coding device for video data
KR100927967B1 (en) * 2001-10-26 2009-11-24 코닌클리케 필립스 일렉트로닉스 엔.브이. Spatial scalable compression scheme using spatial sharpness enhancement techniques

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015506010A (en) * 2011-11-23 2015-02-26 ロッサト、ルカ Signal analysis and generation of transient information
US10321161B2 (en) 2011-11-23 2019-06-11 V-Nova International Limited Signal analysis and generation of transient information

Also Published As

Publication number Publication date
TW200922338A (en) 2009-05-16
WO2009041243A1 (en) 2009-04-02

Similar Documents

Publication Publication Date Title
JP5194833B2 (en) Encoding apparatus and method, recording medium, and program
KR101311402B1 (en) An video encoding/decoding method and apparatus
KR101200865B1 (en) An video encoding/decoding method and apparatus
WO2010001916A1 (en) Image processing device and method
EP2063644A2 (en) Image encoding device and encoding method, and image decoding device and decoding method
JP4533081B2 (en) Image encoding apparatus and method
US9167271B2 (en) Image processing device, method, and program, dynamic image encoding device, method, and program, dynamic image decoding device, method, and program, and encoding/decoding system and method
RU2559839C1 (en) Method and device for predictive motion compensation
JP2009060153A (en) Intra prediction mode decision device, method, and program
JP2006157481A (en) Image coding apparatus and method thereof
US20070160298A1 (en) Image encoder, image decoder, image encoding method, and image decoding method
KR20090098214A (en) Method and apparatus for video encoding and decoding
JP4931214B2 (en) Image processing apparatus and method
JP5055078B2 (en) Image processing apparatus and method
JP2004215275A (en) Motion compensation based improved noise prediction method and apparatus, and moving image encoding method and apparatus using the same
JP2008301336A (en) Image processing device, image encoding device and image decoding device
WO2008072500A1 (en) Dynamic image encoding device and dynamic image decoding device
JPWO2006100946A1 (en) Image signal re-encoding device and image signal re-encoding method
JP2010287917A (en) Image encoding/decoding device and method
JP7309959B2 (en) Image decoding device and image decoding method
JP5180550B2 (en) Image processing apparatus and image processing method
KR101702937B1 (en) Method for scaling a resolution and an apparatus thereof
JP6016488B2 (en) Video compression format conversion apparatus, video compression format conversion method, and program
JP2011130192A (en) Encoder and image converting apparatus
WO2010061515A1 (en) Dynamic image encoding device, encoding method, dynamic image decoding device, and decoding method