WO2007072895A1 - 画面内予測モード決定方法、画像符号化方法及び画像符号化装置 - Google Patents
画面内予測モード決定方法、画像符号化方法及び画像符号化装置 Download PDFInfo
- Publication number
- WO2007072895A1 WO2007072895A1 PCT/JP2006/325464 JP2006325464W WO2007072895A1 WO 2007072895 A1 WO2007072895 A1 WO 2007072895A1 JP 2006325464 W JP2006325464 W JP 2006325464W WO 2007072895 A1 WO2007072895 A1 WO 2007072895A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- prediction
- prediction mode
- difference
- sub
- feature
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
Definitions
- Intra-screen prediction mode determination method, image coding method and image coding apparatus Intra-screen prediction mode determination method, image coding method and image coding apparatus
- the present invention relates to an image coding method and an image coding apparatus, and more particularly to a prediction mode determination method in an in-frame prediction code of H.264 / AVC.
- H. 26 4 ZAVC which is a moving image coding standard formulated by ITU-T and ISOZ IEC, is compared to "MPEG-4" and "H. 263” which are conventional code standards. Approximately twice the compression efficiency.
- This standard adopts intra-frame prediction (also referred to simply as “in-plane prediction”) coding technology using spatial correlation in addition to inter-frame prediction coding technology using time correlation as in the conventional standard. It has a feature in
- “Intra-screen predictive coding” is a technology for performing frequency conversion and the like on predictive error images of an input image and an in-screen predicted image generated in a screen.
- the in-screen prediction image is generated by copying pixel values in the direction of the in-screen prediction mode using the pixels adjacent to the encoding target block (specifically, the upper adjacent and left adjacent pixels after coding).
- Image In H. 264 ZAVC, a plurality of types of intra-frame prediction modes (also referred to simply as “prediction modes”) are defined, and the number of intra-screen prediction modes that can be selected differs depending on the size of the coding target block. Specifically, for the luminance component of 4 ⁇ 4 pixels or 8 ⁇ 8 pixels, there are nine prediction modes as shown in FIG.
- FIGS. 4 (a) and 4 (b) are prediction mode numbers.
- FIGS. 5 (a) to 5 (c) are diagrams showing specific examples when generating an intra-frame predicted image in intra-frame prediction using 8 ⁇ 8 pixels.
- “A” to “Y” in FIGS. 5A to 5C are pixel values adjacent to the block to be encoded.
- FIG. 5 (a) in prediction mode 0 in which vertical intra-screen prediction is performed, the values of adjacent pixels are copied in the vertical direction to generate an intra-frame predicted image. Do.
- prediction mode 1 in which in-screen prediction in the horizontal direction is performed as shown in FIG. 5B
- the values of adjacent pixels are copied in the horizontal direction to generate an in-plane predicted image.
- prediction mode 3 in which the in-screen prediction in the lower right 45 ° direction is performed, as shown in FIG. 5C, the value of the adjacent pixel is copied in the lower 45 ° direction to generate an in-screen predicted image.
- FIG. 1 is a block diagram showing a functional configuration of a conventional image coding device 2.
- the image code decoding device 2 includes an intra-frame prediction unit 20, a prediction error coding unit 11, a prediction error decoding unit 12, a frame memory 13, a lossless coding unit 14, a difference unit 1000, An adder 1001 is provided. The functions and processing contents of each part will be described in order below.
- the in-screen prediction unit 20 receives the decoded image stored in the frame memory 13 and generates an in-screen predicted image using pixels adjacent to the target block. As described above, the in-screen prediction image is generated by copying the values of adjacent pixels in the prediction direction determined by the optimal prediction mode selected from a plurality of types of prediction modes. The in-screen predicted image generated by the in-screen prediction unit 20 is output to the difference unit 1000 and the adder 1001.
- the prediction error code input unit 11 receives the prediction error image of the input image output from the difference unit 1000 and the in-screen prediction image, and performs discrete cosine transformation or kernel ' It performs frequency conversion processing such as conversion and quantization processing to generate a prediction error signal.
- the generated prediction error signal is output to the lossless encoding unit 14 and the prediction error decoding unit 12.
- the prediction error decoding unit 12 receives the prediction error signal output from the prediction error coding unit 11, performs inverse quantization and inverse frequency conversion processing on the prediction error signal, and performs prediction. Generate an error decoded image. The generated prediction error decoded image is output to the adder 1001.
- Adder 1001 receives the intra-frame prediction image output from intra-frame prediction unit 20 and the prediction error decoded image output from prediction error coding unit 11, adds the both, and generates a decoded image. Output to frame memory 13
- Frame memory 13 receives the decoded image output from adder 1001, and the decoded image Save the image.
- the stored decoded image is output to the in-screen prediction unit 20 when the in-screen predicted image is created.
- the lossless code input unit 14 receives the prediction error signal output from the prediction error code input unit 11.
- the lossless encoding based on the variable-length code ⁇ or the arithmetic code ⁇ ⁇ ⁇ ⁇ is applied to the prediction error signal to generate a code word.
- the generated code word is the final encoded image.
- FIG. 8 is a flow chart showing the flow of processing in the conventional image code device 2 shown in FIG. 1 above. The following processing is performed in block units, which are frequency conversion sizes.
- the value "cost” is selected, and the minimum predicted evaluation value "min-” The best in-screen prediction mode with the lowest cost is selected. This is because it is considered that the coding efficiency improves as the prediction error between the input image and the in-screen predicted image generated in the screen is smaller. Detailed processing flow of the step will be described later.
- the in-screen prediction unit 20 copies the values of the adjacent pixels in the prediction direction determined by the best prediction mode selected in step AO and determined in step AO, and the in-plane predicted image prd ⁇ blk [best ⁇ mode] (step A1).
- step A2 a prediction error image diff-blk of the input image org-blk and the in-screen predicted image prd-blk [best-mode] generated in the above step A1 is generated (step A2) .
- the prediction error image diff generated in the above step A2 is generated by the prediction error code input unit 11.
- step A3 -Perform frequency transformation and quantization such as discrete cosine transformation or kernel's Laebe transformation on blk to generate a prediction error signal diff_signal (step A3).
- the lossless coding unit 14 applies lossless coding based on a variable-length code ⁇ or arithmetic coding ⁇ ⁇ ⁇ ⁇ to the prediction error signal diff_ signal generated in step A3 to generate a code word Generate (Step A4).
- the above is the processing flow of intra-frame prediction encoding of the conventional H. 264 ZAVC.
- FIG. 9 is a flow chart showing the flow of processing when selecting an intra prediction mode candidate. The following processing is performed in block units, which is the frequency conversion size, as in FIG.
- the candidate in this case is specified using the candidate flag flag [mode].
- Candidate flag flag [mode] indicates that the in-screen prediction mode is a candidate when it takes a value of “1”, and indicates that it is not a candidate when it takes a value of “0”. The detailed processing flow of this step will be described later.
- the in-screen prediction mode determination unit 102 initializes the optimal evaluation value min_cost of the optimal in-plane prediction mode and the optimal in-plane prediction mode best-mode (step Bl).
- Predicted evaluation value for optimal intra prediction mode For the min ⁇ cost, set the prediction evaluation value to a large value! / ⁇ Large value MAXCOST.
- the in-screen prediction mode determination unit 102 performs all the in-screen prediction modes mode (mode
- step 2 it is judged whether the candidate flag flag [mode] is 0 or 1 (step B3). If the intra prediction mode mode is “1”, that is, if the intra prediction mode m ode is a candidate for intra prediction, copy the values of adjacent pixels in the intra prediction direction determined by the intra prediction mode mode Predicted image prd — Generate blk [mode] (Step B4). Furthermore, the in-plane prediction mode determination unit 102 calculates the predicted evaluation value cost using the input image org—blk and the in-screen predicted image prd—blk [mode] generated in step C4 (step B5). .
- Non-Patent Document 1 a method of selecting a candidate for an intra-frame prediction mode based on edge characteristics of the input image (see, for example, Patent Document 1), and intra-plane prediction based on frequency characteristics of the input image.
- a method for selecting mode candidates has been proposed.
- the method based on edge characteristics is a method based on the idea that the prediction direction of the optimal in-plane prediction mode almost matches the edge direction.
- FIG. 2 shows a block diagram of the in-screen prediction unit 20 that implements selection of in-screen prediction modes based on edge characteristics.
- the in-screen prediction unit 20 includes an edge characteristic analysis unit 100, a prediction mode candidate selection unit 101, and a prediction mode determination unit 102. The processing contents and functions of each part will be described in order below.
- the edge characteristic analysis unit 100 receives an input image, applies an SOBEL filter, which is an edge detection filter, to each pixel of the input image, and as shown in FIG. Classify separately and create a histogram. Then, the edge characteristic analysis unit 100 outputs the histogram as the edge characteristic information to the prediction mode candidate selection unit 101.
- SOBEL filter which is an edge detection filter
- the prediction mode candidate selection unit 101 selects, as a candidate, an in-screen prediction mode in which in-plane prediction is performed in the most frequent in-screen prediction direction and its neighboring direction. Do. Then, the prediction mode candidate selection unit 101 outputs the intra-screen prediction mode candidate to the prediction mode determination unit 102 as prediction mode candidate information.
- the prediction mode determination unit 102 receives, as input, prediction mode candidate information output from the prediction mode candidate selection unit 101, selects one in-plane prediction mode from the in-screen prediction mode candidates, and selects the in-pixel plane. An intra-frame predicted image corresponding to the prediction mode is output.
- the above is the description of the in-screen prediction unit 20 that realizes candidate selection of the in-screen prediction mode based on the edge characteristics.
- FIG. 10 is a flow chart according to candidate selection of an in-plane prediction mode based on edge characteristics. The following processing flow is performed in block units of the frequency conversion size.
- the edge characteristic analysis unit 100 applies an SOBEL filter to each pixel in the block of the input image org-blk (step CO) (step C1), and predicts the edge direction of each pixel in-screen. Categorize by direction and count the frequency by each direction (step C2).
- step C 3 the candidate mode flag of the intra prediction mode “mode— edge” for intra prediction in the screen in the most frequent intra prediction direction and its neighboring direction is set to “1” (step C 3)
- the above is a flowchart relating to candidate selection of an intra prediction mode based on edge characteristics.
- FIG. 3 shows a block diagram of the in-screen prediction unit 21 that realizes candidate selection of an in-screen prediction mode based on frequency characteristics.
- the in-screen prediction unit 21 includes a frequency characteristic analysis unit 200, a prediction mode candidate selection unit 201, and a 202 prediction mode determination unit 202.
- processing contents and functions of each unit will be described in order.
- the frequency characteristic analysis unit 200 receives an input image, applies frequency conversion such as discrete cosine conversion or kernel's lathe conversion to the input image, and generates a horizontal frequency component and a vertical direction. The four variables of frequency component, horizontal energy intensity, and vertical energy intensity are calculated. Then, the frequency characteristic analysis unit 200 outputs the four variables as the frequency characteristic information to the prediction mode candidate selection unit 201.
- frequency conversion such as discrete cosine conversion or kernel's lathe conversion
- the prediction mode candidate selection unit 201 receives the frequency characteristic information output from the frequency characteristic analysis unit 200, and from the frequency components in the horizontal and vertical directions and the bias of energy, the minutes shown in FIG. Classify into cloth patterns, and select the distribution pattern force in-screen prediction mode candidates. Then, the prediction mode candidate selection unit 201 outputs the intra prediction prediction mode candidate to the prediction mode determination unit 202 as prediction mode candidate information.
- the prediction mode determination unit 202 receives the prediction mode candidate information output from the prediction mode candidate selection unit 201, and selects one of the in-screen prediction mode candidates from the in-screen prediction modes. Is selected, and the in-screen predicted image corresponding to the in-screen prediction mode is output.
- the above is the description of the in-screen prediction unit 21 that realizes candidate selection of the in-plane prediction mode based on the frequency characteristic.
- FIG. 11 is a flowchart according to candidate selection of the in-screen prediction mode based on frequency characteristics. The following processing flow is performed in block units of the frequency conversion size.
- the frequency characteristic analysis unit 200 performs frequency conversion such as discrete cosine transform or kernel's lathe transform on the input image org-blk (step DO), and frequency components in the horizontal 'vertical direction CH , CV (step D1) and horizontal and vertical energy EH, EV (step D2) are calculated.
- the prediction mode candidate selection unit 201 classifies the frequency components CH and CV in the horizontal 'vertical direction and the energy EH and EV into the distribution pattern shown in FIG. 7, and selects the corresponding in-plane prediction mode mode.
- Candidate flag of freq flag [mode— freq] is set to 1 (step D3).
- the above is a flowchart relating to candidate selection of the in-screen prediction mode based on the frequency characteristic.
- Non-Patent Document 1 Feng P. et al, 'Fast Mode Decision for Intra Prediction', JVT-G013, Mar, 2003.
- Non-Patent Document 2 Tsukuba, Nagakichi, Hanamura, Tominaga, "H. 264 ZAVC Intra prediction mode determination method based on frequency characteristics", 2004-AVM-47. Disclosure of the invention
- the present invention has been made in view of the above problems, and provides an image coding method and an image coding apparatus and the like that can significantly reduce the processing amount while maintaining the coding efficiency to some extent.
- the purpose is
- the intra prediction mode determination method is an intra prediction mode in an image coding apparatus that encodes a prediction error between an input image and a generated intra prediction image.
- a determination method which calculates feature quantities in at least three subblocks constituting an encoding target block corresponding to a part of the input image, and further, in at least two subblocks in one prediction direction.
- a feature amount distribution analysis step of calculating a difference between the feature amounts and a difference between the feature amounts in at least two subblocks in another prediction direction different from the one prediction direction; the feature amount distribution analysis step
- the prediction mode determination step of determining one prediction mode from among the prediction mode candidates selected in the prediction mode candidate selection step is characterized by:
- the one prediction direction and the other prediction direction are orthogonal to each other, and in the feature amount distribution analysis step, the feature amounts of the two sub blocks in the one prediction direction are A difference and a difference between the feature quantities in at least two sub blocks in the other prediction direction are calculated.
- the code target block is composed of sub-blocks on the upper left, upper right, lower left and lower right of the rectangle dividing the encoding target block into four equal parts, and the feature amount distribution analysis step In the above, the difference between the feature quantities in the upper left subblock and the lower right subblock and the difference in the feature quantities between the upper right subblock and the lower left subblock are calculated.
- the feature amount distribution analysis step when calculating the feature amount, it is preferable to calculate the feature amount using only the pixels in the top row and the pixels in the left end row in each sub block. It features.
- the difference between the feature amounts in a region near the starting point of the prediction direction is calculated.
- an image coding apparatus is an image coding apparatus that codes prediction errors between an input image and a generated intra-frame predicted image.
- a feature amount in at least three sub blocks constituting a code target block corresponding to a part of the input image is calculated, and further, a difference between the feature amounts in at least two sub blocks in one prediction direction and Feature amount distribution analysis means for calculating the difference between the feature amounts in at least two subblocks in other prediction directions different from the one prediction direction; and the feature amounts calculated in the feature amount distribution analysis means
- Prediction mode candidate selection means for selecting at least one prediction mode candidate corresponding to the prediction direction with a smaller difference in
- a prediction mode determination means for determining one prediction mode from the prediction mode candidate, and the prediction mode decision means you, generated using the prediction mode determined Te the intra prediction image
- Prediction error coding means for coding prediction errors with the input image.
- the present invention may be implemented as an image coding method including the characteristic steps of the intra-frame prediction mode determining method, or as a program for causing a computer to execute those steps. It is needless to say that the program can be widely distributed through recording media such as DVD and transmission media such as the Internet.
- the characteristic constituent means in the image coding apparatus may be realized by an integrated circuit.
- the present invention since it is possible to determine the in-screen prediction mode with a low processing amount, it is possible to reduce the IC cost for realizing the above method, etc.
- the power consumption can be reduced even by IJ.
- FIG. 1 is a block diagram showing a functional configuration of a conventional image coding apparatus and an image coding apparatus according to Embodiment 1.
- FIG. 2 is a block diagram showing a functional configuration of a conventional in-screen prediction unit using edge characteristics.
- FIG. 3 is a block diagram showing a functional configuration of a conventional in-screen prediction unit using frequency characteristics.
- FIGS. 4 (a) and 4 (b) are diagrams showing intra prediction modes and their directions in H264ZAVC.
- FIGS. 5 (a) to 5 (c) are diagrams showing a specific example when generating an intra-frame predicted image in intra-frame prediction using 8 ⁇ 8 pixels.
- FIG. 6 is an example of a histograph when edge directions are classified into the direction of the in-screen prediction mode.
- FIG. 7 is a view showing an example of the relationship between the frequency characteristic and the candidate for the intra prediction mode
- FIG. 8 is a flowchart of the intra prediction coding process.
- FIG. 9 is a flowchart of in-plane prediction processing.
- FIG. 10 is a flow chart showing a flow of processing for selecting candidates for the in-screen prediction mode based on the conventional edge characteristics.
- FIG. 11 is a flow chart showing a flow of processing for selecting candidates for the in-screen prediction mode based on the conventional frequency characteristics.
- FIG. 12 is a block diagram showing a functional configuration of the in-screen prediction unit according to Embodiment 1.
- FIG. 13 is a diagram showing an example of the relationship between the sub-blocks according to Embodiment 1 and the directions used when selecting a candidate for the in-screen prediction mode.
- FIGS. 14 (a) and 14 (b) are diagrams showing other examples of the relationship between the sub-blocks according to Embodiment 1 and the directions used when selecting the candidate for the intra prediction mode.
- FIGS. 15 (a) and 15 (b) are diagrams showing a modification of the relationship between the sub-blocks according to Embodiment 1 and the directions used when selecting candidates for the intra prediction mode.
- FIGS. 16 (a) and 16 (b) are examples showing the use of a part of pixels in a subblock when calculating feature quantities.
- FIG. 17 is a flow chart showing a flow of processing of selecting an intra prediction mode candidate based on the feature amount distribution characteristic according to the first embodiment.
- FIG. 1 also shows a block diagram showing a functional configuration of the image code device 1 according to the present embodiment.
- the image code device 1 has the same functional configuration as the conventional image coding device 2 except for the intra-frame prediction unit 10.
- the intra prediction unit 10 receives the decoded image stored in the frame memory 13 and generates an intra prediction image using pixels adjacent to the encoding target block. Furthermore, the intra-screen prediction unit 10 narrows down the candidate prediction modes to be evaluated based on the feature quantities (for example, the luminance of each pixel, etc.) of the sub-blocks constituting the code target block. From among these narrowed prediction modes, one prediction mode is determined to generate an in-screen prediction image. The in-screen predicted image generated by the in-screen prediction unit 10 is output to the difference unit 1000 and the adder 1001.
- FIG. 12 is a block diagram showing a functional configuration of the in-screen prediction unit 10 in the image coding device 1 of FIG. 1 described above.
- the in-screen prediction unit 10 includes a feature amount distribution analysis unit 300, a prediction mode candidate selection unit 301, and a prediction mode determination unit 302. Below, the function of each part Will be described with reference to FIG. 13 to FIG.
- the luminance average value avg [i] is given by the following equation (1).
- j pixel coordinates
- n the number of pixels in the subblock i.
- the feature amount distribution analysis unit 300 outputs the difference absolute values delta_a and delta_b to the prediction mode candidate selection unit 201 as feature amount distribution characteristic information.
- the prediction mode determination unit 302 receives the prediction mode candidate information output from the prediction mode candidate selection unit 301 and receives the prediction mode Select one in-screen prediction mode from the candidates, and generate and output an in-screen predicted image corresponding to the in-screen prediction mode.
- FIG. 17 is a flowchart showing a flow of processing when selecting a prediction mode candidate in the in-screen prediction unit 10. The following processing flow is performed in block units of the frequency conversion size.
- the prediction mode candidate selection unit 301 selects a vertical prediction mode, a horizontal prediction mode, and a DC prediction mode, which have high frequency in intra-screen prediction, as fixed candidates (step E0). This is because a general image contains a lot of vertical or horizontal textures.
- the luminance average value avg [i] is given by equation (1) as described above.
- the image coding apparatus 1 since it is possible to narrow down the candidates for the in-screen prediction mode in the diagonal direction with a low processing amount, It is possible to reduce the amount of processing.
- the relationship between the subblocks to be targeted when calculating the difference absolute value delta-a of the luminance average value and the delta a-b in the feature quantity distribution analysis unit 300 is not limited to FIG. 13 described above. Yes.
- subblocks as shown in FIGS. 14 and 15 may be used.
- FIGS. 14 (a) and 14 (b) are diagrams showing other examples of the relationship between the sub-blocks according to Embodiment 1 and the directions used when selecting the intra prediction modes. As shown in Fig. 14 (a), even if sub block 0 and sub block 1 are used to calculate the above delta_a (solid line), and sub block 1 and sub block 3 are used to calculate delta-b (solid line). Well, (of course, sub-block 0 and sub-block 2 may be used to calculate the above delta_a (broken line), and sub-block 2 and sub-block 3 may be used to calculate delta_b (broken line)).
- the above-mentioned delta a is calculated using coded sub-block a and sub-block 1, and coded sub-block c and sub-block 0 are used.
- delta _ b may be calculated (Similarly, the above-mentioned delta ⁇ a is calculated using the signed sub block d and the sub block 2, and the signed sub block b and the sub block 1 are used d elta-b may be calculated).
- FIGS. 15 (a) and 15 (b) are diagrams showing a modification of the relationship between the sub-blocks according to Embodiment 1 and the directions used when selecting the intra prediction modes.
- the above-mentioned delta-a is calculated using the coded subblock e and the subblock 0, and the coded subblock b and the subblock 0 are used to calculate the above delta (Even, of course, instead of using the signed subblock b and subblock 0, the above described delta ⁇ b is computed using the encoded subblock d and subblock 0. Even!
- the above-mentioned delta ⁇ a is calculated using subblock 0 and subblock d already encoded, and the above sub-block 0 and subblock 3 are used to calculate the above delta -Calculate b.
- the image code I when determining the prediction mode in the intraframe prediction coding mode, candidates for the prediction mode are narrowed down based on the feature quantities on the image of the sub-blocks constituting the coding target block.
- the image code device has been described, in the second embodiment of the present invention, the image code I further utilizes the intermediate data of the quantization modulation method that quantizes the flat part finely and quantizes the complex part roughly.
- the apparatus will be described.
- the said quantization modulation method is one of the subjective quality improvement methods, The human eye is sensitive to a flat part, conversely, it utilizes dullness with respect to a complicated part, and a flat part is used. Relatively improve the image quality ⁇ ⁇ 3 ⁇ 4: It's rutile.
- the quantization modulation method dealt with in the present embodiment is classified into a flat part and a complex part based on the luminance variance value var of the input image.
- org ⁇ blk is the pixel value of the luminance component of the input image
- j is the pixel coordinate
- n is the number of pixels in the block of the orthogonal transformation size.
- the process of the equation (1) in the first embodiment can be shared.
- each sub block (that is, the pixel configuration) is not limited to a square, and may be, for example, a rectangle formed of 4 ⁇ 8 pixels or 8 ⁇ 4 pixels.
- the subblocks distributed in one direction may be three or more, provided that there are at least two forces which were two.
- the sum of errors with the representative value of the region near the origin of the in-screen prediction direction is calculated. That is, assuming that the error sum is delta, it is given by the following equation (6).
- n is the number of all subblocks distributed in one direction.
- the prediction mode determination method, the image coding method, and the image coding apparatus according to the present invention can reduce the amount of processing related to the intra prediction code, so for example, a mobile phone, a hard disk, etc.
- the present invention is useful as a method or apparatus for performing image compression coding in recorders and personal computers.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
画面内予測符号化において、符号化効率をある程度維持しつつ、画面内予測モードを決定する際の処理量を削減し得る方法等を提供する。 符号化対象ブロックを構成する少なくとも3つの領域の代表値を計算し、1つの方向上に分布する少なくとも2つの前記代表値の誤差和と、前記方向とは異なる少なくとも1つの方向上に分布する少なくとも2つの前記代表値の誤差和を計算し、前記計算された少なくとも2つの誤差の内、前記誤差和が最小となる方向の面内予測モードを少なくとも1つ決定することにより、画面内予測モードを決定する際の処理負荷を軽減する。
Description
画面内予測モード決定方法、画像符号化方法及び画像符号化装置 技術分野
[0001] 本発明は、画像符号化方法及び画像符号化装置に関し、特に、 H. 264/AVC の画面内予測符号ィ匕における予測モード決定方法に関する。
背景技術
[0002] ITU— Tおよび ISOZIECによって策定された動画像の符号化標準である「: H. 26 4ZAVC」は、従来の符号ィ匕標準である「MPEG—4」や「H. 263」に比べて約 2倍 の圧縮効率を実現している。本標準は、従来標準と同様、時間相関を利用した画面 間予測符号ィ匕技術に加え、空間相関を利用した画面内予測 (単に「面内予測」ともい う。)符号化技術を採用している点に特徴を有する。
[0003] 「画面内予測符号化」とは、入力画像と画面内で生成した画面内予測画像との予 測誤差画像にっ ヽて周波数変換等を行 ヽ符号ィ匕する技術である。画面内予測画像 は、符号化対象ブロックに隣接する画素 (具体的には、符号化済みの上隣及び左隣 の画素)を用いて画面内予測モードの方向に画素値をコピーすることで生成される画 像である。 H. 264ZAVCでは、複数種類の画面内予測モード(単に「予測モード」 ともいう。)が定められており、選択できる画面内予測モードの数は、符号化対象プロ ックのサイズにより異なる。具体的には、 4 X 4画素又は 8 X 8画素の輝度成分につい ては、図 4 (a)に示すように 9種類の予測モードがあり、 16 X 16画素の輝度成分につ いては、図 4 (b)に示すように 4種類の予測モードがある。また、色差成分についても 同様に、図 4 (b)に示すように 4種類の予測モードが用意されている(以下、特に断り が無い限り、 8 X 8画素の輝度成分について説明する)。尚、図 4 (a)及び (b)の矢印 に付与されて 、る番号は予測モード番号である。
[0004] 図 5 (a)〜(c)は、 8 X 8画素を用いた画面内予測における画面内予測画像を生成 する際の具体例を示す図である。図 5 (a)〜(c)における「A」〜「Y」は、符号化対象 ブロックに隣接する画素値である。図 5 (a)に示す通り、垂直方向の画面内予測を行 う予測モード 0では、隣接画素の値を垂直方向にコピーして画面内予測画像を生成
する。同様に、水平方向の画面内予測を行う予測モード 1では、図 5 (b)に示す通り、 隣接画素の値を水平方向にコピーして面内予測画像を生成する。更に、右下 45度 方向の画面内予測を行う予測モード 3では、図 5 (c)に示す通り、隣接画素の値を右 下 45度方向にコピーして画面内予測画像を生成する。
[0005] 次に、 H. 264ZAVCの画面内予測符号化を実現する、従来の画像符号化装置 2 の機能構成について説明する。図 1は、従来の画像符号化装置 2の機能構成を示す ブロック図である。図 1に示すように、画像符号ィ匕装置 2は、画面内予測部 20、予測 誤差符号化部 11、予測誤差復号化部 12、フレームメモリ 13、可逆符号化部 14、差 分器 1000、加算器 1001を備える。以下、各部の機能及び処理内容について順に 説明する。
[0006] 画面内予測部 20は、フレームメモリ 13に保存されている復号画像を入力し、対象 ブロックに隣接する画素を用いて画面内予測画像を生成する。画面内予測画像は、 前述の通り、複数種類の予測モードから選択された最適な予測モードが定める予測 方向に隣接画素の値をコピーすることで生成される。画面内予測部 20で生成された 画面内予測画像は、差分器 1000と加算器 1001に出力される。
[0007] 予測誤差符号ィ匕部 11は、差分器 1000から出力される入力画像と画面内予測画 像との予測誤差画像を入力し、当該予測誤差画像に離散コサイン変換またはカーネ ル'レーべ変換等の周波数変換処理と量子化処理を施して、予測誤差信号を生成 する。生成された予測誤差信号は、可逆符号化部 14と予測誤差復号化部 12に出力 される。
[0008] 予測誤差復号ィ匕部 12は、予測誤差符号ィ匕部 11から出力される予測誤差信号を入 力し、当該予測誤差信号に対して逆量子化及び逆周波数変換処理を施し、予測誤 差復号画像を生成する。生成された予測誤差復号画像は、加算器 1001に出力され る。
[0009] 加算器 1001は、画面内予測部 20より出力される画面内予測画像と予測誤差符号 化部 11から出力される予測誤差復号画像を入力し、両者を加算して、復号画像とし てフレームメモリ 13に出力する。
[0010] フレームメモリ 13は、加算器 1001から出力される復号画像を入力し、当該復号画
像を保存する。保存されている復号画像は、画面内予測画像を作成する際に、画面 内予測部 20に出力される。
[0011] 可逆符号ィ匕部 14は、予測誤差符号ィ匕部 11から出力される予測誤差信号を入力し
、当該予測誤差信号に対して可変長符号ィ匕若しくは算術符号ィ匕に基づく可逆符号 化を施し、符号語を生成する。生成された符号語が、最終的な符号化画像となる。
[0012] 図 8は、上記図 1に示す従来の画像符号ィヒ装置 2における処理の流れを示すフロ 一チャートである。以下の処理は、周波数変換サイズであるブロック単位で処理が施 される。
[0013] 最初に、画面内予測部 20で、入力画像 org— blkと画面内予測画像 prd— blk[mo de] (mode = 0, 1, · · · , 8)との予測誤差を予測評価値 costとし、最小の予測評価 値 min— costとなる最適な画面内予測モード best— modeを 1つ選択する(ステップ A0)。これは、入力画像と画面内で生成する画面内予測画像との予測誤差が小さい ほど、符号ィ匕効率が向上すると考えられるからである。当該ステップの詳細な処理フ ローについては、後述する。
[0014] 次に、画面内予測部 20で、ステップ AOで選択された最適な予測モード best— mo deが定める予測方向に隣接画素の値をコピーして面内予測画像 prd— blk[best— mode]を生成する(ステップ A 1)。
[0015] そして、差分器 101で、入力画像 org— blkと上記ステップ A1で生成された画面内 予測画像 prd— blk [best— mode]との予測誤差画像 diff— blkを生成する(ステップ A2)。
[0016] 更に、予測誤差符号ィ匕部 11で、上記ステップ A2で生成された予測誤差画像 diff
—blkに離散コサイン変換またはカーネル 'レーべ変換等の周波数変換と量子化を 施し、予測誤差信号 diff_signalを生成する (ステップ A3)。
[0017] 最後に、可逆符号化部 14で、ステップ A3で生成された予測誤差信号 diff— signal に対して可変長符号ィ匕若しくは算術符号ィ匕に基づく可逆符号ィ匕を施し、符号語を生 成する(ステップ A4)。
[0018] 以上が、従来の H. 264ZAVCの画面内予測符号化の処理フローである。
[0019] 次に、上記図 8のステップ AOの最適な画面内予測モード best modeを決定する
処理の詳細について説明する。図 9は、画面内予測モードの候補を選定する際の処 理の流れを示すフローチャートである。以下の処理は、上記図 8と同様、周波数変換 サイズであるブロック単位で処理が施される。
[0020] 最初に、画面内予測モード候補選定部 101は、画面内予測モード mode (mode = 0, 1, . . . , 8)の候補を選定する (ステップ BO)。この場合の候補は、候補フラグ flag [mode]を用いて指定する。候補フラグ flag [mode]は、「1」の値をとるとき、その画 面内予測モードが候補であることを示し、「0」の値をとるとき、候補外であることを示 す。本ステップの詳細な処理フローに関しては、後述する。
[0021] 次に、画面内予測モード決定部 102は、最適な面内予測モードの予測評価値 min —costと最適な面内予測モード best— modeの初期化を行う(ステップ Bl)。最適な 画面内予測モードの予測評価値 min— costに関しては、予測評価値が取り得な!/ヽ 大きい値 MAXCOSTに設定する。また、最適な画面内予測モード best— modeに 関しては、画面内予測モード BESTMODE (任意の面内予測モード mode (mode = 0, 1, · · · , 8) )に設定する。
[0022] そして、画面内予測モード決定部 102は、全ての画面内予測モード mode (mode
=0, 1, . . . , 8)に対して (ステップ Β2)、候補フラグ flag[mode]が 0か 1かを判定 する(ステップ B3)。画面内予測モード modeが「1」、すなわち、画面内予測モード m odeが画面内予測の候補である場合、画面内予測モード modeが定める画面内予測 方向に隣接画素の値をコピーして画面内予測画像 prd— blk[mode]を生成する (ス テツプ B4)。更に、面内予測モード決定部 102は、入力画像 org— blkとステップ C4 にお 、て生成した画面内予測画像 prd— blk[mode]を用いて予測評価値 costを計 算する (ステップ B5)。
[0023] 最後に、画面内予測モード決定部 102は、上記ステップ B5で計算された予測評価 値 costと最適な画面内予測モードの予測評価値 min— costの大小関係を比較する (ステップ B6)。予測評価値 costの方が小さい場合、予測モード決定部 302は、最適 な画面内予測モードの予測評価値 min— costを予測評価値 costに置き換え、最適 な画面内予測モード best— modeを画面内予測モード modeに置き換える(ステップ B7)。
[0024] 以上の処理を全ての画面内予測モード mode (mode = 0, 1, · · · , 8)について実 施することで、最小の予測評価値をとる最適な画面内予測モード best— modeが決 まる。
[0025] しかしながら、上述した従来の画面内予測符号化方法では、最適な画面内予測モ ードを決定する際に、全ての画面内予測モードに対して、逐一、画面内予測画像を 生成し、入力画像と画面内予測画像との予測評価値を計算する必要がある。そこで 、非特許文献 1のように、入力画像のエッジ特性に基づいて画面内予測モードの候 補を選定する方法や (例えば、特許文献 1参照)、入力画像の周波数特性に基づい て面内予測モードの候補を選定する方法 (例えば、非特許文献 2参照)が提案されて いる。
[0026] 最初に、エッジ特性に基づ 、て予測モードを決定する方法にっ 、て説明する。エツ ジ特性に基づく方法は、最適な面内予測モードの予測方向は、エッジ方向にほぼ一 致するという考えに基づく方法である。
[0027] 図 2に、エッジ特性に基づく画面内予測モードの候補選定を実現する画面内予測 部 20のブロック図を示す。図 2に示すように、画面内予測部 20は、エッジ特性解析部 100、予測モード候補選定部 101、予測モード決定部 102を備える。以下、各部の 処理内容及び機能について順に説明する。
[0028] エッジ特性解析部 100は、入力画像を入力とし、当該入力画像の各画素に対して 、エッジ検出フィルタである SOBELフィルタを適用し、図 6に示す通り、エッジ方向を 面内予測方向別に分類し、ヒストグラムを作成する。そして、エッジ特性解析部 100は 、当該ヒストグラムをエッジ特性情報として、予測モード候補選定部 101に出力する。
[0029] 予測モード候補選定部 101は、エッジ特性解析部 100から出力されるエッジ特性 情報から、最頻の画面内予測方向とその近傍方向に面内予測する画面内予測モー ドを候補として選定する。そして、予測モード候補選定部 101は、当該画面内予測モ ードの候補を予測モード候補情報として、予測モード決定部 102に出力する。
[0030] 予測モード決定部 102は、予測モード候補選定部 101から出力される予測モード 候補情報を入力とし、画面内予測モードの候補から 1つ面内予測モードを選択し、当 該画素面内予測モードに対応する画面内予測画像を出力する。
[0031] 以上が、エッジ特性に基づく画面内予測モードの候補選定を実現する画面内予測 部 20の説明である。
[0032] 次に、エッジ特性に基づく画面内予測モードの候補選定に係る処理フローに関し て説明する。図 10は、エッジ特性に基づく面内予測モードの候補選定に係るフロー チャートである。以下の処理フローは、周波数変換サイズのブロック単位に実施され る。
[0033] 最初に、予測モード候補選定部 101は、画面内予測モード mode (mode = 0, 1, .
. . , 8)の候補フラグ flag [mode]を「0」に初期化する。
[0034] 次に、エッジ特性解析部 100は、入力画像 org— blkのブロック内の各画素に対し て(ステップ CO)、 SOBELフィルタを施し (ステップ C1)、各画素のエッジ方向を画面 内予測方向別に分類し、個々の方向別に頻度をカウントする (ステップ C2)。
[0035] そして、最後に、最頻の画面内予測方向とその近傍方向に画面内予測する画面内 予測モード mode— edgeの候補フラグ flag [mode— edge]を「1」にする(ステップ C3
) o
[0036] 以上が、エッジ特性に基づく画面内予測モードの候補選定に係るフローチャートで ある。
[0037] 次に、周波数特性に基づいて予測モードを決定する方法について説明する。
[0038] 図 3は、周波数特性に基づく画面内予測モードの候補選定を実現する画面内予測 部 21のブロック図を示す。図 3に示すように、画面内予測部 21は、周波数特性解析 部 200、予測モード候補選定部 201及び 202予測モード決定部 202を備える。以下 、各部の処理内容及び機能について順に説明する。
[0039] 周波数特性解析部 200は、入力画像を入力とし、当該入力画像に対して、離散コ サイン変換またはカーネル 'レーべ変換等の周波数変換を適用し、水平方向の周波 数成分、垂直方向の周波数成分、水平方向のエネルギー強度、垂直方向のエネル ギー強度の 4変数を計算する。そして、周波数特性解析部 200は、当該 4変数を周 波数特性情報として、予測モード候補選定部 201に出力する。
[0040] 予測モード候補選定部 201は、周波数特性解析部 200から出力される周波数特性 情報を入力し、水平 ·垂直方向の周波数成分とエネルギーの偏りから、図 7に示す分
布パターンに分類し、当該分布パターン力 画面内予測モードの候補を選定する。 そして、予測モード候補選定部 201は、当該画面内予測モードの候補を予測モード 候補情報として、予測モード決定部 202に出力する。
[0041] 予測モード決定部 202は、予測モード決定部 102と同様、予測モード候補選定部 2 01から出力される予測モード候補情報を入力し、画面内予測モードの候補から 1つ 画面内予測モードを選択し、当該画面内予測モードに対応する画面内予測画像を 出力する。
[0042] 以上が、周波数特性に基づく面内予測モードの候補選定を実現する画面内予測 部 21の説明である。
[0043] 次に、周波数特性に基づく画面内予測モードの候補選定に係る処理フローに関し て説明する。図 11は、周波数特性に基づく画面内予測モードの候補選定に係るフロ 一チャートである。以下の処理フローは、周波数変換サイズのブロック単位に実施さ れる。
[0044] 最初に、予測モード候補選定部 301は、画面内予測モード mode (mode = 0, 1, ·
• · , 8)の候補フラグ flag [mode]を「0」に初期化する。
[0045] 次に、周波数特性解析部 200は、入力画像 org— blkに対して、離散コサイン変換 またはカーネル 'レーべ変換等の周波数変換を施し (ステップ DO)、水平'垂直方向 の周波数成分 CH、 CV (ステップ D1)と、水平 ·垂直方向のエネルギー EH、 EV (ス テツプ D2)を計算する。
[0046] そして、最後に、予測モード候補選定部 201は、水平'垂直方向の周波数成分 CH 、 CVとエネルギー EH, EVから、図 7に示す分布パターンに分類し、対応する面内 予測モード mode— freqの候補フラグ flag [mode— freq]を 1にする(ステップ D3)。
[0047] 以上が、周波数特性に基づく画面内予測モードの候補選定に係るフローチャート である。
非特許文献 1 : Feng P. et al, 'Fast Mode Decision for Intra Predictio n", JVT-G013, Mar, 2003.
非特許文献 2 :筑波,永吉,花村,富永, "周波数特性に基づく H. 264ZAVCイント ラ予測モード決定方法に関する検討", 2004— AVM— 47.
発明の開示
発明が解決しょうとする課題
[0048] し力しながら、上記 2つの従来方法は、入力画像に対して、エッジ検出フィルタの適 用、又は離散コサイン変換若しくはカーネル 'レーべ変換等の周波数変換を必要と するため、やはり処理量が少なくな!/、と!/、う問題がある。
[0049] 本発明は、上記課題に鑑みてなされたものであり、符号化効率をある程度維持しつ つ、処理量を大幅に削減できる画像符号ィ匕方法及び画像符号ィ匕装置等を提供する ことを目的とする。
課題を解決するための手段
[0050] 上記目的を達成するために、本発明に係る画面内予測モード決定方法は、入力画 像と生成された画面内予測画像との予測誤差を符号化する画像符号装置における 画面内予測モード決定化方法であって、前記入力画像の一部に対応する符号化対 象ブロックを構成する少なくとも 3つのサブブロックにおける特徴量を算出し、さらに、 一の予測方向上の少なくとも 2つサブブロックにおける前記特徴量の差と、前記一の 予測方向とは異なる他の予測方向上の少なくとも 2つのサブブロックにおける前記特 徴量の差とを算出する特徴量分布解析ステップと、前記特徴量分布解析ステップに ぉ ヽて算出された前記特徴量の差が小さ!/ヽ方の前記予測方向に対応する少なくとも 1つの予測モードの候補を選定する予測モード候補選定ステップと、前記予測モード 候補選定ステップにおいて選定された予測モードの候補の中から一の予測モードを 決定する予測モード決定ステップとを含むことを特徴とする。
[0051] これにより、予測モードを決定する際の画面内予測画像を生成する回数が減るため 、当該処理量の削減が可能となる。
[0052] また、前記一の予測方向と前記他の予測方向とは、互い直交しており、前記特徴量 分布解析ステップでは、前記一の予測方向上の前記 2つサブブロックにおける前記 特徴量の差と、前記他の予測方向上の少なくとも 2つのサブブロックにおける前記特 徴量の差とを算出することを特徴とする。
[0053] これにより、 2つの方向が 90° 異なるため、画面内予測方向の候補選定に係る分 離能に優れている。
[0054] また、前記符号ィ匕対象ブロックは、当該符号化対象ブロックを 4等分する矩形の左 上、右上、左下及び右下の各サブブロックで構成されており、前記特徴量分布解析 ステップでは、前記左上のサブブロックと前記右下サブブロックにおける前記特徴量 の差と、前記右上のサブブロックと前記左下のサブブロックにおける前記特徴量の差 とを算出することを特徴とする。
[0055] これにより、全ての画面内予測モードのうち、頻度の高い垂直方向、水平方向及び その中間の斜め 45度方向の差分和を計算することができるため、画面内予測方向 の候補選定に係る分離能に優れて ヽる。
[0056] また、前記特徴量分布解析ステップでは、前記特徴量を計算する際に、前記各サ ブブロックにおける最上行の画素及び左端の列の画素のみを用いて、前記特徴量を 算出することを特徴とする。
[0057] これにより、実際に画面内予測画像を生成する際に用いる隣接画素に近い画素を 用いているため、予測モード候補を選定する際の精度を向上させることができる。
[0058] また、前記特徴量分布解析ステップでは、前記特徴量の差を計算する際に、前記 予測方向の起点に近い領域の前記特徴量の差を算出することを特徴とする。
[0059] これにより、実際に画面内予測画像を生成する際に用いる隣接画素に近い画素を 用いているため、予測モード候補を選定する際の精度を向上させることができる。
[0060] また、上記目的を達成するために、本発明に係る画像符号化装置は、入力画像と 生成された画面内予測画像との予測誤差を符号ィ匕する画像符号ィ匕装置であって、 前記入力画像の一部に対応する符号ィ匕対象ブロックを構成する少なくとも 3つのサ ブブロックにおける特徴量を算出し、さらに、一の予測方向上の少なくとも 2つサブブ ロックにおける前記特徴量の差と、前記一の予測方向とは異なる他の予測方向上の 少なくとも 2つのサブブロックにおける前記特徴量の差とを算出する特徴量分布解析 手段と、前記特徴量分布解析手段において算出された前記特徴量の差が小さい方 の前記予測方向に対応する少なくとも 1つの予測モードの候補を選定する予測モー ド候補選定手段と、前記予測モード候補選定手段にお!、て選定された予測モードの 候補の中から一の予測モードを決定する予測モード決定手段と、前記予測モード決 定手段にお 、て決定された前記予測モードを用いて生成された画面内予測画像と
前記入力画像との予測誤差を符号ィ匕する予測誤差符号ィ匕手段とを備えることを特徴 とする。
[0061] なお、本発明は、上記画面内予測モード決定方法の特徴的なステップを含む画像 符号ィ匕方法として実現したり、それらのステップをコンピュータに実行させるためのプ ログラムとして実現したり、そのプログラムを DVD等の記録媒体やインターネット等の 伝送媒体を介して広く流通させることができるのは云うまでもない。
[0062] さらに、上記画像符号化装置における特徴的な構成手段を集積回路で実現しても よい。
発明の効果
[0063] 本発明によれば、低処理量で画面内予測モードを決定することが可能となるため、 画像処理の高速ィ匕ゃ上記方法等を実現する ICコストの軽減が可能となり、さらに、消 費電力につ 、ても肖 IJ減することができる。
図面の簡単な説明
[0064] [図 1]図 1は、従来の画像符号化装置及び実施の形態 1に係る画像符号化装置の機 能構成を示すブロック図である。
[図 2]図 2は、従来のエッジ特性を利用した画面内予測部の機能構成を示すブロック 図である。
[図 3]図 3は、従来の周波数特性を利用した画面内予測部の機能構成を示すブロック 図である。
[図 4]図 4 (a)及び (b)は、 H264ZAVCにおける画面内予測モードとその方向を示 す図である。
[図 5]図 5 (a)〜(c)は、 8 X 8画素を用いた画面内予測における画面内予測画像を生 成する際の具体例を示す図である。
[図 6]図 6は、エッジ方向を画面内予測モードの方向に分類した場合のヒストグラフの 一例である。
[図 7]図 7は、周波数特性と画面内予測モードの候補との関係の一例を示す図である [図 8]図 8は、面内予測符号ィ匕処理のフローチャートである。
[図 9]図 9は、面内予測処理のフローチャートである。
[図 10]図 10は、従来のエッジ特性に基づく画面内予測モードの候補を選定する処理 の流れを示すフローチャートである。
[図 11]図 11は、従来の周波数特性に基づく画面内予測モードの候補を選定する処 理の流れを示すフローチャートである。
[図 12]図 12は、実施の形態 1に係る画面内予測部の機能構成を示すブロック図であ る。
[図 13]図 13は、実施の形態 1に係るサブブロックと画面内予測モードの候補を選定 する際に用いる方向との関係の一例を示す図である。
[図 14]図 14 (a)及び (b)は、実施の形態 1に係るサブブロックと画面内予測モードの 候補を選定する際に用いる方向との関係のその他の例を示す図である。
[図 15]図 15 (a)及び (b)は、実施の形態 1に係るサブブロックと画面内予測モードの 候補を選定する際に用いる方向との関係の変形例を示す図である。
[図 16]図 16 (a)及び (b)は、特徴量を計算する際に、サブブロック内の一部の画素を 用いることを示す例である。
[図 17]図 17は、実施の形態 1に係る特徴量分布特性に基づく画面内予測モードの 候補を選定する処理の流れを示すフローチャートである。
符号の説明
1、 2 画像符号化装置
10、 20、 21 画面内予測部
11 予測誤差符号化部
12 予測誤差復号化部
13 フレームメモリ
14 可逆符号化部
100 エッジ特性解析部
101 予測モード候補選定部
102 予測モード決定部
200 周波数特性解析部
201 予測モード候補選定部
202 予測モード決定部
300 特徴量分布解析部
301 予測モード候補選定部
302 予測モード決定部
1000 減算器
1001 加算器
A〜Y 隣接画素
発明を実施するための最良の形態
[0066] 以下、本発明に係る画像符号化装置の実施の形態について、図面を参照しながら 説明する。なお、本発明について、以下の実施の形態および添付の図面を用いて説 明を行うが、これは例示を目的としており、本発明がこれらに限定されることを意図し ない。
[0067] (実施の形態 1)
上記図 1には、本実施の形態に係る画像符号ィ匕装置 1の機能構成を示すブロック 図についても示されている。図 1に示されるように、画像符号ィ匕装置 1は、画面内予 測部 10を除き、従来の画像符号化装置 2と同じ機能構成を有している。
[0068] 画面内予測部 10は、フレームメモリ 13に保存されている復号画像を入力し、符号 化対象ブロックに隣接する画素を用いて画面内予測画像を生成する。さらに、画面 内予測部 10は、符号ィ匕対象ブロックを構成するサブブロックにおける画像上の特徴 量 (例えば、各画素の輝度など)に基づいて、評価対象となる予測モードの候補を絞 り、この絞られた予測モードの中から 1つの予測モードを決定して画面内予測画像を 生成する。画面内予測部 10で生成された画面内予測画像は、差分器 1000と加算 器 1001に出力される。
[0069] 以下、本発明において特徴的な画面内予測部 10について重点的に説明する。
[0070] 図 12は、上記図 1の画像符号化装置 1における画面内予測部 10の機能構成を示 すブロック図である。図 12に示すように、画面内予測部 10は、特徴量分布解析部 30 0、予測モード候補選定部 301、予測モード決定部 302を備える。以下、各部の機能
について、図 13から図 17を参照しながら説明する。
[0071] 特徴量分布解析部 300は、入力画像を入力し、図 13に示す通り、当該入力画像に 対応する符号ィ匕対象ブロックを構成する 4つのサブブロック i (i=0, 1, 2, 3)毎の画 像上の特徴量 (以下、本実施の形態では「輝度平均値 avg [i]」とする。)を計算する。 輝度平均値 avg [i]は、下記の式(1)で与えられる。
[0072] [数 1]
》 org—blkj /
avg[i] = jeSubBl0CkJ /n (1)
[0073] ここで、 jは画素座標、 nはサブブロック i内の画素数を示す。図 13の例では、周波数 変換サイズが 8 X 8画素単位であるため、サブブロック i (i=0, 1, 2, 3)のサイズは 4 X 4画素、つまり、画素数 nは「16」となる。そして、特徴量分布解析部 300は、右下 方向上に分布する 2つのサブブロック i (i=0, 3)の輝度平均値の差分絶対値 delta —aと左下方向上に分布する 2つのサブブロック i (i= l, 2)の輝度平均値の差分絶 対値 delta— bを計算する。すなわち、下記の式(2)及び式(3)の通り、
[0074] [数 2] delta_a= I avg[0] - avg[3] \ (2)
[0075] [数 3] delta— b= \ avg[l] - avg[2] | (3)
を計算する。そして、特徴量分布解析部 300は、差分絶対値 delta_aと delta_bを 特徴量分布特性情報として、予測モード候補選定部 201に出力する。
[0076] 予測モード候補選定部 301は、特徴量分布解析部 300から出力される特徴量分布 特性情報を入力し、 2つの差分絶対値 delta— aと delta— bの大小関係カゝら画面内
予測モードの候補を選定する。具体的には、差分絶対値 delta— aが差分絶対値 del ta—bより小さい場合は、右下方向に画面内予測を行う画面内予測モード mode (mo de = 4, 5, 6)を候補に入れ、逆に、差分絶対値 delta_bが差分絶対値 delta_aよ り小さい場合は、左下方向に画面内予測を行う画面内予測モード mode (mode = 3 , 7, 8)を候補に入れる。そして、予測モード候補選定部 301は、候補として選定した 画面内予測モードを予測モード候補情報として、予測モード決定部 202に出力する
[0077] 予測モード決定部 302は、上記従来の予測モード決定部 102や予測モード決定部 202と同様、予測モード候補選定部 301から出力される予測モード候補情報を入力 して画面内予測モードの候補から 1つ画面内予測モードを選択し、当該画面内予測 モードに対応する画面内予測画像を生成して出力する。
[0078] 次に、本実施の形態に係る画面内予測部 10において画面内予測モードの候補を 選定する際の処理手順について説明する。図 17は、画面内予測部 10における予測 モード候補を選定する際の処理の流れを示すフローチャートである。以下の処理フロ 一は、周波数変換サイズのブロック単位に実施される。
[0079] 最初に、予測モード候補選定部 301は、画面内予測において頻度の高い垂直予 測モード、水平予測モード及び DC予測モードを、固定の候補として選定する (ステツ プ E0)。これは、一般的な画像に垂直方向又は水平方向のテクスチャが多く含まれ ているためである。予測モード候補として指定する方法は、前述の通り、候補フラグ fl ag [mode] (mode = 0, 1, · · · , 8)を用いて指定する。ステップ E0では、候補フラグ f lag [mode] (mode = 0, 1 , 2)に「1」を設定し、候補フラグ flag [mode] (mode = 3, 4, · · · , 8)に「0」を設定する。
[0080] 次に、特徴量分布解析部 300は、上記図 13に示す通り、符号化対象ブロックを構 成する 4つのサブブロック i (i=0, 1, 2, 3)の輝度平均値 avg [i]を計算する (ステップ El)。輝度平均値 avg [i]は、前述の通り、式(1)で与えられる。
[0081] そして、特徴量分布解析部 300は、右下方向と左下方向上に分布するサブブロッ ク i (i = 0, 1, 2, 3)の輝度平均値 avg [i]の差分絶対値 delta— a及び delta— bを計 算する (ステップ E2)。
[0082] 右下方向の差分絶対値 delta— aは、図 13に示す符号化対象ブロックの左上と右 下に位置するサブブロック i (i=0, 3)の輝度平均値 avg [i]を用いて、上記の式(2) に従って計算される。同様にして、左下方向の差分絶対値 delta— bは、符号化対象 ブロックの右上と左下に位置するサブブロック i (i= 1 , 2)の輝度平均値 avg [i]を用い て、上記の式(3)に従って計算される (ステップ E2)。
[0083] さらに、予測モード候補選定部 301は、 2つの差分絶対値 delta— aと delta— bの 大小関係を比較する (ステップ E3)。差分絶対値 delta— aが差分絶対値 delta— bよ り小さい場合は、右下方向の画面内予測を行う画面内予測モード mode (mode =4 , 5, 6)を予測モード候補に入れる。すなわち、候補フラグ flag [mode] (mode =4, 5, 6)に「1」を設定する (ステップ E4)。
[0084] 逆に、差分絶対値 delta— bが差分絶対値 delta— aより小さい場合は、左下方向の 面内予測を行う面内予測モード mode (mode = 3, 7, 8)を予測モード候補に入れる 。すなわち、候補フラグ flag [mode] (mode = 3, 7, 8)に「1」を設定する(ステップ E 5)。
[0085] 以上のように、実施の形態 1に係る画像符号化装置 1によれば、低処理量で斜め方 向の画面内予測モードの候補を絞ることができるため、画面内予測処理全体として 処理量を削減することが可能となる。
[0086] なお、特徴量分布解析部 300における、輝度平均値の差分絶対値 delta— aと delt a— bを計算する際に対象とするサブブロックの関係は、上記図 13に限るものではな い。例えば、図 14や図 15に示すようなサブブロックを用いてもよい。
[0087] 図 14 (a)及び (b)は、上記実施の形態 1に係るサブブロックと画面内予測モードの 候補を選定する際に用いる方向との関係のその他の例を示す図である。図 14 (a)に 示すように、サブブロック 0とサブブロック 1を用いて上記 delta_a (実線)を計算し、 サブブロック 1とサブブロック 3を用いて delta— b (実線)を計算してもよ 、(勿論、サブ ブロック 0とサブブロック 2を用いて上記 delta_a (破線)を計算し、サブブロック 2とサ ブブロック 3を用いて delta_b (破線)を計算してもよ 、)。
[0088] また、図 14 (b)に示すように、符号ィ匕済みのサブブロック aとサブブロック 1を用いて 上記 delta aを計算し、符号化済みのサブブロック cとサブブロック 0を用いて delta
_bを計算してもよい(同様に、符号ィ匕済みのサブブロック dとサブブロック 2を用いて 上記 delta— aを計算し、符号ィ匕済みのサブブロック bとサブブロック 1を用いて上記 d elta— bを計算してもよい)。
[0089] 図 15 (a)及び (b)は、上記実施の形態 1に係るサブブロックと画面内予測モードの 候補を選定する際に用いる方向との関係の変形例を示す図である。図 15 (a)に示す ように、符号ィ匕済みのサブブロック eとサブブロック 0を用いて上記 delta— aを計算し、 符号ィ匕済みのサブブロック bとサブブロック 0を用いて上記 delta— bを計算してもよ ヽ (勿論、符号ィ匕済みのサブブロック bとサブブロック 0を用いる代わりに、符号化済み のサブブロック dとサブブロック 0を用いて上記 delta— bを計算してもよ!/、)。
[0090] また、図 15 (b)に示すように、サブブロック 0と符号ィ匕済みのサブブロック dを用いて 上記 delta— aを計算し、サブブロック 0とサブブロック 3を用いて上記 delta— bを計算 してちよい。
[0091] (実施の形態 2)
上記実施の形態 1では、画面内予測符号ィ匕方式において予測モードを決定する際 に、符号ィ匕対象ブロックを構成するサブブロックにおける画像上の特徴量に基づ ヽ て予測モードの候補を絞る画像符号ィ匕装置について説明したが、本発明の実施の 形態 2では、更に、平坦部を細かく量子化し、複雑部を粗く量子化する、量子化変調 方法の中間データを活用する画像符号ィ匕装置について説明する。当該量子化変調 方法は、主観的な品質向上方法の 1つであり、人間の目は平坦部対して敏感で、逆 に、複雑部に対しては鈍いことを利用するものであり、平坦部の画質を相対的に向上 さ ·¾:るちのである。
[0092] 本実施の形態で扱う量子化変調方法では、入力画像の輝度分散値 varに基づ 、 て平坦部と複雑部に分類する。このとき、輝度分散値 varの計算で必要となる輝度平 均値 avgを、サブブロック i (i = 0, 1, 2, 3)の輝度平均値 avg [i]力も計算する。すな なち、下記の式 (4)及び式(5)に従って計算することができる。
[0093] [数 4]
[0095] ここで、 org— blkは、入力画像の輝度成分の画素値、 jは画素座標、 nは直交変換 サイズのブロック内の画素数を示す。
[0096] 以上のように、本実施の形態 2によれば、量子化変調方法を適用する場合に、上記 実施の形態 1における式(1)の処理を共有化できる。
[0097] (実施の形態 3)
上記実施の形態 1では、 4つのサブブロック i (i=0, 1, 2, 3)の輝度平均値 avg [i] を計算する際に、サブブロック i内の全画素を用いて計算したが、全画素を用いて計 算せずに、図 16 (a)や図 16 (b)に示す通り、画素を間引いて計算してもよい。特に、 図 16 (b)に示す通り、各サブブロック iの最上部の行の画素(この場合は 4画素)と左 端の 1列の画素(この場合は 4画素)を用いて輝度平均値 avg [i] (i=0, 1, 2, 3)を 計算してもよ ヽ (この場合、全画素を用いる場合よりも予測モード候補の選定精度が 若干向上することがある)。
[0098] 尚、上記の説明では、サブブロック i (i=0, 1, 2, 3)の輝度平均値 avg [i]を特徴量 として計算したが、特徴量は輝度平均値に限定するものではなぐ各サブブロック おける輝度の中央値ゃ最頻値などであってもよい。更に、各サブブロックの形状 (即 ち、画素構成)は、正方形に限定するものではなぐ例えば、 4 X 8画素や 8 X 4画素 で構成される長方形等であってもよ ヽ。
[0099] また、上記の実施の形態 1では、 4つのサブブロック i (i=0, 1, 2, 3)の輝度平均値 avg [i]を計算したが、少なくとも 2つの方向の差分絶対値 deltaが計算できればよぐ サブブロックは少なくとも 3つあればよい。例えば、図 14 (a)に示すように、サブブロッ
ク 0とサブブロック 1で水平方向の delta— aを算出し、サブブロック 1とサブブロック 3 で delta— bを算出してもよい。この場合に必要となるサブブロックは 3つである。
[0100] 更に、 1つの方向上に分布するサブブロックは 2つであった力 少なくとも 2つあれ ばでよぐ 3つ以上でもよい。 1つの方向上にサブブロックが少なくとも 3つ分布する場 合については、画面内予測方向の起点に近い領域の代表値との誤差和を計算する 。すなわち、誤差和を deltaとすると、下記の式(6)で与えられる。
[0101] [数 6] n-1
delta = I avg[0] - avg[\] | (6)
/=o
[0102] ここで、 avg [i] (i=0, 1 , · · · , n— 1)は、画面内予測方向の起点に近い領域 (例え ば、サブブロック 0)力 i番目の輝度平均値、 nは 1つの方向上に分布する全てのサ ブブロックの数である。 産業上の利用可能性
[0103] 本発明に係る予測モード決定方法、画像符号化方法および画像符号化装置は、 画面内予測符号ィ匕に係る処理量の削減が可能であるため、例えば、携帯電話、ハ ードディスクレコーダ及びパーソナルコンピュータ等において画像の圧縮符号ィ匕を行 う方法又は装置として有用である。
Claims
[1] 入力画像と生成された画面内予測画像との予測誤差を符号ィ匕する画像符号装置 における画面内予測モード決定ィ匕方法であって、
前記入力画像の一部に対応する符号ィ匕対象ブロックを構成する少なくとも 3つのサ ブブロックにおける特徴量を算出し、さらに、一の予測方向上の少なくとも 2つサブブ ロックにおける前記特徴量の差と、前記一の予測方向とは異なる他の予測方向上の 少なくとも 2つのサブブロックにおける前記特徴量の差とを算出する特徴量分布解析 ステップと、
前記特徴量分布解析ステップにおいて算出された前記特徴量の差が小さい方の 前記予測方向に対応する少なくとも 1つの予測モードの候補を選定する予測モード 候補選定ステップと、
前記予測モード候補選定ステップにお 、て選定された予測モードの候補の中から 一の予測モードを決定する予測モード決定ステップと
を含むことを特徴とする画面内予測モード決定方法。
[2] 前記一の予測方向と前記他の予測方向とは、互い直交しており、
前記特徴量分布解析ステップでは、前記一の予測方向上の前記 2つサブブロック における前記特徴量の差と、前記他の予測方向上の少なくとも 2つのサブブロックに おける前記特徴量の差とを算出する
ことを特徴とする請求項 1記載の画面内予測モード決定方法。
[3] 前記符号化対象ブロックは、当該符号化対象ブロックを 4等分する矩形の左上、右 上、左下及び右下の各サブブロックで構成されており、
前記特徴量分布解析ステップでは、前記左上のサブブロックと前記右下サブブロッ クにおける前記特徴量の差と、前記右上のサブブロックと前記左下のサブブロックに おける前記特徴量の差とを算出する
ことを特徴とする請求項 1記載の画面内予測モード決定方法。
[4] 前記特徴量分布解析ステップでは、前記特徴量を計算する際に、前記各サブプロ ックにおける最上行の画素及び左端の列の画素のみを用いて、前記特徴量を算出 する
ことを特徴とする請求項 1記載の画面内予測モード決定方法。
[5] 前記特徴量分布解析ステップでは、前記特徴量の差を計算する際に、前記予測方 向の起点に近い領域の前記特徴量の差を算出する
ことを特徴とする請求項 1記載の画面内予測モード決定方法。
[6] 前記特徴量は、前記各サブブロックを構成する全ての画素に係る輝度の平均値、 中央値又は最頻値であり、
前記特徴量分布解析ステップでは、前記各サブブロックにおける前記輝度の平均 値、中央値又は最頻値を算出し、さらに、一の予測方向上の少なくとも 2つサブブロッ クにおける前記輝度の平均値、中央値又は最頻値の差と、前記一の予測方向とは異 なる他の予測方向上の少なくとも 2つのサブブロックにおける前記輝度の平均値、中 央値又は最頻値の差とを算出する
ことを特徴とする請求項 1記載の画面内予測モード決定方法。
[7] 入力画像と生成された画面内予測画像との予測誤差を符号化する画像符号化方 法であって、
前記入力画像の一部に対応する符号ィ匕対象ブロックを構成する少なくとも 3つのサ ブブロックにおける特徴量を算出し、さらに、一の予測方向上の少なくとも 2つサブブ ロックにおける前記特徴量の差と、前記一の予測方向とは異なる他の予測方向上の 少なくとも 2つのサブブロックにおける前記特徴量の差とを算出する特徴量分布解析 ステップと、
前記特徴量分布解析ステップにおいて算出された前記特徴量の差が小さい方の 前記予測方向に対応する少なくとも 1つの予測モードの候補を選定する予測モード 候補選定ステップと、
前記予測モード候補選定ステップにお 、て選定された予測モードの候補の中から 一の予測モードを決定する予測モード決定ステップと、
前記予測モード決定ステップにお 、て決定された前記予測モードを用いて生成さ れた画面内予測画像と前記入力画像との予測誤差を符号ィヒする予測誤差符号化ス テツプと
を含むことを特徴とする画像符号化方法。
[8] 入力画像と生成された画面内予測画像との予測誤差を符号化する画像符号化装 置であって、
前記入力画像の一部に対応する符号ィ匕対象ブロックを構成する少なくとも 3つのサ ブブロックにおける特徴量を算出し、さらに、一の予測方向上の少なくとも 2つサブブ ロックにおける前記特徴量の差と、前記一の予測方向とは異なる他の予測方向上の 少なくとも 2つのサブブロックにおける前記特徴量の差とを算出する特徴量分布解析 手段と、
前記特徴量分布解析手段において算出された前記特徴量の差が小さい方の前記 予測方向に対応する少なくとも 1つの予測モードの候補を選定する予測モード候補 選定手段と、
前記予測モード候補選定手段にぉ 、て選定された予測モードの候補の中から一 の予測モードを決定する予測モード決定手段と、
前記予測モード決定手段において決定された前記予測モードを用いて生成された 画面内予測画像と前記入力画像との予測誤差を符号化する予測誤差符号化手段と を備えることを特徴とする画像符号化装置。
[9] 入力画像と生成された画面内予測画像との予測誤差を符号化する画像符号化装 置に用いられる、コンピュータに実行させるためのプログラムであって、
前記プログラムは、
前記入力画像の一部に対応する符号ィ匕対象ブロックを構成する少なくとも 3つのサ ブブロックにおける特徴量を算出し、さらに、一の予測方向上の少なくとも 2つサブブ ロックにおける前記特徴量の差と、前記一の予測方向とは異なる他の予測方向上の 少なくとも 2つのサブブロックにおける前記特徴量の差とを算出する特徴量分布解析 ステップと、
前記特徴量分布解析ステップにおいて算出された前記特徴量の差が小さい方の 前記予測方向に対応する少なくとも 1つの予測モードの候補を選定する予測モード 候補選定ステップと、
前記予測モード候補選定ステップにお 、て選定された予測モードの候補の中から 一の予測モードを決定する予測モード決定ステップと
を含むことを特徴とするプログラム。
入力画像と生成された画面内予測画像との予測誤差を符号化する集積回路であ つて、
前記入力画像の一部に対応する符号ィ匕対象ブロックを構成する少なくとも 3つのサ ブブロックにおける特徴量を算出し、さらに、一の予測方向上の少なくとも 2つサブブ ロックにおける前記特徴量の差と、前記一の予測方向とは異なる他の予測方向上の 少なくとも 2つのサブブロックにおける前記特徴量の差とを算出する特徴量分布解析 手段と、
前記特徴量分布解析手段において算出された前記特徴量の差が小さい方の前記 予測方向に対応する少なくとも 1つの予測モードの候補を選定する予測モード候補 選定手段と、
前記予測モード候補選定手段にぉ 、て選定された予測モードの候補の中から一 の予測モードを決定する予測モード決定手段と、
前記予測モード決定手段において決定された前記予測モードを用いて生成された 画面内予測画像と前記入力画像との予測誤差を符号化する予測誤差符号化手段と を備えることを特徴とする集積回路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/095,974 US20090268974A1 (en) | 2005-12-21 | 2006-12-21 | Intra-picture prediction mode deciding method, image coding method, and image coding device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005367696A JP2009060153A (ja) | 2005-12-21 | 2005-12-21 | 面内予測モード決定方法及び装置及びプログラム |
JP2005-367696 | 2005-12-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2007072895A1 true WO2007072895A1 (ja) | 2007-06-28 |
Family
ID=38188669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2006/325464 WO2007072895A1 (ja) | 2005-12-21 | 2006-12-21 | 画面内予測モード決定方法、画像符号化方法及び画像符号化装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20090268974A1 (ja) |
JP (1) | JP2009060153A (ja) |
WO (1) | WO2007072895A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010101063A1 (ja) * | 2009-03-06 | 2010-09-10 | ソニー株式会社 | 画像処理装置および方法 |
WO2011031332A1 (en) * | 2009-09-14 | 2011-03-17 | Thomson Licensing | Methods and apparatus for efficient video encoding and decoding of intra prediction mode |
TWI602428B (zh) * | 2011-01-12 | 2017-10-11 | Ntt Docomo Inc | Image prediction decoding device, image prediction decoding method |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9330060B1 (en) | 2003-04-15 | 2016-05-03 | Nvidia Corporation | Method and device for encoding and decoding video image data |
US8660182B2 (en) | 2003-06-09 | 2014-02-25 | Nvidia Corporation | MPEG motion estimation based on dual start points |
US8731071B1 (en) | 2005-12-15 | 2014-05-20 | Nvidia Corporation | System for performing finite input response (FIR) filtering in motion estimation |
US8724702B1 (en) | 2006-03-29 | 2014-05-13 | Nvidia Corporation | Methods and systems for motion estimation used in video coding |
US8660380B2 (en) | 2006-08-25 | 2014-02-25 | Nvidia Corporation | Method and system for performing two-dimensional transform on data value array with reduced power consumption |
US8756482B2 (en) | 2007-05-25 | 2014-06-17 | Nvidia Corporation | Efficient encoding/decoding of a sequence of data frames |
US9118927B2 (en) | 2007-06-13 | 2015-08-25 | Nvidia Corporation | Sub-pixel interpolation and its application in motion compensated encoding of a video signal |
EP3190791B1 (en) | 2007-06-29 | 2018-11-28 | Velos Media International Limited | Image encoding device and image decoding device |
US8873625B2 (en) * | 2007-07-18 | 2014-10-28 | Nvidia Corporation | Enhanced compression in representing non-frame-edge blocks of image frames |
US8666181B2 (en) | 2008-12-10 | 2014-03-04 | Nvidia Corporation | Adaptive multiple engine image motion detection system and method |
KR20100095992A (ko) | 2009-02-23 | 2010-09-01 | 한국과학기술원 | 비디오 부호화에서의 분할 블록 부호화 방법, 비디오 복호화에서의 분할 블록 복호화 방법 및 이를 구현하는 기록매체 |
JP2010251953A (ja) * | 2009-04-14 | 2010-11-04 | Sony Corp | 画像符号化装置と画像符号化方法およびコンピュータ・プログラム |
JP5219089B2 (ja) * | 2009-04-30 | 2013-06-26 | 株式会社メガチップス | 画像データの生成方法 |
US8594197B2 (en) * | 2010-02-02 | 2013-11-26 | Nice Systems Ltd. | System and method for relative storage of video data |
WO2012077928A1 (ko) * | 2010-12-07 | 2012-06-14 | 한국전자통신연구원 | 초고해상도 영상을 부호화하는 장치 및 방법, 그리고 복호화 장치 및 방법 |
US8559512B2 (en) | 2010-05-05 | 2013-10-15 | Ceva D.S.P. Ltd. | Device, system, and method for predicting residual data for intra and inter frame encoding of image or video data |
US20110274169A1 (en) * | 2010-05-05 | 2011-11-10 | Paz Adar | Device, system, and method for spatially encoding video data |
KR101677480B1 (ko) * | 2010-09-07 | 2016-11-21 | 에스케이 텔레콤주식회사 | 효과적인 화면내 예측모드 집합 선택을 이용한 영상 부호화/복호화 방법 및 장치 |
CA2838214C (en) * | 2011-06-13 | 2019-02-12 | Panasonic Corporation | Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus |
JP2014082639A (ja) * | 2012-10-16 | 2014-05-08 | Canon Inc | 画像符号化装置およびその方法 |
JP6148201B2 (ja) * | 2014-05-02 | 2017-06-14 | 日本電信電話株式会社 | イントラ予測方向絞込み方法及びイントラ予測方向絞込み装置 |
JP7249999B2 (ja) * | 2018-03-30 | 2023-03-31 | 日本放送協会 | 画像符号化装置、画像復号装置、及びプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000078583A (ja) * | 1998-08-31 | 2000-03-14 | Daewoo Electronics Co Ltd | 適応的動き推定装置 |
JP2004304724A (ja) * | 2003-04-01 | 2004-10-28 | Sony Corp | 画像処理装置とその方法、並びに符号化装置 |
JP2005176073A (ja) * | 2003-12-12 | 2005-06-30 | Ntt Docomo Inc | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム |
JP2005268879A (ja) * | 2004-03-16 | 2005-09-29 | Matsushita Electric Ind Co Ltd | 画像符号化方法およびその装置 |
JP2005328383A (ja) * | 2004-05-14 | 2005-11-24 | Mitsubishi Electric Corp | 動画像符号化装置及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6972868B1 (en) * | 2000-11-09 | 2005-12-06 | Hewlett-Packard Development Company, L.P. | Image data compression method |
JP4495580B2 (ja) * | 2004-12-13 | 2010-07-07 | パナソニック株式会社 | 面内予測装置および面内予測方法 |
US7895250B2 (en) * | 2005-05-25 | 2011-02-22 | Qualcomm Incorporated | Fixed point integer division techniques for AC/DC prediction in video coding devices |
US7843995B2 (en) * | 2005-12-19 | 2010-11-30 | Seiko Epson Corporation | Temporal and spatial analysis of a video macroblock |
-
2005
- 2005-12-21 JP JP2005367696A patent/JP2009060153A/ja active Pending
-
2006
- 2006-12-21 WO PCT/JP2006/325464 patent/WO2007072895A1/ja active Application Filing
- 2006-12-21 US US12/095,974 patent/US20090268974A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000078583A (ja) * | 1998-08-31 | 2000-03-14 | Daewoo Electronics Co Ltd | 適応的動き推定装置 |
JP2004304724A (ja) * | 2003-04-01 | 2004-10-28 | Sony Corp | 画像処理装置とその方法、並びに符号化装置 |
JP2005176073A (ja) * | 2003-12-12 | 2005-06-30 | Ntt Docomo Inc | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム |
JP2005268879A (ja) * | 2004-03-16 | 2005-09-29 | Matsushita Electric Ind Co Ltd | 画像符号化方法およびその装置 |
JP2005328383A (ja) * | 2004-05-14 | 2005-11-24 | Mitsubishi Electric Corp | 動画像符号化装置及びプログラム |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010101063A1 (ja) * | 2009-03-06 | 2010-09-10 | ソニー株式会社 | 画像処理装置および方法 |
EP2405658A1 (en) * | 2009-03-06 | 2012-01-11 | Sony Corporation | Image processing device and method |
CN102342107A (zh) * | 2009-03-06 | 2012-02-01 | 索尼公司 | 图像处理设备和方法 |
EP2405658A4 (en) * | 2009-03-06 | 2012-10-24 | Sony Corp | IMAGE PROCESSING DEVICE AND METHOD |
WO2011031332A1 (en) * | 2009-09-14 | 2011-03-17 | Thomson Licensing | Methods and apparatus for efficient video encoding and decoding of intra prediction mode |
CN102598667A (zh) * | 2009-09-14 | 2012-07-18 | 汤姆森特许公司 | 帧内预测模式的高效视频编码和解码的方法和装置 |
CN102598667B (zh) * | 2009-09-14 | 2015-03-18 | 汤姆森特许公司 | 帧内预测模式的高效视频编码和解码的方法和装置 |
US9154798B2 (en) | 2009-09-14 | 2015-10-06 | Thomson Licensing | Methods and apparatus for efficient video encoding and decoding of intra prediction mode |
KR101735137B1 (ko) * | 2009-09-14 | 2017-05-12 | 톰슨 라이센싱 | 인트라 예측 모드의 효율적인 비디오 인코딩 및 디코딩에 대한 방법 및 장치 |
TWI602428B (zh) * | 2011-01-12 | 2017-10-11 | Ntt Docomo Inc | Image prediction decoding device, image prediction decoding method |
TWI628949B (zh) * | 2011-01-12 | 2018-07-01 | Ntt都科摩股份有限公司 | 影像預測解碼裝置、影像預測解碼方法 |
TWI660625B (zh) * | 2011-01-12 | 2019-05-21 | 日商Ntt都科摩股份有限公司 | 影像預測解碼裝置、影像預測解碼方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2009060153A (ja) | 2009-03-19 |
US20090268974A1 (en) | 2009-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2007072895A1 (ja) | 画面内予測モード決定方法、画像符号化方法及び画像符号化装置 | |
CN1232126C (zh) | 图像编码方法和装置以及图像解码方法和装置 | |
JP5039777B2 (ja) | Dcシフトアーチファクトに対する量子化調整 | |
CN100534192C (zh) | 帧内预测编码方法 | |
JP5124562B2 (ja) | テクスチャレベルに基づく量子化調整 | |
TWI386064B (zh) | 內部預測編碼控制方法及裝置,其程式,以及記錄有程式之記憶媒體 | |
JP4047879B2 (ja) | 動きベクトル検出装置および動きベクトル検出方法 | |
WO2014054267A1 (ja) | 画像符号化装置及び画像符号化方法 | |
WO2017005146A1 (zh) | 视频编码和解码方法、视频编码和解码装置 | |
JP5554831B2 (ja) | 歪みの重み付け | |
WO2009093672A1 (ja) | 符号化装置および方法、並びに復号装置および方法 | |
KR20150091284A (ko) | 영상의 인트라 예측 부호화, 복호화 방법 및 장치 | |
US9129411B2 (en) | Upsampling in a tiered signal quality hierarchy | |
JP2010529802A (ja) | 映像復旧を利用したイントラ予測符号化、復号化方法及び装置 | |
US10123021B2 (en) | Image encoding apparatus for determining quantization parameter, image encoding method, and program | |
Lin et al. | Nr-cnn: Nested-residual guided cnn in-loop filtering for video coding | |
JPWO2006100946A1 (ja) | 画像信号再符号化装置及び画像信号再符号化方法 | |
JP4449430B2 (ja) | 画像処理装置および画像処理方法、プログラム、並びに記録媒体 | |
JP2006295734A (ja) | 再符号化装置、再符号化方法、および再符号化用プログラム | |
Kamath et al. | Pixelwise improvised blend of predictors in HEVC lossless mode | |
JP5789172B2 (ja) | 画像処理装置及びプログラム | |
KR20040027047A (ko) | 예측 스캐닝을 이용한 영상 부호화/복호화 방법 및 장치 | |
JP4008846B2 (ja) | 画像符号化装置、画像符号化方法、画像符号化プログラム及びそのプログラムを記録した記録媒体 | |
JP6248648B2 (ja) | 情報処理装置、符号化単位の選択方法、及びプログラム | |
Shilpa et al. | Pixelwise improvised blend of predictors in HEVC lossless mode |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application | ||
WWE | Wipo information: entry into national phase |
Ref document number: 12095974 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
NENP | Non-entry into the national phase |
Ref country code: JP |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 06842972 Country of ref document: EP Kind code of ref document: A1 |