WO2013154026A1 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
WO2013154026A1
WO2013154026A1 PCT/JP2013/060362 JP2013060362W WO2013154026A1 WO 2013154026 A1 WO2013154026 A1 WO 2013154026A1 JP 2013060362 W JP2013060362 W JP 2013060362W WO 2013154026 A1 WO2013154026 A1 WO 2013154026A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
offset
image
size
block
Prior art date
Application number
PCT/JP2013/060362
Other languages
French (fr)
Japanese (ja)
Inventor
佐藤 数史
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2013154026A1 publication Critical patent/WO2013154026A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present disclosure relates to an image processing apparatus and method, and more particularly, to an image processing apparatus and method capable of reducing information to be sent to a decoding side and improving encoding efficiency.
  • MPEG2 (ISO / IEC 13818-2) is defined as a general-purpose image encoding system, and is a standard that covers both interlaced scanning images and progressive scanning images, as well as standard resolution images and high-definition images.
  • MPEG2 is currently widely used in a wide range of applications for professional and consumer applications.
  • a code amount (bit rate) of 4 to 8 Mbps is assigned to an interlaced scanned image having a standard resolution of 720 ⁇ 480 pixels.
  • a high resolution interlaced scanned image having 1920 ⁇ 1088 pixels is assigned a code amount (bit rate) of 18 to 22 Mbps.
  • bit rate code amount
  • MPEG2 was mainly intended for high-quality encoding suitable for broadcasting, but it did not support encoding methods with a lower code amount (bit rate) than MPEG1, that is, a higher compression rate. With the widespread use of mobile terminals, the need for such an encoding system is expected to increase in the future, and the MPEG4 encoding system has been standardized accordingly. Regarding the image coding system, the standard was approved as an international standard in December 1998 as ISO / IEC 14496-2.
  • the standardization schedule is H.03 in March 2003. H.264 and MPEG-4 Part 10 (Advanced Video Coding, hereinafter referred to as AVC).
  • Non-Patent Document 1 a method having an FIR filter in a motion compensation loop has been proposed (see Non-Patent Document 1, for example).
  • this FIR filter coefficient is obtained by Wiener Filter so as to minimize the error from the input image, thereby minimizing deterioration in the reference image and encoding efficiency of the image compression information to be output. It is possible to improve.
  • HEVC High Efficiency Video (Coding) by JCTVC (Joint Collaboration (Team-Video Coding)), which is a joint standardization organization of ITU-T and ISO / IEC, for the purpose of further improving encoding efficiency than H.264 / AVC. Standardization of the encoding method is underway. Regarding the HEVC standard, CommitteeCommitdraft, which is the first draft version specification, was issued in February 2012 (see Non-Patent Document 2, for example).
  • a coding unit (Coding Unit) is defined as an encoding unit similar to a macroblock in AVC. Further, one coding unit can be divided into one or more prediction units (Prediction Unit: PU) that mean a unit of prediction processing. Then, intra prediction or inter prediction is performed for each prediction unit.
  • Prediction Unit Prediction Unit: PU
  • one coding unit can be divided into one or more transform units (Transform Unit: TU) which means a unit of orthogonal transform. Then, for each transform unit, orthogonal transform from image data to transform coefficient data and quantization of transform coefficient data are performed.
  • transform Unit Transform Unit
  • Non-Patent Document 3 a short-distance intra prediction method that enables selection of a relatively small non-square prediction unit (for example, a linear or rectangular prediction unit) in the intra prediction mode.
  • a method called "suggestion" is proposed.
  • the shape of the conversion unit may also be a non-square according to the shape of the prediction unit.
  • HEVC a method called an adaptive offset filter proposed in Non-Patent Document 4 is adopted.
  • the adaptive offset filter is provided between the deblocking filter and the adaptive loop filter.
  • band offsets There are two types of adaptive offsets called band offsets and six types called edge offsets, and it is also possible not to apply offsets. Then, the image can be divided into quad-trees, and the type of adaptive offset described above can be selected for each divided region. By using this method, encoding efficiency can be improved.
  • whether or not the block includes an edge has a correlation with the TU size and the PU size. That is, for example, for a flatter region, a larger TU size tends to be selected. For example, for a region including an edge, a smaller TU size tends to be selected.
  • Non-Patent Document 3 it is determined by calculating a cost function value or the like which of the edge offset and the band offset is better without using such a correlation with the TU size. It was. Therefore, the amount of calculation is large, and information indicating whether an edge offset or a band offset is selected must be sent to the decoding side.
  • the present disclosure has been made in view of such a situation, and reduces information to be transmitted to the decoding side and improves encoding efficiency.
  • An image processing apparatus includes a decoding unit that generates an image by decoding an encoded stream that is encoded in units having a hierarchical structure, and a block size of an image generated by the decoding unit, or An offset setting unit that sets an offset type for adaptive offset processing according to the area, and the adaptive offset processing for the image generated by the decoding unit with the offset type set by the offset setting unit. And an adaptive offset processing unit to perform.
  • the offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Can do.
  • the block is a TU (Transform Unit).
  • a receiver that receives the encoded stream and on / off information indicating whether the adaptive offset processing is on or off; and the decoder generates the image by decoding the encoded stream received by the receiver.
  • the adaptive offset processing unit when the on / off information received by the receiving unit is on of the adaptive offset processing, is an image generated by the decoding unit with the type of offset set by the offset setting unit. The adaptive offset processing can be performed on the target.
  • the offset setting unit sets a band offset when the size or area of the block is equal to or larger than the first size or the first area, and the block size or area is the first size or the first area. If it is smaller, an edge offset can be set.
  • the offset setting unit may set the adaptive offset processing to be off when the size or area of the block is equal to or larger than the first size or the second size or the second area larger than the first area. it can.
  • the offset setting unit can set an edge offset for the block when NSQT (Non-Square-Quadtree Transform) is applied to the block.
  • NSQT Non-Square-Quadtree Transform
  • the offset setting unit sets the type of offset of the adaptive offset processing according to the size or area of the short side of the block. Can do.
  • the block is an LCU (Largest Coding Unit), and the offset setting unit can set the type of offset of the adaptive offset processing according to the integration of the area of the sub-blocks included in the LCU.
  • LCU Large Coding Unit
  • an image processing device generates an image by decoding an encoded stream encoded in a unit having a hierarchical structure, and sets the size or area of a block of the generated image. Accordingly, the type of offset of the adaptive offset process is set, and the adaptive offset process is performed on the generated image with the set type of offset.
  • An image processing apparatus includes an offset setting unit that sets an offset type of adaptive offset processing according to a size or area of a block of an image subjected to local decoding processing when an image is encoded, With the type of offset set by the offset setting unit, using the image as the target, the adaptive offset processing unit that performs the adaptive offset processing, and the image that has been subjected to the adaptive offset processing by the adaptive offset processing unit, An encoding unit that encodes the image in a unit having a hierarchical structure.
  • the offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Can do.
  • the block is a TU (Transform Unit).
  • a transmission unit that transmits an image encoded by the encoding unit; the adaptive offset processing unit determines whether the adaptive offset processing is on or off; and when the adaptive offset processing is on, the offset setting The adaptive offset processing is performed on the image with the type of offset set by the unit, and the transmission unit can transmit on / off information indicating whether the adaptive offset processing is on or off.
  • the offset setting unit sets a band offset when the size or area of the block is equal to or larger than the first size or the first area, and the block size or area is the first size or the first area. If it is smaller, an edge offset can be set.
  • the offset setting unit may set the adaptive offset processing to be off when the size or area of the block is equal to or larger than the first size or the second size or the second area larger than the first area. it can.
  • the offset setting unit can set an edge offset for the block when NSQT (Non-Square-Quadtree Transform) is applied to the block.
  • NSQT Non-Square-Quadtree Transform
  • the offset setting unit sets the type of offset of the adaptive offset processing according to the size or area of the short side of the block. Can do.
  • the block is an LCU (Largest Coding Unit), and the offset setting unit can set the type of offset of the adaptive offset processing according to the integration of the area of the sub-blocks included in the LCU.
  • LCU Large Coding Unit
  • An image processing method sets an offset type of adaptive offset processing according to a size or area of an image block subjected to local decoding processing when an image processing device encodes an image. Then, the adaptive offset processing is performed on the image with the set offset type, and the image is encoded in units having a hierarchical structure using the image on which the adaptive offset processing has been performed.
  • an image is generated by decoding an encoded stream that is encoded in units having a hierarchical structure, and an offset of adaptive offset processing is performed according to the size or area of the block of the generated image Is set. Then, the adaptive offset processing is performed on the generated image with the set offset type.
  • the type of offset of the adaptive offset process is set according to the size or area of the block of the image that has been locally decoded when the image is encoded. Then, the adaptive offset processing is performed on the image with the set offset type, and the image is encoded in a unit having a hierarchical structure using the image subjected to the adaptive offset processing.
  • the above-described image processing apparatus may be an independent apparatus, or may be an internal block constituting one image encoding apparatus or image decoding apparatus.
  • an image can be decoded.
  • the information sent to the decoding side can be reduced and the encoding efficiency can be improved.
  • an image can be encoded.
  • the information sent to the decoding side can be reduced and the encoding efficiency can be improved.
  • FIG. 1 is a block diagram illustrating a main configuration example of an AVC image encoding device.
  • FIG. It is a block diagram which shows the main structural examples of the image decoding apparatus of an AVC system. It is a block diagram which shows the main structural examples of the image coding apparatus to which an adaptive loop filter is applied. It is a block diagram which shows the main structural examples of the image decoding apparatus to which an adaptive loop filter is applied. It is a figure explaining the structural example of a coding unit. It is a figure explaining Non-Square
  • FIG. 20 is a block diagram illustrating a main configuration example of a computer. It is a block diagram which shows an example of a schematic structure of a television apparatus. It is a block diagram which shows an example of a schematic structure of a mobile telephone. It is a block diagram which shows an example of a schematic structure of a recording / reproducing apparatus. It is a block diagram which shows an example of a schematic structure of an imaging device.
  • FIG. 1 illustrates a configuration of an embodiment of an image encoding apparatus that encodes an image using an H.264 and MPEG (Moving Picture Experts Group) 4 Part 10 (AVC (Advanced Video Coding)) encoding method.
  • H.M The H.264 and MPEG encoding methods are referred to as AVC methods.
  • the image encoding device 1 includes an A / D conversion unit 11, a screen rearrangement buffer 12, a calculation unit 13, an orthogonal transformation unit 14, a quantization unit 15, a lossless encoding unit 16, an accumulation buffer 17, An inverse quantization unit 18, an inverse orthogonal transform unit 19, and a calculation unit 20 are included.
  • the image encoding device 1 is also configured to include a deblock filter 21, a frame memory 22, a selection unit 23, an intra prediction unit 24, a motion prediction / compensation unit 25, a predicted image selection unit 26, and a rate control unit 27. Has been.
  • the A / D converter 11 A / D converts the input image data, outputs it to the screen rearrangement buffer 12, and stores it.
  • the screen rearrangement buffer 12 rearranges the stored frame images in the display order in the order of frames for encoding in accordance with the GOP (Group of Picture) structure.
  • the screen rearrangement buffer 12 supplies the image with the rearranged frame order to the arithmetic unit 13.
  • the screen rearrangement buffer 12 also supplies the image in which the frame order has been rearranged to the intra prediction unit 24 and the motion prediction / compensation unit 25.
  • the calculation unit 13 subtracts the prediction image supplied from the intra prediction unit 24 or the motion prediction / compensation unit 25 via the prediction image selection unit 26 from the image read from the screen rearrangement buffer 12, and the difference information Is output to the orthogonal transform unit 14.
  • the calculation unit 13 subtracts the prediction image supplied from the intra prediction unit 24 from the image read from the screen rearrangement buffer 12. For example, in the case of an image on which inter coding is performed, the calculation unit 13 subtracts the prediction image supplied from the motion prediction / compensation unit 25 from the image read from the screen rearrangement buffer 12.
  • the orthogonal transform unit 14 performs orthogonal transform such as discrete cosine transform and Karhunen-Loeve transform on the difference information supplied from the computation unit 13 and supplies the transform coefficient to the quantization unit 15.
  • the quantization unit 15 quantizes the transform coefficient output from the orthogonal transform unit 14.
  • the quantization unit 15 sets a quantization parameter based on the information regarding the target value of the code amount supplied from the rate control unit 27, and performs quantization.
  • the quantization unit 15 supplies the quantized transform coefficient to the lossless encoding unit 16.
  • the lossless encoding unit 16 performs lossless encoding such as variable length encoding and arithmetic encoding on the quantized transform coefficient. Since the coefficient data is quantized under the control of the rate control unit 27, the code amount becomes a target value set by the rate control unit 27 (or approximates the target value).
  • the lossless encoding unit 16 acquires information indicating intra prediction from the intra prediction unit 24, and acquires information indicating inter prediction mode, motion vector information, and the like from the motion prediction / compensation unit 25.
  • information indicating intra prediction is hereinafter also referred to as intra prediction mode information.
  • information indicating an information mode indicating inter prediction is hereinafter also referred to as inter prediction mode information.
  • the lossless encoding unit 16 encodes the quantized transform coefficient, and converts various information such as a filter coefficient, intra prediction mode information, inter prediction mode information, and a quantization parameter into one piece of header information of encoded data. Part (multiplex).
  • the lossless encoding unit 16 supplies the encoded data obtained by encoding to the accumulation buffer 17 for accumulation.
  • the lossless encoding unit 16 performs lossless encoding processing such as variable length encoding or arithmetic encoding.
  • variable length coding examples include H.264.
  • CAVLC Context-Adaptive Variable Length Coding
  • arithmetic coding examples include CABAC (Context-Adaptive Binary Arithmetic Coding).
  • the accumulation buffer 17 temporarily holds the encoded data supplied from the lossless encoding unit 16.
  • the accumulation buffer 17 stores the accumulated encoded data at a predetermined timing in an H.264 format.
  • the transform coefficient quantized by the quantization unit 15 is also supplied to the inverse quantization unit 18.
  • the inverse quantization unit 18 inversely quantizes the quantized transform coefficient by a method corresponding to the quantization by the quantization unit 15.
  • the inverse quantization unit 18 supplies the obtained transform coefficient to the inverse orthogonal transform unit 19.
  • the inverse orthogonal transform unit 19 performs inverse orthogonal transform on the supplied transform coefficient by a method corresponding to the orthogonal transform process by the orthogonal transform unit 14.
  • the inversely orthogonal transformed output (restored difference information) is supplied to the calculation unit 20.
  • the calculation unit 20 is supplied from the intra prediction unit 24 or the motion prediction / compensation unit 25 to the inverse orthogonal transform result supplied from the inverse orthogonal transform unit 19, that is, the restored difference information, via the predicted image selection unit 26. Predicted images are added to obtain a locally decoded image (decoded image).
  • the calculation unit 20 adds the prediction image supplied from the intra prediction unit 24 to the difference information.
  • the calculation unit 20 adds the predicted image supplied from the motion prediction / compensation unit 25 to the difference information.
  • the addition result is supplied to the deblock filter 21 or the frame memory 22.
  • the deblocking filter 21 removes block distortion of the decoded image by appropriately performing deblocking filter processing.
  • the deblocking filter 21 supplies the filter processing result to the frame memory 22. Note that the decoded image output from the arithmetic unit 20 can be supplied to the frame memory 22 without going through the deblocking filter 21. That is, the deblocking filter process of the deblocking filter 21 can be omitted.
  • the frame memory 22 stores the supplied decoded image, and outputs the stored decoded image as a reference image to the intra prediction unit 24 or the motion prediction / compensation unit 25 via the selection unit 23 at a predetermined timing. .
  • the frame memory 22 supplies the reference image to the intra prediction unit 24 via the selection unit 23.
  • the frame memory 22 supplies the reference image to the motion prediction / compensation unit 25 via the selection unit 23.
  • the selection unit 23 supplies the reference image to the intra prediction unit 24 when the reference image supplied from the frame memory 22 is an image to be subjected to intra coding.
  • the selection unit 23 supplies the reference image to the motion prediction / compensation unit 25 when the reference image supplied from the frame memory 22 is an image to be inter-encoded.
  • the intra prediction unit 24 performs intra prediction (intra-screen prediction) that generates a prediction image using the pixel value in the processing target picture supplied from the frame memory 22 via the selection unit 23.
  • the intra prediction unit 24 performs this intra prediction in a plurality of modes (intra prediction modes) prepared in advance.
  • an intra 4 ⁇ 4 prediction mode, an intra 8 ⁇ 8 prediction mode, and an intra 16 ⁇ 16 prediction mode are defined for the luminance signal.
  • a prediction mode independent of the luminance signal can be defined for each macroblock.
  • intra 4 ⁇ 4 prediction mode one intra prediction mode is defined for each 4 ⁇ 4 luminance block, and for intra 8 ⁇ 8 prediction mode, for each 8 ⁇ 8 luminance block. become.
  • intra 16 ⁇ 16 prediction mode and the color difference signal one prediction mode is defined for each macroblock.
  • the intra prediction unit 24 generates prediction images in all candidate intra prediction modes, evaluates the cost function value of each prediction image using the input image supplied from the screen rearrangement buffer 12, and selects the optimum mode. select. When the optimal intra prediction mode is selected, the intra prediction unit 24 supplies the prediction image generated in the optimal mode to the calculation unit 13 and the calculation unit 20 via the predicted image selection unit 26.
  • the intra prediction unit 24 supplies information such as intra prediction mode information indicating the adopted intra prediction mode to the lossless encoding unit 16 as appropriate.
  • the motion prediction / compensation unit 25 uses the input image supplied from the screen rearrangement buffer 12 and the reference image supplied from the frame memory 22 via the selection unit 23 for the image to be inter-coded, Perform motion prediction (inter prediction).
  • the motion prediction / compensation unit 25 performs a motion compensation process according to the detected motion vector, and generates a prediction image (inter prediction image information).
  • the motion prediction / compensation unit 25 performs such inter prediction in a plurality of modes (inter prediction modes) prepared in advance.
  • the motion prediction / compensation unit 25 generates prediction images in all candidate inter prediction modes, evaluates the cost function value of each prediction image, and selects an optimal mode.
  • the motion prediction / compensation unit 25 supplies the generated predicted image to the calculation unit 13 and the calculation unit 20 via the predicted image selection unit 26.
  • the motion prediction / compensation unit 25 supplies the inter prediction mode information indicating the adopted inter prediction mode and the motion vector information indicating the calculated motion vector to the lossless encoding unit 16.
  • the predicted image selection unit 26 supplies the output of the intra prediction unit 24 to the calculation unit 13 and the calculation unit 20 in the case of an image to be subjected to intra coding, and in the case of an image to be subjected to inter coding, the motion prediction / compensation unit 25.
  • the output is supplied to the calculation unit 13 and the calculation unit 20.
  • the rate control unit 27 controls the quantization operation rate of the quantization unit 15 based on the compressed image stored in the storage buffer 17 so that overflow or underflow does not occur.
  • FIG. 2 is a block diagram illustrating a main configuration example of an image decoding apparatus that realizes image compression by orthogonal transformation such as discrete cosine transformation or Karhunen-Labe transformation and motion compensation.
  • An image decoding device 31 shown in FIG. 2 is a decoding device corresponding to the image encoding device 1 of FIG.
  • the encoded data encoded by the image encoding device 1 is supplied to an image decoding device 31 corresponding to the image encoding device 1 via an arbitrary path such as a transmission path or a recording medium, and is decoded. .
  • the image decoding device 31 includes a storage buffer 41, a lossless decoding unit 42, an inverse quantization unit 43, an inverse orthogonal transform unit 44, a calculation unit 45, a deblock filter 46, a screen rearrangement buffer 47, And a D / A converter 48. Further, the image decoding device 31 includes a frame memory 49, a selection unit 50, an intra prediction unit 51, a motion compensation unit 52, and an image selection unit 53.
  • the accumulation buffer 41 receives and accumulates the transmitted encoded data. That is, the accumulation buffer 41 is also a receiving unit for the transmitted encoded data. This encoded data is encoded by the image encoding device 1.
  • the lossless decoding unit 42 decodes the encoded data read from the accumulation buffer 41 at a predetermined timing by a method corresponding to the encoding method of the lossless encoding unit 16 in FIG.
  • intra prediction mode information is stored in the header portion of the encoded data.
  • the lossless decoding unit 42 also decodes the intra prediction mode information and supplies the information to the intra prediction unit 51.
  • motion vector information is stored in the header portion of the encoded data.
  • the lossless decoding unit 42 also decodes the motion vector information and supplies the information to the motion compensation unit 52.
  • the inverse quantization unit 43 inversely quantizes the coefficient data (quantization coefficient) obtained by decoding by the lossless decoding unit 42 by a method corresponding to the quantization method of the quantization unit 15 in FIG. That is, the inverse quantization unit 43 performs inverse quantization of the quantization coefficient by the same method as the inverse quantization unit 18 of FIG.
  • the inverse quantization unit 43 supplies the inversely quantized coefficient data, that is, the orthogonal transform coefficient, to the inverse orthogonal transform unit 44.
  • the inverse orthogonal transform unit 44 is a method corresponding to the orthogonal transform method of the orthogonal transform unit 14 in FIG. 1 (the same method as the inverse orthogonal transform unit 19 in FIG. 1), and inverse orthogonal transforms the orthogonal transform coefficient to obtain an image code.
  • the decoding residual data corresponding to the residual data before being orthogonally transformed in the encoding apparatus 1 is obtained. For example, fourth-order inverse orthogonal transform is performed.
  • the decoded residual data obtained by the inverse orthogonal transform is supplied to the calculation unit 45.
  • a prediction image is supplied to the calculation unit 45 from the intra prediction unit 51 or the motion compensation unit 52 via the image selection unit 53.
  • the computing unit 45 adds the decoded residual data and the predicted image, and obtains decoded image data corresponding to the image data before the predicted image is subtracted by the computing unit 13 of the image encoding device 1.
  • the arithmetic unit 45 supplies the decoded image data to the deblock filter 46.
  • the deblock filter 46 removes block distortion of the supplied decoded image, and then supplies it to the screen rearrangement buffer 47.
  • the screen rearrangement buffer 47 rearranges images. That is, the order of frames rearranged for the encoding order by the screen rearrangement buffer 12 in FIG. 1 is rearranged in the original display order.
  • the D / A converter 48 D / A converts the image supplied from the screen rearrangement buffer 47, and outputs and displays it on a display (not shown).
  • the output of the deblock filter 46 is further supplied to the frame memory 49.
  • the frame memory 49, the selection unit 50, the intra prediction unit 51, the motion compensation unit 52, and the image selection unit 53 are the frame memory 22, the selection unit 23, the intra prediction unit 24, and the motion prediction / compensation unit 25 of the image encoding device 1. , And the predicted image selection unit 26, respectively.
  • the selection unit 50 reads the image to be interprocessed and the image to be referenced from the frame memory 49 and supplies them to the motion compensation unit 52. In addition, the selection unit 50 reads an image used for intra prediction from the frame memory 49 and supplies the image to the intra prediction unit 51.
  • the information indicating the intra prediction mode obtained by decoding the header information is appropriately supplied from the lossless decoding unit 42 to the intra prediction unit 51.
  • the intra prediction unit 51 generates a prediction image from the reference image acquired from the frame memory 49 based on this information, and supplies the generated prediction image to the image selection unit 53.
  • the motion compensation unit 52 acquires information (prediction mode information, motion vector information, reference frame information, flags, various parameters, and the like) obtained by decoding the header information from the lossless decoding unit 42.
  • the motion compensation unit 52 generates a prediction image from the reference image acquired from the frame memory 49 based on the information supplied from the lossless decoding unit 42 and supplies the generated prediction image to the image selection unit 53.
  • the image selection unit 53 selects the prediction image generated by the motion compensation unit 52 or the intra prediction unit 51 and supplies the selected prediction image to the calculation unit 45.
  • FIG. 3 is a block diagram illustrating a configuration example of an image encoding device to which an adaptive loop filter is applied.
  • the part 27 is omitted. Also, arrows and the like are omitted as appropriate. Therefore, in the example of FIG. 3, the reference image from the frame memory 22 is directly input to the motion prediction / compensation unit 25, and the prediction image from the motion prediction / compensation unit 25 is directly output to the calculation units 13 and 20. ing.
  • the image encoding device 61 in FIG. 3 differs from the image encoding device 1 in FIG. 1 only in that an adaptive loop filter 71 is added between the deblock filter 21 and the frame memory 22.
  • the adaptive loop filter 71 calculates an adaptive loop filter coefficient so as to minimize a residual with the original image from the screen rearrangement buffer 12 (not shown), and uses this adaptive loop filter coefficient to perform deblocking. Filter processing is performed on the decoded image from the filter 21.
  • this filter for example, a Wiener filter is used.
  • the adaptive loop filter 71 sends the calculated adaptive loop filter coefficient to the lossless encoding unit 16.
  • this adaptive loop filter coefficient is subjected to lossless encoding processing such as variable length encoding and arithmetic encoding, and inserted into the header portion of the compressed image.
  • FIG. 4 is a block diagram showing a configuration example of an image decoding apparatus corresponding to the image encoding apparatus of FIG.
  • arrows and the like are omitted as appropriate. Therefore, in the example of FIG. 4, the reference image from the frame memory 49 is directly input to the motion compensation unit 52, and the predicted image from the motion compensation unit 52 is directly output to the calculation unit 45.
  • the image decoding device 81 in FIG. 4 differs from the image decoding device 31 in FIG. 2 only in that an adaptive loop filter 91 is added between the deblock filter 46 and the frame memory 49.
  • the adaptive loop filter 91 is supplied with the adaptive loop filter coefficient decoded from the lossless decoding unit 42 and extracted from the header.
  • the adaptive loop filter 91 performs a filter process on the decoded image from the deblocking filter 46 using the supplied filter coefficient.
  • this filter for example, a Wiener filter is used.
  • the image quality of the decoded image can be improved, and further the image quality of the reference image can be improved.
  • JM ⁇ ⁇ Joint Model
  • JM JM
  • High Complexity Mode Low Complexity Mode.
  • a cost function value for each prediction mode Mode is calculated, and a prediction mode that minimizes the cost function value is selected as the optimum mode for the block or macroblock.
  • the cost function in High Complexity Mode is as shown in the following formula (1).
  • is the entire set of candidate modes for encoding the block or macroblock
  • D is the difference energy between the decoded image and the input image when encoded in the prediction mode Mode.
  • is a Lagrange undetermined multiplier given as a function of the quantization parameter.
  • R is a total code amount when encoding is performed in the mode Mode, including orthogonal transform coefficients.
  • the cost function in Low Complexity Mode is as shown in the following formula (2).
  • D is the difference energy between the predicted image and the input image, unlike the case of High Complexity Mode.
  • QP2Quant QP
  • HeaderBit is a code amount related to information belonging to Header, such as a motion vector and a mode, which does not include an orthogonal transform coefficient.
  • HEVC method High Efficiency Video Coding
  • a hierarchical structure is defined by macroblocks and sub-macroblocks.
  • CU Coding Unit
  • CU is also called Coding Tree Block (CTB) and is a coding unit similar to a macroblock in the AVC method.
  • CTB Coding Tree Block
  • the latter is fixed to a size of 16 ⁇ 16 pixels, whereas the size of the former is not fixed, and is specified in the image compression information in each sequence.
  • SPS Sequence Coding Unit
  • LCU Large Coding Unit
  • SCU Smallest Coding Unit
  • the LCU size is 128 and the maximum hierarchical depth is 5.
  • split_flag the value of split_flag is “1”
  • the 2N ⁇ 2N size CU is divided into N ⁇ N size CUs that are one level below.
  • the CU may be divided into one or more prediction units (Prediction Units: PUs) that mean units of intra or inter prediction processing.
  • PU can be divided
  • Prediction Units: PUs Prediction Units: PUs
  • Unit: TU transformation units
  • Unit TU
  • a macroblock in the AVC method can be considered to correspond to an LCU.
  • the size of the LCU in the highest hierarchy is H.264, for example, 128 ⁇ 128 pixels. Generally, it is set larger than the macroblock of the H.264 / AVC format.
  • each processing unit of LCU, CU, PU, and TU is also referred to as a block as appropriate.
  • Non-Square Quadtree Transform In the HEVC method, a rectangular TU called NSQT (Non-Square Quadtree Transform) as shown in FIG. 6 can be used.
  • a single TU is applied to the CU.
  • NSQT a plurality of squares or a rectangular TU
  • Non-Patent Document 3 This is described, for example, as a short distance intra prediction method in Non-Patent Document 3 in the case of intra prediction.
  • prediction units of various sizes such as 1 ⁇ 4 pixels, 2 ⁇ 8 pixels, 4 ⁇ 16 pixels, 4 ⁇ 1 pixels, 8 ⁇ 2 pixels, and 16 ⁇ 4 pixels are included in the image.
  • the adaptive offset filter (Picture Quality Adaptive Offset: PQAO) is provided between the deblock filter (DB) and the adaptive loop filter (ALF) as shown in FIG.
  • band offsets There are two types of adaptive offsets called band offsets and six types called edge offsets, and it is also possible not to apply offsets. Then, the image is divided into quad-trees, and it is possible to select which of the above-described adaptive offset types is used for encoding each region.
  • This selection information is encoded as PQAO Info.
  • the encoding unit Entropy Coding
  • a bit stream is generated, and the generated bit stream is transmitted to the decoding side.
  • a cost function value J0 of Level-0 (division depth 0) indicating a state where the region 0 is not divided is calculated.
  • cost function values J1, J2, J3, and J4 of Level-1 (division depth 0) indicating a state where the area 0 is divided into four areas 1 to 4 are calculated.
  • Partitions of Level-1 is selected by J0> (J1 + J2 + J3 + J4).
  • cost function values J5 to J20 of Level-2 (division depth 2) indicating a state where the area 0 is divided into 16 areas 5 to 20 are calculated.
  • a partition region (Partitions) of Level-1 is selected in region 1 by J1 ⁇ (J5 + J6 + J9 + J10).
  • a Level-2 partition region (Partitions) is selected by J2> (J7 + J8 + J11 + J12).
  • J3> J13 + J14 + J17 + J18
  • J4> J15 + J16 + J19 + J20
  • the division region (Partitions) of Level-1 is selected in the region 4.
  • the final quad-tree region (Partitions) indicated by A4 in the quad-tree structure is determined. Then, for each region of the quad-tree structure determined, cost function values are calculated for all of the two types of band offsets, six types of edge offsets, and no offset, and it is determined which offset is used for encoding.
  • EO (4) that is, the fourth type of edge offset is determined for the region 1 as indicated by the white arrow.
  • OFF that is, no offset is determined
  • EO (2) that is, the second type of edge offset is determined.
  • OFF that is, no offset is determined.
  • BO (1) that is, the first type of band offset
  • EO (2) that is, 2 of edge offset
  • the type has been determined.
  • BO (2) that is, the second type of band offset
  • BO (1) that is, the first type of band offset.
  • EO (1) that is, the first type of edge offset is determined.
  • the central 16 bands are divided into the first group, and the 8 bands on both sides are divided into the second group.
  • the offset of only one of the first group and the second group is encoded and sent to the decoding side.
  • the first group and the second group have pixels. For this reason, by sending only one offset, it is possible to suppress an increase in the amount of coding due to transmission of pixel values that are not included in each quad-tree region.
  • the luminance signal is limited to 16,235
  • the color difference signal is limited to 16,240.
  • the broadcast legal shown in the lower part of FIG. 9 is applied, and the offset value for each of the two bands on both sides indicated by the crosses is not transmitted.
  • the pixel value is compared with the adjacent pixel value adjacent to the pixel value, and the offset value is transmitted to the category corresponding thereto.
  • edge offset there are four one-dimensional patterns shown in FIGS. 10A to 10D and two two-dimensional patterns shown in FIG. 10E and FIG. 10F.
  • the offset is transmitted in the indicated category.
  • FIG. 10A shows that 1-D, 0-degree in which adjacent pixels are arranged one-dimensionally on the left and right sides with respect to the pixel C, that is, 0 degrees with respect to the pattern of A in FIG. Represents a pattern.
  • FIG. 10B adjacent pixels are arranged one-dimensionally above and below the pixel C, that is, 1-D, 90-degree, which forms 90 degrees with respect to the pattern of A in FIG. Represents a pattern.
  • FIG. 10 is such that adjacent pixels are arranged one-dimensionally in the upper left and lower right with respect to the pixel C, that is, 1-D, which forms 135 degrees with respect to the pattern of A in FIG. Represents a 135-degree pattern.
  • FIG. 10D adjacent pixels are arranged one-dimensionally on the upper right and lower left with respect to the pixel C, that is, 45 degrees with respect to the pattern of A in FIG. Represents the -degree pattern.
  • FIG. 10 E in FIG. 10 represents a 2-D, cross pattern in which adjacent pixels are arranged two-dimensionally in the vertical and horizontal directions with respect to the pixel C, that is, intersect with the pixel C.
  • FIG. 10F shows that 2-D, diagonal in which adjacent pixels are two-dimensionally arranged with respect to the pixel C in the upper right lower left and upper left lower right, that is, obliquely intersect the pixel C. Represents a pattern.
  • 11A shows a rule list of one-dimensional patterns (Classification rule for 1-D patterns).
  • the patterns A in FIG. 11 to D in FIG. 11 are classified into five types of categories as shown in FIG. 11A, offsets are calculated based on the categories, and sent to the decoding unit.
  • the pixel value of the pixel C When the pixel value of the pixel C is smaller than the pixel values of two adjacent pixels, it is classified into category 1. When the pixel value of the pixel C is smaller than the pixel value of one adjacent pixel and matches the pixel value of the other adjacent pixel, it is classified into category 2. When the pixel value of the pixel C is larger than the pixel value of one adjacent pixel and matches the pixel value of the other adjacent pixel, it is classified into category 3. When the pixel value of the pixel C is larger than the pixel values of two adjacent pixels, it is classified into category 4. If none of the above, it is classified into category 0.
  • B in FIG. 11 shows a two-dimensional pattern rule list (Classification rule for 2-D ⁇ 2patterns).
  • the patterns of E of FIG. 10 and F of FIG. 10 are classified into seven types of categories as shown in B of FIG. 11, and offsets are sent to the decoding unit according to the categories.
  • the pixel C When the pixel value of the pixel C is smaller than the pixel values of the four adjacent pixels, it is classified into category 1. When the pixel value of the pixel C is smaller than the pixel values of the three adjacent pixels and matches the pixel value of the fourth adjacent pixel, the pixel C is classified into category 2. When the pixel value of the pixel C is smaller than the pixel values of the three adjacent pixels and larger than the pixel value of the fourth adjacent pixel, the pixel C is classified into category 3.
  • the pixel C When the pixel value of the pixel C is larger than the pixel values of the three adjacent pixels and smaller than the pixel value of the fourth adjacent pixel, it is classified into category 4. When the pixel value of the pixel C is larger than the pixel values of the three adjacent pixels and matches the pixel value of the fourth adjacent pixel, the pixel C is classified into category 5. When the pixel value of the pixel C is larger than the pixel values of the four adjacent pixels, it is classified into category 6. If none of the above, it is classified into category 0.
  • the 1-bit offset value is sent to the decoding side with higher accuracy than the low-delay encoding condition.
  • the quad-tree structure (including information about the type of offset and no offset) described above with reference to FIG. 8 and the offset value are sent to the decoding side.
  • the category may be sent to the decoding side, or may be obtained in each device.
  • FIG. 12 illustrates a configuration of an embodiment of an image encoding device as an image processing device to which the present disclosure is applied.
  • the image encoding apparatus 101 shown in FIG. 12 encodes image data using a prediction process.
  • a method according to HEVC High Efficiency Video Coding
  • the image encoding device 101 in FIG. 12 includes a calculation unit 20, a deblock filter 21, a frame memory 22, a selection unit 23, an intra prediction unit 24, a motion prediction / compensation unit 25, a predicted image selection unit 26, and a rate control unit 27. 1 in common with the image encoding device 1 of FIG.
  • the image coding apparatus 101 in FIG. 12 is different from the image coding in FIG. 1 in that the orthogonal transform unit 14 is replaced with the orthogonal transform unit 111 and that a class classification unit 112 and an adaptive offset unit 113 are added. Different from the device 1.
  • the orthogonal transform unit 111 performs orthogonal transform such as discrete cosine transform and Karhunen-Loeve transform on the difference information supplied from the computation unit 13 in the same manner as the orthogonal transform unit 14 of FIG. Is supplied to the quantization unit 15. At that time, the orthogonal transform unit 111 determines the orthogonal transform size for the block (processing unit, TU in this case) by mode determination based on the cost function value. Then, the orthogonal transform unit 111 supplies the determined TU size, which is a unit of the determined orthogonal transform, to the lossless encoding unit 16 and the class classification unit 112.
  • orthogonal transform such as discrete cosine transform and Karhunen-Loeve transform
  • the class classification unit 112 performs class classification according to the TU size from the orthogonal transformation unit 111.
  • the class classification in the class classification unit 112 is setting (classification) of the type of offset. That is, the class classification unit 112 sets whether to apply edge offset (EO) or band offset (BO) according to the TU size from the orthogonal transform unit 111.
  • the class classification unit 112 supplies information indicating the set offset type to the adaptive offset unit 113.
  • the deblock filter 21, the adaptive offset unit 113, and the adaptive loop filter 71 are provided in the motion compensation loop in that order.
  • the motion compensation loop is an arithmetic unit 13, an orthogonal transformation unit 111, a quantization unit 15, an inverse quantization unit 18, an inverse orthogonal transformation unit 19, an arithmetic unit 20, a frame memory 22, a selection unit 23, an intra prediction unit 24, or a motion.
  • This block includes a prediction / compensation unit 25 and a predicted image selection unit 26.
  • the filter processing performed by the deblock filter 21, the adaptive offset unit 113, and the adaptive loop filter 71 in the motion compensation loop is also collectively referred to as in-loop filter processing.
  • the adaptive offset unit 113 performs an offset process on the decoded image (baseband information after local decoding) from the deblocking filter 21 based on the information indicating the type of offset from the class classification unit 112.
  • the adaptive offset unit 113 determines whether or not to perform the offset (on / off of the adaptive offset filter), and when it is determined to perform the offset, obtains the category and the offset value, and calculates the arithmetic unit 20.
  • the offset process is performed on the decoded image from.
  • the adaptive offset unit 113 supplies the image after the offset process to the adaptive loop filter 71.
  • the adaptive offset unit 113 supplies the determined on / off information and information indicating the offset value to the lossless encoding unit 16.
  • the adaptive loop filter 71 calculates an adaptive loop filter coefficient so as to minimize the residual from the original image (not shown) from the screen rearrangement buffer 12, and uses this adaptive loop filter coefficient to perform an adaptive offset. Filter processing is performed on the decoded image from the unit 113. As this filter, for example, a Wiener filter is used. This improves the image quality. Although not shown, the adaptive loop filter 71 sends the calculated adaptive loop filter coefficient to the lossless encoding unit 16.
  • the lossless encoding unit 16 in FIG. 12 encodes the quantized transform coefficient as well as various types of filter coefficients, prediction mode information, quantization parameters, and the like, similar to the lossless encoding unit 16 in FIG.
  • the information is part of the header information of the encoded data.
  • the lossless encoding unit 16 uses the on / off information from the adaptive offset unit 113 and the information indicating the offset value as part of the header information of the encoded data as the adaptive offset parameter. Further, the lossless encoding unit 16 also uses information about the TU size from the orthogonal transform unit 111, information indicating an adaptive loop filter coefficient, and the like as part of the header information of the encoded data.
  • the orthogonal transform size for the luminance signal can be any of 4 ⁇ 4, 8 ⁇ 8, 16 ⁇ 16, and 32 ⁇ 32.
  • a smaller TU size tends to be selected for a block (processing unit) including an edge.
  • larger TU sizes tend to be selected. That is, whether or not the block includes an edge has a correlation with the size of the block.
  • the present technology it is determined whether to use the edge offset or the band offset in the adaptive offset filter by using the correlation with the block size described above. Therefore, the information regarding the adaptive offset filter sent to the decoding side is reduced, and the coding efficiency is improved.
  • an edge offset is applied to a block for which a smaller TU size is selected, and a band offset is applied to a block for which a larger TU size is selected.
  • the class classification unit 112 sets an edge offset for a block having a TU size of 4 ⁇ 4 or 8 ⁇ 8, and blocks other TU sizes (or more). Set the band offset.
  • an edge offset can be set to be applied to a TU having a TU size of 4 ⁇ 4 or 8 ⁇ 8.
  • a band offset it is possible to set to be applied to a TU having a TU size of 16 ⁇ 16 and not to apply an adaptive offset to a 32 ⁇ 32 TU.
  • an edge offset is applied to a TU to which NSQT described above with reference to FIG. 6 is applied. This is because a block to which NSQT is applied is considered to include an edge in the texture.
  • whether to apply an edge offset or a band offset may be set for the size of the shorter side.
  • the adaptive offset filter determines whether to use the edge offset or the band offset, and based on this, the adaptive offset filter is applied to the decoded image. I did it.
  • class classification is performed according to the TU size as a block (processing unit), but is not limited to a TU. That is, class classification (setting of filter type) may be performed according to PU size or CU size, and an adaptive offset filter may be performed for each PU or CU.
  • a block having a larger PU size or CU size is likely to be a flat region, and is therefore set to use a band offset.
  • a block having a smaller large PU size or CU size is more likely to include an edge, and thus is set to use an edge offset.
  • the CU includes a PU and the PU includes a TU.
  • the amount of calculation for determining the edge offset and the band offset by the existing method is the smallest based on the CU size, followed by the case based on the PU size and the TU size.
  • an edge offset or band offset may be set for each LCU.
  • the processing unit for example, TU, PU, or CU
  • the processing unit included in the LCU is determined depending on whether there are more units larger than a predetermined size or smaller than a predetermined size. That is, setting of the edge offset or band offset is performed according to how much area the processing unit of each size occupies in the LCU, not the number of processing units.
  • the LCU has a size of 32 ⁇ 32 and is configured to include three 16 ⁇ 16 TUs, two 8 ⁇ 8 TUs, and eight 4 ⁇ 4 TUs.
  • the class classification unit 112 includes a counter for each size, and the area is obtained from the number and size indicated by the counter.
  • the method according to the present technology described above can be applied to both the luminance signal and the color difference signal.
  • FIG. 16 is a block diagram illustrating a configuration example of the orthogonal transform unit 111 and the adaptive offset unit 113.
  • the orthogonal transform unit 111 includes a 4 ⁇ 4 orthogonal transform unit 131, an 8 ⁇ 8 orthogonal transform unit 132, a 16 ⁇ 16 orthogonal transform unit 133, a 32 ⁇ 32 orthogonal transform unit 134, a cost function calculation unit 135, And a TU size determination unit 136.
  • the adaptive offset unit 113 is configured to include an on / off determination unit 141, a category classification unit 142, and an offset processing unit 143.
  • Difference information (PU) indicating a difference value from the calculation unit 13 is supplied to the 4 ⁇ 4 orthogonal transform unit 131, the 8 ⁇ 8 orthogonal transform unit 132, the 16 ⁇ 16 orthogonal transform unit 133, and the 32 ⁇ 32 orthogonal transform unit 134. Is done.
  • the 4 ⁇ 4 orthogonal transform unit 131 performs orthogonal transform on the difference information from the calculation unit 13 with a 4 ⁇ 4 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
  • the 8 ⁇ 8 orthogonal transform unit 132 performs orthogonal transform on the difference information from the calculation unit 13 with an 8 ⁇ 8 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
  • the 16 ⁇ 16 orthogonal transform unit 133 performs orthogonal transform on the difference information from the calculation unit 13 with a 16 ⁇ 16 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
  • the 32 ⁇ 32 orthogonal transform unit 134 performs orthogonal transform on the difference information from the calculation unit 13 with a 32 ⁇ 32 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
  • the cost function calculation unit 135 calculates the cost function value using the conversion coefficient of each TU size, and supplies the conversion coefficient of each TU size and the corresponding cost function value to the TU size determination unit 136.
  • the TU size determination unit 136 determines the optimal TU size for the block based on the cost function value calculated by the cost function calculation unit 135 and supplies the orthogonal transform coefficient of the determined TU size to the quantization unit 15. Further, the TU size determination unit 136 supplies information on the determined TU size to the class classification unit 112 and the lossless encoding unit 16.
  • the class classification unit 112 Based on the TU size from the TU size determination unit 136, the class classification unit 112 sets the type of offset (edge offset or band offset) to be applied to the block by the method of the present technology described above. To do. The class classification unit 112 supplies the set offset type information to the on / off determination unit 141.
  • the on / off determination unit 141 determines the on / off of the adaptive offset processing for the block (for example, TU) using the pixel value after the deblocking filter processing from the deblocking filter 21. For example, the on / off determination unit 141 calculates the cost function value in the adaptive offset process according to the type of offset set by the class classification unit 112 and the cost function value without the adaptive offset process. Then, the on / off determination unit 141 determines on / off of the adaptive offset process based on the calculated cost function value.
  • the on / off determination unit 141 supplies the pixel value after the deblocking filter processing from the deblocking filter 21 and the determined on / off information to the category classification unit 142. Further, the on / off determination unit 141 supplies the determined on / off information to the lossless encoding unit 16.
  • the category classification unit 142 uses the pixel value after the deblocking filter processing to determine the category in the offset type set by the class classification unit 112. Classify.
  • the category classification unit 142 supplies information indicating the classified category and the pixel value after deblocking filter processing to the offset processing unit 143.
  • the category classification unit 142 stores the pixel value after the deblocking filter processing from the on / off determination unit 141 as it is in the offset processing unit 143. Supply.
  • the offset processing unit 143 When the on / off information from the on / off determination unit 141 indicates on, the offset processing unit 143 performs adaptive offset processing on the pixel value after the deblocking filter processing from the category classification unit 142. The offset processing unit 143 supplies the pixel value after adaptive offset processing to the adaptive loop filter 71.
  • the offset processing unit 143 uses the pixel value from the screen rearrangement buffer 12 and the pixel value after the deblocking filter processing from the category classification unit 142 for the set offset type and the classified category. Find the offset value.
  • the offset processing unit 143 performs offset processing on the pixel value after the deblocking filter processing from the category classification unit 142 with the set offset type, the classified category, and the obtained offset value.
  • the offset processing unit 143 also supplies the obtained offset value to the lossless encoding unit 16.
  • the offset processing unit 143 uses the pixel value after the deblocking filter processing from the category classification unit 142 as it is (without performing the offset processing). To the adaptive loop filter 71.
  • the lossless encoding unit 16 adds information on the TU size from the TU size determination unit 136 to the encoded stream.
  • the lossless encoding unit 16 uses the on / off information from the on / off determination unit 141 and the offset value information from the offset processing unit 143 (when the on / off information indicates on) as an adaptive offset parameter. Is added to the encoded stream.
  • step S101 the A / D conversion unit 11 performs A / D conversion on the input image.
  • step S102 the screen rearrangement buffer 12 stores the A / D converted image, and rearranges the picture from the display order to the encoding order.
  • the decoded image to be referred to is read from the frame memory 22 and the intra-prediction unit via the selection unit 23 24.
  • the intra prediction unit 24 performs intra prediction on the pixels of the block to be processed in all candidate intra prediction modes.
  • decoded pixels to be referred to pixels that are not filtered or offset by the deblock filter 21, the adaptive offset unit 113, and the adaptive loop filter 71 are used.
  • intra prediction is performed in all candidate intra prediction modes, and the cost function shown in the equation (1) or equation (2) is used for all candidate intra prediction modes, A cost function value is calculated. Then, based on the calculated cost function value, the optimal intra prediction mode is selected, and the predicted image generated by the intra prediction in the optimal intra prediction mode and its cost function value are supplied to the predicted image selection unit 26.
  • the processing target image supplied from the screen rearrangement buffer 12 is an inter-processed image
  • the referenced image is read from the frame memory 22 and supplied to the motion prediction / compensation unit 25 via the selection unit 23. Is done.
  • the motion prediction / compensation unit 25 performs motion prediction / compensation processing.
  • motion prediction processing is performed in all candidate inter prediction modes, and the cost function shown in Equation (1) or Equation (2) is used for all candidate inter prediction modes.
  • a cost function value is calculated. Based on the calculated cost function value, the optimal inter prediction mode is determined, and the predicted image generated in the optimal inter prediction mode and its cost function value are supplied to the predicted image selection unit 26.
  • step S ⁇ b> 105 the predicted image selection unit 26 optimizes one of the optimal intra prediction mode and the optimal inter prediction mode based on the cost function values output from the intra prediction unit 24 and the motion prediction / compensation unit 25. Determine the prediction mode. Then, the predicted image selection unit 26 selects the predicted image in the determined optimal prediction mode and supplies it to the calculation units 13 and 20. This predicted image is used for calculations in steps S106 and S112 described later.
  • the prediction image selection information is supplied to the intra prediction unit 24 or the motion prediction / compensation unit 25.
  • the intra prediction unit 24 supplies information indicating the optimal intra prediction mode (that is, intra prediction mode information) to the lossless encoding unit 16.
  • the motion prediction / compensation unit 25 When the prediction image of the optimal inter prediction mode is selected, the motion prediction / compensation unit 25 further includes information indicating the optimal inter prediction mode and, if necessary, information corresponding to the optimal inter prediction mode as a lossless encoding unit. 16 is output.
  • Information according to the optimal inter prediction mode includes motion vector information and reference frame information.
  • step S106 the calculation unit 13 calculates a difference between the image rearranged in step S102 and the predicted image selected in step S105.
  • the predicted image is supplied from the motion prediction / compensation unit 25 in the case of inter prediction, and from the intra prediction unit 24 in the case of intra prediction, to the calculation unit 13 via the predicted image selection unit 26, respectively.
  • ⁇ Difference data has a smaller data volume than the original image data. Therefore, the data amount can be compressed as compared with the case where the image is encoded as it is.
  • the orthogonal transform unit 111 determines an orthogonal transform size. That is, the 4 ⁇ 4 orthogonal transform unit 131 performs orthogonal transform on the difference information from the calculation unit 13 with a 4 ⁇ 4 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
  • the 8 ⁇ 8 orthogonal transform unit 132 performs orthogonal transform on the difference information from the calculation unit 13 with an 8 ⁇ 8 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
  • the 16 ⁇ 16 orthogonal transform unit 133 performs orthogonal transform on the difference information from the calculation unit 13 with a 16 ⁇ 16 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
  • the 32 ⁇ 32 orthogonal transform unit 134 performs orthogonal transform on the difference information from the calculation unit 13 with a 32 ⁇ 32 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
  • the cost function calculation unit 135 calculates the cost function value using the conversion coefficient of each TU size, and supplies the conversion coefficient of each TU size and the corresponding cost function value to the TU size determination unit 136.
  • the TU size determination unit 136 determines an optimal TU size for the block based on the cost function value calculated by the cost function calculation unit 135.
  • the TU size determination unit 136 supplies information on the determined TU size to the class classification unit 112 and the lossless encoding unit 16.
  • step S108 the TU size determination unit 136 performs orthogonal transformation.
  • the TU size determination unit 136 performs orthogonal transform with the TU size determined in step S ⁇ b> 107 and supplies the orthogonal transform coefficient to the quantization unit 15.
  • step S109 the quantization unit 15 quantizes the transform coefficient.
  • the quantization unit 15 sets the quantization parameter based on the information regarding the target value of the code amount supplied from the rate control unit 27 and performs quantization, as will be described in the process of step S119 described later.
  • step S110 the inverse quantization unit 18 inversely quantizes the transform coefficient quantized by the quantization unit 15 with characteristics corresponding to the characteristics of the quantization unit 15.
  • step S ⁇ b> 111 the inverse orthogonal transform unit 19 performs inverse orthogonal transform on the transform coefficient inversely quantized by the inverse quantization unit 18 with characteristics corresponding to the characteristics of the orthogonal transform unit 14.
  • step S112 the calculation unit 20 adds the predicted image input via the predicted image selection unit 26 to the locally decoded difference information, and the locally decoded (that is, locally decoded) image. (An image corresponding to the input to the calculation unit 13) is generated.
  • step S113 the deblocking filter 21 performs a deblocking process on the image from the calculation unit 20, and supplies the pixel value after the deblocking process to the adaptive offset unit 113. By this processing, block distortion is suppressed.
  • step S114 the class classification unit 112 and the adaptive offset unit 113 perform an adaptive offset process according to the orthogonal transform size determined in step S107. Details of the adaptive offset processing will be described later with reference to FIG.
  • the pixel value after adaptive offset processing is supplied to the adaptive loop filter 71 by the processing in step S114.
  • Information indicating on / off of the adaptive offset processing and information indicating the offset value are supplied to the lossless encoding unit 16. Ringing and the like are suppressed by this adaptive offset processing.
  • step S115 the adaptive loop filter 71 performs an adaptive loop filter on the pixel value after the adaptive offset process, and supplies the pixel value after the adaptive loop filter to the frame memory 22.
  • the adaptive loop filter 71 calculates the adaptive loop filter coefficient so as to minimize the residual with the original image (not shown) from the screen rearrangement buffer 12, and uses the adaptive loop filter coefficient to Filter processing is performed on the decoded image from the adaptive offset unit 113. Although not shown, the adaptive loop filter 71 sends the calculated adaptive loop filter coefficient to the lossless encoding unit 16.
  • step S116 the frame memory 22 stores the filtered image.
  • images that are not filtered or offset by the deblocking filter 21, the adaptive offset unit 113, and the adaptive loop filter 71 are also supplied from the arithmetic unit 20 and stored.
  • step S109 the transform coefficient quantized in step S109 described above is also supplied to the lossless encoding unit 16.
  • the lossless encoding unit 16 encodes the quantized transform coefficient output from the quantization unit 15. That is, the difference image is subjected to lossless encoding such as variable length encoding and arithmetic encoding, and is compressed.
  • the intra prediction mode information from the intra prediction unit 24 or the information corresponding to the optimal inter prediction mode from the motion prediction / compensation unit 25 input to the lossless encoding unit 16 in step S105 described above, etc. is also encoded and added to the header information.
  • the information indicating the orthogonal transform size input to the lossless encoding unit 16 in step S107 described above, the information indicating on / off input to the lossless encoding unit 16 in step S114 described above, and the offset information are also encoded. And added to the header information.
  • information indicating the inter prediction mode is encoded for each LCU.
  • Motion vector information and reference frame information are encoded for each target PU.
  • step S118 the accumulation buffer 17 accumulates the difference image as a compressed image.
  • the compressed image stored in the storage buffer 17 is appropriately read out and transmitted to the decoding side via the transmission path.
  • step S119 the rate control unit 27 controls the quantization operation rate of the quantization unit 15 based on the compressed image stored in the storage buffer 17 so that overflow or underflow does not occur.
  • step S119 ends, the encoding process ends.
  • the TU size determination unit 136 of the orthogonal transform unit 111 supplies information related to the TU size to the class classification unit 112 by the process of step S108 in FIG.
  • the class classification unit 112 determines whether the block (for example, TU) has an edge offset (EO) or a band offset (BO). Set whether to apply.
  • the class classification unit 112 supplies the set offset type information to the on / off determination unit 141.
  • step S152 the on / off determination unit 141 determines on / off of the adaptive offset processing for this TU using the pixel value after the deblocking filter processing from the deblocking filter 21.
  • the on / off determination unit 141 calculates the cost function value in the adaptive offset process according to the type of offset set by the class classification unit 112 and the cost function value without the adaptive offset process. Then, the on / off determination unit 141 determines on / off of the adaptive offset process based on the calculated cost function value. The on / off determination unit 141 supplies the pixel value after the deblocking filter processing from the deblocking filter 21 and the determined on / off information to the category classification unit 142.
  • step S153 the on / off determination unit 141 supplies the determined on / off information to the lossless encoding unit 16, and encodes the on / off information.
  • step S154 the category classification unit 142 determines whether the adaptive offset filter is on for the TU based on on / off information from the on / off determination unit 141. If it is determined in step S154 that the adaptive offset filter is on, the process proceeds to step S155.
  • step S155 the category classification unit 142 uses the pixel value after the deblocking filter processing from the on / off determination unit 141 to classify the category in the offset type set by the class classification unit 112.
  • the category classification unit 142 supplies information indicating the classified category and the pixel value after deblocking filter processing to the offset processing unit 143.
  • step S156 the offset processing unit 143 obtains an offset value and performs an offset process. That is, the offset processing unit 143 uses the pixel value from the screen rearrangement buffer 12 and the pixel value after the deblocking filter processing from the category classification unit 142 for the set offset type and the classified category. Find the offset value.
  • the pixel value after deblocking filter processing from the category classification unit 142 is subjected to offset processing with the set offset type, the classified category, and the obtained offset value.
  • the offset processing unit 143 supplies the pixel value after adaptive offset processing to the adaptive loop filter 71.
  • step S157 the offset processing unit 143 supplies the obtained offset value to the lossless encoding unit 16, and encodes information indicating the offset value.
  • step S154 if it is determined in step S154 that the adaptive offset filter is off, the adaptive offset processing ends. That is, in this case, the category classification unit 142 supplies the pixel value after the deblocking filter processing from the on / off determination unit 141 to the offset processing unit 143 as it is. Further, the offset processing unit 143 supplies the pixel value after the deblocking filter processing from the category classification unit 142 to the adaptive loop filter 71 as it is (without performing the offset processing).
  • the image encoding device 101 determines whether it is an edge offset or a band offset according to the size of a block (for example, TU). Therefore, since it is not necessary to send the information indicating whether it is a region division and edge offset or band offset (that is, the map information of the quad-tree structure described above with reference to FIG. 8) to the decoding side, encoding is performed. Efficiency can be improved.
  • FIG. 19 illustrates a configuration of an embodiment of an image decoding device as an image processing device to which the present disclosure is applied.
  • An image decoding apparatus 201 shown in FIG. 19 is a decoding apparatus corresponding to the image encoding apparatus 101 in FIG.
  • encoded data encoded by the image encoding device 101 is transmitted to an image decoding device 201 corresponding to the image encoding device 101 via a predetermined transmission path and decoded.
  • the image decoding device 201 in FIG. 19 is common to the image decoding device 31 in FIG. 2 in that the storage buffer 41, the lossless decoding unit 42, the inverse quantization unit 43, the calculation unit 45, and the deblocking filter 46 are provided. .
  • the image decoding apparatus 201 in FIG. 19 includes a screen rearrangement buffer 47, a D / A conversion unit 48, a frame memory 49, a selection unit 50, an intra prediction unit 51, a motion compensation unit 52, and an image selection unit 53. It is common with the image decoding apparatus 31 of FIG.
  • the image decoding apparatus 201 in FIG. 19 is different from the image decoding in FIG. 2 in that the inverse orthogonal transform unit 44 is replaced with the inverse orthogonal transform unit 211 and that the class classification unit 212 and the adaptive offset unit 213 are added. Different from the device 31.
  • the lossless decoding unit 42 converts the information supplied from the accumulation buffer 41 and encoded by the lossless encoding unit 16 of FIG. 12 into the code of the lossless encoding unit 16 as in the case of the lossless decoding unit 42 of FIG. Decoding is performed using a method corresponding to the conversion method.
  • motion vector information, reference frame information, prediction mode information (information indicating an intra prediction mode or an inter prediction mode), information on a TU (orthogonal transform) size, an adaptive offset parameter, and the like are also decoded. Is done.
  • the adaptive offset parameter includes information indicating on / off of the adaptive offset processing (hereinafter, also referred to as an on / off flag) encoded by the lossless encoding unit 16 in FIG. 12, information indicating an offset value, and the like. Consists of.
  • the adaptive offset parameter is supplied to the adaptive offset unit 213. Further, the lossless decoding unit 42 supplies information regarding the TU size to the inverse orthogonal transform unit 211.
  • the inverse orthogonal transform unit 211 performs inverse orthogonal transform corresponding to the TU size from the lossless decoding unit 42, and the decoded residual data corresponding to the residual data before being orthogonally transformed by the image encoding device 101 in FIG. obtain.
  • the decoded residual data obtained by the inverse orthogonal transform is supplied to the calculation unit 45.
  • the inverse orthogonal transform unit 211 supplies the class classification unit 212 with information regarding the TU size from the lossless decoding unit 42.
  • the class classification unit 212 is configured similarly to the class classification unit 112 of FIG. That is, the class classification unit 212 performs class classification according to the TU size from the inverse orthogonal transform unit 211.
  • the class classification in the class classification unit 212 is setting (classification) of the type of offset. That is, the class classification unit 212 sets whether to apply edge offset (EO) or band offset (BO) according to the TU size from the inverse orthogonal transform unit 211.
  • the class classification unit 212 supplies information indicating the set offset type to the adaptive offset unit 213.
  • the deblock filter 46, the adaptive offset unit 213, and the adaptive loop filter 91 are provided in the motion compensation loop in that order.
  • the motion compensation loop is a block composed of a calculation unit 45, a frame memory 49, a selection unit 50, a motion compensation unit 52, and an image selection unit 53.
  • the filter processing performed by the deblock filter 46, the adaptive offset unit 213, and the adaptive loop filter 91 in the motion compensation loop is also collectively referred to as in-loop filter processing.
  • the adaptive offset unit 213 is supplied with information indicating the on / off flag of the adaptive offset process and the offset value, which are the adaptive offset parameters from the lossless decoding unit 42.
  • the adaptive offset unit 213 performs offset processing on the pixel value of the decoded image from the deblocking filter 46 using the information, and supplies the pixel value after the offset processing to the adaptive loop filter 91.
  • the adaptive offset unit 213 performs category classification based on the offset type set by the class classification unit 212 using the pixel value after the deblocking filter. . Then, the adaptive offset unit 213 performs offset processing on the pixel value after the deblocking filter with the offset value from the lossless decoding unit 42 in the classified category with the set offset type.
  • the adaptive offset unit 213 supplies the post-offset pixel value to the adaptive loop filter 91.
  • the adaptive loop filter coefficient decoded by the lossless decoding unit 42 and extracted from the header is supplied.
  • the adaptive loop filter 91 performs a filtering process on the decoded image from the adaptive offset unit 213 using the supplied filter coefficient.
  • the basic operation principles related to the present technology in the class classification unit 212 and the adaptive offset unit 213 are the same as those of the class classification unit 112 and the adaptive offset unit 113 in FIG.
  • the TU size (or PU size) is determined by the mode determination, and thereby classifying the adaptive offset processing.
  • the image decoding apparatus 201 shown in FIG. 19 information on the TU size (or PU size) is added to the encoded stream and sent from the encoding side. Therefore, the image decoding apparatus 201 obtains the information by decoding the information, and classifies the adaptive offset process based on the obtained size information.
  • FIG. 20 is a block diagram illustrating a configuration example of the inverse orthogonal transform unit 211 and the adaptive offset unit 213.
  • the inverse orthogonal transform unit 211 includes a TU size buffer 231, a 4 ⁇ 4 inverse orthogonal transform unit 232, an 8 ⁇ 8 inverse orthogonal transform unit 233, a 16 ⁇ 16 inverse orthogonal transform unit 234, and a 32 ⁇ 32 inverse.
  • An orthogonal transform unit 235 is included.
  • the adaptive offset unit 213 is configured to include an on / off flag buffer 241, a category classification unit 242, and an offset processing unit 243.
  • the TU size buffer 231 includes information on the TU size among the 4 ⁇ 4 inverse orthogonal transform unit 232, the 8 ⁇ 8 inverse orthogonal transform unit 233, the 16 ⁇ 16 inverse orthogonal transform unit 234, and the 32 ⁇ 32 inverse orthogonal transform unit 235. , To the inverse orthogonal transform unit of the corresponding size. As a result, the inverse orthogonal transform unit having the corresponding size becomes enable, and the orthogonal transform coefficient from the inverse quantization unit 43 is inversely orthogonal transformed to correspond to the residual data before being orthogonally transformed by the image coding apparatus 101. Decoding residual data is obtained.
  • the orthogonal transform coefficients from the inverse quantization unit 43 are 4 ⁇ 4 inverse orthogonal transform unit 232, 8 ⁇ 8 inverse orthogonal transform unit 233, 16 ⁇ 16 inverse orthogonal transform unit 234, and 32 ⁇ 32 inverse orthogonal transform unit 235. To be supplied.
  • the 4 ⁇ 4 inverse orthogonal transform unit 232 is enabled when the TU size from the TU size buffer 231 indicates 4 ⁇ 4, and the decoding residual corresponding to the residual data before being subjected to orthogonal transform in the image encoding device 101. Get the data.
  • the 4 ⁇ 4 inverse orthogonal transform unit 232 supplies the obtained decoded residual data (difference value) to the calculation unit 45.
  • the 8 ⁇ 8 inverse orthogonal transform unit 233 is enabled when the TU size from the TU size buffer 231 indicates 8 ⁇ 8, and the decoding residual corresponding to the residual data before being subjected to orthogonal transform in the image encoding device 101. Get the data.
  • the 8 ⁇ 8 inverse orthogonal transform unit 233 supplies the obtained decoded residual data (difference value) to the calculation unit 45.
  • the 16 ⁇ 16 inverse orthogonal transform unit 234 is enabled when the TU size from the TU size buffer 231 indicates 16 ⁇ 16, and the decoding residual corresponding to the residual data before being subjected to orthogonal transform in the image encoding device 101. Get the data.
  • the 16 ⁇ 16 inverse orthogonal transform unit 234 supplies the obtained decoded residual data (difference value) to the calculation unit 45.
  • the 32 ⁇ 32 inverse orthogonal transform unit 235 is enabled when the TU size from the TU size buffer 231 indicates 32 ⁇ 32, and the decoding residual corresponding to the residual data before being orthogonally transformed in the image encoding device 101. Get the data.
  • the 32 ⁇ 32 inverse orthogonal transform unit 235 supplies the obtained decoded residual data (difference value) to the calculation unit 45.
  • the class classification unit 212 is basically configured similarly to the class classification unit 112 of FIG. That is, the class classification unit 112 determines the type of offset to be applied to the block (whether it is an edge offset or a band offset) based on the TU size from the TU size buffer 231 by the above-described method according to the present technology. Set. The class classification unit 212 supplies the set offset type information to the category classification unit 242.
  • the on / off flag from the lossless decoding unit 42 is supplied to the on / off flag buffer 241.
  • the offset value from the lossless decoding unit 42 is supplied to the offset processing unit 243.
  • the on / off flag buffer 241 temporarily stores the on / off flag from the lossless decoding unit 42 and supplies it to the category classification unit 242 at a predetermined timing.
  • the category classification unit 242 is further supplied with information indicating which of the edge offset / edge offset is applied and the pixel value after deblocking filter processing from the deblocking filter 46.
  • the category classification unit 242 classifies the category in the offset type set by the class classification unit 212 using the pixel value after the deblocking filter processing. To do.
  • the category classification unit 242 supplies information indicating the classified category and the pixel value after deblocking filter processing to the offset processing unit 243.
  • the category classification unit 242 supplies the pixel value after the deblocking filter processing from the on / off flag buffer 241 to the offset processing unit 243 as it is. To do.
  • the offset processing unit 243 When the on / off information from the on / off flag buffer 241 indicates on, the offset processing unit 243 performs adaptive offset processing on the pixel value after the deblocking filter processing from the category classification unit 242. The offset processing unit 243 supplies the pixel value after adaptive offset processing to the adaptive loop filter 91.
  • the offset processing unit 243 performs an offset process on the post-deblock filter-processed pixel value from the category classification unit 242 with the set offset type, the classified category, and the offset value from the lossless decoding unit 42. Apply.
  • the offset processing unit 243 uses the pixel value after the deblocking filter processing from the category classification unit 242 as it is (without performing offset processing). To the adaptive loop filter 91.
  • category classification is performed on each of the encoding side and the decoding side.
  • the present invention is not limited to this, and category classification is performed on the encoding side and the information may be sent to the decoding side. Good.
  • step S201 the accumulation buffer 41 accumulates the transmitted encoded data.
  • step S ⁇ b> 202 the lossless decoding unit 42 decodes the encoded data supplied from the accumulation buffer 41. That is, the I picture, P picture, and B picture encoded by the lossless encoding unit 16 of FIG. 12 are decoded.
  • motion vector information reference frame information
  • prediction mode information intra prediction mode or inter prediction mode
  • information on the TU size information on adaptive offset parameters
  • the prediction mode information is intra prediction mode information
  • the prediction mode information is supplied to the intra prediction unit 51.
  • the prediction mode information is inter prediction mode information
  • motion vector information corresponding to the prediction mode information is supplied to the motion compensation unit 52.
  • Information about the TU size is supplied to the inverse orthogonal transform unit 211.
  • the on / off flag information, which is an adaptive offset parameter, and information indicating the offset value are supplied to the adaptive offset unit 213.
  • step S203 the intra prediction unit 51 or the motion compensation unit 52 performs a prediction image generation process corresponding to the prediction mode information supplied from the lossless decoding unit 42, respectively.
  • the intra prediction unit 51 when the intra prediction mode information is supplied from the lossless decoding unit 42, the intra prediction unit 51 generates Most Probable ⁇ Mode and generates an intra prediction image of the intra prediction mode by parallel processing.
  • the motion compensation unit 52 When the inter prediction mode information is supplied from the lossless decoding unit 42, the motion compensation unit 52 performs a motion prediction / compensation process in the inter prediction mode, and generates an inter prediction image.
  • the prediction image (intra prediction image) generated by the intra prediction unit 51 or the prediction image (inter prediction image) generated by the motion compensation unit 52 is supplied to the image selection unit 53.
  • step S204 the image selection unit 53 selects a predicted image. That is, the prediction image generated by the intra prediction unit 51 or the prediction image generated by the motion compensation unit 52 is supplied. Therefore, the supplied predicted image is selected and supplied to the calculation unit 45, and is added to the output of the inverse orthogonal transform unit 44 in step S208 described later.
  • step S202 the transform coefficient decoded by the lossless decoding unit 42 is also supplied to the inverse quantization unit 43.
  • the inverse quantization unit 43 inverts the transform coefficient decoded by the lossless decoding unit 42 with the quantization parameter decoded by the lossless decoding unit 42 with the characteristic corresponding to the characteristic of the quantization unit 15 of FIG. Quantize.
  • the TU size buffer 231 of the inverse orthogonal transform unit 211 receives information regarding the TU (orthogonal transform) size supplied in step S202.
  • This information about the TU size corresponds to the TU size among the 4 ⁇ 4 inverse orthogonal transform unit 232, the 8 ⁇ 8 inverse orthogonal transform unit 233, the 16 ⁇ 16 inverse orthogonal transform unit 234, and the 32 ⁇ 32 inverse orthogonal transform unit 235.
  • the information regarding the TU size is also supplied to the class classification unit 212.
  • step S207 the inverse orthogonal transform unit corresponding to the TU size in the inverse orthogonal transform unit 211 converts the transform coefficient inversely quantized by the inverse quantization unit 43 with characteristics corresponding to the characteristics of the orthogonal transform unit 111 in FIG. Perform inverse orthogonal transform.
  • the difference information corresponding to the input of the orthogonal transform unit 111 in FIG. 12 (the output of the calculation unit 13) is decoded.
  • step S208 the calculation unit 45 adds the predicted image selected in the processing in step S204 described above and input via the image selection unit 53 to the difference information. As a result, the original image is decoded.
  • step S209 the deblock filter 46 performs deblock filter processing on the image from the calculation unit 45. Thereby, block distortion is suppressed.
  • the deblock filter 46 supplies the post-deblock filter processed pixel value to the adaptive offset unit 213.
  • step S210 the class classification unit 212 and the adaptive offset unit 213 perform adaptive offset processing according to the orthogonal transform size received in step S206. Details of the adaptive offset processing will be described later with reference to FIG. Thus, the adaptive offset process is performed to remove ringing and the like.
  • the pixel value after adaptive offset processing is supplied to the adaptive loop filter 91 by the processing in step S210.
  • the adaptive loop filter 91 performs an adaptive loop filter process on the pixel value after the adaptive offset process, and supplies the pixel value after the adaptive loop filter to the frame memory 49 or the screen rearrangement buffer 47.
  • step S212 the frame memory 49 stores the adaptively filtered image.
  • step S213 the screen rearrangement buffer 47 rearranges the images after the adaptive loop filter 91. That is, the order of frames rearranged for encoding by the screen rearrangement buffer 12 of the image encoding device 101 is rearranged to the original display order.
  • step S214 the D / A converter 48 D / A converts the image from the screen rearrangement buffer 47. This image is output to a display (not shown), and the image is displayed.
  • step S214 When the process of step S214 is completed, the decoding process is terminated.
  • the TU size buffer 231 of the inverse orthogonal transform unit 211 supplies information on the TU size to the class classification unit 212 by the process of step S206 in FIG.
  • the class classification unit 212 determines whether the edge offset (EO) or the band offset (BO) is applied to the block (eg, TU) according to the method of the present technology described above according to the supplied TU size. Set whether to apply.
  • the class classification unit 212 supplies the set offset type information to the category classification unit 242.
  • step S252 the on / off flag buffer 241 receives the on / off flag supplied from the lossless decoding unit 42 by the processing in step S202 of FIG.
  • step S253 the category classification unit 242 determines whether the adaptive offset filter is on for the TU based on the on / off flag from the on / off flag buffer 241. If it is determined in step S253 that the adaptive offset filter is on, the process proceeds to step S254.
  • step S254 the category classification unit 242 classifies the category in the offset type set by the class classification unit 212 using the pixel value after the deblocking filter processing from the deblocking filter 46.
  • the category classification unit 242 supplies information indicating the classified category and the pixel value after deblocking filter processing to the offset processing unit 243.
  • step S255 the offset processing unit 243 receives the offset value supplied from the lossless decoding unit 42 by the process in step S202 of FIG.
  • step S256 the offset processing unit 243 performs an offset process. That is, the offset processing unit 243 performs an offset process on the post-deblock filter processed pixel value from the category classification unit 242 with the set offset type, the classified category, and the received offset value.
  • the offset processing unit 243 supplies the pixel value after adaptive offset processing to the adaptive loop filter 91.
  • step S253 if it is determined in step S253 that the adaptive offset filter is off, the adaptive offset processing ends. That is, in this case, the category classification unit 242 supplies the pixel value after the deblocking filter processing from the on / off flag buffer 241 to the offset processing unit 243 as it is. Further, the offset processing unit 143 supplies the pixel value after the deblocking filter processing from the category classification unit 242 as it is (without performing the offset processing) to the adaptive loop filter 91.
  • whether it is an edge offset or a band offset is set according to the size of a block (for example, TU). Therefore, since it is not necessary to send the information indicating whether it is a region division and edge offset or band offset (that is, the map information of the quad-tree structure described above with reference to FIG. 8) to the decoding side, encoding is performed. Efficiency can be improved.
  • the present technology can be applied to a device using another coding method as long as the device performs adaptive offset processing.
  • this disclosure includes, for example, MPEG, When receiving image information (bitstream) compressed by orthogonal transform such as discrete cosine transform and motion compensation, such as 26x, via network media such as satellite broadcasting, cable television, the Internet, or mobile phones.
  • the present invention can be applied to an image encoding device and an image decoding device used in the above.
  • the present disclosure can be applied to an image encoding device and an image decoding device that are used when processing on a storage medium such as an optical disk, a magnetic disk, and a flash memory.
  • the present disclosure can also be applied to motion prediction / compensation devices included in such image encoding devices and image decoding devices.
  • FIG. 23 shows an example of a multi-view image encoding method.
  • the multi-viewpoint image includes a plurality of viewpoint images, and a predetermined one viewpoint image among the plurality of viewpoints is designated as the base view image.
  • Each viewpoint image other than the base view image is treated as a non-base view image.
  • each view (same view), information about TU size, and parameters such as adaptive offset parameters such as on / off information and offset values (hereinafter simply referred to as parameters). ) Can also be set.
  • parameters such as adaptive offset parameters such as on / off information and offset values (hereinafter simply referred to as parameters).
  • Each view can also share parameters set in other views.
  • the parameters set in the base view are used in at least one non-base view.
  • FIG. 24 is a diagram illustrating a multi-view image encoding apparatus that performs the multi-view image encoding described above. As illustrated in FIG. 24, the multi-view image encoding device 600 includes an encoding unit 601, an encoding unit 602, and a multiplexing unit 603.
  • the encoding unit 601 encodes the base view image and generates a base view image encoded stream.
  • the encoding unit 602 encodes the non-base view image and generates a non-base view image encoded stream.
  • the multiplexing unit 603 multiplexes the base view image encoded stream generated by the encoding unit 601 and the non-base view image encoded stream generated by the encoding unit 602 to generate a multi-view image encoded stream. To do.
  • the image encoding device 101 (FIG. 12) can be applied to the encoding unit 601 and the encoding unit 602 of the multi-view image encoding device 600.
  • the multi-view image encoding apparatus 600 sets and transmits the parameters set by the encoding unit 601 and the parameters set by the encoding unit 602.
  • the parameters set by the encoding unit 601 as described above may be set and transmitted so as to be shared and used by the encoding unit 601 and the encoding unit 602.
  • the parameters set by the encoding unit 602 may be set and transmitted so as to be shared by the encoding unit 601 and the encoding unit 602.
  • FIG. 25 is a diagram illustrating a multi-view image decoding apparatus that performs the above-described multi-view image decoding.
  • the multi-view image decoding device 610 includes a demultiplexing unit 611, a decoding unit 612, and a decoding unit 613.
  • the demultiplexing unit 611 demultiplexes the multi-view image encoded stream in which the base view image encoded stream and the non-base view image encoded stream are multiplexed, and the base view image encoded stream and the non-base view image The encoded stream is extracted.
  • the decoding unit 612 decodes the base view image encoded stream extracted by the demultiplexing unit 611 to obtain a base view image.
  • the decoding unit 613 decodes the non-base view image encoded stream extracted by the demultiplexing unit 611 to obtain a non-base view image.
  • the image decoding device 201 (FIG. 19) can be applied to the decoding unit 612 and the decoding unit 613 of the multi-view image decoding device 610.
  • the multi-view image decoding apparatus 610 performs processing using the parameters set by the encoding unit 601 and decoded by the decoding unit 612 and the parameters set by the encoding unit 602 and decoded by the decoding unit 613.
  • the parameters set by the encoding unit 601 (or encoding 602) as described above may be set and transmitted so as to be shared by the encoding unit 601 and the encoding unit 602.
  • processing is performed using the parameters set by the encoding unit 601 (or encoding 602) and decoded by the decoding unit 612 (or decoding unit 613).
  • FIG. 26 shows an example of the multi-view image encoding method.
  • a hierarchical image includes images of a plurality of layers (resolutions), and an image of a predetermined one layer among the plurality of resolutions is designated as a base layer image. Images in each layer other than the base layer image are treated as non-base layer images.
  • each layer in each layer (same layer), information on the TU size, and parameters such as adaptive offset parameters such as on / off information and offset values (hereinafter simply referred to as “only”). (Referred to as parameters) can also be set.
  • each layer different layers can share a buffer index set in another view.
  • the parameters set in the base layer are used in at least one non-base layer.
  • FIG. 27 is a diagram illustrating a hierarchical image encoding apparatus that performs the above-described hierarchical image encoding.
  • the hierarchical image encoding device 620 includes an encoding unit 621, an encoding unit 622, and a multiplexing unit 623.
  • the encoding unit 621 encodes the base layer image and generates a base layer image encoded stream.
  • the encoding unit 622 encodes the non-base layer image and generates a non-base layer image encoded stream.
  • the multiplexing unit 623 multiplexes the base layer image encoded stream generated by the encoding unit 621 and the non-base layer image encoded stream generated by the encoding unit 622 to generate a hierarchical image encoded stream. .
  • the image encoding device 101 (FIG. 12) can be applied to the encoding unit 621 and the encoding unit 622 of the hierarchical image encoding device 620.
  • the hierarchical image encoding device 620 sets and transmits the parameters set by the encoding unit 621 and the parameters set by the encoding unit 622.
  • the parameters set by the encoding unit 621 as described above may be set and transmitted so as to be shared by the encoding unit 621 and the encoding unit 622.
  • the parameters set by the encoding unit 622 may be set and transmitted so as to be shared by the encoding unit 621 and the encoding unit 622.
  • FIG. 28 is a diagram illustrating a hierarchical image decoding apparatus that performs the hierarchical image decoding described above.
  • the hierarchical image decoding device 630 includes a demultiplexing unit 631, a decoding unit 632, and a decoding unit 633.
  • the demultiplexing unit 631 demultiplexes the hierarchical image encoded stream in which the base layer image encoded stream and the non-base layer image encoded stream are multiplexed, and the base layer image encoded stream and the non-base layer image code Stream.
  • the decoding unit 632 decodes the base layer image encoded stream extracted by the demultiplexing unit 631 to obtain a base layer image.
  • the decoding unit 633 decodes the non-base layer image encoded stream extracted by the demultiplexing unit 631 to obtain a non-base layer image.
  • the image decoding device 201 (FIG. 19) can be applied to the decoding unit 632 and the decoding unit 633 of the hierarchical image decoding device 630.
  • the parameter set by the encoding unit 621, the parameter decoded by the decoding unit 632, and the encoding unit 622 are set, and the decoding unit 633 performs processing using the parameter.
  • the parameter set by the encoding unit 621 may be set and transmitted so as to be shared by the encoding unit 621 and the encoding unit 622.
  • processing is performed using the parameters set by the encoding unit 621 (or encoding 622) and decoded by the decoding unit 632 (or decoding unit 633).
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes a computer incorporated in dedicated hardware, a general-purpose personal computer capable of executing various functions by installing various programs, and the like.
  • FIG. 29 is a block diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processes by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • an input / output interface 805 is connected to the bus 804.
  • An input unit 806, an output unit 807, a storage unit 808, a communication unit 809, and a drive 810 are connected to the input / output interface 805.
  • the input unit 811 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 812 includes a display, a speaker, and the like.
  • the storage unit 813 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 814 includes a network interface or the like.
  • the drive 815 drives a removable medium 821 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 801 loads the program stored in the storage unit 83 into the RAM 803 via the input / output interface 810 and the bus 804 and executes the program, for example. Is performed.
  • the program executed by the computer 800 can be provided by being recorded on a removable medium 821 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 813 via the input / output interface 810 by attaching the removable medium 821 to the drive 815. Further, the program can be received by the communication unit 814 via a wired or wireless transmission medium and installed in the storage unit 813. In addition, the program can be installed in the ROM 802 or the storage unit 813 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
  • system represents the entire apparatus composed of a plurality of devices (apparatuses).
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit).
  • a configuration other than that described above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). . That is, the present technology is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present technology.
  • An image encoding device and an image decoding device include a transmitter or a receiver in optical broadcasting, satellite broadcasting, cable broadcasting such as cable TV, distribution on the Internet, and distribution to terminals by cellular communication, etc.
  • the present invention can be applied to various electronic devices such as a recording device that records an image on a medium such as a magnetic disk and a flash memory, or a playback device that reproduces an image from these storage media.
  • a recording device that records an image on a medium such as a magnetic disk and a flash memory
  • a playback device that reproduces an image from these storage media.
  • FIG. 30 illustrates an example of a schematic configuration of a television device to which the above-described embodiment is applied.
  • the television apparatus 900 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, an external interface 909, a control unit 910, a user interface 911, And a bus 912.
  • Tuner 902 extracts a signal of a desired channel from a broadcast signal received via antenna 901, and demodulates the extracted signal. Then, the tuner 902 outputs the encoded bit stream obtained by the demodulation to the demultiplexer 903. In other words, the tuner 902 serves as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the demultiplexer 903 separates the video stream and audio stream of the viewing target program from the encoded bit stream, and outputs each separated stream to the decoder 904. Further, the demultiplexer 903 extracts auxiliary data such as EPG (Electronic Program Guide) from the encoded bit stream, and supplies the extracted data to the control unit 910. Note that the demultiplexer 903 may perform descrambling when the encoded bit stream is scrambled.
  • EPG Electronic Program Guide
  • the decoder 904 decodes the video stream and audio stream input from the demultiplexer 903. Then, the decoder 904 outputs the video data generated by the decoding process to the video signal processing unit 905. In addition, the decoder 904 outputs audio data generated by the decoding process to the audio signal processing unit 907.
  • the video signal processing unit 905 reproduces the video data input from the decoder 904 and causes the display unit 906 to display the video.
  • the video signal processing unit 905 may cause the display unit 906 to display an application screen supplied via a network.
  • the video signal processing unit 905 may perform additional processing such as noise removal on the video data according to the setting.
  • the video signal processing unit 905 may generate a GUI (Graphical User Interface) image such as a menu, a button, or a cursor, and superimpose the generated image on the output image.
  • GUI Graphic User Interface
  • the display unit 906 is driven by a drive signal supplied from the video signal processing unit 905, and displays an image on a video screen of a display device (for example, a liquid crystal display, a plasma display, or an OELD (Organic ElectroLuminescence Display) (organic EL display)). Or an image is displayed.
  • a display device for example, a liquid crystal display, a plasma display, or an OELD (Organic ElectroLuminescence Display) (organic EL display)). Or an image is displayed.
  • the audio signal processing unit 907 performs reproduction processing such as D / A conversion and amplification on the audio data input from the decoder 904, and outputs audio from the speaker 908.
  • the audio signal processing unit 907 may perform additional processing such as noise removal on the audio data.
  • the external interface 909 is an interface for connecting the television apparatus 900 to an external device or a network.
  • a video stream or an audio stream received via the external interface 909 may be decoded by the decoder 904. That is, the external interface 909 also has a role as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the control unit 910 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, EPG data, data acquired via a network, and the like.
  • the program stored in the memory is read and executed by the CPU when the television apparatus 900 is activated.
  • the CPU executes the program to control the operation of the television device 900 according to an operation signal input from the user interface 911, for example.
  • the user interface 911 is connected to the control unit 910.
  • the user interface 911 includes, for example, buttons and switches for the user to operate the television device 900, a remote control signal receiving unit, and the like.
  • the user interface 911 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 910.
  • the bus 912 connects the tuner 902, the demultiplexer 903, the decoder 904, the video signal processing unit 905, the audio signal processing unit 907, the external interface 909, and the control unit 910 to each other.
  • the decoder 904 has the function of the image decoding apparatus according to the above-described embodiment. Therefore, when the image is decoded by the television apparatus 900, information to be sent to the decoding side is reduced, and the encoding efficiency can be improved.
  • FIG. 31 shows an example of a schematic configuration of a mobile phone to which the above-described embodiment is applied.
  • a mobile phone 920 includes an antenna 921, a communication unit 922, an audio codec 923, a speaker 924, a microphone 925, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, a control unit 931, an operation A portion 932 and a bus 933.
  • the antenna 921 is connected to the communication unit 922.
  • the speaker 924 and the microphone 925 are connected to the audio codec 923.
  • the operation unit 932 is connected to the control unit 931.
  • the bus 933 connects the communication unit 922, the audio codec 923, the camera unit 926, the image processing unit 927, the demultiplexing unit 928, the recording / reproducing unit 929, the display unit 930, and the control unit 931 to each other.
  • the mobile phone 920 has various operation modes including a voice call mode, a data communication mode, a shooting mode, and a videophone mode, and is used for sending and receiving voice signals, sending and receiving e-mail or image data, taking images, and recording data. Perform the action.
  • the analog voice signal generated by the microphone 925 is supplied to the voice codec 923.
  • the audio codec 923 converts an analog audio signal into audio data, A / D converts the compressed audio data, and compresses it. Then, the audio codec 923 outputs the compressed audio data to the communication unit 922.
  • the communication unit 922 encodes and modulates the audio data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to generate audio data, and outputs the generated audio data to the audio codec 923.
  • the audio codec 923 decompresses the audio data and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the control unit 931 generates character data constituting the e-mail in response to an operation by the user via the operation unit 932.
  • the control unit 931 causes the display unit 930 to display characters.
  • the control unit 931 generates e-mail data in response to a transmission instruction from the user via the operation unit 932, and outputs the generated e-mail data to the communication unit 922.
  • the communication unit 922 encodes and modulates email data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to restore the email data, and outputs the restored email data to the control unit 931.
  • the control unit 931 displays the content of the electronic mail on the display unit 930 and stores the electronic mail data in the storage medium of the recording / reproducing unit 929.
  • the recording / reproducing unit 929 has an arbitrary readable / writable storage medium.
  • the storage medium may be a built-in storage medium such as a RAM or a flash memory, or an externally mounted type such as a hard disk, magnetic disk, magneto-optical disk, optical disk, USB (Universal Serial Bus) memory, or memory card. It may be a storage medium.
  • the camera unit 926 images a subject to generate image data, and outputs the generated image data to the image processing unit 927.
  • the image processing unit 927 encodes the image data input from the camera unit 926 and stores the encoded stream in the storage medium of the storage / playback unit 929.
  • the demultiplexing unit 928 multiplexes the video stream encoded by the image processing unit 927 and the audio stream input from the audio codec 923, and the multiplexed stream is the communication unit 922. Output to.
  • the communication unit 922 encodes and modulates the stream and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • These transmission signal and reception signal may include an encoded bit stream.
  • the communication unit 922 demodulates and decodes the received signal to restore the stream, and outputs the restored stream to the demultiplexing unit 928.
  • the demultiplexing unit 928 separates the video stream and the audio stream from the input stream, and outputs the video stream to the image processing unit 927 and the audio stream to the audio codec 923.
  • the image processing unit 927 decodes the video stream and generates video data.
  • the video data is supplied to the display unit 930, and a series of images is displayed on the display unit 930.
  • the audio codec 923 decompresses the audio stream and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the image processing unit 927 has the functions of the image encoding device and the image decoding device according to the above-described embodiment. Accordingly, when encoding and decoding an image with the mobile phone 920, information to be sent to the decoding side is reduced, and encoding efficiency can be improved.
  • FIG. 32 shows an example of a schematic configuration of a recording / reproducing apparatus to which the above-described embodiment is applied.
  • the recording / reproducing device 940 encodes audio data and video data of a received broadcast program and records the encoded data on a recording medium.
  • the recording / reproducing device 940 may encode audio data and video data acquired from another device and record them on a recording medium, for example.
  • the recording / reproducing device 940 reproduces data recorded on the recording medium on a monitor and a speaker, for example, in accordance with a user instruction. At this time, the recording / reproducing device 940 decodes the audio data and the video data.
  • the recording / reproducing apparatus 940 includes a tuner 941, an external interface 942, an encoder 943, an HDD (Hard Disk Drive) 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) 948, a control unit 949, and a user interface. 950.
  • Tuner 941 extracts a signal of a desired channel from a broadcast signal received via an antenna (not shown), and demodulates the extracted signal. Then, the tuner 941 outputs the encoded bit stream obtained by the demodulation to the selector 946. That is, the tuner 941 has a role as a transmission unit in the recording / reproducing apparatus 940.
  • the external interface 942 is an interface for connecting the recording / reproducing apparatus 940 to an external device or a network.
  • the external interface 942 may be, for example, an IEEE1394 interface, a network interface, a USB interface, or a flash memory interface.
  • video data and audio data received via the external interface 942 are input to the encoder 943. That is, the external interface 942 serves as a transmission unit in the recording / reproducing device 940.
  • the encoder 943 encodes video data and audio data when the video data and audio data input from the external interface 942 are not encoded. Then, the encoder 943 outputs the encoded bit stream to the selector 946.
  • the HDD 944 records an encoded bit stream in which content data such as video and audio is compressed, various programs, and other data on an internal hard disk. Further, the HDD 944 reads out these data from the hard disk when reproducing video and audio.
  • the disk drive 945 performs recording and reading of data to and from the mounted recording medium.
  • the recording medium mounted on the disk drive 945 is, for example, a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.) or a Blu-ray (registered trademark) disk. It may be.
  • the selector 946 selects an encoded bit stream input from the tuner 941 or the encoder 943 when recording video and audio, and outputs the selected encoded bit stream to the HDD 944 or the disk drive 945. In addition, the selector 946 outputs the encoded bit stream input from the HDD 944 or the disk drive 945 to the decoder 947 during video and audio reproduction.
  • the decoder 947 decodes the encoded bit stream and generates video data and audio data. Then, the decoder 947 outputs the generated video data to the OSD 948. The decoder 904 outputs the generated audio data to an external speaker.
  • OSD 948 reproduces the video data input from the decoder 947 and displays the video. Further, the OSD 948 may superimpose a GUI image such as a menu, a button, or a cursor on the video to be displayed.
  • the control unit 949 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the recording / reproducing apparatus 940 is activated, for example.
  • the CPU controls the operation of the recording / reproducing apparatus 940 in accordance with an operation signal input from the user interface 950, for example, by executing the program.
  • the user interface 950 is connected to the control unit 949.
  • the user interface 950 includes, for example, buttons and switches for the user to operate the recording / reproducing device 940, a remote control signal receiving unit, and the like.
  • the user interface 950 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 949.
  • the encoder 943 has the function of the image encoding apparatus according to the above-described embodiment.
  • the decoder 947 has the function of the image decoding apparatus according to the above-described embodiment.
  • FIG. 33 illustrates an example of a schematic configuration of an imaging apparatus to which the above-described embodiment is applied.
  • the imaging device 960 images a subject to generate an image, encodes the image data, and records it on a recording medium.
  • the imaging device 960 includes an optical block 961, an imaging unit 962, a signal processing unit 963, an image processing unit 964, a display unit 965, an external interface 966, a memory 967, a media drive 968, an OSD 969, a control unit 970, a user interface 971, and a bus. 972.
  • the optical block 961 is connected to the imaging unit 962.
  • the imaging unit 962 is connected to the signal processing unit 963.
  • the display unit 965 is connected to the image processing unit 964.
  • the user interface 971 is connected to the control unit 970.
  • the bus 972 connects the image processing unit 964, the external interface 966, the memory 967, the media drive 968, the OSD 969, and the control unit 970 to each other.
  • the optical block 961 includes a focus lens and a diaphragm mechanism.
  • the optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962.
  • the imaging unit 962 includes an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and converts an optical image formed on the imaging surface into an image signal as an electrical signal by photoelectric conversion. Then, the imaging unit 962 outputs the image signal to the signal processing unit 963.
  • CCD Charge-Coupled Device
  • CMOS Complementary Metal-Oxide Semiconductor
  • the signal processing unit 963 performs various camera signal processing such as knee correction, gamma correction, and color correction on the image signal input from the imaging unit 962.
  • the signal processing unit 963 outputs the image data after the camera signal processing to the image processing unit 964.
  • the image processing unit 964 encodes the image data input from the signal processing unit 963 and generates encoded data. Then, the image processing unit 964 outputs the generated encoded data to the external interface 966 or the media drive 968. The image processing unit 964 also decodes encoded data input from the external interface 966 or the media drive 968 to generate image data. Then, the image processing unit 964 outputs the generated image data to the display unit 965. In addition, the image processing unit 964 may display the image by outputting the image data input from the signal processing unit 963 to the display unit 965. Further, the image processing unit 964 may superimpose display data acquired from the OSD 969 on an image output to the display unit 965.
  • the OSD 969 generates a GUI image such as a menu, a button, or a cursor, and outputs the generated image to the image processing unit 964.
  • the external interface 966 is configured as a USB input / output terminal, for example.
  • the external interface 966 connects the imaging device 960 and a printer, for example, when printing an image.
  • a drive is connected to the external interface 966 as necessary.
  • a removable medium such as a magnetic disk or an optical disk is attached to the drive, and a program read from the removable medium can be installed in the imaging device 960.
  • the external interface 966 may be configured as a network interface connected to a network such as a LAN or the Internet. That is, the external interface 966 has a role as a transmission unit in the imaging device 960.
  • the recording medium mounted on the media drive 968 may be any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory.
  • a recording medium may be fixedly mounted on the media drive 968, and a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • the control unit 970 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the imaging device 960 is activated, for example.
  • the CPU controls the operation of the imaging device 960 according to an operation signal input from the user interface 971 by executing the program.
  • the user interface 971 is connected to the control unit 970.
  • the user interface 971 includes, for example, buttons and switches for the user to operate the imaging device 960.
  • the user interface 971 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 970.
  • the image processing unit 964 has the functions of the image encoding device and the image decoding device according to the above-described embodiment. Thereby, when encoding and decoding an image in the imaging device 960, information to be sent to the decoding side is reduced, and encoding efficiency can be improved.
  • various types of information such as syntax elements such as information on TU size, adaptive offset parameters such as on / off information and offset values, etc. are multiplexed into the encoded stream, and from the encoding side to the decoding side.
  • An example of transmission has been described.
  • the method for transmitting such information is not limited to such an example.
  • these pieces of information may be transmitted or recorded as separate data associated with the encoded bitstream without being multiplexed into the encoded bitstream.
  • the term “associate” means that an image (which may be a part of an image such as a slice or a block) included in the bitstream and information corresponding to the image can be linked at the time of decoding. Means.
  • information may be transmitted on a transmission path different from that of the image (or bit stream).
  • Information may be recorded on a recording medium (or another recording area of the same recording medium) different from the image (or bit stream).
  • the information and the image (or bit stream) may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part of the frame.
  • this technique can also take the following structures.
  • a decoding unit that generates an image by decoding an encoded stream encoded in units having a hierarchical structure;
  • An offset setting unit that sets an offset type of adaptive offset processing according to the size or area of the block of the image generated by the decoding unit;
  • An image processing apparatus comprising: an adaptive offset processing unit that performs the adaptive offset processing on an image generated by the decoding unit with an offset type set by the offset setting unit.
  • the offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Set The image processing apparatus according to (1).
  • the decoding unit decodes the encoded stream received by the receiving unit to generate the image
  • the adaptive offset processing unit targets the image generated by the decoding unit with the type of offset set by the offset setting unit.
  • the image processing apparatus according to any one of (1) to (3), wherein the adaptive offset processing is performed.
  • the offset setting unit sets a band offset when the size or area of the block is equal to or larger than the first size or the first area, and the size or area of the block is the first size or the first size.
  • the image processing apparatus according to any one of (1) to (3), wherein an edge offset is set when the area is smaller than 1.
  • the offset setting unit sets the adaptive offset processing to be off.
  • the image processing apparatus according to (5).
  • the offset setting unit sets an edge offset for the block. Any one of (1) to (6) An image processing apparatus according to 1.
  • the offset setting unit determines the type of the offset in the adaptive offset processing according to the size or area of the short side of the block.
  • the image processing apparatus according to any one of (1) to (6) to be set.
  • the block is an LCU (Largest Coding Unit), The image processing apparatus according to any one of (1) and (2), wherein the offset setting unit sets an offset type of the adaptive offset processing according to integration of areas of subblocks included in the LCU.
  • the image processing apparatus is An image is generated by decoding an encoded stream encoded in units having a hierarchical structure, Set the offset type of adaptive offset processing according to the size or area of the block of the generated image, An image processing method for performing the adaptive offset processing on a generated image with a set type of offset.
  • an offset setting unit that sets an offset type of adaptive offset processing according to the size or area of a block of an image subjected to local decoding processing when encoding an image;
  • An image processing apparatus comprising: an encoding unit that encodes the image in units having a hierarchical structure using the image on which the adaptive offset processing has been performed by the adaptive offset processing unit.
  • the offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Setting The image processing apparatus according to (11).
  • the image processing device according to (11) or (12), wherein the block is a TU (Transform Unit).
  • the adaptive offset processing unit determines whether to turn on or off the adaptive offset processing. When the adaptive offset processing is on, the adaptive offset processing unit sets the adaptive offset for the image with the type of offset set by the offset setting unit.
  • Process The image processing apparatus according to any one of (10) to (13), wherein the transmission unit transmits on / off information indicating on or off of the adaptive offset processing.
  • the offset setting unit sets a band offset, and the size or area of the block is the first size or the first size.
  • the image processing apparatus according to any one of (11) to (13), wherein an edge offset is set when the area is smaller than 1.
  • the offset setting unit sets the adaptive offset processing to be off.
  • the image processing apparatus according to (15).
  • the offset setting unit sets an edge offset for the block when NSQT (Non-Square Quadtree Transform) is applied to the block.
  • NSQT Non-Square Quadtree Transform
  • the offset setting unit determines the type of offset of the adaptive offset processing according to the size or area of the short side of the block.
  • the block is an LCU (Largest Coding Unit), The image processing apparatus according to (11), wherein the offset setting unit sets an offset type of the adaptive offset process according to an integration of areas of subblocks included in the LCU.
  • the image processing apparatus is Set the offset type of adaptive offset processing according to the block size or area of the locally decoded image block when encoding the image, Performing the adaptive offset process for the image with the set offset type, An image processing method for encoding the image in units having a hierarchical structure using the image on which the adaptive offset processing has been performed.

Abstract

The present disclosure relates to an image processing apparatus and method capable of reducing the information sent to a decoding side and improving coding efficiency. Whether to apply an edge offset (EO) or a band offset (BO) is set by a classification unit depending on the TU size from an orthogonal transformation unit. Therefore, an adaptation offset unit determines whether to perform an offset or not (on/off status of an adaptation offset filter), and if it is determined that offset is to be performed, the category and offset value in the type of the offset set by the classification unit are obtained, and offset processing is performed with respect to a decoded image from a calculation unit. The present disclosure can be applied, for example, to an image processing apparatus.

Description

画像処理装置および方法Image processing apparatus and method
 本開示は画像処理装置および方法に関し、特に、復号側に送る情報を削減し、符号化効率を向上させることができるようにした画像処理装置および方法に関する。 The present disclosure relates to an image processing apparatus and method, and more particularly, to an image processing apparatus and method capable of reducing information to be sent to a decoding side and improving encoding efficiency.
 近年、画像情報をデジタルとして取り扱い、その際、効率の高い情報の伝送、蓄積を目的とし、画像情報特有の冗長性を利用して、離散コサイン変換等の直交変換と動き補償により圧縮する符号化方式を採用して画像を圧縮符号する装置が普及しつつある。この符号化方式には、例えば、MPEG(Moving Picture Experts Group)などがある。 In recent years, image information has been handled as digital data, and at that time, for the purpose of efficient transmission and storage of information, encoding is performed by orthogonal transform such as discrete cosine transform and motion compensation using redundancy unique to image information. An apparatus that employs a method to compress and code an image is becoming widespread. Examples of this encoding method include MPEG (Moving Picture Experts Group).
 特に、MPEG2(ISO/IEC 13818-2)は、汎用画像符号化方式として定義されており、飛び越し走査画像及び順次走査画像の双方、並びに標準解像度画像及び高精細画像を網羅する標準である。例えば、MPEG2は、プロフェッショナル用途及びコンシューマ用途の広範なアプリケーションに現在広く用いられている。MPEG2圧縮方式を用いることにより、例えば720×480画素を持つ標準解像度の飛び越し走査画像であれば4乃至8Mbpsの符号量(ビットレート)が割り当てられる。また、MPEG2圧縮方式を用いることにより、例えば1920×1088画素を持つ高解像度の飛び越し走査画像であれば18乃至22 Mbpsの符号量(ビットレート)が割り当てられる。これにより、高い圧縮率と良好な画質の実現が可能である。 In particular, MPEG2 (ISO / IEC 13818-2) is defined as a general-purpose image encoding system, and is a standard that covers both interlaced scanning images and progressive scanning images, as well as standard resolution images and high-definition images. For example, MPEG2 is currently widely used in a wide range of applications for professional and consumer applications. By using the MPEG2 compression method, for example, a code amount (bit rate) of 4 to 8 Mbps is assigned to an interlaced scanned image having a standard resolution of 720 × 480 pixels. Further, by using the MPEG2 compression method, for example, a high resolution interlaced scanned image having 1920 × 1088 pixels is assigned a code amount (bit rate) of 18 to 22 Mbps. As a result, a high compression rate and good image quality can be realized.
 MPEG2は主として放送用に適合する高画質符号化を対象としていたが、MPEG1より低い符号量(ビットレート)、つまりより高い圧縮率の符号化方式には対応していなかった。携帯端末の普及により、今後そのような符号化方式のニーズは高まると思われ、これに対応してMPEG4符号化方式の標準化が行われた。画像符号化方式に関しては、1998年12月にISO/IEC 14496-2としてその規格が国際標準に承認された。 MPEG2 was mainly intended for high-quality encoding suitable for broadcasting, but it did not support encoding methods with a lower code amount (bit rate) than MPEG1, that is, a higher compression rate. With the widespread use of mobile terminals, the need for such an encoding system is expected to increase in the future, and the MPEG4 encoding system has been standardized accordingly. Regarding the image coding system, the standard was approved as an international standard in December 1998 as ISO / IEC 14496-2.
 標準化のスケジュールとしては、2003年3月にはH.264及びMPEG-4 Part10 (Advanced Video Coding、以下AVCと記す)という国際標準となっている。 The standardization schedule is H.03 in March 2003. H.264 and MPEG-4 Part 10 (Advanced Video Coding, hereinafter referred to as AVC).
 さらに、このH.264/AVCの拡張として、RGBや4:2:2、4:4:4といった、業務用に必要な符号化ツールや、MPEG-2で規定されていた8x8DCTや量子化マトリクスをも含んだFRExt (Fidelity Range Extension) の標準化が2005年2月に完了した。これにより、AVCを用いて、映画に含まれるフィルムノイズをも良好に表現することが可能な符号化方式となって、Blu-Ray Disc(商標)等の幅広いアプリケーションに用いられる運びとなった。 Furthermore, this H. As an extension of H.264 / AVC, FRExt including RGB, 4: 2: 2, 4: 4: 4 coding tools necessary for business use, 8x8DCT and quantization matrix defined by MPEG-2 (FidelityFiRange Extension) standardization was completed in February 2005. This makes it possible to use AVC to encode film noise contained in movies well, and is used in a wide range of applications such as Blu-Ray Disc (trademark).
 しかしながら、昨今、ハイビジョン画像の4倍の、4000×2000画素程度の画像を圧縮したい、あるいは、インターネットのような、限られた伝送容量の環境において、ハイビジョン画像を配信したいといった、更なる高圧縮率符号化に対するニーズが高まっている。このため、先述の、ITU-T傘下のVCEG (=Video Coding Expert Group) において、符号化効率の改善に関する検討が継続され行なわれている。 However, these days, we want to compress images with a resolution of 4000 x 2000 pixels, which is four times higher than high-definition images, or deliver high-definition images in a limited transmission capacity environment such as the Internet. There is a growing need for encoding. For this reason, in the above-described VCEG (= Video Coding Expert Group) under the ITU-T, studies on improving the coding efficiency are being continued.
 かかる符号化効率改善の1つとして、動き補償ループ内にFIRフィルタを持つ手法が提案されている(例えば、非特許文献1参照)。符号化装置においては、このFIRフィルタ係数を、入力画像との誤差を最小にするよう、Wiener Filterにより求めることで、参照画像における劣化を最小限に抑え、出力となる画像圧縮情報の符号化効率を向上させることが可能である。 As one such improvement in coding efficiency, a method having an FIR filter in a motion compensation loop has been proposed (see Non-Patent Document 1, for example). In the encoding device, this FIR filter coefficient is obtained by Wiener Filter so as to minimize the error from the input image, thereby minimizing deterioration in the reference image and encoding efficiency of the image compression information to be output. It is possible to improve.
 そして、現在、H.264/AVCより更なる符号化効率の向上を目的として、ITU-TとISO/IECとの共同の標準化団体であるJCTVC (Joint Collaboration Team - Video Coding) により、HEVC (High Efficiency Video Coding) と呼ばれる符号化方式の標準化が進められている。HEVC規格については、2012年2月に最初のドラフト版仕様であるCommittee draftが発行されている(例えば、非特許文献2参照)。 And now H. It is called HEVC (High Efficiency) Video (Coding) by JCTVC (Joint Collaboration (Team-Video Coding)), which is a joint standardization organization of ITU-T and ISO / IEC, for the purpose of further improving encoding efficiency than H.264 / AVC. Standardization of the encoding method is underway. Regarding the HEVC standard, CommitteeCommitdraft, which is the first draft version specification, was issued in February 2012 (see Non-Patent Document 2, for example).
 このHEVCにおいては、AVCにおけるマクロブロックと同様の符号化単位としてコーディングユニット(CU(Coding Unit))が定義されている。さらに、1つの符号化単位は、予測処理の単位を意味する1つ以上の予測単位(Prediction Unit:PU)に分割され得る。そして、各予測単位について、イントラ予測又はインター予測が行われる。 In this HEVC, a coding unit (CU (Coding Unit)) is defined as an encoding unit similar to a macroblock in AVC. Further, one coding unit can be divided into one or more prediction units (Prediction Unit: PU) that mean a unit of prediction processing. Then, intra prediction or inter prediction is performed for each prediction unit.
 また、1つの符号化単位は、直交変換の単位を意味する1つ以上の変換単位(Transform Unit:TU)に分割され得る。そして、各変換単位について、画像データから変換係数データへの直交変換、及び変換係数データの量子化が行われる。 Also, one coding unit can be divided into one or more transform units (Transform Unit: TU) which means a unit of orthogonal transform. Then, for each transform unit, orthogonal transform from image data to transform coefficient data and quantization of transform coefficient data are performed.
 例えば、非特許文献3においては、比較的サイズの小さい非正方形の予測単位(例えば、ライン状の又は矩形の予測単位)をイントラ予測モードにおいて選択可能とする、短距離(Short Distance)イントラ予測法と呼ばれる手法が提案されている。この場合、変換単位の形状もまた、予測単位の形状に合わせて非正方形となり得る。 For example, in Non-Patent Document 3, a short-distance intra prediction method that enables selection of a relatively small non-square prediction unit (for example, a linear or rectangular prediction unit) in the intra prediction mode. A method called "suggestion" is proposed. In this case, the shape of the conversion unit may also be a non-square according to the shape of the prediction unit.
 ところで、HEVCにおいては、非特許文献4で提案されている適応オフセットフィルタという方法が採用されている。HEVCにおいて、適応オフセットフィルタは、デブロックフィルタと適応ループフィルタの間に設けられる。 By the way, in HEVC, a method called an adaptive offset filter proposed in Non-Patent Document 4 is adopted. In HEVC, the adaptive offset filter is provided between the deblocking filter and the adaptive loop filter.
 適応オフセットの種類としては、バンドオフセットと呼ばれるものが2種類、エッジオフセットと呼ばれるものが6種類あり、さらに、オフセットを適応しないことも可能である。そして、画像をquad-treeに分割し、それぞれの分割領域に、上述したどの適応オフセットの種類により符号化するかを選択することができる。この方法を用いることで、符号化効率を向上させることができる。 ¡There are two types of adaptive offsets called band offsets and six types called edge offsets, and it is also possible not to apply offsets. Then, the image can be divided into quad-trees, and the type of adaptive offset described above can be selected for each divided region. By using this method, encoding efficiency can be improved.
 ところで、当該ブロックがエッジを含むかどうかは、TUサイズやPUサイズと相関がある。すなわち、例えば、よりフラットな領域については、より大きなTUサイズが選択される傾向がある。また、例えば、エッジを含む領域については、より小さなTUサイズが選択される傾向がある。 Incidentally, whether or not the block includes an edge has a correlation with the TU size and the PU size. That is, for example, for a flatter region, a larger TU size tends to be selected. For example, for a region including an edge, a smaller TU size tends to be selected.
 しかしながら、非特許文献3において提案されている方法においては、このようなTUサイズとの相関を用いることなしに、エッジオフセットとバンドオフセットのどちらがよいかをコスト関数値などを演算することにより決めていた。したがって、演算量が多いうえに、エッジオフセットとバンドオフセットのどちらを選択したかを示す情報を復号側に送らなければならなかった。 However, in the method proposed in Non-Patent Document 3, it is determined by calculating a cost function value or the like which of the edge offset and the band offset is better without using such a correlation with the TU size. It was. Therefore, the amount of calculation is large, and information indicating whether an edge offset or a band offset is selected must be sent to the decoding side.
 本開示は、このような状況に鑑みてなされたものであり、復号側に送る情報を削減し、符号化効率を向上させるものである。 The present disclosure has been made in view of such a situation, and reduces information to be transmitted to the decoding side and improves encoding efficiency.
 本開示の一側面の画像処理装置は、階層構造を有する単位で符号化された符号化ストリームを復号処理して画像を生成する復号部と、前記復号部により生成された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定するオフセット設定部と、前記オフセット設定部により設定されたオフセットの種類で、前記復号部により生成された画像を対象として、前記適応オフセット処理を行う適応オフセット処理部とを備える。 An image processing apparatus according to an aspect of the present disclosure includes a decoding unit that generates an image by decoding an encoded stream that is encoded in units having a hierarchical structure, and a block size of an image generated by the decoding unit, or An offset setting unit that sets an offset type for adaptive offset processing according to the area, and the adaptive offset processing for the image generated by the decoding unit with the offset type set by the offset setting unit. And an adaptive offset processing unit to perform.
 前記オフセット設定部は、前記ブロックのサイズまたは面積が大きい場合、前記ブロックに対して、バンドオフセットを設定し、前記ブロックのサイズまたは面積が小さい場合、前記ブロックに対して、エッジオフセットを設定することができる。 The offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Can do.
 前記ブロックは、TU(Transform Unit)である。 The block is a TU (Transform Unit).
 前記符号化ストリームと前記適応オフセット処理のオンまたはオフを示すオンオフ情報とを受け取る受け取り部をさらに備え、前記復号部は、前記受け取り部により受け取られた符号化ストリームを復号処理して前記画像を生成し、前記適応オフセット処理部は、前記受け取り部により受け取られたオンオフ情報が前記適応オフセット処理のオンである場合、前記オフセット設定部により設定されたオフセットの種類で、前記復号部により生成された画像を対象として、前記適応オフセット処理を行うことができる。 A receiver that receives the encoded stream and on / off information indicating whether the adaptive offset processing is on or off; and the decoder generates the image by decoding the encoded stream received by the receiver. The adaptive offset processing unit, when the on / off information received by the receiving unit is on of the adaptive offset processing, is an image generated by the decoding unit with the type of offset set by the offset setting unit. The adaptive offset processing can be performed on the target.
 前記オフセット設定部は、前記ブロックのサイズまたは面積が第1のサイズまたは第1の面積以上である場合、バンドオフセットを設定し、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より小さい場合、エッジオフセットを設定することができる。 The offset setting unit sets a band offset when the size or area of the block is equal to or larger than the first size or the first area, and the block size or area is the first size or the first area. If it is smaller, an edge offset can be set.
 前記オフセット設定部は、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より大きい第2のサイズまたは第2の面積以上である場合、前記適応オフセット処理のオフを設定することができる。 The offset setting unit may set the adaptive offset processing to be off when the size or area of the block is equal to or larger than the first size or the second size or the second area larger than the first area. it can.
 前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックに対して、エッジオフセットを設定することができる。 The offset setting unit can set an edge offset for the block when NSQT (Non-Square-Quadtree Transform) is applied to the block.
 前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックの短い辺のサイズまたは面積に応じて、前記適応オフセット処理のオフセットの種類を設定することができる。 When NSQT (Non-Square Quadtree Transform) is applied to the block, the offset setting unit sets the type of offset of the adaptive offset processing according to the size or area of the short side of the block. Can do.
 前記ブロックは、LCU(Largest Coding Unit)であり、前記オフセット設定部は、前記LCUに含まれるサブブロックの面積の積算に応じて、前記適応オフセット処理のオフセットの種類を設定することができる。 The block is an LCU (Largest Coding Unit), and the offset setting unit can set the type of offset of the adaptive offset processing according to the integration of the area of the sub-blocks included in the LCU.
 本開示の一側面の画像処理方法は、画像処理装置が、階層構造を有する単位で符号化された符号化ストリームを復号処理して画像を生成し、生成された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定し、設定されたオフセットの種類で、生成された画像を対象として、前記適応オフセット処理を行う。 According to an image processing method of one aspect of the present disclosure, an image processing device generates an image by decoding an encoded stream encoded in a unit having a hierarchical structure, and sets the size or area of a block of the generated image. Accordingly, the type of offset of the adaptive offset process is set, and the adaptive offset process is performed on the generated image with the set type of offset.
 本開示の他の側面の画像処理装置は、画像を符号化する際にローカル復号処理された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定するオフセット設定部と、前記オフセット設定部により設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理を行う適応オフセット処理部と、前記適応オフセット処理部により前記適応オフセット処理が行われた画像を用いて、前記画像を、階層構造を有する単位で符号化する符号化部とを備える。 An image processing apparatus according to another aspect of the present disclosure includes an offset setting unit that sets an offset type of adaptive offset processing according to a size or area of a block of an image subjected to local decoding processing when an image is encoded, With the type of offset set by the offset setting unit, using the image as the target, the adaptive offset processing unit that performs the adaptive offset processing, and the image that has been subjected to the adaptive offset processing by the adaptive offset processing unit, An encoding unit that encodes the image in a unit having a hierarchical structure.
 前記オフセット設定部は、前記ブロックのサイズまたは面積が大きい場合、前記ブロックに対して、バンドオフセットを設定し、前記ブロックのサイズまたは面積が小さい場合、前記ブロックに対して、エッジオフセットを設定することができる。 The offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Can do.
 前記ブロックは、TU(Transform Unit)である。 The block is a TU (Transform Unit).
 前記符号化部により符号化された画像を伝送する伝送部をさらに備え、前記適応オフセット処理部は、前記適応オフセット処理のオンまたはオフを決定し、前記適応オフセット処理のオンの場合、前記オフセット設定部により設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理を行い、前記伝送部は、前記適応オフセット処理のオンまたはオフを示すオンオフ情報を伝送することができる。 A transmission unit that transmits an image encoded by the encoding unit; the adaptive offset processing unit determines whether the adaptive offset processing is on or off; and when the adaptive offset processing is on, the offset setting The adaptive offset processing is performed on the image with the type of offset set by the unit, and the transmission unit can transmit on / off information indicating whether the adaptive offset processing is on or off.
 前記オフセット設定部は、前記ブロックのサイズまたは面積が第1のサイズまたは第1の面積以上である場合、バンドオフセットを設定し、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より小さい場合、エッジオフセットを設定することができる。 The offset setting unit sets a band offset when the size or area of the block is equal to or larger than the first size or the first area, and the block size or area is the first size or the first area. If it is smaller, an edge offset can be set.
 前記オフセット設定部は、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より大きい第2のサイズまたは第2の面積以上である場合、前記適応オフセット処理のオフを設定することができる。 The offset setting unit may set the adaptive offset processing to be off when the size or area of the block is equal to or larger than the first size or the second size or the second area larger than the first area. it can.
 前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックに対して、エッジオフセットを設定することができる。 The offset setting unit can set an edge offset for the block when NSQT (Non-Square-Quadtree Transform) is applied to the block.
 前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックの短い辺のサイズまたは面積に応じて、前記適応オフセット処理のオフセットの種類を設定することができる。 When NSQT (Non-Square Quadtree Transform) is applied to the block, the offset setting unit sets the type of offset of the adaptive offset processing according to the size or area of the short side of the block. Can do.
 前記ブロックは、LCU(Largest Coding Unit)であり、前記オフセット設定部は、前記LCUに含まれるサブブロックの面積の積算に応じて、前記適応オフセット処理のオフセットの種類を設定することができる。 The block is an LCU (Largest Coding Unit), and the offset setting unit can set the type of offset of the adaptive offset processing according to the integration of the area of the sub-blocks included in the LCU.
 本開示の他の側面の画像処理方法は、画像処理装置が、画像を符号化する際にローカル復号処理された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定し、設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理を行い、前記適応オフセット処理が行われた画像を用いて、前記画像を、階層構造を有する単位で符号化する。 An image processing method according to another aspect of the present disclosure sets an offset type of adaptive offset processing according to a size or area of an image block subjected to local decoding processing when an image processing device encodes an image. Then, the adaptive offset processing is performed on the image with the set offset type, and the image is encoded in units having a hierarchical structure using the image on which the adaptive offset processing has been performed.
 本開示の一側面においては、階層構造を有する単位で符号化された符号化ストリームを復号処理して画像が生成され、生成された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類が設定される。そして、設定されたオフセットの種類で、生成された画像を対象として、前記適応オフセット処理が行われる。 In one aspect of the present disclosure, an image is generated by decoding an encoded stream that is encoded in units having a hierarchical structure, and an offset of adaptive offset processing is performed according to the size or area of the block of the generated image Is set. Then, the adaptive offset processing is performed on the generated image with the set offset type.
 本開示の他の側面においては、画像を符号化する際にローカル復号処理された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類が設定される。そして、設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理が行われ、前記適応オフセット処理が行われた画像を用いて、前記画像が、階層構造を有する単位で符号化される。 In another aspect of the present disclosure, the type of offset of the adaptive offset process is set according to the size or area of the block of the image that has been locally decoded when the image is encoded. Then, the adaptive offset processing is performed on the image with the set offset type, and the image is encoded in a unit having a hierarchical structure using the image subjected to the adaptive offset processing. The
 なお、上述の画像処理装置は、独立した装置であっても良いし、1つの画像符号化装置または画像復号装置を構成している内部ブロックであってもよい。 Note that the above-described image processing apparatus may be an independent apparatus, or may be an internal block constituting one image encoding apparatus or image decoding apparatus.
 本開示の一側面によれば、画像を復号することができる。特に、復号側に送る情報を削減し、符号化効率を向上させることができる。 According to one aspect of the present disclosure, an image can be decoded. In particular, the information sent to the decoding side can be reduced and the encoding efficiency can be improved.
 本開示の他の側面によれば、画像を符号化することができる。特に、復号側に送る情報を削減し、符号化効率を向上させることができる。 According to another aspect of the present disclosure, an image can be encoded. In particular, the information sent to the decoding side can be reduced and the encoding efficiency can be improved.
AVC方式の画像符号化装置の主な構成例を示すブロック図である。1 is a block diagram illustrating a main configuration example of an AVC image encoding device. FIG. AVC方式の画像復号装置の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of the image decoding apparatus of an AVC system. 適応ループフィルタを適用した画像符号化装置の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of the image coding apparatus to which an adaptive loop filter is applied. 適応ループフィルタを適用した画像復号装置の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of the image decoding apparatus to which an adaptive loop filter is applied. コーディングユニットの構成例を説明する図である。It is a figure explaining the structural example of a coding unit. Non-Square Quadtree Transformについて説明する図である。It is a figure explaining Non-Square | Quadtree | Transform. HEVC方式における適応オフセット処理を説明する図である。It is a figure explaining the adaptive offset process in a HEVC system. quad-tree構造を説明する図である。It is a figure explaining a quad-tree structure. バンドオフセットを説明する図である。It is a figure explaining a band offset. エッジオフセットを説明する図である。It is a figure explaining edge offset. エッジオフセットの規則一覧表を示す図である。It is a figure which shows the rule list of edge offset. 本開示の画像符号化装置の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of the image coding apparatus of this indication. TUサイズと適応オフセットフィルタの関係の例を示す図である。It is a figure which shows the example of the relationship between TU size and an adaptive offset filter. TUサイズと適応オフセットフィルタの関係の他の例を示す図である。It is a figure which shows the other example of the relationship between TU size and an adaptive offset filter. LCUの場合について説明する図である。It is a figure explaining the case of LCU. 直交変換部および適応オフセット部の構成例を示す図である。It is a figure which shows the structural example of an orthogonal transformation part and an adaptive offset part. 符号化処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of an encoding process. 適応オフセット処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of an adaptive offset process. 画像復号装置の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of an image decoding apparatus. 逆直交変換部および適応オフセット部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an inverse orthogonal transformation part and an adaptive offset part. 復号処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a decoding process. 適応オフセット処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of an adaptive offset process. 多視点画像符号化方式の例を示す図である。It is a figure which shows the example of a multiview image encoding system. 本技術を適用した多視点画像符号化装置の主な構成例を示す図である。It is a figure which shows the main structural examples of the multiview image coding apparatus to which this technique is applied. 本技術を適用した多視点画像復号装置の主な構成例を示す図である。It is a figure which shows the main structural examples of the multiview image decoding apparatus to which this technique is applied. 階層画像符号化方式の例を示す図である。It is a figure which shows the example of a hierarchy image coding system. 本技術を適用した階層画像符号化装置の主な構成例を示す図である。It is a figure which shows the main structural examples of the hierarchy image coding apparatus to which this technique is applied. 本技術を適用した階層画像復号装置の主な構成例を示す図である。It is a figure which shows the main structural examples of the hierarchy image decoding apparatus to which this technique is applied. コンピュータの主な構成例を示すブロック図である。And FIG. 20 is a block diagram illustrating a main configuration example of a computer. テレビジョン装置の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of a television apparatus. 携帯電話機の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of a mobile telephone. 記録再生装置の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of a recording / reproducing apparatus. 撮像装置の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of an imaging device.
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.従来の手法の説明
2.第1の実施の形態(画像符号化装置)
3.第2の実施の形態(画像復号装置)
4.第3の実施の形態(多視点画像符号化・多視点画像復号装置)
5.第4の実施の形態(階層画像符号化・階層画像復号装置)
6.第5の実施の形態(パーソナルコンピュータ)
7.応用例
Hereinafter, modes for carrying out the present disclosure (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. 1. Description of conventional method First Embodiment (Image Encoding Device)
3. Second embodiment (image decoding apparatus)
4). Third embodiment (multi-view image encoding / multi-view image decoding apparatus)
5. Fourth embodiment (hierarchical image encoding / hierarchical image decoding apparatus)
6). Fifth embodiment (personal computer)
7). Application examples
 <1.従来の手法の説明>
[AVC方式の画像符号化装置]
 図1は、H.264及びMPEG(Moving Picture Experts Group)4 Part10(AVC(Advanced Video Coding))符号化方式により画像を符号化する画像符号化装置の一実施の形態の構成を表している。以下、H.264及びMPEG 符号化方式を、AVC方式と称する。
<1. Description of conventional methods>
[AVC image encoding device]
FIG. 1 illustrates a configuration of an embodiment of an image encoding apparatus that encodes an image using an H.264 and MPEG (Moving Picture Experts Group) 4 Part 10 (AVC (Advanced Video Coding)) encoding method. Hereinafter, H.M. The H.264 and MPEG encoding methods are referred to as AVC methods.
 図1の例において、画像符号化装置1は、A/D変換部11、画面並べ替えバッファ12、演算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、逆量子化部18、逆直交変換部19、演算部20を含むように構成されている。また、画像符号化装置1は、デブロックフィルタ21、フレームメモリ22、選択部23、イントラ予測部24、動き予測・補償部25、予測画像選択部26、およびレート制御部27も含むように構成されている。 In the example of FIG. 1, the image encoding device 1 includes an A / D conversion unit 11, a screen rearrangement buffer 12, a calculation unit 13, an orthogonal transformation unit 14, a quantization unit 15, a lossless encoding unit 16, an accumulation buffer 17, An inverse quantization unit 18, an inverse orthogonal transform unit 19, and a calculation unit 20 are included. The image encoding device 1 is also configured to include a deblock filter 21, a frame memory 22, a selection unit 23, an intra prediction unit 24, a motion prediction / compensation unit 25, a predicted image selection unit 26, and a rate control unit 27. Has been.
 A/D変換部11は、入力された画像データをA/D変換し、画面並べ替えバッファ12に出力し、記憶させる。画面並べ替えバッファ12は、記憶した表示の順番のフレームの画像を、GOP(Group of Picture)構造に応じて、符号化のためのフレームの順番に並べ替える。画面並べ替えバッファ12は、フレームの順番を並び替えた画像を、演算部13に供給する。また、画面並べ替えバッファ12は、フレームの順番を並び替えた画像を、イントラ予測部24および動き予測・補償部25にも供給する。 The A / D converter 11 A / D converts the input image data, outputs it to the screen rearrangement buffer 12, and stores it. The screen rearrangement buffer 12 rearranges the stored frame images in the display order in the order of frames for encoding in accordance with the GOP (Group of Picture) structure. The screen rearrangement buffer 12 supplies the image with the rearranged frame order to the arithmetic unit 13. The screen rearrangement buffer 12 also supplies the image in which the frame order has been rearranged to the intra prediction unit 24 and the motion prediction / compensation unit 25.
 演算部13は、画面並べ替えバッファ12から読み出された画像から、予測画像選択部26を介してイントラ予測部24若しくは動き予測・補償部25から供給される予測画像を減算し、その差分情報を直交変換部14に出力する。 The calculation unit 13 subtracts the prediction image supplied from the intra prediction unit 24 or the motion prediction / compensation unit 25 via the prediction image selection unit 26 from the image read from the screen rearrangement buffer 12, and the difference information Is output to the orthogonal transform unit 14.
 例えば、イントラ符号化が行われる画像の場合、演算部13は、画面並べ替えバッファ12から読み出された画像から、イントラ予測部24から供給される予測画像を減算する。また、例えば、インター符号化が行われる画像の場合、演算部13は、画面並べ替えバッファ12から読み出された画像から、動き予測・補償部25から供給される予測画像を減算する。 For example, in the case of an image on which intra coding is performed, the calculation unit 13 subtracts the prediction image supplied from the intra prediction unit 24 from the image read from the screen rearrangement buffer 12. For example, in the case of an image on which inter coding is performed, the calculation unit 13 subtracts the prediction image supplied from the motion prediction / compensation unit 25 from the image read from the screen rearrangement buffer 12.
 直交変換部14は、演算部13から供給される差分情報に対して、離散コサイン変換、カルーネン・レーベ変換等の直交変換を施し、その変換係数を量子化部15に供給する。 The orthogonal transform unit 14 performs orthogonal transform such as discrete cosine transform and Karhunen-Loeve transform on the difference information supplied from the computation unit 13 and supplies the transform coefficient to the quantization unit 15.
 量子化部15は、直交変換部14が出力する変換係数を量子化する。量子化部15は、レート制御部27から供給される符号量の目標値に関する情報に基づいて量子化パラメータを設定し、量子化を行う。量子化部15は、量子化された変換係数を可逆符号化部16に供給する。 The quantization unit 15 quantizes the transform coefficient output from the orthogonal transform unit 14. The quantization unit 15 sets a quantization parameter based on the information regarding the target value of the code amount supplied from the rate control unit 27, and performs quantization. The quantization unit 15 supplies the quantized transform coefficient to the lossless encoding unit 16.
 可逆符号化部16は、その量子化された変換係数に対して、可変長符号化、算術符号化等の可逆符号化を施す。係数データは、レート制御部27の制御の下で量子化されているので、この符号量は、レート制御部27が設定した目標値となる(若しくは目標値に近似する)。 The lossless encoding unit 16 performs lossless encoding such as variable length encoding and arithmetic encoding on the quantized transform coefficient. Since the coefficient data is quantized under the control of the rate control unit 27, the code amount becomes a target value set by the rate control unit 27 (or approximates the target value).
 可逆符号化部16は、イントラ予測を示す情報などをイントラ予測部24から取得し、インター予測モードを示す情報や動きベクトル情報などを動き予測・補償部25から取得する。なお、イントラ予測(画面内予測)を示す情報は、以下、イントラ予測モード情報とも称する。また、インター予測(画面間予測)を示す情報モードを示す情報は、以下、インター予測モード情報とも称する。 The lossless encoding unit 16 acquires information indicating intra prediction from the intra prediction unit 24, and acquires information indicating inter prediction mode, motion vector information, and the like from the motion prediction / compensation unit 25. Note that information indicating intra prediction (intra-screen prediction) is hereinafter also referred to as intra prediction mode information. In addition, information indicating an information mode indicating inter prediction (inter-screen prediction) is hereinafter also referred to as inter prediction mode information.
 可逆符号化部16は、量子化された変換係数を符号化するとともに、フィルタ係数、イントラ予測モード情報、インター予測モード情報、および量子化パラメータなどの各種情報を、符号化データのヘッダ情報の一部とする(多重化する)。可逆符号化部16は、符号化して得られた符号化データを蓄積バッファ17に供給して蓄積させる。 The lossless encoding unit 16 encodes the quantized transform coefficient, and converts various information such as a filter coefficient, intra prediction mode information, inter prediction mode information, and a quantization parameter into one piece of header information of encoded data. Part (multiplex). The lossless encoding unit 16 supplies the encoded data obtained by encoding to the accumulation buffer 17 for accumulation.
 例えば、可逆符号化部16においては、可変長符号化または算術符号化等の可逆符号化処理が行われる。可変長符号化としては、H.264/AVC方式で定められているCAVLC(Context-Adaptive Variable Length Coding)などがあげられる。算術符号化としては、CABAC(Context-Adaptive Binary Arithmetic Coding)などがあげられる。 For example, the lossless encoding unit 16 performs lossless encoding processing such as variable length encoding or arithmetic encoding. Examples of variable length coding include H.264. CAVLC (Context-Adaptive Variable Length Coding) defined by H.264 / AVC format. Examples of arithmetic coding include CABAC (Context-Adaptive Binary Arithmetic Coding).
 蓄積バッファ17は、可逆符号化部16から供給された符号化データを、一時的に保持する。蓄積バッファ17は、蓄積した符号化データを、所定のタイミングにおいて、H.264/AVC方式で符号化された符号化画像として、例えば、後段の図示せぬ記録装置や伝送路などに出力する。すなわち、蓄積バッファ17は、符号化データを伝送する伝送部でもある。 The accumulation buffer 17 temporarily holds the encoded data supplied from the lossless encoding unit 16. The accumulation buffer 17 stores the accumulated encoded data at a predetermined timing in an H.264 format. As an encoded image encoded by the H.264 / AVC format, for example, it is output to a recording device or a transmission path (not shown) in the subsequent stage. That is, the accumulation buffer 17 is also a transmission unit that transmits encoded data.
 また、量子化部15において量子化された変換係数は、逆量子化部18にも供給される。逆量子化部18は、その量子化された変換係数を、量子化部15による量子化に対応する方法で逆量子化する。逆量子化部18は、得られた変換係数を、逆直交変換部19に供給する。 Also, the transform coefficient quantized by the quantization unit 15 is also supplied to the inverse quantization unit 18. The inverse quantization unit 18 inversely quantizes the quantized transform coefficient by a method corresponding to the quantization by the quantization unit 15. The inverse quantization unit 18 supplies the obtained transform coefficient to the inverse orthogonal transform unit 19.
 逆直交変換部19は、供給された変換係数を、直交変換部14による直交変換処理に対応する方法で逆直交変換する。逆直交変換された出力(復元された差分情報)は、演算部20に供給される。 The inverse orthogonal transform unit 19 performs inverse orthogonal transform on the supplied transform coefficient by a method corresponding to the orthogonal transform process by the orthogonal transform unit 14. The inversely orthogonal transformed output (restored difference information) is supplied to the calculation unit 20.
 演算部20は、逆直交変換部19より供給された逆直交変換結果、すなわち、復元された差分情報に、予測画像選択部26を介してイントラ予測部24若しくは動き予測・補償部25から供給される予測画像を加算し、局部的に復号された画像(復号画像)を得る。 The calculation unit 20 is supplied from the intra prediction unit 24 or the motion prediction / compensation unit 25 to the inverse orthogonal transform result supplied from the inverse orthogonal transform unit 19, that is, the restored difference information, via the predicted image selection unit 26. Predicted images are added to obtain a locally decoded image (decoded image).
 例えば、差分情報が、イントラ符号化が行われる画像に対応する場合、演算部20は、その差分情報にイントラ予測部24から供給される予測画像を加算する。また、例えば、差分情報が、インター符号化が行われる画像に対応する場合、演算部20は、その差分情報に動き予測・補償部25から供給される予測画像を加算する。 For example, when the difference information corresponds to an image on which intra coding is performed, the calculation unit 20 adds the prediction image supplied from the intra prediction unit 24 to the difference information. For example, when the difference information corresponds to an image on which inter coding is performed, the calculation unit 20 adds the predicted image supplied from the motion prediction / compensation unit 25 to the difference information.
 その加算結果は、デブロックフィルタ21またはフレームメモリ22に供給される。 The addition result is supplied to the deblock filter 21 or the frame memory 22.
 デブロックフィルタ21は、適宜デブロックフィルタ処理を行うことにより復号画像のブロック歪を除去する。デブロックフィルタ21は、そのフィルタ処理結果をフレームメモリ22に供給する。なお、演算部20から出力される復号画像は、デブロックフィルタ21を介さずにフレームメモリ22に供給することができる。すなわち、デブロックフィルタ21のデブロックフィルタ処理は省略することができる。 The deblocking filter 21 removes block distortion of the decoded image by appropriately performing deblocking filter processing. The deblocking filter 21 supplies the filter processing result to the frame memory 22. Note that the decoded image output from the arithmetic unit 20 can be supplied to the frame memory 22 without going through the deblocking filter 21. That is, the deblocking filter process of the deblocking filter 21 can be omitted.
 フレームメモリ22は、供給される復号画像を記憶し、所定のタイミングにおいて、記憶している復号画像を参照画像として、選択部23を介してイントラ予測部24または動き予測・補償部25に出力する。 The frame memory 22 stores the supplied decoded image, and outputs the stored decoded image as a reference image to the intra prediction unit 24 or the motion prediction / compensation unit 25 via the selection unit 23 at a predetermined timing. .
 例えば、イントラ符号化が行われる画像の場合、フレームメモリ22は、参照画像を、選択部23を介してイントラ予測部24に供給する。また、例えば、インター符号化が行われる場合、フレームメモリ22は、参照画像を、選択部23を介して動き予測・補償部25に供給する。 For example, in the case of an image on which intra coding is performed, the frame memory 22 supplies the reference image to the intra prediction unit 24 via the selection unit 23. For example, when inter coding is performed, the frame memory 22 supplies the reference image to the motion prediction / compensation unit 25 via the selection unit 23.
 選択部23は、フレームメモリ22から供給される参照画像がイントラ符号化を行う画像である場合、その参照画像をイントラ予測部24に供給する。また、選択部23は、フレームメモリ22から供給される参照画像がインター符号化を行う画像である場合、その参照画像を動き予測・補償部25に供給する。 The selection unit 23 supplies the reference image to the intra prediction unit 24 when the reference image supplied from the frame memory 22 is an image to be subjected to intra coding. The selection unit 23 supplies the reference image to the motion prediction / compensation unit 25 when the reference image supplied from the frame memory 22 is an image to be inter-encoded.
 イントラ予測部24は、選択部23を介してフレームメモリ22から供給される処理対象ピクチャ内の画素値を用いて予測画像を生成するイントラ予測(画面内予測)を行う。イントラ予測部24は、予め用意された複数のモード(イントラ予測モード)でこのイントラ予測を行う。 The intra prediction unit 24 performs intra prediction (intra-screen prediction) that generates a prediction image using the pixel value in the processing target picture supplied from the frame memory 22 via the selection unit 23. The intra prediction unit 24 performs this intra prediction in a plurality of modes (intra prediction modes) prepared in advance.
 AVC方式において、輝度信号に対しては、イントラ4×4予測モード、イントラ8×8予測モード及びイントラ16×16予測モードが定義されている。また、色差信号に関しては、それぞれのマクロブロックごとに、輝度信号とは独立した予測モードを定義することが可能である。イントラ4×4予測モードについては、それぞれの4×4輝度ブロックに対して、イントラ8×8予測モードについては、それぞれの8×8輝度ブロックに対して、1つのイントラ予測モードが定義されることになる。イントラ16×16予測モード、並びに、色差信号に対しては、1つのマクロブロックに対して、それぞれ1つの予測モードが定義されることになる。 In the AVC method, an intra 4 × 4 prediction mode, an intra 8 × 8 prediction mode, and an intra 16 × 16 prediction mode are defined for the luminance signal. Regarding the color difference signal, a prediction mode independent of the luminance signal can be defined for each macroblock. For intra 4 × 4 prediction mode, one intra prediction mode is defined for each 4 × 4 luminance block, and for intra 8 × 8 prediction mode, for each 8 × 8 luminance block. become. For the intra 16 × 16 prediction mode and the color difference signal, one prediction mode is defined for each macroblock.
 イントラ予測部24は、候補となる全てのイントラ予測モードで予測画像を生成し、画面並べ替えバッファ12から供給される入力画像を用いて各予測画像のコスト関数値を評価し、最適なモードを選択する。イントラ予測部24は、最適なイントラ予測モードを選択すると、その最適なモードで生成された予測画像を、予測画像選択部26を介して演算部13や演算部20に供給する。 The intra prediction unit 24 generates prediction images in all candidate intra prediction modes, evaluates the cost function value of each prediction image using the input image supplied from the screen rearrangement buffer 12, and selects the optimum mode. select. When the optimal intra prediction mode is selected, the intra prediction unit 24 supplies the prediction image generated in the optimal mode to the calculation unit 13 and the calculation unit 20 via the predicted image selection unit 26.
 また、上述したように、イントラ予測部24は、採用されたイントラ予測モードを示すイントラ予測モード情報等の情報を、適宜可逆符号化部16に供給する。 Moreover, as described above, the intra prediction unit 24 supplies information such as intra prediction mode information indicating the adopted intra prediction mode to the lossless encoding unit 16 as appropriate.
 動き予測・補償部25は、インター符号化が行われる画像について、画面並べ替えバッファ12から供給される入力画像と、選択部23を介してフレームメモリ22から供給される参照画像とを用いて、動き予測(インター予測)を行う。動き予測・補償部25は、検出された動きベクトルに応じて動き補償処理を行い、予測画像(インター予測画像情報)を生成する。動き予測・補償部25は、予め用意された複数のモード(インター予測モード)でこのようなインター予測を行う。 The motion prediction / compensation unit 25 uses the input image supplied from the screen rearrangement buffer 12 and the reference image supplied from the frame memory 22 via the selection unit 23 for the image to be inter-coded, Perform motion prediction (inter prediction). The motion prediction / compensation unit 25 performs a motion compensation process according to the detected motion vector, and generates a prediction image (inter prediction image information). The motion prediction / compensation unit 25 performs such inter prediction in a plurality of modes (inter prediction modes) prepared in advance.
 動き予測・補償部25は、候補となる全てのインター予測モードで予測画像を生成し、各予測画像のコスト関数値を評価し、最適なモードを選択する。動き予測・補償部25は、生成された予測画像を、予測画像選択部26を介して演算部13や演算部20に供給する。 The motion prediction / compensation unit 25 generates prediction images in all candidate inter prediction modes, evaluates the cost function value of each prediction image, and selects an optimal mode. The motion prediction / compensation unit 25 supplies the generated predicted image to the calculation unit 13 and the calculation unit 20 via the predicted image selection unit 26.
 また、動き予測・補償部25は、採用されたインター予測モードを示すインター予測モード情報や、算出した動きベクトルを示す動きベクトル情報を可逆符号化部16に供給する。 Also, the motion prediction / compensation unit 25 supplies the inter prediction mode information indicating the adopted inter prediction mode and the motion vector information indicating the calculated motion vector to the lossless encoding unit 16.
 予測画像選択部26は、イントラ符号化を行う画像の場合、イントラ予測部24の出力を演算部13や演算部20に供給し、インター符号化を行う画像の場合、動き予測・補償部25の出力を演算部13や演算部20に供給する。 The predicted image selection unit 26 supplies the output of the intra prediction unit 24 to the calculation unit 13 and the calculation unit 20 in the case of an image to be subjected to intra coding, and in the case of an image to be subjected to inter coding, the motion prediction / compensation unit 25. The output is supplied to the calculation unit 13 and the calculation unit 20.
 レート制御部27は、蓄積バッファ17に蓄積された圧縮画像に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部15の量子化動作のレートを制御する。 The rate control unit 27 controls the quantization operation rate of the quantization unit 15 based on the compressed image stored in the storage buffer 17 so that overflow or underflow does not occur.
[AVC方式の画像復号装置]
 図2は、離散コサイン変換若しくはカルーネン・レーベ変換等の直交変換と動き補償により画像圧縮を実現する画像復号装置の主な構成例を示すブロック図である。図2に示される画像復号装置31は、図1の画像符号化装置1に対応する復号装置である。
[AVC image decoding device]
FIG. 2 is a block diagram illustrating a main configuration example of an image decoding apparatus that realizes image compression by orthogonal transformation such as discrete cosine transformation or Karhunen-Labe transformation and motion compensation. An image decoding device 31 shown in FIG. 2 is a decoding device corresponding to the image encoding device 1 of FIG.
 画像符号化装置1より符号化された符号化データは、例えば伝送路や記録媒体等、任意の経路を介して、この画像符号化装置1に対応する画像復号装置31に供給され、復号される。 The encoded data encoded by the image encoding device 1 is supplied to an image decoding device 31 corresponding to the image encoding device 1 via an arbitrary path such as a transmission path or a recording medium, and is decoded. .
 図2に示されるように、画像復号装置31は、蓄積バッファ41、可逆復号部42、逆量子化部43、逆直交変換部44、演算部45、デブロックフィルタ46、画面並べ替えバッファ47、およびD/A変換部48を含むように構成される。また、画像復号装置31は、フレームメモリ49、選択部50、イントラ予測部51、動き補償部52、および画像選択部53を有する。 As shown in FIG. 2, the image decoding device 31 includes a storage buffer 41, a lossless decoding unit 42, an inverse quantization unit 43, an inverse orthogonal transform unit 44, a calculation unit 45, a deblock filter 46, a screen rearrangement buffer 47, And a D / A converter 48. Further, the image decoding device 31 includes a frame memory 49, a selection unit 50, an intra prediction unit 51, a motion compensation unit 52, and an image selection unit 53.
 蓄積バッファ41は、伝送されてきた符号化データを受け取り、蓄積する。すなわち、蓄積バッファ41は、伝送されてきた符号化データの受け取り部でもある。この符号化データは、画像符号化装置1により符号化されたものである。可逆復号部42は、蓄積バッファ41から所定のタイミングで読み出された符号化データを、図1の可逆符号化部16の符号化方式に対応する方式で復号する。 The accumulation buffer 41 receives and accumulates the transmitted encoded data. That is, the accumulation buffer 41 is also a receiving unit for the transmitted encoded data. This encoded data is encoded by the image encoding device 1. The lossless decoding unit 42 decodes the encoded data read from the accumulation buffer 41 at a predetermined timing by a method corresponding to the encoding method of the lossless encoding unit 16 in FIG.
 また、当該フレームがイントラ符号化されたものである場合、符号化データのヘッダ部にはイントラ予測モード情報が格納されている。可逆復号部42は、このイントラ予測モード情報も復号し、その情報をイントラ予測部51に供給する。これに対して、当該フレームがインター符号化されたものである場合、符号化データのヘッダ部には動きベクトル情報が格納されている。可逆復号部42は、この動きベクトル情報も復号し、その情報を動き補償部52に供給する。 Also, when the frame is intra-coded, intra prediction mode information is stored in the header portion of the encoded data. The lossless decoding unit 42 also decodes the intra prediction mode information and supplies the information to the intra prediction unit 51. On the other hand, when the frame is inter-encoded, motion vector information is stored in the header portion of the encoded data. The lossless decoding unit 42 also decodes the motion vector information and supplies the information to the motion compensation unit 52.
 逆量子化部43は、可逆復号部42により復号されて得られた係数データ(量子化係数)を、図1の量子化部15の量子化方式に対応する方式で逆量子化する。つまり、逆量子化部43は、図1の逆量子化部18と同様の方法で量子化係数の逆量子化を行う。 The inverse quantization unit 43 inversely quantizes the coefficient data (quantization coefficient) obtained by decoding by the lossless decoding unit 42 by a method corresponding to the quantization method of the quantization unit 15 in FIG. That is, the inverse quantization unit 43 performs inverse quantization of the quantization coefficient by the same method as the inverse quantization unit 18 of FIG.
 逆量子化部43は、逆量子化された係数データ、つまり、直交変換係数を、逆直交変換部44に供給する。逆直交変換部44は、図1の直交変換部14の直交変換方式に対応する方式(図1の逆直交変換部19と同様の方式)で、その直交変換係数を逆直交変換し、画像符号化装置1において直交変換される前の残差データに対応する復号残差データを得る。例えば、4次の逆直交変換が施される。 The inverse quantization unit 43 supplies the inversely quantized coefficient data, that is, the orthogonal transform coefficient, to the inverse orthogonal transform unit 44. The inverse orthogonal transform unit 44 is a method corresponding to the orthogonal transform method of the orthogonal transform unit 14 in FIG. 1 (the same method as the inverse orthogonal transform unit 19 in FIG. 1), and inverse orthogonal transforms the orthogonal transform coefficient to obtain an image code. The decoding residual data corresponding to the residual data before being orthogonally transformed in the encoding apparatus 1 is obtained. For example, fourth-order inverse orthogonal transform is performed.
 逆直交変換されて得られた復号残差データは、演算部45に供給される。また、演算部45には、画像選択部53を介して、イントラ予測部51若しくは動き補償部52から予測画像が供給される。 The decoded residual data obtained by the inverse orthogonal transform is supplied to the calculation unit 45. In addition, a prediction image is supplied to the calculation unit 45 from the intra prediction unit 51 or the motion compensation unit 52 via the image selection unit 53.
 演算部45は、その復号残差データと予測画像とを加算し、画像符号化装置1の演算部13により予測画像が減算される前の画像データに対応する復号画像データを得る。演算部45は、その復号画像データをデブロックフィルタ46に供給する。 The computing unit 45 adds the decoded residual data and the predicted image, and obtains decoded image data corresponding to the image data before the predicted image is subtracted by the computing unit 13 of the image encoding device 1. The arithmetic unit 45 supplies the decoded image data to the deblock filter 46.
 デブロックフィルタ46は、供給された復号画像のブロック歪を除去した後、画面並べ替えバッファ47に供給する。 The deblock filter 46 removes block distortion of the supplied decoded image, and then supplies it to the screen rearrangement buffer 47.
 画面並べ替えバッファ47は、画像の並べ替えを行う。すなわち、図1の画面並べ替えバッファ12により符号化の順番のために並べ替えられたフレームの順番が、元の表示の順番に並べ替えられる。D/A変換部48は、画面並べ替えバッファ47から供給された画像をD/A変換し、図示せぬディスプレイに出力し、表示させる。 The screen rearrangement buffer 47 rearranges images. That is, the order of frames rearranged for the encoding order by the screen rearrangement buffer 12 in FIG. 1 is rearranged in the original display order. The D / A converter 48 D / A converts the image supplied from the screen rearrangement buffer 47, and outputs and displays it on a display (not shown).
 デブロックフィルタ46の出力は、さらに、フレームメモリ49に供給される。 The output of the deblock filter 46 is further supplied to the frame memory 49.
 フレームメモリ49、選択部50、イントラ予測部51、動き補償部52、および画像選択部53は、画像符号化装置1のフレームメモリ22、選択部23、イントラ予測部24、動き予測・補償部25、および予測画像選択部26にそれぞれ対応する。 The frame memory 49, the selection unit 50, the intra prediction unit 51, the motion compensation unit 52, and the image selection unit 53 are the frame memory 22, the selection unit 23, the intra prediction unit 24, and the motion prediction / compensation unit 25 of the image encoding device 1. , And the predicted image selection unit 26, respectively.
 選択部50は、インター処理される画像と参照される画像をフレームメモリ49から読み出し、動き補償部52に供給する。また、選択部50は、イントラ予測に用いられる画像をフレームメモリ49から読み出し、イントラ予測部51に供給する。 The selection unit 50 reads the image to be interprocessed and the image to be referenced from the frame memory 49 and supplies them to the motion compensation unit 52. In addition, the selection unit 50 reads an image used for intra prediction from the frame memory 49 and supplies the image to the intra prediction unit 51.
 イントラ予測部51には、ヘッダ情報を復号して得られたイントラ予測モードを示す情報等が可逆復号部42から適宜供給される。イントラ予測部51は、この情報に基づいて、フレームメモリ49から取得した参照画像から予測画像を生成し、生成した予測画像を画像選択部53に供給する。 The information indicating the intra prediction mode obtained by decoding the header information is appropriately supplied from the lossless decoding unit 42 to the intra prediction unit 51. The intra prediction unit 51 generates a prediction image from the reference image acquired from the frame memory 49 based on this information, and supplies the generated prediction image to the image selection unit 53.
 動き補償部52は、ヘッダ情報を復号して得られた情報(予測モード情報、動きベクトル情報、参照フレーム情報、フラグ、および各種パラメータ等)を可逆復号部42から取得する。 The motion compensation unit 52 acquires information (prediction mode information, motion vector information, reference frame information, flags, various parameters, and the like) obtained by decoding the header information from the lossless decoding unit 42.
 動き補償部52は、可逆復号部42から供給されるそれらの情報に基づいて、フレームメモリ49から取得した参照画像から予測画像を生成し、生成した予測画像を画像選択部53に供給する。 The motion compensation unit 52 generates a prediction image from the reference image acquired from the frame memory 49 based on the information supplied from the lossless decoding unit 42 and supplies the generated prediction image to the image selection unit 53.
 画像選択部53は、動き補償部52またはイントラ予測部51により生成された予測画像を選択し、演算部45に供給する。 The image selection unit 53 selects the prediction image generated by the motion compensation unit 52 or the intra prediction unit 51 and supplies the selected prediction image to the calculation unit 45.
[適応ループフィルタの詳細]
 次に、非特許文献1に提案されている適応ループフィルタ(ALF(Adaptive Loop Filter))について説明する。
[Details of adaptive loop filter]
Next, an adaptive loop filter (ALF (Adaptive Loop Filter)) proposed in Non-Patent Document 1 will be described.
 図3は、適応ループフィルタを適用した画像符号化装置の構成例を示すブロック図である。なお、図3の例において、説明の便宜上、図1のA/D変換部11、画面並べ替えバッファ12、蓄積バッファ17、選択部23、イントラ予測部24、予測画像選択部26、およびレート制御部27は省略されている。また、矢印なども適宜省略されている。したがって、図3の例の場合、フレームメモリ22からの参照画像は、動き予測・補償部25に直接入力され、動き予測・補償部25からの予測画像は、演算部13および20に直接出力されている。 FIG. 3 is a block diagram illustrating a configuration example of an image encoding device to which an adaptive loop filter is applied. In the example of FIG. 3, for convenience of explanation, the A / D conversion unit 11, the screen rearrangement buffer 12, the accumulation buffer 17, the selection unit 23, the intra prediction unit 24, the predicted image selection unit 26, and the rate control of FIG. The part 27 is omitted. Also, arrows and the like are omitted as appropriate. Therefore, in the example of FIG. 3, the reference image from the frame memory 22 is directly input to the motion prediction / compensation unit 25, and the prediction image from the motion prediction / compensation unit 25 is directly output to the calculation units 13 and 20. ing.
 すなわち、図3の画像符号化装置61は、デブロックフィルタ21とフレームメモリ22の間に適応ループフィルタ71が追加された点のみが、図1の画像符号化装置1と異なっている。 That is, the image encoding device 61 in FIG. 3 differs from the image encoding device 1 in FIG. 1 only in that an adaptive loop filter 71 is added between the deblock filter 21 and the frame memory 22.
 適応ループフィルタ71は、画面並べ替えバッファ12(図示は省略)からの原画像との残差を最小とするよう、適応ループフィルタ係数の算出を行い、この適応ループフィルタ係数を用いて、デブロックフィルタ21からの復号画像にフィルタ処理を行う。このフィルタとして、例えば、ウィナーフィルタ(Wiener Filter)が用いられる。 The adaptive loop filter 71 calculates an adaptive loop filter coefficient so as to minimize a residual with the original image from the screen rearrangement buffer 12 (not shown), and uses this adaptive loop filter coefficient to perform deblocking. Filter processing is performed on the decoded image from the filter 21. As this filter, for example, a Wiener filter is used.
 また、適応ループフィルタ71は、算出した適応ループフィルタ係数を、可逆符号化部16に送る。可逆符号化部16においては、この適応ループフィルタ係数を、可変長符号化、算術符号化といった可逆符号化処理し、圧縮画像のヘッダ部に挿入する。 In addition, the adaptive loop filter 71 sends the calculated adaptive loop filter coefficient to the lossless encoding unit 16. In the lossless encoding unit 16, this adaptive loop filter coefficient is subjected to lossless encoding processing such as variable length encoding and arithmetic encoding, and inserted into the header portion of the compressed image.
 図4は、図3の画像符号化装置に対応する画像復号装置の構成例を示すブロック図である。なお、図4の例において、説明の便宜上、図2の蓄積バッファ41、画面並べ替えバッファ47、D/A変換部48、選択部50、イントラ予測部51、および画像選択部53は省略されている。また、矢印なども適宜省略されている。したがって、図4の例の場合、フレームメモリ49からの参照画像は、動き補償部52に直接入力され、動き補償部52からの予測画像は、演算部45に直接出力されている。 FIG. 4 is a block diagram showing a configuration example of an image decoding apparatus corresponding to the image encoding apparatus of FIG. In the example of FIG. 4, the storage buffer 41, the screen rearrangement buffer 47, the D / A conversion unit 48, the selection unit 50, the intra prediction unit 51, and the image selection unit 53 of FIG. Yes. Also, arrows and the like are omitted as appropriate. Therefore, in the example of FIG. 4, the reference image from the frame memory 49 is directly input to the motion compensation unit 52, and the predicted image from the motion compensation unit 52 is directly output to the calculation unit 45.
 すなわち、図4の画像復号装置81は、デブロックフィルタ46とフレームメモリ49の間に適応ループフィルタ91が追加された点のみが、図2の画像復号装置31と異なっている。 That is, the image decoding device 81 in FIG. 4 differs from the image decoding device 31 in FIG. 2 only in that an adaptive loop filter 91 is added between the deblock filter 46 and the frame memory 49.
 適応ループフィルタ91には、可逆復号部42から復号され、ヘッダから抽出された適応ループフィルタ係数が供給される。適応ループフィルタ91は供給されたフィルタ係数を用いて、デブロックフィルタ46からの復号画像にフィルタ処理を行う。このフィルタとして、例えば、ウィナーフィルタ(Wiener Filter)が用いられる。 The adaptive loop filter 91 is supplied with the adaptive loop filter coefficient decoded from the lossless decoding unit 42 and extracted from the header. The adaptive loop filter 91 performs a filter process on the decoded image from the deblocking filter 46 using the supplied filter coefficient. As this filter, for example, a Wiener filter is used.
 これにより、復号画像の画質を向上させ、さらに、参照画像の画質をも向上させることができる。 Thereby, the image quality of the decoded image can be improved, and further the image quality of the reference image can be improved.
[コスト関数]
 また、AVCにおいて、より高い符号化効率を達成するには、適切な予測モードの選択が重要である。
[Cost function]
In AVC, selection of an appropriate prediction mode is important to achieve higher encoding efficiency.
 かかる選択方式の例として、http://iphome.hhi.de/suehring/tml/index.htm において公開されている、JM (Joint Model) と呼ばれるAVC方式の参照ソフトウエアに実装されている方法を挙げることが出来る。 As an example of such a selection method, a method implemented in AVC reference software called JM 呼 ば (Joint Model) published at http://iphome.hhi.de/suehring/tml/index.htm. I can list them.
 JMにおいては、以下に述べる、High Complexity Modeと、Low Complexity Modeの2通りのモード判定方法を選択することが可能である。どちらも、それぞれの予測モードModeに関するコスト関数値を算出し、これを最小にする予測モードを当該ブロック乃至マクロブロックに対する最適モードとして選択する。 In JM, it is possible to select the following two mode determination methods: High Complexity Mode and Low Complexity Mode. In both cases, a cost function value for each prediction mode Mode is calculated, and a prediction mode that minimizes the cost function value is selected as the optimum mode for the block or macroblock.
 High Complexity Modeにおけるコスト関数は、以下の式(1)のようになる。 The cost function in High Complexity Mode is as shown in the following formula (1).
 Cost(Mode∈Ω)=D+λ*R ・・・(1) Cost (Mode∈Ω) = D + λ * R (1)
 ここで、Ωは、当該ブロック乃至マクロブロックを符号化するための候補モードの全体集合、Dは、当該予測モードModeで符号化した場合の、復号画像と入力画像の差分エネルギーである。λは、量子化パラメータの関数として与えられるLagrange未定乗数である。Rは、直交変換係数を含んだ、当該モードModeで符号化した場合の総符号量である。 Here, Ω is the entire set of candidate modes for encoding the block or macroblock, and D is the difference energy between the decoded image and the input image when encoded in the prediction mode Mode. λ is a Lagrange undetermined multiplier given as a function of the quantization parameter. R is a total code amount when encoding is performed in the mode Mode, including orthogonal transform coefficients.
 つまり、High Complexity Modeでの符号化を行うには、上記パラメータD及びRを算出するため、全ての候補モード(Mode)により、一度、仮エンコード処理を行なう必要があり、より高い演算量を要する。 That is, in order to perform encoding in High Complexity Mode, in order to calculate the parameters D and R, it is necessary to perform provisional encoding processing once in all candidate modes (Mode), which requires a higher calculation amount. .
 Low Complexity Modeにおけるコスト関数は、以下の式(2)のようになる。 The cost function in Low Complexity Mode is as shown in the following formula (2).
 Cost(Mode∈Ω)=D+QP2Quant(QP)*HeaderBit ・・・(2) Cost (Mode∈Ω) = D + QP2Quant (QP) * HeaderBit (2)
 ここで、Dは、High Complexity Modeの場合と異なり、予測画像と入力画像の差分エネルギーとなる。QP2Quant(QP) は、量子化パラメータQPの関数として与えられ、HeaderBitは、直交変換係数を含まない、動きベクトルや、モードといった、Headerに属する情報に関する符号量である。 Here, D is the difference energy between the predicted image and the input image, unlike the case of High Complexity Mode. QP2Quant (QP) is given as a function of the quantization parameter QP, and HeaderBit is a code amount related to information belonging to Header, such as a motion vector and a mode, which does not include an orthogonal transform coefficient.
 すなわち、Low Complexity Modeにおいては、それぞれの候補モード(Mode)に関して、予測処理を行う必要があるが、復号化画像までは必要ないため、符号化処理まで行う必要はない。このため、High Complexity Modeより低い演算量での実現が可能である。 That is, in Low Complexity Mode, it is necessary to perform prediction processing for each candidate mode (Mode), but it is not necessary to perform decoding processing because there is no need for a decoded image. For this reason, it is possible to realize with a calculation amount lower than that of High Complexity Mode.
[コーディングユニット]
 次に、非特許文献2に記載のHEVC (High Efficiency Video Coding)符号化方式(以下、HEVC方式と称する)において定められている、コーディングユニット(Coding Unit)について説明する。
[Coding unit]
Next, a coding unit defined in the High Efficiency Video Coding (HEVC) encoding method (hereinafter referred to as HEVC method) described in Non-Patent Document 2 will be described.
 AVC方式においては、1つのマクロブロックを、複数の動き補償ブロックに分割し、それぞれに対して異なる動き情報を持たせることが可能であった。すなわち、AVC方式においては、マクロブロックとサブマクロブロックによる階層構造が規定されているが、例えば、HEVC方式においては、図5に示されるように、コーディングユニット(CU(Coding Unit))が規定されている。 In the AVC method, it was possible to divide one macro block into a plurality of motion compensation blocks and to have different motion information for each. That is, in the AVC system, a hierarchical structure is defined by macroblocks and sub-macroblocks. For example, in the HEVC system, a coding unit (CU (Coding Unit)) is defined as shown in FIG. ing.
 CUは、Coding Tree Block(CTB)とも呼ばれ、AVC方式におけるマクロブロックと同様の符号化単位である。後者は、16×16画素の大きさに固定されているのに対し、前者の大きさは固定されておらず、それぞれのシーケンスにおいて、画像圧縮情報中において指定されることになる。 CU is also called Coding Tree Block (CTB) and is a coding unit similar to a macroblock in the AVC method. The latter is fixed to a size of 16 × 16 pixels, whereas the size of the former is not fixed, and is specified in the image compression information in each sequence.
 例えば、出力となる符号化データに含まれるシーケンスパラメータセット(SPS(Sequence Parameter Set))において、CUの最大サイズ(LCU(Largest Coding Unit))と最小サイズ((SCU(Smallest Coding Unit))が規定される。 For example, in a sequence parameter set (SPS (Sequence Coding Unit)) included in encoded data to be output, the maximum size (LCU (Largest Coding Unit)) and minimum size ((SCU (Smallest Coding Unit)) of the CU are defined. Is done.
 それぞれのLCU内においては、SCUのサイズを下回らない範囲で、split-flag=1とすることにより、より小さなサイズのCUに分割することができる。図5の例では、LCUの大きさが128であり、最大階層深度が5となる。2N×2Nの大きさのCUは、split_flagの値が「1」である時、1つ下の階層となる、N×Nの大きさのCUに分割される。 Within each LCU, it is possible to divide into smaller CUs by setting split-flag = 1 within a range not smaller than the SCU size. In the example of FIG. 5, the LCU size is 128 and the maximum hierarchical depth is 5. When the value of split_flag is “1”, the 2N × 2N size CU is divided into N × N size CUs that are one level below.
 更に、CUは、イントラ若しくはインター予測処理の単位を意味する1つ以上の予測単位(Prediction Unit:PU)に分割され得る。また、PUは、直交変換の単位を意味する1つ以上の変換単位(Transform Unit:TU)に分割され得る。そして、各変換単位について、画像データから変換係数データへの直交変換、及び変換係数データの量子化が行われる。現在、HEVC方式においては、4×4及び8×8に加え、16×16及び32×32直交変換を用いることが可能である。 Furthermore, the CU may be divided into one or more prediction units (Prediction Units: PUs) that mean units of intra or inter prediction processing. Moreover, PU can be divided | segmented into one or more transformation units (Transform | Unit: TU) which means the unit of orthogonal transformation. Then, for each transform unit, orthogonal transform from image data to transform coefficient data and quantization of transform coefficient data are performed. At present, in the HEVC system, it is possible to use 16 × 16 and 32 × 32 orthogonal transforms in addition to 4 × 4 and 8 × 8.
 以上のHEVC方式のように、CUを定義し、そのCUを単位として各種処理を行うような符号化方式の場合、AVC方式におけるマクロブロックはLCUに相当すると考えることができる。ただし、CUは、図5に示されるように階層構造を有するので、その最上位階層のLCUのサイズは、例えば128×128画素のように、H.264/AVC方式のマクロブロックより大きく設定されることが一般的である。 In the case of an encoding method in which a CU is defined and various processes are performed in units of the CU as in the HEVC method described above, a macroblock in the AVC method can be considered to correspond to an LCU. However, since the CU has a hierarchical structure as shown in FIG. 5, the size of the LCU in the highest hierarchy is H.264, for example, 128 × 128 pixels. Generally, it is set larger than the macroblock of the H.264 / AVC format.
 なお、本明細書において、これらのLCU、CU、PU、TUの各処理単位を、適宜、ブロックとも称する。 In this specification, each processing unit of LCU, CU, PU, and TU is also referred to as a block as appropriate.
[Non-Square Quadtree Transform]
 HEVC方式においては、図6に示されるようなNSQT(Non-Square Quadtree Transform)と呼ばれる長方形のTUを用いることが可能である。
[Non-Square Quadtree Transform]
In the HEVC method, a rectangular TU called NSQT (Non-Square Quadtree Transform) as shown in FIG. 6 can be used.
 HEVC方式においては、Depth=1の場合、当該CUに対して単一のTUが適用される。これに対して、Depth=2の場合、当該CUに対して、複数の正方形または、NSQTと呼ばれる長方形のTUを適用することができる。例えば、図6においては、Depth=2の例として、4つの正方形のTUで構成される場合、4つの横長の長方形のTUで構成される場合、4つの縦長の長方形のTUで構成される場合のCUが示されている。これらのTUのうち、横長の長方形のTUと縦長の長方形のTUがNSQTである。 In the HEVC method, when Depth = 1, a single TU is applied to the CU. On the other hand, when Depth = 2, a plurality of squares or a rectangular TU called NSQT can be applied to the CU. For example, in FIG. 6, as an example of Depth = 2, when composed of four square TUs, composed of four horizontally long TUs, composed of four vertically long TUs CUs are shown. Among these TUs, a horizontally long TU and a vertically long TU are NSQT.
 このことは、例えば、イントラ予測の場合について、非特許文献3に短距離(Short Distance)イントラ予測法として記載されている。なお、短距離イントラ予測法では、例えば1×4画素、2×8画素、4×16画素、4×1画素、8×2画素、16×4画素などの様々なサイズの予測単位が画像内に設定され得る。この場合、予測単位の垂直方向のサイズ及び水平方向のサイズのうちいずれのサイズがより大きいかは、予測単位の設定に依存する。 This is described, for example, as a short distance intra prediction method in Non-Patent Document 3 in the case of intra prediction. In the short-range intra prediction method, for example, prediction units of various sizes such as 1 × 4 pixels, 2 × 8 pixels, 4 × 16 pixels, 4 × 1 pixels, 8 × 2 pixels, and 16 × 4 pixels are included in the image. Can be set to In this case, which of the vertical size and the horizontal size of the prediction unit is larger depends on the setting of the prediction unit.
[HEVC方式における適応オフセット処理]
 次に、HEVC方式における適応オフセットフィルタについて説明する。HEVC方式においては、非特許文献3に記載のSample Adaptive Offset方式が採用されている。
[Adaptive offset processing in HEVC]
Next, an adaptive offset filter in the HEVC scheme will be described. In the HEVC method, the Sample Adaptive Offset method described in Non-Patent Document 3 is adopted.
 適応オフセットフィルタ(Picture Quality Adaptive Offset:PQAO)は、図7に示されるように、デブロックフィルタ(DB)と、適応ループフィルタ(ALF)の間に設けられている。 The adaptive offset filter (Picture Quality Adaptive Offset: PQAO) is provided between the deblock filter (DB) and the adaptive loop filter (ALF) as shown in FIG.
 適応オフセットの種類としては、バンドオフセットと呼ばれるものが2種類、エッジオフセットと呼ばれるものが6種類あり、さらに、オフセットを適応しないことも可能である。そして、画像をquad-treeに分割し、それぞれの領域に、上述したどの適応オフセットの種類により符号化するかを選択することができる。 ¡There are two types of adaptive offsets called band offsets and six types called edge offsets, and it is also possible not to apply offsets. Then, the image is divided into quad-trees, and it is possible to select which of the above-described adaptive offset types is used for encoding each region.
 この選択情報が、PQAO Info.として、符号化部(Entropy Coding)により符号化され、ビットストリームが生成され、生成されたビットストリームが復号側に送信される。この方法を用いることで、符号化効率を向上させることができる。 This selection information is encoded as PQAO Info. By the encoding unit (Entropy Coding), a bit stream is generated, and the generated bit stream is transmitted to the decoding side. By using this method, encoding efficiency can be improved.
 ここで、図8を参照して、quad-tree構造について説明する。 Here, the quad-tree structure will be described with reference to FIG.
 例えば、符号化側においては、図8のA1に示されるように、領域0が分割されていない状態を示すLevel-0(分割深度0)のコスト関数値J0が計算される。また、領域0が4つの領域1乃至4に分割された状態を示すLevel-1(分割深度0)のコスト関数値J1,J2,J3,J4が計算される。 For example, on the encoding side, as shown in A1 of FIG. 8, a cost function value J0 of Level-0 (division depth 0) indicating a state where the region 0 is not divided is calculated. Further, cost function values J1, J2, J3, and J4 of Level-1 (division depth 0) indicating a state where the area 0 is divided into four areas 1 to 4 are calculated.
 そして、A2に示されるように、コスト関数値が比較され、J0>(J1+J2+J3+J4)により、Level-1の分割領域(Partitions)が選択される。 Then, as shown in A2, the cost function values are compared, and a partition region (Partitions) of Level-1 is selected by J0> (J1 + J2 + J3 + J4).
 同様にして、A3に示されるように、領域0が16つの領域5乃至20に分割された状態を示すLevel-2(分割深度2)のコスト関数値J5乃至J20が計算される。 Similarly, as shown in A3, cost function values J5 to J20 of Level-2 (division depth 2) indicating a state where the area 0 is divided into 16 areas 5 to 20 are calculated.
 そして、A4に示されるように、コスト関数値がそれぞれ比較され、J1<(J5+J6+J9+J10)により、領域1においては、Level-1の分割領域(Partitions)が選択される。J2>(J7+J8+J11+J12)により、領域2においては、Level-2の分割領域(Partitions)が選択される。J3>(J13+J14+J17+J18)により、領域3においては、Level-2の分割領域(Partitions)が選択される。J4>(J15+J16+J19+J20)により、領域4においては、Level-1の分割領域(Partitions)が選択される。 Then, as shown in A4, the cost function values are respectively compared, and a partition region (Partitions) of Level-1 is selected in region 1 by J1 <(J5 + J6 + J9 + J10). In region 2, a Level-2 partition region (Partitions) is selected by J2> (J7 + J8 + J11 + J12). By region J3> (J13 + J14 + J17 + J18), in region 3, the Level-2 partition region (Partitions) is selected. By J4> (J15 + J16 + J19 + J20), the division region (Partitions) of Level-1 is selected in the region 4.
 その結果、quad-tree構造におけるA4に示される最終的なquad-tree領域(Partitions)が決定される。そして、quad-tree構造の決定された領域毎に、2種類のバンドオフセット、6種類のエッジオフセット、およびオフセットなしのすべてについてコスト関数値が算出され、どのオフセットにより符号化されるのかが決定される。 As a result, the final quad-tree region (Partitions) indicated by A4 in the quad-tree structure is determined. Then, for each region of the quad-tree structure determined, cost function values are calculated for all of the two types of band offsets, six types of edge offsets, and no offset, and it is determined which offset is used for encoding. The
 例えば、図8の例においては、白矢印に示されるように、領域1に対しては、EO(4)、すなわち、エッジオフセットのうちの4種類目が決定されている。領域7に対しては、OFF、すなわち、オフセットなしが決定されており、領域8に対しては、EO(2)、すなわち、エッジオフセットのうちの2種類目が決定されている。領域11および12に対しては、OFF、すなわち、オフセットなしが決定されている。 For example, in the example of FIG. 8, EO (4), that is, the fourth type of edge offset is determined for the region 1 as indicated by the white arrow. For region 7, OFF, that is, no offset is determined, and for region 8, EO (2), that is, the second type of edge offset is determined. For regions 11 and 12, OFF, that is, no offset is determined.
 また、領域13に対しては、BO(1)、すなわち、バンドオフセットのうちの1種類目が決定されており、領域14に対しては、EO(2)、すなわち、エッジオフセットのうちの2種類目が決定されている。領域17に対しては、BO(2)、すなわち、バンドオフセットのうちの2種類目が決定されており、領域18に対しては、BO(1)、すなわち、バンドオフセットのうちの1種類目が決定されている。領域4に対しては、EO(1)、すなわち、エッジオフセットのうちの1種類目が決定されている。 For region 13, BO (1), that is, the first type of band offset is determined, and for region 14, EO (2), that is, 2 of edge offset, is determined. The type has been determined. For region 17, BO (2), that is, the second type of band offset is determined, and for region 18, BO (1), that is, the first type of band offset. Has been determined. For region 4, EO (1), that is, the first type of edge offset is determined.
 次に、図9を参照して、バンドオフセットの詳細について説明する。 Next, details of the band offset will be described with reference to FIG.
 バンドオフセットにおいては、図9の例においては、1つの目盛りが1バンド=8画素を表しており、輝度画素値が32バンドに分けられて、それぞれのバンドが独立にオフセット値を有する。 Regarding the band offset, in the example of FIG. 9, one scale represents one band = 8 pixels, the luminance pixel value is divided into 32 bands, and each band has an offset value independently.
 すなわち、図9の例においては、0乃至255画素(32バンド)のうち、中央の16バンドが、第1グループに分けられ、両脇の8バンドずつが第2グループに分けられている。 That is, in the example of FIG. 9, among the 0 to 255 pixels (32 bands), the central 16 bands are divided into the first group, and the 8 bands on both sides are divided into the second group.
 そして、第1グループおよび第2グループのどちらか一方のみのオフセットが符号化され、復号側に送られる。一般的に、1つの領域において、白黒はっきりしているか、微妙な色合いがあるかのどちらかであることが多く、第1グループと第2グループ両方に全てに画素があるのは稀である。このため、一方のみのオフセットしか送らないことで、それぞれのquad-tree領域において、含まれていない値の画素値が伝送されて符号化量が増えるのが、抑制される。 Then, the offset of only one of the first group and the second group is encoded and sent to the decoding side. In general, in one region, there are often either black and white clearly or subtle hues, and it is rare that both the first group and the second group have pixels. For this reason, by sending only one offset, it is possible to suppress an increase in the amount of coding due to transmission of pixel values that are not included in each quad-tree region.
 なお、入力信号が放送によるものである場合、輝度信号は、16,235、色差信号は、16,240の範囲に制限される。このとき、図9の下段に示されるbroadcast legalが適用され、×印が示されている、両脇の2バンドずつに対するオフセット値は伝送されない。 When the input signal is broadcast, the luminance signal is limited to 16,235, and the color difference signal is limited to 16,240. At this time, the broadcast legal shown in the lower part of FIG. 9 is applied, and the offset value for each of the two bands on both sides indicated by the crosses is not transmitted.
 次に、図10を参照して、エッジオフセットの詳細について説明する。 Next, details of the edge offset will be described with reference to FIG.
 エッジオフセットにおいては、当該画素値と、当該画素値に隣接する隣接画素値の比較が行われ、これに対応したカテゴリに対して、オフセット値が伝送されることになる。 In the edge offset, the pixel value is compared with the adjacent pixel value adjacent to the pixel value, and the offset value is transmitted to the category corresponding thereto.
 エッジオフセットには、図10のA乃至図10のDに示される4つの1次元パターンと、図10のEおよび図10のFに示される2つの2次元パターンが存在し、それぞれ、図11に示されるカテゴリでオフセットが伝送される。 In the edge offset, there are four one-dimensional patterns shown in FIGS. 10A to 10D and two two-dimensional patterns shown in FIG. 10E and FIG. 10F. The offset is transmitted in the indicated category.
 図10のAは、当該画素Cに対して、隣接画素が左右の1次元に配置されている、すなわち、図10のAのパターンに対して0度をなしている1-D,0-degreeパターンを表している。図10のBは、当該画素Cに対して、隣接画素が上下の1次元に配置されている、すなわち、図10のAのパターンに対して90度をなしている1-D,90-degreeパターンを表している。 10A shows that 1-D, 0-degree in which adjacent pixels are arranged one-dimensionally on the left and right sides with respect to the pixel C, that is, 0 degrees with respect to the pattern of A in FIG. Represents a pattern. In FIG. 10B, adjacent pixels are arranged one-dimensionally above and below the pixel C, that is, 1-D, 90-degree, which forms 90 degrees with respect to the pattern of A in FIG. Represents a pattern.
 図10のCは、当該画素Cに対して、隣接画素が左上と右下の1次元に配置されている、すなわち、図10のAのパターンに対して135度をなしている1-D,135-degreeパターンを表している。図10のDは、当該画素Cに対して、隣接画素が右上と左下の1次元に配置されている、すなわち、図10のAのパターンに対して45度をなしている1-D,135-degreeパターンを表している。 C in FIG. 10 is such that adjacent pixels are arranged one-dimensionally in the upper left and lower right with respect to the pixel C, that is, 1-D, which forms 135 degrees with respect to the pattern of A in FIG. Represents a 135-degree pattern. In FIG. 10D, adjacent pixels are arranged one-dimensionally on the upper right and lower left with respect to the pixel C, that is, 45 degrees with respect to the pattern of A in FIG. Represents the -degree pattern.
 図10のEは、当該画素Cに対して、隣接画素が上下左右2次元に配置されている、すなわち、当該画素Cに対して交差している2-D,crossパターンを表している。図10のFは、当該画素Cに対して、隣接画素が右上左下、左上右下の2次元に配置されている、すなわち、当該画素Cに対して斜めに交差している2-D,diagonalパターンを表している。 E in FIG. 10 represents a 2-D, cross pattern in which adjacent pixels are arranged two-dimensionally in the vertical and horizontal directions with respect to the pixel C, that is, intersect with the pixel C. FIG. 10F shows that 2-D, diagonal in which adjacent pixels are two-dimensionally arranged with respect to the pixel C in the upper right lower left and upper left lower right, that is, obliquely intersect the pixel C. Represents a pattern.
 図11のAは、1次元パターンの規則一覧表(Classification rule for 1-D patterns)を示している。図11のA乃至図11のDのパターンは、図11のAに示されるような5種類のカテゴリに分類され、そのカテゴリによりオフセットが算出されて、復号部に送られる。 11A shows a rule list of one-dimensional patterns (Classification rule for 1-D patterns). The patterns A in FIG. 11 to D in FIG. 11 are classified into five types of categories as shown in FIG. 11A, offsets are calculated based on the categories, and sent to the decoding unit.
 当該画素Cの画素値が2つの隣接画素の画素値より小さい場合、カテゴリ1に分類される。当該画素Cの画素値が一方の隣接画素の画素値より小さくて、他方の隣接画素の画素値と一致する場合、カテゴリ2に分類される。当該画素Cの画素値が一方の隣接画素の画素値より大きくて、他方の隣接画素の画素値と一致する場合、カテゴリ3に分類される。当該画素Cの画素値が2つの隣接画素の画素値より大きい場合、カテゴリ4に分類される。以上のどれでもない場合、カテゴリ0に分類される。 When the pixel value of the pixel C is smaller than the pixel values of two adjacent pixels, it is classified into category 1. When the pixel value of the pixel C is smaller than the pixel value of one adjacent pixel and matches the pixel value of the other adjacent pixel, it is classified into category 2. When the pixel value of the pixel C is larger than the pixel value of one adjacent pixel and matches the pixel value of the other adjacent pixel, it is classified into category 3. When the pixel value of the pixel C is larger than the pixel values of two adjacent pixels, it is classified into category 4. If none of the above, it is classified into category 0.
 図11のBは、2次元パターンの規則一覧表(Classification rule for 2-D patterns)を示している。図10のEおよび図10のFのパターンは、図11のBに示されるような7種類のカテゴリに分類され、そのカテゴリによりオフセットが復号部に送られる。 B in FIG. 11 shows a two-dimensional pattern rule list (Classification rule for 2-D 、 2patterns). The patterns of E of FIG. 10 and F of FIG. 10 are classified into seven types of categories as shown in B of FIG. 11, and offsets are sent to the decoding unit according to the categories.
 当該画素Cの画素値が4つの隣接画素の画素値より小さい場合、カテゴリ1に分類される。当該画素Cの画素値が3つの隣接画素の画素値より小さくて、4番目の隣接画素の画素値と一致する場合、カテゴリ2に分類される。当該画素Cの画素値が3つの隣接画素の画素値より小さくて、4番目の隣接画素の画素値より大きい場合、カテゴリ3に分類される。 When the pixel value of the pixel C is smaller than the pixel values of the four adjacent pixels, it is classified into category 1. When the pixel value of the pixel C is smaller than the pixel values of the three adjacent pixels and matches the pixel value of the fourth adjacent pixel, the pixel C is classified into category 2. When the pixel value of the pixel C is smaller than the pixel values of the three adjacent pixels and larger than the pixel value of the fourth adjacent pixel, the pixel C is classified into category 3.
 当該画素Cの画素値が3つの隣接画素の画素値より大きくて、4番目の隣接画素の画素値より小さい場合、カテゴリ4に分類される。当該画素Cの画素値が3つの隣接画素の画素値より大きくて、4番目の隣接画素の画素値と一致する場合、カテゴリ5に分類される。当該画素Cの画素値が4つの隣接画素の画素値より大きい場合、カテゴリ6に分類される。以上のどれでもない場合、カテゴリ0に分類される。 When the pixel value of the pixel C is larger than the pixel values of the three adjacent pixels and smaller than the pixel value of the fourth adjacent pixel, it is classified into category 4. When the pixel value of the pixel C is larger than the pixel values of the three adjacent pixels and matches the pixel value of the fourth adjacent pixel, the pixel C is classified into category 5. When the pixel value of the pixel C is larger than the pixel values of the four adjacent pixels, it is classified into category 6. If none of the above, it is classified into category 0.
 以上のように、エッジオフセットにおいては、1次元パターンの方が、隣接2画素のみに対する比較を行えばよいので、演算量は低くなる。なお、high efficiency 符号化条件においては、low delay 符号化条件に比して、1bitオフセットの値を高精度にして、復号側へ送られる。 As described above, in the edge offset, since the one-dimensional pattern only needs to compare two adjacent pixels, the amount of calculation is low. Note that, in the high-efficiency encoding condition, the 1-bit offset value is sent to the decoding side with higher accuracy than the low-delay encoding condition.
 上述した適応オフセット処理においては、図8を参照して上述したquad-tree構造(オフセットの種類やオフセットなしの情報を含む)と、オフセット値が復号側に送られていた。なお、カテゴリは、復号側に送られてもよいし、各装置においてそれぞれ求められてもよい。 In the above-described adaptive offset processing, the quad-tree structure (including information about the type of offset and no offset) described above with reference to FIG. 8 and the offset value are sent to the decoding side. Note that the category may be sent to the decoding side, or may be obtained in each device.
 <2.第1の実施の形態>
[画像符号化装置の構成例]
 図12は、本開示を適用した画像処理装置としての画像符号化装置の一実施の形態の構成を表している。
<2. First Embodiment>
[Configuration Example of Image Encoding Device]
FIG. 12 illustrates a configuration of an embodiment of an image encoding device as an image processing device to which the present disclosure is applied.
 図12に示される画像符号化装置101は、予測処理を用いて画像データを符号化する。ここで、符号化方式としては、例えば、HEVC(High Efficiency Video Coding)に準ずる方式などが用いられる。 The image encoding apparatus 101 shown in FIG. 12 encodes image data using a prediction process. Here, as the encoding method, for example, a method according to HEVC (High Efficiency Video Coding) is used.
 図12の画像符号化装置101は、A/D変換部11、画面並べ替えバッファ12、演算部13、量子化部15、可逆符号化部16、蓄積バッファ17、逆量子化部18、および逆直交変換部19を備える点で、図1の画像符号化装置1と共通している。図12の画像符号化装置101は、演算部20、デブロックフィルタ21、フレームメモリ22、選択部23、イントラ予測部24、動き予測・補償部25、予測画像選択部26、およびレート制御部27を備える点で、図1の画像符号化装置1と共通している。 12 includes an A / D conversion unit 11, a screen rearrangement buffer 12, a calculation unit 13, a quantization unit 15, a lossless encoding unit 16, a storage buffer 17, an inverse quantization unit 18, and an inverse unit. It is common with the image coding apparatus 1 of FIG. 1 by the point provided with the orthogonal transformation part 19. FIG. The image encoding device 101 in FIG. 12 includes a calculation unit 20, a deblock filter 21, a frame memory 22, a selection unit 23, an intra prediction unit 24, a motion prediction / compensation unit 25, a predicted image selection unit 26, and a rate control unit 27. 1 in common with the image encoding device 1 of FIG.
 また、図12の画像符号化装置101は、上述した図3の適応ループフィルタ71が追加された点で、図1の画像符号化装置1と異なっている。 12 is different from the image encoding device 1 of FIG. 1 in that the adaptive loop filter 71 of FIG. 3 described above is added.
 さらに、図12の画像符号化装置101は、直交変換部14が直交変換部111に入れ替わった点、並びに、クラス分類部112および適応オフセット部113が追加された点で、図1の画像符号化装置1と異なっている。 Furthermore, the image coding apparatus 101 in FIG. 12 is different from the image coding in FIG. 1 in that the orthogonal transform unit 14 is replaced with the orthogonal transform unit 111 and that a class classification unit 112 and an adaptive offset unit 113 are added. Different from the device 1.
 すなわち、直交変換部111は、図1の直交変換部14と同様に、演算部13から供給される差分情報に対して、離散コサイン変換、カルーネン・レーベ変換等の直交変換を施し、その変換係数を量子化部15に供給する。その際、直交変換部111においては、コスト関数値に基づくモード判定により、当該ブロック(処理単位、いまの場合、TU)に対する直交変換サイズの決定が行われる。そして、直交変換部111は、決定された直交変換の単位であるTUサイズを、可逆符号化部16およびクラス分類部112に供給する。 That is, the orthogonal transform unit 111 performs orthogonal transform such as discrete cosine transform and Karhunen-Loeve transform on the difference information supplied from the computation unit 13 in the same manner as the orthogonal transform unit 14 of FIG. Is supplied to the quantization unit 15. At that time, the orthogonal transform unit 111 determines the orthogonal transform size for the block (processing unit, TU in this case) by mode determination based on the cost function value. Then, the orthogonal transform unit 111 supplies the determined TU size, which is a unit of the determined orthogonal transform, to the lossless encoding unit 16 and the class classification unit 112.
 クラス分類部112は、直交変換部111からのTUサイズに応じて、クラス分類を行う。クラス分類部112におけるクラス分類とは、オフセットの種類の設定(分類)である。すなわち、クラス分類部112は、直交変換部111からのTUサイズに応じて、エッジオフセット(EO)を適用するのか、バンドオフセット(BO)を適用するのかを設定する。クラス分類部112は、設定したオフセットの種類を示す情報を、適応オフセット部113に供給する。 The class classification unit 112 performs class classification according to the TU size from the orthogonal transformation unit 111. The class classification in the class classification unit 112 is setting (classification) of the type of offset. That is, the class classification unit 112 sets whether to apply edge offset (EO) or band offset (BO) according to the TU size from the orthogonal transform unit 111. The class classification unit 112 supplies information indicating the set offset type to the adaptive offset unit 113.
 デブロックフィルタ21、適応オフセット部113、および適応ループフィルタ71は、その順に、動き補償ループ内に設けられている。動き補償ループとは、演算部13、直交変換部111、量子化部15、逆量子化部18、逆直交変換部19、演算部20、フレームメモリ22、選択部23、イントラ予測部24または動き予測・補償部25、および予測画像選択部26からなるブロックである。なお、以下、動き補償ループ内における、デブロックフィルタ21、適応オフセット部113、および適応ループフィルタ71が行うフィルタ処理を、インループフィルタ処理とも総称する。 The deblock filter 21, the adaptive offset unit 113, and the adaptive loop filter 71 are provided in the motion compensation loop in that order. The motion compensation loop is an arithmetic unit 13, an orthogonal transformation unit 111, a quantization unit 15, an inverse quantization unit 18, an inverse orthogonal transformation unit 19, an arithmetic unit 20, a frame memory 22, a selection unit 23, an intra prediction unit 24, or a motion. This block includes a prediction / compensation unit 25 and a predicted image selection unit 26. Hereinafter, the filter processing performed by the deblock filter 21, the adaptive offset unit 113, and the adaptive loop filter 71 in the motion compensation loop is also collectively referred to as in-loop filter processing.
 適応オフセット部113は、クラス分類部112からのオフセットの種類を示す情報、に基づいて、デブロックフィルタ21からの復号画像(ローカルデコード後のベースバンド情報)に対するオフセット処理を行う。 The adaptive offset unit 113 performs an offset process on the decoded image (baseband information after local decoding) from the deblocking filter 21 based on the information indicating the type of offset from the class classification unit 112.
 すなわち、エッジオフセット(EO)を適用するのか、バンドオフセット(BO)を適用するのかは、直交変換部111からのTUサイズに応じて、クラス分類部112により設定されている。したがって、適応オフセット部113は、オフセットを行うか否か(適応オフセットフィルタのon/off)を決定し、オフセットを行うと決定された場合には、そのカテゴリとオフセット値を求めて、演算部20からの復号画像に対してオフセット処理を行う。適応オフセット部113は、オフセット処理後の画像を、適応ループフィルタ71に供給する。 That is, whether to apply edge offset (EO) or band offset (BO) is set by the class classification unit 112 according to the TU size from the orthogonal transform unit 111. Therefore, the adaptive offset unit 113 determines whether or not to perform the offset (on / off of the adaptive offset filter), and when it is determined to perform the offset, obtains the category and the offset value, and calculates the arithmetic unit 20. The offset process is performed on the decoded image from. The adaptive offset unit 113 supplies the image after the offset process to the adaptive loop filter 71.
 また、適応オフセット部113は、決定したon/offの情報とオフセット値を示す情報とを、可逆符号化部16に供給する。 Also, the adaptive offset unit 113 supplies the determined on / off information and information indicating the offset value to the lossless encoding unit 16.
 適応ループフィルタ71は、画面並べ替えバッファ12からの原画像(図示は省略)との残差を最小とするよう、適応ループフィルタ係数の算出を行い、この適応ループフィルタ係数を用いて、適応オフセット部113からの復号画像にフィルタ処理を行う。このフィルタとして、例えば、ウィナーフィルタ(Wiener Filter)が用いられる。これにより画質改善を行う。また、図示しないが、適応ループフィルタ71は、算出した適応ループフィルタ係数を、可逆符号化部16に送る。 The adaptive loop filter 71 calculates an adaptive loop filter coefficient so as to minimize the residual from the original image (not shown) from the screen rearrangement buffer 12, and uses this adaptive loop filter coefficient to perform an adaptive offset. Filter processing is performed on the decoded image from the unit 113. As this filter, for example, a Wiener filter is used. This improves the image quality. Although not shown, the adaptive loop filter 71 sends the calculated adaptive loop filter coefficient to the lossless encoding unit 16.
 なお、図12の可逆符号化部16は、図1の可逆符号化部16と同様に、量子化された変換係数を符号化するとともに、フィルタ係数、予測モード情報、および量子化パラメータなどの各種情報を、符号化データのヘッダ情報の一部とする。その際、可逆符号化部16は、適応オフセット部113からのon/offの情報とオフセット値を示す情報を、適応オフセットパラメータとして、符号化データのヘッダ情報の一部とする。また、可逆符号化部16は、直交変換部111からのTUサイズに関する情報や適応ループフィルタ係数を示す情報なども、符号化データのヘッダ情報の一部とする。 The lossless encoding unit 16 in FIG. 12 encodes the quantized transform coefficient as well as various types of filter coefficients, prediction mode information, quantization parameters, and the like, similar to the lossless encoding unit 16 in FIG. The information is part of the header information of the encoded data. At this time, the lossless encoding unit 16 uses the on / off information from the adaptive offset unit 113 and the information indicating the offset value as part of the header information of the encoded data as the adaptive offset parameter. Further, the lossless encoding unit 16 also uses information about the TU size from the orthogonal transform unit 111, information indicating an adaptive loop filter coefficient, and the like as part of the header information of the encoded data.
[本技術の適応オフセット処理]
 HEVC方式において、輝度信号に対する直交変換サイズは、4×4、8×8、16×16、並びに、32×32のいずれかを用いることが可能である。このような直交変換サイズにおいて、エッジを含むブロック(処理単位)に関しては、より小さなTUサイズが選ばれる傾向がある。一方、フラットなブロックに関しては、より大きなTUサイズが選ばれる傾向がある。すなわち、当該ブロックがエッジを含むかどうかは、そのブロックのサイズと相関がある。
[Adaptive offset processing of this technology]
In the HEVC system, the orthogonal transform size for the luminance signal can be any of 4 × 4, 8 × 8, 16 × 16, and 32 × 32. In such an orthogonal transform size, a smaller TU size tends to be selected for a block (processing unit) including an edge. On the other hand, for flat blocks, larger TU sizes tend to be selected. That is, whether or not the block includes an edge has a correlation with the size of the block.
 したがって、本技術においては、上述したブロックのサイズとの相関を用いて、適応オフセットフィルタにおいて、エッジオフセットとバンドオフセットのどちらを用いるかを決定する。これにより、復号側へ送る適応オフセットフィルタに関する情報を削減し、符号化効率を向上させる。 Therefore, in the present technology, it is determined whether to use the edge offset or the band offset in the adaptive offset filter by using the correlation with the block size described above. Thereby, the information regarding the adaptive offset filter sent to the decoding side is reduced, and the coding efficiency is improved.
 すなわち、より小さなTUサイズが選択されるブロックに対しては、エッジオフセットが適用され、より大きなTUサイズが選択されるブロックに対しては、バンドオフセットが適用される。 That is, an edge offset is applied to a block for which a smaller TU size is selected, and a band offset is applied to a block for which a larger TU size is selected.
 具体的には、クラス分類部112は、一例として、TUサイズが4×4または8×8であるブロックに対しては、エッジオフセットを設定し、それ以外(以上)のTUサイズのブロックに対しては、バンドオフセットを設定する。 Specifically, as an example, the class classification unit 112 sets an edge offset for a block having a TU size of 4 × 4 or 8 × 8, and blocks other TU sizes (or more). Set the band offset.
 なお、非特許文献4において提案されている方式においては、オフセットを適用しないという選択肢もあり得る。 Note that in the method proposed in Non-Patent Document 4, there may be an option of not applying an offset.
 そこで、本技術においては、図13に示されるように、TUサイズが4×4または8×8であるTUに対しては、エッジオフセットを適用するか、適応オフセットを適用しないという選択肢が与えられる。また、TUサイズがそれらのサイズ以上(例えば、16×16または32×32)のTUに対しては、バンドオフセットを適用するか、適応オフセットを適用しないという選択肢が与えられる。 Therefore, in the present technology, as illustrated in FIG. 13, for a TU having a TU size of 4 × 4 or 8 × 8, an option of applying an edge offset or not applying an adaptive offset is given. . Also, for TUs having a TU size equal to or larger than those sizes (for example, 16 × 16 or 32 × 32), an option of applying a band offset or not applying an adaptive offset is given.
 また、本技術においては、16×16以上のTUについては、上記のとおりの2つの選択肢が与えられるが、32×32のTUについては、適応オフセットを適用しないことに設定してもよい。 In the present technology, two options as described above are given for 16 × 16 or more TUs, but an adaptive offset may not be applied to 32 × 32 TUs.
 これは、32×32のTUに関しては、16×16TUサイズであるブロックより、さらにフラットな領域であることが想定されるためである。すなわち、この32×32のTUに対して適応オフセット処理を行うことによる符号化効率向上への寄与が、他のサイズへの適用オフセット処理に比して小さいと考えられるためである。 This is because a 32 × 32 TU is assumed to be a flatter area than a block of 16 × 16 TU size. That is, it is considered that the contribution to the improvement of the coding efficiency by performing the adaptive offset process on the 32 × 32 TU is considered to be smaller than the applied offset process to other sizes.
 もちろん、16×16以下のTUについても、どのような適応オフセット処理を行うかを予め設定しておいてもよい。例えば、図14の例に示されるように、TUサイズが4×4または8×8であるTUに対しては、エッジオフセットを適用することに設定することができる。また、TUサイズが16×16であるTUに対しては、バンドオフセットを適用し、32×32のTUについては、適応オフセットを適用しないことに設定することができる。 Of course, what kind of adaptive offset processing is performed for a TU of 16 × 16 or less may be set in advance. For example, as shown in the example of FIG. 14, an edge offset can be set to be applied to a TU having a TU size of 4 × 4 or 8 × 8. In addition, it is possible to set a band offset to be applied to a TU having a TU size of 16 × 16 and not to apply an adaptive offset to a 32 × 32 TU.
 また、図6を参照して上述したNSQTが適用されるTUに対しては、例えば、エッジオフセットが適用される。これは、NSQTが適用されるブロックは、エッジをテクスチャに含むと考えられるためである。 Further, for example, an edge offset is applied to a TU to which NSQT described above with reference to FIG. 6 is applied. This is because a block to which NSQT is applied is considered to include an edge in the texture.
 なお、NSQTが適用されるTUに対しては、短い方の辺のサイズについて、エッジオフセットを適用するか、バンドオフセットを適用するかを設定するようにしてもよい。 Note that, for a TU to which NSQT is applied, whether to apply an edge offset or a band offset may be set for the size of the shorter side.
 以上のように、ブロック(例えば、TU)のサイズとの相関を用いて、適応オフセットフィルタにおいて、エッジオフセットとバンドオフセットのどちらを用いるかを決定し、それに基づいて、復号画像に適応オフセットフィルタを行うようにした。 As described above, using the correlation with the size of the block (for example, TU), the adaptive offset filter determines whether to use the edge offset or the band offset, and based on this, the adaptive offset filter is applied to the decoded image. I did it.
 これにより、領域分割とエッジオフセットであるか、バンドオフセットであるかの情報(すなわち、図8を参照して上述したquad-tree構造のマップ情報)を復号側へ送る必要がなくなり、画像圧縮画像情報中の情報量が削減され、符号化効率が向上される。 As a result, it is not necessary to send information indicating whether the region division and edge offset or band offset (that is, the quad-tree structure map information described above with reference to FIG. 8) to the decoding side, and the compressed image The amount of information in the information is reduced, and the coding efficiency is improved.
 なお、上記説明においては、ブロック(処理単位)として、TUサイズに応じてクラス分類を行う例を説明したが、TUに限定されない。すなわち、PUサイズまたはCUサイズに応じてクラス分類(フィルタの種類の設定)を行い、PUまたはCU毎に適応オフセットフィルタを行うようにしてもよい。 In the above description, an example is described in which class classification is performed according to the TU size as a block (processing unit), but is not limited to a TU. That is, class classification (setting of filter type) may be performed according to PU size or CU size, and an adaptive offset filter may be performed for each PU or CU.
 特に、イントラフレームにおいては、より大きなPUサイズもしくはCUサイズであるブロックは、平坦領域である可能性が高いため、バンドオフセットを用いるように設定される。一方、より小さな大きなPUサイズもしくはCUサイズであるブロックは、エッジを含んでいる可能性が高いため、エッジオフセットを用いるように設定される。 In particular, in an intra frame, a block having a larger PU size or CU size is likely to be a flat region, and is therefore set to use a band offset. On the other hand, a block having a smaller large PU size or CU size is more likely to include an edge, and thus is set to use an edge offset.
 ここで、図5を参照して上述したように、HEVC方式の階層構造においては、CUにPUが含まれ、PUにTUが含まれる。すなわち、既存の手法によるエッジオフセットとバンドオフセットかを求める演算量としては、CUサイズに基づく場合が最も小さく、PUサイズ、TUサイズに基づく場合がこれに続く。 Here, as described above with reference to FIG. 5, in the HEVC hierarchical structure, the CU includes a PU and the PU includes a TU. In other words, the amount of calculation for determining the edge offset and the band offset by the existing method is the smallest based on the CU size, followed by the case based on the PU size and the TU size.
 一方、単一のCUが、平坦な領域とエッジ領域の双方を含む可能性があり、これは、PUまたはTUの階層まで復号処理を行うことにより初めて知ることが可能である。このため、PUまたはTUに基づく分類による方が、より精度の高いクラス分類を行うことができる。 On the other hand, there is a possibility that a single CU includes both a flat area and an edge area, and this can be known only by performing decoding processing up to the PU or TU hierarchy. For this reason, classification based on PU or TU can be performed with higher accuracy.
 さらに、LCU単位でエッジオフセットまたはバンドオフセットの設定を行うようにしてもよい。LCU単位の場合には、当該LCUに含まれる処理単位(例えば、TUまたはPU、CU)が、所定の大きさより大きいものと、所定の大きさより小さいもののどちらが多いかにより決定される。すなわち、それぞれの処理単位の個数ではなく、当該LCUにおいて、各サイズの処理単位の占める面積がどのくらいであるかに応じて、エッジオフセットまたはバンドオフセットの設定が行われる。 Furthermore, an edge offset or band offset may be set for each LCU. In the case of the LCU unit, the processing unit (for example, TU, PU, or CU) included in the LCU is determined depending on whether there are more units larger than a predetermined size or smaller than a predetermined size. That is, setting of the edge offset or band offset is performed according to how much area the processing unit of each size occupies in the LCU, not the number of processing units.
 例えば、図15に示されるように、当該LCUは、32×32サイズであり、3つの16×16TU、2つの8×8TU、および8つの4×4TUを含むように構成されている。 For example, as shown in FIG. 15, the LCU has a size of 32 × 32 and is configured to include three 16 × 16 TUs, two 8 × 8 TUs, and eight 4 × 4 TUs.
 この場合、個数としては、4×4TUが最も多いことになるが、面積としては、16×16TUの占める面積が最も大きい。したがって、図15に示されるLCUの場合、バンドオフセットに設定されることになる。 In this case, 4 × 4 TU is the largest number, but the area occupied by 16 × 16 TU is the largest. Therefore, in the case of the LCU shown in FIG. 15, the band offset is set.
 これにより、LUC単位の場合も、エッジオフセットまたはバンドオフセットの情報復号側に送る必要がないので、画像圧縮画像情報中の情報量が削減され、符号化効率が向上される。なお、この場合には、例えば、クラス分類部112において、サイズ毎のカウンタが備えられ、カウンタが示す個数とサイズにより面積が求められる。 Thereby, even in the case of LUC unit, since it is not necessary to send to the information decoding side of the edge offset or band offset, the amount of information in the compressed image information is reduced and the encoding efficiency is improved. In this case, for example, the class classification unit 112 includes a counter for each size, and the area is obtained from the number and size indicated by the counter.
 以上説明した、本技術による方法は、輝度信号および色差信号の双方に適用することが可能である。 The method according to the present technology described above can be applied to both the luminance signal and the color difference signal.
[直交変換部および適応オフセット部の構成例]
 次に、画像符号化装置101の各部について説明する。図16は、直交変換部111および適応オフセット部113の構成例を示すブロック図である。
[Configuration example of orthogonal transform unit and adaptive offset unit]
Next, each unit of the image encoding device 101 will be described. FIG. 16 is a block diagram illustrating a configuration example of the orthogonal transform unit 111 and the adaptive offset unit 113.
 図16の例において、直交変換部111は、4×4直交変換部131、8×8直交変換部132、16×16直交変換部133、32×32直交変換部134、コスト関数算出部135、およびTUサイズ決定部136を含むように構成されている。 In the example of FIG. 16, the orthogonal transform unit 111 includes a 4 × 4 orthogonal transform unit 131, an 8 × 8 orthogonal transform unit 132, a 16 × 16 orthogonal transform unit 133, a 32 × 32 orthogonal transform unit 134, a cost function calculation unit 135, And a TU size determination unit 136.
 適応オフセット部113は、on/off決定部141、カテゴリ分類部142、およびオフセット処理部143を含むように構成されている。 The adaptive offset unit 113 is configured to include an on / off determination unit 141, a category classification unit 142, and an offset processing unit 143.
 演算部13からの差分値を示す差分情報(PU)が、4×4直交変換部131、8×8直交変換部132、16×16直交変換部133、および32×32直交変換部134に供給される。 Difference information (PU) indicating a difference value from the calculation unit 13 is supplied to the 4 × 4 orthogonal transform unit 131, the 8 × 8 orthogonal transform unit 132, the 16 × 16 orthogonal transform unit 133, and the 32 × 32 orthogonal transform unit 134. Is done.
 4×4直交変換部131は、演算部13からの差分情報に対して、4×4TUサイズで直交変換を施し、その変換係数をコスト関数算出部135に供給する。8×8直交変換部132は、演算部13からの差分情報に対して、8×8TUサイズで直交変換を施し、その変換係数をコスト関数算出部135に供給する。16×16直交変換部133は、演算部13からの差分情報に対して、16×16TUサイズで直交変換を施し、その変換係数をコスト関数算出部135に供給する。32×32直交変換部134は、演算部13からの差分情報に対して、32×32TUサイズで直交変換を施し、その変換係数をコスト関数算出部135に供給する。 The 4 × 4 orthogonal transform unit 131 performs orthogonal transform on the difference information from the calculation unit 13 with a 4 × 4 TU size, and supplies the transform coefficient to the cost function calculation unit 135. The 8 × 8 orthogonal transform unit 132 performs orthogonal transform on the difference information from the calculation unit 13 with an 8 × 8 TU size, and supplies the transform coefficient to the cost function calculation unit 135. The 16 × 16 orthogonal transform unit 133 performs orthogonal transform on the difference information from the calculation unit 13 with a 16 × 16 TU size, and supplies the transform coefficient to the cost function calculation unit 135. The 32 × 32 orthogonal transform unit 134 performs orthogonal transform on the difference information from the calculation unit 13 with a 32 × 32 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
 コスト関数算出部135は、各TUサイズの変換係数を用いてコスト関数値を算出し、各TUサイズの変換係数と、対応するコスト関数値をTUサイズ決定部136に供給する。 The cost function calculation unit 135 calculates the cost function value using the conversion coefficient of each TU size, and supplies the conversion coefficient of each TU size and the corresponding cost function value to the TU size determination unit 136.
 TUサイズ決定部136は、コスト関数算出部135により算出されたコスト関数値に基づいて、当該ブロックに対する最適TUサイズを決定し、決定したTUサイズの直交変換係数を量子化部15に供給する。また、TUサイズ決定部136は、決定したTUサイズの情報を、クラス分類部112および可逆符号化部16に供給する。 The TU size determination unit 136 determines the optimal TU size for the block based on the cost function value calculated by the cost function calculation unit 135 and supplies the orthogonal transform coefficient of the determined TU size to the quantization unit 15. Further, the TU size determination unit 136 supplies information on the determined TU size to the class classification unit 112 and the lossless encoding unit 16.
 クラス分類部112は、TUサイズ決定部136からのTUサイズに基づいて、上述した本技術による方法により、当該ブロックに適用するオフセットの種類(エッジオフセットであるか、バンドオフセットであるか)を設定する。クラス分類部112は、設定したオフセットの種類の情報を、on/off決定部141に供給する。 Based on the TU size from the TU size determination unit 136, the class classification unit 112 sets the type of offset (edge offset or band offset) to be applied to the block by the method of the present technology described above. To do. The class classification unit 112 supplies the set offset type information to the on / off determination unit 141.
 on/off決定部141は、デブロックフィルタ21からのデブロックフィルタ処理後画素値を用いて、当該ブロック(例えば、TU)に対して、適応オフセット処理のon/offを決定する。例えば、on/off決定部141は、クラス分類部112により設定されたオフセットの種類による適応オフセット処理でのコスト関数値と、適応オフセット処理なしでのコスト関数値とを算出する。そして、on/off決定部141は、算出したコスト関数値に基づいて、適応オフセット処理のon/offを決定する。 The on / off determination unit 141 determines the on / off of the adaptive offset processing for the block (for example, TU) using the pixel value after the deblocking filter processing from the deblocking filter 21. For example, the on / off determination unit 141 calculates the cost function value in the adaptive offset process according to the type of offset set by the class classification unit 112 and the cost function value without the adaptive offset process. Then, the on / off determination unit 141 determines on / off of the adaptive offset process based on the calculated cost function value.
 on/off決定部141は、デブロックフィルタ21からのデブロックフィルタ処理後画素値と、決定したon/offの情報とをカテゴリ分類部142に供給する。また、on/off決定部141は、決定したon/offの情報を可逆符号化部16に供給する。 The on / off determination unit 141 supplies the pixel value after the deblocking filter processing from the deblocking filter 21 and the determined on / off information to the category classification unit 142. Further, the on / off determination unit 141 supplies the determined on / off information to the lossless encoding unit 16.
 カテゴリ分類部142は、on/off決定部141からのon/offの情報がonを示す場合、デブロックフィルタ処理後画素値を用いて、クラス分類部112により設定されたオフセットの種類におけるカテゴリを分類する。カテゴリ分類部142は、分類したカテゴリを示す情報と、デブロックフィルタ処理後画素値とを、オフセット処理部143に供給する。 When the on / off information from the on / off determination unit 141 indicates “on”, the category classification unit 142 uses the pixel value after the deblocking filter processing to determine the category in the offset type set by the class classification unit 112. Classify. The category classification unit 142 supplies information indicating the classified category and the pixel value after deblocking filter processing to the offset processing unit 143.
 また、on/off決定部141からのon/offの情報がoffを示す場合、カテゴリ分類部142は、on/off決定部141からのデブロックフィルタ処理後画素値をそのまま、オフセット処理部143に供給する。 When the on / off information from the on / off determination unit 141 indicates off, the category classification unit 142 stores the pixel value after the deblocking filter processing from the on / off determination unit 141 as it is in the offset processing unit 143. Supply.
 オフセット処理部143は、on/off決定部141からのon/offの情報がonを示す場合、カテゴリ分類部142からのデブロックフィルタ処理後画素値に対して適応オフセット処理を施す。オフセット処理部143は、適応オフセット処理後画素値を、適応ループフィルタ71に供給する。 When the on / off information from the on / off determination unit 141 indicates on, the offset processing unit 143 performs adaptive offset processing on the pixel value after the deblocking filter processing from the category classification unit 142. The offset processing unit 143 supplies the pixel value after adaptive offset processing to the adaptive loop filter 71.
 すなわち、オフセット処理部143は、設定されたオフセットの種類と分類されたカテゴリとで、画面並べ替えバッファ12からの画素値と、カテゴリ分類部142からのデブロックフィルタ処理後画素値とを用いて、オフセット値を求める。 That is, the offset processing unit 143 uses the pixel value from the screen rearrangement buffer 12 and the pixel value after the deblocking filter processing from the category classification unit 142 for the set offset type and the classified category. Find the offset value.
 オフセット処理部143は、カテゴリ分類部142からのデブロックフィルタ処理後画素値に対して、設定されたオフセットの種類、分類されたカテゴリ、および求めたオフセット値でオフセット処理を施す。オフセット処理部143は、また、求めたオフセット値を、可逆符号化部16に供給する。 The offset processing unit 143 performs offset processing on the pixel value after the deblocking filter processing from the category classification unit 142 with the set offset type, the classified category, and the obtained offset value. The offset processing unit 143 also supplies the obtained offset value to the lossless encoding unit 16.
 また、on/off決定部141からのon/offの情報がoffを示す場合、オフセット処理部143は、カテゴリ分類部142からのデブロックフィルタ処理後画素値をそのまま(オフセット処理を施さずに)、適応ループフィルタ71に供給する。 When the on / off information from the on / off determination unit 141 indicates off, the offset processing unit 143 uses the pixel value after the deblocking filter processing from the category classification unit 142 as it is (without performing the offset processing). To the adaptive loop filter 71.
 可逆符号化部16は、TUサイズ決定部136からのTUサイズに関する情報を、符号化ストリームに付加する。可逆符号化部16は、on/off決定部141からのon/offの情報と、オフセット処理部143からのオフセット値の情報(on/offの情報がonを示す場合)とを、適応オフセットパラメータとして、符号化ストリームに付加する。 The lossless encoding unit 16 adds information on the TU size from the TU size determination unit 136 to the encoded stream. The lossless encoding unit 16 uses the on / off information from the on / off determination unit 141 and the offset value information from the offset processing unit 143 (when the on / off information indicates on) as an adaptive offset parameter. Is added to the encoded stream.
[符号化処理の流れ]
 次に、以上のような画像符号化装置101により実行される各処理の流れについて説明する。最初に、図17のフローチャートを参照して、符号化処理の流れの例を説明する。
[Flow of encoding process]
Next, the flow of each process executed by the image encoding device 101 as described above will be described. First, an example of the flow of encoding processing will be described with reference to the flowchart of FIG.
 ステップS101において、A/D変換部11は入力された画像をA/D変換する。ステップS102において、画面並べ替えバッファ12は、A/D変換された画像を記憶し、各ピクチャの表示する順番から符号化する順番への並べ替えを行う。 In step S101, the A / D conversion unit 11 performs A / D conversion on the input image. In step S102, the screen rearrangement buffer 12 stores the A / D converted image, and rearranges the picture from the display order to the encoding order.
 画面並べ替えバッファ12から供給される処理対象の画像がイントラ処理されるブロックの画像である場合、参照される復号済みの画像がフレームメモリ22から読み出され、選択部23を介してイントラ予測部24に供給される。 When the image to be processed supplied from the screen rearrangement buffer 12 is an image of a block to be intra-processed, the decoded image to be referred to is read from the frame memory 22 and the intra-prediction unit via the selection unit 23 24.
 これらの画像に基づいて、ステップS103において、イントラ予測部24は処理対象のブロックの画素を、候補となる全てのイントラ予測モードでイントラ予測する。なお、参照される復号済みの画素としては、デブロックフィルタ21、適応オフセット部113、および適応ループフィルタ71によりフィルタやオフセットされていない画素が用いられる。 Based on these images, in step S103, the intra prediction unit 24 performs intra prediction on the pixels of the block to be processed in all candidate intra prediction modes. As decoded pixels to be referred to, pixels that are not filtered or offset by the deblock filter 21, the adaptive offset unit 113, and the adaptive loop filter 71 are used.
 この処理により、候補となる全てのイントラ予測モードでイントラ予測が行われ、候補となる全てのイントラ予測モードに対して、式(1)または式(2)に示されるコスト関数が用いられて、コスト関数値が算出される。そして、算出されたコスト関数値に基づいて、最適イントラ予測モードが選択され、最適イントラ予測モードのイントラ予測により生成された予測画像とそのコスト関数値が予測画像選択部26に供給される。 With this process, intra prediction is performed in all candidate intra prediction modes, and the cost function shown in the equation (1) or equation (2) is used for all candidate intra prediction modes, A cost function value is calculated. Then, based on the calculated cost function value, the optimal intra prediction mode is selected, and the predicted image generated by the intra prediction in the optimal intra prediction mode and its cost function value are supplied to the predicted image selection unit 26.
 画面並べ替えバッファ12から供給される処理対象の画像がインター処理される画像である場合、参照される画像がフレームメモリ22から読み出され、選択部23を介して動き予測・補償部25に供給される。これらの画像に基づいて、ステップS104において、動き予測・補償部25は、動き予測・補償処理を行う。 When the processing target image supplied from the screen rearrangement buffer 12 is an inter-processed image, the referenced image is read from the frame memory 22 and supplied to the motion prediction / compensation unit 25 via the selection unit 23. Is done. Based on these images, in step S104, the motion prediction / compensation unit 25 performs motion prediction / compensation processing.
 この処理により、候補となる全てのインター予測モードで動き予測処理が行われ、候補となる全てのインター予測モードに対して、式(1)または式(2)に示されるコスト関数が用いられて、コスト関数値が算出される。そして、算出したコスト関数値に基づいて、最適インター予測モードが決定され、最適インター予測モードにより生成された予測画像とそのコスト関数値が予測画像選択部26に供給される。 By this processing, motion prediction processing is performed in all candidate inter prediction modes, and the cost function shown in Equation (1) or Equation (2) is used for all candidate inter prediction modes. A cost function value is calculated. Based on the calculated cost function value, the optimal inter prediction mode is determined, and the predicted image generated in the optimal inter prediction mode and its cost function value are supplied to the predicted image selection unit 26.
 ステップS105において、予測画像選択部26は、イントラ予測部24および動き予測・補償部25より出力された各コスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちの一方を、最適予測モードに決定する。そして、予測画像選択部26は、決定した最適予測モードの予測画像を選択し、演算部13,20に供給する。この予測画像は、後述するステップS106,S112の演算に利用される。 In step S <b> 105, the predicted image selection unit 26 optimizes one of the optimal intra prediction mode and the optimal inter prediction mode based on the cost function values output from the intra prediction unit 24 and the motion prediction / compensation unit 25. Determine the prediction mode. Then, the predicted image selection unit 26 selects the predicted image in the determined optimal prediction mode and supplies it to the calculation units 13 and 20. This predicted image is used for calculations in steps S106 and S112 described later.
 なお、この予測画像の選択情報は、イントラ予測部24または動き予測・補償部25に供給される。最適イントラ予測モードの予測画像が選択された場合、イントラ予測部24は、最適イントラ予測モードを示す情報(すなわち、イントラ予測モード情報)を、可逆符号化部16に供給する。 Note that the prediction image selection information is supplied to the intra prediction unit 24 or the motion prediction / compensation unit 25. When the prediction image in the optimal intra prediction mode is selected, the intra prediction unit 24 supplies information indicating the optimal intra prediction mode (that is, intra prediction mode information) to the lossless encoding unit 16.
 最適インター予測モードの予測画像が選択された場合、動き予測・補償部25は、最適インター予測モードを示す情報と、さらに、必要に応じて、最適インター予測モードに応じた情報を可逆符号化部16に出力する。最適インター予測モードに応じた情報としては、動きベクトル情報や参照フレーム情報などがあげられる。 When the prediction image of the optimal inter prediction mode is selected, the motion prediction / compensation unit 25 further includes information indicating the optimal inter prediction mode and, if necessary, information corresponding to the optimal inter prediction mode as a lossless encoding unit. 16 is output. Information according to the optimal inter prediction mode includes motion vector information and reference frame information.
 ステップS106において、演算部13は、ステップS102で並び替えられた画像と、ステップS105で選択された予測画像との差分を演算する。予測画像は、インター予測する場合は動き予測・補償部25から、イントラ予測する場合はイントラ予測部24から、それぞれ予測画像選択部26を介して演算部13に供給される。 In step S106, the calculation unit 13 calculates a difference between the image rearranged in step S102 and the predicted image selected in step S105. The predicted image is supplied from the motion prediction / compensation unit 25 in the case of inter prediction, and from the intra prediction unit 24 in the case of intra prediction, to the calculation unit 13 via the predicted image selection unit 26, respectively.
 差分データは元の画像データに較べてデータ量が小さくなっている。したがって、画像をそのまま符号化する場合に較べて、データ量を圧縮することができる。 差分 Difference data has a smaller data volume than the original image data. Therefore, the data amount can be compressed as compared with the case where the image is encoded as it is.
 ステップS107において、直交変換部111は、直交変換サイズを決定する。すなわち、4×4直交変換部131は、演算部13からの差分情報に対して、4×4TUサイズで直交変換を施し、その変換係数をコスト関数算出部135に供給する。8×8直交変換部132は、演算部13からの差分情報に対して、8×8TUサイズで直交変換を施し、その変換係数をコスト関数算出部135に供給する。16×16直交変換部133は、演算部13からの差分情報に対して、16×16TUサイズで直交変換を施し、その変換係数をコスト関数算出部135に供給する。32×32直交変換部134は、演算部13からの差分情報に対して、32×32TUサイズで直交変換を施し、その変換係数をコスト関数算出部135に供給する。 In step S107, the orthogonal transform unit 111 determines an orthogonal transform size. That is, the 4 × 4 orthogonal transform unit 131 performs orthogonal transform on the difference information from the calculation unit 13 with a 4 × 4 TU size, and supplies the transform coefficient to the cost function calculation unit 135. The 8 × 8 orthogonal transform unit 132 performs orthogonal transform on the difference information from the calculation unit 13 with an 8 × 8 TU size, and supplies the transform coefficient to the cost function calculation unit 135. The 16 × 16 orthogonal transform unit 133 performs orthogonal transform on the difference information from the calculation unit 13 with a 16 × 16 TU size, and supplies the transform coefficient to the cost function calculation unit 135. The 32 × 32 orthogonal transform unit 134 performs orthogonal transform on the difference information from the calculation unit 13 with a 32 × 32 TU size, and supplies the transform coefficient to the cost function calculation unit 135.
 コスト関数算出部135は、各TUサイズの変換係数を用いてコスト関数値を算出し、各TUサイズの変換係数と、対応するコスト関数値をTUサイズ決定部136に供給する。TUサイズ決定部136は、コスト関数算出部135により算出されたコスト関数値に基づいて、当該ブロックに対する最適TUサイズを決定する。TUサイズ決定部136は、決定したTUサイズの情報を、クラス分類部112および可逆符号化部16に供給する。 The cost function calculation unit 135 calculates the cost function value using the conversion coefficient of each TU size, and supplies the conversion coefficient of each TU size and the corresponding cost function value to the TU size determination unit 136. The TU size determination unit 136 determines an optimal TU size for the block based on the cost function value calculated by the cost function calculation unit 135. The TU size determination unit 136 supplies information on the determined TU size to the class classification unit 112 and the lossless encoding unit 16.
 ステップS108において、TUサイズ決定部136は、直交変換を行う。例えば、TUサイズ決定部136は、ステップS107により決定したTUサイズで直交変換を行い、その直交変換係数を、量子化部15に供給する。 In step S108, the TU size determination unit 136 performs orthogonal transformation. For example, the TU size determination unit 136 performs orthogonal transform with the TU size determined in step S <b> 107 and supplies the orthogonal transform coefficient to the quantization unit 15.
 ステップS109において、量子化部15は変換係数を量子化する。量子化部15は、後述するステップS119の処理で説明されるように、レート制御部27から供給される符号量の目標値に関する情報に基づいて量子化パラメータを設定し、量子化を行う。 In step S109, the quantization unit 15 quantizes the transform coefficient. The quantization unit 15 sets the quantization parameter based on the information regarding the target value of the code amount supplied from the rate control unit 27 and performs quantization, as will be described in the process of step S119 described later.
 以上のようにして量子化された差分情報は、次のようにして局部的に復号される。すなわち、ステップS110において、逆量子化部18は、量子化部15により量子化された変換係数を量子化部15の特性に対応する特性で逆量子化する。ステップS111において、逆直交変換部19は、逆量子化部18により逆量子化された変換係数を直交変換部14の特性に対応する特性で逆直交変換する。 The difference information quantized as described above is locally decoded as follows. That is, in step S110, the inverse quantization unit 18 inversely quantizes the transform coefficient quantized by the quantization unit 15 with characteristics corresponding to the characteristics of the quantization unit 15. In step S <b> 111, the inverse orthogonal transform unit 19 performs inverse orthogonal transform on the transform coefficient inversely quantized by the inverse quantization unit 18 with characteristics corresponding to the characteristics of the orthogonal transform unit 14.
 ステップS112において、演算部20は、予測画像選択部26を介して入力される予測画像を局部的に復号された差分情報に加算し、局部的に復号された(すなわち、ローカルデコードされた)画像(演算部13への入力に対応する画像)を生成する。 In step S112, the calculation unit 20 adds the predicted image input via the predicted image selection unit 26 to the locally decoded difference information, and the locally decoded (that is, locally decoded) image. (An image corresponding to the input to the calculation unit 13) is generated.
 ステップS113において、デブロックフィルタ21は、演算部20からの画像に対して、デブロック処理を行い、デブロック処理後画素値を、適応オフセット部113に供給する。この処理により、ブロック歪みが抑制される。 In step S113, the deblocking filter 21 performs a deblocking process on the image from the calculation unit 20, and supplies the pixel value after the deblocking process to the adaptive offset unit 113. By this processing, block distortion is suppressed.
 ステップS114において、クラス分類部112および適応オフセット部113は、ステップS107により決定された直交変換サイズに応じて、適応オフセット処理を行う。この適応オフセット処理の詳細は、図18を参照して後述する。 In step S114, the class classification unit 112 and the adaptive offset unit 113 perform an adaptive offset process according to the orthogonal transform size determined in step S107. Details of the adaptive offset processing will be described later with reference to FIG.
 ステップS114の処理により、適応オフセット処理後画素値が、適応ループフィルタ71に供給される。また、適応オフセット処理のon/offを示す情報とオフセット値を示す情報とが、可逆符号化部16に供給される。この適応オフセット処理により、リンギングなどが抑制される。 The pixel value after adaptive offset processing is supplied to the adaptive loop filter 71 by the processing in step S114. Information indicating on / off of the adaptive offset processing and information indicating the offset value are supplied to the lossless encoding unit 16. Ringing and the like are suppressed by this adaptive offset processing.
 ステップS115において、適応ループフィルタ71は、適応オフセット処理後画素値に対して、適応ループフィルタを行い、適応ループフィルタ後画素値を、フレームメモリ22に供給する。 In step S115, the adaptive loop filter 71 performs an adaptive loop filter on the pixel value after the adaptive offset process, and supplies the pixel value after the adaptive loop filter to the frame memory 22.
 例えば、適応ループフィルタ71は、画面並べ替えバッファ12からの原画像(図示は省略)との残差を最小とするよう、適応ループフィルタ係数の算出を行い、この適応ループフィルタ係数を用いて、適応オフセット部113からの復号画像にフィルタ処理を行う。また、図示しないが、適応ループフィルタ71は、算出した適応ループフィルタ係数を、可逆符号化部16に送る。 For example, the adaptive loop filter 71 calculates the adaptive loop filter coefficient so as to minimize the residual with the original image (not shown) from the screen rearrangement buffer 12, and uses the adaptive loop filter coefficient to Filter processing is performed on the decoded image from the adaptive offset unit 113. Although not shown, the adaptive loop filter 71 sends the calculated adaptive loop filter coefficient to the lossless encoding unit 16.
 ステップS116においてフレームメモリ22は、フィルタリングされた画像を記憶する。なお、フレームメモリ22には、デブロックフィルタ21、適応オフセット部113、および適応ループフィルタ71によりフィルタやオフセットされていない画像も演算部20から供給され、記憶される。 In step S116, the frame memory 22 stores the filtered image. In the frame memory 22, images that are not filtered or offset by the deblocking filter 21, the adaptive offset unit 113, and the adaptive loop filter 71 are also supplied from the arithmetic unit 20 and stored.
 一方、上述したステップS109において量子化された変換係数は、可逆符号化部16にも供給される。ステップS117において、可逆符号化部16は量子化部15より出力された量子化された変換係数を符号化する。すなわち、差分画像が可変長符号化、算術符号化等の可逆符号化され、圧縮される。 On the other hand, the transform coefficient quantized in step S109 described above is also supplied to the lossless encoding unit 16. In step S117, the lossless encoding unit 16 encodes the quantized transform coefficient output from the quantization unit 15. That is, the difference image is subjected to lossless encoding such as variable length encoding and arithmetic encoding, and is compressed.
 また、このとき、上述したステップS105において可逆符号化部16に入力された、イントラ予測部24からのイントラ予測モード情報、または、動き予測・補償部25からの最適インター予測モードに応じた情報なども符号化され、ヘッダ情報に付加される。さらに、上述したステップS107において可逆符号化部16に入力された直交変換サイズを示す情報、上述したステップS114において可逆符号化部16に入力されたon/offを示す情報、オフセットの情報も、符号化され、ヘッダ情報に付加される。 At this time, the intra prediction mode information from the intra prediction unit 24 or the information corresponding to the optimal inter prediction mode from the motion prediction / compensation unit 25 input to the lossless encoding unit 16 in step S105 described above, etc. Is also encoded and added to the header information. Furthermore, the information indicating the orthogonal transform size input to the lossless encoding unit 16 in step S107 described above, the information indicating on / off input to the lossless encoding unit 16 in step S114 described above, and the offset information are also encoded. And added to the header information.
 例えば、インター予測モードを示す情報は、LCU毎に符号化される。動きベクトル情報や参照フレーム情報は、対象となるPU毎に符号化される。 For example, information indicating the inter prediction mode is encoded for each LCU. Motion vector information and reference frame information are encoded for each target PU.
 ステップS118において蓄積バッファ17は差分画像を圧縮画像として蓄積する。蓄積バッファ17に蓄積された圧縮画像が適宜読み出され、伝送路を介して復号側に伝送される。 In step S118, the accumulation buffer 17 accumulates the difference image as a compressed image. The compressed image stored in the storage buffer 17 is appropriately read out and transmitted to the decoding side via the transmission path.
 ステップS119においてレート制御部27は、蓄積バッファ17に蓄積された圧縮画像に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部15の量子化動作のレートを制御する。 In step S119, the rate control unit 27 controls the quantization operation rate of the quantization unit 15 based on the compressed image stored in the storage buffer 17 so that overflow or underflow does not occur.
 ステップS119の処理が終了すると、符号化処理が終了される。 When the process of step S119 ends, the encoding process ends.
[適応オフセット処理の流れ]
 次に、図18のフローチャートを参照して、図17のステップS114において実行される適応オフセット処理の流れの例を説明する。
[Flow of adaptive offset processing]
Next, an example of the flow of the adaptive offset process executed in step S114 in FIG. 17 will be described with reference to the flowchart in FIG.
 図17のステップS108の処理により、直交変換部111のTUサイズ決定部136は、TUサイズに関する情報をクラス分類部112に供給してくる。ステップS151において、供給されたTUサイズに応じて、上述した本技術による方法により、クラス分類部112は、当該ブロック(例えば、TU)に、エッジオフセット(EO)と、バンドオフセット(BO)のどちらを適用するかを設定する。クラス分類部112は、設定したオフセットの種類の情報を、on/off決定部141に供給する。 17, the TU size determination unit 136 of the orthogonal transform unit 111 supplies information related to the TU size to the class classification unit 112 by the process of step S108 in FIG. In step S151, according to the method of the present technology described above according to the supplied TU size, the class classification unit 112 determines whether the block (for example, TU) has an edge offset (EO) or a band offset (BO). Set whether to apply. The class classification unit 112 supplies the set offset type information to the on / off determination unit 141.
 ステップS152において、on/off決定部141は、デブロックフィルタ21からのデブロックフィルタ処理後画素値を用いて、このTUに対して、適応オフセット処理のon/offを決定する。 In step S152, the on / off determination unit 141 determines on / off of the adaptive offset processing for this TU using the pixel value after the deblocking filter processing from the deblocking filter 21.
 例えば、on/off決定部141は、クラス分類部112により設定されたオフセットの種類による適応オフセット処理でのコスト関数値と、適応オフセット処理なしでのコスト関数値とを算出する。そして、on/off決定部141は、算出したコスト関数値に基づいて、適応オフセット処理のon/offを決定する。on/off決定部141は、デブロックフィルタ21からのデブロックフィルタ処理後画素値と、決定したon/offの情報とをカテゴリ分類部142に供給する。 For example, the on / off determination unit 141 calculates the cost function value in the adaptive offset process according to the type of offset set by the class classification unit 112 and the cost function value without the adaptive offset process. Then, the on / off determination unit 141 determines on / off of the adaptive offset process based on the calculated cost function value. The on / off determination unit 141 supplies the pixel value after the deblocking filter processing from the deblocking filter 21 and the determined on / off information to the category classification unit 142.
 ステップS153において、on/off決定部141は、決定したon/offの情報を可逆符号化部16に供給し、on/offの情報を符号化させる。 In step S153, the on / off determination unit 141 supplies the determined on / off information to the lossless encoding unit 16, and encodes the on / off information.
 ステップS154において、カテゴリ分類部142は、on/off決定部141からのon/offの情報に基づいて、当該TUに対して、適応オフセットフィルタがonであるか否かを判定する。ステップS154において、適応オフセットフィルタがonであると判定された場合、処理は、ステップS155に進む。 In step S154, the category classification unit 142 determines whether the adaptive offset filter is on for the TU based on on / off information from the on / off determination unit 141. If it is determined in step S154 that the adaptive offset filter is on, the process proceeds to step S155.
 ステップS155において、カテゴリ分類部142は、on/off決定部141からのデブロックフィルタ処理後画素値を用いて、クラス分類部112により設定されたオフセットの種類におけるカテゴリを分類する。カテゴリ分類部142は、分類したカテゴリを示す情報と、デブロックフィルタ処理後画素値とを、オフセット処理部143に供給する。 In step S155, the category classification unit 142 uses the pixel value after the deblocking filter processing from the on / off determination unit 141 to classify the category in the offset type set by the class classification unit 112. The category classification unit 142 supplies information indicating the classified category and the pixel value after deblocking filter processing to the offset processing unit 143.
 ステップS156において、オフセット処理部143は、オフセット値を求め、オフセット処理を行う。すなわち、オフセット処理部143は、設定されたオフセットの種類と分類されたカテゴリとで、画面並べ替えバッファ12からの画素値と、カテゴリ分類部142からのデブロックフィルタ処理後画素値とを用いて、オフセット値を求める。 In step S156, the offset processing unit 143 obtains an offset value and performs an offset process. That is, the offset processing unit 143 uses the pixel value from the screen rearrangement buffer 12 and the pixel value after the deblocking filter processing from the category classification unit 142 for the set offset type and the classified category. Find the offset value.
 そして、カテゴリ分類部142からのデブロックフィルタ処理後画素値に対して、設定されたオフセットの種類、分類されたカテゴリ、および求めたオフセット値でオフセット処理を施す。オフセット処理部143は、適応オフセット処理後画素値を、適応ループフィルタ71に供給する。 Then, the pixel value after deblocking filter processing from the category classification unit 142 is subjected to offset processing with the set offset type, the classified category, and the obtained offset value. The offset processing unit 143 supplies the pixel value after adaptive offset processing to the adaptive loop filter 71.
 ステップS157において、オフセット処理部143は、求めたオフセット値を、可逆符号化部16に供給し、オフセット値を示す情報を符号化させる。 In step S157, the offset processing unit 143 supplies the obtained offset value to the lossless encoding unit 16, and encodes information indicating the offset value.
 一方、ステップS154において、適応オフセットフィルタがoffであると判定された場合、適応オフセット処理は終了する。すなわち、この場合、カテゴリ分類部142は、on/off決定部141からのデブロックフィルタ処理後画素値をそのままオフセット処理部143に供給する。また、オフセット処理部143は、カテゴリ分類部142からのデブロックフィルタ処理後画素値をそのまま(オフセット処理を施さずに)、適応ループフィルタ71に供給する。 On the other hand, if it is determined in step S154 that the adaptive offset filter is off, the adaptive offset processing ends. That is, in this case, the category classification unit 142 supplies the pixel value after the deblocking filter processing from the on / off determination unit 141 to the offset processing unit 143 as it is. Further, the offset processing unit 143 supplies the pixel value after the deblocking filter processing from the category classification unit 142 to the adaptive loop filter 71 as it is (without performing the offset processing).
 以上のように、画像符号化装置101においては、ブロック(例えば、TU)の大きさに応じて、エッジオフセットであるか、バンドオフセットであるかが設定される。したがって、領域分割およびエッジオフセットであるか、バンドオフセットであるかの情報(すなわち、図8を参照して上述したquad-tree構造のマップ情報)を、復号側へ送る必要がないので、符号化効率を向上させることができる。 As described above, in the image encoding device 101, whether it is an edge offset or a band offset is set according to the size of a block (for example, TU). Therefore, since it is not necessary to send the information indicating whether it is a region division and edge offset or band offset (that is, the map information of the quad-tree structure described above with reference to FIG. 8) to the decoding side, encoding is performed. Efficiency can be improved.
<3.第2の実施の形態>
[画像復号装置]
 図19は、本開示を適用した画像処理装置としての画像復号装置の一実施の形態の構成を表している。図19に示される画像復号装置201は、図12の画像符号化装置101に対応する復号装置である。
<3. Second Embodiment>
[Image decoding device]
FIG. 19 illustrates a configuration of an embodiment of an image decoding device as an image processing device to which the present disclosure is applied. An image decoding apparatus 201 shown in FIG. 19 is a decoding apparatus corresponding to the image encoding apparatus 101 in FIG.
 画像符号化装置101より符号化された符号化データは、所定の伝送路を介して、この画像符号化装置101に対応する画像復号装置201に伝送され、復号されるものとする。 Assume that encoded data encoded by the image encoding device 101 is transmitted to an image decoding device 201 corresponding to the image encoding device 101 via a predetermined transmission path and decoded.
 図19の画像復号装置201は、蓄積バッファ41、可逆復号部42、逆量子化部43、演算部45、およびデブロックフィルタ46を備える点で、図2の画像復号装置31と共通している。図19の画像復号装置201は、画面並べ替えバッファ47、D/A変換部48、フレームメモリ49、選択部50、イントラ予測部51、動き補償部52、および画像選択部53を備える点で、図2の画像復号装置31と共通している。 The image decoding device 201 in FIG. 19 is common to the image decoding device 31 in FIG. 2 in that the storage buffer 41, the lossless decoding unit 42, the inverse quantization unit 43, the calculation unit 45, and the deblocking filter 46 are provided. . The image decoding apparatus 201 in FIG. 19 includes a screen rearrangement buffer 47, a D / A conversion unit 48, a frame memory 49, a selection unit 50, an intra prediction unit 51, a motion compensation unit 52, and an image selection unit 53. It is common with the image decoding apparatus 31 of FIG.
 また、図19の画像復号装置201は、図4の適応ループフィルタ91が追加された点で、図2の画像復号装置31と異なっている。 19 is different from the image decoding device 31 in FIG. 2 in that an adaptive loop filter 91 in FIG. 4 is added.
 さらに、図19の画像復号装置201は、逆直交変換部44が逆直交変換部211に入れ替わった点、並びに、クラス分類部212および適応オフセット部213が追加された点で、図2の画像復号装置31と異なっている。 Furthermore, the image decoding apparatus 201 in FIG. 19 is different from the image decoding in FIG. 2 in that the inverse orthogonal transform unit 44 is replaced with the inverse orthogonal transform unit 211 and that the class classification unit 212 and the adaptive offset unit 213 are added. Different from the device 31.
 すなわち、可逆復号部42は、図2の可逆復号部42と同様に、蓄積バッファ41より供給された、図12の可逆符号化部16により符号化された情報を、可逆符号化部16の符号化方式に対応する方式で復号する。このとき、図21の例においては、動きベクトル情報、参照フレーム情報、予測モード情報(イントラ予測モード、またはインター予測モードを示す情報)、TU(直交変換)サイズに関する情報、適応オフセットパラメータなども復号される。 That is, the lossless decoding unit 42 converts the information supplied from the accumulation buffer 41 and encoded by the lossless encoding unit 16 of FIG. 12 into the code of the lossless encoding unit 16 as in the case of the lossless decoding unit 42 of FIG. Decoding is performed using a method corresponding to the conversion method. At this time, in the example of FIG. 21, motion vector information, reference frame information, prediction mode information (information indicating an intra prediction mode or an inter prediction mode), information on a TU (orthogonal transform) size, an adaptive offset parameter, and the like are also decoded. Is done.
 適応オフセットパラメータは、上述したように、図12の可逆符号化部16により符号化された適応オフセット処理のon/offを示す情報(以下、on/offフラグとも称する)とオフセット値を示す情報などで構成される。適応オフセットパラメータは、適応オフセット部213に供給される。また、可逆復号部42は、TUサイズに関する情報を、逆直交変換部211に供給する。 As described above, the adaptive offset parameter includes information indicating on / off of the adaptive offset processing (hereinafter, also referred to as an on / off flag) encoded by the lossless encoding unit 16 in FIG. 12, information indicating an offset value, and the like. Consists of. The adaptive offset parameter is supplied to the adaptive offset unit 213. Further, the lossless decoding unit 42 supplies information regarding the TU size to the inverse orthogonal transform unit 211.
 逆直交変換部211は、可逆復号部42からのTUサイズに対応する逆直交変換を行い、図12の画像符号化装置101において直交変換される前の残差データに対応する復号残差データを得る。逆直交変換されて得られた復号残差データは、演算部45に供給される。また、逆直交変換部211は、可逆復号部42からのTUサイズに関する情報を、クラス分類部212に供給する。 The inverse orthogonal transform unit 211 performs inverse orthogonal transform corresponding to the TU size from the lossless decoding unit 42, and the decoded residual data corresponding to the residual data before being orthogonally transformed by the image encoding device 101 in FIG. obtain. The decoded residual data obtained by the inverse orthogonal transform is supplied to the calculation unit 45. Further, the inverse orthogonal transform unit 211 supplies the class classification unit 212 with information regarding the TU size from the lossless decoding unit 42.
 クラス分類部212は、図12のクラス分類部112と同様に構成される。すなわち、クラス分類部212は、逆直交変換部211からのTUサイズに応じて、クラス分類を行う。クラス分類部212におけるクラス分類とは、オフセットの種類の設定(分類)である。すなわち、クラス分類部212は、逆直交変換部211からのTUサイズに応じて、エッジオフセット(EO)を適用するのか、バンドオフセット(BO)を適用するのかを設定する。クラス分類部212は、設定したオフセットの種類を示す情報を、適応オフセット部213に供給する。 The class classification unit 212 is configured similarly to the class classification unit 112 of FIG. That is, the class classification unit 212 performs class classification according to the TU size from the inverse orthogonal transform unit 211. The class classification in the class classification unit 212 is setting (classification) of the type of offset. That is, the class classification unit 212 sets whether to apply edge offset (EO) or band offset (BO) according to the TU size from the inverse orthogonal transform unit 211. The class classification unit 212 supplies information indicating the set offset type to the adaptive offset unit 213.
 デブロックフィルタ46、適応オフセット部213、および適応ループフィルタ91は、その順に、動き補償ループ内に設けられている。動き補償ループとは、演算部45、フレームメモリ49、選択部50、動き補償部52、および画像選択部53からなるブロックである。なお、以下、動き補償ループ内における、デブロックフィルタ46、適応オフセット部213、および適応ループフィルタ91が行うフィルタ処理を、インループフィルタ処理とも総称する。 The deblock filter 46, the adaptive offset unit 213, and the adaptive loop filter 91 are provided in the motion compensation loop in that order. The motion compensation loop is a block composed of a calculation unit 45, a frame memory 49, a selection unit 50, a motion compensation unit 52, and an image selection unit 53. Hereinafter, the filter processing performed by the deblock filter 46, the adaptive offset unit 213, and the adaptive loop filter 91 in the motion compensation loop is also collectively referred to as in-loop filter processing.
 適応オフセット部213には、可逆復号部42からの適応オフセットパラメータである、適応オフセット処理のon/offフラグとオフセット値を示す情報が供給される。適応オフセット部213は、それらの情報を用いて、デブロックフィルタ46からの復号画像の画素値に対してオフセット処理を行い、オフセット処理後の画素値を、適応ループフィルタ91に供給する。 The adaptive offset unit 213 is supplied with information indicating the on / off flag of the adaptive offset process and the offset value, which are the adaptive offset parameters from the lossless decoding unit 42. The adaptive offset unit 213 performs offset processing on the pixel value of the decoded image from the deblocking filter 46 using the information, and supplies the pixel value after the offset processing to the adaptive loop filter 91.
 すなわち、エッジオフセット(EO)を適用するのか、バンドオフセット(BO)を適用するのかは、逆直交変換部211からのTUサイズに応じてクラス分類部212により設定されている。したがって、適応オフセット部213は、可逆復号部42からのon/offフラグがonを示す場合、デブロックフィルタ後画素値を用いて、クラス分類部212により設定されたオフセットの種類で、カテゴリ分類する。そして、適応オフセット部213は、設定されたオフセットの種類で、分類されたカテゴリで、可逆復号部42からのオフセット値で、デブロックフィルタ後画素値に対してオフセット処理を行う。適応オフセット部213は、オフセット処理後画素値を、適応ループフィルタ91に供給する。 That is, whether to apply edge offset (EO) or band offset (BO) is set by the class classification unit 212 according to the TU size from the inverse orthogonal transform unit 211. Therefore, when the on / off flag from the lossless decoding unit 42 indicates “on”, the adaptive offset unit 213 performs category classification based on the offset type set by the class classification unit 212 using the pixel value after the deblocking filter. . Then, the adaptive offset unit 213 performs offset processing on the pixel value after the deblocking filter with the offset value from the lossless decoding unit 42 in the classified category with the set offset type. The adaptive offset unit 213 supplies the post-offset pixel value to the adaptive loop filter 91.
 適応ループフィルタ91は、その図示は省略するが、可逆復号部42から復号され、ヘッダから抽出された適応ループフィルタ係数が供給される。適応ループフィルタ91は供給されたフィルタ係数を用いて、適応オフセット部213からの復号画像にフィルタ処理を行う。 Although the illustration of the adaptive loop filter 91 is omitted, the adaptive loop filter coefficient decoded by the lossless decoding unit 42 and extracted from the header is supplied. The adaptive loop filter 91 performs a filtering process on the decoded image from the adaptive offset unit 213 using the supplied filter coefficient.
 なお、クラス分類部212および適応オフセット部213における、本技術に関連する基本的な動作原理は、図12のクラス分類部112および適応オフセット部113と同様である。ただし、図12に示された画像符号化装置101においては、モード判定によりTUサイズ(もしくはPUサイズ)の決定が行われ、これによって、適応オフセット処理のクラス分類が行われる。 Note that the basic operation principles related to the present technology in the class classification unit 212 and the adaptive offset unit 213 are the same as those of the class classification unit 112 and the adaptive offset unit 113 in FIG. However, in the image encoding device 101 shown in FIG. 12, the TU size (or PU size) is determined by the mode determination, and thereby classifying the adaptive offset processing.
 一方、図19に示される画像復号装置201においては、TUサイズ(もしくはPUサイズ)に関する情報が、符号化ストリームに付加されて、符号化側から送られてくる。したがって、画像復号装置201においては、これらの情報を復号することにより得られ、得られたサイズに関する情報により、適応オフセット処理のクラス分類が行われることになる。 On the other hand, in the image decoding apparatus 201 shown in FIG. 19, information on the TU size (or PU size) is added to the encoded stream and sent from the encoding side. Therefore, the image decoding apparatus 201 obtains the information by decoding the information, and classifies the adaptive offset process based on the obtained size information.
[逆直交変換部および適応オフセット部の構成例]
 次に、画像復号装置201の各部について説明する。図20は、逆直交変換部211および適応オフセット部213の構成例を示すブロック図である。
[Configuration example of inverse orthogonal transform unit and adaptive offset unit]
Next, each unit of the image decoding device 201 will be described. FIG. 20 is a block diagram illustrating a configuration example of the inverse orthogonal transform unit 211 and the adaptive offset unit 213.
 図20の例において、逆直交変換部211は、TUサイズバッファ231、4×4逆直交変換部232、8×8逆直交変換部233、16×16逆直交変換部234、および32×32逆直交変換部235を含むように構成される。 In the example of FIG. 20, the inverse orthogonal transform unit 211 includes a TU size buffer 231, a 4 × 4 inverse orthogonal transform unit 232, an 8 × 8 inverse orthogonal transform unit 233, a 16 × 16 inverse orthogonal transform unit 234, and a 32 × 32 inverse. An orthogonal transform unit 235 is included.
 図20の例において、適応オフセット部213は、on/offフラグバッファ241、カテゴリ分類部242、およびオフセット処理部243を含むように構成されている。 20, the adaptive offset unit 213 is configured to include an on / off flag buffer 241, a category classification unit 242, and an offset processing unit 243.
 可逆復号部42からの当該ブロック(TU)のTUサイズに関する情報は、TUサイズバッファ231に供給される。TUサイズバッファ231は、TUサイズに関する情報を、4×4逆直交変換部232、8×8逆直交変換部233、16×16逆直交変換部234、および32×32逆直交変換部235のうち、対応するサイズの逆直交変換部に供給する。これにより、対応するサイズの逆直交変換部は、enableとなり、逆量子化部43からの直交変換係数を逆直交変換し、画像符号化装置101において直交変換される前の残差データに対応する復号残差データを得る。 Information on the TU size of the block (TU) from the lossless decoding unit 42 is supplied to the TU size buffer 231. The TU size buffer 231 includes information on the TU size among the 4 × 4 inverse orthogonal transform unit 232, the 8 × 8 inverse orthogonal transform unit 233, the 16 × 16 inverse orthogonal transform unit 234, and the 32 × 32 inverse orthogonal transform unit 235. , To the inverse orthogonal transform unit of the corresponding size. As a result, the inverse orthogonal transform unit having the corresponding size becomes enable, and the orthogonal transform coefficient from the inverse quantization unit 43 is inversely orthogonal transformed to correspond to the residual data before being orthogonally transformed by the image coding apparatus 101. Decoding residual data is obtained.
 すなわち、逆量子化部43からの直交変換係数は、4×4逆直交変換部232、8×8逆直交変換部233、16×16逆直交変換部234、および32×32逆直交変換部235に供給される。 That is, the orthogonal transform coefficients from the inverse quantization unit 43 are 4 × 4 inverse orthogonal transform unit 232, 8 × 8 inverse orthogonal transform unit 233, 16 × 16 inverse orthogonal transform unit 234, and 32 × 32 inverse orthogonal transform unit 235. To be supplied.
 4×4逆直交変換部232は、TUサイズバッファ231からのTUサイズが4×4を示す場合、enableとなり、画像符号化装置101において直交変換される前の残差データに対応する復号残差データを得る。4×4逆直交変換部232は、得られた復号残差データ(差分値)を、演算部45に供給する。 The 4 × 4 inverse orthogonal transform unit 232 is enabled when the TU size from the TU size buffer 231 indicates 4 × 4, and the decoding residual corresponding to the residual data before being subjected to orthogonal transform in the image encoding device 101. Get the data. The 4 × 4 inverse orthogonal transform unit 232 supplies the obtained decoded residual data (difference value) to the calculation unit 45.
 8×8逆直交変換部233は、TUサイズバッファ231からのTUサイズが8×8を示す場合、enableとなり、画像符号化装置101において直交変換される前の残差データに対応する復号残差データを得る。8×8逆直交変換部233は、得られた復号残差データ(差分値)を、演算部45に供給する。 The 8 × 8 inverse orthogonal transform unit 233 is enabled when the TU size from the TU size buffer 231 indicates 8 × 8, and the decoding residual corresponding to the residual data before being subjected to orthogonal transform in the image encoding device 101. Get the data. The 8 × 8 inverse orthogonal transform unit 233 supplies the obtained decoded residual data (difference value) to the calculation unit 45.
 16×16逆直交変換部234は、TUサイズバッファ231からのTUサイズが16×16を示す場合、enableとなり、画像符号化装置101において直交変換される前の残差データに対応する復号残差データを得る。16×16逆直交変換部234は、得られた復号残差データ(差分値)を、演算部45に供給する。 The 16 × 16 inverse orthogonal transform unit 234 is enabled when the TU size from the TU size buffer 231 indicates 16 × 16, and the decoding residual corresponding to the residual data before being subjected to orthogonal transform in the image encoding device 101. Get the data. The 16 × 16 inverse orthogonal transform unit 234 supplies the obtained decoded residual data (difference value) to the calculation unit 45.
 32×32逆直交変換部235は、TUサイズバッファ231からのTUサイズが32×32を示す場合、enableとなり、画像符号化装置101において直交変換される前の残差データに対応する復号残差データを得る。32×32逆直交変換部235は、得られた復号残差データ(差分値)を、演算部45に供給する。 The 32 × 32 inverse orthogonal transform unit 235 is enabled when the TU size from the TU size buffer 231 indicates 32 × 32, and the decoding residual corresponding to the residual data before being orthogonally transformed in the image encoding device 101. Get the data. The 32 × 32 inverse orthogonal transform unit 235 supplies the obtained decoded residual data (difference value) to the calculation unit 45.
 TUサイズバッファ231からのTUサイズに関する情報は、クラス分類部212にも供給される。クラス分類部212は、図16のクラス分類部112と基本的に同様に構成される。すなわち、クラス分類部112は、TUサイズバッファ231からのTUサイズに基づいて、上述した本技術による方法により、当該ブロックに適用するオフセットの種類(エッジオフセットであるか、バンドオフセットであるか)を設定する。クラス分類部212は、設定したオフセットの種類の情報を、カテゴリ分類部242に供給する。 Information regarding the TU size from the TU size buffer 231 is also supplied to the class classification unit 212. The class classification unit 212 is basically configured similarly to the class classification unit 112 of FIG. That is, the class classification unit 112 determines the type of offset to be applied to the block (whether it is an edge offset or a band offset) based on the TU size from the TU size buffer 231 by the above-described method according to the present technology. Set. The class classification unit 212 supplies the set offset type information to the category classification unit 242.
 可逆復号部42からのon/offフラグは、on/offフラグバッファ241に供給される。可逆復号部42からのオフセット値は、オフセット処理部243に供給される。 The on / off flag from the lossless decoding unit 42 is supplied to the on / off flag buffer 241. The offset value from the lossless decoding unit 42 is supplied to the offset processing unit 243.
 on/offフラグバッファ241は、可逆復号部42からのon/offフラグを一旦蓄積し、所定のタイミングで、カテゴリ分類部242に供給する。カテゴリ分類部242には、さらに、エッジオフセット/エッジオフセットのどちらを適用するかを示す情報と、デブロックフィルタ46からのデブロックフィルタ処理後画素値が供給される。 The on / off flag buffer 241 temporarily stores the on / off flag from the lossless decoding unit 42 and supplies it to the category classification unit 242 at a predetermined timing. The category classification unit 242 is further supplied with information indicating which of the edge offset / edge offset is applied and the pixel value after deblocking filter processing from the deblocking filter 46.
 カテゴリ分類部242は、on/offフラグバッファ241からのon/offフラグがonを示す場合、デブロックフィルタ処理後画素値を用いて、クラス分類部212により設定されたオフセットの種類におけるカテゴリを分類する。カテゴリ分類部242は、分類したカテゴリを示す情報と、デブロックフィルタ処理後画素値とを、オフセット処理部243に供給する。 When the on / off flag from the on / off flag buffer 241 indicates “on”, the category classification unit 242 classifies the category in the offset type set by the class classification unit 212 using the pixel value after the deblocking filter processing. To do. The category classification unit 242 supplies information indicating the classified category and the pixel value after deblocking filter processing to the offset processing unit 243.
 また、on/offフラグバッファ241からのon/offフラグがoffを示す場合、カテゴリ分類部242は、on/offフラグバッファ241からのデブロックフィルタ処理後画素値をそのまま、オフセット処理部243に供給する。 When the on / off flag from the on / off flag buffer 241 indicates off, the category classification unit 242 supplies the pixel value after the deblocking filter processing from the on / off flag buffer 241 to the offset processing unit 243 as it is. To do.
 オフセット処理部243は、on/offフラグバッファ241からのon/offの情報がonを示す場合、カテゴリ分類部242からのデブロックフィルタ処理後画素値に対して適応オフセット処理を施す。オフセット処理部243は、適応オフセット処理後画素値を、適応ループフィルタ91に供給する。 When the on / off information from the on / off flag buffer 241 indicates on, the offset processing unit 243 performs adaptive offset processing on the pixel value after the deblocking filter processing from the category classification unit 242. The offset processing unit 243 supplies the pixel value after adaptive offset processing to the adaptive loop filter 91.
 すなわち、オフセット処理部243は、カテゴリ分類部242からのデブロックフィルタ処理後画素値に対して、設定されたオフセットの種類、分類されたカテゴリ、および可逆復号部42からのオフセット値でオフセット処理を施す。 That is, the offset processing unit 243 performs an offset process on the post-deblock filter-processed pixel value from the category classification unit 242 with the set offset type, the classified category, and the offset value from the lossless decoding unit 42. Apply.
 また、on/offフラグバッファ241からのon/offの情報がoffを示す場合、オフセット処理部243は、カテゴリ分類部242からのデブロックフィルタ処理後画素値をそのまま(オフセット処理を施さずに)、適応ループフィルタ91に供給する。 When the on / off information from the on / off flag buffer 241 indicates “off”, the offset processing unit 243 uses the pixel value after the deblocking filter processing from the category classification unit 242 as it is (without performing offset processing). To the adaptive loop filter 91.
 なお、上記説明においては、符号化側および復号側でそれぞれカテゴリ分類を行う例を説明したが、それに限定されず、カテゴリ分類を符号化側で行い、その情報を復号側へ送るようにしてもよい。 In the above description, an example in which category classification is performed on each of the encoding side and the decoding side has been described. However, the present invention is not limited to this, and category classification is performed on the encoding side and the information may be sent to the decoding side. Good.
[復号処理の流れ]
 次に、以上のような画像復号装置201により実行される各処理の流れについて説明する。最初に、図21のフローチャートを参照して、復号処理の流れの例を説明する。
[Decoding process flow]
Next, the flow of each process executed by the image decoding apparatus 201 as described above will be described. First, an example of the flow of decoding processing will be described with reference to the flowchart of FIG.
 復号処理が開始されると、ステップS201において、蓄積バッファ41は、伝送されてきた符号化データを蓄積する。ステップS202において、可逆復号部42は、蓄積バッファ41から供給される符号化データを復号する。すなわち、図12の可逆符号化部16により符号化されたIピクチャ、Pピクチャ、並びにBピクチャが復号される。 When the decoding process is started, in step S201, the accumulation buffer 41 accumulates the transmitted encoded data. In step S <b> 202, the lossless decoding unit 42 decodes the encoded data supplied from the accumulation buffer 41. That is, the I picture, P picture, and B picture encoded by the lossless encoding unit 16 of FIG. 12 are decoded.
 このとき、動きベクトル情報、参照フレーム情報、予測モード情報(イントラ予測モード、またはインター予測モード)、TUサイズに関する情報、並びに、適応オフセットパラメータの情報も復号される。 At this time, motion vector information, reference frame information, prediction mode information (intra prediction mode or inter prediction mode), information on the TU size, and information on adaptive offset parameters are also decoded.
 予測モード情報がイントラ予測モード情報である場合、予測モード情報は、イントラ予測部51に供給される。予測モード情報がインター予測モード情報である場合、予測モード情報と対応する動きベクトル情報は、動き補償部52に供給される。また、TUサイズに関する情報は、逆直交変換部211に供給される。適応オフセットパラメータであるon/offフラグ情報、およびオフセット値を示す情報は、適応オフセット部213に供給される。 When the prediction mode information is intra prediction mode information, the prediction mode information is supplied to the intra prediction unit 51. When the prediction mode information is inter prediction mode information, motion vector information corresponding to the prediction mode information is supplied to the motion compensation unit 52. Information about the TU size is supplied to the inverse orthogonal transform unit 211. The on / off flag information, which is an adaptive offset parameter, and information indicating the offset value are supplied to the adaptive offset unit 213.
 ステップS203において、イントラ予測部51または動き補償部52は、可逆復号部42から供給される予測モード情報に対応して、それぞれ、予測画像生成処理を行う。 In step S203, the intra prediction unit 51 or the motion compensation unit 52 performs a prediction image generation process corresponding to the prediction mode information supplied from the lossless decoding unit 42, respectively.
 すなわち、可逆復号部42からイントラ予測モード情報が供給された場合、イントラ予測部51は、Most Probable Modeの生成を行い、並列処理により、イントラ予測モードのイントラ予測画像を生成する。可逆復号部42からインター予測モード情報が供給された場合、動き補償部52は、インター予測モードの動き予測・補償処理を行い、インター予測画像を生成する。 That is, when the intra prediction mode information is supplied from the lossless decoding unit 42, the intra prediction unit 51 generates Most Probable 並列 Mode and generates an intra prediction image of the intra prediction mode by parallel processing. When the inter prediction mode information is supplied from the lossless decoding unit 42, the motion compensation unit 52 performs a motion prediction / compensation process in the inter prediction mode, and generates an inter prediction image.
 この処理により、イントラ予測部51により生成された予測画像(イントラ予測画像)、または動き補償部52により生成された予測画像(インター予測画像)が画像選択部53に供給される。 Through this process, the prediction image (intra prediction image) generated by the intra prediction unit 51 or the prediction image (inter prediction image) generated by the motion compensation unit 52 is supplied to the image selection unit 53.
 ステップS204において、画像選択部53は予測画像を選択する。すなわち、イントラ予測部51により生成された予測画像、または動き補償部52により生成された予測画像が供給される。したがって、供給された予測画像が選択されて演算部45に供給され、後述するステップS208において逆直交変換部44の出力と加算される。 In step S204, the image selection unit 53 selects a predicted image. That is, the prediction image generated by the intra prediction unit 51 or the prediction image generated by the motion compensation unit 52 is supplied. Therefore, the supplied predicted image is selected and supplied to the calculation unit 45, and is added to the output of the inverse orthogonal transform unit 44 in step S208 described later.
 上述したステップS202において、可逆復号部42により復号された変換係数は、逆量子化部43にも供給される。ステップS205において、逆量子化部43は可逆復号部42により復号された変換係数を、可逆復号部42により復号された量子化パラメータで、図12の量子化部15の特性に対応する特性で逆量子化する。 In step S202 described above, the transform coefficient decoded by the lossless decoding unit 42 is also supplied to the inverse quantization unit 43. In step S205, the inverse quantization unit 43 inverts the transform coefficient decoded by the lossless decoding unit 42 with the quantization parameter decoded by the lossless decoding unit 42 with the characteristic corresponding to the characteristic of the quantization unit 15 of FIG. Quantize.
 ステップS206において、逆直交変換部211のTUサイズバッファ231は、ステップS202で供給されたTU(直交変換)サイズに関する情報を受け取る。このTUサイズに関する情報は、4×4逆直交変換部232、8×8逆直交変換部233、16×16逆直交変換部234、および32×32逆直交変換部235のうち、TUサイズに対応する逆直交変換部に供給される。なお、このTUサイズに関する情報は、クラス分類部212にも供給される。 In step S206, the TU size buffer 231 of the inverse orthogonal transform unit 211 receives information regarding the TU (orthogonal transform) size supplied in step S202. This information about the TU size corresponds to the TU size among the 4 × 4 inverse orthogonal transform unit 232, the 8 × 8 inverse orthogonal transform unit 233, the 16 × 16 inverse orthogonal transform unit 234, and the 32 × 32 inverse orthogonal transform unit 235. To the inverse orthogonal transform unit. Note that the information regarding the TU size is also supplied to the class classification unit 212.
 ステップS207において、逆直交変換部211におけるTUサイズに対応する逆直交変換部は、逆量子化部43により逆量子化された変換係数を、図12の直交変換部111の特性に対応する特性で逆直交変換する。これにより図12の直交変換部111の入力(演算部13の出力)に対応する差分情報が復号されたことになる。 In step S207, the inverse orthogonal transform unit corresponding to the TU size in the inverse orthogonal transform unit 211 converts the transform coefficient inversely quantized by the inverse quantization unit 43 with characteristics corresponding to the characteristics of the orthogonal transform unit 111 in FIG. Perform inverse orthogonal transform. As a result, the difference information corresponding to the input of the orthogonal transform unit 111 in FIG. 12 (the output of the calculation unit 13) is decoded.
 ステップS208において、演算部45は、上述したステップS204の処理で選択され、画像選択部53を介して入力される予測画像を差分情報と加算する。これにより元の画像が復号される。 In step S208, the calculation unit 45 adds the predicted image selected in the processing in step S204 described above and input via the image selection unit 53 to the difference information. As a result, the original image is decoded.
 ステップS209において、デブロックフィルタ46は、演算部45からの画像に対して、デブロックフィルタ処理を行う。これにより、ブロック歪みが抑制される。デブロックフィルタ46は、デブロックフィルタ処理後画素値を、適応オフセット部213に供給する。 In step S209, the deblock filter 46 performs deblock filter processing on the image from the calculation unit 45. Thereby, block distortion is suppressed. The deblock filter 46 supplies the post-deblock filter processed pixel value to the adaptive offset unit 213.
 ステップS210において、クラス分類部212および適応オフセット部213は、ステップS206により受け取られた直交変換サイズに応じて、適応オフセット処理を行う。この適応オフセット処理の詳細は、図22を参照して後述する。このように、適応オフセット処理が施されて、リンギングなどが除去される。 In step S210, the class classification unit 212 and the adaptive offset unit 213 perform adaptive offset processing according to the orthogonal transform size received in step S206. Details of the adaptive offset processing will be described later with reference to FIG. Thus, the adaptive offset process is performed to remove ringing and the like.
 ステップS210の処理により、適応オフセット処理後画素値が、適応ループフィルタ91に供給される。ステップS211において、適応ループフィルタ91は、適応オフセット処理後画素値に対して、適応ループフィルタ処理を行い、適応ループフィルタ後画素値を、フレームメモリ49または画面並べ替えバッファ47に供給する。 The pixel value after adaptive offset processing is supplied to the adaptive loop filter 91 by the processing in step S210. In step S211, the adaptive loop filter 91 performs an adaptive loop filter process on the pixel value after the adaptive offset process, and supplies the pixel value after the adaptive loop filter to the frame memory 49 or the screen rearrangement buffer 47.
 ステップS212においてフレームメモリ49は、適応フィルタリングされた画像を記憶する。 In step S212, the frame memory 49 stores the adaptively filtered image.
 ステップS213において、画面並べ替えバッファ47は、適応ループフィルタ91後の画像の並べ替えを行う。すなわち画像符号化装置101の画面並べ替えバッファ12により符号化のために並べ替えられたフレームの順序が、元の表示の順序に並べ替えられる。 In step S213, the screen rearrangement buffer 47 rearranges the images after the adaptive loop filter 91. That is, the order of frames rearranged for encoding by the screen rearrangement buffer 12 of the image encoding device 101 is rearranged to the original display order.
 ステップS214において、D/A変換部48は、画面並べ替えバッファ47からの画像をD/A変換する。この画像が図示せぬディスプレイに出力され、画像が表示される。 In step S214, the D / A converter 48 D / A converts the image from the screen rearrangement buffer 47. This image is output to a display (not shown), and the image is displayed.
 ステップS214の処理が終了すると、復号処理が終了される。 When the process of step S214 is completed, the decoding process is terminated.
[適応オフセット処理の流れ]
 次に、図22のフローチャートを参照して、図21のステップS210において実行される適応オフセット処理の流れの例を説明する。
[Flow of adaptive offset processing]
Next, an example of the flow of adaptive offset processing executed in step S210 in FIG. 21 will be described with reference to the flowchart in FIG.
 図21のステップS206の処理により、逆直交変換部211のTUサイズバッファ231は、TUサイズに関する情報をクラス分類部212に供給してくる。ステップS251において、クラス分類部212は、供給されたTUサイズに応じて、上述した本技術による方法により、当該ブロック(例えば、TU)に、エッジオフセット(EO)と、バンドオフセット(BO)のどちらを適用するかを設定する。クラス分類部212は、設定したオフセットの種類の情報を、カテゴリ分類部242に供給する。 21, the TU size buffer 231 of the inverse orthogonal transform unit 211 supplies information on the TU size to the class classification unit 212 by the process of step S206 in FIG. In step S251, the class classification unit 212 determines whether the edge offset (EO) or the band offset (BO) is applied to the block (eg, TU) according to the method of the present technology described above according to the supplied TU size. Set whether to apply. The class classification unit 212 supplies the set offset type information to the category classification unit 242.
 ステップS252において、on/offフラグバッファ241は、図21のステップS202の処理により、可逆復号部42より供給されたon/offフラグを受け取り、カテゴリ分類部242に供給する。 In step S252, the on / off flag buffer 241 receives the on / off flag supplied from the lossless decoding unit 42 by the processing in step S202 of FIG.
 ステップS253において、カテゴリ分類部242は、on/offフラグバッファ241からのon/offフラグに基づいて、当該TUに対して、適応オフセットフィルタがonであるか否かを判定する。ステップS253において、適応オフセットフィルタがonであると判定された場合、処理は、ステップS254に進む。 In step S253, the category classification unit 242 determines whether the adaptive offset filter is on for the TU based on the on / off flag from the on / off flag buffer 241. If it is determined in step S253 that the adaptive offset filter is on, the process proceeds to step S254.
 ステップS254において、カテゴリ分類部242は、デブロックフィルタ46からのデブロックフィルタ処理後画素値を用いて、クラス分類部212により設定されたオフセットの種類におけるカテゴリを分類する。カテゴリ分類部242は、分類したカテゴリを示す情報と、デブロックフィルタ処理後画素値とを、オフセット処理部243に供給する。 In step S254, the category classification unit 242 classifies the category in the offset type set by the class classification unit 212 using the pixel value after the deblocking filter processing from the deblocking filter 46. The category classification unit 242 supplies information indicating the classified category and the pixel value after deblocking filter processing to the offset processing unit 243.
 ステップS255において、オフセット処理部243は、図21のステップS202の処理により、可逆復号部42より供給されたオフセット値を受け取る。 In step S255, the offset processing unit 243 receives the offset value supplied from the lossless decoding unit 42 by the process in step S202 of FIG.
 ステップS256において、オフセット処理部243は、オフセット処理を行う。すなわち、オフセット処理部243は、カテゴリ分類部242からのデブロックフィルタ処理後画素値に対して、設定されたオフセットの種類、分類されたカテゴリ、および受け取ったオフセット値でオフセット処理を施す。オフセット処理部243は、適応オフセット処理後画素値を、適応ループフィルタ91に供給する。 In step S256, the offset processing unit 243 performs an offset process. That is, the offset processing unit 243 performs an offset process on the post-deblock filter processed pixel value from the category classification unit 242 with the set offset type, the classified category, and the received offset value. The offset processing unit 243 supplies the pixel value after adaptive offset processing to the adaptive loop filter 91.
 一方、ステップS253において、適応オフセットフィルタがoffであると判定された場合、適応オフセット処理は終了する。すなわち、この場合、カテゴリ分類部242は、on/offフラグバッファ241からのデブロックフィルタ処理後画素値をそのまま、オフセット処理部243に供給する。また、オフセット処理部143は、カテゴリ分類部242からのデブロックフィルタ処理後画素値をそのまま(オフセット処理を施さずに)、適応ループフィルタ91に供給する。 On the other hand, if it is determined in step S253 that the adaptive offset filter is off, the adaptive offset processing ends. That is, in this case, the category classification unit 242 supplies the pixel value after the deblocking filter processing from the on / off flag buffer 241 to the offset processing unit 243 as it is. Further, the offset processing unit 143 supplies the pixel value after the deblocking filter processing from the category classification unit 242 as it is (without performing the offset processing) to the adaptive loop filter 91.
 以上のように、画像復号装置201においても、ブロック(例えば、TU)の大きさに応じて、エッジオフセットであるか、バンドオフセットであるかが設定される。したがって、領域分割およびエッジオフセットであるか、バンドオフセットであるかの情報(すなわち、図8を参照して上述したquad-tree構造のマップ情報)を、復号側へ送る必要がないので、符号化効率を向上させることができる。 As described above, also in the image decoding apparatus 201, whether it is an edge offset or a band offset is set according to the size of a block (for example, TU). Therefore, since it is not necessary to send the information indicating whether it is a region division and edge offset or band offset (that is, the map information of the quad-tree structure described above with reference to FIG. 8) to the decoding side, encoding is performed. Efficiency can be improved.
 以上においては、HEVC方式に準ずる場合を例に説明してきたが、本技術は、適応オフセット処理を行う装置であれば、他の符号化方式を用いる装置でも適用することができる。 In the above description, the case of conforming to the HEVC method has been described as an example. However, the present technology can be applied to a device using another coding method as long as the device performs adaptive offset processing.
 なお、本開示は、例えば、MPEG、H.26x等の様に、離散コサイン変換等の直交変換と動き補償によって圧縮された画像情報(ビットストリーム)を、衛星放送、ケーブルテレビジョン、インターネット、または携帯電話機などのネットワークメディアを介して受信する際に用いられる画像符号化装置および画像復号装置に適用することができる。また、本開示は、光、磁気ディスク、およびフラッシュメモリのような記憶メディア上で処理する際に用いられる画像符号化装置および画像復号装置に適用することができる。さらに、本開示は、それらの画像符号化装置および画像復号装置などに含まれる動き予測補償装置にも適用することができる。 Note that this disclosure includes, for example, MPEG, When receiving image information (bitstream) compressed by orthogonal transform such as discrete cosine transform and motion compensation, such as 26x, via network media such as satellite broadcasting, cable television, the Internet, or mobile phones. The present invention can be applied to an image encoding device and an image decoding device used in the above. In addition, the present disclosure can be applied to an image encoding device and an image decoding device that are used when processing on a storage medium such as an optical disk, a magnetic disk, and a flash memory. Furthermore, the present disclosure can also be applied to motion prediction / compensation devices included in such image encoding devices and image decoding devices.
<4.第3の実施の形態>
[多視点画像符号化・多視点画像復号への適用]
 上述した一連の処理は、多視点画像符号化・多視点画像復号に適用することができる。図23は、多視点画像符号化方式の一例を示す。
<4. Third Embodiment>
[Application to multi-view image coding and multi-view image decoding]
The series of processes described above can be applied to multi-view image encoding / multi-view image decoding. FIG. 23 shows an example of a multi-view image encoding method.
 図23に示されるように、多視点画像は、複数の視点の画像を含み、その複数の視点のうちの所定の1つの視点の画像が、ベースビューの画像に指定されている。ベースビューの画像以外の各視点の画像は、ノンベースビューの画像として扱われる。 23, the multi-viewpoint image includes a plurality of viewpoint images, and a predetermined one viewpoint image among the plurality of viewpoints is designated as the base view image. Each viewpoint image other than the base view image is treated as a non-base view image.
 図23のような多視点画像符号化を行う場合、各ビュー(同一ビュー)において、TUサイズに関する情報、およびon/off情報やオフセット値などの適応オフセットパラメータなどのパラメータ(以下、単にパラメータと称する)を設定することもできる。また、各ビュー(異なるビュー)において、他のビューで設定されたパラメータも共有することもできる。 When performing multi-view image coding as shown in FIG. 23, in each view (same view), information about TU size, and parameters such as adaptive offset parameters such as on / off information and offset values (hereinafter simply referred to as parameters). ) Can also be set. Each view (different view) can also share parameters set in other views.
 この場合、ベースビューにおいて設定されたパラメータが、少なくとも1つのノンベースビューで用いられる。あるいは、例えば、ノンベースビュー(view_id=i)において設定されたパラメータが、ベースビューおよびノンベースビュー(view_id=j)の少なくともどちらか一方で用いられる。 In this case, the parameters set in the base view are used in at least one non-base view. Alternatively, for example, a parameter set in the non-base view (view_id = i) is used in at least one of the base view and the non-base view (view_id = j).
 これにより、復号側に送る情報を削減し、符号化効率を向上させることができる。 This can reduce the information sent to the decoding side and improve the encoding efficiency.
[多視点画像符号化装置]
 図24は、上述した多視点画像符号化を行う多視点画像符号化装置を示す図である。図24に示されるように、多視点画像符号化装置600は、符号化部601、符号化部602、および多重化部603を有する。
[Multi-view image encoding device]
FIG. 24 is a diagram illustrating a multi-view image encoding apparatus that performs the multi-view image encoding described above. As illustrated in FIG. 24, the multi-view image encoding device 600 includes an encoding unit 601, an encoding unit 602, and a multiplexing unit 603.
 符号化部601は、ベースビュー画像を符号化し、ベースビュー画像符号化ストリームを生成する。符号化部602は、ノンベースビュー画像を符号化し、ノンベースビュー画像符号化ストリームを生成する。多重化部603は、符号化部601において生成されたベースビュー画像符号化ストリームと、符号化部602において生成されたノンベースビュー画像符号化ストリームとを多重化し、多視点画像符号化ストリームを生成する。 The encoding unit 601 encodes the base view image and generates a base view image encoded stream. The encoding unit 602 encodes the non-base view image and generates a non-base view image encoded stream. The multiplexing unit 603 multiplexes the base view image encoded stream generated by the encoding unit 601 and the non-base view image encoded stream generated by the encoding unit 602 to generate a multi-view image encoded stream. To do.
 この多視点画像符号化装置600の符号化部601および符号化部602に対して、画像符号化装置101(図12)を適用することができる。この場合、多視点画像符号化装置600は、符号化部601が設定したパラメータと、符号化部602が設定したパラメータとを設定して伝送させる。 The image encoding device 101 (FIG. 12) can be applied to the encoding unit 601 and the encoding unit 602 of the multi-view image encoding device 600. In this case, the multi-view image encoding apparatus 600 sets and transmits the parameters set by the encoding unit 601 and the parameters set by the encoding unit 602.
 なお、上述したように符号化部601が設定したパラメータを、符号化部601および符号化部602で共有して用いるように設定して伝送させるようにしてもよい。逆に、符号化部602が設定したパラメータを、符号化部601および符号化部602で共有して用いるように設定して伝送させるようにしてもよい。 Note that the parameters set by the encoding unit 601 as described above may be set and transmitted so as to be shared and used by the encoding unit 601 and the encoding unit 602. Conversely, the parameters set by the encoding unit 602 may be set and transmitted so as to be shared by the encoding unit 601 and the encoding unit 602.
[多視点画像復号装置]
 図25は、上述した多視点画像復号を行う多視点画像復号装置を示す図である。図25に示されるように、多視点画像復号装置610は、逆多重化部611、復号部612、および復号部613を有する。
[Multi-viewpoint image decoding device]
FIG. 25 is a diagram illustrating a multi-view image decoding apparatus that performs the above-described multi-view image decoding. As illustrated in FIG. 25, the multi-view image decoding device 610 includes a demultiplexing unit 611, a decoding unit 612, and a decoding unit 613.
 逆多重化部611は、ベースビュー画像符号化ストリームとノンベースビュー画像符号化ストリームとが多重化された多視点画像符号化ストリームを逆多重化し、ベースビュー画像符号化ストリームと、ノンベースビュー画像符号化ストリームとを抽出する。復号部612は、逆多重化部611により抽出されたベースビュー画像符号化ストリームを復号し、ベースビュー画像を得る。復号部613は、逆多重化部611により抽出されたノンベースビュー画像符号化ストリームを復号し、ノンベースビュー画像を得る。 The demultiplexing unit 611 demultiplexes the multi-view image encoded stream in which the base view image encoded stream and the non-base view image encoded stream are multiplexed, and the base view image encoded stream and the non-base view image The encoded stream is extracted. The decoding unit 612 decodes the base view image encoded stream extracted by the demultiplexing unit 611 to obtain a base view image. The decoding unit 613 decodes the non-base view image encoded stream extracted by the demultiplexing unit 611 to obtain a non-base view image.
 この多視点画像復号装置610の復号部612および復号部613に対して、画像復号装置201(図19)を適用することができる。この場合、多視点画像復号装置610は、符号化部601が設定し、復号部612が復号したパラメータと、符号化部602が設定し、復号部613が復号したパラメータを用いて処理を行う。 The image decoding device 201 (FIG. 19) can be applied to the decoding unit 612 and the decoding unit 613 of the multi-view image decoding device 610. In this case, the multi-view image decoding apparatus 610 performs processing using the parameters set by the encoding unit 601 and decoded by the decoding unit 612 and the parameters set by the encoding unit 602 and decoded by the decoding unit 613.
 なお、上述したように符号化部601(または、符号化602)が設定したパラメータを、符号化部601および符号化部602で共有して用いるように設定して伝送されている場合がある。この場合、多視点画像復号装置610においては、符号化部601(または、符号化602)が設定し、復号部612(または復号部613)が復号したパラメータを用いて処理が行われる。 Note that the parameters set by the encoding unit 601 (or encoding 602) as described above may be set and transmitted so as to be shared by the encoding unit 601 and the encoding unit 602. In this case, in the multi-viewpoint image decoding apparatus 610, processing is performed using the parameters set by the encoding unit 601 (or encoding 602) and decoded by the decoding unit 612 (or decoding unit 613).
<5.第4の実施の形態>
[階層画像符号化・階層画像復号への適用]
 上述した一連の処理は、階層画像符号化・階層画像復号に適用することができる。図26は、多視点画像符号化方式の一例を示す。
<5. Fourth Embodiment>
[Application to hierarchical image coding / hierarchical image decoding]
The series of processes described above can be applied to hierarchical image encoding / hierarchical image decoding. FIG. 26 shows an example of the multi-view image encoding method.
 図26に示されるように、階層画像は、複数の階層(解像度)の画像を含み、その複数の解像度のうちの所定の1つの階層の画像が、ベースレイヤの画像に指定されている。ベースレイヤの画像以外の各階層の画像は、ノンベースレイヤの画像として扱われる。 As shown in FIG. 26, a hierarchical image includes images of a plurality of layers (resolutions), and an image of a predetermined one layer among the plurality of resolutions is designated as a base layer image. Images in each layer other than the base layer image are treated as non-base layer images.
 図26のような階層画像符号化(空間スケーラビリティ)を行う場合、各レイヤ(同一レイヤ)において、TUサイズに関する情報、およびon/off情報やオフセット値などの適応オフセットパラメータなどのパラメータ(以下、単にパラメータと称する)を設定することもできる。また、各レイヤ(異なるレイヤ)において、他のビューで設定されたバッファインデックスを共有することもできる。 In the case of performing hierarchical image coding (spatial scalability) as shown in FIG. 26, in each layer (same layer), information on the TU size, and parameters such as adaptive offset parameters such as on / off information and offset values (hereinafter simply referred to as “only”). (Referred to as parameters) can also be set. In addition, each layer (different layers) can share a buffer index set in another view.
 この場合、ベースレイヤにおいて設定されたパラメータが、少なくとも1つのノンベースレイヤで用いられる。あるいは、例えば、ノンベースレイヤ(layer _id=i)において設定されたパラメータが、ベースレイヤおよびノンベースレイヤ(layer_id=j)の少なくともどちらか一方で用いられる。 In this case, the parameters set in the base layer are used in at least one non-base layer. Alternatively, for example, a parameter set in a non-base layer (layer _id = i) is used in at least one of the base layer and the non-base layer (layer_id = j).
 これにより、復号側に送る情報を削減し、符号化効率を向上させることができる。 This can reduce the information sent to the decoding side and improve the encoding efficiency.
[階層画像符号化装置]
 図27は、上述した階層画像符号化を行う階層画像符号化装置を示す図である。図27に示されるように、階層画像符号化装置620は、符号化部621、符号化部622、および多重化部623を有する。
[Hierarchical image encoding device]
FIG. 27 is a diagram illustrating a hierarchical image encoding apparatus that performs the above-described hierarchical image encoding. As illustrated in FIG. 27, the hierarchical image encoding device 620 includes an encoding unit 621, an encoding unit 622, and a multiplexing unit 623.
 符号化部621は、ベースレイヤ画像を符号化し、ベースレイヤ画像符号化ストリームを生成する。符号化部622は、ノンベースレイヤ画像を符号化し、ノンベースレイヤ画像符号化ストリームを生成する。多重化部623は、符号化部621において生成されたベースレイヤ画像符号化ストリームと、符号化部622において生成されたノンベースレイヤ画像符号化ストリームとを多重化し、階層画像符号化ストリームを生成する。 The encoding unit 621 encodes the base layer image and generates a base layer image encoded stream. The encoding unit 622 encodes the non-base layer image and generates a non-base layer image encoded stream. The multiplexing unit 623 multiplexes the base layer image encoded stream generated by the encoding unit 621 and the non-base layer image encoded stream generated by the encoding unit 622 to generate a hierarchical image encoded stream. .
 この階層画像符号化装置620の符号化部621および符号化部622に対して、画像符号化装置101(図12)を適用することができる。この場合、階層画像符号化装置620は、符号化部621が設定したパラメータと、符号化部622が設定したパラメータとを設定して伝送させる。 The image encoding device 101 (FIG. 12) can be applied to the encoding unit 621 and the encoding unit 622 of the hierarchical image encoding device 620. In this case, the hierarchical image encoding device 620 sets and transmits the parameters set by the encoding unit 621 and the parameters set by the encoding unit 622.
 なお、上述したように符号化部621が設定したパラメータを、符号化部621および符号化部622で共有して用いるように設定して伝送させるようにしてもよい。逆に、符号化部622が設定したパラメータを、符号化部621および符号化部622で共有して用いるように設定して伝送させるようにしてもよい。 Note that the parameters set by the encoding unit 621 as described above may be set and transmitted so as to be shared by the encoding unit 621 and the encoding unit 622. Conversely, the parameters set by the encoding unit 622 may be set and transmitted so as to be shared by the encoding unit 621 and the encoding unit 622.
[階層画像復号装置]
 図28は、上述した階層画像復号を行う階層画像復号装置を示す図である。図28に示されるように、階層画像復号装置630は、逆多重化部631、復号部632、および復号部633を有する。
[Hierarchical image decoding device]
FIG. 28 is a diagram illustrating a hierarchical image decoding apparatus that performs the hierarchical image decoding described above. As illustrated in FIG. 28, the hierarchical image decoding device 630 includes a demultiplexing unit 631, a decoding unit 632, and a decoding unit 633.
 逆多重化部631は、ベースレイヤ画像符号化ストリームとノンベースレイヤ画像符号化ストリームとが多重化された階層画像符号化ストリームを逆多重化し、ベースレイヤ画像符号化ストリームと、ノンベースレイヤ画像符号化ストリームとを抽出する。復号部632は、逆多重化部631により抽出されたベースレイヤ画像符号化ストリームを復号し、ベースレイヤ画像を得る。復号部633は、逆多重化部631により抽出されたノンベースレイヤ画像符号化ストリームを復号し、ノンベースレイヤ画像を得る。 The demultiplexing unit 631 demultiplexes the hierarchical image encoded stream in which the base layer image encoded stream and the non-base layer image encoded stream are multiplexed, and the base layer image encoded stream and the non-base layer image code Stream. The decoding unit 632 decodes the base layer image encoded stream extracted by the demultiplexing unit 631 to obtain a base layer image. The decoding unit 633 decodes the non-base layer image encoded stream extracted by the demultiplexing unit 631 to obtain a non-base layer image.
 この階層画像復号装置630の復号部632および復号部633に対して、画像復号装置201(図19)を適用することができる。この場合、階層画像復号装置630は、符号化部621が設定し、復号部632が復号したパラメータと、符号化部622が設定し、復号部633がパラメータを用いて処理を行う。 The image decoding device 201 (FIG. 19) can be applied to the decoding unit 632 and the decoding unit 633 of the hierarchical image decoding device 630. In this case, in the hierarchical image decoding apparatus 630, the parameter set by the encoding unit 621, the parameter decoded by the decoding unit 632, and the encoding unit 622 are set, and the decoding unit 633 performs processing using the parameter.
 なお、上述したように符号化部621(または、符号化622)が設定したパラメータを、符号化部621および符号化部622で共有して用いるように設定して伝送されている場合がある。この場合、階層画像復号装置630においては、符号化部621(または、符号化622)が設定し、復号部632(または、復号部633)が復号したパラメータを用いて処理が行われる。 Note that, as described above, the parameter set by the encoding unit 621 (or encoding 622) may be set and transmitted so as to be shared by the encoding unit 621 and the encoding unit 622. In this case, in the hierarchical image decoding apparatus 630, processing is performed using the parameters set by the encoding unit 621 (or encoding 622) and decoded by the decoding unit 632 (or decoding unit 633).
 <6.第5の実施の形態>
 [コンピュータ]
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
<6. Fifth embodiment>
[Computer]
The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes a computer incorporated in dedicated hardware, a general-purpose personal computer capable of executing various functions by installing various programs, and the like.
 図29において、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 29 is a block diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processes by a program.
 コンピュータ800において、CPU(Central Processing Unit)801,ROM(Read Only Memory)802,RAM(Random Access Memory)803は、バス804により相互に接続されている。 In the computer 800, a CPU (Central Processing Unit) 801, a ROM (Read Only Memory) 802, and a RAM (Random Access Memory) 803 are connected to each other by a bus 804.
 バス804には、さらに、入出力インタフェース805が接続されている。入出力インタフェース805には、入力部806、出力部807、記憶部808、通信部809、及びドライブ810が接続されている。 Further, an input / output interface 805 is connected to the bus 804. An input unit 806, an output unit 807, a storage unit 808, a communication unit 809, and a drive 810 are connected to the input / output interface 805.
 入力部811は、キーボード、マウス、マイクロホンなどよりなる。出力部812は、ディスプレイ、スピーカなどよりなる。記憶部813は、ハードディスクや不揮発性のメモリなどよりなる。通信部814は、ネットワークインタフェースなどよりなる。ドライブ815は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア821を駆動する。 The input unit 811 includes a keyboard, a mouse, a microphone, and the like. The output unit 812 includes a display, a speaker, and the like. The storage unit 813 includes a hard disk, a nonvolatile memory, and the like. The communication unit 814 includes a network interface or the like. The drive 815 drives a removable medium 821 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
 以上のように構成されるコンピュータでは、CPU801が、例えば、記憶部83に記憶されているプログラムを、入出力インタフェース810及びバス804を介して、RAM803にロードして実行することにより、上述した一連の処理が行われる。 In the computer configured as described above, the CPU 801 loads the program stored in the storage unit 83 into the RAM 803 via the input / output interface 810 and the bus 804 and executes the program, for example. Is performed.
 コンピュータ800(CPU801)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア821に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。 The program executed by the computer 800 (CPU 801) can be provided by being recorded on a removable medium 821 as a package medium, for example. The program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
 コンピュータでは、プログラムは、リムーバブルメディア821をドライブ815に装着することにより、入出力インタフェース810を介して、記憶部813にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部814で受信し、記憶部813にインストールすることができる。その他、プログラムは、ROM802や記憶部813に、あらかじめインストールしておくことができる。 In the computer, the program can be installed in the storage unit 813 via the input / output interface 810 by attaching the removable medium 821 to the drive 815. Further, the program can be received by the communication unit 814 via a wired or wireless transmission medium and installed in the storage unit 813. In addition, the program can be installed in the ROM 802 or the storage unit 813 in advance.
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
 また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
 また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。 In addition, in this specification, the system represents the entire apparatus composed of a plurality of devices (apparatuses).
 また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Also, in the above, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). Conversely, the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit). Of course, a configuration other than that described above may be added to the configuration of each device (or each processing unit). Furthermore, if the configuration and operation of the entire system are substantially the same, a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). . That is, the present technology is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present technology.
 上述した実施形態に係る画像符号化装置及び画像復号装置は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。 An image encoding device and an image decoding device according to the above-described embodiments include a transmitter or a receiver in optical broadcasting, satellite broadcasting, cable broadcasting such as cable TV, distribution on the Internet, and distribution to terminals by cellular communication, etc. The present invention can be applied to various electronic devices such as a recording device that records an image on a medium such as a magnetic disk and a flash memory, or a playback device that reproduces an image from these storage media. Hereinafter, four application examples will be described.
 <7.応用例>
[第1の応用例:テレビジョン受像機]
 図30は、上述した実施形態を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
<7. Application example>
[First application example: television receiver]
FIG. 30 illustrates an example of a schematic configuration of a television device to which the above-described embodiment is applied. The television apparatus 900 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, an external interface 909, a control unit 910, a user interface 911, And a bus 912.
 チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。 Tuner 902 extracts a signal of a desired channel from a broadcast signal received via antenna 901, and demodulates the extracted signal. Then, the tuner 902 outputs the encoded bit stream obtained by the demodulation to the demultiplexer 903. In other words, the tuner 902 serves as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
 デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。 The demultiplexer 903 separates the video stream and audio stream of the viewing target program from the encoded bit stream, and outputs each separated stream to the decoder 904. Further, the demultiplexer 903 extracts auxiliary data such as EPG (Electronic Program Guide) from the encoded bit stream, and supplies the extracted data to the control unit 910. Note that the demultiplexer 903 may perform descrambling when the encoded bit stream is scrambled.
 デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。 The decoder 904 decodes the video stream and audio stream input from the demultiplexer 903. Then, the decoder 904 outputs the video data generated by the decoding process to the video signal processing unit 905. In addition, the decoder 904 outputs audio data generated by the decoding process to the audio signal processing unit 907.
 映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。 The video signal processing unit 905 reproduces the video data input from the decoder 904 and causes the display unit 906 to display the video. In addition, the video signal processing unit 905 may cause the display unit 906 to display an application screen supplied via a network. Further, the video signal processing unit 905 may perform additional processing such as noise removal on the video data according to the setting. Furthermore, the video signal processing unit 905 may generate a GUI (Graphical User Interface) image such as a menu, a button, or a cursor, and superimpose the generated image on the output image.
 表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOELD(Organic ElectroLuminescence Display)(有機ELディスプレイ)など)の映像面上に映像又は画像を表示する。 The display unit 906 is driven by a drive signal supplied from the video signal processing unit 905, and displays an image on a video screen of a display device (for example, a liquid crystal display, a plasma display, or an OELD (Organic ElectroLuminescence Display) (organic EL display)). Or an image is displayed.
 音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。 The audio signal processing unit 907 performs reproduction processing such as D / A conversion and amplification on the audio data input from the decoder 904, and outputs audio from the speaker 908. The audio signal processing unit 907 may perform additional processing such as noise removal on the audio data.
 外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。 The external interface 909 is an interface for connecting the television apparatus 900 to an external device or a network. For example, a video stream or an audio stream received via the external interface 909 may be decoded by the decoder 904. That is, the external interface 909 also has a role as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
 制御部910は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。 The control unit 910 includes a processor such as a CPU and memories such as a RAM and a ROM. The memory stores a program executed by the CPU, program data, EPG data, data acquired via a network, and the like. For example, the program stored in the memory is read and executed by the CPU when the television apparatus 900 is activated. The CPU executes the program to control the operation of the television device 900 according to an operation signal input from the user interface 911, for example.
 ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。 The user interface 911 is connected to the control unit 910. The user interface 911 includes, for example, buttons and switches for the user to operate the television device 900, a remote control signal receiving unit, and the like. The user interface 911 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 910.
 バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。 The bus 912 connects the tuner 902, the demultiplexer 903, the decoder 904, the video signal processing unit 905, the audio signal processing unit 907, the external interface 909, and the control unit 910 to each other.
 このように構成されたテレビジョン装置900において、デコーダ904は、上述した実施形態に係る画像復号装置の機能を有する。それにより、テレビジョン装置900での画像の復号に際して、復号側に送る情報が削減され、符号化効率を向上させることができる。 In the thus configured television apparatus 900, the decoder 904 has the function of the image decoding apparatus according to the above-described embodiment. Thereby, when the image is decoded by the television apparatus 900, information to be sent to the decoding side is reduced, and the encoding efficiency can be improved.
 [第2の応用例:携帯電話機]
 図31は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
[Second application example: mobile phone]
FIG. 31 shows an example of a schematic configuration of a mobile phone to which the above-described embodiment is applied. A mobile phone 920 includes an antenna 921, a communication unit 922, an audio codec 923, a speaker 924, a microphone 925, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, a control unit 931, an operation A portion 932 and a bus 933.
 アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。 The antenna 921 is connected to the communication unit 922. The speaker 924 and the microphone 925 are connected to the audio codec 923. The operation unit 932 is connected to the control unit 931. The bus 933 connects the communication unit 922, the audio codec 923, the camera unit 926, the image processing unit 927, the demultiplexing unit 928, the recording / reproducing unit 929, the display unit 930, and the control unit 931 to each other.
 携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。 The mobile phone 920 has various operation modes including a voice call mode, a data communication mode, a shooting mode, and a videophone mode, and is used for sending and receiving voice signals, sending and receiving e-mail or image data, taking images, and recording data. Perform the action.
 音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号を、アンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。 In the voice call mode, the analog voice signal generated by the microphone 925 is supplied to the voice codec 923. The audio codec 923 converts an analog audio signal into audio data, A / D converts the compressed audio data, and compresses it. Then, the audio codec 923 outputs the compressed audio data to the communication unit 922. The communication unit 922 encodes and modulates the audio data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal. Then, the communication unit 922 demodulates and decodes the received signal to generate audio data, and outputs the generated audio data to the audio codec 923. The audio codec 923 decompresses the audio data and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
 また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号を、アンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。 Further, in the data communication mode, for example, the control unit 931 generates character data constituting the e-mail in response to an operation by the user via the operation unit 932. In addition, the control unit 931 causes the display unit 930 to display characters. In addition, the control unit 931 generates e-mail data in response to a transmission instruction from the user via the operation unit 932, and outputs the generated e-mail data to the communication unit 922. The communication unit 922 encodes and modulates email data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal. Then, the communication unit 922 demodulates and decodes the received signal to restore the email data, and outputs the restored email data to the control unit 931. The control unit 931 displays the content of the electronic mail on the display unit 930 and stores the electronic mail data in the storage medium of the recording / reproducing unit 929.
 記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USB(Universal Serial Bus)メモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。 The recording / reproducing unit 929 has an arbitrary readable / writable storage medium. For example, the storage medium may be a built-in storage medium such as a RAM or a flash memory, or an externally mounted type such as a hard disk, magnetic disk, magneto-optical disk, optical disk, USB (Universal Serial Bus) memory, or memory card. It may be a storage medium.
 また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記憶再生部929の記憶媒体に記憶させる。 In the shooting mode, for example, the camera unit 926 images a subject to generate image data, and outputs the generated image data to the image processing unit 927. The image processing unit 927 encodes the image data input from the camera unit 926 and stores the encoded stream in the storage medium of the storage / playback unit 929.
 また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号を、アンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。 Further, in the videophone mode, for example, the demultiplexing unit 928 multiplexes the video stream encoded by the image processing unit 927 and the audio stream input from the audio codec 923, and the multiplexed stream is the communication unit 922. Output to. The communication unit 922 encodes and modulates the stream and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal. These transmission signal and reception signal may include an encoded bit stream. Then, the communication unit 922 demodulates and decodes the received signal to restore the stream, and outputs the restored stream to the demultiplexing unit 928. The demultiplexing unit 928 separates the video stream and the audio stream from the input stream, and outputs the video stream to the image processing unit 927 and the audio stream to the audio codec 923. The image processing unit 927 decodes the video stream and generates video data. The video data is supplied to the display unit 930, and a series of images is displayed on the display unit 930. The audio codec 923 decompresses the audio stream and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
 このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置及び画像復号装置の機能を有する。それにより、携帯電話機920での画像の符号化及び復号に際して、復号側に送る情報が削減され、符号化効率を向上させることができる。 In the mobile phone 920 configured as described above, the image processing unit 927 has the functions of the image encoding device and the image decoding device according to the above-described embodiment. Accordingly, when encoding and decoding an image with the mobile phone 920, information to be sent to the decoding side is reduced, and encoding efficiency can be improved.
 [第3の応用例:記録再生装置]
 図32は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
[Third application example: recording / reproducing apparatus]
FIG. 32 shows an example of a schematic configuration of a recording / reproducing apparatus to which the above-described embodiment is applied. For example, the recording / reproducing device 940 encodes audio data and video data of a received broadcast program and records the encoded data on a recording medium. In addition, the recording / reproducing device 940 may encode audio data and video data acquired from another device and record them on a recording medium, for example. In addition, the recording / reproducing device 940 reproduces data recorded on the recording medium on a monitor and a speaker, for example, in accordance with a user instruction. At this time, the recording / reproducing device 940 decodes the audio data and the video data.
 記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。 The recording / reproducing apparatus 940 includes a tuner 941, an external interface 942, an encoder 943, an HDD (Hard Disk Drive) 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) 948, a control unit 949, and a user interface. 950.
 チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。 Tuner 941 extracts a signal of a desired channel from a broadcast signal received via an antenna (not shown), and demodulates the extracted signal. Then, the tuner 941 outputs the encoded bit stream obtained by the demodulation to the selector 946. That is, the tuner 941 has a role as a transmission unit in the recording / reproducing apparatus 940.
 外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。 The external interface 942 is an interface for connecting the recording / reproducing apparatus 940 to an external device or a network. The external interface 942 may be, for example, an IEEE1394 interface, a network interface, a USB interface, or a flash memory interface. For example, video data and audio data received via the external interface 942 are input to the encoder 943. That is, the external interface 942 serves as a transmission unit in the recording / reproducing device 940.
 エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。 The encoder 943 encodes video data and audio data when the video data and audio data input from the external interface 942 are not encoded. Then, the encoder 943 outputs the encoded bit stream to the selector 946.
 HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラムおよびその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。 The HDD 944 records an encoded bit stream in which content data such as video and audio is compressed, various programs, and other data on an internal hard disk. Further, the HDD 944 reads out these data from the hard disk when reproducing video and audio.
 ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)又はBlu-ray(登録商標)ディスクなどであってよい。 The disk drive 945 performs recording and reading of data to and from the mounted recording medium. The recording medium mounted on the disk drive 945 is, for example, a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.) or a Blu-ray (registered trademark) disk. It may be.
 セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。 The selector 946 selects an encoded bit stream input from the tuner 941 or the encoder 943 when recording video and audio, and outputs the selected encoded bit stream to the HDD 944 or the disk drive 945. In addition, the selector 946 outputs the encoded bit stream input from the HDD 944 or the disk drive 945 to the decoder 947 during video and audio reproduction.
 デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。 The decoder 947 decodes the encoded bit stream and generates video data and audio data. Then, the decoder 947 outputs the generated video data to the OSD 948. The decoder 904 outputs the generated audio data to an external speaker.
 OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。 OSD 948 reproduces the video data input from the decoder 947 and displays the video. Further, the OSD 948 may superimpose a GUI image such as a menu, a button, or a cursor on the video to be displayed.
 制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。 The control unit 949 includes a processor such as a CPU and memories such as a RAM and a ROM. The memory stores a program executed by the CPU, program data, and the like. The program stored in the memory is read and executed by the CPU when the recording / reproducing apparatus 940 is activated, for example. The CPU controls the operation of the recording / reproducing apparatus 940 in accordance with an operation signal input from the user interface 950, for example, by executing the program.
 ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。 The user interface 950 is connected to the control unit 949. The user interface 950 includes, for example, buttons and switches for the user to operate the recording / reproducing device 940, a remote control signal receiving unit, and the like. The user interface 950 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 949.
 このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置の機能を有する。また、デコーダ947は、上述した実施形態に係る画像復号装置の機能を有する。それにより、記録再生装置940での画像の符号化及び復号に際して、復号側に送る情報が削減され、符号化効率を向上させることができる。 In the thus configured recording / reproducing apparatus 940, the encoder 943 has the function of the image encoding apparatus according to the above-described embodiment. The decoder 947 has the function of the image decoding apparatus according to the above-described embodiment. Thereby, when encoding and decoding an image in the recording / reproducing apparatus 940, information to be sent to the decoding side is reduced, and encoding efficiency can be improved.
 [第4の応用例:撮像装置]
 図33は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
[Fourth Application Example: Imaging Device]
FIG. 33 illustrates an example of a schematic configuration of an imaging apparatus to which the above-described embodiment is applied. The imaging device 960 images a subject to generate an image, encodes the image data, and records it on a recording medium.
 撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。 The imaging device 960 includes an optical block 961, an imaging unit 962, a signal processing unit 963, an image processing unit 964, a display unit 965, an external interface 966, a memory 967, a media drive 968, an OSD 969, a control unit 970, a user interface 971, and a bus. 972.
 光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。 The optical block 961 is connected to the imaging unit 962. The imaging unit 962 is connected to the signal processing unit 963. The display unit 965 is connected to the image processing unit 964. The user interface 971 is connected to the control unit 970. The bus 972 connects the image processing unit 964, the external interface 966, the memory 967, the media drive 968, the OSD 969, and the control unit 970 to each other.
 光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。 The optical block 961 includes a focus lens and a diaphragm mechanism. The optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962. The imaging unit 962 includes an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and converts an optical image formed on the imaging surface into an image signal as an electrical signal by photoelectric conversion. Then, the imaging unit 962 outputs the image signal to the signal processing unit 963.
 信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。 The signal processing unit 963 performs various camera signal processing such as knee correction, gamma correction, and color correction on the image signal input from the imaging unit 962. The signal processing unit 963 outputs the image data after the camera signal processing to the image processing unit 964.
 画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。 The image processing unit 964 encodes the image data input from the signal processing unit 963 and generates encoded data. Then, the image processing unit 964 outputs the generated encoded data to the external interface 966 or the media drive 968. The image processing unit 964 also decodes encoded data input from the external interface 966 or the media drive 968 to generate image data. Then, the image processing unit 964 outputs the generated image data to the display unit 965. In addition, the image processing unit 964 may display the image by outputting the image data input from the signal processing unit 963 to the display unit 965. Further, the image processing unit 964 may superimpose display data acquired from the OSD 969 on an image output to the display unit 965.
 OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。 The OSD 969 generates a GUI image such as a menu, a button, or a cursor, and outputs the generated image to the image processing unit 964.
 外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。 The external interface 966 is configured as a USB input / output terminal, for example. The external interface 966 connects the imaging device 960 and a printer, for example, when printing an image. Further, a drive is connected to the external interface 966 as necessary. For example, a removable medium such as a magnetic disk or an optical disk is attached to the drive, and a program read from the removable medium can be installed in the imaging device 960. Further, the external interface 966 may be configured as a network interface connected to a network such as a LAN or the Internet. That is, the external interface 966 has a role as a transmission unit in the imaging device 960.
 メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。 The recording medium mounted on the media drive 968 may be any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory. In addition, a recording medium may be fixedly mounted on the media drive 968, and a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
 制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。 The control unit 970 includes a processor such as a CPU and memories such as a RAM and a ROM. The memory stores a program executed by the CPU, program data, and the like. The program stored in the memory is read and executed by the CPU when the imaging device 960 is activated, for example. For example, the CPU controls the operation of the imaging device 960 according to an operation signal input from the user interface 971 by executing the program.
 ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。 The user interface 971 is connected to the control unit 970. The user interface 971 includes, for example, buttons and switches for the user to operate the imaging device 960. The user interface 971 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 970.
 このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置及び画像復号装置の機能を有する。それにより、撮像装置960での画像の符号化及び復号に際して、復号側に送る情報が削減され、符号化効率を向上させることができる。 In the imaging device 960 configured as described above, the image processing unit 964 has the functions of the image encoding device and the image decoding device according to the above-described embodiment. Thereby, when encoding and decoding an image in the imaging device 960, information to be sent to the decoding side is reduced, and encoding efficiency can be improved.
 なお、本明細書では、TUサイズに関する情報、on/off情報やオフセット値などの適応オフセットパラメータなどのシンタクス要素等の各種情報が、符号化ストリームに多重化されて、符号化側から復号側へ伝送される例について説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。 In this specification, various types of information such as syntax elements such as information on TU size, adaptive offset parameters such as on / off information and offset values, etc. are multiplexed into the encoded stream, and from the encoding side to the decoding side. An example of transmission has been described. However, the method for transmitting such information is not limited to such an example. For example, these pieces of information may be transmitted or recorded as separate data associated with the encoded bitstream without being multiplexed into the encoded bitstream. Here, the term “associate” means that an image (which may be a part of an image such as a slice or a block) included in the bitstream and information corresponding to the image can be linked at the time of decoding. Means. That is, information may be transmitted on a transmission path different from that of the image (or bit stream). Information may be recorded on a recording medium (or another recording area of the same recording medium) different from the image (or bit stream). Furthermore, the information and the image (or bit stream) may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part of the frame.
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present disclosure belongs can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present disclosure.
 なお、本技術は以下のような構成も取ることができる。
 (1) 階層構造を有する単位で符号化された符号化ストリームを復号処理して画像を生成する復号部と、
 前記復号部により生成された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定するオフセット設定部と、
 前記オフセット設定部により設定されたオフセットの種類で、前記復号部により生成された画像を対象として、前記適応オフセット処理を行う適応オフセット処理部と
 を備える画像処理装置。
 (2) 前記オフセット設定部は、前記ブロックのサイズまたは面積が大きい場合、前記ブロックに対して、バンドオフセットを設定し、前記ブロックのサイズまたは面積が小さい場合、前記ブロックに対して、エッジオフセットを設定する
 前記(1)に記載の画像処理装置。
 (3) 前記ブロックは、TU(Transform Unit)である
 前記(1)または(2)に記載の画像処理装置。
 (4) 前記符号化ストリームと前記適応オフセット処理のオンまたはオフを示すオンオフ情報とを受け取る受け取り部を
 さらに備え、
 前記復号部は、前記受け取り部により受け取られた符号化ストリームを復号処理して前記画像を生成し、
 前記適応オフセット処理部は、前記受け取り部により受け取られたオンオフ情報が前記適応オフセット処理のオンである場合、前記オフセット設定部により設定されたオフセットの種類で、前記復号部により生成された画像を対象として、前記適応オフセット処理を行う
 前記(1)乃至(3)のいずれかに記載の画像処理装置。
 (5) 前記オフセット設定部は、前記ブロックのサイズまたは面積が第1のサイズまたは第1の面積以上である場合、バンドオフセットを設定し、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より小さい場合、エッジオフセットを設定する
 前記(1)乃至(3)のいずれかに記載の画像処理装置。
 (6) 前記オフセット設定部は、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より大きい第2のサイズまたは第2の面積以上である場合、前記適応オフセット処理のオフを設定する
 前記(5)に記載の画像処理装置。
 (7) 前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックに対して、エッジオフセットを設定する
 前記(1)乃至(6)のいずれかに記載の画像処理装置。
 (8) 前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックの短い辺のサイズまたは面積に応じて、前記適応オフセット処理のオフセットの種類を設定する
 前記(1)乃至(6)のいずれかに記載の画像処理装置。
 (9) 前記ブロックは、LCU(Largest Coding Unit)であり、
 前記オフセット設定部は、前記LCUに含まれるサブブロックの面積の積算に応じて、前記適応オフセット処理のオフセットの種類を設定する
 前記(1)または(2)のいずれかに記載の画像処理装置。
 (10) 画像処理装置が、
 階層構造を有する単位で符号化された符号化ストリームを復号処理して画像を生成し、
 生成された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定し、
 設定されたオフセットの種類で、生成された画像を対象として、前記適応オフセット処理を行う
 画像処理方法。
 (11) 画像を符号化する際にローカル復号処理された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定するオフセット設定部と、
 前記オフセット設定部により設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理を行う適応オフセット処理部と、
 前記適応オフセット処理部により前記適応オフセット処理が行われた画像を用いて、前記画像を、階層構造を有する単位で符号化する符号化部と
 を備える画像処理装置。
 (12) 前記オフセット設定部は、前記ブロックのサイズまたは面積が大きい場合、前記ブロックに対して、バンドオフセットを設定し、前記ブロックのサイズまたは面積が小さい場合、前記ブロックに対して、エッジオフセットを設定する
 前記(11)に記載の画像処理装置。
 (13) 前記ブロックは、TU(Transform Unit)である
 前記(11)または(12)に記載の画像処理装置。
 (14) 前記符号化部により符号化された画像を伝送する伝送部を
 さらに備え、
 前記適応オフセット処理部は、前記適応オフセット処理のオンまたはオフを決定し、前記適応オフセット処理のオンの場合、前記オフセット設定部により設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理を行い、
 前記伝送部は、前記適応オフセット処理のオンまたはオフを示すオンオフ情報を伝送する
 前記(10)乃至(13)のいずれかに記載の画像処理装置。
 (15) 前記オフセット設定部は、前記ブロックのサイズまたは面積が第1のサイズまたは第1の面積以上である場合、バンドオフセットを設定し、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より小さい場合、エッジオフセットを設定する
 前記(11)乃至(13)のいずれかに記載の画像処理装置。
 (16) 前記オフセット設定部は、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より大きい第2のサイズまたは第2の面積以上である場合、前記適応オフセット処理のオフを設定する
 前記(15)に記載の画像処理装置。
 (17) 前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックに対して、エッジオフセットを設定する
 前記(16)に記載の画像処理装置。
 (18) 前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックの短い辺のサイズまたは面積に応じて、前記適応オフセット処理のオフセットの種類を設定する
 前記(16)に記載の画像処理装置。
 (19) 前記ブロックは、LCU(Largest Coding Unit)であり、
 前記オフセット設定部は、前記LCUに含まれるサブブロックの面積の積算に応じて、前記適応オフセット処理のオフセットの種類を設定する
 前記(11)に記載の画像処理装置。
 (20) 画像処理装置が、
 画像を符号化する際にローカル復号処理された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定し、
 設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理を行い、
 前記適応オフセット処理が行われた画像を用いて、前記画像を、階層構造を有する単位で符号化する
 画像処理方法。
In addition, this technique can also take the following structures.
(1) a decoding unit that generates an image by decoding an encoded stream encoded in units having a hierarchical structure;
An offset setting unit that sets an offset type of adaptive offset processing according to the size or area of the block of the image generated by the decoding unit;
An image processing apparatus comprising: an adaptive offset processing unit that performs the adaptive offset processing on an image generated by the decoding unit with an offset type set by the offset setting unit.
(2) The offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Set The image processing apparatus according to (1).
(3) The image processing apparatus according to (1) or (2), wherein the block is a TU (Transform Unit).
(4) a receiving unit that receives the encoded stream and on / off information indicating on or off of the adaptive offset processing;
The decoding unit decodes the encoded stream received by the receiving unit to generate the image,
When the on / off information received by the receiving unit indicates that the adaptive offset processing is on, the adaptive offset processing unit targets the image generated by the decoding unit with the type of offset set by the offset setting unit. The image processing apparatus according to any one of (1) to (3), wherein the adaptive offset processing is performed.
(5) The offset setting unit sets a band offset when the size or area of the block is equal to or larger than the first size or the first area, and the size or area of the block is the first size or the first size. The image processing apparatus according to any one of (1) to (3), wherein an edge offset is set when the area is smaller than 1.
(6) When the size or area of the block is equal to or larger than the first size or the second size or the second area larger than the first area, the offset setting unit sets the adaptive offset processing to be off. The image processing apparatus according to (5).
(7) When the NSQT (Non-Square Quadtree Transform) is applied to the block, the offset setting unit sets an edge offset for the block. Any one of (1) to (6) An image processing apparatus according to 1.
(8) When NSQT (Non-Square Quadtree Transform) is applied to the block, the offset setting unit determines the type of the offset in the adaptive offset processing according to the size or area of the short side of the block. The image processing apparatus according to any one of (1) to (6) to be set.
(9) The block is an LCU (Largest Coding Unit),
The image processing apparatus according to any one of (1) and (2), wherein the offset setting unit sets an offset type of the adaptive offset processing according to integration of areas of subblocks included in the LCU.
(10) The image processing apparatus is
An image is generated by decoding an encoded stream encoded in units having a hierarchical structure,
Set the offset type of adaptive offset processing according to the size or area of the block of the generated image,
An image processing method for performing the adaptive offset processing on a generated image with a set type of offset.
(11) an offset setting unit that sets an offset type of adaptive offset processing according to the size or area of a block of an image subjected to local decoding processing when encoding an image;
An offset type set by the offset setting unit, an adaptive offset processing unit that performs the adaptive offset processing for the image, and
An image processing apparatus comprising: an encoding unit that encodes the image in units having a hierarchical structure using the image on which the adaptive offset processing has been performed by the adaptive offset processing unit.
(12) The offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Setting The image processing apparatus according to (11).
(13) The image processing device according to (11) or (12), wherein the block is a TU (Transform Unit).
(14) A transmission unit that transmits the image encoded by the encoding unit is further provided,
The adaptive offset processing unit determines whether to turn on or off the adaptive offset processing. When the adaptive offset processing is on, the adaptive offset processing unit sets the adaptive offset for the image with the type of offset set by the offset setting unit. Process,
The image processing apparatus according to any one of (10) to (13), wherein the transmission unit transmits on / off information indicating on or off of the adaptive offset processing.
(15) When the size or area of the block is equal to or larger than the first size or the first area, the offset setting unit sets a band offset, and the size or area of the block is the first size or the first size. The image processing apparatus according to any one of (11) to (13), wherein an edge offset is set when the area is smaller than 1.
(16) When the size or area of the block is equal to or larger than the first size or the second size or the second area larger than the first area, the offset setting unit sets the adaptive offset processing to be off. The image processing apparatus according to (15).
(17) The image processing device according to (16), wherein the offset setting unit sets an edge offset for the block when NSQT (Non-Square Quadtree Transform) is applied to the block.
(18) When NSQT (Non-Square Quadtree Transform) is applied to the block, the offset setting unit determines the type of offset of the adaptive offset processing according to the size or area of the short side of the block. Set The image processing device according to (16).
(19) The block is an LCU (Largest Coding Unit),
The image processing apparatus according to (11), wherein the offset setting unit sets an offset type of the adaptive offset process according to an integration of areas of subblocks included in the LCU.
(20) The image processing apparatus is
Set the offset type of adaptive offset processing according to the block size or area of the locally decoded image block when encoding the image,
Performing the adaptive offset process for the image with the set offset type,
An image processing method for encoding the image in units having a hierarchical structure using the image on which the adaptive offset processing has been performed.
  16 可逆符号化部, 42 可逆復号部, 101 画像符号化装置, 111 直交変換部, 112 クラス分類部, 113 適応オフセット部, 131 4×4直交変換部, 132 8×8直交変換部, 133 16×16直交変換部, 134 32×32直交変換部, 135 コスト関数算出部, 136 TUサイズ決定部, 141 on/off決定部, 142 カテゴリ分類部, 143 オフセット処理部, 201 画像復号装置, 211 逆直交変換部, 212 クラス分類部, 213 適応オフセット部, 231 TUサイズバッファ, 232 4×4逆直交変換部, 233 8×8逆直交変換部, 234 16×16逆直交変換部, 235 32×32逆直交変換部, 241 on/offフラグバッファ, 242 カテゴリ分類部, 243 オフセット処理部 16 lossless encoding unit, 42 lossless decoding unit, 101 image encoding device, 111 orthogonal transform unit, 112 class classification unit, 113 adaptive offset unit, 131 4 × 4 orthogonal transform unit, 132 8 × 8 orthogonal transform unit, 133 16 × 16 orthogonal transform unit, 134 32 × 32 orthogonal transform unit, 135 cost function calculation unit, 136 TU size determination unit, 141 on / off determination unit, 142 category classification unit, 143 offset processing unit, 201 image decoding device, 211 reverse Orthogonal transform unit, 212 class classification unit, 213 adaptive offset unit, 231 TU size buffer, 232 4 × 4 inverse orthogonal transform unit, 233 8 × 8 inverse orthogonal transform unit, 234 16 × 16 inverse orthogonal transform unit, 235 32 × 32 Inverse orthogonal transform unit, 241 on / off flag Gbuffer, 242 Category classification part, 243 Offset processing part

Claims (20)

  1.  階層構造を有する単位で符号化された符号化ストリームを復号処理して画像を生成する復号部と、
     前記復号部により生成された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定するオフセット設定部と、
     前記オフセット設定部により設定されたオフセットの種類で、前記復号部により生成された画像を対象として、前記適応オフセット処理を行う適応オフセット処理部と
     を備える画像処理装置。
    A decoding unit that decodes an encoded stream encoded in units having a hierarchical structure to generate an image;
    An offset setting unit that sets an offset type of adaptive offset processing according to the size or area of the block of the image generated by the decoding unit;
    An image processing apparatus comprising: an adaptive offset processing unit that performs the adaptive offset processing on an image generated by the decoding unit with an offset type set by the offset setting unit.
  2.  前記オフセット設定部は、前記ブロックのサイズまたは面積が大きい場合、前記ブロックに対して、バンドオフセットを設定し、前記ブロックのサイズまたは面積が小さい場合、前記ブロックに対して、エッジオフセットを設定する
     請求項1に記載の画像処理装置。
    The offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Item 8. The image processing apparatus according to Item 1.
  3.  前記ブロックは、TU(Transform Unit)である
     請求項1に記載の画像処理装置。
    The image processing apparatus according to claim 1, wherein the block is a TU (Transform Unit).
  4.  前記符号化ストリームと前記適応オフセット処理のオンまたはオフを示すオンオフ情報とを受け取る受け取り部を
     さらに備え、
     前記復号部は、前記受け取り部により受け取られた符号化ストリームを復号処理して前記画像を生成し、
     前記適応オフセット処理部は、前記受け取り部により受け取られたオンオフ情報が前記適応オフセット処理のオンである場合、前記オフセット設定部により設定されたオフセットの種類で、前記復号部により生成された画像を対象として、前記適応オフセット処理を行う
     請求項1に記載の画像処理装置。
    A receiving unit for receiving the encoded stream and on / off information indicating on / off of the adaptive offset processing;
    The decoding unit decodes the encoded stream received by the receiving unit to generate the image,
    When the on / off information received by the receiving unit indicates that the adaptive offset processing is on, the adaptive offset processing unit targets the image generated by the decoding unit with the type of offset set by the offset setting unit. The image processing apparatus according to claim 1, wherein the adaptive offset processing is performed.
  5.  前記オフセット設定部は、前記ブロックのサイズまたは面積が第1のサイズまたは第1の面積以上である場合、バンドオフセットを設定し、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より小さい場合、エッジオフセットを設定する
     請求項1に記載の画像処理装置。
    The offset setting unit sets a band offset when the size or area of the block is equal to or larger than the first size or the first area, and the block size or area is the first size or the first area. The image processing apparatus according to claim 1, wherein an edge offset is set when the value is smaller.
  6.  前記オフセット設定部は、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より大きい第2のサイズまたは第2の面積以上である場合、前記適応オフセット処理のオフを設定する
     請求項5に記載の画像処理装置。
    The offset setting unit sets OFF of the adaptive offset processing when the size or area of the block is equal to or larger than the first size or the second size or the second area larger than the first area. 5. The image processing apparatus according to 5.
  7.  前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックに対して、エッジオフセットを設定する
     請求項1に記載の画像処理装置。
    The image processing apparatus according to claim 1, wherein the offset setting unit sets an edge offset for the block when NSQT (Non-Square Quadtree Transform) is applied to the block.
  8.  前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックの短い辺のサイズまたは面積に応じて、前記適応オフセット処理のオフセットの種類を設定する
     請求項1に記載の画像処理装置。
    When the NSQT (Non-Square Quadtree Transform) is applied to the block, the offset setting unit sets the type of offset of the adaptive offset processing according to the size or area of the short side of the block. Item 8. The image processing apparatus according to Item 1.
  9.  前記ブロックは、LCU(Largest Coding Unit)であり、
     前記オフセット設定部は、前記LCUに含まれるサブブロックの面積の積算に応じて、前記適応オフセット処理のオフセットの種類を設定する
     請求項1に記載の画像処理装置。
    The block is an LCU (Largest Coding Unit),
    The image processing apparatus according to claim 1, wherein the offset setting unit sets an offset type of the adaptive offset processing according to integration of areas of subblocks included in the LCU.
  10.  画像処理装置が、
     階層構造を有する単位で符号化された符号化ストリームを復号処理して画像を生成し、
     生成された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定し、
     設定されたオフセットの種類で、生成された画像を対象として、前記適応オフセット処理を行う
     画像処理方法。
    The image processing device
    An image is generated by decoding an encoded stream encoded in units having a hierarchical structure,
    Set the offset type of adaptive offset processing according to the size or area of the block of the generated image,
    An image processing method for performing the adaptive offset processing on a generated image with a set type of offset.
  11.  画像を符号化する際にローカル復号処理された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定するオフセット設定部と、
     前記オフセット設定部により設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理を行う適応オフセット処理部と、
     前記適応オフセット処理部により前記適応オフセット処理が行われた画像を用いて、前記画像を、階層構造を有する単位で符号化する符号化部と
     を備える画像処理装置。
    An offset setting unit that sets the type of offset of adaptive offset processing according to the size or area of the block of the image subjected to local decoding processing when the image is encoded;
    An offset type set by the offset setting unit, an adaptive offset processing unit that performs the adaptive offset processing for the image, and
    An image processing apparatus comprising: an encoding unit that encodes the image in units having a hierarchical structure using the image on which the adaptive offset processing has been performed by the adaptive offset processing unit.
  12.  前記オフセット設定部は、前記ブロックのサイズまたは面積が大きい場合、前記ブロックに対して、バンドオフセットを設定し、前記ブロックのサイズまたは面積が小さい場合、前記ブロックに対して、エッジオフセットを設定する
     請求項11に記載の画像処理装置。
    The offset setting unit sets a band offset for the block when the size or area of the block is large, and sets an edge offset for the block when the size or area of the block is small. Item 12. The image processing apparatus according to Item 11.
  13.  前記ブロックは、TU(Transform Unit)である
     請求項11に記載の画像処理装置。
    The image processing apparatus according to claim 11, wherein the block is a TU (Transform Unit).
  14.  前記符号化部により符号化された画像を伝送する伝送部を
     さらに備え、
     前記適応オフセット処理部は、前記適応オフセット処理のオンまたはオフを決定し、前記適応オフセット処理のオンの場合、前記オフセット設定部により設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理を行い、
     前記伝送部は、前記適応オフセット処理のオンまたはオフを示すオンオフ情報を伝送する
     請求項11に記載の画像処理装置。
    A transmission unit that transmits the image encoded by the encoding unit;
    The adaptive offset processing unit determines whether to turn on or off the adaptive offset processing. When the adaptive offset processing is on, the adaptive offset processing unit sets the adaptive offset for the image with the type of offset set by the offset setting unit. Process,
    The image processing device according to claim 11, wherein the transmission unit transmits on / off information indicating whether the adaptive offset processing is on or off.
  15.  前記オフセット設定部は、前記ブロックのサイズまたは面積が第1のサイズまたは第1の面積以上である場合、バンドオフセットを設定し、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より小さい場合、エッジオフセットを設定する
     請求項11に記載の画像処理装置。
    The offset setting unit sets a band offset when the size or area of the block is equal to or larger than the first size or the first area, and the block size or area is the first size or the first area. The image processing apparatus according to claim 11, wherein an edge offset is set when the value is smaller.
  16.  前記オフセット設定部は、前記ブロックのサイズまたは面積が前記第1のサイズまたは第1の面積より大きい第2のサイズまたは第2の面積以上である場合、前記適応オフセット処理のオフを設定する
     請求項15に記載の画像処理装置。
    The offset setting unit sets OFF of the adaptive offset processing when the size or area of the block is equal to or larger than the first size or the second size or the second area larger than the first area. 15. The image processing device according to 15.
  17.  前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックに対して、エッジオフセットを設定する
     請求項11に記載の画像処理装置。
    The image processing apparatus according to claim 11, wherein the offset setting unit sets an edge offset for the block when NSQT (Non-Square Quadtree Transform) is applied to the block.
  18.  前記オフセット設定部は、前記ブロックに対してNSQT(Non-Square Quadtree Transform)が適用される場合、前記ブロックの短い辺のサイズまたは面積に応じて、前記適応オフセット処理のオフセットの種類を設定する
     請求項11に記載の画像処理装置。
    When the NSQT (Non-Square Quadtree Transform) is applied to the block, the offset setting unit sets the type of offset of the adaptive offset processing according to the size or area of the short side of the block. Item 12. The image processing apparatus according to Item 11.
  19.  前記ブロックは、LCU(Largest Coding Unit)であり、
     前記オフセット設定部は、前記LCUに含まれるサブブロックの面積の積算に応じて、前記適応オフセット処理のオフセットの種類を設定する
     請求項11に記載の画像処理装置。
    The block is an LCU (Largest Coding Unit),
    The image processing apparatus according to claim 11, wherein the offset setting unit sets an offset type of the adaptive offset process according to an integration of areas of subblocks included in the LCU.
  20.  画像処理装置が、
     画像を符号化する際にローカル復号処理された画像のブロックのサイズまたは面積に応じて、適応オフセット処理のオフセットの種類を設定し、
     設定されたオフセットの種類で、前記画像を対象として、前記適応オフセット処理を行い、
     前記適応オフセット処理が行われた画像を用いて、前記画像を、階層構造を有する単位で符号化する
     画像処理方法。
    The image processing device
    Set the offset type of adaptive offset processing according to the block size or area of the locally decoded image block when encoding the image,
    Performing the adaptive offset process for the image with the set offset type,
    An image processing method for encoding the image in units having a hierarchical structure using the image on which the adaptive offset processing has been performed.
PCT/JP2013/060362 2012-04-13 2013-04-04 Image processing apparatus and method WO2013154026A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-092015 2012-04-13
JP2012092015 2012-04-13

Publications (1)

Publication Number Publication Date
WO2013154026A1 true WO2013154026A1 (en) 2013-10-17

Family

ID=49327594

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/060362 WO2013154026A1 (en) 2012-04-13 2013-04-04 Image processing apparatus and method

Country Status (1)

Country Link
WO (1) WO2013154026A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050732A1 (en) * 2012-09-28 2014-04-03 ソニー株式会社 Encoding device, encoding method, decoding device, and decoding method
WO2015083796A1 (en) * 2013-12-04 2015-06-11 三菱電機株式会社 Image encoding device
JP2015128239A (en) * 2013-12-27 2015-07-09 キヤノン株式会社 Image encoder, imaging apparatus, image encoding method and program
JP2015216626A (en) * 2014-04-23 2015-12-03 ソニー株式会社 Image processing device and image processing method
WO2018168484A1 (en) * 2017-03-15 2018-09-20 ソニー株式会社 Coding device, coding method, decoding device, and decoding method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013046990A1 (en) * 2011-09-29 2013-04-04 シャープ株式会社 Offset decoding apparatus, offset encoding apparatus, image filter apparatus, and data structure

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013046990A1 (en) * 2011-09-29 2013-04-04 シャープ株式会社 Offset decoding apparatus, offset encoding apparatus, image filter apparatus, and data structure

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHIH-MING FU ET AL.: "CE8 Subset3: Picture Quadtree Adaptive Offset", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 4TH MEETING, 20 January 2011 (2011-01-20), DAEGU, KR *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050732A1 (en) * 2012-09-28 2014-04-03 ソニー株式会社 Encoding device, encoding method, decoding device, and decoding method
WO2015083796A1 (en) * 2013-12-04 2015-06-11 三菱電機株式会社 Image encoding device
JP5951144B2 (en) * 2013-12-04 2016-07-13 三菱電機株式会社 Image encoding device
JP2015128239A (en) * 2013-12-27 2015-07-09 キヤノン株式会社 Image encoder, imaging apparatus, image encoding method and program
JP2015216626A (en) * 2014-04-23 2015-12-03 ソニー株式会社 Image processing device and image processing method
US10477207B2 (en) 2014-04-23 2019-11-12 Sony Corporation Image processing apparatus and image processing method
WO2018168484A1 (en) * 2017-03-15 2018-09-20 ソニー株式会社 Coding device, coding method, decoding device, and decoding method

Similar Documents

Publication Publication Date Title
JP5907367B2 (en) Image processing apparatus and method, program, and recording medium
JP2016197886A (en) Image processing device, method, and program
US11601685B2 (en) Image processing device and method using adaptive offset filter in units of largest coding unit
CN107071468B (en) Image processing apparatus and image processing method
WO2013002110A1 (en) Image processing device and method
JPWO2014002895A1 (en) Image processing apparatus and method
WO2014050676A1 (en) Image processing device and method
WO2013061852A1 (en) Image processing device and method
US20140092979A1 (en) Image processing apparatus and method
WO2013108688A1 (en) Image processing device and method
WO2013154026A1 (en) Image processing apparatus and method
WO2014050731A1 (en) Image processing device and method
WO2013047326A1 (en) Image processing device and method
WO2014156708A1 (en) Image decoding device and method
JP5999449B2 (en) Image processing apparatus and method, program, and recording medium
WO2013065567A1 (en) Image processing device and method
WO2013051453A1 (en) Image processing device and method
WO2013002106A1 (en) Image processing device and method
JP6094838B2 (en) Image processing apparatus and method, program, and recording medium
JPWO2014002900A1 (en) Image processing apparatus and image processing method
JP6341304B2 (en) Image processing apparatus and method, program, and recording medium
WO2013002111A1 (en) Image processing device and method
AU2015255161B2 (en) Image Processing Device and Method
JP2012244354A (en) Image processing system and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13774982

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13774982

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP