WO2018055712A1 - 画像符号化装置、画像復号装置、画像符号化プログラムおよび画像復号プログラム - Google Patents

画像符号化装置、画像復号装置、画像符号化プログラムおよび画像復号プログラム Download PDF

Info

Publication number
WO2018055712A1
WO2018055712A1 PCT/JP2016/077911 JP2016077911W WO2018055712A1 WO 2018055712 A1 WO2018055712 A1 WO 2018055712A1 JP 2016077911 W JP2016077911 W JP 2016077911W WO 2018055712 A1 WO2018055712 A1 WO 2018055712A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
coefficient
image area
unit
correction
Prior art date
Application number
PCT/JP2016/077911
Other languages
English (en)
French (fr)
Inventor
慎也 平栗
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US16/332,929 priority Critical patent/US20190230357A1/en
Priority to PCT/JP2016/077911 priority patent/WO2018055712A1/ja
Priority to JP2018540544A priority patent/JP6732031B2/ja
Publication of WO2018055712A1 publication Critical patent/WO2018055712A1/ja
Priority to US16/950,084 priority patent/US11425381B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]

Definitions

  • the present invention relates to image encoding and decoding.
  • a lossless compression coding method in which image deterioration does not occur before and after coding and decoding, and a compression error occurs in the coding, so that the original image is not completely restored in decoding.
  • a compression coding method When these methods are compared, the non-reversible compression coding method is superior in terms of compression efficiency. Therefore, non-reversible compression methods are generally used except for special applications.
  • JPEG Joint Photographic Experts Group
  • JPEG 2000 is generally used as the lossy compression coding method for images.
  • two-dimensional discrete cosine transform is used for coefficient transformation and coefficient inverse transformation
  • Huffman coding is used for entropy coding and entropy decoding.
  • scalar quantization is employed. Scalar quantization is quantization before entropy coding.
  • JPEG 2000 recursive two-dimensional discrete wavelet transform is used for coefficient transformation and coefficient inverse transformation, and arithmetic coding is used for entropy coding and entropy decoding.
  • scalar quantization or post quantization is employed. Post-quantization is quantization after entropy coding.
  • Quantization is a process to reduce information.
  • the quantization discards part of the image information, a difference occurs between the decompressed image and the original image. This difference is called compression error.
  • the quantization width is controlled according to the frequency component. Specifically, the quantization width of the high frequency component is large, and the quantization width of the low frequency component is small.
  • the quantization width of the high frequency component is large, the amount of reduction of the information of the high frequency component is large, so that the compression efficiency is secured.
  • the quantization width of the low frequency component is small, the amount of reduction of the information of the low frequency component is small, so the image quality is secured.
  • Human eyes are sensitive to differences in slow changes but insensitive to differences in fast changes, so even if the amount of reduction of high-frequency component information is large, the image quality is less degraded from the human eyes .
  • the quantization width is not controlled according to the brightness. Therefore, due to the quantization, the same compression error occurs in the bright part in the image and the dark part in the image. Therefore, the signal-to-noise ratio (Signal-to-Noise ratio) representing the ratio between the luminance value and the compression error is worse in the dark part in the image than in the bright part in the image. As a result, the image quality of the high precision image obtained using the limit performance of the SN ratio in the image sensor is degraded. Specifically, it becomes difficult to recognize dark parts. For example, the image quality of high-precision images such as medical images used in medical fields and remote sensing images obtained by artificial satellites is degraded. In addition, when the dark portion of the image such as a backlit photograph is subjected to gradation correction, the noise accompanying the compression error is emphasized and the image quality is deteriorated.
  • Non Patent Literature 1 discloses the technical content of JPEG
  • Non Patent Literature 2 discloses the technical content of JPEG 2000.
  • An object of the present invention is to enable coding of an image in consideration of the luminance of the image.
  • the image coding apparatus of the present invention is The image processing apparatus further includes a correction coefficient determination unit that determines a correction coefficient to be used for correcting the quantization width based on the luminance of the image area for each image area that is a part of the image.
  • the correction coefficient is determined for each image area, it is possible to correct the quantization width for each image area. Therefore, it is possible to encode the image in consideration of the brightness of the image.
  • FIG. 1 is a configuration diagram of an image coding apparatus 100 according to Embodiment 1.
  • FIG. 2 is a block diagram of an image decoding apparatus 200 according to Embodiment 1.
  • 6 is a flowchart of an image coding method according to Embodiment 1.
  • 6 is a flowchart of an image decoding method according to Embodiment 1.
  • FIG. 6 is a diagram showing the relationship between luminance and noise in Embodiment 1.
  • 5 is another configuration diagram of the image coding device 100 according to Embodiment 1.
  • FIG. FIG. 7 is another configuration diagram of the image decoding device 200 in Embodiment 1.
  • FIG. 6 is a block diagram of an image coding apparatus 100 according to a second embodiment.
  • FIG. 8 is a block diagram of an image decoding apparatus 200 according to Embodiment 2.
  • FIG. 10 is a diagram showing the relationship between an original image and a reduced image in Embodiment 2.
  • 6 is a flowchart of an image decoding method according to Embodiment 2.
  • FIG. 10 is another configuration diagram of the image coding device 100 according to Embodiment 2.
  • FIG. 10 is another configuration diagram of the image decoding device 200 in Embodiment 2.
  • FIG. 10 is a block diagram of an image coding apparatus 300 according to a third embodiment.
  • FIG. 10 is a block diagram of an image decoding apparatus 400 according to a third embodiment.
  • 10 is a flowchart of an image coding method in Embodiment 3.
  • 11 is a flowchart of an image decoding method in Embodiment 3.
  • FIG. 16 is a relationship diagram of conversion coefficients in Embodiment 3.
  • FIG. 16 is another configuration diagram of the image coding device 300 in Embodiment 3.
  • FIG. 16 is another configuration diagram of the image decoding device 400 in Embodiment 3.
  • FIG. 16 is a block diagram of an image coding apparatus 300 according to a fourth embodiment.
  • FIG. 16 is a block diagram of an image decoding apparatus 400 according to a fourth embodiment.
  • 16 is a flowchart of an image coding method according to Embodiment 4.
  • FIG. 16 is a diagram showing the relationship between an original image and a reduced image in Embodiment 4.
  • 16 is a flowchart of an image decoding method in Embodiment 4.
  • FIG. 18 is another configuration diagram of the image coding device 300 in Embodiment 4.
  • FIG. 18 is another configuration diagram of the image decoding device 400 in Embodiment 4.
  • the hardware block diagram of the image coding apparatus (100, 300) in embodiment.
  • Embodiment 1 The image encoding device 100 and the image decoding device 200 will be described based on FIGS. 1 to 5.
  • the configuration of an image coding apparatus 100 for coding an image will be described based on FIG.
  • the image coding apparatus 100 is a computer including hardware such as a processor 911, a memory 912, an auxiliary storage device 913, a communication device 914, an input device 915, and a display 916. These pieces of hardware are connected to each other via signal lines.
  • the processor 911 is an integrated circuit (IC) that performs processing, and controls other hardware.
  • the processor 911 is a CPU, a DSP or a GPU.
  • CPU is an abbreviation for Central Processing Unit
  • DSP is an abbreviation for Digital Signal Processor
  • GPU is an abbreviation for Graphics Processing Unit.
  • the memory 912 is a volatile storage device.
  • the memory 912 is also referred to as main storage or main memory.
  • the memory 912 is a random access memory (RAM).
  • the auxiliary storage device 913 is a non-volatile storage device.
  • the auxiliary storage device 913 is a ROM, an HDD or a flash memory. ROM is an abbreviation for Read Only Memory, and HDD is an abbreviation for Hard Disk Drive.
  • the communication device 914 is a device that performs communication, and includes a receiver and a transmitter. Specifically, the communication device 914 is a communication chip or a NIC (Network Interface Card).
  • the input device 915 is a device that receives an input. Specifically, the input device 915 is a keyboard, a mouse, a ten key or a touch panel.
  • the display 916 is a display device that displays an image or the like. Specifically, display 916 is a liquid crystal display. The display 916 is also referred to as a monitor.
  • the image coding apparatus 100 has a functional configuration of “parts” such as a coefficient conversion unit 111, a scalar quantization unit 112, an entropy coding unit 113, a luminance distribution extraction unit 121, a correction coefficient determination unit 122, and a quantization width correction unit 123.
  • “unit” means an element of a functional configuration provided in the image coding apparatus 100.
  • the function of "section” is realized by software. The function of "section” will be described later.
  • the auxiliary storage device 913 stores a program for realizing the function of “section”.
  • a program for realizing the function of “part” is loaded into the memory 912 and executed by the processor 911.
  • an OS Operating System
  • At least a portion of the OS is loaded into memory 902 and executed by processor 911. That is, the processor 911 executes a program that implements the function of “section” while executing the OS.
  • Data obtained by executing a program for realizing the function of “part” is stored in a storage device such as a memory 912, an auxiliary storage device 913, a register in the processor 911 or a cache memory in the processor 911.
  • the memory 912 functions as a storage unit 191 in which data used, generated, input, output, transmitted, or received by the image coding apparatus 100 is stored. However, another storage device may function as the storage unit 191.
  • the communication device 914 functions as a communication unit that communicates data.
  • the receiver functions as a receiver that receives data
  • the transmitter functions as a transmitter that transmits data.
  • the input device 915 functions as a receiving unit that receives an input.
  • the display 916 functions as a display unit that displays an image or the like.
  • the image coding apparatus 100 may include multiple processors that replace the processor 901. A plurality of processors share the execution of a program that realizes the function of "section".
  • the program for realizing the function of “part” can be computer-readably stored in a non-volatile storage medium such as a magnetic disk, an optical disk, or a flash memory. Nonvolatile storage media are tangible media that are not temporary. "Part” may be read as “process” or "process”. The function of “part” may be realized by firmware.
  • the configuration of an image decoding apparatus 200 that decodes an image will be described based on FIG.
  • the image decoding apparatus 200 is a computer including hardware such as a processor 921, a memory 922, an auxiliary storage device 923, a communication device 924, an input device 925, and a display 926. These pieces of hardware are connected to each other via signal lines.
  • the processor 921, the memory 922, the auxiliary storage device 923, the communication device 924, the input device 925, and the display 926 are hardware similar to the hardware provided to the image coding device 100.
  • the image decoding apparatus 200 includes “units” such as a coefficient inverse transform unit 211, a scalar inverse quantization unit 212, an entropy decoding unit 213, a correction coefficient determination unit 221, and a quantization width correction unit 222 as elements of functional configuration.
  • “part” means an element of a functional configuration provided in the image decoding apparatus 200.
  • the function of "section” is realized by software. The function of "section” will be described later.
  • the auxiliary storage device 923 stores a program for realizing the function of “section”.
  • a program that implements the function of “part” is loaded into the memory 922 and executed by the processor 921.
  • Data obtained by executing a program for realizing the function of “part” is stored in a storage device such as a memory 922, an auxiliary storage device 923, a register in the processor 921 or a cache memory in the processor 921.
  • the memory 922 functions as a storage unit 291 in which data used in the image decoding apparatus 200 is stored. However, another storage device may function as the storage unit 291.
  • the communication device 924 functions as a communication unit that communicates data. In the communication device 924, the receiver functions as a receiver that receives data, and the transmitter functions as a transmitter that transmits data.
  • the input device 925 functions as a receiving unit that receives an input.
  • the display 926 functions as a display unit that displays an image or the like.
  • the image decoding apparatus 200 may include a plurality of processors replacing the processor 921.
  • a plurality of processors share the execution of a program that realizes the function of "section".
  • a program for realizing the function of “part” can be computer-readably stored in a non-volatile storage medium.
  • Nonvolatile storage media are tangible media that are not temporary.
  • Part may be read as “process” or "process”.
  • the function of “part” may be realized by firmware.
  • the operation of the image coding apparatus 100 corresponds to the image coding method. Further, the procedure of the image coding method corresponds to the procedure of the image coding program. The operation of the image decoding apparatus 200 corresponds to an image decoding method. Also, the procedure of the image decoding method corresponds to the procedure of the image decoding program.
  • image data including an image is stored in the storage unit 191.
  • Step S111 is coefficient conversion processing.
  • the coefficient conversion unit 111 performs coefficient conversion for each image area using the image data. Thereby, conversion coefficients can be obtained for each image area.
  • An image area is a portion obtained by dividing an image. That is, the image area is part of the image. For example, the image area is an area of 8 ⁇ 8 pixels.
  • the transform coefficients are coefficients obtained by performing coefficient transform.
  • the coefficient conversion unit 111 performs two-dimensional DCT for each image area. Thereby, DCT coefficients are obtained for each image area.
  • DCT is an abbreviation for discrete cosine transform.
  • the DCT coefficients are coefficients for each frequency component.
  • Step S112 is a luminance distribution extraction process.
  • the luminance distribution extraction unit 121 generates luminance distribution information using the image data.
  • the luminance distribution information is information indicating the luminance for each image area.
  • the luminance of the image area is an average of a plurality of luminances of a plurality of pixels constituting the image area.
  • the luminance distribution extraction unit 121 generates a reduced image as luminance distribution information.
  • the reduced image is an image obtained by reducing the original image, and is also referred to as a thumbnail image.
  • the pixels in the reduced image correspond to the image area in the original image, and the luminance of the pixels in the reduced image corresponds to the luminance of the image area in the original image.
  • Step S113 is a correction coefficient determination process.
  • the correction coefficient determination unit 122 determines a correction coefficient for each image area using the luminance distribution information. That is, the correction coefficient determination unit 122 determines the correction coefficient based on the brightness of the image area for each image area.
  • the correction coefficient is a value used to correct the quantization width.
  • the quantization width is a value for each frequency component and corresponds to an element included in a quantization table used in JPEG. The quantization width is stored in advance in the storage unit 191.
  • Each correction coefficient is a value to be multiplied by the quantization width, and is larger as the image area is brighter and smaller as the image area is darker. That is, each correction coefficient is larger than the correction coefficient of the image area darker than the image area, and smaller than the correction coefficient of the image area brighter than the image area.
  • each correction coefficient has the following feature (1) or (2).
  • Each correction coefficient is proportional to the luminance of the image area. That is, the ratio of the correction factor of the image area to the correction factor of the other image area corresponds to the ratio of the luminance of the image area to the luminance of the other image area.
  • Each correction coefficient is proportional to 1/2 of the luminance of the image area. One half means one half. That is, the ratio of the correction factor of the image area to the correction factor of the other image area corresponds to the ratio of the half power of the luminance of the image area to the half power of the luminance of the other image area.
  • the correction coefficient determination unit 122 may determine the correction coefficient for each image area in any order. For example, the correction coefficient determination unit 122 may calculate a correction coefficient corresponding to the brightness of the image area by calculating a previously defined equation, or a correction corresponding to the brightness of the image area from a table defined in advance. The coefficients may be obtained.
  • Step S114 is a quantization width correction process.
  • the quantization width correction unit 123 corrects the quantization width using the correction coefficient of the image area for each image area. Thereby, the quantization width after correction is obtained for each image area.
  • the quantization width after correction is larger as the image area is brighter and smaller as the image area is darker.
  • the quantization width correction unit 123 calculates the corrected quantization width by calculating the following equation.
  • ⁇ q is the quantization width after correction.
  • ⁇ q lum is a correction coefficient.
  • ⁇ q nom is a quantization width before correction.
  • Step S115 is scalar quantization processing.
  • the scalar quantization unit 112 quantizes the transform coefficient of the image area using the corrected quantization width for each image area. Thereby, transform coefficients after quantization are obtained for each image area.
  • the quantization method is the same as before.
  • Step S116 is an entropy coding process.
  • the entropy coding unit 113 performs entropy coding on the quantized transform coefficients for each image region. Thereby, compressed data is obtained.
  • the compressed data is data including transform coefficients after encoding for each image area.
  • the entropy coding method is the same as conventional.
  • the image decoding method will be described based on FIG. It is assumed that the compressed data obtained in step S116 of the image coding method (FIG. 3) is stored in the storage unit 291. Further, it is assumed that the luminance distribution information obtained in step S112 of the image coding method (FIG. 3) is stored in the storage unit 291.
  • Step S121 is an entropy decoding process.
  • the entropy decoding unit 213 performs entropy decoding on the transform coefficients after encoding for each image region using the compressed data. Thereby, transform coefficients after quantization are obtained for each image area.
  • the entropy decoding method is the same as conventional.
  • Step S122 is a correction coefficient determination process.
  • the correction coefficient determination unit 221 determines a correction coefficient for each image area using the luminance distribution information. That is, the correction coefficient determination unit 221 determines the correction coefficient based on the brightness of the image area for each image area.
  • the feature of the correction coefficient and the method of determining the correction coefficient are the same as step S113 of the image coding method (FIG. 3).
  • Step S123 is a quantization width correction process.
  • the quantization width correction unit 222 corrects the quantization width using the correction coefficient of the image area for each image area. Thereby, the quantization width after correction is obtained for each image area.
  • the method of correcting the quantization width is the same as step S114 of the image coding method (FIG. 3).
  • Step S124 is a scalar dequantization process.
  • the scalar dequantization unit 212 dequantizes the transform coefficient after quantization using the corrected quantization width for each image region. Thereby, conversion coefficients of the image area can be obtained for each image area.
  • the dequantization method is the same as in the prior art.
  • Step S125 is coefficient inverse transformation processing.
  • the coefficient inverse transform unit 211 performs coefficient inverse transform on the transform coefficient of the image area for each image area. Specifically, the coefficient inverse transform unit 211 performs two-dimensional inverse DCT for each image area. Thereby, image data including the decoded image is obtained.
  • the correction coefficient is determined based on the brightness of the image area for each image area.
  • the quantization width is corrected using the correction coefficient for each image area.
  • the quantization width is controlled in accordance with the brightness of the image area for each image area. Since the correction factor of the bright area is large and the correction factor of the dark area is small, the compression error of the bright area is large and the compression error of the dark area is small. As a result, the degradation of the image quality in the dark part and the enhancement of the compression error due to the tone correction are suppressed. That is, it is possible to provide an image coding method, an image coding device, an image decoding method, and an image decoding device for suppressing the deterioration of the SN ratio of the dark part.
  • CMOS Complementary Metal Oxide Semiconductor
  • Sensor noise is random noise that is proportional to one half of the luminance value. Therefore, even if the compression error is excessively small compared to the sensor noise, the influence on the subjective image quality is small. When such characteristics are considered in order to make the most of the SN characteristics of the sensor, the compression error is distributed in proportion to 1/2 of the luminance by making the correction coefficient proportional to 1/2 of the luminance. .
  • (N) is a graph showing sensor noise
  • (0) is a graph showing distribution of conventional compression errors
  • (1) is a graph showing the distribution of compression error when the correction coefficient is proportional to the luminance
  • (2) is a graph showing the distribution of compression error when the correction coefficient is proportional to the 1/2 power of the luminance It is.
  • (0) of FIG. 5 when the quantization width is not corrected according to the luminance, the compression error is excessively small in the bright part compared with the sensor noise (N), and the sensor noise (N) in the dark part The compression error is large compared to.
  • the first embodiment may be applied to either a single color image or a color image.
  • the configuration of the image encoding device 100 shown in FIG. 1 and the configuration of the image decoding device 200 shown in FIG. 2 are configurations suitable for single-color images.
  • the configuration of the image coding apparatus 100 suitable for a color image will be described based on FIG.
  • the image coding apparatus 100 includes a color conversion unit 101, a coefficient conversion unit 131, a scalar quantization unit 132, and an entropy coding unit 133 in addition to the elements of the functional configuration shown in FIG.
  • the color conversion unit 101 converts image data of a color image into image data of luminance and image data of color difference. Specifically, image data in RGB format is converted into image data in YUV format.
  • Image data of Y format is image data of luminance
  • image data of UV format is image data of color difference.
  • the coefficient conversion unit 111, the scalar quantization unit 112, and the entropy coding unit 113 perform processing on image data of luminance.
  • the coefficient conversion unit 131, the scalar quantization unit 132, and the entropy coding unit 133 perform processing on color difference image data.
  • the configuration of the image decoding apparatus 200 suitable for a color image will be described based on FIG.
  • the image decoding apparatus 200 includes a color conversion unit 201, a coefficient conversion unit 231, a scalar dequantization unit 232, and an entropy decoding unit 233 in addition to the elements of the functional configuration shown in FIG.
  • the color conversion unit 201 converts luminance image data and color difference image data into color image data. Specifically, image data in YUV format is converted into image data in RGB format.
  • the coefficient inverse transformation unit 211, the scalar inverse quantization unit 212, and the entropy decoding unit 213 perform processing on image data of luminance.
  • the coefficient conversion unit 231, the scalar dequantization unit 232, and the entropy decoding unit 233 perform processing on color difference image data.
  • the image decoding apparatus 200 may include the luminance distribution extraction unit 121 as the image encoding apparatus 100 does.
  • One computer may have the functional configuration of the image encoding device 100 and the functional configuration of the image decoding device 200.
  • a computer provided with the functional configuration of the image encoding device 100 and the functional configuration of the image decoding device 200 is referred to as an image processing device.
  • the image processing apparatus like the image encoding apparatus 100 and the image decoding apparatus 200, includes hardware such as a processor, a memory, an auxiliary storage device, a communication device, an input device, and a display.
  • the operation of the image processing apparatus corresponds to the image processing method
  • the procedure of the image processing method corresponds to the procedure of the image processing program.
  • Second Embodiment A mode of generating luminance distribution information using a conversion coefficient will be mainly described with reference to FIGS. 8 to 12 as to differences from the first embodiment.
  • the configuration of the image coding apparatus 100 will be described based on FIG.
  • the image coding apparatus 100 includes a simulated inverse quantization unit 124 in addition to the elements of the functional configuration shown in FIG. 1 in the first embodiment.
  • the function of the simulated inverse quantization unit 124 will be described later.
  • the configuration of the image decoding apparatus 200 will be described based on FIG.
  • the image decoding apparatus 200 includes a luminance distribution extraction unit 223 and a luminance dequantization unit 224 in addition to the elements of the functional configuration shown in FIG. 2 in the first embodiment.
  • the functions of the luminance distribution extraction unit 223 and the luminance dequantization unit 224 will be described later.
  • Step S211 is coefficient conversion processing.
  • the coefficient conversion unit 111 performs coefficient conversion for each image area using the image data. Thereby, conversion coefficients can be obtained for each image area.
  • the coefficient conversion unit 111 performs two-dimensional DCT for each image area. Thereby, DCT coefficients are obtained for each image area.
  • Step S212 is a luminance distribution extraction process.
  • the luminance distribution extraction unit 121 generates luminance distribution information using, as the luminance of the image area, the DC component included in the DCT coefficient of the image area for each image area.
  • DC is an abbreviation for direct current.
  • the luminance distribution extraction unit 121 generates luminance distribution information as follows. First, the luminance distribution extraction unit 121 extracts a DC component for each image area from the DCT coefficients for each image area obtained in step S211. Then, the luminance distribution extraction unit 121 generates a reduced image using the DC component for each image area as the luminance for each pixel. The reduced image generated is the luminance distribution information. The pixels of the reduced image correspond to the image area of the original image.
  • the luminance distribution extraction unit 121 generates a reduced image as shown in FIG. 11 as luminance distribution information.
  • DCT is performed on the original image for each image area of 8 ⁇ 8 pixels. Then, DC components for each image area are collected to generate a 1/8 reduced image.
  • Step S213 is a simulated inverse quantization process.
  • the simulated inverse quantization unit 124 simulates the luminance inverse quantization process by the luminance inverse quantization unit 224 of the image decoding device 200.
  • the simulated inverse quantization unit 124 performs quantization on the luminance distribution information, and performs inverse quantization on the quantized luminance distribution information. Thereby, luminance distribution information after inverse quantization is obtained. More specifically, the simulated inverse quantization unit 124 performs quantization on the DC component for each image region using the quantization width before correction for the DC component. As a result, the DC component after quantization is obtained for each image area. Then, the simulated inverse quantization unit 124 performs inverse quantization on the DC component after quantization for each image region using the quantization width before correction for the DC component. Thereby, the DC component after inverse quantization is obtained for each image area.
  • the quantization and inverse quantization methods are the same as in the prior art.
  • Step S214 is a correction coefficient determination process.
  • the correction coefficient determination unit 122 determines a correction coefficient for each image region using the luminance distribution information after inverse quantization.
  • the feature of the correction coefficient and the method of determining the correction coefficient are the same as step S113 of the image coding method (FIG. 3) in the first embodiment.
  • Step S215 is a quantization width correction process.
  • the quantization width correction unit 123 corrects the quantization width of the AC component using the correction coefficient of the image area for each image area.
  • AC components are frequency components other than DC components.
  • AC is an abbreviation of exchange.
  • the method of correcting the quantization width of the AC component is the same as step S114 of the image coding method (FIG. 3) in the first embodiment.
  • the quantization width correction unit 123 corrects the quantization width of the DC component using 1 as a correction coefficient of the image area for each image area. In other words, the quantization width correction unit 123 does not correct the quantization width of the DC component.
  • step S215 the corrected quantization width is obtained for each image area.
  • Step S216 is scalar quantization processing.
  • the scalar quantization unit 112 quantizes the transform coefficient of the image area using the corrected quantization width for each image area. Thereby, transform coefficients after quantization are obtained for each image area.
  • the quantization method is the same as before.
  • Step S217 is an entropy coding process.
  • the entropy coding unit 113 performs entropy coding on the quantized transform coefficients for each image region. Thereby, compressed data is obtained.
  • the entropy coding method is the same as conventional.
  • the image decoding method will be described based on FIG. It is assumed that the compressed data obtained in step S217 of the image coding method (FIG. 10) is stored in the storage unit 291.
  • Step S221 is an entropy decoding process.
  • the entropy decoding unit 213 performs entropy decoding on the transformed coefficients after encoding for each image region using the compressed data. Thereby, transform coefficients after quantization are obtained for each image area. Specifically, DCT coefficients after quantization are obtained for each image area.
  • the entropy decoding method is the same as conventional.
  • Step S222 is luminance distribution extraction processing.
  • the luminance distribution extraction unit 223 generates luminance distribution information using, as the luminance of the image area, the DC component included in the quantized DCT coefficient for each image area.
  • the method of generating the luminance distribution information is the same as step S212 of the image coding method (FIG. 10).
  • Step S223 is a luminance dequantization process.
  • the luminance dequantization unit 224 performs inverse quantization on the luminance distribution information. Specifically, the luminance dequantization unit 224 performs dequantization on the DC component after quantization for each image region using the quantization width before correction for the DC component. Thereby, the DC component after inverse quantization is obtained for each image area.
  • the dequantization method is the same as in the prior art.
  • Step S224 is a correction coefficient determination process.
  • the correction coefficient determination unit 221 determines a correction coefficient for each image region using the luminance distribution information after inverse quantization.
  • the feature of the correction coefficient and the method of determining the correction coefficient are the same as step S113 of the image coding method (FIG. 3) in the first embodiment.
  • Step S225 is a quantization width correction process.
  • the quantization width correction unit 222 corrects the quantization width of the AC component using the correction coefficient of the image area for each image area.
  • the method of correcting the quantization width of the AC component is the same as step S114 of the image coding method (FIG. 3) in the first embodiment.
  • the quantization width correction unit 123 corrects the quantization width of the DC component using 1 as a correction coefficient of the image area for each image area. In other words, the quantization width correction unit 123 does not correct the quantization width of the DC component.
  • step S225 the corrected quantization width is obtained for each image area.
  • Step S226 is a scalar dequantization process.
  • the scalar dequantization unit 212 dequantizes the transform coefficient after quantization using the corrected quantization width for each image region. Thereby, conversion coefficients of the image area can be obtained for each image area.
  • the dequantization method is the same as in the prior art.
  • Step S227 is coefficient inverse transformation processing.
  • the coefficient inverse transformation unit 211 performs coefficient inverse transformation on the transformation coefficient of the image area for each image area. Specifically, the coefficient inverse transform unit 211 performs two-dimensional inverse DCT for each image area. Thereby, image data including the decoded image is obtained.
  • the image coding apparatus 100 sets the correction coefficient to 1 for DC components and performs quantization without changing the quantization width.
  • the image decoding apparatus 200 performs inverse quantization without changing the quantization width by setting the correction coefficient to 1 for the DC component.
  • the image coding apparatus 100 performs quantization and inverse quantization on the DC component extracted as luminance distribution information using the quantization width before correction, and corrects the DC component after the inverse quantization based on the DC component. Determine the coefficients and correct the quantization width.
  • the image decoding apparatus 200 obtains the DCT coefficient after quantization by entropy decoding, and extracts a DC component from the DCT coefficient after quantization.
  • the image decoding apparatus 200 performs inverse quantization on the extracted DC component using the quantization width before correction. As a result, the image decoding apparatus 200 can obtain the same correction coefficient as the correction coefficient determined by the image coding apparatus 100.
  • the quantization width correction units (123, 222) of the image encoding device 100 and the image decoding device 200 may correct the quantization width of the DC component without setting the correction coefficient to 1. That is, the quantization width correction unit (123, 222) may change the quantization width of the DC component by correction as in the first embodiment.
  • the image coding apparatus 100 may not include the simulated dequantization unit 124, and the image decoding apparatus 200 may not include the luminance dequantization unit 224. That is, the image coding apparatus 100 may not execute step S213 of the image coding method (FIG. 10). In that case, in step S214, a correction coefficient is determined for each image area using the luminance distribution information generated in step S212.
  • the image decoding apparatus 200 may not execute step S223 of the image decoding method (FIG. 12). In that case, in step S224, a correction coefficient is determined for each image area using the luminance distribution information generated in step S222.
  • the error in the DC component is easy to be recognized by the human eye, so the quantization width is usually small, and the DC component corresponds to a reduced image, so the amount of data is small. It can be said that the influence on the compression performance is small. If the simulated dequantization unit 124 and the luminance dequantization unit 224 become unnecessary, although the compression performance slightly decreases, it is possible to significantly reduce the amount of calculation.
  • the second embodiment may be applied to either a monochrome image or a color image as in the first embodiment.
  • the configuration of the image coding apparatus 100 shown in FIG. 8 and the configuration of the image decoding apparatus 200 shown in FIG. 9 are configurations suitable for single-color images.
  • the configuration of the image coding apparatus 100 suitable for a color image will be described based on FIG.
  • the image coding apparatus 100 includes a color conversion unit 101, a coefficient conversion unit 131, a scalar quantization unit 132, and an entropy coding unit 133 in addition to the elements of the functional configuration shown in FIG.
  • the configuration of the image decoding apparatus 200 suitable for a color image will be described based on FIG.
  • the image decoding apparatus 200 includes a color conversion unit 201, a coefficient conversion unit 231, a scalar dequantization unit 232, and an entropy decoding unit 233 in addition to the elements of the functional configuration shown in FIG.
  • the image encoding device 300 is a computer including hardware such as a processor 931, a memory 932, an auxiliary storage 933, a communication device 934, an input device 935, and a display 936. These pieces of hardware are connected to each other via signal lines.
  • the processor 931, the memory 932, the auxiliary storage device 933, the communication device 934, the input device 935 and the display 936 are hardware similar to the hardware provided to the image coding device 100 in the first embodiment.
  • the image coding apparatus 300 is an element of the functional configuration of “parts” such as a coefficient conversion unit 311, an entropy coding unit 312, a post quantization unit 313, a luminance distribution extraction unit 321, a correction coefficient determination unit 322, and a conversion coefficient correction unit 323.
  • “unit” means an element of a functional configuration provided in the image coding apparatus 300.
  • the function of "section” is realized by software. The function of "section” will be described later.
  • the auxiliary storage device 933 stores a program for realizing the function of “section”.
  • a program that implements the function of “part” is loaded into the memory 932 and executed by the processor 931.
  • Data obtained by executing a program for realizing the function of “part” is stored in a storage device such as a memory 932, an auxiliary storage device 933, a register in the processor 931 or a cache memory in the processor 931.
  • the memory 932 functions as a storage unit 391 in which data used by the image coding device 300 is stored. However, another storage device may function as the storage unit 391.
  • the communication device 934 functions as a communication unit that communicates data.
  • the receiver functions as a receiver that receives data
  • the transmitter functions as a transmitter that transmits data.
  • the input device 935 functions as a receiving unit that receives an input.
  • the display 936 functions as a display unit that displays an image or the like.
  • the image coding apparatus 300 may include multiple processors that replace the processor 931. A plurality of processors share the execution of a program that realizes the function of "section". A program for realizing the function of “part” can be computer-readably stored in a non-volatile storage medium. Nonvolatile storage media are tangible media that are not temporary. "Part” may be read as “process” or “process”. The function of “part” may be realized by firmware.
  • the configuration of an image decoding apparatus 400 that decodes an image will be described based on FIG.
  • the image decoding apparatus 400 is a computer including hardware such as a processor 941, a memory 942, an auxiliary storage device 943, a communication device 944, an input device 945, and a display 946. These pieces of hardware are connected to each other via signal lines.
  • the processor 941, the memory 942, the auxiliary storage device 943, the communication device 944, the input device 945, and the display 946 are hardware similar to the hardware provided to the image coding device 100 in the first embodiment.
  • the image decoding apparatus 400 includes “units” such as a coefficient inverse transform unit 411, an entropy decoding unit 412, a correction coefficient determination unit 421, and a transform coefficient inverse correction unit 422 as elements of functional configuration.
  • “part” means an element of a functional configuration provided in the image decoding apparatus 400.
  • the function of "section” is realized by software. The function of "section” will be described later.
  • the auxiliary storage device 943 stores a program for realizing the function of “section”.
  • a program for realizing the function of “part” is loaded into the memory 942 and executed by the processor 941.
  • Data obtained by executing a program that implements the function of “part” is stored in a storage device such as a memory 942, an auxiliary storage device 943, a register in the processor 941 or a cache memory in the processor 941.
  • the memory 942 functions as a storage unit 491 in which data used by the image decoding apparatus 400 is stored. However, another storage device may function as the storage unit 491.
  • the communication device 944 functions as a communication unit that communicates data.
  • the receiver functions as a receiver that receives data
  • the transmitter functions as a transmitter that transmits data.
  • the input device 945 functions as a receiving unit that receives an input.
  • the display 946 functions as a display unit that displays an image or the like.
  • the image decoding apparatus 400 may include multiple processors that replace the processor 941.
  • a plurality of processors share the execution of a program that realizes the function of "section".
  • a program for realizing the function of “part” can be computer-readably stored in a non-volatile storage medium.
  • Nonvolatile storage media are tangible media that are not temporary.
  • Part may be read as “process” or "process”.
  • the function of “part” may be realized by firmware.
  • the operation of the image coding apparatus 300 corresponds to the image coding method. Further, the procedure of the image coding method corresponds to the procedure of the image coding program. The operation of the image decoding apparatus 400 corresponds to an image decoding method. Also, the procedure of the image decoding method corresponds to the procedure of the image decoding program.
  • image data including an image is stored in the storage unit 191.
  • Step S311 is coefficient conversion processing.
  • the coefficient conversion unit 311 performs coefficient conversion on the image using the image data. This yields the transform coefficients of the image. Specifically, the coefficient conversion unit 311 performs two-dimensional DWT on the image. Thereby, DWT coefficients are obtained for each frequency component. More specifically, DWT coefficients of the LL component, the HL component, the LH component, and the HH component are obtained. DWT is an abbreviation of discrete wavelet transform. The DWT coefficients are per-pixel coefficients.
  • Step S312 is luminance distribution extraction processing.
  • the luminance distribution extraction unit 321 generates luminance distribution information using the image data.
  • the luminance distribution information indicates the luminance for each image area.
  • Step S313 is a correction coefficient determination process.
  • the correction coefficient determination unit 322 determines a correction coefficient for each image area using the luminance distribution information. That is, the correction coefficient determination unit 122 determines the correction coefficient based on the brightness of the image area for each image area.
  • the correction coefficient is a value used to correct the conversion coefficient of the image area.
  • Each correction coefficient is a value dividing the conversion coefficient of the image area, and is larger as the image area is brighter and smaller as the image area is darker. That is, each correction coefficient is larger than the correction coefficient of the image area darker than the image area, and smaller than the correction coefficient of the image area brighter than the image area.
  • each correction coefficient has the following feature (1) or (2).
  • Each correction coefficient is proportional to the luminance of the image area. That is, the ratio of the correction factor of the image area to the correction factor of the other image area corresponds to the ratio of the luminance of the image area to the luminance of the other image area.
  • Each correction coefficient is proportional to 1/2 of the luminance of the image area. One half means one half. That is, the ratio of the correction factor of the image area to the correction factor of the other image area corresponds to the ratio of the half power of the luminance of the image area to the half power of the luminance of the other image area.
  • the correction coefficient determination unit 322 may determine the correction coefficient for each image area in any order. For example, the correction coefficient determination unit 322 may calculate a correction coefficient corresponding to the brightness of the image area by calculating a previously defined equation, or a correction corresponding to the brightness of the image area from a table defined in advance. The coefficients may be obtained.
  • Step S314 is a conversion factor correction process.
  • the conversion coefficient correction unit 323 corrects the conversion coefficient of the image area using the correction coefficient of the image area for each image area. Thereby, the conversion coefficient after correction is obtained for each image area.
  • the conversion coefficient after correction is smaller as the image area is brighter and larger as the image area is darker.
  • the transform coefficient correction unit 323 calculates the corrected quantization width by calculating the following equation.
  • Coeff correct Coeff ⁇ ( ⁇ q lum_max / ⁇ q lum )
  • Coeff correct is a conversion coefficient after correction.
  • Coeff is a conversion coefficient before correction.
  • ⁇ q lum_max is a correction coefficient corresponding to the maximum luminance.
  • ⁇ q lum is a correction coefficient.
  • Step S315 is an entropy coding process.
  • the entropy coding unit 312 performs entropy coding on the transformed coefficients of the image after correction. Thereby, transform coefficients after encoding of the image are obtained.
  • the entropy coding method is the same as conventional.
  • Step S316 is post-quantization processing.
  • the post quantization unit 313 quantizes the transform coefficient after coding of the image. Thereby, compressed data is obtained.
  • Compressed data is data including transform coefficients after image quantization.
  • the quantization method is the same as before.
  • the image decoding method will be described based on FIG. It is assumed that the compressed data obtained in step S316 of the image coding method (FIG. 17) is stored in the storage unit 491. Further, it is assumed that the luminance distribution information obtained in step S312 of the image coding method (FIG. 17) is stored in the storage unit 491.
  • Step S321 is an entropy decoding process.
  • the entropy decoding unit 412 performs entropy decoding on the transform coefficients after quantization of the image using the compressed data. Thereby, the transform coefficients after decoding of the image are obtained. Specifically, DWT coefficients after image decoding are obtained.
  • the entropy decoding method is the same as conventional.
  • Step S322 is a correction coefficient determination process.
  • the correction coefficient determination unit 421 determines a correction coefficient for each image area using the luminance distribution information. That is, the correction coefficient determination unit 221 determines the correction coefficient based on the brightness of the image area for each image area.
  • the feature of the correction coefficient and the method of determining the correction coefficient are the same as step S313 of the image coding method (FIG. 17).
  • Step S323 is a conversion coefficient reverse correction process.
  • the transform coefficient inverse correction unit 422 inversely corrects the decoded transform coefficient using the correction coefficient of the image area for each image area. Thereby, conversion coefficients of the image area can be obtained for each image area.
  • the transform coefficient inverse correction unit 422 calculates the transform coefficient of the image area by calculating the following equation.
  • Coeff quant Coeff correct_quant ⁇ ( ⁇ q lum / ⁇ q lum_max )
  • Coeff quant is a conversion coefficient after inverse correction.
  • Coeff correct_quant is a transform coefficient before inverse correction, that is, a transform coefficient after decoding.
  • Coeff correct_quant is the same as Coeff correct after being quantized in step S316 of the image coding method (FIG. 17). Moreover, since the following relationship holds that ⁇ q lum ⁇ ⁇ q lum_max, holds the relationship Coeff quant ⁇ Coeff correct_quant.
  • Step S324 is coefficient inverse transformation processing.
  • the coefficient inverse transform unit 411 performs coefficient inverse transform on the transform coefficients of the image. Specifically, the coefficient inverse transformation unit 411 performs two-dimensional inverse DWT on the DWT coefficients of the image. Thereby, image data including the decoded image is obtained.
  • the third embodiment may be applied to either a single color image or a color image.
  • the configuration of the image coding apparatus 300 shown in FIG. 15 and the configuration of the image decoding apparatus 400 shown in FIG. 16 are configurations suitable for single-color images.
  • the configuration of the image coding apparatus 300 suitable for a color image will be described based on FIG.
  • the image coding apparatus 300 includes a color conversion unit 301, a coefficient conversion unit 331, a conversion coefficient correction unit 332, an entropy coding unit 333 and a post quantization unit 334 in addition to the elements of the functional configuration shown in FIG. .
  • the color converter 301 converts image data of a color image into image data of luminance and image data of color difference.
  • image data in RGB format is converted into image data in YUV format.
  • Image data of Y format is image data of luminance
  • image data of UV format is image data of color difference.
  • the coefficient conversion unit 311, the transform coefficient correction unit 323, the entropy coding unit 312, and the post quantization unit 313 perform processing on image data of luminance.
  • the coefficient conversion unit 331, the transform coefficient correction unit 332, the entropy coding unit 333 and the post quantization unit 334 perform processing on color difference image data.
  • the configuration of an image decoding apparatus 400 suitable for a color image will be described based on FIG.
  • the image decoding apparatus 400 includes a color conversion unit 401, an entropy decoding unit 431, a transform coefficient inverse correction unit 432, and a coefficient inverse conversion unit 433 in addition to the elements of the functional configuration shown in FIG.
  • a color conversion unit 401 converts luminance image data and color difference image data into color image data. Specifically, image data in YUV format is converted into image data in RGB format.
  • the entropy decoding unit 412, the transform coefficient inverse correction unit 422, and the coefficient inverse conversion unit 411 perform processing on image data of luminance.
  • the entropy decoding unit 431, the transform coefficient inverse correction unit 432, and the coefficient inverse transform unit 433 perform processing on color difference image data.
  • the image decoding device 400 may include the luminance distribution extraction unit 321 as the image coding device 300 does.
  • One computer may have the functional configuration of the image encoding device 300 and the functional configuration of the image decoding device 400.
  • a computer provided with the functional configuration of the image encoding device 300 and the functional configuration of the image decoding device 400 is referred to as an image processing device.
  • the image processing apparatus includes hardware such as a processor, a memory, an auxiliary storage device, a communication device, an input device, and a display, as in the image encoding device 300 and the image decoding device 400.
  • the operation of the image processing apparatus corresponds to the image processing method, and the procedure of the image processing method corresponds to the procedure of the image processing program.
  • the configuration of the image coding apparatus 300 will be described based on FIG.
  • the image coding apparatus 300 includes a simulated quantization unit 324 in addition to the elements of the functional configuration shown in FIG. 15 in the third embodiment.
  • the function of the simulation quantization unit 324 will be described later.
  • the configuration of the image decoding apparatus 400 will be described based on FIG.
  • the image decoding apparatus 400 includes a luminance distribution extraction unit 423 in addition to the elements of the functional configuration shown in FIG. 16 in the fourth embodiment.
  • the function of the luminance distribution extraction unit 423 will be described later.
  • image data including an image is stored in the storage unit 391.
  • Step S411 is coefficient conversion processing.
  • the coefficient conversion unit 311 performs coefficient conversion on the image using the image data. This yields the transform coefficients of the image. Specifically, the coefficient conversion unit 311 performs two-dimensional DWT on the image. Thereby, DWT coefficients are obtained for each frequency component.
  • Step S412 is luminance distribution extraction processing.
  • the luminance distribution extraction unit 321 generates luminance distribution information using the DWT coefficient. Specifically, the luminance distribution extraction unit 321 generates luminance distribution information including the highest order LL component as a reduced image. The pixels of the reduced image correspond to the image area of the original image. When two DWTs are performed, the luminance distribution extraction unit 321 generates luminance distribution information including the 2LL component as a reduced image.
  • FIG. 25 shows the relationship between the original image and the 2LL component corresponding to the reduced image.
  • Step S413 is a simulation quantization process.
  • the simulated quantization unit 324 simulates the post quantization process by the post quantization unit 313.
  • the simulated quantization unit 324 performs quantization on the luminance distribution information, and performs inverse quantization on the quantized luminance distribution information. Thereby, luminance distribution information after inverse quantization is obtained. More specifically, the simulated quantization unit 324 performs quantization on the highest-order LL component using the quantization width before correction. Thereby, the LL component after quantization is obtained. Then, the simulated quantization unit 324 performs inverse quantization on the LL component after quantization using the quantization width before correction. Thereby, the LL component after inverse quantization is obtained.
  • the quantization and inverse quantization methods are the same as in the prior art.
  • Step S414 is a correction coefficient determination process.
  • the correction coefficient determination unit 322 determines a correction coefficient for each image area using the luminance distribution information after inverse quantization.
  • the feature of the correction coefficient and the method of determining the correction coefficient are the same as step S313 of the image coding method (FIG. 17) in the third embodiment.
  • Step S415 is conversion factor correction processing.
  • the conversion coefficient correction unit 323 corrects the conversion coefficient of the high frequency component using the correction coefficient of the image area for each image area.
  • the high frequency components are frequency components other than the highest order LL component.
  • the method of correcting the transform coefficients of high frequency components is the same as step S314 of the image coding method (FIG. 17) in the third embodiment.
  • the conversion coefficient correction unit 323 corrects the conversion coefficient of the highest order LL component using 1 as the correction coefficient of the image region for each image region. In other words, the conversion coefficient correction unit 323 does not correct the conversion coefficient of the highest order LL component.
  • step S415 the corrected conversion coefficient is obtained for each image area.
  • Step S416 is an entropy coding process.
  • the entropy coding unit 312 performs entropy coding on the transformed coefficients of the image after correction. Thereby, transform coefficients after encoding of the image are obtained.
  • the entropy coding method is the same as conventional.
  • Step S417 is post-quantization processing.
  • the post quantization unit 313 quantizes the transform coefficient after coding of the image. Thereby, compressed data is obtained.
  • Compressed data is data including transform coefficients after image quantization.
  • the quantization method is the same as before.
  • the image decoding method will be described based on FIG. It is assumed that the compressed data obtained in step S417 of the image coding method (FIG. 24) is stored in the storage unit 491.
  • Step S421 is an entropy decoding process.
  • the entropy decoding unit 412 performs entropy decoding on the quantized transform coefficients of the image area using the compressed data. Thereby, the transform coefficients after decoding of the image are obtained. Specifically, DWT coefficients after image decoding are obtained.
  • the entropy decoding method is the same as conventional.
  • Step S422 is a luminance distribution extraction process.
  • the luminance distribution extraction unit 423 generates luminance distribution information using the DWT coefficients after decoding of the image.
  • the method of generating the luminance distribution information is the same as step S412 of the image coding method (FIG. 24).
  • Step S423 is a correction coefficient determination process.
  • the correction coefficient determination unit 421 determines a correction coefficient for each image area using the luminance distribution information.
  • the feature of the correction coefficient and the method of determining the correction coefficient are the same as step S313 of the image coding method (FIG. 17) in the third embodiment.
  • Step S424 is a conversion coefficient reverse correction process.
  • the conversion coefficient inverse correction unit 422 reversely corrects the conversion coefficient of the high frequency component using the correction coefficient of the image region for each image region.
  • the method of inversely correcting the transform coefficients of high frequency components is the same as step S323 of the image decoding method (FIG. 18) in the third embodiment.
  • the conversion coefficient reverse correction unit 422 reversely corrects the conversion coefficient of the highest order LL component using 1 as the correction coefficient of the image region for each image region. In other words, the transform coefficient inverse correction unit 422 does not inversely correct the transform coefficient of the highest order LL component.
  • step S42 conversion coefficients of the image area are obtained for each of the image areas.
  • Step S425 is coefficient inverse transformation processing.
  • the coefficient inverse transform unit 411 performs coefficient inverse transform on the transform coefficients of the image. Specifically, the coefficient inverse transformation unit 411 performs two-dimensional inverse DWT on the DWT coefficients of the image. Thereby, image data including the decoded image is obtained.
  • the transform coefficient correction units (323 and 422) of the image encoding device 300 and the image decoding device 400 may correct the transform coefficient of the highest order LL component without setting the correction coefficient to 1. That is, as in the third embodiment, the conversion coefficient correction unit (323, 422) may change the conversion coefficient of the highest order LL component by correction. In that case, the image coding device 300 may not include the simulation quantization unit 324. That is, the image coding apparatus 300 may not execute step S413 of the image coding method (FIG. 24). In that case, in step S414, a correction coefficient is determined for each image area using the luminance distribution information generated in step S412. This makes it possible to significantly reduce the amount of computation.
  • the fourth embodiment may be applied to either a single color image or a color image.
  • the configuration of the image coding apparatus 300 shown in FIG. 22 and the configuration of the image decoding apparatus 400 shown in FIG. 23 are configurations suitable for single-color images.
  • the configuration of the image coding apparatus 300 suitable for a color image will be described based on FIG.
  • the image coding apparatus 300 includes a color conversion unit 301, a coefficient conversion unit 331, a conversion coefficient correction unit 332, an entropy coding unit 333 and a post quantization unit 334 in addition to the elements of the functional configuration shown in FIG. .
  • the configuration of an image decoding apparatus 400 suitable for a color image will be described based on FIG.
  • the image decoding apparatus 400 includes a color conversion unit 401, an entropy decoding unit 431, a transform coefficient inverse correction unit 432, and a coefficient inverse conversion unit 433 in addition to the elements of the functional configuration shown in FIG.
  • the function of the image coding apparatus (100, 300) may be realized by hardware.
  • FIG. 29 shows a configuration where the functions of the image coding apparatus (100, 300) are realized by hardware.
  • the image coding apparatus (100, 300) includes a processing circuit 991.
  • the processing circuit 991 is also referred to as processing circuitry.
  • a processing circuit 991 includes a coefficient conversion unit 111, a scalar quantization unit 112, an entropy coding unit 113, a luminance distribution extraction unit 121, a correction coefficient determination unit 122, a quantization width correction unit 123, and a simulation inverse It is a dedicated electronic circuit that implements the function of "unit" such as the quantization unit 124 and the storage unit 191.
  • the processing circuit 991 includes a coefficient conversion unit 311, an entropy coding unit 312, a post quantization unit 313, a luminance distribution extraction unit 321, a correction coefficient determination unit 322, a conversion coefficient correction unit 323, and a simulation quantization.
  • the processing circuit 991 is a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA, an ASIC, an FPGA, or a combination thereof.
  • GA is an abbreviation for Gate Array
  • ASIC is an abbreviation for Application Specific Integrated Circuit
  • FPGA is an abbreviation for Field Programmable Gate Array.
  • the image coding apparatus may include a plurality of processing circuits that replace the processing circuit 991.
  • a plurality of processing circuits share the function of "part".
  • the functions of the image coding apparatus may be realized by a combination of software and hardware. That is, part of the functions of "part” may be realized by software, and the rest of the functions of "part” may be realized by hardware.
  • the function of the image decoding apparatus (200, 400) may be realized by hardware.
  • FIG. 30 shows a configuration where the functions of the image decoding apparatus (200, 400) are realized by hardware.
  • the image decoding apparatus (200, 400) includes a processing circuit 992.
  • the processing circuit 992 is also referred to as processing circuitry.
  • the processing circuit 992 includes a coefficient inverse transformation unit 211, a scalar inverse quantization unit 212, an entropy decoding unit 213, a correction coefficient determination unit 221, a quantization width correction unit 222, a luminance distribution extraction unit 223, and a luminance inverse It is a dedicated electronic circuit that implements the function of “unit” such as the quantization unit 224 and the storage unit 291.
  • the processing circuit 992 is a function of “part” such as a coefficient inverse conversion unit 411, an entropy decoding unit 412, a correction coefficient determination unit 421, a conversion coefficient inverse correction unit 422, a luminance distribution extraction unit 423, and a storage unit 491.
  • the processing circuit 992 is a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA, an ASIC, an FPGA, or a combination thereof.
  • the image decoding apparatus (200, 400) may include a plurality of processing circuits that replace the processing circuit 992. A plurality of processing circuits share the function of "part".
  • the functions of the image decoding apparatus (200, 400) may be realized by a combination of software and hardware. That is, part of the functions of "part” may be realized by software, and the rest of the functions of "part” may be realized by hardware.
  • the embodiments are exemplifications of preferred embodiments, and are not intended to limit the technical scope of the present invention.
  • the embodiment may be partially implemented or may be implemented in combination with other embodiments.
  • the procedure described using the flowchart and the like may be changed as appropriate.
  • Reference Signs List 100 image coding apparatus, 101 color converter, 111 coefficient converter, 112 scalar quantization unit, 113 entropy coding unit, 121 luminance distribution extraction unit, 122 correction coefficient determination unit, 123 quantization width correction unit, 124 simulated inverse A quantization unit, 131 coefficient conversion unit, 132 scalar quantization unit, 133 entropy coding unit, 191 storage unit, 200 image decoding device, 201 color conversion unit, 211 coefficient inverse conversion unit, 212 scalar inverse quantization unit, 213 entropy Decoding unit, 221 correction coefficient determination unit, 222 quantization width correction unit, 223 luminance distribution extraction unit, 224 luminance dequantization unit, 231 coefficient conversion unit, 232 scalar inverse quantization unit, 233 entropy decoding unit, 291 storage unit, 300 image coding device, 301 color converter, 311 Conversion unit, 312 entropy coding unit, 313 post quantization unit, 321 luminance distribution extraction unit, 3

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

係数変換部(111)は、画像領域毎に係数変換を行うことによって、画像領域毎に変換係数を得る。輝度分布抽出部(121)は、画像領域毎の輝度を示す輝度分布情報を生成する。補正係数決定部(122)は、画像領域毎に、輝度分布情報に基づいて補正係数を決定する。量子化幅補正部(123)は、画像領域毎に画像領域の補正係数を用いて量子化幅を補正することによって、画像領域毎に補正後の量子化幅を得る。スカラー量子化部(112)は、画像領域毎に補正後の量子化幅を用いて画像領域の変換係数を量子化することによって、画像領域毎に量子化後の変換係数を得る。エントロピー符号化部(113)は、画像領域毎に量子化後の変換係数に対するエントロピー符号化を行うことによって、画像領域毎に符号化後の変換係数を得る。

Description

画像符号化装置、画像復号装置、画像符号化プログラムおよび画像復号プログラム
 本発明は、画像の符号化および復号に関するものである。
 近年、画像の高解像化に伴って画像のデータ量は急激に増大しており、効率的に画像のデータ量を圧縮するための画像符号化方式および画像復号方式の重要性が増している。
 画像符号化方式としては、符号化および復号の前後にて画像の劣化が発生しない可逆圧縮符号化方式と、符号化で圧縮誤差が発生するため復号で元の画像が完全には復元されない非可逆圧縮符号化方式とがある。
 これらの方式を比較すると、非可逆圧縮符号化方式の方が圧縮効率の観点でみると優れている。そのため、特殊な用途を除いて、一般的には非可逆圧縮方式が用いられている。
 画像の非可逆圧縮符号化方式には、JPEG(Joint Photographic Experts Group)またはJPEG2000が一般的に用いられている。
 JPEGの場合、係数変換および係数逆変換で2次元離散コサイン変換が用いられ、エントロピー符号化およびエントロピー復号でハフマン符号が用いられている。また、スカラー量子化が採用されている。スカラー量子化はエントロピー符号化前の量子化である。
 JPEG2000の場合、係数変換および係数逆変換で再帰的な2次元離散ウェーブレット変換を用いており、エントロピー符号化およびエントロピー復号で算術符号が用いられている。また、スカラー量子化またはポスト量子化が採用されている。ポスト量子化はエントロピー符号化後の量子化である。
 量子化は情報を削減するための処理である。量子化によって画像の情報の一部が捨てられると、伸張後の画像と元の画像との間で差異が発生する。この差異を圧縮誤差と呼ぶ。
 JPEGおよびJPEG2000では、周波数成分に応じて量子化幅が制御される。具体的には、高周波成分の量子化幅は大きく、低周波成分の量子化幅は小さい。高周波成分の量子化幅が大きいと高周波成分の情報の削減量が多いため、圧縮効率が確保される。低周波成分の量子化幅が小さいと低周波成分の情報の削減量が少ないため、画質が確保される。人の目はゆっくりとした変化の差異には鋭敏であるが早い変化の差異には鈍感であるため、高周波成分の情報の削減量が多くても、人の目から見ると画質の劣化が少ない。
 しかし、JPEGおよびJPEG2000では、量子化幅が明るさに応じて制御されていない。そのため、量子化によって、画像内の明るい部分と画像内の暗い部分とで同程度の圧縮誤差が発生する。したがって、輝度値と圧縮誤差との比を表すSN比(Signal-to-Noise ratio)は、画像内の明るい部分に比べて画像内の暗い部分の方が悪い。その結果、イメージセンサにおけるSN比の限界性能を利用して得られる高精度画像の画質が劣化する。具体的には、暗い部分の認識が困難となる。
 例えば、医療現場で用いられる医療用画像および人工衛星によって得られるリモートセンシング画像等の高精度画像の画質が劣化する。また、逆光写真等の画像の暗い部分を階調補正した際に圧縮誤差に伴うノイズが強調されて画質が劣化する。
 非特許文献1はJPEGの技術内容を開示し、非特許文献2はJPEG2000の技術内容を開示している。
ISO/IEC 10918-1:1994 ISO/IEC 15444-1:2004
 本発明は、画像の輝度を考慮して画像を符号化できるようにすることを目的とする。
 本発明の画像符号化装置は、
 画像の一部である画像領域毎に、画像領域の輝度に基づいて、量子化幅の補正に用いられる補正係数を決定する補正係数決定部を備える。
 本発明によれば、画像領域毎に補正係数が決定されるため、画像領域毎に量子化幅を補正することが可能となる。したがって、画像の輝度を考慮して画像を符号化することが可能となる。
実施の形態1における画像符号化装置100の構成図。 実施の形態1における画像復号装置200の構成図。 実施の形態1における画像符号化方法のフローチャート。 実施の形態1における画像復号方法のフローチャート。 実施の形態1における輝度とノイズとの関係図。 実施の形態1における画像符号化装置100の他の構成図。 実施の形態1における画像復号装置200の他の構成図。 実施の形態2における画像符号化装置100の構成図。 実施の形態2における画像復号装置200の構成図。 実施の形態2における画像符号化方法のフローチャート。 実施の形態2における元の画像と縮小画像との関係図。 実施の形態2における画像復号方法のフローチャート。 実施の形態2における画像符号化装置100の他の構成図。 実施の形態2における画像復号装置200の他の構成図。 実施の形態3における画像符号化装置300の構成図。 実施の形態3における画像復号装置400の構成図。 実施の形態3における画像符号化方法のフローチャート。 実施の形態3における画像復号方法のフローチャート。 実施の形態3における変換係数の関係図。 実施の形態3における画像符号化装置300の他の構成図。 実施の形態3における画像復号装置400の他の構成図。 実施の形態4における画像符号化装置300の構成図。 実施の形態4における画像復号装置400の構成図。 実施の形態4における画像符号化方法のフローチャート。 実施の形態4における元の画像と縮小画像との関係図。 実施の形態4における画像復号方法のフローチャート。 実施の形態4における画像符号化装置300の他の構成図。 実施の形態4における画像復号装置400の他の構成図。 実施の形態における画像符号化装置(100、300)のハードウェア構成図。 実施の形態における画像復号装置(200、400)のハードウェア構成図。
 実施の形態および図面において、同じ要素または互いに相当する要素には同じ符号を付している。同じ符号が付された要素の説明は適宜に省略または簡略する。図中の矢印はデータまたは処理の流れを主に示している。
 実施の形態1.
 画像符号化装置100および画像復号装置200について、図1から図5に基づいて説明する。
***構成の説明***
 図1に基づいて、画像を符号化する画像符号化装置100の構成を説明する。
 画像符号化装置100は、プロセッサ911とメモリ912と補助記憶装置913と通信装置914と入力装置915とディスプレイ916といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
 プロセッサ911は、プロセッシングを行うIC(Integrated Circuit)であり、他のハードウェアを制御する。具体的には、プロセッサ911は、CPU、DSPまたはGPUである。CPUはCentral Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、GPUはGraphics Processing Unitの略称である。
 メモリ912は揮発性の記憶装置である。メモリ912は、主記憶装置またはメインメモリとも呼ばれる。具体的には、メモリ912はRAM(Random Access Memory)である。
 補助記憶装置913は不揮発性の記憶装置である。具体的には、補助記憶装置913は、ROM、HDDまたはフラッシュメモリである。ROMはRead Only Memoryの略称であり、HDDはHard Disk Driveの略称である。
 通信装置914は、通信を行う装置であり、レシーバとトランスミッタとを備える。具体的には、通信装置914は通信チップまたはNIC(Network Interface Card)である。
 入力装置915は、入力を受け付ける装置である。具体的には、入力装置915は、キーボード、マウス、テンキーまたはタッチパネルである。
 ディスプレイ916は、画像等を表示する表示装置である。具体的には、ディスプレイ916は液晶ディスプレイである。ディスプレイ916はモニタともいう。
 画像符号化装置100は、係数変換部111とスカラー量子化部112とエントロピー符号化部113と輝度分布抽出部121と補正係数決定部122と量子化幅補正部123といった「部」を機能構成の要素として備える。図1の説明において「部」は画像符号化装置100に備わる機能構成の要素を意味する。
 「部」の機能はソフトウェアで実現される。「部」の機能については後述する。
 補助記憶装置913には、「部」の機能を実現するプログラムが記憶されている。「部」の機能を実現するプログラムは、メモリ912にロードされて、プロセッサ911によって実行される。
 さらに、補助記憶装置913にはOS(Operating System)が記憶されている。OSの少なくとも一部は、メモリ902にロードされて、プロセッサ911によって実行される。
 つまり、プロセッサ911は、OSを実行しながら、「部」の機能を実現するプログラムを実行する。
 「部」の機能を実現するプログラムを実行して得られるデータは、メモリ912、補助記憶装置913、プロセッサ911内のレジスタまたはプロセッサ911内のキャッシュメモリといった記憶装置に記憶される。
 メモリ912は、画像符号化装置100で使用、生成、入力、出力、送信または受信されるデータが記憶される記憶部191として機能する。但し、他の記憶装置が記憶部191として機能してもよい。
 通信装置914はデータを通信する通信部として機能する。通信装置914において、レシーバはデータを受信する受信部として機能し、トランスミッタはデータを送信する送信部として機能する。
 入力装置915は入力を受け付ける受付部として機能する。
 ディスプレイ916は画像等を表示する表示部として機能する。
 画像符号化装置100は、プロセッサ901を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、「部」の機能を実現するプログラムの実行を分担する。
 「部」の機能を実現するプログラムは、磁気ディスク、光ディスクまたはフラッシュメモリ等の不揮発性の記憶媒体にコンピュータ読み取り可能に記憶することができる。不揮発性の記憶媒体は、一時的でない有形の媒体である。
 「部」は「処理」または「工程」に読み替えてもよい。「部」の機能はファームウェアで実現してもよい。
 図2に基づいて、画像を復号する画像復号装置200の構成を説明する。
 画像復号装置200は、プロセッサ921とメモリ922と補助記憶装置923と通信装置924と入力装置925とディスプレイ926といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
 プロセッサ921、メモリ922、補助記憶装置923、通信装置924、入力装置925およびディスプレイ926は、画像符号化装置100に備わるハードウェアと同様のハードウェアである。
 画像復号装置200は、係数逆変換部211とスカラー逆量子化部212とエントロピー復号部213と補正係数決定部221と量子化幅補正部222といった「部」を機能構成の要素として備える。図2の説明において「部」は画像復号装置200に備わる機能構成の要素を意味する。
 「部」の機能はソフトウェアで実現される。「部」の機能については後述する。
 補助記憶装置923には、「部」の機能を実現するプログラムが記憶されている。「部」の機能を実現するプログラムは、メモリ922にロードされて、プロセッサ921によって実行される。
 「部」の機能を実現するプログラムを実行して得られるデータは、メモリ922、補助記憶装置923、プロセッサ921内のレジスタまたはプロセッサ921内のキャッシュメモリといった記憶装置に記憶される。
 メモリ922は、画像復号装置200で使用されるデータが記憶される記憶部291として機能する。但し、他の記憶装置が記憶部291として機能してもよい。
 通信装置924はデータを通信する通信部として機能する。通信装置924において、レシーバはデータを受信する受信部として機能し、トランスミッタはデータを送信する送信部として機能する。
 入力装置925は入力を受け付ける受付部として機能する。
 ディスプレイ926は画像等を表示する表示部として機能する。
 画像復号装置200は、プロセッサ921を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、「部」の機能を実現するプログラムの実行を分担する。
 「部」の機能を実現するプログラムは不揮発性の記憶媒体にコンピュータ読み取り可能に記憶することができる。不揮発性の記憶媒体は一時的でない有形の媒体である。
 「部」は「処理」または「工程」に読み替えてもよい。「部」の機能はファームウェアで実現してもよい。
***動作の説明***
 画像符号化装置100の動作は画像符号化方法に相当する。また、画像符号化方法の手順は画像符号化プログラムの手順に相当する。
 画像復号装置200の動作は画像復号方法に相当する。また、画像復号方法の手順は画像復号プログラムの手順に相当する。
 図3に基づいて、画像符号化方法を説明する。
 画像を含んだ画像データが、記憶部191に記憶されているものとする。
 ステップS111は係数変換処理である。
 ステップS111において、係数変換部111は、画像データを用いて、画像領域毎に係数変換を行う。これにより、画像領域毎に変換係数が得られる。
 画像領域は画像を分割して得られる部分である。つまり、画像領域は画像の一部である。例えば、画像領域は8×8画素の領域である。
 変換係数は、係数変換を行うことによって得られる係数である。
 具体的には、係数変換部111は、画像領域毎に2次元DCTを行う。これにより、画像領域毎にDCT係数が得られる。DCTは離散コサイン変換の略称である。DCT係数は周波数成分毎の係数である。
 ステップS112は輝度分布抽出処理である。
 ステップS112において、輝度分布抽出部121は、画像データを用いて、輝度分布情報を生成する。
 輝度分布情報は、画像領域毎の輝度を示す情報である。例えば、画像領域の輝度は、画像領域を構成する複数の画素が有する複数の輝度の平均である。
 具体的には、輝度分布抽出部121は、輝度分布情報として縮小画像を生成する。縮小画像は、元の画像を縮小した画像であり、サムネイル画像ともいう。
 縮小画像における画素は元の画像における画像領域に対応し、縮小画像における画素の輝度は元の画像における画像領域の輝度に相当する。
 ステップS113は補正係数決定処理である。
 ステップS113において、補正係数決定部122は、輝度分布情報を用いて、画像領域毎に補正係数を決定する。
 つまり、補正係数決定部122は、画像領域毎に画像領域の輝度に基づいて補正係数を決定する。
 補正係数は、量子化幅の補正に用いられる値である。
 量子化幅は、周波数成分毎の値であり、JPEGで用いられる量子化テーブルに含まれる要素に相当する。量子化幅は記憶部191に予め記憶されている。
 各補正係数は、量子化幅に掛けられる値であり、当該画像領域が明るいほど大きく、当該画像領域が暗いほど小さい。つまり、各補正係数は、当該画像領域よりも暗い画像領域の補正係数よりも大きく、当該画像領域よりも明るい画像領域の補正係数よりも小さい。
 さらに、各補正係数は、以下に示す(1)または(2)の特徴を有する。
 (1)各補正係数は、当該画像領域の輝度に比例する。つまり、他の画像領域の補正係数に対する当該画像領域の補正係数の比は、他の画像領域の輝度に対する当該画像領域の輝度の比に相当する。
 (2)各補正係数は、当該画像領域の輝度の1/2乗に比例する。1/2は2分の1を意味する。つまり、他の画像領域の補正係数に対する当該画像領域の補正係数の比は、他の画像領域の輝度の1/2乗に対する当該画像領域の輝度の1/2乗の比に相当する。
 補正係数決定部122は、画像領域毎の補正係数をどのような手順で決定してもよい。
 例えば、補正係数決定部122は、予め定義された式を計算することによって画像領域の輝度に対応する補正係数を算出してもよいし、予め定義されたテーブルから画像領域の輝度に対応する補正係数を取得してもよい。
 ステップS114は量子化幅補正処理である。
 ステップS114において、量子化幅補正部123は、画像領域毎に画像領域の補正係数を用いて量子化幅を補正する。これにより、画像領域毎に補正後の量子化幅が得られる。
 補正後の量子化幅は、当該画像領域が明るいほど大きく当該画像領域が暗いほど小さい。
 具体的には、量子化幅補正部123は、以下の式を計算することによって、補正後の量子化幅を算出する。
 Δq=Δqlum×Δqnom
 Δqは、補正後の量子化幅である。
 Δqlumは、補正係数である。
 Δqnomは、補正前の量子化幅である。
 ステップS115はスカラー量子化処理である。
 ステップS115において、スカラー量子化部112は、画像領域毎に補正後の量子化幅を用いて画像領域の変換係数を量子化する。これにより、画像領域毎に量子化後の変換係数が得られる。量子化の方法は従来と同じである。
 ステップS116はエントロピー符号化処理である。
 ステップS116において、エントロピー符号化部113は、画像領域毎に量子化後の変換係数に対するエントロピー符号化を行う。これにより、圧縮データが得られる。圧縮データは、画像領域毎に符号化後の変換係数を含んだデータである。エントロピー符号化の方法は従来と同じである。
 図4に基づいて、画像復号方法を説明する。
 画像符号化方法(図3)のステップS116で得られた圧縮データが、記憶部291に記憶されているものとする。
 また、画像符号化方法(図3)のステップS112で得られた輝度分布情報が、記憶部291に記憶されているものとする。
 ステップS121はエントロピー復号処理である。
 ステップS121において、エントロピー復号部213は、圧縮データを用いて、画像領域毎に符号化後の変換係数に対するエントロピー復号を行う。これにより、画像領域毎に量子化後の変換係数が得られる。エントロピー復号の方法は従来と同じである。
 ステップS122は補正係数決定処理である。
 ステップS122において、補正係数決定部221は、輝度分布情報を用いて、画像領域毎に補正係数を決定する。
 つまり、補正係数決定部221は、画像領域毎に画像領域の輝度に基づいて補正係数を決定する。
 補正係数が有する特徴および補正係数を決定する方法は、画像符号化方法(図3)のステップS113と同じである。
 ステップS123は量子化幅補正処理である。
 ステップS123において、量子化幅補正部222は、画像領域毎に画像領域の補正係数を用いて量子化幅を補正する。これにより、画像領域毎に補正後の量子化幅が得られる。量子化幅を補正する方法は、画像符号化方法(図3)のステップS114と同じである。
 ステップS124はスカラー逆量子化処理である。
 ステップS124において、スカラー逆量子化部212は、画像領域毎に補正後の量子化幅を用いて量子化後の変換係数を逆量子化する。これにより、画像領域毎に画像領域の変換係数が得られる。逆量子化の方法は従来と同じである。
 ステップS125は係数逆変換処理である。
 ステップS125において、係数逆変換部211は、画像領域毎に画像領域の変換係数に対する係数逆変換を行う。具体的には、係数逆変換部211は、画像領域毎に2次元逆DCTを行う。これにより、復号された画像を含んだ画像データが得られる。
***実施の形態1の効果***
 実施の形態1では、画像領域毎に画像領域の輝度に基づいて補正係数が決定される。そして、画像領域毎に補正係数を用いて量子化幅が補正される。言い換えると、画像領域毎に画像領域の明るさに応じて量子化幅が制御される。
 明るい領域の補正係数は大きく、暗い領域の補正係数は小さいため、明るい領域の圧縮誤差が大きくなり、暗い領域の圧縮誤差が小さくなる。その結果、暗い部分の画質の劣化および階調補正による圧縮誤差の強調が抑制される。
 つまり、暗い部分のSN比の劣化を抑制するための画像符号化方法、画像符号化装置、画像復号方法および画像復号装置を提供することが可能となる。
 次に、補正係数が輝度に比例する場合に奏する効果を説明する。
 補正係数が輝度に比例することにより、圧縮誤差は輝度に比例して配分される。そのため、輝度に対する圧縮誤差の比、つまり、輝度に対する相対誤差が一定となる。その結果、輝度のダイナミックレンジが変更されても、特定の輝度を有する部分で圧縮誤差が目立つことを抑制することが可能となる。
 次に、補正係数が輝度の1/2乗に比例する場合に奏する効果を説明する。
 一般に、CCDセンサまたはCMOSセンサ等の光学センサにおいて、センサノイズまたはショットノイズと呼ばれる成分が発生する。CCDはCharge-Coupled Deviceの略称であり、CMOSはComplementary Metal Oxide Semiconductorの略称である。
 センサノイズは輝度値の1/2に比例するランダムノイズである。そのため、圧縮誤差がセンサノイズと比べて過度に小さくても、主観的な画質への影響は小さい。
 このような特性をセンサのSN特性を最大限利用するために考慮した場合、補正係数が輝度の1/2乗に比例することにより、圧縮誤差は輝度の1/2に比例して配分される。
 図5において、(N)はセンサノイズを示すグラフであり、(0)は従来の圧縮誤差の配分を示すグラフである。また、(1)は補正係数が輝度に比例する場合の圧縮誤差の配分を示すグラフであり、(2)は補正係数が輝度の1/2乗に比例する場合の圧縮誤差の配分を示すグラフである。
 図5の(0)に示すように、量子化幅が輝度に応じて補正されない場合、明るい部分ではセンサノイズ(N)と比較して圧縮誤差が過度に小さく、暗い部分ではセンサノイズ(N)と比較して圧縮誤差が大きい。
 図5の(1)に示すように、補正係数が輝度に比例し、量子化幅が補正係数を用いて補正される場合、明るい部分ではセンサノイズ(N)と比較して圧縮誤差が大きくなる可能性がある。
 図5の(2)に示すように、補正係数が輝度の1/2乗に比例し、量子化幅が補正係数を用いて補正される場合、センサノイズと同様に圧縮誤差が配分される。つまり、輝度に関わらず全ての部分において圧縮誤差が最適化される。したがって、センサのSN特性を最大限に利用することが可能となる。
***他の構成***
 実施の形態1は単色画像とカラー画像とのいずれに適用してもよい。
 図1に示した画像符号化装置100の構成および図2に示した画像復号装置200の構成は、単色画像に適した構成である。
 図6に基づいて、カラー画像に適した画像符号化装置100の構成を説明する。
 画像符号化装置100は、図1に示した機能構成の要素に加えて、色変換部101と係数変換部131とスカラー量子化部132とエントロピー符号化部133とを備える。
 色変換部101は、カラー画像の画像データを輝度の画像データと色差の画像データとに変換する。具体的には、RGB形式の画像データをYUV形式の画像データに変換する。Y形式の画像データが輝度の画像データであり、UV形式の画像データが色差の画像データである。
 係数変換部111、スカラー量子化部112およびエントロピー符号化部113は、輝度の画像データに対する処理を行う。
 係数変換部131、スカラー量子化部132およびエントロピー符号化部133は、色差の画像データに対する処理を行う。
 図7に基づいて、カラー画像に適した画像復号装置200の構成を説明する。
 画像復号装置200は、図2に示した機能構成の要素に加えて、色変換部201と係数変換部231とスカラー逆量子化部232とエントロピー復号部233とを備える。
 色変換部201は、輝度の画像データと色差の画像データとをカラー画像の画像データに変換する。具体的には、YUV形式の画像データをRGB形式の画像データに変換する。
 係数逆変換部211、スカラー逆量子化部212およびエントロピー復号部213は、輝度の画像データに対する処理を行う。
 係数変換部231、スカラー逆量子化部232およびエントロピー復号部233は、色差の画像データに対する処理を行う。
 画像復号装置200は、画像符号化装置100と同じく、輝度分布抽出部121を備えてもよい。
 1つのコンピュータが画像符号化装置100の機能構成と画像復号装置200の機能構成とを備えてもよい。画像符号化装置100の機能構成と画像復号装置200の機能構成とを備えたコンピュータを画像処理装置という。画像処理装置は、画像符号化装置100および画像復号装置200と同じく、プロセッサとメモリと補助記憶装置と通信装置と入力装置とディスプレイといったハードウェアを備える。画像処理装置の動作は画像処理方法に相当し、画像処理方法の手順は画像処理プログラムの手順に相当する。
 実施の形態2.
 変換係数を用いて輝度分布情報を生成する形態について、主に実施の形態1と異なる点を、図8から図12に基づいて説明する。
***構成の説明***
 図8に基づいて、画像符号化装置100の構成を説明する。
 画像符号化装置100は、実施の形態1において図1に示した機能構成の要素に加えて、模擬逆量子化部124を備える。模擬逆量子化部124の機能については後述する。
 図9に基づいて、画像復号装置200の構成を説明する。
 画像復号装置200は、実施の形態1において図2に示した機能構成の要素に加えて、輝度分布抽出部223と輝度逆量子化部224とを備える。輝度分布抽出部223と輝度逆量子化部224との機能については後述する。
***動作の説明***
 図10に基づいて、画像符号化方法を説明する。
 画像を含んだ画像データが、記憶部191に記憶されているものとする。
 ステップS211は係数変換処理である。
 ステップS211において、係数変換部111は、画像データを用いて、画像領域毎に係数変換を行う。これにより、画像領域毎に変換係数が得られる。
 具体的には、係数変換部111は、画像領域毎に2次元DCTを行う。これにより、画像領域毎にDCT係数が得られる。
 ステップS212は輝度分布抽出処理である。
 ステップS212において、輝度分布抽出部121は、画像領域毎に画像領域のDCT係数に含まれるDC成分を画像領域の輝度として用いて、輝度分布情報を生成する。DCは直流の略称である。
 具体的には、輝度分布抽出部121は、輝度分布情報を以下のように生成する。
 まず、輝度分布抽出部121は、ステップS211で得られた画像領域毎のDCT係数から、画像領域毎にDC成分を抽出する。
 そして、輝度分布抽出部121は、画像領域毎のDC成分を画素毎の輝度として用いて、縮小画像を生成する。生成される縮小画像が輝度分布情報である。縮小画像の画素は元の画像の画像領域に対応する。
 つまり、輝度分布抽出部121は、図11に示すような縮小画像を輝度分布情報として生成する。
 図11において、元の画像に対して8×8画素の画像領域毎にDCTが行われる。そして、画像領域毎のDC成分が集められて、1/8の縮小画像が生成される。
 ステップS213は模擬逆量子化処理である。
 ステップS213において、模擬逆量子化部124は、画像復号装置200の輝度逆量子化部224による輝度逆量子化処理を模擬する。
 具体的には、模擬逆量子化部124は、輝度分布情報に対する量子化を行い、量子化後の輝度分布情報に対する逆量子化を行う。これにより、逆量子化後の輝度分布情報が得られる。
 より具体的には、模擬逆量子化部124は、DC成分用の補正前の量子化幅を用いて、画像領域毎にDC成分に対する量子化を行う。これにより、画像領域毎に量子化後のDC成分が得られる。そして、模擬逆量子化部124は、DC成分用の補正前の量子化幅を用いて、画像領域毎に量子化後のDC成分に対する逆量子化を行う。これにより、画像領域毎に逆量子化後のDC成分が得られる。
 量子化および逆量子化の方法は従来と同じである。
 ステップS214は補正係数決定処理である。
 ステップS214において、補正係数決定部122は、逆量子化後の輝度分布情報を用いて、画像領域毎に補正係数を決定する。
 補正係数が有する特徴および補正係数を決定する方法は、実施の形態1における画像符号化方法(図3)のステップS113と同じである。
 ステップS215は量子化幅補正処理である。
 ステップS215において、量子化幅補正部123は、画像領域毎に画像領域の補正係数を用いて、AC成分の量子化幅を補正する。AC成分はDC成分以外の周波数成分である。ACは交流の略称である。
 AC成分の量子化幅を補正する方法は、実施の形態1における画像符号化方法(図3)のステップS114と同じである。
 また、量子化幅補正部123は、画像領域毎に画像領域の補正係数として1を用いて、DC成分の量子化幅を補正する。言い換えると、量子化幅補正部123は、DC成分の量子化幅を補正しない。
 ステップS215により、画像領域毎に補正後の量子化幅が得られる。
 ステップS216はスカラー量子化処理である。
 ステップS216において、スカラー量子化部112は、画像領域毎に補正後の量子化幅を用いて画像領域の変換係数を量子化する。これにより、画像領域毎に量子化後の変換係数が得られる。量子化の方法は従来と同じである。
 ステップS217はエントロピー符号化処理である。
 ステップS217において、エントロピー符号化部113は、画像領域毎に量子化後の変換係数に対するエントロピー符号化を行う。これにより、圧縮データが得られる。エントロピー符号化の方法は従来と同じである。
 図12に基づいて、画像復号方法を説明する。
 画像符号化方法(図10)のステップS217で得られた圧縮データが、記憶部291に記憶されているものとする。
 ステップS221はエントロピー復号処理である。
 ステップS221において、エントロピー復号部213は、圧縮データを用いて、画像領域毎に符号化後の変換係数に対するエントロピー復号を行う。これにより、画像領域毎に量子化後の変換係数が得られる。具体的には、画像領域毎に量子化後のDCT係数が得られる。エントロピー復号の方法は従来と同じである。
 ステップS222は輝度分布抽出処理である。
 ステップS222において、輝度分布抽出部223は、画像領域毎に量子化後のDCT係数に含まれるDC成分を画像領域の輝度として用いて、輝度分布情報を生成する。
 輝度分布情報を生成する方法は、画像符号化方法(図10)のステップS212と同じである。
 ステップS223は輝度逆量子化処理である。
 ステップS223において、輝度逆量子化部224は、輝度分布情報に対する逆量子化を行う。
 具体的には、輝度逆量子化部224は、DC成分用の補正前の量子化幅を用いて、画像領域毎に量子化後のDC成分に対する逆量子化を行う。これにより、画像領域毎に逆量子化後のDC成分が得られる。逆量子化の方法は従来と同じである。
 ステップS224は補正係数決定処理である。
 ステップS224において、補正係数決定部221は、逆量子化後の輝度分布情報を用いて、画像領域毎に補正係数を決定する。
 補正係数が有する特徴および補正係数を決定する方法は、実施の形態1における画像符号化方法(図3)のステップS113と同じである。
 ステップS225は量子化幅補正処理である。
 ステップS225において、量子化幅補正部222は、画像領域毎に画像領域の補正係数を用いて、AC成分の量子化幅を補正する。AC成分の量子化幅を補正する方法は、実施の形態1における画像符号化方法(図3)のステップS114と同じである。
 また、量子化幅補正部123は、画像領域毎に画像領域の補正係数として1を用いて、DC成分の量子化幅を補正する。言い換えると、量子化幅補正部123は、DC成分の量子化幅を補正しない。
 ステップS225により、画像領域毎に補正後の量子化幅が得られる。
 ステップS226はスカラー逆量子化処理である。
 ステップS226において、スカラー逆量子化部212は、画像領域毎に補正後の量子化幅を用いて量子化後の変換係数を逆量子化する。これにより、画像領域毎に画像領域の変換係数が得られる。逆量子化の方法は従来と同じである。
 ステップS227は係数逆変換処理である。
 ステップS227において、係数逆変換部211は、画像領域毎に画像領域の変換係数に対する係数逆変換を行う。具体的には、係数逆変換部211は、画像領域毎に2次元逆DCTを行う。これにより、復号された画像を含んだ画像データが得られる。
***実施の形態2の効果***
 輝度分布情報の生成に用いられるDC成分は、エントロピー符号化後に圧縮データとして伝送され、エントロピー復号によって復元される。そのため、エントロピー復号後のDC成分を用いて輝度分布情報が生成されることによって、画像符号化装置100から画像復号装置200への輝度分布情報の伝送が不要となる。つまり、伝送が必要な情報が削減されるため、圧縮効率の向上と同様の効果を奏することが可能となる。
 但し、DC成分もスカラー量子化により量子化される状況において、画像が正しく復号されるようにするには、画像符号化装置100と画像復号装置200とのそれぞれで同じ補正係数を生成する必要がある。
 そのため、画像符号化装置100は、DC成分に関しては補正係数を1にして量子化幅を変更せずに量子化を行う。これと同じく、画像復号装置200は、DC成分に関しては補正係数を1にして量子化幅を変更せずに逆量子化を行う。
 また、画像符号化装置100は、輝度分布情報として抽出されたDC成分に対して補正前の量子化幅を用いて量子化および逆量子化を行い、逆量子化後のDC成分に基づいて補正係数を決定し、量子化幅を補正する。
 一方、画像復号装置200は、エントロピー復号によって量子化後のDCT係数を得て、量子化後のDCT係数からDC成分を抽出する。これにより、画像符号化装置100で得られる輝度分布情報と同じ情報が得られる。そして、画像復号装置200は、抽出されたDC成分に対して補正前の量子化幅を用いて逆量子化を行う。その結果、画像復号装置200は、画像符号化装置100で決定される補正係数と同じ補正係数を得ることが可能となる。
***他の構成***
 画像符号化装置100と画像復号装置200とのそれぞれの量子化幅補正部(123、222)は、補正係数を1にせずに、DC成分の量子化幅を補正してもよい。つまり、量子化幅補正部(123、222)は、実施の形態1と同じく、DC成分の量子化幅を補正によって変更してもよい。
 その場合、画像符号化装置100は模擬逆量子化部124を備えなくてもよく、画像復号装置200は輝度逆量子化部224を備えなくてもよい。
 つまり、画像符号化装置100は、画像符号化方法(図10)のステップS213を実行しなくてもよい。その場合、ステップS214において、ステップS212で生成された輝度分布情報を用いて、画像領域毎に補正係数が決定される。
 また、画像復号装置200は、画像復号方法(図12)のステップS223を実行しなくてもよい。その場合、ステップS224において、ステップS222で生成された輝度分布情報を用いて、画像領域毎に補正係数が決定される。
 DC成分の誤差は人の目に認知されやすいので通常でも量子化幅が小さい、また、DC成分は縮小画像に相当するのでデータ量が小さいといった理由から、DC成分に対する量子化が実施されない場合の圧縮性能に対する影響は小さいといえる。模擬逆量子化部124および輝度逆量子化部224が不要になれば、圧縮性能が僅かに低下するが、演算量を大幅に削減することが可能となる。
 実施の形態2は実施の形態1と同じく単色画像とカラー画像とのいずれに適用してもよい。
 図8に示した画像符号化装置100の構成および図9に示した画像復号装置200の構成は、単色画像に適した構成である。
 図13に基づいて、カラー画像に適した画像符号化装置100の構成を説明する。
 画像符号化装置100は、図8に示した機能構成の要素に加えて、色変換部101と係数変換部131とスカラー量子化部132とエントロピー符号化部133とを備える。
 図14に基づいて、カラー画像に適した画像復号装置200の構成を説明する。
 画像復号装置200は、図9に示した機能構成の要素に加えて、色変換部201と係数変換部231とスカラー逆量子化部232とエントロピー復号部233とを備える。
 実施の形態3.
 スカラー量子化ではなくポスト量子化を行う形態について、主に実施の形態1と異なる点を、図15から図19に基づいて説明する。
***構成の説明***
 図15に基づいて、画像を符号化する画像符号化装置300の構成を説明する。
 画像符号化装置300は、プロセッサ931とメモリ932と補助記憶装置933と通信装置934と入力装置935とディスプレイ936といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
 プロセッサ931、メモリ932、補助記憶装置933、通信装置934、入力装置935およびディスプレイ936は、実施の形態1における画像符号化装置100に備わるハードウェアと同様のハードウェアである。
 画像符号化装置300は、係数変換部311とエントロピー符号化部312とポスト量子化部313と輝度分布抽出部321と補正係数決定部322と変換係数補正部323といった「部」を機能構成の要素として備える。図15の説明において「部」は画像符号化装置300に備わる機能構成の要素を意味する。
 「部」の機能はソフトウェアで実現される。「部」の機能については後述する。
 補助記憶装置933には、「部」の機能を実現するプログラムが記憶されている。「部」の機能を実現するプログラムは、メモリ932にロードされて、プロセッサ931によって実行される。
 「部」の機能を実現するプログラムを実行して得られるデータは、メモリ932、補助記憶装置933、プロセッサ931内のレジスタまたはプロセッサ931内のキャッシュメモリといった記憶装置に記憶される。
 メモリ932は、画像符号化装置300で使用されるデータが記憶される記憶部391として機能する。但し、他の記憶装置が記憶部391として機能してもよい。
 通信装置934はデータを通信する通信部として機能する。通信装置934において、レシーバはデータを受信する受信部として機能し、トランスミッタはデータを送信する送信部として機能する。
 入力装置935は入力を受け付ける受付部として機能する。
 ディスプレイ936は画像等を表示する表示部として機能する。
 画像符号化装置300は、プロセッサ931を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、「部」の機能を実現するプログラムの実行を分担する。
 「部」の機能を実現するプログラムは不揮発性の記憶媒体にコンピュータ読み取り可能に記憶することができる。不揮発性の記憶媒体は一時的でない有形の媒体である。
 「部」は「処理」または「工程」に読み替えてもよい。「部」の機能はファームウェアで実現してもよい。
 図16に基づいて、画像を復号する画像復号装置400の構成を説明する。
 画像復号装置400は、プロセッサ941とメモリ942と補助記憶装置943と通信装置944と入力装置945とディスプレイ946といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
 プロセッサ941、メモリ942、補助記憶装置943、通信装置944、入力装置945およびディスプレイ946は、実施の形態1における画像符号化装置100に備わるハードウェアと同様のハードウェアである。
 画像復号装置400は、係数逆変換部411とエントロピー復号部412と補正係数決定部421と変換係数逆補正部422といった「部」を機能構成の要素として備える。図16の説明において「部」は画像復号装置400に備わる機能構成の要素を意味する。
 「部」の機能はソフトウェアで実現される。「部」の機能については後述する。
 補助記憶装置943には、「部」の機能を実現するプログラムが記憶されている。「部」の機能を実現するプログラムは、メモリ942にロードされて、プロセッサ941によって実行される。
 「部」の機能を実現するプログラムを実行して得られるデータは、メモリ942、補助記憶装置943、プロセッサ941内のレジスタまたはプロセッサ941内のキャッシュメモリといった記憶装置に記憶される。
 メモリ942は、画像復号装置400で使用されるデータが記憶される記憶部491として機能する。但し、他の記憶装置が記憶部491として機能してもよい。
 通信装置944はデータを通信する通信部として機能する。通信装置944において、レシーバはデータを受信する受信部として機能し、トランスミッタはデータを送信する送信部として機能する。
 入力装置945は入力を受け付ける受付部として機能する。
 ディスプレイ946は画像等を表示する表示部として機能する。
 画像復号装置400は、プロセッサ941を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、「部」の機能を実現するプログラムの実行を分担する。
 「部」の機能を実現するプログラムは不揮発性の記憶媒体にコンピュータ読み取り可能に記憶することができる。不揮発性の記憶媒体は一時的でない有形の媒体である。
 「部」は「処理」または「工程」に読み替えてもよい。「部」の機能はファームウェアで実現してもよい。
***動作の説明***
 画像符号化装置300の動作は画像符号化方法に相当する。また、画像符号化方法の手順は画像符号化プログラムの手順に相当する。
 画像復号装置400の動作は画像復号方法に相当する。また、画像復号方法の手順は画像復号プログラムの手順に相当する。
 図17に基づいて、画像符号化方法を説明する。
 画像を含んだ画像データが、記憶部191に記憶されているものとする。
 ステップS311は係数変換処理である。
 ステップS311において、係数変換部311は、画像データを用いて、画像に対する係数変換を行う。これにより、画像の変換係数が得られる。
 具体的には、係数変換部311は、画像に対して2次元DWTを行う。これにより、周波数成分毎にDWT係数が得られる。より具体的には、LL成分とHL成分とLH成分とHH成分とのそれぞれのDWT係数が得られる。DWTは離散ウェーブレット変換の略称である。DWT係数は画素毎の係数である。
 ステップS312は輝度分布抽出処理である。
 ステップS312において、輝度分布抽出部321は、画像データを用いて、輝度分布情報を生成する。輝度分布情報は画像領域毎の輝度を示す。
 ステップS313は補正係数決定処理である。
 ステップS313において、補正係数決定部322は、輝度分布情報を用いて、画像領域毎に補正係数を決定する。
 つまり、補正係数決定部122は、画像領域毎に画像領域の輝度に基づいて補正係数を決定する。
 補正係数は、当該画像領域の変換係数の補正に用いられる値である。
 各補正係数は、当該画像領域の変換係数を割る値であり、当該画像領域が明るいほど大きく、当該画像領域が暗いほど小さい。つまり、各補正係数は、当該画像領域よりも暗い画像領域の補正係数よりも大きく、当該画像領域よりも明るい画像領域の補正係数よりも小さい。
 さらに、各補正係数は、以下に示す(1)または(2)の特徴を有する。
 (1)各補正係数は、当該画像領域の輝度に比例する。つまり、他の画像領域の補正係数に対する当該画像領域の補正係数の比は、他の画像領域の輝度に対する当該画像領域の輝度の比に相当する。
 (2)各補正係数は、当該画像領域の輝度の1/2乗に比例する。1/2は2分の1を意味する。つまり、他の画像領域の補正係数に対する当該画像領域の補正係数の比は、他の画像領域の輝度の1/2乗に対する当該画像領域の輝度の1/2乗の比に相当する。
 補正係数決定部322は、画像領域毎の補正係数をどのような手順で決定してもよい。
 例えば、補正係数決定部322は、予め定義された式を計算することによって画像領域の輝度に対応する補正係数を算出してもよいし、予め定義されたテーブルから画像領域の輝度に対応する補正係数を取得してもよい。
 ステップS314は変換係数補正処理である。
 ステップS314において、変換係数補正部323は、画像領域毎に画像領域の補正係数を用いて画像領域の変換係数を補正する。これにより、画像領域毎に補正後の変換係数が得られる。
 補正後の変換係数は、当該画像領域が明るいほど小さく当該画像領域が暗いほど大きい。
 具体的には、変換係数補正部323は、以下の式を計算することによって、補正後の量子化幅を算出する。
 Coeffcorrect=Coeff×(Δqlum_max/Δqlum
 Coeffcorrectは、補正後の変換係数である。
 Coeffは、補正前の変換係数である。
 Δqlum_maxは、最大輝度に対応する補正係数である。
 Δqlumは、補正係数である。
 なお、Δqlum≦Δqlum_maxという関係が成り立つため、Coeffcorrect≧Coeffという関係が成り立つ。
 ステップS315はエントロピー符号化処理である。
 ステップS315において、エントロピー符号化部312は、画像の補正後の変換係数に対してエントロピー符号化を行う。これにより、画像の符号化後の変換係数が得られる。エントロピー符号化の方法は従来と同じである。
 ステップS316はポスト量子化処理である。
 ステップS316において、ポスト量子化部313は、画像の符号化後の変換係数を量子化する。これにより、圧縮データが得られる。圧縮データは、画像の量子化後の変換係数を含んだデータである。量子化の方法は従来と同じである。
 図18に基づいて、画像復号方法を説明する。
 画像符号化方法(図17)のステップS316で得られた圧縮データが、記憶部491に記憶されているものとする。
 また、画像符号化方法(図17)のステップS312で得られた輝度分布情報が、記憶部491に記憶されているものとする。
 ステップS321はエントロピー復号処理である。
 ステップS321において、エントロピー復号部412は、圧縮データを用いて、画像の量子化後の変換係数に対してエントロピー復号を行う。これにより、画像の復号後の変換係数が得られる。具体的には、画像の復号後のDWT係数が得られる。エントロピー復号の方法は従来と同じである。
 ステップS322は補正係数決定処理である。
 ステップS322において、補正係数決定部421は、輝度分布情報を用いて、画像領域毎に補正係数を決定する。
 つまり、補正係数決定部221は、画像領域毎に画像領域の輝度に基づいて補正係数を決定する。
 補正係数が有する特徴および補正係数を決定する方法は、画像符号化方法(図17)のステップS313と同じである。
 ステップS323は変換係数逆補正処理である。
 ステップS323において、変換係数逆補正部422は、画像領域毎に画像領域の補正係数を用いて復号後の変換係数を逆補正する。これにより、画像領域毎に画像領域の変換係数が得られる。
 具体的には、変換係数逆補正部422は、以下の式を計算することによって、画像領域の変換係数を算出する。
 Coeffquant=Coeffcorrect_quant×(Δqlum/Δqlum_max
 Coeffquantは、逆補正後の変換係数である。
 Coeffcorrect_quantは、逆補正前の変換係数、つまり、復号後の変換係数である。
 なお、Coeffcorrect_quantは、画像符号化方法(図17)のステップS316で量子化された後のCoeffcorrectと同じである。
 また、Δqlum≦Δqlum_maxという関係が成り立つため、Coeffquant≦Coeffcorrect_quantという関係が成り立つ。
 ステップS324は係数逆変換処理である。
 ステップS324において、係数逆変換部411は、画像の変換係数に対する係数逆変換を行う。具体的には、係数逆変換部411は、画像のDWT係数に対して2次元逆DWTを行う。これにより、復号された画像を含んだ画像データが得られる。
***実施の形態3の効果***
 図19に示すように、変換係数は暗い部分ほど大きく補正される。そして、エントロピー符号化後の変換係数に対してポスト量子化が行われる。その後、エントロピー復号後の変換係数が逆補正される。これにより、実質的に、量子化幅は、暗い部分で小さく、明るい部分で大きくなるように制御されることとなる。したがって、実施の形態1と同じ効果を奏する。
***他の構成***
 実施の形態3は単色画像とカラー画像とのいずれに適用してもよい。
 図15に示した画像符号化装置300の構成および図16に示した画像復号装置400の構成は、単色画像に適した構成である。
 図20に基づいて、カラー画像に適した画像符号化装置300の構成を説明する。
 画像符号化装置300は、図15に示した機能構成の要素に加えて、色変換部301と係数変換部331と変換係数補正部332とエントロピー符号化部333とポスト量子化部334とを備える。
 色変換部301は、カラー画像の画像データを輝度の画像データと色差の画像データとに変換する。具体的には、RGB形式の画像データをYUV形式の画像データに変換する。Y形式の画像データが輝度の画像データであり、UV形式の画像データが色差の画像データである。
 係数変換部311、変換係数補正部323、エントロピー符号化部312およびポスト量子化部313は、輝度の画像データに対する処理を行う。
 係数変換部331、変換係数補正部332、エントロピー符号化部333およびポスト量子化部334は、色差の画像データに対する処理を行う。
 図21に基づいて、カラー画像に適した画像復号装置400の構成を説明する。
 画像復号装置400は、図16に示した機能構成の要素に加えて、色変換部401とエントロピー復号部431と変換係数逆補正部432と係数逆変換部433とを備える。
 色変換部401は、輝度の画像データと色差の画像データとをカラー画像の画像データに変換する。具体的には、YUV形式の画像データをRGB形式の画像データに変換する。
 エントロピー復号部412、変換係数逆補正部422および係数逆変換部411は、輝度の画像データに対する処理を行う。
 エントロピー復号部431、変換係数逆補正部432および係数逆変換部433は、色差の画像データに対する処理を行う。
 画像復号装置400は、画像符号化装置300と同じく、輝度分布抽出部321を備えてもよい。
 1つのコンピュータが画像符号化装置300の機能構成と画像復号装置400の機能構成とを備えてもよい。画像符号化装置300の機能構成と画像復号装置400の機能構成とを備えたコンピュータを画像処理装置という。画像処理装置は、画像符号化装置300および画像復号装置400と同じく、プロセッサとメモリと補助記憶装置と通信装置と入力装置とディスプレイといったハードウェアを備える。画像処理装置の動作は画像処理方法に相当し、画像処理方法の手順は画像処理プログラムの手順に相当する。
 実施の形態4.
 変換係数を用いて輝度分布情報を生成する形態について、主に実施の形態3と異なる点を、図22から図26に基づいて説明する。
***構成の説明***
 図22に基づいて、画像符号化装置300の構成を説明する。
 画像符号化装置300は、実施の形態3において図15に示した機能構成の要素に加えて、模擬量子化部324を備える。模擬量子化部324の機能については後述する。
 図23に基づいて、画像復号装置400の構成を説明する。
 画像復号装置400は、実施の形態4において図16に示した機能構成の要素に加えて、輝度分布抽出部423を備える。輝度分布抽出部423の機能については後述する。
 図24に基づいて、画像符号化方法を説明する。
 画像を含んだ画像データが、記憶部391に記憶されているものとする。
 ステップS411は係数変換処理である。
 ステップS411において、係数変換部311は、画像データを用いて、画像に対する係数変換を行う。これにより、画像の変換係数が得られる。
 具体的には、係数変換部311は、画像に対して2次元DWTを行う。これにより、周波数成分毎にDWT係数が得られる。
 ステップS412は輝度分布抽出処理である。
 ステップS412において、輝度分布抽出部321は、DWT係数を用いて輝度分布情報を生成する。
 具体的には、輝度分布抽出部321は、最高次のLL成分を縮小画像として含んだ輝度分布情報を生成する。縮小画像の画素は元の画像の画像領域に対応する。
 2回のDWTが行われる場合、輝度分布抽出部321は、2LL成分を縮小画像として含んだ輝度分布情報を生成する。
 図25に、元の画像と縮小画像に相当する2LL成分との関係を示す。
 ステップS413は模擬量子化処理である。
 ステップS413において、模擬量子化部324は、ポスト量子化部313によるポスト量子化処理を模擬する。
 具体的には、模擬量子化部324は、輝度分布情報に対する量子化を行い、量子化後の輝度分布情報に対する逆量子化を行う。これにより、逆量子化後の輝度分布情報が得られる。
 より具体的には、模擬量子化部324は、補正前の量子化幅を用いて、最高次のLL成分に対する量子化を行う。これにより、量子化後のLL成分が得られる。そして、模擬量子化部324は、補正前の量子化幅を用いて、量子化後のLL成分に対する逆量子化を行う。これにより、逆量子化後のLL成分が得られる。
 量子化および逆量子化の方法は従来と同じである。
 ステップS414は補正係数決定処理である。
 ステップS414において、補正係数決定部322は、逆量子化後の輝度分布情報を用いて、画像領域毎に補正係数を決定する。
 補正係数が有する特徴および補正係数を決定する方法は、実施の形態3における画像符号化方法(図17)のステップS313と同じである。
 ステップS415は変換係数補正処理である。
 ステップS415において、変換係数補正部323は、画像領域毎に画像領域の補正係数を用いて、高周波数成分の変換係数を補正する。高周波数成分とは、最高次のLL成分以外の周波数成分である。
 高周波数成分の変換係数を補正する方法は、実施の形態3における画像符号化方法(図17)のステップS314と同じである。
 また、変換係数補正部323は、画像領域毎に画像領域の補正係数として1を用いて、最高次のLL成分の変換係数を補正する。言い換えると、変換係数補正部323は、最高次のLL成分の変換係数を補正しない。
 ステップS415により、画像領域毎に補正後の変換係数が得られる。
 ステップS416はエントロピー符号化処理である。
 ステップS416において、エントロピー符号化部312は、画像の補正後の変換係数に対してエントロピー符号化を行う。これにより、画像の符号化後の変換係数が得られる。エントロピー符号化の方法は従来と同じである。
 ステップS417はポスト量子化処理である。
 ステップS417において、ポスト量子化部313は、画像の符号化後の変換係数を量子化する。これにより、圧縮データが得られる。圧縮データは、画像の量子化後の変換係数を含んだデータである。量子化の方法は従来と同じである。
 図26に基づいて、画像復号方法を説明する。
 画像符号化方法(図24)のステップS417で得られた圧縮データが、記憶部491に記憶されているものとする。
 ステップS421はエントロピー復号処理である。
 ステップS421において、エントロピー復号部412は、圧縮データを用いて、画像領の量子化後の変換係数に対してエントロピー復号を行う。これにより、画像の復号後の変換係数が得られる。具体的には、画像の復号後のDWT係数が得られる。エントロピー復号の方法は従来と同じである。
 ステップS422は輝度分布抽出処理である。
 ステップS422において、輝度分布抽出部423は、画像の復号後のDWT係数を用いて輝度分布情報を生成する。
 輝度分布情報を生成する方法は、画像符号化方法(図24)のステップS412と同じである。
 ステップS423は補正係数決定処理である。
 ステップS423において、補正係数決定部421は、輝度分布情報を用いて、画像領域毎に補正係数を決定する。
 補正係数が有する特徴および補正係数を決定する方法は、実施の形態3における画像符号化方法(図17)のステップS313と同じである。
 ステップS424は変換係数逆補正処理である。
 ステップS424において、変換係数逆補正部422は、画像領域毎に画像領域の補正係数を用いて、高周波数成分の変換係数を逆補正する。高周波数成分の変換係数を逆補正する方法は、実施の形態3における画像復号方法(図18)のステップS323と同じである。
 また、変換係数逆補正部422は、画像領域毎に画像領域の補正係数として1を用いて、最高次のLL成分の変換係数を逆補正する。言い換えると、変換係数逆補正部422は、最高次のLL成分の変換係数を逆補正しない。
 ステップS424により、画像領域毎に画像領域の変換係数が得られる。
 ステップS425は係数逆変換処理である。
 ステップS425において、係数逆変換部411は、画像の変換係数に対する係数逆変換を行う。具体的には、係数逆変換部411は、画像のDWT係数に対する2次元逆DWTを行う。これにより、復号された画像を含んだ画像データが得られる。
***実施の形態4の効果***
 画像符号化装置300から画像復号装置400への輝度分布情報の伝送が不要となる。つまり、伝送が必要な情報が削減されるため、圧縮効率の向上と同様の効果を奏することが可能となる。
***他の構成***
 画像符号化装置300と画像復号装置400とのそれぞれの変換係数補正部(323、422)は、補正係数を1にせずに、最高次のLL成分の変換係数を補正してもよい。つまり、変換係数補正部(323、422)は、実施の形態3と同じく、最高次のLL成分の変換係数を補正によって変更してもよい。
 その場合、画像符号化装置300は模擬量子化部324を備えなくてもよい。
 つまり、画像符号化装置300は、画像符号化方法(図24)のステップS413を実行しなくてもよい。その場合、ステップS414において、ステップS412で生成された輝度分布情報を用いて、画像領域毎に補正係数が決定される。
 これにより、演算量を大幅に削減することが可能となる。
 実施の形態4は単色画像とカラー画像とのいずれに適用してもよい。
 図22に示した画像符号化装置300の構成および図23に示した画像復号装置400の構成は、単色画像に適した構成である。
 図27に基づいて、カラー画像に適した画像符号化装置300の構成を説明する。
 画像符号化装置300は、図22に示した機能構成の要素に加えて、色変換部301と係数変換部331と変換係数補正部332とエントロピー符号化部333とポスト量子化部334とを備える。
 図28に基づいて、カラー画像に適した画像復号装置400の構成を説明する。
 画像復号装置400は、図23に示した機能構成の要素に加えて、色変換部401とエントロピー復号部431と変換係数逆補正部432と係数逆変換部433とを備える。
***実施の形態の補足***
 実施の形態において、画像符号化装置(100、300)の機能はハードウェアで実現してもよい。
 図29に、画像符号化装置(100、300)の機能がハードウェアで実現される場合の構成を示す。
 画像符号化装置(100、300)は処理回路991を備える。処理回路991はプロセッシングサーキットリともいう。
 画像符号化装置100において、処理回路991は、係数変換部111とスカラー量子化部112とエントロピー符号化部113と輝度分布抽出部121と補正係数決定部122と量子化幅補正部123と模擬逆量子化部124と記憶部191といった「部」の機能を実現する専用の電子回路である。
 画像符号化装置300において、処理回路991は、係数変換部311とエントロピー符号化部312とポスト量子化部313と輝度分布抽出部321と補正係数決定部322と変換係数補正部323と模擬量子化部324と記憶部391といった「部」の機能を実現する専用の電子回路である。
 具体的には、処理回路991は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、ASIC、FPGAまたはこれらの組み合わせである。GAはGate Arrayの略称であり、ASICはApplication Specific Integrated Circuitの略称であり、FPGAはField Programmable Gate Arrayの略称である。
 画像符号化装置(100、300)は、処理回路991を代替する複数の処理回路を備えてもよい。複数の処理回路は、「部」の機能を分担する。
 画像符号化装置(100、300)の機能は、ソフトウェアとハードウェアとの組み合わせで実現してもよい。つまり、「部」の機能の一部をソフトウェアで実現し、「部」の機能の残りをハードウェアで実現してもよい。
 実施の形態において、画像復号装置(200、400)の機能はハードウェアで実現してもよい。
 図30に、画像復号装置(200、400)の機能がハードウェアで実現される場合の構成を示す。
 画像復号装置(200、400)は処理回路992を備える。処理回路992はプロセッシングサーキットリともいう。
 画像復号装置200において、処理回路992は、係数逆変換部211とスカラー逆量子化部212とエントロピー復号部213と補正係数決定部221と量子化幅補正部222と輝度分布抽出部223と輝度逆量子化部224と記憶部291といった「部」の機能を実現する専用の電子回路である。
 画像復号装置400において、処理回路992は、係数逆変換部411とエントロピー復号部412と補正係数決定部421と変換係数逆補正部422と輝度分布抽出部423と記憶部491といった「部」の機能を実現する専用の電子回路である。
 具体的には、処理回路992は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、ASIC、FPGAまたはこれらの組み合わせである。
 画像復号装置(200、400)は、処理回路992を代替する複数の処理回路を備えてもよい。複数の処理回路は、「部」の機能を分担する。
 画像復号装置(200、400)の機能は、ソフトウェアとハードウェアとの組み合わせで実現してもよい。つまり、「部」の機能の一部をソフトウェアで実現し、「部」の機能の残りをハードウェアで実現してもよい。
 実施の形態は、好ましい形態の例示であり、本発明の技術的範囲を制限することを意図するものではない。実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。
 100 画像符号化装置、101 色変換部、111 係数変換部、112 スカラー量子化部、113 エントロピー符号化部、121 輝度分布抽出部、122 補正係数決定部、123 量子化幅補正部、124 模擬逆量子化部、131 係数変換部、132 スカラー量子化部、133 エントロピー符号化部、191 記憶部、200 画像復号装置、201 色変換部、211 係数逆変換部、212 スカラー逆量子化部、213 エントロピー復号部、221 補正係数決定部、222 量子化幅補正部、223 輝度分布抽出部、224 輝度逆量子化部、231 係数変換部、232 スカラー逆量子化部、233 エントロピー復号部、291 記憶部、300 画像符号化装置、301 色変換部、311 係数変換部、312 エントロピー符号化部、313 ポスト量子化部、321 輝度分布抽出部、322 補正係数決定部、323 変換係数補正部、324 模擬量子化部、331 係数変換部、332 変換係数補正部、333 エントロピー符号化部、334 ポスト量子化部、391 記憶部、400 画像復号装置、401 色変換部、411 係数逆変換部、412 エントロピー復号部、421 補正係数決定部、422 変換係数逆補正部、423 輝度分布抽出部、431 エントロピー復号部、432 変換係数逆補正部、433 係数逆変換部、491 記憶部、911,921,931,941 プロセッサ、912,922,932,942 メモリ、913,923,933,943 補助記憶装置、914,924,934,944 通信装置、915,925,935,945 入力装置、916,926,936,946 ディスプレイ、991,992 処理回路。

Claims (24)

  1.  画像の一部である画像領域毎に、画像領域の輝度に基づいて、量子化幅の補正に用いられる補正係数を決定する補正係数決定部
    を備える画像符号化装置。
  2.  補正後の量子化幅は、当該画像領域が明るいほど大きく当該画像領域が暗いほど小さい
    請求項1に記載の画像符号化装置。
  3.  各補正係数は、前記量子化幅に掛けられる値であり、当該画像領域が明るいほど大きく、当該画像領域が暗いほど小さい
    請求項2に記載の画像符号化装置。
  4.  各補正係数は、当該画像領域の輝度に比例する
    請求項3に記載の画像符号化装置。
  5.  各補正係数は、当該画像領域の輝度の2分の1乗に比例する
    請求項3に記載の画像符号化装置。
  6.  画像領域毎に係数変換を行うことによって、画像領域毎に変換係数を得る係数変換部と、
     画像領域毎に画像領域の補正係数を用いて前記量子化幅を補正することによって、画像領域毎に補正後の量子化幅を得る量子化幅補正部と、
     画像領域毎に補正後の量子化幅を用いて画像領域の変換係数を量子化することによって、画像領域毎に量子化後の変換係数を得るスカラー量子化部と、
     画像領域毎に量子化後の変換係数に対するエントロピー符号化を行うことによって、画像領域毎に符号化後の変換係数を得るエントロピー符号化部と
    を備える請求項1に記載の画像符号化装置。
  7.  前記画像符号化装置は、
     画像領域毎に離散コサイン変換を行うことによって、画像領域毎に離散コサイン変換係数を得る係数変換部と、
     画像領域毎に画像領域の離散コサイン変換係数に含まれる直流成分を画像領域の輝度として用いて、画像領域毎の輝度を示す輝度分布情報を生成する輝度分布抽出部と、
     前記輝度分布情報に対する量子化を行って量子化後の輝度分布情報に対する逆量子化を行うことによって、逆量子化後の輝度分布情報を得る模擬逆量子化部とを備え、
     前記補正係数決定部は、逆量子化後の輝度分布情報を用いて、画像領域毎に補正係数を決定する
    請求項1に記載の画像符号化装置。
  8.  前記画像符号化装置は、
     画像領域毎に離散コサイン変換を行うことによって、画像領域毎に離散コサイン変換係数を得る係数変換部と、
     画像領域毎に画像領域の離散コサイン変換係数に含まれる直流成分を画像領域の輝度として用いて、画像領域毎の輝度を示す輝度分布情報を生成する輝度分布抽出部とを備え、
     前記補正係数決定部は、前記輝度分布情報を用いて、画像領域毎に補正係数を決定する
    請求項1に記載の画像符号化装置。
  9.  画像の一部である画像領域毎に、画像領域の輝度に基づいて、量子化幅の補正に用いられる補正係数を決定する補正係数決定部
    を備える画像復号装置。
  10.  画像領域毎に符号化後の変換係数に対するエントロピー復号を行うことによって、画像領域毎に量子化後の変換係数を得るエントロピー復号部と、
     画像領域毎に画像領域の補正係数を用いて前記量子化幅を補正することによって、画像領域毎に補正後の量子化幅を得る量子化幅補正部と、
     画像領域毎に補正後の量子化幅を用いて量子化後の変換係数を逆量子化することによって、画像領域毎に画像領域の変換係数を得るスカラー逆量子化部と、
     画像領域毎に画像領域の変換係数に対する係数逆変換を行う係数逆変換部と
    を備える請求項9に記載の画像復号装置。
  11.  画像の一部である画像領域毎に、画像領域の輝度に基づいて、量子化幅の補正に用いられる補正係数を決定する補正係数決定処理
    をコンピュータに実行させるための画像符号化プログラム。
  12.  画像の一部である画像領域毎に、画像領域の輝度に基づいて、量子化幅の補正に用いられる補正係数を決定する補正係数決定処理
    をコンピュータに実行させるための画像復号プログラム。
  13.  画像の一部である画像領域毎に、画像領域の輝度に基づいて、画像領域の変換係数の補正に用いられる補正係数を決定する補正係数決定部
    を備える画像符号化装置。
  14.  補正後の変換係数は、当該画像領域が明るいほど小さく当該画像領域が暗いほど大きい
    請求項13に記載の画像符号化装置。
  15.  各補正係数は、当該画像領域の変換係数を割る値であり、当該画像領域が明るいほど大きく、当該画像領域が暗いほど小さい
    請求項14に記載の画像符号化装置。
  16.  各補正係数は、当該画像領域の輝度に比例する
    請求項15に記載の画像符号化装置。
  17.  各補正係数は、当該画像領域の輝度の2分の1乗に比例する
    請求項15に記載の画像符号化装置。
  18.  前記画像に対する係数変換を行うことによって、前記画像の変換係数を得る係数変換部と、
     画像領域毎に画像領域の補正係数を用いて画像領域の変換係数を補正することによって、画像領域毎に補正後の変換係数を得る変換係数補正部と、
     前記画像の補正後の変換係数に対してエントロピー符号化を行うことによって、前記画像の符号化後の変換係数を得るエントロピー符号化部と、
     前記画像の符号化後の変換係数を量子化することによって、前記画像の量子化後の変換係数を得るポスト量子化部と
    を備える請求項13に記載の画像符号化装置。
  19.  前記画像符号化装置は、
     前記画像に対する離散ウェーブレット変換を行うことによって、前記画像の離散ウェーブレット変換係数を得る係数変換部と、
     前記画像の離散ウェーブレット変換係数を画像領域毎の輝度として用いて、画像領域毎の輝度を示す輝度分布情報を生成する輝度分布抽出部と、
     前記輝度分布情報に対する量子化を行って量子化後の輝度分布情報に対する逆量子化を行うことによって、逆量子化後の輝度分布情報を得る模擬量子化部とを備え、
     前記補正係数決定部は、逆量子化後の輝度分布情報を用いて、画像領域毎に補正係数を決定する
    請求項13に記載の画像符号化装置。
  20.  前記画像符号化装置は、
     前記画像に対する離散ウェーブレット変換を行うことによって、前記画像の離散ウェーブレット変換係数を得る係数変換部と、
     前記画像の離散ウェーブレット変換係数を画像領域毎の輝度として用いて、画像領域毎の輝度を示す輝度分布情報を生成する輝度分布抽出部とを備え、
     前記補正係数決定部は、前記輝度分布情報を用いて、画像領域毎に補正係数を決定する
    請求項13に記載の画像符号化装置。
  21.  画像の一部である画像領域毎に、画像領域の輝度に基づいて、画像領域の変換係数の補正に用いられる補正係数を決定する補正係数決定部
    を備える画像復号装置。
  22.  前記画像の量子化後の変換係数に対してエントロピー復号を行うことによって、前記画像の復号後の変換係数を得るエントロピー復号部と、
     画像領域毎に画像領域の補正係数を用いて復号後の変換係数を逆補正することによって、前記画像の変換係数を得る変換係数逆補正部と、
     前記画像の変換係数に対する係数逆変換を行う係数逆変換部と
    を備える請求項21に記載の画像復号装置。
  23.  画像の一部である画像領域毎に、画像領域の輝度に基づいて、画像領域の変換係数の補正に用いられる補正係数を決定する補正係数決定処理
    をコンピュータに実行させるための画像符号化プログラム。
  24.  画像の一部である画像領域毎に、画像領域の輝度に基づいて、画像領域の変換係数の補正に用いられる補正係数を決定する補正係数決定処理
    をコンピュータに実行させるための画像復号プログラム。
PCT/JP2016/077911 2016-09-21 2016-09-21 画像符号化装置、画像復号装置、画像符号化プログラムおよび画像復号プログラム WO2018055712A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/332,929 US20190230357A1 (en) 2016-09-21 2016-09-21 Image encoding apparatus and image decoding apparatus
PCT/JP2016/077911 WO2018055712A1 (ja) 2016-09-21 2016-09-21 画像符号化装置、画像復号装置、画像符号化プログラムおよび画像復号プログラム
JP2018540544A JP6732031B2 (ja) 2016-09-21 2016-09-21 画像符号化装置および画像符号化プログラム
US16/950,084 US11425381B2 (en) 2016-09-21 2020-11-17 Image encoding apparatus and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/077911 WO2018055712A1 (ja) 2016-09-21 2016-09-21 画像符号化装置、画像復号装置、画像符号化プログラムおよび画像復号プログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/332,929 A-371-Of-International US20190230357A1 (en) 2016-09-21 2016-09-21 Image encoding apparatus and image decoding apparatus
US16/950,084 Division US11425381B2 (en) 2016-09-21 2020-11-17 Image encoding apparatus and computer readable medium

Publications (1)

Publication Number Publication Date
WO2018055712A1 true WO2018055712A1 (ja) 2018-03-29

Family

ID=61689388

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077911 WO2018055712A1 (ja) 2016-09-21 2016-09-21 画像符号化装置、画像復号装置、画像符号化プログラムおよび画像復号プログラム

Country Status (3)

Country Link
US (2) US20190230357A1 (ja)
JP (1) JP6732031B2 (ja)
WO (1) WO2018055712A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746596A (ja) * 1993-06-04 1995-02-14 Daewoo Electron Co Ltd イントラ−ブロックdc変換係数量子化方法
JPH07115664A (ja) * 1993-10-15 1995-05-02 Mitsubishi Electric Corp 高能率符号化復号化装置
JP2003319393A (ja) * 2002-04-25 2003-11-07 Toshiba Corp 画像圧縮符号化装置及び画像圧縮符号化方法
JP2009010612A (ja) * 2007-06-27 2009-01-15 Sharp Corp 画像圧縮装置および画像圧縮方法
JP2010068269A (ja) * 2008-09-11 2010-03-25 Ricoh Co Ltd 画像圧縮装置及び方法並びにプログラム
JP2014135551A (ja) * 2013-01-08 2014-07-24 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4984076A (en) * 1988-07-27 1991-01-08 Kabushiki Kaisha Toshiba Image compression coding system
JPH02100465A (ja) 1988-10-06 1990-04-12 Sharp Corp 画像符号化方式
JP2940304B2 (ja) * 1992-06-15 1999-08-25 松下電器産業株式会社 高能率符号化装置および高能率符号化方法および高能率符号化装置の復号装置
US5410350A (en) * 1992-10-28 1995-04-25 Sony Corporation Motion picture encoding and/or decoding system
JP3356663B2 (ja) * 1997-10-22 2002-12-16 松下電器産業株式会社 画像符号化装置、画像符号化方法および画像符号化プログラムを記録した記録媒体
JP3887178B2 (ja) * 2001-04-09 2007-02-28 株式会社エヌ・ティ・ティ・ドコモ 信号符号化方法及び装置並びに復号方法及び装置
US7570824B2 (en) * 2003-07-11 2009-08-04 Sharp Kabushiki Kaisha Image processing method, image processor, image forming apparatus and memory product

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746596A (ja) * 1993-06-04 1995-02-14 Daewoo Electron Co Ltd イントラ−ブロックdc変換係数量子化方法
JPH07115664A (ja) * 1993-10-15 1995-05-02 Mitsubishi Electric Corp 高能率符号化復号化装置
JP2003319393A (ja) * 2002-04-25 2003-11-07 Toshiba Corp 画像圧縮符号化装置及び画像圧縮符号化方法
JP2009010612A (ja) * 2007-06-27 2009-01-15 Sharp Corp 画像圧縮装置および画像圧縮方法
JP2010068269A (ja) * 2008-09-11 2010-03-25 Ricoh Co Ltd 画像圧縮装置及び方法並びにプログラム
JP2014135551A (ja) * 2013-01-08 2014-07-24 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法

Also Published As

Publication number Publication date
JPWO2018055712A1 (ja) 2019-03-07
JP6732031B2 (ja) 2020-07-29
US20190230357A1 (en) 2019-07-25
US20210076039A1 (en) 2021-03-11
US11425381B2 (en) 2022-08-23

Similar Documents

Publication Publication Date Title
RU2589857C2 (ru) Кодирование, декодирование и представление изображений с расширенным динамическим диапазоном
US8666186B1 (en) Lossy compression of high dynamic range video
US7483486B2 (en) Method and apparatus for encoding high dynamic range video
US20140098858A1 (en) High Precision Encoding and Decoding of Video Images
JP6141295B2 (ja) 知覚的に無損失のおよび知覚的に強調された画像圧縮システムならびに方法
EP2207358A1 (en) Video decoding method and video encoding method
US8340442B1 (en) Lossy compression of high-dynamic range image files
US10771785B2 (en) Image encoding apparatus, method of controlling the same, and storage medium
US20080267495A1 (en) Image compressing method and image compressing apparatus
US9979973B2 (en) Encoding and decoding methods for adapting the average luminance of high dynamic range pictures and corresponding encoder and decoder
WO2015104316A1 (en) Method and apparatus for encoding image data and method and apparatus for decoding image data
CN105828089A (zh) 一种基于自适应感知量化的视频编码方法和系统
EP3180910B1 (en) Method for optimized chroma subsampling, apparatus for optimized chroma subsampling and storage device
US20220256157A1 (en) Method and apparatus for processing image signal conversion, and terminal device
CN107409223A (zh) 视频编解码方法和视频编解码器
CN107027027B (zh) 图像的编码、解码方法及装置、以及图像的编解码系统
WO2017129147A1 (zh) 图像的编码、解码方法及装置、以及图像的编解码系统
WO2018055712A1 (ja) 画像符号化装置、画像復号装置、画像符号化プログラムおよび画像復号プログラム
EP3026912A1 (en) Method and device for encoding and decoding a HDR picture and a LDR picture using illumination information
EP2958327A1 (en) Method and device for encoding a sequence of pictures
EP2958103A1 (en) Method and device for encoding a sequence of pictures
US8331709B2 (en) Fixed buffer real-time image compression technique
US20050069213A1 (en) Image processing apparatus
WO2015177132A1 (en) Method and device for encoding a high-dynamic range frame and/or decoding a bitstream
Fang On performance of lossless compression for HDR image quantized in color space

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018540544

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16916781

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16916781

Country of ref document: EP

Kind code of ref document: A1