WO2007097067A1 - 画像符号化装置、画像処理装置、画像表示装置、画像符号化方法、及び画像処理方法 - Google Patents

画像符号化装置、画像処理装置、画像表示装置、画像符号化方法、及び画像処理方法 Download PDF

Info

Publication number
WO2007097067A1
WO2007097067A1 PCT/JP2006/320741 JP2006320741W WO2007097067A1 WO 2007097067 A1 WO2007097067 A1 WO 2007097067A1 JP 2006320741 W JP2006320741 W JP 2006320741W WO 2007097067 A1 WO2007097067 A1 WO 2007097067A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
unit
current frame
image
data
Prior art date
Application number
PCT/JP2006/320741
Other languages
English (en)
French (fr)
Inventor
Akihiro Nagase
Jun Someya
Noritaka Okuda
Original Assignee
Mitsubishi Electric Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corporation filed Critical Mitsubishi Electric Corporation
Priority to US11/918,128 priority Critical patent/US8237689B2/en
Publication of WO2007097067A1 publication Critical patent/WO2007097067A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0252Improving the response speed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/16Determination of a pixel data signal depending on the signal applied in the previous frame
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • Image encoding device image processing device, image display device, image encoding method, and image processing method
  • the present invention relates to an image encoding device that encodes input image data for each block, an image processing device including the image encoding device, an image display device including the image processing device, an image encoding method, and The present invention relates to an image processing method.
  • Liquid crystal panels are thin and lightweight, and thus are widely used as display devices such as television receivers, computer display devices, and display units of portable information terminals.
  • the liquid crystal has a drawback in that it cannot cope with a fast-moving moving picture because it takes a certain time for the driving voltage to be applied and the force to reach a predetermined transmittance.
  • a driving method is applied in which an overvoltage is applied to the liquid crystal so that the liquid crystal reaches a predetermined transmittance within one frame (for example, (See Patent Literature 1).
  • the image data of the previous frame and the image data of the current frame are compared for each pixel, and if the gradation value changes, the correction amount corresponding to the change amount is added to the image data of the current frame. to add.
  • the gradation value increases from the previous frame, a higher driving voltage is applied to the liquid crystal panel, and when the gradation value decreases, a voltage lower than the normal voltage is applied.
  • an image processing circuit for driving a liquid crystal described in Patent Document 2 The image data is encoded and stored in the power frame memory to reduce the memory capacity. Also, the decoded image data of the current frame obtained by decoding the encoded image data, and the decoded image of the previous frame obtained by decoding the encoded image data after delaying it by one frame period. By correcting the image data based on the comparison result with the data, when a still image is input, unnecessary overvoltage due to encoding and decoding errors is applied to the liquid crystal. Can be prevented.
  • Patent Document 1 Japanese Patent No. 2616652 (paragraphs 0025-0026, FIG. 14)
  • Patent Document 2 Japanese Unexamined Patent Application Publication No. 2004-163842 (paragraphs 0021-0042, 01)
  • An object is to provide an encoding device, an image processing device including the image encoding device, an image display device including the image processing device, an image encoding method, and an image processing method. Means for solving the problem
  • the image encoding device of the present invention includes an image data blocking unit that outputs block image data obtained by dividing image data of a current frame into a plurality of blocks, and a dynamic range of the block image data.
  • a dynamic range generation unit that outputs dynamic range data indicating the dynamic range
  • an average value generation unit that calculates an average value of the block image data and outputs average value data indicating the average value, and a reduced pixel number Is input and the number of pixels of the block image data is reduced by decreasing the number of pixels.
  • a pixel number reducing unit that generates prime-decreasing block image data, a coding parameter generating unit that generates a code key parameter that specifies a quantization bit number and the reduced pixel number based on the dynamic range data, and Quantization threshold value generation unit that generates a quantization threshold value based on dynamic range data, the average value data, and the sign key parameter, and quantizing the pixel number reduced block image data using the quantization threshold value
  • an image data quantization unit that generates quantized image data by converting the image data into a quantized image data.
  • the image processing apparatus of the present invention provides code data for outputting encoded image data obtained by combining the dynamic range data, the average value data, and the quantized image data to the image encoding apparatus.
  • An encoding unit further comprising a combining unit; a first decoding unit that outputs first decoded image data corresponding to the image data of the current frame by decoding the encoded image data; Corresponding to the image data one frame before the current frame by decoding the encoded image data output from the delay unit that delays the encoded image data for a period corresponding to one frame A second decoding unit that outputs the second decoded image data, and a change amount for determining a change amount between the first decoded image data and the second decoded image data for each pixel.
  • Calculation unit And using the change amount and the image data of the current frame, a one-frame-previous image calculation unit that calculates reproduction image data corresponding to the image data of the previous frame, and the image data of the current frame And an image data correction unit that corrects the gradation value of the image of the current frame based on the reproduced image data.
  • an image display device of the present invention includes the image processing device and a display unit that displays an image based on image data output from the image processing device.
  • the image encoding method outputs block image data obtained by dividing the image data of the current frame into a plurality of blocks, obtains a dynamic range of the block image data, and Dynamic range data indicating a dynamic range is output, an average value of the block image data is obtained, average value data indicating the average value is output, and the number of quantization bits and the number of reduced pixels are calculated based on the dynamic range data.
  • Mark to specify A block image data having a reduced number of pixels is generated by generating a coding parameter and reducing the number of pixels of the block image data, and the dynamic range data, the average value data, and the encoding parameter
  • a quantized threshold value is generated based on the quantized threshold value, and the quantized image data is generated by quantizing the pixel number reduced block image data using the quantized threshold value.
  • the image data of the current frame that is input is encoded by the image encoding method, the encoded image data is output, and the encoded image data is output.
  • the first decoded image data corresponding to the image data of the current frame is output, the encoded image data is delayed for a period corresponding to one frame, and the delayed encoded image data Is decoded to output second decoded image data corresponding to image data one frame before the current frame, and the first decoded image data and the second decoded image are output.
  • An amount of change between the data is obtained for each pixel, and using the amount of change and the image data of the current frame, reproduction image data corresponding to the image data of the previous frame is calculated, and the current frame is calculated.
  • Image data Fine wherein based on the reproduction image data Te, and is characterized in that correcting the tone value of the image of the current frame.
  • another image processing apparatus of the present invention is configured to generate image data representing a gradation value of each pixel of an image corresponding to a voltage applied to the liquid crystal based on a change in the gradation value of each pixel.
  • An image processing apparatus that corrects and outputs an image, and quantizes current frame image data for each block, and outputs encoded image data corresponding to the image of the current frame; and the code key unit
  • a first decoding key unit that outputs the first decoded image data corresponding to the image data of the current frame by decoding the code key image data output by A delay unit that delays the encoded image data output by the period corresponding to one frame, and the encoded image data output from the delay unit is decoded to obtain one frame of the current frame.
  • a second decoding unit that outputs second decoded image data corresponding to the image data, a first high-frequency component enhancement unit that enhances a high-frequency component of the first decoded image data, and the second A second high frequency component emphasizing unit for emphasizing the high frequency component of the decoded image data, and the first high frequency component emphasizing
  • a change amount calculating unit for obtaining, for each pixel, a change amount between the image data in which the high frequency component is emphasized by the unit and the image data in which the high frequency component is emphasized by the second high frequency component emphasizing unit;
  • the image data of the current frame, the one-frame-before image calculation unit for calculating the reproduction image data corresponding to the image data of the previous frame, the image data of the current frame, and the reproduction image data
  • a correction unit that corrects the gradation value of the image of the current frame, and the encoding unit is a pixel that reduces the number of pixels of the image data in each block of the image data of the current frame.
  • the quantized image data in the encoded image data is based on the dynamic range of each block. Since the reduced pixel number indicating the value for reducing the number of pixels is adjusted, it is possible to obtain the effect of reducing the data amount of the code image data while suppressing the code error.
  • the code error when the data amount of the encoded image data is reduced is reduced, and an unnecessary overvoltage due to the influence of the encoding error is applied.
  • the response speed of the display unit can be appropriately controlled.
  • FIG. 1 is a block diagram showing a configuration of an image display device including an image processing device (image data processing unit) according to Embodiment 1 of the present invention.
  • FIG. 2 (a) to (c) are diagrams showing the response characteristics of the liquid crystal.
  • A shows the change over time of the luminance value of the current image data
  • (b) is the luminance value of the corrected image data.
  • C shows the change over time in the display brightness of the liquid crystal panel obtained by applying the voltage based on the corrected image data in (b).
  • FIG. 3 is a block diagram showing a configuration of an image encoding device (encoding unit shown in FIG. 1) according to Embodiment 1.
  • FIG. 4 is a block diagram showing a configuration of a quantization unit shown in FIG.
  • FIG. 5 is a flowchart showing the operation of the sign key section according to the first embodiment.
  • FIG. 6 is a block diagram showing a configuration of a decoding key unit shown in FIG.
  • FIG. 7 is a flowchart showing an operation of a decoding key unit shown in FIG.
  • FIG. 8 is a flowchart showing an operation of the image processing apparatus according to the first embodiment.
  • FIG. 9 is a block diagram showing an example of a configuration of an image data correction unit shown in FIG.
  • FIG. 10 is a schematic diagram showing the configuration of the lookup table shown in FIG.
  • FIG. 11 is a diagram showing an example of response speed of liquid crystal.
  • FIG. 12 is a diagram illustrating an example of a correction amount.
  • FIG. 13 is a block diagram showing another example of the configuration of the image data correction unit.
  • FIG. 14 is a diagram showing an example of corrected image data.
  • FIG. 16 (a), (bl), (b2), (cl), and (c2) are diagrams showing an example of a data configuration of code image data according to the second embodiment.
  • FIG. 17 (a), (bl), (b2), (cl), and (c2) are diagrams showing another example of the data structure of the encoded image data according to the second embodiment.
  • FIG. 18 is a block diagram illustrating a configuration example of an image processing device according to a third embodiment.
  • FIG. 19 is a diagram showing an internal configuration of a high frequency component emphasizing unit according to Embodiment 3.
  • FIG. 20 is a diagram showing an internal configuration of an enhancement amount generation unit according to Embodiment 3.
  • FIG. 21] (a) and (b) are diagrams showing the influence of the reduction in the number of pixels in the decoded image data.
  • FIG. 22] (a) and (b) are diagrams showing the influence of the reduction in the number of pixels in the decoded key image data.
  • FIG. 23 (a) to (d) are diagrams illustrating the operation of the high-frequency component emphasizing unit according to Embodiment 3.
  • FIG. 24 (a) and (b) are diagrams showing correction data when high-frequency components are emphasized.
  • FIG. 25 is a block diagram showing another configuration example of the image processing apparatus according to Embodiment 3. Explanation of symbols [0017] 1 input terminal, 2 receiving unit, 3 image data processing unit (image processing device), 4 encoding unit (image encoding device), 5 delay unit, 6 first decoding unit, 7 second decoding unit Decoding unit, 8 Change amount calculation unit, 9 1-frame previous image calculation unit, 10 Image data correction unit, 11 Display unit, 12 Image data blocking unit, 13 Dynamic range generation unit, 14 Average value generation unit, 15 Quantum Encoding unit, 16 Code data synthesis unit, 17 Threshold generation unit, 18 Encoding parameter generation unit, 19 Quantization threshold generation unit, 20 Pixel number reduction unit, 21 Image data quantization unit, 22 Threshold generation unit, 23 Encoding Parameter discrimination unit, 24 code data division unit, 25 image data restoration value generation unit, 26 image data restoration unit, 27 image data interpolation unit, 28 lookup table, 29 correction unit, 30 lookup table, 40 Image data processing unit, 41, 42, 43 Color space conversion unit, 44 Image data 45,
  • FIG. 1 is a block diagram showing a configuration of an image display device including an image data processing unit 3 that is an image processing device according to Embodiment 1 of the present invention.
  • the image display device has a receiving unit 2, an image data processing unit 3, and a display unit 11 as main components.
  • the configuration indicated as “... Part” is realized by hardware including an electric circuit or the like, realized by software, or realized by a combination of software and hardware. Even if it's a gap,
  • the image data processing unit 3 is an apparatus that can implement the image processing method of the present invention.
  • the image display device shown in FIG. 1 is, for example, a liquid crystal television.
  • the receiving unit 2 is composed of a TV tuner or the like. By performing processing such as channel selection and demodulation on the video signal input via the input terminal 1, an image for one frame (currently present) Current image data Dil representing a frame image or current image) is generated and sequentially output to the image data processing unit 3.
  • the image data processing unit 3 is an image according to the first embodiment of the present invention.
  • An encoding unit 4 which is an encoding device, a delay unit 5, a first decoding unit 6, a second decoding unit 7, a change amount calculation unit 8, a one-frame previous image calculation unit 9, And an image data correction unit 10.
  • the image data processing unit 3 corrects the current image data Dil based on the change in gradation value, and outputs the corrected image data Djl to the display unit 11.
  • the display panel of the display unit 11 is, for example, a liquid crystal panel, and by applying a voltage corresponding to the image data Dj 1 representing the luminance or density of the image to the liquid crystal, the light transmittance of each pixel of the liquid crystal An image is displayed by changing.
  • the encoding unit 4 compresses the data amount by encoding the current image data Dil, and generates encoded image data Dal.
  • an encoding method by the encoding unit 4 for example, block code encoding (BTC) such as FBTC (Fixed Block Truncation Coding) or GBTC (Generalized Block Truncation Coding) can be used.
  • BTC block code encoding
  • FBTC Fixed Block Truncation Coding
  • GBTC Generalized Block Truncation Coding
  • a code key method in the code key unit 4 a code using two-dimensional discrete cosine transform coding represented by JPEG, a prediction code key represented by JPEG-LS, and a wavelet transform represented by JPEG2000 The ⁇ ⁇ method can be adopted.
  • any code method can be adopted as long as it is a still image code method.
  • the still image coding method employed may be an irreversible coding method in which the image data before encoding and the image data after decoding do not completely match.
  • the code key unit 4 determines the number of quantized image data in the code key image data according to the size of the dynamic range of each block, that is, the number of pixels in each block. Decrease the number of pixels indicating the value to decrease the value, and output the encoded image data Dal with a reduced number of pixels.
  • the delay unit 5 outputs the code image data DaO of the previous frame by delaying the code image data Dal generated by the code unit 4 for a period corresponding to one frame.
  • the coding rate (data compression rate) of the image data Dil in the encoding unit 4 increases, the storage capacity of the memory (not shown) in the delay unit 5 required to delay the encoded image data Dal. / J, can be drilled.
  • the first decoding unit 6 discriminates the decoded image data Dbl corresponding to the current image data Dil by discriminating and decoding the quantization bit number of the encoded image data Dal for each block. Out To help. Further, the second decoding unit 7 discriminates and decodes the number of quantization bits of the encoded image data DaO delayed for a period corresponding to one frame by the delay unit 5 for each block. The decoded image data DbO representing the image one frame before is output.
  • the change amount calculating unit 8 Based on the first decoded image data Dbl corresponding to the current image and the second decoded image data DbO corresponding to the image before one frame, the change amount calculating unit 8 By subtracting the first decoded image data Dbl from the decoded image data DbO, the change amount Dvl of the gradation value for each pixel from the image one frame before to the current image is calculated. The change amount Dvl and the current image data Dil are input to the previous frame image calculation unit 9.
  • the previous-frame image calculation unit 9 generates the previous-frame image data DpO by adding the change amount Dv 1 of the gradation value output from the change amount calculation unit 8 to the current image data Dil.
  • the generated one-frame previous image data DpO is input to the image data correction unit 10.
  • the image data correction unit 10 displays the liquid crystal image within one frame period based on the change in the gradation value between one frame obtained by comparing the current image data Dil and the previous frame image data DpO.
  • the image data Dil is corrected so that the predetermined transmittance specified by the data Dil is obtained, and the corrected image data Dj l is output.
  • FIGS. 2A to 2C are diagrams showing response characteristics when a driving voltage based on the corrected image data Dj 1 is applied to the liquid crystal.
  • FIG. 2 (a) shows the time change of the gradation value (luminance value) of the current image data Dil
  • FIG. 2 (b) shows the time change of the gradation value (luminance value) of the corrected image data Dj1.
  • the solid line shows the change over time in the display brightness of the liquid crystal panel (that is, the response characteristics of the liquid crystal panel) obtained by applying the drive voltage based on the corrected image data Djl
  • the broken line shows the correction.
  • the response characteristics of the liquid crystal panel when the drive voltage based on the post-image data Djl VH or VL shown in Fig.
  • the corrected image data Djl is generated by adding or subtracting the correction amount VI or V2 to the current image data Di1.
  • the liquid crystal corresponds to the gradation value of the current image data Dil within approximately one frame period, as shown by the solid line in Fig. 2 (c).
  • the predetermined transmittance can be reached.
  • FIG. 3 is a block diagram schematically showing the configuration of the sign key unit 4.
  • the code key unit 4 includes an image data blocking unit 12, a dynamic range generating unit 13, an average value generating unit 14, a quantizing unit 15, and a code data synthesizing unit 16.
  • the image data blocking unit 12 generates block image data Dc1 by dividing the current image data Dil into blocks for each predetermined number of pixels.
  • the dynamic range generation unit 13 obtains the dynamic range of each block image data Dc 1 output from the image data blocking unit 12 and outputs dynamic range data Ddl.
  • the average value generation unit 14 calculates the average value of each block image data Del output from the image data blocking unit 12 and calculates the average value data Del.
  • the quantization unit 15 quantizes each pixel data of the block image data Del output from the image data blocking unit 12, and outputs quantized image data Df1.
  • the code data synthesizer 16 bit-combines the dynamic range data Ddl, the average value data Del, and the quantized image data Dfl and outputs the result as encoded image data Dal.
  • FIG. 4 is a block diagram schematically showing the configuration of the quantization unit 15.
  • the quantization unit 15 includes a threshold generation unit 17, a sign key parameter generation unit 18, a quantization threshold generation unit 19, a pixel number reduction unit 20, and an image data quantization unit 21. And the main components.
  • the threshold generation unit 17 outputs a switching threshold tal used when switching the number of quantization bits of the block image data Del according to the size of the dynamic range data Ddl.
  • the switching threshold tal is, for example, a value set at the manufacturing stage of the image processing apparatus.
  • the encoding parameter generation unit 18 determines the number of quantization bits of the block image data Del based on the comparison result between the dynamic range data Ddl and the switching threshold value tal. Further, the encoding parameter generation unit 18 determines the number of reduced pixels of the block image data Del based on the comparison result between the dynamic range data Ddl and the switching threshold value tal. The sign key parameter generation unit 18 outputs a sign key parameter pal that specifies the determined number of quantization bits and the number of reduced pixels.
  • the quantization threshold value generator 19 is used when quantizing the block image data Del based on the dynamic range data Ddl, the average value data Del, and the number of quantization bits specified by the encoding parameter pal.
  • the quantization threshold tbl is calculated.
  • the quantization threshold tbl is a quantity It consists of a threshold data number that is 1 less than the number of child bits.
  • the pixel number reduction unit 20 is configured by reducing the number of pixels of the block image data Del based on the reduced number of pixels specified by the sign key parameter pal, and including pixels equal to or less than the number of pixels of the block image data Del. Output block image data Del '.
  • a method of reducing the number of pixels in the pixel number reduction unit 20 a method that can reduce the number of pixels, such as a simple pixel thinning method or a method of outputting an average value of neighboring pixels, is possible. Various methods can be employed.
  • the image data quantization unit 21 quantizes each pixel data of the pixel number reduced block image data De / with threshold data included in the quantization threshold tbl, and outputs the quantized image data Dfl.
  • the encoding parameter pal specifies the dynamic range data Ddl force of the block image data Del, and in this case, the influence of the error due to the reduction of the number of pixels is small, so a large number of reduced pixels is designated. Also, the sign key parameter pal specifies a small reduction pixel number because the influence of the error due to the reduction of the pixel number becomes large when the dynamic range data Ddl of the block image data Del is large. As described above, since the number of reduced pixels of the block image data Del is adjusted according to the dynamic range, the code image data Dal can be reduced while minimizing the coding error.
  • FIG. 5 is a flowchart showing the steps of the sign key processing in the sign key unit 4.
  • the image data blocking unit 12 divides the current image data Dil into blocks and outputs block image data Del (Step S1). St2).
  • the dynamic range generator 13 detects the dynamic range of the block image data Dc 1 to generate the dynamic range data Dd 1 (step St3), and the average value generator 14 calculates the average value of the block image data Del. Is calculated to generate average value data Del (step St4).
  • the sign key parameter generation unit 18 determines the number of quantization bits based on the comparison result between the dynamic range data Ddl and the switching threshold value tal, and determines the number of reduced pixels based on the dynamic range data Ddl.
  • the encoding parameter pal specifying the number of quantization bits and the number of reduced pixels is output (step St5).
  • the quantization threshold value generator 19 generates a quantum specified by the encoding parameter pal.
  • a quantization threshold tbl corresponding to the number of quantization bits is calculated (step St6).
  • the pixel number reduction unit 20 is configured to reduce the number of pixels of the block image data Dc 1 based on the number of reduced pixels specified by the sign key parameter pal, and to include pixels equal to or less than the number of pixels of the block image data Dc 1.
  • the block image data De / to be reduced in pixel number is output (step St7).
  • the image data quantization unit 21 quantizes each pixel data of the pixel number reduced block image data De / based on the quantization threshold tbl, and outputs quantized image data Dfl (step St8).
  • the code data synthesizing unit 18 outputs encoded image data Dal by bit-combining the dynamic range data Ddl, the average value data Del, and the quantized image data Dfl (step St9).
  • FIG. 6 is a block diagram showing the configuration of the first decoding key unit 6 (the same configuration as the second decoding key unit 7).
  • the first decoding unit 6 includes a threshold generation unit 22, an encoding parameter determination unit 23, a code data division unit 24, an image data restoration value generation unit 25, image data
  • the restoration unit 26 and the image data interpolation unit 27 are the main components.
  • the threshold generation unit 22 outputs a discrimination threshold tcl that is set to the same value as the sign key parameter switching threshold tal.
  • the encoding parameter discriminating unit 23 compares the value of the dynamic range data Dd1 included in the encoding key data Dal with the determination threshold value tc1, and determines the encoding key parameter Pal of the encoded image data Da1. And the determined parameter is output as the sign key parameter pbl.
  • the code data dividing unit 24 divides the encoded image data Da 1 into dynamic range data Ddl, average value data Del, and quantized image data Dfl with reference to the encoding parameter pbl and outputs the divided data.
  • the pixel data restoration value generation unit 25 generates and outputs restoration value data ml from the dynamic range data Ddl and the average value data Del based on the encoding parameter pbl.
  • the restored value data ml is data composed of restored values corresponding to the quantized values of the quantized image data, and there are as many restored values as the number of quantization bits.
  • the pixel data restoration unit 26 restores the quantized image data Dfl based on the restoration value data ml, and outputs the pixel number reduced decoded image data Dhl.
  • the image data interpolation unit 27 interpolates the number-of-pixels reduced decoded image data Dhl composed of the number of pixels equal to or less than the number of pixels of the block image data Del, so that the number of pixels equal to the number of pixels of the block image data Del Decoded image data Dbl composed of is output.
  • FIG. 7 is a flowchart showing steps of the decoding process in the first decoding unit 6 and the second decoding unit 7.
  • the code key image data Dal is input to the coding parameter discriminating unit 23 and the code data dividing unit 24 (step Stl l)
  • the coding parameter discriminating unit 23 is included in the code key data Dal.
  • the dynamic range data Ddl and the switching threshold value tal are compared to determine the sign parameter pbl (step Stl2).
  • the code data dividing unit 24 divides the encoded image data Dal into dynamic range data Ddl, average value data Del, and quantized image data Dfl with reference to the code key parameter pbl (step Stl3 ).
  • the image data restoration value generation unit 25 also generates restoration value data ml for the dynamic range data Ddl and the average value data Del force (step Stl4).
  • the image data restoration unit 26 restores the quantized image data Dfl based on the restoration value data ml, and outputs the pixel number reduced decoded image data Dhl (step Stl5).
  • the image data interpolating unit 27 interpolates the pixel number reduction decoding image data Dhl composed of the number of pixels, which is smaller than the number of pixels of the block image data Del, to equalize the block image data Dc 1 and so on. ⁇ ⁇ Decoded image data Dbl consisting of the number of pixels is output (step Stl6).
  • FIG. 8 is a flowchart showing processing steps of the image data processing unit 3 which is the image processing apparatus according to the first embodiment.
  • the sign key unit 4 encodes the current image data Dil by the process shown in FIG. Output (step St22).
  • the delay unit 5 delays the encoded image data Dal by one frame period, outputs the encoded image data DaO one frame before (step St23), and the second decoding unit 7 outputs the previous frame one frame.
  • the encoded image data DaO is decoded by the process shown in FIG. 7, and decoded image data DbO corresponding to the current image data DiO one frame before is output (step St24).
  • the first decoding unit 6 decodes the encoded image data Dal by the process shown in FIG. 7, and decodes the decoded image data corresponding to the current image data Dil of the current frame. Dbl is output (step St25).
  • the change amount calculation unit 8 subtracts the decoded image data Dbl from the decoded image data DbO, thereby changing the gradation value for each pixel from the image one frame before to the current image. Then, this difference is output as the change amount Dvl (step St26).
  • the previous frame image data calculation unit 9 adds the amount of change Dvl to the current image data Dil and outputs the result as the previous frame image data DpO (step St27).
  • the image data correction unit 10 uses the current image data Dil within one frame period based on the change in the gradation value obtained by comparing the previous image data DpO with the current image data Dil. Obtain the correction amount necessary to drive to the specified transmittance, correct the current image data Dil using this correction amount, and output the corrected image data Dj l (Fig. 2 (b)) (Step St28). Note that the processing power of the above steps St21 to St28 is performed for each pixel of the current image data Dil.
  • the dynamic range of the image data divided into blocks is large! The number of pixels is decreased, and the number of decreased pixels is increased as the dynamic range is decreased.
  • the amount of image data temporarily stored in the frame memory of the delay unit 5 is further reduced while minimizing the code error occurring in the code unit 4. Therefore, the capacity of the frame memory of the delay unit 5 can be further reduced.
  • the image data correction unit 10 calculates the correction amount based on the change in the gradation value obtained by comparing the previous frame image data DpO and the current image data Dil, and corrects the corrected image. Force to generate data Dj 1 Store the correction amount in a memory section such as a lookup table, read the correction amount, and correct the current image data Dil.
  • FIG. 9 is a block diagram illustrating an example of the configuration of the image data correction unit 10.
  • the image data correction unit 10 shown in FIG. 9 includes a look-up table (LUT) 28 and a correction unit 29.
  • the look-up table 28 inputs the previous frame image data DpO and the current image data Di 1 and outputs a correction amount Dgl based on both values.
  • FIG. 10 is a schematic diagram showing an example of the configuration of the lookup table 28 shown in FIG.
  • the lookup table 28 includes the current image data Dil and the previous frame image data D. ⁇ is input as a read address.
  • 256 ⁇ 256 pieces of data are stored in the lookup table 28 as the correction amount Dgl.
  • the correction unit 29 adds the correction amount Dgl output from the lookup table 28 to the current image data Dil, and outputs the corrected image data Dj 1
  • FIG. 11 is a diagram illustrating an example of the response time of the liquid crystal.
  • the X axis is the value of the current image data Dil (gradation value in the current image)
  • the y axis is the value of the current image data DiO one frame before (the gradation value in the image one frame before).
  • the z-axis shows the response time required for the liquid crystal to reach the transmittance corresponding to the gradation value of the current image data Dil from the transmittance corresponding to the gradation value of the previous frame.
  • the response time corresponding to the combination of gradation values is shown in a simplified form of 8 ⁇ 8.
  • FIG. 12 is a diagram showing the value of the correction amount Dgl added to the current image data Dil so that the liquid crystal has the transmittance specified by the current image data Dil when one frame period elapses.
  • the gradation value of the current image data is 8 bits
  • the correction amount corresponding to the combination of gradation values is shown in a simplified manner of 8 ⁇ 8.
  • the lookup table 28 includes the current image data and one frame.
  • the response characteristics of liquid crystal are the liquid crystal material, electrode shape, Since it varies depending on the temperature and the like, the response time can be controlled in accordance with the characteristics of the liquid crystal by storing the correction amount Dg 1 corresponding to such use conditions in the look-up table 28.
  • the lookup table 28 that stores the correction amount Dgl obtained in advance, the amount of calculation when outputting the corrected image data Dj l can be reduced.
  • FIG. 13 is a block diagram showing another configuration of the image data correction unit 10 according to the first embodiment.
  • the corrected image data Dj 1 is set so as not to exceed the displayable gradation range of the display unit 11.
  • FIG. 14 is a diagram showing an example of the corrected image data Dj l stored in the lookup table 30.
  • the gradation value of the current image data is 8 bits
  • the correction amount corresponding to the combination of gradation values is shown in a simplified manner of 8 ⁇ 8.
  • the corrected image data Djl obtained in advance is stored in the lookup table 30, and the corresponding corrected image data Dj 1 is output based on the current image data Dil and the one-frame previous image data DpO. As a result, it is possible to further reduce the amount of calculation when each of the corrected image data Dj 1 is output.
  • FIG. 15 is a block diagram showing a configuration of an image display device including an image data processing unit 40 which is an image processing device according to Embodiment 2 of the present invention.
  • the image data processing unit 40 according to the second embodiment includes a color space conversion unit 41 before the code key unit 4 and a color space conversion unit 42 after the first decoding key unit 6. This is different from the image data processing unit 3 according to the first embodiment in that a color space conversion unit 43 is provided in the subsequent stage of the decoding unit 7.
  • the color space conversion unit 41 converts the current image data Dil into image data composed of the luminance signal Y and the color signals Cb and Cr, and outputs the converted current image data Dtl.
  • the encoding unit 4 encodes the current image data Dtl and outputs encoded image data Dal corresponding to the current image data Dtl.
  • the delay unit 5 outputs the encoded image data DaO corresponding to the image one frame before the current image by delaying the encoded image data Dal for a period corresponding to one frame.
  • the first decoding unit 6 and the second decoding unit 7 output the decoded image data Dbl and DbO corresponding to the current image by decoding the encoded image data Dal and DaO.
  • the color space conversion units 42 and 43 convert the decoded image data Db 1 and DbO composed of the luminance signal and the color signal into RGB digital signals, and output the converted image data Dul and DuO.
  • the change amount calculation unit 8 subtracts the decoded image data Dul corresponding to the image data of the current frame from the decoded image data DuO corresponding to the image data of the previous frame, thereby subtracting the decoded image data Dul corresponding to the image data of the previous frame.
  • the change amount Dvl of the gradation value for each pixel to the current image is calculated. This change amount Dvl is input to the previous frame image calculation unit 9 together with the current image data Dil.
  • the previous-frame image calculation unit 9 generates the previous-frame image data DpO by adding the change amount Dv 1 of the gradation value output from the change amount calculation unit 8 to the current image data Dil.
  • the generated one-frame previous image data DpO is input to the image data correction unit 10.
  • the image data correction unit 10 displays the liquid crystal image within one frame period based on the change in the gradation value between one frame obtained by comparing the current image data Dil and the previous frame image data DpO.
  • the image data Dil is corrected so that the predetermined transmittance specified by the data Dil is obtained, and the corrected image data Dj l is output.
  • the encoding unit 4 generates block image data Del obtained by block-dividing the current image data Dtl in the same manner as in the first embodiment, and the block image data for each divided block.
  • Dc 1 is used to generate quantized image data Dfl obtained by quantizing dynamic range data Ddl, average value data De 1 and block image data Del.
  • block image data Dcl, dynamic range data Ddl, average value data Del, and quantized image data Dfl are generated for each of luminance signal Y and color signals Cb and Cr.
  • FIGS. 16 (a), (bl), (b2), (cl), and (c2) are diagrams showing an example of the data configuration of the encoded image data according to the second embodiment.
  • Figures 16 (a), (bl), (b2), (cl), and (c2) show examples of dynamic range data Ddl, average value data Del, and quantized image data Dfl in the second embodiment.
  • the figure shows a case where the number of pixels included in each of the luminance signal Y and the color signal Cb, per block is eight. In the figure, each number is described in a square and the number is the number of bits of each data.
  • FIG. 16A shows block image data Del of the luminance signal Y and the color signals Cb and Cr, and shows that there are 8 pixels of 8-bit image data in one block.
  • FIG. 16 (bl) shows the pixel number reduced block image data Dc 1 ′ when the number of reduced pixels in the block image data Del of the luminance signal Y and the color signals Cb and Cr is 4 pixels.
  • Fig. 16 (b2) shows the reduced pixel power of the block image data Del of the luminance signal Y and the block image data of the reduced pixel number when the block image data Del of the color signals Cb and Cr has a reduced pixel number of 6 Dc 1 '
  • FIG. 16 (cl) shows encoded image data Dal obtained by encoding the pixel number reduced block image data De / shown in FIG.
  • FIG. 16 (c2) shows code image data Dal obtained by encoding the pixel number reduced block image data Dc! T shown in FIG. 16 (b2).
  • Each encoded image data in FIG. 16 (cl) and (c2) is composed of dynamic range data Ddl, average value data Del, and quantized image data Df 1!
  • the error generated by reducing the number of pixels is small, so that the color signal Cb as shown in FIG. 16 (b2).
  • the dynamic range of the color signals Cr and Cr is large, as shown in Fig. 16 (bl)
  • the number of reduced pixels of the luminance signal Y and the color signals Cb and Cr is set to the same value in the second embodiment. Set.
  • the pixel amount of the encoded image data Dal is kept constant while the pixel amount is kept constant. It is possible to minimize the effect of errors by reducing the number.
  • any method for reducing the number of pixels in the pixel number reduction unit 20 any method can be used as long as the number of pixels can be reduced, such as simple pixel thinning or outputting an average value of neighboring pixels. It may be used.
  • FIGS. 17 (a), (bl), (b2), (cl), and (c2) are diagrams showing other examples of the data configuration of the encoded image data according to the second embodiment.
  • Figures 17 (a), (bl), (b2), (cl), and (c2) show other examples of dynamic range data Ddl, average value data Del, and quantized image data Dfl in the second embodiment.
  • the figure shows a case where the number of pixels included in the luminance signal Y per block is 8 and the number of pixels included in the color signals Cb and Cr is 16, respectively.
  • the numbers described in the squares are the number of bits of each data.
  • FIG. 17A shows block image data Del, where the luminance signal Y indicates image data for two blocks and the color signals Cb and Cr indicate image data for one block.
  • FIG. 17 (bl) shows the pixel number reduced block image data De / in the case of the reduced pixel number power of the luminance signal Y and the reduced pixel number power S12 of the color signals Cb and Cr.
  • FIG. 17 (b 2) shows block image data Dc 1 ′ with a reduced number of pixels when the number of reduced pixels of the luminance signal Y is 0 and the number of reduced pixels of the color signals Cb and Cr is 16.
  • FIG. 17 (cl) shows code image data Dal obtained by encoding the pixel number reduced block image data De / shown in FIG.
  • FIG. 17 (c2) shows the encoded image data Dal obtained by encoding the block number image data Del ′ with the reduced number of pixels shown in FIG. 17 (b2).
  • Each of the encoded image data in FIGS. 17 (c 1) and (c2) is composed of dynamic range data Ddl, average value data Del, and quantized image data Df 1.
  • the number of pixels contained in one block of luminance signal Y and color signals Cb, Cr is different.
  • the number of pixels for two blocks of the luminance signal Y is equal to the number of pixels for one block of the color signals Cb and Cr.
  • the number-of-pixels reduction unit 20 includes the color signals Cb and Cr
  • the dynamic range of both is small, increase the number of reduced pixels until the number of pixels of the color signals Cb and Cr reaches ⁇ , as shown in Fig. 17 (b2). Set the number to 0.
  • the reduced number of pixels of the luminance signal Y is set to 4
  • the color signals Cb and Cr Set the number of reduced pixels to 12.
  • the number of pixels to be reduced is not adjusted between a plurality of blocks, rather than adjusting the number of pixels to be reduced only with a pair of block image data of luminance signal Y and color signals Cb and Cr. Can be used as long as the combination of the number of reduced pixels so that the data amount of the sign image data Dal becomes constant.
  • the number of pixels of the pixel number reduced block image data De / is set to 0, and the encoded image data Dal Can be composed of only dynamic range data Ddl and average value data Del.
  • the luminance signal Y is increased simultaneously with increasing the number of reduced pixels of the color signals Cb and Cr. Therefore, it is possible to reduce the encoding error due to the reduction in the number of pixels and to keep the encoded image data amount constant.
  • the corrected image data Dj1 can be generated with a small error even when the compression rate is increased.
  • the response speed of the liquid crystal can be appropriately controlled without applying an unnecessary overvoltage due to the sign key error. It is possible to reduce the frame memory capacity of the delay unit 5 required for delaying the data Da 1.
  • FIG. 18 is a block diagram showing a configuration of a liquid crystal display device including an image data processing unit 44 that is an image processing device according to Embodiment 3 of the present invention.
  • the first high-frequency component emphasizing unit 45 is provided after the first decoding key unit 6, and the second high-frequency component emphasizing unit 46 is provided after the second decoding unit 7.
  • the decoded image data Db 1 and the sign key parameter Pb 1 are output from the part 6 to the first high frequency component emphasizing part 45, and decoded from the second decoding key part 7 to the second high frequency component emphasizing part 46.
  • the image data DbO and the sign key parameter PbO are output, and the change amount calculation unit 8 outputs the output Dbla from the first high-frequency component enhancement unit 45 and the output DbOa from the second high-frequency component enhancement unit 46. It is the point which calculates the difference of.
  • FIG. 19 is a block diagram showing an internal configuration of the first high-frequency component emphasizing unit 45 (or the second high-frequency component emphasizing unit 46).
  • the first high-frequency component enhancement unit 45 and the second high-frequency component enhancement unit 46 have the same configuration and function.
  • the first high-frequency component enhancement unit 45 (or the second high-frequency component enhancement unit 46) includes a high-frequency component detection unit 47, an enhancement amount generation unit 48, and an enhancement amount addition unit. 49.
  • the high frequency component detection unit 47 has a bandpass filter (BPF) or the like, extracts a high frequency component contained in the first decoded image data Dbl (or the second decoded image data DbO), Outputs high-frequency component signal R1 (or RO).
  • BPF bandpass filter
  • the enhancement amount generation unit 48 outputs the high-frequency component signal R1 (or RO), a predetermined gain amount G, and the first decoding unit 6 (or the second decoding unit 7).
  • the enhancement amount signal SH1 (or SHO) is output based on the sign key parameter Pbl (or PbO).
  • FIG. 20 is a block diagram showing an internal configuration of the enhancement amount generation unit 48. As shown in FIG. As shown in FIG. 20, the enhancement amount generation unit 48 integrates a predetermined gain amount G with the high frequency component signal R1 (or RO) and outputs a high frequency component signal R1G (or R0G).
  • the pixel number decrease determination unit 51 determines whether or not the number of pixels of the image data is decreased in the code unit 4 by the code parameter Pb 1 (or PbO), and the number of pixels is decreased. If it is determined, the high-frequency component signal R1G (or R0G) is inverted as the enhancement amount signal SH1 (or SH0), and a signal obtained by integrating an arbitrary gain coefficient is output. In addition, when the pixel number decrease determination unit 51 determines that the number of pixels is not decreased, the pixel number decrease determination unit 51 outputs 0 as the enhancement amount signal SH1 (or SH0).
  • the enhancement amount adding unit 49 performs the first decoded image data Dbl (or the second decoded image data).
  • DbO is added with the enhancement amount signal SHI (or SHO) output from the enhancement amount generator 48, and the first decoded image data Dbla (or second decoded with high frequency enhancement) is high-frequency emphasized. ⁇ ⁇ Outputs the image data DbOa). 18 other than those described above have the same configurations and functions as the configurations described in the first embodiment.
  • FIGS. 21 (a) and 21 (b) are diagrams showing data after decoding in the image data processing unit 44.
  • FIG. 21 (a) shows a case where the number of pixels is not reduced in the code unit 4.
  • (B) in the figure shows the case where the number of pixels is reduced in the sign key section 4.
  • the vertical axis represents the luminance value of a pixel and the horizontal axis represents time.
  • FIGS. 21 (a) and 21 (b) show the case where the image moves one pixel at a time during one frame period.
  • Fig. 21 (b) shows a case where a method of reducing the number of pixels by performing the averaging process is used, and an originally abrupt luminance change (as shown in Fig. 21 (a)) is obtained by the averaging process.
  • FIGS. 22 (a) and (b) occur when the high-frequency emphasis function of the first high-frequency component emphasizing unit 45 and the second high-frequency component emphasizing unit 46 of Embodiment 3 is not operated. It is a figure for explaining a problem that sometimes occurs.
  • 22A and 22B show the corrected image data Dj 1 output from the image data processing unit 44, and FIG. 22A shows the case where the encoding unit 4 does not decrease the number of pixels.
  • FIG. (B) shows a case where the number of pixels is reduced in the sign key section 4.
  • Figures 22 (a) and (b) correspond to Figures 21 (a) and (b), respectively.
  • Fig. 22 (a) compares the two consecutive frames in Fig.
  • Fig. 21 (a) shows a comparison between two consecutive frames in Fig. 21 (b) .When the luminance value is increased compared to the previous frame, the luminance value is increased by a value corresponding to the increase amount.
  • the front frame When the brightness value is decreased from the image, the brightness value is decreased by a value corresponding to the amount of decrease. As shown in Fig.
  • FIGS. 23A to 23D are diagrams showing the operation of the first high frequency component emphasizing unit 45 and the second high frequency component emphasizing unit 46.
  • FIG. Here, for the sake of simplicity, the case where the decoded image data Dbl (or DbO) shown in FIG. 21 (b) is moved one pixel at a time for each frame is used as an example.
  • Figure 23 (a) shows the change in FIG. 23 (b) shows a process (second-order differentiation process) on the decoded image data Dbl shown in FIG. 23 (a) by the high-frequency component detection unit 47 using an arbitrary bandpass filter (BPF).
  • FIG. 6 is a diagram illustrating a high-frequency component signal R1 (or RO) that is an output signal after being subjected to (). If Y (n) is the luminance value at the ⁇ pixel position, the BPF output is
  • FIG. 23 (c) is obtained by inverting FIG. 23 (b) and multiplying by a coefficient.
  • the enhancement amount signal SH1 (or SHO) generated by inverting the sign of the high frequency component signal R1 (or RO) in the enhancement amount generation unit 48 is displayed in the enhancement amount addition unit 49.
  • the first decoded signal Dbla (or second decoded signal DbOa) generated by adding to the decoded image data Dbl (or second decoded image data DbO) is shown.
  • FIGS. 24 (a) and 24 (b) show a case where the high-frequency emphasis function of the first high-frequency component emphasizing unit 45 and the second high-frequency component emphasizing unit 46 of Embodiment 3 is operated.
  • the corrected image data Dj 1 output from the image data processing unit 44 is shown.
  • FIG. 4A shows the case where the number of pixels is not reduced by the encoding unit 4, and FIG. In this case, the number of pixels is reduced.
  • Figures 24 (a) and (b) correspond to Figures 21 (a) and 23 (d), respectively.
  • Fig. 24 (a) shows a comparison between two consecutive frames in Fig. 21 (a), and the brightness value increases compared to the previous frame.
  • the brightness value is increased by a value corresponding to the increase amount, and when the brightness value decreases from the previous frame, the brightness value is decreased by a value corresponding to the decrease amount. It is done.
  • Fig. 24 (b) compares the two consecutive frames in Fig. 23 (d), and when the luminance value is higher than the previous frame, the luminance value is increased by a value corresponding to the increase amount. When the luminance value is decreasing from the previous frame, it is obtained by decreasing the luminance value by a value corresponding to the amount of decrease. As shown in Fig. 24 (b), even when the number of pixels is reduced by the encoding unit 4, the amplitudes of the correction amounts Vlb and V2b are increased, so that the number of pixels is reduced. Even in such a case, it is possible to obtain a sufficient effect of improving the liquid crystal response speed.
  • the decoded image data Dbl (or DbO) is output as it is as Dbla (or DbOa). Even in the case where the number of reductions in the number of pixels varies depending on the signal and the pixel position, a uniform correction amount can be generated on the entire screen.
  • the high-frequency component that decreases when encoding processing is performed after reducing the number of images is emphasized after decoding. Even when the compression rate is increased by reducing the number of pixels, it is possible to generate the corrected image data Dj 1 with little error even for signals in the high frequency region. In other words, even when the number of pixels is reduced, it is possible to sufficiently apply an overvoltage to the high frequency region of the image.
  • the image data processing unit 52 has the color space conversion unit 41 in the previous stage of the encoding unit 4 and the first and second high-frequency component enhancements.
  • the present invention can also be applied to the case where the color space conversion units 42 and 43 following the units 45 and 46 are provided.
  • FIG. 25 Components that are the same as or correspond to those shown in FIG.
  • the image data processing unit 40 according to the third embodiment is effective when the pixel number reduction number is different for each luminance signal and color difference signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

 画像符号化装置は、ブロック画像データDc1のダイナミックレンジデータDd1を出力するダイナミックレンジ生成部と、ブロック画像データDc1の平均値データDe1を出力する平均値生成部と、ブロック画像データの画素数を減少画素数減らすことによって画素数減少ブロック画像データDc1´を生成する画素数減少部20と、ダイナミックレンジデータDd1に基づいて量子化ビット数及び減少画素数を指定する符号化パラメータpa1を生成する符号化パラメータ生成部18と、量子化閾値tb1を生成する量子化閾値生成部19と、量子化閾値tb1を用いて画素数減少ブロック画像データDc1´から量子化画像データDf1を生成する画像データ量子化部21を備える。

Description

明 細 書
画像符号化装置、画像処理装置、画像表示装置、画像符号化方法、及 び画像処理方法
技術分野
[0001] 本発明は、入力画像データをブロック毎に符号化する画像符号化装置、この画像 符号化装置を含む画像処理装置、この画像処理装置を含む画像表示装置、画像符 号化方法、及び画像処理方法に関するものである。
背景技術
[0002] 液晶パネルは、薄型且つ軽量であるため、テレビジョン受信機、コンピュータのディ スプレイ装置、携帯情報端末の表示部等の表示装置として広く用いられている。しか し、液晶は駆動電圧を印加して力も所定の透過率に到達するまでに一定の時間を要 するため、変化の早い動画に対応できないという欠点がある。こうした問題を解決す るため、フレーム間で階調値が変化する場合、 1フレーム以内に液晶が所定の透過 率に到達するよう、液晶に過電圧を印加する駆動方法が採用されている(例えば、特 許文献 1参照)。具体的には、 1フレーム前の画像データと現フレームの画像データと を画素毎に比較し、階調値が変化している場合はその変化量に対応する補正量を 現フレームの画像データに加算する。これにより、 1フレーム前よりも階調値が増加し た場合は液晶パネルにぉ ヽて通常よりも高 ヽ駆動電圧が印加され、減少した場合は 通常よりも低 、電圧が印加される。
[0003] 上記の方法を実施するためには、 1フレーム前の画像データを出力するためのフレ ームメモリが必要となる。近年、液晶パネルの大型化による表示画素数の増加に伴 い、フレームメモリの容量も大きくする必要が生じている。また、表示画素数が増える と、所定期間内(例えば、 1フレーム期間内)にフレームメモリへの書き込み及び読み 出しを行うデータ量が増えるので、書き込み及び読み出しを制御するクロック周波数 を高くし、データの転送速度を増加させる必要が生じる。こうしたフレームメモリの大 容量ィ匕及び転送速度の増加は、液晶表示装置のコストの上昇につながる。
[0004] こうした問題を解消するため、特許文献 2に記載された液晶駆動用画像処理回路 においては、画像データを符号ィ匕して力 フレームメモリに記憶することによりメモリ 容量の削減を図っている。また、符号化した画像データを復号化して得られる現フレ 一ムの復号化画像データと、符号化した画像データを 1フレーム期間遅延してから復 号化して得られる 1フレーム前の復号化画像データとの比較結果に基づ 、て画像デ ータの補正を行うことにより、静止画が入力された場合に、符号化及び復号化の誤差 に伴う不要な過電圧が液晶に印加されるのを防ぐことができる。
[0005] 特許文献 1 :特許第 2616652号公報(段落 0025— 0026、図 14)
特許文献 2:特開 2004— 163842号公報(段落 0021— 0042、 01)
発明の開示
発明が解決しょうとする課題
[0006] 上記の特許文献 2に記載の液晶駆動用画像処理回路によれば、入力される画像 の態様に関わらず、符号化画像データ中の量子化画像データの数が一定になるよう なブロック符号化を用 1ヽて符号化を行うので、符号化の圧縮率を高くして符号化画 像データのデータ量を小さくした場合、符号ィ匕及び復号ィ匕による誤差が大きくなり、 補正後の画像データに大きく反映されてしまう。これにより、符号化の圧縮率を高くし て符号化画像データのデータ量を小さくした場合、液晶に不要な過電圧が印加され るという問題が生じる。
[0007] そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、符 号ィ匕誤差を抑制しつつ、符号ィ匕画像データのデータ量を小さくすることができる画像 符号化装置、この画像符号化装置を含む画像処理装置、この画像処理装置を含む 画像表示装置、画像符号化方法、及び画像処理方法を提供することを目的とする。 課題を解決するための手段
[0008] 本発明の画像符号ィ匕装置は、現フレームの画像データを複数のブロックに分割し て得られたブロック画像データを出力する画像データブロック化部と、前記ブロック画 像データのダイナミックレンジを求め、前記ダイナミックレンジを示すダイナミックレン ジデータを出力するダイナミックレンジ生成部と、前記ブロック画像データの平均値を 求め、前記平均値を示す平均値データを出力する平均値生成部と、減少画素数が 入力され、前記ブロック画像データの画素数を前記減少画素数減らすことによって画 素数減少ブロック画像データを生成する画素数減少部と、前記ダイナミックレンジデ ータに基づいて量子化ビット数及び前記減少画素数を指定する符号ィ匕パラメータを 生成する符号化パラメータ生成部と、前記ダイナミックレンジデータ、前記平均値デ ータ、及び前記符号ィ匕パラメータに基づいて量子化閾値を生成する量子化閾値生 成部と、前記量子化閾値を用いて前記画素数減少ブロック画像データを量子化する ことによって量子化画像データを生成する画像データ量子化部とを有することを特徴 とするちのである。
[0009] また、本発明の画像処理装置は、上記画像符号化装置に、前記ダイナミックレンジ データ、前記平均値データ、及び前記量子化画像データを結合した符号化画像デ ータを出力する符号データ合成部をさらに備えた符号化部と、前記符号化画像デー タを復号化することにより前記現フレームの画像データに対応する第 1の復号化画像 データを出力する第 1の復号化部と、前記符号ィヒ画像データを 1フレームに相当する 期間遅延させる遅延部と、前記遅延部から出力される前記符号化画像データを復号 化することにより、前記現フレームの 1フレーム前の画像データに対応する第 2の復 号化画像データを出力する第 2の復号化部と、前記第 1の復号化画像データと前記 第 2の復号化画像データとの間の変化量を画素毎に求める変化量算出部と、前記変 化量と前記現フレームの画像データとを用いて、前記 1フレーム前の画像データに対 応する再生画像データを算出する 1フレーム前画像演算部と、前記現フレームの画 像データ及び前記再生画像データに基づ 、て、前記現フレームの画像の階調値を 補正する画像データ補正部とを有することを特徴とするものである。
[0010] また、本発明の画像表示装置は、上記画像処理装置と、この画像処理装置から出 力された画像データに基づく画像を表示する表示部とを有することを特徴とするもの である。
[0011] また、本発明の画像符号ィ匕方法は、現フレームの画像データを複数のブロックに分 割して得られたブロック画像データを出力し、前記ブロック画像データのダイナミック レンジを求め、前記ダイナミックレンジを示すダイナミックレンジデータを出力し、前記 ブロック画像データの平均値を求め、前記平均値を示す平均値データを出力し、前 記ダイナミックレンジデータに基づいて量子化ビット数及び減少画素数を指定する符 号化パラメータを生成し、前記ブロック画像データの画素数を前記減少画素数減ら すことによって画素数減少ブロック画像データを生成し、前記ダイナミックレンジデー タ、前記平均値データ、及び前記符号化パラメータに基づいて量子化閾値を生成し 、前記量子化閾値を用いて前記画素数減少ブロック画像データを量子化すること〖こ よって量子化画像データを生成することを特徴とするものである。
[0012] また、本発明の画像処理方法は、上記画像符号ィ匕方法によって、入力される現フ レームの画像データを符号化して符号化画像データを出力し、前記符号化画像デ 一タを復号化することにより前記現フレームの画像データに対応する第 1の復号化画 像データを出力し、前記符号ィ匕画像データを 1フレームに相当する期間遅延させ、 遅延した前記符号ィ匕画像データを復号ィ匕することにより、前記現フレームの 1フレー ム前の画像データに対応する第 2の復号化画像データを出力し、前記第 1の復号ィ匕 画像データと前記第 2の復号化画像データとの間の変化量を画素毎に求め、前記変 化量と前記現フレームの画像データとを用いて、前記 1フレーム前の画像データに対 応する再生画像データを算出し、前記現フレームの画像データ及び前記再生画像 データに基づ 、て、前記現フレームの画像の階調値を補正することを特徴とするもの である。
[0013] また、本発明の他の画像処理装置は、液晶に印加される電圧に対応する画像の各 画素の階調値を表す画像データを、前記各画素における階調値の変化に基づいて 補正して出力する画像処理装置であって、現フレームの画像データをブロック毎に 量子化し、当該現フレームの画像に対応する符号化画像データを出力する符号ィ匕 部と、前記符号ィ匕部により出力される前記符号ィ匕画像データを復号ィ匕することにより 前記現フレームの画像データに対応する第 1の復号化画像データを出力する第 1の 復号ィ匕部と、前記符号ィ匕部により出力される前記符号ィ匕画像データを 1フレームに 相当する期間遅延させる遅延部と、前記遅延部から出力される前記符号化画像デー タを復号ィ匕することにより、前記現フレームの 1フレーム前の画像データに対応する 第 2の復号化画像データを出力する第 2の復号化部と、前記第 1の復号化画像デー タの高周波成分を強調する第 1の高周波成分強調部と、前記第 2の復号化画像デー タの高周波成分を強調する第 2の高周波成分強調部と、前記第 1の高周波成分強調 部によって高周波成分が強調された画像データと前記第 2の高周波成分強調部によ つて高周波成分が強調された画像データとの間の変化量を画素毎に求める変化量 算出部と、前記変化量と前記現フレームの画像データとを用いて、前記 1フレーム前 の画像データに対応する再生画像データを算出する 1フレーム前画像演算部と、前 記現フレームの画像データ及び前記再生画像データに基づ!/、て、前記現フレーム の画像の階調値を補正する補正部とを備え、前記符号化部は、現フレームの画像デ 一タの各ブロックにおける画像データの画素数を減少する画素数減少部を備え、前 記現フレームの画像データの各ブロックにおけるダイナミックレンジに基づ 、て、各ブ ロックにおける前記現フレームの画像データの減少画素数を調整することを特徴とす るものである。
発明の効果
[0014] 本発明によれば、現フレームの画像データをブロック毎に量子化して符号化画像 データを出力する際、各ブロックのダイナミックレンジに基づいて、符号化画像データ 中の量子化画像データの画素数を減少させる値を示す減少画素数を調整するので 、符号ィ匕誤差を抑制しつつ、符号ィ匕画像データのデータ量を小さくすることができる t 、う効果を得ることができる。
[0015] また、本発明の画像表示装置によれば、符号化画像データのデータ量を減少させ た場合の符号ィ匕誤差を低減し、符号化誤差の影響による不要な過電圧を印加するこ となく表示部の応答速度を適切に制御することができる。
図面の簡単な説明
[0016] [図 1]本発明の実施の形態 1に係る画像処理装置 (画像データ処理部)を備えた、画 像表示装置の構成を示すブロック図である。
[図 2] (a)〜(c)は、液晶の応答特性を示す図であり、 (a)は現画像データの輝度値 の時間変化を示し、 (b)は補正後画像データの輝度値 (液晶への印加電圧に対応す る値)の時間変化を示し、(c)は (b)の補正後画像データに基づく電圧を印加して得 られる液晶パネルの表示輝度の時間変化を示す。
[図 3]実施の形態 1に係る画像符号化装置(図 1に示される符号化部)の構成を示す ブロック図である。 [図 4]図 3に示される量子化部の構成を示すブロック図である。
[図 5]実施の形態 1に係る符号ィ匕部の動作を示すフローチャートである。
[図 6]図 1に示される復号ィ匕部の構成を示すブロック図である。
[図 7]図 6に示される復号ィ匕部の動作を示すフローチャートである。
[図 8]実施の形態 1に係る画像処理装置の動作を示すフローチャートである。
[図 9]図 1に示される画像データ補正部の構成の一例を示すブロック図である。
[図 10]図 9に示されるルックアップテーブルの構成を示す模式図である。
[図 11]液晶の応答速度の一例を示す図である。
圆 12]補正量の一例を示す図である。
[図 13]画像データ補正部の構成の他の例を示すブロック図である。
[図 14]補正画像データの一例を示す図である。
圆 15]本発明の実施の形態 2に係る画像処理装置 (画像データ処理部)を備えた、 画像表示装置の構成を示すブロック図である。
[図 16] (a) , (bl) , (b2) , (cl) , (c2)は、実施の形態 2に係る符号ィ匕画像データの データ構成の一例を示す図である。
[図 17] (a) , (bl) , (b2) , (cl) , (c2)は、実施の形態 2に係る符号ィ匕画像データの データ構成の他の例を示す図である。
[図 18]実施の形態 3に係る画像処理装置の構成例を示すブロック図である。
[図 19]実施の形態 3に係る高周波成分強調部の内部構成を示す図である。
[図 20]実施の形態 3に係る強調量生成部の内部構成を示す図である。
[図 21] (a)及び (b)は、復号ィ匕画像データにおける画素数削減の影響を示す図であ る。
[図 22] (a)及び (b)は、復号ィ匕画像データにおける画素数削減の影響を示す図であ る。
[図 23] (a)〜 (d)は、実施の形態 3に係る高周波成分強調部の動作を示す図である。
[図 24] (a)及び (b)は、高周波成分強調時の補正データを示す図である。
[図 25]実施の形態 3に係る画像処理装置の他の構成例を示すブロック図である。 符号の説明 [0017] 1 入力端子、 2 受信部、 3 画像データ処理部 (画像処理装置)、 4 符号ィ匕 部 (画像符号化装置)、 5 遅延部、 6 第 1の復号化部、 7 第 2の復号化部、 8 変化量算出部、 9 1フレーム前画像演算部、 10 画像データ補正部、 11 表 示部、 12 画像データブロック化部、 13 ダイナミックレンジ生成部、 14 平均 値生成部、 15 量子化部、 16 符号データ合成部、 17 閾値生成部、 18 符 号化パラメータ生成部、 19 量子化閾値生成部、 20 画素数減少部、 21 画像 データ量子化部、 22 閾値生成部、 23 符号化パラメータ判別部、 24 符号デ ータ分割部、 25 画像データ復元値生成部、 26 画像データ復元部、 27 画 像データ補間部、 28 ルックアップテーブル、 29 補正部、 30 ルックアップテ 一ブル、 40 画像データ処理部、 41, 42, 43 色空間変換部、 44 画像デー タ処理部、 45 第 1の高周波成分強調部、 46 第 2の高周波成分強調部、 47 高周波成分検出部、 48 強調量生成部、 49 強調量加算部、 50 積算器、 5 1 画素数減少判定部、 52 画像データ処理部。
発明を実施するための最良の形態
[0018] 実施の形態 1.
図 1は、本発明の実施の形態 1に係る画像処理装置である画像データ処理部 3を 備えた、画像表示装置の構成を示すブロック図である。図 1に示されるように、画像表 示装置は、受信部 2と、画像データ処理部 3と、表示部 11とを主要な構成としている。 なお、本出願において「…部」として示される構成は、電気回路等を含むハードウェア によって実現されるもの、又は、ソフトウェアによって実現されるもの、又は、ソフトゥェ ァとハードウェアの組み合わせによって実現されるものの 、ずれであってもよ 、。なお 、画像データ処理部 3は、本発明の画像処理方法を実施することができる装置である 。また、図 1に示される画像表示装置は、例えば、液晶テレビである。
[0019] 受信部 2は、テレビチューナ等から構成されており、入力端子 1を介して入力される 映像信号に対し、選局及び復調等の処理を行うことにより、 1フレーム分の画像 (現フ レーム画像又は現画像)を表す現画像データ Dilを生成して、画像データ処理部 3 に順次出力する。
[0020] 図 1に示されるように、画像データ処理部 3は、本発明の実施の形態 1に係る画像 符号化装置である符号化部 4と、遅延部 5と、第 1の復号化部 6と、第 2の復号化部 7 と、変化量算出部 8と、 1フレーム前画像算出部 9と、画像データ補正部 10とを有して いる。画像データ処理部 3は、現画像データ Dilを階調値の変化に基づいて補正し 、補正画像データ Djlを表示部 11に出力する。
[0021] 表示部 11の表示パネルは、例えば、液晶パネルであり、画像の輝度又は濃度を表 す画像データ Dj 1に対応する電圧を液晶に印加することにより、液晶の各画素の光 透過率を変化させることによって、画像を表示する。
[0022] 次に、画像データ処理部 3の動作を説明する。符号ィ匕部 4は、現画像データ Dilを 符号化することによりデータ量を圧縮し、符号化画像データ Dalを生成する。符号化 部 4による符号化方式としては、例えば、 FBTC (Fixed Block Truncation Cod ing)又は GBTC (Generalized Block Truncation Coding)などのブロック符号 ィ匕 (BTC)を用いることができる。また、符号ィ匕部 4における符号ィ匕方式として、 JPEG に代表される 2次元離散コサイン変換符号化、 JPEG— LSに代表される予測符号ィ匕 、JPEG2000に代表されるウェーブレット変換を用いた符号ィ匕方式を採用することが できる。また、静止画用の符号ィ匕方式であれば任意の符号ィ匕方式を採用することが できる。なお、採用する静止画用の符号ィ匕方式は、符号化前の画像データと復号ィ匕 後の画像データとが完全に一致しない非可逆符号ィ匕であってもよい。ここで、符号ィ匕 部 4は、後述するように、各ブロックのダイナミックレンジの大きさに応じて符号ィ匕画像 データ中の量子化画像データの数を決定し、すなわち、各ブロックの画素数を減少さ せる値を示す減少画素数を決定し、画素数が減少した符号化画像データ Dalを出 力する。
[0023] 遅延部 5は、符号ィ匕部 4で生成された符号ィ匕画像データ Dalを 1フレームに相当す る期間遅延させることによって、 1フレーム前の符号ィ匕画像データ DaOを出力する。 符号化部 4における画像データ Dilの符号化率 (データ圧縮率)を高くするほど、符 号ィ匕画像データ Dalを遅延するために必要な遅延部 5のメモリ(図示せず)の記憶容 量を/ J、さくすることができる。
[0024] 第 1の復号ィ匕部 6は、符号ィ匕画像データ Dalの量子化ビット数をブロック毎に判別 して復号化することにより、現画像データ Dilに対応する復号化画像データ Dblを出 力する。また、第 2の復号ィ匕部 7は、遅延部 5により 1フレームに相当する期間遅延さ れた符号ィ匕画像データ DaOの量子化ビット数をブロック毎に判別して復号ィ匕すること により、 1フレーム前の画像を表す復号ィ匕画像データ DbOを出力する。
[0025] 変化量算出部 8は、現画像に対応する第 1の復号化画像データ Dbl及び 1フレー ム前の画像に対応する第 2の復号化画像データ DbOに基づ 、て、第 2の復号化画像 データ DbOから第 1の復号ィ匕画像データ Dblを減算することにより、 1フレーム前の 画像から現画像への画素毎の階調値の変化量 Dvlを算出する。この変化量 Dvlと、 現画像データ Dilは、 1フレーム前画像算出部 9に入力される。
[0026] 1フレーム前画像演算部 9は、変化量算出部 8により出力される階調値の変化量 Dv 1を現画像データ Dilに加算することにより、 1フレーム前画像データ DpOを生成する 。生成された 1フレーム前画像データ DpOは、画像データ補正部 10に入力される。
[0027] 画像データ補正部 10は、現画像データ Dilと、 1フレーム前画像データ DpOとの比 較により得られる 1フレーム間における階調値の変化に基づいて、液晶が 1フレーム 期間内に画像データ Dilにより指定される所定の透過率となるよう画像データ Dilを 補正し、補正画像データ Dj lを出力する。
[0028] 図 2 (a)〜(c)は、補正後画像データ Dj 1に基づく駆動電圧を液晶に印加した場合 の応答特性を示す図である。図 2 (a)は現画像データ Dilの階調値 (輝度値)の時間 変化を示し、図 2 (b)は補正後画像データ Dj 1の階調値 (輝度値)の時間変化を示す 。また、図 2 (c)において、実線は補正後画像データ Djlに基づく駆動電圧を印加し て得られる液晶パネルの表示輝度の時間変化 (すなわち、液晶パネルの応答特性) を示し、破線は、補正後画像データ Djlに基づく駆動電圧(図 2 (b)に示される VH又 は VL)を印加し続けた場合における液晶パネルの応答特性を示す。図 2 (b)に示さ れるように、階調値が増加又は減少する場合、補正量 VI又は V2を現画像データ Di 1に加算又は減算することにより、補正後画像データ Djlが生成される。この補正後 画像データ Dj lに基づく駆動電圧を液晶に印加することにより、図 2 (c)に実線で示 すように、略 1フレーム期間内に液晶を現画像データ Dilの階調値に対応する所定 の透過率に到達させることができる。
[0029] 次に、実施の形態 1に係る画像符号ィ匕装置である符号ィ匕部 4の構成及び動作を説 明する。図 3は、符号ィ匕部 4の構成を概略的に示すブロック図である。図 3に示される ように、符号ィ匕部 4は、画像データブロック化部 12と、ダイナミックレンジ生成部 13と、 平均値生成部 14と、量子化部 15と、符号データ合成部 16とを主要な構成としている 。画像データブロック化部 12は、現画像データ Dilを所定の画素数毎にブロック分 割することによってブロック画像データ Dc 1を生成する。ダイナミックレンジ生成部 13 は、画像データブロック化部 12から出力された各ブロック画像データ Dc 1のダイナミ ックレンジを求め、ダイナミックレンジデータ Ddlを出力する。平均値生成部 14は、画 像データブロック化部 12から出力された各ブロック画像データ Delの平均値を求め 、平均値データ Delを算出する。量子化部 15は、画像データブロック化部 12から出 力されたブロック画像データ Delの各画素データを量子化し、量子化画像データ Df 1を出力する。符号データ合成部 16は、ダイナミックレンジデータ Ddl、平均値デー タ Del、及び量子化画像データ Dflをビット結合して、符号化画像データ Dalとして 出力する。
[0030] 図 4は、量子化部 15の構成を概略的に示すブロック図である。図 4に示されるように 、量子化部 15は、閾値生成部 17と、符号ィ匕パラメータ生成部 18と、量子化閾値生成 部 19と、画素数減少部 20と、画像データ量子化部 21とを主要な構成としている。
[0031] 閾値生成部 17は、ブロック画像データ Delの量子化ビット数をダイナミックレンジデ ータ Ddlの大きさに応じて切り替える際に用いられる切り替え閾値 talを出力する。 切り替え閾値 talは、例えば、画像処理装置の製造段階で設定される値である。
[0032] 符号化パラメータ生成部 18は、ダイナミックレンジデータ Ddlと切り替え閾値 talと の比較結果に基づいて、ブロック画像データ Delの量子化ビット数を決定する。また 、符号化パラメータ生成部 18は、ダイナミックレンジデータ Ddlと切り替え閾値 talと の比較結果に基づいて、ブロック画像データ Delの減少画素数を決定する。符号ィ匕 パラメータ生成部 18は、決定された量子化ビット数及び減少画素数を指定する符号 ィ匕パラメータ palを出力する。
[0033] 量子化閾値生成部 19は、ダイナミックレンジデータ Ddl、平均値データ Del、及び 符号化パラメータ palにより指定される量子化ビット数に基づいて、ブロック画像デー タ Delを量子化する際に用いる量子化閾値 tblを算出する。量子化閾値 tblは、量 子化ビット数から 1を減じた数の閾値データカゝら構成される。
[0034] 画素数減少部 20は、符号ィ匕パラメータ palにより指定される減少画素数に基づい て、ブロック画像データ Delの画素数を減少させ、ブロック画像データ Delの画素数 以下の画素で構成される画素数減少ブロック画像データ Del'を出力する。画素数 減少部 20にお 、て画素数を減少する方法としては、単純な画素間引きによる方法、 又は、近傍画素同士の平均値を出力する方法など、画素数を減少できれる方法であ れば種々の方法が採用できる。
[0035] 画像データ量子化部 21は、画素数減少ブロック画像データ De /の各画素データ を量子化閾値 tblに含まれる閾値データによって量子化し、量子化画像データ Dfl として出力する。
[0036] 符号化パラメータ palは、ブロック画像データ Delのダイナミックレンジデータ Ddl 力 、さい場合には画素数を減少することによる誤差の影響が小さいので、大きな減 少画素数を指定する。また、符号ィ匕パラメータ palは、ブロック画像データ Delのダイ ナミックレンジデータ Ddlが大きい場合には画素数を減少することによる誤差の影響 が大きくなるので、小さな減少画素数を指定する。このように、ダイナミックレンジに応 じてブロック画像データ Delの減少画素数を調節するので、符号化誤差を最小限に 抑えつつ、符号ィ匕画像データ Dalを小さくすることができる。
[0037] 図 5は、符号ィ匕部 4における符号ィ匕処理の工程を示すフローチャートである。まず、 現画像データ Dilが画像データブロック化部 12に入力されると (ステップ Stl)、画像 データブロック化部 12は、現画像データ Dilをブロックに分割し、ブロック画像データ Delを出力する(ステップ St2)。次に、ダイナミックレンジ生成部 13は、ブロック画像 データ Dc 1のダイナミックレンジを検出してダイナミックレンジデータ Dd 1を生成し (ス テツプ St3)、平均値生成部 14は、ブロック画像データ Delの平均値を算出して平均 値データ Delを生成する (ステップ St4)。符号ィ匕パラメータ生成部 18は、ダイナミツ クレンジデータ Ddlと切り替え閾値 talとの比較結果に基づいて量子化ビット数を決 定し、ダイナミックレンジデータ Ddlに基づいて減少画素数を決定し、決定された量 子化ビット数及び減少画素数を指定する符号化パラメータ palを出力する (ステップ St5)。次に、量子化閾値生成部 19は、符号化パラメータ palにより指定される量子 化ビット数に対応する量子化閾値 tblを算出する (ステップ St6)。画素数減少部 20 は、符号ィ匕パラメータ palにより指定される減少画素数に基づいて、ブロック画像デ ータ Dc 1の画素数を減少し、ブロック画像データ Dc 1の画素数以下の画素で構成さ れる画素数減少ブロック画像データ De /を出力する (ステップ St7)。次に、画像デ ータ量子化部 21は、画素数減少ブロック画像データ De /の各画素データを量子化 閾値 tblに基づいて量子化し、量子化画像データ Dflを出力する (ステップ St8)。符 号データ合成部 18は、ダイナミックレンジデータ Ddl、平均値データ Del、及び量子 化画像データ Dflをビット結合することにより、符号化画像データ Dalを出力する (ス テツプ St9)。
[0038] 次に、第 1の復号化部 6及び第 2の復号化部 7の構成及び動作を説明する。図 6は 、第 1の復号ィ匕部 6の構成 (第 2の復号ィ匕部 7と同じ構成)を示すブロック図である。図 6に示されるように、第 1の復号ィ匕部 6は、閾値生成部 22と、符号化パラメータ判別部 23と、符号データ分割部 24と、画像データ復元値生成部 25と、画像データ復元部 2 6と、画像データ補間部 27とを主要な構成として 、る。
[0039] 閾値生成部 22は、符号ィ匕パラメータの切り替え閾値 talと同じ値に設定される判別 閾値 tclを出力する。
[0040] 符号化パラメータ判別部 23は、符号ィ匕データ Dalに含まれるダイナミックレンジデ ータ Dd 1の値を判別閾値 tc 1と比較し、符号化画像データ Da 1の符号ィ匕パラメータ P alを判別し、判別されたパラメータを符号ィ匕パラメータ pblとして出力する。
[0041] 符号データ分割部 24は、符号化パラメータ pblを参照して、符号化画像データ Da 1をダイナミックレンジデータ Ddl、平均値データ Del、及び量子化画像データ Dfl に分割して出力する。
[0042] 画素データ復元値生成部 25は、符号化パラメータ pblに基づ 、て、ダイナミックレ ンジデータ Ddl及び平均値データ Delから、復元値データ mlを生成して出力する 。この復元値データ mlは、量子化画像データの各量子化値に対応する復元値から 構成されるデータであり、この復元値は量子化ビット数分存在する。
[0043] 画素データ復元部 26は、復元値データ mlに基づ 、て量子化画像データ Dflを復 元し、画素数減少復号化画像データ Dhlを出力する。 [0044] 画像データ補間部 27は、ブロック画像データ Delの画素数以下の画素数で構成さ れる画素数減少復号化画像データ Dhlを補間することによって、ブロック画像データ Delの画素数に等しい画素数で構成される復号化画像データ Dblを出力する。
[0045] 図 7は、第 1の復号化部 6及び第 2の復号化部 7における復号化処理の工程を示す フローチャートである。まず、符号ィ匕画像データ Dalが符号化パラメータ判別部 23及 び符号データ分割部 24に入力されると (ステップ Stl l)、符号化パラメータ判別部 2 3は、符号ィ匕データ Dalに含まれるダイナミックレンジデータ Ddlと切り替え閾値 tal とを比較して符号ィ匕パラメータ pblを判別する (ステップ Stl2)。次に、符号データ分 割部 24は、符号ィ匕パラメータ pblを参照して、符号化画像データ Dalをダイナミック レンジデータ Ddl、平均値データ Del、及び量子化画像データ Dflに分割する(ス テツプ Stl3)。次に、画像データ復元値生成部 25は、ダイナミックレンジデータ Ddl 及び平均値データ Del力も復元値データ mlを生成する(ステップ Stl4)。次に、画 像データ復元部 26は、量子化画像データ Dflを復元値データ mlに基づ 、て復元 し、画素数減少復号化画像データ Dhlを出力する (ステップ Stl5)。次に、画像デー タ補間部 27は、ブロック画像データ Delの画素数よりも少な 、画素数で構成される 画素数減少復号ィ匕画像データ Dhlを補間することによって、ブロック画像データ Dc 1に等 ヽ画素数で構成される復号化画像データ Dblを出力する (ステップ Stl6)。
[0046] 図 8は、実施の形態 1に係る画像処理装置である画像データ処理部 3の処理工程 を示すフローチャートである。まず、現画像データ Dilが画像データ処理部 3に入力 されると (ステップ St21)、符号ィ匕部 4は、現画像データ Dilを図 5に示す工程により 符号化し、符号ィ匕画像データ Dalを出力する (ステップ St22)。遅延部 5は、符号ィ匕 画像データ Dalを 1フレーム期間遅延し、 1フレーム前の符号ィ匕画像データ DaOを出 力し (ステップ St23)、第 2の復号ィ匕部 7は、 1フレーム前の符号ィ匕画像データ DaOを 図 7に示す工程により復号化し、 1フレーム前の現画像データ DiOに対応する復号化 画像データ DbOを出力する(ステップ St24)。ステップ St23及び St24の処理と並行 して、第 1の復号ィ匕部 6は、符号化画像データ Dalを図 7に示す工程により復号化し 、現フレームの現画像データ Dilに対応する復号化画像データ Dblを出力する (ス テツプ St25)。 [0047] 次に、変化量算出部 8は、復号化画像データ DbOから復号化画像データ Dblを減 算することにより、 1フレーム前の画像から現画像への画素毎の階調値の変化を求め 、この差分を変化量 Dvlとして出力する (ステップ St26)。次に、 1フレーム前画像デ ータ演算部 9は、現画像データ Dilに変化量 Dvlを加算し、 1フレーム前画像データ DpOとして出力する(ステップ St27)。次に、画像データ補正部 10は、 1フレーム前 画像データ DpOと、現画像データ Dilとの比較によって得られる階調値の変化に基 づいて、液晶が 1フレーム期間内に現画像データ Dilにより指定される所定の透過率 となるよう駆動するのに必要な補正量を求め、この補正量を用いて現画像データ Dil を補正し、補正画像データ Dj l (図 2 (b) )を出力する (ステップ St28)。なお、上記ス テツプ St21〜St28の処理力 現画像データ Dilの各画素に対して実施される。
[0048] 以上に説明したように、実施の形態 1に係る画像処理装置によれば、現画像データ Dilを符号化する際、ブロック分割された画像データのダイナミックレンジが大き!/、ほ ど減少画素数を小さくし、ダイナミックレンジが小さいほど減少画素数を大きくする。こ のように制御することで、符号ィ匕部 4において発生する符号ィ匕誤差を最小限に抑え つつ、遅延部 5のフレームメモリに一時的に記憶される画像データの量をより削減す ることができるので、遅延部 5のフレームメモリの容量をより小さくすることが可能にな る。
[0049] なお、上記説明では、画像データ補正部 10は 1フレーム前画像データ DpOと現画 像データ Dilとの比較により得られる階調値の変化に基づいて補正量を算出し、補 正画像データ Dj 1を生成するものとした力 ルックアップテーブル等のメモリ部に補正 量を格納し、当該補正量を読み出して現画像データ Dilを補正する構成としてもょ ヽ
[0050] 図 9は、画像データ補正部 10の構成の一例を示すブロック図である。図 9に示す画 像データ補正部 10は、ルックアップテーブル (LUT) 28、及び補正部 29により構成 される。ルックアップテーブル 28は、 1フレーム前画像データ DpOと現画像データ Di 1を入力とし、両者の値に基づいて補正量 Dglを出力する。
[0051] 図 10は、図 9に示されるルックアップテーブル 28の構成の一例を示す模式図であ る。ルックアップテーブル 28には、現画像データ Dil及び 1フレーム前画像データ D ρθが読み出しアドレスとして入力される。現画像データ Dil及び 1フレーム前画像デ ータ DpOがそれぞれ 8ビットの画像データの場合、ルックアップテーブル 28には 256 X 256個のデータが補正量 Dglとして格納される。ルックアップテーブル 28は、現画 像データ Dil、及び 1フレーム前画像データ DpOの各値に対応する補正量 Dgl =dt (Dil, DpO)を読み出して出力する。補正部 29は、ルックアップテーブル 28により出 力された補正量 Dglを現画像データ Dilに加算し、補正画像データ Dj 1を出力する
[0052] 図 11は、液晶の応答時間の一例を示す図である。図 11において、 X軸は現画像デ ータ Dilの値 (現画像における階調値)、 y軸は 1フレーム前の現画像データ DiOの値 (1フレーム前の画像における階調値)であり、 z軸は液晶が 1フレーム前の階調値に 対応する透過率から現画像データ Dilの階調値に対応する透過率となるまでに要す る応答時間を示している。ここで、現画像の階調値が 8ビットの場合、現画像データ及 び 1フレーム前の画像データの階調値の組合せは 256 X 256通り存在するので、応 答時間も 256 X 256通り存在する。図 11においては、階調値の組合せに対応する応 答時間を 8 X 8通りに簡略ィ匕して示して 、る。
[0053] 図 12は、液晶が 1フレーム期間経過時に現画像データ Dilにより指定される透過 率となるよう現画像データ Dilに加算される補正量 Dglの値を示す図である。現画像 データの階調値が 8ビットの場合、補正画像データ Dj lは、現画像データ及び 1フレ ーム前の画像データの階調値の組合せに対応して 256 X 256通り存在する。図 12 においては、図 11と同様に階調値の組合せに対応する補正量を 8 X 8通りに簡略ィ匕 して示している。
[0054] 図 11に示されるように、液晶の応答時間は、現画像データ及び 1フレーム前の画像 データの階調値に応じて異なるため、ルックアップテーブル 28には、現画像データ 及び 1フレーム前の画像データの両階調値に対応する 256 X 256通りの補正量 Dgl が格納される。液晶は特に、中間階調 (グレー)における応答速度が遅い。従って、 中間階調を表す 1フレーム前画像データ DpOと、高階調を表す現画像データ Dilに 対応する補正量 Dgl =dt (Dil, DpO)の値を大きく設定することにより、応答速度を 効果的に向上させることができる。また、液晶の応答特性は液晶の材料、電極形状、 温度などによって変化するので、こうした使用条件に対応する補正量 Dg 1をルックァ ップテーブル 28に格納することにより、液晶の特性に応じて応答時間を制御すること ができる。
[0055] 以上のように、予め求められた補正量 Dglを格納したルックアップテーブル 28を用 いることにより、補正画像データ Dj lを出力する際の演算量を削減することができる。
[0056] 図 13は、実施の形態 1に係る画像データ補正部 10の他の構成を示すブロック図で ある。図 13に示すルックアップテーブル(LUT) 30は、 1フレーム前画像データ DpO 、及び現画像データ Dilを入力とし、両者の値に基づいて補正画像データ Djl = (D il, DpO)を出力する。ルックアップテーブル 30には、図 12に示す補正量 Dgl = (Di 1, DpO)を、現画像データ Dilに加算することにより得られる 256 X 256通りの補正 画像データ Dj l = (Dil, DpO)が格納される。なお、補正画像データ Dj lは、表示部 11の表示可能な階調の範囲を超えな 、よう設定される。
[0057] 図 14は、ルックアップテーブル 30に格納される補正画像データ Dj lの一例を示す 図である。現画像データの階調値が 8ビットの場合、補正画像データ Dj lは、現画像 データ及び 1フレーム前の画像データの階調値の組合せに対応して 256 X 256通り 存在する。図 14においては階調値の組合せに対応する補正量を 8 X 8通りに簡略化 して示している。
[0058] このように、予め求められた補正画像データ Djlをルックアップテーブル 30に格納 し、現画像データ Dil及び 1フレーム前画像データ DpOに基づいて対応する補正画 像データ Dj 1を出力することにより、補正画像データ Dj 1をそれぞれ出力する際の演 算量をさらに削減することができる。
[0059] 実施の形態 2.
図 15は、本発明の実施の形態 2に係る画像処理装置である画像データ処理部 40 を備えた、画像表示装置の構成を示すブロック図である。図 15において、図 1に示さ れる構成と同一又は対応する構成には、同じ符号を付す。実施の形態 2に係る画像 データ処理部 40は、符号ィ匕部 4の前段に色空間変換部 41を備え、第 1の復号ィ匕部 6の後段に色空間変換部 42を備え、第 2の復号ィ匕部 7の後段に色空間変換部 43を 備えて ヽる点が、上記実施の形態 1に係る画像データ処理部 3と相違する。 [0060] 色空間変換部 41は、現画像データ Dilを輝度信号 Y及び色信号 Cb, Crからなる 画像データに変換し、変換された現画像データ Dtlを出力する。符号化部 4は、現 画像データ Dtlを符号化し、現画像データ Dtlに対応する符号化画像データ Dalを 出力する。遅延部 5は、符号ィ匕画像データ Dalを 1フレームに相当する期間遅延す ることにより、現画像の 1フレーム前の画像に対応する符号化画像データ DaOを出力 する。第 1の復号化部 6及び第 2の復号化部 7は、符号化画像データ Dal, DaOを復 号化することにより、現画像に対応する復号化画像データ Dbl, DbOを出力する。
[0061] 色空間変換部 42及び 43は、輝度信号及び色信号からなる復号化画像データ Db 1, DbOを RGBのデジタル信号に変換し、変換された画像データ Dul, DuOを出力 する。
[0062] 変化量算出部 8は、 1フレーム前の画像データに対応する復号化画像データ DuO から現フレームの画像データに対応する復号化画像データ Dulを減算することによ り、 1フレーム前の画像力も現画像への画素毎の階調値の変化量 Dvlを算出する。 この変化量 Dvlは、現画像データ Dilとともに 1フレーム前画像演算部 9に入力され る。
[0063] 1フレーム前画像演算部 9は、変化量算出部 8により出力される階調値の変化量 Dv 1を現画像データ Dilに加算することにより、 1フレーム前画像データ DpOを生成する 。生成された 1フレーム前画像データ DpOは、画像データ補正部 10に入力される。
[0064] 画像データ補正部 10は、現画像データ Dilと、 1フレーム前画像データ DpOとの比 較により得られる 1フレーム間における階調値の変化に基づいて、液晶が 1フレーム 期間内に画像データ Dilにより指定される所定の透過率となるよう画像データ Dilを 補正し、補正画像データ Dj lを出力する。
[0065] 実施の形態 2に係る符号化部 4は、実施の形態 1と同様に、現画像データ Dtlをブ ロック分割したブロック画像データ Delを生成し、分割された各ブロックごとにブロック 画像データ Dc 1を用いてダイナミックレンジデータ Ddlと平均値データ De 1とブロッ ク画像データ Delを量子化した量子化画像データ Dflを生成する。この際、ブロック 画像データ Dcl、ダイナミックレンジデータ Ddl、平均値データ Del、及び量子化画 像データ Dflは、輝度信号 Y及び色信号 Cb, Crのそれぞれについて生成される。 [0066] 図 16 (a) , (bl) , (b2) , (cl) , (c2)は、実施の形態 2に係る符号ィ匕画像データの データ構成の一例を示す図である。図 16 (a) , (bl) , (b2) , (cl) , (c2)は、実施の 形態 2におけるダイナミックレンジデータ Ddl、平均値データ Del、及び量子化画像 データ Dflの一例を示しており、 1ブロックあたりの輝度信号 Y及び色信号 Cb, に 含まれる画素数をそれぞれ 8個とした場合を示している。なお、図中それぞれ四角の 中に記載して 、る数字は各データのビット数である。
[0067] 図 16 (a)は、輝度信号 Y及び色信号 Cb, Crのブロック画像データ Delを示してお り、 1ブロック内に 8ビットの画像データが 8画素あることを示している。
[0068] 図 16 (bl)は、輝度信号 Y及び色信号 Cb, Crのブロック画像データ Delの減少画 素数が 4画素である場合の画素数減少ブロック画像データ Dc 1 'を示して ヽる。図 16 (b2)は、輝度信号 Yのブロック画像データ Delの減少画素数力 ^であり、色信号 Cb , Crのブロック画像データ Delの減少画素数が 6である場合の画素数減少ブロック 画像データ Dc 1 'を示して 、る。
[0069] また、図 16 (cl)は、同図(bl)に示した画素数減少ブロック画像データ De /を符 号ィ匕することによって得られる符号ィ匕画像データ Dalを示している。また、図 16 (c2) は、同図(b2)に示した画素数減少ブロック画像データ Dc!Tを符号化することによつ て得られる符号ィ匕画像データ Dalを示して 、る。図 16 (cl)及び (c2)のそれぞれの 符号化画像データは、ダイナミックレンジデータ Ddl、平均値データ Del、及び量子 化画像データ Df 1によって構成されて!、る。
[0070] 実施の形態 2においては、 1ブロック内のデータのダイナミックレンジが小さい場合 には、画素数を減少することによって発生する誤差が小さいので、図 16 (b2)のように 、色信号 Cb, Crの減少画素数を大きし、輝度信号 Yの減少画素数を小さくする。逆 に、色信号 Crと Crのダイナミックレンジが大きい場合には、図 16 (bl)のように、実施 の形態 2においては、輝度信号 Yと色信号 Cb、 Crの減少画素数を同じ値に設定す る。このように、色信号 Cb、 Crのダイナミックレンジに応じて輝度信号 Yと色信号 Cb、 Crの減少画素数を調整することにより、符号ィ匕画像データ Dalのデータ量を一定に 保ちながら、画素数を減少することによる誤差の影響を最小限に抑えることが可能で ある。 [0071] なお、画素数減少部 20における、画素数を減少するための方法としては、単純な 画素間引きや、近傍画素同士の平均値を出力するなど、画素数を減少できればどの ような方法を用いてもよい。
[0072] 図 17 (a) , (bl) , (b2) , (cl) , (c2)は、実施の形態 2に係る符号化画像データの データ構成の他の例を示す図である。図 17 (a) , (bl) , (b2) , (cl) , (c2)は、実施 の形態 2におけるダイナミックレンジデータ Ddl、平均値データ Del、及び量子化画 像データ Dflの他の例を示す図であり、 1ブロックあたりの輝度信号 Yに含まれる画 素数を 8個、色信号 Cb, Crに含まれる画素数をそれぞれ 16個とした場合を示してい る。なお、図中それぞれ四角の中に記載している数字は各データのビット数である。
[0073] 図 17 (a)は、ブロック画像データ Delを示しており、輝度信号 Yは 2ブロック分の画 像データを、色信号 Cb, Crは 1ブロック分の画像データを示している。
[0074] 図 17 (bl)は、輝度信号 Yの減少画素数力 であり、色信号 Cb, Crの減少画素数 力 S 12である場合の画素数減少ブロック画像データ De /を示している。また、図 17 (b 2)は、輝度信号 Yの減少画素数が 0であり、色信号 Cb, Crの減少画素数が 16であ る場合の画素数減少ブロック画像データ Dc 1 'を示して 、る。
[0075] また、図 17 (cl)は、同図(bl)に示した画素数減少ブロック画像データ De /を符 号ィ匕することによって得られる符号ィ匕画像データ Dalを示している。図 17 (c2)は、 同図(b2)に示した画素数減少ブロック画像データ Del'を符号ィ匕することによって得 られる符号化画像データ Dalを示して ヽる。図 17 (c 1)及び (c2)のそれぞれの符号 化画像データは、ダイナミックレンジデータ Ddl、平均値データ Del、及び量子化画 像データ Df 1によって構成されて!、る。
[0076] 図 17 (a) , (bl) , (b2) , (cl) , (c2)に示される例の場合、輝度信号 Yと色信号 Cb , Crの 1ブロックに含まれる画素数が異なり、輝度信号 Yの 2ブロック分の画素数が色 信号 Cb, Crの 1ブロック分の画素数に等しい。
[0077] 1ブロック内のデータのダイナミックレンジが小さい場合には、画素数を減少すること によって発生する誤差が小さいので、図 17の例においては、画素数減少部 20は、 色信号 Cbと Crのダイナミックレンジが共に小さい場合には、図 17 (b2)のように、色 信号 Cb、 Crの画素数力^になるまで減少画素数を大きして、輝度信号 Yの減少画素 数を 0にする。
[0078] 逆に、色信号 Cbと Crいずれかのダイナミックレンジが大きい場合には、図 17 (bl) のように、輝度信号 Yの減少画素数を 4に設定し、色信号 Cb、 Crの減少画素数を 12 に設定する。このように、図 16の例のように輝度信号 Yと色信号 Cb, Crの 1対のブロ ック画像データだけで減少画素数の調節を行うのではなく、複数のブロック間で減少 画素数を調節することも可能であり、符号ィ匕画像データ Dalのデータ量が一定にな るような減少画素数の組合せであれば用いることができる。
[0079] また、図 17の例のように、減少画素数を 1ブロックに含まれる画素数と等しくすること で、画素数減少ブロック画像データ De /の画素数を 0にし、符号化画像データ Dal をダイナミックレンジデータ Ddlと平均値データ Delのみで構成することもできる。
[0080] 以上に説明した実施の形態 2に係る画像処理装置によれば、色信号 Cb, Crのダイ ナミックレンジが小さい場合には、色信号 Cb, Crの減少画素数を大きくすると同時に 輝度信号 Yの減少画素数を小さくするように制御するので、画素数を減少すること〖こ よる符号化誤差を低減するとともに符号化画像データ量を一定に保つことが可能で ある。
[0081] また、色信号 Cb, Crのダイナミックレンジが小さい場合には、色信号 Cb, Crの減少 画素数を大きくすると同時に輝度信号 Yの減少画素数を小さくするように制御するこ とによって、画素数を減少した場合の符号化誤差を低減するので、圧縮率を高くした 場合であっても誤差の小さ 、補正画像データ Dj 1を生成することが可能である。すな わち、画像データを符号ィ匕により削減した場合であっても、符号ィ匕誤差による不要な 過電圧を印加することなく液晶の応答速度を適切に制御することができるので、符号 化画像データ Da 1を遅延するために必要な遅延部 5のフレームメモリの容量を少なく することが可能である。
[0082] 実施の形態 3.
図 18は、本発明の実施の形態 3に係る画像処理装置である画像データ処理部 44 を備えた、液晶表示装置の構成を示すブロック図である。図 18において、図 1に示さ れる構成と同一又は対応する構成には、同じ符号を付す。実施の形態 3の画像デー タ処理部 44が、図 1に示される実施の形態 1の画像データ処理部 3と異なる点は、第 1の復号ィ匕部 6の後段に第 1の高域成分強調部 45を備え、第 2の復号化部 7の後段 に第 2の高域成分強調部 46を備え、第 1の復号ィ匕部 6から第 1の高域成分強調部 45 に復号化画像データ Db 1と符号ィ匕パラメータ Pb 1が出力され、第 2の復号ィ匕部 7から 第 2の高域成分強調部 46に復号ィ匕画像データ DbOと符号ィ匕パラメータ PbOが出力 され、変化量算出部 8は第 1の高域成分強調部 45からの出力 Dblaと第 2の高域成 分強調部 46からの出力 DbOaとの差分を計算する点である。
[0083] 図 19は、第 1の高域成分強調部 45 (又は第 2の高域成分強調部 46)の内部構成を 示すブロック図である。実施の形態 3において、第 1の高域成分強調部 45と第 2の高 域成分強調部 46とは、同じ構成及び機能を持つ。図 19に示されるように、第 1の高 域成分強調部 45 (又は第 2の高域成分強調部 46)は、高周波成分検出部 47と、強 調量生成部 48と、強調量加算部 49とを有している。
[0084] 高周波成分検出部 47は、バンドパスフィルタ (BPF)等を有し、第 1の復号化画像 データ Dbl (又は第 2の復号ィ匕画像データ DbO)に含まれる高周波成分を抽出し、 高周波成分信号 R1 (又は RO)を出力する。
[0085] 強調量生成部 48は、高周波成分信号 R1 (又は RO)、予め定められたゲイン量 G、 及び第 1の復号ィ匕部 6 (又は第 2の復号ィ匕部 7)力 出力された符号ィ匕パラメータ Pbl (又は PbO)に基づいて、強調量信号 SH1 (又は SHO)を出力する。図 20は、強調量 生成部 48の内部構成を示すブロック図である。図 20に示されるように、強調量生成 部 48は、高周波成分信号 R1 (又は RO)に予め定められたゲイン量 Gを積算して高周 波成分信号 R1G (又は R0G)を出力する積算器 50と、この積算器 50から出力される 高周波成分信号 R1G (又は R0G)と、符号ィ匕パラメータ Pbl (又は PbO)とが入力され る画素数減少判定部 51とを有する。画素数減少判定部 51は、符号ィヒパラメータ Pb 1 (又は PbO)により、符号ィ匕部 4で画像データの画素数が減少されているか否かを判 定し、画素数が減少されていると判定したときは、強調量信号 SH1 (又は SH0)とし て、高周波成分信号 R1G (又は R0G)を反転させ、任意のゲイン係数を積算した信 号を出力する。また、画素数減少判定部 51は、画素数が減少されていないと判定し たときは、強調量信号 SH1 (又は SH0)として 0を出力する。
[0086] 強調量加算部 49は、第 1の復号化画像データ Dbl (又は第 2の復号ィ匕画像データ DbO)に、強調量生成部 48から出力された強調量信号 SHI (又は SHO)を加算し、 高域強調された第 1の復号ィ匕画像データ Dbla (又は高域強調された第 2の復号ィ匕 画像データ DbOa)を出力する。なお、図 18に示される構成の内の上記以外の構成 は、上記実施の形態 1において説明した構成と同様の構成及び機能を持つ。
[0087] 次に、図 18に示される画像データ処理部 44の動作について説明する。図 21 (a) 及び (b)は、画像データ処理部 44における復号ィ匕後のデータを示す図であり、同図 (a)は符号ィ匕部 4にて画素数を減少させない場合を示し、同図(b)は符号ィ匕部 4にて 画素数を減少させた場合を示している。図 21 (a)及び (b)において、縦軸はある画素 の輝度値、横軸は時間である。図 21 (a)及び (b)においては、画像が 1フレーム期間 に 1画素ずつ移動している場合を示している。画素数を減少させる方法には、画素を 間引くことによって画素数を減少させる方法と、近接する複数の画素の平均化処理 によって得られたデータを持つ画素に置き換えることによって画素数を減少させる方 法とがある。図 21 (b)は、平均化処理を行うことによって画素数を減少させる方法を 用いた場合を示しており、平均化処理によって、元々急峻な輝度変化(図 21 (a)に 示されるような輝度変化)であったエッジ部分に、新たに中間調の画素が生成される 場合を示している。この中間調を有する補完されたエッジが動くとき、ある画素をフレ ーム間で比較すると、図 21 (b)に示すような変化が観測される。
[0088] 図 22 (a)及び (b)は、実施の形態 3の第 1の高域成分強調部 45及び第 2の高域成 分強調部 46の高域強調機能を動作させない場合に生じことがある問題点を説明す るための図である。図 22 (a)及び (b)は、画像データ処理部 44から出力される補正 画像データ Dj lを示し、同図(a)は符号化部 4にて画素数を減少させない場合を示し 、同図(b)は符号ィ匕部 4にて画素数を減少させた場合を示している。図 22 (a)及び( b)はそれぞれ、図 21 (a)及び (b)に対応している。図 22 (a)は、図 21 (a)において連 続する 2フレーム間を比較して、前フレームよりも輝度値が増加しているときには、そ の増加量に応じた値だけ輝度値を増加させ、前フレームよりも輝度値が減少して 、る ときには、その減少量に応じた値だけ輝度値を減少させることによって得られる。図 2 2 (b)は、図 21 (b)において連続する 2フレーム間を比較して、前フレームよりも輝度 値が増加しているときには、その増加量に応じた値だけ輝度値を増加させ、前フレー ムよりも輝度値が減少して 、るときには、その減少量に応じた値だけ輝度値を減少さ せること〖こよって得られる。図 22 (a)に示されるように、符号ィ匕部 4にて画素数を減少 させないときには、補正画像データに付加される補正量 VI, V2の振幅は大きいが、 図 22 (b)に示されるように、符号ィ匕部 4にて画素数を減少させたときには、補正量 VI a, V2aの振幅が小さくなり、また、輝度値が長い時間をかけて変化する(すなわち、 図 22 (b)における輝度値の変化が幅広になる)ため、画素数を減少させた場合のみ 液晶応答速度の改善効果が減少してしまう可能性がある。
[0089] 図 23 (a)〜 (d)は、第 1の高域成分強調部 45及び第 2の高域成分強調部 46の動 作を示す図である。ここでは、説明を簡単にするため、図 21 (b)に示す復号化画像 データ Dbl (又は DbO)を 1フレーム毎に 1画素ずつ移動している場合を例として用 い、その信号の画素ごとの変化を図 23 (a)に示す。また、図 23 (b)は、図 23 (a)に示 される復号化画像データ Dblに対して、高周波成分検出部 47において、任意のバ ンドパスフィルタ(BPF)による処理(2次微分処理)を施した後の出力信号である高 周波成分信号 R1 (又は RO)を示す図である。 Y(n)を η画素位置の輝度値とすると、 BPF出力は、例えば、
2Υ(η) - {Υ(η- 1) +Υ(η+ 1) }
によって得られる。
[0090] 図 23 (c)は、図 23 (b)を反転させ、係数を掛けることによって得られる。図 23 (d)は 高周波成分信号 R1 (又は RO)を、強調量生成部 48において符号反転することで生 成した、強調量信号 SH1 (又は SHO)を、強調量加算部 49において、第 1の復号ィ匕 画像データ Dbl (又は第 2の復号化画像データ DbO)に加算することによって生成し た第 1の復号ィ匕信号 Dbla (又は第 2の復号ィ匕信号 DbOa)を示している。
[0091] 図 24 (a)及び (b)は、実施の形態 3の第 1の高域成分強調部 45及び第 2の高域成 分強調部 46の高域強調機能を動作させた場合の画像データ処理部 44から出力さ れる補正画像データ Dj lを示し、同図(a)は符号化部 4にて画素数を減少させない 場合を示し、同図(b)は符号ィ匕部 4にて画素数を減少させた場合を示している。図 2 4 (a)及び (b)はそれぞれ、図 21 (a)及び図 23 (d)に対応している。図 24 (a)は、図 2 1 (a)において連続する 2フレーム間を比較して、前フレームよりも輝度値が増加して いるときには、その増加量に応じた値だけ輝度値を増カロさせ、前フレームよりも輝度 値が減少して ヽるときには、その減少量に応じた値だけ輝度値を減少させることによ つて得られる。図 24 (b)は、図 23 (d)において連続する 2フレーム間を比較して、前 フレームよりも輝度値が増加しているときには、その増加量に応じた値だけ輝度値を 増加させ、前フレームよりも輝度値が減少しているときには、その減少量に応じた値 だけ輝度値を減少させることによって得られる。図 24 (b)に示されるように、符号化部 4にて画素数を減少させたときであっても、補正量 Vlb, V2bの振幅は大きくなるの で、画素数を減少させた場合であっても、十分な液晶応答速度の改善効果を得るこ とが可能となる。
[0092] また画素位置によって画素数の減少数が異なる場合、全ての画面領域において高 周波成分強調処理を行うと、信号や画素位置によって生成される補正量に差が出て しまい、画面のちらつき等の画質劣化に繋がる可能性がある。しかし、実施の形態 3 に示す画像処理装置においては、第 1の復号ィ匕部 6 (又は第 2の復号ィ匕部 7)から出 力される符号化データ Pbl (又は PbO)を基に、画素数減少判定部 51にて、強調量 信号 SH1 (又は SHO)を制御する。よって、画素数を削減している場合は高周波成 分を強調し、画素数を削減していない場合は復号ィ匕画像データ Dbl (又は DbO)を そのまま Dbla (又は DbOa)として出力することで、信号によって、また画素位置によ つて画素数の減少数が異なる場合においても、画面全体に均一な補正量を生成す ることが可能となる。
[0093] 以上に説明した実施の形態 3に係る画像処理装置によれば、画像数を減少させた 後に符号化処理を行った場合に低下する高周波数成分を、復号化後に強調するの で、画素数を減少させることで圧縮率を高くした場合であっても、高周波数領域の信 号に対しても誤差の少な 、補正画像データ Dj 1を生成することが可能である。すなわ ち、画素数を減少させた場合であっても、画像の高周波数領域に対して十分に過電 圧を印加することが可能になる。
[0094] なお、以上に説明した内容は、図 25に示すように、画像データ処理部 52が、符号 化部 4の前段の色空間変換部 41と、第 1及び第 2の高域成分強調部 45, 46の後段 の色空間変換部 42, 43とを備えた場合にも適用可能である。なお、図 25において、 図 15に示される構成と同一又は対応する構成には、同じ符号を付す。実施の形態 3 に係る画像データ処理部 40は、上記実施の形態 2に示すように、輝度信号及び色差 信号ごとに画素数減少数が異なる場合に有効である。

Claims

請求の範囲
[1] 現フレームの画像データを複数のブロックに分割して得られたブロック画像データ を出力する画像データブロック化部と、
前記ブロック画像データのダイナミックレンジを求め、前記ダイナミックレンジを示す ダイナミックレンジデータを出力するダイナミックレンジ生成部と、
前記ブロック画像データの平均値を求め、前記平均値を示す平均値データを出力 する平均値生成部と、
減少画素数が入力され、前記ブロック画像データの画素数を前記減少画素数減ら すことによって画素数減少ブロック画像データを生成する画素数減少部と、
前記ダイナミックレンジデータに基づいて量子化ビット数及び前記減少画素数を指 定する符号ィ匕パラメータを生成する符号化パラメータ生成部と、
前記ダイナミックレンジデータ、前記平均値データ、及び前記符号化パラメータに 基づ!/、て量子化閾値を生成する量子化閾値生成部と、
前記量子化閾値を用いて前記画素数減少ブロック画像データを量子化すること〖こ よって量子化画像データを生成する画像データ量子化部と
を有することを特徴とする画像符号化装置。
[2] 前記符号化パラメータ生成部は、前記ブロック画像データのダイナミックレンジが小 さいほど、前記減少画素数を大きくすることを特徴とする請求の範囲 1に記載の画像 符号化装置。
[3] 前記画素数減少部による画素数を減らす処理は、画素の間引き処理及び複数の 近傍画素の平均値を 1画素のデータとする処理のいずれかを含むことを特徴とする 請求の範囲 1に記載の画像符号化装置。
[4] 前記ダイナミックレンジデータ、前記平均値データ、及び前記量子化画像データを 結合した符号化画像データを出力する符号データ合成部をさらに有することを特徴 とする請求の範囲 1に記載の画像符号化装置。
[5] 請求の範囲 4に記載の画像符号ィ匕装置と同じ構成を有し、入力される現フレームの 画像データを符号化して符号化画像データを出力する符号化部と、
前記符号化画像データを復号化することにより前記現フレームの画像データに対 応する第 1の復号化画像データを出力する第 1の復号化部と、
前記符号化画像データを 1フレームに相当する期間遅延させる遅延部と、 前記遅延部力 出力される前記符号ィ匕画像データを復号ィ匕することにより、前記現 フレームの 1フレーム前の画像データに対応する第 2の復号化画像データを出力す る第 2の復号ィヒ部と、
前記第 1の復号化画像データと前記第 2の復号化画像データとの間の変化量を画 素毎に求める変化量算出部と、
前記変化量と前記現フレームの画像データとを用いて、前記 1フレーム前の画像デ ータに対応する再生画像データを算出する 1フレーム前画像演算部と、
前記現フレームの画像データ及び前記再生画像データに基づ!/、て、前記現フレー ムの画像の階調値を補正する画像データ補正部と
を有することを特徴とする画像処理装置。
[6] 入力される現フレームの画像データを輝度信号力 なる画像データ及び色信号か らなる画像データに変換して前記符号ィ匕部に出力する第 1の色空間変換部と、 前記第 1の復号ィ匕部から出力される、現フレームに対応する輝度信号力もなる画像 データ及び色信号からなる画像データを、現フレームに対応する画像データに変換 して前記変化量算出部に出力する第 2の色空間変換部と、
前記第 2の復号ィ匕部から出力される、現フレームの 1フレーム前のフレームに対応 する輝度信号からなる画像データ及び色信号からなる画像データを、現フレームの 1 フレーム前のフレームに対応する画像データに変換して前記変化量算出部に出力 する第 3の色空間変換部と
を有することを特徴とする請求の範囲 5に記載の画像処理装置。
[7] 前記符号化部の前記符号化パラメータ生成部は、前記現フレームの画像データの 各ブロックにおける色信号データのダイナミックレンジが小さいほど、各ブロックにお ける色信号の減少画素数が大きくなるように、前記減少画素数を生成することを特徴 とする請求の範囲 6に記載の画像処理装置。
[8] 前記符号化部の前記符号化パラメータ生成部は、前記現フレームの画像データの 各ブロックにおける色信号データのダイナミックレンジが大きいほど、各ブロックにお ける輝度信号の減少画素数が大きくなるように、前記減少画素数を生成することを特 徴とする請求の範囲 6に記載の画像処理装置。
[9] 前記符号化部の前記符号化パラメータ生成部は、現フレームの画像データの各ブ ロックにおける色信号の画像データ及び輝度信号の画像データ力 得られた前記符 号ィ匕画像データのデータ量が一定となるように、前記減少画素数を生成することを特 徴とする請求の範囲 6に記載の画像処理装置。
[10] 請求の範囲 5に記載の画像処理装置と、
前記画像処理装置から出力された画像データに基づく画像を表示する表示部と を有することを特徴とする画像表示装置。
[11] 前記表示部は液晶表示部であることを特徴とする請求の範囲 10に記載の画像表 示装置。
[12] 現フレームの画像データを複数のブロックに分割して得られたブロック画像データ を出力し、
前記ブロック画像データのダイナミックレンジを求め、前記ダイナミックレンジを示す ダイナミックレンジデータを出力し、
前記ブロック画像データの平均値を求め、前記平均値を示す平均値データを出力 し、
前記ダイナミックレンジデータに基づいて量子化ビット数及び減少画素数を指定す る符号ィ匕パラメータを生成し、
前記ブロック画像データの画素数を前記減少画素数減らすことによって画素数減 少ブロック画像データを生成し、
前記ダイナミックレンジデータ、前記平均値データ、及び前記符号化パラメータに 基づ!/、て量子化閾値を生成し、
前記量子化閾値を用いて前記画素数減少ブロック画像データを量子化すること〖こ よって量子化画像データを生成する
ことを特徴とすることを特徴とする画像符号化方法。
[13] 前記ブロック画像データのダイナミックレンジが小さいほど、前記減少画素数を大き くすることを特徴とする請求の範囲 12に記載の画像符号化方法。
[14] 前記画素数を減らす処理は、画素の間弓 Iき処理及び複数の近傍画素の平均値を 1画素のデータとする処理のいずれかを含むことを特徴とする請求の範囲 12に記載 の画像符号化方法。
[15] 前記ダイナミックレンジデータ、前記平均値データ、及び前記量子化画像データを 結合した符号化画像データを出力することを特徴とする請求の範囲 12に記載の画 像符号化方法。
[16] 請求の範囲 14に記載の画像符号ィ匕方法によって、入力される現フレームの画像デ ータを符号化して符号化画像データを出力し、
前記符号化画像データを復号化することにより前記現フレームの画像データに対 応する第 1の復号化画像データを出力し、
前記符号ィ匕画像データを 1フレームに相当する期間遅延させ、
遅延した前記符号ィ匕画像データを復号ィ匕することにより、前記現フレームの 1フレ ーム前の画像データに対応する第 2の復号化画像データを出力し、
前記第 1の復号化画像データと前記第 2の復号化画像データとの間の変化量を画 素毎に求め、
前記変化量と前記現フレームの画像データとを用いて、前記 1フレーム前の画像デ ータに対応する再生画像データを算出し、
前記現フレームの画像データ及び前記再生画像データに基づ!/、て、前記現フレー ムの画像の階調値を補正する
ことを特徴とする画像処理方法。
[17] 入力される現フレームの画像データを輝度信号力 なる画像データ及び色信号か らなる画像データに変換し、
請求の範囲 14に記載の画像符号ィ匕方法によって、前記輝度信号力もなる画像デ ータ及び前記色信号力 なる画像データを符号ィ匕して符号ィ匕画像データを出力し、 前記符号ィ匕画像データを復号ィ匕することにより前記輝度信号カゝらなる画像データ 及び前記色信号からなる画像データに対応する第 1の復号化画像データを出力し、 前記第 1の復号ィ匕画像データである輝度信号力 なる画像データ及び色信号から なる画像データを、現フレームに対応する画像データに変換し、 前記符号ィ匕画像データを 1フレームに相当する期間遅延させ、
遅延した前記符号ィ匕画像データを復号ィ匕することにより、前記現フレームの 1フレ ーム前の画像データに対応する第 2の復号化画像データを出力し、
前記第 2の復号ィ匕画像データである輝度信号力 なる画像データ及び色信号から なる画像データを、現フレームの 1フレーム前のフレームに対応する画像データに変 換する
ことを特徴とする画像処理方法。
[18] 前記現フレームの画像データの各ブロックにおける色信号データのダイナミックレン ジが小さいほど、各ブロックにおける色信号の減少画素数が大きくなるように、前記減 少画素数を生成することを特徴とする請求の範囲 17に記載の画像処理方法。
[19] 前記現フレームの画像データの各ブロックにおける色信号データのダイナミックレン ジが大きいほど、各ブロックにおける輝度信号の減少画素数が大きくなるように、前記 減少画素数を生成することを特徴とする請求の範囲 17に記載の画像処理方法。
[20] 現フレームの画像データの各ブロックにおける色信号の画像データ及び輝度信号 の画像データ力 得られた前記符号ィ匕画像データのデータ量が一定となるように、 前記減少画素数を生成することを特徴とする請求の範囲 17に記載の画像処理方法
[21] 液晶に印加される電圧に対応する画像の各画素の階調値を表す画像データを、前 記各画素における階調値の変化に基づいて補正して出力する画像処理装置であつ て、
現フレームの画像データをブロック毎に量子化し、当該現フレームの画像に対応す る符号化画像データを出力する符号化部と、
前記符号ィヒ部により出力される前記符号ィヒ画像データを復号ィヒすることにより前記 現フレームの画像データに対応する第 1の復号化画像データを出力する第 1の復号 化部と、
前記符号ィ匕部により出力される前記符号ィ匕画像データを 1フレームに相当する期 間遅延させる遅延部と、
前記遅延部力 出力される前記符号ィ匕画像データを復号ィ匕することにより、前記現 フレームの 1フレーム前の画像データに対応する第 2の復号化画像データを出力す る第 2の復号ィヒ部と、
前記第 1の復号化画像データの高周波成分を強調する第 1の高周波成分強調部と 前記第 2の復号化画像データの高周波成分を強調する第 2の高周波成分強調部と 前記第 1の高周波成分強調部によって高周波成分が強調された画像データと前記 第 2の高周波成分強調部によって高周波成分が強調された画像データとの間の変 化量を画素毎に求める変化量算出部と、
前記変化量と前記現フレームの画像データとを用いて、前記 1フレーム前の画像デ ータに対応する再生画像データを算出する 1フレーム前画像演算部と、
前記現フレームの画像データ及び前記再生画像データに基づ!/、て、前記現フレー ムの画像の階調値を補正する補正部とを備え、
前記符号化部は、現フレームの画像データの各ブロックにおける画像データの画 素数を減少する画素数減少部を備え、前記現フレームの画像データの各ブロック〖こ おけるダイナミックレンジに基づ 、て、各ブロックにおける前記現フレームの画像デー タの減少画素数を調整する
ことを特徴とする画像処理装置。
[22] 前記第 1の高周波成分強調部及び前記第 2の高周波成分強調部は、前記符号ィ匕 部において前記画像データの画素数を減少させるときに、高周波成分を強調するこ とを特徴とする請求の範囲 21に記載の画像処理装置。
[23] 前記補正部が行う前記階調値の補正は、
前記現フレームの画像データと前記再生画像データとを比較し、前記現フレームの 輝度値が前記再生画像データの輝度値より高くなる場合には、この高くなつた変化 量に応じた値だけ前記現フレームの輝度値を高くし、前記現フレームの輝度値が前 記再生画像データの輝度値より低くなる場合には、この低くなつた変化量に応じた値 だけ前記現フレームの輝度値を低くするように行われることを特徴とする請求の範囲 21に記載の画像処理装置。
[24] 液晶に印加される電圧に対応する画像の各画素の階調値を表す画像データを、前 記各画素における階調値の変化に基づいて補正して出力する画像処理方法であつ て、
現フレームの画像データをブロック毎に量子化し、当該現フレームの画像に対応す る符号化画像データを出力する工程と、
前記符号化画像データを復号化することにより前記現フレームの画像データに対 応する第 1の復号化画像データを出力する工程と、
前記符号ィヒ画像データを 1フレームに相当する期間遅延する工程と、
前記遅延した前記符号ィ匕画像データを復号ィ匕することにより、前記現フレームの 1 フレーム前の画像データに対応する第 2の復号化画像データを出力する工程と、 前記第 1の復号化画像データの高周波成分を強調する工程と、
前記第 2の復号化画像データの高周波成分を強調する工程と、
高周波成分が強調された前記第 1の復号化画像データと高周波成分が強調された 前記第 2の復号ィヒ画像データとの間の変化量を画素毎に求める工程と、
前記変化量と前記現フレームの画像データとを用いて、前記 1フレーム前の画像デ ータに対応する再生画像データを算出する工程と、
前記現フレームの画像データ及び前記再生画像データに基づ!/、て、前記現フレー ムの画像の階調値を補正する工程と、
現フレームの画像データの各ブロックにおける画像データの画素数を減少するェ 程を備え、
前記現フレームの画像データの各ブロックにおけるダイナミックレンジに基づいて、 各ブロックにおける前記現フレームの画像データの減少画素数を調整する
ことを特徴とする画像処理方法。
[25] 前記第 1の復号化画像データの高周波成分を強調する工程及び前記第 2の復号 化画像データの高周波成分を強調する工程は、前記画像データの画素数を減少さ せる場合に実行されることを特徴とする請求の範囲 24記載の画像処理方法。
[26] 前記階調値を補正する工程は、前記現フレームの画像データと前記再生画像デー タとを比較し、前記現フレームの輝度値が前記再生画像データの輝度値より高くなる 場合には、この高くなつた変化量に応じた値だけ前記現フレームの輝度値を高くし、 前記現フレームの輝度値が前記再生画像データの輝度値より低くなる場合には、こ の低くなつた変化量に応じた値だけ前記現フレームの輝度値を低くするように行われ ることを特徴とする請求の範囲 24に記載の画像処理方法。
PCT/JP2006/320741 2006-02-24 2006-10-18 画像符号化装置、画像処理装置、画像表示装置、画像符号化方法、及び画像処理方法 WO2007097067A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/918,128 US8237689B2 (en) 2006-02-24 2006-10-18 Image encoding device, image processing device, image display device, image encoding method, and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006-048180 2006-02-24
JP2006048180 2006-02-24
JP2006-192546 2006-07-13
JP2006192546A JP4169768B2 (ja) 2006-02-24 2006-07-13 画像符号化装置、画像処理装置、画像符号化方法、及び画像処理方法

Publications (1)

Publication Number Publication Date
WO2007097067A1 true WO2007097067A1 (ja) 2007-08-30

Family

ID=38437123

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/320741 WO2007097067A1 (ja) 2006-02-24 2006-10-18 画像符号化装置、画像処理装置、画像表示装置、画像符号化方法、及び画像処理方法

Country Status (5)

Country Link
US (1) US8237689B2 (ja)
JP (1) JP4169768B2 (ja)
KR (1) KR20080026112A (ja)
TW (1) TWI349255B (ja)
WO (1) WO2007097067A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8237689B2 (en) 2006-02-24 2012-08-07 Mitsubishi Electric Corporation Image encoding device, image processing device, image display device, image encoding method, and image processing method
US8270773B2 (en) 2008-08-04 2012-09-18 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8675998B2 (en) * 2007-12-06 2014-03-18 Mitsubishi Electric Corporation Method and apparatus for high frequency component smoothing, and image display apparatus
US8325268B2 (en) * 2007-12-28 2012-12-04 Sanyo Electric Co., Ltd. Image processing apparatus and photographing apparatus
JP2012134848A (ja) * 2010-12-22 2012-07-12 Sony Corp 信号処理装置、及び信号処理方法
EP3654647A1 (en) * 2011-11-03 2020-05-20 Sun Patent Trust Efficient rounding for deblocking
EP2603000B1 (en) * 2011-12-08 2017-11-01 Dolby Laboratories Licensing Corporation Guided prediction-filtering in layered vdr image coding
JP6099884B2 (ja) 2012-05-25 2017-03-22 三菱電機株式会社 立体画像表示装置
KR20140037309A (ko) * 2012-09-13 2014-03-27 삼성전자주식회사 이미지 압축 회로와 이를 포함하는 디스플레이 시스템
KR101995866B1 (ko) * 2013-02-05 2019-07-04 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR102201108B1 (ko) * 2014-01-20 2021-01-11 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
US9734603B2 (en) * 2015-06-30 2017-08-15 General Electric Company Systems and methods for peak tracking and gain adjustment
GB2542125A (en) * 2015-09-08 2017-03-15 Sony Corp Colour conversion
CN107293262B (zh) * 2016-03-31 2019-10-18 上海和辉光电有限公司 用于驱动显示屏的控制方法、控制装置及显示装置
EP3520080A4 (en) * 2016-09-30 2020-06-17 General Electric Company SYSTEMS AND METHODS FOR SPECTRAL ANALYSIS AND GAIN ADJUSTMENT
JP6672363B2 (ja) * 2018-03-23 2020-03-25 シャープ株式会社 符号化装置、表示装置、符号化装置の制御方法、および制御プログラム
KR102618692B1 (ko) 2018-06-15 2024-01-02 삼성전자주식회사 노이즈 또는 디서의 영향을 감소시키기 위한 디스플레이 구동 회로 및 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62266924A (ja) * 1986-05-14 1987-11-19 Sony Corp 高能率符号化装置
JPH01171324A (ja) * 1987-12-25 1989-07-06 Matsushita Electric Ind Co Ltd 高能率符号化装置
JPH0556282A (ja) * 1990-08-23 1993-03-05 Fuji Xerox Co Ltd 画像符号化装置
JPH06197229A (ja) * 1992-12-25 1994-07-15 Sony Corp 復号装置
JPH07307869A (ja) * 1994-05-13 1995-11-21 Fuji Xerox Co Ltd 画像処理装置
JP2616652B2 (ja) * 1993-02-25 1997-06-04 カシオ計算機株式会社 液晶駆動方法及び液晶表示装置
JPH09148938A (ja) * 1995-11-21 1997-06-06 Seiko Epson Corp データ圧縮・伸長方法及びその装置
JP2004163842A (ja) * 2002-06-14 2004-06-10 Mitsubishi Electric Corp 画像データ処理装置、画像データ処理方法、及び液晶ディスプレイ装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0821864B2 (ja) * 1986-05-14 1996-03-04 ソニー株式会社 高能率符号化装置
US5166987A (en) * 1990-04-04 1992-11-24 Sony Corporation Encoding apparatus with two stages of data compression
JP2969867B2 (ja) * 1990-08-31 1999-11-02 ソニー株式会社 ディジタル画像信号の高能率符号化装置
US5414527A (en) 1991-08-14 1995-05-09 Fuji Xerox Co., Ltd. Image encoding apparatus sensitive to tone variations
US5440344A (en) * 1992-04-28 1995-08-08 Mitsubishi Denki Kabushiki Kaisha Video encoder using adjacent pixel difference for quantizer control
US6381369B1 (en) * 1996-07-17 2002-04-30 Sony Corporation Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium
JP3687080B2 (ja) * 1996-07-17 2005-08-24 ソニー株式会社 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、並びに記録媒体
JP3748088B2 (ja) * 1996-07-17 2006-02-22 ソニー株式会社 画像処理装置および方法、並びに学習装置および方法
US6898319B1 (en) * 1998-09-11 2005-05-24 Intel Corporation Method and system for video frame enhancement using edge detection
JP3617498B2 (ja) * 2001-10-31 2005-02-02 三菱電機株式会社 液晶駆動用画像処理回路、およびこれを用いた液晶ディスプレイ装置、ならびに画像処理方法
JP3694004B2 (ja) 2002-06-14 2005-09-14 三菱電機株式会社 液晶駆動回路、液晶駆動方法、及び液晶ディスプレイ装置
JP3703806B2 (ja) 2003-02-13 2005-10-05 三菱電機株式会社 画像処理装置、画像処理方法、および画像表示装置
KR100886295B1 (ko) * 2005-03-10 2009-03-04 미쓰비시덴키 가부시키가이샤 화상 처리 장치, 화상 처리 방법, 및 화상 표시 장치
JP2007174634A (ja) * 2005-11-28 2007-07-05 Victor Co Of Japan Ltd 階層符号化装置、階層復号化装置、階層符号化方法、階層復号方法、階層符号化プログラム及び階層復号プログラム
JP4169768B2 (ja) 2006-02-24 2008-10-22 三菱電機株式会社 画像符号化装置、画像処理装置、画像符号化方法、及び画像処理方法
JP4190551B2 (ja) * 2006-07-18 2008-12-03 三菱電機株式会社 画像処理装置、画像処理方法、画像符号化装置、および画像符号化方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62266924A (ja) * 1986-05-14 1987-11-19 Sony Corp 高能率符号化装置
JPH01171324A (ja) * 1987-12-25 1989-07-06 Matsushita Electric Ind Co Ltd 高能率符号化装置
JPH0556282A (ja) * 1990-08-23 1993-03-05 Fuji Xerox Co Ltd 画像符号化装置
JPH06197229A (ja) * 1992-12-25 1994-07-15 Sony Corp 復号装置
JP2616652B2 (ja) * 1993-02-25 1997-06-04 カシオ計算機株式会社 液晶駆動方法及び液晶表示装置
JPH07307869A (ja) * 1994-05-13 1995-11-21 Fuji Xerox Co Ltd 画像処理装置
JPH09148938A (ja) * 1995-11-21 1997-06-06 Seiko Epson Corp データ圧縮・伸長方法及びその装置
JP2004163842A (ja) * 2002-06-14 2004-06-10 Mitsubishi Electric Corp 画像データ処理装置、画像データ処理方法、及び液晶ディスプレイ装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8237689B2 (en) 2006-02-24 2012-08-07 Mitsubishi Electric Corporation Image encoding device, image processing device, image display device, image encoding method, and image processing method
US8270773B2 (en) 2008-08-04 2012-09-18 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method

Also Published As

Publication number Publication date
US8237689B2 (en) 2012-08-07
US20090085896A1 (en) 2009-04-02
JP2007259405A (ja) 2007-10-04
KR20080026112A (ko) 2008-03-24
TW200733040A (en) 2007-09-01
JP4169768B2 (ja) 2008-10-22
TWI349255B (en) 2011-09-21

Similar Documents

Publication Publication Date Title
WO2007097067A1 (ja) 画像符号化装置、画像処理装置、画像表示装置、画像符号化方法、及び画像処理方法
US7327340B2 (en) Liquid-crystal driving circuit and method
US7403183B2 (en) Image data processing method, and image data processing circuit
US7034788B2 (en) Image data processing device used for improving response speed of liquid crystal display panel
US8150203B2 (en) Liquid-crystal-driving image processing circuit, liquid-crystal-driving image processing method, and liquid crystal display apparatus
US8139090B2 (en) Image processor, image processing method, and image display device
KR100917530B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 부호화 장치, 화상부호화 방법, 및 화상 표시 장치
KR100896387B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 부호화 장치, 및화상 부호화 방법
JP4144600B2 (ja) 画像処理装置、画像処理方法、および画像表示装置
WO2012023398A1 (ja) 映像制御装置および映像制御方法
JP3617516B2 (ja) 液晶駆動回路、液晶駆動方法、及び液晶ディスプレイ装置
JP3617524B2 (ja) 液晶駆動用画像処理回路、およびこれを用いた液晶ディスプレイ装置、ならびに画像処理方法
JP3786110B2 (ja) 液晶駆動用画像処理回路、およびこれを用いた液晶ディスプレイ装置、ならびに画像処理方法
JP3580312B2 (ja) 液晶駆動用画像処理回路、およびこれを用いた液晶ディスプレイ装置、ならびに画像処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 11918128

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020077029751

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06821935

Country of ref document: EP

Kind code of ref document: A1