WO2017130529A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2017130529A1
WO2017130529A1 PCT/JP2016/083884 JP2016083884W WO2017130529A1 WO 2017130529 A1 WO2017130529 A1 WO 2017130529A1 JP 2016083884 W JP2016083884 W JP 2016083884W WO 2017130529 A1 WO2017130529 A1 WO 2017130529A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
pixel
combination pattern
red
pixels
Prior art date
Application number
PCT/JP2016/083884
Other languages
English (en)
French (fr)
Inventor
尚志 岡
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2017130529A1 publication Critical patent/WO2017130529A1/ja
Priority to US16/038,306 priority Critical patent/US10504402B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2003Display of colours
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1335Structural association of cells with optical devices, e.g. polarisers or reflectors
    • G02F1/133509Filters, e.g. light shielding masks
    • G02F1/133514Colour filters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals

Definitions

  • the present disclosure relates to an image processing apparatus and an image processing method for displaying an image by a color filter method.
  • Patent Document 1 describes an image display device that displays an image by a color filter method.
  • the color filter type image display device include a liquid crystal panel and a single plate light valve type projector.
  • a red pixel having a red filter, a green pixel having a green filter, and a blue pixel having a blue filter are arranged in a predetermined arrangement.
  • one pixel for displaying a full-color image is constituted by three pixels of a red pixel, a green pixel, and a blue pixel. Therefore, in a color filter type image display apparatus, the resolution of the display image may be reduced with respect to the input image.
  • An object of the embodiment is to provide an image processing apparatus and an image processing method capable of suppressing a decrease in image quality caused by a decrease in resolution of a display image with respect to an input image.
  • a color image separation unit that separates red image data, green image data, and blue image data from input image data, the red image data, the green image data, and the blue image
  • a filter control unit for setting a plurality of pixel combination patterns for performing filter processing on the data, and filter processing for each of the pixel combination patterns for the red image data, the green image data, and the blue image data
  • a display image that generates a plurality of full-color image data by synthesizing the filtered red image data, green image data, and blue image data for each filter process using the same pixel combination pattern
  • the red image data, the green image data, and the blue image data are separated from the input image data, and the red image data, the green image data, and the blue image data are filtered.
  • a plurality of pixel combination patterns for performing processing are set, the red image data, the green image data, and the blue image data are filtered for each pixel combination pattern, and the filtered red color
  • an image processing method characterized in that the image data, the green image data, and the blue image data are combined for each filter process using the same pixel combination pattern to generate a plurality of full color image data.
  • the image processing apparatus and the image processing method of the embodiment it is possible to suppress a decrease in image quality caused by a decrease in resolution of a display image with respect to an input image.
  • FIG. 1 is a block diagram illustrating an image processing apparatus according to the first embodiment and the second embodiment.
  • FIG. 2 is a schematic diagram illustrating a display unit having a configuration in which pixels are diagonally arranged.
  • FIG. 3 is a schematic diagram illustrating an input image input to the color image separation unit of the image processing apparatus.
  • FIG. 4 is a flowchart for explaining the image processing method according to the first embodiment.
  • FIG. 5 is a schematic diagram showing a red image.
  • FIG. 6 is a schematic diagram showing a green image.
  • FIG. 7 is a schematic diagram showing a blue image.
  • FIG. 8 is a schematic diagram illustrating an example of a plurality of pixel combination patterns when the G pixel is the target pixel in the diagonal arrangement.
  • FIG. 8 is a schematic diagram illustrating an example of a plurality of pixel combination patterns when the G pixel is the target pixel in the diagonal arrangement.
  • FIG. 9 is a schematic diagram illustrating a relationship between a red image and a pixel combination pattern.
  • FIG. 10 is a schematic diagram illustrating a red image generated by the filter processing based on the pixel combination pattern.
  • FIG. 11 is a schematic diagram illustrating a relationship between a green image and a pixel combination pattern.
  • FIG. 12 is a schematic diagram showing a green image generated by the filter processing based on the pixel combination pattern.
  • FIG. 13 is a schematic diagram illustrating a relationship between a blue image and a pixel combination pattern.
  • FIG. 14 is a schematic diagram illustrating a blue image generated by the filter processing based on the pixel combination pattern.
  • FIG. 15 is a schematic diagram illustrating a relationship between a red image and a pixel combination pattern.
  • FIG. 16 is a schematic diagram showing a red image generated by the filter processing based on the pixel combination pattern.
  • FIG. 17 is a schematic diagram illustrating a green image generated by the filter processing based on the pixel combination pattern.
  • FIG. 18 is a schematic diagram illustrating a blue image generated by the filter processing based on the pixel combination pattern.
  • FIG. 19 is a schematic diagram illustrating a relationship between a red image and a pixel combination pattern.
  • FIG. 20 is a schematic diagram illustrating a red image generated by the filter processing based on the pixel combination pattern.
  • FIG. 21 is a schematic diagram illustrating a green image generated by the filter processing based on the pixel combination pattern.
  • FIG. 22 is a schematic diagram illustrating a blue image generated by the filter processing based on the pixel combination pattern.
  • FIG. 23 is a schematic diagram illustrating a relationship between a red image and a pixel combination pattern.
  • FIG. 24 is a schematic diagram illustrating a red image generated by the filter processing based on the pixel combination pattern.
  • FIG. 25 is a schematic diagram illustrating a green image generated by the filter processing based on the pixel combination pattern.
  • FIG. 26 is a schematic diagram illustrating a blue image generated by the filter processing based on the pixel combination pattern.
  • FIG. 27 is a schematic diagram illustrating a full-color image in which a red image, a green image, and a blue image generated by the filtering process are combined.
  • FIG. 24 is a schematic diagram illustrating a red image generated by the filter processing based on the pixel combination pattern.
  • FIG. 25 is a schematic diagram illustrating a green image generated by the filter processing based on the pixel combination pattern.
  • FIG. 26 is a schematic diagram illustrating a blue image generated by the filter processing based on the pixel combination pattern.
  • FIG. 28 is a schematic diagram illustrating a full-color image in which a red image, a green image, and a blue image generated by the filtering process are combined.
  • FIG. 29 is a schematic diagram illustrating a full-color image in which a red image, a green image, and a blue image generated by the filtering process are combined.
  • FIG. 30 is a schematic diagram illustrating a full-color image in which a red image, a green image, and a blue image generated by the filtering process are combined.
  • FIG. 31 is a schematic diagram for explaining the timing at which a full-color image is displayed on the display unit.
  • FIG. 32 is a schematic diagram illustrating an example of a plurality of pixel combination patterns when the G pixel is the target pixel in the diagonal arrangement.
  • the image processing apparatus and the image processing method according to the first and second embodiments will be described with reference to FIGS.
  • the image processing apparatus and the image processing method according to the first and second embodiments are an image processing apparatus and an image processing method for displaying an image by a color filter method.
  • FIG. 1 shows an image processing apparatus 1 according to the first embodiment.
  • the image processing apparatus 1 generates full-color image data FC based on the input image data ID and outputs it to the display unit 100.
  • the image processing apparatus 1 includes a color image separation unit 2, a filter control unit 3, a filter processing unit 4, and a display image generation unit 5.
  • the color image separation unit 2, the filter control unit 3, the filter processing unit 4, and the display image generation unit 5 may be configured as an integrated circuit.
  • the color image separation unit 2 separates the red image data Rm, the green image data Gm, and the blue image data Bm from the input image data ID.
  • the color image separation unit 2 outputs the red image data Rm, the green image data Gm, and the blue image data Bm to the filter control unit 3 and the filter processing unit 4.
  • the filter control unit 3 sets a plurality of pixel combination patterns PP for performing filter processing based on the image information of the red image data Rm, the green image data Gm, and the blue image data Bm.
  • the filter control unit 3 may select and set an appropriate pixel combination pattern PP from a storage unit in which a plurality of pixel combination patterns are stored in advance.
  • the filter control unit 3 may set an appropriate pixel combination pattern PP based on a predetermined algorithm. A specific pixel combination pattern PP will be described later.
  • the filter control unit 3 outputs pattern data DPP indicating the set pixel combination pattern PP to the filter processing unit 4.
  • the filter processing unit 4 filters the red image data Rm, the green image data Gm, and the blue image data Bm for each pixel combination pattern based on the input pattern data DPP.
  • the filter processing unit 4 outputs the red image data Rf, green image data Gf, and blue image data Bf on which the filter processing has been performed to the display image generation unit 5.
  • the display image generation unit 5 combines the red image data Rf, the green image data Gf, and the blue image data Bf to generate full color image data FC.
  • the display image generation unit 5 outputs the full color image data FC to the display unit 100.
  • the display unit 100 displays a full color image based on the full color image data FC.
  • the image processing method according to the first embodiment will be described with reference to FIGS.
  • a state in which the pixels of the display unit 100 are diagonally arranged by the color filter method will be described as an example.
  • the pixel arrangement of the display unit 100 is not limited to a diagonal arrangement.
  • FIG. 2 schematically shows the pixels of the display unit 100 that are diagonally arranged.
  • R in FIG. 2 is an R pixel for displaying a red image.
  • a red filter is disposed in the R pixel.
  • G is a G pixel for displaying a green image.
  • a green filter is disposed in the G pixel.
  • B is a B pixel for displaying a blue image.
  • a blue filter is disposed in the B pixel.
  • a set of three pixels including R pixel, G pixel, and B pixel is defined as one unit pixel for displaying a full color image.
  • FIG. 3 schematically shows a full-color image of the input image data ID input to the color image separation unit 2 of the image processing apparatus 1.
  • each pixel data of the input image data ID is shown to correspond to the pixel of the display unit 100 shown in FIG.
  • the pixel data RGB25 in FIG. 3 corresponds to the R pixel in the fifth column in the second row in FIG. 2 and 3 show that the input image and the display unit 100 have the same resolution.
  • Each pixel data RGB11 to RGB18, RGB21 to RGB28, RGB31 to RGB38, RGB41 to RGB48, RGB51 to RGB58, RGB61 to RGB68, RGB71 to RGB78, RGB81 to RGB88, RGB91 to RGB98 of the input image data ID is a red component and a green component. And image information of the blue component.
  • the number of pixels and resolution of the input image and the display unit 100 are not limited to this.
  • the color image separation unit 2 separates the red image data Rm, the green image data Gm, and the blue image data Bm from the input image data ID in step S1, and the filter control unit 3 and the filter processing unit. Output to 4.
  • FIG. 5 schematically shows red image data Rm.
  • FIG. 5 corresponds to FIG.
  • the pixel data R11 to R18, R21 to R28, R31 to R38, R41 to R48, R51 to R58, R61 to R68, R71 to R78, R81 to R88, and R91 to R98 of the red image data Rm are red component gradations. And so on.
  • FIG. 6 schematically shows the green image data Gm.
  • FIG. 6 corresponds to FIG.
  • Each pixel data G11 to G18, G21 to G28, G31 to G38, G41 to G48, G51 to G58, G61 to G68, G71 to G78, G81 to G88, and G91 to G98 of the green image data Gm are green component gradations. And so on.
  • FIG. 7 schematically shows the blue image data Bm.
  • FIG. 7 corresponds to FIG.
  • the pixel data B11 to B18, B21 to B28, B31 to B38, B41 to B48, B51 to B58, B61 to B68, B71 to B78, B81 to B88, and B91 to B98 of the blue image data Bm are blue component gradations. And so on.
  • FIGS. 8A to 8D schematically show an example of a plurality of pixel combination patterns in the case where the G pixel is the target pixel in the diagonal arrangement.
  • FIG. 8A to FIG. 8D are partial views showing unit pixels in FIG.
  • the filter control unit 3 shows a plurality of pixel combination patterns PP, for example, shown in FIG. 8A based on the red image data Rm, the green image data Gm, and the blue image data Bm.
  • a pixel combination pattern PPa, a pixel combination pattern PPb shown in FIG. 8B, a pixel combination pattern PPc shown in FIG. 8C, and a pixel combination pattern PPd shown in FIG. 8D are set.
  • the pixel combination patterns PPa to PPd are composed of unit pixels.
  • the pixel combination patterns PPa to PPd may be stored in advance in the filter control unit 3, or may be set based on a predetermined algorithm.
  • the filter control unit 3 outputs pattern data DPP indicating the pixel combination pattern PP, specifically, pattern data DPPa to DPPd respectively indicating the pixel combination patterns PPa to PPd to the filter processing unit 4.
  • step S3 the filter processing unit 4 performs filter processing on the red image data Rm, the green image data Gm, and the blue image data Bm based on the plurality of pixel combination patterns PPa to PPd.
  • the filter processing unit 4 performs a filtering process on the red image data Rm, the green image data Gm, and the blue image data Bm based on the pixel combination pattern PPa.
  • FIG. 9 schematically shows the relationship between the red image data Rm and the pixel combination pattern PPa.
  • the pixel combination pattern PPa is indicated by a thick frame.
  • R44 in FIG. 9 corresponds to the R pixel in the fourth row and the fourth column in the diagonal arrangement shown in FIG.
  • R45 corresponds to the G pixel in the fourth row and the fifth column.
  • R46 corresponds to the B pixel in the fourth row and the sixth column.
  • FIG. 10 schematically shows red image data Rfa that has been filtered based on the pixel combination pattern PPa.
  • R96a corresponds to the R pixel in the diagonal arrangement shown in FIG.
  • the filter processing unit 4 generates red image data Rfa (see FIG. 10) by performing filter processing on the red image data Rm based on the pixel combination pattern PPa.
  • the filter processing unit 4 uses, for example, the pixel R44 of the red image data Rm corresponding to the pixel R44a of the red image data Rfa as the target pixel, the pixel R44, the pixel R45, and the pixel R46 in the pixel combination pattern PPa.
  • the average value of the tones is calculated.
  • the filter processing unit 4 sets the calculated average value as the gradation of the pixel R44a of the red image data Rfa.
  • the pixel R44a corresponds to the R pixel in the fourth row and the fourth column in the diagonal arrangement shown in FIG.
  • the other R pixels are also filtered based on the pixel combination pattern PPa.
  • the pixel R45 of the red image data Rm corresponds to the G pixel in the fourth row and the fifth column in the diagonal arrangement shown in FIG.
  • the pixel R46 of the red image data Rm corresponds to the B pixel in the fourth row and the sixth column in the diagonal arrangement shown in FIG. R45 and R46, which are peripheral pixels of the pixel R44 corresponding to the pixel R44a of the red image data Rfa, correspond to the G pixel and the B pixel of the display unit 100, and thus are pixels that are not reflected as data in the related art.
  • the pixel combination pattern PPa is arranged without any gap between the R pixels of the red image data Rm.
  • the filter processing unit 4 can perform filter processing on almost all R pixels of the red image data Rm. Therefore, almost all R pixels of the red image data Rm can be reflected in the red image data Rfa.
  • a pixel outside the pixel combination pattern PPa may be a target pixel for the filter process.
  • the average value of the gradations of the pixel R43, the pixel R44, and the pixel R45 of the red image data Rm is calculated.
  • the average value may be calculated and set as the gradation of the pixel R44a.
  • the average value of the gradations of the pixel R42, the pixel R43, and the pixel R44 of the red image data Rm may be calculated, and this average value may be set as the gradation of the pixel R44a.
  • FIG. 11 schematically shows the relationship between the green image data Gm and the pixel combination pattern PPa.
  • the pixel combination pattern PPa is indicated by a thick frame.
  • G44 in FIG. 11 corresponds to the R pixel in the fourth row and the fourth column in the diagonal arrangement shown in FIG.
  • G45 corresponds to the G pixel in the fourth row and the fifth column.
  • G46 corresponds to the B pixel in the fourth row and the sixth column.
  • FIG. 12 schematically shows the green image data Gfa that has been subjected to the filter processing based on the pixel combination pattern PPa.
  • the pixels G12a, G15a, G18a, G23a, G26a, G31a, G34a, G37a, G42a, G45a, G48a, G53a, G56a, G61a, G64a, G67a, G72a, G75a, G78a, G83a, G86a, G91a, G94a , G97a correspond to G pixels in the diagonal arrangement shown in FIG.
  • the filter processing unit 4 generates green image data Gfa (see FIG. 12) by performing filter processing on the green image data Gm based on the pixel combination pattern PPa.
  • the filter processing unit 4 uses, for example, the pixel G45 of the green image data Gm corresponding to the pixel G45a of the green image data Gfa as the target pixel, the pixel G44, the pixel G45, and the pixel G46 in the pixel combination pattern PPa.
  • the average value of the tones is calculated.
  • the filter processing unit 4 sets the calculated average value as the gradation of the pixel G45a of the green image data Gfa.
  • the pixel G45a corresponds to the G pixel in the fourth row and the fifth column in the diagonal arrangement shown in FIG.
  • the other G pixels are also filtered based on the pixel combination pattern PPa.
  • the pixel R44 of the green image data Gm corresponds to the R pixel in the fourth row and the fourth column in the diagonal arrangement shown in FIG.
  • the pixel R46 of the green image data Gm corresponds to the B pixel in the fourth row and the sixth column in the diagonal arrangement shown in FIG. G44 and G46, which are peripheral pixels of the pixel G45 corresponding to the pixel G45a of the green image data Gfa, correspond to the R pixel and the B pixel of the display unit 100, and thus are pixels that are not reflected as data in the related art.
  • the pixel combination pattern PPa is arranged without a gap in each G pixel of the green image data Gm.
  • the filter processing unit 4 can perform the filter process on almost all G pixels of the green image Gm. Accordingly, almost all G pixels of the green image data Gm can be reflected in the green image data Gfa.
  • a pixel outside the pixel combination pattern PPa may be a target pixel for the filter process.
  • the average values of the gradations of the pixel G43, the pixel G44, and the pixel G45 of the green image data Gm are calculated.
  • the average value may be calculated and set as the gradation of the pixel G45a.
  • the average value of the gradations of the pixel G45, the pixel G46, and the pixel G47 of the green image data Gm may be calculated, and this average value may be set as the gradation of the pixel G45a.
  • FIG. 13 schematically shows the relationship between the blue image data Bm and the pixel combination pattern PPa.
  • the pixel combination pattern PPa is indicated by a thick frame.
  • B44 in FIG. 13 corresponds to the R pixel in the fourth row and the fourth column in the diagonal arrangement shown in FIG.
  • B45 corresponds to the G pixel in the fourth row and the fifth column.
  • B46 corresponds to the B pixel in the fourth row and the sixth column.
  • FIG. 14 schematically shows blue image data Bfa that has been subjected to filter processing based on the pixel combination pattern PPa.
  • the pixels B13a, B16a, B21a, B24a, B27a, B32a, B35a, B38a, B43a, B46a, B51a, B54a, B57a, B62a, B65a, B68a, B73a, B76a, B81a, B84a, B87a, B92a, B95a , B98a corresponds to the B pixel of the diagonal arrangement shown in FIG.
  • the filter processing unit 4 generates blue image data Bfa (see FIG. 14) by performing filter processing on the blue image data Bm based on the pixel combination pattern PPa.
  • the filter processing unit 4 uses, for example, the pixel B46 of the blue image data Bm corresponding to the pixel B46a of the blue image data Bfa as the pixel of interest, the pixel B44, the pixel B45, and the pixel B46 in the pixel combination pattern PPa.
  • the average value of the tones is calculated.
  • the filter processing unit 4 sets the calculated average value as the gradation of the pixel B46a of the blue image data Bfa.
  • the pixel B 46a corresponds to the B pixel in the fourth row and the sixth column in the diagonal arrangement shown in FIG.
  • the other B pixels are also filtered based on the pixel combination pattern PPa.
  • the pixel R44 of the blue image data Bm corresponds to the R pixel in the fourth row and the fourth column in the diagonal arrangement shown in FIG.
  • the pixel R45 of the blue image data Bm corresponds to the G pixel in the fourth row and the fifth column in the diagonal arrangement shown in FIG. B44 and B45, which are peripheral pixels of the pixel B46 corresponding to the pixel B46a of the blue image data Bfa, correspond to the R pixel and G pixel of the display unit 100, and thus are pixels that are not reflected as data in the related art.
  • the pixel combination pattern PPa is arranged without any gap between the B pixels of the blue image data Bm.
  • the filter processing unit 4 can perform filter processing on almost all B pixels of the blue image data Bm. Therefore, almost all B pixels of the blue image data Bm can be reflected in the blue image data Bfa.
  • a pixel outside the pixel combination pattern PPa may be a target pixel for the filter process.
  • the average values of the gradations of the pixel B45, the pixel B46, and the pixel B47 of the blue image data Bm are calculated.
  • the average value may be calculated and set as the gradation of the pixel B46a.
  • the average value of the gradations of the pixel B46, the pixel B47, and the pixel B48 of the blue image data Bm may be calculated, and this average value may be set as the gradation of the pixel G46a.
  • the filter processing unit 4 performs a filtering process on the red image data Rm, the green image data Gm, and the blue image data Bm based on the pixel combination pattern PPb.
  • FIG. 15 schematically shows the relationship between the red image data Rm and the pixel combination pattern PPb.
  • the pixel combination pattern PPb is indicated by a thick frame.
  • R24 in FIG. 15 corresponds to the B pixel in the second row and the fourth column in the diagonal arrangement shown in FIG.
  • R34 corresponds to the G pixel in the third row and the fourth column.
  • R44 corresponds to the R pixel in the fourth row and the fourth column.
  • FIG. 16 schematically shows red image data Rfb generated by filter processing based on the pixel combination pattern PPb.
  • the pixels R11b, R14b, R17b, R22b, R25b, R28b, R33b, R36b, R41b, R44b, R47b, R52b, R55b, R58b, R63b, R66b, R71b, R74b, R77b, R82b, R85b, R88b, R93b , R96b correspond to the R pixels in the diagonal arrangement shown in FIG.
  • the filter processing unit 4 generates red image data Rfb (see FIG. 16) by performing filter processing on the red image data Rm based on the pixel combination pattern PPb.
  • the filter processing unit 4 uses, for example, the pixel R44 of the red image data Rm corresponding to the pixel R44b of the red image data Rfb as a target pixel, the pixel R24, the pixel R34, and the pixel R44 in the pixel combination pattern PPb.
  • the average value of the tones is calculated.
  • the filter processing unit 4 sets the calculated average value as the gradation of the pixel R44b of the red image data Rfb.
  • the pixel R44b corresponds to the R pixel in the fourth row and the fourth column in the diagonal arrangement shown in FIG.
  • the other R pixels are also filtered based on the pixel combination pattern PPb.
  • the pixel R24 of the red image data Rm corresponds to the B pixel in the second row and the fourth column in the diagonal arrangement shown in FIG.
  • the pixel R34 of the red image data Rm corresponds to the G pixel in the third row and the fourth column in the diagonal arrangement shown in FIG. R24 and R34, which are peripheral pixels of the pixel R44 corresponding to the pixel R44b of the red image data Rfb, correspond to the B pixel and the G pixel of the display unit 100, and thus are pixels that are not reflected as data in the related art.
  • the pixel combination pattern PPb is arranged without a gap in each R pixel of the red image data Rm.
  • the filter processing unit 4 can perform filter processing on almost all R pixels of the red image data Rm. Therefore, almost all R pixels of the red image data Rm can be reflected in the red image data Rfb.
  • a pixel outside the pixel combination pattern PPb may be a target pixel for filter processing.
  • the average values of the gradations of the pixel R34, the pixel R44, and the pixel R54 of the red image data Rm are calculated.
  • the average value may be calculated and set as the gradation of the pixel R44b.
  • the average value of the gradations of the pixel R44, the pixel R54, and the pixel R64 of the red image data Rm may be calculated, and this average value may be set as the gradation of the pixel R44b.
  • the filter processing unit 4 performs filter processing on almost all G pixels of the green image data Gm, similarly to the red image data Rm, and generates green image data Gfb (see FIG. 17). Accordingly, almost all G pixels of the green image data Gm can be reflected in the green image data Gfb.
  • the pixels G12b, G15b, G18b, G23b, G26b, G31b, G34b, G37b, G42b, G45b, G48b, G53b, G56b, G61b, G64b, G67b, G72b, G75b, G78b, G83b, G86b, G91b, G94b , G97b correspond to G pixels in the diagonal arrangement shown in FIG.
  • the filter processing unit 4 performs the filtering process on almost all B pixels of the blue image data Bm, similarly to the red image data Rm, and generates blue image data Bfb (see FIG. 18). Therefore, almost all B pixels of the blue image data Bm can be reflected in the blue image data Bfb.
  • Pixels B13b, B16b, B21b, B24b, B27b, B32b, B35b, B38b, B43b, B46b, B51b, B54b, B57b, B62b, B65b, B68b, B73b, B76b, B81b, B84b, B87b, B92b, B95b in FIG. , B98b correspond to B pixels in the diagonal array shown in FIG.
  • the filter processing unit 4 performs a filtering process on the red image data Rm, the green image data Gm, and the blue image data Bm based on the pixel combination pattern PPc.
  • FIG. 19 schematically shows the relationship between the red image data Rm and the pixel combination pattern PPc.
  • the pixel combination pattern PPc is indicated by a thick frame.
  • R34 in FIG. 19 corresponds to the G pixel in the third row and the fourth column in the diagonal arrangement shown in FIG.
  • R35 corresponds to the B pixel in the third row and the fifth column.
  • R44 corresponds to the R pixel in the fourth row and the fourth column.
  • FIG. 20 schematically shows red image data Rfc generated by filter processing based on the pixel combination pattern PPc.
  • pixels R11c, R14c, R17c, R22c, R25c, R28c, R33c, R36c, R41c, R44c, R47c, R52c, R55c, R58c, R63c, R66c, R71c, R74c, R77c, R82c, R85c, R88c, R93c , R96c correspond to R pixels in the diagonal arrangement shown in FIG.
  • the filter processing unit 4 generates red image data Rfc (see FIG. 20) by performing filter processing on the red image data Rm based on the pixel combination pattern PPc.
  • the filter processing unit 4 uses, for example, the pixel R44 of the red image data Rm corresponding to the pixel R44c of the red image data Rfc as the target pixel, the pixel R34, the pixel R35, and the pixel R44 in the pixel combination pattern PPc.
  • the average value of the tones is calculated.
  • the filter processing unit 4 sets the calculated average value as the gradation of the pixel R44c of the red image data Rfc.
  • the pixel R44c corresponds to the R pixel in the fourth row and the fourth column in the diagonal arrangement shown in FIG.
  • the other R pixels are also filtered based on the pixel combination pattern PPc.
  • the pixel R34 of the red image data Rm corresponds to the G pixel in the third row and the fourth column in the diagonal arrangement shown in FIG.
  • the pixel R35 of the red image data Rm corresponds to the B pixel in the third row and the fifth column in the diagonal arrangement shown in FIG. Since R34 and R35, which are peripheral pixels of the pixel R44 corresponding to the pixel R44c of the red image data Rfc, correspond to the G pixel and the B pixel of the display unit 100, they are pixels that are not reflected as data in the related art. By configuring the pixel combination pattern PPc with unit pixels, it is possible to reflect the image information of the peripheral pixels R34 and R35, which is not reflected in the past, in the pixel R44c of the red image data Rfc.
  • the pixel combination pattern PPc is arranged without any gap between the R pixels of the red image data Rm.
  • the filter processing unit 4 can perform filter processing on almost all R pixels of the red image data Rm. Therefore, almost all R pixels of the red image data Rm can be reflected in the red image data Rfc.
  • the filter processing unit 4 performs filter processing on almost all G pixels of the green image data Gm, similarly to the red image data Rm, and generates green image data Gfc (see FIG. 21). Therefore, almost all G pixels of the green image data Gm can be reflected in the green image data Gfc.
  • the pixels G12c, G15c, G18c, G23c, G26c, G31c, G34c, G37c, G42c, G45c, G48c, G53c, G56c, G61c, G64c, G67c, G72c, G75c, G78c, G83c, G86c, G91c, G94c , G97c correspond to G pixels in the diagonal arrangement shown in FIG.
  • the filter processing unit 4 performs a filtering process on almost all B pixels of the blue image data Bm, similarly to the red image data Rm, to generate blue image data Bfc (see FIG. 22). Therefore, almost all B pixels of the blue image data Bm can be reflected in the blue image data Bfc.
  • the pixels B13c, B16c, B21c, B24c, B27c, B32c, B35c, B38c, B43c, B46c, B51c, B54c, B57c, B62c, B65c, B68c, B73c, B76c, B81c, B84c, B87c, B92c, B95c , B98c correspond to B pixels in the diagonal array shown in FIG.
  • the filter processing unit 4 performs a filtering process on the red image data Rm, the green image data Gm, and the blue image data Bm based on the pixel combination pattern PPd.
  • FIG. 23 schematically shows the relationship between the red image data Rm and the pixel combination pattern PPd.
  • the pixel combination pattern PPd is indicated by a thick frame.
  • R35 in FIG. 23 corresponds to the B pixel in the third row and the fifth column in the diagonal arrangement shown in FIG.
  • R44 corresponds to the R pixel in the fourth row and the fourth column.
  • R45 corresponds to the G pixel in the fourth row and the fifth column.
  • FIG. 24 is a schematic diagram showing red image data Rfd generated by filter processing based on the pixel combination pattern PPd. Pixels R11d, R14d, R17d, R22d, R25d, R28d, R33d, R36d, R41d, R44d, R47d, R52d, R55d, R58d, R63d, R66d, R71d, R74d, R77d, R82d, R85d, R88d, R93d in FIG. , R96d correspond to R pixels in the diagonal arrangement shown in FIG.
  • the filter processing unit 4 generates red image data Rfd (see FIG. 24) by performing filter processing on the red image data Rm based on the pixel combination pattern PPd.
  • the filter processing unit 4 uses, for example, the pixel R44 of the red image data Rm corresponding to the pixel R44d of the red image data Rfd as a target pixel, the pixel R35, the pixel R44, and the pixel R45 in the pixel combination pattern PPd.
  • the average value of the tones is calculated.
  • the filter processing unit 4 sets the calculated average value as the gradation of the pixel R44d of the red image data Rfd.
  • the pixel R44d corresponds to the R pixel in the fourth row and the fourth column in the diagonal arrangement shown in FIG.
  • the other R pixels are also filtered based on the pixel combination pattern PPd.
  • the pixel R35 of the red image data Rm corresponds to the B pixel in the third row and the fifth column in the diagonal arrangement shown in FIG.
  • the pixel R45 of the red image data Rm corresponds to the G pixel in the fourth row and the fifth column in the diagonal arrangement shown in FIG. R35 and R45, which are peripheral pixels of the pixel R44 corresponding to the pixel R44d of the red image data Rfd, correspond to the B pixel and the G pixel of the display unit 100, and thus are pixels that are not reflected as data in the related art.
  • the pixel combination pattern PPd is arranged without a gap in each R pixel of the red image data Rm.
  • the filter processing unit 4 can perform filter processing on almost all R pixels of the red image data Rm. Accordingly, almost all R pixels of the red image data Rm can be reflected in the red image data Rfd.
  • the filter processing unit 4 performs filter processing on almost all G pixels of the green image data Gm, similarly to the red image data Rm, and generates green image data Gfd (see FIG. 25). Therefore, almost all G pixels of the green image data Gm can be reflected in the green image data Gfd.
  • Pixels G12d, G15d, G18d, G23d, G26d, G31d, G34d, G37d, G42d, G45d, G48d, G53d, G56d, G61d, G64d, G67d, G72d, G75d, G78d, G83d, G86d, G91d, G94d in FIG. , G97d correspond to G pixels in the diagonal array shown in FIG.
  • the filter processing unit 4 performs a filtering process on almost all B pixels of the blue image data Bm, similarly to the red image data Rm, and generates blue image data Bfd (see FIG. 26). Therefore, almost all B pixels of the blue image data Bm can be reflected in the green image data Bfd.
  • Pixels B13d, B16d, B21d, B24d, B27d, B32d, B35d, B38d, B43d, B46d, B51d, B54d, B57d, B62d, B65d, B68d, B73d, B76d, B81d, B84d, B87d, B92d, B95d in FIG. , B98d correspond to the B pixels in the diagonal array shown in FIG.
  • the display image generation unit 5 filters the red image data Rf, the green image data Gf, and the blue image data Bf generated based on the plurality of pixel combination patterns in step S4 of FIG. 4 using the same pixel combination pattern.
  • a plurality of full-color image data FC are generated by combining each process.
  • the display image generation unit 5 combines the red image data Rfa, the green image data Gfa, and the blue image data Bfa generated based on the pixel combination pattern PPa to generate the full color image data FCa shown in FIG. Is generated.
  • the display image generation unit 5 combines the red image data Rfb, the green image data Gfb, and the blue image data Bfb generated based on the pixel combination pattern PPb to generate full color image data FCb shown in FIG.
  • the display image generation unit 5 combines the red image data Rfc, the green image data Gfc, and the blue image data Bfc generated based on the pixel combination pattern PPc to generate full color image data FCc shown in FIG.
  • the display image generation unit 5 combines the red image data Rfd, the green image data Gfd, and the blue image data Bfd generated based on the pixel combination pattern PPd to generate the full color image data FCd shown in FIG.
  • the display image generation unit 5 outputs the full color image data FCa, FCb, FCc, and Fcd to the display unit 100.
  • FIG. 31 schematically shows the timing at which full-color image data FCa, FCb, FCc, and Fcd are displayed on the display unit 100 as a full-color image.
  • Full color image data FCa, FCb, FCc, and Fcd are switched every 1/4 frame within one frame period.
  • the order and timing at which the full color image data FCa, FCb, FCc, and Fcd are switched within one frame period are controlled by the display image generation unit 5, the filter processing unit 4, or the filter control unit 3.
  • the display unit 100 displays full color images based on the full color image data FCa, FCb, FCc, and Fcd by switching within one frame period.
  • the pixel R44 of the red image data Rm is the target pixel
  • the pixel R44a of the full color image data FCa is set based on the image information of the pixel R44, the pixel R45, and the pixel R46.
  • the pixel R44b of the full color image data FCb is set based on the image information of the pixel R24, the pixel R34, and the pixel R44.
  • the pixel R44c of the full color image data FCc is set based on the image information of the pixel R34, the pixel R35, and the pixel R44.
  • the pixel R44d of the full color image data FCd is set based on the image information of the pixel R35, the pixel R44, and the pixel R45.
  • the pixels R44a, R44b, R44c, and R44d of the full-color image data FCa, FCb, FCc, and Fcd are displayed on the R pixel (see FIG. 2) in the fourth column on the fourth row of the display unit 100.
  • Full color image data FCa, FCb, FCc, FCd are generated by filter processing with different pixel combination patterns. Therefore, the full-color image displayed on the display unit 100 by switching the full-color image data FCa, FCb, FCc, and FCd within one frame period is more compared to the full-color image generated by the single filter process. Filter processing is performed with many peripheral pixels as target pixels. That is, by switching the full color image data FCa, FCb, FCc, FCd within one frame period, a full color image generated by more image information is displayed on the display unit 100.
  • the image processing apparatus and the image processing method of the first embodiment in the color filter method, it is possible to suppress a decrease in image quality caused by a decrease in resolution of a display image with respect to an input image.
  • the pixel combination pattern is set using the G pixel as the target pixel.
  • the present invention is not limited to this, and the pixel combination is performed using the R pixel or the B pixel as the target pixel.
  • a pattern may be set.
  • four pixel combination patterns PPa, PPb, PPc, and PPd are set as a plurality of pixel combination patterns.
  • the present invention is not limited to this. What is necessary is just two or more pixel combination patterns.
  • a combination of a pixel combination pattern PPa that includes peripheral pixels in the horizontal direction and a pixel combination pattern PPb that includes peripheral pixels in the vertical direction is desirable.
  • a combination of the pixel combination pattern PPc and the pixel combination pattern PPd is desirable.
  • the image processing apparatus according to the second embodiment has the same configuration as that of the image processing apparatus according to the first embodiment, and is different in the number of pixels of the pixel combination pattern for performing the filtering process, specifically, the pixel combination pattern.
  • the same components as those of the image processing apparatus 1 of the first embodiment are denoted by the same reference numerals.
  • FIG. 32 corresponds to FIG. Note that a pixel combination pattern may be set using the R pixel or the B pixel as a target pixel.
  • the filter control unit 3 uses a plurality of pixel combination patterns PP, for example, the pixel combination pattern PPe shown in FIG. ), Pixel combination pattern PPg shown in FIG. 32C, pixel combination pattern PPh shown in FIG. 32D, pixel combination pattern PPi shown in FIG. 32E, and FIG. ) Is set.
  • the pixel combination patterns PPe, PPf, PPg, PPh, PPi, and PPj only need to include one unit pixel.
  • the pixel combination patterns PPe to PPj may be stored in the filter control unit 3 in advance, or may be set based on a predetermined algorithm.
  • the filter processing unit 4 performs filter processing on the red image data Rm, the green image data Gm, and the blue image data Bm based on a plurality of pixel combination patterns PPe to PPj.
  • the filter processing unit 4 allows the red image data Rm, green Filter processing can be performed on almost all R pixels, G pixels, and B pixels of the image data Gm and the blue image data Bm.
  • the image processing method after the filter processing is the same as the image processing method of the first embodiment.
  • pixel combination patterns PPe to PPj are set as the plurality of pixel combination patterns, the present invention is not limited to this, and any two or more pixel combination patterns may be used.
  • combinations that complement each other are desirable. For example, a combination of a pixel combination pattern PPe including peripheral pixels in the horizontal direction and a pixel combination pattern PPf including peripheral pixels in the vertical direction is desirable. For the same reason, a combination of the pixel combination pattern PPg and the pixel combination pattern PPh and a combination of the pixel combination pattern PPi and the pixel combination pattern PPj are desirable.
  • the filtering process may be performed with a plurality of pixel combination patterns having different numbers of pixels according to the image. Specifically, the filtering process using any one of the pixel combination patterns PPa to PPd may be combined with the filtering process using any one of the pixel combination patterns PPe to PPj.
  • the pixel combination pattern for performing the filter processing is not limited to the pixel combination patterns PPa to PPd and the pixel combination patterns PPe to PPj. It is desirable that the pixel combination patterns have shapes that can be arranged without gaps, such as the pixel combination patterns PPa to PPd and the pixel combination patterns PPe to PPj.
  • the present invention is not limited to the first and second embodiments described above, and various modifications can be made without departing from the scope of the present invention.
  • the color image separation unit 2, the filter control unit 3, the filter processing unit 4, and the display image generation unit 5 that constitute the image processing apparatus 1 may each be configured by a circuit. 1 may be constituted by computer equipment.
  • the color image separation unit 2, the filter control unit 3, the filter processing unit 4, and the display image generation unit 5 may be software modules (computer programs) executed by a processor of a computer device.
  • the image processing apparatus 1 may include an input unit and an output unit configured by hardware.
  • the input image data ID is supplied to the color image separation unit 2 via the input unit, and the color image separation unit 2, the filter control units 3 and 4, and the display image generation unit 5
  • the display image generation unit 5 may output the display unit 100 or the like via the output unit.
  • the present invention can be used in a color filter type image display device.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Nonlinear Science (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Liquid Crystal (AREA)

Abstract

画像処理装置(1)は、色画像分離部(2)、フィルタ制御部(3)、フィルタ処理部(4)、表示画像生成部(5)を備える。色画像分離部(2)は入力画像データ(ID)から赤色画像データ(Rm)、緑色画像データ(Gm)、及び青色画像データ(Bm)を分離する。フィルタ制御部(3)は各色画像データ(Rm,Gm,Bm)に対してフィルタ処理を施すための複数の画素組み合わせパターンを設定する。フィルタ処理部(4)は各色画像データ(Rm,Gm,Bm)に対して、画素組み合わせパターン毎にフィルタ処理を施す。表示画像生成部(5)はフィルタ処理された各色画像データ(Rm,Gm,Bm)を同一の画素組み合わせパターンによるフィルタ処理毎に合成して複数のフルカラー画像データ(FC)を生成する。

Description

画像処理装置及び画像処理方法
 本開示は、カラーフィルタ方式により画像を表示するための画像処理装置及び画像処理方法に関する。
 特許文献1には、カラーフィルタ方式により画像を表示する画像表示装置が記載されている。カラーフィルタ方式の画像表示装置として、液晶パネルや単板ライトバルブ方式のプロジェクタ等がある。液晶パネルやプロジェクタに用いられる液晶表示素子は、赤色フィルタを有する赤色用画素と、緑色フィルタを有する緑色用画素と、青色フィルタを有する青色用画素とが、所定の配列で配置されている。
特開2008-145551号公報
 カラーフィルタ方式の画像表示装置では、赤色用画素、緑色用画素、及び、青色用画素の3つの画素によってフルカラー画像を表示するための1画素が構成される。そのため、カラーフィルタ方式の画像表示装置では、入力画像に対して表示画像の解像度が低下する場合がある。
 実施形態は、入力画像に対する表示画像の解像度の低下によって生じる画像品位の低下を抑制することができる画像処理装置及び画像処理方法を提供することを目的とする。
 実施形態の第1の態様によれば、入力画像データから赤色画像データ、緑色画像データ、及び青色画像データを分離する色画像分離部と、前記赤色画像データ、前記緑色画像データ、及び前記青色画像データに対してフィルタ処理を施すための複数の画素組み合わせパターンを設定するフィルタ制御部と、前記赤色画像データ、前記緑色画像データ、及び前記青色画像データに対して、前記画素組み合わせパターン毎にフィルタ処理を施すフィルタ処理部と、フィルタ処理された前記赤色画像データ、前記緑色画像データ、及び前記青色画像データを同一の画素組み合わせパターンによるフィルタ処理毎に合成して複数のフルカラー画像データを生成する表示画像生成部とを備えることを特徴とする画像処理装置が提供される。
 実施形態の第2の態様によれば、入力画像データから赤色画像データ、緑色画像データ、及び青色画像データを分離し、前記赤色画像データ、前記緑色画像データ、及び前記青色画像データに対してフィルタ処理を施すための複数の画素組み合わせパターンを設定し、前記赤色画像データ、前記緑色画像データ、及び前記青色画像データに対して、前記画素組み合わせパターン毎にフィルタ処理を施し、フィルタ処理された前記赤色画像データ、前記緑色画像データ、及び前記青色画像データを同一の画素組み合わせパターンによるフィルタ処理毎に合成して複数のフルカラー画像データを生成することを特徴とする画像処理方法が提供される。
 実施形態の画像処理装置及び画像処理方法によれば、入力画像に対する表示画像の解像度の低下によって生じる画像品位の低下を抑制することができる。
図1は、第1実施形態及び第2実施形態の画像処理装置を示すブロック図である。 図2は、画素がダイアゴナル配列された構成を有する表示部を示す模式図である。 図3は、画像処理装置の色画像分離部に入力される入力画像を示す模式図である。 図4は、第1実施形態の画像処理方法を説明するためのフローチャートである。 図5は、赤色画像を示す模式図である。 図6は、緑色画像を示す模式図である。 図7は、青色画像を示す模式図である。 図8は、ダイアゴナル配列においてG画素を注目画素とした場合の複数の画素組み合わせパターンの一例を示す模式図である。 図9は、赤色画像と画素組み合わせパターンとの関係を示す模式図である。 図10は、画素組み合わせパターンに基づくフィルタ処理により生成された赤色画像を示す模式図である。 図11は、緑色画像と画素組み合わせパターンとの関係を示す模式図である。 図12は、画素組み合わせパターンに基づくフィルタ処理により生成された緑色画像を示す模式図である。 図13は、青色画像と画素組み合わせパターンとの関係を示す模式図である。 図14は、画素組み合わせパターンに基づくフィルタ処理により生成された青色画像を示す模式図である。 図15は、赤色画像と画素組み合わせパターンとの関係を示す模式図である。 図16は、画素組み合わせパターンに基づくフィルタ処理により生成された赤色画像を示す模式図である。 図17は、画素組み合わせパターンに基づくフィルタ処理により生成された緑色画像を示す模式図である。 図18は、画素組み合わせパターンに基づくフィルタ処理により生成された青色画像を示す模式図である。 図19は、赤色画像と画素組み合わせパターンとの関係を示す模式図である。 図20は、画素組み合わせパターンに基づくフィルタ処理により生成された赤色画像を示す模式図である。 図21は、画素組み合わせパターンに基づくフィルタ処理により生成された緑色画像を示す模式図である。 図22は、画素組み合わせパターンに基づくフィルタ処理により生成された青色画像を示す模式図である。 図23は、赤色画像と画素組み合わせパターンとの関係を示す模式図である。 図24は、画素組み合わせパターンに基づくフィルタ処理により生成された赤色画像を示す模式図である。 図25は、画素組み合わせパターンに基づくフィルタ処理により生成された緑色画像を示す模式図である。 図26は、画素組み合わせパターンに基づくフィルタ処理により生成された青色画像を示す模式図である。 図27は、フィルタ処理により生成された赤色画像と緑色画像と青色画像とが合成されたフルカラー画像を示す模式図である。 図28は、フィルタ処理により生成された赤色画像と緑色画像と青色画像とが合成されたフルカラー画像を示す模式図である。 図29は、フィルタ処理により生成された赤色画像と緑色画像と青色画像とが合成されたフルカラー画像を示す模式図である。 図30は、フィルタ処理により生成された赤色画像と緑色画像と青色画像とが合成されたフルカラー画像を示す模式図である。 図31は、フルカラー画像が表示部に表示されるタイミングを説明するための模式図である。 図32は、ダイアゴナル配列においてG画素を注目画素とした場合の複数の画素組み合わせパターンの一例を示す模式図である。
 図1~図32を用いて第1実施形態及び第2実施形態の画像処理装置及び画像処理方法を説明する。第1実施形態及び第2実施形態の画像処理装置及び画像処理方法は、カラーフィルタ方式により画像を表示するための画像処理装置及び画像処理方法である。
[第1実施形態]
 図1を用いて第1実施形態の画像処理装置を説明する。図1は第1実施形態の画像処理装置1を示している。
 画像処理装置1は、入力画像データIDに基づいてフルカラー画像データFCを生成し、表示部100へ出力する。
 画像処理装置1は、色画像分離部2、フィルタ制御部3、フィルタ処理部4、及び、表示画像生成部5を備える。色画像分離部2、フィルタ制御部3、フィルタ処理部4、及び、表示画像生成部5を集積回路として構成してもよい。
 色画像分離部2は、入力画像データIDから赤色画像データRm、緑色画像データGm、及び、青色画像データBmを分離する。
 色画像分離部2は、赤色画像データRm、緑色画像データGm、及び、青色画像データBmを、フィルタ制御部3、及び、フィルタ処理部4へ出力する。
 フィルタ制御部3は、赤色画像データRm、緑色画像データGm、及び、青色画像データBmの画像情報に基づいてフィルタ処理を施すための複数の画素組み合わせパターンPPを設定する。フィルタ制御部3は、複数の画素組み合わせパターンが予め記憶されている記憶部から適切な画素組み合わせパターンPPを選択して設定するようにしてもよい。また、フィルタ制御部3は、所定のアルゴリズムに基づいて適切な画素組み合わせパターンPPを設定するようにしてもよい。なお、具体的な画素組み合わせパターンPPについては後述する。
 フィルタ制御部3は、設定された画素組み合わせパターンPPを示すパターンデータDPPをフィルタ処理部4へ出力する。
 フィルタ処理部4は、赤色画像データRm、緑色画像データGm、及び、青色画像データBmに対して、入力されたパターンデータDPPに基づいて、画素組み合わせパターン毎にフィルタ処理を施す。
 フィルタ処理部4は、フィルタ処理が施された赤色画像データRf、緑色画像データGf、及び、青色画像データBfを、表示画像生成部5へ出力する。
 表示画像生成部5は、赤色画像データRfと緑色画像データGfと青色画像データBfとを合成してフルカラー画像データFCを生成する。表示画像生成部5は、フルカラー画像データFCを表示部100へ出力する。表示部100は、フルカラー画像データFCに基づくフルカラー画像を表示する。
 図2~図31を用いて第1実施形態の画像処理方法を説明する。以下に、表示部100の画素がカラーフィルタ方式によりダイアゴナル配列されている状態を例に挙げて説明する。なお、表示部100の画素配列はダイアゴナル配列に限定されるものではない。
 図2は、表示部100のダイアゴナル配列されている画素を模式的に示している。図2中のRは赤色画像を表示するためのR画素である。R画素には赤色フィルタが配置されている。Gは緑色画像を表示するためのG画素である。G画素には緑色フィルタが配置されている。Bは青色画像を表示するためのB画素である。B画素には青色フィルタが配置されている。
 フルカラー画像を表示するためには、光の3原色を構成するR画素、G画素、及び、B画素の3つの画素が必要である。そこで、R画素、G画素、及び、B画素の3つの画素からなる1組の画素を、フルカラー画像を表示するための1単位画素と定義する。
 図3は、画像処理装置1の色画像分離部2に入力される入力画像データIDのフルカラー画像を模式的に示している。図3では入力画像データIDの各画素データが図2に示す表示部100の画素に対応するように示している。例えば、図3中の画素データRGB25は、図2の2行目で5列目のR画素に対応する。即ち、図2及び図3は入力画像と表示部100とが同じ解像度となるように示している。
 入力画像データIDの各画素データRGB11~RGB18,RGB21~RGB28,RGB31~RGB38,RGB41~RGB48,RGB51~RGB58,RGB61~RGB68,RGB71~RGB78,RGB81~RGB88,RGB91~RGB98は、赤色成分、緑色成分、及び、青色成分の画像情報を有している。
 なお、図2及び図3では画素構成をわかりやすくするために9行8列のマトリクスで示しているが、入力画像及び表示部100の画素数や解像度はこれに限定されるものではない。
 図4に示すフローチャートを用いて、第1実施形態の画像処理方法を説明する。図4において、色画像分離部2は、ステップS1にて、入力画像データIDから、赤色画像データRm、緑色画像データGm、及び、青色画像データBmを分離し、フィルタ制御部3及びフィルタ処理部4へ出力する。
 図5は赤色画像データRmを模式的に示している。図5は図3に対応している。赤色画像データRmの各画素データR11~R18,R21~R28,R31~R38,R41~R48,R51~R58,R61~R68,R71~R78,R81~R88,R91~R98は、赤色成分の階調等の画像情報を有している。
 図6は緑色画像データGmを模式的に示している。図6は図3に対応している。緑色画像データGmの各画素データG11~G18,G21~G28,G31~G38,G41~G48,G51~G58,G61~G68,G71~G78,G81~G88,G91~G98は、緑色成分の階調等の画像情報を有している。
 図7は青色画像データBmを模式的に示している。図7は図3に対応している。青色画像データBmの各画素データB11~B18,B21~B28,B31~B38,B41~B48,B51~B58,B61~B68,B71~B78,B81~B88,B91~B98は、青色成分の階調等の画像情報を有している。
 図8(a)~図8(d)は、ダイアゴナル配列においてG画素を注目画素とした場合の複数の画素組み合わせパターンの一例を模式的に示している。図8(a)~図8(d)は図2における単位画素を示す部分図である。
 フィルタ制御部3は、図4のステップS2にて、赤色画像データRm、緑色画像データGm、及び、青色画像データBmに基づいて、複数の画素組み合わせパターンPP、例えば、図8(a)に示す画素組み合わせパターンPPa、図8(b)に示す画素組み合わせパターンPPb、図8(c)に示す画素組み合わせパターンPPc、及び、図8(d)に示す画素組み合わせパターンPPdを設定する。
 画素組み合わせパターンPPa~PPdは単位画素により構成されている。画素組み合わせパターンPPa~PPdは、フィルタ制御部3に予め記憶されていてもよいし、所定のアルゴリズムに基づいて設定されるようにしてもよい。
 フィルタ制御部3は、画素組み合わせパターンPPを示すパターンデータDPP、具体的には、画素組み合わせパターンPPa~PPdをそれぞれ示すパターンデータDPPa~DPPdを、フィルタ処理部4へ出力する。
 フィルタ処理部4は、ステップS3にて、赤色画像データRm、緑色画像データGm、及び、青色画像データBmに対して、複数の画素組み合わせパターンPPa~PPdに基づいてフィルタ処理を施す。
 図9~図30を用いて、複数の画素組み合わせパターンPPa~PPdに基づくフィルタ処理について説明する。
 フィルタ処理部4は、赤色画像データRm、緑色画像データGm、及び、青色画像データBmに対して、画素組み合わせパターンPPaに基づいてフィルタ処理を施す。
 図9は赤色画像データRmと画素組み合わせパターンPPaとの関係を模式的に示している。画素組み合わせパターンPPaを太枠で示している。例えば、図9中のR44は図2に示すダイアゴナル配列における4行目で4列目のR画素に対応する。R45は4行目で5列目のG画素に対応する。R46は4行目で6列目のB画素に対応する。
 図10は画素組み合わせパターンPPaに基づいてフィルタ処理が施された赤色画像データRfaを模式的に示している。図10中の画素R11a,R14a,R17a,R22a,R25a,R28a,R33a,R36a,R41a,R44a,R47a,R52a,R55a,R58a,R63a,R66a,R71a,R74a,R77a,R82a,R85a,R88a,R93a,R96aは、図2に示すダイアゴナル配列のR画素に相当する。
 フィルタ処理部4は、赤色画像データRmに対して画素組み合わせパターンPPaに基づいてフィルタ処理を施すことにより、赤色画像データRfa(図10参照)を生成する。
 具体的には、フィルタ処理部4は、例えば、赤色画像データRfaの画素R44aに対応する赤色画像データRmの画素R44を注目画素として、画素組み合わせパターンPPa内の画素R44、画素R45、及び画素R46の階調の平均値を算出する。フィルタ処理部4は、算出された平均値を赤色画像データRfaの画素R44aの階調として設定する。画素R44aは図2に示すダイアゴナル配列における4行目で4列目のR画素に相当する。他のR画素についても画素組み合わせパターンPPaに基づいてフィルタ処理が施される。
 赤色画像データRmの画素R45は、図2に示すダイアゴナル配列における4行目で5列目のG画素に相当する。赤色画像データRmの画素R46は、図2に示すダイアゴナル配列における4行目で6列目のB画素に相当する。赤色画像データRfaの画素R44aに対応する画素R44の周辺画素であるR45及びR46は、表示部100のG画素及びB画素に対応するため、従来であればデータとして反映されない画素である。画素組み合わせパターンPPaを単位画素で構成することにより、従来であれば反映されない周辺画素R45及びR46の画像情報を赤色画像データRfaの画素R44aに反映させることができる。
 図9に示すように、画素組み合わせパターンPPaは赤色画像データRmの各R画素に隙間なく配置される。これにより、フィルタ処理部4は、赤色画像データRmのほぼ全てのR画素を対象にしてフィルタ処理を施すことができる。従って、赤色画像データRmのほぼ全てのR画素を赤色画像データRfaに反映させることができる。
 なお、画素組み合わせパターンPPa外の画素をフィルタ処理の対象画素としてもよい。具体的には、例えば画素R44を注目画素とした場合、画素R44が対象画素として含まれていればよいので、赤色画像データRmの画素R43、画素R44、及び画素R45の階調の平均値を算出し、この平均値を画素R44aの階調として設定してもよい。また、赤色画像データRmの画素R42、画素R43、及び画素R44の階調の平均値を算出し、この平均値を画素R44aの階調として設定してもよい。
 図11は緑色画像データGmと画素組み合わせパターンPPaとの関係を模式的に示している。画素組み合わせパターンPPaを太枠で示している。例えば、図11中のG44は図2に示すダイアゴナル配列における4行目で4列目のR画素に対応する。G45は4行目で5列目のG画素に対応する。G46は4行目で6列目のB画素に対応する。
 図12は画素組み合わせパターンPPaに基づいてフィルタ処理が施された緑色画像データGfaを模式的に示している。図12中の画素G12a,G15a,G18a,G23a,G26a,G31a,G34a,G37a,G42a,G45a,G48a,G53a,G56a,G61a,G64a,G67a,G72a,G75a,G78a,G83a,G86a,G91a,G94a,G97aは、図2に示すダイアゴナル配列のG画素に相当する。
 フィルタ処理部4は、緑色画像データGmに対して画素組み合わせパターンPPaに基づいてフィルタ処理を施すことにより、緑色画像データGfa(図12参照)を生成する。
 具体的には、フィルタ処理部4は、例えば、緑色画像データGfaの画素G45aに対応する緑色画像データGmの画素G45を注目画素として、画素組み合わせパターンPPa内の画素G44、画素G45、及び画素G46の階調の平均値を算出する。フィルタ処理部4は、算出された平均値を緑色画像データGfaの画素G45aの階調として設定する。画素G45aは図2に示すダイアゴナル配列における4行目で5列目のG画素に相当する。他のG画素についても画素組み合わせパターンPPaに基づいてフィルタ処理が施される。
 緑色画像データGmの画素R44は、図2に示すダイアゴナル配列における4行目で4列目のR画素に相当する。緑色画像データGmの画素R46は、図2に示すダイアゴナル配列における4行目で6列目のB画素に相当する。緑色画像データGfaの画素G45aに対応する画素G45の周辺画素であるG44及びG46は、表示部100のR画素及びB画素に対応するため、従来であればデータとして反映されない画素である。画素組み合わせパターンPPaを単位画素で構成することにより、従来であれば反映されない周辺画素G44及びG46の画像情報を緑色画像データGfaの画素G45aに反映させることができる。
 図11に示すように、画素組み合わせパターンPPaは緑色画像データGmの各G画素に隙間なく配置される。これにより、フィルタ処理部4は、緑色画像Gmのほぼ全てのG画素を対象にしてフィルタ処理を実行することができる。従って、緑色画像データGmのほぼ全てのG画素を緑色画像データGfaに反映させることができる。
 なお、画素組み合わせパターンPPa外の画素をフィルタ処理の対象画素としてもよい。具体的には、例えば画素G45を注目画素とした場合、画素G45が対象画素として含まれていればよいので、緑色画像データGmの画素G43、画素G44、及び画素G45の階調の平均値を算出し、この平均値を画素G45aの階調として設定してもよい。また、緑色画像データGmの画素G45、画素G46、及び画素G47の階調の平均値を算出し、この平均値を画素G45aの階調として設定してもよい。
 図13は青色画像データBmと画素組み合わせパターンPPaとの関係を模式的に示している。画素組み合わせパターンPPaを太枠で示している。例えば、図13中のB44は図2に示すダイアゴナル配列における4行目で4列目のR画素に対応する。B45は4行目で5列目のG画素に対応する。B46は4行目で6列目のB画素に対応する。
 図14は画素組み合わせパターンPPaに基づいてフィルタ処理が施された青色画像データBfaを模式的に示している。図14中の画素B13a,B16a,B21a,B24a,B27a,B32a,B35a,B38a,B43a,B46a,B51a,B54a,B57a,B62a,B65a,B68a,B73a,B76a,B81a,B84a,B87a,B92a,B95a,B98aは、図2に示すダイアゴナル配列のB画素に相当する。
 フィルタ処理部4は、青色画像データBmに対して画素組み合わせパターンPPaに基づいてフィルタ処理を施すことにより、青色画像データBfa(図14参照)を生成する。
 具体的には、フィルタ処理部4は、例えば、青色画像データBfaの画素B46aに対応する青色画像データBmの画素B46を注目画素として、画素組み合わせパターンPPa内の画素B44、画素B45、及び画素B46の階調の平均値を算出する。フィルタ処理部4は、算出された平均値を青色画像データBfaの画素B46aの階調として設定する。画素B46aは図2に示すダイアゴナル配列における4行目で6列目のB画素に相当する。他のB画素についても画素組み合わせパターンPPaに基づいてフィルタ処理が施される。
 青色画像データBmの画素R44は、図2に示すダイアゴナル配列における4行目で4列目のR画素に相当する。青色画像データBmの画素R45は、図2に示すダイアゴナル配列における4行目で5列目のG画素に相当する。青色画像データBfaの画素B46aに対応する画素B46の周辺画素であるB44及びB45は、表示部100のR画素及びG画素に対応するため、従来であればデータとして反映されない画素である。画素組み合わせパターンPPaを単位画素で構成することにより、従来であれば反映されない周辺画素B44及びB45の画像情報を青色画像データBfaの画素B46aに反映させることができる。
 図13に示すように、画素組み合わせパターンPPaは青色画像データBmの各B画素に隙間なく配置される。これにより、フィルタ処理部4は、青色画像データBmのほぼ全てのB画素を対象にしてフィルタ処理を施すことができる。従って、青色画像データBmのほぼ全てのB画素を青色画像データBfaに反映させることができる。
 なお、画素組み合わせパターンPPa外の画素をフィルタ処理の対象画素としてもよい。具体的には、例えば画素B46を注目画素とした場合、画素B46が対象画素として含まれていればよいので、青色画像データBmの画素B45、画素B46、及び画素B47の階調の平均値を算出し、この平均値を画素B46aの階調として設定してもよい。また、青色画像データBmの画素B46、画素B47、及び画素B48の階調の平均値を算出し、この平均値を画素G46aの階調として設定してもよい。
 フィルタ処理部4は、赤色画像データRm、緑色画像データGm、及び、青色画像データBmに対して画素組み合わせパターンPPbに基づいてフィルタ処理を施す。
 図15は赤色画像データRmと画素組み合わせパターンPPbとの関係を模式的に示している。画素組み合わせパターンPPbを太枠で示している。例えば、図15中のR24は図2に示すダイアゴナル配列における2行目で4列目のB画素に対応する。R34は3行目で4列目のG画素に対応する。R44は4行目で4列目のR画素に対応する。
 図16は画素組み合わせパターンPPbに基づくフィルタ処理により生成された赤色画像データRfbを模式的に示している。図16中の画素R11b,R14b,R17b,R22b,R25b,R28b,R33b,R36b,R41b,R44b,R47b,R52b,R55b,R58b,R63b,R66b,R71b,R74b,R77b,R82b,R85b,R88b,R93b,R96bは、図2に示すダイアゴナル配列のR画素に相当する。
 フィルタ処理部4は、赤色画像データRmに対して画素組み合わせパターンPPbに基づいてフィルタ処理を施すことにより、赤色画像データRfb(図16参照)を生成する。
 具体的には、フィルタ処理部4は、例えば、赤色画像データRfbの画素R44bに対応する赤色画像データRmの画素R44を注目画素として、画素組み合わせパターンPPb内の画素R24、画素R34、及び画素R44の階調の平均値を算出する。フィルタ処理部4は、算出された平均値を赤色画像データRfbの画素R44bの階調として設定する。画素R44bは図2に示すダイアゴナル配列における4行目で4列目のR画素に相当する。他のR画素についても画素組み合わせパターンPPbに基づいてフィルタ処理が施される。
 赤色画像データRmの画素R24は、図2に示すダイアゴナル配列における2行目で4列目のB画素に相当する。赤色画像データRmの画素R34は、図2に示すダイアゴナル配列における3行目で4列目のG画素に相当する。赤色画像データRfbの画素R44bに対応する画素R44の周辺画素であるR24及びR34は、表示部100のB画素及びG画素に対応するため、従来であればデータとして反映されない画素である。画素組み合わせパターンPPbを単位画素で構成することにより、従来であれば反映されない周辺画素R24及びR34の画像情報を赤色画像データRfbの画素R44bに反映させることができる。
 図15に示すように、画素組み合わせパターンPPbは赤色画像データRmの各R画素に隙間なく配置される。これにより、フィルタ処理部4は、赤色画像データRmのほぼ全てのR画素を対象にしてフィルタ処理を施すことができる。従って、赤色画像データRmのほぼ全てのR画素を赤色画像データRfbに反映させることができる。
 なお、画素組み合わせパターンPPb外の画素をフィルタ処理の対象画素としてもよい。具体的には、例えば画素R44を注目画素とした場合、画素R44が対象画素として含まれていればよいので、赤色画像データRmの画素R34、画素R44、及び画素R54の階調の平均値を算出し、この平均値を画素R44bの階調として設定してもよい。また、赤色画像データRmの画素R44、画素R54、及び画素R64の階調の平均値を算出し、この平均値を画素R44bの階調として設定してもよい。
 フィルタ処理部4は、赤色画像データRmと同様に、緑色画像データGmのほぼ全てのG画素を対象にしてフィルタ処理を施し、緑色画像データGfb(図17参照)を生成する。従って、緑色画像データGmのほぼ全てのG画素を緑色画像データGfbに反映させることができる。
 図17中の画素G12b,G15b,G18b,G23b,G26b,G31b,G34b,G37b,G42b,G45b,G48b,G53b,G56b,G61b,G64b,G67b,G72b,G75b,G78b,G83b,G86b,G91b,G94b,G97bは、図2に示すダイアゴナル配列のG画素に相当する。
 フィルタ処理部4は、赤色画像データRmと同様に、青色画像データBmのほぼ全てのB画素を対象にしてフィルタ処理を施し、青色画像データBfb(図18参照)を生成する。従って、青色画像データBmのほぼ全てのB画素を青色画像データBfbに反映させることができる。
 図18中の画素B13b,B16b,B21b,B24b,B27b,B32b,B35b,B38b,B43b,B46b,B51b,B54b,B57b,B62b,B65b,B68b,B73b,B76b,B81b,B84b,B87b,B92b,B95b,B98bは、図2に示すダイアゴナル配列のB画素に相当する。
 フィルタ処理部4は、赤色画像データRm、緑色画像データGm、及び、青色画像データBmに対して画素組み合わせパターンPPcに基づいてフィルタ処理を施す。
 図19は赤色画像データRmと画素組み合わせパターンPPcとの関係を模式的に示している。画素組み合わせパターンPPcを太枠で示している。例えば、図19中のR34は図2に示すダイアゴナル配列における3行目で4列目のG画素に対応する。R35は3行目で5列目のB画素に対応する。R44は4行目で4列目のR画素に対応する。
 図20は画素組み合わせパターンPPcに基づくフィルタ処理により生成された赤色画像データRfcを模式的に示している。図20中の画素R11c,R14c,R17c,R22c,R25c,R28c,R33c,R36c,R41c,R44c,R47c,R52c,R55c,R58c,R63c,R66c,R71c,R74c,R77c,R82c,R85c,R88c,R93c,R96cは、図2に示すダイアゴナル配列のR画素に相当する。
 フィルタ処理部4は、赤色画像データRmに対して画素組み合わせパターンPPcに基づいてフィルタ処理を施すことにより、赤色画像データRfc(図20参照)を生成する。
 具体的には、フィルタ処理部4は、例えば、赤色画像データRfcの画素R44cに対応する赤色画像データRmの画素R44を注目画素として、画素組み合わせパターンPPc内の画素R34、画素R35、及び画素R44の階調の平均値を算出する。フィルタ処理部4は、算出された平均値を赤色画像データRfcの画素R44cの階調として設定する。画素R44cは図2に示すダイアゴナル配列における4行目で4列目のR画素に相当する。他のR画素についても画素組み合わせパターンPPcに基づいてフィルタ処理が施される。
 赤色画像データRmの画素R34は、図2に示すダイアゴナル配列における3行目で4列目のG画素に相当する。赤色画像データRmの画素R35は、図2に示すダイアゴナル配列における3行目で5列目のB画素に相当する。赤色画像データRfcの画素R44cに対応する画素R44の周辺画素であるR34及びR35は、表示部100のG画素及びB画素に対応するため、従来であればデータとして反映されない画素である。画素組み合わせパターンPPcを単位画素で構成することにより、従来であれば反映されない周辺画素R34及びR35の画像情報を赤色画像データRfcの画素R44cに反映させることができる。
 図19に示すように、画素組み合わせパターンPPcは赤色画像データRmの各R画素に隙間なく配置される。これにより、フィルタ処理部4は、赤色画像データRmのほぼ全てのR画素を対象にしてフィルタ処理を施すことができる。従って、赤色画像データRmのほぼ全てのR画素を赤色画像データRfcに反映させることができる。
 フィルタ処理部4は、赤色画像データRmと同様に、緑色画像データGmのほぼ全てのG画素を対象にしてフィルタ処理を施し、緑色画像データGfc(図21参照)を生成する。従って、緑色画像データGmのほぼ全てのG画素を緑色画像データGfcに反映させることができる。
 図21中の画素G12c,G15c,G18c,G23c,G26c,G31c,G34c,G37c,G42c,G45c,G48c,G53c,G56c,G61c,G64c,G67c,G72c,G75c,G78c,G83c,G86c,G91c,G94c,G97cは、図2に示すダイアゴナル配列のG画素に相当する。
 フィルタ処理部4は、赤色画像データRmと同様に、青色画像データBmのほぼ全てのB画素を対象にしてフィルタ処理を施し、青色画像データBfc(図22参照)を生成する。従って、青色画像データBmのほぼ全てのB画素を青色画像データBfcに反映させることができる。
 図22中の画素B13c,B16c,B21c,B24c,B27c,B32c,B35c,B38c,B43c,B46c,B51c,B54c,B57c,B62c,B65c,B68c,B73c,B76c,B81c,B84c,B87c,B92c,B95c,B98cは、図2に示すダイアゴナル配列のB画素に相当する。
 フィルタ処理部4は、赤色画像データRm、緑色画像データGm、及び、青色画像データBmに対して画素組み合わせパターンPPdに基づいてフィルタ処理を施す。
 図23は赤色画像データRmと画素組み合わせパターンPPdとの関係を模式的に示している。画素組み合わせパターンPPdを太枠で示している。例えば、図23中のR35は図2に示すダイアゴナル配列における3行目で5列目のB画素に対応する。R44は4行目で4列目のR画素に対応する。R45は4行目で5列目のG画素に対応する。
 図24は画素組み合わせパターンPPdに基づくフィルタ処理により生成された赤色画像データRfdを示す模式図である。図24中の画素R11d,R14d,R17d,R22d,R25d,R28d,R33d,R36d,R41d,R44d,R47d,R52d,R55d,R58d,R63d,R66d,R71d,R74d,R77d,R82d,R85d,R88d,R93d,R96dは、図2に示すダイアゴナル配列のR画素に相当する。
 フィルタ処理部4は、赤色画像データRmに対して画素組み合わせパターンPPdに基づいてフィルタ処理を施すことにより、赤色画像データRfd(図24参照)を生成する。
 具体的には、フィルタ処理部4は、例えば、赤色画像データRfdの画素R44dに対応する赤色画像データRmの画素R44を注目画素として、画素組み合わせパターンPPd内の画素R35、画素R44、及び画素R45の階調の平均値を算出する。フィルタ処理部4は、算出された平均値を赤色画像データRfdの画素R44dの階調として設定する。画素R44dは図2に示すダイアゴナル配列における4行目で4列目のR画素に相当する。他のR画素についても画素組み合わせパターンPPdに基づいてフィルタ処理が施される。
 赤色画像データRmの画素R35は、図2に示すダイアゴナル配列における3行目で5列目のB画素に相当する。赤色画像データRmの画素R45は、図2に示すダイアゴナル配列における4行目で5列目のG画素に相当する。赤色画像データRfdの画素R44dに対応する画素R44の周辺画素であるR35及びR45は、表示部100のB画素及びG画素に対応するため、従来であればデータとして反映されない画素である。画素組み合わせパターンPPdを単位画素で構成することにより、従来であれば反映されない周辺画素R35及びR45の画像情報を赤色画像データRfdの画素R44dに反映させることができる。
 図23に示すように、画素組み合わせパターンPPdは赤色画像データRmの各R画素に隙間なく配置される。これにより、フィルタ処理部4は、赤色画像データRmのほぼ全てのR画素を対象にしてフィルタ処理を施すことができる。従って、赤色画像データRmのほぼ全てのR画素を赤色画像データRfdに反映させることができる。
 フィルタ処理部4は、赤色画像データRmと同様に、緑色画像データGmのほぼ全てのG画素を対象にしてフィルタ処理を施し、緑色画像データGfd(図25参照)を生成する。従って、緑色画像データGmのほぼ全てのG画素を緑色画像データGfdに反映させることができる。
 図25中の画素G12d,G15d,G18d,G23d,G26d,G31d,G34d,G37d,G42d,G45d,G48d,G53d,G56d,G61d,G64d,G67d,G72d,G75d,G78d,G83d,G86d,G91d,G94d,G97dは、図2に示すダイアゴナル配列のG画素に相当する。
 フィルタ処理部4は、赤色画像データRmと同様に、青色画像データBmのほぼ全てのB画素を対象にしてフィルタ処理を施し、青色画像データBfd(図26参照)を生成する。従って、青色画像データBmのほぼ全てのB画素を緑色画像データBfdに反映させることができる。
 図26中の画素B13d,B16d,B21d,B24d,B27d,B32d,B35d,B38d,B43d,B46d,B51d,B54d,B57d,B62d,B65d,B68d,B73d,B76d,B81d,B84d,B87d,B92d,B95d,B98dは、図2に示すダイアゴナル配列のB画素に相当する。
 表示画像生成部5は、図4のステップS4にて、複数の画素組み合わせパターンに基づいて生成された赤色画像データRfと緑色画像データGfと青色画像データBfとを、同一の画素組み合わせパターンによるフィルタ処理毎に合成し、複数のフルカラー画像データFCを生成する。
 具体的には、表示画像生成部5は、画素組み合わせパターンPPaに基づいて生成された赤色画像データRfaと緑色画像データGfaと青色画像データBfaとを合成して、図27に示すフルカラー画像データFCaを生成する。
 表示画像生成部5は、画素組み合わせパターンPPbに基づいて生成された赤色画像データRfbと緑色画像データGfbと青色画像データBfbとを合成して、図28に示すフルカラー画像データFCbを生成する。
 表示画像生成部5は、画素組み合わせパターンPPcに基づいて生成された赤色画像データRfcと緑色画像データGfcと青色画像データBfcとを合成して、図29に示すフルカラー画像データFCcを生成する。
 表示画像生成部5は、画素組み合わせパターンPPdに基づいて生成された赤色画像データRfdと緑色画像データGfdと青色画像データBfdとを合成して、図30に示すフルカラー画像データFCdを生成する。
 表示画像生成部5は、フルカラー画像データFCa,FCb,FCc,Fcdを表示部100へ出力する。
 図31は、フルカラー画像データFCa,FCb,FCc,Fcdがフルカラー画像として表示部100に表示されるタイミングを模式的に示している。
 フルカラー画像データFCa,FCb,FCc,Fcdは、1フレーム期間内で1/4フレーム毎に切り替えられる。フルカラー画像データFCa,FCb,FCc,Fcdが1フレーム期間内で切り替えられる順番やタイミングは、表示画像生成部5、フィルタ処理部4、または、フィルタ制御部3によって制御される。
 表示部100には、フルカラー画像データFCa,FCb,FCc,Fcdに基づくフルカラー画像が1フレーム期間内で切り替えられて表示される。
 例えば、赤色画像データRmの画素R44を注目画素とした場合、フルカラー画像データFCaの画素R44aは、画素R44、画素R45、及び画素R46の画像情報に基づいて設定される。フルカラー画像データFCbの画素R44bは、画素R24、画素R34、及び画素R44の画像情報に基づいて設定される。フルカラー画像データFCcの画素R44cは、画素R34、画素R35、及び画素R44の画像情報に基づいて設定される。フルカラー画像データFCdの画素R44dは、画素R35、画素R44、及び画素R45の画像情報に基づいて設定される。
 フルカラー画像データFCa,FCb,FCc,Fcdの画素R44a,R44b,R44c,R44dは、表示部100の4行目で4列目のR画素(図2参照)に表示される。フルカラー画像データFCa,FCb,FCc,Fcdの他のR画素、G画素、B画素についても同様である。
 フルカラー画像データFCa,FCb,FCc,FCdは画素組み合わせパターンが異なるフィルタ処理により生成されている。そのため、フルカラー画像データFCa,FCb,FCc,FCdが1フレーム期間内で切り替えられることによって表示部100に表示されるフルカラー画像は、単一のフィルタ処理により生成されるフルカラー画像と比較して、より多くの周辺画素を対象画素としてフィルタ処理が施されていることになる。即ち、フルカラー画像データFCa,FCb,FCc,FCdが1フレーム期間内で切り替えられることにより、表示部100にはより多くの画像情報により生成されたフルカラー画像が表示されることになる。
 従って、フルカラー画像データFCa,FCb,FCc,FCdを1フレーム期間内で切り替えることにより、単一のフィルタ処理により生成されたフルカラー画像よりも画像品位を向上させることができる。
 よって、第1実施形態の画像処理装置及び画像処理方法によれば、カラーフィルタ方式において、入力画像に対する表示画像の解像度の低下によって生じる画像品位の低下を抑制することができる。
 なお、第1実施形態の画像処理装置及び画像処理方法では、G画素を注目画素として画素組み合わせパターンを設定したが、これに限定されるものではなく、R画素またはB画素を注目画素として画素組み合わせパターンを設定するようにしてもよい。
 また、第1実施形態の画像処理装置及び画像処理方法では、複数の画素組み合わせパターンとして、4つの画素組み合わせパターンPPa,PPb,PPc,PPdを設定したが、これに限定されるものではなく、2つ以上の画素組み合わせパターンであればよい。
 2つの画素組み合わせパターンを設定する場合、お互いを補完する関係を有する組み合わせが望ましい。例えば、水平方向の周辺画素を含む画素組み合わせパターンPPaと垂直方向の周辺画素を含む画素組み合わせパターンPPbとの組み合わせが望ましい。同様の理由により、画素組み合わせパターンPPcと画素組み合わせパターンPPdとの組み合わせが望ましい。
[第2実施形態]
 第2実施形態の画像処理装置は、第1実施形態の画像処理装置と構成が同じであり、フィルタ処理を施すための画素組み合わせパターン、具体的には画素組み合わせパターンの画素数が異なる。説明をわかりやすくするために、第1実施形態の画像処理装置1と同じ構成部には同じ符号を付す。
 図32(a)~図32(f)は、ダイアゴナル配列においてG画素を注目画素とした場合の複数の画素組み合わせパターンの一例を模式的に示している。図32は図8に対応する。なお、R画素またはB画素を注目画素として画素組み合わせパターンを設定してもよい。
 フィルタ制御部3は、赤色画像データRm、緑色画像データGm、及び、青色画像データBmに基づいて、複数の画素組み合わせパターンPP、例えば図32(a)に示す画素組み合わせパターンPPe、図32(b)に示す画素組み合わせパターンPPf、図32(c)に示す画素組み合わせパターンPPg、図32(d)に示す画素組み合わせパターンPPh、図32(e)に示す画素組み合わせパターンPPi、及び、図32(f)に示す画素組み合わせパターンPPjを設定する。
 図32(a)~図32(f)に示すように、画素組み合わせパターンPPe,PPf,PPg,PPh,PPi,PPjは一単位画素を含んでいればよい。
 画素組み合わせパターンPPe~PPjは、フィルタ制御部3に予め記憶されていてもよいし、所定のアルゴリズムに基づいて設定されるようにしてもよい。
 フィルタ処理部4は、赤色画像データRm、緑色画像データGm、及び、青色画像データBmに対して、複数の画素組み合わせパターンPPe~PPjに基づいてフィルタ処理を施す。
 画素組み合わせパターンPPe~PPjを、第1実施形態(図9、図15、図19、図23参照)と同様に、それぞれ隙間なく配置することにより、フィルタ処理部4は、赤色画像データRm、緑色画像データGm、及び青色画像データBmのほぼ全てのR画素、G画素、及びB画素を対象にしてフィルタ処理を施すことができる。
 フィルタ処理後の画像処理方法は、第1実施形態の画像処理方法と同様である。
 なお、複数の画素組み合わせパターンとして、6つの画素組み合わせパターンPPe~PPjを設定したが、これに限定されるものではなく、2つ以上の画素組み合わせパターンであればよい。
 2つの画素組み合わせパターンを設定する場合、お互いを補完する関係を有する組み合わせが望ましい。例えば、水平方向の周辺画素を含む画素組み合わせパターンPPeと垂直方向の周辺画素を含む画素組み合わせパターンPPfとの組み合わせが望ましい。同様の理由により、画素組み合わせパターンPPgと画素組み合わせパターンPPhとの組み合わせ、並びに、画素組み合わせパターンPPiと画素組み合わせパターンPPjとの組み合わせが望ましい。
 フィルタ処理を施す場合、画像によっては画素組み合わせパターンの画素数が多いと不要な周辺画素の画像情報もフィルタ処理に反映されてしまうため、画像品位を悪化させる要因となる。
 一方、画像によっては画素組み合わせパターンの画素数が少ないと必要な周辺画素の画像情報がフィルタ処理に反映されなくなってしまうため、画像品質を悪化させる要因となる。
 そこで、画像に応じて画素数の異なる複数の画素組み合わせパターンでフィルタ処理を施すようにしてもよい。具体的には、画素組み合わせパターンPPa~PPdのいずれかによるフィルタ処理と、画素組み合わせパターンPPe~PPjのいずれかによるフィルタ処理とを組み合わせるようにしてもよい。
 フィルタ処理を施すための画素組み合わせパターンは、画素組み合わせパターンPPa~PPd及び画素組み合わせパターンPPe~PPjに限定されるものではない。画素組み合わせパターンは、画素組み合わせパターンPPa~PPd及び画素組み合わせパターンPPe~PPjのように隙間なく配置できる形状が望ましい。
 なお、本発明は上述した第1及び第2実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。前述のように、画像処理装置1を構成する色画像分離部2、フィルタ制御部3、フィルタ処理部4、及び、表示画像生成部5はそれぞれ回路によって構成されていてもよいし、画像処理装置1がコンピュータ機器によって構成されていてもよい。色画像分離部2、フィルタ制御部3、フィルタ処理部4、及び、表示画像生成部5は、コンピュータ機器のプロセッサで実行されるソフトウェアモジュール(コンピュータプログラム)であってもよい。
 画像処理装置1は、ハードウェアで構成される入力部及び出力部を備えていてもよい。画像処理装置1は、入力画像データIDが、入力部を経由して色画像分離部2へと供給され、色画像分離部2、フィルタ制御部3及び4、及び、表示画像生成部5における各処理の後、表示画像生成部5から出力部を経由して表示部100等へ出力するように構成されていてもよい。
 本発明は、カラーフィルタ方式の画像表示装置で利用できる。

Claims (3)

  1.  入力画像データから赤色画像データ、緑色画像データ、及び青色画像データを分離する色画像分離部と、
     前記赤色画像データ、前記緑色画像データ、及び前記青色画像データに対してフィルタ処理を施すための複数の画素組み合わせパターンを設定するフィルタ制御部と、
     前記赤色画像データ、前記緑色画像データ、及び前記青色画像データに対して、前記画素組み合わせパターン毎にフィルタ処理を施すフィルタ処理部と、
     フィルタ処理された前記赤色画像データ、前記緑色画像データ、及び前記青色画像データを同一の画素組み合わせパターンによるフィルタ処理毎に合成して複数のフルカラー画像データを生成する表示画像生成部と、
     を備えることを特徴とする画像処理装置。
  2.  前記フィルタ制御部、前記フィルタ処理部、または前記表示画像生成部は、前記複数のフルカラー画像データを1フレーム期間内で切り替えるよう制御することを特徴とする請求項1に記載の画像処理装置。
  3.  入力画像データから赤色画像データ、緑色画像データ、及び青色画像データを分離し、
     前記赤色画像データ、前記緑色画像データ、及び前記青色画像データに対してフィルタ処理を施すための複数の画素組み合わせパターンを設定し、
     前記赤色画像データ、前記緑色画像データ、及び前記青色画像データに対して、前記画素組み合わせパターン毎にフィルタ処理を施し、
     フィルタ処理された前記赤色画像データ、前記緑色画像データ、及び前記青色画像データを同一の画素組み合わせパターンによるフィルタ処理毎に合成して複数のフルカラー画像データを生成する
     ことを特徴とする画像処理方法。
PCT/JP2016/083884 2016-01-27 2016-11-16 画像処理装置及び画像処理方法 WO2017130529A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/038,306 US10504402B2 (en) 2016-01-27 2018-07-18 Image display device and image processing method using red, green, and blue filters arrayed in a predetermined array pattern

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-012954 2016-01-27
JP2016012954A JP2017134189A (ja) 2016-01-27 2016-01-27 画像処理装置及び画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/038,306 Continuation US10504402B2 (en) 2016-01-27 2018-07-18 Image display device and image processing method using red, green, and blue filters arrayed in a predetermined array pattern

Publications (1)

Publication Number Publication Date
WO2017130529A1 true WO2017130529A1 (ja) 2017-08-03

Family

ID=59397612

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/083884 WO2017130529A1 (ja) 2016-01-27 2016-11-16 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US10504402B2 (ja)
JP (1) JP2017134189A (ja)
WO (1) WO2017130529A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102665516B1 (ko) * 2019-12-04 2024-05-14 엘지디스플레이 주식회사 표시 장치
TWI810539B (zh) 2021-03-30 2023-08-01 元太科技工業股份有限公司 電泳顯示裝置以及電泳顯示裝置的驅動方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05273942A (ja) * 1992-03-26 1993-10-22 Yokogawa Electric Corp 液晶表示装置
JPH07123322A (ja) * 1993-10-20 1995-05-12 Nitsuko Corp 画像変換方式
JP2000148068A (ja) * 1998-11-06 2000-05-26 Victor Co Of Japan Ltd マトリクス型表示装置の映像信号処理回路及び映像信号処理方法
JP2007017615A (ja) * 2005-07-06 2007-01-25 Sony Corp 画像処理装置,画像処理方法及びプログラム
JP2007086577A (ja) * 2005-09-26 2007-04-05 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006115165A1 (ja) * 2005-04-22 2006-11-02 Sharp Kabushiki Kaisha 表示装置
JP2008145551A (ja) 2006-12-06 2008-06-26 Sony Corp 表示装置
TWI500008B (zh) * 2014-04-07 2015-09-11 E Ink Holdings Inc 畫素陣列

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05273942A (ja) * 1992-03-26 1993-10-22 Yokogawa Electric Corp 液晶表示装置
JPH07123322A (ja) * 1993-10-20 1995-05-12 Nitsuko Corp 画像変換方式
JP2000148068A (ja) * 1998-11-06 2000-05-26 Victor Co Of Japan Ltd マトリクス型表示装置の映像信号処理回路及び映像信号処理方法
JP2007017615A (ja) * 2005-07-06 2007-01-25 Sony Corp 画像処理装置,画像処理方法及びプログラム
JP2007086577A (ja) * 2005-09-26 2007-04-05 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置

Also Published As

Publication number Publication date
JP2017134189A (ja) 2017-08-03
US10504402B2 (en) 2019-12-10
US20180322822A1 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
JP6400645B2 (ja) ビデオ信号のデジタル的処理のための方法、デジタル画像処理プロセッサ、及びビデオ表示システム
US7893904B2 (en) Displaying method and image display device
US9620070B2 (en) Image display controlling method based on interpolation and control device thereof, image display device
US7764294B2 (en) Apparatus for driving a liquid crystal display by converting input image data into a plurality of image data and using two-frame inversion
JP5615480B2 (ja) 表示装置及び表示パネルドライバ
EP1721309A2 (en) Method device, and system of displaying a more-than-three primary color image
US9767742B2 (en) Image display device
KR20060111262A (ko) 표시 장치의 구동 장치
WO2017130529A1 (ja) 画像処理装置及び画像処理方法
JP2007094411A5 (ja)
WO2013161648A1 (ja) 表示制御回路、それを備えた液晶表示装置、および表示制御方法
JP2007147794A (ja) 画像表示装置、画像表示方法、画像表示方法のプログラム及び画像表示方法のプログラムを記録した記録媒体
WO2016106789A1 (zh) 液晶显示面板及其驱动方法
JP2001042283A (ja) 画像表示装置
WO2022064732A1 (ja) 入力信号補正装置
TWI438749B (zh) 於顯示面板進行遞色的方法與相關裝置
JP2005091875A (ja) 表示装置及び表示方法
JP2011123230A (ja) 表示装置
JP2008299270A (ja) 表示装置の駆動装置、電子機器
JP2011090211A (ja) 表示装置及び表示方法
JP2005331603A (ja) 画像処理装置およびその方法
CN112447147B (zh) 液晶显示面板、显示装置及其亮度转换方法
JP2000293149A (ja) 中間階調制御装置
CN114999419B (zh) 显示装置及电子设备
US10690980B2 (en) Array substrate and driving method thereof and liquid crystal panel

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16888114

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16888114

Country of ref document: EP

Kind code of ref document: A1