WO2022196094A1 - プロジェクター装置、光源装置、光源駆動方法 - Google Patents

プロジェクター装置、光源装置、光源駆動方法 Download PDF

Info

Publication number
WO2022196094A1
WO2022196094A1 PCT/JP2022/002166 JP2022002166W WO2022196094A1 WO 2022196094 A1 WO2022196094 A1 WO 2022196094A1 JP 2022002166 W JP2022002166 W JP 2022002166W WO 2022196094 A1 WO2022196094 A1 WO 2022196094A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
light source
amplitude modulation
modulation element
gamma curve
Prior art date
Application number
PCT/JP2022/002166
Other languages
English (en)
French (fr)
Inventor
慶太 森
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to EP22770856.7A priority Critical patent/EP4311232A1/en
Priority to US18/549,505 priority patent/US20240146886A1/en
Priority to JP2023506807A priority patent/JPWO2022196094A1/ja
Priority to CN202280020756.5A priority patent/CN117015965A/zh
Publication of WO2022196094A1 publication Critical patent/WO2022196094A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor
    • H04N9/3126Driving therefor for spatial light modulators in series
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • G03B21/006Projectors using an electronic spatial light modulator but not peculiar thereto using LCD's
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2006Lamp housings characterised by the light source
    • G03B21/2013Plural light sources
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2006Lamp housings characterised by the light source
    • G03B21/2033LED or laser light sources
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B33/00Colour photography, other than mere exposure or projection of a colour film
    • G03B33/10Simultaneous recording or projection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/3105Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators for displaying all colours simultaneously, e.g. by using two or more electronic spatial light modulators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3161Modulator illumination systems using laser light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3164Modulator illumination systems using multiple light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut

Definitions

  • the present technology relates to a projector device, a light source device provided in the projector device, and a light source driving method.
  • SLM spatial light modulator
  • DMD Digital Micromirror Device
  • Patent Document 1 discloses a technique for reducing color unevenness that occurs when stack projection is performed by two projectors.
  • phase modulation a technique of projecting a desired reconstructed image by performing spatial optical phase modulation (simply referred to as "phase modulation" in the present disclosure) on incident light.
  • phase modulation part of the incident light is attenuated or blocked in order to reproduce the desired light intensity distribution. The distribution is reproducible.
  • An object of the present disclosure is to reduce the occurrence of color unevenness when considering a projector device that uses a plurality of light sources and uses both phase modulation and amplitude modulation.
  • a projector device includes a first light source that outputs first light source light, a second light source that outputs second light source light whose wavelength of primary color light is different from that of the primary color light of the first light source, and the an amplitude modulation element for performing amplitude modulation on the incident light upon which both the first light source light and the second light source light are incident; and a signal processing unit that generates a gamma curve corresponding to the ratio of the light from the second light source.
  • a light source device also has a similar configuration.
  • the wavelengths of the R, G, and B lights from the first light source are different from the wavelengths of the R, G, and B lights from the second light source due to differences in the light sources themselves.
  • the R light from the first light source and the R light from the second light source have different wavelengths.
  • the wavelengths of G light and B light are also different between the first light source and the second light source. It is conceivable that the wavelengths of some of the R light, G light, and B light are different between the first light source and the second light source.
  • the amplitude modulation element generates an amplitude modulation drive signal by assuming a gradation along a fixed gamma curve corresponding to the first light source or a fixed gamma curve corresponding to the second light source. Amplitude modulation of gradation cannot be performed, and color unevenness occurs. Therefore, a gamma curve corresponding to the ratio of the first light source light and the second light source light is calculated, and the amplitude modulation drive signal is generated based on the gamma curve.
  • FIG. 4 is an explanatory diagram of a projector configuration using an amplitude modulation element
  • FIG. 4 is an explanatory diagram of a projector configuration using a phase modulating element and an amplitude modulating element
  • It is explanatory drawing of operation
  • 1 is an explanatory diagram of a configuration of a main part of a projector device according to an embodiment
  • FIG. 3 is an explanatory diagram of the detailed configuration of the projector device according to the embodiment
  • FIG. FIG. 4 is an explanatory diagram of light amount distribution of each part of the embodiment
  • FIG. 4 is an explanatory diagram of wavelengths of primary color lights of respective light sources according to the embodiment
  • FIG. 4 is an explanatory diagram of the principle of color unevenness generation;
  • FIG. 1 is an explanatory diagram of a configuration of a main part of a projector device according to an embodiment
  • FIG. 3 is an explanatory diagram of the detailed configuration of the projector device according to the embodiment
  • FIG. 10 is an explanatory diagram of an example of color unevenness;
  • FIG. 10 is an explanatory diagram of an example of color unevenness;
  • FIG. 10 is an explanatory diagram of a method for reducing color unevenness according to the embodiment;
  • FIG. 10 is an explanatory diagram of how to deal with the occurrence of color unevenness according to the embodiment;
  • FIG. 4 is an explanatory diagram of signal processing according to the first embodiment;
  • FIG. 10 is an explanatory diagram of signal processing according to the second embodiment;
  • FIG. 4 is an explanatory diagram of an in-plane region for performing gamma curve calculation in the embodiment;
  • FIG. 11 is an explanatory diagram of signal processing according to the third embodiment;
  • FIG. 1 simply shows the configuration of a projector (or light source device) using an amplitude modulation element 5 .
  • Illumination light 100 from a light source 111 is incident on the amplitude modulation element 5 via an optical system (not shown).
  • Illumination light 100 is light having a uniform brightness distribution in an in-plane area, as schematically shown, and is temporally or spatially divided into R light (red light), G light (green light), and G light (green light) by an optical system.
  • the light is split into B light (blue light) and is incident on the amplitude modulation element 5 .
  • the amplitude modulation element 5 emits light that forms an image as a projection image by modulating the intensity of incident light for each pixel.
  • this type of projector will be called an amplitude modulation type projector.
  • FIG. 2 simply shows the configuration of a projector (or light source device) using the phase modulation element 3 and the amplitude modulation element 5 .
  • the illumination light 101 from the light source 112 is light having a uniform brightness distribution in the in-plane region as schematically shown.
  • the illumination light 101 is phase-modulated in the phase modulation element 3 according to the phase modulation drive signal Sd2. That is, illumination light 102 having an arbitrary distribution is generated using the principle of light diffraction or refraction. For example, it is possible to obtain a light intensity distribution in which the light intensity rises in a part of the in-plane region.
  • each light beam of the illumination light 101 incident on the phase modulation surface Sm of the phase modulation element 3, the wavefront of the phase distribution in the phase modulation element 3, each light beam after phase modulation, and each light beam after phase modulation It schematically shows the relationship with the light intensity distribution formed on the virtual projection plane Sp.
  • the wavefront of the phase distribution corresponding to the phase modulation drive signal Sd2 in the phase modulation element 3 draws a smooth curve as shown, for example. Due to the spatial light phase modulation in the phase modulation element 3, each incident light ray is refracted so as to travel in the normal direction of the wavefront of the phase distribution. Due to this refraction, a portion with high light density and a portion with low light density are formed on the projection plane Sp, thereby forming a light intensity distribution on the projection plane Sp.
  • the illumination light 102 thus phase-modulated by the phase modulating element 3 in FIG. 2 enters the amplitude modulating element 5 and is amplitude-modulated according to the amplitude-modulated drive signal Sd1 based on the video signal, as in the case of FIG. As a result, the light that forms the image of the projected image is emitted.
  • the projector of the system of FIG. 2 will be called a phase/amplitude modulated projector.
  • FIG. 4 shows a schematic configuration of a hybrid projector (or light source device) according to an embodiment.
  • the hybrid projector of the embodiment has a first light source 1 (hereinafter referred to as "light source 1”) and a second light source 2 (hereinafter referred to as "light source 2").
  • a light source 1 is a light source corresponding to the light source 111 in the configuration of the amplitude modulation type projector in FIG. 1, and a phosphor light source is used, for example.
  • the illumination light from the light source 1 is called first light source light 104 .
  • the light source 2 is a light source corresponding to the light source 112 in the configuration of the phase/amplitude modulated projector in FIG. 2, and a laser light source is used, for example.
  • Illumination light from the light source 2 is referred to as second light source light 105 or second light source light 106 by distinguishing between the light before and after the phase modulation element 3 .
  • the light sources 1 and 2 are not limited to phosphor light sources or laser light emitting elements, and other light emitting elements such as LEDs (Light Emitting Diodes) can also be used.
  • the first light source light 104 from the light source 1 enters the amplitude modulation element 5 via the multiplexing optical system 4 .
  • the amplitude modulation element 5 is formed of a reflective or transmissive liquid crystal panel or DMD (DMD for amplitude modulation).
  • the second light source light 105 from the light source 2 enters the phase modulating element 3 .
  • This phase modulating element 3 is composed of a reflective or transmissive liquid crystal panel or a DMD.
  • the DMD in this case is not a general DMD in which each pixel tilts to bend light, but a phase modulation DMD in which each pixel shifts in the normal direction to change the phase amount of light.
  • the phase modulation element 3 uses the principle of light diffraction or refraction to phase-modulate the incident light so as to have an arbitrary distribution as described in FIG. 3, and outputs the modulated light. Therefore, the second light source light 106 emitted from the phase modulation element 3 is light obtained by phase-modulating the second light source light 105 .
  • the second light source light 106 enters the amplitude modulation element 5 via the multiplexing optical system 4 . Therefore, the first light source light 104 and the second light source light 106 are combined and enter the amplitude modulation element 5 .
  • the amplitude modulation element 5 modulates the light intensity of each pixel with an amplitude modulation drive signal Sd1 based on a video signal, and emits projection video light 107 . As a result, a projected image based on the video signal is displayed on a screen (not shown).
  • the configuration of the amplitude modulation type projector with the light source 1 and the amplitude modulation element 5, and the phase/amplitude It will also have the configuration of a modulation type projector.
  • a signal processing unit 10 for generating a phase modulation drive signal Sd2 to be supplied to the phase modulation element 3 and an amplitude modulation drive signal Sd1 to be supplied to the amplitude modulation element 5 is provided.
  • the signal processing unit 10 can be configured by including a microcomputer having, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the signal processing unit 10 calculates the phase distribution of the phase modulating element 3 based on the input video signal D.
  • the signal processing unit 10 supplies the phase modulation drive signal Sd2 to the phase modulation element 3 according to the calculated phase distribution to control the phase modulation operation.
  • the phase modulation is performed such that the light density in the low luminance area is low and the light density in the high luminance area is high on the image plane projected by the image signal D.
  • the video signal D is, for example, an RGB signal including an R signal Dr, a G signal Dg, and a B signal Db.
  • the signal processing unit 10 also generates an amplitude modulation drive signal Sd1 for controlling amplitude modulation of each pixel of the amplitude modulation element 5 based on the input video signal D, and supplies the amplitude modulation drive signal Sd1 to the amplitude modulation element 5 .
  • the amplitude modulation element 5 performs amplitude modulation corresponding to the luminance specified by the video signal for each pixel, and the projection video light 107 corresponding to the video signal D is generated.
  • FIG. 4 above is simplified for comparison with FIGS. 1 and 2, a more detailed configuration of the projector according to the embodiment is shown in FIG.
  • a light source 1 as a phosphor light source and a first illumination optical system 8 are formed.
  • Light from the light source 1 is white light, which is split into R light, G light, and B light by the first illumination optical system 8 and guided to the combining optical system 4 .
  • the light source 2 and the second illumination optical system 6 are formed by, for example, a laser light source.
  • Light from the light source 2 is white light, which is split into R light, G light, and B light by the second illumination optical system 6 and guided to the phase modulation element 3 .
  • the phase modulation element 3 includes a phase modulation element 3R corresponding to R light, a phase modulation element 3G corresponding to G light, and a phase modulation element 3B corresponding to B light.
  • the R light from the second illumination optical system 6 is phase-modulated by the phase modulation element 3R
  • the G light is phase-modulated by the phase modulation element 3G
  • the B light is phase-modulated by the phase modulation element 3B.
  • the phase-modulated R light, G light, and B light correspond to the above-described second light source light 106 and enter the multiplexing optical system 4 .
  • the multiplexing optical system 4 multiplexes each R light, each G light, and each B light of the first light source light 104 and the second light source light 106 and guides them to the amplitude modulation element 5 respectively.
  • the amplitude modulation elements 5 are provided with an amplitude modulation element 5R corresponding to R light, an amplitude modulation element 5G corresponding to G light, and an amplitude modulation element 5B corresponding to B light.
  • the combined R light is amplitude modulated by the amplitude modulation element 5R
  • the combined G light is amplitude modulated by the amplitude modulation element 5G
  • the combined B light is amplitude modulated by the amplitude modulation element 5B.
  • the amplitude-modulated R light, G light, and B light are combined to form projection image light 107 , which is projected by the projection lens 9 .
  • an image-making signal processing unit 11 and a phase pattern generating unit 12 indicated by broken lines are processing functions realized by software in the signal processing unit 10 shown in FIG.
  • the image creation signal processing unit 11 generates an amplitude modulation drive signal Sd1 for each of the amplitude modulation elements 5R, 5G, 5B based on the input video signal D (Dr, Dg, Db).
  • the image creation signal processing unit 11 also generates a phase distribution to be realized by the phase modulation elements 3R, 3G, and 3B based on the input video signal D (Dr, Dg, Db).
  • the phase pattern generator 12 generates phase pattern signals PHr, PHg, and PHb for actually executing phase modulation by the phase modulation elements 3R, 3G, and 3B, respectively, from the phase distribution based on the video signals Dr, Dg, and Db. and outputs them to the phase modulation elements 3R, 3G, and 3B as the phase modulation drive signal Sd2.
  • a specific processing example of the signal processing unit 10 including the image creation signal processing unit 11 and the phase pattern generation unit 12 will be described later as signal processing of the first, second, and third embodiments.
  • a hybrid projector using each primary color light of R light, G light, and B light is realized.
  • a reflective liquid crystal panel or DMD is used as the amplitude modulation element 5, and an example in which the amplitude modulation element 5 controls the reflectance will be described.
  • the part can be rephrased as transmittance when using a transmissive liquid crystal panel.
  • the second light source light 106 has a uniform light amount distribution and the amplitude modulation element 5 generates a gradational reflectance distribution. Due to the characteristics of the phase modulation element 3 , it is difficult to generate a light amount distribution with a spatial resolution as high as that of the pixels of the amplitude modulation element 5 in the second light source light 106 .
  • the amplitude modulation element 5 can modulate incident light for each pixel. For example, as shown in FIG. 6C, consider a case where a dark background 130 has a bright region 131 (low spatial frequency) and a gradation-like narrow region 132 (high spatial frequency) therein.
  • the bright area 131 in the dark background 130 can be realized by the light amount of the second light source light 106
  • the narrow area 132 therein can be realized by the amplitude modulation element 5 .
  • the “wavelength” of primary color light such as R light, G light, and B light means, in the case of a light source having a certain wavelength width for one color, the dominant wavelength, which is the dominant wavelength. is the meaning of
  • the light source 1 and the light source 2 have different wavelengths for each color as follows.
  • ⁇ B wavelength light source 1: 445 nm
  • light source 2 462 nm
  • G light wavelength Light source 1: 555 nm
  • Light source 2 520 nm
  • R light wavelength Light source 1: 610 nm
  • Light source 2 635 nm
  • each VR curve is as shown in FIG.
  • the R light (R1), G light (G1), and B light (B1) from the light source 1 are indicated by dashed lines
  • the R light (R2), G light (G2), and B light (B2) from the light source 2 are indicated by dashed lines. It is indicated by a solid line.
  • the relationship of voltage to tone (gamma table) is determined by adjustment.
  • the light amount distribution of the second light source light 106 differs for each image frame. If the light amount distribution of the second light source light 106 is not uniform in a certain frame, the light amount ratio of the first light source light 104 and the second light source light 106 differs for each pixel at the stage of the amplitude modulation element 5 .
  • the distribution of the second light source light 106 includes pixels where the light from the light source 2 is almost absent and pixels where the light is concentrated.
  • the VR curve of the amplitude modulation element 5 is almost equal to the VR curve when only the light source 1 is turned on.
  • the second light source light 106 the light from the light source 2 is extremely concentrated and the light amount of the pixel in the region where the light amount rises is a pixel where the light from the light source 2 is much larger than the light from the light source 1. .
  • the VR curve of that pixel is substantially equal to the VR curve when only the light source 2 is turned on.
  • the actual VR curve differs for each frame and for each pixel, and changes according to the ratio of the light from the light source 1 and the light from the light source 2 . Therefore, the VR curve is between the VR curve when only the light source 1 is lit and the VR curve when only the light source 2 is lit.
  • FIG. 8 shows a gamma curve C1 of a certain color of the amplitude modulation element 5 when only the light source 1 is lit, and a gamma curve C2 of a certain color of the amplitude modulation element 5 when only the light source 2 is lit. showing. Also, an intermediate gamma curve C3 is shown.
  • the white point at the highest gradation are the same for both the light source 1 and the light source 2, the white point does not change at the highest gradation regardless of the amount of light from the light source 2.
  • gradations below the maximum gradation color unevenness occurs depending on the amount of light from the light source 2 due to the above-described causes.
  • FIG. 9 A specific example of color unevenness is shown in FIG.
  • the first light source light 104 and the second light source light 106 are combined and incident on the amplitude modulation element 5 in which the reflectance of each pixel is controlled by the reflectance distribution 110 by the amplitude modulation drive signal Sd1. is shown.
  • the image in this case is an image in which the rectangle located in the center has high brightness and the surrounding area has low brightness.
  • the second light source light 106 is phase-modulated by the phase modulation element 3 so that the center of the rectangle has high brightness.
  • the second light source light 106 has a light amount distribution such that the edge of the central region is blurred.
  • the amplitude modulation drive signal is a signal that performs control such that the central reflectance is lower than the edge portion even in a high luminance area as shown in the figure.
  • the image of the projected image light 107 is an image in which the central rectangle has a high luminance.
  • the light amount ratio between the first light source light 104 and the second light source light 106 incident on each pixel is different in the central region of the rectangle. Therefore, color unevenness Z occurs as schematically shown in the figure.
  • FIG. 10 shows the difference in light amount distribution in detail. Each distribution is shown corresponding to the cross section AA of the projection image light 107 in the horizontal direction.
  • the first light source light 104 has an in-plane uniform light quantity distribution, and the light quantity distribution is flat even when viewed on the AA cross section.
  • the second light source light 106 is phase-modulated in accordance with an image, and has a light amount distribution of the AA cross section as shown in the drawing.
  • the total light amount distribution is the distribution of light incident on the amplitude modulation element 5, and is the sum of the first light source light 104 and the second light source light 106.
  • the amplitude modulation element 5 is controlled by the reflectance distribution 110 shown at the bottom, so that the light quantity distribution of the projected image light 107 is changed to the final light quantity distribution.
  • the light amount distribution corresponds to the image.
  • the second light source light 106 has a light intensity distribution that swells in the center, the light intensity ratio between the first light source light 104 and the second light source light 106 is different even in each pixel in the central region of the rectangle. . Therefore, color unevenness Z occurs.
  • FIG. 11 shows gamma curves C1 and C2 as in FIG.
  • a gamma curve C1 of the amplitude modulation element 5 when only the light source 1 is turned on and a gamma curve C1 of the amplitude modulation element 5 when only the light source 2 is turned on are measured in advance. From C2, a gamma curve Cm is calculated according to the light quantity ratio when both light sources 1 and 2 are lit.
  • This gamma curve Cm changes depending on the light amount ratio of the light source 1 and the light source 2 . That is, the higher the light amount ratio of the light source 1, the closer to the gamma curve C1, and the higher the light amount ratio of the light source 2, the closer to the gamma curve C2.
  • statically calculating a gamma curve and examples of dynamically calculating a gamma curve for each frame or pixel image.
  • the gamma curve is then used to obtain the required gradation from the desired reflectance.
  • the figure shows that the gradation differs depending on the gamma curve when a certain reflectance is assumed. It indicates that adjustment is made according to the gamma curve.
  • a liquid crystal panel or DMD can be used as the amplitude modulation element 5. Furthermore, some types of characteristics of the light source 1 and the light source 2 can be assumed. Therefore, here, the configuration of an apparatus to which the present technology is assumed to be applied and the types of color unevenness correction corresponding thereto will be described.
  • phase modulating element 3 ⁇ Whether to use a liquid crystal panel or a DMD as the phase modulation element 3 ⁇ Whether to use a liquid crystal panel or a DMD as the amplitude modulation element 5
  • the gamma curve and the white point are the same. It does not depend on the ratio of the light 104 and the second light source light 106, and there is no need for color unevenness correction. Further, since the DMD has no wavelength dependence, even though the wavelengths of the light sources 1 and 2 are different, the white points of the two light sources 1 and 2 are made to match, and the DMD is used as the amplitude modulation element 5, there is no need for color unevenness correction. do not have.
  • the image signal D is processed by the signal processing unit 10 shown in FIG. 1 is an example of signal processing executed for each frame of .
  • FIGS. 13, 14 and 16 "S1", “S2", . is shown as
  • FIGS. 13, 14, and 16 in order to avoid complication of the drawings, the three systems of R, G, and B are collectively shown without distinction, but each information (IM) and each process (S ) is done independently for each of R, G and B.
  • the signal processing unit 10 first acquires the target luminance/chromaticity distribution IM1.
  • This is information representing the in-plane luminance and chromaticity distribution of the image to be projected, that is, it corresponds to the data of one frame of the image signal D.
  • the signal processing unit 10 extracts luminance information from data of one frame as the video signal D as luminance extraction processing S1. Thus, information is obtained as the luminance distribution IM2.
  • the luminance distribution is information on the light quantity distribution to be realized by phase modulation or amplitude modulation.
  • the signal processing unit 10 performs first/second light amount separation processing S2 according to the luminance distribution (light amount distribution) IM2.
  • the luminance distribution (light amount distribution) IM2 As a result, as the light quantity IM5 from the light source 1, the light quantity having an in-plane uniform light quantity distribution is set. Further, as the light quantity distribution IM6 by the light source 2, a light quantity distribution IM6 that increases the light quantity in a partial area or decreases the light quantity in a partial area according to the content of the image is set.
  • the signal processing unit 10 performs phase calculation processing S5 based on the light amount distribution IM6 to obtain a phase distribution IM7. Based on this phase distribution IM7, the phase pattern signals PHr, PHg and PHb shown in FIG. 5 are generated and supplied to the phase modulating elements 3R, 3G and 3B.
  • the signal processing unit 10 performs reflectance calculation processing S3 regarding amplitude modulation. This is performed by dividing the target luminance/chromaticity distribution IM1 by the luminance distribution (light quantity distribution) IM2. Thereby, the reflectance distribution IM3 of each of R, G, and B is obtained.
  • the signal processing unit 10 performs liquid crystal drive voltage calculation processing S4 for each of R, G, and B.
  • This liquid crystal drive voltage is a voltage value applied to each pixel of the amplitude modulation elements 5R, 5G, and 5B of the liquid crystal panel as the amplitude modulation drive signal Sd1.
  • the liquid crystal driving voltages for each of R, G, and B are calculated using the reflectance distribution IM3 of each of R, G, and B and the gamma curve. For example, if the gamma curve C1 in FIG. 11 is set, the gradation of each pixel is derived from the reflectance of each pixel defined by the reflectance distribution IM3. A drive voltage is calculated.
  • a gamma curve Cm obtained from a typical light amount ratio between the first light source light 104 and the phase-modulated second light source light 106 is used.
  • the gamma curves C1 and C2 are calculated using the light amount ratio between the first light source light 104 and the second light source light 106 to calculate the gamma curve Cm. This is done for each of R, G, and B colors.
  • gamma curves Cm (respectively referred to as "CmR,””CmG,” and “CmB") calculated with typical light amount ratios are obtained for each of the amplitude modulation elements 5R, 5G, and 5B.
  • the signal processing unit 10 stores the gamma curves Cm corresponding to both light sources 1 and 2 as information IM4. Then, in the processing of each frame, the signal processing unit 10 uses gamma curves CmR, CmG, and CmB as information IM4 preset using these representative light amount ratios to calculate the liquid crystal driving voltage. S4 is performed.
  • the signal processing unit 10 uses the reflectance distribution IM3 of R light and the gamma curve CmR of the amplitude modulation element 5R for R light to obtain the liquid crystal driving voltage of each pixel of the amplitude modulation element 5R.
  • the signal processing unit 10 uses the reflectance distribution IM3 of G light and the gamma curve CmG of the amplitude modulation element 5G for G light to obtain the liquid crystal driving voltage of each pixel of the amplitude modulation element 5G.
  • the signal processing unit 10 obtains the liquid crystal driving voltage of each pixel of the amplitude modulation element 5B using the reflectance distribution IM3 of the B light and the gamma curve CmB of the amplitude modulation element 5B for the B light.
  • liquid crystal driving voltage distributions IM8 for each of R, G, and B are obtained.
  • An amplitude modulation drive signal Sd1 corresponding to this voltage distribution is supplied to the amplitude modulation elements 5R, 5G and 5B.
  • the gamma curves CmR, CmG, and CmB of the amplitude modulation elements 5R, 5G, and 5B, respectively, correspond to a certain representative ratio of the first light source light 104 and the second light source light 106. It is a gamma curve when adding together. Since the gamma curves CmR, CmG, and CmB are static, color unevenness can be eliminated when the first light source light 104 and the second light source light 106 are incident at a ratio determined as a representative ratio. However, color unevenness occurs at other ratios. However, compared to the case of using the gamma curve C1 corresponding to the light source 1 and the gamma curve C2 corresponding to the light source 2, color unevenness can be reduced.
  • This first embodiment is effective when two light sources with different wavelengths for each color of R, G, and B are used, and is also effective when the phase modulating element 3 is not used.
  • the configuration is such that light from two light sources is incident on the amplitude modulation element 5 .
  • neither light source 1 nor 2 causes a distribution of light intensity in a partial area in the plane, and the ratio of light intensity from each light source in the plane becomes equal in each frame (time). Therefore, if the amplitude modulation drive signal Sd1 is calculated using a gamma curve corresponding to the light amount ratio of the two light sources incident on the amplitude modulation element 5, color unevenness can be prevented from occurring.
  • phase modulation element 3 if the light amount ratio from each light source differs from frame to frame, color differences will occur between frames. Even in such a case, color unevenness can be reduced by calculating the amplitude-modulated drive signal Sd1 using a gamma curve corresponding to the ratio of typical light amounts of the two light sources.
  • FIG. 14 shows an example of signal processing according to the second embodiment. This is an example of dynamically correcting color unevenness when the wavelengths of the primary color lights of the light sources 1 and 2 are different and the amplitude modulation element 5 uses a liquid crystal panel.
  • the signal processing unit 10 acquires the target luminance and chromaticity distribution IM1 as the data of the video signal D for each frame. Then, the signal processing unit 10 extracts luminance information from the data of one frame as the video signal D as luminance extraction processing S1. Information as a luminance distribution (light amount distribution) IM2 is thereby obtained.
  • the signal processing unit 10 performs first/second light amount separation processing S2 according to the luminance distribution (light amount distribution) IM2.
  • the luminance distribution (light amount distribution) IM2 As a result, as the light quantity IM5 from the light source 1, the light quantity having an in-plane uniform light quantity distribution is set. Further, as the light quantity distribution IM6 by the light source 2, a light quantity distribution IM6 that increases the light quantity in a partial area or decreases the light quantity in a partial area according to the content of the image is set.
  • the signal processing unit 10 performs phase calculation processing S5 based on the light amount distribution IM6 to obtain a phase distribution IM7. Based on this phase distribution IM7, phase pattern signals PHr, PHg, PHb shown in FIG. 5 are generated and supplied to phase modulating elements 3R, 3G, 3B.
  • the signal processing unit 10 performs light amount ratio calculation processing S10 between the first light source light 104 and the second light source light 106 regarding amplitude modulation. That is, from the light quantity IM5 of the light source 1 and the light quantity distribution IM6 of the light source 2, the ratio between the first light source light 104 and the second light source light 106 in each region within the plane is calculated. As a result, the light amount ratio distribution IM12 between the first light source light 104 and the second light source light 106 in the current frame is obtained.
  • the signal processing unit 10 uses information IM10 on the gamma curve C1 for the light source 1, information IM11 on the gamma curve C2 for the light source 2, and light intensity ratio distribution IM12 to perform calculation processing for calculating the gamma curve Cm in the current frame. S11 is performed. Then, the in-plane gamma curve distribution IM13 corresponding to the calculation result is obtained, and the liquid crystal drive voltage calculation process S12 is performed using the gamma curve distribution IM13.
  • processing example a Obtain a gamma curve Cm to be applied to all pixels within the screen in the current frame.
  • processing example b A gamma curve Cm to be applied to each in-plane block in the current frame is obtained.
  • processing example c Obtain a gamma curve Cm to be applied to each pixel in the plane in the current frame.
  • FIG. 15A shows the entire in-plane area forming one frame of video.
  • a gamma curve Cm to be applied to all pixels in this plane is calculated.
  • a typical light intensity ratio is obtained from the light intensity ratio distribution IM12 of the current frame.
  • a gamma curve Cm reflecting each ratio of the gamma curve C1 for the light source 1 and the gamma curve C2 for the light source 2 is calculated.
  • the signal processing unit 10 calculates the gamma curves CmR, CmG, Calculate CmB. That is, the signal processing unit 10 amplitude-modulates the current frame using the R light intensity ratio distribution IM12 in the current frame and the gamma curves C1 and C2 corresponding to the light sources 1 and 2 of the amplitude modulation element 5R. A gamma curve CmR applied to the element 5R is obtained. Similarly, the signal processing unit 10 uses the light amount ratio distribution IM12 of the G light in the current frame and the gamma curves C1 and C2 corresponding to the light source 1 and the light source 2 for the amplitude modulation element 5G to determine the amplitude of the current frame.
  • a gamma curve CmG to be applied to the modulation element 5G is obtained. Further, the signal processing unit 10 amplitude-modulates the current frame using the B-light light amount ratio distribution IM12 in the current frame and the gamma curves C1 and C2 corresponding to the light source 1 and the light source 2 for the amplitude modulation element 5B. A gamma curve CmB to be applied to the element 5B is obtained.
  • the gamma curves CmR, CmG, and CmB to be applied to the current frame are obtained.
  • the gamma curve distribution IM13 is uniform within the plane.
  • the signal processing unit 10 performs the liquid crystal driving voltage calculation processing S12, the reflectance distribution IM3 of each of R, G, and B obtained by dividing the target luminance chromaticity distribution IM1 and the luminance distribution (light quantity distribution) IM2, and the gamma curve CmR. , CmG and CmB, the liquid crystal driving voltage of each pixel of the amplitude modulation elements 5R, 5G and 5B is obtained.
  • the liquid crystal drive voltage distribution IM8 for each of R, G, and B is obtained, and the amplitude modulation drive signal Sd1 corresponding to this voltage distribution is supplied to the amplitude modulation elements 5R, 5G, and 5B.
  • the gamma curve Cm is dynamically obtained from the ratio of the first light source light 104 and the second light source light 106 in that frame, and the amplitude modulation drive signal Sd1 is obtained. Therefore, the effect of reducing color unevenness can be made higher than in the first embodiment.
  • FIG. 15B shows an example in which the plane forming one frame of video is divided into several blocks BK.
  • One block is an area composed of a plurality of pixels.
  • an example in which the plane of one frame is divided into eight blocks BK is taken as an example, but the number of blocks BK into which the plane is divided, the number of pixels forming the blocks BK, and the shapes of the blocks BK are various.
  • the signal processing unit 10 obtains a typical light intensity ratio for each block BK from the light intensity ratio distribution IM12 of the current frame. Then, for each block BK, a gamma curve Cm reflecting each ratio of the gamma curve C1 for the light source 1 and the gamma curve C2 for the light source 2 is calculated using the representative light amount ratio.
  • the signal processing unit 10 performs the light amount ratio distribution IM12 for each block BK of the R light in the current frame, and the gamma curve C1 corresponding to the light source 1 and the light source 2 for the amplitude modulation element 5R. , C2, the gamma curve CmR to be applied to each block BK of the amplitude modulation element 5R for the current frame is obtained.
  • the gamma curve CmR (BK1) for the first block BK the gamma curve CmR (BK2) for the second block BK, . .
  • "m" is the number of blocks.
  • gamma curves CmG to be applied to each block BK that is, gamma curves CmG(BK1), CmG(BK2), .
  • gamma curves CmB to be applied to each block BK that is, gamma curves CmB(BK1), CmB(BK2), .
  • a gamma curve distribution IM13 having a different gamma curve for each block BK is obtained.
  • the signal processing unit 10 performs calculation processing S12 using the reflectance distribution IM3 of each of R, G, and B, and the gamma curves CmR, CmG, and CmB for each block BK, and calculates each pixel of the amplitude modulation elements 5R, 5G, and 5B. to find the liquid crystal drive voltage of .
  • the liquid crystal drive voltage distribution IM8 for each of R, G, and B is obtained, and the amplitude modulation drive signal Sd1 corresponding to this voltage distribution is supplied to the amplitude modulation elements 5R, 5G, and 5B.
  • the gamma curve Cm is dynamically obtained from the ratio between the first light source light 104 and the second light source light 106 for each frame and for each block BK in the frame, and amplitude modulation driving is performed.
  • Obtaining the signal Sd1 can further enhance the effect of reducing color unevenness.
  • FIG. 15C shows each pixel PX in a plane that forms an image of one frame.
  • One grid cell represents one pixel. It should be noted that the drawing is schematic, and the number of pixels does not correspond to the actual number.
  • the signal processing unit 10 uses the light amount ratio shown for each pixel PX in the light amount ratio distribution IM12 of the current frame to obtain the gamma curve C1 for the light source 1 and the gamma curve C2 for the light source 2.
  • a gamma curve Cm reflecting the ratio is calculated.
  • the amplitude of the current frame is A gamma curve CmR to be applied to each pixel PX of the modulation element 5R is obtained.
  • n is the number of pixels.
  • gamma curves CmG to be applied to each pixel PX that is, gamma curves CmG(PX1), CmG(PX2), .
  • gamma curves CmB to be applied to each pixel PX that is, in this case, gamma curves CmB(PX1), CmB(PX2), .
  • a gamma curve distribution IM13 having a different gamma curve for each pixel PX is obtained.
  • the signal processing unit 10 performs calculation processing S12 using the reflectance distribution IM3 of each of R, G, and B, and the gamma curves CmR, CmG, and CmB for each pixel PX, and performs each pixel of the amplitude modulation elements 5R, 5G, and 5B. to find the liquid crystal drive voltage of .
  • the liquid crystal drive voltage distribution IM8 for each of R, G, and B is obtained, and the amplitude modulation drive signal Sd1 corresponding to this voltage distribution is supplied to the amplitude modulation elements 5R, 5G, and 5B.
  • the gamma curve Cm corresponding to the ratio between the first light source light 104 and the second light source light 106 is obtained for each frame and for each pixel PX, and the amplitude modulation drive signal Sd1 is generated. Color unevenness can be eliminated by demand.
  • the signal processing unit 10 uses the gamma curve C1 and white balance information IM20 for the light source 1, the gamma curve C2 and white balance information IM21 for the light source 2, and the light amount ratio distribution IM12 to obtain the current Calculation processing S20 is performed to calculate the gamma curve Cm in the frame of . Therefore, the gamma curves CmR, CmG, and CmB to be obtained assume differences in the light amount ratio and the white balance.
  • the signal processing unit 10 obtains the in-plane gamma curve distribution IM13 according to the calculation result of the calculation process S20, and uses the gamma curve distribution IM13 to perform the liquid crystal drive voltage calculation process S12. Otherwise, it is the same as in FIG. Also in this case, processing corresponding to each of (processing example a), (processing example b), and (processing example c) described with reference to FIG. 14 can be considered.
  • the projector device includes a light source 1 (first light source) that outputs first light source light 104 and a light source 2 ( second light source).
  • first light source first light source
  • second light source second light source
  • both the first light source light 104 and the second light source light 106 are incident on the projector apparatus, and the amplitude modulation element 5 performs amplitude modulation on the incident light.
  • a signal processing unit 10 is provided for generating a gamma curve Cm corresponding to the ratio of the first light source light 104 and the second light source light 106 incident on the light source.
  • both the gamma curve C1 of the amplitude modulation element 5 assuming the light source 1 and the gamma curve C2 of the amplitude modulation element 5 assuming the light source 2 have appropriate scales. It is not a gamma curve for obtaining projection image light of high contrast, and color unevenness occurs.
  • a gamma curve corresponding to the ratio of the first light source light 104 and the second light source light 106 is calculated, and an amplitude modulation drive signal is generated based on it. This makes it possible to generate an amplitude modulation drive signal based on a more appropriate gamma curve, and reduce or eliminate color unevenness.
  • a configuration that does not include the projection lens 9 can be considered as a light source device. Therefore, the present technology can also be applied to a light source device that is not configured as a projector device.
  • the phase modulation element 3 that converts the light amount distribution of the light from the light source 2
  • the amplitude modulation element 5 receives the first light source light 104 and the second light source light that has passed through the phase modulation element 3.
  • 106 are assumed to be incident together.
  • the first light source light 104 and the second light source light 106 incident on the amplitude modulation element 5 have different wavelengths of R light, G light, and B light. The distribution is no longer uniform. Therefore, the light amount ratio between the first light source light 104 and the second light source light 106 incident on the amplitude modulation element varies depending on the frame and the in-plane region.
  • the amplitude modulation drive signal Sd1 described in the embodiment is a signal for controlling the amount of light of each pixel of the amplitude modulation element 5 according to the video signal D, and amplitude modulation according to the gradation value of each pixel in the video signal D is performed. It is assumed that the control value for each pixel of the element 5 is generated based on the gamma curve Cm corresponding to the ratio of the first light source light 104 and the second light source light 106 .
  • the reflectance or transmittance of the amplitude modulation element 5 is controlled by the amplitude modulation driving signal Sd1 corresponding to the video signal D, and the amount of light is controlled.
  • control value of each pixel for example, the drive voltage value of the liquid crystal panel
  • the control value of each pixel is set based on the gamma curve Cm corresponding to the ratio of the first light source light 104 and the phase-modulated second light source light 106. , suitable amplitude modulation is performed on the combined light, and color shading can be reduced or eliminated.
  • the signal processing unit 10 generates a gamma curve Cm corresponding to the ratio of the first light source light 104 and the second light source light 106 incident on the amplitude modulation element 5 for each frame of the video signal D.
  • a suitable gamma curve Cm is calculated for each frame, and By generating the amplitude modulation drive signal Sd1 using the gamma curve Cm, it is possible to improve the effect of reducing color unevenness.
  • the signal processing unit 10 performs gamma calculation according to the ratio of the incident first light source light 104 and second light source light 106 for each pixel block BK obtained by dividing the plane of the amplitude modulation element 5 .
  • An example of obtaining the curve Cm and generating the amplitude-modulated drive signal Sd1 has been described (processing example b).
  • the light amount distribution by the phase modulation element 3 changes. Therefore, the light amount ratio between the first light source light 104 and the second light source light 106 is different within the plane of the amplitude modulation element 5 .
  • the signal processing unit 10 obtains the gamma curve Cm according to the ratio of the incident first light source light 104 and the second light source light 106 for each pixel PX of the amplitude modulation element 5,
  • An example of generating the amplitude-modulated drive signal Sd1 has been described (processing example c).
  • the light amount distribution by the phase modulation element 3 changes for each pixel PX, so the light amount ratio between the first light source light 104 and the second light source light 106 in the plane of the amplitude modulation element 5 is different.
  • a gamma curve Cm corresponding to the ratio of the first light source light 104 and the second light source light 106 incident on the amplitude modulation element 5 is calculated for each pixel PX of the amplitude modulation element 5.
  • the gamma curve Cm is used to generate the amplitude modulation drive signal Sd1.
  • amplitude modulation driving is performed in accordance with the light amount ratio of each pixel within the plane, and color unevenness can be effectively reduced.
  • the signal processing unit 10 obtains the gamma curve Cm corresponding to the representative value of the ratio of the first light source light 104 and the second light source light 106 incident on the amplitude modulation element 5, and performs amplitude modulation. It is assumed that the drive signal Sd1 is generated. By generating the amplitude modulation drive signal Sd1 using the gamma curve Cm corresponding to the representative ratio of the first light source light 104 and the second light source light 106, it is possible to obtain the effect of reducing color unevenness. This is a static color non-uniformity reduction technique when the wavelengths and white balances of the primary colors of the light sources 1 and 2 are different, and can reduce the color non-uniformity with a relatively small processing load.
  • the signal processing unit 10 generates the amplitude modulation drive signal Sd1 for correcting the difference in white balance between the light sources 1 and 2.
  • the white balance difference between the light sources 1 and 2 in the calculation of the gamma curve Cm, it is possible to obtain the effect of reducing color unevenness caused by the white balance difference.
  • the phase modulation element 3 converts incident light into emitted light having different light ray densities for each in-plane region according to phase pattern signals PHr, PHg, and PHb generated based on the video signal D. and By interposing such a phase modulating element 3, it becomes possible to obtain the projected image light 107 having a light intensity distribution including partial increase and decrease of the light intensity according to the image signal D, and an image with a wide dynamic range. projection can be realized.
  • the amplitude modulation element 5 is assumed to be configured by a liquid crystal panel or DMD.
  • a gamma curve Cm corresponding to the ratio of the first light source light 104 and the second light source light 106 is calculated in accordance with the characteristics of the liquid crystal panel and the DMD, and the amplitude modulation drive signal Sd1 is generated based on the calculated gamma curve Cm. It is possible to reduce color unevenness corresponding to 5 device types.
  • the wavelengths of the red light from the light source 1 and the red light from the light source 2, the green light from the light source 1 and the green light from the light source 2, and the blue light from the light source 1 and the blue light from the light source 2 are different.
  • Color unevenness is caused by the fact that the wavelengths of the R light, the G light, and the B light differ from each other for the light sources 1 and 2 .
  • generating the amplitude-modulated drive signal Sd1 based on a gamma curve corresponding to the light amount ratio is particularly effective in improving image quality by reducing color unevenness.
  • the wavelengths of part of the R light from the first light source and the R light, G light, and B light from the second light source are different between the first light source and the second light source. techniques can be applied.
  • one of the light source 1 and the light source 2 is assumed to be a laser light source, and the other is configured by another light source device.
  • a laser light source for one of the light sources 1 and 2 and another light source device such as a phosphor light source for the other, it is possible to increase the brightness of the projected image at a relatively low cost.
  • color unevenness occurs due to the difference in wavelength of the primary color light, but the color unevenness can be reduced or eliminated by the technique described in the embodiment.
  • the configuration for projecting a color image with R, G, and B is taken as an example, but the present technology is also effective when using other combinations of primary color lights. It can also be applied to a projector device or a light source device that projects a monochrome image.
  • the present technology can also adopt the following configuration.
  • the amplitude modulation drive signal is a signal for controlling the amount of light of each pixel of the amplitude modulation element according to a video signal;
  • a control value for each pixel of the amplitude modulation element corresponding to the gradation value of each pixel in the video signal is generated based on a gamma curve corresponding to the ratio of the first light source light and the second light source light.
  • the signal processing unit is Obtaining a gamma curve according to the ratio of the first light source light and the second light source light incident on the amplitude modulation element for each frame of the video signal to generate the amplitude modulation drive signal From (1) above (3)
  • the projector device according to any one of (3).
  • the signal processing unit is For each pixel block obtained by dividing the plane of the amplitude modulation element, a gamma curve corresponding to the ratio of the incident first light source light and the second light source light is obtained, and the amplitude modulation drive signal is generated.
  • the projector device according to any one of 1) to (4).
  • the signal processing unit is Obtaining a gamma curve corresponding to a ratio of incident first light source light and second light source light for each pixel of the amplitude modulation element to generate the amplitude modulation drive signal (1) to (4) above
  • the projector device according to any one of 1.
  • the signal processing unit is Obtaining a gamma curve corresponding to a representative value of a ratio of the first light source light and the second light source light incident on the amplitude modulation element to generate the amplitude modulation drive signal.
  • the projector device according to any one of the above.
  • the signal processing unit is The projector apparatus according to any one of (1) to (7) above, wherein the amplitude modulation drive signal is generated to correct a difference in white balance between the first light source and the second light source.
  • the phase modulation element is The projector device according to (2) above, wherein the incident light is converted into the emitted light with different light ray densities for each in-plane area according to the phase pattern generated based on the video signal.
  • a first light source that outputs first light source light
  • a second light source that outputs second light source light having a wavelength of the primary color light different from the wavelength of the primary color light of the first light source
  • an amplitude modulation element that receives both the first light source light and the second light source light and performs amplitude modulation on the incident light
  • a signal processing unit that generates an amplitude modulation drive signal for the amplitude modulation element based on a gamma curve corresponding to a ratio between the first light source light and the second light source light incident on the amplitude modulation element.
  • a first light source that outputs first light source light
  • a second light source that outputs second light source light having a wavelength of the primary color light different from the wavelength of the primary color light of the first light source
  • an amplitude modulation element that receives both the first light source light and the second light source light and performs amplitude modulation on the incident light
  • the amplitude modulation element is driven by an amplitude modulation drive signal generated based on a gamma curve corresponding to a ratio of the first light source light and the second light source light incident on the amplitude modulation element.
  • first light source 2 light source (second light source) 3, 3R, 3G, 3B Phase modulation element 4 Combined optical system 5, 5R, 5G, 5B Amplitude modulation element 6 Second illumination optical system 7 Relay optical system 8 First illumination optical system 9 Projection lens 10 Signal processing unit 11 Image Production signal processor 12 Phase pattern generator 104 First light source light 105, 106 Second light source light 107 Projection image light 110 Reflectance distribution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

プロジェクター装置又は光源装置は、第1光源光を出力する第1光源と、原色光の波長が第1光源の原色光の波長と異なる第2光源光を出力する第2光源と、第2光源光の光量分布を変換する位相変調素子と、第1光源光と位相変調素子を経た第2光源光が共に入射され入射光について振幅変調を行う振幅変調素子と、信号処理部を備える。信号処理部は、振幅変調素子に対する振幅変調駆動信号を、振幅変調素子に入射される第1光源光と第2光源光の比率に応じたガンマカーブに基づいて生成する。

Description

プロジェクター装置、光源装置、光源駆動方法
 本技術はプロジェクター装置、プロジェクター装置などに備えられる光源装置、及び光源駆動方法に関する。
 液晶素子やDMD(Digital Micromirror Device)等の空間光変調器(Spatial Light Modulator:SLM)を用いて入射光に対する振幅変調(空間光強度変調)を行って所望の光強度分布の像を再生する技術が知られている。
 そのような技術分野において、下記特許文献1では、2台のプロジェクターをスタック投影する際に発生する色ムラを低減する技術が開示されている。
特開2005-352171号公報
 ところで、入射光に対する空間光位相変調(本開示では単に「位相変調」という)を行うことで所望の再生像を投影する技術も知られている。振幅変調を行う場合、所望の光強度分布を再生するにあたって入射光の一部が減光又は遮光されるものとなるが、位相変調の場合には減光や遮光を行わずに所望の光強度分布を再生可能である。
 本開示では、複数の光源を用い位相変調と振幅変調を併用するプロジェクター装置を考える場合において、色むらの発生を低減できるようにすることを目的とする。
 本技術に係るプロジェクター装置は、第1光源光を出力する第1光源と、原色光の波長が前記第1光源の原色光の波長と異なる第2光源光を出力する第2光源と、前記第1光源光と前記第2光源光が共に入射され、入射光について振幅変調を行う振幅変調素子と、前記振幅変調素子に対する振幅変調駆動信号を、前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブに基づいて生成する信号処理部とを備える。
 本技術に係る光源装置も同様の構成を備える。
 例えば光源自体の違いなどにより第1光源によるR光、G光、B光の波長が、第2光源のR光、G光、B光の波長と異なる場合を想定する。例えば第1光源によるR光と第2光源によるR光の波長が異なる。G光、B光の波長も第1光源と第2光源で互いに異なる。R光、G光、B光の一部の波長が第1光源と第2光源で互いに異なる場合も想定される。
 これらの場合、振幅変調素子において第1光源に対応する固定のガンマカーブ、或いは第2光源に対応する固定のガンマカーブに沿った階調を想定して振幅変調駆動信号を生成すると、本来想定する階調の振幅変調ができず、色むらが発生する。
 そこで第1光源光と第2光源光の比率に対応したガンマカーブを計算し、それに基づいて振幅変調駆動信号を生成する。
振幅変調素子を用いたプロジェクター構成の説明図である。 位相変調素子と振幅変調素子を用いたプロジェクター構成の説明図である。 位相変調素子の動作の説明図である。 実施の形態のプロジェクター装置の要部構成の説明図である。 実施の形態のプロジェクター装置の詳細構成の説明図である。 実施の形態の各部の光量分布の説明図である。 実施の形態の各光源の原色光の波長の説明図である。 色むら発生原理の説明図である。 色むらの例の説明図である。 色むらの例の説明図である。 実施の形態の色むら低減手法の説明図である。 実施の形態の色むら発生の対応の説明図である。 第1の実施の形態の信号処理の説明図である。 第2の実施の形態の信号処理の説明図である。 実施の形態でガンマカーブ計算を行う面内領域の説明図である。 第3の実施の形態の信号処理の説明図である。
 以下、実施の形態を次の順序で説明する。
<1.プロジェクター装置における振幅変調と位相変調>
<2.実施の形態のプロジェクター装置の構成>
<3.色むらの発生及び対応>
<4.第1の実施の形態の信号処理>
<5.第2の実施の形態の信号処理>
<6.第3の実施の形態の信号処理>
<7.まとめ及び変形例>
<1.プロジェクター装置における振幅変調と位相変調>
 実施の形態の理解のために、まずプロジェクター装置における振幅変調と位相変調について説明する。
 図1は振幅変調素子5を用いたプロジェクター(又は光源装置)の構成を簡易的に示している。
 光源111からの照明光100が図示しない光学系を経て振幅変調素子5に入射される。照明光100は模式的に示すように面内領域において一様な明るさ分布を持つ光であり、これが光学系により時間的または空間的にR光(赤色光)、G光(緑色光)、B光(青色光)に分割されて振幅変調素子5に入射される。振幅変調素子5では、入射光を画素毎に光強度変調することで投影映像としての像を形成する光を出射する。
 説明上の区別のため、この方式のプロジェクターを振幅変調型プロジェクターと呼ぶことにする。
 図2は位相変調素子3と振幅変調素子5を用いたプロジェクター(又は光源装置)の構成を簡易的に示している。
 光源112からの照明光101は、模式的に示すように面内領域において一様な明るさ分布を持つ光である。この照明光101は位相変調素子3において位相変調駆動信号Sd2に応じて位相変調される。即ち光の回折または屈折の原理を使用して任意の分布を持つ照明光102が生成される。例えば面内の領域で一部について光量が突き上がるような光量分布を得ることもできる。
 図3では、位相変調素子3の位相変調面Smに入射する照明光101の各光線と、位相変調素子3における位相分布の波面と、位相変調後の各光線と、位相変調後の各光線によって仮想的な投影面Sp上に形成される光強度分布との関係を模式的に示している。
 位相変調素子3において位相変調駆動信号Sd2に応じた位相分布の波面は、例えば図示のように滑らかな曲線を描く。位相変調素子3での空間光位相変調によって、入射した各光線は、位相分布の波面の法線方向に進行するように屈折される。この屈折により、投影面Sp上では、光線密度が高まる部分と光線密度が疎となる部分とが形成され、これにより、投影面Sp上に光強度分布が形成される。
 図2の位相変調素子3でこのように位相変調された照明光102は、振幅変調素子5に入射され、図1の場合と同様に、映像信号に基づく振幅変調駆動信号Sd1に応じて振幅変調されることで、投射映像の像を形成する光が出射される。
 説明上の区別のため、この図2の方式のプロジェクターを位相/振幅変調型プロジェクターと呼ぶことにする。
 図1のような振幅変調型プロジェクターの場合は、振幅変調素子5にて不要な光を捨てることになるが、図2のような位相/振幅変調型プロジェクターの場合は、入力される映像信号に対応した光量分布を位相変調素子3にて生成することで、後段の振幅変調素子5で捨てる光量を少なくすることが可能である。このためエネルギー効率を高めることができる。
 さらに位相/振幅変調型プロジェクターでは、面内で暗い領域から明るい領域へ光を集めることによって光量の突き上げが可能となるので、投射映像のダイナミックレンジを拡大することができる。
<2.実施の形態のプロジェクター装置の構成>
 以上の図1、図2の構成を踏まえて実施の形態のプロジェクター装置(又は光源装置)の構成を説明する。実施の形態のプロジェクター装置は、図1の振幅変調型プロジェクターと図2の位相/振幅変調型プロジェクターを組み合わせたハイブリッド型プロジェクターと呼ぶことができる。
 実施の形態のハイブリッド型プロジェクター(又は光源装置)としての構成の概略を図4に示す。
 図示のように実施の形態のハイブリッド型プロジェクターは第1光源1(以下「光源1」と表記)と第2光源2(以下「光源2」と表記)を有する。
 光源1は図1の振幅変調型プロジェクターの構成における光源111に対応する光源であり、例えば蛍光体光源が用いられる。光源1からの照明光を第1光源光104と呼ぶこととする。
 光源2は図2の位相/振幅変調型プロジェクターの構成における光源112に対応する光源であり、例えばレーザ光源が用いられる。光源2からの照明光を位相変調素子3の前後で区別して、第2光源光105又は第2光源光106と呼ぶこととする。
 なお光源1,2は、蛍光体光源やレーザ発光素子に限定されるものではなく、例えばLED(Light Emitting Diode)などの他の発光素子を用いることもできる。
 光源1からの第1光源光104は、合波光学系4を介して振幅変調素子5に入射する。振幅変調素子5は反射型や透過型の液晶パネルやDMD(振幅変調を行うDMD)により形成される。
 一方、光源2からの第2光源光105は、位相変調素子3に入射する。この位相変調素子3は、反射型または透過型の液晶パネルや、DMDで構成される。但しこの場合のDMDとは、各画素が傾いて光を曲げる一般的なDMDではなく、各画素が法線方向にシフトして光の位相量を変える位相変調DMDである。
 そして位相変調素子3では、図3で述べたように光の回折または屈折の原理を使用して任意の分布を持つように入射光を位相変調して出力する。従って位相変調素子3から出射される第2光源光106とは、第2光源光105が位相変調された光である。
 第2光源光106は合波光学系4を介して振幅変調素子5に入射する。
 従って振幅変調素子5には第1光源光104と第2光源光106が合波されて入射することになる。
 振幅変調素子5では、映像信号に基づく振幅変調駆動信号Sd1によって各画素の光強度変調を行い、投影映像光107を出射する。これにより図示しないスクリーン面に映像信号に基づく投影映像が表示される。
 この図4に示すように、実施の形態のハイブリッド型プロジェクターでは、光源1及び振幅変調素子5による振幅変調型プロジェクターの構成と、光源2、位相変調素子3、及び振幅変調素子5による位相/振幅変調型プロジェクターの構成を併せ持つことになる。
 そして位相変調素子3に供給する位相変調駆動信号Sd2と、振幅変調素子5に供給する振幅変調駆動信号Sd1を生成する信号処理部10を備える。
 信号処理部10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有するマイクロコンピュータを備えて構成することができる。
 信号処理部10は、入力される映像信号Dに基づいて、位相変調素子3の位相分布を計算する。そして信号処理部10は、計算した位相分布に従って位相変調駆動信号Sd2を位相変調素子3に供給し、位相変調動作を制御する。具体的には映像信号Dによって投影される映像面における、輝度の低い領域の光密度を低く、輝度の高い領域の光密度を高くするような位相変調が行われるようにする。
 なお映像信号Dは、例えばR信号Dr、G信号Dg、B信号DbのRGB信号である。
 また信号処理部10は、入力される映像信号Dに基づいて、振幅変調素子5の各画素の振幅変調を制御する振幅変調駆動信号Sd1を生成し、振幅変調素子5に供給する。これにより振幅変調素子5は、画素毎に映像信号で指定される輝度に応じた振幅変調が行われ、映像信号Dに応じた投影映像光107が生成される。
 以上の図4は,図1,図2との対比のために簡略化したが、実施の形態のプロジェクターのより詳細な構成を図5に示す。
 例えば蛍光体光源としての光源1と第1照明光学系8が形成される。
 光源1からの光は白色光であり、第1照明光学系8でR光、G光、B光に分光されて合波光学系4に導かれる。
 また例えばレーザ光源により光源2と第2照明光学系6が形成される。
 光源2からの光は白色光であり、第2照明光学系6でR光、G光、B光に分光されて、位相変調素子3に導かれる。
 位相変調素子3にはR光に対応する位相変調素子3R、G光に対応する位相変調素子3G、B光に対応する位相変調素子3Bが設けられている。第2照明光学系6からのR光は位相変調素子3Rで位相変調され、G光は位相変調素子3Gで位相変調され、B光は位相変調素子3Bで位相変調される。
 この位相変調されたR光、G光、B光が、上述の第2光源光106に相当し、合波光学系4に入射する。
 合波光学系4では、第1光源光104と第2光源光106の各R光、各G光、各B光を合波し、それぞれ振幅変調素子5に導く。
 振幅変調素子5は、R光に対応する振幅変調素子5R、G光に対応する振幅変調素子5G、B光に対応する振幅変調素子5Bが設けられている。合波されたR光は振幅変調素子5Rで振幅変調され、合波されたG光は振幅変調素子5Gで振幅変調され、合波されたB光は振幅変調素子5Bで振幅変調される。
 そして振幅変調されたR光、G光、B光が合成されて投影映像光107とされて、投射レンズ9により映像投影されることになる。
 この図5において、破線で示した画づくり信号処理部11、位相パターン生成部12は、図4に示した信号処理部10においてソフトウェアにより実現される処理機能である。
 画づくり信号処理部11は、入力される映像信号D(Dr,Dg,Db)に基づいて、振幅変調素子5R、5G、5Bのそれぞれに対する振幅変調駆動信号Sd1を生成する。
 また画づくり信号処理部11は入力される映像信号D(Dr,Dg,Db)に基づいて、位相変調素子3R、3G、3Bにおいて実現させる位相分布を生成する。
 位相パターン生成部12は、映像信号Dr,Dg,Dbに基づく位相分布から、実際に位相変調素子3R、3G、3Bのそれぞれで位相変調を実行させるための位相パターン信号PHr、PHg、PHbを生成し、これらを位相変調駆動信号Sd2として位相変調素子3R、3G、3Bに出力する。
 なお、画づくり信号処理部11及び位相パターン生成部12を備える信号処理部10の具体的な処理例については、第1、第2、第3の実施の形態の信号処理として後述する。
 以上の図5の構成により、R光、G光、B光の各原色光を用いたハイブリッド型プロジェクターが実現される。
<3.色むらの発生及び対応>
 ここで以上のようなハイブリッド型プロジェクターにおける色むらについて説明する。
 一例として、入力される映像信号Dが、グレイスケールのグラデーション映像の信号であった場合を考える。
 図6A、図6Bは、第1光源光104と、位相変調後の第2光源光106が振幅変調素子5に入射することを示している。
 なお、以降実施の形態では、振幅変調素子5として反射型液晶パネルやDMDを用いることを前提に、振幅変調素子5では反射率を制御する例で説明していくが、以降の反射率に関する説明部分は、透過型液晶パネルを用いた場合には透過率と言い換えることができる。
 図4のようなハイブリッド型プロジェクターの場合、基本的には、図6Bに示すように位相変調素子3を経た第2光源光106でグラデーションに対応した光量分布を生成し、振幅変調素子5では透過率または反射率を最大に設定して光を捨てないことが望ましい。
 振幅変調素子5で反射率を最大に設定するというのは、振幅変調駆動信号Sd1によって制御される振幅変調素子5の反射率分布110を図示のように面内一様に最大値にすることである。これにより投影映像光107は、図のようにグラデーションを投影する光となる。
 一方、図6Aに示すように第2光源光106では一様な光量分布とし、振幅変調素子5にてグラデーション状の反射率分布を生成することも考えられる。
 位相変調素子3の特性から第2光源光106において振幅変調素子5の画素と同程度の高い空間分解能を持つ光量分布を生成することは難しい。一方で振幅変調素子5の場合は画素毎に入射光を変調することができる。
 例えば図6Cに示すように暗い背景130の中に明るい領域131(低い空間周波数)があり、その中にグラデーション状の狭い領域132(高い空間周波数)を持つ場合を考える。この場合、暗い背景130の中の明るい領域131は第2光源光106の光量にて実現し、その中の狭い領域132は振幅変調素子5にて実現することができる。
 このような場合の狭い領域132を例としてハイブリッド型プロジェクターにおける色むらとその対応を考えるため、簡単のため画面全体がグラデーション、かつそれを振幅変調素子の反射率で実現する図6Aの場合を以降の説明に用いる。
 上述の図4,図5の構成のハイブリッド型プロジェクターにおいて、仮に光源1と光源2によるR光、G光、B光の各色の波長や、光源1と光源2の白色点が同一である場合、第1光源光104と位相変調後の第2光源光106が足し合わされても、面内領域内の白色点は変わらない。従って、振幅変調素子5にて各画素のRGB各色の反射率が同一であれば最終的に生成される画像の白色点も変わらず、色ムラは発生しない。
 なお本開示においてR光、G光、B光のような原色光の「波長」とは、1つの色について或る波長幅を持っている光源の場合は、最も支配的な波長である主波長の意味である。
 一方、光源1と光源2によるR光、G光、B光の各色の波長が異なり、かつ振幅変調素子として液晶を用いる場合、白色点が同じ場合でも色ムラが発生する。
 これは同じ色でも波長が異なれば液晶の電圧に対する反射率の特性(以降VRカーブ)が異なるためである。
 例えば光源1と光源2では、各色の波長が次のように異なる。
・B光の波長・・・光源1:445nm、光源2:462nm
・G光の波長・・・光源1:555nm、光源2:520nm
・R光の波長・・・光源1:610nm、光源2:635nm
 この場合、それぞれのVRカーブは図7に示すようになる。図7では、光源1のR光(R1)、G光(G1)、B光(B1)を破線で示し、光源2のR光(R2)、G光(G2)、B光(B2)を実線で示している。
 ここで図1のような振幅変調型プロジェクターの場合を考えると、R光、G光、B光の各色についてVRカーブを測定し、階調に対する反射率の関係(ガンマカーブ、例えば反射率=階調の2.2乗)から、階調に対する電圧の関係(ガンマテーブル)を調整により決定することになる。
 ところが本実施の形態のハイブリッド型プロジェクターの場合、第2光源光106の光量分布が映像のフレーム毎に異なる。
 或るフレームにおいて第2光源光106の光量分布が均一ではない場合、振幅変調素子5の段階では、画素毎に第1光源光104と第2光源光106の光量の比率が異なる。
 すなわち位相変調素子3では、位相変調により他の領域に光を移動させるため、第2光源光106の分布としては、光源2からの光がほぼ存在しない画素や、集中する画素が生じる。光源2からの光がほぼ存在しない画素では、振幅変調素子5のVRカーブは、光源1のみを点灯させた場合のVRカーブとほぼ等しくなる。
 一方、第2光源光106において光源2からの光が極度に集まって光量が突き上がっている領域の画素は、光源2からの光が光源1からの光と比較してはるかに多い画素となる。この場合、光源1からの光は無視できるので、その画素のVRカーブは光源2のみを点灯させた場合のVRカーブとほぼ等しくなる。
 つまり、実質的なVRカーブはフレーム毎、画素毎に異なり、光源1からの光と光源2からの光の割合に応じて変化する。従ってそのVRカーブは、光源1のみ点灯させた場合のVRカーブと光源2のみ点灯させた場合のVRカーブの間のカーブとなる。
 VRカーブが変化する場合、ガンマカーブも変化する。この様子を図8に示す。
 図8には、光源1のみを点灯させた場合の振幅変調素子5の或る色のガンマカーブC1と、光源2のみを点灯させた場合の振幅変調素子5の或る色のガンマカーブC2を示している。また中間的なガンマカーブC3を示している。
 今、或る画素において、或る階調を実現するために、或る電圧値の振幅変調駆動信号を与えても、その画素における反射率は、ガンマカーブC1,C2,C3によって異なってしまう。従って、振幅変調駆動信号の各画素に対して、同じ階調の制御を行ったとしても、各画素の反射率は、各画素における第1光源光104と第2光源光106の光量比によって異なるものとなり、色むらが発生する。
 なお、最高階調における白色点を光源1と光源2の両方で一致させる場合、最高階調では光源2の光量に依存せず白色点は変わらない。しかしながら、最高階調以下の階調では前述した原因によって光源2からの光の光量に依存して色ムラが発生する。
 色むらの具体例を図9に示す。図9では、第1光源光104と第2光源光106が合波されて、振幅変調駆動信号Sd1による反射率分布110で各画素の反射率が制御される振幅変調素子5に入射される場合を示している。
 なお、この場合の映像は、中央に位置する矩形が高輝度で周囲が低輝度の映像であるとする。そして位相変調素子3によって、第2光源光106は矩形中央が高輝度となるように位相変調される。ただし、位相変調によっては高い空間分解能で光量制御することが難しいため、第2光源光106は、中央領域のエッジがぼやけたような光量分布となっている。
 この場合に振幅変調駆動信号としては、図示のように高輝度の領域内でも中央の反射率が、エッジ部分よりも低くなるような制御を行う信号とする。これによって、投影映像光107による映像は、中央の矩形が高輝度となる映像となる。
ところが、矩形の中央領域内で、各画素に入射される第1光源光104と第2光源光106の光量比が異なる。従って図に模式的に示すように色むらZが生ずる。
 図10に光量分布の差を詳細に示す。投影映像光107の水平方向であるA-A断面に対応して、各分布を示している。
 第1光源光104は面内一様な光量分布であり、A-A断面で見ても光量分布はフラットとなる。
 第2光源光106は、映像に応じて位相変調されることで、図示のようにA-A断面の光量分布となるとする。
 総光量分布は、振幅変調素子5に入射される光の分布であり、第1光源光104と第2光源光106の和となる。
 この総光量分布で示される入射光に対して、振幅変調素子5が最下段に示すような反射率分布110で制御されることで、投影映像光107の光量分布は、最終光量分布と示すように、映像に応じた光量分布となる。
 ところが、第2光源光106は中央が盛り上がるような光量分布となっていることから、矩形中央の領域内の各画素でも第1光源光104と第2光源光106の光量比が異なるものとなる。従って色むらZが発生する。
 本実施の形態では、このような色むらを低減または解消する処理を行う。
 図11は、図8と同様にガンマカーブC1、C2を示している。本実施の形態では図11に示すように予め測定しておいた光源1のみ点灯させた際の振幅変調素子5のガンマカーブC1と、光源2のみ点灯させた際の振幅変調素子5のガンマカーブC2から、両光源1,2を両方点灯させた際の光量比率に応じてガンマカーブCmを計算する。
 このガンマカーブCmは、光源1と光源2の光量比によって変わる。すなわち光源1の光量比が高くなるほどガンマカーブC1に近くなる特性となり、光源2の光量比が高くなるほどガンマカーブC2に近くなる特性となる。
 後述するが、静的にガンマカーブを計算する例や、フレーム毎、画素画となどで動的にガンマカーブを計算する例もある。
 そしてそのガンマカーブを使用して所望の反射率から必要な階調を得る。図では、或る反射率を想定したときに、ガンマカーブによって、階調が異なることを示しているが、これは、想定する反射率に応じて、振幅変調駆動信号の電圧値を、採用するガンマカーブに応じて調整することを示している。
 この処理をRGB各色にて行うことによって各色に想定した反射率を得ることができ、結果的に色ムラの発生をなくすことができる。
 ところで、振幅変調素子5としては液晶パネルやDMDを使用することが可能である。さらに光源1,光源2の特性もいくつかの種類を想定することができる。
 そこで、ここでは本技術の適用が想定される装置の構成とそれに対する色ムラ補正の種類について説明しておく。
 まず、光源の特性として以下の二つの項目が考えられる。
・光源1と光源2のR、G、Bの各色波長が同じか、異なるか
・光源1と光源2の白色点(ホワイトバランス)が同じか、異なるか
次に、位相変調素子3及び振幅変調素子5として使用するデバイスという観点にて以下の二つの項目を考えることができる。
・位相変調素子3として液晶パネルを使用するか、DMDを使用するか
・振幅変調素子5として液晶パネルを使用するか、DMDを使用するか
 これらにより、図12に示すように合計16種類の構成が考えられる。
これらの構成は、図中「#4」で示す色ムラ補正が不要な場合と「#1」「#2」「#3」で示す色むら補正が必要な場合に大別することができる。
色ムラ補正が必要な場合はさらに「#1」の白色点の補正、「#2」のガンマカーブの補正、「#3」の白色点とガンマカーブの両方の補正という3種類に分けることができる。これらについて以下に説明する。
・#1
 光源1と光源2のR、G、Bの各色の波長が同じで、かつ両光源1,2の白色点が異なる場合は、第1光源光104と第2光源光106の比率に応じた白色点の補正を行うことが適切となる。
光源1と光源2のR、G、Bの各色の波長が異なり、かつ両光源1,2の白色点が異なり、かつ振幅変調素子5としてDMDを使用する場合も、同様に白色点の補正を行うことが適切である。
・#2
 光源1と光源2のR、G、Bの各色の波長が異なり、かつ両光源1,2の白色点が同じで、かつ振幅変調素子5として液晶パネルを用いる場合は、第1光源光104と第2光源光106の比率に応じてガンマカーブを計算して色ムラ補正を行うことが適切となる。
・#3
 光源1と光源2のR、G、Bの各色の波長が異なり、かつ両光源1,2の白色点が異なり、かつ振幅変調素子5として液晶パネルを用いる場合は白色点とガンマカーブの両方を考慮して色ムラを補正することが適切である。
・#4
 光源1と光源2のR、G、Bの各色の波長が同じで、かつ両光源1,2の白色点が同じ場合は、ガンマカーブも白色点も同じためガンマカーブ及び白色点が第1光源光104と第2光源光106の比率に依存せず、色ムラ補正の必要がない。
また、DMDは波長依存性がないため光源1と光源2の波長が異なるが両光源1,2の白色点を一致させ、かつ振幅変調素子5としてDMDを使用する場合も色ムラ補正の必要はない。
<4.第1の実施の形態の信号処理>
 第1の実施の形態の信号処理例として図13により、静的に色むら補正を行う例を説明する。図13の処理は、光源1,光源2の各原色光の波長及びホワイトバランスが異なり、振幅変調素子5が液晶パネルを用いた場合で示している。
 なお、以下図13から図16で説明する各実施の形態の処理は、図5のように画づくり信号処理部11及び位相パターン生成部12を有する図4の信号処理部10によって、映像信号Dの1フレーム毎に実行される信号処理例である。
 また図13、図14、図16では、信号処理内容を示すときに「S1」「S2」・・・というように示し、処理に関して入出力される情報を「IM1」「IM2」・・・というように示している。
 また図13、図14、図16では、図の煩雑化を避けるために、R、G、Bの3系統を区別せずにまとめて示しているが、各情報(IM)や各処理(S)は、R、G、Bそれぞれについて独立して行われると理解されたい。
 図13の例では、まず信号処理部10は、目標輝度色度分布IM1を取得する。これは投影する映像についての面内の輝度、色度の分布を表す情報であり、つまり映像信号Dの1つのフレームのデータに相当する。
 信号処理部10は、輝度抽出処理S1として、映像信号Dとしての1フレームのデータから輝度の情報を取り出す。
 これにより輝度分布IM2としての情報が得られる。輝度分布とは、位相変調や振幅変調により実現したい光量分布の情報となる。
 信号処理部10は輝度分布(光量分布)IM2に応じて、第1/第2光量分離処理S2を行う。これにより光源1による光量IM5として、面内均一の光量分布の光量が設定される。また光源2による光量分布IM6として、映像内容に応じて一部領域の光量を増大させたり、一部領域の光量を減少させたりする光量分布IM6が設定される。
 信号処理部10は光量分布IM6に基づいて位相計算処理S5を行い、位相分布IM7を求める。この位相分布IM7に基づいて図5に示した位相パターン信号PHr,PHg,PHbが生成され、位相変調素子3R,3G,3Bに供給されることになる。
 一方、信号処理部10は振幅変調に関して反射率計算処理S3を行う。これは、目標輝度色度分布IM1と輝度分布(光量分布)IM2の除算により行われる。これによってR、G、Bそれぞれの反射率分布IM3が得られる。
 そして信号処理部10は、R、G、Bそれぞれについて、液晶駆動電圧の計算処理S4を行う。この液晶駆動電圧とは振幅変調駆動信号Sd1として液晶パネルによる振幅変調素子5R、5G、5Bのそれぞれの各画素に印加する電圧値である。
 R、G、Bのそれぞれの液晶駆動電圧は、R、G、Bそれぞれの反射率分布IM3と、ガンマカーブを用いて計算される。例えば図11のガンマカーブC1が設定されていれば、反射率分布IM3から規定される各画素の反射率から、それら各画素の階調が導かれるため、その階調に応じて各画素の液晶駆動電圧が算出される。
 但し、仮に光源1に対応するガンマカーブC1を用いたり、或いは光源2に対応するガンマカーブC2を用いたりすると、上述したとおり色むらが問題となる。
 そこで第1の実施の形態では、第1光源光104と位相変調後の第2光源光106の代表的な光量比で求めたガンマカーブCmを用いる。例えばガンマカーブC1、C2に対して第1光源光104と第2光源光106の光量比を用いた演算を行い、ガンマカーブCmを算出しておく。これを、R、G、B各色についてそれぞれ行う。従って振幅変調素子5R、5G、5Bのそれぞれで、代表的な光量比で計算されたガンマカーブCm(それぞれ「CmR」「CmG」「CmB」と呼ぶこととする。)を求めておく。
 このような両光源1,2に対応するガンマカーブCmを、信号処理部10は情報IM4として記憶している。
 そして信号処理部10は、各フレームの処理において、これらの代表的な光量比を用いて予め設定しておいた情報IM4としてのガンマカーブCmR、CmG、CmBを用いて、液晶駆動電圧の計算処理S4を行う。
 具体的には信号処理部10は、R光の反射率分布IM3と、R光についての振幅変調素子5RのガンマカーブCmRを用いて振幅変調素子5Rの各画素の液晶駆動電圧を求める。
 同様に信号処理部10は、G光の反射率分布IM3と、G光についての振幅変調素子5GのガンマカーブCmGを用いて振幅変調素子5Gの各画素の液晶駆動電圧を求める。
 また信号処理部10は、B光の反射率分布IM3と、B光についての振幅変調素子5BのガンマカーブCmBを用いて振幅変調素子5Bの各画素の液晶駆動電圧を求める。
 このような計算処理S4で、R、G、Bのそれぞれの液晶駆動電圧分布IM8が求められる。そしてこの電圧分布に相当する振幅変調駆動信号Sd1が振幅変調素子5R、5G、5Bに供給される。
 以上の第1の実施の形態の処理例は、振幅変調素子5R、5G、5BのそれぞれのガンマカーブCmR、CmG、CmBは、第1光源光104と第2光源光106をある代表的な割合で足し合わせた際のガンマカーブとしたものである。
 このガンマカーブCmR、CmG、CmBは静的なものであるため、その代表的な割合として定めた割合で第1光源光104と第2光源光106が入射するときは色ムラをなくすことができるが、それ以外の割合では色ムラが発生する。しかしながら、光源1に応じたガンマカーブC1や、光源2に応じたガンマカーブC2を用いる場合に比較すると、色ムラを低減することができる。
 なお、この第1の実施の形態は、R、G、Bの各色の波長が異なる二つの光源を使用する場合に有効であり、位相変調素子3を用いない場合も有効である。例えば2つの光源からの光を振幅変調素子5に入射するような構成である。
 その場合は、両光源1,2とも面内の一部領域での光量の突き上げのような分布は発生せず、各フレーム(時間)で面内の各光源からの光量割合は等しくなる。そのため、振幅変調素子5に入射される2つの光源の光量比に応じたガンマカーブを用いて振幅変調駆動信号Sd1を計算するようにすれば、色ムラが発生しないようにすることができる。
 但しこのように位相変調素子3を用いない構成の場合でも、各光源からの光量比がフレームによって異なる場合は、フレーム間で色の差異が発生することになる。そのような場合であっても、2つの光源の代表的な光量割合に応じたガンマカーブを用いて振幅変調駆動信号Sd1を計算するようにすれば、色ムラを低減することができる。
<5.第2の実施の形態の信号処理>
 第2の実施の形態の信号処理例を図14に示す。これは光源1,光源2の各原色光の波長が異なり、振幅変調素子5が液晶パネルを用いた場合において、動的に色むら補正を行う例である。
 図14の例でも、信号処理部10は、映像信号Dのフレーム毎のデータとして目標輝度色度分布IM1を取得する。
 そして信号処理部10は、輝度抽出処理S1として、映像信号Dとしての1フレームのデータから輝度の情報を取り出す。これにより輝度分布(光量分布)IM2としての情報が得られる。
 信号処理部10は輝度分布(光量分布)IM2に応じて、第1/第2光量分離処理S2を行う。これにより光源1による光量IM5として、面内均一の光量分布の光量が設定される。また光源2による光量分布IM6として、映像内容に応じて一部領域の光量を増大させたり、一部領域の光量を減少させたりする光量分布IM6が設定される。
 信号処理部10は光量分布IM6に基づいて位相計算処理S5を行い、位相分布IM7を求める。この位相分布IM7に基づいて図5に示した位相パターン信号PHr,PHg,PHbが生成され、位相変調素子3R,3G,3Bに供給される。
 一方、信号処理部10は振幅変調に関して第1光源光104と第2光源光106の光量比計算処理S10を行う。即ち光源1の光量IM5と光源2についての光量分布IM6から、面内各領域の第1光源光104と第2光源光106の比を計算する処理である。これによって、今回のフレームにおける第1光源光104と第2光源光106の光量比分布IM12が求められる。
 信号処理部10は、光源1についてのガンマカーブC1の情報IM10と、光源2についてのガンマカーブC2の情報IM11と、光量比分布IM12を用いて、今回のフレームにおけるガンマカーブCmを計算する計算処理S11を行う。
 そして計算結果に応じた面内のガンマカーブ分布IM13を得、そのガンマカーブ分布IM13を用いて液晶駆動電圧の計算処理S12を行う。
 ガンマカーブCmの計算処理S11としては、次の(処理例a)(処理例b)(処理例c)の各例が考えられる。
(処理例a)現フレームにおいて面内全画素に適用するガンマカーブCmを求める。
(処理例b)現フレームにおいて面内のブロック毎に適用するガンマカーブCmを求める。
(処理例c)現フレームにおいて面内の画素毎に適用するガンマカーブCmを求める。
 まず上記(処理例a)の例を説明する。
 図15Aは1フレームの映像を形成する面内の全領域を示している。この面内の画素全てに適用するガンマカーブCmを計算する。
 この場合、今回のフレームの光量比分布IM12から代表的な光量比を求める。そしてその代表的な光量比を用いて、光源1についてのガンマカーブC1と光源2についてのガンマカーブC2の各割合を反映させたガンマカーブCmを計算する。
 具体的にはこのような手法で信号処理部10は、振幅変調素子5R、5G、5Bのそれぞれに対応して、今回のフレームでの代表的な光量比で計算されたガンマカーブCmR、CmG、CmBを計算する。
 つまり信号処理部10は、今回のフレームでのR光の光量比分布IM12と、振幅変調素子5Rについての光源1、光源2に対応するガンマカーブC1、C2を用いて、今回のフレームについて振幅変調素子5Rに適用するガンマカーブCmRを求める。
 同様に信号処理部10は、今回のフレームでのG光の光量比分布IM12と、振幅変調素子5Gについての光源1、光源2に対応するガンマカーブC1、C2を用いて、今回のフレームについて振幅変調素子5Gに適用するガンマカーブCmGを求める。
 さらに信号処理部10は、今回のフレームでのB光の光量比分布IM12と、振幅変調素子5Bについての光源1、光源2に対応するガンマカーブC1、C2を用いて、今回のフレームについて振幅変調素子5Bに適用するガンマカーブCmBを求める。
 これにより今回のフレームに適用するガンマカーブCmR、CmG、CmBが求められる。但しこの(処理例a)の場合は、ガンマカーブ分布IM13は面内一様である。
 そして信号処理部10は液晶駆動電圧の計算処理S12として、目標輝度色度分布IM1と輝度分布(光量分布)IM2の除算により得たR、G、Bそれぞれの反射率分布IM3と、ガンマカーブCmR、CmG、CmBを用いて、振幅変調素子5R、5G、5Bの各画素の液晶駆動電圧を求める。これによってR、G、Bのそれぞれの液晶駆動電圧分布IM8が求められ、この電圧分布に相当する振幅変調駆動信号Sd1が振幅変調素子5R、5G、5Bに供給される。
 この(処理例a)によれば、フレーム毎に、そのフレームにおける第1光源光104と第2光源光106の比によってガンマカーブCmが動的に求められて振幅変調駆動信号Sd1が求められることで、色むらの低減効果を第1の実施の形態よりも高くすることができる。
 続いて上記(処理例b)の例を説明する。
 図15Bは1フレームの映像を形成する面内を、いくつかのブロックBKに分割した例を示している。1つのブロックは複数の画素により構成される領域である。ここでは1フレームの面内を8個のブロックBKに分けた例としているが、面内を分割するブロックBK数や、ブロックBKを構成する画素数や、ブロックBKの形状は多様に考えられる。
 そしてこのようなブロックBKの設定に基づき、信号処理部10は今回のフレームの光量比分布IM12から、ブロックBK毎に、代表的な光量比を求める。そしてブロックBK毎に、代表的な光量比を用いて、光源1についてのガンマカーブC1と光源2についてのガンマカーブC2の各割合を反映させたガンマカーブCmを計算する。
 具体的には信号処理部10は計算処理S11で、今回のフレームでのR光のブロックBK毎の光量比分布IM12と、振幅変調素子5Rのついての光源1、光源2に対応するガンマカーブC1、C2を用いて、今回のフレームついて振幅変調素子5RのブロックBK毎に適用するガンマカーブCmRを求める。例えば第1のブロックBKについてのガンマカーブCmR(BK1)、第2のブロックBKについてのガンマカーブCmR(BK2)・・・CmR(BKm)というように、各ブロックBKに適用するガンマカーブCmRを求める。なお「m」はブロック数である。
 振幅変調素子5Gについても同様に、各ブロックBKに適用するガンマカーブCmG、即ちこの場合はガンマカーブCmG(BK1)、CmG(BK2)・・・CmG(BKm)を求める。
 振幅変調素子5Bについても同様に、各ブロックBKに適用するガンマカーブCmB、即ちこの場合は、ガンマカーブCmB(BK1)、CmB(BK2)・・・CmB(BKm)を求める。
 このように今回のフレームにおいて各ブロックBKに適用するガンマカーブCmR、CmG、CmBを求めることで、ブロックBK毎にガンマカーブが異なるガンマカーブ分布IM13が得られる。
 そして信号処理部10は、R、G、Bそれぞれの反射率分布IM3と、ブロックBK毎のガンマカーブCmR、CmG、CmBを用いた計算処理S12で、振幅変調素子5R、5G、5Bの各画素の液晶駆動電圧を求める。これによってR、G、Bのそれぞれの液晶駆動電圧分布IM8が求められ、この電圧分布に相当する振幅変調駆動信号Sd1が振幅変調素子5R、5G、5Bに供給される。
 この(処理例b)によれば、フレーム毎に、かつそのフレームにおけるブロックBK毎に、第1光源光104と第2光源光106の比によってガンマカーブCmが動的に求められて振幅変調駆動信号Sd1が求められることで、色むらの低減効果をさらに高くすることができる。
 続いて上記(処理例c)の例を説明する。
 図15Cは1フレームの映像を形成する面内の各画素PXを示している。格子の一マスが1つの画素を表している。なお、図は模式的なものであり、画素数は実際に即したものではない。
 そして、信号処理部10は計算処理S11で、今回のフレームの光量比分布IM12において画素PX毎に示される光量比を用いて、光源1についてのガンマカーブC1と光源2についてのガンマカーブC2の各割合を反映させたガンマカーブCmを計算する。
 具体的には、今回のフレームでのR光の画素PX毎の光量比と、振幅変調素子5Rのついての光源1、光源2に対応するガンマカーブC1、C2を用いて、今回のフレームついて振幅変調素子5Rの画素PX毎に適用するガンマカーブCmRを求める。例えばガンマカーブCmR(PX1)、CmR(PX2)・・・CmR(PXn)というように、画素PX毎に適用するガンマカーブCmRを求める。なお「n」は画素数である。
 振幅変調素子5Gについても同様に、画素PX毎に適用するガンマカーブCmG、即ちこの場合はガンマカーブCmG(PX1)、CmG(PX2)・・・CmG(PXn)を求める。
 振幅変調素子5Bについても同様に、画素PX毎に適用するガンマカーブCmB、即ちこの場合は、ガンマカーブCmB(PX1)、CmB(PX2)・・・CmB(PXn)を求める。
 このように今回のフレームにおいて各画素PXに適用するガンマカーブCmR、CmG、CmBを求めることで、画素PX毎にガンマカーブが異なるガンマカーブ分布IM13が得られる。
 そして信号処理部10は、R、G、Bそれぞれの反射率分布IM3と、画素PX毎のガンマカーブCmR、CmG、CmBを用いた計算処理S12で、振幅変調素子5R、5G、5Bの各画素の液晶駆動電圧を求める。これによってR、G、Bのそれぞれの液晶駆動電圧分布IM8が求められ、この電圧分布に相当する振幅変調駆動信号Sd1が振幅変調素子5R、5G、5Bに供給される。
 この(処理例c)によれば、フレーム毎に、かつその画素PX毎に、第1光源光104と第2光源光106の比に応じたガンマカーブCmが求められて振幅変調駆動信号Sd1が求められることで、色むらを解消できる。
 なお以上の(処理例b)(処理例c)ではブロックBK毎、或いは画素PX毎にガンマカーブCmを求める例を説明したが、このような面内領域毎にガンマカーブCmを求める例を第1の実施の形態に適用することもできる。
 即ち第1の実施の形態において、第1光源光104と第2光源光106の代表的な割合をブロックBK毎或いは画素PX毎に求める。そしてブロックBK毎或いは画素PX毎に静的補正のための固定のガンマカーブCmR、CmG、CmBを用意して、それを振幅変調駆動信号Sd1の計算に用いるようにしてもよい。
<6.第3の実施の形態の信号処理>
 第3の実施の形態を図16で説明する。なお、この図16の処理例は図14と同様の点が多いため、同一の処理や情報には同じ符号を付し、異なる点のみ説明する。
 この図16では、信号処理部10は、光源1についてのガンマカーブC1及びホワイトバランスの情報IM20と、光源2についてのガンマカーブC2及びホワイトバランスの情報IM21と、光量比分布IM12を用いて、今回のフレームにおけるガンマカーブCmを計算する計算処理S20を行う。
 従って求められるガンマカーブCmR、CmG、CmBは、光量比とホワイトバランスの違いを想定したものとなる。
 そして信号処理部10は、計算処理S20の計算結果に応じた面内のガンマカーブ分布IM13を得、そのガンマカーブ分布IM13を用いて液晶駆動電圧の計算処理S12を行う。
 それ以外は図14と同様である。また、この場合も図14で説明した(処理例a)(処理例b)(処理例c)の各例に相当する処理が考えられる。
 この第3の実施の形態の場合、光源1,光源2のホワイトバランスが異なる場合に、その差による影響も低減させるような色むら補正が実現できる。
<7.まとめ及び変形例>
 以上の実施の形態によれば次のような効果が得られる。
 実施の形態のプロジェクター装置は、第1光源光104を出力する光源1(第1光源)と、原色光の波長が光源1の原色光の波長と異なる第2光源光106を出力する光源2(第2光源)を備える。またプロジェクター装置は、第1光源光104と第2光源光106が共に入射され、入射光について振幅変調を行う振幅変調素子5と、振幅変調素子5に対する振幅変調駆動信号Sd1を、振幅変調素子5に入射される第1光源光104と第2光源光106の比率に応じたガンマカーブCmに基づいて生成する信号処理部10を備える。
 振幅変調素子5には第1光源光104と第2光源光106のそれぞれのR光、G光、B光が入射されるが、各原色光は、互いに波長が異なっている。このため図7,図8で説明したように、光源1を想定した振幅変調素子5のガンマカーブC1も、光源2を想定した場合の振幅変調素子5のガンマカーブC2も、いずれも適切な階調の投影映像光を得るためのガンマカーブとはならず色むらが生ずる。そこで第1光源光104と第2光源光106の比率に対応したガンマカーブを計算し、それに基づいて振幅変調駆動信号を生成する。これにより、より適切なガンマカーブに基づく振幅変調駆動信号を生成することができ、色むらを低減または解消できる。
 なお図5の構成において、投射レンズ9を含まない構成を光源装置と考えることができる。従って本技術は、プロジェクター装置として構成されていない光源装置においても適用できるものとなる。
 実施の形態の構成例では、光源2からの光の光量分布を変換する位相変調素子3を備え、振幅変調素子5には、第1光源光104と、位相変調素子3を経た第2光源光106が共に入射されるものとした。
 振幅変調素子5に入射する第1光源光104と第2光源光106は互いにR光、G光、B光の波長が異なっていることに加え、第2光源光106は位相変調素子3により光量分布が一様でなくなっている。このため振幅変調素子に入射される第1光源光104と第2光源光106の光量比はフレームや面内領域で多様となる。その場合、光源1を想定したガンマカーブC1や、光源2を想定したガンマカーブC2を用いて振幅変調駆動信号Sd1を生成すると、色むらの問題が大きくなる。そこで、このような構成において、そこで第1光源光104と位相変調素子3を経た第2光源光106の比率に対応したガンマカーブを計算し、それに基づいて振幅変調駆動信号Sd1を生成することが有効となる。これにより、より適切なガンマカーブに基づく振幅変調駆動信号を生成することができ、色むらを低減または解消できる。
 実施の形態で述べた振幅変調駆動信号Sd1は、映像信号Dに応じて振幅変調素子5の各画素の光量制御を行う信号であり、映像信号Dにおける各画素の階調値に応じた振幅変調素子5の各画素の制御値が、第1光源光104と第2光源光106の比率に応じたガンマカーブCmに基づいて生成されるものとした。
 映像信号Dに応じた振幅変調駆動信号Sd1により振幅変調素子5の反射率又は透過率が制御されて光量制御されることで、投射映像により映像信号に応じた映像光が照射される。
 この場合に、各画素の制御値、例えば液晶パネルの駆動電圧値が、第1光源光104と位相変調後の第2光源光106の比率に応じたガンマカーブCmに基づいて設定されることで、合成された光に適した振幅変調が行われ、色むらを低減又は解消できる。
 第2の実施の形態では、信号処理部10が、映像信号Dのフレーム毎に、振幅変調素子5に入射される第1光源光104と第2光源光106の比率に応じたガンマカーブCmを求めて、振幅変調駆動信号Sd1を生成する例を述べた。
 映像信号のフレーム毎に、振幅変調素子5に入射される第1光源光104と位相変調後の第2光源光106の比率が変化する場合、フレーム毎に適したガンマカーブCmを算出し、そのガンマカーブCmを用いて振幅変調駆動信号Sd1を生成することで、色むらの低減効果を向上させることができる。
 第2の実施の形態では、信号処理部10が、振幅変調素子5の面内を分割した画素ブロックBK毎に、入射される第1光源光104と第2光源光106の比率に応じたガンマカーブCmを求めて、振幅変調駆動信号Sd1を生成する例を述べた(処理例b)。
 投射映像の一画面において、位相変調素子3による光量分布は変化する。従って振幅変調素子5の面内で第1光源光104と第2光源光106の光量比は異なる。そこで(処理例b)のように、振幅変調素子5の面内を分割した画素ブロックBK毎に、振幅変調素子5に入射される第1光源光104と第2光源光106の比率に応じたガンマカーブCmを算出し、そのガンマカーブCmを用いて振幅変調駆動信号Sd1を生成する。これにより面内で各ブロックBKの領域毎の光量比に対応して振幅変調駆動が行われ、色むらの低減効果を向上させることができる。
 特にブロックBK毎のガンマカーブCmをフレーム毎に算出することで、面内の光量比の違いと時間軸での光量比の違いの両方に対応できるものとなり、色むらの低減効果はより顕著なものとなる。
 なお(処理例b)のようなブロックBK毎のガンマカーブCmを用いることは第1の実施の形態の静的な色むら補正を行う場合にも有効である。
 第2の実施の形態では、信号処理部10が、振幅変調素子5の画素PX毎に、入射される第1光源光104と第2光源光106の比率に応じたガンマカーブCmを求めて、振幅変調駆動信号Sd1を生成する例を述べた(処理例c)。
 投射映像の一画面において、画素PX毎に位相変調素子3による光量分布は変化するため、振幅変調素子5の面内で第1光源光104と第2光源光106の光量比は画素PX毎に異なる。そこで(処理例c)のように、振幅変調素子5の画素PX毎に、振幅変調素子5に入射される第1光源光104と第2光源光106の比率に応じたガンマカーブCmを算出し、そのガンマカーブCmを用いて振幅変調駆動信号Sd1を生成する。これにより面内で画素毎の光量比に対応して振幅変調駆動が行われ、色むらを有効に低減できる。
 特に画素PX毎のガンマカーブCmをフレーム毎に算出することで、面内の画素毎の光量比の違いと時間軸での光量比の違いの両方に対応できるものとなり、色むらの発生を、ほぼ解消できるものとなる。
 なお(処理例c)のような画素PX毎のガンマカーブCmを用いることは第1の実施の形態の静的な色むら補正を行う場合にも有効である。
 第1の実施の形態では、信号処理部10は、振幅変調素子5に入射される第1光源光104と第2光源光106の比率の代表値に応じたガンマカーブCmを求めて、振幅変調駆動信号Sd1を生成するものとした。
 第1光源光104と第2光源光106の比率としての代表的な比率に応じたガンマカーブCmを用いて振幅変調駆動信号Sd1を生成することで、色むらの低減効果を得ることができる。これは光源1と光源2についての原色光の波長やホワイトバランスが異なる場合の静的な色むら低減手法であり、比較的処理負担の少ない状態で色むら低減を実現できる。
 第3の実施の形態では、信号処理部10は、光源1と光源2のホワイトバランスの差を補正する振幅変調駆動信号Sd1を生成する例を挙げた。
 図16で述べたように、光源1と光源2のホワイトバランスの差をガンマカーブCmの計算に含めることで、ホワイトバランスの差に起因する色むらの低減効果も得られるようになる。
 実施の形態では、位相変調素子3は、映像信号Dに基づいて生成された位相パターン信号PHr,PHg,PHbに応じて、入射光を面内領域毎に光線密度が異なる出射光に変換するものとした。
 このような位相変調素子3を介在させることで、映像信号Dに応じた光量の部分的な増大や減少を含む光量分布の投影映像光107を得ることができるようになり、ダイナミックレンジの広い映像投影を実現できる。
 実施の形態では、振幅変調素子5は、液晶パネル又はDMDにより構成されるとした。液晶パネルやDMDの特性に応じて、第1光源光104と第2光源光106の比率に対応したガンマカーブCmを計算し、それに基づいて振幅変調駆動信号Sd1を生成することで、振幅変調素子5のデバイス種別に対応して色むら低減が可能である。
 実施の形態では、原色光として、光源1による赤色光と光源2による赤色光、光源1による緑色光と光源2による緑色光、光源1による青色光と光源2による青色光のそれぞれの波長が異なる例を挙げた。
 光源1と光源2について、互いにR光、G光、B光のそれぞれの波長が異なることが色むらの要因となる。この場合に、光量比に応じたガンマカーブに基づく振幅変調駆動信号Sd1を生成することが色むらの低減による画像品質向上に特に有効となる。
 なお、例えば第1光源によるR光と第2光源によるR光、G光、B光の一部の波長が第1光源と第2光源とで互いに異なる場合も想定され、その場合も実施の形態の技術は適用できる。
 実施の形態では、光源1と光源2の一方はレーザ光源とされ、他方は他の光源デバイスにより構成されるとした。
 光源1と光源2について一方をレーザ光源、他方を蛍光体光源などの他の光源デバイスとすることで投射映像の高輝度化を比較的低コストで実現できる。この場合に原色光の波長の違いにより色むらが発生するが、実施の形態で説明した技術で色むらを低減又は解消できる。結果として高輝度、高品質な投射映像を実現するプロジェクター装置を比較的低コストで実現できる。
 なお実施の形態はR、G、Bによるカラー映像投影を行う構成を例に挙げたが、本技術は他の組み合わせの原色光を用いる場合も有効である。またモノクロ映像投影を行うプロジェクター装置や光源装置においても適用できる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 第1光源光を出力する第1光源と、
 原色光の波長が前記第1光源の原色光の波長と異なる第2光源光を出力する第2光源と、
 前記第1光源光と前記第2光源光が共に入射され、入射光について振幅変調を行う振幅変調素子と、
 前記振幅変調素子に対する振幅変調駆動信号を、前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブに基づいて生成する信号処理部と、を備えた
 プロジェクター装置。
 (2)
 前記第2光源光の光量分布を変換する位相変調素子を備え、
 前記振幅変調素子には、前記第1光源光と、前記位相変調素子を経た前記第2光源光が共に入射される
 上記(1)に記載のプロジェクター装置。
 (3)
 前記振幅変調駆動信号は、映像信号に応じて前記振幅変調素子の各画素の光量制御を行う信号であり、
 映像信号における各画素の階調値に応じた前記振幅変調素子の各画素の制御値が、前記第1光源光と前記第2光源光の比率に応じたガンマカーブに基づいて生成される
 上記(1)又は(2)に記載のプロジェクター装置。
 (4)
 前記信号処理部は、
 映像信号のフレーム毎に、前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブを求めて、前記振幅変調駆動信号を生成する
 上記(1)から(3)のいずれかに記載のプロジェクター装置。
 (5)
 前記信号処理部は、
 前記振幅変調素子の面内を分割した画素ブロック毎に、入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブを求めて、前記振幅変調駆動信号を生成する
 上記(1)から(4)のいずれかに記載のプロジェクター装置。
 (6)
 前記信号処理部は、
 前記振幅変調素子の画素毎に、入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブを求めて、前記振幅変調駆動信号を生成する
 上記(1)から(4)のいずれかに記載のプロジェクター装置。
 (7)
 前記信号処理部は、
 前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率の代表値に応じたガンマカーブを求めて、前記振幅変調駆動信号を生成する
 上記(1)から(3)のいずれかに記載のプロジェクター装置。
 (8)
 前記信号処理部は、
 前記第1光源と前記第2光源のホワイトバランスの差を補正する前記振幅変調駆動信号を生成する
 上記(1)から(7)のいずれかに記載のプロジェクター装置。
 (9)
 前記位相変調素子は、
 映像信号に基づいて生成された位相パターンに応じて、入射光を面内領域毎に光線密度が異なる出射光に変換する
 上記(2)に記載のプロジェクター装置。
 (10)
 前記振幅変調素子は、液晶パネルにより構成される
 上記(1)から(9)のいずれかに記載のプロジェクター装置。
 (11)
 前記振幅変調素子は、デジタルマイクロミラーデバイスにより構成される
 上記(1)から(9)のいずれかに記載のプロジェクター装置。
 (12)
 前記原色光として、
 前記第1光源による赤色光と前記第2光源による赤色光、
 前記第1光源による緑色光と前記第2光源による緑色光、
 前記第1光源による青色光と前記第2光源による青色光、
 のそれぞれの波長が異なる
 上記(1)から(11)のいずれかに記載のプロジェクター装置。
 (13)
 前記第1光源と前記第2光源の一方はレーザ光源とされ、他方は他の光源デバイスにより構成される
 上記(1)から(11)のいずれかに記載のプロジェクター装置。
 (14)
 第1光源光を出力する第1光源と、
 原色光の波長が前記第1光源の原色光の波長と異なる第2光源光を出力する第2光源と、
 前記第1光源光と前記第2光源光が共に入射され、入射光について振幅変調を行う振幅変調素子と、
 前記振幅変調素子に対する振幅変調駆動信号を、前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブに基づいて生成する信号処理部と、を備えた
 光源装置。
 (15)
 第1光源光を出力する第1光源と、
 原色光の波長が前記第1光源の原色光の波長と異なる第2光源光を出力する第2光源と、
 前記第1光源光と前記第2光源光が共に入射され、入射光について振幅変調を行う振幅変調素子と、
 を備えた光源装置において、
 前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブに基づいて生成した振幅変調駆動信号により、前記振幅変調素子を駆動する
 光源駆動方法。
1 光源(第1光源)
2 光源(第2光源)
3,3R,3G,3B 位相変調素子
4 合波光学系
5,5R,5G,5B 振幅変調素子
6 第2照明光学系
7 中継光学系
8 第1照明光学系
9 投射レンズ
10 信号処理部
11 画づくり信号処理部
12 位相パターン生成部
104 第1光源光
105,106 第2光源光
107 投影映像光
110 反射率分布

Claims (15)

  1.  第1光源光を出力する第1光源と、
     原色光の波長が前記第1光源の原色光の波長と異なる第2光源光を出力する第2光源と、
     前記第1光源光と前記第2光源光が共に入射され、入射光について振幅変調を行う振幅変調素子と、
     前記振幅変調素子に対する振幅変調駆動信号を、前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブに基づいて生成する信号処理部と、を備えた
     プロジェクター装置。
  2.  前記第2光源光の光量分布を変換する位相変調素子を備え、
     前記振幅変調素子には、前記第1光源光と、前記位相変調素子を経た前記第2光源光が共に入射される
     請求項1に記載のプロジェクター装置。
  3.  前記振幅変調駆動信号は、映像信号に応じて前記振幅変調素子の各画素の光量制御を行う信号であり、
     映像信号における各画素の階調値に応じた前記振幅変調素子の各画素の制御値が、前記第1光源光と前記第2光源光の比率に応じたガンマカーブに基づいて生成される
     請求項1に記載のプロジェクター装置。
  4.  前記信号処理部は、
     映像信号のフレーム毎に、前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブを求めて、前記振幅変調駆動信号を生成する
     請求項1に記載のプロジェクター装置。
  5.  前記信号処理部は、
     前記振幅変調素子の面内を分割した画素ブロック毎に、入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブを求めて、前記振幅変調駆動信号を生成する
     請求項1に記載のプロジェクター装置。
  6.  前記信号処理部は、
     前記振幅変調素子の画素毎に、入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブを求めて、前記振幅変調駆動信号を生成する
     請求項1に記載のプロジェクター装置。
  7.  前記信号処理部は、
     前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率の代表値に応じたガンマカーブを求めて、前記振幅変調駆動信号を生成する
     請求項1に記載のプロジェクター装置。
  8.  前記信号処理部は、
     前記第1光源と前記第2光源のホワイトバランスの差を補正する前記振幅変調駆動信号を生成する
     請求項1に記載のプロジェクター装置。
  9.  前記位相変調素子は、
     映像信号に基づいて生成された位相パターンに応じて、入射光を面内領域毎に光線密度が異なる出射光に変換する
     請求項2に記載のプロジェクター装置。
  10.  前記振幅変調素子は、液晶パネルにより構成される
     請求項1に記載のプロジェクター装置。
  11.  前記振幅変調素子は、デジタルマイクロミラーデバイスにより構成される
     請求項1に記載のプロジェクター装置。
  12.  前記原色光として、
     前記第1光源による赤色光と前記第2光源による赤色光、
     前記第1光源による緑色光と前記第2光源による緑色光、
     前記第1光源による青色光と前記第2光源による青色光、
     のそれぞれの波長が異なる
     請求項1に記載のプロジェクター装置。
  13.  前記第1光源と前記第2光源の一方はレーザ光源とされ、他方は他の光源デバイスにより構成される
     請求項1に記載のプロジェクター装置。
  14.  第1光源光を出力する第1光源と、
     原色光の波長が前記第1光源の原色光の波長と異なる第2光源光を出力する第2光源と、
     前記第1光源光と前記第2光源光が共に入射され、入射光について振幅変調を行う振幅変調素子と、
     前記振幅変調素子に対する振幅変調駆動信号を、前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブに基づいて生成する信号処理部と、を備えた
     光源装置。
  15.  第1光源光を出力する第1光源と、
     原色光の波長が前記第1光源の原色光の波長と異なる第2光源光を出力する第2光源と、
     前記第1光源光と前記第2光源光が共に入射され、入射光について振幅変調を行う振幅変調素子と、
     を備えた光源装置において、
     前記振幅変調素子に入射される前記第1光源光と前記第2光源光の比率に応じたガンマカーブに基づいて生成した振幅変調駆動信号により、前記振幅変調素子を駆動する
     光源駆動方法。
PCT/JP2022/002166 2021-03-18 2022-01-21 プロジェクター装置、光源装置、光源駆動方法 WO2022196094A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP22770856.7A EP4311232A1 (en) 2021-03-18 2022-01-21 Projector apparatus, light source apparatus, and light source driving method
US18/549,505 US20240146886A1 (en) 2021-03-18 2022-01-21 Projector apparatus, light source device, and light source drive method
JP2023506807A JPWO2022196094A1 (ja) 2021-03-18 2022-01-21
CN202280020756.5A CN117015965A (zh) 2021-03-18 2022-01-21 投影仪设备、光源装置和光源驱动方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-045038 2021-03-18
JP2021045038 2021-03-18

Publications (1)

Publication Number Publication Date
WO2022196094A1 true WO2022196094A1 (ja) 2022-09-22

Family

ID=83320216

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/002166 WO2022196094A1 (ja) 2021-03-18 2022-01-21 プロジェクター装置、光源装置、光源駆動方法

Country Status (5)

Country Link
US (1) US20240146886A1 (ja)
EP (1) EP4311232A1 (ja)
JP (1) JPWO2022196094A1 (ja)
CN (1) CN117015965A (ja)
WO (1) WO2022196094A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9918052B2 (en) * 2013-07-30 2018-03-13 Dolby Laboratories Licensing Corporation Multiple stage modulation projector display systems having efficient light utilization
US20190146320A1 (en) * 2017-11-14 2019-05-16 Dolby Laboratories Licensing Corporation Aperture sharing for highlight projection
US20200249492A1 (en) * 2017-02-03 2020-08-06 Barco N.V. System and method for enhanced image projection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9918052B2 (en) * 2013-07-30 2018-03-13 Dolby Laboratories Licensing Corporation Multiple stage modulation projector display systems having efficient light utilization
US20200249492A1 (en) * 2017-02-03 2020-08-06 Barco N.V. System and method for enhanced image projection
US20190146320A1 (en) * 2017-11-14 2019-05-16 Dolby Laboratories Licensing Corporation Aperture sharing for highlight projection

Also Published As

Publication number Publication date
EP4311232A1 (en) 2024-01-24
CN117015965A (zh) 2023-11-07
US20240146886A1 (en) 2024-05-02
JPWO2022196094A1 (ja) 2022-09-22

Similar Documents

Publication Publication Date Title
US7453475B2 (en) Optical display device, program for controlling the optical display device, and method of controlling the optical display device
US20170264870A1 (en) Display uniformity compensation method, optical modulation apparatus, signal processor, and projection system
US7746530B2 (en) Image display device, image display method, and image display program
US8724033B2 (en) Image display apparatus and image display method
WO2013094011A1 (ja) 画像投射装置およびその制御方法
JP4604448B2 (ja) プロジェクタ
JP2005250235A (ja) 光変調装置、光学表示装置、光変調制御プログラム及び光学表示装置制御プログラム、並びに光変調制御方法及び光学表示装置制御方法
US8157384B2 (en) Image display device
WO2019208205A1 (ja) 光位相制御装置、および表示装置
JP2009199098A (ja) プロジェクタ及び光学装置
US20150022554A1 (en) Image display device and image display method
WO2022196094A1 (ja) プロジェクター装置、光源装置、光源駆動方法
US20190012950A1 (en) Projector for projecting a multi-colored image
US20170061851A1 (en) Large gamut pixel and subtractive mask for a visual presentation
US11443705B2 (en) Image display device for displaying moving images
WO2019024363A1 (zh) 显示设备及显示方法
CN110476120B (zh) 照明设备与投影仪
JP2012181531A (ja) 画像表示装置
US10791306B2 (en) Projector for projecting images
WO2023162637A1 (ja) 照明装置、プロジェクタ装置
US11336874B2 (en) Image display method and apparatus, and projection device
EP4156866A1 (en) Lighting device, lighting method, and projector device
CN115840325A (zh) 激光显示装置、其亮度调节方法和可读性存储介质
JP4788757B2 (ja) 光学表示装置
JP2009103956A (ja) 画像処理装置、画像表示装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22770856

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023506807

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18549505

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202280020756.5

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022770856

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022770856

Country of ref document: EP

Effective date: 20231018