WO2019012806A1 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
WO2019012806A1
WO2019012806A1 PCT/JP2018/019073 JP2018019073W WO2019012806A1 WO 2019012806 A1 WO2019012806 A1 WO 2019012806A1 JP 2018019073 W JP2018019073 W JP 2018019073W WO 2019012806 A1 WO2019012806 A1 WO 2019012806A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
image display
display apparatus
modulated
Prior art date
Application number
PCT/JP2018/019073
Other languages
English (en)
French (fr)
Inventor
圭祐 本間
松本 和也
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201880044848.0A priority Critical patent/CN110832396B/zh
Priority to JP2019528959A priority patent/JP7302472B2/ja
Priority to US16/628,227 priority patent/US11209725B2/en
Publication of WO2019012806A1 publication Critical patent/WO2019012806A1/ja
Priority to US17/535,888 priority patent/US11693305B2/en
Priority to US18/325,881 priority patent/US20230296977A1/en
Priority to JP2023102519A priority patent/JP2023123653A/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • G03B21/006Projectors using an electronic spatial light modulator but not peculiar thereto using LCD's
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • G03B21/008Projectors using an electronic spatial light modulator but not peculiar thereto using micromirror devices
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2053Intensity control of illuminating light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/28Reflectors in projection beam
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B33/00Colour photography, other than mere exposure or projection of a colour film
    • G03B33/10Simultaneous recording or projection
    • G03B33/12Simultaneous recording or projection using beam-splitting or beam-combining systems, e.g. dichroic mirrors

Definitions

  • the present technology relates to an image display device such as a projector.
  • an image display apparatus such as a projector has been widely used.
  • light from a light source is modulated by a light modulation element such as a liquid crystal element, and the modulated light is projected on a screen or the like to display an image.
  • a light source a mercury lamp, a xenon lamp, an LED (Light Emitting Diode), an LD (Laser Diode) or the like is used.
  • solid-state light sources such as LEDs and LDs have a long life and do not require lamp replacement as in the prior art, and also have the advantage of turning on the power and turning on immediately.
  • Patent Document 1 describes an image projection apparatus that displays a 3D (stereoscopic) image by applying a difference in polarization characteristics.
  • this image projection apparatus an image for the right eye is incident on the prism type beam splitter so as to be P polarization, and an image for the left eye is incident so as to be S polarization.
  • the image for the right eye and the image for the left eye are combined by the prism type beam splitter, and projected onto the screen through the projection lens (see paragraph [0040] [0049] [0051], etc. of Patent Document 1). .
  • Patent Document 2 describes a projection type display device including a polarization beam splitter that reflects each of RGB light to a reflection type light valve and transmits the light modulated by the reflection type light valve toward a projection lens.
  • an area sensor is disposed on the side of the polarization beam splitter facing the surface on which each of the RGB light is incident. The area sensor detects the state of leaked light that is transmitted without being reflected by the polarization beam splitter. It becomes possible to easily adjust the position of each part based on the detection result of the area sensor, and to grasp the deterioration state of each part (see paragraphs [0044] to [0058] of the specification of Patent Document 2). [0083] FIG.
  • an object of the present technology to provide an image display device capable of detecting the state of light with high accuracy.
  • the optical element splits the modulated light modulated by the light modulation element into first split light and second split light traveling in different directions, and reverses the optical path of the first split light.
  • the traveling and incident light is restricted from traveling along the optical path of the second split light.
  • the sensor unit is disposed on the optical path of the second separated light and detects a state of the second separated light.
  • the modulated light is separated into the first and second separated lights by the optical element.
  • the optical element restricts the light traveling in the reverse direction of the optical path of the first split light and traveling along the optical path of the second split light. Therefore, by disposing the sensor unit in the optical path of the second split light, it is possible to detect the state of the modulated light with high accuracy.
  • the optical element may be disposed on a main optical path of the modulated light, and may emit the first separated light along the main optical path and emit the second separated light along another optical path. .
  • the optical element may have a first exit surface that emits the first separated light, and a second exit surface that emits the second separated light different from the first exit surface.
  • the sensor unit may be disposed on the second emission surface side.
  • the optical element may have a light separation surface which is disposed obliquely to the incident direction of the modulated light incident on the optical element.
  • the light separation surface transmits a part of the modulated light incident on the light separation surface as the first separated light and reflects another part of the modulated light as the second separated light.
  • the sensor unit may be disposed on the light separation surface side that reflects the second separated light.
  • the light separation surface reflects a part of the modulated light incident on the light separation surface as the first separated light, and transmits another part of the modulated light as the second separated light.
  • the sensor unit may be disposed on the side opposite to the light separation surface.
  • the optical element may separate the modulated light so that the light amount of the first separated light is larger than the light amount of the second separated light.
  • the image display apparatus may further include a combining unit that combines a plurality of modulated lights to generate combined modulated light, and a projection unit that projects the combined modulated light generated by the combining unit.
  • the optical element may be disposed between the combining unit and the projection unit to separate the combined modulated light into the first separated light and the second separated light.
  • the optical element includes a first surface on which the modulated light is incident, a light separating surface for separating the modulated light incident on the first surface, and the second separated light separated by the light separating surface.
  • a light separating prism having a second surface from which light is emitted.
  • the sensor unit may be disposed close to the second surface of the light separating prism.
  • the optical element may be a polarizing beam splitter, a half mirror, or a glass plate.
  • the image display apparatus may further include a first emitting unit that emits first image light in a first polarization state along a first direction.
  • the optical element may have a light separation surface disposed obliquely to the first direction.
  • the light separation surface transmits a part of the first image light onto a first light path along the first direction, and the other part of the first image light is transmitted to the first light path.
  • the light may be reflected on a second light path along a second direction substantially orthogonal to the direction.
  • the sensor unit may be disposed on the second light path.
  • the image display apparatus may further include a second emitting unit that emits second image light in a second polarization state along the second direction.
  • the light separation surface is disposed obliquely with respect to the second direction, and a part of the second image light is reflected on the first light path, and the other of the second image light A portion of the light may be transmitted through the second light path.
  • the sensor unit includes a first filter for extracting light in the first polarization state, a first sensor for detecting a state of light extracted by the first filter, and the second polarization state. It may have a 2nd filter which extracts light, and a 2nd sensor which detects the state of the light extracted by the 2nd filter.
  • the sensor unit may detect at least one of the intensity, the chromaticity, and the shape of a light beam of the second separated light.
  • the optical element is configured to impart a predetermined action to incident light, and the modulated light incident on the optical element is the first split light to which the predetermined action is applied. It may be separated into the second separated light to which the predetermined action is not applied.
  • the present technology it is possible to detect the state of light with high accuracy.
  • the effect described here is not necessarily limited, and may be any effect described in the present disclosure.
  • FIG. 1 is a schematic view showing a configuration example of an image display device according to an embodiment of the present technology.
  • the image display device 500 is a projector for cinema using a laser light source, and can display a 3D (stereoscopic) image by using the polarization characteristic of light.
  • the X direction in the drawing will be described as the left and right direction, the Y direction as the depth direction, and the Z direction as the height direction.
  • the directions of XYZ are not limited to these directions, and it is possible to use the image display device 500 in any direction and orientation.
  • the image display device 500 controls the first image generation unit 100, the second image generation unit 200, the image combination unit 50, the half-wave plate 60, the projection optical system 70, the sensor unit 80, and And a part 90.
  • the first image generation unit 100 generates and emits the first image light 10 constituting the right-eye image in the 3D video.
  • the first image generation unit 100 modulates light for each of red light, green light, and blue light (each color light of RGB), and generates the first image light 10 by combining the modulated light for each color. Do.
  • the modulated light of each color is also a concept included in the image light.
  • the first image generation unit 100 emits the first image light 10 leftward along the X direction. Further, the first image generation unit 100 emits the first image light 10 so as to be P-polarized light with respect to the joint surface 51 of the image combining unit 50.
  • the first image generation unit 100 corresponds to a first emission unit.
  • the X direction corresponds to the first direction.
  • the state of being P-polarized with respect to the bonding surface 51 corresponds to the first polarization state.
  • the second image generation unit 200 emits the second image light 20 constituting the left-eye image in the 3D image.
  • the second image generation unit 200 modulates the light for each of the RGB color lights, and generates the second image light 20 by combining the modulated lights for the respective colors.
  • the second image generation unit 200 emits the second image light 20 forward (downward in the drawing) along the Y direction. Further, the second image generation unit 200 emits the second image light 20 so as to be P-polarized light with respect to the joint surface 51 of the image synthesis unit 50.
  • the first and second image generation units 100 and 200 have substantially the same configuration. In FIG. 1, some components of each of the first and second image generation units 100 and 200 are schematically illustrated. Each of the first and second image generation units 100 and 200 will be described in detail later.
  • the half-wave plate 60 is disposed between the second image generation unit 200 and the image combining unit 50.
  • the half-wave plate 60 has a function of rotating the polarization direction by 90 ° over the full wavelength band of the three primary colors of light used.
  • the specific configuration of the half wave plate 60 is not limited, and may be designed arbitrarily.
  • the half wave plate 60 rotates the polarization direction of the second image light 20 emitted from the second image generation unit 200 by 90 °. Therefore, the second image light 20 that is S-polarized light is emitted to the joint surface 51 to the image combining unit 50.
  • the second image generation unit 200 and the half wave plate 60 correspond to a second emission unit.
  • the Y direction corresponds to a second direction substantially orthogonal to the first direction.
  • the state of being S-polarized light with respect to the bonding surface 51 corresponds to the second polarization state.
  • the image synthesis unit 50 is a prism type beam splitter.
  • the image combining unit 50 has characteristics of a polarizing beam splitter having high reflectance for S-polarization and high transmittance for P-polarization over the entire wavelength band of the three primary colors of light used.
  • two substantially isomorphic right-angled isosceles prisms are joined, and a polarization film having predetermined optical characteristics is formed on the joint surface 51.
  • the bonding surface 51 is disposed at an angle of 45 ° with respect to the traveling direction of each of the first image light 10 and the second image light 20, and S polarized light and P polarized light are defined with respect to the bonding surface 51. Ru.
  • the bonding surface 51 transmits the first image light 10, which is P-polarized light, and reflects the second image light 20, which is S-polarized light.
  • the first and second image lights 10 and 20 are combined and emitted toward the projection optical system 70. Therefore, in the present embodiment, the right-eye image is displayed by the first image light 10 that is P-polarized light with respect to the bonding surface 51, and the left-eye image is displayed by the second image light 20 that is S-polarized light.
  • the image combining unit 50 corresponds to an optical element. This point will be described in detail later.
  • the projection optical system 70 is disposed on the exit side of the image combining unit 50, and the first and second image lights 10 and 20 combined by the image combining unit 50 are enlarged to a predetermined magnification to be projected on a screen or the like. Project on a thing. Thereby, the right eye image and the left side image are displayed.
  • the projection optical system 70 includes, for example, a plurality of projection lenses, and the specific configuration may be designed appropriately.
  • the sensor unit 80 includes a sensor 81 that receives light, and can detect the state of light.
  • the state of light includes, for example, luminance (intensity), chromaticity, shape of light flux, and the like.
  • the shape of the light flux is a concept including the size (cross-sectional area) of the light flux.
  • any luminance sensor or chromaticity sensor may be used.
  • an array sensor constituted by a plurality of sensors, or an image sensor such as a CMOS sensor or a CCD sensor may be used.
  • the sensor 81 is disposed close to the front side (lower side in the drawing) of the image combining unit 50.
  • the sensor 81 can detect the state of each of the first and second image lights 10 and 20 with high accuracy. This point will be described in detail later.
  • Control unit 90 controls the operation of each mechanism in image display device 500.
  • the control unit 90 is electrically connected to the first and second image generation units 100 and 200, the projection optical system 70, and other mechanisms, and outputs control signals to the respective mechanisms. For example, it is possible to control the operation of the light source unit and the light modulation element included in the first and second image generation units 100 and 200.
  • the control unit 90 has, for example, a CPU, a RAM, and a ROM, and each mechanism is controlled by loading a control program stored in advance in the ROM into the RAM and executing the control program.
  • the configuration of the control unit 90 is not limited, and any hardware and software may be used.
  • a device such as a programmable logic device (PLD) such as a field programmable gate array (FPGA) or another application specific integrated circuit (ASIC) may be used.
  • PLD programmable logic device
  • FPGA field programmable gate array
  • ASIC application specific integrated circuit
  • the control part 90 is illustrated with the broken line in FIG. 1, the location etc. by which the control part 90 is arrange
  • FIG. 2 is a schematic view showing a configuration example of the image generation unit.
  • FIG. 2 illustrates a configuration example of the first image generation unit 100 when the image display device 500 illustrated in FIG. 1 is viewed from the front side along the Y direction.
  • the half-wave plate 60 and the second image generation unit 200 shown in FIG. 1 are located on the back side of the image combining unit 50 shown in FIG. 2, and the illustration thereof is omitted.
  • the first image generation unit 100 includes a light source unit 101, an illumination optical system 110, and an image modulation unit 130.
  • the light source unit 101 generates white light W and emits the white light W to the illumination optical system 110.
  • a solid light source such as a light emitting diode (LED) or a laser diode (LD), a mercury lamp, a xenon lamp, or the like is disposed.
  • a solid-state light source for RGB capable of emitting light of each color of RGB may be used, and the emitted light may be combined to generate white light W.
  • a solid-state light source that emits light in a blue wavelength band and a phosphor that is excited by blue light to emit yellow fluorescence may be disposed. In this case, the blue light and the yellow light are combined and the white light W is emitted.
  • the illumination optical system 110 includes an integrator element 111, polarization conversion elements 112, 113 and 114, a condenser lens 115, a cross dichroic mirror 116, reflection mirrors 117 and 118, a dichroic mirror 119, and relay lenses 120 and 121. And 122.
  • the integrator element 111 has first and second fly eye lenses 111a and 111b. By transmitting the white light W through the first and second fly eye lenses 111a and 111b, the luminance unevenness of the white light W is reduced.
  • the polarization conversion element 112 has a function of aligning the polarization state of the white light W incident through the integrator element 111.
  • any optical element such as a polarizing plate or a polarization beam splitter may be used.
  • the white light W having passed through the polarization conversion element 112 is emitted to the cross dichroic mirror 116 via the condenser lens 115.
  • the cross dichroic mirror 116 splits the white light W emitted from the condensing lens 115 into red light R on the long wavelength side and green light G and blue light B on the short wavelength side.
  • the red light R separated by the cross dichroic mirror 116 is reflected by the reflection mirror 117 and enters the polarization conversion element 113.
  • the red light R whose polarization state is aligned by the polarization conversion element 113 is emitted to the image modulation unit 130 via the relay lens 120.
  • the green light G and the blue light B separated by the cross dichroic mirror 116 are reflected by the reflection mirror 118 and enter the polarization conversion element 114.
  • the green light G and the blue light B whose polarization states are aligned by the polarization conversion element 114 are split by the dichroic mirror 119 into green light G on the long wavelength side and blue light B on the short wavelength side.
  • the green light G separated by the dichroic mirror 119 is emitted to the image modulation unit 130 via the relay lens 121.
  • the blue light B separated by the dichroic mirror 119 is emitted to the image modulation unit 130 via the relay lens 122.
  • the image modulation unit 130 includes a reflective polarizing element 131 (131R, 131G, 131B), a reflective light modulation element 132 (132R, 132G, 132B), and a wavelength plate 133 (133R, 133G, 133B) disposed for each color of RGB. ), Polarization beam splitter 134 (134R, 134G, 134B), and half wave plate 135 (135R, 135G, 135B).
  • the image modulation unit 130 further includes a color combining prism 136 and a polarizing plate 137 for generating the first image light 10.
  • the reflective polarizer 131 is a prism type beam splitter.
  • Each of the relay lenses 120 to 122 shown in FIG. 2 emits RGB light so as to be S-polarized light with respect to the junction surface of the reflective polarizing element 131.
  • the reflective polarizing element 131R reflects the S-polarized light component of the red light R toward the wavelength plate 133R.
  • the wavelength plate 133R functions as a compensation plate that compensates for the floating of the black luminance, rotates the polarization direction of the incident red light R, and emits the light to the reflective light modulation element 132R.
  • the rotation angle in the polarization direction is appropriately set so that an image with high accuracy is projected.
  • the reflection type light modulation element 132R modulates and reflects the incident red light R based on an image signal corresponding to the red light R supplied from the outside.
  • a reflective liquid crystal panel is typically used as the reflective light modulation element 132R, the present invention is not limited to this.
  • the red light R modulated by the reflection-type light modulation element 132R (denoted as the modulation light R using the same code) is incident on the reflection-type polarization element 131R through the wavelength plate 133R.
  • the P polarization component of the modulated light R passes through the junction surface and enters the polarization beam splitter 134R.
  • the polarization beam splitter 134R functions as a polarization conversion element, the polarization state of the modulated light R is aligned, and unnecessary light is cut.
  • the modulated light R emitted from the polarization beam splitter 134 R is rotated by 90 ° in the polarization direction by the half-wave plate 135 R, and is emitted to the color combining prism 136.
  • the green light G and the blue light B are also modulated by the reflection type light modulation elements 132G and 132B, and are emitted from the reflection type polarization elements 131G and 131B to the color combining prism 136 through the half wavelength plates 135G and 135B. Ru.
  • the color combining prism 136 is configured, for example, by bonding a plurality of glass prisms (four substantially isomorphic right-angled isosceles prisms). Two interference films having predetermined optical characteristics are formed on the bonding surface of each glass prism.
  • the first interference film of them reflects blue light B and transmits red light R and green light G.
  • the second interference film reflects red light R and transmits blue light B and green light G.
  • the first and second interference films have characteristics that the reflectance to light of S polarization is high and the reflectance to light of P polarization is low.
  • each of the modulated light RGB is rotated by 90 ° by the half-wave plate 135.
  • each of the modulated lights RGB enters the junction surface of the color combining prism 136 as S-polarized light. As a result, it is possible to project a high brightness image.
  • the modulated lights R and B are reflected by the bonding surface, and the modulated light G is transmitted through the bonding surface.
  • the modulated RGB are combined on the same light path, and the first image light 10 is generated.
  • the polarization direction of the first image light 10 is aligned by the polarizing plate 137, and the first image light 10 is emitted to the image combining unit 50.
  • the orientation of the first image generation unit 100 such that light which is S-polarized light with respect to the junction surface of the color combining prism 136 is P-polarized light with respect to the junction surface 51 of the image combining unit 50. Is set appropriately. Therefore, from the first image generation unit 100, the first image light 10 to be P-polarized light is emitted to the joint surface 51 of the image combination unit 50.
  • the second image generation unit 200 has substantially the same configuration as the first image generation unit 100.
  • the second image generation unit 200 emits the second image light 20 to be P-polarized light to the joint surface 51 of the image combining unit 50.
  • the half wave plate 60 rotates the polarization direction of the second image light 20 by 90 °. As a result, the second image light 20 that is S-polarized light is emitted to the joint surface 51 to the image combining unit 50.
  • the reflective polarization element 131R the reflective light modulation element 132G, the wavelength plate 133G, the polarization beam splitter 134G, the half wavelength plate 135G, and the color
  • the combining prism 136 and the polarizing plate 137 are illustrated.
  • a reflective polarizer 231R a reflective light modulator 232G, a wave plate 233G, a polarization beam splitter 234G, a half wave plate 235G, a color combining prism 236, and polarization A plate 237 is shown.
  • FIG. 3 and 4 are enlarged views showing a portion of the image combining unit 50.
  • the behavior of the first image light 10 emitted from the first image generation unit 100 is schematically shown in FIG.
  • FIG. 4 schematically shows the behavior of the second image light 20 emitted from the second image generation unit 200 via the half-wave plate 60.
  • most of the P-polarized first image light 10A emitted from the first image generator 100 is transmitted through the cemented surface 51 and travels toward the projection optical system 70.
  • the optical path of the first image light 10A incident on the joint surface 51 along the X direction, and the optical path of the first image light 10B transmitted through the joint surface 51 and traveling toward the projection optical system 70 along the X direction as well. Is the main light path OP1.
  • the main optical path OP1 is a light path of the image light (modulated light) until the image light (modulated light) is generated and projected onto the screen or the like by the projection optical system 70. Therefore, the image combining unit 50 is disposed in the main optical path OP1 of the image light (modulated light).
  • the first image light 10C reflected by the bonding surface 51 along the Y direction in the forward direction (downward in the figure) is also Exists.
  • the first image light 10C is so-called leaked light and travels along another optical path OP2 different from the main optical path OP1.
  • the image combining unit 50 combines the first image light 10B and the first image light 10C traveling in different directions with the first image light 10A emitted from the first image generation unit 100. It functions as an optical element that separates into That is, the image combining unit 50 is disposed on the main optical path OP1 of the first image light 10, emits the first image light 10B along the main optical path OP1, and passes the first image light 10C to the other optical path OP2. Emit along.
  • the bonding surface 51 of the image combining unit 50 functions as a light separation surface disposed obliquely to the incident direction (X direction) of the first image light 10 entering the image combining unit 50. Specifically, of the bonding surface 51, the surface on which the first image light 10 is incident corresponds to the light separation surface.
  • the joint surface 51 (light separation surface) is disposed at an angle of 45 ° with respect to the incident direction (X direction) of the first image light 10.
  • the bonding surface 51 transmits the first image light 10B which is a part of the first image light 10A incident on the bonding surface 51, and the first image light which is another part of the first image light 10A. Reflect 10C.
  • the first image light 10B traveling toward the projection optical system 70 is projected by the projection optical system 70 onto a screen or the like. At this time, part of the first image light 10B may be reflected by a projection lens or the like in the projection optical system 70.
  • the reflected light reflected by the projection lens or the like travels in the opposite direction to the main optical path OP1 which is the optical path of the first image light 10B, and is incident on the joint surface 51 again.
  • the reflected light that is incident again on the bonding surface 51 is transmitted toward the first image generation unit 100 or reflected toward the second image generation unit 200. In any case, it does not travel along another optical path OP2, which is the optical path of the first image light 10C.
  • the image combining unit 50 and the bonding surface 51 also have a function of restricting the reflected light traveling in the opposite direction to the main optical path OP1 and traveling along the other optical path OP2.
  • the first image light 10B corresponds to a first split light
  • the first image light 10C corresponds to a second split light
  • the main optical path OP1 corresponds to a first optical path
  • the other optical path OP2 corresponds to a second optical path.
  • the color combining prism 136 of the first image generation unit 100 corresponds to a combining unit that combines a plurality of modulated lights to generate combined modulated light (first image light 10).
  • the projection optical system 70 corresponds to a projection unit that projects the combined modulated light combined by the color combining unit.
  • the image combining unit 50 is disposed between the color combining prism 136 and the projection optical system 70, and separates the combined modulated light (the first image light 10A) into the first image light 10B and the first image light 10C. Do.
  • the sensor unit 80 (sensor 81) is disposed on another optical path OP2 which is an optical path of the first image light 10C, and detects the state of the first image light 10C.
  • the cemented surface 51 of the image combining unit 50 restricts the light reflected from the projection optical system 70 to travel along the other optical path OP2. Therefore, the reflected light from the projection optical system 70 does not enter the sensor 81, and the generation of noise components due to the reflected light can be sufficiently suppressed.
  • the state of the first image light 10C can be detected with high accuracy
  • the state of the first image light 10A emitted from the first image generation unit 100 can be detected with high accuracy.
  • the position where the sensor 81 is disposed can be said to be the position on the light separation surface side where the first image light 10C is reflected along the other optical path OP2. If the sensor 81 is disposed on the side of the light separation surface where the first image light 10A is incident, the light is incident on the surface opposite to the light separation surface (the surface on which the first image light 10B is emitted) It is possible to restrict the reflected light from traveling along the other optical path OP2.
  • two substantially isomorphic right-angled isosceles prisms are joined to form an image combining unit 50.
  • Such a prism-type configuration is a configuration included in the light separating prism according to the present technology.
  • first to fourth side surfaces 52a to 52d are referred to as first to fourth side surfaces 52a to 52d.
  • the first side surface 52 a is a surface that is disposed to face the first image generation unit 100 and on which the first image light 10 is incident.
  • the second side surface 52 b is a surface that is disposed to face the second image generation unit 200 and on which the second image light 20 is incident.
  • the third side surface 52c is a surface from which the first image light 10B is emitted along the main optical path OP1.
  • the fourth side surface 52d is a surface from which the first image light 10C is emitted along the other optical path OP2.
  • the sensor 81 is disposed on the side of the fourth side 52d from which the first image light 10C is emitted. Specifically, it is disposed close to the fourth side surface 52d. The sensor 81 may be in contact with the fourth side surface 52d or may be disposed with a gap.
  • the first side surface 52a corresponds to the first surface.
  • the fourth side surface 52 d corresponds to the second surface and the second emission surface.
  • the third side surface 52c corresponds to a first emission surface.
  • first image light 10A incident on the joint surface 51 travels along the main optical path OP1 as the first image light 10B.
  • the other part, the first image light 10C travels along the other optical path OP2. That is, the first image lights 10B and 10C are separated by the joint surface 51 of the image combining unit 50 so that the light amount of the first image light 10B is larger than the light amount of the first image light 10C. This makes it possible to sense the first image light 10 while sufficiently suppressing the loss of the light amount of the image to be projected. Since leakage light is used as a sensing target, there is almost no loss of light intensity compared to the conventional one
  • the optical path of the second image light 20B substantially coincides with the optical path of the first image light 10B shown in FIG. Therefore, in the subsequent stage from the cemented surface 51, the first image light 10B and the second image light 20B travel along the same main optical path OP1.
  • the second image light 20 emitted from the second image generation unit 200 there is also the second image light 20C that transmits the bonding surface 51 along the Y direction.
  • the second image light 20C is so-called leaked light and travels along another optical path OP2 different from the main optical path OP1.
  • the optical path of the second image light 20C substantially matches the optical path of the first image light 10C shown in FIG. Therefore, the first image light 10C and the second image light 20C travel along the same other optical path OP2.
  • the image combining unit 50 is an optical element that separates the second image light 20A emitted from the second image generation unit 200 into the second image light 20B and the second image light 20C traveling in mutually different directions. It also works as That is, the image combining unit 50 is disposed on the main optical path OP1 of the second image light 20, emits the second image light 20B along the main optical path OP1, and passes the second image light 20B to the other optical path OP2. Emit along.
  • the bonding surface 51 of the image combining unit 50 also functions as a light separation surface disposed obliquely to the incident direction (Y direction) of the second image light 20 entering the image combining unit 50.
  • the surface on which the second image light 20 is incident corresponds to the light separation surface. That is, the light separation surface for the first image light 10 and the light separation surface for the second image light 20 are surfaces opposite to each other.
  • the joint surface 51 (light separation surface) is disposed at an angle of 45 ° with respect to the incident direction (Y direction) of the second image light 20.
  • the bonding surface 51 reflects the first image light 20B which is a part of the second image light 20A incident on the bonding surface 51, and the second image light which is another part of the second image light 20A. Reflect 20C.
  • the image combining unit 50 and the bonding surface 51 restrict the reflected light traveling in the opposite direction to the main optical path OP1 and traveling along the other optical path OP2. That is, also for the second image light 20, the reflected light reflected by the projection optical system 70 is restricted to travel along the other optical path OP2.
  • the second image light 20B corresponds to a first split light
  • the second image light 20C corresponds to a second split light.
  • the main optical path OP1 corresponds to a first optical path
  • the other optical path OP2 corresponds to a second optical path.
  • the color combining prism 236 of the second image generation unit 200 corresponds to a combining unit that combines a plurality of modulated lights to generate combined modulated light (second image light 20).
  • the image combining unit 50 is disposed between the color combining prism 236 and the projection optical system 70, and separates the combined modulated light (the second image light 20A) into the second image light 10B and the second image light 10C. Do.
  • the sensor unit 80 (sensor 81) is disposed on another optical path OP2 which is an optical path of the second image light 20C, and detects the state of the second image light 10C.
  • the bonding surface 51 of the image combining unit 50 restricts the reflected light from the projection optical system 70 to travel along the other optical path OP2. Therefore, the reflected light from the projection optical system 70 does not enter the sensor 81, and the generation of noise components due to the reflected light can be sufficiently suppressed.
  • the second image light 20C can be detected with high accuracy
  • the second image light 20A emitted from the second image generation unit 200 can be detected with high accuracy.
  • the senor 81 is disposed in another optical path OP2 configured on the opposite side to the main optical path OP1 with respect to the joint surface 51 of the image combining unit 50. This makes it possible to sense the first image light 10 in the P polarization state and the second image light 20 in the S polarization state with high accuracy.
  • the position where the sensor 81 is disposed can also be said to be the position on the side on which the second image light 20C is emitted along the other optical path OP2, that is, the position on the side opposite to the light separation surface. If the sensor 81 is disposed on the side opposite to the light separation surface, the reflected light incident on the light separation surface on the side where the second image light 20B is reflected travels along the other optical path OP2. It is possible to regulate
  • first to fourth side surfaces 52a to 52d four side surfaces parallel to the Z direction of the image combining unit 50 are referred to as first to fourth side surfaces 52a to 52d.
  • the sensor 81 is disposed on the side of the fourth side 52d from which the second image light 20C is emitted. Specifically, it is disposed close to the fourth side surface 52d.
  • the second side surface 52 b corresponds to the first surface.
  • the fourth side surface 52 d corresponds to the second surface and the second emission surface.
  • the third side surface 52c corresponds to a first emission surface.
  • the second image light 20A incident on the joint surface 51 is reflected as the second image light 20B and travels along the main optical path OP1.
  • the other part of the second image light 20C is transmitted along the other optical path OP2. That is, the second image lights 20B and 20C are separated by the bonding surface 51 of the image combining unit 50 so that the light amount of the second image light 20B is larger than the light amount of the second image light 20C. This makes it possible to sense the second image light 20 while sufficiently suppressing the loss of light quantity of the projected image. Since leakage light is used as a sensing target, there is almost no loss of light intensity compared to the conventional one
  • FIGS. 5 and 6 are schematic views showing an example of the configuration of the sensor unit 80.
  • FIG. The sensor unit 80 illustrated in FIGS. 5 and 6 includes a circuit board 83 connected to the flexible circuit board 82 and a sensor 81 mounted on the circuit board 83.
  • a signal of light intensity measured by the sensor 81 is output to the control unit 90 or the like of FIG. 1 through the circuit board 83 and the flexible circuit board 82. Further, control signals and drive power are supplied to the sensor 81 and the circuit board 83.
  • the sensor 81 has a light receiving surface 84, and a part of the light receiving surface 84 is set as a measurement area 85 (Actiuve Area).
  • FIG. 6 is a schematic view showing a measurement area 85 of the sensor 81.
  • the sensor 81 has a plurality of measurement units 86 capable of measuring the intensity of incident light. That is, in the measurement area 85, a plurality of measurement units 86 are arranged.
  • the plurality of measurement units 86 are two-dimensionally arranged along the directions orthogonal to each other. In the present embodiment, a total of 40 measurement units 86, four in the lateral direction and ten in the longitudinal direction, are arranged in a matrix.
  • the sensor 81 further includes a plurality of filters 87 disposed in each of the plurality of measurement units 86 and configured to transmit light in a predetermined wavelength band. That is, the filter 87 is disposed corresponding to each of the 40 measurement units 86.
  • the plurality of filters 87 include a red filter 87R that transmits light in the red wavelength band, a green filter 87G that transmits light in the green wavelength band, and a blue wavelength band. And a blue filter 87B for transmitting light.
  • the intensity of the red modulated light R is measured by the measurement unit 86 in which the red filter 87R is disposed.
  • the intensity of the green modulated light G is measured by the measurement unit 86 in which the green filter 87G is disposed
  • the intensity of the blue modulated light B is measured by the measurement unit 86 in which the blue filter 87B is disposed.
  • the average value of the intensities measured by the plurality of measurement units 86 in which the filters 87 of the same color are arranged is used.
  • the plurality of filters 87 are arranged such that the filters 88 arranged in the x direction include three types of filters 87R, 87G, 87B of red, green and blue.
  • the plurality of filters 87 are arranged such that the same type of filter 87 out of the three types of filters 87R, 87G, 87B is not adjacent along the second direction. This makes it possible to arrange the three types of filters 87R, 87G, 87B in the measurement area 85 without deviation. As a result, it is possible to accurately measure the intensity of modulated light of each color of RGB.
  • the arrangement method of the three types of filters 87R, 87G, and 87B is not limited to that shown in FIG. 6, and may be appropriately set.
  • the plurality of filters 87 include noise filters 87N.
  • the noise filter 87N transmits light of noise components transmitted by each of the three types of red, green, and blue filters 87R, 87G, and 87B. That is, the noise filter 87N transmits light of noise components passing through the red filter 87R, light of noise components passing through the green filter 87G, and light of noise components passing through the blue filter 87B.
  • the noise filter 87N detects light in a wavelength band of about 200 nm to about 660 nm with a low sensitivity of about 1-5%. Therefore, it is possible to measure the intensity of light detected by the measurement unit 86 of each color as light of a noise component by the measurement unit 86 (hereinafter referred to as a noise measurement unit) in which the noise filter 87N is disposed. By subtracting the intensity of noise component light measured by the noise measurement unit 86 from the intensity of each light of RGB measured by the measurement units 86R, 86G, and 86B of each color, the intensity of modulated light of each color can be obtained with high accuracy It becomes possible to measure.
  • the noise filter 87N is disposed so as to be included in at least one of the filters 88 aligned in the lateral direction. Also, the noise filter 87N is disposed so as not to be adjacent along the vertical direction. As a result, the noise filter 87N can be disposed without being biased in the measurement area 85, and the intensity of modulated light of each color of RGB can be measured with high accuracy.
  • noise components caused by the reflected light from the projection optical system 70 are sufficiently suppressed. Therefore, even if the noise filter 87N is not used, it is possible to project an image with high accuracy. Of course, a higher precision image may be projected by using the noise filter 87N.
  • the control unit 90 shown in FIG. 1 when the measurement mode of the first and second image lights 10 and 20 is selected, the control unit 90 shown in FIG. 1 outputs the first image light 10 by the first image generation unit 100.
  • the emission of the second image light 20 by the second image generation unit 200 is appropriately switched and executed.
  • the first image generation unit 100 emits image light for measurement (concept included in the first image light 10).
  • the image light for measurement is, for example, image light for projecting a white image, a black image, or any other image.
  • movement which controls projection of image light is also included in the operation
  • image light such as a content image to be viewed may be emitted.
  • the sensor unit 80 detects the state of the image light for measurement, and the detection result is output to the control unit 90.
  • the second image generation unit 200 emits an image for measurement (concept included in the second image light 20).
  • the sensor unit 80 detects the state of the image for measurement, and the detection result is output to the control unit 90.
  • the timing at which the measurement mode is selected is not limited.
  • the measurement mode may be automatically selected in accordance with the timing when the user activates the image display device 500 or the timing when an instruction to end the driving of the image display device 500 is input.
  • the measurement may be performed according to the timing at which the manufacturer's logo or the like is displayed at the time of start-up, or the black screen may be displayed during standby until the end of driving is completed.
  • an instruction to perform measurement may be input by the user, and the measurement mode may be selected according to the input of the instruction.
  • the control unit 90 controls the brightness (intensity) of the first and second image lights 10 and 20 based on the state of the measurement image light emitted from each of the first and second image generation units 100 and 200. , Chromaticity, and the shape of the luminous flux. That is, in the present embodiment, the control unit 90 also functions as a part of the sensor unit 80.
  • calibration is performed based on the state of the image light for each measurement.
  • Calibration enables, for example, measurement and correction of white balance (white chromaticity) and measurement and correction of color space (color space), that is, measurement and correction of RGB monochromatic chromaticity with high accuracy.
  • various processes such as gamma measurement and correction can be performed.
  • the image display device 500 includes a brightness sensor that adjusts the brightness of the image in accordance with the surrounding brightness, it is also possible to correct the brightness adjustment function or the like by the brightness sensor.
  • FIG. 7 is a schematic view showing another configuration example of the sensor unit 80.
  • the sensor unit 80 shown in FIG. 7 transmits light that is P-polarized light to the bonding surface 51 of the image combining unit 50, and restricts the progress of light in other polarization states;
  • the first sensor 81a detects the state of P-polarized light transmitted through the polarizer 89a.
  • the sensor unit 80 transmits the light to be S-polarized light to the bonding surface 51 of the image combining unit 50, and restricts the progress of light in other polarization states, and the second polarizing plate A second sensor 81b is provided to detect the state of S-polarized light passing through 89b.
  • the first image light 10C emitted from the first image generation unit 100 is incident on the first sensor 81a via the first polarizing plate 89a.
  • the second image light 20C emitted from the second image generation unit 200 is incident on the second sensor 81b through the second polarizing plate 89b. Therefore, the sensor unit 80 shown in FIG. 7 simultaneously detects the states of the first and second image lights 10 and 20 without switching the emission operation of each of the first and second image generation units 100 and 200. It is possible.
  • the first polarizing plate 89a corresponds to a first filter for extracting light in the first polarization state
  • the second polarizing plate 89b extracts light in the second polarization state.
  • the second filter corresponds to the second filter.
  • other optical components than the wave plate may be used.
  • one sensor may be disposed, and a polarizing element such as a polarizing plate may be rotatably disposed in front of the sensor.
  • a polarizing element such as a polarizing plate may be rotatably disposed in front of the sensor.
  • FIG. 8 is a schematic view showing a configuration example of an image display apparatus 900 given as a comparative example.
  • the image display apparatus 900 of the comparative example includes a sensor 981 in the vicinity of the reflective polarizing element 931 (931R, 931G, 931B) (prism-type beam splitter) for each color of RGB included in the first image generation unit 901. (981R, 981G, 981B) are arranged.
  • the senor 981 is disposed in proximity to the surface of the reflective polarizing element 931 facing the surface on which each of the RGB light beams is incident. The state of leaked light of each color light which is transmitted without being reflected by the reflective polarizing element 931 is detected by the sensor 981 for each color of RGB.
  • the reflected light 905 reflected by the projection optical system 970 travels in the reverse direction to the main light paths of the first and second image lights 10 and 20, and is reflected.
  • Light is incident on the second polarizing element 931.
  • the reflected light 905 is reflected by the reflective polarizing element 931 toward the sensor 981 and enters the sensor 981. That is, in the image display device 900, interface reflection of projection light (image light) by a projection lens or the like directly enters the sensor 981, so the noise component becomes very large. As a result, the sensing accuracy by the sensor 981 becomes very low.
  • the reflected light from the projection optical system 70 does not enter the sensor 81, and the generation of noise components due to the reflected light can be sufficiently suppressed. . This makes it possible to exhibit high sensing accuracy.
  • the sensor unit 80 is disposed in the vicinity of the image combining unit 50 disposed immediately in front of the projection optical system 70. Then, the first and second image lights 10 and 20 generated by the first and second image generation units 100 and 200 are sensed. Therefore, it becomes possible to sense light with high correlation of projection light (image light) projected by the projection optical system 70, and it becomes possible to exhibit high sensing accuracy. In addition, as compared with the case of sensing the diffracted light or the like of the projection light, very high sensing accuracy is exhibited.
  • the first and second image lights 10 and 20 emitted from the first and second image generation units 100 and 200 are sensed. That is, the reflective polarization element 131, the reflective light modulation element 132, the wavelength plate 133, the polarization beam splitter 134, the half wavelength plate 135, the color combining prism 136, and the polarization plate 137 included in the image modulation unit 130 illustrated in FIG. The light passing through is sensed.
  • the deterioration of these optical components it is possible to detect the deterioration of these optical components.
  • replacement of the optical component can be performed at an appropriate timing, and maintenance cost and the like can be suppressed. Also, for example, it is possible to properly prepare a new optical component for replacement before the optical component is completely broken. That is, it is possible to shorten the time required for repair by preparing a replacement part in anticipation of failure in advance.
  • Adjustment of compensation plate by black luminance FB It is also possible to provide the image display device 500 according to the present embodiment with a mechanism capable of rotating the axis of the wave plate 133 functioning as a compensation plate using a motor or the like. In this case, the black luminance detected by the sensor unit 80 can be fed back (FB) to rotate the axis of the wave plate 133. This makes it possible to prevent the deterioration of the contrast due to the compensation plate displacement. Alternatively, it is also possible to compensate for the decrease in contrast due to the deterioration of the other optical members. Adjustment of the compensation plate may be performed automatically or may be performed by user operation via a remote control or the like.
  • the positions, angles, and the like of other optical components may be changed.
  • the adjustment mechanism or the like in the image display apparatus 500 it is possible to display an image with high accuracy based on the sensing result.
  • a sensor for each color of RGB is required in each of the first and second image generation units. That is, a total of six sensors are required, which increases the cost of parts.
  • the cost of parts can be reduced. It is possible.
  • a moving mechanism for moving the sensor is required, which complicates the apparatus.
  • a space for inserting the sensor is required, and the apparatus becomes larger.
  • the reliability of sensing results may be lowered, the operation time may be increased, and the cost may be increased by moving the sensor.
  • FIG. 9 to 11 are schematic diagrams showing another configuration example of the image generation unit.
  • the reflective polarizing element 631 (631R, 631G, 631B)
  • another polarizing element such as a wire grid polarizer may be used instead of the prism type beam splitter.
  • the direction in which the reflective light modulation elements 632 (632R, 632G, 632B) are arranged is not limited, and may be appropriately designed.
  • the sensor unit 680 by disposing the sensor unit 680 on the back side of the image combining unit 650 located immediately in front of the projection optical system 670, it is possible to detect the states of the first and second image lights with high accuracy. Is possible.
  • transmissive light modulation elements 732 (732R, 732G, 732B) may be used.
  • a polarizing plate or a compensation plate is disposed so as to sandwich the transmissive light modulation element 732.
  • Other arbitrary configurations may be adopted.
  • the sensor unit 780 on the back side of the image combining unit 750 located immediately in front of the projection optical system 770, it is possible to detect the states of the first and second image lights with high accuracy. Is possible.
  • FIG. 11 is a schematic view showing a configuration example of an image display device provided with one image generation unit. That is, instead of generating and combining a plurality of images such as the right-eye image and the left-eye image, one image generated by one image generation unit 801 is projected via the projection optical system 870.
  • the green modulated light G modulated by the reflective light modulation element 832 G is incident on the color combining prism 836.
  • the red modulated light R modulated by the reflection-type light modulation element 832R and the blue modulation light B modulated by the reflection-type light modulation element 832B are emitted along the same optical path by the reflection-type polarization element 831RB, and a color combining prism Incident on 836.
  • the color combining prism 836 functions as an embodiment of an optical element according to the present technology. That is, the color combining prism 836 reflects a part of the green modulated light G toward the projection optical system 870 as a first split light. Another part of the green modulated light G is transmitted as it is as the second split light.
  • the color combining prism 836 transmits a part of the red modulated light R and a part of the blue modulated light B as it is to the projection optical system 870 as the first split light.
  • the other part of the red modulated light R and the other part of the blue modulated light B are reflected on the light path of the other part of the green modulated light G as a second split light.
  • the sensor unit 880 is disposed on the light path of another part (second split light) of each color of RGB. Since the color combining prism 836 regulates that the reflected light from the projection optical system 870 is incident on the sensor unit 880, it is possible to detect the state of each of the RGB modulated lights with high accuracy.
  • the present technology is not limited to an image display device that generates two images using six light modulation elements and combines them, and is applicable to any image display device.
  • FIG. 2, FIG. 9, and FIG. 10 even in the case where a prism type beam splitter in which an image generation unit is independently disposed and disposed as an image combining unit is disposed as an optical element according to the present technology. possible.
  • a prism type polarizing beam splitter such as the image combining unit 50 is disposed as an optical component for aligning the polarization state.
  • the optical element according to the present technology can be disposed at any position on the main optical path.
  • the polarization beam splitter 134 shown in FIG. 2 may be used as an embodiment of the optical element according to the present technology, and the sensor unit may be disposed on the back side. Even in this case, it is possible to detect the state of the image light with high accuracy.
  • the optical element according to the present technology is not limited to the polarization beam splitter, and a half mirror, a glass plate, or the like can be used. It is optional that the light can be split into the first and second split lights, and the light traveling in the reverse direction of the optical path of the first split light can be restricted to travel along the optical path of the second split light.
  • the following optical components may be used. When a plate-shaped optical component that is not a prism type is used, the surface on the side from which the first split light is emitted is the first exit surface, and the surface on the side from which the second split light is output is the second. It will be the exit surface.
  • angle at which the light separation surface intersects with the incident light is not limited to 45 degrees and may be arbitrarily designed.
  • the present invention is not limited to the case where the first and second image lights are the image lights of the right eye image and the left eye image.
  • the same image light generated based on the same image signal may be projected as the first and second image lights, respectively.
  • the life of the liquid crystal panel can be extended by suppressing the amount of light incident on the liquid crystal panel or the like. Then, by combining and projecting the same image, it is possible to suppress the decrease in luminance, and high luminance is realized. Of course, by intentionally combining different images and projecting, it is also possible to exert an interesting viewing effect.
  • the case of sensing the leaked light of each of the first and second image lights is taken as an example. That is, using the optical component configured to impart a predetermined action to incident light, the incident light is not provided with the first separated light to which the predetermined action is applied and the predetermined action. It separated into the second separated light.
  • the application of the predetermined action is transmission / reflection for a predetermined polarization state. Then, the first split light to which the action of transmission / reflection was given to the predetermined polarization state and the second split light to which the action was not given were separated.
  • the present invention is not limited to this, and the first and second separated lights may be emitted by giving a predetermined action to any of them.
  • the case where the half mirror illustrated above is used is included in this.
  • the present technology can also adopt the following configuration.
  • a light modulation element The modulated light modulated by the light modulation element is split into a first split beam and a second split beam traveling in different directions, and travels in the reverse optical path of the first split beam to be incident.
  • An optical element that regulates that light travels along the optical path of the second separated light;
  • An image display apparatus comprising: a sensor unit disposed on an optical path of the second separated light and detecting a state of the second separated light.
  • the sensor unit is disposed on the other light path.
  • the image display device has a first emission surface for emitting the first separated light, and a second emission surface for emitting the second separated light different from the first emission surface.
  • the image display device has a light separation surface which is disposed obliquely to the incident direction of the modulated light incident on the optical element.
  • the light separation surface transmits a part of the modulated light incident on the light separation surface as the first separated light, and reflects another part of the modulated light as the second separated light.
  • An image display apparatus wherein the sensor unit is disposed on the light separation surface side that reflects the second separated light.
  • An image display apparatus wherein the sensor unit is disposed on the side opposite to the light separation surface.
  • the image display device according to any one of (1) to (6), wherein The optical display device separates the modulated light such that the light amount of the first separated light is larger than the light amount of the second separated light.
  • the image display device according to any one of (1) to (7), further comprising: A combining unit that combines a plurality of modulated lights to generate combined modulated light; and a projection unit that projects the combined modulated light generated by the combining unit, The image display device is disposed between the combining unit and the projection unit, and the optical element separates the combined modulated light into the first separated light and the second separated light.
  • the optical element includes a first surface on which the modulated light is incident, a light separating surface for separating the modulated light incident on the first surface, and the second separated light separated by the light separating surface.
  • the image display device according to any one of (1) to (9), wherein The optical element is a polarization beam splitter, a half mirror, or a glass plate.
  • the image display apparatus further comprising: A first emission unit configured to emit a first image light of a first polarization state along a first direction, The optical element has a light separation surface disposed obliquely to the first direction, The light separation surface transmits a part of the first image light onto a first light path along the first direction, and the other part of the first image light in the first direction.
  • the image display device On a second light path along a second direction substantially orthogonal to The sensor unit is disposed on the second light path.
  • the image display device further comprising A second emission unit configured to emit a second image light of a second polarization state along the second direction;
  • the light separation surface is disposed obliquely to the second direction, reflects a part of the second image light onto the first light path, and the other part of the second image light.
  • the image display apparatus transmits the second light path.
  • the image display device wherein
  • the sensor unit includes a first filter for extracting light in the first polarization state, a first sensor for detecting a state of light extracted by the first filter, and the second polarization state.
  • An image display apparatus comprising: a second filter for extracting light; and a second sensor for detecting a state of light extracted by the second filter.
  • the image display device according to any one of (1) to (13), wherein The sensor unit detects at least one of the intensity, the chromaticity, and the shape of a light beam of the second separated light.
  • the image display device according to any one of (1) to (14), The optical element is configured to impart a predetermined action to incident light, and the modulated light incident on the optical element is the first split light to which the predetermined action is applied. An image display device that separates the light into the second separated light to which the predetermined action is not applied.
  • OP1 Main light path OP2: Other light path 10, 10A, 10B, 10C: First image light 20, 20A, 20B, 20C: Second image light 50, 650, 750: Image combining unit 51: Bonding surface 70, 670, 770, 870 ... Projection optical system 80, 680, 780, 880 ... Sensor unit 81 ... Sensor 81a ... First sensor 81b ... Second sensor 89a ... First polarizing plate 89b ... Second polarizing plate 100 ...
  • First image generation unit 110 illumination optical system 130: image modulation unit 132 (132R, 132G, 132B), 232G, 632, 832R, 832G, 832B: reflection type light modulation element 200: second image generation unit 500: Image display device 732 ... Transmission type light modulation element 801 ... Image generation unit 836 ... Color combining prism

Abstract

本技術の一形態に係る画像表示装置は、光変調素子と、光学素子と、センサ部とを具備する。前記光学素子は、前記光変調素子により変調された変調光を互いに異なる方向に進行する第1の分離光と第2の分離光とに分離し、前記第1の分離光の光路を逆向きに進行して入射する光が前記第2の分離光の光路に沿って進行することを規制する。前記センサ部は、前記第2の分離光の光路上に配置され、前記第2の分離光の状態を検出する。

Description

画像表示装置
 本技術は、プロジェクタ等の画像表示装置に関する。
 従来からプロジェクタ等の画像表示装置が広く用いられている。例えば光源からの光が液晶素子等の光変調素子により変調され、その変調光がスクリーン等に投影されることで画像が表示される。光源としては、水銀ランプ、キセノンランプ、LED(Light Emitting Diode)やLD(Laser Diode)等が用いられる。このうちLEDやLD等の固体光源は寿命が長く従来のようなランプ交換が不要であり、また電源を入れて即時に点灯するといった利点を有する。
 特許文献1には、偏光特性の違いを応用して3D(立体)映像の表示を行う画像投射装置について記載されている。この画像投射装置では、プリズム型ビームスプリッタに対してP偏光となるように右目用の映像が入射され、S偏光となるように左目用の映像が入射される。プリズム型ビームスプリッタにより右目用の映像及び左目用の映像が合成され、投射レンズを介してスクリーン上に投射される(特許文献1の明細書段落[0040][0049][0051]図3等)。
 特許文献2には、RGBの各光を反射型ライトバルブに反射し、反射型ライトバルブにより変調された光を、投射レンズに向けて透過させる偏光ビームスプリッタを備える投射型表示装置について記載されている。この投射型表示装置では、偏光ビームスプリッタの面のうち、RGBの各光が入射する面と対向する面側に、エリアセンサが配置される。エリアセンサにより、偏光ビームスプリッタにより反射されずにそのまま透過する漏れ光の状態が検出される。エリアセンサの検出結果に基づいて、各部品の位置調整が容易に可能となり、また各部品の劣化状態を把握することが可能となる(特許文献2の明細書段落[0044]~[0058][0083]図3等)。
国際公開第2014/132675号 特開2008-129261号公報
 今後も、レーザ光源を使用したデジタルシネマ用の大型プロジェクタや、3D映像用に構成されたプロジェクタ等、種々のプロジェクタが普及していくものと考えられる。このようなプロジェクタ等の画像表示装置において、光の状態を高精度に検出することが可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、光の状態を高精度に検出することが可能な画像表示装置を提供することにある。
 上記目的を達成するため、本技術の一形態に係る画像表示装置は、光変調素子と、光学素子と、センサ部とを具備する。
 前記光学素子は、前記光変調素子により変調された変調光を互いに異なる方向に進行する第1の分離光と第2の分離光とに分離し、前記第1の分離光の光路を逆向きに進行して入射する光が前記第2の分離光の光路に沿って進行することを規制する。
 前記センサ部は、前記第2の分離光の光路上に配置され、前記第2の分離光の状態を検出する。
 この画像表示装置では、光学素子により変調光が第1及び第2の分離光に分離される。また光学素子により、第1の分離光の光路を逆向きに進行して入射する光が第2の分離光の光路に沿って進行することが規制される。従って第2の分離光の光路にセンサ部を配置することで、変調光の状態を高精度に検出することが可能となる。
 前記光学素子は、前記変調光の主光路上に配置され、前記第1の分離光を前記主光路に沿って出射し、前記第2の分離光を他の光路に沿って出射してもよい。
 前記光学素子は、前記第1の分離光を出射する第1の出射面と、前記第1の出射面とは異なる前記第2の分離光を出射する第2の出射面とを有してもよい。この場合、前記センサ部は、前記第2の出射面側に配置されてもよい。
 前記光学素子は、前記光学素子に入射する前記変調光の入射方向に対して斜めに配置される光分離面を有してもよい。
 前記光分離面は、前記光分離面に入射する前記変調光の一部を前記第1の分離光として透過させ、前記変調光の他の一部を前記第2の分離光として反射してもよい。この場合、前記センサ部は、前記第2の分離光を反射する前記光分離面側に配置されてもよい。
 前記光分離面は、前記光分離面に入射する前記変調光の一部を前記第1の分離光として反射し、前記変調光の他の一部を前記第2の分離光として透過させてもよい。この場合、前記センサ部は、前記光分離面とは反対側の面側に配置されてもよい。
 前記光学素子は、前記第1の分離光の光量が前記第2の分離光の光量よりも大きくなるように、前記変調光を分離してもよい。
 前記画像表示装置は、さらに、複数の変調光を合成して合成変調光を生成する合成部と、前記合成部により生成された前記合成変調光を投射する投射部とを具備してもよい。この場合、前記光学素子は、前記合成部と前記投射部との間に配置され、前記合成変調光を前記第1の分離光と前記第2の分離光とに分離してもよい。
 前記光学素子は、前記変調光が入射する第1の面と、前記第1の面に入射する前記変調光を分離する光分離面と、前記光分離面により分離された前記第2の分離光が出射される第2の面とを有する光分離プリズムであってもよい。この場合、前記センサ部は、前記光分離プリズムの前記第2の面に近接して配置されてもよい。
 前記光学素子は、偏光ビームスプリッタ、ハーフミラー、又はガラス板であってもよい。
 前記画像表示装置は、さらに、第1の偏光状態の第1の画像光を第1の方向に沿って出射する第1の出射部を具備してもよい。この場合、前記光学素子は、前記第1の方向に対して斜めに配置される光分離面を有してもよい。また前記光分離面は、前記第1の画像光の一部を前記第1の方向に沿った第1の光路上に透過させ、前記第1の画像光の他の一部を前記第1の方向と略直交する第2の方向に沿った第2の光路上に反射してもよい。また前記センサ部は、前記第2の光路上に配置されてもよい。
 前記画像表示装置は、さらに、第2の偏光状態の第2の画像光を前記第2の方向に沿って出射する第2の出射部を具備してもよい。この場合、前記光分離面は、前記第2の方向に対して斜めに配置され、前記第2の画像光の一部を前記第1の光路上に反射し、前記第2の画像光の他の一部を前記第2の光路上に透過させてもよい。
 前記センサ部は、前記第1の偏光状態の光を抽出する第1のフィルタと、前記第1のフィルタにより抽出された光の状態を検出する第1のセンサと、前記第2の偏光状態の光を抽出する第2のフィルタと、前記第2のフィルタにより抽出された光の状態を検出する第2のセンサとを有してもよい。
 前記センサ部は、前記第2の分離光の強度、色度、及び光束の形状の少なくとも1つを検出してもよい。
 前記光学素子は、入射光に対して所定の作用を付与することを目的に構成され、前記光学素子に入射する前記変調光を、前記所定の作用が付与された前記第1の分離光と、前記所定の作用が付与されない前記第2の分離光とに分離してもよい。
 以上のように、本技術によれば、光の状態を高精度に検出することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係る画像表示装置の構成例を示す概略図である。 画像生成部の構成例を示す概略図である。 画像合成部の部分を拡大して示す拡大図である。 画像合成部の部分を拡大して示す拡大図である。 センサ部の構成例を示す概略図である。 センサ部の構成例を示す概略図である。 センサ部の他の構成例を示す模式図である。 比較例として挙げる画像表示装置の構成例を示す概略図である。 画像生成部の他の構成例を示す概略図である。 画像生成部の他の構成例を示す概略図である。 画像生成部の他の構成例を示す概略図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 [画像表示装置]
 図1は、本技術の一実施形態に係る画像表示装置の構成例を示す概略図である。画像表示装置500は、レーザ光源を用いたシネマ用のプロジェクタであり、光の偏光特性を利用して3D(立体)映像を表示することが可能である。
 以下、便宜的に、画像表示装置500を上方から見ているとして、図中のX方向を左右方向、Y方向を奥行方向、Z方向を高さ方向として説明を行う。もちろんXYZの各方向がこれらの方向に限定される訳ではなく、任意の方向及び向きにて画像表示装置500を使用することが可能である。
 画像表示装置500は、第1の画像生成部100と、第2の画像生成部200と、画像合成部50と、1/2波長板60と、投射光学系70と、センサ部80と、制御部90とを有する。
 第1の画像生成部100は、3D映像における右目画像を構成する第1の画像光10を生成して出射する。第1の画像生成部100は、赤色光、緑色光、及び青色光(RGBの各色光)ごとに光を変調し、その色ごとの変調光を合成することで第1の画像光10を生成する。なお各色の変調光も、画像光に含まれる概念である。
 図1に示すように、第1の画像生成部100は、X方向に沿って左向きに第1の画像光10を出射する。また第1の画像生成部100は、画像合成部50の接合面51に対してP偏光となるように、第1の画像光10を出射する。
 本実施形態において、第1の画像生成部100は、第1の出射部に相当する。またX方向は、第1の方向に相当する。また接合面51に対してP偏光である状態は、第1の偏光状態に相当する。
 第2の画像生成部200は、3D映像における左目画像を構成する第2の画像光20を出射する。第2の画像生成部200は、RGBの各色光ごとに光を変調し、その色ごとの変調光を合成することで第2の画像光20を生成する。
 図1に示すように、第2の画像生成部200は、Y方向に沿って手前向き(図中下向き)に第2の画像光20を出射する。また第2の画像生成部200は、画像合成部50の接合面51に対してP偏光となるように、第2の画像光20を出射する。
 第1及び第2の画像生成部100及び200は、互いに略等しい構成を有する。図1では、第1及び第2の画像生成部100及び200の各々について、一部の構成要素が模式的に図示されている。第1及び第2の画像生成部100及び200の各々については、後に詳しく説明する。
 1/2波長板60は、第2の画像生成部200と、画像合成部50との間に配置される。1/2波長板60は、使用される光の3原色の全波長帯にわたり、偏光方向を90°回転させる機能を有する。1/2波長板60の具体的な構成は限定されず、任意に設計されてよい。
 1/2波長板60により、第2の画像生成部200から出射される第2の画像光20の偏光方向が90°回転される。従って画像合成部50には、接合面51に対してS偏光となる第2の画像光20が出射される。
 本実施形態において、第2の画像生成部200及び1/2波長板60は、第2の出射部に相当する。またY方向は、第1の方向に略直交する第2の方向に相当する。また接合面51に対してS偏光である状態は、第2の偏光状態に相当する。
 画像合成部50は、プリズム型のビームスプリッタである。画像合成部50は、使用される光の3原色の全波長帯域にわたり、S偏光では高い反射率を持ち、P偏光では高い透過率を持つ偏光ビームスプリッタの特性を有する。
 本実施形態では、2つの略同型状の直角二等辺プリズムが接合され、その接合面51に所定の光学特性を有する偏光膜が形成される。接合面51は、第1の画像光10及び第2の画像光20の各々の進行方向に対して、45°の角度で配置され、この接合面51に対してS偏光及びP偏光が定義される。
 接合面51は、P偏光である第1の画像光10を透過させ、S偏光である第2の画像光20を反射する。これにより第1及び第2の画像光10及び20が合成され、投射光学系70に向けて出射される。従って本実施形態では、接合面51に対してP偏光となる第1の画像光10により右目画像が表示され、S偏光となる第2の画像光20により左目画像が表示される。
 本実施形態において、画像合成部50は、光学素子に相当する。この点については、後に詳しく説明する。
 投射光学系70は、画像合成部50の出射側に配置され、画像合成部50により合成された第1及び第2の画像光10及び20を所定の倍率に拡大して、スクリーン等の被投射物に投射する。これにより右目画像及び左面画像が表示される。投射光学系70は、例えば複数の投射レンズ等を含み、具体的な構成は適宜設計されてよい。
 センサ部80は、光を受光するセンサ81を有し、光の状態を検出することが可能である。光の状態とは、例えば輝度(強度)、色度、及び光束の形状等を含む。なお光束の形状は、光束の大きさ(断面積)を含む概念である。
 センサ81として、任意の輝度センサや色度センサ等が用いられてよい。またセンサ81として、複数のセンサにより構成されたアレイセンサや、CMOSセンサやCCDセンサ等のイメージセンサが用いられてもよい。
 図1に示すように、センサ81は、画像合成部50の手前側(図中下方側)の面に近接して配置される。センサ81により、第1及び第2の画像光10及び20の各々の状態を高精度に検出可能である。この点については、後に詳しく説明する。
 制御部90は、画像表示装置500内の各機構の動作を制御する。制御部90は、第1及び第2の画像生成部100及び200や投射光学系70、その他の機構と電気的に接続され、各機構に制御信号を出力する。例えば第1及び第2の画像生成部100及び200に含まれる光源部や光変調素子の動作を制御することが可能である。
 制御部90は、例えばCPU、RAM、及びROM等を有し、CPUがROMに予め記録されている制御用プログラムをRAMにロードして実行することにより、各機構が制御される。制御部90の構成は限定されず、任意のハードウェア及びソフトウェアが用いられてよい。例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。また図1では破線にて制御部90が図示されているが、制御部90が配置される箇所等も限定されず、適宜設定されてよい。
 [画像生成部]
 図2は、画像生成部の構成例を示す概略図である。図2には、図1に示す画像表示装置500をY方向に沿って手前側から見た場合の、第1の画像生成部100の構成例が図示されている。図1に示す1/2波長板60及び第2の画像生成部200は、図2に示す画像合成部50の奥側に位置し、その図示は省略されている。
 第1の画像生成部100は、光源部101と、照明光学系110と、画像変調部130とを有する。光源部101は、白色光Wを生成して照明光学系110に出射する。光源部101には、例えばLED(Light Emitting Diode)やLD(Laser Diode)等の固体光源、又は水銀ランプやキセノンランプ等が配置される。
 例えばRGBの各色の光をそれぞれ出射可能なRGB用の固体光源が用いられ、これらの出射光が合成されて白色光Wが生成されてもよい。または青色の波長帯域の光を出射する固体光源と、青色光により励起されて黄色の蛍光を発する蛍光体とが配置されてもよい。この場合、青色光と黄色光とが合成されて白色光Wが出射される。
 照明光学系110は、インテグレータ素子111と、偏光変換素子112、113及び114と、集光レンズ115と、クロスダイクロイックミラー116と、反射ミラー117及び118と、ダイクロイックミラー119と、リレーレンズ120、121及び122とを有する。
 インテグレータ素子111は、第1及び第2のフライアイレンズ111a及び111bを有する。これら第1及び第2のフライアイレンズ111a及び111bを白色光Wが透過することにより、白色光Wの輝度ムラが低減される。
 偏光変換素子112は、インテグレータ素子111を介して入射する白色光Wの偏光状態を揃える機能を有する。偏光変換素子112としては、偏光板や偏光ビームスプリッタ等の任意の光学素子が用いられてよい。偏光変換素子112を通った白色光Wは、集光レンズ115を介してクロスダイクロイックミラー116に出射される。
 クロスダイクロイックミラー116は、集光レンズ115から出射された白色光Wを、長波長側の赤色光Rと、短波長側の緑色光G及び青色光Bとに分光する。クロスダイクロイックミラー116により分光された赤色光Rは、反射ミラー117により反射されて偏光変換素子113に入射する。偏光変換素子113により偏光状態が揃えられた赤色光Rは、リレーレンズ120を介して、画像変調部130に出射される。
 クロスダイクロイックミラー116により分光された緑色光G及び青色光Bは、反射ミラー118により反射されて偏光変換素子114に入射する。偏光変換素子114により偏光状態が揃えられた緑色光G及び青色光Bは、ダイクロイックミラー119により、長波長側の緑色光Gと、短波長側の青色光Bとに分光される。
 ダイクロイックミラー119により分光された緑色光Gはリレーレンズ121を介して、画像変調部130に出射される。ダイクロイックミラー119により分光された青色光Bはリレーレンズ122を介して、画像変調部130に出射される。
 画像変調部130は、RGBの各色用に配置される反射型偏光素子131(131R、131G、131B)、反射型光変調素子132(132R、132G、132B)、波長板133(133R、133G、133B)、偏光ビームスプリッタ134(134R、134G、134B)、及び1/2波長板135(135R、135G、135B)を有する。また画像変調部130は、第1の画像光10を生成するための色合成プリズム136及び偏光板137を有する。
 反射型偏光素子131は、プリズム型のビームスプリッタである。図2に示すリレーレンズ120~122の各々からは、反射型偏光素子131の接合面に対してS偏光となるように、RGBの各光が出射される。
 反射型偏光素子131Rは、赤色光RのS偏光成分を波長板133Rに向けて反射する。波長板133Rは、黒輝度の浮きを補償する補償板として機能し、入射する赤色光Rの偏光方向を回転させて、反射型光変調素子132Rへ出射する。偏光方向の回転角度は、高精度の画像が投射されるように、適宜設定される。
 反射型光変調素子132Rは、外部から供給される赤色光Rに対応した画像信号に基づいて、入射する赤色光Rを変調して反射する。反射型光変調素子132Rとしては、典型的には、反射型液晶パネルが用いられるが、これに限定される訳ではない。
 反射型光変調素子132Rにより変調された赤色光R(同じ符号を用いて変調光Rと記載する)は、波長板133Rを介して、反射型偏光素子131Rに入射する。変調光RのP偏光成分が接合面を透過して、偏光ビームスプリッタ134Rに入射する。
 偏光ビームスプリッタ134Rは、偏光変換素子として機能し、変調光Rの偏光状態が揃えられ不要光がカットされる。偏光ビームスプリッタ134Rから出射される変調光Rは、1/2波長板135Rにより偏光方向が90°回転されて、色合成プリズム136に出射される。
 緑色光G及び青色光Bも同様に、反射型光変調素子132G及び132Bにより変調され、反射型偏光素子131G及び131Bから1/2波長板135G及び135Bを介して、色合成プリズム136に出射される。
 色合成プリズム136は、例えば複数のガラスプリズム(4つの略同型状の直角二等辺プリズム)を接合することによって構成される。各ガラスプリズムの接合面には、所定の光学特性を有する2つの干渉膜が形成される。
 そのうちの第1の干渉膜は、青色光Bを反射し、赤色光R及び緑色光Gを透過させる。第2の干渉膜は、赤色光Rを反射し、青色光B及び緑色光Gを透過させる。第1及び第2の干渉膜は、S偏光の光に対する反射率が高く、P偏光の光に対する反射率は低いという特性を有する。
 本実施形態では、変調光RGBの各々が1/2波長板135により偏光方向が90°回転される。これにより変調光RGBの各々は、色合成プリズム136の接合面に対してS偏光で入射する。この結果、高輝度の画像を投射することが可能となる。
 変調光R及びBは接合面により反射され、変調光Gは接合面を透過する。これにより変調RGBが同一光路上に合成され、第1の画像光10が生成される。第1の画像光10は、偏光板137により偏光方向が揃えられて、画像合成部50に出射される。
 なお本実施形態では、色合成プリズム136の接合面に対してS偏光となる光が、画像合成部50の接合面51に対してP偏光となるように、第1の画像生成部100の向きが適宜設定されている。従って、第1の画像生成部100からは、画像合成部50の接合面51に対してP偏光となる第1の画像光10が出射される。
 上記したように、第2の画像生成部200は、第1の画像生成部100と略等しい構成を有する。第2の画像生成部200により、画像合成部50の接合面51に対してP偏光となる第2の画像光20が出射される。1/2波長板60により、第2の画像光20の偏光方向が90°回転される。これにより画像合成部50には、接合面51に対してS偏光となる第2の画像光20が出射される。
 なお図1には、第1の画像生成部100の構成要素のうち、反射型偏光素子131R、反射型光変調素子132G、波長板133G、偏光ビームスプリッタ134G、及び1/2波長板135G、色合成プリズム136及び偏光板137が図示されている。
 また第2の画像生成部200の構成要素のうち、反射型偏光素子231R、反射型光変調素子232G、波長板233G、偏光ビームスプリッタ234G、及び1/2波長板235G、色合成プリズム236及び偏光板237が図示されている。
 図3及び図4は、画像合成部50の部分を拡大して示す拡大図である。図3には、第1の画像生成部100から出射される第1の画像光10の挙動が模式的に図示されている。図4は、第2の画像生成部200から1/2波長板60を介して出射される第2の画像光20の挙動が模式的に図示されている。
 図3に示すように第1の画像生成部100から出射されたP偏光の第1の画像光10Aの多くが、接合面51を透過して、投射光学系70に向けて進行する。このX方向に沿って接合面51に入射する第1の画像光10A、及び接合面51を透過して同じくX方向に沿って投射光学系70に向けて進行する第1の画像光10Bの光路が、主光路OP1となる。
 主光路OP1とは、画像光(変調光)が生成されて、投射光学系70によりスクリーン等に投射されるまでの、画像光(変調光)の光路のことである。従って、画像合成部50は、画像光(変調光)の主光路OP1に配置されることになる。
 一方、第1の画像生成部100から出射された第1の画像光10のうち、接合面51によりY方向に沿って手前向き(図中の下向き)に反射される第1の画像光10Cも存在する。第1の画像光10Cは、いわゆる漏れ光となり、主光路OP1とは異なる他の光路OP2に沿って進行する。
 本実施形態において、画像合成部50は、第1の画像生成部100から出射された第1の画像光10Aを、互いに異なる方向に進行する第1の画像光10Bと第1の画像光10Cとに分離する光学素子として機能する。すなわち画像合成部50は、第1の画像光10の主光路OP1上に配置され、第1の画像光10Bを主光路OP1に沿って出射し、第1の画像光10Cを他の光路OP2に沿って出射する。
 画像合成部50の接合面51は、画像合成部50に入射する第1の画像光10の入射方向(X方向)に対して斜めに配置される光分離面として機能する。詳細には、接合面51のうち、第1の画像光10が入射する側の面が、光分離面に相当する。
 本実施形態では、第1の画像光10の入射方向(X方向)に対して、45°の角度で接合面51(光分離面)が配置される。接合面51は、接合面51に入射する第1の画像光10Aの一部である第1の画像光10Bを透過させ、第1の画像光10Aの他の一部である第1の画像光10Cを反射する。
 投射光学系70に向かって進行する第1の画像光10Bは、投射光学系70によりスクリーン等に投射される。この際、第1の画像光10Bの一部が、投射光学系70内の投射レンズ等により反射される場合があり得る。
 投射レンズ等により反射された反射光は、第1の画像光10Bの光路である主光路OP1を逆向きに進行して、接合面51に再び入射する。接合面51に再び入射する反射光は、第1の画像生成部100に向けて透過されるか、あるいは第2の画像生成部200に向けて反射される。いずれにせよ、第1の画像光10Cの光路である他の光路OP2に沿って進行することはない。
 すなわち画像合成部50及び接合面51は、主光路OP1を逆向きに進行して入射する反射光が、他の光路OP2に沿って進行することを規制する機能も有している。本実施形態において、第1の画像光10Bは第1の分離光に相当し、第1の画像光10Cは第2の分離光に相当する。また主光路OP1は第1の光路に相当し、他の光路OP2は第2の光路に相当する。
 また第1の画像生成部100の色合成プリズム136は、複数の変調光を合成して合成変調光(第1の画像光10)を生成する合成部に相当する。また投射光学系70は、色合成部により合成された合成変調光を投射する投射部に相当する。画像合成部50は、色合成プリズム136と投射光学系70との間に配置され、合成変調光(第1の画像光10A)を第1の画像光10Bと第1の画像光10Cとに分離する。
 図3に示すように、センサ部80(センサ81)は、第1の画像光10Cの光路である他の光路OP2上に配置され、第1の画像光10Cの状態を検出する。画像合成部50の接合面51により、投射光学系70からの反射光が他の光路OP2に沿って進行することが規制されている。従って、センサ81に、投射光学系70からの反射光が入射することはなく、反射光によるノイズ成分の発生を十分に抑えることが可能となる。これにより第1の画像光10Cの状態を高精度に検出することが可能となり、第1の画像生成部100から出射される第1の画像光10Aの状態を高精度に検出することが可能となる。
 センサ81が配置される位置は、第1の画像光10Cを他の光路OP2に沿って反射する光分離面側の位置とも言える。第1の画像光10Aが入射する側の光分離面側にセンサ81を配置すれば、光分離面とは反対側の面(第1の画像光10Bが出射される側の面)に入射する反射光が、他の光路OP2に沿って進行することを規制することが可能である。
 本実施形態では、2つの略同型状の直角二等辺プリズムが接合されて画像合成部50が構成される。このようなプリズム型の構成は、本技術に係る光分離プリズムに含まれる構成である。
 図3に示すように、画像合成部50のZ方向と平行となる4つの側面を、第1~第4の側面52a~52dとする。
 第1の側面52aは、第1の画像生成部100に対向して配置され第1の画像光10が入射される面である。第2の側面52bは、第2の画像生成部200に対向して配置され第2の画像光20が入射される面である。第3の側面52cは、主光路OP1に沿って第1の画像光10Bが出射される面である。第4の側面52dは、他の光路OP2に沿って第1の画像光10Cが出射される面である。
 センサ81は、第1の画像光10Cが出射される第4の側面52d側に配置される。具体的には、第4の側面52dに近接して配置される。センサ81が第4の側面52dに当接されてもよいし、隙間を空けて配置されてもよい。
 画像合成部50としてプリズム型の構成を採用することで、センサ81の取付けが容易となる。本実施形態において、第1の側面52aは第1の面に相当する。第4の側面52dは第2の面及び第2の出射面に相当する。第3の側面52cは、第1の出射面に相当する。
 また接合面51に入射する第1の画像光10Aの多くは第1の画像光10Bとして主光路OP1に沿って進行する。そして他の一部である第1の画像光10Cは他の光路OP2に沿って進行する。すなわち画像合成部50の接合面51により、第1の画像光10Bの光量が第1の画像光10Cの光量よりも大きくなるように、第1の画像光10B及び10Cが分離される。これにより投射される画像の光量の損失を十分に抑えつつ、第1の画像光10のセンシングが可能となる。なお漏れ光をセンシングの対象として利用しているので、従来と比べても光量の損失はほとんどない
 図4に示すように、第2の画像生成部200から1/2波長板60を介して出射されたS偏光の第2の画像光20の多くが、接合面51により反射されて、投射光学系70に向けて進行する。このY方向に沿って接合面51に入射する第2の画像光20A、及び接合面51によりX方向に反射され投射光学系70に向けて進行する第2の画像光20Bの光路が、主光路OP1となる。
 本実施形態では、第2の画像光20Bの光路は、図3に示す第1の画像光10Bの光路に略一致する。従って接合面51から後段では、第1の画像光10B及び第2の画像光20Bは、同じ主光路OP1に沿って進行する。
 一方、第2の画像生成部200から出射された第2の画像光20のうち、接合面51をY方向に沿って透過する第2の画像光20Cも存在する。第2の画像光20Cは、いわゆる漏れ光となり、主光路OP1とは異なる他の光路OP2に沿って進行する。
 本実施形態では、第2の画像光20Cの光路は、図3に示す第1の画像光10Cの光路に略一致する。従って第1の画像光10C及び第2の画像光20Cは、同じ他の光路OP2に沿って進行する。
 画像合成部50は、第2の画像生成部200から出射された第2の画像光20Aを、互いに異なる方向に進行する第2の画像光20Bと第2の画像光20Cとに分離する光学素子としても機能する。すなわち画像合成部50は、第2の画像光20の主光路OP1上に配置され、第2の画像光20Bを主光路OP1に沿って出射し、第2の画像光20Bを他の光路OP2に沿って出射する。
 画像合成部50の接合面51は、画像合成部50に入射する第2の画像光20の入射方向(Y方向)に対して斜めに配置される光分離面としても機能する。詳細には、接合面51のうち、第2の画像光20が入射する側の面が、光分離面に相当する。すなわち第1の画像光10に対する光分離面と、第2の画像光20に対する光分離面とは、互いに反対側の面となる。
 本実施形態では、第2の画像光20の入射方向(Y方向)に対して、45°の角度で接合面51(光分離面)が配置される。接合面51は、接合面51に入射する第2の画像光20Aの一部である第1の画像光20Bを反射し、第2の画像光20Aの他の一部である第2の画像光20Cを反射する。
 また画像合成部50及び接合面51は、主光路OP1を逆向きに進行して入射する反射光が、他の光路OP2に沿って進行することを規制する。すなわち第2の画像光20に対しても、投射光学系70により反射された反射光が、他の光路OP2に沿って進行することが規制されている。なお、第2の画像光20Bは第1の分離光に相当し、第2の画像光20Cは第2の分離光に相当する。また主光路OP1は第1の光路に相当し、他の光路OP2は第2の光路に相当する。
 また第2の画像生成部200の色合成プリズム236は、複数の変調光を合成して合成変調光(第2の画像光20)を生成する合成部に相当する。画像合成部50は、色合成プリズム236と投射光学系70との間に配置され、合成変調光(第2の画像光20A)を第2の画像光10Bと第2の画像光10Cとに分離する。
 図4に示すように、センサ部80(センサ81)は、第2の画像光20Cの光路である他の光路OP2上に配置され、第2の画像光10Cの状態を検出する。画像合成部50の接合面51により、投射光学系70からの反射光が、他の光路OP2に沿って進行することが規制されている。従って、センサ81に、投射光学系70からの反射光が入射することはなく、反射光によるノイズ成分の発生を十分に抑えることが可能となる。これにより第2の画像光20Cを高精度に検出することが可能となり、第2の画像生成部200から出射される第2の画像光20Aを高精度に検出することが可能となる。
 すなわち本実施形態では、画像合成部50の接合面51に対して、主光路OP1とは反対側に構成される他の光路OP2にセンサ81を配置される。これによりP偏光状態の第1の画像光10と、S偏光状態の第2の画像光20とを、それぞれ高精度にセンシングすることが可能となる。
 なおセンサ81が配置される位置は、第2の画像光20Cが他の光路OP2に沿って出射する側の面、すなわち光分離面とは反対側の面側の位置とも言える。光分離面とは反対側の面側にセンサ81を配置すれば、第2の画像光20Bが反射される側の光分離面に入射する反射光が、他の光路OP2に沿って進行することを規制することが可能である。
 図3と同様に、画像合成部50のZ方向と平行となる4つの側面を、第1~第4の側面52a~52dとする。センサ81は、第2の画像光20Cが出射される第4の側面52d側に配置される。具体的には、第4の側面52dに近接して配置される。本実施形態において、第2の側面52bは第1の面に相当する。第4の側面52dは第2の面及び第2の出射面に相当する。第3の側面52cは、第1の出射面に相当する。
 また接合面51に入射する第2の画像光20Aの多くは第2の画像光20Bとして反射され、主光路OP1に沿って進行する。そして他の一部である第2の画像光20Cが他の光路OP2に沿って透過する。すなわち画像合成部50の接合面51により、第2の画像光20Bの光量が第2の画像光20Cの光量よりも大きくなるように、第2の画像光20B及び20Cが分離される。これにより投射される画像の光量の損失を十分に抑えつつ、第2の画像光20のセンシングが可能となる。なお漏れ光をセンシングの対象として利用しているので、従来と比べても光量の損失はほとんどない
 図5及び図6は、センサ部80の構成例を示す概略図である。図5及び図6に例示するセンサ部80は、フレキシブル回路基板82に接続された回路基板83と、回路基板83に実装されるセンサ81とを有する。回路基板83及びフレキシブル回路基板82を介して、センサ81により測定された光強度の信号が、図1の制御部90等に出力される。またセンサ81や回路基板83に、制御信号や駆動電力が供給される。
 センサ81は、受光面84を有し、受光面84の一部が測定領域85(Actiuve Area)として設定されている。図6は、センサ81の測定領域85を示す概略図である。センサ81は、入射する光の強度を測定可能な複数の測定部86を有する。すなわち測定領域85には、複数の測定部86が配置されている。複数の測定部86は、互いに直交する方向に沿って、二次元状に配置される。本実施形態では、横方向に4個、縦方向に10個の計40個の測定部86がマトリクス状に配置される。
 またセンサ81は、複数の測定部86の各々に配置される、所定の波長帯域の光を透過させる複数のフィルタ87を有する。すなわち40個の測定部86のそれぞれに対応して、フィルタ87が配置される。本実施形態では、複数のフィルタ87は、3種類のフィルタとして、赤色の波長帯域の光を透過させる赤色フィルタ87Rと、緑色の波長帯域の光を透過させる緑色フィルタ87Gと、青色の波長帯域の光を透過させる青色フィルタ87Bとを有する。
 測定領域85に第1及び第2の画像光10C及び20Cが入射されると、赤色フィルタ87Rが配置された測定部86により赤色変調光Rの強度が測定される。同様に、緑色フィルタ87Gが配置された測定部86により緑色変調光Gの強度が測定され、青色フィルタ87Bが配置された測定部86により青色変調光Bの強度が測定される。例えば同じ色のフィルタ87が配置された複数の測定部86により測定された強度の平均値が用いられる。
 図6に示すように、複数のフィルタ87は、x方向に沿って並ぶフィルタ群88に赤色、緑色、青色の3種類のフィルタ87R、87G、87Bが含まれるように配置される。また複数のフィルタ87は、3種類のフィルタ87R、87G、87Bうち同じ種類のフィルタ87が第2の方向に沿って隣接しないように配置される。これにより、測定領域85に3種類のフィルタ87R、87G、87Bを偏りなく配置することが可能となる。この結果、RGBの各色の変調光の強度を精度よく測定することが可能となる。なお3種類のフィルタ87R、87G、87Bの配置方法は、図6に示すものに限定されず適宜設定されてよい。
 また本実施形態では、複数のフィルタ87は、ノイズフィルタ87Nを有する。ノイズフィルタ87Nは、赤色、緑色、青色の3種類のフィルタ87R、87G、87Bの各々が透過させるノイズ成分の光を透過させる。すなわちノイズフィルタ87Nは、赤色フィルタ87Rを透過するノイズ成分の光と、緑色フィルタ87Gを透過するノイズ成分の光と、青色フィルタ87Bを透過するノイズ成分の光とを透過させる。
 ノイズフィルタ87Nは、約200nmから約660nmの波長帯域の光を約1-5%の低い感度で検出する。従ってノイズフィルタ87Nが配置された測定部86(以下、ノイズ測定部と記載する)により、各色の測定部86がノイズ成分の光として検出する光の強度を測定することが可能である。ノイズ測定部86により測定されたノイズ成分光の強度を、各色の測定部86R、86G、86Bにより測定された、RGBの各光の強度から引くことで、各色の変調光の強度を高い精度で測定することが可能となる。
 図6に示すように、ノイズフィルタ87Nは、横方向に沿って並ぶフィルタ群88に少なくとも1つ含まれるように配置される。またノイズフィルタ87Nは、縦方向に沿って隣接しないように配置される。これにより、測定領域85において偏ることなくノイズフィルタ87Nを配置することが可能となり、RGBの各色の変調光の強度を精度よく測定することが可能となる。
 なお本実施形態では、投射光学系70からの反射光に起因するノイズ成分は十分に抑えられている。従ってノイズフィルタ87Nが用いられなくても、高い精度の画像を投射することが可能である。もちろんノイズフィルタ87Nを用いることでさらに高精度の画像が投射されてもよい。
 本実施形態では、第1及び第2の画像光10及び20の測定モードが選択されると、図1に示す制御部90により、第1の画像生成部100による第1の画像光10の出射と、第2の画像生成部200による第2の画像光20の出射とが、適宜切替えられて実行される。
 例えば第2の画像生成部200による出射動作がOFFされた状態で、第1の画像生成部100により、測定用の画像光(第1の画像光10に含まれる概念)が出射される。測定用の画像光は、例えば白画像や黒画像、その他任意の画像を投射するための画像光である。なお黒画像等を表示させる場合に画像光の投射を規制する動作も、画像光の投射する動作に含まれる。また視聴対象となるコンテンツ画像等の画像光が出射されてもよい。センサ部80により、測定用の画像光の状態が検出され、検出結果が制御部90に出力される。
 その後、第1の画像生成部100の出射動作がOFFされた状態で、第2の画像生成部200により、測定用の画像(第2の画像光20に含まれる概念)が出射される。センサ部80により測定用の画像の状態が検出され、検出結果が制御部90に出力される。
 測定モードが選択されるタイミングは限定されない。例えばユーザが画像表示装置500を起動させたタイミングや、画像表示装置500の駆動を終了する指示が入力されたタイミングに合わせて、自動的に測定モードが選択されてもよい。例えば起動時のメーカーのロゴマーク等が表示されるタイミングに合わせて測定を実行する場合や、駆動の終了が完了するまでの待機中に黒画面を表示させて測定を実行する場合等が挙げられる。もちろんユーザにより測定を実行する旨の指示が入力され、当該指示の入力に応じて測定モードが選択されてもよい。
 制御部90は、第1及び第2の画像生成部100及び200の各々から出射された測定用の画像光の状態に基づいて、第1及び第2の画像光10及び20の輝度(強度)、色度、及び光束の形状等を検出する。すなわち本実施形態では、制御部90もセンサ部80の一部として機能する。
 例えば各々の測定用の画像光の状態に基づいて、キャリブレーションが実行される。キャリブレーションにより、例えばホワイトバランス(ホワイト色度)の測定及び補正や、色域(Color Space)の測定及び補正、すなわちRGB単色色度の測定及び補正が高い精度で可能となる。またガンマの測定及び補正等、種々の処理が実行可能となる。例えば画像表示装置500が、周囲の明るさに合わせて画像の輝度を調整する輝度センサを有している場合には、その輝度センサによる輝度調整機能の補正等も可能となる。
 また右目画像及び左面画像の輝度や色度等のバランスを調整することも可能である。その他、センサ部80の検出結果に基づいた他の処理等については、本実施形態に係る画像表示装置500の効果とともに後に説明する。
 図7は、センサ部80の他の構成例を示す模式図である。図7に示すセンサ部80は、画像合成部50の接合面51に対してP偏光となる光を透過させ、他の偏光状態の光の進行を規制する第1の偏光板89aと、第1の偏光板89aを透過するP偏光の光の状態を検出する第1のセンサ81aを有する。
 またセンサ部80は、画像合成部50の接合面51に対してS偏光となる光を透過させ、他の偏光状態の光の進行を規制する第2の偏光板89bと、第2の偏光板89bを透過するS偏光の光の状態を検出する第2のセンサ81bを有する。
 第1の画像生成部100から出射される第1の画像光10Cは、第1の偏光板89aを介して第1のセンサ81aに入射する。第2の画像生成部200から出射される第2の画像光20Cは、第2の偏光板89bを介して第2のセンサ81bに入射する。従って図7に示すセンサ部80では、第1及び第2の画像生成部100及び200の各々の出射動作を切替えることなく、第1及び第2の画像光10及び20の状態を、同時に検出することが可能である。
 これにより例えば、測定モードを設定することなく、コンテンツ画像等の投射時においても、常に第1及び第2の画像光10及び20の状態を検出することが可能となる。この結果、検出結果を常時フィードバックすることで、非常に精度の高い画像を投射することが可能となる。
 図7に示す例において、第1の偏光板89aは、第1の偏光状態の光を抽出する第1のフィルタに相当し、第2の偏光板89bは、第2の偏光状態の光を抽出する第2のフィルタに相当する。もちろん波長板以外の他の光学部品が用いられてもよい。
 さらに他の構成例として、センサを1つ配置し、その手前に偏光板等の偏光素子を回転可能に配置してもよい。偏光素子の回転角度を適宜制御することで、第1及び第2の画像光10及び20を、適宜切替えてセンサに入射することが可能である。センサによる検出結果と、偏光素子の回転角度とを関連付けて制御部90に出力することで、第1及び第2の画像光10及び20のいずれの検出結果であるかを容易に判定することが可能である。この構成でも、測定モードを設定することなく、コンテンツ画像等の投射時においても、常に第1及び第2の画像光10及び20の状態を検出することが可能となる。
 図8は、比較例として挙げる画像表示装置900の構成例を示す概略図である。比較例の画像表示装置900は、第1の画像生成部901に含まれる、RGBの各色用の反射型偏光素子931(931R、931G、931B)(プリズム型のビームスプリッタ)の近傍に、センサ981(981R、981G、981B)が配置される。
 具体的には、センサ981は、反射型偏光素子931のRGBの各光が入射する面と対向する面に近接して配置される。RGBの各色用のセンサ981により、反射型偏光素子931により反射されずに透過する各色光の漏れ光の状態が検出される。
 以下、図8に示す画像表示装置900の構成と比較して、本実施形態に係る画像表示装置500が発揮する効果について説明する。
 (センシング精度)
 図8に示すように、画像表示装置900では、投射光学系970により反射された反射光905が、第1及び第2の画像光10及び20の主光路にを逆向きに進行して、反射型偏光素子931に入射する。そうすると反射型偏光素子931により、反射光905がセンサ981に向かって反射され、センサ981に入射する。すなわち画像表示装置900では、投射レンズ等での投射光(画像光)の界面反射がセンサ981に直接入射するので、ノイズ成分が非常に大きくなる。この結果、センサ981によるセンシング精度は非常に低くなる。
 これに対して本実施形態に係る画像表示装置500では、投射光学系70からの反射光が、センサ81に入射することはなく、反射光によるノイズ成分の発生を十分に抑えることが可能となる。これにより高いセンシング精度を発揮することが可能となる。
 (投射光との相関性)
 図8に示す画像表示装置900では、反射型光変調素子932により変調される前の光のみをセンシングすることが可能である。すなわち投射光学系70から非常に離れた位置で、投射光学系70により投射される画像光とは異なる光がセンシングされる。従って投射光(画像光)と相関性が低い光をセンシングすることとなり、結果的にセンシング精度は低くなる。
 これに対して本実施形態に係る画像表示装置500では、センサ部80が、投射光学系70の直前に配置される画像合成部50の近傍に配置される。そして第1及び第2の画像生成部100及び200により生成される第1及び第2の画像光10及び20がセンシングされる。従って投射光学系70により投射される投射光(画像光)の相関性の高い光をセンシングすることが可能となり、高いセンシング精度を発揮することが可能となる。また投射光の回折光等をセンシングする場合と比べても、非常に高いセンシング精度が発揮される。
 (光学部材の劣化検出)
 図8に示す画像表示装置900では、反射型光変調素子932に入射する前の光をセンシングするので、センシング結果に基づいて、反射型光変調素子932等の画像変調部930に含まれる光学部材の劣化を検出することができない。
 これに対して本実施形態に係る画像表示装置500では、第1及び第2の画像生成部100及び200から出射された第1及び第2の画像光10及び20がセンシングされる。すなわち図2に例示する画像変調部130に含まれる反射型偏光素子131、反射型光変調素子132、波長板133、偏光ビームスプリッタ134、1/2波長板135、色合成プリズム136及び偏光板137を通った光がセンシングされる。
 従ってセンサ部80のセンシング結果に基づいて、これらの光学部品の劣化を検出することが可能となる。もちろん光学部品に形成されるコートや光学部品の接着等に使われる接着剤の劣化等も検出可能である。例えば黒輝度が浮く、白輝度が下がる等の検出結果に基づいて、反射型光変調素子132、補償板として機能する波長板133、あるいは偏光状態を揃える偏光ビームスプリッタ134等の劣化を適宜検出することが可能である。
 この結果、例えば適切なタイミングで光学部品の交換が可能となり、メンテナンスコスト等を抑えることが可能となる。また例えば光学部品が完全に壊れてしまう前に、新しく交換するための光学部品を適宜準備することが可能となる。すなわち、予め故障を予期して交換部品を用意する事により、修理にかかる期間を短縮することが可能となる。
 (黒輝度FBによる補償板の調整)
 本実施形態に係る画像表示装置500に、モータ等を用いて、補償板として機能する波長板133の軸を回転可能な機構を備えることも可能である。この場合、センサ部80により検出される黒輝度をフィードバック(FB)して、波長板133の軸を回転させることが可能となる。これにより補償板ずれによるコントラストの劣化を防止することが可能となる。あるいは他の光学部材の劣化に起因したコントラストの低下を補うことも可能となる。補償板の調整は自動的に実行されてもよいし、リモコン等を介してユーザの操作により実行されてもよい。
 センサ部80のセンシング結果に基づいて、他の光学部品の位置や角度等が変更されてもよい。画像表示装置500内に調整機構等を適宜構成することで、センシング結果に基づいた高精度の画像表示が可能となる。
 (プリズムのセンシング)
 第1及び第2の画像生成部100及び200の各々の出射動作を切替える、あるいは図7に示すセンサ部80を構成する。これにより第1及び第2の画像生成部100及び200の各々に含まれる色合成プリズム136及び236の白輝度を測定することが可能である。白輝度の測定結果に基づいて、例えば光源部101等の動作を制御することで、高精度の画像表示が実現可能となる。
 (センサの数)
 図8に示す画像表示装置900では、RGBの各色用のセンサが、第1及び第2の画像生成部の各々で必要となる。すなわち合計6つのセンサが必要となり、部品コストが増加する。本実施形態に係る画像表示装置500では、1つあるいは2つのセンサで、第1及び第2の画像光10及び20の各々の状態を検出することが可能であるので、部品コストを抑えることが可能である。
 (移動機構が不要)
 図8に示す画像表示装置900において、第1及び第2の画像光をセンシングするために、画像合成部950と投射光学系970との間の光路に、適宜センサを移動させることが考えられる。すなわちセンシング時には光路上にセンサを移動させ、通常動作時には光路外にセンサを移動させる構成である。
 この場合、センサを移動させる移動機構が必要となり、装置が複雑化する。またセンサを挿入する分のスペースが必要となり、装置が大型化する。例えば第1及び第2の画像生成部から画像合成部950までの距離が長くなるとバックフォーカスが長くなり、投射光学系の大型化につながり、設計も難しくなる。さらにセンサを移動させることによるセンシング結果の信頼性の低下、動作時間の増加、コストの増加等も懸念される。
 本実施形態に係る画像表示装置500では、画像合成部50の裏側にセンサ部80が固定されるので、上記のような問題は発生しない。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 図9~図11は、画像生成部の他の構成例を示す概略図である。図9に示すように、反射型偏光素子631(631R、631G、631B)として、プリズム型のビームスプリッタに代えて、ワイヤグリッド偏光子等の他の偏光素子が用いられてもよい。また反射型光変調素子632(632R、632G、632B)が配置される向きも限定されず、適宜設計されてよい。上記の実施形態と同様に、投射光学系670の直前に位置する画像合成部650の裏側にセンサ部680を配置することで、第1及び第2の画像光の状態を高精度に検出することが可能である。
 図10に示すように、透過型光変調素子732(732R、732G、732B)が用いられてもよい。例えば透過型光変調素子732を挟むように偏光板や補償板が配置される。その他、任意の構成が採用されてよい。上記の実施形態と同様に、投射光学系770の直前に位置する画像合成部750の裏側にセンサ部780を配置することで、第1及び第2の画像光の状態を高精度に検出することが可能である。
 図11は、1つの画像生成部を備える画像表示装置の構成例を示す概略図である。すなわち右目画像及び左目画像等の複数の画像を生成して合成するのではなく、1つの画像生成部801により生成された1つの画像が投射光学系870を介して投射される。
 図11に示す画像生成部801では、反射型光変調素子832Gにより変調された緑色の変調光Gが色合成プリズム836に入射する。反射型光変調素子832Rにより変調された赤色の変調光R及び反射型光変調素子832Bにより変調された青色の変調光Bは、反射型偏光素子831RBにより同じ光路に沿って出射され、色合成プリズム836に入射する。
 色合成プリズム836は、本技術に係る光学素子の一実施形態として機能する。すなわち色合成プリズム836は、緑色の変調光Gの一部を第1の分離光として投射光学系870に向かって反射する。緑色の変調光Gの他の一部を第2の分離光としてそのまま透過させる。
 また色合成プリズム836は、赤色の変調光Rの一部と、青色の変調光Bの一部とを、第1の分離光として投射光学系870に向けてそのまま透過させる。赤色の変調光Rの他の一部と、青色の変調光Bの他の一部とを、第2の分離光として、緑色の変調光Gの他の一部の光路上に反射する。
 センサ部880は、RGBの各色の他の一部(第2の分離光)の光路上に配置される。色合成プリズム836により、投射光学系870からの反射光がセンサ部880に入射することが規制されるので、RGBの各変調光の状態を高精度に検出することが可能である。
 このように本技術は、6つの光変調素子を用いて2つの画像を生成し、これらを合成する画像表示装置に限定されず、任意の画像表示装置に適用可能である。例えば図2、図9、図10に例示したような、画像生成部が単独で配置され、画像合成部として配置されたプリズム型のビームスプリッタが、本技術に係る光学素子として配置される場合もあり得る。例えば図2に示す偏光板137の代わりに、偏光状態を揃える光学部品として、画像合成部50のようなプリズム型の偏光ビームスプリッタが配置される。そしてその裏側にセンサ部を配置することで、画像生成部から出射される画像光の応対を高精度に検出することが可能となる。
 また本技術に係る光学素子は、主光路上の任意の位置に配置可能である。例えば図2に示す偏光ビームスプリッタ134を、本技術に係る光学素子の一実施形態として用い、その裏側にセンサ部が配置されてもよい。この場合でも、画像光の状態を高精度に検出することが可能となる。
 本技術に係る光学素子としては、偏光ビームスプリッタに限定されず、ハーフミラーやガラス板等を用いることが可能である。光を第1及び第2の分離光に分離可能であり、第1の分離光の光路を逆向きに進行する光が、第2の分離光の光路に沿って進行することを規制可能な任意の光学部品が用いられてよい。プリズム型ではない板状の光学部品が用いられる場合には、第1の分離光を出射する側の面が第1の出射面となり、第2の分離光を出射する側の面が第2の出射面となる。
 また光分離面が入射光に対して交差する角度も、45度に限定されず任意に設計されてよい。
 6枚の液晶パネル等が用いられる画像表示装置において、第1及び第2の画像光が、右目画像及び左眼画像の画像光である場合に限定される訳ではない。同じ画像信号に基づいて生成される同じ画像光が、第1及び第2の画像光としてそれぞれ投射されてもよい。例えば液晶パネル等に入射する光の光量を抑えることで液晶パネル等の寿命を長くすることが可能である。そして同じ画像を合成して投射することで、輝度の低下を抑えることが可能となり、高輝度化が実現される。もちろん意図的に異なる画像を合成して投射することで、面白い視聴効果を発揮させるといったことも可能である。
 上記では、第1及び第2の画像光の各々の漏れ光をセンシングする場合を例に挙げた。すなわち、入射光に対して所定の作用を付与することを目的に構成された光学部品を用いて、入射光を、所定の作用が付与された第1の分離光と、所定の作用が付与されない第2の分離光とに分離した。例えば上記の画像合成部であれば、所定の作用の付与は、所定の偏光状態に対する透過/反射である。そして所定の偏光状態に対する透過/反射の作用が付与された第1の分離光と、この作用の付与がされない第2の分離光が分離された。
 これに限定されず、いずれにも所定の作用を付与することで、第1及び第2の分離光が出射されてもよい。例えば上記で例示したハーフミラーが用いられる場合等が、これに含まれる。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1) 光変調素子と、
 前記光変調素子により変調された変調光を互いに異なる方向に進行する第1の分離光と第2の分離光とに分離し、前記第1の分離光の光路を逆向きに進行して入射する光が前記第2の分離光の光路に沿って進行することを規制する光学素子と、
 前記第2の分離光の光路上に配置され、前記第2の分離光の状態を検出するセンサ部と
 を具備する画像表示装置。
(2)(1)に記載の画像表示装置であって、
 前記光学素子は、前記変調光の主光路上に配置され、前記第1の分離光を前記主光路に沿って出射し、前記第2の分離光を他の光路に沿って出射し、
 前記センサ部は、前記他の光路上に配置される
 画像表示装置。
(3)(1)又は(2)に記載の画像表示装置であって、
 前記光学素子は、前記第1の分離光を出射する第1の出射面と、前記第1の出射面とは異なる前記第2の分離光を出射する第2の出射面とを有し、
 前記センサ部は、前記第2の出射面側に配置される
 画像表示装置。
(4)(1)から(3)のうちいずれか1つに記載の画像表示装置であって、
 前記光学素子は、前記光学素子に入射する前記変調光の入射方向に対して斜めに配置される光分離面を有する
 画像表示装置。
(5)(4)に記載の画像表示装置であって、
 前記光分離面は、前記光分離面に入射する前記変調光の一部を前記第1の分離光として透過させ、前記変調光の他の一部を前記第2の分離光として反射し、
 前記センサ部は、前記第2の分離光を反射する前記光分離面側に配置される
 画像表示装置。
(6)(4)に記載の画像表示装置であって、
 前記光分離面は、前記光分離面に入射する前記変調光の一部を前記第1の分離光として反射し、前記変調光の他の一部を前記第2の分離光として透過させ、
 前記センサ部は、前記光分離面とは反対側の面側に配置される
 画像表示装置。
(7)(1)から(6)のうちいずれか1つに記載の画像表示装置であって、
 前記光学素子は、前記第1の分離光の光量が前記第2の分離光の光量よりも大きくなるように、前記変調光を分離する
 画像表示装置。
(8)(1)から(7)のうちいずれか1つに記載の画像表示装置であって、さらに、
 複数の変調光を合成して合成変調光を生成する合成部と、前記合成部により生成された前記合成変調光を投射する投射部とを具備し、
 前記光学素子は、前記合成部と前記投射部との間に配置され、前記合成変調光を前記第1の分離光と前記第2の分離光とに分離する
 画像表示装置。
(9)(1)から(8)のうちいずれか1つに記載の画像表示装置であって、
 前記光学素子は、前記変調光が入射する第1の面と、前記第1の面に入射する前記変調光を分離する光分離面と、前記光分離面により分離された前記第2の分離光が出射される第2の面とを有する光分離プリズムであり、
 前記センサ部は、前記光分離プリズムの前記第2の面に近接して配置される
 画像表示装置。
(10)(1)から(9)のうちいずれか1つに記載の画像表示装置であって、
 前記光学素子は、偏光ビームスプリッタ、ハーフミラー、又はガラス板である
 画像表示装置。
(11)(1)から(10)のうちいずれか1つに記載の画像表示装置であって、さらに、
 第1の偏光状態の第1の画像光を第1の方向に沿って出射する第1の出射部を具備し、
 前記光学素子は、前記第1の方向に対して斜めに配置される光分離面を有し、
 前記光分離面は、前記第1の画像光の一部を前記第1の方向に沿った第1の光路上に透過させ、前記第1の画像光の他の一部を前記第1の方向と略直交する第2の方向に沿った第2の光路上に反射し、
 前記センサ部は、前記第2の光路上に配置される
 画像表示装置。
(12)(11)に記載の画像表示装置であって、さらに、
 第2の偏光状態の第2の画像光を前記第2の方向に沿って出射する第2の出射部を具備し、
 前記光分離面は、前記第2の方向に対して斜めに配置され、前記第2の画像光の一部を前記第1の光路上に反射し、前記第2の画像光の他の一部を前記第2の光路上に透過させる
 画像表示装置。
(13)(12)に記載の画像表示装置であって、
 前記センサ部は、前記第1の偏光状態の光を抽出する第1のフィルタと、前記第1のフィルタにより抽出された光の状態を検出する第1のセンサと、前記第2の偏光状態の光を抽出する第2のフィルタと、前記第2のフィルタにより抽出された光の状態を検出する第2のセンサとを有する
 画像表示装置。
(14)(1)から(13)のうちいずれか1つに記載の画像表示装置であって、
 前記センサ部は、前記第2の分離光の強度、色度、及び光束の形状の少なくとも1つを検出する
 画像表示装置。
(15)(1)から(14)のうちいずれか1つに記載の画像表示装置であって、
 前記光学素子は、入射光に対して所定の作用を付与することを目的に構成され、前記光学素子に入射する前記変調光を、前記所定の作用が付与された前記第1の分離光と、前記所定の作用が付与されない前記第2の分離光とに分離する
 画像表示装置。
 OP1…主光路
 OP2…他の光路
 10、10A、10B、10C…第1の画像光
 20、20A、20B、20C…第2の画像光
 50、650、750…画像合成部
 51…接合面
 70、670、770、870…投射光学系
 80、680、780、880…センサ部
 81…センサ
 81a…第1のセンサ
 81b…第2のセンサ
 89a…第1の偏光板
 89b…第2の偏光板
 100…第1の画像生成部
 110…照明光学系
 130…画像変調部
 132(132R、132G、132B)、232G、632、832R、832G、832B…反射型光変調素子
 200…第2の画像生成部
 500…画像表示装置
 732…透過型光変調素子
 801…画像生成部
 836…色合成プリズム

Claims (15)

  1.  光変調素子と、
     前記光変調素子により変調された変調光を互いに異なる方向に進行する第1の分離光と第2の分離光とに分離し、前記第1の分離光の光路を逆向きに進行して入射する光が前記第2の分離光の光路に沿って進行することを規制する光学素子と、
     前記第2の分離光の光路上に配置され、前記第2の分離光の状態を検出するセンサ部と
     を具備する画像表示装置。
  2.  請求項1に記載の画像表示装置であって、
     前記光学素子は、前記変調光の主光路上に配置され、前記第1の分離光を前記主光路に沿って出射し、前記第2の分離光を他の光路に沿って出射し、
     前記センサ部は、前記他の光路上に配置される
     画像表示装置。
  3.  請求項1に記載の画像表示装置であって、
     前記光学素子は、前記第1の分離光を出射する第1の出射面と、前記第1の出射面とは異なる前記第2の分離光を出射する第2の出射面とを有し、
     前記センサ部は、前記第2の出射面側に配置される
     画像表示装置。
  4.  請求項1に記載の画像表示装置であって、
     前記光学素子は、前記光学素子に入射する前記変調光の入射方向に対して斜めに配置される光分離面を有する
     画像表示装置。
  5.  請求項4に記載の画像表示装置であって、
     前記光分離面は、前記光分離面に入射する前記変調光の一部を前記第1の分離光として透過させ、前記変調光の他の一部を前記第2の分離光として反射し、
     前記センサ部は、前記第2の分離光を反射する前記光分離面側に配置される
     画像表示装置。
  6.  請求項4に記載の画像表示装置であって、
     前記光分離面は、前記光分離面に入射する前記変調光の一部を前記第1の分離光として反射し、前記変調光の他の一部を前記第2の分離光として透過させ、
     前記センサ部は、前記光分離面とは反対側の面側に配置される
     画像表示装置。
  7.  請求項1に記載の画像表示装置であって、
     前記光学素子は、前記第1の分離光の光量が前記第2の分離光の光量よりも大きくなるように、前記変調光を分離する
     画像表示装置。
  8.  請求項1に記載の画像表示装置であって、さらに、
     複数の変調光を合成して合成変調光を生成する合成部と、前記合成部により生成された前記合成変調光を投射する投射部とを具備し、
     前記光学素子は、前記合成部と前記投射部との間に配置され、前記合成変調光を前記第1の分離光と前記第2の分離光とに分離する
     画像表示装置。
  9.  請求項1に記載の画像表示装置であって、
     前記光学素子は、前記変調光が入射する第1の面と、前記第1の面に入射する前記変調光を分離する光分離面と、前記光分離面により分離された前記第2の分離光が出射される第2の面とを有する光分離プリズムであり、
     前記センサ部は、前記光分離プリズムの前記第2の面に近接して配置される
     画像表示装置。
  10. 1~9
     請求項1に記載の画像表示装置であって、
     前記光学素子は、偏光ビームスプリッタ、ハーフミラー、又はガラス板である
     画像表示装置。
  11.  請求項1に記載の画像表示装置であって、さらに、
     第1の偏光状態の第1の画像光を第1の方向に沿って出射する第1の出射部を具備し、
     前記光学素子は、前記第1の方向に対して斜めに配置される光分離面を有し、
     前記光分離面は、前記第1の画像光の一部を前記第1の方向に沿った第1の光路上に透過させ、前記第1の画像光の他の一部を前記第1の方向と略直交する第2の方向に沿った第2の光路上に反射し、
     前記センサ部は、前記第2の光路上に配置される
     画像表示装置。
  12.  請求項11に記載の画像表示装置であって、さらに、
     第2の偏光状態の第2の画像光を前記第2の方向に沿って出射する第2の出射部を具備し、
     前記光分離面は、前記第2の方向に対して斜めに配置され、前記第2の画像光の一部を前記第1の光路上に反射し、前記第2の画像光の他の一部を前記第2の光路上に透過させる
     画像表示装置。
  13.  請求項12に記載の画像表示装置であって、
     前記センサ部は、前記第1の偏光状態の光を抽出する第1のフィルタと、前記第1のフィルタにより抽出された光の状態を検出する第1のセンサと、前記第2の偏光状態の光を抽出する第2のフィルタと、前記第2のフィルタにより抽出された光の状態を検出する第2のセンサとを有する
     画像表示装置。
  14.  請求項1に記載の画像表示装置であって、
     前記センサ部は、前記第2の分離光の強度、色度、及び光束の形状の少なくとも1つを検出する
     画像表示装置。
  15.  請求項1に記載の画像表示装置であって、
     前記光学素子は、入射光に対して所定の作用を付与することを目的に構成され、前記光学素子に入射する前記変調光を、前記所定の作用が付与された前記第1の分離光と、前記所定の作用が付与されない前記第2の分離光とに分離する
     画像表示装置。
PCT/JP2018/019073 2017-07-12 2018-05-17 画像表示装置 WO2019012806A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201880044848.0A CN110832396B (zh) 2017-07-12 2018-05-17 图像显示设备
JP2019528959A JP7302472B2 (ja) 2017-07-12 2018-05-17 画像表示装置
US16/628,227 US11209725B2 (en) 2017-07-12 2018-05-17 Image display apparatus
US17/535,888 US11693305B2 (en) 2017-07-12 2021-11-26 Image display apparatus
US18/325,881 US20230296977A1 (en) 2017-07-12 2023-05-30 Image display apparatus
JP2023102519A JP2023123653A (ja) 2017-07-12 2023-06-22 画像表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-136618 2017-07-12
JP2017136618 2017-07-12

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/628,227 A-371-Of-International US11209725B2 (en) 2017-07-12 2018-05-17 Image display apparatus
US17/535,888 Continuation US11693305B2 (en) 2017-07-12 2021-11-26 Image display apparatus

Publications (1)

Publication Number Publication Date
WO2019012806A1 true WO2019012806A1 (ja) 2019-01-17

Family

ID=65002432

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/019073 WO2019012806A1 (ja) 2017-07-12 2018-05-17 画像表示装置

Country Status (4)

Country Link
US (3) US11209725B2 (ja)
JP (2) JP7302472B2 (ja)
CN (1) CN110832396B (ja)
WO (1) WO2019012806A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210137829A (ko) * 2020-05-11 2021-11-18 삼성전자주식회사 빔 편향 레이어 및 이를 포함하는 3차원 디스플레이 장치
TWI758094B (zh) * 2021-02-09 2022-03-11 台達電子工業股份有限公司 光源模組及投影裝置
CN114911120B (zh) 2021-02-09 2024-04-05 台达电子工业股份有限公司 光源模块及投影装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267868A (ja) * 2005-03-25 2006-10-05 Seiko Epson Corp 画像表示装置
JP2007065012A (ja) * 2005-08-29 2007-03-15 Nec Viewtechnology Ltd 投写型表示装置
JP2015004734A (ja) * 2013-06-19 2015-01-08 キヤノン株式会社 画像表示装置および画像表示プログラム
JP2017111303A (ja) * 2015-12-16 2017-06-22 コニカミノルタ株式会社 画像投影装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129658A (ja) * 2016-01-19 2017-07-27 セイコーエプソン株式会社 プロジェクター及びプロジェクターの制御方法
US7458687B2 (en) * 2006-05-26 2008-12-02 Eastman Kodak Company High efficiency digital cinema projection system with increased etendue
JP4247693B2 (ja) 2006-11-20 2009-04-02 ソニー株式会社 投射型表示装置
JP4395792B2 (ja) * 2007-01-29 2010-01-13 セイコーエプソン株式会社 プロジェクタ
JP2009042342A (ja) * 2007-08-07 2009-02-26 Seiko Epson Corp 表示装置
JP5450101B2 (ja) * 2008-01-21 2014-03-26 パナソニック株式会社 波長変換レーザ、画像表示装置、及びレーザ加工装置
CN101776836B (zh) * 2009-12-28 2013-08-07 武汉全真光电科技有限公司 投影显示系统及桌面计算机
US9022578B2 (en) * 2010-05-28 2015-05-05 Nec Display Solutions, Ltd. Projection display device
TWI412871B (zh) * 2010-10-27 2013-10-21 Hon Hai Prec Ind Co Ltd 具有自動調整投影亮度功能的投影裝置及方法
CN102012614A (zh) * 2010-10-28 2011-04-13 鸿富锦精密工业(深圳)有限公司 具有自动调整投影亮度功能的投影装置及方法
JP6319290B2 (ja) 2013-02-27 2018-05-09 ソニー株式会社 画像投写装置
JP2015079208A (ja) * 2013-10-18 2015-04-23 ソニー株式会社 画像表示装置、及び制御方法
JP6398185B2 (ja) * 2013-12-18 2018-10-03 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP2015152835A (ja) * 2014-02-17 2015-08-24 キヤノン株式会社 波長選択偏光素子、光学系および投射型表示装置
WO2015159726A1 (ja) * 2014-04-14 2015-10-22 岡本硝子株式会社 キューブ型偏光ビームスプリッターモジュール
JP6569440B2 (ja) * 2015-09-30 2019-09-04 株式会社Jvcケンウッド 検出方法、検出装置および投射装置
JP2017111223A (ja) * 2015-12-15 2017-06-22 船井電機株式会社 投射装置
US10838289B2 (en) * 2016-07-12 2020-11-17 Panasonic Intellectual Property Management Co., Ltd. Light source device and projection display apparatus including plural light sources, and a lens condensing light from the plural light sources into one spot
JP6954331B2 (ja) * 2019-08-27 2021-10-27 セイコーエプソン株式会社 光源装置、照明光学装置及びプロジェクター

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267868A (ja) * 2005-03-25 2006-10-05 Seiko Epson Corp 画像表示装置
JP2007065012A (ja) * 2005-08-29 2007-03-15 Nec Viewtechnology Ltd 投写型表示装置
JP2015004734A (ja) * 2013-06-19 2015-01-08 キヤノン株式会社 画像表示装置および画像表示プログラム
JP2017111303A (ja) * 2015-12-16 2017-06-22 コニカミノルタ株式会社 画像投影装置

Also Published As

Publication number Publication date
US11209725B2 (en) 2021-12-28
JPWO2019012806A1 (ja) 2020-05-07
US11693305B2 (en) 2023-07-04
CN110832396B (zh) 2021-12-17
JP7302472B2 (ja) 2023-07-04
US20220082924A1 (en) 2022-03-17
JP2023123653A (ja) 2023-09-05
US20230296977A1 (en) 2023-09-21
CN110832396A (zh) 2020-02-21
US20210141301A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
JP3640173B2 (ja) 画像表示装置
US11693305B2 (en) Image display apparatus
CN106990657B (zh) 投影机以及控制方法
JP4810941B2 (ja) プロジェクタ
US10649321B2 (en) Light source device and projector
JP2015129783A (ja) 画像表示装置、プロジェクター及びその制御方法
US10599025B2 (en) Light source device and projector
JP6512919B2 (ja) 画像表示装置
US10104352B2 (en) Projector and image display method
KR101185297B1 (ko) 영상 프로젝터
US10088743B2 (en) Polarization conversion element and projector
JP6278489B2 (ja) 投写型表示装置
US10594975B2 (en) Projector
JP3661569B2 (ja) プロジェクタ
JP6503816B2 (ja) プロジェクター
JP6617574B2 (ja) 光学装置、光源装置及びプロジェクター
JP6436514B2 (ja) 投写型表示装置
JP6422141B2 (ja) 投写型表示装置および画像表示方法
US8529067B2 (en) Projector apparatus and image synthesizing device for the same
JP2022039287A (ja) 投射装置
JP4996295B2 (ja) 画像表示装置
JP2007232798A (ja) 投写型映像表示装置
JP2007148105A (ja) プロジェクタ
JP2006113349A (ja) 照明光学装置
JP2009175306A (ja) プロジェクタ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18831121

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019528959

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18831121

Country of ref document: EP

Kind code of ref document: A1