WO2016017315A1 - 投射型表示装置 - Google Patents

投射型表示装置 Download PDF

Info

Publication number
WO2016017315A1
WO2016017315A1 PCT/JP2015/067611 JP2015067611W WO2016017315A1 WO 2016017315 A1 WO2016017315 A1 WO 2016017315A1 JP 2015067611 W JP2015067611 W JP 2015067611W WO 2016017315 A1 WO2016017315 A1 WO 2016017315A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
projection
illumination
detection
display device
Prior art date
Application number
PCT/JP2015/067611
Other languages
English (en)
French (fr)
Inventor
幸治 三浦
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201580038955.9A priority Critical patent/CN106537247B/zh
Priority to US15/325,675 priority patent/US10372269B2/en
Priority to JP2016538216A priority patent/JP6696425B2/ja
Publication of WO2016017315A1 publication Critical patent/WO2016017315A1/ja
Priority to US16/449,613 priority patent/US10691264B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/3111Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators for displaying the colours sequentially, e.g. by using sequentially activated light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3155Modulator illumination systems for controlling the light source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3164Modulator illumination systems using multiple light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3197Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using light modulating optical valves

Definitions

  • the present disclosure relates to a projection display device having a function of detecting an object on or near a projection surface.
  • Patent Document 1 proposes an apparatus that enables a video pointing operation to cover a projection area by combining a projection apparatus and a detection apparatus that detects a manual operation (gesture).
  • the projection unit and the detection unit are separate, the size of the entire system tends to increase. Further, not only the size is increased, but also a calibration operation requiring accuracy is required for the configuration of the relative position coordinates between the projected area and the area to be detected. The accuracy of this calibration is important because it directly affects the accuracy of the pointing operation, and is complicated because it is necessary to deal with every corner of the screen.
  • Patent Document 2 and Patent Document 3 propose an apparatus in which an imaging function is added to a projector.
  • a light beam from a light source such as an ultra-high pressure mercury lamp is incident on a polarization conversion element that aligns a specific polarization component, and the polarization component is guided to a light valve.
  • a component that could not be converted into a specific polarization component is incident on the image sensor instead of the light valve, and projection illumination light adversely affects the imaging.
  • the addition of a dedicated polarization conversion element for imaging is not practical because the projection lens becomes large.
  • the illumination light for projection is turned off at the time of imaging, thereby preventing the adverse effect of the illumination light without adding a polarization conversion element dedicated to imaging. Yes.
  • the illumination light is turned off at the time of imaging, it becomes difficult to secure sufficient brightness necessary for imaging, for example, when used in a dark external environment.
  • a projection display device modulates illumination light based on video data and generates illumination light based on a light valve that emits the modulated light, a light source, and light from the light source
  • the illumination unit includes a plurality of illumination optical members that guide the illumination light to the light valve, and the modulated light from the light valve is projected onto the projection surface, and the detection light is detected from the direction opposite to the traveling direction of the modulated light.
  • a noise component with respect to the detection light generated inside the illumination unit is reduced by at least one of the plurality of illumination optical members.
  • the noise component for the detection light generated inside the illumination unit is reduced by at least one of the plurality of illumination optical members.
  • the accuracy of object detection can be improved. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
  • FIG. 1 One embodiment of a projection display device having a detection function (FIGS. 1 to 9) 1.1 Configuration 1.2 Operation and Action 1.2.1 Basic Operation 1.2.2 Polarizer Action 1.2.3 Reduction of Noise Components Generated Inside the Illumination Unit 1.3 Effect 2. Modification 2.1 First Modification (FIG. 10) 2.2 Second modification (FIG. 11) 2.3 Third modification (FIG. 12) 2.4 Fourth Modification (FIG. 13) 2.5 Fifth Modification (FIG. 14) 2.6 Sixth Modification (FIGS. 15 and 16 to 20) 2.7 Seventh Modification 2.8 Other Modifications 3. Other embodiments
  • FIG. 1 shows an example of the overall configuration of a projection display device (projector) according to an embodiment of the present disclosure.
  • This projection display device has a function of actively detecting an object using near infrared light as well as displaying an image.
  • FIG. 2 shows an example of a state where video display and object detection are performed in the projection display device.
  • FIG. 3 shows an example of a state in which the projection display device shown in FIG. 2 is viewed from the side surface direction.
  • FIG. 4 shows an example of light incident on the light valve 21 and the image sensor 22 in the projection display device shown in FIG.
  • FIG. 5 schematically shows the concept of image display and object detection by the projection display device.
  • the projection display device includes an illumination unit 1, a light valve 21, an image sensor 22, a wire grid 27 as a polarization separation element, a projection lens 24, and a polarization as a polarization member.
  • a child 25S, an image processing unit 26, and an illumination control unit 29 are provided.
  • the illumination unit 1 emits the illumination light L1 from the first direction Z1 toward the wire grid 27 as shown in FIG.
  • the illumination unit 1 includes a light source and a plurality of illumination optical members that generate illumination light L1 based on light from the light source and guide the illumination light L1 to the light valve 21.
  • the light source may be a plurality of light sources arranged on different optical paths.
  • the illumination unit 1 also includes an optical path combining element that combines optical paths of two or more light sources among the plurality of light sources.
  • the illumination unit 1 includes a blue laser 11B, a green laser 11G, and a red laser 11R as a plurality of light sources arranged on different optical paths.
  • the illumination unit 1 also includes a first coupling lens 12B, a second coupling lens 12G, a third coupling lens 12R, a drive optical element 14, and a mirror 18 as a plurality of illumination optical members.
  • the third condenser lens 163 and the fourth condenser lens 164 are provided.
  • the blue laser 11B is a laser light source that emits blue light having a wavelength of about 450 nm, for example.
  • the green laser 11G is a laser light source that emits green light having a wavelength of about 520 nm, for example.
  • the red laser 11R is a laser light source that emits red light having a wavelength of about 640 nm, for example.
  • the illumination control unit 29 performs light emission control of the first light source (for example, the blue laser 11B), the second light source (for example, the green laser 11G), and the third light source (for example, the red laser 11R).
  • the illumination control unit 29 controls the light emission of the first to third light sources by a field sequential method.
  • the second coupling lens 12G is a lens (coupled lens) for collimating the green light emitted from the green laser 11G (as parallel light) and coupling it with the first dichroic prism 131.
  • the first coupling lens 12B is a lens (coupling lens) for collimating the blue light emitted from the blue laser 11B and coupling it with the first dichroic prism 131.
  • the third coupling lens 12R is a lens (coupling lens) for collimating the red light emitted from the red laser 11R and coupling it with the second dichroic prism 132.
  • Each of the first dichroic prism 131 and the second dichroic prism 132 is an optical path combining element that combines optical paths of two or more light sources.
  • the first dichroic prism 131 selectively transmits the blue light incident through the first coupling lens 12B while selectively transmitting the green light incident through the second coupling lens 12G. It is a reflecting prism.
  • the second dichroic prism 132 selectively transmits the blue light and the green light emitted from the first dichroic prism 131, while selectively transmitting the red light incident through the third coupling lens 12R. It is a reflecting prism.
  • color synthesis optical path synthesis
  • the drive optical element 14 is an optical element for reducing speckle noise and interference fringes in the illumination light L ⁇ b> 1, and is disposed on the optical path between the first condenser lens 161 and the second condenser lens 162. .
  • the drive optical element 14 changes the state of the light beam passing therethrough, for example, by microvibration in a direction along the optical axis or in a direction perpendicular to the optical axis, thereby reducing speckle noise and interference fringes in the illumination light L1. It is possible to make it.
  • Each of the first fly-eye lens 151 and the second fly-eye lens 152 is an optical member (integrator) in which a plurality of lenses are two-dimensionally arranged on a substrate. Are divided and emitted.
  • the first fly-eye lens 151 is disposed on the optical path between the second dichroic prism 132 and the first condenser lens 161.
  • the second fly-eye lens 152 is disposed on the optical path between the second condenser lens 162 and the third condenser lens 163.
  • the mirror 18 is an element that bends the optical path of the illumination light L1.
  • the mirror 18 is disposed on the optical path between the first condenser lens 161 and the drive optical element 14.
  • the first condenser lens 161 is a lens that collects the light emitted from the first fly-eye lens 151 and makes it incident on the drive optical element 14 via the mirror 18.
  • the second condenser lens 162 is a lens that collects the light emitted from the drive optical element 14 and makes it incident on the second fly-eye lens 152.
  • the third condenser lens 163 and the fourth condenser lens 164 are lenses for collecting the emitted light from the second fly-eye lens 152 and emitting it as the illumination light L1 toward the wire grid 27.
  • the wire grid 27 is formed, for example, by forming a metal lattice on a glass substrate at a minute interval. As shown in FIG. 4, the illumination light L1 is incident on the wire grid 27 from the first direction Z1. A light valve 21 is arranged in the second direction Z2. In the third direction Z3, the polarizer 25S and the image sensor 22 are arranged. The projection lens 24 is disposed in the fourth direction Z4.
  • the wire grid 27 is a polarization separation element that separates incident light into a first polarization component (for example, a P polarization component) and a second polarization component (for example, an S polarization component) and emits them in different directions. .
  • the wire grid 27 selectively reflects a specific first polarization component and selectively transmits a specific second polarization component.
  • the wire grid 27 emits (reflects) most of the P-polarized component Lp1 included in the illumination light L1 incident from the first direction Z1 in the second direction Z2 and also S-polarized light. Most of the component Ls1 is emitted (transmitted) in the third direction Z3.
  • the wire grid 27 also emits (reflects) most of the P-polarized component Lp3 contained in the detection light L2 incident from the direction opposite to the fourth direction Z4 in the third direction Z3. It is like that.
  • the light valve 21 is a reflective liquid crystal element such as LCOS (Liquid Crystal On Silicon).
  • the light valve 21 images the first polarization component (for example, the P polarization component Lp1) included in the illumination light L1 that is incident from the second direction Z2 via the wire grid 27. Modulation is based on the data.
  • the light valve 21 also emits the modulated light through the wire grid 27 in the fourth direction Z4.
  • the light valve 21 emits, for example, an S-polarized component Ls2 whose polarization state has been rotated as incident light as modulated light. Note that the light valve 21 can perform black display by returning the incident P-polarized component Lp1 to the wire grid 27 in the polarization state as it is.
  • the projection lens 24 projects the modulated light from the light valve 21 incident from the fourth direction Z4 via the wire grid 27 onto the projection surface 30A of the screen 30. Further, as shown in FIG. 4, the detection light L2 is incident on the projection lens 24 from the direction opposite to the traveling direction of the modulated light.
  • the projection lens 24 is a projection optical system for projecting an image and functions as an imaging optical system for object detection.
  • the image sensor 22 is composed of a solid-state image sensor such as a CMOS (Complementary Metal-Oxide Semiconductor) or a CCD (Charge Coupled Device).
  • the image sensor 22 is disposed at a position optically conjugate with the light valve 21. More specifically, when the light valve 21 is a reflective liquid crystal element, the display surface (liquid crystal surface) for creating an image and the image pickup surface of the image pickup element 22 are arranged at an optically conjugate position. As shown in FIG. 4, the detection light L ⁇ b> 2 is incident on the image sensor 22 from the third direction Z ⁇ b> 3 via the projection lens 24 and the wire grid 27.
  • CMOS Complementary Metal-Oxide Semiconductor
  • CCD Charge Coupled Device
  • the polarizer 25S is a polarizing member that is one of the optical members that reduces the second polarization component contained in the illumination light L1.
  • the polarizer 25 ⁇ / b> S is disposed between the image sensor 22 and the wire grid 27.
  • the polarizer 25S removes a second polarization component (for example, an S polarization component) included in the incident light.
  • the polarizer 25 ⁇ / b> S removes at least the S-polarized component Ls ⁇ b> 1 included in the illumination light L ⁇ b> 1 incident through the wire grid 27 as the second polarized component.
  • the image processing unit 26 determines the position of the feature point of the pointing object (object) 71 such as a human finger or a pointer, for example, as shown in FIGS. P1 is detected in association with the coordinates of the projection image V2 projected on the projection plane 30A. 2, 3, and 5 show the position of the tip of the human finger as an example of the feature point, but the present invention is not limited to this, and the center of gravity of the human finger, the center of gravity of the hand, and the like can be selected as appropriate.
  • FIG. 2 and FIG. 3 show configurations assuming that the projection display device is a short focus type.
  • the projection display device includes a near-infrared light projector 40 at the bottom of the main body 100.
  • the projection surface 30A is, for example, a flat floor surface.
  • the near-infrared light projecting unit 40 is a detection light source unit that emits detection near-infrared light 41 as invisible light for detection from a predetermined height h with respect to the projection surface 30A.
  • the near-infrared light projector 40 emits the detection near-infrared light 41 so that at least the projection area 31 on the projection surface 30A is covered with the detection near-infrared light 41 from a predetermined height h. .
  • the near-infrared light projecting unit 40 may irradiate the projection surface 30A with detection near-infrared light 41 having a thickness in the height h direction as invisible light for detection.
  • the near-infrared light for detection 41 and the projection surface 30A do not necessarily have to be completely separated at a predetermined height h.
  • the projection lens 24 may be an ultra short focus lens having a throw ratio of 0.38 or less.
  • the slow ratio is represented by L / H, where L is the distance from the projection lens 24 to the projection surface 30A and H is the width of the projection area, as shown in FIGS.
  • the image information V1 formed on the light valve 21 is projected onto the projection surface 30A of the screen 30 by the projection lens 24, and is enlarged and displayed as a projection image V2.
  • the projection display apparatus also detects the position of an object on the projection surface 30 ⁇ / b> A, for example, the position P ⁇ b> 1 of a feature point of an indicator (object) 71 such as a human finger or a pointer, using the imaging element 22.
  • the imaging element 22 performs imaging using an imaging area 32 that is substantially the same area as the projection area 31 on the projection surface 30A.
  • the first polarization component may be 99% or more, more preferably 99.5% or more.
  • the dominant first polarization component either the S-polarization component Ls1 or the P-polarization component Lp1 can be selected in accordance with the characteristics of the polarization conversion element.
  • the wire grid 27 reflects most of the P-polarized component and transmits most of the S-polarized component when the first polarized component is the P-polarized component and the second polarized component is the S-polarized component. For this reason, for example, 99.5% of the illumination light L1 is set to be the P polarization component Lp1, and the remaining 0.5% is set to the S polarization component Ls1. For example, as shown in FIG. 4, the wire grid 27 reflects most of the dominant P-polarized light component Lp ⁇ b> 1 and emits it to the light valve 21.
  • the P-polarized light component Lp1 incident on the light valve 21 is modulated (rotated) by the light valve 21 to become modulated light of the S-polarized light component Ls2, and then enters the projection lens 24 via the wire grid 27.
  • the S-polarized light component Ls2 that is the modulated light is projected as a projected image V2 onto the projection surface 30A of the screen 30 via the projection lens 24 as shown in FIG.
  • the image sensor 22 is disposed at a position optically conjugate with the light valve 21.
  • the projection lens 24 is a projection optical system for projecting an image and functions as an imaging optical system for object detection. For this reason, as shown in FIG. 5, it is possible to take an image with the imaging element 22 with the same area as the projection area 31 as the imaging area 32. Since the light valve 21 and the image sensor 22 are conjugate positions, the position P1 of the feature point of the indicator 71 such as a human finger or a pointer on the projection surface 30A is superimposed on the projection image V2 via the projection lens 24. Can be monitored.
  • the image processing unit 26 performs image processing on the shape of the pointing object 71 and detects the coordinates of the position P1 of the feature point of the pointing object 71, thereby enabling the pointing operation of the projection image V2.
  • the coordinate of the detection position P2 on the image sensor 22 side is the position of the feature point position P1 of the indicator 71
  • the indicator 71 may be two or more. For example, the coordinates of the tips of the fingers of both hands can be detected.
  • the projection area 31 has a predetermined height h of several millimeters to several tens of millimeters from the projection surface 30A, the height direction is 2 to 3 mm, and the area direction. Applies a film-like near-infrared barrier to a range covering the projection area 31. Then, since the projection surface 30A is generally flat, the film of the emitted near-infrared light goes straight without being interrupted in the middle if there is no indicator 71 such as a shield, a finger, or a pointer. Therefore, the image is not captured on the image pickup device 22 that is monitoring the projection surface 30A.
  • the position can be detected. Further, in the case of the ultra short focus type, the projection light passes through the vicinity of the projection surface 30A, and a part of the operating human body is difficult to block the projection light, so that there is an advantage that the screen is easy to see when operating.
  • the detection light L2 incident on the wire grid 27 includes an S-polarized component Ls3 and a P-polarized component Lp3 as polarized components.
  • the wire grid 27 reflects most of the P-polarized component Lp3 in the third direction Z3. If the polarizer 25S removes the S-polarized light component, almost all of the reflected P-polarized light component Lp3 reaches the image sensor 22. In addition, of the illumination light L1 incident on the wire grid 27, the S-polarized component Ls1 is emitted in the third direction Z3.
  • the S-polarized component Ls1 becomes a noise component with respect to the detection light L2, and when incident on the image sensor 22, the S / N ratio at the time of detection is reduced, and the detection accuracy is deteriorated.
  • the polarizer 25S and removing the S-polarized component Ls1 it is possible to increase the S / N ratio and increase the detection accuracy.
  • the P-polarized component Lp1 in the illumination light L1 is reflected by the wire grid 27 in a direction different from that of the imaging device 22, and the S-polarized component Ls1 is removed by the polarizer 25S, so that the imaging device ideally. 22, only the detection light L2 can be made incident, but depending on the incident angle of the light to the wire grid 27 and the optical performance of the wire grid wire grid 27 and the polarizer 25S, an unnecessary noise component included in the illumination light L1 However, there is a risk of entering the image sensor 22. Therefore, as shown in FIG. 6 described below, it is desirable to have a configuration in which the noise component for the detection light is reduced inside the illumination unit 1.
  • the projection lens 24 is made common by optically conjugate the image display light valve 21 and the image sensor 22 for object detection, thereby miniaturizing the entire optical system. Infrared light for detection is emitted from an optical system different from the light source for video display, thereby realizing high-precision object detection with reduced image processing load.
  • the noise component may enter the image sensor 22 and the object cannot be detected or the detection accuracy may be significantly reduced. is there.
  • a dedicated component such as a filter that cuts light that becomes a noise component in the optical path between the image pickup device 22 and the illumination unit 1. This increases the number of points and enlarges the optical system, and does not fundamentally solve the characteristics in the illumination unit 1.
  • At least one of the plurality of illumination optical members in the illumination unit 1 has an optical characteristic that reduces noise components generated inside the illumination unit 1.
  • the red laser 11R emits a weak infrared light L IR having a wavelength of, for example, about 800 nm as a noise component in addition to the red light L R having a wavelength of, for example, about 640 nm
  • the wavelength characteristics of the second dichroic prism 132 transmit blue (B) band, green (G) band, and infrared (IR) band light, and red ( R) The light may be reflected in the band.
  • B blue
  • G green
  • IR infrared
  • the horizontal axis represents wavelength and the vertical axis represents reflectance.
  • a first dichroic blue and green light derived from the click prism 131 transmits and reflects the red light L R derived from the third coupling lens 12R.
  • the infrared light L IR guided from the third coupling lens 12R is transmitted.
  • the red light L R emitted from the red laser 11R is reflected by the second dichroic prism 132, a light valve 21 as illumination light L1, the projection lens 24, and guided to the projection surface 30A forms a video, red Since the external light L IR is transmitted through the second dichroic prism 132 and guided in a direction deviating from the optical path of the illumination light L1, the external light L IR is not guided to the imaging element 22, and noise components with respect to the detection light L2 can be reduced. .
  • the infrared light L IR that is a noise component is not reduced, for example, as illustrated in FIG. 8, a large amount of noise component with respect to the detection signal is incident on the image sensor 22.
  • the noise component is reduced by the second dichroic prism 132, for example, as shown in FIG. 9, the noise component for the detection signal is reduced, and an infrared cut filter is inserted in the illumination optical system. Is obtained, and the detection accuracy is improved. 8 and 9, the horizontal axis indicates the wavelength, and the vertical axis indicates the amount of incident light.
  • the second dichroic prism 132 the transmitted infrared light L IR of the optical path, and may include an absorber 200 that absorbs infrared light L IR. Further, the processing of absorbing infrared light L IR on the inner wall of the housing that houses the illumination unit 1 may be subjected. Thereby, for example, it is possible to prevent the infrared light L IR from being reflected by the inner wall of the housing and the like and returning to the optical path of the illumination light L1.
  • the noise component with respect to the detection light generated inside the illumination unit 1 in the second dichroic prism 132 which is one of the illumination optical members is reduced. Therefore, it is possible to reduce noise components that are not required during object detection and improve the accuracy of object detection. Further, by sharing the effect of reducing the noise component with the optical path synthesis inside the illuminating unit 1, a small and inexpensive configuration can be achieved. As a result, it is possible to realize a small, high-definition and interactive laser projector that can be mounted on a small and lightweight electronic device.
  • FIGS. 1 and 4 show a configuration example using the wire grid 27 as the polarization separation element.
  • the polarization beam splitter 23 is used instead of the wire grid 27 as in the first modification shown in FIG.
  • the configuration may be acceptable.
  • a polarizer 25 that removes the P-polarized component is provided instead of the polarizer 25S that removes the S-polarized component.
  • the polarizing beam splitter 23 may have a configuration in which prisms coated with a multilayer film are bonded together, or may be a beam splitter similar to a prism in which an element having polarization characteristics is sanded.
  • the wire grid 27 in the configuration of FIG. 4 uses the first polarization component as the P polarization component, the second polarization component as the S polarization component, reflects the P polarization component, and transmits the S polarization component.
  • the beam splitter 23 has the opposite characteristic.
  • the polarizing beam splitter 23 has four optical surfaces. Here, two surfaces facing in the horizontal direction in FIG. 10 are described as a first optical surface and a third optical surface, and two surfaces facing in the vertical direction are described as a second optical surface and a fourth optical surface. To do. As shown in FIG. 10, the illumination light L1 is incident on the first optical surface of the polarization beam splitter 23 from the first direction Z1. A light valve 21 is arranged in the second direction Z2 with respect to the second optical surface of the polarization beam splitter 23. With respect to the third optical surface of the polarization beam splitter 23, the polarizer 25 and the imaging device 22 are arranged in the third direction Z3. A projection lens 24 is disposed in the fourth direction Z4 with respect to the fourth optical surface of the polarization beam splitter 23.
  • the polarization beam splitter 23 is a polarization separation element that separates incident light into a first polarization component (for example, an S polarization component) and a second polarization component (for example, a P polarization component) and emits them in different directions. is there.
  • the polarization beam splitter 23 selectively reflects the specific first polarization component and selectively transmits the specific second polarization component.
  • the polarization beam splitter 23 emits (reflects) substantially all of the S-polarized component Ls1 included in the illumination light L1 incident from the first direction Z1 in the second direction Z2, and Almost all of the P-polarized light component Lp1 is emitted (transmitted) in the third direction Z3.
  • the polarization beam splitter 23 also emits (reflects) almost all of the S-polarized component Ls3 contained in the detection light L2 incident from the direction opposite to the fourth direction Z4 in the third direction Z3. ).
  • the polarization beam splitter 23 reflects most of the S polarization component and transmits most of the P polarization component. . For this reason, for example, 99.5% of the illumination light L1 can be made dominant by using the S-polarized component Ls1, and the remaining 0.5% can be made the P-polarized component Lp1. As shown in FIG. 10, the polarization beam splitter 23 reflects almost all the dominant S-polarized component Ls ⁇ b> 1 and emits it to the light valve 21.
  • the S-polarized component Ls1 incident on the light valve 21 is modulated (rotated) by the light valve 21 to become modulated light of the P-polarized component Lp2, and then enters the projection lens 24 via the polarizing beam splitter 23.
  • the P-polarized light component Lp2 that is the modulated light is projected as a projection image V2 onto the projection surface 30A of the screen 30 via the projection lens 24 as shown in FIG.
  • the detection light L2 incident on the polarization beam splitter 23 includes an S polarization component Ls3 and a P polarization component Lp3 as polarization components.
  • the polarization beam splitter 23 reflects almost all of the S-polarized component Ls3 in the third direction Z3. If the polarizer 25 removes the P-polarized component, almost all of the S-polarized component Ls3 reaches the image sensor 22.
  • the P-polarized component Lp1 is emitted in the third direction Z3.
  • the P-polarized component Lp1 becomes a noise component with respect to the detection light L2, and when incident on the image sensor 22, the S / N ratio at the time of detection is reduced, and the detection accuracy is deteriorated.
  • the S / N ratio can be increased and the detection accuracy can be increased.
  • the S-polarized component Ls1 in the illumination light L1 is reflected by the polarizing beam splitter 23 in a direction different from that of the imaging element 22, and the P-polarized component Lp1 is removed by the polarizer 25, so that ideal imaging is performed.
  • Only the detection light L2 can be incident on the element 22, but depending on the incident angle of the light to the polarization beam splitter 23 and the optical performance of the polarization beam splitter 23 and the polarizer 25, unnecessary light included in the illumination light L1 is necessary.
  • a noise component enters the image sensor 22. Therefore, as shown in FIG. 6, it is desirable to have a configuration in which the noise component with respect to the detection light is reduced inside the illumination unit 1.
  • FIG. 11 shows a second example in which the noise component is reduced as the illumination unit 1A according to the second modification.
  • the green light L G about the green laser 11G is a wavelength 520 nm, for example, the cases where an weak infrared light L IR wavelength of about 800nm as an example.
  • Characteristics in this case, as shown in FIG. 11, for example, the second dichroic prism 132, which transmits the blue light L B and the green light L G, and reflects the red light L R, and reflects the infrared light L IR To.
  • the infrared light LIR is guided in a direction deviating from the optical path of the illumination light L1, the infrared light LIR is not guided to the imaging element 22, and a noise component with respect to the detection light L2 can be reduced.
  • the optical path of the guided in a direction out of the optical path of the illumination light L1 infrared light L IR may be provided with an absorber 200 that absorbs infrared light L IR .
  • the process which absorbs infrared-light LIR may be given to the inner wall of the housing
  • FIG. 12 shows a third example in which the noise component is reduced as the illumination unit 1B according to the third modification.
  • Figure 12 as in the example of FIG. 11, and an example in which emitted in addition to the green light L G about the green laser 11G is a wavelength 520 nm, for example, a weak infrared light L IR wavelength of about 800 nm.
  • the first dichroic prism 131 transmits the blue light L B, and reflects the green light L G, it may be characteristic to transmit infrared light L IR.
  • the infrared light LIR is guided in a direction deviating from the optical path of the illumination light L1, the infrared light LIR is not guided to the imaging element 22, and a noise component with respect to the detection light L2 can be reduced.
  • FIG. 13 shows a fourth example in which the noise component is reduced as the illumination unit 1C according to the fourth modification.
  • the other blue light L B of approximately blue laser 11B is a wavelength 450 nm, for example, the cases where an weak infrared light L IR wavelength of about 800nm as an example.
  • the first dichroic prism 131 transmits the blue light L B, and reflects the green light L G, it may be characteristic of reflecting infrared light L IR.
  • the infrared light LIR is guided in a direction deviating from the optical path of the illumination light L1, the infrared light LIR is not guided to the imaging element 22, and a noise component with respect to the detection light L2 can be reduced.
  • the second dichroic prism 132 transmits the blue light L B, and transmits the green light L G, and reflects the red light L R, and reflecting the infrared light L IR It may be configured.
  • FIG. 14 shows a fifth example in which the noise component is reduced as the illumination unit 1D according to the fifth modification.
  • the mirror 18 that bends the optical path may have a characteristic of reflecting the blue light L B , the green light L G , and the red light L R and transmitting the infrared light L IR.
  • the blue laser 11B which of the light source of the green laser 11G and the red laser 11R, even when the emitting infrared light L IR, reduces the infrared light L IR is the noise component relative to the detection light L2 be able to.
  • the mirror 18 By providing the mirror 18 with the characteristic of reducing the infrared light L IR , it is possible to cope with the case where the one that emits the infrared light L IR is an optical member other than the light source. For example, even when the infrared light L IR is generated by multi-layer film of the second dichroic prism 132 excites red light, direction infrared light L IR is off the optical path of the illumination light L1 by the mirror 18 Therefore, the noise component with respect to the detection light L2 can be reduced.
  • FIG. 15 shows a configuration example of the illumination unit 1E according to the sixth modification.
  • a single light source 11 and a coupling lens 12 may be provided instead of the blue laser 11B, the green laser 11G, and the red laser 11R.
  • the first dichroic prism 131 and the second dichroic prism 132 can be omitted.
  • the light source 11 may include a plurality of chips 211 ⁇ / b> A that emit different colored lights.
  • red light L R may have the green light L G, and the three chips 211A which emits blue light L B.
  • the mirror 18 may have a characteristic of reflecting the blue light L B , the green light L G , and the red light L R and transmitting the infrared light L IR. .
  • weak infrared light L IR is emitted from the light source 11, it is possible to reduce the infrared light L IR is the noise component relative to the detection light L2.
  • the projection display device may perform, for example, monochrome image display.
  • the light source 11 may have a single chip 211A that emits a single color light.
  • the weak infrared light L IR emitted from the light source 11 may be guided in the direction away from the optical path of the illumination light L1 by the mirror 18, as shown in FIG. 16 and 17, the plurality of chips 211A may all emit the same color light.
  • the solid state light emitting device 211 composed of one or a plurality of edge emitting type chips 211A is disposed in the internal space surrounded by the stem 213 and the cap 214. It is in the form of an accommodated can type.
  • FIG. 17 illustrates a configuration in which the light source 11 illustrated in FIG. 16 is viewed from the light emitting surface side.
  • FIG. 19 shows a configuration in which the light source 11 shown in FIG. 18 is viewed from the light emitting surface side.
  • FIG. 20 shows another configuration example of the light source 11 shown in FIG.
  • the chip 211A is made of, for example, a light emitting diode (LED), an organic EL light emitting element (OLED), or a laser diode (LD).
  • LED light emitting diode
  • OLED organic EL light emitting element
  • LD laser diode
  • the stem 213 constitutes a package of the light source 11 together with the cap 214.
  • the stem 213 supports a submount 215, a support substrate 213A, an outer frame substrate 213B disposed on the back surface of the support substrate 213A, and a plurality of connection terminals. 213C.
  • the submount 215 is made of a material having conductivity and heat dissipation.
  • the support substrate 213A and the outer frame substrate 213B are each formed by forming one or a plurality of insulating through holes and one or a plurality of conductive through holes on a base material having conductivity and heat dissipation. is there.
  • the support substrate 213A and the outer frame substrate 213B have, for example, a disk shape, and are stacked so that both central axes (not shown) overlap each other.
  • the diameter of the outer frame substrate 213B is larger than the diameter of the support substrate 213A.
  • the outer edge of the outer frame substrate 213B is an annular flange projecting radially from the central axis of the outer frame substrate 213B in a plane whose normal is the central axis of the outer frame substrate 213B.
  • the flange has a role of defining a reference position when the cap 214 is fitted to the support substrate 213A in the manufacturing process.
  • the plurality of connection terminals 213C penetrate at least the support substrate 213A.
  • Terminals excluding at least one of the plurality of connection terminals 213C are electrically connected to electrodes (not shown) of the individual chips 211A one by one.
  • the terminal ⁇ protrudes long toward the outer frame substrate 213B and protrudes short toward the support substrate 213A.
  • terminals other than the terminal ⁇ are electrically connected to other electrodes (not shown) of all the chips 211A. Has been.
  • the terminal ⁇ protrudes long toward the outer frame substrate 213B, and the edge of the terminal ⁇ on the support substrate 213A side is embedded in, for example, the support substrate 213A.
  • a portion of each connection terminal 213C that protrudes long toward the outer frame substrate 213B corresponds to, for example, a portion that is fitted into the substrate.
  • portions of the plurality of connection terminals 213C that protrude short toward the support substrate 213A correspond to portions that are electrically connected to the individual chips 211A one by one through the wires 216.
  • a portion embedded in the support substrate 213A corresponds to, for example, a portion electrically connected to all the chips 211A via the support substrate 213A and the submount 215.
  • the terminal ⁇ is supported by insulating through holes provided in the support substrate 213A and the outer frame substrate 213B, and is insulated and separated from the support substrate 213A and the outer frame substrate 213B by the through holes. Further, the individual terminals ⁇ are insulated and separated from each other by the insulating member. On the other hand, the terminal ⁇ is supported by conductive through holes provided in the support substrate 213A and the outer frame substrate 213B, and is electrically connected to the through holes.
  • the cap 214 seals the solid light emitting element 211.
  • the cap 214 has, for example, a cylindrical portion 214A having openings at the upper end and the lower end.
  • the lower end of the cylindrical portion 214A is in contact with the side surface of the support substrate 213A, and the solid state light emitting device 211 is located in the internal space of the cylindrical portion 214A.
  • the cap 214 has a light transmission window 214B disposed so as to close the opening on the upper end side of the cylindrical portion 214A.
  • the light transmission window 214 ⁇ / b> B is disposed at a position facing the light emission surface of the solid state light emitting device 211, and has a function of transmitting light output from the solid state light emitting device 211.
  • the solid-state light emitting element 211 emits light from a light emission region composed of a single or a plurality of dot-like or single or a plurality of non-spot-like light emission spots. Is coming out.
  • the solid state light emitting device 211 may be composed of, for example, a single chip 211A that emits light in a predetermined wavelength band, or may be composed of a plurality of chips 211A that emit light in the same wavelength band. You may consist of several chip
  • the solid state light emitting device 211 includes a plurality of chips 211A, the chips 211A are arranged in a row in the horizontal direction as shown in FIGS. 16 and 17, for example.
  • the size (W V ⁇ W H ) of the solid state light emitting device 211 is, for example, the size of the single chip 211A (see FIG. 19). Equal to W V1 ⁇ W H1 ).
  • the size (W V ⁇ W H ) as the solid light emitting element 211 is W V1 ⁇ 2W H1 or more.
  • the size of the solid state light emitting device 211 is equal to the size when all the chips 211A are grouped, for example, as shown in FIG. .
  • the size (W V ⁇ W H ) as the solid light emitting element 211 is equal to or greater than W V1 ⁇ 3WH 1 in the example of FIG.
  • the infrared light L IR that is a noise component is reduced by reflection or transmission as an optical characteristic of the illumination optical member
  • one or more of the plurality of illumination optical members may be infrared.
  • the light L IR may be absorbed.
  • one or more of the coupling lenses 12B, 12G, and 12R, the condenser lenses 161 to 164, the fly-eye lenses 151 and 152, and the driving optical element 14 may include blue light L B , green light L G , And may have a characteristic of transmitting the red light L R and absorbing the infrared light L IR .
  • one or more of the mirror 18, the first dichroic prism 131, and the second dichroic prism 132 may have a characteristic of absorbing the infrared light LIR .
  • all of the plurality of illumination optical members may have a characteristic of reducing the infrared light LIR by any of reflection, transmission, and absorption.
  • the infrared light L IR can be reduced by the various modes described above.
  • either the first fly-eye lens 151 or the second fly-eye lens 152 may be one.
  • the first condenser lens 161 and the second condenser lens 162 are not necessary.
  • the third condenser lens 163 and the fourth condenser lens 164 are not necessary.
  • the polarizer 25S in the configuration of FIG. 1 may be omitted.
  • This technology is also applicable as a digital mirror device type projector.
  • the ultraviolet light may be the detection light L2 and its noise component.
  • the present technology can take the following configurations.
  • a light valve that modulates illumination light based on video data and emits the modulated light; and
  • An illumination unit having a light source and a plurality of illumination optical members that generate the illumination light based on light from the light source and guide the illumination light to the light valve;
  • a projection lens for projecting the modulated light from the light valve onto a projection surface and receiving detection light from a direction opposite to the traveling direction of the modulated light;
  • An image sensor that is disposed at a position optically conjugate with the light valve and receives the detection light via the projection lens;
  • a projection display device wherein at least one of the plurality of illumination optical members has an optical characteristic of reducing a noise component with respect to the detection light generated inside the illumination unit.
  • the projection display device having a mirror that bends the optical path of the illumination light
  • the mirror has an optical characteristic that reduces the noise component.
  • the projection display device having a mirror that bends the optical path of the illumination light
  • the mirror has an optical characteristic that reduces the noise component.
  • the mirror has an optical characteristic of transmitting the noise component in a direction deviating from an optical path of the illumination light.
  • It is arranged in a direction away from the optical path of the illumination light, further comprising an absorber that absorbs the noise component,
  • At least one of the plurality of illumination optical members has an optical characteristic that guides the noise component in a direction deviating from an optical path of the illumination light by reflection or transmission. Any one of the above (1) to (6)
  • the projection display device according to any one of (1) to (7), wherein the noise component includes light in a non-visible light band.
  • the projection display device according to any one of (1) to (8), wherein the noise component includes light in an infrared band.
  • the projection display device according to any one of (1) to (9), wherein the noise component includes light in the same wavelength band as the detection light.
  • the noise component is a component included in light emitted from the light source.
  • An image processing unit that detects a position of a feature point of an object on the projection plane or in the vicinity of the projection plane in association with coordinates of a projection image projected on the projection plane based on a result of imaging by the imaging element;
  • the projection display device according to any one of (1) to (11), further provided.
  • a detection light source unit that emits non-visible light for detection from the projection surface to a predetermined height;
  • the projection-type display device according to any one of (1) to (12), wherein the invisible light diffused by hitting an object is incident on the imaging element as the detection light through the projection lens.
  • a detection light source unit that emits the invisible light for detection so that at least a projection area on the projection surface by the projection lens is covered with a non-visible light for detection from a predetermined height; The invisible light diffused by hitting an object in the vicinity of the projection area is incident on the imaging element as the detection light through the projection lens.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

 本開示の投射型表示装置は、照明光(L1)を映像データに基づいて変調し、その変調光を出射するライトバルブ(21)と、光源と、前記光源からの光に基づいて前記照明光(L1)を生成し、前記照明光(L1)を前記ライトバルブ(21)へと導く複数の照明用光学部材とを有する照明部(1)と、前記ライトバルブ(21)からの前記変調光を投影面(30A)上に投影すると共に、前記変調光の進行方向とは逆方向から検出光が入射される投射レンズ(24)と、前記ライトバルブ(21)と光学的に共役な位置に配置され、前記投射レンズを介して前記検出光が入射される撮像素子(22)とを備える。前記複数の照明用光学部材のうち少なくとも1つが、前記照明部(1)の内部で発生した、前記検出光に対するノイズ成分を低減させる光学特性を有する。

Description

投射型表示装置
 本開示は、投影面またはその近傍における物体の検出機能を有する投射型表示装置に関する。
 近年、スマートフォンやタブレット端末等では、タッチパネルを用いることにより、画面に表示される映像のページ送りや拡大縮小を、人の直感に応じたポインティング操作で可能にしている。一方、映像をスクリーン上に投影することによって表示する表示装置がプロジェクタとして古くから知られている。
特開2013-3859号公報 特開2007-52218号公報 特開2003-44839号公報
 近年では、プロジェクタにおいても、タブレット端末等のように、投影される映像を人の直感に応じる形でタッチパネルを手で操作するようにポインティング操作することが望まれている。特に、ハンディタイプの小型プロジェクタが近年市場に現れ、20インチ~30インチ程度で投影された投影エリアの映像をポインティング操作することが望まれているが、映像が投影されるスクリーンや壁などにはタッチパネルが組み込まれていないため、手による操作を別の手段で検出する必要がある。また、この方法以外にプロジェクタではリモコン等を操作することで映像を動かすことが可能なものもあるが、小型のプロジェクタでは装置自体が小さく、リモコン等による操作はスマートでない。
 特許文献1には、投影装置と手による操作(ジェスチャ)を検出する検出装置とを組み合わせることで、投影エリアをカバーする形で映像のポインティング操作を可能にした装置が提案されている。しかしながら、特許文献1で提案されている装置では、投影部と検出部とが別体となるため、システム全体のサイズが大きくなり易い。また、サイズが大きくなるだけでなく、投影しているエリアと検出するエリアとの相対位置座標の構成などに関して、精度を要求するキャリブレーション操作が必要となる。このキャリブレーションの精度はポインティング操作の精度に直接影響を及ぼすため重要であり、画面の隅々まで対応する必要があるため、煩雑である。
 特許文献2および特許文献3には、プロジェクタに撮像機能を付加した装置が提案されている。しかしながら、特許文献3で提案されている装置では、超高圧水銀ランプなどの光源からの光束を特定の偏光成分に揃える偏光変換素子に入射させ、その偏光成分をライトバルブへ導いている。しかしこの種の偏光変換素子では特定の偏光成分に変換できなかった成分がライトバルブでなく撮像素子に入射して、撮像の際に投影用の照明光が悪影響を及ぼす。またそれを避けるために撮像用に専用の偏光変換素子を追加したのでは、投射レンズが大型化してしまい実用的でない。これに対して特許文献2で提案されている装置では、撮像の際に投影用の照明光を消灯することで、撮像専用の偏光変換素子を追加することなく、照明光の悪影響を防止している。しかしながら、撮像の際に照明光を消灯するので、例えば暗い外部環境下で使用する場合等には、撮像に必要な十分な明るさを確保するのが困難になるため、プロジェクタのように暗い環境下で使用されることの多い装置としては使用上の制約がある。
 従って、物体検出の精度を向上させることができるようにした投射型表示装置を提供することが望ましい。
 本開示の一実施の形態に係る投射型表示装置は、照明光を映像データに基づいて変調し、その変調光を出射するライトバルブと、光源と、光源からの光に基づいて照明光を生成し、照明光をライトバルブへと導く複数の照明用光学部材とを有する照明部と、ライトバルブからの変調光を投影面上に投影すると共に、変調光の進行方向とは逆方向から検出光が入射される投射レンズと、ライトバルブと光学的に共役な位置に配置され、投射レンズを介して検出光が入射される撮像素子とを備え、複数の照明用光学部材のうち少なくとも1つが、照明部の内部で発生した、検出光に対するノイズ成分を低減させる光学特性を有するものである。
 本開示の一実施の形態に係る投射型表示装置では、複数の照明用光学部材のうち少なくとも1つによって、照明部の内部で発生した、検出光に対するノイズ成分が低減する。
 本開示の一実施の形態に係る投射型表示装置によれば、複数の照明用光学部材のうち少なくとも1つによって、照明部の内部で発生した、検出光に対するノイズ成分を低減させるようにしたので、物体検出の精度を向上させることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の一実施の形態に係る投射型表示装置の全体構成の一例を示す構成図である。 投射型表示装置において映像表示および物体検出をしている状態の一例を示す外観図である。 図2に示した投射型表示装置を側面方向から見た状態の一例を示す構成図である。 ライトバルブと撮像素子とに入射する光の一例を示す要部断面図である。 映像表示および物体検出の概念を模式的に示す説明図である。 照明部内部で発生するノイズ成分を第2のダイクロイックプリズムによって低減する例を示した構成図である。 第2のダイクロイックプリズムの光学特性の一例を示す特性図である。 検出信号とノイズ成分の波長特性の一例を示す特性図である。 ノイズ成分を低減した例を示す特性図である。 偏光分離素子として偏光ビームスプリッタを用いた変形例を示す要部断面図である。 ノイズ成分を低減する第2の例を示した要部構成図である。 ノイズ成分を低減する第3の例を示した要部構成図である。 ノイズ成分を低減する第4の例を示した要部構成図である。 ノイズ成分を低減する第5の例を示した要部構成図である。 光源が1つである場合の照明部の構成例を示す構成図である。 光源の構成例を示す断面図である。 図16に示した光源を光出射面側から見た構成図である。 光源の他の構成例を示す断面図である。 図18に示した光源を光出射面側から見た構成図である。 図18に示した光源の他の構成例を示す構成図である。
 以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
 1.検出機能を有する投射型表示装置の一実施の形態(図1~図9)
  1.1 構成
  1.2 動作および作用
   1.2.1 基本動作
   1.2.2 偏光子の作用
   1.2.3 照明部内部で発生するノイズ成分の低減について
  1.3 効果
 2.変形例
  2.1 第1の変形例(図10)
  2.2 第2の変形例(図11)
  2.3 第3の変形例(図12)
  2.4 第4の変形例(図13)
  2.5 第5の変形例(図14)
  2.6 第6の変形例(図15、図16~図20)
  2.7 第7の変形例
  2.8 その他の変形例
 3.その他の実施の形態
<1.検出機能を有する投射型表示装置の一実施の形態>
[1.1 構成]
 図1は、本開示の一実施の形態に係る投射型表示装置(プロジェクタ)の全体構成の一例を示している。この投射型表示装置は、映像表示と共に、近赤外光を用いて、アクティブに物体検出を行う機能を有している。図2は、投射型表示装置において映像表示および物体検出をしている状態の一例を示している。図3は、図2に示した投射型表示装置を側面方向から見た状態の一例を示している。図4は、図1に示した投射型表示装置において、ライトバルブ21と撮像素子22とに入射する光の一例を示している。図5は、この投射型表示装置による映像表示および物体検出の概念を模式的に示している。
 この投射型表示装置は、図1に示したように、照明部1と、ライトバルブ21と、撮像素子22と、偏光分離素子としてのワイヤグリッド27と、投射レンズ24と、偏光部材としての偏光子25Sと、画像処理部26と、照明制御部29とを備えている。
 照明部1は、照明光L1を図4に示したように第1の方向Z1からワイヤグリッド27に向けて出射するものである。照明部1は、光源と、光源からの光に基づいて照明光L1を生成し、照明光L1をライトバルブ21へと導く複数の照明用光学部材とを有している。光源としては、それぞれが異なる光路上に配置された複数の光源であってもよい。照明部1はまた、複数の光源のうちの2以上の光源の光路を合成する光路合成素子を有している。
 より具体的には、照明部1は、それぞれが異なる光路上に配置された複数の光源として、青色レーザ11Bと、緑色レーザ11Gと、赤色レーザ11Rとを有している。照明部1はまた、複数の照明用光学部材として、第1のカップリングレンズ12Bと、第2のカップリングレンズ12Gと,第3のカップリングレンズ12Rと、駆動光学素子14と、ミラー18と、第1のダイクロイックプリズム131と、第2のダイクロイックプリズム132と、第1のフライアイレンズ151と、第2のフライアイレンズ152と、第1のコンデンサレンズ161と、第2のコンデンサレンズ162と、第3のコンデンサレンズ163と、第4のコンデンサレンズ164とを有している。
 青色レーザ11Bは例えば波長450nm程度の青色光を発するレーザ光源である。緑色レーザ11Gは例えば波長520nm程度の緑色光を発するレーザ光源である。赤色レーザ11Rは例えば波長640nm程度の赤色光を発するレーザ光源である。
 照明制御部29は、第1の光源(例えば青色レーザ11B)、第2の光源(例えば緑色レーザ11G)、および第3の光源(例えば赤色レーザ11R)の発光制御を行うものである。照明制御部29は例えば、第1乃至第3の光源をそれぞれフィールドシーケンシャル方式で発光制御するようになっている。
 第2のカップリングレンズ12Gは、緑色レーザ11Gから出射された緑色光をコリメートして(平行光として)、第1のダイクロイックプリズム131と結合するためのレンズ(結合レンズ)である。同様に、第1のカップリングレンズ12Bは、青色レーザ11Bから出射された青色光をコリメートして、第1のダイクロイックプリズム131と結合するためのレンズ(結合レンズ)である。また、第3のカップリングレンズ12Rは、赤色レーザ11Rから出射された赤色光をコリメートして、第2のダイクロイックプリズム132と結合するためのレンズ(結合レンズ)である。なお、これらのカップリングレンズ12R,12G,12Bによって、入射した各レーザ光をコリメートする(平行光にする)ことが好ましい。
 第1のダイクロイックプリズム131および第2のダイクロイックプリズム132はそれぞれ、2以上の光源の光路を合成する光路合成素子である。第1のダイクロイックプリズム131は、第1のカップリングレンズ12Bを介して入射された青色光を選択的に透過させる一方、第2のカップリングレンズ12Gを介して入射された緑色光を選択的に反射させるプリズムである。第2のダイクロイックプリズム132は、第1のダイクロイックプリズム131から出射された青色光および緑色光を選択的に透過させる一方、第3のカップリングレンズ12Rを介して入射された赤色光を選択的に反射させるプリズムである。これにより、赤色光、緑色光および青色光に対する色合成(光路合成)がなされるようになっている。
 駆動光学素子14は、照明光L1におけるスペックルノイズおよび干渉縞を低減するための光学素子であり、第1のコンデンサレンズ161と第2のコンデンサレンズ162との間の光路上に配置されている。駆動光学素子14は、例えば光軸に沿った方向や、光軸に対して垂直方向に微小振動することで、通過する光束の状態を変化させ、照明光L1におけるスペックルノイズおよび干渉縞を低減させることが可能となっている。
 第1のフライアイレンズ151および第2のフライアイレンズ152はそれぞれ、基板上に複数のレンズが2次元配置された光学部材(インテグレータ)であり、複数のレンズの配列に応じて入射光束を空間的に分割して出射させるものである。第1のフライアイレンズ151は、第2のダイクロイックプリズム132と第1のコンデンサレンズ161との間の光路上に配置されている。第2のフライアイレンズ152は、第2のコンデンサレンズ162と第3のコンデンサレンズ163との間の光路上に配置されている。第1のフライアイレンズ151および第2のフライアイレンズ152によって、照明光L1の面内の光量分布の均一化が図られるようになっている。
 ミラー18は、照明光L1の光路を折り曲げる素子である。ミラー18は、第1のコンデンサレンズ161と駆動光学素子14との間の光路上に配置されている。第1のコンデンサレンズ161は、第1のフライアイレンズ151からの出射光を集光し、ミラー18を介して駆動光学素子14へ入射させるためのレンズである。第2のコンデンサレンズ162は、駆動光学素子14からの出射光を集光し、第2のフライアイレンズ152へ入射させるためのレンズである。
 第3のコンデンサレンズ163および第4のコンデンサレンズ164は、第2のフライアイレンズ152からの出射光を集光し、照明光L1としてワイヤグリッド27に向けて出射させるためのレンズである。
 ワイヤグリッド27は、例えばガラス基板上に金属の格子を微小間隔をおいて形成したものである。ワイヤグリッド27には、図4に示したように、第1の方向Z1から照明光L1が入射されるようになっている。第2の方向Z2にはライトバルブ21が配置されている。第3の方向Z3には偏光子25Sおよび撮像素子22が配置されている。第4の方向Z4には投射レンズ24が配置されている。
 ワイヤグリッド27は、入射した光を第1の偏光成分(例えばP偏光成分)と第2の偏光成分(例えばS偏光成分)とに分離し、それぞれを互いに異なる方向に出射する偏光分離素子である。ワイヤグリッド27は、特定の第1の偏光成分を選択的に反射させると共に、特定の第2の偏光成分を選択的に透過させるようになっている。ワイヤグリッド27は例えば、図4に示したように、第1の方向Z1から入射した照明光L1に含まれるP偏光成分Lp1の多くを第2の方向Z2に出射(反射)すると共に、S偏光成分Ls1の多くを第3の方向Z3に出射(透過)するようになっている。ワイヤグリッド27はまた、図4に示したように、第4の方向Z4とは逆方向から入射した検出光L2に含まれるP偏光成分Lp3の多くを第3の方向Z3に出射(反射)するようになっている。
 ライトバルブ21は、例えばLCOS(Liquid Crystal On Silicon)等の反射型の液晶素子である。ライトバルブ21は例えば、図4に示したように、ワイヤグリッド27を介して第2の方向Z2から入射された、照明光L1に含まれる第1の偏光成分(例えばP偏光成分Lp1)を映像データに基づいて変調するようになっている。ライトバルブ21はまた、その変調光をワイヤグリッド27を介して第4の方向Z4に向けて出射するようになっている。ライトバルブ21からは、図4に示したように、入射時とは偏光状態が回転された例えばS偏光成分Ls2が変調光として出射されるようになっている。なお、ライトバルブ21では、入射したP偏光成分Lp1をそのままの偏光状態でワイヤグリッド27に戻すことで黒表示を行うことが可能である。
 投射レンズ24は、ワイヤグリッド27を介して第4の方向Z4から入射されたライトバルブ21からの変調光を、スクリーンの30の投影面30A上に投影するものである。また、投射レンズ24には、図4に示したように、変調光の進行方向とは逆方向から検出光L2が入射されるようになっている。投射レンズ24は、映像を投影するための投影光学系であると共に、物体検出のための結像光学系として機能する。
 撮像素子22は、CMOS(Complementary Metal-Oxide Semiconductor)やCCD(Charge Coupled Device)などの固体撮像素子で構成されている。撮像素子22は、ライトバルブ21と光学的に共役な位置に配置されている。より具体的には、ライトバルブ21が反射型の液晶素子である場合、映像を作り出す表示面(液晶面)と撮像素子22の撮像面とが光学的に共役な位置となるように配置する。撮像素子22には、投射レンズ24およびワイヤグリッド27を介して、図4に示したように、第3の方向Z3から検出光L2が入射されるようになっている。
 偏光子25Sは、照明光L1に含まれる第2の偏光成分を低減させる光学部材の1つである偏光部材である。偏光子25Sは、撮像素子22とワイヤグリッド27との間に配置されている。偏光子25Sは、入射した光に含まれる第2の偏光成分(例えばS偏光成分)を除去する。偏光子25Sは、第2の偏光成分として、図4に示したように、少なくともワイヤグリッド27を介して入射された照明光L1に含まれるS偏光成分Ls1を除去するようになっている。
 画像処理部26は、撮像素子22による撮影結果に基づいて、図2、図3、および図5に示したように、例えば人の指やポインタ等の指示物(物体)71の特徴点の位置P1を、投影面30A上に投影された投影画像V2の座標に対応付けて検出するものである。特徴点の例として図2、図3、および図5では人の指の先端の位置を示しているが、これに限られず人の指の重心、手の重心などを適宜選択することができる。
 図2および図3では、投射型表示装置が短焦点タイプである場合を想定した構成を示している。この投射型表示装置は、図2および図3に示したように、本体100の下部に近赤外光投光部40を備えている。投影面30Aは例えば平坦な床面となっている。近赤外光投光部40は、投影面30Aに対して所定の高さhから検出用の非可視光としての検出用近赤外光41を出射する検出用光源部である。近赤外光投光部40は、少なくとも投影面30A上の投影エリア31が、検出用近赤外光41によって所定の高さhから覆われるように、検出用近赤外光41を出射する。撮像素子22には、指示物71によって拡散された近赤外散乱光Laが検出光L2として、投射レンズ24およびワイヤグリッド27を介して入射される。なお、近赤外光投光部40は、検出用の非可視光として、高さh方向に厚みのある検出用近赤外光41を投影面30Aに照射しても良い。この場合、必ずしも検出用近赤外光41と投影面30Aとが所定の高さhで完全に離間している必要はなく、例えば検出用近赤外光41の厚み方向(高さh方向)の一部の光(高さh=0の光)が投影面30Aに触れる(重なる)ような状態となっていてもよい。
 この投射型表示装置において、投射レンズ24は、スローレシオ(Throw Ratio)が0.38以下の超短焦点レンズであってもよい。ここで、スローレシオとは、図2および図3に示したように、投射レンズ24から投影面30Aまでの距離をL、投影エリアの幅をHとすると、L/Hで表される。
[1.2 動作および作用]
(1.2.1 基本動作)
 この投射型表示装置では、図1および図5に示したように、ライトバルブ21に形成された映像情報V1を投射レンズ24によってスクリーン30の投影面30A上に投影し、投影画像V2として拡大表示する。この投射型表示装置はまた、投影面30A上における物体の位置、例えば人の指やポインタ等の指示物(物体)71の特徴点の位置P1を撮像素子22を用いて検出する。撮像素子22は、投影面30A上の投影エリア31と略同一のエリアを撮影エリア32とした撮影を行う。
 この投射型表示装置では、照明部1においてレーザ光源を用いていることで、照明光L1の偏光成分が支配的となるように揃えることができる。具体的には第1の偏光成分が99%以上、より好ましくは99.5%以上となるようにするとよい。ここで支配的とする第1の偏光成分は、偏光変換素子の特性に合わせて、S偏光成分Ls1、P偏光成分Lp1のいずれかを選択できる。
 ワイヤグリッド27は、第1の偏光成分をP偏光成分、第2の偏光成分をS偏光成分とすると、P偏光成分の多くを反射し、S偏光成分の多くを透過させるものとなっている。このため、例えば、照明光L1の99.5%をP偏光成分Lp1にして支配的とし、残りの0.5%をS偏光成分Ls1にする。ワイヤグリッド27は、例えば図4に示したように、支配的なP偏光成分Lp1の多くを反射してライトバルブ21へ出射する。ライトバルブ21に入射されたP偏光成分Lp1は、ライトバルブ21で変調(回転)されてS偏光成分Ls2の変調光となった後、ワイヤグリッド27を介して投射レンズ24に入射される。変調光であるS偏光成分Ls2が、図5に示したように投射レンズ24を介してスクリーン30の投影面30A上に投影画像V2として投影される。
 この投射型表示装置では、撮像素子22が、ライトバルブ21と光学的に共役な位置に配置されている。また、投射レンズ24が、映像を投影するための投影光学系であると共に、物体検出のための結像光学系として機能している。このため、図5に示したように、投影エリア31と同じエリアを撮影エリア32として撮像素子22で撮影することが可能となる。ライトバルブ21と撮像素子22とが共役な位置であるがゆえに、投影面30A上における人の指やポインタ等の指示物71の特徴点の位置P1を投射レンズ24を介して投影画像V2に重ねてモニタすることが可能となる。また例えば、画像処理部26において、指示物71の形状を画像処理し、指示物71の特徴点の位置P1の座標を検出することで、投影画像V2のポインティング操作が可能となる。この際、投影エリア31内の任意の座標位置が撮影エリア32内の座標位置に1対1で対応するので、撮像素子22側の検出位置P2の座標が指示物71の特徴点の位置P1の座標に対応する。なお、指示物71は2以上であってもよく、例えば両手の指の先端の座標を検出することができる。このようにして検出された指示物71の特徴点の位置を用いることで、プロジェクタの投影画像V2にあたかもタッチパネルが組み込まれているような直観的な操作が可能となる。
 この投射型表示装置では、図2および図3に示すように、投影エリア31に、投影面30Aから例えば数mm~数10mmの所定の高さhに、高さ方向は2~3mmでエリア方向は投影エリア31をカバーする範囲に膜状の近赤外バリアを張る。そうすると、通常、投影面30Aは平坦であるため、遮蔽物や、指、指示棒など何かしらの指示物71が無ければ、放出された近赤外光の膜は途中で遮られることなく、直進するため、投影面30Aをモニタしている撮像素子22には写らない。この状態で、指などを、近赤外光バリアのある投影面30Aから数mmまで近づけるか、または、投影面30A上をタッチするなどの動作をすると、バリアの光が指で遮られ、そのポイントで拡散することとなる。指に当たり拡散した光は四方八方に向かい、その一部が投射レンズ24の開口に戻る光が存在する。その戻る光は投射レンズ24を通過し、ワイヤグリッド27で反射され、撮像素子22上に到達する。この時、映像を作るライトバルブ21と撮像素子22とが共役の位置に配置されているため、投影面30A上で点状に発生した輝点拡散ポイントは撮像素子22上で結像し、投影された映像に1:1にあたる位置で結像する。そうすることで、位置を検出することが可能となる。また超短焦点タイプの場合は投射光が投影面30Aの近傍を通り、操作する人の体の一部が投射光を遮りにくいため、操作する際に画面が見やすいというメリットがある。
(1.2.2 偏光子の作用)
 次に、図4を参照して、偏光子25Sの作用について説明する。ワイヤグリッド27に入射される検出光L2には偏光成分としてS偏光成分Ls3とP偏光成分Lp3とが含まれている。ワイヤグリッド27は、P偏光成分Lp3の多くを第3の方向Z3に反射する。偏光子25Sを、S偏光成分を除去するものとすれば、反射されたP偏光成分Lp3のほぼすべてが撮像素子22に到達する。また、ワイヤグリッド27に入射される照明光L1のうち、S偏光成分Ls1が第3の方向Z3に出射される。このS偏光成分Ls1は、検出光L2に対してノイズ成分となり、撮像素子22に入射すると、検出の際のS/N比が小さくなり、検出精度を悪化させる。偏光子25Sを配置してS偏光成分Ls1を除去することで、S/N比を大きくして検出精度を上げることができる。
 このように、照明光L1のうちP偏光成分Lp1がワイヤグリッド27で撮像素子22とは異なる方向に反射され、S偏光成分Ls1は偏光子25Sによって除去されることで、理想的には撮像素子22には検出光L2のみを入射させることができるが、ワイヤグリッド27への光の入射角やワイヤグリッワイヤグリッド27および偏光子25Sの光学性能によっては、照明光L1に含まれる不要なノイズ成分が、撮像素子22に入射するおそれがある。そこで、以下で説明する図6に示すように、照明部1の内部で、検出光に対するノイズ成分を低減させる構成にすることが望ましい。
(1.2.3 照明部内部で発生するノイズ成分の低減について)
 この投射型表示装置では、映像表示用のライトバルブ21と物体検出用の撮像素子22とを光学的に共役に配置することで投射レンズ24を共通化し、光学系全体を小型化している。そして、検出のための赤外光は、映像表示用の光源とは別の光学系から照射することで、画像処理の負荷を低減した精度のよい物体検出を実現している。ただし、映像表示用の光源側に検出精度を低下させるノイズ成分となる光が発生した場合に、そのノイズ成分が撮像素子22へと入射し、物体検出できない、もしくは検出精度が著しく低下するおそれがある。この場合、例えば撮像素子22と照明部1との光路中にノイズ成分となる光をカットするフィルタ等の専用部品を配置することが考えられるが、フィルタ等の専用部品を追加することは、部品点数の追加や光学系の大型化を招き、また照明部1内の特性の根本的な解決にはならない。
 このため、照明部1内の複数の照明用光学部材のうち少なくとも1つが、照明部1の内部で発生した、ノイズ成分を低減させる光学特性を有していることが好ましい。一例として、照明部1内において、赤色レーザ11Rが、例えば波長640nm程度の赤色光LRの他に、ノイズ成分として例えば波長800nm程度の微弱な赤外光LIRを発する場合を例に説明する。この場合、例えば第2のダイクロイックプリズム132の波長特性を、図7に示したように、青色(B)帯域、緑色(G)帯域、および赤外(IR)帯域の光を透過し、赤色(R)帯域の光を反射する特性とすればよい。なお、図7において横軸は波長、縦軸は反射率を示す。これにより、図6に示したように、第1のダイクロイックプリズム131より導かれた青色および緑色の光を透過し、第3のカップリングレンズ12Rより導かれた赤色光LRを反射する。かつ、第3のカップリングレンズ12Rより導かれた赤外光LIRを透過する。赤色レーザ11Rから発せられる赤色光LRは、第2のダイクロイックプリズム132を反射して、照明光L1としてライトバルブ21、投射レンズ24、および投影面30Aへと導かれ映像を形成するが、赤外光LIRは、第2のダイクロイックプリズム132を透過し、照明光L1の光路から外れた方向に導かれるため、撮像素子22へと導かれず、検出光L2に対するノイズ成分を低減することができる。
 ノイズ成分となる赤外光LIRを低減させなかった場合、例えば図8に示したように、撮像素子22には検出信号に対するノイズ成分が多く入射する。これに対して、第2のダイクロイックプリズム132によってノイズ成分を低減させた場合、例えば図9に示したように、検出信号に対するノイズ成分が小さくなり、赤外カットフィルタを照明光学系に入れたものと同等な特性が得られ、検出精度が向上する。なお、図8および図9において横軸は波長、縦軸は入射光量を示す。
 なお、図6に示したように、第2のダイクロイックプリズム132を透過した赤外光LIRの光路上に、赤外光LIRを吸収する吸収体200を備えていてもよい。また、照明部1を収容する筐体の内壁に赤外光LIRを吸収させる加工が施されていても良い。これにより、例えば赤外光LIRが筐体の内壁等で反射して照明光L1の光路上への戻り光となることを防止することができる。
[1.3 効果]
 以上のように、本実施の形態によれば、照明用光学部材の1つである第2のダイクロイックプリズム132に照明部1の内部で発生した、検出光に対するノイズ成分を低減させるようにしたので、物体検出の際に不要となるノイズ成分を低減し、物体検出の精度を向上させることができる。また、ノイズ成分を低減させる効果を照明部1の内部の光路合成と共通化することで、小型で安価な構成にすることができる。これらにより、小型・軽量の電子機器への搭載が可能な、小型かつ高精細かつインタラクティブなレーザプロジェクタの実現が可能となる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。以降の他の実施の形態および変形例についても同様である。
<2.変形例>
[2.1 第1の変形例]
 図1および図4には、偏光分離素子としてワイヤグリッド27を用いた構成例を示したが、図10に示した第1の変形例のようにワイヤグリッド27に代えて偏光ビームスプリッタ23を用いた構成であっても良い。また、この第1の変形例では、S偏光成分を除去する偏光子25Sに代えてP偏光成分を除去する偏光子25を備えている。
 偏光ビームスプリッタ23は、多層膜がコートされたプリズムを貼り合わせた構成であってもよいし、偏光特性を有する素子をサンドしたプリズムに類するビームスプリッタでもよい。
 図4の構成におけるワイヤグリッド27は、第1の偏光成分をP偏光成分、第2の偏光成分をS偏光成分とし、P偏光成分を反射し、S偏光成分を透過させるものとしたが、偏光ビームスプリッタ23はこれとは逆の特性を持っている。
 偏光ビームスプリッタ23は、4つの光学面を有している。ここでは、図10における水平方向に対向する2つの面を第1の光学面および第3の光学面とし、垂直方向に対向する2つの面を第2の光学面および第4の光学面として説明する。図10に示したように、偏光ビームスプリッタ23の第1の光学面には、第1の方向Z1から照明光L1が入射されるようになっている。偏光ビームスプリッタ23の第2の光学面に対して、第2の方向Z2にはライトバルブ21が配置されている。偏光ビームスプリッタ23の第3の光学面に対して、第3の方向Z3には偏光子25および撮像素子22が配置されている。偏光ビームスプリッタ23の第4の光学面に対して、第4の方向Z4には投射レンズ24が配置されている。
 偏光ビームスプリッタ23は、入射した光を第1の偏光成分(例えばS偏光成分)と第2の偏光成分(例えばP偏光成分)とに分離し、それぞれを互いに異なる方向に出射する偏光分離素子である。偏光ビームスプリッタ23は、特定の第1の偏光成分を選択的に反射させると共に、特定の第2の偏光成分を選択的に透過させるようになっている。偏光ビームスプリッタ23は例えば、図10に示したように、第1の方向Z1から入射した照明光L1に含まれるS偏光成分Ls1のほぼすべてを第2の方向Z2に出射(反射)すると共に、P偏光成分Lp1のほぼすべてを第3の方向Z3に出射(透過)するようになっている。偏光ビームスプリッタ23はまた、図10に示したように、第4の方向Z4とは逆方向から入射した検出光L2に含まれるS偏光成分Ls3のほぼすべてを第3の方向Z3に出射(反射)するようになっている。
 偏光ビームスプリッタ23は、第1の偏光成分をS偏光成分、第2の偏光成分をP偏光成分とすると、S偏光成分の多くを反射し、P偏光成分の多くを透過させるものとなっている。このため、例えば、照明光L1の99.5%をS偏光成分Ls1にして支配的とし、残りの0.5%をP偏光成分Lp1にすることができる。偏光ビームスプリッタ23は、図10に示したように、支配的なS偏光成分Ls1をほぼすべて反射してライトバルブ21へ出射する。ライトバルブ21に入射されたS偏光成分Ls1は、ライトバルブ21で変調(回転)されてP偏光成分Lp2の変調光となった後、偏光ビームスプリッタ23を介して投射レンズ24に入射される。変調光であるP偏光成分Lp2が、図5に示したように投射レンズ24を介してスクリーン30の投影面30A上に投影画像V2として投影される。
 一方、偏光ビームスプリッタ23に入射される検出光L2には偏光成分としてS偏光成分Ls3とP偏光成分Lp3とが含まれている。偏光ビームスプリッタ23は、S偏光成分Ls3のほぼすべてを第3の方向Z3に反射する。偏光子25を、P偏光成分を除去するものとすれば、S偏光成分Ls3のほぼすべてが撮像素子22に到達する。一方、偏光ビームスプリッタ23に入射される照明光L1のうち、P偏光成分Lp1が第3の方向Z3に出射される。このP偏光成分Lp1は、検出光L2に対してノイズ成分となり、撮像素子22に入射すると、検出の際のS/N比が小さくなり、検出精度を悪化させる。偏光子25を配置してP偏光成分Lp1を除去することで、S/N比を大きくして検出精度を上げることができる。
 このように、照明光L1のうちS偏光成分Ls1が偏光ビームスプリッタ23で撮像素子22とは異なる方向に反射され、P偏光成分Lp1は偏光子25によって除去されることで、理想的には撮像素子22には検出光L2のみを入射させることができるが、偏光ビームスプリッタ23への光の入射角や、偏光ビームスプリッタ23および偏光子25の光学性能によっては、照明光L1に含まれる不要なノイズ成分が、撮像素子22に入射するおそれがある。そこで、図6に示したように、照明部1の内部で、検出光に対するノイズ成分を低減させる構成にしておくことが望ましい。
[2.2 第2の変形例]
 図11は、第2の変形例に係る照明部1Aとして、ノイズ成分を低減する第2の例を示している。図11では、緑色レーザ11Gが例えば波長520nm程度の緑色光LGの他に、例えば波長800nm程度の微弱な赤外光LIRを発する場合を例にしている。この場合、図11に示したように、例えば第2のダイクロイックプリズム132を、青色光LBおよび緑色光LGを透過し、赤色光LRを反射し、赤外光LIRを反射する特性にする。これにより、赤外光LIRは、照明光L1の光路から外れた方向に導かれるため、撮像素子22へと導かれず、検出光L2に対するノイズ成分を低減することができる。
 なお、図11に示したように、照明光L1の光路から外れた方向に導かれた赤外光LIRの光路上に、赤外光LIRを吸収する吸収体200を備えていてもよい。また、照明部1Aを収容する筐体の内壁に赤外光LIRを吸収させる加工が施されていても良い。これにより、例えば赤外光LIRが筐体の内壁等で反射して照明光L1の光路上への戻り光となることを防止することができる。以降の変形例についても同様である。
[2.3 第3の変形例]
 図12は、第3の変形例に係る照明部1Bとして、ノイズ成分を低減する第3の例を示している。図12では、図11の例と同様に、緑色レーザ11Gが例えば波長520nm程度の緑色光LGの他に、例えば波長800nm程度の微弱な赤外光LIRを発する場合を例にしている。この場合、図12に示したように、例えば第1のダイクロイックプリズム131を、青色光LBを透過し、緑色光LGを反射し、赤外光LIRを透過する特性にしてもよい。これにより、赤外光LIRは、照明光L1の光路から外れた方向に導かれるため、撮像素子22へと導かれず、検出光L2に対するノイズ成分を低減することができる。
[2.4 第4の変形例]
 図13は、第4の変形例に係る照明部1Cとして、ノイズ成分を低減する第4の例を示している。図13では、青色レーザ11Bが例えば波長450nm程度の青色光LBの他に、例えば波長800nm程度の微弱な赤外光LIRを発する場合を例にしている。この場合、図13に示したように、例えば第1のダイクロイックプリズム131を、青色光LBを透過し、緑色光LGを反射し、赤外光LIRを反射する特性にしてもよい。これにより、赤外光LIRは、照明光L1の光路から外れた方向に導かれるため、撮像素子22へと導かれず、検出光L2に対するノイズ成分を低減することができる。
 その他、図示しないが、例えば第2のダイクロイックプリズム132を、青色光LBを透過し、緑色光LGを透過し、赤色光LRを反射し、赤外光LIRを反射する特性を有する構成にしても良い。
[2.5 第5の変形例]
 図14は、第5の変形例に係る照明部1Dとして、ノイズ成分を低減する第5の例を示している。図14に示したように、光路を折り曲げるミラー18が、青色光LB、緑色光LG、および赤色光LRを反射し、赤外光LIRを透過する特性を有する構成にしても良い。これにより、青色レーザ11B、緑色レーザ11G、および赤色レーザ11Rのうちいずれの光源が赤外光LIRを発する場合であっても、検出光L2に対するノイズ成分である赤外光LIRを低減することができる。
 ミラー18に赤外光LIRを低減させる特性を持たせることで、さらに、赤外光LIRを発するものが光源以外の光学部材である場合にも対応可能となる。例えば第2のダイクロイックプリズム132の多層膜が赤色光を励起することで赤外光LIRが発生する場合であっても、ミラー18によって赤外光LIRが照明光L1の光路から外れた方向に導かれるため、検出光L2に対するノイズ成分を低減することができる。
[2.6 第6の変形例]
 図15は、第6の変形例に係る照明部1Eの構成例を示している。図15に示したように、青色レーザ11B、緑色レーザ11Gおよび赤色レーザ11Rに代えて、単一の光源11とカップリングレンズ12とを備えた構成であっても良い。この場合、第1のダイクロイックプリズム131と第2のダイクロイックプリズム132は省略することができる。
 光源11は、例えば図16および図17に示したように、それぞれが異なる色光を発する複数のチップ211Aを有した構成であってもよい。例えば赤色光LR、緑色光LG、および青色光LBを発する3つのチップ211Aを有していてもよい。この場合、ミラー18が、図15に示したように、青色光LB、緑色光LG、および赤色光LRを反射し、赤外光LIRを透過する特性を有する構成にしても良い。これにより、光源11から微弱な赤外光LIRが発せられたとしても、検出光L2に対するノイズ成分である赤外光LIRを低減することができる。
 また、投射型表示装置が、例えばモノクロの映像表示を行うものであってもよい。この場合、例えば図18ないし図20に示したように、光源11が単一の色光を発する1つのチップ211Aを有した構成であってもよい。この場合にも、光源11から発せられた微弱な赤外光LIRを、図15に示したように、ミラー18によって照明光L1の光路から外れた方向に導けばよい。なお、図16および図17に示した構成において、複数のチップ211Aがすべて同一の色光を発する構成であっても良い。
 図16および図17、または図18ないし図20に示した構成例は、ステム213とキャップ214とによって囲まれた内部空間に、1または複数の端面発光型のチップ211Aからなる固体発光素子211が収容されたキャンタイプの形態となっている。なお、図17は、図16に示した光源11を光出射面側から見た構成を示している。図19は、図18に示した光源11を光出射面側から見た構成を示している。図20は、図18に示した光源11の他の構成例を示している。
 チップ211Aは、例えば発光ダイオード(LED)、有機EL発光素子(OLED)、またはレーザダイオード(LD)からなる。
 ステム213は、キャップ214とともに光源11のパッケージを構成するものであり、例えば、サブマウント215を支持する支持基板213Aと、支持基板213Aの裏面に配置された外枠基板213Bと、複数の接続端子213Cとを有している。
 サブマウント215は導電性および放熱性を有する材料からなる。支持基板213Aおよび外枠基板213Bは、それぞれ、導電性および放熱性を有する基材に、1または複数の絶縁性のスルーホールと、1または複数の導電性のスルーホールとが形成されたものである。支持基板213Aおよび外枠基板213Bは、例えば、円板形状となっており、双方の中心軸(図示せず)が互いに重なり合うように積層されている。外枠基板213Bの直径は、支持基板213Aの直径よりも大きくなっている。外枠基板213Bの外縁は、外枠基板213Bの中心軸を法線とする面内において外枠基板213Bの中心軸から放射方向に張り出した環状のフランジとなっている。フランジは、製造過程においてキャップ214を支持基板213Aに嵌合させるときの基準位置を規定する役割を有している。
 複数の接続端子213Cは、少なくとも支持基板213Aを貫通している。複数の接続端子213Cのうち少なくとも1つの端子を除いた端子(以下、便宜的に「端子α」とする。)は、個々のチップ211Aの電極(図示せず)に1つずつ電気的に接続されている。端子αは、例えば、外枠基板213B側に長く突出しており、かつ支持基板213A側に短く突出している。また、複数の接続端子213Cのうち上記の端子α以外の端子(以下、便宜的に「端子β」とする。)は、全てのチップ211Aの他の電極(図示せず)に電気的に接続されている。端子βは、例えば、外枠基板213B側に長く突出しており、端子βの支持基板213A側の端縁は、例えば、支持基板213A内に埋め込まれている。各接続端子213Cのうち外枠基板213B側に長く突出している部分が、例えば基板などに嵌め込まれる部分に相当する。一方、複数の接続端子213Cのうち支持基板213A側に短く突出している部分が、ワイヤ216を介して個々のチップ211Aと1つずつ電気的に接続される部分に相当する。複数の接続端子213Cのうち支持基板213A内に埋め込まれている部分が、例えば、支持基板213Aおよびサブマウント215を介して全てのチップ211Aと電気的に接続される部分に相当する。端子αは、支持基板213Aおよび外枠基板213Bに設けられた絶縁性のスルーホールによって支持されており、そのスルーホールによって支持基板213Aおよび外枠基板213Bから絶縁分離されている。さらに、個々の端子αは、上記の絶縁部材によって互いに絶縁分離されている。一方、端子βは、支持基板213Aおよび外枠基板213Bに設けられた導電性のスルーホールによって支持されており、そのスルーホールと電気的に接続されている。
 キャップ214は、固体発光素子211を封止するものである。キャップ214は、例えば、上端および下端に開口が設けられた筒部214Aを有している。筒部214Aの下端が、例えば、支持基板213Aの側面に接しており、筒部214Aの内部空間に、固体発光素子211が位置している。キャップ214は、筒部214Aの上端側の開口を塞ぐようにして配置された光透過窓214Bを有している。光透過窓214Bは、固体発光素子211の光射出面と対向する位置に配置されており、固体発光素子211から出力された光を透過する機能を有している。
 このように、チップ211Aが端面発光型の素子からなる場合において、固体発光素子211は、単一もしくは複数の点状、または単一もしくは複数の非点状の発光スポットからなる光射出領域から光を発するようになっている。固体発光素子211は、例えば、所定の波長帯の光を発する単一のチップ211Aからなっていてもよいし、同一の波長帯の光を発する複数のチップ211Aからなっていてもよいし、互いに異なる波長帯の光を発する複数のチップ211Aからなっていてもよい。固体発光素子211が複数のチップ211Aからなる場合には、それらのチップ211Aは、例えば、図16および図17に示したように、横方向に一列に配置されている。
 固体発光素子211が単一のチップ211Aからなる場合には、固体発光素子211としてのサイズ(WV×WH)は、例えば、図19に示したように、単一のチップ211Aのサイズ(WV1×WH1)に等しい。ただし、例えば図20に示したように、固体発光素子211がモノリシック構造である場合には次のようになる。すなわち、図20の例では、固体発光素子211としてのサイズ(WV×WH)は、WV1×2WH1以上である。一方、固体発光素子211が複数のチップ211Aからなる場合には、固体発光素子211としてのサイズは、例えば、図17に示したように、全てのチップ211Aをひとまとまりとしたときのサイズに等しい。複数のチップ211Aが横方向に一列に配置されている場合には、固体発光素子211としてのサイズ(WV×WH)は、図17の例では、WV1×3WH1以上である。
[2.7 第7の変形例]
 以上の説明では、照明用光学部材の光学特性として反射または透過によってノイズ成分である赤外光LIRを低減する例を述べたが、複数の照明用光学部材の1または2以上が、赤外光LIRを吸収する特性を有してもよい。例えば、各カップリングレンズ12B,12G,12R、各コンデンサレンズ161~164、各フライアイレンズ151,152、および駆動光学素子14のうち1または2以上が、青色光LB、緑色光LG、および赤色光LRを透過し、赤外光LIRを吸収する特性を有してもよい。また、ミラー18、第1のダイクロイックプリズム131、および第2のダイクロイックプリズム132のうち1または2以上が、赤外光LIRを吸収する特性を有してもよい。
 また、複数の照明用光学部材のすべてについて、反射、透過および吸収のいずれかによって赤外光LIRを低減する特性を有していてもよい。
 青色レーザ11B、緑色レーザ11G、および赤色レーザ11Rの各光路を合成する順番が変わったとしても、以上のような種々の態様によって赤外光LIRを低減することができる。
[2.8 その他の変形例]
 図1の構成における照明部1において、第1のフライアイレンズ151および第2のフライアイレンズ152は、どちらか一方であってもよい。第2のフライアイレンズ152のみにする場合、第1のコンデンサレンズ161および第2のコンデンサレンズ162は不要となる。第1のフライアイレンズ151のみにする場合、第3のコンデンサレンズ163および第4のコンデンサレンズ164は不要となる。
 また、十分に良好な偏光特性が得られる場合には、図1の構成における偏光子25Sを省略しても良い。
 また、本技術はデジタルミラーデバイス方式のプロジェクタとしても適用可能である。
 また、検出光L2およびそのノイズ成分として赤外帯域の光を例にしたが、紫外域の光が検出光L2およびそのノイズ成分であってもよい。
<3.その他の実施の形態>
 本開示による技術は、上記実施の形態および変形例の説明に限定されず種々の変形実施が可能である。
 例えば、本技術は以下のような構成を取ることができる。
(1)
 照明光を映像データに基づいて変調し、その変調光を出射するライトバルブと、
 光源と、前記光源からの光に基づいて前記照明光を生成し、前記照明光を前記ライトバルブへと導く複数の照明用光学部材とを有する照明部と、
 前記ライトバルブからの前記変調光を投影面上に投影すると共に、前記変調光の進行方向とは逆方向から検出光が入射される投射レンズと、
 前記ライトバルブと光学的に共役な位置に配置され、前記投射レンズを介して前記検出光が入射される撮像素子と
 を備え、
 前記複数の照明用光学部材のうち少なくとも1つが、前記照明部の内部で発生した、前記検出光に対するノイズ成分を低減させる光学特性を有する
 投射型表示装置。
(2)
 前記複数の照明用光学部材のうち少なくとも1つが、吸収、反射または透過により前記ノイズ成分を低減させる光学特性を有する
 上記(1)に記載の投射型表示装置。
(3)
 前記光源として、それぞれが異なる光路上に配置された複数の光源を備え、
 前記複数の照明用光学部材として、前記複数の光源のうちの2以上の光源の光路を合成する光路合成素子を有し、
 前記光路合成素子が、前記ノイズ成分を低減させる光学特性を有する
 上記(1)または(2)に記載の投射型表示装置。
(4)
 前記光路合成素子が、前記照明光の光路から外れた方向に前記ノイズ成分を反射または透過させる光学特性を有する
 上記(3)に記載の投射型表示装置。
(5)
 前記複数の照明用光学部材として、前記照明光の光路を折り曲げるミラーを有し、
 前記ミラーが、前記ノイズ成分を低減させる光学特性を有する
 上記(1)ないし(4)のいずれか1つに記載の投射型表示装置。
(6)
 前記ミラーが、前記照明光の光路から外れた方向に前記ノイズ成分を透過させる光学特性を有する
 上記(5)に記載の投射型表示装置。
(7)
 前記照明光の光路から外れた方向に配置され、前記ノイズ成分を吸収する吸収体をさらに備え、
 前記複数の照明用光学部材のうち少なくとも1つが、反射または透過により前記ノイズ成分を前記照明光の光路から外れた方向に導く光学特性を有する
 上記(1)ないし(6)のいずれか1つに記載の投射型表示装置。
(8)
 前記ノイズ成分は、非可視光帯域の光を含む
 上記(1)ないし(7)のいずれか1つに記載の投射型表示装置。
(9)
 前記ノイズ成分は、赤外帯域の光を含む
 上記(1)ないし(8)のいずれか1つに記載の投射型表示装置。
(10)
 前記ノイズ成分は、前記検出光と同じ波長帯域の光を含む
 上記(1)ないし(9)のいずれか1つに記載の投射型表示装置。
(11)
 前記ノイズ成分は、前記光源から発せられた光に含まれる成分である
 上記(1)ないし(10)のいずれか1つに記載の投射型表示装置。
(12)
 前記撮像素子による撮影結果に基づいて、前記投影面上もしくは前記投影面近傍における物体の特徴点の位置を、前記投影面上に投影された投影画像の座標に対応付けて検出する画像処理部をさらに備えた
 上記(1)ないし(11)のいずれか1つに記載の投射型表示装置。
(13)
 検出用の非可視光を前記投影面から所定の高さに出射する検出用光源部をさらに備え、
 前記撮像素子には、物体に当たって拡散された前記非可視光が前記検出光として前記投射レンズを介して入射される
 上記(1)ないし(12)のいずれか1つに記載の投射型表示装置。
(14)
 前記検出用光源部は前記検出用の非可視光として赤外光を出射する
 上記(13)に記載の投射型表示装置。
(15)
 少なくとも前記投射レンズによる前記投影面上の投影エリアが検出用の非可視光によって所定の高さから覆われるように、前記検出用の非可視光を出射する検出用光源部をさらに備え、
 前記撮像素子には、前記投影エリア近傍の物体に当たって拡散された前記非可視光が前記検出光として前記投射レンズを介して入射される
 上記(1)ないし(14)のいずれか1つに記載の投射型表示装置。
 本出願は、日本国特許庁において2014年7月29日に出願された日本特許出願番号第2014-153406号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (15)

  1.  照明光を映像データに基づいて変調し、その変調光を出射するライトバルブと、
     光源と、前記光源からの光に基づいて前記照明光を生成し、前記照明光を前記ライトバルブへと導く複数の照明用光学部材とを有する照明部と、
     前記ライトバルブからの前記変調光を投影面上に投影すると共に、前記変調光の進行方向とは逆方向から検出光が入射される投射レンズと、
     前記ライトバルブと光学的に共役な位置に配置され、前記投射レンズを介して前記検出光が入射される撮像素子と
     を備え、
     前記複数の照明用光学部材のうち少なくとも1つが、前記照明部の内部で発生した、前記検出光に対するノイズ成分を低減させる光学特性を有する
     投射型表示装置。
  2.  前記複数の照明用光学部材のうち少なくとも1つが、吸収、反射または透過により前記ノイズ成分を低減させる光学特性を有する
     請求項1に記載の投射型表示装置。
  3.  前記光源として、それぞれが異なる光路上に配置された複数の光源を備え、
     前記複数の照明用光学部材として、前記複数の光源のうちの2以上の光源の光路を合成する光路合成素子を有し、
     前記光路合成素子が、前記ノイズ成分を低減させる光学特性を有する
     請求項1に記載の投射型表示装置。
  4.  前記光路合成素子が、前記照明光の光路から外れた方向に前記ノイズ成分を反射または透過させる光学特性を有する
     請求項3に記載の投射型表示装置。
  5.  前記複数の照明用光学部材として、前記照明光の光路を折り曲げるミラーを有し、
     前記ミラーが、前記ノイズ成分を低減させる光学特性を有する
     請求項1に記載の投射型表示装置。
  6.  前記ミラーが、前記照明光の光路から外れた方向に前記ノイズ成分を透過させる光学特性を有する
     請求項5に記載の投射型表示装置。
  7.  前記照明光の光路から外れた方向に配置され、前記ノイズ成分を吸収する吸収体をさらに備え、
     前記複数の照明用光学部材のうち少なくとも1つが、反射または透過により前記ノイズ成分を前記照明光の光路から外れた方向に導く光学特性を有する
     請求項1に記載の投射型表示装置。
  8.  前記ノイズ成分は、非可視光帯域の光を含む
     請求項1に記載の投射型表示装置。
  9.  前記ノイズ成分は、赤外帯域の光を含む
     請求項1に記載の投射型表示装置。
  10.  前記ノイズ成分は、前記検出光と同じ波長帯域の光を含む
     請求項1に記載の投射型表示装置。
  11.  前記ノイズ成分は、前記光源から発せられた光に含まれる成分である
     請求項1に記載の投射型表示装置。
  12.  前記撮像素子による撮影結果に基づいて、前記投影面上もしくは前記投影面近傍における物体の特徴点の位置を、前記投影面上に投影された投影画像の座標に対応付けて検出する画像処理部をさらに備えた
     請求項1に記載の投射型表示装置。
  13.  検出用の非可視光を前記投影面から所定の高さに出射する検出用光源部をさらに備え、
     前記撮像素子には、物体に当たって拡散された前記非可視光が前記検出光として前記投射レンズを介して入射される
     請求項1に記載の投射型表示装置。
  14.  前記検出用光源部は前記検出用の非可視光として赤外光を出射する
     請求項13に記載の投射型表示装置。
  15.  少なくとも前記投射レンズによる前記投影面上の投影エリアが検出用の非可視光によって所定の高さから覆われるように、前記検出用の非可視光を出射する検出用光源部をさらに備え、
     前記撮像素子には、前記投影エリア近傍の物体に当たって拡散された前記非可視光が前記検出光として前記投射レンズを介して入射される
     請求項1に記載の投射型表示装置。
PCT/JP2015/067611 2014-07-29 2015-06-18 投射型表示装置 WO2016017315A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580038955.9A CN106537247B (zh) 2014-07-29 2015-06-18 投射式显示装置
US15/325,675 US10372269B2 (en) 2014-07-29 2015-06-18 Projection display apparatus
JP2016538216A JP6696425B2 (ja) 2014-07-29 2015-06-18 投射型表示装置
US16/449,613 US10691264B2 (en) 2014-07-29 2019-06-24 Projection display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014153406 2014-07-29
JP2014-153406 2014-07-29

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/325,675 A-371-Of-International US10372269B2 (en) 2014-07-29 2015-06-18 Projection display apparatus
US16/449,613 Continuation US10691264B2 (en) 2014-07-29 2019-06-24 Projection display apparatus

Publications (1)

Publication Number Publication Date
WO2016017315A1 true WO2016017315A1 (ja) 2016-02-04

Family

ID=55217220

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/067611 WO2016017315A1 (ja) 2014-07-29 2015-06-18 投射型表示装置

Country Status (4)

Country Link
US (2) US10372269B2 (ja)
JP (1) JP6696425B2 (ja)
CN (1) CN106537247B (ja)
WO (1) WO2016017315A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106537247B (zh) * 2014-07-29 2020-04-21 索尼公司 投射式显示装置
US11835696B2 (en) * 2018-04-09 2023-12-05 Sony Corporation Optical system and projector
JP2020016857A (ja) * 2018-07-27 2020-01-30 富士フイルム株式会社 投写型表示装置
US10897602B2 (en) * 2018-07-27 2021-01-19 Fujifilm Corporation Projection display device for performing projection and imaging comprising optical image emitting light valve and imaging optical system
CN208521126U (zh) * 2018-08-03 2019-02-19 中强光电股份有限公司 投影装置
JP2020101878A (ja) * 2018-12-20 2020-07-02 ソニー株式会社 画像処理装置、および検出機能付き表示装置
US11579520B2 (en) * 2020-05-05 2023-02-14 The University Of British Columbia Light field display
CN117389106B (zh) * 2023-12-08 2024-04-02 宜宾市极米光电有限公司 一种投影光源

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06236236A (ja) * 1992-11-19 1994-08-23 Sextant Avionique スクリーン表示、およびスクリーンに対する位置マーカの位置の検出を兼用している装置
JP2010230856A (ja) * 2009-03-26 2010-10-14 Fujifilm Corp 偏光変換素子及び偏光照明光学素子並びに液晶プロジェクタ
JP2011180477A (ja) * 2010-03-03 2011-09-15 Panasonic Corp 画像表示装置
JP2012068364A (ja) * 2010-09-22 2012-04-05 Konica Minolta Opto Inc 投影装置
JP2013003859A (ja) * 2011-06-16 2013-01-07 Sony Corp 投影装置、投影方法、及びプログラム
JP2013122501A (ja) * 2011-12-09 2013-06-20 Sanyo Electric Co Ltd 投写型映像表示装置、投写型映像表示システムおよび電子機器

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001343703A (ja) * 2000-05-30 2001-12-14 Sony Corp 反射型液晶プロジェクタ装置
JP2002006397A (ja) 2000-06-22 2002-01-09 Sony Corp 画像表示装置
TW496532U (en) * 2000-10-09 2002-07-21 Prokia Technology Co Ltd Tri-lens projection display device with equal optical path
JP4454288B2 (ja) * 2003-11-13 2010-04-21 Necディスプレイソリューションズ株式会社 プロジェクタ
JP2005333460A (ja) * 2004-05-20 2005-12-02 Olympus Corp 画像投影表示装置
US7525538B2 (en) * 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
TW200819899A (en) * 2006-07-31 2008-05-01 3M Innovative Properties Co Combination camera/projector system
US8094129B2 (en) * 2006-11-27 2012-01-10 Microsoft Corporation Touch sensing using shadow and reflective modes
EP2179593A1 (en) * 2007-07-17 2010-04-28 Explay Ltd. Optical projection method and system
JP5277703B2 (ja) * 2008-04-21 2013-08-28 株式会社リコー 電子機器
CN101943843B (zh) * 2009-05-22 2012-03-07 上海丽恒光微电子科技有限公司 集成微型显示投影及成像系统
JP5767775B2 (ja) * 2009-07-06 2015-08-19 富士フイルム株式会社 内視鏡装置
CN101776836B (zh) * 2009-12-28 2013-08-07 武汉全真光电科技有限公司 投影显示系统及桌面计算机
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
JP2012208926A (ja) * 2011-03-15 2012-10-25 Nikon Corp 検出装置、入力装置、プロジェクタ、及び電子機器
US8482549B2 (en) * 2011-04-08 2013-07-09 Hong Kong Applied Science and Technology Research Institute Company Limited Mutiple image projection apparatus
JP2012256000A (ja) * 2011-06-10 2012-12-27 Sanyo Electric Co Ltd 投写型映像表示装置
GB201110156D0 (en) * 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch-sensitive display devices
JP5935679B2 (ja) * 2012-04-02 2016-06-15 ソニー株式会社 照明装置および表示装置
JP6102330B2 (ja) * 2013-02-22 2017-03-29 船井電機株式会社 プロジェクタ
US9778546B2 (en) * 2013-08-15 2017-10-03 Mep Tech, Inc. Projector for projecting visible and non-visible images
CN106537247B (zh) * 2014-07-29 2020-04-21 索尼公司 投射式显示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06236236A (ja) * 1992-11-19 1994-08-23 Sextant Avionique スクリーン表示、およびスクリーンに対する位置マーカの位置の検出を兼用している装置
JP2010230856A (ja) * 2009-03-26 2010-10-14 Fujifilm Corp 偏光変換素子及び偏光照明光学素子並びに液晶プロジェクタ
JP2011180477A (ja) * 2010-03-03 2011-09-15 Panasonic Corp 画像表示装置
JP2012068364A (ja) * 2010-09-22 2012-04-05 Konica Minolta Opto Inc 投影装置
JP2013003859A (ja) * 2011-06-16 2013-01-07 Sony Corp 投影装置、投影方法、及びプログラム
JP2013122501A (ja) * 2011-12-09 2013-06-20 Sanyo Electric Co Ltd 投写型映像表示装置、投写型映像表示システムおよび電子機器

Also Published As

Publication number Publication date
US10691264B2 (en) 2020-06-23
JP6696425B2 (ja) 2020-05-20
JPWO2016017315A1 (ja) 2017-06-01
CN106537247B (zh) 2020-04-21
US20170153769A1 (en) 2017-06-01
US20190310740A1 (en) 2019-10-10
US10372269B2 (en) 2019-08-06
CN106537247A (zh) 2017-03-22

Similar Documents

Publication Publication Date Title
WO2016017315A1 (ja) 投射型表示装置
JP6128008B2 (ja) 投射型表示装置
JP6586956B2 (ja) 検出機能付き投射型表示装置
KR20170039130A (ko) 투사형 표시 장치
JP6669068B2 (ja) 投射型表示装置
US9632400B2 (en) Projector having an exterior enclosure and a receiver disposed in a swelling portion of the exterior enclosure
WO2018051886A1 (ja) 検出機能付き表示装置
JP6690551B2 (ja) 投射型表示装置
JP2019023692A (ja) プロジェクター
JP6332678B2 (ja) 光源装置及び投影装置
JP2010032932A (ja) プロジェクタ
JP4835160B2 (ja) プロジェクタ
JP2018128695A (ja) 光源装置及び投影装置
JP2011192513A (ja) 光源装置、及びプロジェクター
JP2010122696A (ja) 投写型映像表示装置
JP4617858B2 (ja) プロジェクタ
JP2011158611A (ja) プロジェクタ
JP2015155956A (ja) プロジェクター

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15826796

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016538216

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15325675

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15826796

Country of ref document: EP

Kind code of ref document: A1