WO2021002048A1 - 投射型映像表示装置および障害物検出方法 - Google Patents

投射型映像表示装置および障害物検出方法 Download PDF

Info

Publication number
WO2021002048A1
WO2021002048A1 PCT/JP2020/007157 JP2020007157W WO2021002048A1 WO 2021002048 A1 WO2021002048 A1 WO 2021002048A1 JP 2020007157 W JP2020007157 W JP 2020007157W WO 2021002048 A1 WO2021002048 A1 WO 2021002048A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
display device
infrared sensor
projection type
detection
Prior art date
Application number
PCT/JP2020/007157
Other languages
English (en)
French (fr)
Inventor
日国 金
浩敏 毛見
直幸 鈴木
咲衣子 杉本
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Publication of WO2021002048A1 publication Critical patent/WO2021002048A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/16Cooling; Preventing overheating
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention relates to a technique such as a projection type image display device (projector), and relates to a technique such as obstacle detection in a projector.
  • a technique such as a projection type image display device (projector)
  • a technique such as obstacle detection in a projector.
  • Patent Document 1 describes that a projector includes a detection unit that detects an obstacle that blocks image light.
  • an obstacle between the exit part (for example, the lens) of the projection optical system in the projector and the area of the screen.
  • an obstacle such as paper may be placed near the exit portion. In that case, the image light from the emitting portion is blocked by an obstacle, and the image light is reflected or absorbed, which may cause an undesired problem such as an increase in the temperature around the projection optical system. If the user does not notice the obstacle or does not take measures such as removing the obstacle, such a problem is left unattended.
  • an obstacle detection method of the prior art example there is a method of detecting an obstacle by using a sensor such as an infrared sensor.
  • An object of the present invention is to provide a technique for a projection type image display device or the like, which can more preferably detect an obstacle and deal with a problem, and can improve the usability of the device by a user. ..
  • the projection type image display device of one embodiment includes a light source, a display element that transmits or reflects light from the light source, and a projection optical system that projects light from the display element onto a display surface to display an image.
  • the obstacle sensor includes an obstacle sensor that detects an obstacle near the light source of the projection optical system and a control unit that controls the display of the image, and the obstacle sensor includes an infrared sensor and a far infrared sensor.
  • the control unit makes a determination of detecting an obstacle based on the detection result of the infrared sensor and the detection result of the far infrared sensor.
  • obstacles can be detected more preferably and a problem can be dealt with, and the usability of the device by the user is improved. it can.
  • FIG. 5 is a diagram showing a configuration example of an obstacle sensor and a control unit in the first embodiment. It is a figure which shows the characteristic of the infrared sensor in Embodiment 1.
  • FIG. It is a figure which shows the characteristic of the far-infrared sensor in Embodiment 1.
  • FIG. It is a figure which shows the characteristic of infrared rays in Embodiment 1.
  • FIG. It is a figure which shows the processing flow about the obstacle detection function in Embodiment 1.
  • FIG. It is a figure which shows the obstacle detection determination in Embodiment 1.
  • FIG. 1 is a view seen from the front of the screen regarding the arrangement example 1 in the first embodiment.
  • FIG. 2 is a perspective view which shows the arrangement example 2 of the obstacle sensor in Embodiment 1.
  • FIG. 5 is a view seen from the front of the screen regarding the arrangement example 2 in the first embodiment. It is a figure which shows the example of the exhaust in Embodiment 1.
  • FIG. 1 It is a figure which shows the exhaust direction in Embodiment 1.
  • FIG. 2 It is a figure which shows the display example 2 of the message in Embodiment 1.
  • FIG. 3 shows the display example 3 of a message in Embodiment 1.
  • FIG. 4 shows the display example 4 of a message in Embodiment 1.
  • FIG. 1 shows a functional block configuration as a configuration example of the projection type video display device of the first embodiment.
  • the projector 1 which is the projection type image display device of the first embodiment, includes a projection optical system 101, a display element 102, a display element drive unit 103, an illumination optical system 104, a light source 105, a power supply 106, an operation input unit 107, and a non-volatile memory. It includes 108, a memory 109, a control unit 110, and an obstacle sensor 120.
  • the projector 1 includes a cooling unit 115, a display 130, a speaker 131, an image adjustment unit 132, a storage unit 133, a communication unit 134, an attitude sensor 135, a camera 136, a video signal input unit 141, an audio signal input unit 142, and a video. It includes a signal output unit 143, an audio signal output unit 144, and the like. These components are connected to each other via a bus or the like.
  • the light source 105 generates light for image projection, and is configured by using a high-pressure mercury lamp, a xenon lamp, an LED light source, a laser light source, or a combination thereof.
  • the power supply 106 is connected to an external power source, converts an AC current input from the external power source into a DC current, and supplies necessary power to various parts such as the light source 105.
  • the illumination optical system 104 collects the light from the light source 105, makes it more uniform, and irradiates the display element 102.
  • the display element drive unit 103 sends a drive signal generated according to the reference video signal to the display element 102.
  • the video signal referred to by the display element driving unit 103 may be a video signal generated by the control unit 110 or an input video signal input from the outside via the video signal input unit 141. Further, the video signal may be a video signal after image adjustment is performed by the image adjusting unit 132 with respect to the input video signal. Further, a signal obtained by superimposing an OSD (on-screen display) image signal on those video signals may be used as a reference video signal.
  • the OSD image signal is generated by the control unit 110 using data such as an image stored in the non-volatile memory 108 and the storage unit 133.
  • the display element 102 is an element that transmits or reflects light from the illumination optical system 104 and modulates the light at that time to generate an image.
  • a transmissive liquid crystal panel For example, a transmissive liquid crystal panel, a reflective liquid crystal panel, or a DMD (Digital). Micromirror Device: Registered trademark) Consists of panels and the like.
  • the display element 102 modulates the light according to the drive signal from the display element drive unit 103 to generate an image.
  • the projection optical system 101 is a magnifying projection optical system that magnifies and projects an image generated by the display element 102 onto the display surface 200, and includes at least one of a lens and a mirror.
  • the display surface 200 is a screen, an image projection surface, or the like.
  • the image light from the projection optical system 101 is projected onto a part of the area 201 of the display surface 200 to become a display image.
  • the cooling unit 115 is a portion that cools each part of the light source 105, the power supply 106, the display element 102, etc., which can be in a high temperature state, as needed by an air cooling method or a liquid cooling method, and includes, for example, an exhaust fan. ..
  • the control unit 110 corresponds to a processor or controller that controls the entire projector 1 and each unit.
  • the control unit 110 includes, for example, a CPU and the like, and realizes a function by software program processing.
  • the memory 109 stores various data and information handled by the control unit 110, such as video data and control information.
  • the non-volatile memory 108 holds various data and information used in the projector function for a long period of time.
  • Image data for generation such as a graphical user interface (GUI) may be stored in the memory 109 or the like.
  • GUI graphical user interface
  • the operation input unit 107 includes an operation button or an operation panel and a remote control light receiving unit, and is a part for inputting a user's operation.
  • the remote control light receiving unit inputs a signal from the remote control, which is an attached device.
  • the signal from the remote controller to the remote controller light receiving unit is transmitted by, for example, infrared rays.
  • the display 130 is a part that displays information as an interface to the user, and includes, for example, a sub monitor and an LED indicator.
  • the sub monitor is composed of a liquid crystal display or the like and displays information such as characters.
  • the LED indicator includes a plurality of LEDs, and a state (for example, power on / off) is associated with each LED, and the state is expressed by lighting, turning off, blinking, or the like. In addition, some LEDs of the LED indicator may be defined as LEDs indicating an obstacle detection state.
  • the speaker 131 is an audio output device, and can output, for example, a built-in operation sound or warning sound, and can output audio based on the audio data input to the audio signal input unit 142.
  • the image adjustment unit 132 is a unit that performs image processing on video data input through, for example, the video signal input unit 141. Examples of this image processing include scaling processing, bright adjustment processing, contrast adjustment processing, gamma adjustment processing, and Retinex processing.
  • the scaling process is a process of enlarging, reducing, transforming, or the like of an image.
  • the brightness adjustment process is a process of changing the brightness.
  • the contrast adjustment process is a process of changing the contrast curve of an image.
  • the gamma adjustment process is a process of changing the gamma curve indicating the gradation characteristic of an image.
  • the Retinex process is a process of decomposing an image into light components and changing the weighting for each component.
  • the storage unit 133 records various data such as video, image, and audio.
  • the storage unit 133 may record such various data in advance at the time of product shipment. Further, the storage unit 133 may record various types of data acquired from the outside via the communication unit 134.
  • Various data recorded in the storage unit 170 can be output as a projected image through the display element 102, the projection optical system 101, and the like.
  • the audio data can be output from the speaker 131.
  • the communication unit 134 is a part that communicates with an external device, a network, a server, or the like via a wired or wireless communication interface, and exchanges various data such as control information and contents.
  • the posture sensor 135 is a sensor that detects the posture state when the projector 1 is installed, and is composed of a gravity sensor, a gyro sensor, or the like.
  • the control unit 110 may perform control using the information regarding the posture state detected by the posture sensor 135. For example, the control unit 110 may rotate the direction of the image displayed on the display element 102 according to the posture state so that the displayed image is in a direction that does not give a sense of discomfort according to the posture state. Further, the control unit 110 may control the local intensity of cooling by the cooling unit 115, the change of the threshold value for detecting a cooling error, and the like so as to be suitable for the posture state. Further, the control unit 110 may perform control related to the obstacle detection function, for example, on / off switching control of the function, according to the posture state.
  • the camera 136 may be composed of a visible light camera.
  • the visible light camera is used to capture and record or output an image around the projector 1 or the display surface 200 to the outside.
  • the control unit 110 may perform control using the image of the camera 136.
  • the camera 136 may be composed of an infrared camera.
  • the infrared camera may detect the pointing position on the display surface 200 indicated by using a pointer device that emits or reflects infrared rays. It is also possible to use the camera 136 to detect a person standing in front of the display surface 200 and use it for antiglare control such as reducing the light output of the projected image.
  • the video signal input unit 141 inputs a video signal from the outside via a wired or wireless interface.
  • the audio signal input unit 142 inputs an audio signal from the outside via a wired or wireless interface.
  • the video signal output unit 143 outputs a video signal to the outside via a wired or wireless interface.
  • the video signal output unit 143 may have a function of outputting the video signal input from the first external device as it is to the second external device via the video signal input unit 141.
  • the video signal output unit 143 may have a function of outputting a video signal based on the video data recorded in the storage unit 133 or a video signal based on the video captured by the camera 136 to the outside.
  • the audio signal output unit 144 outputs an audio signal to the outside via a wired or wireless interface.
  • the audio signal output unit 144 may have a function of outputting the audio signal input from the first external device as it is to the second external device via the audio signal input unit 142.
  • the audio signal output unit 144 may have a function of outputting an audio signal or the like based on the audio data recorded in the storage unit 133 to the outside.
  • the video signal input unit 141 and the audio signal input unit 142 may be configured as an integrated signal input interface.
  • the video signal output unit 143 and the audio signal output unit 144 may be configured as an integrated signal output interface.
  • the video signal input unit 141, the audio signal input unit 142, the video signal output unit 143, and the audio signal output unit 144 may be configured as an integrated signal input / output interface. These integrated interfaces may have a communication function for bidirectionally communicating control signals. This communication function may be provided separately from the communication unit 134. As illustrated above, the projector 1 can be equipped with various functions.
  • the obstacle sensor 120 is arranged near the projection optical system 101.
  • the obstacle sensor 120 is a sensor that detects an obstacle in a region including a region through which image light passes in the vicinity of the projection optical system 101.
  • the obstacle sensor 120 includes both an infrared sensor and a far infrared sensor.
  • the control unit 110 of the projector 1 combines the detection result of the infrared sensor and the detection result of the far-infrared sensor to determine the detection of an obstacle.
  • the obstacle sensor 120 may be configured as an obstacle sensor in which an infrared sensor and a far infrared sensor are integrated.
  • the obstacle sensor 120 may be configured as a plurality of obstacle sensors in which the infrared sensor and the far infrared sensor are separated. Details of the obstacle sensor 120 will be described later.
  • FIG. 2 shows a configuration example of the obstacle sensor 120 and the control unit 110.
  • the obstacle sensor 120 includes an infrared sensor 10 and a far infrared sensor 20.
  • the obstacle sensor 120 may also include a circuit for driving the sensor, a circuit for processing the sensor signal, and the like.
  • the infrared sensor 10 is a sensor whose main detection wavelength range is near infrared rays.
  • the far-infrared sensor 20 is a sensor whose main detection wavelength range is far-infrared.
  • the infrared sensor 10 is an active type sensor including an infrared light emitting unit and an infrared detecting unit.
  • the far infrared sensor 20 is a passive type sensor including an infrared detection unit.
  • the infrared sensor 10 outputs the infrared sensor signal A1 as the first signal.
  • the infrared sensor signal A1 is, for example, a signal representing a voltage corresponding to the amount of detected infrared rays.
  • the far-infrared sensor 20 outputs the far-infrared sensor signal A2 as the second signal.
  • the far-infrared sensor signal A2 is, for example, a signal representing the detected temperature.
  • the control unit 110 also performs processing related to the obstacle detection function in addition to the processing for controlling each unit described above.
  • a control unit that performs processing related to the obstacle detection function may be provided.
  • the control unit 110 inputs the infrared sensor signal A1 from the infrared sensor 10 to perform detection processing, and obtains the processed signal.
  • This detection process is, for example, a process of determining the presence or absence of an obstacle based on the voltage of the infrared sensor signal A1.
  • the control unit 110 inputs the far-infrared sensor signal A2 from the far-infrared sensor 20 to perform detection processing, and obtains the processed signal.
  • This detection process is, for example, a process of determining the presence or absence of an obstacle based on the temperature of the far-infrared sensor signal A2.
  • a processing unit that performs such detection processing may be mounted in the obstacle sensor 120.
  • the control unit 110 comprehensively makes an obstacle detection determination in consideration of both of the signals after the detection process, and obtains a signal of the detection determination result.
  • This signal is a signal indicating the presence / absence of detection of an obstacle, and is a signal indicating a state in which an obstacle is detected or a state in which an obstacle is not detected.
  • the control unit 110 performs the first response process according to the result of the obstacle detection determination, that is, the content of the above signal.
  • the response process is a process related to a response related to an obstacle, such as warning the user of the existence of the obstacle and urging the user to take a response such as removing the obstacle.
  • the correspondence process includes two stages of correspondence processing, that is, the first correspondence processing and the second correspondence processing.
  • the control unit 110 controls operations such as audio output from each unit of FIG. 1, for example, the speaker 131, according to the content of the first correspondence process.
  • control unit 110 determines whether or not the state in which the obstacle is detected continues.
  • the control unit 110 obtains a signal of the detection continuation determination result.
  • the control unit 110 performs the second response process according to the content of the signal of the obstacle detection continuation determination result.
  • the second correspondence process is a second correspondence processing for the first first correspondence processing, or a correspondence processing of a different type from the first correspondence processing.
  • the infrared sensor detects an object based on the reflected light of infrared rays.
  • infrared sensors There are two types of infrared sensors: an active type that emits infrared rays by itself and detects reflected light, and a passive type that detects reflected light of infrared rays emitted from other devices or other infrared emitting units.
  • the infrared sensor 10 uses an active type unless otherwise specified
  • the far infrared sensor 20 uses a passive type unless otherwise specified.
  • the infrared sensor 10 is an active type sensor having an infrared light emitting unit and an infrared light receiving unit.
  • the far-infrared sensor 20 is a passive type sensor having an infrared light-receiving part that receives infrared rays in the far-infrared region, which is a wavelength range longer than the wavelength supported by the infrared light-receiving part of the infrared sensor 10.
  • FIG. 3 shows an example of the object detection range by the infrared sensor as a characteristic related to the infrared sensor.
  • the graph (A) is for explaining, in particular, the difference in the detection characteristics of white / black obstacles by the infrared sensor 10.
  • the horizontal axis shows the horizontal relative detection distance and the vertical axis shows the vertical relative detection distance.
  • the white circles indicate the detection range when the obstacle is a white object as shown in (B).
  • the black circles indicate the detection range when the obstacle is a black object as shown in (C).
  • the distance on the vertical axis and the distance on the horizontal axis are normalized with the farthest distance in the detection range of the white object as 1.
  • “horizontal and vertical” means that the direction from the projection optical system 101 of the projector 1 to the display surface 200 is vertical, and the left and right directions of the main body of the projector 1 are horizontal with respect to the display surface 200.
  • the detectable distance is different between the white object such as (B) and the black object such as (C). This is because the light reflectance and the absorption rate are different between the white object and the black object.
  • the example of (B) shows that when the total amount of infrared rays irradiated to a white object is 100, the absorption is 10 and the reflection is 90.
  • the example of (C) shows that, when the total amount of infrared rays irradiated to a black object is 100, the absorption is 90 and the reflection is 10.
  • the infrared sensor is less likely to reflect infrared rays in the case of a black object such as (C), and the detection range is narrower than the detection range in the case of a white object such as (B). It ends up. Therefore, as an example of the prior art, in the case of a configuration in which an obstacle is detected using only an infrared sensor, the detection accuracy of a black object is lower than that of a white object depending on the position of the obstacle.
  • the infrared sensor is suitable for detecting a white object as an obstacle based on the detection characteristics.
  • the infrared sensor is difficult to detect black objects with lower brightness. Therefore, in the first embodiment, the far-infrared sensor 20 is used in combination with the infrared sensor 10 as the obstacle sensor 120.
  • the far-infrared sensor is easier to detect a black-and-white object than a white object based on the detection characteristics.
  • FIG. 4 shows the characteristics of the far infrared sensor.
  • the graph of (A) shows an example of the object detection range by the far infrared sensor. This graph is for explaining the difference in characteristics between the detection range of a white object and the detection range of a black object of a far-infrared sensor, and is normalized as in FIG.
  • the detectable distance of the black object such as (C) is larger than that of the white object such as (B). This is because the emissivity and absorption rate of light are different between a white object and a black object.
  • the example of (B) shows that when the total amount is 100, the radiation for far infrared rays emitted from the white object is 10.
  • the example of (C) shows that the radiation for far infrared rays emitted from a black object is 90.
  • the radiation of far infrared rays is large, and the detection range is wider than that in the case of a white object such as (B).
  • the detection range of obstacles can be comprehensively widened, and the detection accuracy of black objects can be improved.
  • FIG. 5 shows an explanatory diagram of characteristics relating to infrared rays.
  • FIG. 5 schematically shows the wavelength ranges of ultraviolet rays, visible rays, near infrared rays, mid infrared rays, and far infrared rays.
  • Near infrared rays have a wavelength range of about 0.78 ⁇ m to 2.5 ⁇ m.
  • Far infrared rays have a wavelength range of about 4.0 ⁇ m to 1 mm.
  • the infrared sensor is a sensor that can mainly detect the wavelength range of near infrared rays.
  • the far-infrared sensor is a sensor that can mainly detect the wavelength range of far-infrared rays.
  • the infrared sensor 10 and the far infrared sensor 20 in the first embodiment apply such a sensor.
  • an object absorbs light to raise its temperature and emit infrared rays.
  • the radiated wavelength shifts to a longer wavelength as the temperature decreases.
  • the amount of infrared rays emitted is proportional to the amount of absorption.
  • the far-infrared sensor can detect infrared rays in the far-infrared region emitted from an object and measure the surface temperature of the object. The presence or absence of an object can also be detected based on the detection result of the object surface temperature. That is, the far-infrared sensor has both a temperature measurement function and an object detection function because of its characteristic of being able to detect far-infrared rays.
  • the infrared sensor 10 sets the infrared output wavelength of the infrared emitting unit and the detection wavelength of the infrared receiving unit to a near infrared wavelength region of around 940 nm.
  • the infrared emitting unit is composed of, for example, a pulse-driven IR-LED.
  • the infrared light receiving unit detects the reflected light from an obstacle with a light receiving element.
  • the infrared sensor 10 synchronizes the light emitting pulse of the infrared emitting unit with the light receiving element of the infrared receiving unit, and does not detect asynchronous infrared rays.
  • the infrared sensor 10 is configured by using a filter that cuts visible light, and transmits only infrared light.
  • the far-infrared sensor 20 has a detection wavelength region of 8 ⁇ m to 14 ⁇ m.
  • the infrared light receiving unit in the far infrared sensor 20 is configured by using a bandpass filter that allows far infrared rays to pass through.
  • the light source 106 emits light in the visible light region of RGB, and has a wavelength region of 400 nm to 780 nm.
  • FIG. 6 shows a processing flow related to processing including obstacle detection corresponding processing as the main processing of the obstacle detection function of the projector 1.
  • FIG. 6 has steps S1 to S7, which will be described below in the order of steps.
  • the control unit 110 (FIG. 2) of the projector 1 combines the signal of the obstacle detection processing result of the infrared sensor 10 and the signal of the obstacle detection processing result of the far infrared sensor 20 to perform the obstacle detection processing. Do. Details of the obstacle detection process will be described later (FIG. 7).
  • the first response process is performed in step S2.
  • the details of the first correspondence process will be described later (FIG. 8).
  • the projector 1 does not detect an obstacle based on the signal as a result of the obstacle detection process (S1-NO)
  • the projector 1 returns to the beginning of the flow.
  • step S3 the control unit 110 of the projector 1 performs the first detection continuation determination process, which is a process of determining whether or not the state in which the obstacle is detected continues, after the first response process.
  • the details of the first detection continuation determination process will be described later (FIG. 9).
  • the projector 1 determines that the obstacle detection is continuing based on the signal of the result of the first detection continuation determination process (S3-YES)
  • the projector 1 performs the second response process in step S4.
  • the details of the second correspondence process will be described later (FIG. 8).
  • the projector 1 determines that the obstacle detection is not continuing based on the signal as a result of the first detection continuation determination process (S3-NO)
  • the projector 1 returns to the beginning of the flow via step S7.
  • the control unit 110 of the projector 1 performs a second detection continuation determination process, which is a process of determining whether or not the state in which the obstacle is detected continues, in step S5.
  • a second detection continuation determination process which is a process of determining whether or not the state in which the obstacle is detected continues.
  • the details of the second detection continuation determination process will be described later (FIG. 9).
  • the projector 1 determines that the obstacle detection is continuing based on the signal as a result of the second detection continuation determination process (S5-YES)
  • the projector 1 proceeds to step S6.
  • the projector 1 determines that the obstacle detection is not continuing based on the signal as a result of the second detection continuation determination process (S5-NO)
  • the projector 1 returns to the beginning of the flow via step S7.
  • step S6 the projector 1 turns off the light source 105, shifts to the standby mode, and ends the flow.
  • step S7 the projector 1 returns the brightness of the light source 105 to normal when the light source brightness reduction process is performed in the first correspondence process or the second correspondence process. Further, the projector 1 cancels the error notification when the error notification is performed in the first corresponding processing or the second corresponding processing. Further, the projector 1 erases the message display when the message is displayed in the first correspondence process or the second correspondence processing. Further, when the projector 1 outputs a warning sound in the first corresponding processing or the second corresponding processing, the projector 1 cancels the warning sound output.
  • FIG. 7 shows the details of the obstacle detection determination by the control unit 110 in step S1.
  • the control unit 110 makes a comprehensive obstacle detection determination for the entire system by combining the detection result of the infrared sensor 10 and the detection result of the far infrared sensor 20.
  • the two values of the detection result of the infrared sensor 10 are shown in the second column
  • the two values of the detection result of the far infrared sensor 20 are shown in the second row
  • the combination of these values is shown in the intersecting items of the matrix.
  • the value of the comprehensive obstacle detection judgment result according to is shown.
  • FIG. 8 shows a specific example of the first correspondence process in step S2 and the second correspondence process in step S4.
  • Various processes can be considered as the contents of the first corresponding process 1 and the second corresponding process, but in the first embodiment, a specific example as shown in FIG. 8 is applied.
  • the table of FIG. 8 shows Examples 1 to 5 as specific examples of the combination of the first correspondence processing and the second correspondence processing.
  • the first corresponding process is the light source brightness reduction process
  • the second corresponding process is the warning process.
  • the light source brightness reduction process is a process for reducing the brightness of the light source 105 in FIG. 1, for example, by reducing the output of a light source 105 such as a laser light source or an LED light source, the amount of light output from the projection optical system 101 is reduced. This is a process to reduce. If the amount of light output from the projection optical system 101 is reduced, the temperature around the projection optical system 101 rises due to light reflection or light absorption by the obstacle, even if there is no action such as removing an obstacle by the user. May solve the problem.
  • the warning process is a process of superimposing a message such as a warning or a guide on the projected image, a process of displaying a message on the sub monitor of the display 130, a process of outputting a warning sound from the speaker 131, and other errors. Notification processing, etc.
  • the other error notification process may be a process of notifying an error on a sub monitor or an LED indicator of the display 130, or a process of transmitting an error notification to a remote controller or a user's wireless terminal device.
  • the wireless terminal device may be a device such as a user's smartphone that communicates with the projector 1.
  • the error notification may be a change in the emission color of the LED indicator or an emission control of a specific LED.
  • the projector 1 performs at least one of those warning processes.
  • the projector 1 may perform two or more warning processes in combination, or may perform each warning process in sequence.
  • a specific example of the message displayed in the warning process may be a message stating that "an obstacle has been detected near the exit portion of the projection optical system 101" or "an obstacle is present near the exit portion of the projection optical system 101".
  • the message “Prompts the user to remove the obstacle because it has been detected” may be used.
  • the message "If the obstacle detection state continues, the light source is automatically turned off after that” may be used.
  • the projector 1 may control the light source 105 to be automatically turned off when the obstacle detection state continues for a certain period of time or more after the warning process is performed. These indications may be combined.
  • a mark or the like may be displayed instead of the message. Displaying a message or mark makes it easier for the user to recognize the situation and respond to it.
  • warning sound output in the warning processing may be a simple beep sound or a message voice in a language.
  • message voice the content of the above message may be output by voice.
  • message voice messages in a plurality of languages may be stored in the storage device of the projector 1, an appropriate language may be selected according to the language setting of the menu display, and the message voice may be output.
  • the output of the warning sound is suitable because the warning can be transmitted to the user. Therefore, it is more preferable to display a message on the projected image and output a warning sound.
  • Example 1 only the light source brightness reduction processing is performed in the first corresponding processing, and the warning processing is not performed. This has the advantage that the problem may be solved without the user having to deal with it, and the probability of bothering the user is lower.
  • the first response process is the first warning process
  • the second response process is the second warning process.
  • specific examples of the warning process of Example 1 may be used alone or in combination.
  • the first warning process and the second warning process may be the same.
  • the scale of the second warning process may be larger than the scale of the first warning process.
  • the display size of the message of the second warning processing may be larger than the display size of the message of the first warning processing. You may increase the number of messages displayed for the second warning process.
  • the volume of the warning sound of the second warning process may be louder than the volume of the warning sound of the first warning process.
  • the content of the message of the second warning processing may be changed to the content of prompting the user to respond more strongly than the content of the message of the first warning processing.
  • the warning sound of the first warning processing is a non-verbal sound such as a beep sound
  • the warning sound of the second warning processing is the voice of a language message
  • the warning sound of the second warning processing is the first warning processing. It may be changed so that the warning content is transmitted to the user stronger than the warning sound of.
  • the types of warning processing may be increased in order to encourage the user to respond more strongly to the second warning processing than to the first warning processing.
  • a message may be displayed without outputting a warning sound
  • a warning sound may be output together with the message display.
  • Example 2 the user is warned twice before the light source is turned off. This has the advantage that the user's response increases the probability that the problem will be resolved before the light source is turned off.
  • the warning process is performed twice, but the present invention is not limited to this, and similarly, a form in which a plurality of stepwise response processes are performed is possible.
  • Example 3 is based on the process of Example 2 and performs the light source brightness reduction process at the same time as performing the first warning process. Thereby, Example 3 realizes both the advantages of Example 1 and the advantages of Example 2.
  • the advantage of Example 1 is that if the amount of light output from the projection optical system 101 is reduced, problems such as a temperature rise around the projection optical system 101 due to obstacles may be solved without any action by the user. Including advantages.
  • the advantage of Example 2 includes the advantage that the problem is more likely to be solved before the light source is turned off by performing the warning processing a plurality of times for the user. The details of each process are the same as in Example 1 and Example 2.
  • Example 4 based on the process of Example 2, when the second warning process is performed, a process of switching the projected image from the image displayed as desired by the user to the black screen display image is added. It is a thing.
  • the black screen display image is an image in which all pixels of the projected image are black. When displaying a warning message, the message may be superimposed and displayed on the black screen display image.
  • the image is not limited to the black screen display image, and may be an image whose brightness is reduced as a whole from the image of the original user.
  • Switching the projected image from the user's image to the black screen display image has the following advantages (1) and (2).
  • the same processing as in Example 2 is performed except that the projected image is switched to the black screen display image.
  • Example 5 is based on the process of Example 4, and when the first warning process is performed, the light source brightness reduction process is also performed. Thereby, both the advantages of Example 1 and the advantages of Example 4 can be realized. The details of each process are the same as in Example 1 and Example 4.
  • a countdown timer display may be performed on the projected image or the sub monitor of the display 130 to display the remaining time until the light source is turned off during the second corresponding processing. As a result, it is possible to urge the user to respond more strongly.
  • a warning sound including a message explaining the remaining time until the light source is turned off may be output.
  • the first correspondence process and the second correspondence process described above it is possible to more preferably increase the probability that the problem such as the temperature rise around the projection optical system 101 due to the obstacle is solved before the light source is turned off.
  • FIG. 9 shows a specific example of the obstacle detection continuation determination process by the control unit 110 in steps S3 and S5. Various processes can be considered for the first detection continuation determination and the second detection continuation determination, and some specific examples in the first embodiment are shown.
  • the table of FIG. 9 shows two examples (referred to as determination example 1 and determination example 2) relating to the first detection continuation determination and the second detection continuation determination.
  • Judgment example 1 is as follows. In the first detection continuation determination in step S3, the projector 1 determines that the "obstacle detected" state as a result of the obstacle detection determination process in step S1 continues for a predetermined period T1 after step S1. As a comprehensive judgment, it is judged that the "obstacle detected” state continues. In FIG. 9, this state is described as a detection continuation state.
  • the projector 1 changes to the "obstacle not detected” state within the predetermined period T1, for example, when the detection result at the time after the period T1 is the "obstacle not detected” state.
  • the state has changed to the state where "obstacles are not detected", in other words, the state where obstacle detection is not continued.
  • this state is described as a detection discontinuity state.
  • the projector 1 continues the "obstacle detected” state as a result of the obstacle detection determination process for a predetermined period T2 after step S3 of the first detection continuation determination. If so, as a comprehensive judgment of the system, it is determined that the "obstacle detected" state continues, that is, the detection continuation state.
  • the system comprehensively judges that the projector 1 has changed to the "obstacle not detected” state, that is, the detection discontinued state. Judge.
  • the length of the period T1 and the length of the period T2 may be longer or shorter, or may be the same period. However, if the length of the period T1 between the first correspondence process and the second correspondence processing is made longer than the period T2, the second correspondence processing is a stronger warning process than the first correspondence processing. It is preferable because it has the advantage of increasing the probability that the problem will be resolved before proceeding.
  • the following judgment processing is added to the judgment processing of the judgment example 1 in the first detection continuation judgment.
  • the additional judgment process when the temperature detected by the far-infrared sensor 20 in the period T1 exceeds the first threshold value, the state of "obstacle detected" continues without waiting for the elapse of the period T1. This is a process for determining that the detection is in a continuous state. As described above, the far-infrared sensor 20 can detect the temperature, and can consider not only the determination by the period but also the temperature rise. Therefore, by adding such a determination process, it can be determined that the second response process should proceed more quickly.
  • the second detection continuation judgment the following judgment processing is added to the judgment processing of the judgment example 1.
  • the additional judgment process when the temperature detected by the far-infrared sensor 20 in the period T2 exceeds the second threshold value, the state of "obstacle detected" continues without waiting for the elapse of the period T2. This is a process for determining that the detection is in a continuous state. By adding this determination process, it can be determined that the light source extinguishing process (step S6) should proceed more quickly.
  • the first threshold value and the second threshold value related to the above temperature may be larger or the same.
  • the second detection continuation judgment is the final judgment when proceeding to the light source extinguishing process, it is preferable to proceed more carefully. Therefore, it is desirable to set the second threshold value higher than the first threshold value.
  • a processing example is shown at the bottom of the table in FIG. On the time axis, it has a period T1 from time point t1 to time point t2 and a period T2 from time point t2 to time point t3.
  • the time point t2 is the second detection time point corresponding to step S3, and is the time point when the period T1 elapses from the time point t1.
  • the detection determination is not performed between the time point t1 and the time point t2.
  • the period T1 further has a plurality of unit times.
  • FIG. 10 shows a perspective view of an example of the appearance configuration of the device in the projector 1 of the first embodiment, and an example of a specific arrangement of the obstacle sensor 120 in the main body 50 of the projector 1 (referred to as an arrangement example 1).
  • X, Y, and Z are shown as explanatory directions.
  • the X direction and the Y direction are two orthogonal directions forming a horizontal plane, the X direction corresponds to the lateral and horizontal directions in the main body 50, and the Y direction corresponds to the front-back direction in the main body 50.
  • the Z direction is the vertical direction and corresponds to the height direction of the main body 50.
  • the direction of projection from the projection lens 3 which is the exit portion of the projection optical system 101 to the screen (display surface 200) is substantially the Y direction and is obliquely upward.
  • the projector 1 in FIG. 10 is a case of an ultra-short projection type projection type image display device.
  • FIG. 10 is a perspective view of the upper surface F1 of the main body 50 mainly viewed from diagonally above on the display surface 200 side, which is a screen, and the front surface F2 side.
  • the front surface F2 is a vertical surface on the side facing the display surface 200 in the Y direction.
  • the infrared sensor 10 and the far infrared sensor 20 constituting the obstacle sensor 120 are arranged in front of the emission surface 3a of the projection lens 3.
  • the main body 50 generally has a rectangular parallelepiped shape.
  • a display 130 is provided in a region of a part of the top surface F1 near the front surface F2, and the LED indicator 130A is provided as a part of the display 130.
  • a speaker 131 is provided in a part of the upper surface F1, a region near the back surface F3 and the side surface F5.
  • the upper surface F1 has a concave portion 51 and a convex portion 52 in a part of a region closer to the back surface F3 based on a horizontal plane.
  • the back surface F3 is a vertical surface on the side far from the display surface 200.
  • the recess 51 is a portion that becomes a recess on the lower side with respect to the horizontal plane of the upper surface F1, and has a slope in this example. This slope is a slope that descends toward the projection lens 3 and the convex portion 52. Further, a part of the slope of the recess 51 in front of the projection lens 3 is a recess 51b for arranging the obstacle sensor 120.
  • the convex portion 52 is a portion adjacent to the concave portion 51 and bulges upward, and a part of the projection lens 3 is housed in the convex portion 52.
  • the projection lens 3 constituting the exit portion of the projection optical system 101 is arranged at a central position in the X direction, which is a part of the convex portion 52 in the region on the side close to the back surface F3 of the main body 50.
  • the exit surface 3a, which is a part of the projection lens 3, is a curved surface, and protrudes forward from a part of the convex portion 52 near the slope of the concave portion 51.
  • the projection lens 3 is configured by using a glass lens, a plastic lens, or the like.
  • a glass lens a plastic lens
  • the infrared sensor 10 and the far infrared sensor 20 constituting the obstacle sensor 120 are arranged in the recess 51b on the front side of the projection lens 3. As a result, the obstacle sensor 120 does not block the image light from the exit surface 3a.
  • one infrared sensor 10 and one far infrared sensor 20 are arranged side by side at a position near the center in the X direction.
  • FIG. 11 shows a configuration diagram of the configuration of the projector 1 of FIG. 10 on the YY side as viewed from the side surface side of the screen and the side surface F4 side of the main body 50.
  • the side surface F4 is a vertical surface on the right side of the display surface 200 which is a screen.
  • the infrared sensor 10 and the far infrared sensor 20 are arranged near the projection lens 3 and on the image projection direction side.
  • the lower surface F0 of the main body 50 of the projector 1 is installed on a horizontal installation surface FA such as a table. Since it is an ultra-short projection type, the front surface F2 of the main body 50 has a small distance from the display surface 200.
  • the projection optical system 101 is composed of an optical lens 4A, an optical lens 4B, a projection lens 3, and the like.
  • the light from the display element 102 is projected via the optical lens 4A, the optical lens 4B, and the projection lens 3 in this order.
  • FIG. 11 also shows the optical axis L1 of the image light emitted from the projection lens 3 and the ends L2 and L3 of the range, which are obliquely upward as shown in the drawing.
  • an example of the detection range of the obstacle sensor 120 that is, the detection range of the infrared sensor 10 and the detection range of the far infrared sensor 20 is shown as an image of a cone.
  • the direction of the detection axis which is the central axis of the cone in each of the detection ranges of the infrared sensor 10 and the far infrared sensor 20, is a substantially vertical direction as shown by an arrow.
  • the substantially vertical direction is the vertical direction when the projector 1 is used stationary, and is the vertical Z direction in the example of FIG.
  • this detection axis is perpendicular to the installation surface FA of the projector 1.
  • this detection axis is parallel to the display surface 200.
  • the direction of the detection axis is perpendicular to the plane of the recess 51b of the upper surface F1.
  • the obstacle sensor 120 can suitably detect an obstacle on the front surface side of the projection lens 3.
  • the position of the infrared sensor 10 and the position of the far-infrared sensor 20 are not limited to the example of FIG. 11, and can be various, and may be in the vicinity of the emission surface 3a of the projection lens 3.
  • the infrared sensor 10 or the far-infrared sensor 20 may be arranged at positions on the left and right in the X direction with respect to the emission surface 3a, for example, a part of the convex portion 52 in FIG.
  • the detection axes of the infrared sensor 10 and the far infrared sensor 20 are not limited to the vertical direction, and may be a direction slightly inclined from the vertical direction.
  • the direction of inclination of the detection axis may be a direction of inclination toward the projection lens 3, a direction of inclination toward the screen side, or a direction of inclination to the left or right in the X direction.
  • the infrared sensor 10 and the far infrared sensor 20 may be arranged on the slope of the recess 51, in which case the detection axes of the infrared sensor 10 and the far infrared sensor 20 are substantially perpendicular to the slope. May be good.
  • FIG. 12 shows a schematic configuration of the projector 1 of FIGS. 10 and 11 in the direction of looking at the front of the display surface 200 from the user's viewpoint on the back F3 side.
  • FIG. 12 and FIG. 10 the detailed shape and the like on the back surface F3 side of FIG. 11 are shown in a simplified manner.
  • FIG. 13 shows an arrangement example 2 of the obstacle sensor 120.
  • the arrangement example 2 is different from the arrangement example 1, and the obstacle sensor 120 has a total of four infrared sensors 10 and one far infrared sensor 20.
  • the number of infrared sensors 10 is increased as compared with the arrangement example 1, and the infrared sensors 10 are arranged at different positions from the arrangement example 1.
  • one infrared sensor 10 and one far infrared sensor 20 are arranged at a position near the center in the X direction in front of the emission surface 3a of the projection lens 3 as in the arrangement example 1. ..
  • two infrared sensors 10 are arranged at different positions on the left and right in the X direction with respect to the position. As a result, the detection by the infrared sensor 10 can be covered as a wider range in the X direction on the front surface of the projection lens 3.
  • one infrared sensor 10 is arranged at a position above the emission surface 3a of the projection lens 3 in the convex portion 52. As a result, the detection by the infrared sensor 10 can be covered as a wider range in the Z direction on the front surface of the projection lens 3.
  • one far-infrared sensor 20 is arranged near the central infrared sensor 10 in front of the projection lens 3, as in Arrangement Example 1, but the present invention is not limited to this, and the far-infrared sensor 20 is located near the emission surface 3a. Any position may be used, and a plurality of positions may be arranged. For example, a total of a plurality of far-infrared sensors 20 may be provided in front of or above the projection lens 3.
  • the control unit 110 of the projector 1 makes a detection determination in step S1 as follows.
  • FIG. 14 is a configuration diagram of the side surface F4 of the arrangement example 2 of FIG.
  • the direction of the detection axis of the detection range indicated by the cone is the Y direction, which is substantially forward toward the screen.
  • the detection axis of the upper infrared sensor 10 is oriented diagonally downward from the horizontal as shown in the figure.
  • the optical axis L1 of the projected image from the projection lens 3 is obliquely upward.
  • the direction in the Z direction in the direction of the detection axis of the upper infrared sensor 10 is set to be downward from the horizontal.
  • the direction of the detection axis of the infrared sensor 10 does not intersect with the area 201 of the display surface 200, and is less likely to be affected by the projected image on the screen during detection. Therefore, in this configuration, it is possible to avoid erroneous detection by the infrared sensor 10 based on the projected image on the screen.
  • the direction of the detection axis of the upper infrared sensor 10 is not limited to this, and may be substantially horizontal, in other words, substantially perpendicular to the vertical surface of the convex portion 52.
  • FIG. 15 is a schematic configuration diagram in the direction of viewing the screen, corresponding to the arrangement example 2 of FIGS. 13 and 14. As shown, a wide detection range is configured by an obstacle sensor 120 including a plurality of infrared sensors 10 in the X direction.
  • FIG. 16 shows an explanatory diagram of a predetermined exhaust direction of the projector 1x and its influence.
  • FIG. 16 shows, in particular, a case where the exhaust by the cooling unit 115 of the projector is the exhaust in the Y direction from the front surface F2 toward the screen side as the exhaust direction.
  • a projector is generally provided with an air cooling system for cooling a light source, a power supply circuit, an optical component, and the like, and exhausts air for heat dissipation.
  • the projector 1 of the first embodiment and the projector 1x of the comparative example also include the above-mentioned cooling unit 115, and the cooling unit 115 includes an exhaust fan for air cooling and the like.
  • the wall on which the screen is installed is installed. Due to the influence of 202 and the like, it is possible that the exhaust gas from the front surface F2 hits the wall 202, changes its direction, and passes above the upper surface F1 of the projector 1x.
  • the obstacle sensor 120x including the far-infrared sensor is arranged on the upper surface F1 as in the arrangement example 1. With respect to the exhaust flow as shown in FIG.
  • the exhaust passes in front of the cone in the detection range of the obstacle sensor 120x, in this example, above.
  • the exhaust gas of the projector 1x is hot, such a situation may cause an erroneous detection of the obstacle sensor 120x, in other words, a decrease in accuracy.
  • FIG. 17 is an explanatory diagram of a more suitable exhaust direction as a suitable configuration example in consideration of the influence of exhaust in the projector 1 of the first embodiment.
  • the exhaust means for example, the exhaust after cooling the light source 105 by the cooling unit 115, the exhaust after cooling various circuits such as the power supply circuit, the exhaust after cooling the display element 102, and the exhaust after cooling the optical components. Exhaust including at least one such as exhaust.
  • the obstacle sensor 120 is simplified and shown as one sensor, particularly the far infrared sensor 20.
  • the illustration of the exhaust port on each surface of the main body 50 is omitted. When the exhaust function is mounted by the cooling unit 115, an exhaust port may be provided as appropriate.
  • FIG. 17 first describes each exhaust direction.
  • the exhaust directions d1, d2, d3, d4, and d5 are shown as candidates for the exhaust direction from each surface and each position of the main body 50.
  • the exhaust direction d1 is exhaust from the upper surface F1 where the obstacle sensor 120 of the main body 50 is installed upward in the Z direction.
  • the exhaust direction d2 is exhaust from the front surface F2, which is the side surface of the main body 50 toward the screen, to the front toward the screen in the Y direction.
  • the exhaust direction d3 is exhaust to the side opposite to the exhaust direction d2, and is exhaust from the back F3 on the side opposite to the front F2 of the main body 50 to the rear toward the opposite side to the screen in the Y direction.
  • the exhaust direction d4 is one-way exhaust from the right side surface F4 of the main body 50 in the direction to the right of the screen in the X direction.
  • the exhaust direction d5 is exhaust in the direction opposite to the exhaust direction d4, and is one-way exhaust in the X direction from the left side surface F5 of the main body 50 in the direction to the left of the screen.
  • the front surface F2 and the back surface F3 are front and rear side surfaces in the Y direction
  • the side surface F4 and the side surface F5 are left and right side surfaces in the X direction.
  • the projector 1 of the arrangement example 1 in which the far-infrared sensor 20 is provided on the upper surface F1 adopts an exhaust direction other than the exhaust direction d2 and the exhaust direction d1.
  • the projector 1 of the first embodiment adopts any one of the exhaust direction d3, the exhaust direction d4, or the exhaust direction d5, or a combination thereof, with respect to the mounting in the exhaust direction by the cooling unit 115.
  • the hottest exhaust from a projector is the exhaust after cooling the light source. Therefore, in particular, it is desirable to adopt the above exhaust direction as the exhaust direction of the exhaust after cooling the light source 105.
  • FIG. 18 shows an example of message display (referred to as display example 1) in the projector 1 of the first embodiment.
  • FIG. 18 shows a schematic configuration diagram when the area 201 on which the image is projected from the display surface 200, which is a screen, is viewed from the front from the projection lens 3.
  • a plurality of infrared sensors 10 and one far-infrared line sensor 20 are provided as the obstacle sensor 120.
  • the portion on the front side of the projection lens 3 is shown as an obstacle sensor 120a and an infrared sensor 10a, and the portion on the upper side of the projection lens 3 is shown as an obstacle sensor 120b and an infrared sensor 10b.
  • the projector 1 detects the obstacle OB1 based on the detection results of these a plurality of sensors by, for example, the above-mentioned method.
  • the obstacle OB1 is on the front right side with respect to the position of the projection lens 3.
  • the projector 1 removes the obstacle OB1 from the user, such as "Please remove the obstacle near the projection lens" in the projection image area 201 as shown in FIG.
  • Message 180 is displayed.
  • Message 180 is a static message image.
  • the message 180 is displayed at one location (area AR2b) in the center of the area 201.
  • the display position of the message 180 may basically be any position in the projected image area 201.
  • the message 180 when the message 180 is displayed at one place in the area 201, it is better to display the message 180 at the center position as shown in the figure than at the edge of the area 201, so that the display of the message 180 itself is blocked by the obstacle OB1. It is more preferable because it is less likely to be affected and more likely to be visible to the user.
  • FIG. 19 similarly shows display example 2 of the message display.
  • a message 180 such as "Please remove an obstacle near the projection lens" is displayed at a plurality of locations simultaneously in the projected image area 201. ..
  • the X direction there are three areas, areas AR1, AR2, and AR3, corresponding to the three infrared sensors 10.
  • the example of FIG. 19 shows the case where there is an obstacle OB2 in front of the projection lens 3 over the center and the right side. Due to the effect of the image light being blocked by the obstacle OB2, it becomes difficult to see the projected image in the central area AR2 and the right area AR3 in the area 201.
  • the message 180 is also displayed in the light-shielded portion (areas AR2 and AR3) blocked by the obstacle OB2, but in this portion, the light from the projection lens 3 is the obstacle OB2. It is not actually reflected because it is blocked by. However, in the image on the display element 102, a plurality of messages 180 are displayed as shown in FIG. With this configuration, even if a part of the video portion for warning processing is shielded by the obstacle OB2, the possibility that the user can visually recognize the message 180 is increased only in the portion that is not shaded, which is preferable.
  • the infrared sensor 10 is arranged at three places on the front side of the projection lens 3 and one place on the upper side of the projection lens 3.
  • the message 180 is displayed at a plurality of locations in the projected image area 201 at the same time as in the example of FIG. 19, the user may be able to visually recognize the message 180 even if the center of the area 201 (for example, the area AR2b) is shielded from light. Increase. Therefore, even in the case of a simple configuration in which one infrared sensor 10 and one far infrared sensor 20 are arranged only at one central location on the front side of the projection lens 3 as in the arrangement example 1, there is a possibility that the user can visually recognize the infrared sensor 10. High message display can be realized.
  • FIG. 20 shows a display example 3 of the message display.
  • the projector 1 displays a message 180 such as "Please remove an obstacle near the projection lens" so as to move in the area 201 of the projected image.
  • This message 180 is a moving message image.
  • the message 180 moves in a zigzag manner as shown by an arrow from the upper left end of the area 201, in other words, in a locus like a raster scan.
  • the movement of the message 180 reaches the lower right end of the area 201, it returns to the first upper left end, and the zigzag movement is repeated in the same manner.
  • FIG. 21 shows a display example 4 of the message display.
  • the projector 1 detects, for example, the obstacle OB1 in a configuration in which the infrared sensors 10 in the obstacle sensor 120 are arranged at a plurality of places as in the arrangement example 2. Then, the projector 1 estimates the portion where the projected image is shaded by the obstacle OB1, and displays the message 180 in the range of the area 201 excluding the estimated shaded portion. For example, the detection result of the infrared sensor 10 on the right side in front of the projection lens 3 is in the "obstacle detected" state, and the detection result of the other infrared sensor 10 is in the "obstacle not detected” state. Suppose there is.
  • the projector 1 comprehensively determines that the obstacle OB1 has been detected. At the same time, the projector 1 estimates that the position of the obstacle OB1 is within the area connecting the projection lens 3 and the area AR3, and the area AR3 on the roughly right side of the area 201 is determined by the obstacle OB1. It is highly probable that it is shielded from light. Therefore, the projector 1 displays the message 180 in the range of the areas AR1 and AR2 excluding the area AR3 in the area 201, for example, in the same manner as in the display example 3. With this configuration, even if a part of the projected image is shielded by the obstacle OB1, the message 180 is displayed in the portion that is not shaded, and the possibility that the user can visually recognize the message 180 is increased, which is preferable.
  • the message 180 when displaying the message 180 within the range of the areas AR1 and AR2 which are non-light-shielding areas, another method may be applied instead of the moving method.
  • the message 180 may be statically displayed at one place in the estimated non-light-shielding area, or the message 180 may be displayed at a plurality of places in the estimated non-light-shielding area according to the display example 2. May be displayed at the same time. Further, the message 180 may be enlarged and displayed in the entire estimated non-light-shielding region. In these cases, the control is simpler and the configuration is simplified.
  • step S2 when the message is displayed in the first correspondence process (step S2) and the message is displayed in the second correspondence process (step S4), among the above display examples 1 to 4,
  • the same display example may be used, or different display examples may be used in combination.
  • Specific examples in which a combination of display examples different between the message display in the first correspondence process and the message display in the second correspondence process are used are as follows.
  • display example 1 may be applied in the first correspondence process
  • display example 2 may be applied in the second correspondence process. Since the second correspondence process is a state immediately before the light source 105 is turned off, the number of messages 180 displayed in the area 201 is increased as compared with the message display in the first correspondence process.
  • the second response process can strongly urge the user to respond to obstacles, which is more preferable.
  • display example 1 or display example 2 may be applied in the first correspondence process
  • display example 3 or display example 4 may be applied in the second correspondence processing. Since the second correspondence process is a state immediately before the light source 105 is turned off, the message display in which the display position moves is used instead of the message display in which the position is fixed in the first correspondence process. As a result, the user can be more strongly encouraged to deal with obstacles, which is more preferable.
  • the example of the display target object in the warning processing of the corresponding processing is a message, in other words, a character image, but the obstacle is removed from the user in place of the message or in addition to the message. It may be a mark to urge, an animation or a moving image to explain the fact. Of course, a specific audio output may be used in combination with the above display.
  • the projector 1 of the first embodiment has an obstacle detection function capable of detecting an obstacle by using the obstacle sensor 120.
  • the projector 1 has a mode in which the obstacle detection function is enabled and a mode in which the obstacle detection function is disabled, and these modes can be set and switched. In the basic setting, this obstacle detection function is always enabled, but it is also possible to set it to disabled mode by user setting.
  • the emission portion of the projection optical system 101 is a portion where image light is emitted from the main body 50 to the outside, and in the first embodiment, the emission surface 3a of the projection lens 3 is used as shown in FIG. Not limited to this, in other embodiments, the emitting portion of the projection optical system 101 may be a mirror, a cover glass of the mirror, or the like.
  • the projector 1 of the first embodiment is of the ultra-short projection type, but the present invention is not limited to this, and the obstacle detection method according to the present invention can be similarly applied to other types of projectors.
  • the present invention has been specifically described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist.
  • the present invention is not limited to the configuration such as the number, shape, and dimensions of the above-mentioned elements. In the present invention, it is possible to add other components to the above-mentioned components, delete some components, and the like.

Abstract

投射型映像表示装置(プロジェクタ)に関して、障害物をより好適に検出して問題への対応を行うことができ、ユーザによる装置の使い勝手を向上できる技術を提供する。プロジェクタ(1)は、光源と、光源からの光を透過または反射する表示素子と、表示素子からの光を表示面に対し投射して映像を表示する投射光学系と、投射光学系の出射部(投射レンズ(3))の付近の障害物を検出する障害物センサ(120)と、映像の表示を制御する制御部とを備える。障害物センサ(120)は、赤外線センサ(10)と遠赤外線センサ(20)とを含む。制御部は、赤外線センサ(10)の検出結果と、遠赤外線センサ(20)の検出結果とに基づいて、障害物の検出判断を行う。

Description

投射型映像表示装置および障害物検出方法
 本発明は、投射型映像表示装置(プロジェクタ)等の技術に関し、プロジェクタにおける障害物検出等の技術に関する。
 先行技術例として、特許第6070871号公報(特許文献1)が挙げられる。特許文献1には、プロジェクターにおいて、画像光を遮る障害物を検出する検出部を備える旨が記載されている。
特許第6070871号公報
 プロジェクタにおける投射光学系の出射部(例えばレンズ)からスクリーンの領域までの間に障害物がある場合が生じ得る。例えば、出射部の付近に用紙等の障害物が置かれている場合があり得る。その場合、出射部からの映像光が障害物によって遮られて、映像光が反射または吸収等されることで、投射光学系の周辺の温度が上昇してしまう等の望ましくない問題が生じ得る。ユーザが障害物に気が付かない場合や、障害物を取り除く等の対応を行わない場合、このような問題が放置されてしまう。
 従来技術例の障害物検出方式としては、赤外線センサ等のセンサを用いて、障害物を検出する方式がある。
 本発明の目的は、投射型映像表示装置等の技術に関して、障害物をより好適に検出して問題への対応を行うことができ、ユーザによる装置の使い勝手を向上できる技術を提供することである。
 本発明のうち代表的な実施の形態は、以下に示す構成を有する。一実施の形態の投射型映像表示装置は、光源と、前記光源からの光を透過または反射する表示素子と、前記表示素子からの光を表示面に対し投射して映像を表示する投射光学系と、前記投射光学系の出射部の付近の障害物を検出する障害物センサと、前記映像の表示を制御する制御部と、を備え、前記障害物センサは、赤外線センサと遠赤外線センサとを含み、前記制御部は、前記赤外線センサの検出結果と、前記遠赤外線センサの検出結果とに基づいて、前記障害物の検出判断を行う。
 本発明のうち代表的な実施の形態によれば、投射型映像表示装置等の技術に関して、障害物をより好適に検出して問題への対応を行うことができ、ユーザによる装置の使い勝手を向上できる。
本発明の実施の形態1の投射型映像表示装置の構成例を示す図である。 実施の形態1で、障害物センサおよび制御部の構成例を示す図である。 実施の形態1で、赤外線センサの特性を示す図である。 実施の形態1で、遠赤外線センサの特性を示す図である。 実施の形態1で、赤外線の特性を示す図である。 実施の形態1で、障害物検出機能に関する処理フローを示す図である。 実施の形態1で、障害物検出判断を示す図である。 実施の形態1で、対応処理の組み合わせ例を示す図である。 実施の形態1で、検出継続判断の例を示す図である。 実施の形態1で、障害物センサの配置例1を示す斜視図である。 実施の形態1で、配置例1に関する側面から見た構成図である。 実施の形態1で、配置例1に関するスクリーン正面から見た図である。 実施の形態1で、障害物センサの配置例2を示す斜視図である。 実施の形態1で、配置例2に関する側面から見た構成図である。 実施の形態1で、配置例2に関するスクリーン正面から見た図である。 実施の形態1で、排気の例を示す図である。 実施の形態1で、排気方向について示す図である。 実施の形態1で、メッセージの表示例1を示す図である。 実施の形態1で、メッセージの表示例2を示す図である。 実施の形態1で、メッセージの表示例3を示す図である。 実施の形態1で、メッセージの表示例4を示す図である。
 以下、本発明の実施の形態を図面に基づいて詳細に説明する。全図面において同一部には原則として同一符号を付し、繰り返しの説明は省略する。
 (実施の形態1)
 図1~図21を用いて、本発明の実施の形態1の投射型映像表示装置について説明する。
 [投射型映像表示装置(プロジェクタ)]
 図1は、実施の形態1の投射型映像表示装置の構成例として機能ブロック構成を示す。実施の形態1の投射型映像表示装置であるプロジェクタ1は、投射光学系101、表示素子102、表示素子駆動部103、照明光学系104、光源105、電源106、操作入力部107、不揮発性メモリ108、メモリ109、制御部110、および障害物センサ120を備える。さらに、プロジェクタ1は、冷却部115、表示器130、スピーカ131、画像調整部132、ストレージ部133、通信部134、姿勢センサ135、カメラ136、映像信号入力部141、音声信号入力部142、映像信号出力部143、音声信号出力部144等を備える。これらの構成要素は、バス等を通じて相互に接続されている。
 光源105は、映像投射用の光を発生し、高圧水銀ランプ、キセノンランプ、LED光源、レーザー光源またはこれらの組み合わせ等を用いて構成される。電源106は、外部電源に接続され、外部電源から入力されるAC電流をDC電流に変換し、光源105等の各部に必要な電力を供給する。照明光学系104は、光源105からの光を集光し、より均一化して、表示素子102に照射する。
 表示素子駆動部103は、参照する映像信号に応じて生成した駆動信号を表示素子102に送る。表示素子駆動部103が参照する映像信号は、制御部110が生成した映像信号でもよいし、映像信号入力部141を介して外部から入力される入力映像信号でもよい。また、この映像信号は、入力映像信号に対し画像調整部132によって画像調整を行った後の映像信号でもよい。また、それらの映像信号に対し、OSD(オン・スクリーン・ディスプレイ)画像信号を重畳した信号を、参照する映像信号としてもよい。OSD画像信号は、不揮発性メモリ108やストレージ部133に格納されている画像等のデータを用いて、制御部110が生成する。
 表示素子102は、照明光学系104からの光を透過または反射し、その際に光を変調して映像を生成する素子であり、例えば、透過型液晶パネル、反射型液晶パネル、またはDMD(Digital Micromirror Device:登録商標)パネル等を用いて構成される。表示素子102は、表示素子駆動部103からの駆動信号に応じて、光を変調して映像を生成する。
 投射光学系101は、表示素子102で生成した映像を、表示面200へ拡大して投射する拡大投射光学系であり、レンズとミラーの少なくとも一方を含む。表示面200は、言い換えると、スクリーン、映像投射面等である。投射光学系101からの映像光は、表示面200のうちの一部の領域201に投射され、表示映像となる。
 冷却部115は、光源105、電源106、または表示素子102等の、高温状態になり得る各部位を、空冷方式や液冷方式で必要に応じて冷却する部分であり、例えば排気ファン等を含む。
 制御部110は、プロジェクタ1の全体および各部を制御するプロセッサまたはコントローラに相当する。制御部110は、例えばCPU等を含み、ソフトウェアプログラム処理によって機能を実現する。メモリ109は、映像データや制御情報等の、制御部110が扱う各種のデータや情報を記憶する。不揮発性メモリ108は、プロジェクタ機能で用いる各種のデータや情報を長期的に保持する。メモリ109等には、グラフィカル・ユーザ・インタフェース(GUI)等の生成用の画像データが記憶されてもよい。
 操作入力部107は、操作ボタンまたは操作パネルや、リモコン受光部を含み、ユーザの操作を入力する部分である。リモコン受光部は、付属デバイスであるリモコンからの信号を入力する。リモコンからリモコン受光部への信号は例えば赤外線で伝送される。
 表示器130は、ユーザに対するインタフェースとして情報を表示する部分であり、例えばサブモニタやLEDインジケータを含む。サブモニタは、液晶ディスプレイ等で構成され、文字等の情報を表示する。LEDインジケータは、複数のLEDを含み、LED毎に状態(例えば電源オン/オフ)が対応付けられ、点灯や消灯や点滅等によって状態が表現される。なお、LEDインジケータの一部のLEDが、障害物検出状態を表すLEDとして規定されてもよい。
 スピーカ131は、音声出力装置であり、例えば内蔵の操作音や警告音を出力し、また、音声信号入力部142に入力された音声データに基づいて音声出力ができる。
 画像調整部132は、例えば映像信号入力部141を通じて入力された映像データに対し画像処理を行う部分である。この画像処理としては、例えば、スケーリング処理、ブライト調整処理、コントラスト調整処理、ガンマ調整処理、レティネックス処理等がある。スケーリング処理は、画像の拡大、縮小、変形等の処理である。ブライト調整処理は、輝度を変更する処理である。コントラスト調整処理は、画像のコントラストカーブを変更する処理である。ガンマ調整処理は、画像の階調特性を示すガンマカーブを変更する処理である。レティネックス処理は、画像を光の成分に分解して成分毎の重み付けを変更する処理である。
 ストレージ部133は、映像、画像、音声等の各種のデータを記録する。例えば、ストレージ部133には、予め製品出荷時に、それらの各種のデータを記録しておいてもよい。また、ストレージ部133には、通信部134を介して外部から取得したそれらの各種のデータを記録してもよい。ストレージ部170に記録されている各種のデータは、表示素子102および投射光学系101等を通じて投射映像として出力できる。音声データは、スピーカ131から音声出力できる。
 通信部134は、有線または無線の通信インタフェースを介して、外部機器、ネットワーク、またはサーバ等と通信し、制御情報やコンテンツ等の各種のデータを授受する部分である。
 姿勢センサ135は、プロジェクタ1の設置における姿勢の状態を検出するセンサであり、重力センサまたはジャイロセンサ等により構成される。制御部110は、姿勢センサ135で検出した姿勢の状態に関する情報を用いて、制御を行ってもよい。例えば、制御部110は、姿勢の状態に応じて、表示素子102に表示する映像の方向を回転することで、表示映像が姿勢の状態に合わせた違和感の無い方向となるようにしてもよい。また、制御部110は、姿勢の状態に適するように、冷却部115による冷却の局所的な強度や、冷却エラー検知用の閾値の変更等を制御してもよい。また、制御部110は、姿勢の状態に応じて、障害物検出機能に関する制御、例えば機能のオン/オフの切り替え制御を行ってもよい。
 カメラ136は、可視光カメラで構成されてもよい。この場合、その可視光カメラは、プロジェクタ1または表示面200の周辺の映像を撮像して記録または外部出力するために用いられる。制御部110は、カメラ136の画像を用いて制御を行ってもよい。カメラ136は、赤外線カメラで構成されてもよい。この場合、その赤外線カメラは、赤外線を発光または反射するポインター装置を用いて示される表示面200上のポインティング位置を検出してもよい。また、カメラ136を用いて表示面200の前に立つ人物等を検出し、投射映像の光出力を下げる等の防眩制御等に用いる形態も可能である。
 映像信号入力部141は、有線または無線のインタフェースを介して、外部から映像信号を入力する。音声信号入力部142は、有線または無線のインタフェースを介して、外部から音声信号を入力する。映像信号出力部143は、有線または無線のインタフェースを介して、外部へ映像信号を出力する。映像信号出力部143は、映像信号入力部141を介して第1の外部機器から入力された映像信号をそのまま第2の外部機器へ出力する機能を有してもよい。映像信号出力部143は、ストレージ部133に記録されている映像データに基づいた映像信号や、カメラ136で撮像した映像に基づいた映像信号を、外部に出力する機能を有してもよい。
 音声信号出力部144は、有線または無線のインタフェースを介して、外部へ音声信号を出力する。音声信号出力部144は、音声信号入力部142を介して第1の外部機器から入力された音声信号をそのまま第2の外部機器へ出力する機能を有してもよい。音声信号出力部144は、ストレージ部133に記録されている音声データに基づいた音声信号等を外部に出力する機能を有してもよい。映像信号入力部141と音声信号入力部142は、一体型の信号入力インタフェースとして構成されてもよい。映像信号出力部143と音声信号出力部144は、一体型の信号出力インタフェースとして構成されてもよい。映像信号入力部141、音声信号入力部142、映像信号出力部143、および音声信号出力部144が、一体型の信号入出力インタフェースとして構成されてもよい。これらの一体型インタフェースは、制御信号を双方向に通信する通信機能を有してもよい。この通信機能は、通信部134とは別に設けられてもよい。以上例示したように、プロジェクタ1には様々な機能を搭載可能である。
 障害物センサ120は、投射光学系101の付近に配置されている。障害物センサ120は、投射光学系101の付近における映像光が通る領域を含む領域にある障害物を検出するセンサである。具体的には、実施の形態1では、障害物センサ120は、赤外線センサと遠赤外線センサとの両方を備える。プロジェクタ1の制御部110は、赤外線センサの検出結果と遠赤外線センサの検出結果とを組み合わせて、障害物の検出判断を行う。障害物センサ120は、赤外線センサと遠赤外線センサとが一体にされた障害物センサとして構成されてもよい。障害物センサ120は、赤外線センサと遠赤外線センサとが別体とされた複数の障害物センサとして構成されてもよい。障害物センサ120の詳細については後述する。
 [障害物センサおよび制御部]
 図2は、障害物センサ120および制御部110の構成例を示す。障害物センサ120は、赤外線センサ10と遠赤外線センサ20を含む。障害物センサ120は、他に、センサを駆動する回路や、センサ信号を処理する回路等を含んでもよい。赤外線センサ10は、近赤外線を主な検出波長域とするセンサである。遠赤外線センサ20は、遠赤外線を主な検出波長域とするセンサである。赤外線センサ10は、赤外線発光部と赤外線検出部とを含むアクティブ型のセンサである。遠赤外線センサ20は、赤外線検出部を含むパッシブ型のセンサである。
 赤外線センサ10は、第1信号として、赤外線センサ信号A1を出力する。赤外線センサ信号A1は、例えば検出した赤外線の量に対応する電圧を表す信号である。遠赤外線センサ20は、第2信号として、遠赤外線センサ信号A2を出力する。遠赤外線センサ信号A2は、例えば検出した温度を表す信号である。
 制御部110は、前述の各部を制御する処理の他、障害物検出機能に係わる処理も行う。なお、制御部110とは別に、障害物検出機能に係わる処理を行う制御部が設けられてもよい。
 制御部110は、赤外線センサ10からの赤外線センサ信号A1を入力して検出処理を行い、処理後の信号を得る。この検出処理は、例えば、赤外線センサ信号A1の電圧に基づいて、障害物の有無を判断する処理である。制御部110は、遠赤外線センサ20からの遠赤外線センサ信号A2を入力して検出処理を行い、処理後の信号を得る。この検出処理は、例えば、遠赤外線センサ信号A2の温度に基づいて、障害物の有無を判断する処理である。なお、このような検出処理を行う処理部が障害物センサ120内に実装されていてもよい。
 制御部110は、上記検出処理後の各信号の両方を考慮して、総合的に障害物検出判断を行い、検出判断結果の信号を得る。この信号は、障害物の検出の有無を表す信号であり、障害物が検出された状態、または障害物が検出されない状態、を表す信号である。
 制御部110は、障害物検出判断の結果、すなわち上記信号の内容に応じて、第1対応処理を行う。対応処理は、障害物に関する対応に係わる処理であり、ユーザへ障害物の存在を警告する、障害物の取り除き等の対応を促す等の処理である。実施の形態1では、対応処理は、第1対応処理と第2対応処理との2段階の対応処理がある。制御部110は、第1対応処理の内容に応じて、図1の各部、例えばスピーカ131からの音声出力等の動作を制御する。
 制御部110は、上記障害物検出判断の結果に関して、特に障害物が検出された状態が、継続しているか否かを判断する。制御部110は、検出継続判断結果の信号を得る。
 制御部110は、上記障害物検出継続判断結果の信号の内容に応じて、第2対応処理を行う。第2対応処理は、1回目の第1対応処理に対する2回目の対応処理、または、第1対応処理に対し種類が異なる対応処理である。
 [赤外線センサの特性]
 赤外線センサは、赤外線の反射光に基づいて物体を検出する。赤外線センサは、自ら赤外線を発して反射光を検出するアクティブ型と、他の機器や他の赤外線発光部から出射した赤外線の反射光を検出するパッシブ型とがある。実施の形態1では、赤外線センサ10は、特に断りが無い限り、アクティブ型を用い、遠赤外線センサ20は、特に断りが無い限り、パッシブ型を用いる。赤外線センサ10は、赤外線発光部と赤外線受光部とを有するアクティブ型のセンサである。遠赤外線センサ20は、赤外線センサ10の赤外線受光部が対応している波長よりも長波長域である遠赤外線域の赤外線を受光する赤外線受光部を有するパッシブ型のセンサである。
 図3は、赤外線センサに関する特性として、赤外線センサによる物体検出範囲の一例を示す。(A)のグラフは、特に、赤外線センサ10による白色/黒色の障害物の検出特性の相違について説明するためのものである。(A)のグラフは、横軸が水平相対検出距離、縦軸が垂直相対検出距離を示す。白丸点は、障害物が(B)のように白色物体である場合の検出範囲を示す。黒丸点は、障害物が(C)のように黒色物体である場合の検出範囲を示す。(A)のグラフでは、縦軸の距離および横軸の距離は、それぞれ白い物体の検出範囲の最も遠い距離を1として正規化されている。なお、ここでは、水平および垂直とは、プロジェクタ1の投射光学系101から表示面200への方向を垂直とし、表示面200に対してプロジェクタ1の本体の左右の方向を水平としている。
 赤外線センサによる物体検出では、(B)のような白色物体と、(C)のような黒色物体とでは、検出可能距離が異なる。これは、白色物体と黒色物体とにおいて、光の反射率および吸収率が異なるためである。(B)の例は、白色物体に照射された赤外線について、全体量を100とすると、吸収が10、反射が90となることを示す。(C)の例は、黒色物体に照射された赤外線について、全体量を100とすると、吸収が90、反射が10となることを示す。このように、赤外線センサは、(C)のような黒色物体の場合には、赤外線が反射されにくく、検出範囲は、(B)のような白色物体の場合の検出範囲に比べて、狭くなってしまう。そのため、従来技術例として、赤外線センサのみを用いて障害物を検出しようとする構成の場合、障害物の位置によっては、白色物体に比べて黒色物体の検出精度が低くなる。
 上記のように、赤外線センサは、検出特性に基づいて、障害物として白色物体を検出することには適している。しかし、赤外線センサは、より輝度が低い黒色物体については検出しにくい。そこで、実施の形態1では、障害物センサ120として、赤外線センサ10に加え、遠赤外線センサ20を組み合わせて用いる。遠赤外線センサは、検出特性に基づいて、白色物体よりも黒白物体について検出しやすい。
 [遠赤外線センサの特性]
 図4は、遠赤外線センサに関する特性を示す。(A)のグラフは、遠赤外線センサによる物体検出範囲の一例を示す。このグラフは、遠赤外線センサの白色物体の検出範囲と黒色物体の検出範囲との特性の相違を説明するためのものであり、図3と同様に正規化されている。遠赤外線センサによる物体検出では、(B)のような白色物体に比べて、(C)のような黒色物体の方が、検出可能距離が大きい。これは、白色物体と黒色物体とにおいて、光の放射率および吸収率が異なるためである。(B)の例は、全体量を100とすると、白色物体から放射される遠赤外線についての放射が10となることを示す。(C)の例は、黒色物体から放射される遠赤外線についての放射が90となることを示す。このように、(C)のような黒色物体の場合には、遠赤外線の放射が大きく、検出範囲は、(B)のような白色物体の場合の検出範囲に比べて、広くなる。実施の形態1では、赤外線センサ10と遠赤外線センサ20とを組み合わせて用いることで、障害物の検出範囲を総合的に広くでき、黒色物体の検出精度も高めることができる。
 [赤外線の特性]
 図5は、赤外線に関する特性の説明図を示す。図5では、概略的に、紫外線、可視光線、近赤外線、中赤外線、および遠赤外線の波長域を示す。近赤外線は、0.78μm~2.5μm程度の波長域を持つ。遠赤外線は、4.0μm~1mm程度の波長域を持つ。赤外線センサは、主に近赤外線の波長域を検出できるセンサである。遠赤外線センサは、主に遠赤外線の波長域を検出できるセンサである。実施の形態1における赤外線センサ10および遠赤外線センサ20は、そのようなセンサを適用する。
 一般に、物体は光を吸収することで温度が上昇し、赤外線を放射する。放射される波長は、温度が低くなるほど、長波長にシフトする。そして、放射される赤外線量は、吸収量に比例する。この特徴を利用して、遠赤外線センサは、物体から放射する遠赤外線域の赤外線を感知し、物体表面温度を測定することができる。物体表面温度の検出結果に基づいて、物体有無も検出可能である。すなわち、遠赤外線センサは、遠赤外線を検出できる特性から、温度測定機能と物体検出機能との両方を有する。
 実施の形態1の例では、赤外線センサ10は、赤外線発光部の赤外線出力波長、および赤外線受光部の検出波長を、940nm付近の近赤外線波長領域とする。赤外線発光部は、例えばパルス駆動するIR-LEDで構成される。赤外線受光部は、障害物からの反射光を受光素子で検出する。赤外線センサ10は、赤外線発光部の発光のパルスと赤外線受光部の受光素子とが同期し、非同期の赤外線については検出しない。赤外線センサ10は、可視光をカットするフィルタを用いて構成され、赤外線のみを透過する。
 実施の形態1の例では、遠赤外線センサ20は、検出波長領域を8μm~14μmとする。遠赤外線センサ20における赤外線受光部は、遠赤外線を通過させるバンドパスフィルタを用いて構成される。なお、光源106は、RGBの可視光領域の光を発し、波長領域としては400nm~780nmである。
 [処理フロー]
 図6は、プロジェクタ1の障害物検出機能の主な処理として障害物検出対応処理を含む処理に係わる処理フローを示す。図6はステップS1~S7を有し、以下、ステップの順に説明する。ステップS1で、プロジェクタ1の制御部110(図2)は、赤外線センサ10の障害物検出処理結果の信号と遠赤外線センサ20の障害物検出処理結果の信号とを組み合わせて、障害物検出処理を行う。障害物検出処理の詳細については後述する(図7)。
 プロジェクタ1の制御部110は、上記障害物検出処理の結果の信号に基づいて、障害物を検出した場合(S1-YES)、ステップS2で、第1対応処理を行う。第1対応処理の詳細については後述する(図8)。プロジェクタ1は、上記障害物検出処理の結果の信号に基づいて、障害物を検出しなかった場合(S1-NO)、フローの最初に戻る。
 ステップS3で、プロジェクタ1の制御部110は、上記第1対応処理の後、障害物を検出した状態が継続しているか否かを判断する処理である第1検出継続判断処理を行う。第1検出継続判断処理の詳細については後述する(図9)。
 プロジェクタ1は、第1検出継続判断処理の結果の信号に基づいて、障害物検出が継続していると判断した場合(S3-YES)、ステップS4で、第2対応処理を行う。第2対応処理の詳細については後述する(図8)。プロジェクタ1は、第1検出継続判断処理の結果の信号に基づいて、障害物検出が継続していないと判断した場合(S3-NO)、ステップS7を経由して、フローの最初に戻る。
 プロジェクタ1の制御部110は、上記第2対応処理の後、ステップS5で、障害物を検出した状態が継続しているか否かを判断する処理である第2検出継続判断処理を行う。第2検出継続判断処理の詳細については後述する(図9)。プロジェクタ1は、第2検出継続判断処理の結果の信号に基づいて、障害物検出が継続していると判断した場合(S5-YES)、ステップS6に進む。プロジェクタ1は、第2検出継続判断処理の結果の信号に基づいて、障害物検出が継続していないと判断した場合(S5-NO)、ステップS7を経由して、フローの最初に戻る。
 ステップS6では、プロジェクタ1は、光源105を消灯し、スタンバイモードに移行し、フローを終了する。
 ステップS7では、プロジェクタ1は、第1対応処理または第2対応処理において光源輝度低減処理を行っている場合には、光源105の輝度を正常に戻す。また、プロジェクタ1は、第1対応処理または第2対応処理においてエラー通知を行っている場合には、エラー通知を解除する。また、プロジェクタ1は、第1対応処理または第2対応処理においてメッセージ表示を行っている場合には、メッセージ表示を消去する。また、プロジェクタ1は、第1対応処理または第2対応処理において警告音を出力している場合には、警告音出力を解除する。
 [障害物検出判断]
 図7は、ステップS1の制御部110による障害物検出判断の詳細を示す。制御部110は、赤外線センサ10の検出結果と遠赤外線センサ20の検出結果との組み合わせで、システム全体として総合的に障害物検出判断を行う。図7の表は、2列において赤外線センサ10の検出結果の2値を示し、2行において遠赤外線センサ20の検出結果の2値を示し、行列の交差する項目には、それらの値の組み合わせに応じた総合的な障害物検出判断結果の値を示す。ここでは、2値は、障害物が検出されない状態を値=0とし、障害物が検出された状態を値=1とした。制御部110は、赤外線センサ10の検出結果と遠赤外線センサ20の検出結果とのいずれか一方でも、障害物が検出された状態(値=1)である場合には、障害物検出機能による総合的な障害物検出判断結果を、障害物が検出された状態(値=1)とする。図示のように、この障害物検出判断は、論理和(OR)と捉えることができる。プロジェクタ1は、赤外線センサ10の検出結果と遠赤外線センサ20の検出結果との両方が、障害物が検出されない状態(値=0)である場合、総合的な判断結果を、障害物が検出されない状態(値=0)とする。
 [対応処理]
 図8は、ステップS2の第1対応処理やステップS4の第2対応処理の具体例について示す。第1対応処理1および第2対応処理の内容は、様々な処理が考えられるが、実施の形態1では、図8のような具体例を適用する。図8の表は、第1対応処理と第2対応処理との組み合わせの具体例として例1~例5を示す。
 例1は、第1対応処理が、光源輝度低減処理であり、第2対応処理が、警告処理である。光源輝度低減処理とは、図1の光源105の輝度を低減する処理であり、例えば、レーザー光源やLED光源等の光源105の出力を低減させることで、投射光学系101から出力される光量を低減する処理である。投射光学系101から出力される光量が低減されれば、ユーザによる対応、例えば障害物を取り除く等の動作が無くとも、障害物による光反射または光吸収による投射光学系101の周辺の温度上昇等の問題が解消する可能性がある。
 警告処理とは、投射映像上に警告やガイド等のメッセージを重畳して表示する処理、または、表示器130のサブモニタにメッセージを表示する処理、スピーカ131から警告音を出力する処理、その他のエラー通知処理等である。その他のエラー通知処理は、表示器130のサブモニタやLEDインジケータにおいてエラーを通知する処理としてもよいし、リモコンやユーザの無線端末装置にエラー通知を送信する処理としてもよい。無線端末装置は、プロジェクタ1と通信するユーザのスマートフォン等の装置でもよい。エラー通知は、LEDインジケータにおける発光色の変更や特定のLEDの発光制御としてもよい。プロジェクタ1は、それらの警告処理のうちの少なくとも1つを行う。プロジェクタ1は、2つ以上の警告処理を組み合わせて行ってもよいし、それぞれの警告処理を順次に行ってもよい。
 警告処理で表示するメッセージの具体例は、「投射光学系101の出射部の付近に障害物が検出された」旨のメッセージでもよいし、「投射光学系101の出射部の付近に障害物が検出されたので障害物の取り除きをユーザに促す」旨のメッセージでもよい。なお、「障害物検出状態が継続する場合には、その後自動的に光源を消灯する」旨のメッセージでもよい。プロジェクタ1は、警告処理を行った後、ある程度の時間以上、障害物検出状態が継続している場合には、自動的に光源105を消灯するように制御してもよい。これらの表示は、組み合わせてもよい。メッセージに替えてマーク等の表示としてもよい。メッセージまたはマーク等の表示により、ユーザが状況を認識しやすくなり、対応がしやすくなる。
 また、警告処理で出力する警告音の具体例は、単なるビープ音でもよいし、言語によるメッセージ音声でもよい。メッセージ音声の場合には、上記メッセージの内容を音声で出力すればよい。メッセージ音声の場合には、複数の言語のメッセージをプロジェクタ1の記憶装置に格納しておき、メニュー表示の言語設定に応じて適切な言語を選択して、メッセージ音声を出力すればよい。
 例えば、投射光学系101の出射部の前に大きな障害物があり、その障害物によって映像光の殆どが遮られる場合等があり得る。その場合には、投射映像上にメッセージを重畳表示するようにOSD処理を施したとしても、ユーザが光学的に視認できないこともあり得る。このような場合でも、警告音の出力であれば、ユーザに対し警告を伝達でき、好適である。よって、投射映像上にメッセージを表示するとともに警告音の出力を行うと、より好適である。
 上記のように、例1では、第1対応処理で光源輝度低減処理のみを行い、警告処理を行わない。これにより、ユーザによる対応を行わなくとも問題が解消する可能性があり、ユーザを煩わせる確率がより低いという利点がある。
 例2は、第1対応処理が1回目の警告処理であり、第2対応処理が2回目の警告処理である。1回目の警告処理も2回目の警告処理のいずれも、例1の警告処理の具体例を単独または組み合わせで用いればよい。単純に、1回目の警告処理も2回目の警告処理も同じとしてもよい。あるいは、2回目の警告処理の規模を1回目の警告処理の規模より大きくしてもよい。例えば、2回目の警告処理のメッセージの表示サイズを1回目の警告処理のメッセージの表示サイズよりも大きくしてもよい。2回目の警告処理のメッセージの表示数を増やしてもよい。2回目の警告処理の警告音の音量を1回目の警告処理の警告音の音量よりも大きくしてもよい。2回目の警告処理のメッセージの内容を、1回目の警告処理のメッセージの内容よりも、より強くユーザに対応を促す旨の内容に変更してもよい。
 あるいは、1回目の警告処理の警告音をビープ音等の非言語音とし、2回目の警告処理の警告音を言語メッセージの音声として、2回目の警告処理の警告音を、1回目の警告処理の警告音よりも強くユーザに警告内容が伝わるように変更してもよい。
 あるいは、2回目の警告処理の方が1回目の警告処理よりもユーザへ対応を強く働きかけるために、警告処理の種類を増やしてもよい。例えば、1回目の警告処理では警告音出力を行わずメッセージ表示を行い、2回目の警告処理では、メッセージ表示とともに警告音出力を行う等とすればよい。これにより、光源消灯のような対応を行う前に、ユーザによる対応によって問題が解消する確率を高めることができる。なお、実施の形態1において、「ユーザによる対応によって問題が解消する」とは、例えば、ユーザが投射光学系101の出射部の付近にある障害物を移動等によって取り除くことで、その障害物による映像光の光反射または光吸収等による投射光学系101の周辺の温度上昇等の問題が解消することを意味する。
 上記のように、例2では、光源消灯の対応を行う前に、ユーザに対して2回の警告処理を行う。これにより、ユーザによる対応によって、光源消灯の対応の前に問題が解消する確率がより高まるという利点がある。上記例では、2回の警告処理としたが、これに限らず、同様に、複数回の段階的な対応処理を行う形態が可能である。
 例3は、例2の処理をベースに、1回目の警告処理を行う際に併せて光源輝度低減処理を行うものである。これにより、例3は、例1の利点と例2の利点との両方を実現する。例1の利点は、投射光学系101から出力される光量が低減されれば、ユーザによる対応が無くとも障害物による投射光学系101の周辺の温度上昇等の問題が解消する可能性があるという利点を含む。例2の利点は、ユーザに対して複数回の警告処理を行うことにより光源消灯前に問題が解消する確率がより高まるという利点を含む。それぞれの処理の詳細は、例1および例2と同様である。
 例4は、例2の処理をベースに、2回目の警告処理を行う際に、併せて、投射映像を、ユーザが所望して表示している映像から、黒画面表示映像に切り替える処理を加えたものである。黒画面表示映像は、投射映像の全画素を黒色とした映像である。警告のメッセージ表示を行う場合には、黒画面表示映像の上にそのメッセージを重畳表示すればよい。黒画面表示映像に限らず、元のユーザの映像から全体的に輝度が低減された映像等としてもよい。
 投射映像をユーザの映像から黒画面表示映像に切り替えることにより、以下の(1)および(2)の利点がある。(1)投射映像中の黒表示面積が増えるため、投射光学系101から出力される映像光の光量の総和を低減することができる。これにより、障害物による光反射または光吸収による投射光学系101の周辺の温度上昇を抑制できる。(2)投射映像が黒画面表示映像になることで、ユーザの映像が表示されなくなるため、警告処理に対するユーザの注目度が上がり、ユーザに対し障害物に対する対応をより強く促すことができる。投射映像を黒画面表示映像に切り替える点以外の点は、例2と共通で同様の処理である。
 例5は、例4の処理をベースに、1回目の警告処理を行う際に、併せて、光源輝度低減処理を行うものである。これにより、例1の利点と例4の利点との両方を実現できる。それぞれの処理の詳細は、例1および例4と同様である。
 なお、いずれの組み合わせ例においても、第2対応処理の際に、投射映像または表示器130のサブモニタにおいて、光源消灯までの残り時間を表示する、カウントダウンタイマー表示を行ってもよい。これにより、より強くユーザに対応を促すことができる。カウントダウンタイマー表示に替えて、または加えて、光源消灯までの残り時間を説明するメッセージを含む警告音を出力してもよい。
 以上説明した第1対応処理および第2対応処理によれば、光源消灯前に障害物による投射光学系101の周辺の温度上昇等の問題が解消する確率をより好適に高めることができる。
 [検出継続判断処理]
 図9は、ステップS3やステップS5の制御部110による障害物検出継続判断処理についての具体例を示す。第1検出継続判断および第2検出継続判断には様々な処理が考えられるが、実施の形態1におけるいくつかの具体例を示す。図9の表は、第1検出継続判断および第2検出継続判断に関する2つの例(判断例1、判断例2とする)を示す。
 判断例1は以下の通りである。プロジェクタ1は、ステップS3の第1検出継続判断において、ステップS1の障害物検出判断処理の結果の「障害物が検出された」状態が、ステップS1後に所定の期間T1において継続した場合、システムの総合的な判断として、「障害物が検出された」状態が継続している状態である、と判断する。図9ではこの状態を検出継続状態と記載している。
 また、プロジェクタ1は、所定の期間T1以内に、「障害物が検出されない」状態に変化した場合、例えば、期間T1後の時点での検出結果が「障害物が検出されない」状態であった場合、システムの総合的な判断として、「障害物が検出されない」状態に変化した状態、言い換えると障害物検出が継続していない状態である、と判断する。図9ではこの状態を検出非継続状態と記載している。
 また、プロジェクタ1は、ステップS5の第2検出継続判断において、障害物検出判断処理の結果の「障害物が検出された」状態が、第1検出継続判断のステップS3後に所定の期間T2において継続した場合、システムの総合的な判断として、「障害物が検出された」状態が継続している状態、すなわち検出継続状態と判断する。
 また、プロジェクタ1は、期間T2以内に、「障害物が検出されない」状態に変化した場合、システムの総合的な判断として、「障害物が検出されない」状態に変化した状態、すなわち検出非継続状態と判断する。
 判断例1において、期間T1の長さと期間T2の長さは、どちらが長くても短くてもよいし、同じ期間としてもよい。ただし、第1対応処理と第2対応処理との間にある期間T1の長さを、期間T2よりも長くした方が、第1の対応処理よりも強い警告処理である第2の対応処理に進む前に問題が解消する確率がより高まるという利点があるので、好適である。
 判断例2は、第1検出継続判断において、判断例1の判断処理に、以下の判断処理が追加される。追加される判断処理は、期間T1に遠赤外線センサ20が検出する温度が、第1閾値を超えた場合に、期間T1の経過を待たずに、「障害物が検出された」状態が継続している状態である検出継続状態と判断する処理である。遠赤外線センサ20は、前述のように温度の検出が可能であり、期間による判断だけでなく、温度上昇を考慮することができる。そのため、このような判断処理の追加によって、より迅速に第2対応処理に進むべきと判断することができる。
 また、第2検出継続判断において、判断例1の判断処理に、以下の判断処理が追加される。追加される判断処理は、期間T2に遠赤外線センサ20が検出する温度が、第2閾値を超えた場合に、期間T2の経過を待たずに、「障害物が検出された」状態が継続している状態である検出継続状態と判断する処理である。この判断処理の追加によって、より迅速に光源消灯処理(ステップS6)に進むべきと判断することができる。
 上記温度に関する第1閾値と第2閾値は、どちらが大きくてもよいし、同じでもよい。ただし、第2検出継続判断は、光源消灯処理に進む際の最終判断となるため、より慎重に進めた方が好適である。よって、第2閾値を第1閾値よりも高くする方が望ましい。
 上記検出継続判断について、より詳しい処理例としては以下が挙げられる。図9の表の下側に処理例を示す。時間軸において、時点t1から時点t2までの期間T1、および時点t2から時点t3までの期間T2を有する。時点t1は、ステップS1に対応した1回目の検出時点であり、例えば「障害物が検出された状態」(値=1)であるとする。時点t2は、ステップS3に対応した2回目の検出時点であり、時点t1から期間T1が経過した時点である。例えば時点t1から時点t2までの間では検出判断が行われない。時点t2では、例えば同じく「障害物が検出された状態」(値=1)であったとする。この場合、プロジェクタ1は、上記判断例1のように、期間T1において同じ状態が継続しているので、検出継続状態と判断する。
 他の処理例は以下の通りである。上記期間T1は、さらに、複数の単位時間を有する。プロジェクタ1は、常時、単位時間毎に、ステップS1の検出判断を行う。プロジェクタ1は、期間T1における単位時間毎の検出結果がすべて「障害物が検出された状態」(値=1)であった場合には、検出継続状態と判断する。プロジェクタ1は、期間T1における単位時間毎の検出結果で、「障害物が検出されない状態」(値=1)が出現した場合には、検出非継続状態と判断する。
 あるいは、他の処理例として、プロジェクタ1は、期間T1における単位時間毎の複数の検出結果のうち所定の数以上の検出結果が「障害物が検出された状態」(値=1)であった場合に、検出継続状態と判断してもよい。
 [障害物センサ:配置例1]
 図10は、実施の形態1のプロジェクタ1における装置外観構成例の斜視図、および、プロジェクタ1の本体50における障害物センサ120の具体的な配置の一例(配置例1とする)を示す。説明上の方向として、X,Y,Zを示す。X方向およびY方向は、水平面を構成する直交する2つの方向であり、X方向が本体50における横、左右方向に対応し、Y方向が本体50における前後方向に対応する。Z方向は鉛直方向であり、本体50の高さ方向に対応する。投射光学系101の出射部である投射レンズ3からスクリーン(表示面200)への投射の方向は、概略的にY方向で、斜め上方向である。
 図10のプロジェクタ1は、超短投射型の投射型映像表示装置の場合である。図10は、主に本体50の上面F1を、スクリーンである表示面200側、および前面F2側で斜め上から見た斜視図である。前面F2は、Y方向で表示面200に向く側の鉛直面である。配置例1では、投射レンズ3の出射面3aの前に、障害物センサ120を構成する赤外線センサ10および遠赤外線センサ20が配置されている。
 本体50は、概略的に長方体形状を持つ。本例では、上面F1の一部における前面F2に近い領域には、表示器130が設けられており、表示器130の一部としてLEDインジケータ130Aを有する。上面F1の一部、背面F3および側面F5に近い領域には、スピーカ131が設けられている。
 上面F1は、水平面を基本として、背面F3に近い方の一部の領域に、凹部51および凸部52を有する。背面F3は、表示面200から遠い側の鉛直面である。凹部51は、上面F1の水平面に対し下側に窪みとなる部分であり、本例では斜面を持つ。この斜面は、投射レンズ3および凸部52の方へ下る斜面である。さらに、凹部51の斜面のうち、投射レンズ3の前にある一部の領域は、障害物センサ120を配置するための凹部51bとなっている。凸部52は、凹部51に隣接して上側に盛り上がる部分であり、投射レンズ3の一部が収容されている。
 投射光学系101のうちの出射部を構成する投射レンズ3は、本体50の背面F3に近い側の領域における、凸部52の一部、X方向で中央の位置に配置されている。投射レンズ3の一部である出射面3aは、曲面であり、凸部52における凹部51の斜面に近い一部から前側に出ている。
 投射レンズ3は、ガラス製レンズやプラスチック製レンズ等を用いて構成される。例えば、出射面3aを構成するレンズが、プラスチック製レンズで構成される場合、温度上昇による影響を受けやすい。よって、出射面3aを構成するレンズの近傍に赤外線センサ10および遠赤外線センサ20を設けることにより障害物を検出する構成が望ましい。
 配置例1では、障害物センサ120を構成する赤外線センサ10および遠赤外線センサ20は、投射レンズ3の前側の凹部51bに配置されている。これにより、障害物センサ120は、出射面3aからの映像光を遮らない。特に、配置例1では、1個の赤外線センサ10および1個の遠赤外線センサ20が、X方向で中央付近の位置に並んで配置されている。
 図11は、図10のプロジェクタ1の構成を、スクリーン横側および本体50の側面F4側から見たY-Z面での構成図を示す。側面F4は、スクリーンである表示面200に向かって右側の鉛直面である。図示のように、赤外線センサ10および遠赤外線センサ20は、投射レンズ3の近傍かつ映像投射方向側に配置されている。本例では、プロジェクタ1の本体50の下面F0は、テーブル等の水平な設置面FAに設置されている。超短投射型であるため、本体50の前面F2は、表示面200との距離が小さい。
 図11の例では、投射光学系101は、光学レンズ4A、光学レンズ4B、および投射レンズ3等で構成されている。表示素子102からの光は、光学レンズ4A、光学レンズ4B、および投射レンズ3の順に経由して投射される。図11では、投射レンズ3から出射される映像光の光軸L1、および範囲の端L2,L3も示し、図示のように斜め上方向である。
 図11では、障害物センサ120の検出範囲、すなわち赤外線センサ10の検出範囲および遠赤外線センサ20の検出範囲の一例を、円錐のイメージとして図示している。配置例1では、赤外線センサ10および遠赤外線センサ20のそれぞれの検出範囲の円錐の中心軸である検出軸の方向は、矢印で示すように、略垂直の方向とされている。略垂直とは、プロジェクタ1を据え置きで用いる場合の垂直方向であり、図11の例では鉛直であるZ方向である。別の表現として、この検出軸は、プロジェクタ1の設置面FAに対して垂直である。別の表現として、この検出軸は、表示面200に対して平行である。図11の例では、この検出軸の方向は、上面F1の凹部51bの平面に対し垂直である。これにより、障害物センサ120によって投射レンズ3の前面側にある障害物を好適に検出できる。
 赤外線センサ10の位置、および遠赤外線センサ20の位置は、図11の例に限らず、各種が可能であり、投射レンズ3の出射面3aの近傍とすればよい。変形例として、図10で、出射面3aに対しX方向で左右の位置、例えば凸部52の一部に、赤外線センサ10や遠赤外線センサ20が配置されてもよい。
 また、変形例として、赤外線センサ10および遠赤外線センサ20の検出軸は、鉛直方向に限らず可能であり、鉛直からやや斜めに傾いた方向としてもよい。その検出軸の傾きの方向は、投射レンズ3側に傾く方向でもよいし、スクリーン側に傾く方向でもよいし、X方向の左右に傾く方向でもよい。
 また、変形例として、赤外線センサ10および遠赤外線センサ20が凹部51の斜面に配置されてもよく、その場合、赤外線センサ10や遠赤外線センサ20の検出軸は、その斜面に対して略垂直としてもよい。
 図12は、図10および図11のプロジェクタ1の構成について、背面F3側、ユーザ視点から表示面200の正面を見る方向での概略構成を示す。スクリーンである表示面200のうち一部の領域201が、映像が投射される領域である。なお、図12および図10では、図11の背面F3側の詳細形状等を簡略化して示している。
 [障害物センサ:配置例2]
 図13は、障害物センサ120の配置例2を示す。配置例2は、配置例1との違いとして、障害物センサ120は、計4個の赤外線センサ10と、1個の遠赤外線センサ20とを有する。配置例2では、配置例1よりも赤外線センサ10の個数を増やし、配置例1とは異なる位置にも配置している。凹部51において、投射レンズ3の出射面3aの前のX方向で中央付近の位置には、配置例1と同様に、1個の赤外線センサ10および1個の遠赤外線センサ20が配置されている。また、その位置に対しX方向で左右の異なる位置に、2個の赤外線センサ10が配置されている。これにより、赤外線センサ10による検出を、投射レンズ3の前面のX方向でより広い範囲としてカバーできる。
 さらに、凸部52における投射レンズ3の出射面3aに対し上側の位置に、1個の赤外線センサ10が配置されている。これにより、赤外線センサ10による検出を、投射レンズ3の前面のZ方向でより広い範囲としてカバーできる。
 配置例2で、遠赤外線センサ20は、配置例1と同様に、投射レンズ3の前の中央の赤外線センサ10の付近に1個を配置したが、これに限らず、出射面3aの近傍の位置であればよく、複数個を配置してもよい。例えば、投射レンズ3の前や上側に、合計で複数個の遠赤外線センサ20を設けてもよい。
 なお、配置例2のように複数の赤外線センサ10を設ける場合、プロジェクタ1の制御部110は、ステップS1で以下のように検出判断を行う。制御部110は、複数個のうち少なくとも1つの赤外線センサ10の検出結果が、前述の「障害物が検出された」状態(値=1)である場合に、赤外線センサ10によって障害物が検出された状態であると判断する。図7の表でいえば、この場合が、赤外線センサ10の2列のうち「障害物が検出された」状態(値=1)の列に対応する。
 また、複数の遠赤外線センサ20を設ける場合、同様に、制御部110は、複数のうち少なくとも1つの遠赤外線センサ20の検出結果が、前述の「障害物が検出された」状態(値=1)である場合に、遠赤外線センサ20によって障害物が検出された状態であると判断する。図7の表でいえば、この場合が、遠赤外線センサ20の2行のうち「障害物が検出された」状態(値=1)の行に対応する。
 図14は、図13の配置例2について側面F4を見た構成図である。投射レンズ3の上側に配置されている赤外線センサ10は、円錐で示す検出範囲の検出軸の方向が、概略的にスクリーンに向かう前方であるY方向である。詳しくは、この上側の赤外線センサ10の検出軸は、図示のように水平から斜め下への方向とされている。本例のような超短投射型では、投射レンズ3からの投射映像の光軸L1が斜め上方向である。それに対し、この上側の赤外線センサ10の検出軸の方向におけるZ方向での向きは、水平よりも下向きの方向に設定されている。これにより、この赤外線センサ10の検出軸の方向は、表示面200の領域201と交わらず、検出の際に、スクリーンへの投射映像による影響を受けにくい。よって、この構成では、スクリーンへの投射映像に基づいた、この赤外線センサ10による誤検出を回避することができる。なお、上側の赤外線センサ10の検出軸の方向は、これに限らず、略水平、言い換えると凸部52の鉛直面に対して略垂直としてもよい。
 図15は、図13および図14の配置例2に対応した、スクリーンを見る方向での概略構成図である。図示のように、X方向の複数の赤外線センサ10を含む障害物センサ120によって、広い検出範囲が構成されている。
 [排気の影響]
 図16は、比較例として、プロジェクタ1xの所定の排気方向とその影響についての説明図を示す。図16は、特に、排気方向として、プロジェクタの冷却部115による排気が、前面F2からスクリーン側へ向かうY方向の排気である場合を示す。プロジェクタは、光源、電源回路、および光学部品等を冷却するために、空冷システムを備え、放熱のために排気を行う構成が一般的である。実施の形態1のプロジェクタ1および比較例のプロジェクタ1xでも、前述の冷却部115を備え、冷却部115は、空冷のための排気ファン等を含む。
 ここで、超短投射型、および超短焦点型である比較例のプロジェクタ1xにおいて、図16のように、前面F2からスクリーン側に向けて排気を行う構成の場合、スクリーンが設置されている壁202等の影響によって、前面F2からの排気が壁202に当たり、方向が変わって、プロジェクタ1xの上面F1の上方を通過するということがあり得る。比較例のプロジェクタ1xでは、配置例1と同様に、上面F1に、遠赤外線センサを含む障害物センサ120xが配置されているとする。図16のような排気の流れに対し、比較例では、その障害物センサ120xの検出範囲の円錐の正面、本例では上方を、その排気が通過することになる。プロジェクタ1xの排気が高温である場合、このような状況は、その障害物センサ120xの誤検出、言い換えると精度低下を生じさせる恐れがある。
 そこで、図17は、実施の形態1のプロジェクタ1における、排気の影響を考慮した好適な構成例として、より好適な排気方向についての説明図である。この排気とは、例えば、冷却部115によって光源105を冷却した後の排気、電源回路等の各種回路を冷却した後の排気、表示素子102を冷却した後の排気、光学部品を冷却した後の排気、等の少なくとも1つを含む排気である。なお、図17では、障害物センサ120としては簡略化して1個のセンサ、特に遠赤外線センサ20として示している。図17では、本体50の各面の排気口の図示を省略している。冷却部115による排気機能の実装の際には、適宜に排気口を設ければよい。
 図17で、まず、各排気方向について説明する。図17では、本体50の各面、各位置からの排気方向の候補として、排気方向d1,d2,d3,d4,d5を示す。排気方向d1は、本体50の障害物センサ120が設置されている上面F1からZ方向の上方への排気である。排気方向d2は、本体50のスクリーンに向かう側面である前面F2から、Y方向でスクリーンに向かう前方への排気である。排気方向d3は、排気方向d2と反対側への排気であり、本体50の前面F2と反対側の背面F3から、Y方向でスクリーンと反対側に向かう後方への排気である。排気方向d4は、本体50の右側の側面F4から、X方向でスクリーンに対し右側の方向への一方向の排気である。排気方向d5は、排気方向d4の反対方向の排気であり、本体50の左側の側面F5から、X方向でスクリーンに対し左側の方向への一方向の排気である。なお、本体50におけるZ方向に立つ4つの側面のうち、前面F2および背面F3は、Y方向での前後の側面であり、側面F4および側面F5は、X方向での左右の側面である。
 図16の通り、排気方向d2のようにスクリーン側へ向けて排気を行う場合、高温の排気の影響から、特に遠赤外線センサ20の誤検出を生じさせる可能性がある。よって、排気方向d2以外の排気方向を採用することが望ましい。また、排気方向d1のように、障害物センサ120の設置面である上面F1から排気を行う場合でも、その排気方向が遠赤外センサ20の検出範囲と近くなるため、遠赤外センサ20の誤検出を生じさせる可能性がある。よって、排気方向d1以外の排気方向を採用することが望ましい。
 よって、遠赤外センサ20を上面F1に設ける配置例1のプロジェクタ1は、排気方向d2および排気方向d1以外の排気方向を採用することが望ましい。具体的には、実施の形態1のプロジェクタ1は、冷却部115による排気方向の実装に関して、排気方向d3、排気方向d4、または排気方向d5のいずれか1つまたはそれらの組み合わせを採用する。プロジェクタの排気で最も高温になり得るのは、光源を冷却した後の排気である。そのため、特に、光源105を冷却した後の排気の排気方向については、上記排気方向を採用するのが望ましい。
 [メッセージ表示]
 次に、前述の警告処理(図8)の具体例の1つであるメッセージ表示の構成例について説明する。図18は、実施の形態1のプロジェクタ1における、メッセージ表示の一例(表示例1とする)を示す。図18は、投射レンズ3から、スクリーンである表示面200のうちの映像が投射される領域201を正面から見た場合の概略構成図を示す。図18の例では、配置例2のように、障害物センサ120として複数の赤外線センサ10および1個の遠赤線センサ20を備える。図18では、投射レンズ3の前側にある部分を障害物センサ120aおよび赤外線センサ10aとして示し、投射レンズ3の上側にある部分を障害物センサ120bおよび赤外線センサ10bとして示す。
 プロジェクタ1は、例えば前述の方法で、これらの複数のセンサの検出結果に基づいて、障害物OB1を検出したとする。本例では、投射レンズ3の位置に対し前方右側に障害物OB1がある。この場合に、プロジェクタ1は、警告処理の例として、図18のように、投射映像の領域201中に、「投射レンズ付近の障害物を取り除いてください」等の、ユーザに障害物OB1の取り除きを促すメッセージ180を表示する。メッセージ180は、静止したメッセージ画像である。図18の例では、領域201の中央の1箇所(エリアAR2b)に、そのメッセージ180が表示されている。このメッセージ180の表示位置は、基本的には、投射映像の領域201のうちのどの位置としても構わない。
 しかしながら、配置例2のように、障害物センサ120として、スクリーンに向かってX方向の左右に複数個の赤外線センサ10が配置されている場合には、障害物OB1が領域201の中央に達する前に、左右のいずれかの赤外線センサ10によって検出される確率が高い。例えば右側にある障害物OB1が映像光を遮ることで、領域201のうちの右側のエリアAR3では、ユーザから投射映像が見えにくくなる可能性がある。
 よって、上記メッセージ180を領域201内の1箇所に表示する場合には、領域201の端よりも、図示のように中央の位置に表示する方が、メッセージ180の表示自体が障害物OB1によって遮られる可能性が低くなり、ユーザから見えやすくなる可能性が高いので、より好適である。
 図19は、メッセージ表示の表示例2を同様に示す。表示例2では、プロジェクタ1は、例えば障害物OB2を検出した場合に、投射映像の領域201中に、「投射レンズ付近の障害物を取り除いてください」等のメッセージ180を、複数箇所同時に表示する。図19の例では、領域201は、概略的に3×3=9個のエリアがあり、各エリアに同じメッセージ180が表示されている。X方向では、3個の赤外線センサ10に対応させて、エリアAR1,AR2,AR3の3個のエリアがある。図19の例は、投射レンズ3の前で中央および右側にわたって障害物OB2がある場合を示す。障害物OB2によって映像光が遮られる影響で、領域201のうちの中央のエリアAR2および右側のエリアAR3では投射映像が見えにくくなる。
 図19の例では、障害物OB2に遮られた遮光部分(エリアAR2,AR3)にもメッセージ180が表示されるように示しているが、この部分に関しては投射レンズ3からの光が障害物OB2によって遮られているので、実際には映らない。ただし、表示素子102への映像では、図19のように複数のメッセージ180が表示されるように構成されている。この構成により、警告処理のための一部の映像箇所が障害物OB2によって遮光されたとしても、遮光されていない部分だけでユーザがメッセージ180を視認できる可能性が高まるので、好適である。
 図19の例では、障害物センサ120として、投射レンズ3の前側の3箇所、投射レンズ3の上側の1箇所に赤外線センサ10が配置されている。図19の例のように投射映像の領域201の複数箇所に同時にメッセージ180を表示する場合、領域201の中央(例えばエリアAR2b)が遮光されたとしても、ユーザがメッセージ180を視認できる可能性が高まる。よって、配置例1のように投射レンズ3の前側の中央の1箇所のみに赤外線センサ10および遠赤外線センサ20が1個ずつ配置されるシンプルな構成とした場合でも、ユーザが視認できる可能性が高いメッセージ表示を実現可能である。
 図20は、メッセージ表示の表示例3を示す。表示例3では、プロジェクタ1は、「投射レンズ付近の障害物を取り除いてください」等のメッセージ180を、投射映像の領域201中を移動させるように表示する。このメッセージ180は、移動するメッセージ映像である。図20の例では、メッセージ180は、領域201の左上端から矢印に示すようにジグザグに、言い換えるとラスター走査のような軌跡で移動する。メッセージ180の移動が領域201の右下端まで達すると、最初の左上端に戻り、ジグザグ移動が同様に繰り返される。
 この構成により、映像光の一部が障害物OB1によって遮光されたとしても、遮光されていない部分にもメッセージ180が表示されている時間が存在し、ユーザがメッセージ180を視認できる可能性が高まるので、好適である。また、メッセージ180が移動するので、静止している場合と比べて、ユーザのメッセージ180に対する注目度を向上させることができる利点もある。
 図21は、メッセージ表示の表示例4を示す。表示例4では、プロジェクタ1は、配置例2のように障害物センサ120における赤外線センサ10を複数箇所に配置した構成で、例えば障害物OB1を検出する。そして、プロジェクタ1は、投射映像が障害物OB1によって遮光される部分を推定し、領域201のうち、推定される遮光部分を除いた範囲内にメッセージ180を表示する。例えば、投射レンズ3の前の右側にある赤外線センサ10の検出結果が、「障害物が検出された」状態であり、他の赤外線センサ10の検出結果が、「障害物が検出されない」状態であるとする。その場合、プロジェクタ1は、総合的に、障害物OB1が検出されたと判断する。それと共に、プロジェクタ1は、その障害物OB1の位置が、投射レンズ3とエリアAR3とを結ぶ領域内であると推定し、領域201のうち概略的に右側のエリアAR3については、障害物OB1によって遮光されている可能性が高いと推定する。よって、プロジェクタ1は、領域201のうちエリアAR3を除いたエリアAR1,AR2の範囲に、例えば表示例3と同様に、メッセージ180を移動させるようにして表示する。この構成により、投射映像の一部が障害物OB1によって遮光されていても、遮光されていない部分にメッセージ180が表示され、ユーザがメッセージ180を視認できる可能性が高まるので、好適である。
 なお、非遮光領域であるエリアAR1,AR2の範囲内にメッセージ180を表示する際に、移動の方法ではなく、他の方法を適用してもよい。表示例1にならって、推定した非遮光領域内の1箇所にメッセージ180を静止して表示してもよいし、表示例2にならって、推定した非遮光領域内の複数の箇所にメッセージ180を同時に表示してもよい。また、推定した非遮光領域内の全体にメッセージ180を拡大表示してもよい。これらの場合では、制御がよりシンプルになり構成が簡便化される。
 また、図6および図8で、第1対応処理(ステップS2)でのメッセージ表示と、第2対応処理(ステップS4)でのメッセージ表示とを行う場合に、上述の表示例1~4のうちの同一の表示例を用いてもよいが、異なる表示例を組み合わせて用いてもよい。第1対応処理でのメッセージ表示と第2対応処理でのメッセージ表示とで異なる表示例の組み合わせを用いる具体例については以下が挙げられる。例えば、第1対応処理では表示例1を適用し、第2対応処理では表示例2を適用してもよい。第2対応処理は、光源105の消灯直前の状態であるので、第1対応処理でのメッセージ表示よりも領域201内のメッセージ180の表示数を多くする。これにより、第2対応処理でユーザに対し障害物に対する対応をより強く促すことができ、より好適である。また、例えば、第1対応処理では表示例1または表示例2を適用し、第2対応処理では表示例3または表示例4を適用してもよい。第2対応処理は、光源105の消灯直前の状態であるので、第1対応処理における位置が固定されたメッセージ表示ではなく、表示位置が移動する注目度を高めたメッセージ表示を用いる。これにより、ユーザに対し障害物に対する対応をより強く促すことができ、より好適である。
 なお、以上の説明では、対応処理の警告処理の際の表示対象物の例をメッセージ、言い換えると文字画像としたが、メッセージに替えて、またはメッセージに加えて、ユーザに対し障害物の取り除きを促す旨のマークや、その旨を説明するためのアニメーションや動画等としてもよい。また勿論、上記表示の際には、特定の音声の出力を併用してもよい。
 [障害物検出モード]
 実施の形態1のプロジェクタ1は、上記障害物センサ120を用いて障害物を検出可能である障害物検出機能を有する。このプロジェクタ1は、この障害物検出機能を有効状態にするモードと、無効状態にするモードとを有し、それらの設定および切り替えが可能である。基本設定では、常時にこの障害物検出機能が有効なモードとされるが、ユーザ設定によって無効のモードに設定することも可能である。
 [効果等]
 上記のように、実施の形態1のプロジェクタ1によれば、出射部の付近の障害物をより好適に検出して問題への対応を行うことができ、ユーザによる装置の使い勝手を向上できる。実施の形態1によれば、障害物をより高精度に検出でき、検出に応じた対応処理によって好適にユーザへの対応の促しを図ることができ、温度上昇等の問題を防止または解消できる。
 なお、投射光学系101の出射部は、本体50から外部へ映像光が出射される部分であり、実施の形態1では、図10のように、投射レンズ3の出射面3aとした。これに限らず、他の実施の形態では、投射光学系101の出射部は、ミラー、またはミラーのカバーガラス等であってもよい。実施の形態1のプロジェクタ1は、超短投射型としたが、これに限らず、他の方式のプロジェクタについても、本発明に係わる障害物検出方式を同様に適用可能である。
 以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は前述の実施の形態に限定されず、要旨を逸脱しない範囲で種々変更可能である。本発明は、前述の要素の数、形状、寸法などの構成に限定されない。本発明は、前述の構成要素について、他の構成要素の追加や、一部の構成要素の削除等の構成も可能である。
 1…プロジェクタ、3…投射レンズ、3a…出射面、10…赤外線センサ、20…遠赤外線センサ、50…本体、51…凹部、51b…凹部、52…凸部、120…障害物センサ、F1…上面、F2…前面、F3…背面、F4…側面、F5…側面、130…表示器、130A…LEDインジケータ、131…スピーカ。

Claims (16)

  1.  光源と、
     前記光源からの光を透過または反射する表示素子と、
     前記表示素子からの光を表示面に対し投射して映像を表示する投射光学系と、
     前記投射光学系の出射部の付近の障害物を検出する障害物センサと、
     前記映像の表示を制御する制御部と、
     を備え、
     前記障害物センサは、赤外線センサと遠赤外線センサとを含み、
     前記制御部は、前記赤外線センサの検出結果と、前記遠赤外線センサの検出結果とに基づいて、前記障害物の検出判断を行う、
     投射型映像表示装置。
  2.  請求項1の投射型映像表示装置において、
     前記制御部は、前記障害物の検出判断の際、前記赤外線センサの検出結果と前記遠赤外線センサの検出結果との少なくともいずれか1つが、前記障害物が検出された状態を表す検出結果であった場合に、総合的に前記障害物を検出したと判断する、
     投射型映像表示装置。
  3.  請求項1の投射型映像表示装置において、
     前記赤外線センサは、赤外線発光部と赤外線受光部とを有するアクティブ型のセンサであり、
     前記遠赤外線センサは、前記赤外線センサの前記赤外線受光部が対応している波長よりも長波長域である遠赤外線域の赤外線を受光する赤外線受光部を有するパッシブ型のセンサである、
     投射型映像表示装置。
  4.  請求項1記載の投射型映像表示装置において、
     前記制御部は、
     前記検出判断の結果、前記障害物が検出されたと判断した場合、
     前記検出判断の結果に応じた第1障害物対応処理の制御として、
     前記光源の輝度を低減する制御、
     前記投射光学系から投射される映像にメッセージを表示する制御、
     前記投射型映像表示装置が有するスピーカから警告音を出力する制御、
     前記投射型映像表示装置が有する表示器によりエラーを通知する制御、および、
     前記投射型映像表示装置からリモコンまたは無線端末にエラーを通知する制御、
     のうち少なくともいずれか1つの制御を行う、
     投射型映像表示装置。
  5.  請求項1記載の投射型映像表示装置において、
     前記制御部は、
     前記検出判断の結果、前記障害物が検出されたと判断した後に、前記障害物が検出された状態が継続しているか否かを判断する第1継続判断を行い、
     前記第1継続判断の結果に応じて第1障害物対応処理を行い、
     前記第1継続判断の結果、前記障害物が検出された状態が継続していると判断した後に、前記障害物が検出された状態が継続しているか否かを判断する第2継続判断を行い、
     前記第2継続判断の結果に応じて第2障害物対応処理を行う、
     投射型映像表示装置。
     
  6.  請求項5記載の投射型映像表示装置において、
     前記第1継続判断は、前記検出判断の結果の前記障害物が検出された状態が、第1期間において継続したか否かを判断するものであり、
     前記第2継続判断は、前記検出判断の結果の前記障害物が検出された状態が、第2期間において継続したか否かを判断するものであり、
     前記第1期間の長さは前記第2期間の長さ以上である、
     投射型映像表示装置。
  7.  請求項6記載の投射型映像表示装置において、
     前記制御部は、
     前記第1継続判断の際、前記第1期間以内において、前記遠赤外線センサが検出する温度が、第1閾値を超えた場合、前記第1期間の経過を待たずとも、前記障害物が検出された状態が継続していると判断し、前記第1障害物対応処理へ移行し、
     前記第2継続判断の際、前記第2期間において、前記障害物センサのうち前記遠赤外線センサが検出する温度が、前記第1閾値よりも大きい第2閾値を超えた場合、前記第2期間の経過を待たずとも、前記障害物が検出された状態が継続していると判断し、前記第2障害物対応処理へ移行する、
     投射型映像表示装置。
  8.  請求項5記載の投射型映像表示装置において、
     前記制御部は、前記第2継続判断の結果に応じた前記第2障害物対応処理の制御として、
     前記投射光学系から投射される映像を黒画面表示映像に切り替える制御、
     前記投射光学系から投射される映像にメッセージを表示する制御、
     前記投射型映像表示装置が有するスピーカから警告音を出力する制御、
     前記投射型映像表示装置が有する表示器によりエラーを通知する制御、および、
     前記投射型映像表示装置からリモコンまたは無線端末に対しエラーを通知する制御、
     のうち少なくともいずれか1つの制御を行う、
     投射型映像表示装置。
  9.  請求項1記載の投射型映像表示装置において、
     前記投射光学系の出射部は、前記投射型映像表示装置の上面に配置されており、
     前記障害物センサは、少なくとも、前記上面における前記出射部の付近に配置されている1個以上の前記赤外線センサおよび1個以上の前記遠赤外線センサを含む、
     投射型映像表示装置。
  10.  請求項9記載の投射型映像表示装置において、
     少なくとも1個の前記赤外線センサの検出範囲の中心軸の方向は、前記投射型映像表示装置の設置面に対し垂直であり、
     少なくとも1個の前記遠赤外線センサの検出範囲の中心軸の方向は、前記投射型映像表示装置の設置面に対し垂直である、
     投射型映像表示装置。
  11.  請求項9記載の投射型映像表示装置において、
     前記赤外線センサは、前記上面において、前記出射部の位置に対し前記表示面に向かって左右の方向で異なる位置に配置されている少なくとも2個の赤外線センサを含む、
     投射型映像表示装置。
  12.  請求項9記載の投射型映像表示装置において、
     前記赤外線センサは、前記出射部の上側に配置されている赤外線センサを含み、
     前記上側に配置されている赤外線センサの検出範囲の中心軸の方向は、前記表示面に向かう方向であって、かつ、水平方向、または水平より下向きの方向である、
     投射型映像表示装置。
  13.  請求項9記載の投射型映像表示装置において、
     前記光源を含む部分を冷却する冷却部を備え、
     前記冷却部によって前記光源を冷却した後の排気の排気方向は、
     前記表示面に対して反対側である前記投射型映像表示装置の背面から、前記表示面に対して反対側へ向かう方向である、または、
     前記表示面に向かって左右の方向のいずれか一方の側面から、前記表示面に向かって左右の方向のいずれか一方への方向である、
     投射型映像表示装置。
  14.  請求項1記載の投射型映像表示装置において、
     前記制御部は、前記障害物の検出判断の結果に基づいて、前記投射光学系から投射される映像に、前記障害物への対応に係わるメッセージまたはマークを表示する制御を行い、
     前記メッセージまたは前記マークは、前記表示面の投射映像の領域において所定の位置に静止した状態で表示される、または、前記領域内で複数の位置に複数のメッセージまたは複数のマークとして同時に表示される、または、前記領域内で複数の位置を移動しながら表示される、
     投射型映像表示装置。
  15.  請求項1記載の投射型映像表示装置において、
     前記障害物センサは、前記赤外線センサとして、複数の位置に配置されている複数の赤外線センサを有し、
     前記制御部は、前記複数の赤外線センサの複数の検出結果に基づいて、前記表示面の投射映像の領域のうち前記障害物によって遮られる領域を推定し、前記障害物の検出判断の結果に基づいて、前記投射光学系から投射される映像に、前記障害物への対応に係わるメッセージまたはマークを表示する制御を行い、
     前記メッセージまたは前記マークは、前記推定の結果に応じて、前記投射映像の領域のうち前記遮られる領域以外の領域に表示される、
     投射型映像表示装置。
  16.  投射型映像表示装置における障害物検出方法であって、
     前記投射型映像表示装置は、
     光源と、
     前記光源からの光を透過または反射する表示素子と、
     前記表示素子からの光を表示面に対し投射して映像を表示する投射光学系と、
     前記投射光学系の出射部の付近の障害物を検出する障害物センサと、
     前記映像の表示を制御する制御部と、
     を備え、
     前記障害物センサは、赤外線センサと遠赤外線センサとを含み、
     前記制御部が、前記赤外線センサの検出結果と、前記遠赤外線センサの検出結果とに基づいて、前記障害物の検出判断を行うステップを有する、
     障害物検出方法。
PCT/JP2020/007157 2019-07-04 2020-02-21 投射型映像表示装置および障害物検出方法 WO2021002048A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-125126 2019-07-04
JP2019125126A JP7248527B2 (ja) 2019-07-04 2019-07-04 投射型映像表示装置および障害物検出方法

Publications (1)

Publication Number Publication Date
WO2021002048A1 true WO2021002048A1 (ja) 2021-01-07

Family

ID=74101258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/007157 WO2021002048A1 (ja) 2019-07-04 2020-02-21 投射型映像表示装置および障害物検出方法

Country Status (2)

Country Link
JP (1) JP7248527B2 (ja)
WO (1) WO2021002048A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113038103A (zh) * 2021-03-22 2021-06-25 青岛海信激光显示股份有限公司 应用于激光显示设备的激光投影主机和激光显示设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060092383A1 (en) * 2004-11-01 2006-05-04 Gregory Vinson System and method for projector external hazard proximity protection
JP2008176195A (ja) * 2007-01-22 2008-07-31 Seiko Epson Corp プロジェクタ
JP2008256367A (ja) * 2007-03-30 2008-10-23 Toyota Central R&D Labs Inc 赤外線撮像素子、障害物検出装置及び方法
JP2013105171A (ja) * 2011-11-17 2013-05-30 Seiko Epson Corp プロジェクター及びその制御方法
JP2015114653A (ja) * 2013-12-16 2015-06-22 株式会社リコー 画像投影装置
WO2015111364A1 (ja) * 2014-01-22 2015-07-30 株式会社リコー 画像投射装置、制御方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060092383A1 (en) * 2004-11-01 2006-05-04 Gregory Vinson System and method for projector external hazard proximity protection
JP2008176195A (ja) * 2007-01-22 2008-07-31 Seiko Epson Corp プロジェクタ
JP2008256367A (ja) * 2007-03-30 2008-10-23 Toyota Central R&D Labs Inc 赤外線撮像素子、障害物検出装置及び方法
JP2013105171A (ja) * 2011-11-17 2013-05-30 Seiko Epson Corp プロジェクター及びその制御方法
JP2015114653A (ja) * 2013-12-16 2015-06-22 株式会社リコー 画像投影装置
WO2015111364A1 (ja) * 2014-01-22 2015-07-30 株式会社リコー 画像投射装置、制御方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113038103A (zh) * 2021-03-22 2021-06-25 青岛海信激光显示股份有限公司 应用于激光显示设备的激光投影主机和激光显示设备

Also Published As

Publication number Publication date
JP7248527B2 (ja) 2023-03-29
JP2021012248A (ja) 2021-02-04

Similar Documents

Publication Publication Date Title
US7515822B2 (en) Imaging systems' direct illumination level adjusting method and system involves adjusting operation of image sensor of imaging system based on detected level of ambient illumination
JP6417690B2 (ja) プロジェクター、表示装置、及び、プロジェクターの制御方法
JP5023587B2 (ja) 画像表示装置及び画像表示方法
US20080129965A1 (en) Projector
JP2012256000A (ja) 投写型映像表示装置
JP4504802B2 (ja) 投射型画像表示装置
JP2011043876A (ja) 画像表示装置
JP2013148802A (ja) プロジェクタ
US20090244497A1 (en) Projection Display Apparatus and Control Method Thereof
WO2021002048A1 (ja) 投射型映像表示装置および障害物検出方法
JP2006330447A (ja) フロントプロジェクタ装置
JP2015088060A (ja) プロジェクタ
KR20100048099A (ko) Dmd를 이용한 사용자 인터페이스 제공방법 및 이를 적용한 dlp 디스플레이 장치
JP2007034318A (ja) 異物センサ回路付きプロジェクタ
JP2006119676A (ja) 異物センサ回路付きプロジェクタ
KR101002072B1 (ko) 펄스 구동 방식의 투영 영상 터치 장치
JP6281313B2 (ja) 画像投射装置
JP2017129767A (ja) 反射体、光出射装置の調整方法、及び検出システム
US11627293B2 (en) Method of controlling projector and projector
US11165996B2 (en) Display system, display device, and control method for display device
JP2015088050A (ja) プロジェクタ装置
JP2016061916A (ja) 投影装置、投影方法及びプログラム
JP5029216B2 (ja) 投影装置、制御方法及びプログラム
JP6167595B2 (ja) プロジェクター
JP2015001553A (ja) プロジェクタ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20834641

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20834641

Country of ref document: EP

Kind code of ref document: A1