JP7248527B2 - Projection type image display device and obstacle detection method - Google Patents

Projection type image display device and obstacle detection method Download PDF

Info

Publication number
JP7248527B2
JP7248527B2 JP2019125126A JP2019125126A JP7248527B2 JP 7248527 B2 JP7248527 B2 JP 7248527B2 JP 2019125126 A JP2019125126 A JP 2019125126A JP 2019125126 A JP2019125126 A JP 2019125126A JP 7248527 B2 JP7248527 B2 JP 7248527B2
Authority
JP
Japan
Prior art keywords
obstacle
display device
type image
infrared sensor
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019125126A
Other languages
Japanese (ja)
Other versions
JP2021012248A (en
Inventor
ルゴ ジン
浩敏 毛見
直幸 鈴木
咲衣子 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2019125126A priority Critical patent/JP7248527B2/en
Priority to PCT/JP2020/007157 priority patent/WO2021002048A1/en
Publication of JP2021012248A publication Critical patent/JP2021012248A/en
Application granted granted Critical
Publication of JP7248527B2 publication Critical patent/JP7248527B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/16Cooling; Preventing overheating
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、投射型映像表示装置(プロジェクタ)等の技術に関し、プロジェクタにおける障害物検出等の技術に関する。 TECHNICAL FIELD The present invention relates to technology for a projection-type image display device (projector) and the like, and to technology such as obstacle detection in a projector.

先行技術例として、特許第6070871号公報(特許文献1)が挙げられる。特許文献1には、プロジェクターにおいて、画像光を遮る障害物を検出する検出部を備える旨が記載されている。 As a prior art example, Japanese Patent No. 6070871 (Patent Document 1) can be cited. Japanese Patent Application Laid-Open No. 2002-200002 describes that a projector includes a detection unit that detects an obstacle that blocks image light.

特許第6070871号公報Japanese Patent No. 6070871

プロジェクタにおける投射光学系の出射部(例えばレンズ)からスクリーンの領域までの間に障害物がある場合が生じ得る。例えば、出射部の付近に用紙等の障害物が置かれている場合があり得る。その場合、出射部からの映像光が障害物によって遮られて、映像光が反射または吸収等されることで、投射光学系の周辺の温度が上昇してしまう等の望ましくない問題が生じ得る。ユーザが障害物に気が付かない場合や、障害物を取り除く等の対応を行わない場合、このような問題が放置されてしまう。 There may be an obstacle between the output part (for example, lens) of the projection optical system in the projector and the area of the screen. For example, an obstacle such as paper may be placed near the exit section. In that case, the image light from the output section is blocked by the obstacle, and the image light is reflected or absorbed, which may cause an undesirable problem such as an increase in the temperature around the projection optical system. If the user does not notice the obstacle or does not take measures such as removing the obstacle, such a problem will be left unsolved.

従来技術例の障害物検出方式としては、赤外線センサ等のセンサを用いて、障害物を検出する方式がある。 As a prior art example of an obstacle detection method, there is a method of detecting an obstacle using a sensor such as an infrared sensor.

本発明の目的は、投射型映像表示装置等の技術に関して、障害物をより好適に検出して問題への対応を行うことができ、ユーザによる装置の使い勝手を向上できる技術を提供することである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a technology for a projection-type image display device or the like, which is capable of more appropriately detecting obstacles and dealing with problems, thereby improving usability of the device for the user. .

本発明のうち代表的な実施の形態は、以下に示す構成を有する。一実施の形態の投射型映像表示装置は、光源と、前記光源からの光を透過または反射する表示素子と、前記表示素子からの光を表示面に対し投射して映像を表示する投射光学系と、前記投射光学系の出射部の付近の障害物を検出する障害物センサと、前記映像の表示を制御する制御部と、を備え、前記障害物センサは、赤外線センサと遠赤外線センサとを含み、前記制御部は、前記赤外線センサの検出結果と、前記遠赤外線センサの検出結果とに基づいて、前記障害物の検出判断を行う。 A representative embodiment of the present invention has the following configuration. A projection-type image display apparatus according to one embodiment includes a light source, a display element that transmits or reflects light from the light source, and a projection optical system that projects the light from the display element onto a display surface to display an image. an obstacle sensor for detecting an obstacle near the output portion of the projection optical system; and a controller for controlling display of the image, wherein the obstacle sensor includes an infrared sensor and a far infrared sensor. Including, the control unit makes detection determination of the obstacle based on the detection result of the infrared sensor and the detection result of the far infrared sensor.

本発明のうち代表的な実施の形態によれば、投射型映像表示装置等の技術に関して、障害物をより好適に検出して問題への対応を行うことができ、ユーザによる装置の使い勝手を向上できる。 According to the representative embodiments of the present invention, obstacles can be more suitably detected and problems can be dealt with in the technology of the projection type image display device, and the user's usability of the device can be improved. can.

本発明の実施の形態1の投射型映像表示装置の構成例を示す図である。1 is a diagram showing a configuration example of a projection-type image display device according to Embodiment 1 of the present invention; FIG. 実施の形態1で、障害物センサおよび制御部の構成例を示す図である。4 is a diagram showing a configuration example of an obstacle sensor and a control unit in the first embodiment; FIG. 実施の形態1で、赤外線センサの特性を示す図である。1 is a diagram showing characteristics of an infrared sensor in Embodiment 1. FIG. 実施の形態1で、遠赤外線センサの特性を示す図である。1 is a diagram showing characteristics of a far-infrared sensor in Embodiment 1. FIG. 実施の形態1で、赤外線の特性を示す図である。FIG. 2 is a diagram showing infrared characteristics in Embodiment 1; 実施の形態1で、障害物検出機能に関する処理フローを示す図である。4 is a diagram showing a processing flow regarding an obstacle detection function in Embodiment 1. FIG. 実施の形態1で、障害物検出判断を示す図である。4 is a diagram showing obstacle detection determination in the first embodiment; FIG. 実施の形態1で、対応処理の組み合わせ例を示す図である。FIG. 4 is a diagram showing an example of a combination of handling processes in Embodiment 1; 実施の形態1で、検出継続判断の例を示す図である。4 is a diagram showing an example of detection continuation determination in Embodiment 1. FIG. 実施の形態1で、障害物センサの配置例1を示す斜視図である。FIG. 3 is a perspective view showing an example 1 of arrangement of obstacle sensors in the first embodiment; 実施の形態1で、配置例1に関する側面から見た構成図である。FIG. 2 is a configuration diagram of arrangement example 1 viewed from the side in embodiment 1; 実施の形態1で、配置例1に関するスクリーン正面から見た図である。FIG. 10 is a front view of the screen regarding arrangement example 1 in the first embodiment; 実施の形態1で、障害物センサの配置例2を示す斜視図である。FIG. 7 is a perspective view showing an example 2 of arrangement of obstacle sensors in the first embodiment; 実施の形態1で、配置例2に関する側面から見た構成図である。FIG. 10 is a configuration diagram of the arrangement example 2 viewed from the side in the first embodiment; 実施の形態1で、配置例2に関するスクリーン正面から見た図である。FIG. 10 is a diagram of the arrangement example 2 of the first embodiment as viewed from the front of the screen; 実施の形態1で、排気の例を示す図である。4 is a diagram showing an example of exhaust in Embodiment 1. FIG. 実施の形態1で、排気方向について示す図である。FIG. 4 is a diagram showing an exhaust direction in Embodiment 1; 実施の形態1で、メッセージの表示例1を示す図である。FIG. 10 is a diagram showing a display example 1 of a message in Embodiment 1; 実施の形態1で、メッセージの表示例2を示す図である。FIG. 10 is a diagram showing a display example 2 of a message in Embodiment 1; 実施の形態1で、メッセージの表示例3を示す図である。FIG. 10 is a diagram showing a third display example of a message in Embodiment 1; 実施の形態1で、メッセージの表示例4を示す図である。FIG. 10 is a diagram showing a display example 4 of a message in Embodiment 1;

以下、本発明の実施の形態を図面に基づいて詳細に説明する。全図面において同一部には原則として同一符号を付し、繰り返しの説明は省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In principle, the same reference numerals are given to the same parts in all the drawings, and repeated explanations are omitted.

(実施の形態1)
図1~図21を用いて、本発明の実施の形態1の投射型映像表示装置について説明する。
(Embodiment 1)
A projection type image display device according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 21. FIG.

[投射型映像表示装置(プロジェクタ)]
図1は、実施の形態1の投射型映像表示装置の構成例として機能ブロック構成を示す。実施の形態1の投射型映像表示装置であるプロジェクタ1は、投射光学系101、表示素子102、表示素子駆動部103、照明光学系104、光源105、電源106、操作入力部107、不揮発性メモリ108、メモリ109、制御部110、および障害物センサ120を備える。さらに、プロジェクタ1は、冷却部115、表示器130、スピーカ131、画像調整部132、ストレージ部133、通信部134、姿勢センサ135、カメラ136、映像信号入力部141、音声信号入力部142、映像信号出力部143、音声信号出力部144等を備える。これらの構成要素は、バス等を通じて相互に接続されている。
[Projection type image display device (projector)]
FIG. 1 shows a functional block configuration as a configuration example of a projection type image display device according to Embodiment 1. As shown in FIG. Projector 1, which is a projection type image display apparatus according to Embodiment 1, includes projection optical system 101, display element 102, display element driving section 103, illumination optical system 104, light source 105, power supply 106, operation input section 107, nonvolatile memory. 108 , memory 109 , control unit 110 and obstacle sensor 120 . Further, the projector 1 includes a cooling unit 115, a display unit 130, a speaker 131, an image adjustment unit 132, a storage unit 133, a communication unit 134, an orientation sensor 135, a camera 136, a video signal input unit 141, an audio signal input unit 142, a video A signal output unit 143, an audio signal output unit 144, and the like are provided. These components are interconnected through a bus or the like.

光源105は、映像投射用の光を発生し、高圧水銀ランプ、キセノンランプ、LED光源、レーザー光源またはこれらの組み合わせ等を用いて構成される。電源106は、外部電源に接続され、外部電源から入力されるAC電流をDC電流に変換し、光源105等の各部に必要な電力を供給する。照明光学系104は、光源105からの光を集光し、より均一化して、表示素子102に照射する。 A light source 105 generates light for image projection, and is configured using a high-pressure mercury lamp, a xenon lamp, an LED light source, a laser light source, or a combination thereof. The power supply 106 is connected to an external power supply, converts AC current input from the external power supply into DC current, and supplies necessary power to each part such as the light source 105 . The illumination optical system 104 collects the light from the light source 105 , makes it more uniform, and irradiates the display element 102 with the light.

表示素子駆動部103は、参照する映像信号に応じて生成した駆動信号を表示素子102に送る。表示素子駆動部103が参照する映像信号は、制御部110が生成した映像信号でもよいし、映像信号入力部141を介して外部から入力される入力映像信号でもよい。また、この映像信号は、入力映像信号に対し画像調整部132によって画像調整を行った後の映像信号でもよい。また、それらの映像信号に対し、OSD(オン・スクリーン・ディスプレイ)画像信号を重畳した信号を、参照する映像信号としてもよい。OSD画像信号は、不揮発性メモリ108やストレージ部133に格納されている画像等のデータを用いて、制御部110が生成する。 The display element driving section 103 sends a driving signal generated according to the video signal to be referred to to the display element 102 . The video signal referred to by the display element driving section 103 may be a video signal generated by the control section 110 or may be an input video signal input from the outside via the video signal input section 141 . Further, this video signal may be a video signal after image adjustment is performed by the image adjustment unit 132 on the input video signal. Also, a signal obtained by superimposing an OSD (on-screen display) image signal on these video signals may be used as a reference video signal. The OSD image signal is generated by control unit 110 using data such as images stored in nonvolatile memory 108 and storage unit 133 .

表示素子102は、照明光学系104からの光を透過または反射し、その際に光を変調して映像を生成する素子であり、例えば、透過型液晶パネル、反射型液晶パネル、またはDMD(Digital Micromirror Device:登録商標)パネル等を用いて構成される。表示素子102は、表示素子駆動部103からの駆動信号に応じて、光を変調して映像を生成する。 The display element 102 is an element that transmits or reflects light from the illumination optical system 104 and modulates the light at that time to generate an image. Micromirror Device (registered trademark) panels and the like are used. The display element 102 modulates light according to a driving signal from the display element driving section 103 to generate an image.

投射光学系101は、表示素子102で生成した映像を、表示面200へ拡大して投射する拡大投射光学系であり、レンズとミラーの少なくとも一方を含む。表示面200は、言い換えると、スクリーン、映像投射面等である。投射光学系101からの映像光は、表示面200のうちの一部の領域201に投射され、表示映像となる。 The projection optical system 101 is an enlarged projection optical system that enlarges and projects an image generated by the display element 102 onto the display surface 200, and includes at least one of a lens and a mirror. The display surface 200 is, in other words, a screen, an image projection surface, or the like. The image light from the projection optical system 101 is projected onto a partial area 201 of the display surface 200 and becomes a display image.

冷却部115は、光源105、電源106、または表示素子102等の、高温状態になり得る各部位を、空冷方式や液冷方式で必要に応じて冷却する部分であり、例えば排気ファン等を含む。 The cooling part 115 is a part that cools each part that can be in a high temperature state, such as the light source 105, the power supply 106, or the display element 102, by an air cooling method or a liquid cooling method as necessary, and includes, for example, an exhaust fan. .

制御部110は、プロジェクタ1の全体および各部を制御するプロセッサまたはコントローラに相当する。制御部110は、例えばCPU等を含み、ソフトウェアプログラム処理によって機能を実現する。メモリ109は、映像データや制御情報等の、制御部110が扱う各種のデータや情報を記憶する。不揮発性メモリ108は、プロジェクタ機能で用いる各種のデータや情報を長期的に保持する。メモリ109等には、グラフィカル・ユーザ・インタフェース(GUI)等の生成用の画像データが記憶されてもよい。 Control unit 110 corresponds to a processor or controller that controls the entire projector 1 and each unit. The control unit 110 includes, for example, a CPU, etc., and implements functions by software program processing. The memory 109 stores various data and information handled by the control unit 110, such as video data and control information. The nonvolatile memory 108 retains various data and information used in the projector function for a long period of time. The memory 109 or the like may store image data for generating a graphical user interface (GUI) or the like.

操作入力部107は、操作ボタンまたは操作パネルや、リモコン受光部を含み、ユーザの操作を入力する部分である。リモコン受光部は、付属デバイスであるリモコンからの信号を入力する。リモコンからリモコン受光部への信号は例えば赤外線で伝送される。 The operation input unit 107 includes operation buttons or an operation panel and a remote control light receiving unit, and is a portion for inputting user's operations. The remote control light-receiving unit receives a signal from a remote control, which is an attached device. Signals from the remote controller to the remote controller light receiving section are transmitted by, for example, infrared rays.

表示器130は、ユーザに対するインタフェースとして情報を表示する部分であり、例えばサブモニタやLEDインジケータを含む。サブモニタは、液晶ディスプレイ等で構成され、文字等の情報を表示する。LEDインジケータは、複数のLEDを含み、LED毎に状態(例えば電源オン/オフ)が対応付けられ、点灯や消灯や点滅等によって状態が表現される。なお、LEDインジケータの一部のLEDが、障害物検出状態を表すLEDとして規定されてもよい。 The display 130 is a part that displays information as an interface for the user, and includes, for example, a sub-monitor and an LED indicator. The sub-monitor is composed of a liquid crystal display or the like, and displays information such as characters. The LED indicator includes a plurality of LEDs, each LED is associated with a state (for example, power on/off), and the state is expressed by lighting, extinguishing, blinking, or the like. Note that some LEDs of the LED indicator may be defined as LEDs representing the obstacle detection state.

スピーカ131は、音声出力装置であり、例えば内蔵の操作音や警告音を出力し、また、音声信号入力部142に入力された音声データに基づいて音声出力ができる。 The speaker 131 is an audio output device, and outputs, for example, built-in operation sounds and warning sounds, and can output audio based on audio data input to the audio signal input unit 142 .

画像調整部132は、例えば映像信号入力部141を通じて入力された映像データに対し画像処理を行う部分である。この画像処理としては、例えば、スケーリング処理、ブライト調整処理、コントラスト調整処理、ガンマ調整処理、レティネックス処理等がある。スケーリング処理は、画像の拡大、縮小、変形等の処理である。ブライト調整処理は、輝度を変更する処理である。コントラスト調整処理は、画像のコントラストカーブを変更する処理である。ガンマ調整処理は、画像の階調特性を示すガンマカーブを変更する処理である。レティネックス処理は、画像を光の成分に分解して成分毎の重み付けを変更する処理である。 The image adjustment unit 132 is a part that performs image processing on video data input through the video signal input unit 141, for example. This image processing includes, for example, scaling processing, brightness adjustment processing, contrast adjustment processing, gamma adjustment processing, and Retinex processing. Scaling processing is processing such as enlargement, reduction, and deformation of an image. Brightness adjustment processing is processing for changing luminance. Contrast adjustment processing is processing for changing the contrast curve of an image. Gamma adjustment processing is processing for changing a gamma curve that indicates the gradation characteristics of an image. Retinex processing is processing that decomposes an image into light components and changes weighting for each component.

ストレージ部133は、映像、画像、音声等の各種のデータを記録する。例えば、ストレージ部133には、予め製品出荷時に、それらの各種のデータを記録しておいてもよい。また、ストレージ部133には、通信部134を介して外部から取得したそれらの各種のデータを記録してもよい。ストレージ部170に記録されている各種のデータは、表示素子102および投射光学系101等を通じて投射映像として出力できる。音声データは、スピーカ131から音声出力できる。 The storage unit 133 records various data such as videos, images, and sounds. For example, such various data may be recorded in the storage unit 133 in advance at the time of product shipment. Further, in the storage unit 133, such various data acquired from the outside through the communication unit 134 may be recorded. Various data recorded in the storage unit 170 can be output as projection images through the display element 102, the projection optical system 101, and the like. The audio data can be output as audio from the speaker 131 .

通信部134は、有線または無線の通信インタフェースを介して、外部機器、ネットワーク、またはサーバ等と通信し、制御情報やコンテンツ等の各種のデータを授受する部分である。 The communication unit 134 communicates with an external device, a network, a server, or the like via a wired or wireless communication interface, and exchanges various data such as control information and contents.

姿勢センサ135は、プロジェクタ1の設置における姿勢の状態を検出するセンサであり、重力センサまたはジャイロセンサ等により構成される。制御部110は、姿勢センサ135で検出した姿勢の状態に関する情報を用いて、制御を行ってもよい。例えば、制御部110は、姿勢の状態に応じて、表示素子102に表示する映像の方向を回転することで、表示映像が姿勢の状態に合わせた違和感の無い方向となるようにしてもよい。また、制御部110は、姿勢の状態に適するように、冷却部115による冷却の局所的な強度や、冷却エラー検知用の閾値の変更等を制御してもよい。また、制御部110は、姿勢の状態に応じて、障害物検出機能に関する制御、例えば機能のオン/オフの切り替え制御を行ってもよい。 The orientation sensor 135 is a sensor that detects the state of the orientation when the projector 1 is installed, and is configured by a gravity sensor, a gyro sensor, or the like. The control unit 110 may perform control using information regarding the posture state detected by the posture sensor 135 . For example, the control unit 110 may rotate the direction of the image displayed on the display element 102 according to the posture state so that the displayed image is in a direction that does not cause discomfort according to the posture state. In addition, the control unit 110 may control the local strength of cooling by the cooling unit 115, the change of the threshold value for cooling error detection, and the like so as to be suitable for the posture state. Further, the control unit 110 may perform control related to the obstacle detection function, for example, control of switching between on and off of the function, according to the posture state.

カメラ136は、可視光カメラで構成されてもよい。この場合、その可視光カメラは、プロジェクタ1または表示面200の周辺の映像を撮像して記録または外部出力するために用いられる。制御部110は、カメラ136の画像を用いて制御を行ってもよい。カメラ136は、赤外線カメラで構成されてもよい。この場合、その赤外線カメラは、赤外線を発光または反射するポインター装置を用いて示される表示面200上のポインティング位置を検出してもよい。また、カメラ136を用いて表示面200の前に立つ人物等を検出し、投射映像の光出力を下げる等の防眩制御等に用いる形態も可能である。 Camera 136 may comprise a visible light camera. In this case, the visible light camera is used to capture an image around the projector 1 or the display surface 200 and record or output it to the outside. The control unit 110 may perform control using the image of the camera 136 . Camera 136 may comprise an infrared camera. In this case, the infrared camera may detect a pointing position on display surface 200 indicated using a pointing device that emits or reflects infrared light. In addition, it is also possible to detect a person or the like standing in front of the display surface 200 using the camera 136 and use it for anti-glare control such as reducing the light output of the projected image.

映像信号入力部141は、有線または無線のインタフェースを介して、外部から映像信号を入力する。音声信号入力部142は、有線または無線のインタフェースを介して、外部から音声信号を入力する。映像信号出力部143は、有線または無線のインタフェースを介して、外部へ映像信号を出力する。映像信号出力部143は、映像信号入力部141を介して第1の外部機器から入力された映像信号をそのまま第2の外部機器へ出力する機能を有してもよい。映像信号出力部143は、ストレージ部133に記録されている映像データに基づいた映像信号や、カメラ136で撮像した映像に基づいた映像信号を、外部に出力する機能を有してもよい。 The video signal input unit 141 inputs a video signal from the outside via a wired or wireless interface. Audio signal input unit 142 inputs an audio signal from the outside via a wired or wireless interface. The video signal output unit 143 outputs video signals to the outside via a wired or wireless interface. The video signal output unit 143 may have a function of outputting the video signal input from the first external device via the video signal input unit 141 to the second external device as it is. The video signal output unit 143 may have a function of outputting a video signal based on the video data recorded in the storage unit 133 or a video signal based on the video captured by the camera 136 to the outside.

音声信号出力部144は、有線または無線のインタフェースを介して、外部へ音声信号を出力する。音声信号出力部144は、音声信号入力部142を介して第1の外部機器から入力された音声信号をそのまま第2の外部機器へ出力する機能を有してもよい。音声信号出力部144は、ストレージ部133に記録されている音声データに基づいた音声信号等を外部に出力する機能を有してもよい。映像信号入力部141と音声信号入力部142は、一体型の信号入力インタフェースとして構成されてもよい。映像信号出力部143と音声信号出力部144は、一体型の信号出力インタフェースとして構成されてもよい。映像信号入力部141、音声信号入力部142、映像信号出力部143、および音声信号出力部144が、一体型の信号入出力インタフェースとして構成されてもよい。これらの一体型インタフェースは、制御信号を双方向に通信する通信機能を有してもよい。この通信機能は、通信部134とは別に設けられてもよい。以上例示したように、プロジェクタ1には様々な機能を搭載可能である。 The audio signal output unit 144 outputs audio signals to the outside via a wired or wireless interface. The audio signal output unit 144 may have a function of outputting the audio signal input from the first external device via the audio signal input unit 142 to the second external device as it is. The audio signal output unit 144 may have a function of outputting an audio signal or the like based on the audio data recorded in the storage unit 133 to the outside. The video signal input section 141 and the audio signal input section 142 may be configured as an integrated signal input interface. The video signal output section 143 and the audio signal output section 144 may be configured as an integrated signal output interface. The video signal input section 141, the audio signal input section 142, the video signal output section 143, and the audio signal output section 144 may be configured as an integrated signal input/output interface. These integrated interfaces may have communication capabilities to communicate control signals bi-directionally. This communication function may be provided separately from the communication unit 134 . As illustrated above, the projector 1 can be equipped with various functions.

障害物センサ120は、投射光学系101の付近に配置されている。障害物センサ120は、投射光学系101の付近における映像光が通る領域を含む領域にある障害物を検出するセンサである。具体的には、実施の形態1では、障害物センサ120は、赤外線センサと遠赤外線センサとの両方を備える。プロジェクタ1の制御部110は、赤外線センサの検出結果と遠赤外線センサの検出結果とを組み合わせて、障害物の検出判断を行う。障害物センサ120は、赤外線センサと遠赤外線センサとが一体にされた障害物センサとして構成されてもよい。障害物センサ120は、赤外線センサと遠赤外線センサとが別体とされた複数の障害物センサとして構成されてもよい。障害物センサ120の詳細については後述する。 The obstacle sensor 120 is arranged near the projection optical system 101 . The obstacle sensor 120 is a sensor that detects an obstacle in an area near the projection optical system 101 including an area through which image light passes. Specifically, in Embodiment 1, obstacle sensor 120 includes both an infrared sensor and a far-infrared sensor. The controller 110 of the projector 1 combines the detection result of the infrared sensor and the detection result of the far-infrared sensor to determine whether or not an obstacle is detected. Obstacle sensor 120 may be configured as an obstacle sensor in which an infrared sensor and a far-infrared sensor are integrated. The obstacle sensor 120 may be configured as a plurality of obstacle sensors in which infrared sensors and far-infrared sensors are separated. Details of the obstacle sensor 120 will be described later.

[障害物センサおよび制御部]
図2は、障害物センサ120および制御部110の構成例を示す。障害物センサ120は、赤外線センサ10と遠赤外線センサ20を含む。障害物センサ120は、他に、センサを駆動する回路や、センサ信号を処理する回路等を含んでもよい。赤外線センサ10は、近赤外線を主な検出波長域とするセンサである。遠赤外線センサ20は、遠赤外線を主な検出波長域とするセンサである。赤外線センサ10は、赤外線発光部と赤外線検出部とを含むアクティブ型のセンサである。遠赤外線センサ20は、赤外線検出部を含むパッシブ型のセンサである。
[Obstacle sensor and controller]
FIG. 2 shows a configuration example of the obstacle sensor 120 and the control unit 110. As shown in FIG. Obstacle sensor 120 includes infrared sensor 10 and far infrared sensor 20 . The obstacle sensor 120 may also include a circuit for driving the sensor, a circuit for processing the sensor signal, and the like. The infrared sensor 10 is a sensor whose main detection wavelength range is near-infrared rays. The far-infrared sensor 20 is a sensor whose main detection wavelength range is far-infrared rays. The infrared sensor 10 is an active sensor including an infrared light emitter and an infrared detector. The far-infrared sensor 20 is a passive sensor including an infrared detector.

赤外線センサ10は、第1信号として、赤外線センサ信号A1を出力する。赤外線センサ信号A1は、例えば検出した赤外線の量に対応する電圧を表す信号である。遠赤外線センサ20は、第2信号として、遠赤外線センサ信号A2を出力する。遠赤外線センサ信号A2は、例えば検出した温度を表す信号である。 The infrared sensor 10 outputs an infrared sensor signal A1 as the first signal. The infrared sensor signal A1 is, for example, a signal representing a voltage corresponding to the amount of infrared rays detected. The far-infrared sensor 20 outputs a far-infrared sensor signal A2 as the second signal. The far-infrared sensor signal A2 is, for example, a signal representing the detected temperature.

制御部110は、前述の各部を制御する処理の他、障害物検出機能に係わる処理も行う。なお、制御部110とは別に、障害物検出機能に係わる処理を行う制御部が設けられてもよい。 The control unit 110 performs processing related to an obstacle detection function in addition to the processing for controlling each unit described above. Note that a control unit that performs processing related to the obstacle detection function may be provided separately from the control unit 110 .

制御部110は、赤外線センサ10からの赤外線センサ信号A1を入力して検出処理を行い、処理後の信号を得る。この検出処理は、例えば、赤外線センサ信号A1の電圧に基づいて、障害物の有無を判断する処理である。制御部110は、遠赤外線センサ20からの遠赤外線センサ信号A2を入力して検出処理を行い、処理後の信号を得る。この検出処理は、例えば、遠赤外線センサ信号A2の温度に基づいて、障害物の有無を判断する処理である。なお、このような検出処理を行う処理部が障害物センサ120内に実装されていてもよい。 The control unit 110 receives the infrared sensor signal A1 from the infrared sensor 10, performs detection processing, and obtains a processed signal. This detection process is, for example, a process of determining the presence or absence of an obstacle based on the voltage of the infrared sensor signal A1. The control unit 110 receives the far-infrared sensor signal A2 from the far-infrared sensor 20, performs detection processing, and obtains a processed signal. This detection process is, for example, a process of determining the presence or absence of an obstacle based on the temperature of the far-infrared sensor signal A2. Note that a processing unit that performs such detection processing may be mounted in the obstacle sensor 120 .

制御部110は、上記検出処理後の各信号の両方を考慮して、総合的に障害物検出判断を行い、検出判断結果の信号を得る。この信号は、障害物の検出の有無を表す信号であり、障害物が検出された状態、または障害物が検出されない状態、を表す信号である。 The control unit 110 considers both of the signals after the above-described detection processing, makes an obstacle detection judgment comprehensively, and obtains a detection judgment result signal. This signal is a signal indicating whether or not an obstacle is detected, and is a signal indicating a state in which an obstacle is detected or a state in which an obstacle is not detected.

制御部110は、障害物検出判断の結果、すなわち上記信号の内容に応じて、第1対応処理を行う。対応処理は、障害物に関する対応に係わる処理であり、ユーザへ障害物の存在を警告する、障害物の取り除き等の対応を促す等の処理である。実施の形態1では、対応処理は、第1対応処理と第2対応処理との2段階の対応処理がある。制御部110は、第1対応処理の内容に応じて、図1の各部、例えばスピーカ131からの音声出力等の動作を制御する。 The control unit 110 performs the first handling process according to the result of obstacle detection determination, that is, the content of the signal. The handling process is a process related to handling an obstacle, such as warning the user of the presence of the obstacle and prompting the user to take action such as removing the obstacle. In the first embodiment, there are two stages of correspondence processing, that is, first correspondence processing and second correspondence processing. The control unit 110 controls operations such as sound output from each unit in FIG.

制御部110は、上記障害物検出判断の結果に関して、特に障害物が検出された状態が、継続しているか否かを判断する。制御部110は、検出継続判断結果の信号を得る。 Control unit 110 determines whether or not a state in which an obstacle has been detected continues in relation to the result of the obstacle detection determination. Control unit 110 obtains a detection continuation determination result signal.

制御部110は、上記障害物検出継続判断結果の信号の内容に応じて、第2対応処理を行う。第2対応処理は、1回目の第1対応処理に対する2回目の対応処理、または、第1対応処理に対し種類が異なる対応処理である。 The control unit 110 performs the second handling process according to the content of the signal indicating the obstacle detection continuation determination result. The second response process is a second response process for the first first response process, or a response process different in type from the first response process.

[赤外線センサの特性]
赤外線センサは、赤外線の反射光に基づいて物体を検出する。赤外線センサは、自ら赤外線を発して反射光を検出するアクティブ型と、他の機器や他の赤外線発光部から出射した赤外線の反射光を検出するパッシブ型とがある。実施の形態1では、赤外線センサ10は、特に断りが無い限り、アクティブ型を用い、遠赤外線センサ20は、特に断りが無い限り、パッシブ型を用いる。赤外線センサ10は、赤外線発光部と赤外線受光部とを有するアクティブ型のセンサである。遠赤外線センサ20は、赤外線センサ10の赤外線受光部が対応している波長よりも長波長域である遠赤外線域の赤外線を受光する赤外線受光部を有するパッシブ型のセンサである。
[Characteristics of infrared sensor]
An infrared sensor detects an object based on reflected infrared light. There are two types of infrared sensors: an active type that emits infrared rays by itself and detects reflected light, and a passive type that detects reflected infrared rays emitted from other devices or other infrared emitting units. In Embodiment 1, the infrared sensor 10 is of an active type unless otherwise specified, and the far infrared sensor 20 is of a passive type unless otherwise specified. The infrared sensor 10 is an active sensor having an infrared light emitting portion and an infrared light receiving portion. The far-infrared sensor 20 is a passive sensor having an infrared light receiving portion that receives infrared rays in a far-infrared region, which is a longer wavelength region than the infrared light receiving portion of the infrared sensor 10 corresponds to.

図3は、赤外線センサに関する特性として、赤外線センサによる物体検出範囲の一例を示す。(A)のグラフは、特に、赤外線センサ10による白色/黒色の障害物の検出特性の相違について説明するためのものである。(A)のグラフは、横軸が水平相対検出距離、縦軸が垂直相対検出距離を示す。白丸点は、障害物が(B)のように白色物体である場合の検出範囲を示す。黒丸点は、障害物が(C)のように黒色物体である場合の検出範囲を示す。(A)のグラフでは、縦軸の距離および横軸の距離は、それぞれ白い物体の検出範囲の最も遠い距離を1として正規化されている。なお、ここでは、水平および垂直とは、プロジェクタ1の投射光学系101から表示面200への方向を垂直とし、表示面200に対してプロジェクタ1の本体の左右の方向を水平としている。 FIG. 3 shows an example of an object detection range of an infrared sensor as a characteristic of the infrared sensor. Graph (A) is particularly for explaining the difference in detection characteristics of white/black obstacles by the infrared sensor 10 . In the graph of (A), the horizontal axis indicates the horizontal relative detection distance, and the vertical axis indicates the vertical relative detection distance. A white dot indicates the detection range when the obstacle is a white object as shown in (B). The black dot indicates the detection range when the obstacle is a black object as shown in (C). In the graph of (A), the distance on the vertical axis and the distance on the horizontal axis are each normalized with the furthest distance in the white object detection range being 1. Here, horizontal and vertical means that the direction from the projection optical system 101 of the projector 1 to the display surface 200 is vertical, and the left and right directions of the main body of the projector 1 with respect to the display surface 200 are horizontal.

赤外線センサによる物体検出では、(B)のような白色物体と、(C)のような黒色物体とでは、検出可能距離が異なる。これは、白色物体と黒色物体とにおいて、光の反射率および吸収率が異なるためである。(B)の例は、白色物体に照射された赤外線について、全体量を100とすると、吸収が10、反射が90となることを示す。(C)の例は、黒色物体に照射された赤外線について、全体量を100とすると、吸収が90、反射が10となることを示す。このように、赤外線センサは、(C)のような黒色物体の場合には、赤外線が反射されにくく、検出範囲は、(B)のような白色物体の場合の検出範囲に比べて、狭くなってしまう。そのため、従来技術例として、赤外線センサのみを用いて障害物を検出しようとする構成の場合、障害物の位置によっては、白色物体に比べて黒色物体の検出精度が低くなる。 In object detection by an infrared sensor, the detectable distance differs between a white object such as (B) and a black object such as (C). This is because a white object and a black object have different light reflectances and absorbances. The example of (B) shows that the absorption is 10 and the reflection is 90 when the total amount of infrared rays irradiated to a white object is 100. The example of (C) shows that if the total amount of infrared rays irradiated to a black object is 100, the absorption is 90 and the reflection is 10. In this way, the infrared sensor is less likely to reflect infrared rays in the case of a black object such as (C), and the detection range is narrower than the detection range in the case of a white object such as (B). end up For this reason, in the case of a configuration in which an obstacle is detected using only an infrared sensor as an example of conventional technology, the detection accuracy of a black object is lower than that of a white object, depending on the position of the obstacle.

上記のように、赤外線センサは、検出特性に基づいて、障害物として白色物体を検出することには適している。しかし、赤外線センサは、より輝度が低い黒色物体については検出しにくい。そこで、実施の形態1では、障害物センサ120として、赤外線センサ10に加え、遠赤外線センサ20を組み合わせて用いる。遠赤外線センサは、検出特性に基づいて、白色物体よりも黒白物体について検出しやすい。 As described above, infrared sensors are suitable for detecting white objects as obstacles based on their detection characteristics. However, infrared sensors have difficulty detecting black objects that are less bright. Therefore, in Embodiment 1, the far-infrared sensor 20 is used in combination with the infrared sensor 10 as the obstacle sensor 120 . Far-infrared sensors are more likely to detect black-and-white objects than white objects based on their detection characteristics.

[遠赤外線センサの特性]
図4は、遠赤外線センサに関する特性を示す。(A)のグラフは、遠赤外線センサによる物体検出範囲の一例を示す。このグラフは、遠赤外線センサの白色物体の検出範囲と黒色物体の検出範囲との特性の相違を説明するためのものであり、図3と同様に正規化されている。遠赤外線センサによる物体検出では、(B)のような白色物体に比べて、(C)のような黒色物体の方が、検出可能距離が大きい。これは、白色物体と黒色物体とにおいて、光の放射率および吸収率が異なるためである。(B)の例は、全体量を100とすると、白色物体から放射される遠赤外線についての放射が10となることを示す。(C)の例は、黒色物体から放射される遠赤外線についての放射が90となることを示す。このように、(C)のような黒色物体の場合には、遠赤外線の放射が大きく、検出範囲は、(B)のような白色物体の場合の検出範囲に比べて、広くなる。実施の形態1では、赤外線センサ10と遠赤外線センサ20とを組み合わせて用いることで、障害物の検出範囲を総合的に広くでき、黒色物体の検出精度も高めることができる。
[Characteristics of far-infrared sensor]
FIG. 4 shows the characteristics for the far infrared sensor. Graph (A) shows an example of an object detection range by a far infrared sensor. This graph is for explaining the difference in characteristics between the detection range of a white object and the detection range of a black object of the far-infrared sensor, and is normalized in the same manner as in FIG. In object detection by a far-infrared sensor, a black object such as (C) has a longer detectable distance than a white object such as (B). This is because a white object and a black object have different light emissivity and absorptance. The example of (B) shows that, if the total amount is 100, the far-infrared radiation emitted from the white object is 10. The example of (C) indicates that the far-infrared radiation emitted from the black object is 90 degrees. Thus, in the case of a black object such as (C), far-infrared radiation is large, and the detection range is wider than the detection range in the case of a white object such as (B). In Embodiment 1, by using the infrared sensor 10 and the far-infrared sensor 20 in combination, the obstacle detection range can be broadened comprehensively, and the black object detection accuracy can also be improved.

[赤外線の特性]
図5は、赤外線に関する特性の説明図を示す。図5では、概略的に、紫外線、可視光線、近赤外線、中赤外線、および遠赤外線の波長域を示す。近赤外線は、0.78μm~2.5μm程度の波長域を持つ。遠赤外線は、4.0μm~1mm程度の波長域を持つ。赤外線センサは、主に近赤外線の波長域を検出できるセンサである。遠赤外線センサは、主に遠赤外線の波長域を検出できるセンサである。実施の形態1における赤外線センサ10および遠赤外線センサ20は、そのようなセンサを適用する。
[Characteristics of infrared rays]
FIG. 5 shows an explanatory diagram of characteristics related to infrared rays. FIG. 5 schematically shows the wavelength regions of ultraviolet, visible, near-infrared, middle-infrared, and far-infrared rays. Near-infrared rays have a wavelength range of approximately 0.78 μm to 2.5 μm. Far infrared rays have a wavelength range of about 4.0 μm to 1 mm. An infrared sensor is a sensor that can mainly detect near-infrared wavelengths. A far-infrared sensor is a sensor that can mainly detect the wavelength region of far-infrared rays. Infrared sensor 10 and far infrared sensor 20 in Embodiment 1 apply such a sensor.

一般に、物体は光を吸収することで温度が上昇し、赤外線を放射する。放射される波長は、温度が低くなるほど、長波長にシフトする。そして、放射される赤外線量は、吸収量に比例する。この特徴を利用して、遠赤外線センサは、物体から放射する遠赤外線域の赤外線を感知し、物体表面温度を測定することができる。物体表面温度の検出結果に基づいて、物体有無も検出可能である。すなわち、遠赤外線センサは、遠赤外線を検出できる特性から、温度測定機能と物体検出機能との両方を有する。 In general, when an object absorbs light, its temperature rises and it emits infrared rays. The emitted wavelength shifts to longer wavelengths at lower temperatures. The amount of infrared radiation emitted is proportional to the amount of absorption. Using this feature, the far-infrared sensor can detect infrared rays in the far-infrared region emitted from an object and measure the surface temperature of the object. The presence or absence of an object can also be detected based on the detection result of the object surface temperature. That is, the far-infrared sensor has both a temperature measurement function and an object detection function due to its ability to detect far-infrared rays.

実施の形態1の例では、赤外線センサ10は、赤外線発光部の赤外線出力波長、および赤外線受光部の検出波長を、940nm付近の近赤外線波長領域とする。赤外線発光部は、例えばパルス駆動するIR-LEDで構成される。赤外線受光部は、障害物からの反射光を受光素子で検出する。赤外線センサ10は、赤外線発光部の発光のパルスと赤外線受光部の受光素子とが同期し、非同期の赤外線については検出しない。赤外線センサ10は、可視光をカットするフィルタを用いて構成され、赤外線のみを透過する。 In the example of Embodiment 1, the infrared sensor 10 sets the infrared output wavelength of the infrared light emitting portion and the detection wavelength of the infrared light receiving portion in the near-infrared wavelength region around 940 nm. The infrared light emitting section is composed of, for example, a pulse-driven IR-LED. The infrared light receiving section detects reflected light from an obstacle with a light receiving element. In the infrared sensor 10, the light emission pulse of the infrared light emitting portion and the light receiving element of the infrared light receiving portion are synchronized, and non-synchronized infrared rays are not detected. The infrared sensor 10 is configured using a filter that cuts visible light, and transmits only infrared rays.

実施の形態1の例では、遠赤外線センサ20は、検出波長領域を8μm~14μmとする。遠赤外線センサ20における赤外線受光部は、遠赤外線を通過させるバンドパスフィルタを用いて構成される。なお、光源106は、RGBの可視光領域の光を発し、波長領域としては400nm~780nmである。 In the example of Embodiment 1, the far-infrared sensor 20 has a detection wavelength range of 8 μm to 14 μm. An infrared light receiving portion in the far infrared sensor 20 is configured using a bandpass filter that allows far infrared rays to pass through. The light source 106 emits light in the visible region of RGB, and the wavelength region is 400 nm to 780 nm.

[処理フロー]
図6は、プロジェクタ1の障害物検出機能の主な処理として障害物検出対応処理を含む処理に係わる処理フローを示す。図6はステップS1~S7を有し、以下、ステップの順に説明する。ステップS1で、プロジェクタ1の制御部110(図2)は、赤外線センサ10の障害物検出処理結果の信号と遠赤外線センサ20の障害物検出処理結果の信号とを組み合わせて、障害物検出処理を行う。障害物検出処理の詳細については後述する(図7)。
[Processing flow]
FIG. 6 shows a processing flow relating to processing including obstacle detection handling processing as main processing of the obstacle detection function of the projector 1 . FIG. 6 has steps S1 to S7, which will be described in the order of the steps. In step S1, the controller 110 (FIG. 2) of the projector 1 combines the obstacle detection processing result signal from the infrared sensor 10 and the obstacle detection processing result signal from the far-infrared sensor 20 to perform obstacle detection processing. conduct. Details of the obstacle detection process will be described later (FIG. 7).

プロジェクタ1の制御部110は、上記障害物検出処理の結果の信号に基づいて、障害物を検出した場合(S1-YES)、ステップS2で、第1対応処理を行う。第1対応処理の詳細については後述する(図8)。プロジェクタ1は、上記障害物検出処理の結果の信号に基づいて、障害物を検出しなかった場合(S1-NO)、フローの最初に戻る。 When the controller 110 of the projector 1 detects an obstacle based on the signal resulting from the obstacle detection process (S1-YES), the controller 110 performs a first response process in step S2. Details of the first correspondence process will be described later (FIG. 8). If the projector 1 does not detect an obstacle based on the signal resulting from the obstacle detection process (S1-NO), the process returns to the beginning of the flow.

ステップS3で、プロジェクタ1の制御部110は、上記第1対応処理の後、障害物を検出した状態が継続しているか否かを判断する処理である第1検出継続判断処理を行う。第1検出継続判断処理の詳細については後述する(図9)。 In step S3, the control unit 110 of the projector 1 performs a first detection continuation determination process, which is a process of determining whether or not the obstacle detection state continues after the first response process. The details of the first detection continuation determination process will be described later (FIG. 9).

プロジェクタ1は、第1検出継続判断処理の結果の信号に基づいて、障害物検出が継続していると判断した場合(S3-YES)、ステップS4で、第2対応処理を行う。第2対応処理の詳細については後述する(図8)。プロジェクタ1は、第1検出継続判断処理の結果の信号に基づいて、障害物検出が継続していないと判断した場合(S3-NO)、ステップS7を経由して、フローの最初に戻る。 When the projector 1 determines that the obstacle detection continues based on the signal resulting from the first detection continuation determination process (S3-YES), the second response process is performed in step S4. Details of the second correspondence process will be described later (FIG. 8). When the projector 1 determines that the obstacle detection is not continued based on the signal resulting from the first detection continuation determination process (S3-NO), the process returns to the beginning of the flow via step S7.

プロジェクタ1の制御部110は、上記第2対応処理の後、ステップS5で、障害物を検出した状態が継続しているか否かを判断する処理である第2検出継続判断処理を行う。第2検出継続判断処理の詳細については後述する(図9)。プロジェクタ1は、第2検出継続判断処理の結果の信号に基づいて、障害物検出が継続していると判断した場合(S5-YES)、ステップS6に進む。プロジェクタ1は、第2検出継続判断処理の結果の信号に基づいて、障害物検出が継続していないと判断した場合(S5-NO)、ステップS7を経由して、フローの最初に戻る。 After the second response process, the control unit 110 of the projector 1 performs a second detection continuation determination process for determining whether or not the obstacle detection state continues in step S5. Details of the second detection continuation determination process will be described later (FIG. 9). When the projector 1 determines that the obstacle detection continues based on the signal resulting from the second detection continuation determination process (S5-YES), the process proceeds to step S6. When the projector 1 determines that the obstacle detection is not continued based on the signal resulting from the second detection continuation determination process (S5-NO), the process returns to the beginning of the flow via step S7.

ステップS6では、プロジェクタ1は、光源105を消灯し、スタンバイモードに移行し、フローを終了する。 In step S6, the projector 1 turns off the light source 105, shifts to standby mode, and ends the flow.

ステップS7では、プロジェクタ1は、第1対応処理または第2対応処理において光源輝度低減処理を行っている場合には、光源105の輝度を正常に戻す。また、プロジェクタ1は、第1対応処理または第2対応処理においてエラー通知を行っている場合には、エラー通知を解除する。また、プロジェクタ1は、第1対応処理または第2対応処理においてメッセージ表示を行っている場合には、メッセージ表示を消去する。また、プロジェクタ1は、第1対応処理または第2対応処理において警告音を出力している場合には、警告音出力を解除する。 In step S7, the projector 1 restores the brightness of the light source 105 to normal if the light source brightness reduction process is being performed in the first handling process or the second handling process. Further, if the projector 1 issues an error notification in the first response process or the second response process, it cancels the error notification. Also, if the projector 1 displays a message in the first response process or the second response process, the message display is erased. In addition, when the projector 1 outputs the warning sound in the first response process or the second response process, it cancels the output of the warning sound.

[障害物検出判断]
図7は、ステップS1の制御部110による障害物検出判断の詳細を示す。制御部110は、赤外線センサ10の検出結果と遠赤外線センサ20の検出結果との組み合わせで、システム全体として総合的に障害物検出判断を行う。図7の表は、2列において赤外線センサ10の検出結果の2値を示し、2行において遠赤外線センサ20の検出結果の2値を示し、行列の交差する項目には、それらの値の組み合わせに応じた総合的な障害物検出判断結果の値を示す。ここでは、2値は、障害物が検出されない状態を値=0とし、障害物が検出された状態を値=1とした。制御部110は、赤外線センサ10の検出結果と遠赤外線センサ20の検出結果とのいずれか一方でも、障害物が検出された状態(値=1)である場合には、障害物検出機能による総合的な障害物検出判断結果を、障害物が検出された状態(値=1)とする。図示のように、この障害物検出判断は、論理和(OR)と捉えることができる。プロジェクタ1は、赤外線センサ10の検出結果と遠赤外線センサ20の検出結果との両方が、障害物が検出されない状態(値=0)である場合、総合的な判断結果を、障害物が検出されない状態(値=0)とする。
[Obstacle detection judgment]
FIG. 7 shows details of obstacle detection determination by the control unit 110 in step S1. The control unit 110 combines the detection result of the infrared sensor 10 and the detection result of the far-infrared sensor 20 to make an obstacle detection judgment as a whole system. The table in FIG. 7 shows the binary values of the detection results of the infrared sensor 10 in two columns, the binary values of the detection results of the far-infrared sensor 20 in two rows, and the intersecting items in the matrix indicate combinations of these values. indicates the value of the comprehensive obstacle detection judgment result according to Here, the binary value is 0 when no obstacle is detected, and 1 when an obstacle is detected. If either one of the detection result of the infrared sensor 10 and the detection result of the far-infrared sensor 20 indicates that an obstacle is detected (value=1), the control unit 110 performs comprehensive detection by the obstacle detection function. It is assumed that an obstacle detection determination result is a state in which an obstacle is detected (value=1). As illustrated, this obstacle detection determination can be regarded as a logical sum (OR). When both the detection result of the infrared sensor 10 and the detection result of the far-infrared sensor 20 indicate that no obstacle is detected (value=0), the projector 1 determines that no obstacle is detected. state (value=0).

[対応処理]
図8は、ステップS2の第1対応処理やステップS4の第2対応処理の具体例について示す。第1対応処理1および第2対応処理の内容は、様々な処理が考えられるが、実施の形態1では、図8のような具体例を適用する。図8の表は、第1対応処理と第2対応処理との組み合わせの具体例として例1~例5を示す。
[Corresponding process]
FIG. 8 shows specific examples of the first handling process in step S2 and the second handling process in step S4. Various processes can be considered for the contents of the first handling process 1 and the second handling process, but in the first embodiment, a specific example as shown in FIG. 8 is applied. The table in FIG. 8 shows examples 1 to 5 as specific examples of combinations of the first correspondence processing and the second correspondence processing.

例1は、第1対応処理が、光源輝度低減処理であり、第2対応処理が、警告処理である。光源輝度低減処理とは、図1の光源105の輝度を低減する処理であり、例えば、レーザー光源やLED光源等の光源105の出力を低減させることで、投射光学系101から出力される光量を低減する処理である。投射光学系101から出力される光量が低減されれば、ユーザによる対応、例えば障害物を取り除く等の動作が無くとも、障害物による光反射または光吸収による投射光学系101の周辺の温度上昇等の問題が解消する可能性がある。 In example 1, the first response process is the light source brightness reduction process, and the second response process is the warning process. Light source luminance reduction processing is processing for reducing the luminance of the light source 105 in FIG. It is a process to reduce. If the amount of light output from the projection optical system 101 is reduced, the temperature around the projection optical system 101 rises due to light reflection or light absorption by the obstacles, even if the user does not take action such as removing the obstacles. problem may be resolved.

警告処理とは、投射映像上に警告やガイド等のメッセージを重畳して表示する処理、または、表示器130のサブモニタにメッセージを表示する処理、スピーカ131から警告音を出力する処理、その他のエラー通知処理等である。その他のエラー通知処理は、表示器130のサブモニタやLEDインジケータにおいてエラーを通知する処理としてもよいし、リモコンやユーザの無線端末装置にエラー通知を送信する処理としてもよい。無線端末装置は、プロジェクタ1と通信するユーザのスマートフォン等の装置でもよい。エラー通知は、LEDインジケータにおける発光色の変更や特定のLEDの発光制御としてもよい。プロジェクタ1は、それらの警告処理のうちの少なくとも1つを行う。プロジェクタ1は、2つ以上の警告処理を組み合わせて行ってもよいし、それぞれの警告処理を順次に行ってもよい。 Warning processing includes processing to superimpose and display a message such as a warning or guide on the projection image, processing to display a message on the sub-monitor of the display 130, processing to output a warning sound from the speaker 131, or processing to detect other errors. Notification processing and the like. Other error notification processing may be processing for notifying the error on the sub-monitor or LED indicator of the display 130, or processing for transmitting the error notification to the remote controller or the user's wireless terminal device. The wireless terminal device may be a device such as a user's smart phone that communicates with the projector 1 . The error notification may be a change in the light emission color of the LED indicator or light emission control of a specific LED. The projector 1 performs at least one of those warning processes. The projector 1 may perform two or more warning processes in combination, or may perform each warning process sequentially.

警告処理で表示するメッセージの具体例は、「投射光学系101の出射部の付近に障害物が検出された」旨のメッセージでもよいし、「投射光学系101の出射部の付近に障害物が検出されたので障害物の取り除きをユーザに促す」旨のメッセージでもよい。なお、「障害物検出状態が継続する場合には、その後自動的に光源を消灯する」旨のメッセージでもよい。プロジェクタ1は、警告処理を行った後、ある程度の時間以上、障害物検出状態が継続している場合には、自動的に光源105を消灯するように制御してもよい。これらの表示は、組み合わせてもよい。メッセージに替えてマーク等の表示としてもよい。メッセージまたはマーク等の表示により、ユーザが状況を認識しやすくなり、対応がしやすくなる。 A specific example of the message displayed in the warning process may be a message to the effect that "an obstacle has been detected near the output unit of the projection optical system 101", or a message "an obstacle has been detected near the output unit of the projection optical system 101". It may be a message to the effect that the user is urged to remove the obstacle since it has been detected. It should be noted that a message to the effect that "the light source will be turned off automatically after that if the obstacle detection state continues" may be used. The projector 1 may perform control to automatically turn off the light source 105 when the obstacle detection state continues for a certain amount of time or longer after performing the warning process. These indications may be combined. A mark or the like may be displayed instead of the message. Display of a message, mark, or the like makes it easier for the user to recognize the situation and to take action.

また、警告処理で出力する警告音の具体例は、単なるビープ音でもよいし、言語によるメッセージ音声でもよい。メッセージ音声の場合には、上記メッセージの内容を音声で出力すればよい。メッセージ音声の場合には、複数の言語のメッセージをプロジェクタ1の記憶装置に格納しておき、メニュー表示の言語設定に応じて適切な言語を選択して、メッセージ音声を出力すればよい。 Further, a specific example of the warning sound output in the warning process may be a simple beep sound or a verbal message voice. In the case of message voice, the content of the message may be output by voice. In the case of a message voice, messages in a plurality of languages may be stored in the storage device of the projector 1, and an appropriate language may be selected according to the language setting of the menu display to output the message voice.

例えば、投射光学系101の出射部の前に大きな障害物があり、その障害物によって映像光の殆どが遮られる場合等があり得る。その場合には、投射映像上にメッセージを重畳表示するようにOSD処理を施したとしても、ユーザが光学的に視認できないこともあり得る。このような場合でも、警告音の出力であれば、ユーザに対し警告を伝達でき、好適である。よって、投射映像上にメッセージを表示するとともに警告音の出力を行うと、より好適である。 For example, there may be a large obstacle in front of the output portion of the projection optical system 101, and the obstacle may block most of the image light. In that case, even if OSD processing is performed to superimpose a message on the projected image, the user may not be able to visually recognize it. Even in such a case, outputting a warning sound is preferable because it can notify the user of the warning. Therefore, it is more preferable to display a message on the projection image and output a warning sound.

上記のように、例1では、第1対応処理で光源輝度低減処理のみを行い、警告処理を行わない。これにより、ユーザによる対応を行わなくとも問題が解消する可能性があり、ユーザを煩わせる確率がより低いという利点がある。 As described above, in example 1, only the light source brightness reduction process is performed in the first response process, and the warning process is not performed. This has the advantage that there is a possibility that the problem will be resolved without any action by the user, and that the probability of bothering the user is lower.

例2は、第1対応処理が1回目の警告処理であり、第2対応処理が2回目の警告処理である。1回目の警告処理も2回目の警告処理のいずれも、例1の警告処理の具体例を単独または組み合わせで用いればよい。単純に、1回目の警告処理も2回目の警告処理も同じとしてもよい。あるいは、2回目の警告処理の規模を1回目の警告処理の規模より大きくしてもよい。例えば、2回目の警告処理のメッセージの表示サイズを1回目の警告処理のメッセージの表示サイズよりも大きくしてもよい。2回目の警告処理のメッセージの表示数を増やしてもよい。2回目の警告処理の警告音の音量を1回目の警告処理の警告音の音量よりも大きくしてもよい。2回目の警告処理のメッセージの内容を、1回目の警告処理のメッセージの内容よりも、より強くユーザに対応を促す旨の内容に変更してもよい。 In Example 2, the first response process is the first warning process, and the second response process is the second warning process. For both the first warning process and the second warning process, specific examples of the warning process of Example 1 may be used alone or in combination. Simply, the first warning process and the second warning process may be the same. Alternatively, the scale of the second warning process may be larger than the scale of the first warning process. For example, the display size of the message of the second warning process may be larger than the display size of the message of the first warning process. The number of messages displayed for the second warning process may be increased. The volume of the warning sound for the second warning process may be higher than the volume of the warning sound for the first warning process. The content of the message for the second warning process may be changed to a content that urges the user to take action more strongly than the content of the message for the first warning process.

あるいは、1回目の警告処理の警告音をビープ音等の非言語音とし、2回目の警告処理の警告音を言語メッセージの音声として、2回目の警告処理の警告音を、1回目の警告処理の警告音よりも強くユーザに警告内容が伝わるように変更してもよい。 Alternatively, the warning sound of the first warning process is a non-verbal sound such as a beep, the warning sound of the second warning process is a verbal message sound, and the warning sound of the second warning process is the first warning process. It may be changed so that the content of the warning is conveyed to the user more strongly than the warning sound of .

あるいは、2回目の警告処理の方が1回目の警告処理よりもユーザへ対応を強く働きかけるために、警告処理の種類を増やしてもよい。例えば、1回目の警告処理では警告音出力を行わずメッセージ表示を行い、2回目の警告処理では、メッセージ表示とともに警告音出力を行う等とすればよい。これにより、光源消灯のような対応を行う前に、ユーザによる対応によって問題が解消する確率を高めることができる。なお、実施の形態1において、「ユーザによる対応によって問題が解消する」とは、例えば、ユーザが投射光学系101の出射部の付近にある障害物を移動等によって取り除くことで、その障害物による映像光の光反射または光吸収等による投射光学系101の周辺の温度上昇等の問題が解消することを意味する。 Alternatively, the types of warning processes may be increased so that the second warning process encourages the user to respond more strongly than the first warning process. For example, in the first warning process, a message is displayed without outputting the warning sound, and in the second warning process, the message is displayed and the warning sound is output. As a result, it is possible to increase the probability that the problem will be resolved by the user's response before performing a response such as turning off the light source. In the first embodiment, "the problem is solved by the user's response" means, for example, that the user removes an obstacle in the vicinity of the output unit of the projection optical system 101 by moving or the like, and the obstacle caused by the obstacle This means that problems such as temperature rise around the projection optical system 101 due to light reflection or light absorption of image light are resolved.

上記のように、例2では、光源消灯の対応を行う前に、ユーザに対して2回の警告処理を行う。これにより、ユーザによる対応によって、光源消灯の対応の前に問題が解消する確率がより高まるという利点がある。上記例では、2回の警告処理としたが、これに限らず、同様に、複数回の段階的な対応処理を行う形態が可能である。 As described above, in example 2, the user is warned twice before turning off the light source. As a result, there is an advantage that the problem is more likely to be solved by the user's response before turning off the light source. In the above example, the warning process is performed twice, but the present invention is not limited to this, and it is also possible to perform a stepwise response process a plurality of times.

例3は、例2の処理をベースに、1回目の警告処理を行う際に併せて光源輝度低減処理を行うものである。これにより、例3は、例1の利点と例2の利点との両方を実現する。例1の利点は、投射光学系101から出力される光量が低減されれば、ユーザによる対応が無くとも障害物による投射光学系101の周辺の温度上昇等の問題が解消する可能性があるという利点を含む。例2の利点は、ユーザに対して複数回の警告処理を行うことにより光源消灯前に問題が解消する確率がより高まるという利点を含む。それぞれの処理の詳細は、例1および例2と同様である。 Example 3 is based on the processing of Example 2, and performs light source brightness reduction processing together with the first warning processing. Thus, example 3 realizes both the advantages of example 1 and the advantages of example 2. The advantage of Example 1 is that if the amount of light output from the projection optical system 101 is reduced, problems such as a temperature rise around the projection optical system 101 due to obstacles can be resolved without any action by the user. including benefits. Advantages of Example 2 include that multiple warnings to the user increase the probability that the problem will be resolved before the light source is turned off. The details of each process are the same as in Examples 1 and 2.

例4は、例2の処理をベースに、2回目の警告処理を行う際に、併せて、投射映像を、ユーザが所望して表示している映像から、黒画面表示映像に切り替える処理を加えたものである。黒画面表示映像は、投射映像の全画素を黒色とした映像である。警告のメッセージ表示を行う場合には、黒画面表示映像の上にそのメッセージを重畳表示すればよい。黒画面表示映像に限らず、元のユーザの映像から全体的に輝度が低減された映像等としてもよい。 Example 4 is based on the processing of Example 2, and adds a process of switching the projected image from the image desired by the user to the black screen display image when performing the second warning process. It is a thing. The black screen display image is an image in which all the pixels of the projection image are black. When displaying a warning message, the message may be superimposed on the black screen display image. The image is not limited to the black screen display image, and may be an image or the like in which the brightness of the original image of the user is reduced as a whole.

投射映像をユーザの映像から黒画面表示映像に切り替えることにより、以下の(1)および(2)の利点がある。(1)投射映像中の黒表示面積が増えるため、投射光学系101から出力される映像光の光量の総和を低減することができる。これにより、障害物による光反射または光吸収による投射光学系101の周辺の温度上昇を抑制できる。(2)投射映像が黒画面表示映像になることで、ユーザの映像が表示されなくなるため、警告処理に対するユーザの注目度が上がり、ユーザに対し障害物に対する対応をより強く促すことができる。投射映像を黒画面表示映像に切り替える点以外の点は、例2と共通で同様の処理である。 By switching the projected image from the user's image to the black screen display image, the following advantages (1) and (2) are obtained. (1) Since the black display area in the projected image increases, the total amount of image light output from the projection optical system 101 can be reduced. As a result, it is possible to suppress temperature rise around the projection optical system 101 due to light reflection or light absorption by the obstacle. (2) Since the projected image becomes a black screen display image, the user's image is not displayed, so the user's attention to the warning process increases, and the user can be strongly urged to respond to the obstacle. The processing is the same as in Example 2 except that the projected image is switched to the black screen display image.

例5は、例4の処理をベースに、1回目の警告処理を行う際に、併せて、光源輝度低減処理を行うものである。これにより、例1の利点と例4の利点との両方を実現できる。それぞれの処理の詳細は、例1および例4と同様である。 Example 5 is based on the processing of Example 4, and performs light source luminance reduction processing together with the first warning processing. This allows both the advantages of Example 1 and Example 4 to be realized. The details of each process are the same as in Examples 1 and 4.

なお、いずれの組み合わせ例においても、第2対応処理の際に、投射映像または表示器130のサブモニタにおいて、光源消灯までの残り時間を表示する、カウントダウンタイマー表示を行ってもよい。これにより、より強くユーザに対応を促すことができる。カウントダウンタイマー表示に替えて、または加えて、光源消灯までの残り時間を説明するメッセージを含む警告音を出力してもよい。 In any combination, during the second correspondence process, a countdown timer may be displayed on the projected image or on the sub-monitor of the display 130 to display the remaining time until the light source is turned off. This makes it possible to more strongly prompt the user to take action. Instead of or in addition to the countdown timer display, a warning sound including a message explaining the remaining time until the light source is turned off may be output.

以上説明した第1対応処理および第2対応処理によれば、光源消灯前に障害物による投射光学系101の周辺の温度上昇等の問題が解消する確率をより好適に高めることができる。 According to the first handling process and the second handling process described above, it is possible to more preferably increase the probability of solving problems such as temperature rise around the projection optical system 101 due to obstacles before the light source is turned off.

[検出継続判断処理]
図9は、ステップS3やステップS5の制御部110による障害物検出継続判断処理についての具体例を示す。第1検出継続判断および第2検出継続判断には様々な処理が考えられるが、実施の形態1におけるいくつかの具体例を示す。図9の表は、第1検出継続判断および第2検出継続判断に関する2つの例(判断例1、判断例2とする)を示す。
[Detection continuation determination process]
FIG. 9 shows a specific example of obstacle detection continuation determination processing by the control unit 110 in steps S3 and S5. Although various processes are conceivable for the first detection continuation determination and the second detection continuation determination, several specific examples in the first embodiment will be shown. The table in FIG. 9 shows two examples (determination example 1 and determination example 2) regarding the first detection continuation determination and the second detection continuation determination.

判断例1は以下の通りである。プロジェクタ1は、ステップS3の第1検出継続判断において、ステップS1の障害物検出判断処理の結果の「障害物が検出された」状態が、ステップS1後に所定の期間T1において継続した場合、システムの総合的な判断として、「障害物が検出された」状態が継続している状態である、と判断する。図9ではこの状態を検出継続状態と記載している。 Judgment example 1 is as follows. In the first detection continuation determination of step S3, the projector 1 determines that the state of "obstacle detected" as a result of the obstacle detection determination process of step S1 continues for a predetermined period of time T1 after step S1. As a comprehensive judgment, it is judged that the "obstacle detected" state continues. In FIG. 9, this state is described as a detection continuation state.

また、プロジェクタ1は、所定の期間T1以内に、「障害物が検出されない」状態に変化した場合、例えば、期間T1後の時点での検出結果が「障害物が検出されない」状態であった場合、システムの総合的な判断として、「障害物が検出されない」状態に変化した状態、言い換えると障害物検出が継続していない状態である、と判断する。図9ではこの状態を検出非継続状態と記載している。 Further, if the state of the projector 1 changes to "no obstacle detected" within the predetermined period T1, for example, if the detection result after the period T1 is "no obstacle detected" , as a comprehensive judgment of the system, it is judged that the state has changed to "no obstacle detected", in other words, the obstacle detection is not continuing. In FIG. 9, this state is described as a detection discontinued state.

また、プロジェクタ1は、ステップS5の第2検出継続判断において、障害物検出判断処理の結果の「障害物が検出された」状態が、第1検出継続判断のステップS3後に所定の期間T2において継続した場合、システムの総合的な判断として、「障害物が検出された」状態が継続している状態、すなわち検出継続状態と判断する。 In addition, in the second detection continuation determination in step S5, the projector 1 causes the "obstacle detected" state as a result of the obstacle detection determination processing to continue for a predetermined period T2 after step S3 in the first detection continuation determination. In this case, as a comprehensive determination of the system, it is determined that the state in which the "obstacle has been detected" continues, that is, the detection continues state.

また、プロジェクタ1は、期間T2以内に、「障害物が検出されない」状態に変化した場合、システムの総合的な判断として、「障害物が検出されない」状態に変化した状態、すなわち検出非継続状態と判断する。 Further, when the projector 1 changes to the "obstacle not detected" state within the period T2, as a comprehensive judgment of the system, the state changed to the "obstacle not detected" state, that is, the detection discontinued state I judge.

判断例1において、期間T1の長さと期間T2の長さは、どちらが長くても短くてもよいし、同じ期間としてもよい。ただし、第1対応処理と第2対応処理との間にある期間T1の長さを、期間T2よりも長くした方が、第1の対応処理よりも強い警告処理である第2の対応処理に進む前に問題が解消する確率がより高まるという利点があるので、好適である。 In Determination Example 1, the length of the period T1 and the length of the period T2 may be longer or shorter, or may be the same. However, if the length of the period T1 between the first response process and the second response process is longer than the period T2, the second response process, which is a stronger warning process than the first response process, can be used. It is preferred because it has the advantage of having a higher chance of solving the problem before proceeding.

判断例2は、第1検出継続判断において、判断例1の判断処理に、以下の判断処理が追加される。追加される判断処理は、期間T1に遠赤外線センサ20が検出する温度が、第1閾値を超えた場合に、期間T1の経過を待たずに、「障害物が検出された」状態が継続している状態である検出継続状態と判断する処理である。遠赤外線センサ20は、前述のように温度の検出が可能であり、期間による判断だけでなく、温度上昇を考慮することができる。そのため、このような判断処理の追加によって、より迅速に第2対応処理に進むべきと判断することができる。 In determination example 2, the following determination process is added to the determination process of determination example 1 in the first detection continuation determination. The added judgment process is that when the temperature detected by the far-infrared sensor 20 during the period T1 exceeds the first threshold value, the "obstacle detected" state continues without waiting for the period T1 to elapse. This is a process for determining that the state is a detection continuation state, which is a state in which the The far-infrared sensor 20 is capable of detecting temperature as described above, and can consider temperature rise as well as determination based on the period. Therefore, by adding such determination processing, it is possible to more quickly determine that the second response processing should be performed.

また、第2検出継続判断において、判断例1の判断処理に、以下の判断処理が追加される。追加される判断処理は、期間T2に遠赤外線センサ20が検出する温度が、第2閾値を超えた場合に、期間T2の経過を待たずに、「障害物が検出された」状態が継続している状態である検出継続状態と判断する処理である。この判断処理の追加によって、より迅速に光源消灯処理(ステップS6)に進むべきと判断することができる。 Further, in the second detection continuation determination, the following determination process is added to the determination process of the first determination example. The added determination process is that when the temperature detected by the far-infrared sensor 20 during the period T2 exceeds the second threshold, the state of "an obstacle is detected" continues without waiting for the lapse of the period T2. This is a process for determining that the state is a detection continuation state, which is a state in which the With the addition of this determination process, it can be determined that the light source extinguishing process (step S6) should proceed more quickly.

上記温度に関する第1閾値と第2閾値は、どちらが大きくてもよいし、同じでもよい。ただし、第2検出継続判断は、光源消灯処理に進む際の最終判断となるため、より慎重に進めた方が好適である。よって、第2閾値を第1閾値よりも高くする方が望ましい。 Either of the first threshold value and the second threshold value related to the temperature may be larger or may be the same. However, since the second detection continuation determination is the final determination when proceeding to the light source extinguishing process, it is preferable to proceed more carefully. Therefore, it is desirable to set the second threshold higher than the first threshold.

上記検出継続判断について、より詳しい処理例としては以下が挙げられる。図9の表の下側に処理例を示す。時間軸において、時点t1から時点t2までの期間T1、および時点t2から時点t3までの期間T2を有する。時点t1は、ステップS1に対応した1回目の検出時点であり、例えば「障害物が検出された状態」(値=1)であるとする。時点t2は、ステップS3に対応した2回目の検出時点であり、時点t1から期間T1が経過した時点である。例えば時点t1から時点t2までの間では検出判断が行われない。時点t2では、例えば同じく「障害物が検出された状態」(値=1)であったとする。この場合、プロジェクタ1は、上記判断例1のように、期間T1において同じ状態が継続しているので、検出継続状態と判断する。 A more detailed processing example of the detection continuation determination is as follows. A processing example is shown below the table in FIG. On the time axis, it has a period T1 from time t1 to time t2 and a period T2 from time t2 to time t3. Time t1 is the first detection time corresponding to step S1, and is, for example, "a state in which an obstacle has been detected" (value=1). Time t2 is the second detection time corresponding to step S3, and is the time when period T1 has elapsed from time t1. For example, detection determination is not performed between time t1 and time t2. At time t2, for example, it is also assumed that an "obstacle is detected" (value=1). In this case, the projector 1 determines that the detection continues state since the same state continues during the period T1 as in determination example 1 above.

他の処理例は以下の通りである。上記期間T1は、さらに、複数の単位時間を有する。プロジェクタ1は、常時、単位時間毎に、ステップS1の検出判断を行う。プロジェクタ1は、期間T1における単位時間毎の検出結果がすべて「障害物が検出された状態」(値=1)であった場合には、検出継続状態と判断する。プロジェクタ1は、期間T1における単位時間毎の検出結果で、「障害物が検出されない状態」(値=1)が出現した場合には、検出非継続状態と判断する。 Another processing example is as follows. The period T1 further has a plurality of unit times. The projector 1 always performs the detection judgment of step S1 for each unit time. The projector 1 determines that the detection continues state when all the detection results for each unit time during the period T1 are "a state in which an obstacle is detected" (value=1). The projector 1 judges the detection discontinuation state when the detection result for each unit of time in the period T1 indicates "a state in which no obstacle is detected" (value=1).

あるいは、他の処理例として、プロジェクタ1は、期間T1における単位時間毎の複数の検出結果のうち所定の数以上の検出結果が「障害物が検出された状態」(値=1)であった場合に、検出継続状態と判断してもよい。 Alternatively, as another example of processing, the projector 1 detects that a predetermined number or more of the plurality of detection results for each unit time in the period T1 are in a state in which an obstacle is detected (value=1). In this case, it may be determined that the detection continues.

[障害物センサ:配置例1]
図10は、実施の形態1のプロジェクタ1における装置外観構成例の斜視図、および、プロジェクタ1の本体50における障害物センサ120の具体的な配置の一例(配置例1とする)を示す。説明上の方向として、X,Y,Zを示す。X方向およびY方向は、水平面を構成する直交する2つの方向であり、X方向が本体50における横、左右方向に対応し、Y方向が本体50における前後方向に対応する。Z方向は鉛直方向であり、本体50の高さ方向に対応する。投射光学系101の出射部である投射レンズ3からスクリーン(表示面200)への投射の方向は、概略的にY方向で、斜め上方向である。
[Obstacle sensor: Arrangement example 1]
FIG. 10 shows a perspective view of an example of the external configuration of the projector 1 of Embodiment 1, and an example of a specific arrangement of the obstacle sensors 120 in the main body 50 of the projector 1 (arrangement example 1). X, Y, and Z are shown as descriptive directions. The X direction and the Y direction are two orthogonal directions forming a horizontal plane. The Z direction is the vertical direction and corresponds to the height direction of the main body 50 . The direction of projection from the projection lens 3, which is the output portion of the projection optical system 101, onto the screen (display surface 200) is roughly the Y direction, which is diagonally upward.

図10のプロジェクタ1は、超短投射型の投射型映像表示装置の場合である。図10は、主に本体50の上面F1を、スクリーンである表示面200側、および前面F2側で斜め上から見た斜視図である。前面F2は、Y方向で表示面200に向く側の鉛直面である。配置例1では、投射レンズ3の出射面3aの前に、障害物センサ120を構成する赤外線センサ10および遠赤外線センサ20が配置されている。 The projector 1 in FIG. 10 is for an ultra-short-throw projection type image display device. FIG. 10 is a perspective view mainly of the upper surface F1 of the main body 50 viewed obliquely from above on the side of the display surface 200, which is a screen, and on the side of the front surface F2. The front surface F2 is a vertical surface facing the display surface 200 in the Y direction. In arrangement example 1, an infrared sensor 10 and a far-infrared sensor 20 that constitute an obstacle sensor 120 are arranged in front of the exit surface 3 a of the projection lens 3 .

本体50は、概略的に長方体形状を持つ。本例では、上面F1の一部における前面F2に近い領域には、表示器130が設けられており、表示器130の一部としてLEDインジケータ130Aを有する。上面F1の一部、背面F3および側面F5に近い領域には、スピーカ131が設けられている。 The body 50 has a generally rectangular parallelepiped shape. In this example, a display 130 is provided in a region near the front surface F2 in a portion of the upper surface F1, and has an LED indicator 130A as a part of the display 130. FIG. A speaker 131 is provided in a part of the upper surface F1, in a region close to the rear surface F3 and the side surface F5.

上面F1は、水平面を基本として、背面F3に近い方の一部の領域に、凹部51および凸部52を有する。背面F3は、表示面200から遠い側の鉛直面である。凹部51は、上面F1の水平面に対し下側に窪みとなる部分であり、本例では斜面を持つ。この斜面は、投射レンズ3および凸部52の方へ下る斜面である。さらに、凹部51の斜面のうち、投射レンズ3の前にある一部の領域は、障害物センサ120を配置するための凹部51bとなっている。凸部52は、凹部51に隣接して上側に盛り上がる部分であり、投射レンズ3の一部が収容されている。 The upper surface F1 has a concave portion 51 and a convex portion 52 in a partial region closer to the back surface F3, with the horizontal plane as the basis. The back surface F3 is a vertical surface on the far side from the display surface 200 . The recessed portion 51 is a portion that becomes a recess on the lower side with respect to the horizontal plane of the upper surface F1, and has a slope in this example. This slope is a slope that descends toward the projection lens 3 and the convex portion 52 . Further, a part of the slope of the concave portion 51 in front of the projection lens 3 is a concave portion 51b in which the obstacle sensor 120 is arranged. The convex portion 52 is a portion that rises upward adjacent to the concave portion 51 and accommodates a portion of the projection lens 3 .

投射光学系101のうちの出射部を構成する投射レンズ3は、本体50の背面F3に近い側の領域における、凸部52の一部、X方向で中央の位置に配置されている。投射レンズ3の一部である出射面3aは、曲面であり、凸部52における凹部51の斜面に近い一部から前側に出ている。 The projection lens 3, which constitutes the output part of the projection optical system 101, is arranged at the central position in the X direction, part of the convex part 52, in the region of the main body 50 on the side closer to the rear surface F3. The exit surface 3 a , which is a part of the projection lens 3 , is a curved surface and protrudes forward from a portion of the convex portion 52 near the slope of the concave portion 51 .

投射レンズ3は、ガラス製レンズやプラスチック製レンズ等を用いて構成される。例えば、出射面3aを構成するレンズが、プラスチック製レンズで構成される場合、温度上昇による影響を受けやすい。よって、出射面3aを構成するレンズの近傍に赤外線センサ10および遠赤外線センサ20を設けることにより障害物を検出する構成が望ましい。 The projection lens 3 is configured using a lens made of glass, a lens made of plastic, or the like. For example, if the lens forming the exit surface 3a is made of a plastic lens, it is likely to be affected by temperature rise. Therefore, it is desirable to detect obstacles by providing the infrared sensor 10 and the far-infrared sensor 20 in the vicinity of the lens forming the emission surface 3a.

配置例1では、障害物センサ120を構成する赤外線センサ10および遠赤外線センサ20は、投射レンズ3の前側の凹部51bに配置されている。これにより、障害物センサ120は、出射面3aからの映像光を遮らない。特に、配置例1では、1個の赤外線センサ10および1個の遠赤外線センサ20が、X方向で中央付近の位置に並んで配置されている。 In Arrangement Example 1, the infrared sensor 10 and the far-infrared sensor 20 that constitute the obstacle sensor 120 are arranged in the recess 51 b on the front side of the projection lens 3 . As a result, the obstacle sensor 120 does not block the image light from the exit surface 3a. In particular, in arrangement example 1, one infrared sensor 10 and one far infrared sensor 20 are arranged side by side near the center in the X direction.

図11は、図10のプロジェクタ1の構成を、スクリーン横側および本体50の側面F4側から見たY-Z面での構成図を示す。側面F4は、スクリーンである表示面200に向かって右側の鉛直面である。図示のように、赤外線センサ10および遠赤外線センサ20は、投射レンズ3の近傍かつ映像投射方向側に配置されている。本例では、プロジェクタ1の本体50の下面F0は、テーブル等の水平な設置面FAに設置されている。超短投射型であるため、本体50の前面F2は、表示面200との距離が小さい。 FIG. 11 shows a configuration diagram of the configuration of the projector 1 in FIG. 10 on the YZ plane viewed from the side of the screen and the side surface F4 of the main body 50. As shown in FIG. Side F4 is a right vertical surface facing display surface 200, which is a screen. As shown, the infrared sensor 10 and the far infrared sensor 20 are arranged near the projection lens 3 and on the image projection direction side. In this example, the lower surface F0 of the main body 50 of the projector 1 is installed on a horizontal installation surface FA such as a table. Since it is an ultra-short projection type, the distance between the front surface F2 of the main body 50 and the display surface 200 is small.

図11の例では、投射光学系101は、光学レンズ4A、光学レンズ4B、および投射レンズ3等で構成されている。表示素子102からの光は、光学レンズ4A、光学レンズ4B、および投射レンズ3の順に経由して投射される。図11では、投射レンズ3から出射される映像光の光軸L1、および範囲の端L2,L3も示し、図示のように斜め上方向である。 In the example of FIG. 11, the projection optical system 101 is composed of an optical lens 4A, an optical lens 4B, a projection lens 3, and the like. Light from the display element 102 is projected through the optical lens 4A, the optical lens 4B, and the projection lens 3 in this order. FIG. 11 also shows the optical axis L1 of the image light emitted from the projection lens 3 and the ends L2 and L3 of the range, which are obliquely upward as shown.

図11では、障害物センサ120の検出範囲、すなわち赤外線センサ10の検出範囲および遠赤外線センサ20の検出範囲の一例を、円錐のイメージとして図示している。配置例1では、赤外線センサ10および遠赤外線センサ20のそれぞれの検出範囲の円錐の中心軸である検出軸の方向は、矢印で示すように、略垂直の方向とされている。略垂直とは、プロジェクタ1を据え置きで用いる場合の垂直方向であり、図11の例では鉛直であるZ方向である。別の表現として、この検出軸は、プロジェクタ1の設置面FAに対して垂直である。別の表現として、この検出軸は、表示面200に対して平行である。図11の例では、この検出軸の方向は、上面F1の凹部51bの平面に対し垂直である。これにより、障害物センサ120によって投射レンズ3の前面側にある障害物を好適に検出できる。 FIG. 11 shows an example of the detection range of the obstacle sensor 120, that is, the detection range of the infrared sensor 10 and the detection range of the far-infrared sensor 20, as an image of a cone. In Arrangement Example 1, the direction of the detection axis, which is the center axis of the cone of the detection range of each of the infrared sensor 10 and the far-infrared sensor 20, is substantially vertical as indicated by the arrow. “Substantially vertical” refers to the vertical direction when the projector 1 is stationary, and is the vertical Z direction in the example of FIG. 11 . In other words, this detection axis is perpendicular to the installation surface FA of projector 1 . Expressed another way, the detection axis is parallel to the display surface 200 . In the example of FIG. 11, the direction of this detection axis is perpendicular to the plane of the concave portion 51b of the upper surface F1. As a result, the obstacle sensor 120 can suitably detect an obstacle on the front side of the projection lens 3 .

赤外線センサ10の位置、および遠赤外線センサ20の位置は、図11の例に限らず、各種が可能であり、投射レンズ3の出射面3aの近傍とすればよい。変形例として、図10で、出射面3aに対しX方向で左右の位置、例えば凸部52の一部に、赤外線センサ10や遠赤外線センサ20が配置されてもよい。 The position of the infrared sensor 10 and the position of the far-infrared sensor 20 are not limited to the example shown in FIG. As a modification, the infrared sensor 10 and the far-infrared sensor 20 may be arranged at positions on the left and right sides of the exit surface 3a in the X direction, for example, at a part of the convex portion 52 in FIG.

また、変形例として、赤外線センサ10および遠赤外線センサ20の検出軸は、鉛直方向に限らず可能であり、鉛直からやや斜めに傾いた方向としてもよい。その検出軸の傾きの方向は、投射レンズ3側に傾く方向でもよいし、スクリーン側に傾く方向でもよいし、X方向の左右に傾く方向でもよい。 As a modification, the detection axes of the infrared sensor 10 and the far-infrared sensor 20 are not limited to the vertical direction, and may be slightly tilted from the vertical direction. The direction of inclination of the detection axis may be the direction of inclination toward the projection lens 3 side, the direction of inclination toward the screen side, or the direction of inclination left or right in the X direction.

また、変形例として、赤外線センサ10および遠赤外線センサ20が凹部51の斜面に配置されてもよく、その場合、赤外線センサ10や遠赤外線センサ20の検出軸は、その斜面に対して略垂直としてもよい。 As a modification, the infrared sensor 10 and the far-infrared sensor 20 may be arranged on the slope of the recess 51. In that case, the detection axes of the infrared sensor 10 and the far-infrared sensor 20 are substantially perpendicular to the slope. good too.

図12は、図10および図11のプロジェクタ1の構成について、背面F3側、ユーザ視点から表示面200の正面を見る方向での概略構成を示す。スクリーンである表示面200のうち一部の領域201が、映像が投射される領域である。なお、図12および図10では、図11の背面F3側の詳細形状等を簡略化して示している。 FIG. 12 shows a schematic configuration of the configuration of the projector 1 in FIGS. 10 and 11 on the rear F3 side, in the direction in which the front of the display surface 200 is viewed from the user's viewpoint. A partial area 201 of the display surface 200, which is a screen, is an area on which an image is projected. 12 and 10, the detailed shape and the like on the rear surface F3 side of FIG. 11 are shown in a simplified manner.

[障害物センサ:配置例2]
図13は、障害物センサ120の配置例2を示す。配置例2は、配置例1との違いとして、障害物センサ120は、計4個の赤外線センサ10と、1個の遠赤外線センサ20とを有する。配置例2では、配置例1よりも赤外線センサ10の個数を増やし、配置例1とは異なる位置にも配置している。凹部51において、投射レンズ3の出射面3aの前のX方向で中央付近の位置には、配置例1と同様に、1個の赤外線センサ10および1個の遠赤外線センサ20が配置されている。また、その位置に対しX方向で左右の異なる位置に、2個の赤外線センサ10が配置されている。これにより、赤外線センサ10による検出を、投射レンズ3の前面のX方向でより広い範囲としてカバーできる。
[Obstacle sensor: Arrangement example 2]
FIG. 13 shows an arrangement example 2 of the obstacle sensor 120. As shown in FIG. Arrangement Example 2 differs from Arrangement Example 1 in that the obstacle sensor 120 has a total of four infrared sensors 10 and one far-infrared sensor 20 . In arrangement example 2, the number of infrared sensors 10 is increased as compared with arrangement example 1, and they are also arranged in positions different from arrangement example 1. FIG. In the concave portion 51, one infrared sensor 10 and one far-infrared sensor 20 are arranged at positions near the center in the X direction in front of the exit surface 3a of the projection lens 3, as in Arrangement Example 1. . In addition, two infrared sensors 10 are arranged at different positions on the left and right in the X direction with respect to that position. As a result, detection by the infrared sensor 10 can cover a wider range in the X direction of the front surface of the projection lens 3 .

さらに、凸部52における投射レンズ3の出射面3aに対し上側の位置に、1個の赤外線センサ10が配置されている。これにより、赤外線センサ10による検出を、投射レンズ3の前面のZ方向でより広い範囲としてカバーできる。 Furthermore, one infrared sensor 10 is arranged at a position above the exit surface 3 a of the projection lens 3 in the convex portion 52 . As a result, detection by the infrared sensor 10 can cover a wider range in the Z direction of the front surface of the projection lens 3 .

配置例2で、遠赤外線センサ20は、配置例1と同様に、投射レンズ3の前の中央の赤外線センサ10の付近に1個を配置したが、これに限らず、出射面3aの近傍の位置であればよく、複数個を配置してもよい。例えば、投射レンズ3の前や上側に、合計で複数個の遠赤外線センサ20を設けてもよい。 In Arrangement Example 2, one far-infrared sensor 20 is arranged near the central infrared sensor 10 in front of the projection lens 3 as in Arrangement Example 1. Any position may be used, and a plurality of them may be arranged. For example, a total of a plurality of far-infrared sensors 20 may be provided in front of or above the projection lens 3 .

なお、配置例2のように複数の赤外線センサ10を設ける場合、プロジェクタ1の制御部110は、ステップS1で以下のように検出判断を行う。制御部110は、複数個のうち少なくとも1つの赤外線センサ10の検出結果が、前述の「障害物が検出された」状態(値=1)である場合に、赤外線センサ10によって障害物が検出された状態であると判断する。図7の表でいえば、この場合が、赤外線センサ10の2列のうち「障害物が検出された」状態(値=1)の列に対応する。 When a plurality of infrared sensors 10 are provided as in Arrangement Example 2, the controller 110 of the projector 1 performs detection and judgment in step S1 as follows. When the detection result of at least one of the plurality of infrared sensors 10 is the above-described "obstacle detected" state (value=1), control unit 110 determines that an obstacle is detected by infrared sensor 10. It is judged to be in a state of In the table of FIG. 7, this case corresponds to the column of the "obstacle detected" state (value=1) among the two columns of the infrared sensor 10. FIG.

また、複数の遠赤外線センサ20を設ける場合、同様に、制御部110は、複数のうち少なくとも1つの遠赤外線センサ20の検出結果が、前述の「障害物が検出された」状態(値=1)である場合に、遠赤外線センサ20によって障害物が検出された状態であると判断する。図7の表でいえば、この場合が、遠赤外線センサ20の2行のうち「障害物が検出された」状態(値=1)の行に対応する。 Also, when a plurality of far-infrared sensors 20 are provided, the control unit 110 similarly determines that the detection result of at least one of the plurality of far-infrared sensors 20 is in the above-described "obstacle detected" state (value = 1 ), it is determined that the far-infrared sensor 20 has detected an obstacle. In the table of FIG. 7, this case corresponds to the row of the "obstacle detected" state (value=1) among the two rows of the far-infrared sensor 20. FIG.

図14は、図13の配置例2について側面F4を見た構成図である。投射レンズ3の上側に配置されている赤外線センサ10は、円錐で示す検出範囲の検出軸の方向が、概略的にスクリーンに向かう前方であるY方向である。詳しくは、この上側の赤外線センサ10の検出軸は、図示のように水平から斜め下への方向とされている。本例のような超短投射型では、投射レンズ3からの投射映像の光軸L1が斜め上方向である。それに対し、この上側の赤外線センサ10の検出軸の方向におけるZ方向での向きは、水平よりも下向きの方向に設定されている。これにより、この赤外線センサ10の検出軸の方向は、表示面200の領域201と交わらず、検出の際に、スクリーンへの投射映像による影響を受けにくい。よって、この構成では、スクリーンへの投射映像に基づいた、この赤外線センサ10による誤検出を回避することができる。なお、上側の赤外線センサ10の検出軸の方向は、これに限らず、略水平、言い換えると凸部52の鉛直面に対して略垂直としてもよい。 FIG. 14 is a configuration diagram of the arrangement example 2 of FIG. 13 as viewed from the side face F4. The infrared sensor 10, which is arranged above the projection lens 3, has the direction of the detection axis of the detection range indicated by the cone roughly in the Y direction, which is forward toward the screen. Specifically, the detection axis of the upper infrared sensor 10 is directed obliquely downward from the horizontal as shown. In the ultra-short projection type as in this example, the optical axis L1 of the projected image from the projection lens 3 is oriented obliquely upward. On the other hand, the direction in the Z direction in the direction of the detection axis of the upper infrared sensor 10 is set downward from the horizontal. As a result, the direction of the detection axis of the infrared sensor 10 does not intersect with the area 201 of the display surface 200, and detection is less likely to be affected by images projected onto the screen. Therefore, with this configuration, it is possible to avoid erroneous detection by the infrared sensor 10 based on the projected image on the screen. The direction of the detection axis of the upper infrared sensor 10 is not limited to this, and may be substantially horizontal, in other words, substantially perpendicular to the vertical plane of the convex portion 52 .

図15は、図13および図14の配置例2に対応した、スクリーンを見る方向での概略構成図である。図示のように、X方向の複数の赤外線センサ10を含む障害物センサ120によって、広い検出範囲が構成されている。 FIG. 15 is a schematic configuration diagram in the direction in which the screen is viewed, corresponding to the arrangement example 2 of FIGS. 13 and 14. In FIG. As shown, an obstacle sensor 120 including multiple infrared sensors 10 in the X direction forms a wide detection range.

[排気の影響]
図16は、比較例として、プロジェクタ1xの所定の排気方向とその影響についての説明図を示す。図16は、特に、排気方向として、プロジェクタの冷却部115による排気が、前面F2からスクリーン側へ向かうY方向の排気である場合を示す。プロジェクタは、光源、電源回路、および光学部品等を冷却するために、空冷システムを備え、放熱のために排気を行う構成が一般的である。実施の形態1のプロジェクタ1および比較例のプロジェクタ1xでも、前述の冷却部115を備え、冷却部115は、空冷のための排気ファン等を含む。
[Influence of exhaust]
FIG. 16 shows, as a comparative example, an explanatory diagram of the predetermined exhaust direction of the projector 1x and its influence. In particular, FIG. 16 shows a case where, as the exhaust direction, the exhaust from the cooling unit 115 of the projector is exhaust in the Y direction from the front surface F2 toward the screen side. A projector generally includes an air cooling system to cool a light source, a power supply circuit, optical components, and the like, and has a configuration in which air is exhausted to dissipate heat. The projector 1 of the first embodiment and the projector 1x of the comparative example also include the cooling unit 115 described above, and the cooling unit 115 includes an exhaust fan or the like for air cooling.

ここで、超短投射型、および超短焦点型である比較例のプロジェクタ1xにおいて、図16のように、前面F2からスクリーン側に向けて排気を行う構成の場合、スクリーンが設置されている壁202等の影響によって、前面F2からの排気が壁202に当たり、方向が変わって、プロジェクタ1xの上面F1の上方を通過するということがあり得る。比較例のプロジェクタ1xでは、配置例1と同様に、上面F1に、遠赤外線センサを含む障害物センサ120xが配置されているとする。図16のような排気の流れに対し、比較例では、その障害物センサ120xの検出範囲の円錐の正面、本例では上方を、その排気が通過することになる。プロジェクタ1xの排気が高温である場合、このような状況は、その障害物センサ120xの誤検出、言い換えると精度低下を生じさせる恐れがある。 Here, in the case of the projector 1x of the comparative example, which is the ultra-short projection type and the ultra-short focus type, as shown in FIG. Due to the influence of 202 and the like, it is possible that exhaust air from the front surface F2 hits the wall 202, changes direction, and passes above the top surface F1 of the projector 1x. Assume that in the projector 1x of the comparative example, an obstacle sensor 120x including a far-infrared sensor is arranged on the upper surface F1, as in the arrangement example 1. FIG. 16, in the comparative example, the exhaust passes in front of the cone in the detection range of the obstacle sensor 120x, in this example, above. If the exhaust air of the projector 1x is hot, such a situation may cause the obstacle sensor 120x to make false detections, in other words, reduce its accuracy.

そこで、図17は、実施の形態1のプロジェクタ1における、排気の影響を考慮した好適な構成例として、より好適な排気方向についての説明図である。この排気とは、例えば、冷却部115によって光源105を冷却した後の排気、電源回路等の各種回路を冷却した後の排気、表示素子102を冷却した後の排気、光学部品を冷却した後の排気、等の少なくとも1つを含む排気である。なお、図17では、障害物センサ120としては簡略化して1個のセンサ、特に遠赤外線センサ20として示している。図17では、本体50の各面の排気口の図示を省略している。冷却部115による排気機能の実装の際には、適宜に排気口を設ければよい。 Therefore, FIG. 17 is an explanatory diagram of a more preferable exhaust direction as a preferable configuration example considering the influence of the exhaust in the projector 1 according to the first embodiment. This exhaust includes, for example, exhaust after cooling the light source 105 by the cooling unit 115, exhaust after cooling various circuits such as a power supply circuit, exhaust after cooling the display element 102, and after cooling optical components. exhaust, and/or the like. In FIG. 17, the obstacle sensor 120 is simply shown as one sensor, particularly the far infrared sensor 20 . In FIG. 17, illustration of exhaust ports on each surface of the main body 50 is omitted. When implementing the exhaust function by the cooling unit 115, an exhaust port may be appropriately provided.

図17で、まず、各排気方向について説明する。図17では、本体50の各面、各位置からの排気方向の候補として、排気方向d1,d2,d3,d4,d5を示す。排気方向d1は、本体50の障害物センサ120が設置されている上面F1からZ方向の上方への排気である。排気方向d2は、本体50のスクリーンに向かう側面である前面F2から、Y方向でスクリーンに向かう前方への排気である。排気方向d3は、排気方向d2と反対側への排気であり、本体50の前面F2と反対側の背面F3から、Y方向でスクリーンと反対側に向かう後方への排気である。排気方向d4は、本体50の右側の側面F4から、X方向でスクリーンに対し右側の方向への一方向の排気である。排気方向d5は、排気方向d4の反対方向の排気であり、本体50の左側の側面F5から、X方向でスクリーンに対し左側の方向への一方向の排気である。なお、本体50におけるZ方向に立つ4つの側面のうち、前面F2および背面F3は、Y方向での前後の側面であり、側面F4および側面F5は、X方向での左右の側面である。 First, each exhaust direction will be described with reference to FIG. In FIG. 17, exhaust directions d1, d2, d3, d4, and d5 are shown as exhaust direction candidates from each surface and position of the main body 50 . The exhaust direction d1 is exhaust upward in the Z direction from the upper surface F1 of the main body 50 on which the obstacle sensor 120 is installed. The exhaust direction d2 is exhaust from the front surface F2, which is the side surface of the main body 50 facing the screen, toward the screen in the Y direction. The exhaust direction d3 is exhaust to the side opposite to the exhaust direction d2, and is exhaust from the rear surface F3 of the main body 50 opposite to the front surface F2 toward the rear in the Y direction toward the side opposite to the screen. The exhaust direction d4 is one-way exhaust from the right side surface F4 of the main body 50 to the right side of the screen in the X direction. The exhaust direction d5 is exhaust in the direction opposite to the exhaust direction d4, and is one-way exhaust from the left side surface F5 of the main body 50 toward the left side of the screen in the X direction. Of the four side surfaces in the Z direction of the main body 50, the front surface F2 and the rear surface F3 are front and rear side surfaces in the Y direction, and the side surfaces F4 and F5 are left and right side surfaces in the X direction.

図16の通り、排気方向d2のようにスクリーン側へ向けて排気を行う場合、高温の排気の影響から、特に遠赤外線センサ20の誤検出を生じさせる可能性がある。よって、排気方向d2以外の排気方向を採用することが望ましい。また、排気方向d1のように、障害物センサ120の設置面である上面F1から排気を行う場合でも、その排気方向が遠赤外センサ20の検出範囲と近くなるため、遠赤外センサ20の誤検出を生じさせる可能性がある。よって、排気方向d1以外の排気方向を採用することが望ましい。 As shown in FIG. 16, when the air is exhausted toward the screen side as in the exhaust direction d2, there is a possibility that the far-infrared sensor 20 may cause erroneous detection due to the influence of the high-temperature exhaust. Therefore, it is desirable to employ an exhaust direction other than the exhaust direction d2. Further, even when the air is exhausted from the upper surface F1 on which the obstacle sensor 120 is installed, as in the exhaust direction d1, the exhaust direction is close to the detection range of the far-infrared sensor 20, so the far-infrared sensor 20 May cause false positives. Therefore, it is desirable to employ an exhaust direction other than the exhaust direction d1.

よって、遠赤外センサ20を上面F1に設ける配置例1のプロジェクタ1は、排気方向d2および排気方向d1以外の排気方向を採用することが望ましい。具体的には、実施の形態1のプロジェクタ1は、冷却部115による排気方向の実装に関して、排気方向d3、排気方向d4、または排気方向d5のいずれか1つまたはそれらの組み合わせを採用する。プロジェクタの排気で最も高温になり得るのは、光源を冷却した後の排気である。そのため、特に、光源105を冷却した後の排気の排気方向については、上記排気方向を採用するのが望ましい。 Therefore, it is preferable that the projector 1 of the arrangement example 1 in which the far-infrared sensor 20 is provided on the upper surface F1 employ an exhaust direction other than the exhaust direction d2 and the exhaust direction d1. Specifically, the projector 1 of the first embodiment adopts any one of the exhaust direction d3, the exhaust direction d4, and the exhaust direction d5, or a combination thereof, regarding the mounting of the exhaust direction by the cooling unit 115. FIG. The hottest possible exhaust air from a projector is after the light source has been cooled. Therefore, it is particularly desirable to adopt the above-described exhaust direction for the exhaust direction after cooling the light source 105 .

[メッセージ表示]
次に、前述の警告処理(図8)の具体例の1つであるメッセージ表示の構成例について説明する。図18は、実施の形態1のプロジェクタ1における、メッセージ表示の一例(表示例1とする)を示す。図18は、投射レンズ3から、スクリーンである表示面200のうちの映像が投射される領域201を正面から見た場合の概略構成図を示す。図18の例では、配置例2のように、障害物センサ120として複数の赤外線センサ10および1個の遠赤線センサ20を備える。図18では、投射レンズ3の前側にある部分を障害物センサ120aおよび赤外線センサ10aとして示し、投射レンズ3の上側にある部分を障害物センサ120bおよび赤外線センサ10bとして示す。
[Message display]
Next, a configuration example of a message display, which is one of specific examples of the above-described warning processing (FIG. 8), will be described. FIG. 18 shows an example of message display (referred to as display example 1) in the projector 1 of the first embodiment. FIG. 18 shows a schematic diagram of a front view of an area 201 on which an image is projected on a display surface 200, which is a screen, from the projection lens 3. As shown in FIG. In the example of FIG. 18 , a plurality of infrared sensors 10 and one far-infrared ray sensor 20 are provided as obstacle sensors 120 like arrangement example 2 . In FIG. 18, the front portion of the projection lens 3 is shown as an obstacle sensor 120a and an infrared sensor 10a, and the portion above the projection lens 3 is shown as an obstacle sensor 120b and an infrared sensor 10b.

プロジェクタ1は、例えば前述の方法で、これらの複数のセンサの検出結果に基づいて、障害物OB1を検出したとする。本例では、投射レンズ3の位置に対し前方右側に障害物OB1がある。この場合に、プロジェクタ1は、警告処理の例として、図18のように、投射映像の領域201中に、「投射レンズ付近の障害物を取り除いてください」等の、ユーザに障害物OB1の取り除きを促すメッセージ180を表示する。メッセージ180は、静止したメッセージ画像である。図18の例では、領域201の中央の1箇所(エリアAR2b)に、そのメッセージ180が表示されている。このメッセージ180の表示位置は、基本的には、投射映像の領域201のうちのどの位置としても構わない。 Assume that the projector 1 detects the obstacle OB1 based on the detection results of these sensors, for example, by the method described above. In this example, there is an obstacle OB1 on the front right side of the projection lens 3 position. In this case, as an example of warning processing, the projector 1 displays a message such as "Please remove the obstacle near the projection lens" in the projected image area 201 as shown in FIG. display a message 180 prompting Message 180 is a static message image. In the example of FIG. 18, the message 180 is displayed in one central location (area AR2b) of the area 201. FIG. The display position of this message 180 may basically be any position in the area 201 of the projected image.

しかしながら、配置例2のように、障害物センサ120として、スクリーンに向かってX方向の左右に複数個の赤外線センサ10が配置されている場合には、障害物OB1が領域201の中央に達する前に、左右のいずれかの赤外線センサ10によって検出される確率が高い。例えば右側にある障害物OB1が映像光を遮ることで、領域201のうちの右側のエリアAR3では、ユーザから投射映像が見えにくくなる可能性がある。 However, as in arrangement example 2, when a plurality of infrared sensors 10 are arranged as obstacle sensors 120 on the left and right sides in the X direction facing the screen, the obstacle OB1 reaches the center of the area 201. Moreover, the probability of being detected by either the left or right infrared sensor 10 is high. For example, the obstruction OB1 on the right side blocks the image light, which may make it difficult for the user to see the projection image in the area AR3 on the right side of the area 201 .

よって、上記メッセージ180を領域201内の1箇所に表示する場合には、領域201の端よりも、図示のように中央の位置に表示する方が、メッセージ180の表示自体が障害物OB1によって遮られる可能性が低くなり、ユーザから見えやすくなる可能性が高いので、より好適である。 Therefore, when the message 180 is displayed in one place in the area 201, it is better to display the message 180 in the central position as shown in the drawing than in the edge of the area 201. This is more preferable because it is less likely to be detected and more likely to be easily visible to the user.

図19は、メッセージ表示の表示例2を同様に示す。表示例2では、プロジェクタ1は、例えば障害物OB2を検出した場合に、投射映像の領域201中に、「投射レンズ付近の障害物を取り除いてください」等のメッセージ180を、複数箇所同時に表示する。図19の例では、領域201は、概略的に3×3=9個のエリアがあり、各エリアに同じメッセージ180が表示されている。X方向では、3個の赤外線センサ10に対応させて、エリアAR1,AR2,AR3の3個のエリアがある。図19の例は、投射レンズ3の前で中央および右側にわたって障害物OB2がある場合を示す。障害物OB2によって映像光が遮られる影響で、領域201のうちの中央のエリアAR2および右側のエリアAR3では投射映像が見えにくくなる。 FIG. 19 similarly shows display example 2 of the message display. In the display example 2, for example, when the obstacle OB2 is detected, the projector 1 simultaneously displays the message 180 such as "Please remove the obstacle near the projection lens" in the area 201 of the projected image. . In the example of FIG. 19, the area 201 roughly has 3×3=9 areas, and the same message 180 is displayed in each area. In the X direction, there are three areas AR1, AR2 and AR3 corresponding to the three infrared sensors 10. FIG. The example of FIG. 19 shows the case where there is an obstacle OB2 in front of the projection lens 3 over the center and right sides. Due to the obstruction OB2 blocking the image light, it becomes difficult to see the projected image in the central area AR2 and the right area AR3 of the area 201 .

図19の例では、障害物OB2に遮られた遮光部分(エリアAR2,AR3)にもメッセージ180が表示されるように示しているが、この部分に関しては投射レンズ3からの光が障害物OB2によって遮られているので、実際には映らない。ただし、表示素子102への映像では、図19のように複数のメッセージ180が表示されるように構成されている。この構成により、警告処理のための一部の映像箇所が障害物OB2によって遮光されたとしても、遮光されていない部分だけでユーザがメッセージ180を視認できる可能性が高まるので、好適である。 In the example of FIG. 19, the message 180 is also displayed in the light shielded portion (areas AR2 and AR3) blocked by the obstacle OB2. is blocked by the image, so it is not actually reflected. However, the image on the display element 102 is configured to display a plurality of messages 180 as shown in FIG. With this configuration, even if a portion of the image for warning processing is blocked by the obstacle OB2, the possibility that the user can visually recognize the message 180 only in the unblocked portion is increased, which is preferable.

図19の例では、障害物センサ120として、投射レンズ3の前側の3箇所、投射レンズ3の上側の1箇所に赤外線センサ10が配置されている。図19の例のように投射映像の領域201の複数箇所に同時にメッセージ180を表示する場合、領域201の中央(例えばエリアAR2b)が遮光されたとしても、ユーザがメッセージ180を視認できる可能性が高まる。よって、配置例1のように投射レンズ3の前側の中央の1箇所のみに赤外線センサ10および遠赤外線センサ20が1個ずつ配置されるシンプルな構成とした場合でも、ユーザが視認できる可能性が高いメッセージ表示を実現可能である。 In the example of FIG. 19 , infrared sensors 10 are arranged as obstacle sensors 120 at three locations on the front side of the projection lens 3 and one location on the upper side of the projection lens 3 . When the message 180 is simultaneously displayed in a plurality of locations in the area 201 of the projected image as in the example of FIG. 19, even if the center of the area 201 (for example, the area AR2b) is shaded, the user may be able to visually recognize the message 180. increase. Therefore, even in the case of a simple configuration in which one infrared sensor 10 and one far infrared sensor 20 are arranged only at one central location on the front side of the projection lens 3 as in Arrangement Example 1, there is a possibility that the user can visually recognize them. High message display can be realized.

図20は、メッセージ表示の表示例3を示す。表示例3では、プロジェクタ1は、「投射レンズ付近の障害物を取り除いてください」等のメッセージ180を、投射映像の領域201中を移動させるように表示する。このメッセージ180は、移動するメッセージ映像である。図20の例では、メッセージ180は、領域201の左上端から矢印に示すようにジグザグに、言い換えるとラスター走査のような軌跡で移動する。メッセージ180の移動が領域201の右下端まで達すると、最初の左上端に戻り、ジグザグ移動が同様に繰り返される。 FIG. 20 shows display example 3 of the message display. In display example 3, the projector 1 displays a message 180 such as "Please remove any obstacles near the projection lens" so as to move within the area 201 of the projected image. This message 180 is a moving message video. In the example of FIG. 20, the message 180 moves zigzag as indicated by the arrow from the upper left corner of the area 201, in other words, along a trajectory like raster scanning. When the movement of message 180 reaches the lower right corner of area 201, it returns to the initial upper left corner and the zigzag movement is repeated in the same way.

この構成により、映像光の一部が障害物OB1によって遮光されたとしても、遮光されていない部分にもメッセージ180が表示されている時間が存在し、ユーザがメッセージ180を視認できる可能性が高まるので、好適である。また、メッセージ180が移動するので、静止している場合と比べて、ユーザのメッセージ180に対する注目度を向上させることができる利点もある。 With this configuration, even if part of the image light is blocked by the obstacle OB1, there is a time period during which the message 180 is displayed in the unblocked portion, increasing the possibility that the user can visually recognize the message 180. Therefore, it is preferable. In addition, since the message 180 moves, there is also an advantage that the user's attention to the message 180 can be improved compared to when the message 180 is stationary.

図21は、メッセージ表示の表示例4を示す。表示例4では、プロジェクタ1は、配置例2のように障害物センサ120における赤外線センサ10を複数箇所に配置した構成で、例えば障害物OB1を検出する。そして、プロジェクタ1は、投射映像が障害物OB1によって遮光される部分を推定し、領域201のうち、推定される遮光部分を除いた範囲内にメッセージ180を表示する。例えば、投射レンズ3の前の右側にある赤外線センサ10の検出結果が、「障害物が検出された」状態であり、他の赤外線センサ10の検出結果が、「障害物が検出されない」状態であるとする。その場合、プロジェクタ1は、総合的に、障害物OB1が検出されたと判断する。それと共に、プロジェクタ1は、その障害物OB1の位置が、投射レンズ3とエリアAR3とを結ぶ領域内であると推定し、領域201のうち概略的に右側のエリアAR3については、障害物OB1によって遮光されている可能性が高いと推定する。よって、プロジェクタ1は、領域201のうちエリアAR3を除いたエリアAR1,AR2の範囲に、例えば表示例3と同様に、メッセージ180を移動させるようにして表示する。この構成により、投射映像の一部が障害物OB1によって遮光されていても、遮光されていない部分にメッセージ180が表示され、ユーザがメッセージ180を視認できる可能性が高まるので、好適である。 FIG. 21 shows display example 4 of the message display. In Display Example 4, the projector 1 has a configuration in which the infrared sensors 10 in the obstacle sensor 120 are arranged at a plurality of locations as in Arrangement Example 2, and detects an obstacle OB1, for example. Then, the projector 1 estimates a portion of the projection image blocked by the obstacle OB1, and displays the message 180 in the region 201 excluding the estimated shaded portion. For example, the detection result of the infrared sensor 10 on the right side in front of the projection lens 3 is "obstacle detected", and the detection result of the other infrared sensor 10 is "no obstacle detected". Suppose there is In that case, the projector 1 comprehensively determines that the obstacle OB1 has been detected. At the same time, the projector 1 estimates that the position of the obstacle OB1 is within the area connecting the projection lens 3 and the area AR3. It is estimated that there is a high possibility that light is blocked. Therefore, the projector 1 moves and displays the message 180 in the range of the areas AR1 and AR2 of the area 201 excluding the area AR3, for example, similarly to the display example 3. FIG. With this configuration, even if a portion of the projected image is blocked by the obstacle OB1, the message 180 is displayed in the unblocked portion, which increases the possibility that the user can visually recognize the message 180, which is preferable.

なお、非遮光領域であるエリアAR1,AR2の範囲内にメッセージ180を表示する際に、移動の方法ではなく、他の方法を適用してもよい。表示例1にならって、推定した非遮光領域内の1箇所にメッセージ180を静止して表示してもよいし、表示例2にならって、推定した非遮光領域内の複数の箇所にメッセージ180を同時に表示してもよい。また、推定した非遮光領域内の全体にメッセージ180を拡大表示してもよい。これらの場合では、制御がよりシンプルになり構成が簡便化される。 When displaying the message 180 within the areas AR1 and AR2, which are non-light-shielding areas, other methods may be applied instead of the moving method. Following Display Example 1, the message 180 may be statically displayed at one location within the estimated non-shading region, or following Display Example 2, the message 180 may be displayed at a plurality of locations within the estimated non-shading region. may be displayed at the same time. Also, the message 180 may be enlarged and displayed in the entirety of the estimated non-light-shielding area. In these cases, control is simpler and configuration is easier.

また、図6および図8で、第1対応処理(ステップS2)でのメッセージ表示と、第2対応処理(ステップS4)でのメッセージ表示とを行う場合に、上述の表示例1~4のうちの同一の表示例を用いてもよいが、異なる表示例を組み合わせて用いてもよい。第1対応処理でのメッセージ表示と第2対応処理でのメッセージ表示とで異なる表示例の組み合わせを用いる具体例については以下が挙げられる。例えば、第1対応処理では表示例1を適用し、第2対応処理では表示例2を適用してもよい。第2対応処理は、光源105の消灯直前の状態であるので、第1対応処理でのメッセージ表示よりも領域201内のメッセージ180の表示数を多くする。これにより、第2対応処理でユーザに対し障害物に対する対応をより強く促すことができ、より好適である。また、例えば、第1対応処理では表示例1または表示例2を適用し、第2対応処理では表示例3または表示例4を適用してもよい。第2対応処理は、光源105の消灯直前の状態であるので、第1対応処理における位置が固定されたメッセージ表示ではなく、表示位置が移動する注目度を高めたメッセージ表示を用いる。これにより、ユーザに対し障害物に対する対応をより強く促すことができ、より好適である。 Further, in FIGS. 6 and 8, when the message display in the first response process (step S2) and the message display in the second response process (step S4) are performed, The same display example may be used, or different display examples may be used in combination. Specific examples of using a combination of different display examples for the message display in the first response process and the message display in the second response process are as follows. For example, Display Example 1 may be applied to the first response process, and Display Example 2 may be applied to the second response process. Since the second response process is the state immediately before the light source 105 is turned off, the number of messages 180 displayed in the area 201 is increased compared to the number of messages displayed in the first response process. As a result, it is possible to more strongly prompt the user to take action against the obstacle in the second handling process, which is more preferable. Further, for example, display example 1 or display example 2 may be applied in the first correspondence process, and display example 3 or display example 4 may be applied in the second correspondence process. Since the second response process is a state immediately before the light source 105 is turned off, a message display with a higher degree of attention that moves the display position is used instead of the message display with a fixed position in the first response process. As a result, the user can be strongly urged to take action against the obstacle, which is more preferable.

なお、以上の説明では、対応処理の警告処理の際の表示対象物の例をメッセージ、言い換えると文字画像としたが、メッセージに替えて、またはメッセージに加えて、ユーザに対し障害物の取り除きを促す旨のマークや、その旨を説明するためのアニメーションや動画等としてもよい。また勿論、上記表示の際には、特定の音声の出力を併用してもよい。 In the above description, a message, in other words, a character image, is used as an example of a display object in the warning process of the response process. A mark indicating the prompting, or an animation or video for explaining the fact may be used. Of course, the above display may be accompanied by the output of a specific sound.

[障害物検出モード]
実施の形態1のプロジェクタ1は、上記障害物センサ120を用いて障害物を検出可能である障害物検出機能を有する。このプロジェクタ1は、この障害物検出機能を有効状態にするモードと、無効状態にするモードとを有し、それらの設定および切り替えが可能である。基本設定では、常時にこの障害物検出機能が有効なモードとされるが、ユーザ設定によって無効のモードに設定することも可能である。
[Obstacle detection mode]
The projector 1 of Embodiment 1 has an obstacle detection function capable of detecting an obstacle using the obstacle sensor 120 described above. This projector 1 has a mode in which this obstacle detection function is enabled and a mode in which it is disabled, and these modes can be set and switched. In basic settings, this obstacle detection function is always in a valid mode, but it is also possible to set it to an invalid mode by user setting.

[効果等]
上記のように、実施の形態1のプロジェクタ1によれば、出射部の付近の障害物をより好適に検出して問題への対応を行うことができ、ユーザによる装置の使い勝手を向上できる。実施の形態1によれば、障害物をより高精度に検出でき、検出に応じた対応処理によって好適にユーザへの対応の促しを図ることができ、温度上昇等の問題を防止または解消できる。
[Effects, etc.]
As described above, according to the projector 1 of Embodiment 1, obstacles in the vicinity of the output section can be more preferably detected and the problem can be dealt with, thereby improving usability of the apparatus for the user. According to Embodiment 1, an obstacle can be detected with higher accuracy, and the user can be appropriately urged to take action by the handling process according to the detection, thereby preventing or solving problems such as temperature rise.

なお、投射光学系101の出射部は、本体50から外部へ映像光が出射される部分であり、実施の形態1では、図10のように、投射レンズ3の出射面3aとした。これに限らず、他の実施の形態では、投射光学系101の出射部は、ミラー、またはミラーのカバーガラス等であってもよい。実施の形態1のプロジェクタ1は、超短投射型としたが、これに限らず、他の方式のプロジェクタについても、本発明に係わる障害物検出方式を同様に適用可能である。 The output portion of the projection optical system 101 is the portion from which the image light is output from the main body 50 to the outside, and in the first embodiment, it is the output surface 3a of the projection lens 3 as shown in FIG. Not limited to this, in other embodiments, the output portion of the projection optical system 101 may be a mirror, a mirror cover glass, or the like. Although the projector 1 of Embodiment 1 is of the ultra-short projection type, the obstacle detection method according to the present invention can be similarly applied to projectors of other types as well.

以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は前述の実施の形態に限定されず、要旨を逸脱しない範囲で種々変更可能である。本発明は、前述の要素の数、形状、寸法などの構成に限定されない。本発明は、前述の構成要素について、他の構成要素の追加や、一部の構成要素の削除等の構成も可能である。 Although the present invention has been specifically described above based on the embodiments, the present invention is not limited to the above-described embodiments, and can be variously modified without departing from the scope of the invention. The invention is not limited to the number, shape, size, or other configuration of the elements described above. The present invention can be configured such that other components are added to the components described above, and some components are deleted.

1…プロジェクタ、3…投射レンズ、3a…出射面、10…赤外線センサ、20…遠赤外線センサ、50…本体、51…凹部、51b…凹部、52…凸部、120…障害物センサ、F1…上面、F2…前面、F3…背面、F4…側面、F5…側面、130…表示器、130A…LEDインジケータ、131…スピーカ。 DESCRIPTION OF SYMBOLS 1... Projector 3... Projection lens 3a... Output surface 10... Infrared sensor 20... Far-infrared sensor 50... Main body 51... Concave part 51b... Concave part 52... Convex part 120... Obstacle sensor F1... Upper surface, F2... Front surface, F3... Rear surface, F4... Side surface, F5... Side surface, 130... Indicator, 130A... LED indicator, 131... Speaker.

Claims (16)

光源と、
前記光源からの光を透過または反射する表示素子と、
前記表示素子からの光を表示面に対し投射して映像を表示する投射光学系と、
前記投射光学系の出射部の付近の障害物を検出する障害物センサと、
前記映像の表示を制御する制御部と、
を備え、
前記障害物センサは、赤外線センサと遠赤外線センサとを含み、
前記制御部は、前記赤外線センサの検出結果と、前記遠赤外線センサの検出結果とに基づいて、前記障害物の検出判断を行う、
投射型映像表示装置。
a light source;
a display element that transmits or reflects light from the light source;
a projection optical system that projects light from the display element onto a display surface to display an image;
an obstacle sensor that detects an obstacle in the vicinity of the exit portion of the projection optical system;
a control unit that controls display of the video;
with
the obstacle sensor includes an infrared sensor and a far infrared sensor,
The control unit makes a detection judgment of the obstacle based on the detection result of the infrared sensor and the detection result of the far infrared sensor.
Projection type image display device.
請求項1の投射型映像表示装置において、
前記制御部は、前記障害物の検出判断の際、前記赤外線センサの検出結果と前記遠赤外線センサの検出結果との少なくともいずれか1つが、前記障害物が検出された状態を表す検出結果であった場合に、総合的に前記障害物を検出したと判断する、
投射型映像表示装置。
In the projection type image display device of claim 1,
At least one of the detection result of the infrared sensor and the detection result of the far-infrared sensor is a detection result indicating that the obstacle has been detected. If it is determined that the obstacle has been detected comprehensively,
Projection type image display device.
請求項1の投射型映像表示装置において、
前記赤外線センサは、赤外線発光部と赤外線受光部とを有するアクティブ型のセンサであり、
前記遠赤外線センサは、前記赤外線センサの前記赤外線受光部が対応している波長よりも長波長域である遠赤外線域の赤外線を受光する赤外線受光部を有するパッシブ型のセンサである、
投射型映像表示装置。
In the projection type image display device of claim 1,
The infrared sensor is an active sensor having an infrared light emitting portion and an infrared light receiving portion,
The far-infrared sensor is a passive sensor having an infrared light receiving portion that receives infrared light in a far-infrared region that is a longer wavelength region than the infrared light receiving portion of the infrared sensor corresponds to.
Projection type image display device.
請求項1記載の投射型映像表示装置において、
前記制御部は、
前記検出判断の結果、前記障害物が検出されたと判断した場合、
前記検出判断の結果に応じた第1障害物対応処理の制御として、
前記光源の輝度を低減する制御、
前記投射光学系から投射される映像にメッセージを表示する制御、
前記投射型映像表示装置が有するスピーカから警告音を出力する制御、
前記投射型映像表示装置が有する表示器によりエラーを通知する制御、および、
前記投射型映像表示装置からリモコンまたは無線端末にエラーを通知する制御、
のうち少なくともいずれか1つの制御を行う、
投射型映像表示装置。
The projection type image display device according to claim 1,
The control unit
When it is determined that the obstacle is detected as a result of the detection determination,
As control of the first obstacle handling process according to the result of the detection judgment,
control to reduce the brightness of the light source;
control to display a message on the image projected from the projection optical system;
Control for outputting a warning sound from a speaker included in the projection video display device;
Control for notifying an error by a display device included in the projection type image display device; and
Control for notifying an error from the projection display device to a remote controller or a wireless terminal;
Control at least one of
Projection type image display device.
請求項1記載の投射型映像表示装置において、
前記制御部は、
前記検出判断の結果、前記障害物が検出されたと判断した後に、前記障害物が検出された状態が継続しているか否かを判断する第1継続判断を行い、
前記第1継続判断の結果に応じて第1障害物対応処理を行い、
前記第1継続判断の結果、前記障害物が検出された状態が継続していると判断した後に、前記障害物が検出された状態が継続しているか否かを判断する第2継続判断を行い、
前記第2継続判断の結果に応じて第2障害物対応処理を行う、
投射型映像表示装置。
The projection type image display device according to claim 1,
The control unit
After determining that the obstacle has been detected as a result of the detection determination, performing a first continuation determination for determining whether the state in which the obstacle has been detected continues,
performing a first obstacle handling process according to the result of the first continuation determination;
After determining that the state in which the obstacle has been detected continues as a result of the first continuation determination, a second continuation determination is made to determine whether or not the state in which the obstacle has been detected continues. ,
performing a second obstacle handling process according to the result of the second continuation determination;
Projection type image display device.
請求項5記載の投射型映像表示装置において、
前記第1継続判断は、前記検出判断の結果の前記障害物が検出された状態が、第1期間において継続したか否かを判断するものであり、
前記第2継続判断は、前記検出判断の結果の前記障害物が検出された状態が、第2期間において継続したか否かを判断するものであり、
前記第1期間の長さは前記第2期間の長さ以上である、
投射型映像表示装置。
In the projection type image display device according to claim 5,
The first continuation determination is for determining whether or not the state in which the obstacle is detected as a result of the detection determination has continued in a first period,
The second continuation determination is for determining whether or not the state in which the obstacle is detected as a result of the detection determination has continued in a second period,
the length of the first period is greater than or equal to the length of the second period;
Projection type image display device.
請求項6記載の投射型映像表示装置において、
前記制御部は、
前記第1継続判断の際、前記第1期間以内において、前記遠赤外線センサが検出する温度が、第1閾値を超えた場合、前記第1期間の経過を待たずとも、前記障害物が検出された状態が継続していると判断し、前記第1障害物対応処理へ移行し、
前記第2継続判断の際、前記第2期間において、前記障害物センサのうち前記遠赤外線センサが検出する温度が、前記第1閾値よりも大きい第2閾値を超えた場合、前記第2期間の経過を待たずとも、前記障害物が検出された状態が継続していると判断し、前記第2障害物対応処理へ移行する、
投射型映像表示装置。
In the projection type image display device according to claim 6,
The control unit
When the first continuation determination is made, if the temperature detected by the far-infrared sensor exceeds the first threshold within the first period, the obstacle is detected without waiting for the first period to elapse. judging that the state is continuing, moving to the first obstacle handling process,
At the time of the second continuation determination, if the temperature detected by the far-infrared sensor among the obstacle sensors exceeds a second threshold larger than the first threshold during the second period, Determining that the state in which the obstacle has been detected continues without waiting for the passage of time, and moving to the second obstacle handling process;
Projection type image display device.
請求項5記載の投射型映像表示装置において、
前記制御部は、前記第2継続判断の結果に応じた前記第2障害物対応処理の制御として、
前記投射光学系から投射される映像を黒画面表示映像に切り替える制御、
前記投射光学系から投射される映像にメッセージを表示する制御、
前記投射型映像表示装置が有するスピーカから警告音を出力する制御、
前記投射型映像表示装置が有する表示器によりエラーを通知する制御、および、
前記投射型映像表示装置からリモコンまたは無線端末に対しエラーを通知する制御、
のうち少なくともいずれか1つの制御を行う、
投射型映像表示装置。
In the projection type image display device according to claim 5,
The control unit controls the second obstacle handling process according to the result of the second continuation determination,
control for switching an image projected from the projection optical system to a black screen display image;
control to display a message on the image projected from the projection optical system;
Control for outputting a warning sound from a speaker included in the projection video display device;
Control for notifying an error by a display device included in the projection type image display device; and
Control for notifying an error from the projection display device to a remote controller or a wireless terminal;
Control at least one of
Projection type image display device.
請求項1記載の投射型映像表示装置において、
前記投射光学系の出射部は、前記投射型映像表示装置の上面に配置されており、
前記障害物センサは、少なくとも、前記上面における前記出射部の付近に配置されている1個以上の前記赤外線センサおよび1個以上の前記遠赤外線センサを含む、
投射型映像表示装置。
The projection type image display device according to claim 1,
an output unit of the projection optical system is arranged on an upper surface of the projection type image display device,
The obstacle sensor includes at least one or more infrared sensors and one or more far-infrared sensors arranged near the emitting portion on the upper surface,
Projection type image display device.
請求項9記載の投射型映像表示装置において、
少なくとも1個の前記赤外線センサの検出範囲の中心軸の方向は、前記投射型映像表示装置の設置面に対し垂直であり、
少なくとも1個の前記遠赤外線センサの検出範囲の中心軸の方向は、前記投射型映像表示装置の設置面に対し垂直である、
投射型映像表示装置。
In the projection type image display device according to claim 9,
the direction of the central axis of the detection range of at least one infrared sensor is perpendicular to the installation surface of the projection display device;
The direction of the central axis of the detection range of at least one far-infrared sensor is perpendicular to the installation surface of the projection-type image display device,
Projection type image display device.
請求項9記載の投射型映像表示装置において、
前記赤外線センサは、前記上面において、前記出射部の位置に対し前記表示面に向かって左右の方向で異なる位置に配置されている少なくとも2個の赤外線センサを含む、
投射型映像表示装置。
In the projection type image display device according to claim 9,
The infrared sensor includes at least two infrared sensors arranged at different positions on the upper surface in the left and right directions toward the display surface with respect to the position of the emitting part,
Projection type image display device.
請求項9記載の投射型映像表示装置において、
前記赤外線センサは、前記出射部の上側に配置されている赤外線センサを含み、
前記上側に配置されている赤外線センサの検出範囲の中心軸の方向は、前記表示面に向かう方向であって、かつ、水平方向、または水平より下向きの方向である、
投射型映像表示装置。
In the projection type image display device according to claim 9,
The infrared sensor includes an infrared sensor arranged above the output unit,
The direction of the central axis of the detection range of the infrared sensor arranged on the upper side is the direction toward the display surface and the horizontal direction or a direction downward from the horizontal,
Projection type image display device.
請求項9記載の投射型映像表示装置において、
前記光源を含む部分を冷却する冷却部を備え、
前記冷却部によって前記光源を冷却した後の排気の排気方向は、
前記表示面に対して反対側である前記投射型映像表示装置の背面から、前記表示面に対して反対側へ向かう方向である、または、
前記表示面に向かって左右の方向のいずれか一方の側面から、前記表示面に向かって左右の方向のいずれか一方への方向である、
投射型映像表示装置。
In the projection type image display device according to claim 9,
A cooling unit for cooling a portion including the light source,
The exhaust direction of the exhaust after cooling the light source by the cooling unit is
A direction from the rear surface of the projection display device, which is the opposite side of the display surface, toward the opposite side of the display surface, or
A direction from either one of the left and right directions toward the display surface to one of the left and right directions toward the display surface,
Projection type image display device.
請求項1記載の投射型映像表示装置において、
前記制御部は、前記障害物の検出判断の結果に基づいて、前記投射光学系から投射される映像に、前記障害物への対応に係わるメッセージまたはマークを表示する制御を行い、
前記メッセージまたは前記マークは、前記表示面の投射映像の領域において所定の位置に静止した状態で表示される、または、前記領域内で複数の位置に複数のメッセージまたは複数のマークとして同時に表示される、または、前記領域内で複数の位置を移動しながら表示される、
投射型映像表示装置。
The projection type image display device according to claim 1,
The control unit performs control to display a message or a mark relating to handling of the obstacle on the image projected from the projection optical system based on the result of the obstacle detection determination,
The message or the mark is displayed stationary at a predetermined position in the area of the projected image on the display surface, or simultaneously displayed as multiple messages or multiple marks at multiple positions within the area. , or displayed while moving through multiple positions within said area,
Projection type image display device.
請求項1記載の投射型映像表示装置において、
前記障害物センサは、前記赤外線センサとして、複数の位置に配置されている複数の赤外線センサを有し、
前記制御部は、前記複数の赤外線センサの複数の検出結果に基づいて、前記表示面の投射映像の領域のうち前記障害物によって遮られる領域を推定し、前記障害物の検出判断の結果に基づいて、前記投射光学系から投射される映像に、前記障害物への対応に係わるメッセージまたはマークを表示する制御を行い、
前記メッセージまたは前記マークは、前記推定の結果に応じて、前記投射映像の領域のうち前記遮られる領域以外の領域に表示される、
投射型映像表示装置。
The projection type image display device according to claim 1,
The obstacle sensor has a plurality of infrared sensors arranged at a plurality of positions as the infrared sensor,
The control unit estimates an area blocked by the obstacle in the area of the projected image on the display surface based on the plurality of detection results of the plurality of infrared sensors, and based on the detection determination result of the obstacle. controls to display a message or mark related to handling the obstacle on the image projected from the projection optical system;
The message or the mark is displayed in an area of the projected image other than the blocked area, according to the result of the estimation.
Projection type image display device.
投射型映像表示装置における障害物検出方法であって、
前記投射型映像表示装置は、
光源と、
前記光源からの光を透過または反射する表示素子と、
前記表示素子からの光を表示面に対し投射して映像を表示する投射光学系と、
前記投射光学系の出射部の付近の障害物を検出する障害物センサと、
前記映像の表示を制御する制御部と、
を備え、
前記障害物センサは、赤外線センサと遠赤外線センサとを含み、
前記制御部が、前記赤外線センサの検出結果と、前記遠赤外線センサの検出結果とに基づいて、前記障害物の検出判断を行うステップを有する、
障害物検出方法。
A method for detecting an obstacle in a projection-type image display device, comprising:
The projection type image display device comprises:
a light source;
a display element that transmits or reflects light from the light source;
a projection optical system that projects light from the display element onto a display surface to display an image;
an obstacle sensor that detects an obstacle in the vicinity of the exit portion of the projection optical system;
a control unit that controls display of the video;
with
the obstacle sensor includes an infrared sensor and a far infrared sensor,
The control unit, based on the detection result of the infrared sensor and the detection result of the far infrared sensor, making a detection judgment of the obstacle,
Obstacle detection method.
JP2019125126A 2019-07-04 2019-07-04 Projection type image display device and obstacle detection method Active JP7248527B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019125126A JP7248527B2 (en) 2019-07-04 2019-07-04 Projection type image display device and obstacle detection method
PCT/JP2020/007157 WO2021002048A1 (en) 2019-07-04 2020-02-21 Projection video display device and obstacle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019125126A JP7248527B2 (en) 2019-07-04 2019-07-04 Projection type image display device and obstacle detection method

Publications (2)

Publication Number Publication Date
JP2021012248A JP2021012248A (en) 2021-02-04
JP7248527B2 true JP7248527B2 (en) 2023-03-29

Family

ID=74101258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019125126A Active JP7248527B2 (en) 2019-07-04 2019-07-04 Projection type image display device and obstacle detection method

Country Status (2)

Country Link
JP (1) JP7248527B2 (en)
WO (1) WO2021002048A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113038103A (en) * 2021-03-22 2021-06-25 青岛海信激光显示股份有限公司 Laser projection host applied to laser display equipment and laser display equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060092383A1 (en) 2004-11-01 2006-05-04 Gregory Vinson System and method for projector external hazard proximity protection
JP2008176195A (en) 2007-01-22 2008-07-31 Seiko Epson Corp Projector
JP2008256367A (en) 2007-03-30 2008-10-23 Toyota Central R&D Labs Inc Infrared imaging device, obstacle detector and method therefor
JP2013105171A (en) 2011-11-17 2013-05-30 Seiko Epson Corp Projector and control method of the same
JP2015114653A (en) 2013-12-16 2015-06-22 株式会社リコー Image projection device
WO2015111364A1 (en) 2014-01-22 2015-07-30 株式会社リコー Image projection device, control method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060092383A1 (en) 2004-11-01 2006-05-04 Gregory Vinson System and method for projector external hazard proximity protection
JP2008176195A (en) 2007-01-22 2008-07-31 Seiko Epson Corp Projector
JP2008256367A (en) 2007-03-30 2008-10-23 Toyota Central R&D Labs Inc Infrared imaging device, obstacle detector and method therefor
JP2013105171A (en) 2011-11-17 2013-05-30 Seiko Epson Corp Projector and control method of the same
JP2015114653A (en) 2013-12-16 2015-06-22 株式会社リコー Image projection device
WO2015111364A1 (en) 2014-01-22 2015-07-30 株式会社リコー Image projection device, control method, and program

Also Published As

Publication number Publication date
JP2021012248A (en) 2021-02-04
WO2021002048A1 (en) 2021-01-07

Similar Documents

Publication Publication Date Title
JP3735624B2 (en) Projection display device
US7515822B2 (en) Imaging systems' direct illumination level adjusting method and system involves adjusting operation of image sensor of imaging system based on detected level of ambient illumination
JP6417690B2 (en) Projector, display device, and projector control method
JP2012256000A (en) Projection video display device
JP5023587B2 (en) Image display device and image display method
US20080129965A1 (en) Projector
JP4504802B2 (en) Projection type image display device
US7972005B2 (en) Computer projector method and apparatus having a safety feature for blacking out a portion of the image being projected onto a person
JP2011043876A (en) Image display device
JP2008268579A (en) Rear projection type display apparatus
JP2010243921A (en) Projection video display apparatus
JP2019008015A (en) Projection device, method for projection, and program
JP2006330447A (en) Front projector
JP7248527B2 (en) Projection type image display device and obstacle detection method
JP2010034820A (en) Projector, control method of projector, and control program
US11750781B2 (en) Projection apparatus and projection method
JP6212984B2 (en) Projection apparatus, projection method, and program
US20170263168A1 (en) Apparatus, method, and non-transitory medium storing program for image display
TW201445240A (en) Protection system for projector and method for same
JP2013109210A (en) Projector device
JP2015129876A (en) projector
JP6057407B2 (en) Touch position input device and touch position input method
JP2005091665A (en) Projector and obstacle detecting method
JP2007322704A (en) Image display system and its control method
JP2010217756A (en) Projector

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230316

R150 Certificate of patent or registration of utility model

Ref document number: 7248527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150