JP2019191431A - Image projection device and method for controlling image projection device - Google Patents

Image projection device and method for controlling image projection device Download PDF

Info

Publication number
JP2019191431A
JP2019191431A JP2018085934A JP2018085934A JP2019191431A JP 2019191431 A JP2019191431 A JP 2019191431A JP 2018085934 A JP2018085934 A JP 2018085934A JP 2018085934 A JP2018085934 A JP 2018085934A JP 2019191431 A JP2019191431 A JP 2019191431A
Authority
JP
Japan
Prior art keywords
image
projection
range
projection range
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018085934A
Other languages
Japanese (ja)
Inventor
辰也 辻
Tatsuya Tsuji
辰也 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018085934A priority Critical patent/JP2019191431A/en
Publication of JP2019191431A publication Critical patent/JP2019191431A/en
Pending legal-status Critical Current

Links

Landscapes

  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide an image projection device capable of controlling a projection form according to a detection result of an instruction position.SOLUTION: An image projection device 100 projecting an input image comprises: imaging means 120 for imaging a range which includes a projection image projected by the image projection device 100; projection range detection means 162 for detecting a projection range from the picked-up image of the imaging unit 120; and indicated position detection means 161 for detecting a position indicated by indication means from the picked-up image of the imaging unit 120. In the case where an indicated position detected by the indicated position detection means 161 is outside the projection range detected by the projection range detection means 162, a lens shift 113 is controlled based on the indicated position.SELECTED DRAWING: Figure 2

Description

本発明は、画像投射装置に関し、特に位置検出に基づいて投射形態を制御する画像投射装置に関するものである。   The present invention relates to an image projection apparatus, and more particularly to an image projection apparatus that controls a projection form based on position detection.

従来、入力画像を投射する画像投射装置において、コンピュータと接続しコンピュータの画像を投射するユースケースが多くある。そのなかで、投射画面内のユーザーによる指示位置を検出しコンピュータのポインティング操作として利用する画像投射装置が知られている。   Conventionally, there are many use cases in which an image projection apparatus that projects an input image is connected to a computer and projects an image of the computer. Among them, there is known an image projection apparatus that detects an instruction position by a user in a projection screen and uses it as a pointing operation of a computer.

例えば、特許文献1では検出した指示位置を投射画面上の座標に変換し表示する装置が開示されている。   For example, Patent Literature 1 discloses a device that converts detected indication positions into coordinates on a projection screen and displays them.

特許4272904号公報Japanese Patent No. 4272904

しかしながら、上述の特許文献に開示された従来技術では、指やペンなどの指示体を用いて直感的にポインティング操作を行えるが、ポインティング中に投射形態を変更する場合には操作パネルやリモートコントローラーなどが別途必要となり直感的な操作感を損なうことになる。   However, in the prior art disclosed in the above-mentioned patent document, a pointing operation can be performed intuitively using an indicator such as a finger or a pen, but when changing the projection form during pointing, an operation panel, a remote controller, etc. Is required separately, and the intuitive operation feeling is impaired.

そこで、本発明の目的は、指示位置の検出結果に応じて投射形態を制御することを可能にした画像投射装置を提供することである。   Therefore, an object of the present invention is to provide an image projection apparatus that can control the projection form in accordance with the detection result of the designated position.

上記目的を達成するために、本発明は、入力画像を投射する画像投射装置であって、前記画像投射装置により投射された投射画像を含む範囲を撮影する撮像手段と、前記撮像部の撮影画像から投射範囲を検出する投射範囲検出手段と、前記撮像部の撮像画像から指示手段により指示された位置を検出する指示位置検出手段とを備え、前記指示位置検出手段によって検出された指示位置が前記投射範囲検出手段によって検出された前記投射範囲の外側にある場合、前記指示位置に基づいてレンズシフトを制御することを特徴とする。   In order to achieve the above object, the present invention provides an image projection apparatus that projects an input image, an imaging unit that captures a range including a projection image projected by the image projection apparatus, and a captured image of the imaging unit. Projection range detecting means for detecting a projection range from the image pickup section, and indicated position detecting means for detecting a position indicated by the instruction means from the captured image of the imaging unit, wherein the indicated position detected by the indicated position detection means is the When it is outside the projection range detected by the projection range detection means, the lens shift is controlled based on the indicated position.

本発明によれば、指示位置の検出結果に応じて投射形態を制御することを可能にした画像投射装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image projection apparatus which enabled control of the projection form according to the detection result of the designated position can be provided.

本発明の実施例1である画像投射装置のシステムの構成例を示す図。1 is a diagram illustrating a configuration example of a system of an image projection apparatus that is Embodiment 1 of the present invention. 本発明の実施例1である画像投射装置の構成を示すブロック図。1 is a block diagram showing a configuration of an image projection apparatus that is Embodiment 1 of the present invention. 本発明の実施例1である指示位置の検出方法の例を示す図。The figure which shows the example of the detection method of the designated position which is Example 1 of this invention. 本発明の実施例1である投射範囲の検出方法の例を示す図。The figure which shows the example of the detection method of the projection range which is Example 1 of this invention. 本発明の実施例1であるキャリブレーションパターンの例を示す図。FIG. 3 is a diagram illustrating an example of a calibration pattern that is Embodiment 1 of the present invention. 本発明の実施例1である通知の例を示す画面図。The screen figure which shows the example of the notification which is Example 1 of this invention. 本発明の実施例1であるシフト制御の処理手順を示すフローチャートThe flowchart which shows the process sequence of the shift control which is Example 1 of this invention. 本発明の実施例2である画像投射装置の構成を示すブロック図。FIG. 5 is a block diagram illustrating a configuration of an image projection apparatus that is Embodiment 2 of the present invention. 本発明の実施例2である第三領域の検出方法の例を示す図。The figure which shows the example of the detection method of the 3rd area | region which is Example 2 of this invention. 本発明の実施例2であるシフト制御の処理手順を示すフローチャート。The flowchart which shows the process sequence of the shift control which is Example 2 of this invention. 本発明の実施例2であるテストパターンの例を示す図。The figure which shows the example of the test pattern which is Example 2 of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[実施例1]
以下、図1〜7を参照して、本発明の第1の実施例による、画像投射装置について説明する。図1に、本発明の第一の実施形態に係る画像投射装置を含むシステムの構成例を示す。このシステムは画像投射装置としてのプロジェクター100と、PC(Personal Computer)200とを画像信号ケーブル210と通信ケーブル220を介して接続した構成になっている。プロジェクター100は、PC200から映像信号ケーブル210を介して受信した映像信号に基づいて画像をSC(スクリーン)に投射する装置である。
[Example 1]
The image projection apparatus according to the first embodiment of the present invention will be described below with reference to FIGS. FIG. 1 shows a configuration example of a system including an image projection apparatus according to the first embodiment of the present invention. This system has a configuration in which a projector 100 as an image projection apparatus and a PC (Personal Computer) 200 are connected via an image signal cable 210 and a communication cable 220. The projector 100 is a device that projects an image on an SC (screen) based on a video signal received from the PC 200 via the video signal cable 210.

映像信号ケーブル210は、例えばRGBケーブルなどのアナログ信号を伝送するものや、DVI(Digital Visual Interface)ケーブルやHDMI(登録商標)(High Definition Multimedia Interface)ケーブル、Display Portケーブルなどのデジタル信号を伝送するものを含む。なお、映像信号ケーブル210は有線ケーブルである必要はなく、無線通信によって映像信号を伝送するWirelessHDやMiracastなどの技術を用いて伝送するものであってもよい。また、プロジェクター100は、PC200と通信ケーブル220を介して接続され、制御データや画像データの送受信をしてもよい。   The video signal cable 210 transmits, for example, an analog signal such as an RGB cable, or a digital signal such as a DVI (Digital Visual Interface) cable, an HDMI (registered trademark) (High Definition Multimedia Interface) cable, or a Display Port cable. Including things. Note that the video signal cable 210 does not need to be a wired cable, and may be transmitted using a technique such as WirelessHD or Miracast that transmits a video signal by wireless communication. Further, the projector 100 may be connected to the PC 200 via the communication cable 220 to transmit and receive control data and image data.

通信ケーブル220は、USBケーブルやLANケーブル(例えば、RJ−45)、シリアルケーブル(例えば、RS−232)などの有線ケーブルであってもよいし、Wi−fiやBluetoothe(登録商標)などの無線通信であってもよい。指示体300は、SCに投射された画像に対して位置を指示するために用いる。指示体300で指示する位置は投射画像内であってもよいし、投射画像外であってもよい。また、指示体300としては、先端から赤外光を発信するポインティングデバイスや他の不可視光や可視光を発する装置、単なるペン、ユーザーの指などが挙げられる。   The communication cable 220 may be a wired cable such as a USB cable, a LAN cable (for example, RJ-45), a serial cable (for example, RS-232), or a wireless cable such as Wi-fi or Bluetooth (registered trademark). Communication may be used. The indicator 300 is used to indicate a position with respect to the image projected on the SC. The position indicated by the indicator 300 may be within the projection image or may be outside the projection image. Examples of the indicator 300 include a pointing device that emits infrared light from the tip, another device that emits invisible light and visible light, a simple pen, and a user's finger.

図2に、本発明の第一の実施形態に係る画像投射装置のブロックを示す。画像投射装置としてのプロジェクター100の構成を下記に示す。投射光学系110、ズーム機構111、フォーカス機構112、シフト機構113、画像表示素子114、光源115、撮影手段としての撮像部120、制御部130、撮像制御部131、ズーム制御部132、フォーカス制御部133、シフト制御部134、光源制御部135、画像処理部140、I/F(インターフェース)150、撮像画像解析部160、指示位置検出手段としての指示位置検出部161、投射範囲検出手段としての投射範囲検出部162、操作部170、記憶部180を備える。   FIG. 2 shows a block of the image projection apparatus according to the first embodiment of the present invention. A configuration of the projector 100 as the image projection apparatus is shown below. Projection optical system 110, zoom mechanism 111, focus mechanism 112, shift mechanism 113, image display element 114, light source 115, imaging unit 120 as imaging means, control unit 130, imaging control unit 131, zoom control unit 132, focus control unit 133, shift control unit 134, light source control unit 135, image processing unit 140, I / F (interface) 150, captured image analysis unit 160, designated position detection unit 161 as designated position detection means, and projection as projection range detection means A range detection unit 162, an operation unit 170, and a storage unit 180 are provided.

I/F150は、プロジェクター100と外部装置を接続するインターフェースとしての役割を備える。映像信号を受信するために、例えば、VGA端子、S−Video端子、D端子などのアナログ信号を受信する端子や、HDMI端子、DVI端子、DisplayPort端子、SDI端子、HDBaseT端子などのデジタル信号を受信する為の端子を備える。制御信号を送受信するために、例えば、USB端子や、LAN端子、シリアル端子などを備える。   The I / F 150 has a role as an interface for connecting the projector 100 and an external device. For receiving video signals, for example, receiving analog signals such as VGA terminal, S-Video terminal and D terminal, and digital signals such as HDMI terminal, DVI terminal, DisplayPort terminal, SDI terminal and HDBaseT terminal It has a terminal to do. For example, a USB terminal, a LAN terminal, and a serial terminal are provided to transmit and receive control signals.

また、映像信号や制御信号の送受信については、これらの端子以外に無線通信を用いてもよい。さらに、I/F150は、これらの端子を通じて入力された映像信号を受信するためのレシーバICや、アナログ信号をデジタル信号に変換するためのA/D変換回路など(いずれも図示せず)を備える。   In addition to these terminals, wireless communication may be used for transmission and reception of video signals and control signals. Further, the I / F 150 includes a receiver IC for receiving a video signal input through these terminals, an A / D conversion circuit for converting an analog signal into a digital signal, and the like (none of which are shown). .

画像処理部140は、I/F150から入力された映像信号に対して画像処理を施す。例えば、解像度変換などのスケーリング処理、明るさ、コントラスト、シャープネス、色温度、ガンマなどを調整する画質調整処理、モスキートノイズ、ブロックノイズなどを除去するノイズ除去処理、キーストーン補正処理、IP変換処理、フレーム補間処理、などを備える。画像処理部140は、このような処理を行った映像信号を画像表示素子114に出力する。また、制御信号を制御部130に出力する。   The image processing unit 140 performs image processing on the video signal input from the I / F 150. For example, scaling processing such as resolution conversion, image quality adjustment processing for adjusting brightness, contrast, sharpness, color temperature, gamma, etc., noise removal processing for removing mosquito noise, block noise, keystone correction processing, IP conversion processing, Frame interpolation processing, etc. The image processing unit 140 outputs the video signal subjected to such processing to the image display element 114. In addition, the control signal is output to the control unit 130.

光源115は、超高圧水銀ランプやメタルハライドランプ、キセノンランプ、ハロゲンランプなどのランプ光源で構成されているが、LED(Light Emitting Diode)やレーザーなどの固体光源やその他の光源を用いてもよい。さらに、光源115は、光源115を駆動するためのアクチュエーターなど(図示せず)を含み、光源制御部135の制御に基づいて光源115の点灯及び消灯を切り替える。光源115の光は、インテグレーター光学系や色分離光学系など(いずれも図示せず)を介して画像表示素子114へ出射される。   The light source 115 is composed of a lamp light source such as an ultra-high pressure mercury lamp, a metal halide lamp, a xenon lamp, or a halogen lamp, but a solid light source such as an LED (Light Emitting Diode) or a laser or other light source may be used. Further, the light source 115 includes an actuator or the like (not shown) for driving the light source 115, and switches on and off the light source 115 based on the control of the light source control unit 135. The light from the light source 115 is emitted to the image display element 114 via an integrator optical system, a color separation optical system, or the like (both not shown).

画像表示素子114は、RGBの3枚の透過型または反射型の液晶パネルなどで構成されるが、カラーホイールDMD(Digital Micromirror Device)を組み合わせた構成であってもよいし、光源115からの光を変調する機構であれば、その他の構成であってもよい。   The image display element 114 is configured by three transmissive or reflective liquid crystal panels of RGB, but may be configured by combining a color wheel DMD (Digital Micromirror Device) or light from the light source 115. Any other configuration may be used as long as it is a mechanism for modulating.

また、画像表示素子114は、画像処理部140から入力された映像信号に基づいて画像表示素子114を駆動するための画像表示素子駆動部(図示せず)を含む。この画像表示素子駆動部は、映像信号に応じた駆動電圧を印加することで各画素に対して透過率または反射率を設定する。画像表示素子114で変調された光は、色合成光学系など(図示せず)によって合成され、投射光学系110へ出射される。   The image display element 114 includes an image display element driving unit (not shown) for driving the image display element 114 based on the video signal input from the image processing unit 140. The image display element driving unit sets a transmittance or a reflectance for each pixel by applying a driving voltage corresponding to the video signal. The light modulated by the image display element 114 is combined by a color combining optical system or the like (not shown) and emitted to the projection optical system 110.

投射光学系110は、ズーム機構111、フォーカス機構112、シフト機構113などで構成される。投射光学系110は、画像表示素子114から入射された光を画像としてSCに投射する。   The projection optical system 110 includes a zoom mechanism 111, a focus mechanism 112, a shift mechanism 113, and the like. The projection optical system 110 projects the light incident from the image display element 114 onto the SC as an image.

ズーム機構111は、ズームレンズ、ズームレンズを駆動するアクチュエーター、ズームレンズの位置を検出するエンコーダーなど(いずれも図示せず)で構成され、ズーム制御部132の制御に基づいてズームレンズを駆動する。   The zoom mechanism 111 includes a zoom lens, an actuator that drives the zoom lens, an encoder that detects the position of the zoom lens, and the like (all not shown), and drives the zoom lens based on the control of the zoom control unit 132.

フォーカス機構112は、フォーカスレンズ、フォーカスレンズを駆動するアクチュエーター、フォーカスレンズの位置を検出するエンコーダーなど(いずれも図示せず)で構成され、フォーカス制御部133の制御に基づいてフォーカスレンズを駆動する。   The focus mechanism 112 includes a focus lens, an actuator that drives the focus lens, an encoder that detects the position of the focus lens, and the like (all not shown), and drives the focus lens based on the control of the focus control unit 133.

シフト機構113は、投射レンズ、投射レンズを駆動するアクチュエーター、投射レンズの位置を検出するエンコーダーなど(いずれも図示せず)で構成され、シフト制御部134の制御に基づいて投射レンズを駆動する。   The shift mechanism 113 includes a projection lens, an actuator that drives the projection lens, an encoder that detects the position of the projection lens, and the like (none of which are shown), and drives the projection lens based on the control of the shift control unit 134.

また、ズーム機構111、フォーカス機構112、シフト機構113の駆動速度は可変に切り替えられるものとする。   In addition, it is assumed that the driving speeds of the zoom mechanism 111, the focus mechanism 112, and the shift mechanism 113 can be variably switched.

制御部130は、撮像制御部131、ズーム制御部132、フォーカス制御部133、シフト制御部134、光源制御部135などから構成される。操作部130は、例えば、操作パネル170またはリモートコントローラー(図示せず)による操作や、PC200からの制御信号などに基づいて、プロジェクター100の各部を制御する。   The control unit 130 includes an imaging control unit 131, a zoom control unit 132, a focus control unit 133, a shift control unit 134, a light source control unit 135, and the like. The operation unit 130 controls each unit of the projector 100 based on, for example, an operation using the operation panel 170 or a remote controller (not shown), a control signal from the PC 200, or the like.

撮像制御部131は、撮像部120を制御することによって投射画像を含む撮像範囲を撮像する。また、撮像部120によって撮像された画像は撮像画像解析部160へ出力される。   The imaging control unit 131 captures an imaging range including a projection image by controlling the imaging unit 120. In addition, the image captured by the imaging unit 120 is output to the captured image analysis unit 160.

ズーム制御部132は、ズーム機構111のアクチュエーターやエンコーダーなど(いずれも図示せず)を制御することによって投射画像の縮小または拡大を行う。フォーカス制御部133は、フォーカス機構112のアクチュエーターやエンコーダーなど(いずれも図示せず)を制御することによって投射画像の焦点調整を行う。シフト制御部134、シフト機構113のアクチュエーターやエンコーダーなど(いずれも図示せず)を制御することによって投射画像の上下方向および左右方向への移動を行う。   The zoom control unit 132 reduces or enlarges the projected image by controlling an actuator, an encoder, and the like (none of which are shown) of the zoom mechanism 111. The focus control unit 133 adjusts the focus of the projected image by controlling an actuator, an encoder, and the like (none of which are shown) of the focus mechanism 112. The projected image is moved in the vertical and horizontal directions by controlling the shift control unit 134 and the actuators and encoders of the shift mechanism 113 (both not shown).

光源制御部135は、プロジェクター100の電源オンまたはオフや、ブランク機能、モード変更などに基づいて光源115のアクチュエーターなど(図示せず)を制御することによって投射画像の明るさ調整を行う。   The light source control unit 135 adjusts the brightness of the projected image by controlling an actuator (not shown) of the light source 115 based on power on or off of the projector 100, a blank function, a mode change, and the like.

撮像部120は、プロジェクター100の投射方向に設けられており、投射距離などの設置環境や、ズームやレンズシフトなどの調整状態に関わらず、投射画像を撮像できる十分に広い範囲の画角を備える。また、撮像部120の画角は操作部170などから調整可能であってもよい。なお、本実施例では撮像部120はプロジェクター100の内部に設けられているものとして説明を行うが、USBカメラなどのように外部に設けられていてもよい。撮像部120によって撮像された画像は撮像画像解析部160に出力される。   The imaging unit 120 is provided in the projection direction of the projector 100 and has a sufficiently wide range of angle of view that can capture a projected image regardless of the installation environment such as the projection distance and the adjustment state such as zoom and lens shift. . Further, the angle of view of the imaging unit 120 may be adjustable from the operation unit 170 or the like. In this embodiment, the imaging unit 120 is described as being provided inside the projector 100, but may be provided outside such as a USB camera. The image captured by the imaging unit 120 is output to the captured image analysis unit 160.

撮像画像解析部160は、指示位置検出部161や投射範囲検出部162などから構成され、撮像部120によって撮像された画像の解析を行う。   The captured image analysis unit 160 includes an instruction position detection unit 161, a projection range detection unit 162, and the like, and analyzes an image captured by the imaging unit 120.

指示位置検出部161は、撮像部120によって撮像された画像から、図1で示す指示体300の指示位置を検出する。指示位置の検出方法に関して、図3、4を用いて説明を行う。例えば、図3(1)に示すように指示体301が先端から赤外光を射出するポインティングデバイスであり、撮像部120が赤外線カメラであった場合の撮像画像を図4に示す。指示位置検出部161は、撮像画像から赤外光が射出されている箇所を特定し指示位置として検出する。   The designated position detection unit 161 detects the designated position of the indicator 300 illustrated in FIG. 1 from the image captured by the imaging unit 120. A method for detecting the designated position will be described with reference to FIGS. For example, as shown in FIG. 3A, a picked-up image when the indicator 301 is a pointing device that emits infrared light from the tip and the image pickup unit 120 is an infrared camera is shown in FIG. The designated position detection unit 161 identifies a location where infrared light is emitted from the captured image and detects it as the designated position.

さらに、指示位置を座標データに変換するために、撮像画像の右方向をX軸方向、下方向をY軸方向と定義する。以上の定義に従い、左上の座標を(0, 0)、右上の座標を(1, 0)、左下の座標を(0, 1)、右下の座標を(1, 1)、指示位置の座標を(Xn, Yn)と表す。指示位置検出部161で検出した指示位置の座標(Xn, Yn)は制御部130へ出力される。図3(2)に示すように指示体302が単なるペンであり、不可視光を投射面に対し一様に射出する不可視光射出装置303を備え、指示体302に反射した不可視光を検出するような構成においても、同様に指示位置の座標を検出することができる。また、指示位置の検出方法については、図3で示す構成のみに限定されるものではない。   Further, in order to convert the designated position into coordinate data, the right direction of the captured image is defined as the X-axis direction, and the downward direction is defined as the Y-axis direction. According to the above definition, the upper left coordinate is (0, 0), the upper right coordinate is (1, 0), the lower left coordinate is (0, 1), the lower right coordinate is (1, 1), and the coordinates of the indicated position Is represented as (Xn, Yn). The coordinates (Xn, Yn) of the designated position detected by the designated position detection unit 161 are output to the control unit 130. As shown in FIG. 3 (2), the indicator 302 is a simple pen, and includes an invisible light emitting device 303 that uniformly emits invisible light to the projection surface so as to detect the invisible light reflected by the indicator 302. Even in such a configuration, the coordinates of the designated position can be detected in the same manner. Further, the method for detecting the designated position is not limited to the configuration shown in FIG.

投射範囲検出部162は、撮像部120によって撮像された画像から、投射範囲を検出する。投射範囲の検出方法に関して、図4を用いて説明を行う。投射範囲を座標データとして取得するために、撮像画像の右方向をX軸方向、下方向をY軸方向と定義する。以上の定義に従い、投射画像の左上の座標を(Xp0, Yp0)、右上の座標を(Xp1, Yp1)、左下の座標を(Xp2, Yp2)、右下の座標を(Xp3, Yp3)と表す。指示位置の座標を(Xn, Yn)とする場合、指示位置の座標の投射範囲内/外の判定方法について、下記式(1)〜(4)を参照して説明を行う。判定方法は、まず、(1)〜(4)を算出する。次に、算出結果から(1)〜(4)の符号の比較を行う。その結果から、全ての符号が同じである場合は、(Xn, Yn)は投射範囲内と判定し、それ以外の場合は、投射範囲外と判定する。
(Xn−Xp0)×(Yp1−Yp0)−(Xp1−Xp0)×(Yn−Yp0) …(1)
(Xn−Xp1)×(Yp2−Yp1)−(Xp2−Xp1)×(Yn−Yp1) …(2)
(Xn−Xp2)×(Yp3−Yp2)−(Xp3−Xp2)×(Yn−Yp2) …(3)
(Xn−Xp3)×(Yp0−Yp3)−(Xp0−Xp3)×(Yn−Yp3) …(4)
投射範囲検出部162は、(Xn, Yn)が投射範囲外にあると判定された場合に、投射範囲外にある指示位置の座標を(Xm, Ym)とし、(Xm, Ym)が投射範囲に対して上下左右の中のどの方向にあるのかを判定する。下記式(5)〜(8)を参照しながら判定処理について説明を行う。
The projection range detection unit 162 detects the projection range from the image captured by the imaging unit 120. A method for detecting the projection range will be described with reference to FIG. In order to acquire the projection range as coordinate data, the right direction of the captured image is defined as the X-axis direction and the downward direction is defined as the Y-axis direction. According to the above definition, the upper left coordinates of the projected image are (Xp0, Yp0), the upper right coordinates are (Xp1, Yp1), the lower left coordinates are (Xp2, Yp2), and the lower right coordinates are (Xp3, Yp3). . When the coordinate of the designated position is (Xn, Yn), a method for determining whether the coordinate of the designated position is within or outside the projection range will be described with reference to the following equations (1) to (4). The determination method first calculates (1) to (4). Next, the codes (1) to (4) are compared from the calculation results. From the result, when all the codes are the same, (Xn, Yn) is determined to be within the projection range, and otherwise, it is determined to be outside the projection range.
(Xn−Xp0) × (Yp1−Yp0) − (Xp1−Xp0) × (Yn−Yp0) (1)
(Xn−Xp1) × (Yp2−Yp1) − (Xp2−Xp1) × (Yn−Yp1) (2)
(Xn−Xp2) × (Yp3−Yp2) − (Xp3−Xp2) × (Yn−Yp2) (3)
(Xn−Xp3) × (Yp0−Yp3) − (Xp0−Xp3) × (Yn−Yp3) (4)
When it is determined that (Xn, Yn) is outside the projection range, the projection range detection unit 162 sets the coordinates of the indicated position outside the projection range as (Xm, Ym), and (Xm, Ym) is the projection range. It is determined in which direction of up / down / left / right. The determination process will be described with reference to the following formulas (5) to (8).

まず、(5)の条件を満たすか否かの判定を行う。その結果、条件を満たす場合は、(Xm, Ym)が投射範囲に対して右方向にあると判定する。また、条件を満たさない場合は、(6)の条件判定に遷移する。いずれかの方向に判定がされるまで、(6)、(7)、(8)の条件判定を順番に行う。(6)で条件を満たした場合は左方向、(7)で条件を満たした場合は上方向、(8)で条件を満たした場合は下方向と判定される。なお、どの条件も満たさなかった場合は、(Xm, Ym)は投射範囲内にあると判定される。
(Xp0 > Xm) ∨ (Xp2 > Xm) …(5)
(Xp1 < Xm) ∨ (Xp3 < Xm) …(6)
(Yp0 < Xm) ∨ (Yp1 < Xm) …(7)
(Yp2 > Xm) ∨ (Yp3 > Xm) …(8)
投射範囲検出部162で検出した、指示位置の座標(Xn, Yn)と投射範囲との包含関係は制御部130へ出力される。(Xn, Yn)が投射範囲外と判定された場合は、さらに、(Xn, Yn)が投射範囲に対して上下左右のどの方向にあるのかという情報を付加して制御部130へ出力される。
First, it is determined whether or not the condition (5) is satisfied. As a result, when the condition is satisfied, it is determined that (Xm, Ym) is in the right direction with respect to the projection range. If the condition is not satisfied, the process proceeds to the condition determination of (6). Until the determination is made in any direction, the condition determinations (6), (7), and (8) are sequentially performed. When the condition is satisfied in (6), it is determined as the left direction, when the condition is satisfied in (7), it is determined as an upward direction, and when the condition is satisfied in (8), it is determined as a downward direction. When none of the conditions is satisfied, it is determined that (Xm, Ym) is within the projection range.
(Xp0> Xm) ∨ (Xp2> Xm) (5)
(Xp1 <Xm) ∨ (Xp3 <Xm) (6)
(Yp0 <Xm) ∨ (Yp1 <Xm) (7)
(Yp2> Xm) ∨ (Yp3> Xm) (8)
The inclusion relationship between the coordinates (Xn, Yn) of the designated position and the projection range detected by the projection range detection unit 162 is output to the control unit 130. When it is determined that (Xn, Yn) is out of the projection range, information about which direction (Xn, Yn) is above, below, left, or right with respect to the projection range is further added and output to the control unit 130. .

操作部170は、例えば、プロジェクター100の本体に設けられており、各種ボタンやインジケーターなどを備える。操作部170はユーザーなどの操作に基づいて制御部130へ制御信号を出力し、制御部130からの信号に従ってインジケーターを点灯する。なお、操作部170はプロジェクター100の外部に設けられていてもよいし、リモートコントローラーなどであってもよい。   The operation unit 170 is provided in the main body of the projector 100, for example, and includes various buttons and indicators. The operation unit 170 outputs a control signal to the control unit 130 based on an operation by a user or the like, and turns on the indicator according to the signal from the control unit 130. Note that the operation unit 170 may be provided outside the projector 100, or may be a remote controller or the like.

次に、制御部130で行われるキャリブレーションについて説明を行う。制御部130は、操作パネル170やPC200からキャリブレーションの実行命令を受信した場合や、制御部130がキャリブレーションをする必要があると判断した場合に、キャリブレーションを実施する。キャリブレーションが必要な場合とは、例えば、プロジェクター100のレンズシフトやズーム、フォーカスなどが操作された場合、アスペクト設定や台形補正などが変更された場合、PC200などの表示装置の設定が変更された場合などである。キャリブレーションを実施する場合、制御部130は画像処理部140に、キャリブレーション用のテストパターンの表示を要求する。   Next, calibration performed by the control unit 130 will be described. The control unit 130 performs calibration when a calibration execution command is received from the operation panel 170 or the PC 200 or when the control unit 130 determines that calibration is necessary. When calibration is necessary, for example, when the lens shift, zoom, focus, or the like of the projector 100 is operated, when the aspect setting or keystone correction is changed, the setting of the display device such as the PC 200 is changed. Such as the case. When the calibration is performed, the control unit 130 requests the image processing unit 140 to display a test pattern for calibration.

テストパターンとしては、例えば、図5に示すような投射範囲が分かるものが好ましい。次に、制御部130は撮像部120に、テストパターンの撮像を要求する。撮像部120で撮像された画像は、撮像画像解析部160で解析される。撮像画像解析部160は、撮像画像から投射範囲の検出やテストパターンの特徴点などを検出し、画像処理部140が出力したテストパターンの四隅または特徴点の座標へと変換する座標変換マトリクスを算出する。   As the test pattern, for example, a pattern in which the projection range as shown in FIG. 5 is known is preferable. Next, the control unit 130 requests the imaging unit 120 to capture a test pattern. The image captured by the imaging unit 120 is analyzed by the captured image analysis unit 160. The captured image analysis unit 160 detects a projection range, a feature point of the test pattern, and the like from the captured image, and calculates a coordinate conversion matrix for conversion into the four corners or feature point coordinates of the test pattern output by the image processing unit 140. To do.

また、撮像部120の画角などの設定や、プロジェクター100の投射距離、投射サイズなどの設置条件により、撮像範囲と投射範囲の関係が不適切な場合は、図6に示すようなメッセージを通知する。撮像範囲が適切であるか否かの判定については、制御部130が、ズーム機構111やシフト機構113の制御量を検出し、投射画像と制御量の関係から投射距離を算出する。その投射距離に基づいて、撮像範囲が最端位置までシフト制御を行った場合においても、投射画像を撮像するのに十分であるかという基準に従う。なお、キャリブレーションに合わせて、撮像画像を用いた自動フォーカス調整などを行ってもよい。   In addition, when the relationship between the imaging range and the projection range is inappropriate due to the setting of the angle of view of the imaging unit 120 and the installation conditions such as the projection distance and the projection size of the projector 100, a message as shown in FIG. 6 is notified. To do. For determining whether or not the imaging range is appropriate, the control unit 130 detects the control amounts of the zoom mechanism 111 and the shift mechanism 113, and calculates the projection distance from the relationship between the projected image and the control amount. Based on the projection distance, even when the imaging range is shifted to the extreme end position, the criterion of whether or not it is sufficient to capture the projected image is followed. Note that automatic focus adjustment using a captured image may be performed in accordance with calibration.

本実施例では、自動でキャリブレーションを実施する構成を例にして説明を行ったが、テストパターンの特徴点をユーザーが指示体を用いて順次指示していくような構成であってもよい。   In this embodiment, the description has been given by taking an example of a configuration in which calibration is automatically performed. However, a configuration in which a user sequentially indicates feature points of a test pattern using an indicator may be used.

PC200は、プロジェクター100と映像信号ケーブルや通信ケーブルで接続されている。また、撮像画像解析部160で判定された指示位置の座標を、制御部130で実施されるキャリブレーションで算出される座標変換マトリクスで正規化された座標に変換し、マウス座標として使用してもよい。なお、本実施例では、指示位置の解析や座標変換マトリクスの生成及び座標の正規化などの処理は、プロジェクター100が処理するとして説明を行ったが、PC200で処理される構成であってもよい。   The PC 200 is connected to the projector 100 via a video signal cable or a communication cable. Further, the coordinates of the designated position determined by the captured image analysis unit 160 may be converted into coordinates normalized by a coordinate conversion matrix calculated by calibration performed by the control unit 130 and used as mouse coordinates. Good. In the present embodiment, the processing such as the analysis of the designated position, the generation of the coordinate conversion matrix and the normalization of the coordinates has been described as being processed by the projector 100. However, the processing may be performed by the PC 200. .

次に、図7に示すフローチャートを参照しながら制御部130の処理について説明する。まず、S10では、指示位置検出部161により、指示位置の座標を検出する。なお、S10で指示位置の座標に失敗した場合は、S50へと遷移する。次に、S20では、投射範囲判定部162により、S10で検出した座標が投射範囲の外側か否かを判定する。指示位置が検出と判定されるまでの時間は投射範囲の内外で異なる。投射範囲内の検出は、ポインティングなどの並行操作を目的として利用するため、即座に検出を判定する必要がある。   Next, the processing of the control unit 130 will be described with reference to the flowchart shown in FIG. First, in S10, the designated position detection unit 161 detects the coordinates of the designated position. If the coordinates of the designated position have failed in S10, the process proceeds to S50. Next, in S20, the projection range determination unit 162 determines whether the coordinates detected in S10 are outside the projection range. The time until the designated position is determined to be detected differs between inside and outside the projection range. Since detection within the projection range is used for the purpose of parallel operations such as pointing, it is necessary to immediately determine the detection.

しかし、投射範囲外の検出判定は、プロジェクター100の制御などを目的として利用するため、誤検出や誤操作を防ぐために、近傍座標で一定時間の検出があった場合に検出と判定する。投射範囲の検出は、例えば、S20の中で毎回行ってもよいし、キャリブレーション実施時に合わせて行ってもよい。指示位置の座標が外側と判定された場合、さらに、S30で、その座標が投射範囲の上下左右方向のどの位置にあるのかを判定する。次に、S40では、シフト制御部134がS30で判定された方向に基づいて、シフト機構113を駆動する。指示位置が投射範囲の内側と判定されるまで、S10〜S40を繰り返すことで目的の位置にシフト駆動を行う。指示位置が投射画像の内側と判定された場合は、S50でシフト駆動を停止する。   However, since the detection determination outside the projection range is used for the purpose of controlling the projector 100 and the like, in order to prevent erroneous detection and erroneous operation, it is determined to be detection when there is detection for a certain period of time in the vicinity coordinates. The detection of the projection range may be performed every time in S20, or may be performed at the time of calibration. If it is determined that the coordinate of the designated position is outside, it is further determined in S30 which position in the vertical and horizontal directions of the projection range the coordinate is. Next, in S40, the shift control unit 134 drives the shift mechanism 113 based on the direction determined in S30. Shifting to the target position is performed by repeating S10 to S40 until the designated position is determined to be inside the projection range. If it is determined that the designated position is inside the projection image, the shift drive is stopped in S50.

以上述べたように、本実施例によれば、インタラクティブ機能を備えた画像投射装置において、操作パネルやリモートコントローラーなどの別の入力手段を必要とせずに、直感的にレンズシフト操作を実施することができる。また、指示位置を直接的に指定することで任意の位置へ好適な調整を行うことができる。   As described above, according to the present embodiment, in the image projection apparatus having an interactive function, the lens shift operation can be performed intuitively without requiring another input means such as an operation panel or a remote controller. Can do. Further, it is possible to make a suitable adjustment to an arbitrary position by directly specifying the designated position.

[実施例2]
図8〜11を参照して、本発明の第2の実施例による、画像投射装置について説明する。
主な構成は図1と同じだが、OSD表示部280を有することで、ユーザーに制御情報を通知することができる。実施例1と同一の部分には同一の符号を付し、重複する説明は省略する。
[Example 2]
An image projection apparatus according to a second embodiment of the present invention will be described with reference to FIGS.
Although the main configuration is the same as that in FIG. 1, the OSD display unit 280 can be used to notify the user of control information. The same parts as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.

図8は本発明の第3の実施形態にかかわる画像投射装置のブロック図である。画像投射装置としてのプロジェクター101はプロジェクター100の構成に比べて、制御部130は制御部230、投射範囲検出手段としての投射範囲検出部162は投射範囲検出部262に置き換わり、制御情報通知手段としてのOSD表示部280を備える。   FIG. 8 is a block diagram of an image projection apparatus according to the third embodiment of the present invention. Compared to the configuration of the projector 100, the projector 101 as an image projection apparatus is replaced with a control unit 230, a projection range detection unit 162 as a projection range detection unit, and a projection range detection unit 262. An OSD display unit 280 is provided.

投射範囲検出部262は、投射範囲検出部162の機能に加えて、図9に示すように、第三領域として投射範囲を縁取るように投射範囲外に数画素の領域を備える。また、投射範囲内を第一領域、投射範囲外且第二領域でない部分を第三領域とする。本実施例では、第三領域を備えることで、シフト駆動時により好適なシフト駆動の停止判定が行えると共に、シフト駆動により指示体304が投射範囲内へ侵入し、意図しない誤操作が発生するのを防止することができる。   In addition to the function of the projection range detection unit 162, the projection range detection unit 262 includes a region of several pixels outside the projection range so as to border the projection range as the third region, as shown in FIG. Further, a portion within the projection range is a first region, and a portion outside the projection range and not the second region is a third region. In the present embodiment, by providing the third region, it is possible to make a suitable stop determination of shift driving at the time of shift driving, and the indicator 304 enters the projection range by shift driving, and an unintended erroneous operation occurs. Can be prevented.

OSD(On Screen Display)表示部280は、例えば、ユーザーに情報を通知するために、画像処理部140を介してオンスクリーン画像(メニュー画面や制御情報、警告の表示など)を映像信号に重畳する。   For example, an OSD (On Screen Display) display unit 280 superimposes an on-screen image (such as a menu screen, control information, or warning display) on the video signal via the image processing unit 140 in order to notify the user of information. .

次に、図10に示すフローチャートを参照しながら制御部230の処理について説明する。なお、図7に示すフローチャートと同一の処理をする部分については説明を省略する。   Next, the processing of the control unit 230 will be described with reference to the flowchart shown in FIG. Note that description of the same processing as the flowchart shown in FIG. 7 is omitted.

S120では、投射範囲判定部262により、S10で検出した座標が第三領域か否かを判定する。第三領域であると判定された場合は、S30へ遷移し、そうでない場合は、S170へ遷移する。S140では、投射範囲検出部262により、指示位置と第二領域の間の距離を算出し、その結果が所定の閾値を超えているか否かを判定する。なお、設定される閾値は複数設定されていてもよい。   In S120, the projection range determination unit 262 determines whether the coordinates detected in S10 are the third region. If it is determined that the region is the third region, the process proceeds to S30, and if not, the process proceeds to S170. In S140, the projection range detection unit 262 calculates the distance between the designated position and the second region, and determines whether or not the result exceeds a predetermined threshold value. A plurality of threshold values may be set.

次に、S150では、OSD表示部280により、プロジェクター101がシフトモードに遷移した旨をユーザーに通知する。OSD表示部280は、例えば、図11に示すように、中央にシフト制御に関する情報を表示し、背景にテストパターンを表示するといった表示方法を備える。制御情報を表示することにより、ユーザーに対して、指示体305によって行われた操作のフィードバックを好適に行うことができる。また、テストパターンを表示することにより、シフト駆動中も投射範囲を正確に検出することで、シフト制御の精度向上に繋がる。   In step S150, the OSD display unit 280 notifies the user that the projector 101 has shifted to the shift mode. For example, as shown in FIG. 11, the OSD display unit 280 includes a display method of displaying information regarding shift control in the center and displaying a test pattern in the background. By displaying the control information, it is possible to favorably feedback the operation performed by the indicator 305 to the user. Further, by displaying the test pattern, it is possible to accurately detect the projection range even during the shift driving, thereby improving the accuracy of the shift control.

S160では、シフト制御部134がS30で判定された方向に基づいて、シフト機構113を駆動する。また、S140で判定された第二領域と指示位置の間の距離が大きければ大きいほど駆動速度が速くなるように駆動を行う。指示位置が第三領域外と判定されるまで、繰り返し処理を行うことで目的の位置にシフト駆動を行う。   In S160, the shift control unit 134 drives the shift mechanism 113 based on the direction determined in S30. Further, the drive is performed such that the greater the distance between the second region determined in S140 and the designated position, the faster the drive speed. Until the designated position is determined to be out of the third region, the shift driving is performed to the target position by repeatedly performing the process.

次に、S170では、投射範囲判定部262により、S10で検出した座標が第一領域か否かを判定する。第一領域であると判定された場合は、S180へ遷移し、そうでない場合は、指示位置は第二領域と判定されたことになるため、S190に遷移する。S180では、S10で判定された指示位置の情報を、ポインティングなどの操作に利用するために、PC200などの外部装置に出力する。そして、S190では、制御部230により、シフト駆動を停止すると共に、S150のシフトモード表示処理で表示されたOSDやテストパターンが残っている場合は、その表示を解除し通常の表示に戻す。   Next, in S170, the projection range determination unit 262 determines whether the coordinates detected in S10 are the first region. If it is determined that the region is the first region, the process proceeds to S180. If not, the designated position is determined to be the second region, and the process proceeds to S190. In S180, the information on the designated position determined in S10 is output to an external device such as the PC 200 in order to use it for an operation such as pointing. In S190, the control unit 230 stops the shift drive, and when the OSD or test pattern displayed in the shift mode display process in S150 remains, the display is canceled and the normal display is restored.

以上述べたように、本実施例によれば、領域判定に第三領域を備え、制御時に通知およびテストパターンを表示することで、より正確なレンズシフト制御を行うことができる。   As described above, according to the present embodiment, more accurate lens shift control can be performed by providing the third region for region determination and displaying the notification and the test pattern at the time of control.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。また、図2に示したプロジェクター100の各部構成は、外部の装置を用いて構成されてもよい。例えば、撮像部160にデジタルカメラをUSB接続する構成にし、撮像画像解析部160をPC200のアプリケーションを用いる構成とする。さらに、テストパターンの表示を映像ケーブル、制御部130への制御信号を通信ケーブルを用いて外部装置から伝送する形態であってもよい。その他、各部の構成についても、本実施例の要旨に沿っていれば、任意に変更可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. Moreover, each part structure of the projector 100 shown in FIG. 2 may be comprised using an external apparatus. For example, a digital camera is connected to the image capturing unit 160 via USB, and the captured image analysis unit 160 is configured to use an application of the PC 200. Further, the display of the test pattern may be transmitted from an external device using a video cable and the control signal to the control unit 130 may be transmitted using a communication cable. In addition, the configuration of each part can be arbitrarily changed as long as it follows the gist of the present embodiment.

100 プロジェクター
113 シフト機構
120 撮像部
130 制御部
161 指示位置検出部
162 投射範囲検出部
100 Projector 113 Shift Mechanism 120 Imaging Unit 130 Control Unit 161 Pointed Position Detection Unit 162 Projection Range Detection Unit

Claims (7)

入力画像を投射する画像投射装置であって、
前記画像投射装置により投射された投射画像を含む範囲を撮影する撮像手段と、
前記撮像部の撮影画像から投射範囲を検出する投射範囲検出手段と、
前記撮像部の撮像画像から指示手段により指示された位置を検出する指示位置検出手段とを備え、
前記指示位置検出手段によって検出された指示位置が前記投射範囲検出手段によって検出された前記投射範囲の外側にある場合、 前記指示位置に基づいてレンズシフトを制御することを特徴とする画像投射装置。
An image projection device for projecting an input image,
Imaging means for capturing a range including a projected image projected by the image projection device;
A projection range detecting means for detecting a projection range from a captured image of the imaging unit;
An instruction position detection unit that detects a position instructed by the instruction unit from a captured image of the imaging unit;
An image projection apparatus that controls lens shift based on the indicated position when the indicated position detected by the indicated position detection means is outside the projection range detected by the projection range detection means.
前記指示位置が前記投射範囲の外側にある場合、前記指示位置検出手段は前記指示位置が検出と判定されるまでの時間を前記投射範囲の内側にある場合より長く設定することを特徴とする請求項1に記載の画像投射装置。 When the indicated position is outside the projection range, the indicated position detection means sets a longer time until the indicated position is determined to be detected than when the indicated position is inside the projection range. Item 2. The image projection device according to Item 1. 前記指示位置に基づいてレンズシフトを制御する場合に、投射範囲を確認できる画像を表示することを特徴とする請求項1または請求項2に記載の画像投射装置。 3. The image projection apparatus according to claim 1, wherein when the lens shift is controlled based on the designated position, an image capable of confirming a projection range is displayed. 前記投射範囲検出手段は前記投射範囲の外側であり内側に最も近い一定範囲に第三領域を設定し、前記指示位置が前記第三領域にある場合にレンズシフトを制御しないことを特徴とする請求項1乃至3のいずれか1項に記載の画像投射装置。 The projection range detecting means sets a third region in a certain range that is outside the projection range and closest to the inside, and does not control lens shift when the indicated position is in the third region. Item 4. The image projection device according to any one of Items 1 to 3. 前記指示位置に基づいてレンズシフトを制御した後に、
示位置のキャリブレーションを行うことを特徴とする請求項1乃至4のいずれか1項に記載の画像投射装置。
After controlling the lens shift based on the indicated position,
The image projection apparatus according to claim 1, wherein the indicated position is calibrated.
制御情報を通知する制御情報通知手段を備え、
前記指示位置に基づいてレンズシフトを制御する場合に、前記制御情報通知手段によって制御情報を通知することを特徴とする請求項1乃至5のいずれか1項に記載の画像投射装置。
Control information notification means for notifying control information,
The image projection apparatus according to claim 1, wherein when the lens shift is controlled based on the designated position, the control information is notified by the control information notification unit.
入力画像を投射する画像投射装置の制御方法であって、
前記画像投射装置により投射された投射画像を含む範囲を撮影する撮像ステップと、
前記撮像部の撮影画像から投射範囲を検出する投射範囲検出ステップと、
前記撮像部の撮像画像から指示手段により指示された位置を検出する指示位置検出ステップとを備え、
前記指示位置検出ステップによって検出された指示位置が前記投射範囲検出ステップによって検出された前記投射範囲の外側にある場合、 前記指示位置に基づいてレンズシフトを制御することを特徴とする画像投射装置の制御方法。
A control method for an image projection apparatus that projects an input image,
An imaging step of photographing a range including a projection image projected by the image projection device;
A projection range detecting step for detecting a projection range from a captured image of the imaging unit;
An instruction position detection step for detecting a position instructed by an instruction means from a captured image of the imaging unit,
An image projection apparatus that controls lens shift based on the designated position when the designated position detected by the designated position detection step is outside the projection range detected by the projection range detection step. Control method.
JP2018085934A 2018-04-27 2018-04-27 Image projection device and method for controlling image projection device Pending JP2019191431A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018085934A JP2019191431A (en) 2018-04-27 2018-04-27 Image projection device and method for controlling image projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018085934A JP2019191431A (en) 2018-04-27 2018-04-27 Image projection device and method for controlling image projection device

Publications (1)

Publication Number Publication Date
JP2019191431A true JP2019191431A (en) 2019-10-31

Family

ID=68390159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018085934A Pending JP2019191431A (en) 2018-04-27 2018-04-27 Image projection device and method for controlling image projection device

Country Status (1)

Country Link
JP (1) JP2019191431A (en)

Similar Documents

Publication Publication Date Title
US10025400B2 (en) Display device and display control method
US11109007B2 (en) Method for controlling projector, projector, and projection system
US9324295B2 (en) Display device and method of controlling display device
US10921930B2 (en) Display apparatus, display system, and method for controlling display apparatus
US9134814B2 (en) Input device, display system and input method
US20150227262A1 (en) Projector and method of controlling projector
US9396520B2 (en) Projector system and control method thereof
JP6307852B2 (en) Image display device and method for controlling image display device
US10431131B2 (en) Projector and control method for projector
US10015457B2 (en) Projector and control method with a starting reference position in a lower part of a target image
JP2017182110A (en) Display system, display device, information processor, and information processing method
JP2011013396A (en) Projector, image projection system and image projection method
JP2017182109A (en) Display system, information processing device, projector, and information processing method
JP6180117B2 (en) Projection display
JP6273671B2 (en) Projector, display system, and projector control method
JP2019191431A (en) Image projection device and method for controlling image projection device
JP2018132769A (en) Image display device, and control method of image display device
US11099662B2 (en) Pointing element, display system, and method of controlling pointing element
JP6403002B2 (en) Projector system and projector system control method
US9787961B2 (en) Projector and method for controlling projector
JP6145963B2 (en) Projector, display system, and projector control method
US11979691B2 (en) Projection apparatus
JP6056447B2 (en) Display device and control method of display device
JP6300053B2 (en) Projector device and projector system
JP2014057237A (en) Computer input system, coordinate conversion device and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125