JP2020053009A - Control device, control method, program, and storage medium - Google Patents

Control device, control method, program, and storage medium Download PDF

Info

Publication number
JP2020053009A
JP2020053009A JP2019107221A JP2019107221A JP2020053009A JP 2020053009 A JP2020053009 A JP 2020053009A JP 2019107221 A JP2019107221 A JP 2019107221A JP 2019107221 A JP2019107221 A JP 2019107221A JP 2020053009 A JP2020053009 A JP 2020053009A
Authority
JP
Japan
Prior art keywords
area
projection
image
output
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2019107221A
Other languages
Japanese (ja)
Inventor
徹 小池
Toru Koike
徹 小池
貴之 関根
Takayuki Sekine
貴之 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/573,078 priority Critical patent/US11172180B2/en
Priority to EP19198017.6A priority patent/EP3627222B1/en
Priority to CN201910887506.1A priority patent/CN110933387B/en
Publication of JP2020053009A publication Critical patent/JP2020053009A/en
Ceased legal-status Critical Current

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Power Sources (AREA)
  • Position Input By Displaying (AREA)

Abstract

To provide a control device outputting predetermined light capable of reducing the power consumption.SOLUTION: The control device (detection unit 1500) includes: determination means (area determination unit 1605) that determines an output area of the predetermined light; output means (light source control part 1606) that outputs the predetermined light to the output area; and detection means (CPU 1601) that detects the predetermined light to thereby detecting an object intrusion into the output area. The determination means is configured to change the output area from a first area to a second area wider than the first area according to the detection result by the detection means.SELECTED DRAWING: Figure 16

Description

本発明は、制御装置、制御方法、プログラム、および記憶媒体に関する。   The present invention relates to a control device, a control method, a program, and a storage medium.

投影装置(プロジェクタ)によって投影された画像の近傍で行われるユーザの操作を検出することが可能な投影装置がある。   There is a projection device that can detect a user operation performed near an image projected by a projection device (projector).

特許文献1では、赤色(R)、緑色(G)、および青色(B)などの可視光をそれぞれ発するレーザー光源と、赤外光などの不可視光を発するレーザー光源とを搭載したレーザー走査型のプロジェクタが開示されている。このようなプロジェクタでは、投影された不可視光の反射光を検出することによりユーザの操作等を検出している。   In Patent Literature 1, a laser scanning type equipped with a laser light source that emits visible light such as red (R), green (G), and blue (B) and a laser light source that emits invisible light such as infrared light is mounted. A projector is disclosed. In such a projector, a user's operation or the like is detected by detecting the reflected light of the projected invisible light.

特開2012−58581号公報JP 2012-58581 A

しかしながら、特許文献1に開示された従来技術では、操作を検出するために、常に画面全体へ赤外光を投影することから、ユーザ操作の有無に関係なく不可視光を投影しているため消費電力が増加してしまうという問題がある。特に、近年では、プロジェクタと接続する電子機器のバッテリでプロジェクタを駆動することが行われており、消費電力の削減に対する需要が高まってきている。   However, in the related art disclosed in Patent Document 1, since infrared light is always projected on the entire screen in order to detect an operation, invisible light is projected regardless of the presence or absence of a user operation. There is a problem that is increased. In particular, in recent years, a projector is driven by a battery of an electronic device connected to the projector, and a demand for reduction in power consumption is increasing.

そこで、本発明は、所定の光を出力する制御装置の消費電力を低減することができる技術を提供することを目的とする。   Therefore, an object of the present invention is to provide a technique capable of reducing power consumption of a control device that outputs predetermined light.

本発明の一態様は、
所定の光の出力領域を決定する決定手段と、
前記所定の光を前記出力領域に出力する出力手段と、
前記所定の光を検知することにより、前記出力領域に対するオブジェクトの侵入を検知する検知手段と、
を備え、
前記決定手段は、前記検知手段の検知結果に応じて、前記出力領域を第1領域から前記第1領域より広い第2領域に変更する、
ことを特徴とする制御装置である。
One embodiment of the present invention provides
Determining means for determining a predetermined light output area,
Output means for outputting the predetermined light to the output area,
Detecting means for detecting intrusion of an object into the output area by detecting the predetermined light;
With
The determining unit changes the output region from a first region to a second region wider than the first region, according to a detection result of the detecting unit.
A control device characterized in that:

本発明の一態様は、
所定の光の出力領域を決定する決定ステップと、
前記所定の光を前記出力領域に出力する出力ステップと、
前記所定の光を検知することにより、前記出力領域に対するオブジェクトの侵入を検知する検知ステップと、
を有し、
前記決定ステップでは、前記検知ステップの検知結果に応じて、前記出力領域を第1領域から前記第1領域より広い第2領域に変更する、
ことを特徴とする制御方法である。
One embodiment of the present invention provides
A determining step of determining a predetermined light output area,
An output step of outputting the predetermined light to the output area,
A detecting step of detecting an intrusion of an object into the output area by detecting the predetermined light;
Has,
In the determining step, the output area is changed from a first area to a second area wider than the first area according to a detection result of the detecting step.
A control method characterized by the following.

本発明の一態様は、コンピュータを、上記の投影装置の各手段として機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as each unit of the projection device.

本発明の一態様は、上記プログラムを記憶するコンピュータが読み取り可能な記憶媒体である。   One embodiment of the present invention is a computer-readable storage medium that stores the program.

本発明によれば、所定の光を出力する制御装置の消費電力を低減することができる。   ADVANTAGE OF THE INVENTION According to this invention, the power consumption of the control apparatus which outputs predetermined light can be reduced.

実施形態1に係る投影装置の一例を示すブロック図1 is a block diagram illustrating an example of a projection device according to a first embodiment. 実施形態1に係る画像投影処理の一例を示すフローチャート5 is a flowchart illustrating an example of an image projection process according to the first embodiment. 実施形態1に係る画像投影処理の一例を示すフローチャート5 is a flowchart illustrating an example of an image projection process according to the first embodiment. 実施形態1に係る不可視光投影領域の算出方法を説明する概念図FIG. 4 is a conceptual diagram illustrating a method for calculating an invisible light projection area according to the first embodiment. 実施形態1に係る不可視光投影領域を示す概念図A conceptual diagram showing an invisible light projection area according to the first embodiment. 実施形態1に係る不可視光を用いた距離算出方法を示す図FIG. 5 is a diagram illustrating a distance calculation method using invisible light according to the first embodiment. 実施形態1に係る基準の距離画像を説明する概念図FIG. 3 is a conceptual diagram illustrating a reference distance image according to the first embodiment. 実施形態1に係る距離画像を説明する概念図FIG. 3 is a conceptual diagram illustrating a distance image according to the first embodiment. 実施形態1に係る差分画像を説明する概念図FIG. 4 is a conceptual diagram illustrating a difference image according to the first embodiment. 実施形態1に係るUI操作画像を説明する概念図FIG. 4 is a conceptual diagram illustrating a UI operation image according to the first embodiment. 実施形態2に係る投影装置及び外部機器の一例を示すブロック図FIG. 2 is a block diagram illustrating an example of a projection device and an external device according to a second embodiment. 実施形態2に係る画像投影処理の一例を示すフローチャート11 is a flowchart illustrating an example of an image projection process according to the second embodiment. 実施形態3に係る投影装置及び外部機器の一例を示すブロック図FIG. 6 is a block diagram illustrating an example of a projection device and an external device according to a third embodiment. 実施形態4に係る投影装置の一例を示すブロック図Block diagram showing an example of a projection device according to a fourth embodiment. 実施形態4に係る画像投影処理の一例を示すフローチャート14 is a flowchart illustrating an example of an image projection process according to the fourth embodiment. 実施形態4に係る不可視光投影領域の一例を示す図FIG. 14 is a diagram illustrating an example of an invisible light projection area according to the fourth embodiment. 実施形態5に係る不可視光投影領域の一例を示す図FIG. 14 is a diagram illustrating an example of an invisible light projection region according to the fifth embodiment. 実施形態6に係る検知装置の模式図Schematic diagram of a detection device according to Embodiment 6. 実施形態6に係る検知装置の機能ブロック図Functional block diagram of a detection device according to Embodiment 6. 実施形態6に係る検出処理のフローチャートFlowchart of detection processing according to the sixth embodiment 実施形態6に係る不可視光の照射領域を示す図The figure which shows the irradiation area | region of the invisible light which concerns on Embodiment 6.

(実施形態1)
<概要>
以下、本実施形態に係る投影装置100について説明する。本実施形態に係る投影装置100は、赤色(R)、緑色(G)、および青色(B)の可視光を用いて、投影面の投影領域に画像(投影画像)を投影することが可能な電子機器である。また、投影装置100は、投影画像に含まれるUI(ユ―ザインタフェース;User Interface)が表示される領域に赤外レーザー光(不可視光)を照射(投影)する。また、投影装置100は、不可視光の照射タイミングと、不可視光が投影面や対象物(ユーザなど)に反射した光(反射光)を受光するタイミングとに基づいて、ユーザの有無、ユーザ操作、ジェスチャ等を検知する。投影装置100は、検知した結果に基づいて、所定の処理を実行する。
(Embodiment 1)
<Overview>
Hereinafter, the projection device 100 according to the present embodiment will be described. The projection device 100 according to the present embodiment can project an image (projection image) on a projection area on a projection surface using red (R), green (G), and blue (B) visible light. Electronic equipment. Further, the projection device 100 irradiates (projects) infrared laser light (invisible light) to a region included in the projection image where a UI (User Interface; User Interface) is displayed. In addition, the projection apparatus 100 determines whether or not there is a user, a user operation, Detect gestures and the like. Projection device 100 performs a predetermined process based on the detected result.

本実施形態に係る投影装置100は、可視光を用いて投影画像が投影される領域(投影領域)よりも不可視光が投影される領域が小さくなるように、投影画像のUIの位置を示す情報に基づいて、不可視光を投影する領域を制御する。以下、本実施形態に係る投影装置100の全体構成、処理内容について順に説明する。   The projection device 100 according to the present embodiment uses the information indicating the position of the UI of the projection image such that the region where the invisible light is projected is smaller than the region where the projection image is projected using visible light (projection region). Controls the region where the invisible light is projected based on Hereinafter, the overall configuration and processing contents of the projection device 100 according to the present embodiment will be sequentially described.

<全体構成>
図1は、本実施形態に係る投影装置100のブロック図を示す。投影装置100は、演算装置(プロセッサ)、メモリ、記憶装置、入出力装置等を含む情報処理装置(コンピュータ)である。記憶装置に格納されたプログラムを投影装置100が実行することで、投影装置100の後述する機能が提供される。それらの機能の一部または全部は、ASICやFPGAなどの専用の論理回路により実装されてもよい。また、投影装置100は、例えば、パーソナルコンピュータや、スマートフォンなどの機能を内蔵するプロジェクタ(電子機器)と捉えることもできる。
<Overall configuration>
FIG. 1 shows a block diagram of a projection device 100 according to the present embodiment. The projection device 100 is an information processing device (computer) including an arithmetic device (processor), a memory, a storage device, an input / output device, and the like. When the projection device 100 executes the program stored in the storage device, functions of the projection device 100 described below are provided. Some or all of these functions may be implemented by dedicated logic circuits such as ASICs and FPGAs. Further, the projection device 100 can be regarded as, for example, a projector (electronic device) having a built-in function such as a personal computer or a smartphone.

CPU101は、後述するメモリ102に記憶されたプログラムを実行することにより、投影装置100の各機能の動作を制御する。また、CPU101は、メモリ102に記憶されたアプリケーションを実行する。   The CPU 101 controls the operation of each function of the projection device 100 by executing a program stored in a memory 102 described later. Further, the CPU 101 executes an application stored in the memory 102.

メモリ102は、CPU101が実行するプログラムや画像データなどを記憶する記憶媒体である。   The memory 102 is a storage medium that stores a program executed by the CPU 101, image data, and the like.

画像生成部103は、CPU101の要求に応じて投影画像データを生成する機能部である。本実施形態では、投影画像には、ユーザが操作を行うためのユーザインターフェース画像(以下、UI画像と称する)が含まれている例について説明する。   The image generation unit 103 is a functional unit that generates projection image data in response to a request from the CPU 101. In the present embodiment, an example will be described in which the projection image includes a user interface image (hereinafter, referred to as a UI image) for a user to perform an operation.

UI位置取得部104は、投影画像データにおけるUI画像の位置を特定するための情報(UI位置情報)を取得する機能部である。また、UI位置取得部104はUI画像の形状情報を抽出する。   The UI position acquisition unit 104 is a functional unit that acquires information (UI position information) for specifying the position of the UI image in the projection image data. Further, the UI position acquisition unit 104 extracts the shape information of the UI image.

領域決定部105は、赤外レーザー光を投影する領域(赤外投影領域)を決定する機能部である。また、領域決定部105は、決定した赤外投影領域に関する情報(赤外投影領域情報)を、後述する光源制御部106に出力する。領域決定部105は、投影画像データにおけるUI画像の位置を特定するための情報(UI位置情報)をUI位置取得部104から取得する。UI位置情報は、画像生成部103から取得することができる。なお、赤外投影領域情報の方法に関する詳細は後述する。また、本実施形態に係る投影装置100は、投影画像にUI画像が存在する(位置情報等を取得できる)場合に、不可視光を投影する。   The region determining unit 105 is a functional unit that determines a region on which an infrared laser beam is projected (an infrared projection region). Further, the area determination unit 105 outputs information on the determined infrared projection area (infrared projection area information) to the light source control unit 106, which will be described later. The area determination unit 105 acquires information (UI position information) for specifying the position of the UI image in the projection image data from the UI position acquisition unit 104. The UI position information can be acquired from the image generation unit 103. The details of the method of the infrared projection area information will be described later. The projection device 100 according to the present embodiment projects invisible light when a UI image exists in the projection image (position information and the like can be acquired).

光源制御部106は、投影画像データおよび赤外投影領域情報に基づいて、可視光を出力するレーザー光源108R、108G、108Bおよび赤外レーザー光源IRを制御するための光源制御信号を生成する。なお、投影画像データは、メモリ102から読み出された投影画像データでもよい。光源制御部106は、赤(R)、緑(G)、青(B)の3つの可視光源と、赤外(IR)の非可視光源とのそれぞれに対する光源制御信号を生成する。また、光源制御部106は、各レーザー光源から出力されたレーザー光を投影面上で走査するために走査ミラー(MEMS)を制御する同期信号(垂直同期信号、水平同期信号)を生成してミラー制御部112に出力する。   The light source control unit 106 generates a light source control signal for controlling the laser light sources 108R, 108G, 108B that output visible light and the infrared laser light source IR based on the projection image data and the infrared projection area information. Note that the projection image data may be projection image data read from the memory 102. The light source control unit 106 generates a light source control signal for each of three visible light sources of red (R), green (G), and blue (B) and an invisible light source of infrared (IR). The light source control unit 106 generates a synchronization signal (vertical synchronization signal, horizontal synchronization signal) for controlling a scanning mirror (MEMS) to scan the laser light output from each laser light source on a projection surface, and outputs the synchronization signal. Output to the control unit 112.

レーザードライバ107は、光源制御部106から出力された光源制御信号に基づいて、各レーザー光源の駆動電流を出力する。具体的には、レーザードライバ107は、各光制御信号に対応するレーザー光源の駆動電流を変調して、レーザー光源108R、108G、108Bおよび赤外レーザー光源110に対してそれぞれ駆動電流を出力する。   The laser driver 107 outputs a drive current for each laser light source based on the light source control signal output from the light source control unit 106. Specifically, the laser driver 107 modulates the drive current of the laser light source corresponding to each light control signal, and outputs a drive current to each of the laser light sources 108R, 108G, 108B and the infrared laser light source 110.

レーザー光源108R、108G、108Bは、レーザードライバ107から供給される駆動電流に基づいてレーザー光を出射する可視光源である。レーザー光源108Rは赤
色レーザー光(R)、レーザー光源108Gは緑色レーザー光(G)、レーザー光源108Bは青色レーザー光(B)を出射する。
The laser light sources 108R, 108G, and 108B are visible light sources that emit laser light based on a drive current supplied from the laser driver 107. The laser light source 108R emits red laser light (R), the laser light source 108G emits green laser light (G), and the laser light source 108B emits blue laser light (B).

ダイクロイックミラー109は、特定波長の光を反射し、それ以外の波長の光を透過する性質を有する。本実施形態に係るダイクロイックミラー109は、上記性質を利用して、3つのレーザー光源であるレーザー光源108R、108G、108Bより出射された各色のレーザー光を合成して、赤色光、緑色光、青色光成分を含むレーザー光を出力する。   The dichroic mirror 109 has a property of reflecting light of a specific wavelength and transmitting light of other wavelengths. The dichroic mirror 109 according to the present embodiment combines the laser light of each color emitted from the three laser light sources 108R, 108G, and 108B using the above-described properties, and generates red light, green light, and blue light. Outputs laser light containing light components.

赤外レーザー光源110は、レーザードライバ107から供給される駆動電流に基づいて赤外レーザー光を出射する不可視光源である。   The infrared laser light source 110 is an invisible light source that emits infrared laser light based on a drive current supplied from the laser driver 107.

ダイクロイックミラー111は、ダイクロイックミラー109で合成したレーザー光と、赤外レーザー光源110より出射される赤外レーザー光とを合成して、赤色光、緑色光、青色光、赤外光成分を含むレーザー光を出力する。   The dichroic mirror 111 combines the laser light synthesized by the dichroic mirror 109 and the infrared laser light emitted from the infrared laser light source 110 to form a laser including red light, green light, blue light, and infrared light components. Outputs light.

ミラー制御部112は、光源制御部106より出力される水平および垂直同期信号に基づいて、水平方向および垂直方向について予め定められた角度範囲で走査ミラーを駆動するための駆動信号を生成し、走査ミラー113に供給する機能部である。角度範囲は固定値とし、メモリ102に予め記憶しておくことができる。   The mirror control unit 112 generates a drive signal for driving the scanning mirror in a predetermined angle range in the horizontal and vertical directions based on the horizontal and vertical synchronization signals output from the light source control unit 106, and performs scanning. It is a functional unit that supplies to the mirror 113. The angle range can be a fixed value and can be stored in the memory 102 in advance.

走査ミラー113は、ダイクロイックミラー111から出射されたレーザー光を反射して、投影面方向に光路を変更する反射部材である。ミラー制御部112によって走査ミラー113の反射面の角度を変化させることにより、走査ミラー113が反射したレーザー光を投影面上に走査(2次元スキャン走査)することができる。なお、本実施形態に係る投影装置100は、レーザー走査方式で画像投影を行っているが、画像の投影方法は特に限定されず、例えば、レーザー投射方式や、液晶パネルを用いて画像投影を行ってもよい。投影装置は、レーザー光源、レーザードライバ、ダイクロイックミラー、ミラー制御部、および走査ミラー等を用いているが、これらの代わりに光源部、光源制御部、液晶制御部、液晶素子等を用いて投影を行ってもよい。   The scanning mirror 113 is a reflecting member that reflects the laser light emitted from the dichroic mirror 111 and changes the optical path in the direction of the projection plane. By changing the angle of the reflection surface of the scanning mirror 113 by the mirror control unit 112, the laser light reflected by the scanning mirror 113 can be scanned on the projection surface (two-dimensional scan scanning). Although the projection device 100 according to the present embodiment performs image projection by a laser scanning method, the method of projecting an image is not particularly limited. For example, the image projection is performed by using a laser projection method or a liquid crystal panel. You may. The projection device uses a laser light source, a laser driver, a dichroic mirror, a mirror control unit, a scanning mirror, and the like. Instead of these, a light source unit, a light source control unit, a liquid crystal control unit, a liquid crystal element, and the like are used to perform projection. May go.

設定部120は、投影装置100の設定を変更するための機能部である。本実施形態では、設定部120は、ユーザ操作に基づく操作信号を入力して、投影装置100の設定を変更する。   The setting unit 120 is a functional unit for changing the settings of the projection device 100. In the present embodiment, the setting unit 120 changes the setting of the projection device 100 by inputting an operation signal based on a user operation.

受光部130は、赤外レーザー光源110から出射され、投写面(投影面や対象物)において反射された赤外レーザー光を検出する機能部である。受光部130は例えばフォトダイオード、2次元センサ等を用いることができる。   The light receiving unit 130 is a functional unit that detects infrared laser light emitted from the infrared laser light source 110 and reflected on a projection surface (projection surface or an object). As the light receiving unit 130, for example, a photodiode, a two-dimensional sensor, or the like can be used.

距離検出部131は、赤外レーザー光源110によって出射される赤外レーザー光と、受光部130によって検出される赤外レーザー光(反射光)とに基づいて、投写面までの距離を算出する機能部である。例えば、距離検出部131は、TOF(Time of Flight)法によって距離の検出を行う。具体的には、赤外レーザー光源110が赤外レーザー光を出射してから受光部130が赤外レーザー光を検知するまでの時間差を測定することにより上記距離を算出する。なお、距離検出部131は、投影装置100と投写面との距離を算出することができればよく、測距方法については上記に限定されない。距離算出の詳細は後述する。   The distance detecting unit 131 calculates a distance to the projection surface based on the infrared laser light emitted by the infrared laser light source 110 and the infrared laser light (reflected light) detected by the light receiving unit 130. Department. For example, the distance detection unit 131 detects a distance by a TOF (Time of Flight) method. Specifically, the distance is calculated by measuring a time difference between when the infrared laser light source 110 emits the infrared laser light and when the light receiving unit 130 detects the infrared laser light. Note that the distance detection unit 131 only needs to be able to calculate the distance between the projection device 100 and the projection plane, and the distance measurement method is not limited to the above. Details of the distance calculation will be described later.

なお、画像生成部103、UI位置取得部104、領域決定部105等は、CPU101によって実現される機能部であってもよい。   Note that the image generation unit 103, the UI position acquisition unit 104, the area determination unit 105, and the like may be functional units implemented by the CPU 101.

<処理内容>
図2は、本実施形態に係る投影装置100の処理内容を示すフローチャートである。図2に示す処理は、投影装置100が起動され、初期設定が完了すると開始される。
<Processing content>
FIG. 2 is a flowchart showing the processing content of the projection device 100 according to the present embodiment. The process illustrated in FIG. 2 is started when the projection device 100 is activated and the initialization is completed.

S201で、CPU101は、ユーザの操作を検出するモードである操作検出モードが有効であるか否かを判断する。操作検出モードが有効である場合は、S202へ移行し、そうでない場合はS211へ移行する。操作検出モードのON(有効)/OFF(無効)を示す情報はメモリ102から読み出すことができる。なお、操作検出モードの設定は、ユーザが操作部(不図示)を介して設定することができる。   In S201, the CPU 101 determines whether or not an operation detection mode, which is a mode for detecting a user operation, is valid. If the operation detection mode is valid, the process proceeds to S202; otherwise, the process proceeds to S211. Information indicating ON (valid) / OFF (invalid) of the operation detection mode can be read from the memory 102. The setting of the operation detection mode can be set by the user via an operation unit (not shown).

S202で、画像生成部103は、投影面に可視光画像を投影するための投影画像データを取得(生成)する。なお、本実施形態では、投影画像データは、メモリ102から読み出した画像データであるが、外部装置から入力された画像でもよい。ここで、投影装置100が操作用の画像であるUI画像(操作画像)を重畳して投影する場合、投影画像データにUI画像データを合成する処理を実行する。   In S202, the image generation unit 103 acquires (generates) projection image data for projecting a visible light image on a projection plane. In the present embodiment, the projection image data is image data read from the memory 102, but may be an image input from an external device. Here, when the projection device 100 projects a UI image (operation image) that is an operation image in a superimposed manner, a process of combining the projection image data with the UI image data is performed.

S203で、UI位置取得部104は、投影画像データにおけるUI画像の位置を特定するためのUI位置情報を取得する。ここで、UI画像に対応する領域とは、投影画像のうちUI画像が表示される領域を示す。UI位置情報は、例えば、投影画像データにおけるUI画像の中心位置を示す座標情報と、UI画像の形状を示すパターン情報である。また、UI位置情報は、UI画像に対応する領域を所定の階調値とし、他の領域の階調値を0とした画像データ(不可視光画像データ)であってもよい。   In S203, the UI position obtaining unit 104 obtains UI position information for specifying the position of the UI image in the projection image data. Here, the area corresponding to the UI image indicates an area of the projection image where the UI image is displayed. The UI position information is, for example, coordinate information indicating the center position of the UI image in the projection image data and pattern information indicating the shape of the UI image. Further, the UI position information may be image data (invisible light image data) in which the area corresponding to the UI image is set to a predetermined gradation value and the gradation values of other areas are set to 0.

S204で、光源制御部106、レーザードライバ107、およびミラー制御部112は、投影画像データに基づく投影画像を、可視光を用いて投影面に投影する。光源制御部106は、投影画像データの各画素のR,G,Bそれぞれの階調値に基づいて、レーザー光源108R、108G、108Bそれぞれに対応するレーザー光の強度を示す光源制御信号を決定する。光源制御部106は、投影画像データに基づいて同期信号を生成してミラー制御部112に出力する。レーザードライバ107は、光源制御信号に基づいて、各レーザー光源108の駆動信号を生成して、各レーザー光源108に出力する。各レーザー光源108は、入力された駆動信号に基づいて、レーザー光を出力する。   In S204, the light source control unit 106, the laser driver 107, and the mirror control unit 112 project a projection image based on the projection image data onto a projection surface using visible light. The light source control unit 106 determines a light source control signal indicating the intensity of the laser light corresponding to each of the laser light sources 108R, 108G, and 108B based on the R, G, and B tone values of each pixel of the projection image data. . The light source control unit 106 generates a synchronization signal based on the projection image data and outputs it to the mirror control unit 112. The laser driver 107 generates a drive signal for each laser light source 108 based on the light source control signal, and outputs the drive signal to each laser light source 108. Each laser light source 108 outputs a laser beam based on the input drive signal.

ミラー制御部112は、各画素の位置に応じた投影面の位置に、当該画素の画素値に対応する出力で出射されたレーザー光が照射されるように走査ミラー113の角度(反射角度)を制御する。走査ミラー113は、共振周波数で周期的に画像の水平方向に対する反射角が振動し、フレームレートに対応する周波数で周期的に画像の垂直方向に対する反射角が振動するように制御される。走査ミラー113の垂直方向の振動は、光源制御部106から取得した同期信号に同期するように制御される。また、光源制御部106およびレーザードライバ107は、走査ミラーの113が水平方向に振動する共振周波数に同期して、水平方向の1ライン分の画素に対応する出力が完了するように、レーザー光の出力タイミングと強度とを制御する。上述のようにして、投影画像データに基づいて、各レーザ光の出力強度、出力タイミング、および走査方向を制御することによって、可視光による投影画像が投影面の投影領域に投影される。   The mirror control unit 112 adjusts the angle (reflection angle) of the scanning mirror 113 so that the position of the projection plane corresponding to the position of each pixel is irradiated with laser light emitted with an output corresponding to the pixel value of the pixel. Control. The scanning mirror 113 is controlled so that the reflection angle of the image in the horizontal direction periodically oscillates at the resonance frequency, and the reflection angle of the image in the vertical direction periodically oscillates at the frequency corresponding to the frame rate. The vertical vibration of the scanning mirror 113 is controlled so as to synchronize with the synchronization signal acquired from the light source control unit 106. In addition, the light source control unit 106 and the laser driver 107 synchronize with the resonance frequency at which the scanning mirror 113 vibrates in the horizontal direction, and complete the output of the laser light so that the output corresponding to one horizontal line of pixels is completed. Control output timing and intensity. As described above, by controlling the output intensity, output timing, and scanning direction of each laser beam based on the projection image data, a projection image of visible light is projected on the projection area on the projection surface.

S205で、光源制御部106、レーザードライバ107、およびミラー制御部112は、赤外投影領域情報に基づいて不可視光を投影面に投影する。光源制御部106は、赤外投影領域情報に基づいて、投影領域に投影される投影画像のうちUI画像を含む領域に不可視光が投影されるように、赤外レーザー光源110の出力強度、出力タイミング、走査方向を制御する。光源制御部106は、投影面の投影領域のうち、投影領域よりも(例
えば、面積が)狭いUI画像に対応する領域のみに不可視光が照射されるように、不可視光のレーザー光の出力タイミングと強度とを制御する。上述したように、不可視光画像データを生成した場合には、不可視光画像データに基づいて赤外レーザー光の出力強度を制御してもよい。投影画像が投影される投影領域よりも狭い領域のみに不可視光を照射することにより、投影画像(投影領域)全面に対して不可視光を照射するよりも消費電力が低減される。不可視光を照射する領域は、UI画像が存在する領域のみではなく、UI画像とその近傍を含む領域であってもよい。
In S205, the light source control unit 106, the laser driver 107, and the mirror control unit 112 project the invisible light on the projection surface based on the infrared projection area information. The light source control unit 106 controls the output intensity and output of the infrared laser light source 110 based on the infrared projection area information so that the invisible light is projected on the area including the UI image in the projection image projected on the projection area. Controls timing and scanning direction. The light source control unit 106 controls the output timing of the invisible laser beam so that only the area corresponding to the UI image that is smaller (for example, the area) is smaller than the projection area in the projection area on the projection surface. And intensity. As described above, when the invisible light image data is generated, the output intensity of the infrared laser light may be controlled based on the invisible light image data. By irradiating the invisible light only to an area smaller than the projection area where the projection image is projected, power consumption is reduced as compared to irradiating the invisible light to the entire projection image (projection area). The region to be irradiated with the invisible light is not limited to the region where the UI image exists, but may be a region including the UI image and its vicinity.

S206で、CPU101は、ユーザ操作を検出(検知)する。本実施形態に係る投影装置100は、TOF(Time of Flight)法によって投影装置100と投影面または対象物との距離を検出し、当該距離の変化に基づいてユーザ操作を検出する。ユーザ操作の検出方法は後述する。   In S206, the CPU 101 detects (detects) a user operation. The projection device 100 according to the present embodiment detects a distance between the projection device 100 and a projection surface or an object by a TOF (Time of Flight) method, and detects a user operation based on a change in the distance. A method for detecting a user operation will be described later.

S207で、CPU101は、ユーザ操作が行われたか否かを判断する。S206においてユーザ操作が検出された場合はS208へ進み、そうでない場合は、S209へ進む。   In S207, the CPU 101 determines whether a user operation has been performed. If a user operation is detected in S206, the process proceeds to S208; otherwise, the process proceeds to S209.

S208で、CPU101は、ユーザ操作の検出に応じて、ユーザ操作に対応する処理を実行するための操作信号を出力する。操作信号は、投影されるUI画像に対応付けられてあらかじめ定められるとする。例えば、CPU101は、ユーザ操作があった場合に、投影画像を切り換える(投影画像データを切り替える)処理を実行するように、画像生成部103を制御する信号を出力する。また、CPU101は、投影装置100の設定を変更するための操作信号を設定部に出力する。すなわち、CPU101は、投影装置100が実行可能な所定の処理に関連付けられた操作画像であるUI画像に対してユーザの所定の操作が実行された場合、UI画像にあらかじめ対応付けられた所定の処理を実行する。   In S208, the CPU 101 outputs an operation signal for executing a process corresponding to the user operation in response to the detection of the user operation. It is assumed that the operation signal is predetermined in association with the UI image to be projected. For example, when a user operation is performed, the CPU 101 outputs a signal for controlling the image generation unit 103 so as to execute a process of switching a projection image (switching projection image data). Further, CPU 101 outputs an operation signal for changing the setting of projection device 100 to the setting unit. That is, when a user's predetermined operation is performed on a UI image that is an operation image associated with a predetermined process executable by the projection device 100, the CPU 101 performs a predetermined process previously associated with the UI image. Execute

また、操作信号は、外部装置に対して出力されてもよい。例えば、外部装置から入力された画像データに基づいて、画像を投影している場合、外部装置に対してページ送り/戻し等の指示を行う操作信号を出力することも可能である。   Further, the operation signal may be output to an external device. For example, when an image is projected based on image data input from an external device, it is also possible to output an operation signal for instructing the external device to page forward / backward.

上記の説明では、可視光画像の投影処理、不可視光の照射処理、ユーザ操作の検出処理の順に実行する例について説明したが、実行順は特に限定されない。例えば、可視光レーザー光と不可視光レーザー光とを共通の走査ミラーのスキャンに同期して出力してもよい。前者の場合、フレームレートの4倍の周波数で垂直方向のスキャンを実行することになるが、後者の場合、ミラーのスキャンはフレームレートに対応した周波数で制御することができる。   In the above description, the example in which the visible light image projection processing, the invisible light irradiation processing, and the user operation detection processing are executed in this order has been described, but the execution order is not particularly limited. For example, the visible light laser light and the invisible light laser light may be output in synchronization with scanning by a common scanning mirror. In the former case, the scanning in the vertical direction is performed at a frequency four times the frame rate. In the latter case, the scanning of the mirror can be controlled at a frequency corresponding to the frame rate.

S209で、CPU101は、画像投影中にユーザ操作によって、検出モードが有効から無効へ切り替えられたか否かを判断する。検出モードが切り替えられた場合はS201へ移行し、そうでない場合はS210へ進む。   In step S209, the CPU 101 determines whether the detection mode has been switched from valid to invalid by a user operation during image projection. If the detection mode has been switched, the process proceeds to S201; otherwise, the process proceeds to S210.

S210で、CPU101は、ユーザ操作によって、画像投影を終了する操作がなされたか否かを判断する。終了操作がなされた場合は本処理を終了し、そうでない場合はS202へ移行する。CPU101は、例えば、画像投影を終了する指示や、電源をオフにする指示等をユーザから受け付けた場合に終了操作がなされたと判断する。   In S210, the CPU 101 determines whether or not an operation for ending image projection has been performed by a user operation. If the end operation has been performed, the present process ends, and if not, the process proceeds to S202. The CPU 101 determines that the ending operation has been performed, for example, when an instruction to end the image projection or an instruction to turn off the power is received from the user.

S211,S212は、それぞれS202,S204と同様の処理を行うので説明を省略する。   In steps S211 and S212, the same processes as those in steps S202 and S204 are performed, and a description thereof is omitted.

S213で、CPU101は、画像投影中にユーザ操作によって、検出モードが無効か
ら有効へ切り替えられたか否かを判断する。検出モードが切り替えられた場合はS201へ移行し、そうでない場合はS214へ進む。
In S213, the CPU 101 determines whether the detection mode has been switched from invalid to valid by a user operation during image projection. If the detection mode has been switched, the process proceeds to S201; otherwise, the process proceeds to S214.

S214で、CPU101は、ユーザ操作によって、画像投影を終了する操作がなされたか否かを判断する。終了操作がなされた場合は本処理を終了し、そうでない場合はS211へ移行する。CPU101は、例えば、画像投影を終了する指示や、電源をオフにする指示等をユーザから受け付けた場合に終了操作がなされたと判断する。   In S214, the CPU 101 determines whether or not an operation for ending image projection has been performed by a user operation. If the end operation has been performed, the present process ends, and if not, the process proceeds to S211. The CPU 101 determines that the ending operation has been performed, for example, when an instruction to end the image projection or an instruction to turn off the power is received from the user.

≪ユーザ操作の抽出処理≫
次に、図3に示すフローチャートを用いて、ユーザ操作を抽出する処理について説明する。
抽出 User operation extraction processing≫
Next, a process for extracting a user operation will be described with reference to the flowchart shown in FIG.

S301で、距離検出部131は、投影装置100と投影面との間に障害物(対象物)がない状態で投影画像の各画素に対して測距を行う。具体的には、投影された赤外レーザー光の反射光を検出することにより距離を検出する。そして、距離検出部131は、投影画像の各画素に対応する距離情報を示す画像である基準距離画像を生成する。基準距離画像の各画素値は、距離検出部131が検出した距離である(図7A)。生成された基準距離画像は、メモリ102に記憶される。なお、基準距離画像の生成は、投影装置100の起動時に1度だけ行われてもよい。また、距離検出部131は、投影画像の各画素のうち一部の画素に対して測距を行ってもよい。   In step S301, the distance detection unit 131 performs distance measurement on each pixel of the projection image in a state where there is no obstacle (object) between the projection device 100 and the projection plane. Specifically, the distance is detected by detecting the reflected light of the projected infrared laser light. Then, the distance detection unit 131 generates a reference distance image which is an image indicating distance information corresponding to each pixel of the projection image. Each pixel value of the reference distance image is a distance detected by the distance detection unit 131 (FIG. 7A). The generated reference distance image is stored in the memory 102. Note that the generation of the reference distance image may be performed only once when the projection device 100 is activated. Further, the distance detection unit 131 may measure the distance to some of the pixels of the projection image.

S302で、CPU101は、投影画像にUI画像が含まれるか否かを判断する。投影画像にUI画像が含まれると判断した場合はS303に進み、そでない場合は、S307に進む。   In S302, the CPU 101 determines whether or not the projection image includes a UI image. If it is determined that the projection image includes the UI image, the process proceeds to S303; otherwise, the process proceeds to S307.

S303で、距離検出部131は、上述のS301の処理と同様に投影装置100から投影面または障害物までの距離を検出する。   In S303, the distance detection unit 131 detects the distance from the projection device 100 to the projection plane or the obstacle, similarly to the processing in S301 described above.

S304で、CPU101は、距離検出部131が求めた距離に基づいて、距離画像を生成する。距離画像の生成については後述する。   In S304, the CPU 101 generates a distance image based on the distance obtained by the distance detection unit 131. The generation of the distance image will be described later.

S305で、CPU101は、距離画像と基準距離画像の各画素値とを比較して、差分画像(差分データ)を生成する。   In step S305, the CPU 101 compares the distance image with each pixel value of the reference distance image to generate a difference image (difference data).

S306で、CPU101は、差分画像と投影画像とに基づいて、UI画像に該当する領域におけるユーザ操作を検出する。例えば、CPU101は、ユーザ操作として投影画像に表示されるボタンへのタッチ操作等を検出する。例えば、CPU101は、差分画像におけるUI画像に該当する領域における距離が、小さくなった後に大きくなり、さらに小さくなるような場合にタッチ操作が行われたと判断する。   In step S306, the CPU 101 detects a user operation in an area corresponding to the UI image based on the difference image and the projection image. For example, the CPU 101 detects a touch operation or the like on a button displayed on the projection image as a user operation. For example, the CPU 101 determines that the touch operation has been performed when the distance in the area corresponding to the UI image in the difference image increases after the distance has decreased and further decreases.

S307で、CPU101は、ユーザ操作(UI操作)の抽出処理を終了するか否かを判断する。本処理を継続すると判断した場合はS302へ戻り、そうでない場合は本処理を終了する。なお、ユーザ操作の抽出処理は、画像投影処理とは別の処理として同時に行われてもよい。   In step S <b> 307, the CPU 101 determines whether to end the user operation (UI operation) extraction processing. If it is determined that the present process is to be continued, the process returns to S302; otherwise, the present process is terminated. Note that the extraction process of the user operation may be performed simultaneously as a process different from the image projection process.

≪赤外投影領域の算出方法≫
図4(A)、図4(B)は、本実施形態に係る赤外投影領域の算出方法を説明する概念図である。
算出 Infrared projection area calculation method≫
4A and 4B are conceptual diagrams illustrating a method for calculating an infrared projection area according to the present embodiment.

図4(A)は、投影画像データを示す模式図である。投影画像データは、水平方向に3
2画素、垂直方向に18画素の複数の画素からなる画像データである。投影画像400は、UI401とUI402とを含む。UI401とUI402はあらかじめ画像生成部103によって生成される。投影画像400において、最左上の画素の座標を(0,0)、最右下の画素の座標を(17,31)とする。
FIG. 4A is a schematic diagram showing the projection image data. The projection image data is 3 in the horizontal direction.
This is image data composed of a plurality of pixels of 2 pixels and 18 pixels in the vertical direction. Projection image 400 includes UI 401 and UI 402. The UI 401 and the UI 402 are generated by the image generation unit 103 in advance. In the projection image 400, the coordinates of the upper left pixel are (0, 0), and the coordinates of the lower right pixel are (17, 31).

図4(B)は、投影画像400のうち赤外レーザー光が照射される領域を示す赤外投影領域情報450を示す。本実施形態では、赤外投影領域情報450は、不可視光を照射する領域を示す画像データである。領域決定部105は、UI位置取得部104からUI401とUI402の中心位置を示す座標と、UI画像の形状情報を受け取る。例えば、UI401の中心位置は、座標(14,5)であり、形状情報は5×5の矩形である。また、UI401の中心位置は、座標(14,26)であり、形状情報は5×5の矩形である。そして、領域決定部105は、UI401とUI402の位置に相当する領域(図4(B)の斜線部)の画素の値を1に設定し、それ以外の画素の値を0に設定することで赤外投影領域情報450を生成する。すなわち、赤外投影領域情報450のうち画素値が1の部分が赤外投影領域である。   FIG. 4B shows infrared projection area information 450 indicating an area of the projection image 400 to which the infrared laser light is irradiated. In the present embodiment, the infrared projection area information 450 is image data indicating an area to be irradiated with invisible light. The area determination unit 105 receives the coordinates indicating the center position of the UI 401 and the UI 402 from the UI position acquisition unit 104 and the shape information of the UI image. For example, the center position of the UI 401 is the coordinates (14, 5), and the shape information is a 5 × 5 rectangle. The center position of the UI 401 is the coordinates (14, 26), and the shape information is a 5 × 5 rectangle. Then, the area determination unit 105 sets the value of the pixel of the area corresponding to the position of the UI 401 and the UI 402 (the shaded area in FIG. 4B) to 1 and sets the values of the other pixels to 0. The infrared projection area information 450 is generated. That is, a portion having a pixel value of 1 in the infrared projection area information 450 is an infrared projection area.

図5は、本実施形態に係る赤外レーザー光の投影領域を示す概念図である。走査ミラー113はレーザー光源108R、108G、108Bと赤外レーザー光源110を合成したレーザー光を2次元走査線501上に走査して投影する。なお、図5の2次元走査線501は説明のために走査線の間隔を大きく示しているが実際は画像の解像度を投影できる程度に小さい間隔である。   FIG. 5 is a conceptual diagram illustrating a projection region of the infrared laser light according to the present embodiment. The scanning mirror 113 scans and projects a laser beam obtained by combining the laser light sources 108R, 108G, 108B and the infrared laser light source 110 onto a two-dimensional scanning line 501. Note that the two-dimensional scanning lines 501 in FIG. 5 have a large spacing between the scanning lines for the sake of explanation, but are actually small enough to project the resolution of an image.

光源制御部106は、投影画像500に基づいてレーザー光源108R、108G、108Bを変調して画像に対応する2次元走査線501上でレーザー光を点灯させる。また、光源制御部106は赤外投影領域情報450を用いて2次元走査線501と、UI画像が表示される領域を示すUI領域502とが重なる点である点503に対して赤外光を照射するように赤外レーザー光源110を制御する。このようにして、投影装置100は、UI領域502のみに赤外レーザー光を投影する。   The light source control unit 106 modulates the laser light sources 108R, 108G, and 108B based on the projection image 500 to turn on the laser light on the two-dimensional scanning line 501 corresponding to the image. Further, the light source control unit 106 uses the infrared projection area information 450 to emit infrared light to a point 503 where the two-dimensional scanning line 501 and the UI area 502 indicating the area where the UI image is displayed overlap. The infrared laser light source 110 is controlled to irradiate. In this way, the projection device 100 projects the infrared laser light only on the UI region 502.

≪距離算出方法≫
図6(A)、図6(B)は、本実施形態に係る赤外レーザー光を用いた距離算出方法を示す。
≪Distance calculation method≫
FIGS. 6A and 6B show a distance calculation method using infrared laser light according to the present embodiment.

図6(A)は、投影された赤外レーザー光に対応する反射光の検出を示す図である。赤外レーザー光源110から出力された赤外レーザー光は、走査ミラー113を介して投影面600に投影される。そして、投影面600または障害物601(例えば、ユーザの手)に反射した赤外レーザー光は、受光部130で検出される。   FIG. 6A is a diagram showing detection of reflected light corresponding to the projected infrared laser light. The infrared laser light output from the infrared laser light source 110 is projected onto the projection surface 600 via the scanning mirror 113. Then, the infrared laser light reflected on the projection surface 600 or the obstacle 601 (for example, a user's hand) is detected by the light receiving unit 130.

図6(B)は、赤外レーザー光源110から出力された赤外レーザー光と、受光部130で受光された反射光とを示す。波形620は、横軸が時間、縦軸が赤外光の強度を示し、赤外レーザー光源110から出力された赤外レーザー光の点灯タイミングを示した波形である。波形621は、波形620と同様に横軸が時間、縦軸が強度を示し、受光部130で受光される赤外レーザー光の受光タイミングを示した波形である。Δtは赤外レーザー光源110の点灯したレーザー光が投影面又は障害物に反射して戻ってくるまでの時間を示す。   FIG. 6B illustrates the infrared laser light output from the infrared laser light source 110 and the reflected light received by the light receiving unit 130. The waveform 620 is a waveform in which the horizontal axis represents time, the vertical axis represents the intensity of infrared light, and the lighting timing of the infrared laser light output from the infrared laser light source 110. The waveform 621 is a waveform similar to the waveform 620, in which the horizontal axis indicates time and the vertical axis indicates intensity, and indicates the light receiving timing of the infrared laser light received by the light receiving unit 130. Δt indicates a time until the lit laser light of the infrared laser light source 110 is reflected on the projection surface or the obstacle and returns.

距離検出部131は、波形620および波形621の波形の立ち上がり時間差(出射した光と反射光との位相差)から下記の式(1)を用いて投影装置100と、投影面600または障害物601との距離を算出する。
(数1)
d=c×Δt/2 ・・・(1)
ここで、dは距離、cは光速を示す。なお、上記の時間差は、不可視光が照射されてから反射光として検出されるまでの時間差と捉えることもできる。
The distance detection unit 131 calculates the projection device 100 and the projection surface 600 or the obstacle 601 from the rising time difference (phase difference between the emitted light and the reflected light) of the waveforms 620 and 621 using the following equation (1). Is calculated.
(Equation 1)
d = c × Δt / 2 (1)
Here, d indicates the distance and c indicates the speed of light. Note that the above time difference can be regarded as a time difference from the irradiation of the invisible light to the detection of the reflected light.

距離検出部131は、投影画像の画素数分の測距を繰り返した後に赤外投影領域情報と同じ画素数の距離画像を生成する。   After repeating distance measurement for the number of pixels of the projection image, the distance detection unit 131 generates a distance image having the same number of pixels as the infrared projection area information.

≪UI操作情報の生成≫
図7A〜図7Dは、本実施形態に係るUI操作情報の生成を説明する概念図である。
<< Generation of UI operation information >>
7A to 7D are conceptual diagrams illustrating generation of UI operation information according to the present embodiment.

図7Aは、投影装置100と投影面600との距離(以下、基準距離とも称する。)を示す基準距離画像700を示す。基準距離画像700は、投影装置100と投影面600までの間に障害物がない状態で距離検出部131によって取得される距離画像である。基準距離画像700における各画素値は、投影装置100と投影面600との距離を示す値である。本実施形態では、UI画像が表示される領域(図4(B))に対してのみ距離検出を行うため、対応する画素のみに距離を示す値(図7Aの例では「10」)が取得されている。なお、基準距離を取得する対象の画素については特に限定されず、すべての画素について測距を行ってもよい。   FIG. 7A shows a reference distance image 700 indicating a distance between the projection apparatus 100 and the projection plane 600 (hereinafter, also referred to as a reference distance). The reference distance image 700 is a distance image acquired by the distance detection unit 131 without any obstacle between the projection device 100 and the projection plane 600. Each pixel value in the reference distance image 700 is a value indicating the distance between the projection device 100 and the projection plane 600. In the present embodiment, since the distance detection is performed only on the area where the UI image is displayed (FIG. 4B), a value indicating the distance (“10” in the example of FIG. 7A) is obtained only for the corresponding pixel. Have been. Note that there is no particular limitation on the pixel for which the reference distance is to be obtained, and the distance measurement may be performed on all the pixels.

図7Bは、投影装置100と、投影面600または障害物601との距離を示す距離画像710を示す。距離画像710は、投影装置100と投影面600までの間に障害物がある状態で距離検出部131によって取得される距離画像である。また、距離検出部131は、本実施形態では、UI画像が表示される領域に含まれる画素に対して測距を行う。測距対象ではない画素に関しては基準距離画像700の値を用いて距離画像710を生成する。なお、測距対象の画素については特に限定されず、すべての画素について測距を行ってもよい。   FIG. 7B shows a distance image 710 indicating the distance between the projection device 100 and the projection plane 600 or the obstacle 601. The distance image 710 is a distance image acquired by the distance detection unit 131 in a state where there is an obstacle between the projection device 100 and the projection plane 600. Further, in the present embodiment, the distance detection unit 131 performs distance measurement on pixels included in the area where the UI image is displayed. For pixels that are not distance measurement targets, a distance image 710 is generated using the value of the reference distance image 700. It should be noted that the distance measurement target pixel is not particularly limited, and distance measurement may be performed for all pixels.

図7Cは、基準距離画像700および距離画像710の各画素値を比較して得られる差分画像720を示す。   FIG. 7C shows a difference image 720 obtained by comparing each pixel value of the reference distance image 700 and the distance image 710.

図7Dは、差分画像720と、上述の赤外投影領域情報450との各画素の積を算出して得られるUI操作画像730を示す。CPU101は、UI領域731およびUI領域732を解析して、UI401およびUI402に対するユーザ操作を検出する。例えば、CPU101は、UI領域731またはUI領域732の各画素値の平均と所定の値とを比較してUIに対するユーザ操作を検出することができる。ここで、所定の値とは、距離検出部131によって取得される距離と上記基準距離との差がユーザ操作に基づくものか否かを判別するための値であって、例えば、2とすることができる。この場合、図7Dに示すUI領域732における各画素値の平均値は5.64であり、所定の値よりもUI領域732の平均値が大きいので、CPU101はUI402に対するユーザ操作が行われたと判断する。CPU101はUI操作の判断結果を用いてアプリケーションの操作を行う。また、UI領域731の平均値は0なのでCPU101は、UI401に対するユーザ操作は行われていないと判断する。なお、上記所定の値は特に限定されない。また、CPU101は、所定の値を用いずに、UI操作画像730のうち0以外であればユーザ操作が行われたと判断してもよい。   FIG. 7D shows a UI operation image 730 obtained by calculating the product of each pixel of the difference image 720 and the infrared projection area information 450 described above. The CPU 101 analyzes the UI area 731 and the UI area 732 to detect a user operation on the UI 401 and the UI 402. For example, the CPU 101 can detect a user operation on the UI by comparing the average of each pixel value of the UI area 731 or the UI area 732 with a predetermined value. Here, the predetermined value is a value for determining whether or not the difference between the distance acquired by the distance detection unit 131 and the reference distance is based on a user operation, and is set to, for example, 2. Can be. In this case, the average value of each pixel value in the UI area 732 shown in FIG. 7D is 5.64, and the average value of the UI area 732 is larger than a predetermined value. Therefore, the CPU 101 determines that the user operation on the UI 402 has been performed. I do. The CPU 101 operates the application using the result of the UI operation determination. Since the average value of the UI area 731 is 0, the CPU 101 determines that no user operation has been performed on the UI 401. The predetermined value is not particularly limited. Further, the CPU 101 may determine that the user operation has been performed if the UI operation image 730 is other than 0 without using the predetermined value.

<本実施形態の有利な効果>
以上の通り、投影画像に含まれるUI画像に対するユーザ操作の検出において、UI画像のみに赤外レーザー光を照射することで、不要な赤外レーザー光の投影を抑えて投影装置100の電力消費を削減することができる。
<Advantageous effects of this embodiment>
As described above, in the detection of the user operation on the UI image included in the projection image, by irradiating only the UI image with the infrared laser light, unnecessary projection of the infrared laser light is suppressed, and the power consumption of the projection device 100 is reduced. Can be reduced.

(実施形態2)
<概要>
上述の実施形態1では、投影装置の内部で投影画像の生成を行う例について説明した。本実施形態に係る投影装置は、外部機器上で実行されるアプリケーションが表示する画面に含まれるUI画像に対するユーザ操作を検出する。本実施形態における投影装置200の構成について、上述の実施形態1と同様の機能部については同様の番号を付して説明を省略する。
(Embodiment 2)
<Overview>
In the first embodiment, an example in which a projection image is generated inside the projection device has been described. The projection device according to the present embodiment detects a user operation on a UI image included in a screen displayed by an application executed on an external device. In the configuration of the projection device 200 according to the present embodiment, the same functional units as those in the above-described first embodiment are denoted by the same reference numerals, and description thereof will be omitted.

<全体構成>
図8は、本実施形態に係る投影装置200および外部機器250の構成を示すブロック図である。
<Overall configuration>
FIG. 8 is a block diagram illustrating a configuration of the projection device 200 and the external device 250 according to the present embodiment.

≪投影装置200≫
投影装置200は、外部機器250から出力された投影画像を液晶パネルを用いて投影する。また、投影装置200は、赤外レーザー光を走査ミラー113を用いて2次元走査を行うことで投影する。
<< Projector 200 >>
The projection device 200 projects a projection image output from the external device 250 using a liquid crystal panel. The projection device 200 projects the infrared laser light by performing two-dimensional scanning using the scanning mirror 113.

UI画像解析部204は、外部機器250から入力された投影画像にUIが含まれるか否かを解析する機能部である。また、UI画像解析部204は、上記投影画像にUIが含まれる場合、投影画像データにおけるUI画像の位置を特定するための情報を取得する。   The UI image analysis unit 204 is a functional unit that analyzes whether a projection image input from the external device 250 includes a UI. When the projection image includes a UI, the UI image analysis unit 204 acquires information for specifying the position of the UI image in the projection image data.

光源制御部206は、赤外投影領域情報に基づいて、赤外レーザー光源IRを制御するための光源制御信号を生成する機能部である。なお、本実施形態では、レーザー走査方式で不可視光の投影を行っているが、画像投影方法は特に限定されず、例えば、液晶パネルを用いた画像投影でもよい。   The light source control unit 206 is a functional unit that generates a light source control signal for controlling the infrared laser light source IR based on the infrared projection area information. In the present embodiment, invisible light is projected by a laser scanning method. However, the image projection method is not particularly limited, and for example, image projection using a liquid crystal panel may be performed.

レーザードライバ207は、光源制御部206によって出力された光源制御信号に基づいて、赤外レーザー光源110の駆動電流を変調して赤外レーザー光源110に出力する機能部である。   The laser driver 207 is a functional unit that modulates a drive current of the infrared laser light source 110 based on the light source control signal output by the light source control unit 206 and outputs the drive current to the infrared laser light source 110.

通信部214は、投影装置200と外部機器250と通信を行う機能部である。本実施形態では、通信部214は、外部機器250から投影画像データを受信(入力)する。また、通信部214は、投影装置200によって検出されたUI操作情報を外部機器250に送信(出力)する。   The communication unit 214 is a functional unit that performs communication between the projection device 200 and the external device 250. In the present embodiment, the communication unit 214 receives (inputs) projection image data from the external device 250. The communication unit 214 transmits (outputs) the UI operation information detected by the projection device 200 to the external device 250.

光源制御部215は、後述する光源部216のオン/オフの制御や明るさの制御を行う機能部である。光源制御部215は、例えば、制御用のマイクロプロセッサである。なお、光源制御部215は、専用のマイクロプロセッサである必要はなく、例えば、CPU101が光源制御部215と同様の処理を実行しても良い。   The light source control unit 215 is a functional unit that performs on / off control and brightness control of a light source unit 216 described later. The light source control unit 215 is, for example, a control microprocessor. The light source control unit 215 does not need to be a dedicated microprocessor. For example, the CPU 101 may execute the same processing as the light source control unit 215.

光源部216は、画像を投影するための光を出力する機能部であり、例えば、レーザー、LEDハロゲンランプ、キセノンランプ、高圧水銀ランプなどで構成される。   The light source unit 216 is a functional unit that outputs light for projecting an image, and includes, for example, a laser, an LED halogen lamp, a xenon lamp, and a high-pressure mercury lamp.

液晶制御部217は、入力された投影画像データに基づいて、後述する液晶素子部218の各画素(R画素、G画素、B画素)の液晶に印可する電圧を制御して、液晶素子の反射率もしくは透過率を調整する機能部である。   The liquid crystal control unit 217 controls the voltage applied to the liquid crystal of each pixel (R pixel, G pixel, and B pixel) of the liquid crystal element unit 218 described later based on the input projection image data, and reflects the liquid crystal element. This is a functional unit for adjusting the transmittance or transmittance.

液晶素子部218は、赤色(R)、緑色(G)、青色(B)のフィルタが設けられた液晶素子に投影画像の画素値に応じた電圧を印加して赤色(R)、緑色(G)、青色(B)の光を変調する機能部である。   The liquid crystal element unit 218 applies a voltage corresponding to the pixel value of a projected image to a liquid crystal element provided with a red (R), green (G), and blue (B) filter to apply a red (R), green (G) ) And blue (B) light.

投影部219は、液晶素子部218を透過した赤色(R)、緑色(G)、青色(B)の光を合成する機能部である。例えば、投影部219は、ダイクロイックミラーやプリズムなどである。そして、赤色(R)、緑色(G)、青色(B)の成分を合成した光は、不図示の投影光学系に送られる。このとき、液晶素子部218は、入力された投影画像データに対応する光の透過率となるように、液晶制御部217により制御される。そのため、投影部219により合成された光は、投影光学系により投影されると、入力された投影画像に対応する画像が投影面上に表示されることになる。なお、本実施形態では、液晶パネルを用いて画像投影を行っているが、画像投影方法は特に限定されず、例えば、実施形態1と同様にレーザー走査方式で画像投影を行ってもよい。   The projection unit 219 is a functional unit that combines red (R), green (G), and blue (B) light transmitted through the liquid crystal element unit 218. For example, the projection unit 219 is a dichroic mirror, a prism, or the like. The light obtained by combining the red (R), green (G), and blue (B) components is sent to a projection optical system (not shown). At this time, the liquid crystal element unit 218 is controlled by the liquid crystal control unit 217 so as to have a light transmittance corresponding to the input projection image data. Therefore, when the light combined by the projection unit 219 is projected by the projection optical system, an image corresponding to the input projection image is displayed on the projection plane. In the present embodiment, the image projection is performed using the liquid crystal panel. However, the image projection method is not particularly limited. For example, the image projection may be performed by the laser scanning method as in the first embodiment.

≪外部機器250≫
外部機器250は、演算装置(プロセッサ)、メモリ、記憶装置、入出力装置等を含む情報処理装置(コンピュータ)である。記憶装置に格納されたプログラムを外部機器250が実行することで、外部機器250の後述する機能が提供される。それらの機能の一部または全部は、ASICやFPGAなどの専用の論理回路により実装されてもよい。外部機器250は、具体的にはパーソナルコンピュータ、スマートフォン、デジタルカメラなどである。外部機器250は、投影する画像データを投影装置200に送信(出力)する。なお、外部機器250の代わりネットワーク上のデータベースを用いて、不図示のネットワークを介して投影装置200を上記データベースと接続して、投影装置200はネットワーク上のデータベースから画像を取得してもよい。
≪External equipment 250≫
The external device 250 is an information processing device (computer) including an arithmetic device (processor), a memory, a storage device, an input / output device, and the like. When the external device 250 executes the program stored in the storage device, a function of the external device 250 described later is provided. Some or all of these functions may be implemented by dedicated logic circuits such as ASICs and FPGAs. The external device 250 is specifically a personal computer, a smartphone, a digital camera, or the like. The external device 250 transmits (outputs) image data to be projected to the projection device 200. Note that the projection device 200 may be connected to the database via a network (not shown) using a database on a network instead of the external device 250, and the projection device 200 may acquire an image from the database on the network.

CPU251は、後述するメモリ252に記憶されたプログラムを実行することにより、外部機器250の各機能の動作を制御する。また、CPU251は、メモリ252に記憶された外部機器250内のアプリケーションを実行する。   The CPU 251 controls the operation of each function of the external device 250 by executing a program stored in a memory 252 described later. The CPU 251 executes an application in the external device 250 stored in the memory 252.

メモリ252は、CPU251が実行するプログラムコード、画像データなどを記憶する。   The memory 252 stores a program code executed by the CPU 251, image data, and the like.

UI合成部253は、CPU251が生成した画像にUI画像を合成して得られた画像を通信部254に出力する機能部である。   The UI combining unit 253 is a functional unit that outputs an image obtained by combining the UI image with the image generated by the CPU 251 to the communication unit 254.

通信部254は、投影画像データを投影装置200に出力する。また、CPU251は通信部254を介して投影装置200からUI操作情報を受信してアプリケーションの操作を行う。   The communication unit 254 outputs the projection image data to the projection device 200. In addition, the CPU 251 receives UI operation information from the projection device 200 via the communication unit 254 and performs an operation of the application.

<処理内容>
図9は、本実施形態に係る投影装置200および外部機器250の処理を示すフローチャートである。最初に外部機器250の動作を説明する。
<Processing content>
FIG. 9 is a flowchart illustrating processing of the projection device 200 and the external device 250 according to the present embodiment. First, the operation of the external device 250 will be described.

≪外部機器250≫
S951で、CPU251は、外部機器250と投影装置200とを接続するための要求(リクエスト)を行い接続を確立させる。外部機器250は、投影装置200に対して画像を投影するための許可を得た後にS952に進む。
≪External equipment 250≫
In S951, the CPU 251 makes a request for connecting the external device 250 and the projection device 200, and establishes the connection. The external device 250 proceeds to S952 after obtaining permission to project an image on the projection device 200.

S952で、CPU251は、通信部254を介して投影装置200に対して投影画像データを出力する。   In S952, CPU 251 outputs projection image data to projection device 200 via communication unit 254.

S953で、CPU251は、投影画像に重畳されたUI画像の操作情報を受け取る。例えば、CPU251は、通信部254の割り込みまたは通信部254の状態を定期的に
確認してUI画像の操作情報を受け取る。
In S953, the CPU 251 receives the operation information of the UI image superimposed on the projection image. For example, the CPU 251 periodically checks the interrupt of the communication unit 254 or the state of the communication unit 254 and receives the operation information of the UI image.

S954で、CPU251は、画像の投影を継続するか否かを判断する。画像の投影を継続する場合はS952に戻り、そうでない場合は本処理を終了する。続いて、投影装置200の動作を説明する。   In S954, the CPU 251 determines whether to continue projecting the image. If the projection of the image is to be continued, the process returns to S952; otherwise, the process ends. Next, the operation of the projection device 200 will be described.

≪投影装置200≫
S901で、CPU101は、外部機器250から接続要求(リクエスト)を待つ。CPU101は、接続要求を受信すると外部機器250に対して接続の許可を送信してステップ902へ進む。S902の処理は、上述のS201と同様のため説明を省略する。
<< Projector 200 >>
In step S901, the CPU 101 waits for a connection request (request) from the external device 250. Upon receiving the connection request, the CPU 101 transmits a connection permission to the external device 250 and proceeds to step 902. The processing in S902 is the same as that in S201 described above, and a description thereof will not be repeated.

S903で、CPU101は、外部機器250から投影画像データを取得する。   In step S903, the CPU 101 acquires projection image data from the external device 250.

S904で、CPU101は、投影画像データを解析して、投影画像のうちUI画像が表示される位置等を取得する。本実施形態では、CPU101は、UI画像解析部204が投影画像データを解析して投影画像データにおけるUI画像の位置やサイズ等を検出する。例えば、UI画像解析部204は、階調変化の少ない矩形部分を検出して、内部に文字が含まれている部分をUI画像として検出することができる。また、UI画像解析部204は、ディープラーニング等の人工知能アルゴリズムを用いてUI画像の位置等を取得してもよい。具体的には、UI画像解析部204は、あらかじめUI画像を学習させて得られる識別器を用いて、投影画像内のUI画像に該当する部分を取得(検出)してもよい。また、CPU101は、UI画像解析部204によって得られたUI画像の位置、サイズ等を領域決定部105に出力する。S905〜S908の処理は、それぞれS204〜S207と同様のため説明を省略する。   In step S <b> 904, the CPU 101 analyzes the projection image data and acquires a position of the projection image at which the UI image is displayed. In the present embodiment, in the CPU 101, the UI image analysis unit 204 analyzes the projection image data and detects the position, size, and the like of the UI image in the projection image data. For example, the UI image analysis unit 204 can detect a rectangular portion having a small gradation change and detect a portion including a character as a UI image. Further, the UI image analysis unit 204 may acquire the position of the UI image using an artificial intelligence algorithm such as deep learning. Specifically, the UI image analysis unit 204 may acquire (detect) a portion corresponding to the UI image in the projection image using a classifier obtained by learning the UI image in advance. Further, the CPU 101 outputs the position, size, and the like of the UI image obtained by the UI image analysis unit 204 to the region determination unit 105. The processing of S905 to S908 is the same as that of S204 to S207, respectively, and a description thereof will be omitted.

S909で、CPU101は、ユーザ操作の検出信号を受信したことに応じて、対応する処理を実行するための操作信号を外部機器250へ出力する。例えば、外部機器250に対してページ送り/戻し等の指示を行うためのボタン等のUI画像に対する操作信号を出力することも可能である。S910〜S911の処理は、それぞれS209〜S210と同様のため説明を省略する。   In step S909, the CPU 101 outputs an operation signal for executing a corresponding process to the external device 250 in response to receiving the detection signal of the user operation. For example, it is also possible to output an operation signal for a UI image such as a button for instructing the external device 250 to page forward / return. The processing of S910 to S911 is the same as that of S209 to S210, respectively, and thus the description is omitted.

S912で、CPU101は、外部機器250から投影画像データを取得する。S913〜S915の処理は、それぞれS212〜S214と同様のため説明を省略する。   In step S912, the CPU 101 acquires projection image data from the external device 250. The processing of S913 to S915 is the same as that of S212 to S214, respectively, and thus the description is omitted.

以上、外部機器と投影装置とを接続して外部機器上で実行するアプリケーションのUI操作に関しても、UIの操作性を犠牲にすることなくUI操作に不要な赤外レーザー光の投影を抑えて投影装置の電力消費を削減することが可能になる。   As described above, regarding the UI operation of the application executed on the external device by connecting the external device and the projection device, the projection of the infrared laser light unnecessary for the UI operation is suppressed without sacrificing the operability of the UI. The power consumption of the device can be reduced.

(実施形態3)
<概要>
上述の実施形態2では、投影装置が外部機器より投影画像データを取得して、投影装置内でUI画像の位置等を取得する例について説明した。本実施形態に係る投影装置では、外部機器から投影画像データおよびUI画像の位置情報等を取得する。本実施形態における投影装置300の構成について、上述の実施形態1または2と同様の機能部については同様の番号を付して説明を省略する。
(Embodiment 3)
<Overview>
In the above-described second embodiment, an example has been described in which the projection device acquires projection image data from an external device and acquires the position and the like of a UI image in the projection device. The projection device according to the present embodiment acquires projection image data, position information of a UI image, and the like from an external device. Regarding the configuration of the projection device 300 according to the present embodiment, the same functional units as those in the above-described first or second embodiment are denoted by the same reference numerals, and description thereof is omitted.

<全体構成>
図10は、本実施形態に係る投影装置300および外部機器350の構成を示すブロック図である。
<Overall configuration>
FIG. 10 is a block diagram illustrating a configuration of the projection device 300 and the external device 350 according to the present embodiment.

≪投影装置300≫
画像入力部320は、外部機器350から投影画像データを入力する機能部である。
<< Projector 300 >>
The image input unit 320 is a functional unit that inputs projection image data from the external device 350.

通信部314は、投影画像データに合成するUI画像データと、UI画像の位置情報とを外部機器350から入力する機能部である。   The communication unit 314 is a functional unit that inputs UI image data to be combined with projection image data and position information of the UI image from the external device 350.

UI合成部321は、投影画像データにUI画像データを合成する機能部である。合成した後の画像データはメモリ102に記憶することができる。   The UI combining unit 321 is a functional unit that combines UI image data with projection image data. The image data after the combination can be stored in the memory 102.

≪外部機器350≫
画像出力部355は、投影画像データを投影装置300へ出力する機能部である。
≪External equipment 350≫
The image output unit 355 is a functional unit that outputs projection image data to the projection device 300.

通信部354は、UI画像データとUI画像の位置情報とを投影装置300に出力する機能部である。また、通信部354は、投影装置300からUI操作情報を取得する。CPU251は、取得したUI操作情報を用いて実行するアプリケーションの操作を行う。   The communication unit 354 is a functional unit that outputs the UI image data and the position information of the UI image to the projection device 300. In addition, the communication unit 354 acquires UI operation information from the projection device 300. The CPU 251 operates an application to be executed using the acquired UI operation information.

以上、外部機器と投影装置を接続して外部機器上で実行するアプリケーションのUI操作に関しても、UIの操作性を犠牲にすることなくUI操作に不要な赤外レーザー光の投影を抑えて投影装置の電力消費を削減することが可能になる。   As described above, regarding the UI operation of the application executed on the external device by connecting the external device and the projection device, projection of the infrared laser light unnecessary for the UI operation is suppressed without sacrificing the operability of the UI. Power consumption can be reduced.

(実施形態4)
<概要>
上述の実施形態1では、投影画像のUI画像に対して赤外レーザー光を投影することで、投影装置の電力消費を削減する例について説明した。本実施形態では、赤外レーザー光の投影において、2つのモードを有する例について説明する。本実施形態では、投影画像の近傍にユーザがいる場合には上述の実施形態と同様にUI画像に対して赤外レーザー光を投影し(第1の投影モード)、ユーザがいない場合には投影画像の外枠に赤外レーザー光を投影する(第2の投影モード)。また、投影画像の外枠として、投影画像における上下左右の端部領域に対して不可視光を投影する例について説明する。本実施形態における投影装置400の構成について、上述の実施形態1と同様の機能部については同様の番号を付して説明を省略する。
(Embodiment 4)
<Overview>
In the first embodiment described above, an example in which the infrared laser light is projected on the UI image of the projection image to reduce the power consumption of the projection device has been described. In the present embodiment, an example will be described in which there are two modes in projection of infrared laser light. In the present embodiment, when a user is near the projected image, an infrared laser beam is projected on the UI image in the same manner as in the above-described embodiment (first projection mode). An infrared laser beam is projected on the outer frame of the image (second projection mode). Further, an example will be described in which invisible light is projected as upper, lower, left, and right end regions in the projected image as an outer frame of the projected image. Regarding the configuration of the projection device 400 according to the present embodiment, the same functional units as those in the above-described first embodiment are denoted by the same reference numerals, and description thereof is omitted.

<全体構成>
図11は、本実施形態に係る投影装置400の構成を示すブロック図である。
<Overall configuration>
FIG. 11 is a block diagram illustrating a configuration of a projection device 400 according to the present embodiment.

赤外投影モード設定部422は、投影面の近傍にユーザが存在するか否かを判断して、判断結果に応じて赤外レーザー光の投影モードを設定する機能部である。ユーザが存在するか否かの判断については後述する。赤外投影モード設定部422は、投影面の近傍にユーザが存在する場合は赤外レーザー光をUI部分に投影するモードである第1の投影モードに設定する。また、赤外投影モード設定部422は、投影面の近傍にユーザが存在しない場合は赤外レーザー光を投影画像の外枠に投影するモードである第2の投影モードに設定する。   The infrared projection mode setting unit 422 is a functional unit that determines whether a user is present near the projection plane and sets the projection mode of the infrared laser light according to the determination result. The determination as to whether or not a user exists will be described later. When a user is present near the projection plane, the infrared projection mode setting unit 422 sets a first projection mode that is a mode for projecting an infrared laser beam onto the UI portion. When there is no user near the projection plane, the infrared projection mode setting unit 422 sets the second projection mode, which is a mode for projecting the infrared laser light onto the outer frame of the projection image.

領域決定部405は、赤外レーザー光を投影する領域(赤外投影領域)を決定する機能部である。ここで、領域決定部405は、投影モード設定情報を赤外投影モード設定部422から取得する。そして、領域決定部405は、第1の投影モードの場合は赤外レーザー光をUI領域に該当する部分に投影するように赤外投影領域を決定する。また、領域決定部405は、第2の投影モードの場合は赤外レーザー光を投影面の外枠に投影するように赤外投影領域を決定する。領域決定部405は、投影画像データにおけるUI画像の位置を特定するための情報(UI位置情報)をUI位置取得部104から取得する。   The region determining unit 405 is a functional unit that determines a region on which an infrared laser beam is projected (an infrared projection region). Here, the region determination unit 405 acquires the projection mode setting information from the infrared projection mode setting unit 422. Then, in the case of the first projection mode, the region determining unit 405 determines the infrared projection region so as to project the infrared laser light onto a portion corresponding to the UI region. Further, in the case of the second projection mode, the region determining unit 405 determines the infrared projection region so as to project the infrared laser light on the outer frame of the projection surface. The area determination unit 405 acquires information (UI position information) for specifying the position of the UI image in the projection image data from the UI position acquisition unit 104.

<処理内容>
図12は、本実施形態に係る投影処理を示すフローチャートである。本実施形態に係る投影装置100は、操作検出モードが有効であって、かつ、ユーザの操作(手や指示体等の挿入を含む)がない場合には、投影画像の外枠に沿って不可視光を照射する(第2の投影モード)。第2の投影モードにおける不可視光は、ユーザが投影面に近づいたことを検出するための画像と捉えることもできる。また、本実施形態に係る投影装置100は、投影画像の外枠に沿って投影された不可視光に対してユーザの手や指示体の挿入がなされた場合には、実施形態1と同様に、UI画像に対応する領域に不可視光を照射する処理を行う(第1の投影モード)。
<Processing content>
FIG. 12 is a flowchart illustrating the projection processing according to the present embodiment. The projection device 100 according to the present embodiment is invisible along the outer frame of the projection image when the operation detection mode is valid and there is no user operation (including insertion of a hand, an indicator, or the like). Irradiate light (second projection mode). The invisible light in the second projection mode can be regarded as an image for detecting that the user has approached the projection plane. Further, when the user's hand or pointer is inserted into the invisible light projected along the outer frame of the projection image, the projection device 100 according to the present embodiment, as in the first embodiment, A process of irradiating invisible light to a region corresponding to the UI image is performed (first projection mode).

S1201〜S1202の処理は、S201〜S202の処理と同様のため説明を省略する。   The processing in steps S1201 to S1202 is the same as the processing in steps S201 to S202, and a description thereof will not be repeated.

S1203で、CPU101は、投影モードが第1の投影モードであるか否かを判断する。本実施形態では、投影モードが第1の投影モードではない場合とは、第2の投影モードである場合である。投影モードが第1の投影モードである場合は、S1204へ進み、そうでない場合はSS1212へ進む。なお、本実施形態では、2つの投影モードが設定可能である例について説明するが、投影モードは3つ以上あってもよい。なお、ユーザの操作が発生することが予測される状態か否かを示すフラグ(0または1等)である操作フラグを用いてもよい。操作フラグが0である場合とは、例えば、投影領域内にユーザや指示体が挿入されておらず、かつ、その状態が所定期間(閾値)より長く継続されている場合である(上記の第2のモードに相当)。操作フラグが1である場合とは、投影領域内にユーザや指示体が挿入された場合である。また、ユーザや指示体の挿入がなくなってから経過時間が所定期間以下である場合も含む。S1204〜S1209の処理は、S203〜S208の処理と同様のため説明を省略する。   In S1203, the CPU 101 determines whether the projection mode is the first projection mode. In the present embodiment, the case where the projection mode is not the first projection mode is the case where the projection mode is the second projection mode. If the projection mode is the first projection mode, the process proceeds to S1204; otherwise, the process proceeds to SS1212. In the present embodiment, an example in which two projection modes can be set will be described. However, three or more projection modes may be provided. Note that an operation flag that is a flag (0 or 1 or the like) indicating whether or not a user operation is expected to occur may be used. The case where the operation flag is 0 is, for example, a case where the user or the pointer has not been inserted into the projection area and the state has been continued for a predetermined period (threshold) (see the above-described first example). 2 mode). The case where the operation flag is 1 is a case where the user or the pointer is inserted into the projection area. In addition, the case where the elapsed time after the insertion of the user or the indicator is stopped is equal to or shorter than a predetermined period. The processing in steps S1204 to S1209 is the same as the processing in steps S203 to S208, and a description thereof will not be repeated.

S1210で、CPU101は、ユーザ操作が行われていない時間が所定の時間(閾値)より大きいか否かを判断する。具体的には、CPU101は、所定の時間以上ユーザ操作を検出しない場合、ユーザが存在しないと判断してS1217へ進む。ユーザが存在すると判断する場合はS1211に進む。   In S1210, the CPU 101 determines whether the time during which no user operation is performed is longer than a predetermined time (threshold). Specifically, when the CPU 101 does not detect a user operation for a predetermined time or more, the CPU 101 determines that there is no user, and proceeds to S1217. If it is determined that a user exists, the process advances to step S1211.

S1211で、CPU101は、投影モードを第2の投影モードに設定する。なお、CPU101は、投影装置400と投影面との間にユーザが存在しない場合や指示体がない場合に投影モードを第2のモードに変更してもよい。なお、S1207〜S1211において、本実施形態では、ユーザ操作を検出してユーザ操作が所定期間行われない場合に投影モードを変更しているが、ユーザや指示体等の有無を検出してユーザ等が存在しない場合に投影モードを変更してもよい。この場合も同様に、所定期間、ユーザ等が存在しない場合に投影モードを変更してもよい。S1212の処理は、S204の処理と同様のため説明を省略する。   In S1211, the CPU 101 sets the projection mode to the second projection mode. Note that the CPU 101 may change the projection mode to the second mode when there is no user between the projection device 400 and the projection surface or when there is no pointer. In S1207 to S1211, in the present embodiment, the projection mode is changed when the user operation is detected and the user operation is not performed for a predetermined period. The projection mode may be changed when does not exist. In this case, similarly, the projection mode may be changed when no user or the like exists for a predetermined period. The processing in S1212 is the same as the processing in S204, and a description thereof will be omitted.

S1213で、CPU101は、第2の投影モードで不可視光を投影する。本実施形態では、CPU101は、投影領域の外周に沿って不可視光を投影する。なお、不可視光は、投影領域の外周以外でもよく、例えば、投影領域の左右端の領域にそれぞれ投影されてもよい。第2の投影モードにおける不可視光は、ユーザ等が投影領域に侵入することを検出できればよく形状は問わない。なお、不可視光は、常に投影されなくてもよく、所定の時間間隔ごとに投影されてもよい。   In step S1213, the CPU 101 projects invisible light in the second projection mode. In the present embodiment, the CPU 101 projects the invisible light along the outer periphery of the projection area. It should be noted that the invisible light may be projected on areas other than the outer periphery of the projection area, for example, on the left and right ends of the projection area. The invisible light in the second projection mode may have any shape as long as it can detect that a user or the like enters the projection area. The invisible light need not always be projected, and may be projected at predetermined time intervals.

S1214で、CPU101は、投影領域内におけるユーザの有無を検出する。具体的には、S1213で投影された不可視光の反射光を受光することにより、ユーザの有無を
検出する。なお、CPU101は、S1207と同様にユーザ操作を検出してもよい。
In S1214, the CPU 101 detects the presence or absence of a user in the projection area. Specifically, the presence or absence of a user is detected by receiving the reflected light of the invisible light projected in S1213. Note that the CPU 101 may detect a user operation as in S1207.

S1215で、CPU101は、S1214における検出結果に基づいて投影領域内にユーザが存在するか否かを判断する。ユーザが存在すると判断する場合はS1216に進み、そうでない場合はS1217に進む。   In S1215, the CPU 101 determines whether a user exists in the projection area based on the detection result in S1214. If it is determined that a user exists, the process proceeds to S1216; otherwise, the process proceeds to S1217.

S1216で、CPU101は、赤外レーザー光の投影モードを第1の投影モードに設定する。S1217〜S1222の処理は、S209〜S214の処理と同様のため説明を省略する。   In S1216, the CPU 101 sets the projection mode of the infrared laser light to the first projection mode. The processing in steps S1217 to S1222 is the same as the processing in steps S209 to S214, and a description thereof will be omitted.

本実施形態では、以上の処理を実行することにより、投影領域にユーザが存在しない場合には不可視光を外枠投影して不可視光の出力を低減することで消費電力を抑えている。   In the present embodiment, by executing the above processing, when no user is present in the projection area, the invisible light is projected to the outer frame to reduce the output of the invisible light, thereby reducing power consumption.

図13(A)、図13(B)は、本実施形態に係る赤外レーザー光の投影形状を示す。図13(A)は、第1の投影モードで赤外レーザー光を投影する場合の概念図である。投影画像1300は、投影装置400によって投影された画像である。図13(A)の例では、投影画像1300の一部にユーザが投影画像の操作を行うためのUI画像であるUI1301が含まれている。投影装置400は、投影モードが第1の投影モードである場合は、UI1301部分に赤外レーザー光を投影してユーザのUI操作を検出する。   FIGS. 13A and 13B show a projection shape of infrared laser light according to the present embodiment. FIG. 13A is a conceptual diagram when an infrared laser beam is projected in the first projection mode. The projection image 1300 is an image projected by the projection device 400. In the example of FIG. 13A, a part of the projection image 1300 includes a UI 1301 that is a UI image for the user to operate the projection image. When the projection mode is the first projection mode, the projection device 400 detects the user's UI operation by projecting an infrared laser beam onto the UI 1301 portion.

図13(B)は、第2の投影モードで赤外レーザー光を投影する場合の概念図である。領域1302は、投影装置400が投影した赤外レーザー光の投影形状を示す。投影装置400は、投影画像の領域1302に限定して赤外レーザー光を投影することでユーザ操作の待機時における消費電力を低減させる。なお、領域1302の投影を行う際に画素を間引いて投影することで消費電力を削減してもよい。また、上述の処理では、投影面の形状が変化することが考えられるため不可視光を定期的に投影しているが、処理の最初に一度だけ行われてもよい。また、可視光の投影がなされていないときに、不可視光のみ投影を行ってもよい。なお、本実施形態では、投影画像の外枠として、投影画像における上下左右の端部領域に対して不可視光を投影する例について説明したが、外枠はユーザの有無を検出するために不可視光を投影する領域を示すものであればよい。例えば、外枠としてUI画像の周辺に不可視光を投影してもよい。   FIG. 13B is a conceptual diagram in the case where infrared laser light is projected in the second projection mode. An area 1302 indicates a projection shape of the infrared laser light projected by the projection device 400. The projection device 400 reduces the power consumption during standby of the user operation by projecting the infrared laser light only on the area 1302 of the projection image. Note that when projecting the region 1302, power consumption may be reduced by thinning out pixels and projecting. In the above-described processing, invisible light is regularly projected because the shape of the projection surface may change. However, the processing may be performed only once at the beginning of the processing. When no visible light is projected, only the invisible light may be projected. Note that, in the present embodiment, an example has been described in which invisible light is projected onto the upper, lower, left, and right end regions in the projected image as the outer frame of the projected image. However, the outer frame is invisible light in order to detect the presence or absence of the user. What is necessary is just to show the area | region where is projected. For example, invisible light may be projected around the UI image as an outer frame.

(実施形態5)
上述の実施形態4では、第2の投影モードの場合、投影画像における上下左右の端部領域に対して不可視光を投影する例について説明した。本実施形態では、第2の投影モードの場合、投影画像の外枠として、投影画像よりも外側に赤外レーザー光を投影する例について説明する。本実施形態における投影装置400の構成については、上述の実施形態4と同様のため説明を省略する。
(Embodiment 5)
In the fourth embodiment described above, in the case of the second projection mode, an example has been described in which invisible light is projected onto the upper, lower, left, and right end regions in the projected image. In the present embodiment, an example will be described in which, in the case of the second projection mode, an infrared laser beam is projected outside the projected image as an outer frame of the projected image. The configuration of the projection device 400 according to the present embodiment is the same as that of the above-described fourth embodiment, and a description thereof is omitted.

図14は、本実施形態に係る投影画像及び赤外レーザー光の概念図である。本実施形態に係る投影装置400は投影画像1300よりも外側に赤外レーザー光の領域1402を投影する。これは、投影画像の外側でユーザを検出(検知)することによって、ユーザがUI操作を行うまでの時間内に第2の投影モードから第1の投影モードの切り替え処理を完了させるためである。   FIG. 14 is a conceptual diagram of a projection image and infrared laser light according to the present embodiment. The projection device 400 according to the present embodiment projects an infrared laser light region 1402 outside the projection image 1300. This is because by detecting (detecting) the user outside the projection image, the switching process from the second projection mode to the first projection mode is completed within the time until the user performs the UI operation.

また、領域1402は、走査ミラー113における走査線のうち有効画素として使用していない部分を用いて投影することも可能である。例えば、走査ミラー113は投影領域の左右端に画素密度が不均一の部分を有しているため、走査ミラー113の投影領域の左右端を使用することで画像投影面の外側に領域1402を投影してもよい。   Further, the area 1402 can be projected using a portion of the scanning line on the scanning mirror 113 that is not used as an effective pixel. For example, since the scanning mirror 113 has a portion where the pixel density is not uniform at the left and right ends of the projection area, the area 1402 is projected outside the image projection plane by using the left and right ends of the projection area of the scanning mirror 113. May be.

(実施形態6)
実施形態1から実施形態5では、赤外レーザー光と可視レーザー光(RGB)とをそれぞれ投影面に走査する投影装置に関して説明した。実施形態6では、投影面上のオブジェクト(操作オブジェクト)に対して、赤外レーザー光(所定の光)を照射し、オブジェクトに対するユーザ操作を検出する装置について説明する。
(Embodiment 6)
In the first to fifth embodiments, the description has been given of the projection apparatus that scans the projection surface with the infrared laser light and the visible laser light (RGB). In a sixth embodiment, an apparatus that irradiates an object (operation object) on a projection surface with infrared laser light (predetermined light) and detects a user operation on the object will be described.

図15は、オブジェクト上に赤外光を照射して、ユーザのオブジェクトに対する操作を検知する検知装置1500を示す模式図である。検知装置1500は、壁面に設けられたオブジェクト(ボタン)1501に対して赤外レーザー光を照射し、反射波を検知することによってオブジェクト1501に対するユーザ操作を検知する。検知の方法は、実施形態1等に記載した方法と同様であることから、詳細な説明を省略する。   FIG. 15 is a schematic diagram illustrating a detection device 1500 that irradiates infrared light onto an object and detects a user's operation on the object. The detection device 1500 irradiates an infrared laser beam to an object (button) 1501 provided on a wall surface and detects a reflected wave to detect a user operation on the object 1501. Since the detection method is the same as the method described in the first embodiment and the like, detailed description will be omitted.

検知装置1500は、オブジェクト1501に対するユーザ操作を検知したことに応じて、検知結果を示す情報をプロジェクタ1502に送信する。プロジェクタ1502は、受信した検知結果を示す情報に応じて、処理を実行する。例えば、プロジェクタ1502は、ユーザ操作が検知されたオブジェクト1501に対して、付加情報を示す画像を投影する。また、プロジェクタ1502は、ユーザ操作が検知されたオブジェクト1501に対してあらかじめ投影している画像を、ユーザ操作を検知したことに応じて変更する。   In response to detecting a user operation on object 1501, detecting device 1500 transmits information indicating the detection result to projector 1502. Projector 1502 executes processing according to the received information indicating the detection result. For example, the projector 1502 projects an image indicating additional information on the object 1501 for which a user operation has been detected. Further, projector 1502 changes an image that is previously projected on object 1501 for which a user operation has been detected, in response to the detection of the user operation.

なお、図15に示した検知システムは、例示であって、上述の例に限らない。検知結果を出力する装置は、プロジェクタに限らず、管理サーバーやパーソナルコンピュータ、タブレット、およびスマートフォンのいずれかであってもよい。赤外光が照射される領域は、図15に示すように壁面に限らない。   Note that the detection system illustrated in FIG. 15 is an example, and is not limited to the above-described example. The device that outputs the detection result is not limited to the projector, and may be any of a management server, a personal computer, a tablet, and a smartphone. The region irradiated with the infrared light is not limited to the wall surface as shown in FIG.

図16は、検知装置1500の機能ブロックを示すブロック図である。検知装置1500は、CPU1601、メモリ1602、画像生成部1603、領域決定部1605、光源制御部1606、レーザードライバ1607、赤外レーザー光源1608、ミラー制御部1612、および走査ミラー1613を備える。また、検知装置1500は、操作部1614、タイマー1615、受光部1630、および検出部1631を備える。検知装置1500の各ブロックは、実施形態1〜5に示した同名のブロックと同様の機能を発揮する。以降では、実施形態1〜5の同名のブロックとの差分について説明する。   FIG. 16 is a block diagram showing functional blocks of the detection device 1500. The detection device 1500 includes a CPU 1601, a memory 1602, an image generation unit 1603, an area determination unit 1605, a light source control unit 1606, a laser driver 1607, an infrared laser light source 1608, a mirror control unit 1612, and a scanning mirror 1613. The detection device 1500 includes an operation unit 1614, a timer 1615, a light receiving unit 1630, and a detection unit 1631. Each block of the detection device 1500 exhibits the same function as the block of the same name shown in the first to fifth embodiments. Hereinafter, differences from the blocks having the same names in the first to fifth embodiments will be described.

<処理内容>
図17は、検知装置1500がユーザ操作の検知処理の実行を指示されたことに応じて開始される検知処理を示すフローチャートである。
<Processing content>
FIG. 17 is a flowchart illustrating a detection process that is started in response to the detection device 1500 being instructed to execute a user operation detection process.

検知装置1500が起動し、ユーザが操作部1614を操作して検知処理の実行を指示したことに応じて、検知処理が開始される。なお、検知装置1500の起動に応じて、自動的に検知処理の実行が開始されてもよい。   The detection device 1500 is activated, and the detection process is started in response to the user operating the operation unit 1614 to instruct the execution of the detection process. Note that the execution of the detection process may be automatically started in response to the activation of the detection device 1500.

S1701で、検知装置1500は、基準距離画像を生成する。この処理は、S301の処理と同様である。検知処理が開始された直後は、検知装置1500とオブジェクト1501を含む検知可能領域との間には、侵入物がない状態であるものとする。領域決定部1605は、検知可能領域の全域を赤外レーザー光の照射領域(出力領域)として決定する。レーザードライバ1607およびミラー制御部1612は、検知可能領域の全域に赤外レーザー光が照射されるように、赤外レーザー光源1608と走査ミラー1613との動作を制御する。CPU1601は、赤外レーザー光が出力されたタイミングと、受光部1630が反射波を受光したタイミングとの時間差を、各照射位置に対する基準のパラメータとしてメモリ1602に記憶する。   In S1701, the detection device 1500 generates a reference distance image. This process is the same as the process of S301. Immediately after the detection process is started, it is assumed that there is no intruding object between the detection device 1500 and the detectable area including the object 1501. The area determining unit 1605 determines the entire area of the detectable area as an irradiation area (output area) of the infrared laser light. The laser driver 1607 and the mirror control unit 1612 control the operations of the infrared laser light source 1608 and the scanning mirror 1613 so that the entire area of the detectable area is irradiated with the infrared laser light. The CPU 1601 stores the time difference between the timing at which the infrared laser light is output and the timing at which the light receiving unit 1630 receives the reflected wave in the memory 1602 as a reference parameter for each irradiation position.

S1702で、領域決定部1605は、赤外レーザー光の照射領域を、ユーザの侵入検知用の領域である監視領域(第1領域)に決定する。本実施形態では、領域決定部1605は、検知可能領域の四辺に対応する枠状の領域を監視領域として決定する。   In step S1702, the area determination unit 1605 determines the irradiation area of the infrared laser light as a monitoring area (first area) that is an area for detecting intrusion of a user. In the present embodiment, the area determination unit 1605 determines a frame-shaped area corresponding to four sides of the detectable area as a monitoring area.

図18(A)〜図18(E)は、赤外レーザー光の照射領域を示す模式図である。図18(A)は、侵入検知用の領域と設定された、検知可能領域の四辺に対応する枠状の領域を示す模式図である。なお、監視領域は、他の形状であってもよい。オブジェクト1501が壁面に設けられ、ユーザがオブジェクト1501に対して左右から侵入する可能性が高い場合は、検知可能領域の左右の二辺に対応する領域を監視領域としてもよい。図18(B)は、侵入検知用の領域と設定された、検知可能領域の左右の二辺に対応する枠状の領域を示す模式図である。また、ユーザがオブジェクト1501に対して上下から侵入する可能性が高い場合は、検知可能領域の左右の二辺に対応する領域を監視領域としてもよい。図18(C)は、侵入検知用の領域と設定された、検知可能領域の上下の二辺に対応する枠状の領域を示す模式図である。少なくとも監視領域は、検知可能領域よりも狭い領域である。また、監視領域は、後述する検知領域(第2領域)よりも狭い領域である。   FIGS. 18A to 18E are schematic diagrams illustrating an irradiation region of infrared laser light. FIG. 18A is a schematic diagram illustrating a frame-shaped area corresponding to four sides of a detectable area set as an area for intrusion detection. Note that the monitoring area may have another shape. When the object 1501 is provided on a wall surface and the user is likely to enter the object 1501 from the left and right, areas corresponding to the two left and right sides of the detectable area may be set as the monitoring area. FIG. 18B is a schematic diagram illustrating a frame-shaped area corresponding to two left and right sides of a detectable area, which is set as an intrusion detection area. If the user is highly likely to invade the object 1501 from above and below, an area corresponding to the left and right sides of the detectable area may be set as the monitoring area. FIG. 18C is a schematic diagram showing a frame-shaped area corresponding to two upper and lower sides of the detectable area set as the area for intrusion detection. At least the monitoring area is an area smaller than the detectable area. The monitoring area is an area smaller than a detection area (second area) described later.

S1703で、レーザードライバ1607およびミラー制御部1612は、決定された監視領域に赤外レーザー光が照射されるように、赤外レーザー光源1608と走査ミラー1613との動作を制御する。   In step S1703, the laser driver 1607 and the mirror control unit 1612 control the operations of the infrared laser light source 1608 and the scanning mirror 1613 so that the determined monitoring area is irradiated with the infrared laser light.

S1704で、受光部1630は、赤外レーザー光を受光する。また、検出部1631は、受光部1630が赤外レーザー光を受光したタイミングと、赤外レーザー光を出力したタイミングとの時間差と、S1701で取得した時間差とを比較して、ユーザもしくは物体の侵入の有無を検出する。なお、S1703とS1704との処理は、赤外レーザー光の出力ごとに実行される。   In step S1704, the light receiving unit 1630 receives the infrared laser light. The detecting unit 1631 compares the time difference between the timing at which the light receiving unit 1630 receives the infrared laser light and the timing at which the infrared laser light is output, and the time difference acquired in S1701 to determine whether the user or object has entered. Is detected. Note that the processing in S1703 and S1704 is executed for each output of the infrared laser light.

S1705で、CPU1601は、監視領域に対してユーザもしくは指示棒等の操作入力のための物体(指示オブジェクト)の侵入の有無を判定する。ここで、侵入の判定方法は、S1214,S1215と同様である。侵入がない場合はS1715に進み、侵入が有る場合はS1706に進む。なお、CPU1601は、不可視光を検知することにより、人や物体の侵入を検知する検知部と捉えることもできる。   In step S1705, the CPU 1601 determines whether or not an object (pointing object) such as a user or a pointing rod for operation input has entered the monitoring area. Here, the method of determining intrusion is the same as in S1214 and S1215. When there is no intrusion, the process proceeds to S1715, and when there is an intrusion, the process proceeds to S1706. Note that the CPU 1601 can be regarded as a detection unit that detects intrusion of a person or an object by detecting invisible light.

S1715で、CPU1601は、検知処理の終了指示が入力されたか否かを判定する。例えば、ユーザから操作部1614に対する終了指示、もしくは検知装置1500の起動停止指示が入力された場合、検知処理の終了指示が入力されたと判定する。ここで、終了指示が入力された場合は、検知処理を終了する。検知処理の終了指示が入力されない場合は、S1703に進む。   In step S1715, the CPU 1601 determines whether an instruction to end the detection processing has been input. For example, when a user inputs a termination instruction to the operation unit 1614 or a start / stop instruction of the detection device 1500, it is determined that a detection processing termination instruction has been input. Here, when the end instruction is input, the detection processing ends. If an instruction to end the detection process has not been input, the process advances to step S1703.

S1706で、領域決定部1605は、赤外レーザー光の照射領域を検知領域に決定する。検知領域(第2領域)は、ユーザ操作の有無を検知するための領域であって、上述の監視領域よりも広い領域である。   In step S1706, the region determination unit 1605 determines the irradiation region of the infrared laser light as the detection region. The detection area (second area) is an area for detecting the presence / absence of a user operation, and is an area wider than the above-described monitoring area.

図18(D)は、検知領域として決定された検知可能領域の全域を示す模式図である。また、メモリ1602にあらかじめ検知対象のオブジェクト1501の位置を示す情報が格納されている場合、領域決定部1605は、検知対象のオブジェクト1501を含む領域を検知領域に決定する。図18(E)は、検知領域として決定された検知対象のオブジェクト1501を含む領域を示す模式図である。本検出フローでは、検出可能領域の全域を検知領域とする。   FIG. 18D is a schematic diagram showing the entire detectable area determined as the detection area. If information indicating the position of the detection target object 1501 is stored in the memory 1602 in advance, the region determination unit 1605 determines a region including the detection target object 1501 as the detection region. FIG. 18E is a schematic diagram illustrating a region including the detection target object 1501 determined as the detection region. In this detection flow, the entire detectable area is set as the detection area.

S1707で、CPU1601は、タイマー1615のカウントをリセットし、時間計
測を開始する。
In step S1707, the CPU 1601 resets the count of the timer 1615 and starts time measurement.

S1708で、レーザードライバ1607およびミラー制御部1612は、決定された検知領域に赤外レーザー光が照射されるように、赤外レーザー光源1608と走査ミラー1613との動作を制御する。   In step S1708, the laser driver 1607 and the mirror control unit 1612 control the operations of the infrared laser light source 1608 and the scanning mirror 1613 so that the determined detection area is irradiated with the infrared laser light.

S1709で、受光部1630は、赤外レーザー光を受光する。また、検出部1631は、受光部1630が赤外レーザー光を受光したタイミングと、赤外レーザー光を出力したタイミングとの時間差と、S1701で取得した時間差とを比較して、ユーザもしくは物体の侵入の有無を検出する。なお、S1708とS1709との処理は、赤外レーザー光の出力ごとに実行される。   In S1709, light receiving unit 1630 receives the infrared laser light. The detecting unit 1631 compares the time difference between the timing at which the light receiving unit 1630 receives the infrared laser light and the timing at which the infrared laser light is output, and the time difference acquired in S1701 to determine whether the user or object has entered. Is detected. Note that the processing of S1708 and S1709 is executed for each output of the infrared laser light.

S1710で、CPU1601は、検知領域に対する操作の有無を判定する。CPU1601は、オブジェクト1501を含む領域に何らかの物体の侵入を検知した場合、当該オブジェクト1501に対する操作がなされたと判定する。操作を検知した場合(S1710−Yes)はS1711へ進み、そうでない場合(S1710−No)はS1712へ進む。   In step S1710, the CPU 1601 determines whether an operation has been performed on the detection area. When detecting an intrusion of any object into the area including the object 1501, the CPU 1601 determines that an operation on the object 1501 has been performed. If an operation has been detected (S1710-Yes), the flow proceeds to S1711; otherwise (S1710-No), the flow proceeds to S1712.

S1711で、CPU1601は、操作が検知されたオブジェクト1501に対応する検知情報を、通信部1620を介して他の機能部または外部装置等へ出力する。そして、処理はS1707に戻る。   In step S1711, the CPU 1601 outputs detection information corresponding to the object 1501 whose operation has been detected to another functional unit or an external device via the communication unit 1620. Then, the process returns to S1707.

S1712で、CPU1601は、タイマー1615で計測された経過時間があらかじめ定められた閾値を超えたか否かを判定する。経過時間が閾値を超えた場合はS1713に進み、そうでない場合はS1714へ進む。   In step S1712, the CPU 1601 determines whether the elapsed time measured by the timer 1615 has exceeded a predetermined threshold. If the elapsed time exceeds the threshold, the process proceeds to S1713; otherwise, the process proceeds to S1714.

S1713で、領域決定部1605は、赤外レーザー光の照射領域を監視領域に決定する。S1713の処理は、S1702と同様の処理であるので説明を省略する。S1713の処理後、S1715に進む。この一連の処理は、赤外レーザー光の照射領域を監視領域から検知領域に変更したのちに、所定の期間、検知領域に対する操作が行われなかった場合に、赤外レーザー光の照射領域を監視領域に戻して、ユーザの侵入を検知するモードに戻る処理である。いわゆる無操作によるタイムアウトに対する処理である。   In step S1713, the area determination unit 1605 determines the irradiation area of the infrared laser light as the monitoring area. The processing in S1713 is the same as the processing in S1702, and a description thereof will not be repeated. After the processing in S1713, the process proceeds to S1715. In this series of processing, after changing the irradiation area of the infrared laser light from the monitoring area to the detection area, if the operation on the detection area is not performed for a predetermined period, the irradiation area of the infrared laser light is monitored. This is a process of returning to the area and returning to the mode for detecting the intrusion of the user. This is a process for a so-called no operation timeout.

S1714で、CPU1601は、S1715と同様に、検知処理の終了指示が入力されたか否かを判定する。S1714で、検知処理の終了指示が入力されたと判定された場合は検知処理を終了する。S1714で、検知処理の終了指示が入力されていないと判定された場合はS1708に戻る。   In step S1714, the CPU 1601 determines whether an instruction to end the detection process has been input, as in step S1715. If it is determined in step S1714 that an instruction to end the detection process has been input, the detection process ends. If it is determined in step S1714 that an instruction to end the detection process has not been input, the process returns to step S1708.

上述の一連の処理により、ユーザおよび指示オブジェクトが検知可能領域に侵入していない場合に、赤外レーザー光の照射領域を監視領域に制限し、かつ、侵入を検知したことに応じて、検知対象のオブジェクトに赤外レーザー光を照射することが可能となる。これにより、ユーザおよび指示オブジェクトによる操作の可能性が低い状況で、赤外レーザー光を広範囲に出力することがなく、検知装置の消費電力を低減することが可能となる。   By the above-described series of processing, when the user and the pointing object have not entered the detectable area, the irradiation area of the infrared laser light is limited to the monitoring area, and the detection target is set in response to the detection of the intrusion. Can be irradiated with infrared laser light. This makes it possible to reduce the power consumption of the detection device without outputting infrared laser light in a wide range in a situation where the possibility of operation by the user and the pointing object is low.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As described above, the preferred embodiments of the present invention have been described, but the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.

(変形例)
上述の投影装置は、投影画像にUI画像が含まれない場合は、投影モードに関わらず赤外レーザー光を投影画像の外枠に投影してもよい。これは、投影画像が切り替わる場合や
、動画像を投影する場合等で特に有効である。また、投影画像にUI画像が含まれない場合は、赤外レーザー光の点灯間隔を間引くことで消費電力を低減させてもよい。また、投影画像において、UI画像がない状態からUI画像を最初に投影する際に、最初に赤外レーザー光を外枠部に投影してもよい。
(Modification)
When the projection image does not include the UI image, the projection device described above may project the infrared laser light onto the outer frame of the projection image regardless of the projection mode. This is particularly effective when the projected image is switched or when a moving image is projected. If the projection image does not include a UI image, the power consumption may be reduced by thinning out the lighting intervals of the infrared laser light. Further, in the projection image, when the UI image is first projected from a state where no UI image is present, the infrared laser light may be first projected onto the outer frame portion.

上述の実施形態では、不可視光の投影形状が矩形である例について説明したが、投影形状は特に限定されず、例えば円形や楕円形でもよい。また、不可視光の投影領域も特に限定されず、例えば、第2の投影モードにおいて、投影画像の上端、下端、左端、右端のいずれかのみや、左右の端部のみに不可視光が投影されてもよい。また、投影画像が矩形である場合、角部に不可視光が投影されてもよい。さらに、第2の投影モードにおいて、UI画像を囲むような矩形または楕円形等の不可視光が投影されてもよい。   In the above-described embodiment, an example in which the projected shape of the invisible light is rectangular has been described. However, the projected shape is not particularly limited, and may be, for example, a circle or an ellipse. In addition, the projection region of the invisible light is not particularly limited. For example, in the second projection mode, the invisible light is projected on only one of the upper end, the lower end, the left end, and the right end of the projected image, or only on the left and right ends. Is also good. When the projected image is rectangular, invisible light may be projected on a corner. Further, in the second projection mode, an invisible light such as a rectangle or an ellipse surrounding the UI image may be projected.

上述の実施形態では、投影装置は、UI画像に対して不可視光を投影するモードと、投影画像の外枠(枠状領域)に対して不可視光を投影するモードとを有する例について説明したが、投影画像全体に不可視光を投影する投影モードを有していてもよい。これにより、例えば、不可視光の投影領域を投影画像の外枠または投影画像全体に切り替えたり、不可視光の投影領域をUI画像または投影画像全体に切り替えることができる。さらに、投影装置は上記3つのモードすべてを有していてもよい。   In the above-described embodiment, an example has been described in which the projection device has a mode in which invisible light is projected on a UI image and a mode in which invisible light is projected on an outer frame (frame-shaped region) of the projected image. A projection mode for projecting invisible light onto the entire projection image may be provided. Thus, for example, the invisible light projection area can be switched to the outer frame of the projection image or the entire projection image, or the invisible light projection area can be switched to the UI image or the entire projection image. Further, the projection device may have all three modes.

実施形態1から実施形態7では、操作を検知するための光として、赤外レーザー光(不可視光)を用いたが、検知に用いる光の色(波長)は、これに限らない。例えば、ピーク波長を不可視光の波長領域(範囲)に有する赤外光以外のレーザー光でもよく、ピーク波長を可視光の波長範囲に有するレーザー光を用いてもよい。   In the first to seventh embodiments, infrared laser light (invisible light) is used as light for detecting an operation, but the color (wavelength) of light used for detection is not limited to this. For example, laser light other than infrared light having a peak wavelength in the invisible light wavelength range (range) may be used, or laser light having a peak wavelength in the visible light wavelength range may be used.

また、いわゆるRadio Frequencyと呼ばれる高周波帯の電磁波を照射し、その反射波に基づいて、ユーザおよび指示オブジェクトの検知を行う検知装置においても、本実施形態の思想を利用することが可能である。より具体的には、検知領域の外周の少なくとも一部を侵入検知用の照射領域(監視領域)として設定する。そして、監視領域に対して高周波帯の電磁波を照射した状態で当該監視領域に対する何らかの物体の侵入を検知したことに応じて、照射領域を変更する。変更後の照射領域は、監視領域を含んでも含まなくてもよい。変更後の照射領域はあらかじめ定められた検知対象のオブジェクトを含む領域である。監視領域に対する侵入の前後で、照射領域のほか、照射する光(電磁波)の波長を変更してもよい。例えば、RFの電磁波で監視領域に対する侵入を検知したあとで、赤外光の照射に切り替えることも可能である。   In addition, the idea of the present embodiment can be used in a detection device that irradiates an electromagnetic wave in a high frequency band called a so-called Radio Frequency and detects a user and a pointing object based on the reflected wave. More specifically, at least a part of the outer periphery of the detection area is set as an irradiation area (monitoring area) for intrusion detection. Then, the irradiation area is changed in response to detecting any intrusion of an object into the monitoring area while irradiating the monitoring area with the high-frequency electromagnetic waves. The irradiation area after the change may or may not include the monitoring area. The irradiation area after the change is an area including a predetermined detection target object. Before and after intrusion into the monitoring area, the wavelength of the light (electromagnetic wave) to be irradiated may be changed in addition to the irradiation area. For example, it is also possible to switch to irradiation of infrared light after detecting intrusion into the monitoring area by RF electromagnetic waves.

(その他)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

1500:検知装置 1601:CPU 1605:領域決定部
1608:赤外レーザー光源
1500: detection device 1601: CPU 1605: area determination unit 1608: infrared laser light source

Claims (24)

所定の光の出力領域を決定する決定手段と、
前記所定の光を前記出力領域に出力する出力手段と、
前記所定の光を検知することにより、前記出力領域に対するオブジェクトの侵入を検知する検知手段と、
を備え、
前記決定手段は、前記検知手段の検知結果に応じて、前記出力領域を第1領域から前記第1領域より広い第2領域に変更する、
ことを特徴とする制御装置。
Determining means for determining a predetermined light output area,
Output means for outputting the predetermined light to the output area,
Detecting means for detecting intrusion of an object into the output area by detecting the predetermined light;
With
The determining unit changes the output region from a first region to a second region wider than the first region, according to a detection result of the detecting unit.
A control device characterized by the above-mentioned.
前記所定の光は、ピーク波長を不可視光の波長領域に有する不可視光である、
ことを特徴とする請求項1に記載の制御装置。
The predetermined light is invisible light having a peak wavelength in a wavelength region of invisible light,
The control device according to claim 1, wherein:
前記第1領域は、操作オブジェクトを含む領域の外周の一部の領域であり、
前記第2領域は、前記操作オブジェクトを含む領域である、
ことを特徴とする請求項1または2に記載の制御装置。
The first area is a part of an outer periphery of an area including the operation object,
The second area is an area including the operation object,
The control device according to claim 1 or 2, wherein:
可視光を用いて画像を投影面の投影領域に投影する投影手段をさらに備え、
前記第1領域は、前記投影領域の外枠の少なくとも一部に対応する領域であり、
前記第2領域は、前記投影領域のうち、前記画像に含まれる操作オブジェクトに対応する領域である、
ことを特徴とする請求項1または2に記載の制御装置。
Further comprising projection means for projecting an image to a projection area of a projection surface using visible light,
The first region is a region corresponding to at least a part of an outer frame of the projection region,
The second area is an area of the projection area corresponding to the operation object included in the image.
The control device according to claim 1 or 2, wherein:
前記投影手段によって投影される前記画像のうちUI(ユ―ザインタフェース)の位置を取得する位置取得手段をさらに有し、
前記決定手段は、前記UIが投影される領域を前記第2領域として決定する、
ことを特徴とする請求項4に記載の制御装置。
Position acquiring means for acquiring a position of a UI (user interface) in the image projected by the projecting means,
The determining means determines an area on which the UI is projected as the second area,
The control device according to claim 4, wherein:
前記UIを含む画像データを生成する生成手段をさらに有し
前記位置取得手段は、前記生成手段によって生成される前記画像データに基づいて前記UIの位置を取得する、
ことを特徴とする請求項5に記載の制御装置。
The image processing apparatus further includes a generating unit configured to generate image data including the UI, wherein the position obtaining unit obtains the position of the UI based on the image data generated by the generating unit.
The control device according to claim 5, wherein:
画像データを外部装置から受信する受信手段をさらに有し、
前記位置取得手段は、前記画像データに基づいて前記UIの位置を取得する、
ことを特徴とする請求項5に記載の制御装置。
A receiving unit that receives image data from an external device,
The position acquisition unit acquires a position of the UI based on the image data.
The control device according to claim 5, wherein:
画像データおよび前記画像データに対応する前記UIの位置情報を外部装置から受信する受信手段をさらに有し、
前記位置取得手段は、前記受信手段によって受信される位置情報を前記UIの位置情報として取得する、
ことを特徴とする請求項5に記載の制御装置。
A receiving unit that receives, from an external device, position information of the UI corresponding to the image data and the image data,
The position acquisition unit acquires position information received by the reception unit as position information of the UI.
The control device according to claim 5, wherein:
前記出力手段が前記第2領域に前記所定の光を出力している状態で、前記検知手段が前記第2領域に対してオブジェクトの侵入を検知したことに応じて、所定の処理を実行する処理手段をさらに備える、
ことを特徴とする請求項4から8のいずれか一項に記載の制御装置。
A process of executing a predetermined process in response to the detection unit detecting an intrusion of an object into the second region while the output unit is outputting the predetermined light to the second region; Further comprising means,
The control device according to any one of claims 4 to 8, wherein:
前記検知手段は、前記出力手段が前記所定の光を出力したタイミングと、前記検知手段
が前記所定の光を検知したタイミングとの時間差に基づいて、前記出力手段が前記所定の光を出力している領域におけるオブジェクトの侵入を検知する、
ことを特徴とする請求項1から9のいずれか一項に記載の制御装置。
The detecting means outputs the predetermined light based on a time difference between a timing at which the output means outputs the predetermined light and a timing at which the detecting means detects the predetermined light. Detecting the intrusion of objects in the area where
The control device according to claim 1, wherein:
前記決定手段は、前記出力手段が前記第2領域に対して前記所定の光を出力しているときに、前記検知手段が所定の時間以上、オブジェクトの侵入を検知しない場合、前記出力領域を前記第1領域に変更する、
ことを特徴とする請求項10に記載の制御装置。
The determining means, when the output means is outputting the predetermined light to the second area, if the detection means does not detect the intrusion of an object for a predetermined time or more, the output area is set to the output area. Change to the first area,
The control device according to claim 10, wherein:
所定の光の出力領域を決定する決定ステップと、
前記所定の光を前記出力領域に出力する出力ステップと、
前記所定の光を検知することにより、前記出力領域に対するオブジェクトの侵入を検知する検知ステップと、
を有し、
前記決定ステップでは、前記検知ステップの検知結果に応じて、前記出力領域を第1領域から前記第1領域より広い第2領域に変更する、
ことを特徴とする制御方法。
A determining step of determining a predetermined light output area,
An output step of outputting the predetermined light to the output area,
A detecting step of detecting an intrusion of an object into the output area by detecting the predetermined light;
Has,
In the determining step, the output area is changed from a first area to a second area wider than the first area according to a detection result of the detecting step.
A control method characterized in that:
前記所定の光は、ピーク波長を不可視光の波長領域に有する不可視光である、
ことを特徴とする請求項12に記載の制御方法。
The predetermined light is invisible light having a peak wavelength in a wavelength region of invisible light,
The control method according to claim 12, wherein:
前記第1領域は、操作オブジェクトを含む領域の外周の一部の領域であり、
前記第2領域は、前記操作オブジェクトを含む領域である、
ことを特徴とする請求項12または13に記載の制御方法。
The first area is a part of an outer periphery of an area including the operation object,
The second area is an area including the operation object,
The control method according to claim 12, wherein:
可視光を用いて画像を投影面の投影領域に投影する投影ステップをさらに有し、
前記第1領域は、前記投影領域の外枠の少なくとも一部に対応する領域であり、
前記第2領域は、前記投影領域のうち、前記画像に含まれる操作オブジェクトに対応する領域である、
ことを特徴とする請求項12または13に記載の制御方法。
Further comprising a projection step of projecting the image onto a projection area on a projection surface using visible light,
The first region is a region corresponding to at least a part of an outer frame of the projection region,
The second area is an area of the projection area corresponding to the operation object included in the image.
The control method according to claim 12, wherein:
前記投影ステップで投影される前記画像のうちUI(ユ―ザインタフェース)の位置を取得する位置取得ステップをさらに有し、
前記決定ステップでは、前記UIが投影される領域を前記第2領域として決定する、
ことを特徴とする請求項15に記載の制御方法。
A position acquisition step of acquiring a position of a UI (user interface) among the images projected in the projection step;
In the determining step, an area on which the UI is projected is determined as the second area.
The control method according to claim 15, wherein:
前記UIを含む画像データを生成する生成ステップをさらに有し
前記位置取得ステップでは、前記生成ステップで生成される前記画像データに基づいて前記UIの位置を取得する、
ことを特徴とする請求項16に記載の制御方法。
The method further includes a generation step of generating image data including the UI, wherein the position obtaining step obtains the position of the UI based on the image data generated in the generating step.
17. The control method according to claim 16, wherein:
画像データを外部装置から受信する受信ステップをさらに有し、
前記位置取得ステップは、前記画像データに基づいて前記UIの位置を取得する、
ことを特徴とする請求項16に記載の制御方法。
Further comprising a receiving step of receiving image data from an external device,
The position obtaining step obtains the position of the UI based on the image data,
17. The control method according to claim 16, wherein:
画像データおよび前記画像データに対応する前記UIの位置情報を外部装置から受信する受信ステップをさらに有し、
前記位置取得ステップでは、前記受信ステップで受信される位置情報を前記UIの位置情報として取得する、
ことを特徴とする請求項16に記載の制御方法。
A receiving step of receiving, from an external device, image data and the position information of the UI corresponding to the image data,
In the position obtaining step, the position information received in the receiving step is obtained as position information of the UI.
17. The control method according to claim 16, wherein:
前記第2領域に前記所定の光を出力している状態で、前記第2領域に対してオブジェクトの侵入を検知したことに応じて、所定の処理を実行する処理ステップをさらに有する、
ことを特徴とする請求項15から19のいずれか一項に記載の制御方法。
In the state where the predetermined light is being output to the second area, the method further includes a processing step of executing a predetermined process in response to detecting an intrusion of an object into the second area.
The control method according to any one of claims 15 to 19, wherein:
前記検知ステップでは、前記出力ステップで前記所定の光を出力したタイミングと、前記検知ステップで前記所定の光を検知したタイミングとの時間差に基づいて、前記所定の光を出力している領域におけるオブジェクトの侵入を検知する、
ことを特徴とする請求項12から20のいずれか一項に記載の制御方法。
In the detecting step, based on a time difference between a timing at which the predetermined light is output in the output step and a timing at which the predetermined light is detected in the detecting step, an object in an area outputting the predetermined light is detected. Detect intrusions,
The control method according to any one of claims 12 to 20, wherein:
前記決定ステップでは、前記第2領域に対して前記所定の光を出力しているときに、前記検知ステップで所定の時間以上、オブジェクトの侵入を検知しない場合、前記出力領域を前記第1領域に変更する、
ことを特徴とする請求項21に記載の制御方法。
In the determining step, while outputting the predetermined light to the second area, if the intrusion of an object is not detected for a predetermined time or more in the detecting step, the output area is set to the first area. change,
22. The control method according to claim 21, wherein:
請求項12から22のいずれか一項に記載の制御方法の各ステップをコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the control method according to any one of claims 12 to 22. 請求項12から22のいずれか一項に記載の制御方法の各ステップをコンピュータに実行させるためのプログラムを記憶するコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute each step of the control method according to any one of claims 12 to 22.
JP2019107221A 2018-09-19 2019-06-07 Control device, control method, program, and storage medium Ceased JP2020053009A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/573,078 US11172180B2 (en) 2018-09-19 2019-09-17 Control apparatus, control method and non-transitory computer-readable medium
EP19198017.6A EP3627222B1 (en) 2018-09-19 2019-09-18 Control apparatus, control method, program and computer-readable medium
CN201910887506.1A CN110933387B (en) 2018-09-19 2019-09-19 Control apparatus, control method, and computer-readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018175325 2018-09-19
JP2018175325 2018-09-19

Publications (1)

Publication Number Publication Date
JP2020053009A true JP2020053009A (en) 2020-04-02

Family

ID=69997460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019107221A Ceased JP2020053009A (en) 2018-09-19 2019-06-07 Control device, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2020053009A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271306A (en) * 2009-04-24 2010-12-02 Panasonic Electric Works Co Ltd Distance image sensor
JP2012256000A (en) * 2011-06-10 2012-12-27 Sanyo Electric Co Ltd Projection video display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271306A (en) * 2009-04-24 2010-12-02 Panasonic Electric Works Co Ltd Distance image sensor
JP2012256000A (en) * 2011-06-10 2012-12-27 Sanyo Electric Co Ltd Projection video display device

Similar Documents

Publication Publication Date Title
US10114475B2 (en) Position detection system and control method of position detection system
KR100673887B1 (en) Pointed position detection device and pointed position detection method
JP6326895B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
US20110164191A1 (en) Interactive Projection Method, Apparatus and System
US9830023B2 (en) Image display apparatus and method of controlling image display apparatus
JP2014149740A (en) Position detector, adjustment method, and adjustment program
CN110933387B (en) Control apparatus, control method, and computer-readable medium
JP6375660B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2011239279A (en) Remote control device and remote control method
JP6562124B2 (en) Position detection system and method for controlling position detection system
CN105468210B (en) Position detection device, projector, and position detection method
CN105468139B (en) Position detection device, projector, and position detection method
US10095357B2 (en) Position detection device, display device, method of controlling position detection device, and method of controlling display device for detecting a position on a display surface
JP2020053009A (en) Control device, control method, program, and storage medium
JP2019061513A (en) Position detection device, position detection system, and control method for position detection device
KR101002072B1 (en) Apparatus for touching a projection of images on an infrared screen
US10942607B2 (en) Manipulation detection device and video display system that are capable detecting an object on a video display surface
JP6604528B2 (en) Image processing apparatus and image processing system
JP2021105639A (en) Control method for projection system, projection system, and control program
JP6340860B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
WO2017064787A1 (en) Optical ranging device, optical ranging method, and image projection apparatus provided therewith
US10078378B2 (en) Position detection device, display device, method of controlling position detection device, and method controlling display device for discriminating a pointing element
JP6337558B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2016114626A (en) Image display device
EP2383912A2 (en) Input device and control method of the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20231031