JP6750269B2 - Projector and control method - Google Patents

Projector and control method Download PDF

Info

Publication number
JP6750269B2
JP6750269B2 JP2016063326A JP2016063326A JP6750269B2 JP 6750269 B2 JP6750269 B2 JP 6750269B2 JP 2016063326 A JP2016063326 A JP 2016063326A JP 2016063326 A JP2016063326 A JP 2016063326A JP 6750269 B2 JP6750269 B2 JP 6750269B2
Authority
JP
Japan
Prior art keywords
indicator
tilt
detecting
pointer
projection surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016063326A
Other languages
Japanese (ja)
Other versions
JP2017181540A (en
Inventor
慎吾 吉田
慎吾 吉田
尊洋 阿野
尊洋 阿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016063326A priority Critical patent/JP6750269B2/en
Publication of JP2017181540A publication Critical patent/JP2017181540A/en
Application granted granted Critical
Publication of JP6750269B2 publication Critical patent/JP6750269B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、投写面上における指示体の位置に応じた処理を行うプロジェクターに関する。 The present invention relates to a projector that performs processing according to the position of a pointer on a projection surface.

投写面に沿ってレーザー光等の検知光を照射し、指示体により反射された検知光によって投写面上の指示体の位置を検知する技術が知られている(例えば特許文献1)。 A technique is known in which detection light such as laser light is emitted along the projection surface and the position of the indicator on the projection surface is detected by the detection light reflected by the indicator (for example, Patent Document 1).

特開2015−184696号公報JP, 2005-184696, A

検知光は投写面からある高さ離れた位置に照射されており、指示体が投写面を指示する角度によっては、指示された位置と検知光を反射する位置とがずれる場合があった。 The detection light is applied to a position that is apart from the projection surface by a certain height, and depending on the angle at which the indicator points the projection surface, the instructed position and the position at which the detection light is reflected may shift.

これに対し本発明は、指示された位置と検知光を反射する位置とのずれを算出する技術に関する。 On the other hand, the present invention relates to a technique for calculating the deviation between the instructed position and the position where the detection light is reflected.

本発明は、投写面に画像を投写する投写手段と、検知光を前記投写面に沿って照射する照射手段と、指示体によって反射された前記検知光の位置である第1位置を検知する位置検知手段と、前記投写面に対する前記指示体の傾きを検知する傾き検知手段と、前記位置検知手段により検知された前記第1位置および前記傾き検知手段により検知された前記傾きから、前記指示体の特定部位の位置である第2位置と前記第1位置とのずれを算出する算出手段とを有するプロジェクターを提供する。
このプロジェクターによれば、指示された位置と検知光を反射する位置とのずれを算出することができる。
The present invention provides a projection means for projecting an image on a projection surface, an irradiation means for irradiating detection light along the projection surface, and a position for detecting a first position which is the position of the detection light reflected by an indicator. The detection unit, the inclination detection unit that detects the inclination of the indicator with respect to the projection surface, the first position detected by the position detection unit, and the inclination detected by the inclination detection unit Provided is a projector including a calculation unit that calculates a shift between a second position that is a position of a specific portion and the first position.
According to this projector, it is possible to calculate the deviation between the instructed position and the position where the detection light is reflected.

このプロジェクターは、前記投写面上の特定点を前記指示体により複数の角度から指示するようユーザーに促す特定画像を前記投写手段に投写させ、前記特定画像が投写された状態で前記指示体が前記特定点を指示しているときに、前記位置検知手段に当該指示体の位置を検知させ、かつ前記傾き検知手段に当該指示体の傾きを検知させ、前記特定点、前記位置検知手段により検知された前記指示体の位置、および前記傾き検知手段により検知された前記指示体の傾きを記録したテーブルを記憶手段に記憶する処理を実行する制御手段を有してもよい。
このプロジェクターによれば、指示された位置と検知光を反射する位置とのずれを記録したテーブルを生成することができる。
This projector causes the projection means to project a specific image that prompts a user to instruct a specific point on the projection surface from the plurality of angles by the pointing device, and the pointing device sets the specific image in a state where the specific image is projected. When the specific point is designated, the position detecting unit detects the position of the indicator, and the tilt detecting unit detects the tilt of the indicator, and the specific point and the position detecting unit detect the tilt. Further, it may have a control means for executing a process of storing in the storage means a table recording the position of the indicator and the inclination of the indicator detected by the inclination detecting means.
According to this projector, it is possible to generate a table in which the deviation between the instructed position and the position where the detection light is reflected is recorded.

前記指示体は、自身の傾きを検知するセンサーを有し、前記傾き検知手段は、前記指示体から当該指示体の傾きを示す情報を取得してもよい。
このプロジェクターによれば、指示体から傾きを取得することができる。
The indicator may include a sensor that detects the inclination of the indicator itself, and the inclination detector may obtain information indicating the inclination of the indicator from the indicator.
According to this projector, the tilt can be acquired from the pointer.

また、本発明は、投写面に画像を投写するステップと、検知光を前記投写面に沿って照射するステップと、指示体によって反射された前記検知光の位置である第1位置を検知するステップと、前記投写面に対する前記指示体の傾きを検知するステップと、前記第1位置および前記検知された前記傾きから、前記指示体の特定部位の位置である第2位置と前記第1位置とのずれを算出するステップとを有するプロジェクターの制御方法を提供する。
この制御方法によれば、指示された位置と検知光を反射する位置とのずれを算出することができる。
The present invention also includes the steps of projecting an image on a projection surface, irradiating the detection light along the projection surface, and detecting a first position which is the position of the detection light reflected by the pointer. A step of detecting an inclination of the indicator with respect to the projection surface; and a second position and a first position, which are positions of a specific portion of the indicator, based on the first position and the detected inclination. There is provided a projector control method including a step of calculating a deviation.
According to this control method, the shift between the instructed position and the position where the detection light is reflected can be calculated.

一実施形態に係るプロジェクター1の機能構成を例示する図。The figure which illustrates the functional composition of the projector 1 which concerns on one Embodiment. プロジェクター1のハードウェア構成を例示する図。The figure which illustrates the hardware constitutions of the projector 1. 検知光の概要を示す図。The figure which shows the outline of detection light. 検知光の概要を示す図。The figure which shows the outline of detection light. ペン21の構成を例示する図。The figure which illustrates the structure of the pen 21. 一実施形態に係る補正テーブルの生成処理を例示するフローチャート。6 is a flowchart illustrating a correction table generation process according to an embodiment. キャリブレーション用画像を例示する図。The figure which illustrates the image for calibration. 特定位置と検知位置とのずれを例示する図。The figure which illustrates the gap of a specific position and a detection position. 生成された補正テーブルを例示する図。The figure which illustrates the produced|generated correction table. 検知位置の補正処理を例示するフローチャート。The flowchart which illustrates the correction process of a detection position.

1.構成
図1は、一実施形態に係るプロジェクター1の機能構成を例示する図である。プロジェクター1は、投写面SCに画像を投写しつつ、投写面SC上の指示体20の位置を検知し、検知した位置に応じた処理を行う。指示体20は、ペン状の物体またはユーザーの指である。この例で、プロジェクター1は、指示体20の位置を補正する機能を有する。
1. Configuration FIG. 1 is a diagram illustrating a functional configuration of a projector 1 according to an embodiment. The projector 1 detects the position of the indicator 20 on the projection surface SC while projecting an image on the projection surface SC, and performs processing according to the detected position. The indicator 20 is a pen-shaped object or a user's finger. In this example, the projector 1 has a function of correcting the position of the indicator 20.

プロジェクター1は、投写手段11、照射手段12、位置検知手段13、傾き検知手段14、算出手段15、記憶手段16、および制御手段17を有する。投写手段11は、投写面SCに画像を投写する。照射手段12は、指示体20を検知するための光(以下「検知光」という)を投写面SCに沿って照射する。位置検知手段13は、指示体20によって反射された検知光の位置である第1位置を検知する。傾き検知手段14は、投写面SCに対する指示体20の傾きを検知する。算出手段15は、位置検知手段13により検知された第1位置および傾き検知手段14により検知された傾きから、指示体20の特定部位(例えば先端)の位置である第2位置と第1位置とのずれを算出する。 The projector 1 has a projection unit 11, an irradiation unit 12, a position detection unit 13, an inclination detection unit 14, a calculation unit 15, a storage unit 16, and a control unit 17. The projection means 11 projects an image on the projection surface SC. The irradiation unit 12 irradiates light for detecting the indicator 20 (hereinafter referred to as “detection light”) along the projection surface SC. The position detector 13 detects the first position, which is the position of the detection light reflected by the indicator 20. The tilt detecting means 14 detects the tilt of the indicator 20 with respect to the projection plane SC. The calculation unit 15 determines, based on the first position detected by the position detection unit 13 and the tilt detected by the tilt detection unit 14, a second position and a first position which are positions of a specific portion (for example, a tip) of the indicator 20. Calculate the deviation of

記憶手段16は、指示体20により指示された位置を補正するためのテーブル(以下「補正テーブル」という)等、各種のデータを記憶する。制御手段17は、補正テーブルを生成するための処理を実行する。この処理は、(1)投写面SC上の特定点を指示体20により複数の角度から指示するようユーザーに促す特定画像(以下「キャリブレーション用画像」という)を投写手段11に投写させ、(2)キャリブレーション用画像が投写された状態で指示体20が特定点を指示しているときに、位置検知手段13に指示体20の位置を検知させ、かつ傾き検知手段14に指示体20の傾きを検知させ、(3)特定点、位置検知手段13により検知された指示体20の位置、および傾き検知手段14により検知された指示体20の傾きを記録した補正テーブルを記憶手段16に記憶する処理である。 The storage unit 16 stores various data such as a table for correcting the position designated by the indicator 20 (hereinafter referred to as “correction table”). The control means 17 executes a process for generating a correction table. In this process, (1) the projection means 11 projects a specific image (hereinafter referred to as “calibration image”) that prompts the user to specify a specific point on the projection surface SC with the pointer 20 from a plurality of angles. 2) When the indicator 20 indicates a specific point in the state where the calibration image is projected, the position detector 13 is caused to detect the position of the indicator 20, and the tilt detector 14 is used to detect the indicator 20. The inclination is detected, and (3) a correction table in which the specific point, the position of the indicator 20 detected by the position detecting means 13, and the inclination of the indicator 20 detected by the inclination detecting means 14 are recorded is stored in the storage means 16. It is a process to do.

図2は、プロジェクター1のハードウェア構成を例示する図である。プロジェクター1は、CPU(Central Processing Unit)100、ROM(Read Only Memory)101、RAM(Random Access Memory)102、IF部104、画像処理回路105、投写ユニット106、操作パネル107、カメラ108、および光照射部109を有する。 FIG. 2 is a diagram illustrating a hardware configuration of the projector 1. The projector 1 includes a CPU (Central Processing Unit) 100, a ROM (Read Only Memory) 101, a RAM (Random Access Memory) 102, an IF unit 104, an image processing circuit 105, a projection unit 106, an operation panel 107, a camera 108, and an optical unit. The irradiation unit 109 is included.

CPU100は、プロジェクター1の各部を制御する制御装置である。ROM101は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。ROM101には、後述する基準しきい値や補正値が記憶されている。RAM102は、データを記憶する揮発性の記憶装置であり、CPU100が処理を実行する際のワークエリアとして機能する。 The CPU 100 is a control device that controls each unit of the projector 1. The ROM 101 is a non-volatile storage device that stores various programs and data. The ROM 101 stores a reference threshold value and a correction value described later. The RAM 102 is a volatile storage device that stores data, and functions as a work area when the CPU 100 executes processing.

IF部104は、外部装置と信号またはデータのやりとりを仲介するインターフェースである。IF部104は、外部装置と信号またはデータのやりとりをするための端子(例えば、VGA端子、USB端子、有線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子、マイクロフォン端子など)および無線LANインターフェースを含む。これらの端子は、映像入力端子に加え、映像出力端子を含んでもよい。IF部104は、異なる複数の映像供給装置から映像信号の入力を受け付けてもよい。 The IF unit 104 is an interface that mediates the exchange of signals or data with external devices. The IF unit 104 is a terminal for exchanging signals or data with an external device (for example, VGA terminal, USB terminal, wired LAN interface, S terminal, RCA terminal, HDMI (High-Definition Multimedia Interface: registered trademark) terminal, Microphone terminal) and a wireless LAN interface. These terminals may include a video output terminal in addition to a video input terminal. The IF unit 104 may accept input of video signals from a plurality of different video supply devices.

画像処理回路105は、入力された映像信号(以下「入力映像信号」という)に所定の画像処理(例えばサイズ変更、台形補正等)を施す。 The image processing circuit 105 performs predetermined image processing (for example, size change, trapezoidal correction, etc.) on the input video signal (hereinafter referred to as “input video signal”).

投写ユニット106は、画像処理が施された映像信号に従って、投写面SCに画像を投写する。投写ユニット106は、光源、光変調器、および光学系(いずれも図示略)を有する。光源は、高圧水銀ランプ、ハロゲンランプ、もしくはメタルハライドランプなどのランプ、またはLED(Light Emitting Diode)もしくはレーザーダイオードなどの固体光源、およびこれらの駆動回路を含む。光変調器は、光源から照射された光を映像信号に応じて変調する装置であり、例えば液晶パネルまたはDMD(Digital Mirror Device)、およびこれらの駆動回路を有する。なお、液晶パネルは、透過型および反射型のいずれの方式であってもよい。光学系は、光変調器により変調された光を投写面SCに投写する素子などで構成されており、例えばミラー、レンズ、およびプリズムを有する。光源および光変調器は色成分毎に設けられていてもよい。 The projection unit 106 projects an image on the projection surface SC according to the image-processed video signal. The projection unit 106 has a light source, a light modulator, and an optical system (all not shown). The light source includes a lamp such as a high-pressure mercury lamp, a halogen lamp, or a metal halide lamp, a solid-state light source such as an LED (Light Emitting Diode) or a laser diode, and a driving circuit thereof. The light modulator is a device that modulates light emitted from a light source according to a video signal, and includes, for example, a liquid crystal panel or a DMD (Digital Mirror Device), and a drive circuit for these. The liquid crystal panel may be either a transmissive type or a reflective type. The optical system includes an element that projects the light modulated by the light modulator onto the projection surface SC, and includes, for example, a mirror, a lens, and a prism. The light source and the light modulator may be provided for each color component.

操作パネル107は、ユーザーがプロジェクター1に対し指示を入力するための入力装置であり、例えば、キーパッド、ボタン、またはタッチパネルを含む。 The operation panel 107 is an input device for a user to input an instruction to the projector 1, and includes, for example, a keypad, a button, or a touch panel.

カメラ108は、指示体の位置を特定するためのカメラである。この例で、プロジェクター1は、ユーザーの指に加え、専用の電子ペンを指示体として検知することができる。電子ペンは、ペン先に設けられた発光体(例えば赤外線発光ダイオード)、圧力センサー、および制御回路(いずれも図示略)を有する。圧力センサーによりペン先が物体(投写面等)に触れたことが検知されると、制御回路は、所定の発光パターンで発光体を発光させる。または、ペン先が物体に触れたことが検知されると、制御回路は、ペン先が物体に触れる前後で、発光パターンを変化させるようにしてもよい。CPU100は、カメラ108が撮影した画像から指示体の位置を検知(特定)する。CPU100は、例えば発光パターンの違いまたは発光波長の違いにより、複数の指示体を区別することができる。 The camera 108 is a camera for specifying the position of the pointer. In this example, the projector 1 can detect not only the user's finger but also a dedicated electronic pen as an indicator. The electronic pen has a light-emitting body (for example, an infrared light-emitting diode) provided on the tip of the pen, a pressure sensor, and a control circuit (all not shown). When the pressure sensor detects that the pen tip touches an object (projection surface or the like), the control circuit causes the light emitter to emit light in a predetermined light emission pattern. Alternatively, when it is detected that the pen tip touches the object, the control circuit may change the light emission pattern before and after the pen tip touches the object. The CPU 100 detects (specifies) the position of the pointer from the image captured by the camera 108. The CPU 100 can distinguish a plurality of indicators based on, for example, a difference in emission pattern or a difference in emission wavelength.

光照射部109は、ユーザーの指を検知するための検知光を照射する。検知光としては例えば赤外線のレーザー光が用いられる。光照射部109は、投写面SCを覆うようにカーテン状にレーザー光を照射する。光照射部109は、いわゆるライトカーテンユニットである。光照射部109は、レーザー光を発する発光素子と、レーザー光を平面状に拡散するための光学部材を有する。なお、光照射部109は、他の要素とは独立した筐体に収められており、プロジェクター1の本体とは有線または無線で通信する。 The light irradiation unit 109 emits detection light for detecting the user's finger. For example, infrared laser light is used as the detection light. The light irradiation unit 109 irradiates the laser beam in a curtain shape so as to cover the projection surface SC. The light irradiation unit 109 is a so-called light curtain unit. The light irradiation unit 109 has a light emitting element that emits laser light and an optical member for diffusing the laser light in a plane. The light irradiation unit 109 is housed in a housing independent of other elements, and communicates with the main body of the projector 1 by wire or wirelessly.

図3および図4は、検知光の概要を示す図である。ここでは指示体20の一例としてユーザーの指Fが示されている。図3は、投写面SCを正面から見た模式図である。検知光Lは光照射部109から放射状に照射され、投写面SCを覆っている。図4は、投写面SCを断面方向から見た模式図である。検知光Lは投写面SCから少し(例えば数mm)離れた高さで、投写面SCに沿って照射されている。ユーザーの指Fが投写面SCに近づくと検知光が指Fで反射される。この反射光をカメラ108で捕らえることにより、指の位置が検知される。 3 and 4 are diagrams showing the outline of the detection light. Here, the finger F of the user is shown as an example of the indicator 20. FIG. 3 is a schematic diagram of the projection surface SC viewed from the front. The detection light L is radially emitted from the light emitting unit 109 and covers the projection surface SC. FIG. 4 is a schematic view of the projection plane SC viewed from the cross-sectional direction. The detection light L is emitted along the projection surface SC at a height a little (for example, several mm) away from the projection surface SC. When the user's finger F approaches the projection surface SC, the detection light is reflected by the finger F. The position of the finger is detected by capturing this reflected light with the camera 108.

再び図2を参照する。この例で、CPU100がROM101に記憶されているプログラムを実行することにより、図1に示す機能がプロジェクター1に実装される。投写ユニット106は、投写手段11の一例である。光照射部109は、照射手段12の一例である。CPU100は、位置検知手段13、傾き検知手段14、算出手段15、および制御手段17の一例である。ROM101およびRAM102は、記憶手段16の一例である。 Referring back to FIG. In this example, the CPU 100 executes the program stored in the ROM 101, so that the functions shown in FIG. 1 are implemented in the projector 1. The projection unit 106 is an example of the projection unit 11. The light irradiation unit 109 is an example of the irradiation unit 12. The CPU 100 is an example of the position detection unit 13, the inclination detection unit 14, the calculation unit 15, and the control unit 17. The ROM 101 and the RAM 102 are an example of the storage unit 16.

図5は、ペン21の構成を例示する図である。ペン21は指示体20の一例である。ペン21は、ジャイロセンサー211および送信部212を有する。ジャイロセンサー211は、ペン21の傾きを検知するセンサーの一例である。送信部212は、ジャイロセンサー211により検知された傾きを示す情報をプロジェクター1に送信する。なおペン21は、カメラ108に関して説明した自発光式の電子ペンとは異なり、自らは発光しないペンである。 FIG. 5 is a diagram illustrating the configuration of the pen 21. The pen 21 is an example of the indicator 20. The pen 21 has a gyro sensor 211 and a transmitter 212. The gyro sensor 211 is an example of a sensor that detects the inclination of the pen 21. The transmitter 212 transmits information indicating the tilt detected by the gyro sensor 211 to the projector 1. Note that the pen 21 is a pen that does not emit light itself, unlike the self-emission type electronic pen described for the camera 108.

2.動作
2−1.補正テーブルの生成
図6は、一実施形態に係る補正テーブルの生成処理を例示するフローチャートである。図6のフローは、例えば、ユーザーにより補正テーブルの生成または更新(キャリブレーションまたは校正)が指示されたことを契機として開始される。ここでは指示体20としてペン21が用いられる例を説明する。
2. Operation 2-1. Generation of Correction Table FIG. 6 is a flowchart illustrating a correction table generation process according to an embodiment. The flow of FIG. 6 starts, for example, when the user issues an instruction to generate or update the correction table (calibration or calibration). Here, an example in which the pen 21 is used as the indicator 20 will be described.

ステップS11において、CPU100は、投写ユニット106にキャリブレーション用画像を投写させる。キャリブレーション用画像のデータは例えばROM101に記憶されている。なおこのとき、検知光も照射される。 In step S11, the CPU 100 causes the projection unit 106 to project the calibration image. The data of the calibration image is stored in the ROM 101, for example. At this time, the detection light is also emitted.

図7は、キャリブレーション用画像を例示する図である。キャリブレーション用画像は、画像オブジェクトO1〜O4を含む。画像オブジェクトO1は、特定位置を示すものである。画像オブジェクトO2は、特定位置をペン21により複数の角度から指示するようユーザーに促すものである。画像オブジェクトO3は、ペン21の位置および傾きを取得するタイミングを指示するためのものである。画像オブジェクトO4は、キャリブレーションの終了を指示するためのものである。 FIG. 7 is a diagram illustrating a calibration image. The calibration image includes image objects O1 to O4. The image object O1 indicates a specific position. The image object O2 prompts the user to designate a specific position with the pen 21 from a plurality of angles. The image object O3 is for instructing the timing of acquiring the position and the inclination of the pen 21. The image object O4 is for instructing the end of calibration.

キャリブレーション用画像を見たユーザーは、ペン21を手にとり、投写面SCに対しある角度でペン21のペン先(特定部位の一例)を画像オブジェクトO1にタッチする。ペン先をタッチした状態で、ユーザーは、別の手で画像オブジェクトO3をタッチし、ペン21の位置および傾きを指示する。さらにユーザーは、投写面SCに対し別の角度でペン先を画像オブジェクトO1にタッチする。ペン先をタッチした状態で、ユーザーは、別の手で再び画像オブジェクトO3をタッチし、ペン21の位置および傾きを指示する。 The user who views the calibration image picks up the pen 21 and touches the image object O1 with the pen tip (an example of a specific part) of the pen 21 at a certain angle with respect to the projection surface SC. With the pen tip touched, the user touches the image object O3 with another hand to instruct the position and inclination of the pen 21. Further, the user touches the image object O1 with the pen tip at another angle with respect to the projection surface SC. With the pen tip touched, the user touches the image object O3 again with another hand to instruct the position and inclination of the pen 21.

再び図6を参照する。ステップS12において、CPU100は、ペン21の位置および傾きの取得が指示されたか判断する。ペン21の位置および傾きの取得が指示されたか否かは、画像オブジェクトO3に相当する位置が指示されたか否かにより判断される。ペン21の位置および傾きの取得が指示されていないと判断された場合(S12:NO)、CPU100は、ペン21の位置および傾きの取得が指示されるまで待機する。ペン21の位置および傾きの取得が指示されたと判断された場合(S12:YES)、CPU100は、処理をステップS13に移行する。 Referring back to FIG. In step S12, the CPU 100 determines whether the acquisition of the position and inclination of the pen 21 has been instructed. Whether or not the position and inclination of the pen 21 are instructed is determined by whether or not the position corresponding to the image object O3 is instructed. When it is determined that the acquisition of the position and the inclination of the pen 21 is not instructed (S12: NO), the CPU 100 waits until the acquisition of the position and the inclination of the pen 21 is instructed. When it is determined that the acquisition of the position and the inclination of the pen 21 is instructed (S12: YES), the CPU 100 shifts the processing to step S13.

ステップS13において、CPU100はペン21の位置および傾きを取得する。ここでいう「ペン21の位置」とは、ペン21により反射された検知光の位置(以下「検知位置」という。第1位置の一例)をいう。CPU100は、カメラ108により撮影された画像からペン21の位置を取得する。また、CPU100は、IF部104を介してペン21から受信した信号からペン21の傾きを取得する。ペン21は自身の傾きを示す情報を所定のタイミングでプロジェクター1に送信しており、RAM102はこの情報を記憶している。CPU100は、RAM102からペン21の傾きを示す情報を取得する。なお、ステップS13は、指示体によって反射された検知光の位置である第1位置を検知するステップおよび投写面に対する指示体の傾きを検知するステップの一例である。 In step S13, the CPU 100 acquires the position and inclination of the pen 21. The “position of the pen 21” here means the position of the detection light reflected by the pen 21 (hereinafter referred to as “detection position”; an example of the first position). The CPU 100 acquires the position of the pen 21 from the image captured by the camera 108. Further, the CPU 100 acquires the inclination of the pen 21 from the signal received from the pen 21 via the IF unit 104. The pen 21 transmits information indicating its own inclination to the projector 1 at a predetermined timing, and the RAM 102 stores this information. The CPU 100 acquires information indicating the inclination of the pen 21 from the RAM 102. Note that step S13 is an example of the step of detecting the first position, which is the position of the detection light reflected by the pointer, and the step of detecting the tilt of the pointer with respect to the projection surface.

ステップS14において、CPU100は、特定位置と検知位置とのずれを算出する。データ上では、投写されている画像における特定点の位置は既知であるので、CPU100は、キャリブレーション用画像のデータから特定位置を特定する。あるいは、CPU100は、カメラ108により撮影された画像から、投写面SCにおける特定点の位置を特定してもよい。なお、特定位置はペン21のペン先の位置とほぼ同じであると考えられる。 In step S14, the CPU 100 calculates the deviation between the specific position and the detection position. Since the position of the specific point in the projected image is known on the data, the CPU 100 specifies the specific position from the data of the calibration image. Alternatively, the CPU 100 may specify the position of the specific point on the projection plane SC from the image captured by the camera 108. The specific position is considered to be substantially the same as the position of the pen tip of the pen 21.

図8は、特定位置と検知位置とのずれを例示する図である。図8は、投写面SCに平行な断面を示す模式図である。投写面SCは二次元平面であるので、特定位置と検知位置とのずれは二次元のベクトルとして定義できるが、ここでは説明を簡単にするため、ある特定の方向における一次元のずれのみを議論する。 FIG. 8 is a diagram exemplifying the deviation between the specific position and the detection position. FIG. 8 is a schematic diagram showing a cross section parallel to the projection plane SC. Since the projection plane SC is a two-dimensional plane, the deviation between the specific position and the detection position can be defined as a two-dimensional vector, but here, for simplification of explanation, only the one-dimensional deviation in a certain direction will be discussed. To do.

この例で、ペン21は角度α1で投写面SCにタッチしている。このとき、特定位置P0に対し検知位置P1が得られている。角度α1のときの検知位置P1と特定位置P0とのずれΔP(α1)は、
ΔP(α1)=P1−P0 …(1)
である。一般には、角度αnのときの検知位置Pnと特定位置P0とのずれΔP(αn)は、
ΔP(αn)=Pn−P0 …(2)
である。
In this example, the pen 21 touches the projection surface SC at an angle α1. At this time, the detection position P1 is obtained with respect to the specific position P0. The deviation ΔP(α1) between the detection position P1 and the specific position P0 at the angle α1 is
ΔP(α1)=P1-P0 (1)
Is. In general, the deviation ΔP(αn) between the detection position Pn and the specific position P0 at the angle αn is
ΔP(αn)=Pn−P0 (2)
Is.

再び図6を参照する。ステップS15において、CPU100は、式(2)により算出されたずれΔP(αn)をRAM102に記憶する。 Referring back to FIG. In step S15, the CPU 100 stores the deviation ΔP(αn) calculated by the equation (2) in the RAM 102.

ステップS16において、CPU100は、キャリブレーションの終了が指示されたか判断する。キャリブレーションの終了が指示されたか否かは、画像オブジェクトO4に相当する位置が指示されたか否かにより判断される。キャリブレーションの終了が指示されていないと判断された場合(S16:NO)、CPU100は、処理をステップS12に移行する。キャリブレーションの終了が指示されたと判断された場合(S16:YES)、CPU100は、処理をステップS17に移行する。 In step S16, the CPU 100 determines whether the end of calibration has been instructed. Whether or not the end of calibration is instructed is determined by whether or not the position corresponding to the image object O4 is instructed. When it is determined that the end of calibration has not been instructed (S16: NO), the CPU 100 shifts the processing to step S12. If it is determined that the end of calibration has been instructed (S16: YES), the CPU 100 shifts the processing to step S17.

ステップS17において、CPU100は、RAM102に記憶されているずれΔP(αn)を統合して補正テーブルを生成する。CPU100は、生成された補正テーブルをROM101に記憶する。既に補正テーブルが記憶されている場合、CPU100はこれを上書きする。補正テーブルを記憶すると、CPU100は、図6のフローを終了する。 In step S17, the CPU 100 integrates the deviation ΔP(αn) stored in the RAM 102 to generate a correction table. The CPU 100 stores the generated correction table in the ROM 101. If the correction table is already stored, the CPU 100 overwrites it. When the correction table is stored, the CPU 100 ends the flow of FIG.

図9は、生成された補正テーブルを例示する図である。例えば、角度が0°の場合には、ΔP(0°)=0であり、角度が+45°の場合には、ΔP(+45°)=+50であり、角度が−45°の場合には、ΔP(−45°)=−50である。この例によれば、種々の角度に対応するずれΔP(αn)を得ることができる。 FIG. 9 is a diagram illustrating an example of the generated correction table. For example, when the angle is 0°, ΔP(0°)=0, when the angle is +45°, ΔP(+45°)=+50, and when the angle is −45°, ΔP(−45°)=−50. According to this example, the deviation ΔP(αn) corresponding to various angles can be obtained.

2−2.検知位置の補正
図10は、検知位置の補正処理を例示するフローチャートである。図10のフローは、例えば、ペン21の位置に応じた処理の開始がユーザーにより指示されたことを契機として開始される。ペン21の位置に応じた処理は、例えば、ペン21の位置の軌跡に応じた画像オブジェクトの描画処理である。なお以下においては、補正前後の検知位置を区別するため、補正前の検知位置および補正後の検知位置を、それぞれ、「補正前検知位置」および「補正後検知位置」という。
2-2. Correction of Detection Position FIG. 10 is a flowchart illustrating the correction process of the detection position. The flow of FIG. 10 is started, for example, when the user gives an instruction to start processing according to the position of the pen 21. The process according to the position of the pen 21 is, for example, a drawing process of an image object according to the locus of the position of the pen 21. In the following, in order to distinguish the detection positions before and after the correction, the detection position before the correction and the detection position after the correction are referred to as “pre-correction detection position” and “post-correction detection position”, respectively.

ステップS21において、CPU100は、ペン21の位置および傾きを検知する。ここで検知されるのは、補正前検知位置である。具体的には、CPU100は、カメラ108により撮影された画像からペン21の位置を検知する。また、CPU100は、IF部104を介してペン21から受信した信号からペン21の傾きを取得する。 In step S21, the CPU 100 detects the position and inclination of the pen 21. What is detected here is the pre-correction detection position. Specifically, the CPU 100 detects the position of the pen 21 from the image captured by the camera 108. Further, the CPU 100 acquires the inclination of the pen 21 from the signal received from the pen 21 via the IF unit 104.

ステップS22において、CPU100は、ペン21の位置を補正する。具体的には、CPU100は、ROM101に記憶されている補正テーブルから、ペン21の傾きαに対応するずれΔP(α)を読み出す。CPU100は、ステップS21において得られた補正前検知位置から、ずれΔP(α)を減算することによって補正後検知位置を得る。 In step S22, the CPU 100 corrects the position of the pen 21. Specifically, the CPU 100 reads the deviation ΔP(α) corresponding to the inclination α of the pen 21 from the correction table stored in the ROM 101. The CPU 100 obtains the post-correction detection position by subtracting the deviation ΔP(α) from the pre-correction detection position obtained in step S21.

ステップS21〜S22の処理は、所定のタイミングで繰り返し実行される。この例によれば、ペン21のペン先によりタッチされた位置をより正確に検知することができる。 The processes of steps S21 to S22 are repeatedly executed at a predetermined timing. According to this example, the position touched by the pen tip of the pen 21 can be detected more accurately.

3.変形例
本発明は上述の実施形態に限定されるものではなく種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3. Modifications The present invention is not limited to the above-described embodiment, and various modifications can be made. Hereinafter, some modified examples will be described. Two or more of the following modifications may be used in combination.

指示体20の傾きを検知する方法は実施形態で例示したものに限定されない。例えば、指示体20の傾きはカメラにより撮影された画像から検知されてもよい。この場合、プロジェクター1は、指示体20の傾きを検知するためのカメラを有する。このカメラは、例えば、カメラ108とは別の位置に設けられている。一例として、プロジェクター1が投写面SCの上に設置されている場合に、このカメラは投写面SCの横に設けられている。CPU100は、このカメラにより撮影された画像から指示体20の外形を特定し、投写面SCに帯する傾きを算出する。ずれを二次元のベクトルとして得るために、傾きを検知するためのカメラを2台以上設け、それぞれ異なる位置から投写面SCを撮影する。傾きをより正確に得るためには2台のカメラの位置は離れていることが好ましい(例えば投写面SCの上辺のそばと右辺のそば)が、例えばステレオカメラが用いられてもよい。この例によれば、ユーザーの指のように、自身の傾きを検知する機能を有さない指示体においても検知位置を補正することができる。 The method of detecting the tilt of the indicator 20 is not limited to the method exemplified in the embodiment. For example, the tilt of the indicator 20 may be detected from the image captured by the camera. In this case, the projector 1 has a camera for detecting the inclination of the indicator 20. This camera is provided at a position different from that of the camera 108, for example. As an example, when the projector 1 is installed on the projection surface SC, this camera is installed beside the projection surface SC. The CPU 100 specifies the outer shape of the indicator 20 from the image captured by this camera and calculates the inclination of the projection surface SC. In order to obtain the displacement as a two-dimensional vector, two or more cameras for detecting the tilt are provided, and the projection plane SC is photographed from different positions. In order to obtain the tilt more accurately, the positions of the two cameras are preferably separated (for example, near the upper side of the projection plane SC and near the right side), but a stereo camera may be used, for example. According to this example, it is possible to correct the detection position even with an indicator that does not have a function of detecting its own inclination, such as a user's finger.

投写面SCは二次元の平面であるが、ずれの補正は特定の方向においてのみ、つまり一次元で行われてもよい。例えば指示体20の傾きが特定の方向(例えば縦方向)においてのみ発生しやすいことが分かっているような場合は、この手法も有用である。 Although the projection plane SC is a two-dimensional plane, the deviation may be corrected only in a specific direction, that is, one-dimensionally. For example, when it is known that the inclination of the indicator 20 is likely to occur only in a specific direction (for example, the vertical direction), this method is also useful.

図1に例示した機能を実現するためのプロジェクター1のハードウェア構成は、図3に例示したものに限定されない。要求される機能を実現できるものであれば、プロジェクター1はどのようなハードウェア構成を有していてもよい。例えば、プロジェクター1は、光照射部109を内蔵していてもよい。あるいは、プロジェクター1は、指示体の位置検知専用のプロセッサーを有していてもよい。 The hardware configuration of the projector 1 for realizing the functions illustrated in FIG. 1 is not limited to the one illustrated in FIG. The projector 1 may have any hardware configuration as long as the required functions can be realized. For example, the projector 1 may include the light irradiation unit 109. Alternatively, the projector 1 may have a processor dedicated to detecting the position of the pointer.

1…プロジェクター、11…投写手段、12…照射手段、13…位置検知手段、14…傾き検知手段、15…算出手段、16…記憶手段、17…制御手段、20…指示体、21…ペン、100…CPU、101…ROM、102…RAM、104…IF部、105…画像処理回路、106…投写ユニット、107…操作パネル、108…カメラ、109…光照射部 DESCRIPTION OF SYMBOLS 1... Projector, 11... Projection means, 12... Irradiation means, 13... Position detection means, 14... Tilt detection means, 15... Calculation means, 16... Storage means, 17... Control means, 20... Pointer, 21... Pen, 100... CPU, 101... ROM, 102... RAM, 104... IF section, 105... Image processing circuit, 106... Projection unit, 107... Operation panel, 108... Camera, 109... Light irradiation section

Claims (4)

投写面に画像を投写する投写手段と、
検知光を前記投写面に沿って照射する照射手段と、
指示体によって反射された前記検知光の位置である第1位置を検知する位置検知手段と、
前記投写面に対する前記指示体の傾きを検知する傾き検知手段と、
算出手段と、
制御手段と、
記憶手段と
を有し、
前記制御手段は、
前記投写面上の特定点を前記指示体により複数の角度から指示するようユーザーに促す特定画像を前記投写手段に投写させ、
前記特定画像が投写された状態で前記指示体が前記特定点を指示しているときに、前記位置検知手段に当該指示体の位置を検知させ、かつ前記傾き検知手段に当該指示体の傾きを検知させ、
前記算出手段は、
前記指示体が前記特定点を指示したとき、前記位置検知手段により検知された前記第1位置と前記指示体の特定部位の位置である第2位置とのずれを算出し、
前記制御手段は、
前記指示体が前記特定点を指示したとき、前記傾き検知手段により検知された前記指示体の傾きおよび前記算出手段により算出されたずれを前記記憶手段においてテーブルに記録し
前記特定画像以外の画像が投写された状態で前記位置検知手段が前記指示体の位置を検知した場合、前記制御手段は、前記記憶手段に記憶されているテーブルから、前記傾き検知手段により検知された傾きに対応するずれを読み出し、前記位置検知手段により検知された位置および当該ずれを用いて前記指示体の前記特定部位の位置を得る
プロジェクター。
Projection means for projecting an image on the projection surface,
An irradiation unit that irradiates the detection light along the projection surface,
Position detection means for detecting a first position which is the position of the detection light reflected by the indicator,
Tilt detecting means for detecting the tilt of the pointer with respect to the projection surface,
Calculation means,
Control means,
Storage means
Have
The control means is
Causing the projection means to project a specific image that prompts the user to specify a specific point on the projection surface from the plurality of angles with the pointer,
When the pointer is pointing to the specific point in the state where the specific image is projected, the position detecting unit detects the position of the pointer, and the tilt detecting unit detects the tilt of the pointer. To detect
The calculation means is
When the indicator points to the specific point, the deviation between the first position detected by the position detection unit and the second position which is the position of the specific portion of the pointer is calculated,
The control means is
When the indicator indicates the specific point, the inclination of the indicator detected by the inclination detecting means and the shift calculated by the calculating means are recorded in a table in the storage means ,
When the position detection unit detects the position of the indicator with an image other than the specific image projected, the control unit detects the tilt detection unit from a table stored in the storage unit. A projector that reads out a shift corresponding to the tilt and obtains the position of the specific portion of the indicator using the position detected by the position detection unit and the shift .
投写面に画像を投写する投写手段と、
検知光を前記投写面に沿って照射する照射手段と、
指示体によって反射された前記検知光の位置である第1位置を検知する位置検知手段と、
前記投写面に対する前記指示体の傾きを検知する傾き検知手段と、
前記位置検知手段により検知された前記第1位置および前記傾き検知手段により検知された前記傾きから、前記指示体の特定部位の位置である第2位置と前記第1位置とのずれを算出する算出手段とを有し、
前記指示体は、前記指示体の傾きを検知するセンサーを有し、
前記傾き検知手段は、前記指示体から前記指示体の傾きを示す情報を取得する
プロジェクター。
Projection means for projecting an image on the projection surface,
An irradiation unit that irradiates the detection light along the projection surface,
Position detection means for detecting a first position which is the position of the detection light reflected by the indicator,
Tilt detecting means for detecting the tilt of the pointer with respect to the projection surface,
Calculation for calculating the deviation between the second position and the first position, which is the position of the specific portion of the indicator, from the first position detected by the position detection unit and the tilt detected by the tilt detection unit And means,
The indicator has a sensor that detects the inclination of the indicator,
A projector in which the tilt detection unit acquires information indicating a tilt of the pointer from the pointer.
投写手段が、投写面に画像を投写するステップと、
位置検知手段が、検知光を前記投写面に沿って照射するステップと、
前記位置検知手段が、指示体によって反射された前記検知光の位置である第1位置を検知するステップと、
傾き検知手段が、前記投写面に対する前記指示体の傾きを検知するステップと、
前記投写手段が、前記投写面上の特定点を前記指示体により複数の角度から指示するようユーザーに促す特定画像を投写するステップと、
前記特定画像が投写された状態で前記指示体が前記特定点を指示しているときに、前記位置検知手段に当該指示体の位置を検知させ、かつ前記傾き検知手段に当該指示体の傾きを検知させ、
前記指示体が前記特定点を指示したとき、前記位置検知手段により検知された前記第1位置と前記指示体の特定部位の位置である第2位置とのずれを算出手段が算出するステップと、
前記指示体が前記特定点を指示したとき、前記傾きを検知するステップにより検知された前記指示体の傾きおよび前記算出するステップにより算出されたずれを記憶手段がテーブルに記録するステップと、
前記特定画像以外の画像が投写された状態で前記位置検知手段が前記指示体の位置を検知した場合、制御手段が、前記記憶手段に記憶されているテーブルから、前記傾きを検知するステップにより検知された傾きに対応するずれを読み出し、前記位置検知手段により検知された位置および当該ずれを用いて前記指示体の前記特定部位の位置を得るステップと
を有するプロジェクターの制御方法。
The projection means projects an image on the projection surface,
Position detecting means, irradiating the detection light along the projection surface,
The position detecting means detects a first position, which is a position of the detection light reflected by the indicator,
A step of detecting a tilt of the indicator with respect to the projection plane,
A step in which the projection means projects a specific image that prompts the user to instruct a specific point on the projection surface from a plurality of angles with the indicator;
When the pointer is pointing to the specific point in the state where the specific image is projected, the position detecting unit detects the position of the pointer, and the tilt detecting unit detects the tilt of the pointer. To detect
A step of calculating a deviation between the first position detected by the position detecting means and a second position which is a position of a specific part of the indicator when the indicator points the specific point;
When the indicator points to the specific point , the storage unit records the tilt of the pointer detected by the step of detecting the tilt and the shift calculated by the calculating step in a table,
When the position detection unit detects the position of the indicator in a state where an image other than the specific image is projected, the control unit detects the tilt from the table stored in the storage unit. A method of controlling the projector , comprising: reading a shift corresponding to the tilt, and obtaining the position detected by the position detection unit and the position of the specific portion of the indicator using the shift .
投写面に画像を投写するステップと、
検知光を前記投写面に沿って照射するステップと、
指示体によって反射された前記検知光の位置である第1位置を検知するステップと、
前記投写面に対する前記指示体の傾きを検知するステップと、
前記第1位置および前記検知された前記傾きから、前記指示体の特定部位の位置である第2位置と前記第1位置とのずれを算出するステップと
を有し、
前記指示体は、前記指示体の傾きを検知するセンサーを有し、
前記傾きを検知するステップにおいて制御手段が、前記指示体から前記指示体の傾きを示す情報を取得する
プロジェクターの制御方法。
The step of projecting an image on the projection surface,
Irradiating detection light along the projection surface,
Detecting a first position, which is the position of the detection light reflected by the indicator,
Detecting a tilt of the indicator with respect to the projection surface,
Calculating a shift between the first position and a second position, which is a position of a specific portion of the indicator, from the first position and the detected inclination,
The indicator has a sensor that detects the inclination of the indicator,
A method of controlling a projector , wherein in the step of detecting the tilt, the control means acquires information indicating the tilt of the pointer from the pointer.
JP2016063326A 2016-03-28 2016-03-28 Projector and control method Active JP6750269B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016063326A JP6750269B2 (en) 2016-03-28 2016-03-28 Projector and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016063326A JP6750269B2 (en) 2016-03-28 2016-03-28 Projector and control method

Publications (2)

Publication Number Publication Date
JP2017181540A JP2017181540A (en) 2017-10-05
JP6750269B2 true JP6750269B2 (en) 2020-09-02

Family

ID=60006981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016063326A Active JP6750269B2 (en) 2016-03-28 2016-03-28 Projector and control method

Country Status (1)

Country Link
JP (1) JP6750269B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019078845A (en) * 2017-10-23 2019-05-23 セイコーエプソン株式会社 Projector and method for controlling projector
WO2022009645A1 (en) * 2020-07-09 2022-01-13 ソニーグループ株式会社 Information processing device and information processing method
JP7240766B1 (en) 2021-11-11 2023-03-16 Trouvez合同会社 contactless input device

Also Published As

Publication number Publication date
JP2017181540A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6398248B2 (en) Position detection system and method for controlling position detection system
CN204496155U (en) Reflecting body and position detecting device
JP2015158887A5 (en)
CN110308825B (en) Display device and control method of display device
JP6387644B2 (en) Position detection device, position detection system, and position detection method
JP6349838B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6459194B2 (en) Projector and projected image control method
JP6326895B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6375660B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
US9529422B2 (en) Image display and photographing system, photographing device, display device, image display and photographing method, and computer-readable storage medium for computer program
JP6750269B2 (en) Projector and control method
JP2015158885A5 (en)
JP6562124B2 (en) Position detection system and method for controlling position detection system
JP7087391B2 (en) Image display device and its control method
US9733728B2 (en) Position detecting device and position detecting method
JP6350175B2 (en) POSITION DETECTION DEVICE, PROJECTOR, AND POSITION DETECTION METHOD
US20180075821A1 (en) Projector and method of controlling projector
JP6569259B2 (en) POSITION DETECTION DEVICE, DISPLAY DEVICE, POSITION DETECTION METHOD, AND DISPLAY METHOD
JP5532090B2 (en) Measuring surface tilt measuring device, projector and measuring surface tilt measuring method
JP6291912B2 (en) Position detection apparatus and position detection method
JP6291911B2 (en) Position detection apparatus and position detection method
JP6340860B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2010112990A (en) Projector
JP7266151B2 (en) Pointed Position Detecting Device, Pointed Position Detecting Method, Pointed Position Detecting Program, and Projection System
JP2017134730A (en) Projector and position detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200727

R150 Certificate of patent or registration of utility model

Ref document number: 6750269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150