JP2016146047A - Projector, coordinate input device and processing method - Google Patents

Projector, coordinate input device and processing method Download PDF

Info

Publication number
JP2016146047A
JP2016146047A JP2015022387A JP2015022387A JP2016146047A JP 2016146047 A JP2016146047 A JP 2016146047A JP 2015022387 A JP2015022387 A JP 2015022387A JP 2015022387 A JP2015022387 A JP 2015022387A JP 2016146047 A JP2016146047 A JP 2016146047A
Authority
JP
Japan
Prior art keywords
projection
image
coordinate input
light
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015022387A
Other languages
Japanese (ja)
Inventor
梅村 直樹
Naoki Umemura
直樹 梅村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015022387A priority Critical patent/JP2016146047A/en
Publication of JP2016146047A publication Critical patent/JP2016146047A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projector capable of easily and reliably correcting a difference between the coordinates of an image projected from the projector and the coordinates detected by the coordinate input device.SOLUTION: A projector 104 calculates positions of retroreflection members 110, 111, 112 and 113 based on beams of light from retroreflection members 110, 111, 112 and 113. The projector 104 determines a square pqrs which is a square PQRS which has calculated positions as apexes and is reduced by α[%] as an area for projecting images. A digitizer 101 calculates the positions of sensor units 201, 202, 203 and 204 based on beams of lights from infrared LEDs of the sensor units 201, 202, 203 and 204 positioned immediately below the retroreflection members 110, 111, 112 and 113.SELECTED DRAWING: Figure 1

Description

本発明は、投影装置、座標入力装置、および処理方法に関し、特に、投影装置から投影された画像に対して指示された位置を座標入力装置で検出するために用いて好適なものである。   The present invention relates to a projection device, a coordinate input device, and a processing method, and is particularly suitable for use with a coordinate input device to detect a designated position with respect to an image projected from the projection device.

従来、プロジェクタ(投影装置)によって投影された画像を指示具や指などを用いてデジタイザ(座標入力装置)へ座標入力させる際には、投影される画像の座標とデジタイザで検出される入力座標とを一致させることが必要である。これを主にキャリブレーション(校正)と呼ぶ。このキャリブレーションを、人手を介さないで自動的に行う技術がある。特許文献1に記載の技術では、プロジェクタから投影された画像とデジタイザとの双方を含む撮影画像に基づいて投影画像とデジタイザとの相対位置を算出し、算出した相対位置に基づいて、キャリブレーションを行う。このように特許文献1に記載の技術ではカメラが必要になる。   Conventionally, when inputting an image projected by a projector (projection device) into a digitizer (coordinate input device) using an indicator or a finger, the coordinates of the projected image and the input coordinates detected by the digitizer Need to match. This is mainly called calibration. There is a technique for performing this calibration automatically without human intervention. In the technique described in Patent Document 1, a relative position between a projected image and a digitizer is calculated based on a captured image including both an image projected from a projector and a digitizer, and calibration is performed based on the calculated relative position. Do. Thus, the technique described in Patent Document 1 requires a camera.

特開2013−254324号公報JP 2013-254324 A

しかしながら、前記技術においては、プロジェクタをデジタイザが配置されているスクリーンに対して投影し、当該投影した画像の歪み補正や大きさの変更を行う作業がまず発生し、その後にキャリブレーションを行わなければならない。このため、システムが使えるようになるまでに時間と手間がかかる。   However, in the above-described technique, an operation for projecting the projector onto the screen on which the digitizer is arranged, correcting the distortion of the projected image, and changing the size first occurs, and then calibration is not performed. Don't be. For this reason, it takes time and labor to use the system.

また、プロジェクタから投影される画像の歪みを補正する前にキャリブレーションを行った場合、その後に行う当該歪みの補正によって、プロジェクタから投影された画像の座標とデジタイザで検出される入力座標とがずれる。このため、改めてキャリブレーションを行わなければならない。つまり、ユーザは作業手順を間違えてしまった場合、余分な時間を浪費し、システムが使用できるまでに時間を費やさなければならない。   Further, when calibration is performed before correcting the distortion of the image projected from the projector, the coordinates of the image projected from the projector and the input coordinates detected by the digitizer are shifted due to the subsequent correction of the distortion. . For this reason, calibration must be performed again. In other words, if the user makes a mistake in the work procedure, he / she wastes extra time and has to spend time before the system can be used.

加えて、プロジェクタから投影される画像の歪み補正や大きさを変える作業というのは、プロジェクタを使い慣れたユーザにとっても、煩雑な作業である。プロジェクタから投影された画像を見ながら、当該作業を行わなければならないからである。したがって、プロジェクタに精通していないユーザにとっては、プロジェクタから投影された画像の歪み補正や大きさを正しく行うことは尚更難しい。   In addition, the operation of correcting distortion and changing the size of an image projected from the projector is a complicated operation even for a user who is used to the projector. This is because the operation must be performed while viewing the image projected from the projector. Therefore, it is even more difficult for a user who is not familiar with the projector to correct distortion and size of the image projected from the projector.

また、カメラを使ってキャリブレーションを自動で行う技術では、撮影するカメラの撮像素子の解像度が高い必要がある。さらに、撮影画像を認識するためにメモリも必要になる。したがって、構成が複雑で高価となる。また、撮影画像を、認識技術を使って解析するので処理時間がかかる。   In addition, in the technique of automatically performing calibration using a camera, the resolution of the image sensor of the camera to be photographed needs to be high. Furthermore, a memory is also required to recognize the captured image. Therefore, the configuration is complicated and expensive. In addition, processing time is required because the captured image is analyzed using recognition technology.

本発明は以上の問題点に鑑みてなされたものであり、投影装置から投影される画像の座標と座標入力装置で検出される座標とのずれを容易に且つ確実に補正することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to easily and surely correct a deviation between the coordinates of an image projected from a projection apparatus and the coordinates detected by a coordinate input apparatus. .

本発明の投影装置は、投影面に画像を投影する投影装置であって、前記画像に対して指示された位置を検出する座標入力装置であって、前記投影面に配置された座標入力装置の位置を検出する検出手段と、前記検出手段により検出された位置に基づいて、前記投影面に投影する画像の領域を導出する導出手段と、を有することを特徴とする。
本発明の座標入力装置は、投影装置から投影面に投影された画像に対して指示された位置を検出する座標入力装置であって、前記投影装置から投影される画像の領域を取得する取得手段と、前記取得手段により取得された領域に基づいて、前記指示された位置の座標を調整する調整手段と、を有することを特徴とする。
The projection device of the present invention is a projection device that projects an image on a projection surface, and is a coordinate input device that detects an instructed position with respect to the image, the coordinate input device arranged on the projection surface. It has a detection means for detecting a position, and a derivation means for deriving a region of an image projected on the projection plane based on the position detected by the detection means.
The coordinate input device of the present invention is a coordinate input device that detects an instructed position with respect to an image projected on the projection plane from the projection device, and obtains an area of the image projected from the projection device. And adjusting means for adjusting the coordinates of the instructed position based on the area acquired by the acquiring means.

本発明によれば、投影装置から投影される画像の座標と座標入力装置で検出される座標とのずれを容易に且つ確実に補正することができる。   ADVANTAGE OF THE INVENTION According to this invention, the shift | offset | difference of the coordinate of the image projected from a projector and the coordinate detected by a coordinate input device can be correct | amended easily and reliably.

画像投影システムの構成を示す図である。It is a figure which shows the structure of an image projection system. デジタイザの構成を示す図である。It is a figure which shows the structure of a digitizer. デジタイザの内部構成を示す図である。It is a figure which shows the internal structure of a digitizer. デジタイザの動作を説明する図である。It is a figure explaining operation | movement of a digitizer. プロジェクタの内部構成を示す図である。It is a figure which shows the internal structure of a projector. デジタイザを投影面に設置した様子を示す図である。It is a figure which shows a mode that the digitizer was installed in the projection surface. デジタイザの設置位置の検出方法を説明するフローチャートである。It is a flowchart explaining the detection method of the installation position of a digitizer. プロジェクタから投影した画像が映し出される様子を示す図である。It is a figure which shows a mode that the image projected from the projector is projected. デジタイザのx−y平面における位置を示す図である。It is a figure which shows the position in xy plane of a digitizer. 再帰反射材の位置の検出方法を説明するフローチャートである。It is a flowchart explaining the detection method of the position of a retroreflection material. 投影画像と再帰反射材の位置との関係を説明する図である。It is a figure explaining the relationship between a projection image and the position of a retroreflection material. 投影画像の四隅の点の座標を求める方法を説明する図である。It is a figure explaining the method of calculating | requiring the coordinate of the point of the four corners of a projection image. 各センサユニット部(再帰反射材)の座標を示す図である。It is a figure which shows the coordinate of each sensor unit part (retroreflective material).

以下に、図面を参照しながら、実施形態を説明する。
図1は、画像投影システムの構成の一例を示す図である。図1において、投影面100は、例えば、ホワイトボードまたは室内の壁などである。図1では、投影面100が、地面に対して垂直な平面である場合を例に挙げて示す。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an example of the configuration of an image projection system. In FIG. 1, the projection surface 100 is, for example, a white board or an indoor wall. In FIG. 1, a case where the projection plane 100 is a plane perpendicular to the ground is shown as an example.

デジタイザ101、102は、座標入力装置の一例であり、例えば、遮光方式のデジタイザである。本実施形態では、デジタイザ101、102は、ユーザにより指示されたポイントの位置を、赤外光を用いて判別する。図1では、投影面100に対して、水平方向において間隔を有してデジタイザ101、102が配置される場合を例に挙げて示す。   The digitizers 101 and 102 are an example of a coordinate input device, and are, for example, light shielding digitizers. In the present embodiment, the digitizers 101 and 102 determine the position of the point designated by the user using infrared light. FIG. 1 shows an example in which the digitizers 101 and 102 are arranged with an interval in the horizontal direction with respect to the projection plane 100.

デジタイザ101、102のそれぞれ向かい合う側面(投影面100の中心側の面)には、再帰反射材が配置される。デジタイザ101内の赤外LEDから投光された赤外光は、デジタイザの102の再帰反射材によって反射される。同様に、デジタイザ102内の赤外LEDから投光された赤外光は、デジタイザ101の再帰反射材によって反射される。   A retroreflective material is disposed on each side surface (the surface on the center side of the projection surface 100) of the digitizers 101 and 102 facing each other. The infrared light projected from the infrared LED in the digitizer 101 is reflected by the retroreflective material 102 of the digitizer. Similarly, the infrared light projected from the infrared LED in the digitizer 102 is reflected by the retroreflecting material of the digitizer 101.

ケーブル103は、デジタイザ101、102を電気的に接続するケーブルである。プロジェクタ104は、投影装置の一例であり、図示しないPCなどから受信した画像、またはプロジェクタ104本体内のメモリに記憶されている画像を投影する。   The cable 103 is a cable that electrically connects the digitizers 101 and 102. The projector 104 is an example of a projection device, and projects an image received from a PC (not shown) or the like, or an image stored in a memory in the projector 104 main body.

投影画面105は、プロジェクタ104が投影した画像が投影面100に投影されたときに映し出される画面である。この時点では、デジタイザ101、102で検出される入力座標と、プロジェクタ104から投影される画像の座標とはまったく別の座標として存在している。そのため、デジタイザ101、102を用いてユーザが投影画面105を操作するには、前記2つの座標を一致させる作業(キャリブレーション)が必要である。また、投影画面105は、デジタイザ101、102のそれぞれ向かい合う側面(投影面100の中心側の面)の底辺(投影面100に近接または接する辺)の両端の点106、107、108、109を頂点とする四角形に沿って等間隔に投影されていない。このため、通常は、ユーザによる投影画面105の補正が必要となる。   The projection screen 105 is a screen that is displayed when an image projected by the projector 104 is projected onto the projection plane 100. At this time, the input coordinates detected by the digitizers 101 and 102 and the coordinates of the image projected from the projector 104 exist as completely different coordinates. Therefore, in order for the user to operate the projection screen 105 using the digitizers 101 and 102, an operation (calibration) for matching the two coordinates is necessary. Further, the projection screen 105 has apexes at points 106, 107, 108, and 109 at both ends of the bottom sides (sides close to or in contact with the projection surface 100) of the side surfaces (surfaces on the center side of the projection surface 100) facing the digitizers 101 and 102. Are not projected at equal intervals along the rectangle. For this reason, it is usually necessary to correct the projection screen 105 by the user.

再帰反射材110、111は、デジタイザに101に配置された再帰反射材のうち、デジタイザ101、102の長手方向の一端、他端に最も近い位置に配置された再帰反射材である。ここで、再帰反射材110、111で反射された光がプロジェクタ104の方向に反射されるようにする。例えば、デジタイザ101の面のうちプロジェクタ104と対向する位置にある面(プロジェクタ104から見える面)に再帰反射材110、111を配置する。このことは、再帰反射材112、113、デジタイザ102についても同じである。一方、再帰反射材110〜113以外の再帰反射材で反射される光は、プロジェクタ104に入射されないようにする。   The retroreflective members 110 and 111 are retroreflective members disposed at positions closest to one end and the other end in the longitudinal direction of the digitizers 101 and 102 among the retroreflective members disposed on the digitizer 101. Here, the light reflected by the retroreflective members 110 and 111 is reflected in the direction of the projector 104. For example, the retroreflective members 110 and 111 are disposed on the surface of the digitizer 101 facing the projector 104 (the surface visible from the projector 104). The same applies to the retroreflective members 112 and 113 and the digitizer 102. On the other hand, light reflected by the retroreflective material other than the retroreflective materials 110 to 113 is prevented from entering the projector 104.

図2は、デジタイザ101、102の構成の一例を簡略化して示す図である。図2では、説明および表記の都合上、デジタイザ101、102の内部を必要に応じて透視して示す。このことは、他の図においても同じである。
図2において、センサユニット部201、202は、デジタイザ101のセンサユニット部であり、センサユニット部203、204は、デジタイザ102のセンサユニット部である。センサユニット部201、202、203、204は、それぞれ、赤外LEDと赤外受光センサとを有する。
メインユニット部205、206は、それぞれ、デジタイザ101、102のメインユニット部である。メインユニット部205は、内部バスを介してセンサユニット部201、202と相互に通信可能に接続される。同様に、メインユニット部206は、内部バスを介してセンサユニット部203、204と相互に通信可能に接続される。
FIG. 2 is a diagram showing a simplified example of the configuration of the digitizers 101 and 102. As shown in FIG. In FIG. 2, the inside of the digitizers 101 and 102 is shown through as necessary for convenience of explanation and notation. This is the same in other drawings.
In FIG. 2, sensor unit portions 201 and 202 are sensor unit portions of the digitizer 101, and sensor unit portions 203 and 204 are sensor unit portions of the digitizer 102. Each of the sensor unit parts 201, 202, 203, and 204 includes an infrared LED and an infrared light receiving sensor.
Main unit portions 205 and 206 are main unit portions of the digitizers 101 and 102, respectively. The main unit unit 205 is connected to the sensor unit units 201 and 202 through an internal bus so as to communicate with each other. Similarly, the main unit unit 206 is connected to the sensor unit units 203 and 204 via the internal bus so as to communicate with each other.

尚、図1に示した再帰反射材110、111、112、113は、それぞれ、センサユニット部201、202、203、204の赤外LEDの真上(投影面100のプロジェクタ104側の法線方向)に位置するものとする。ただし、赤外LEDと再帰反射材110、111、112、113との位置関係を、予めデジタイザ101、102およびプロジェクタ104の双方に設定していれば、再帰反射材110、111、112、113は、必ずしも赤外LEDの真上になくてもよい。   The retroreflective members 110, 111, 112, and 113 shown in FIG. 1 are respectively directly above the infrared LEDs of the sensor unit portions 201, 202, 203, and 204 (normal direction on the projector 104 side of the projection plane 100). ). However, if the positional relationship between the infrared LED and the retroreflective members 110, 111, 112, 113 is set in advance in both the digitizers 101, 102 and the projector 104, the retroreflective members 110, 111, 112, 113 are , It does not necessarily have to be directly above the infrared LED.

図3は、デジタイザ101の内部構成の一例を示すブロック図である。
図2および図3において、センサユニット部201、202は、それぞれ、デジタイザ101の内部の位置であって、デジタイザ101の長手方向の一端に近接する位置、他端に近接する位置に配置される。センサユニット部201、202は、それぞれ、赤外光を投光する投光部と、再帰反射材から反射されて戻ってきた光、または、対向するデジタイザ102のセンサユニット部203、204の投光部から投光された赤外光を受光する受光部とを有する。
FIG. 3 is a block diagram showing an example of the internal configuration of the digitizer 101.
2 and 3, the sensor unit parts 201 and 202 are respectively arranged in positions inside the digitizer 101, close to one end in the longitudinal direction of the digitizer 101 and close to the other end. The sensor unit parts 201 and 202 are respectively a light projecting part that projects infrared light, a light reflected and returned from a retroreflective material, or a light projecting of the sensor unit parts 203 and 204 of the digitizer 102 facing each other. And a light receiving unit that receives infrared light projected from the unit.

メインユニット部205の構成の一例を以下に詳述する。
画像処理部301、302は、それぞれ、センサユニット部201、202から送信されたアナログデータをデジタル化したり適正なレベルに変換したりする。主制御部303は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などを有し、デジタイザ101全体の制御を司る。メモリ部304は、不揮発性メモリや揮発性メモリを有する。不揮発性メモリ内には、主制御部303が実行可能なプログラムが予め格納されている。また、揮発性メモリは、主制御部303の演算時に、データを格納したり呼び出して用いたりするのに使われる。主制御部303は、センサユニット部201、202を制御して赤外LEDの動作(点滅など)を制御する。内部データバス305は、画像処理部301、302、主制御部303、メモリ部304を双方向に通信可能に接続する。尚、デジタイザ102の構成もデジタイザ101と同じ構成で実現できるので、ここではその詳細な説明を省略する。
An example of the configuration of the main unit unit 205 will be described in detail below.
The image processing units 301 and 302 digitize analog data transmitted from the sensor unit units 201 and 202, respectively, or convert them to appropriate levels. The main control unit 303 includes a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and the like, and controls the entire digitizer 101. The memory unit 304 includes a nonvolatile memory and a volatile memory. A program that can be executed by the main controller 303 is stored in advance in the nonvolatile memory. In addition, the volatile memory is used for storing and calling data for use by the main control unit 303. The main control unit 303 controls the sensor unit units 201 and 202 to control the operation (such as blinking) of the infrared LED. The internal data bus 305 connects the image processing units 301 and 302, the main control unit 303, and the memory unit 304 so that they can communicate with each other in two directions. The configuration of the digitizer 102 can also be realized by the same configuration as the digitizer 101, and thus detailed description thereof is omitted here.

図4は、図1に示したデジタイザ101、102の動作の一例を概念的に説明する図である。
図4では、デジタイザ101内のセンサユニット部201、デジタイザ102内のセンサユニット部203から、それぞれ赤外光が投光されている様子を示す。ここで、デジタイザ101に配置されている再帰反射材は、デジタイザ101の長手方向の一端の点106の位置から他端の点107の位置まで存在する。同様に、デジタイザ102の再帰反射材は、デジタイザ102の一端の点108から他端の点109まで存在する。
FIG. 4 is a diagram conceptually illustrating an example of the operation of the digitizers 101 and 102 shown in FIG.
FIG. 4 shows a state in which infrared light is projected from the sensor unit unit 201 in the digitizer 101 and the sensor unit unit 203 in the digitizer 102. Here, the retroreflective member disposed on the digitizer 101 exists from the position of the point 106 at one end in the longitudinal direction of the digitizer 101 to the position of the point 107 at the other end. Similarly, the retroreflective material of the digitizer 102 exists from the point 108 at one end of the digitizer 102 to the point 109 at the other end.

センサユニット部201の赤外LEDから投光された光は、デジタイザ102の一端の点108から他端の点109までにある再帰反射材に当たり、その反射光がセンサユニット部201の受光部に戻る。同様に、センサユニット部203の赤外LEDから投光された光は、デジタイザ101の一端の点106から他端の点107までに再帰反射材に当たり、その反射光がセンサユニット部203の受光部に戻る。   The light projected from the infrared LED of the sensor unit 201 hits the retroreflective material from the point 108 at one end to the point 109 at the other end of the digitizer 102, and the reflected light returns to the light receiving unit of the sensor unit 201. . Similarly, the light projected from the infrared LED of the sensor unit unit 203 hits the retroreflective material from the point 106 at one end of the digitizer 101 to the point 107 at the other end, and the reflected light is received by the light receiving unit of the sensor unit 203. Return to.

ここで、図4に示すように、ユーザが自分の指、もしくは指示棒のような物体で投影面100の地点401を指した場合を例に挙げて、デジタイザ101、102の動作の一例を説明する。
各センサユニット部201、203から投光された赤外光は、デジタイザ102、101に配置されている再帰反射材でそれぞれ反射され、センサユニット部201、203に戻る。センサユニット部201、203に戻ってきた光は、センサユニット部201、203内の受光部で蓄積される。地点401で指または物体によって赤外光が遮られると、図4に示すように、その遮られた部分だけ再帰反射材に光が到達しないため、当然その部分の光もセンサユニット部201、203に戻ってこない。
Here, as shown in FIG. 4, an example of the operation of the digitizers 101 and 102 will be described by taking as an example a case where the user points to the point 401 on the projection plane 100 with his / her finger or an object such as a pointing stick. To do.
Infrared light projected from the sensor unit parts 201 and 203 is reflected by the retroreflective material disposed in the digitizers 102 and 101, and returns to the sensor unit parts 201 and 203. The light returning to the sensor unit parts 201 and 203 is accumulated in the light receiving part in the sensor unit parts 201 and 203. When infrared light is blocked by a finger or an object at the point 401, as shown in FIG. 4, since the light does not reach the retroreflective member only in the blocked portion, naturally the light in that portion also has sensor unit parts 201 and 203. I wo n’t come back.

主制御部303は、それぞれのセンサユニット部201、203が、どの方向から光が戻ってこなかったのかを受光部に蓄積された光を元に判別する。そして、主制御部303は、センサユニット部201、203のそれぞれにおいて検出した光の方向(角度)を用いて三角測量の原理により点106〜109で囲まれた画面のどの部分にユーザによって指示されたのかを検出する。
以上がデジタイザ101、102の入力装置としての動作の一例の概要である。
The main control unit 303 determines from which direction the sensor unit units 201 and 203 have not returned light based on the light accumulated in the light receiving unit. The main control unit 303 is instructed by the user to any part of the screen surrounded by the points 106 to 109 by the principle of triangulation using the light direction (angle) detected in each of the sensor unit units 201 and 203. Detect if
The above is an outline of an example of the operation of the digitizers 101 and 102 as an input device.

図5は、図1に示したプロジェクタ104の内部構成の一例を示すブロック図である。
プロジェクタ104は、画像を表す画像光を投影して投影面100などの面上に画像を表示させる。信号入力部501は、図示しないパソコンやDVDプレーヤなどからケーブルを介して入力されたアナログ信号をデジタルデータに変換する。
FIG. 5 is a block diagram showing an example of the internal configuration of the projector 104 shown in FIG.
The projector 104 projects image light representing an image and displays the image on a surface such as the projection surface 100. The signal input unit 501 converts an analog signal input from a personal computer or a DVD player (not shown) via a cable into digital data.

画像処理部502は、信号入力部501から受け取ったデータに対して、画像の輝度、コントラスト、同期、トラッキング、色濃度、色合いなどを調整する。加えて、画像処理部502は、画像範囲の検出、最適ズームの算出、ズーム調整、キーストーン調整などを行う機能を含む。例えば、最適ズームの算出とズーム調整により、プロジェクタ104から投影される画像の大きさが変更される。また、例えば、キーストーン調整により、プロジェクタ104から投影される画像の形が変更される。   The image processing unit 502 adjusts the brightness, contrast, synchronization, tracking, color density, hue, and the like of the image received from the signal input unit 501. In addition, the image processing unit 502 includes functions for performing image range detection, optimum zoom calculation, zoom adjustment, keystone adjustment, and the like. For example, the size of the image projected from the projector 104 is changed by calculating the optimal zoom and adjusting the zoom. For example, the shape of the image projected from the projector 104 is changed by keystone adjustment.

液晶パネル駆動部503は、画像処理部502から受け取ったデータに基づき液晶パネル504を駆動する。液晶パネル504は、照明光学部505から照射された照明光を、画像を表す画像光に変調するためのパネル画像を、液晶面の画像形成領域に形成する。投射光学部506は、液晶パネル504によって画像光に変調された光を拡大して投影する。受光部507は、デジタイザ101、102の再帰反射材から反射してきた光を受光する。   The liquid crystal panel driving unit 503 drives the liquid crystal panel 504 based on the data received from the image processing unit 502. The liquid crystal panel 504 forms a panel image for modulating the illumination light emitted from the illumination optical unit 505 into image light representing an image in an image forming area on the liquid crystal surface. The projection optical unit 506 enlarges and projects the light modulated into the image light by the liquid crystal panel 504. The light receiving unit 507 receives light reflected from the retroreflective material of the digitizers 101 and 102.

主制御部508は、CPUやDSPなどを有する。主制御部508は、プロジェクタ104全体の制御を司る。メモリ部509は、不揮発性メモリや揮発性メモリを有する。デジタイザ101、102と同様に、不揮発性メモリ内には、予めプログラムが格納される。揮発性メモリは、例えば、主制御部508が演算を行う際のデータを格納するために使用される。レンズ駆動部510は、投影する画像を拡大・縮小、表示画像の移動・補正などを行うために、投射光学部506として備わるレンズを移動させる。データバス511は、プロジェクタ内の各ブロック間(画像処理部502、液晶パネル駆動部503、受光部507、主制御部508、メモリ部509、レンズ駆動部510)の制御バスおよびデータバスである。   The main control unit 508 includes a CPU, a DSP, and the like. A main control unit 508 controls the entire projector 104. The memory unit 509 includes a nonvolatile memory and a volatile memory. Similar to the digitizers 101 and 102, a program is stored in advance in the nonvolatile memory. The volatile memory is used, for example, for storing data when the main control unit 508 performs an operation. The lens driving unit 510 moves a lens provided as the projection optical unit 506 in order to enlarge / reduce the image to be projected and move / correct the display image. A data bus 511 is a control bus and a data bus between blocks in the projector (image processing unit 502, liquid crystal panel driving unit 503, light receiving unit 507, main control unit 508, memory unit 509, and lens driving unit 510).

図6は、デジタイザ101、102のそれぞれを投影面100に設置した様子の概略の一例を示す図である。前述したように、投影面100は、例えば、ホワイトボードまたは室内の壁などである。例えば、デジタイザ101、102の筺体の裏面に磁石が配置される。このようにすることにより、ユーザは、磁石が装着可能なホワイトボードや壁などの投影面100にデジタイザ101、102を簡単に設置することが可能である。デジタイザ101、102はそれぞれが個別のユニットであるため、相互に平行に設置されるとは限らない。図6では、地面と平行な方向をX軸、垂直な方向をY軸と定義する。デジタイザ101は、Y軸と平行に設置されたとする。一方、デジタイザ102は、Y軸と平行にならないで設置されたとする。   FIG. 6 is a diagram showing an example of an outline of how the digitizers 101 and 102 are installed on the projection plane 100. As described above, the projection surface 100 is, for example, a white board or an indoor wall. For example, magnets are arranged on the back surfaces of the casings of the digitizers 101 and 102. By doing in this way, the user can easily install the digitizers 101 and 102 on the projection surface 100 such as a white board or wall to which a magnet can be attached. Since each of the digitizers 101 and 102 is an individual unit, the digitizers 101 and 102 are not necessarily installed in parallel to each other. In FIG. 6, the direction parallel to the ground is defined as the X axis, and the direction perpendicular to the ground is defined as the Y axis. It is assumed that the digitizer 101 is installed in parallel with the Y axis. On the other hand, it is assumed that the digitizer 102 is installed without being parallel to the Y axis.

図7は、図6に示す状態で設置されたデジタイザ101が、デジタイザ102の設置された位置を検出する方法の一例を説明するフローチャートである。図6および図7を用いて、デジタイザ102の設置された位置を検出する方法の一例を説明する。前述したように、センサユニット部201、202、203、204のそれぞれは、赤外LEDと受光部とを備える。   FIG. 7 is a flowchart for explaining an example of a method in which the digitizer 101 installed in the state shown in FIG. 6 detects the position where the digitizer 102 is installed. An example of a method for detecting the position where the digitizer 102 is installed will be described with reference to FIGS. 6 and 7. As described above, each of the sensor unit units 201, 202, 203, and 204 includes an infrared LED and a light receiving unit.

図7において、まず、ユーザは、デジタイザ101、102の図示しない電源スイッチを押下し、デジタイザ101、102の電源をオンする(ステップS701)。デジタイザ101内のメインユニット部205内の主制御部303は、デジタイザ102内のメインユニット部内の主制御部に対してセンサユニット部203、204内の赤外LEDを順に点灯するように要求する(ステップS702)。   In FIG. 7, the user first presses a power switch (not shown) of the digitizers 101 and 102 to turn on the power of the digitizers 101 and 102 (step S701). The main control unit 303 in the main unit unit 205 in the digitizer 101 requests the main control unit in the main unit unit in the digitizer 102 to sequentially turn on the infrared LEDs in the sensor unit units 203 and 204 ( Step S702).

デジタイザ102内の主制御部は、デジタイザ101からの前記要求に対する返答として、前記要求を受け取ったことをデジタイザ101の主制御部303に対し通知する(ステップS703)。そして、デジタイザ101の主制御部303は、センサユニット部203、204の赤外LEDを前記要求に従って点灯させる(ステップS704)。センサユニット部203内の赤外LEDが点灯した際、センサユニット部201、202内のそれぞれの受光部にてその光を受光する(ステップS705)。   The main control unit in the digitizer 102 notifies the main control unit 303 of the digitizer 101 that the request has been received as a response to the request from the digitizer 101 (step S703). Then, the main control unit 303 of the digitizer 101 turns on the infrared LEDs of the sensor unit units 203 and 204 in accordance with the request (step S704). When the infrared LED in the sensor unit unit 203 is lit, the light is received by the respective light receiving units in the sensor unit units 201 and 202 (step S705).

主制御部303は、センサユニット部201内の受光部が、センサユニット部203内の赤外LEDの光を受光すると、図6に示すように、Y軸に対してどの方向から赤外LEDの光を受光したのかを、角度θ1として導出する。同様に、主制御部303は、センサユニット部204内の赤外LEDの光を受光した際には、Y軸に対してどの方向から赤外LEDの光を受光したのかを、角度θ3として導出する。センサユニット部201と同様に、センサユニット部202の受光部が、センサユニット部203、204内の赤外LEDの光を受光すると、主制御部303は、Y軸に対してどの方向から赤外LEDの光を受光したのかを、角度θ2、θ4として導出する。   When the light receiving unit in the sensor unit unit 201 receives the light of the infrared LED in the sensor unit unit 203, the main control unit 303, as shown in FIG. Whether the light is received is derived as an angle θ1. Similarly, when receiving light from the infrared LED in the sensor unit 204, the main control unit 303 derives from which direction the infrared LED light is received with respect to the Y axis as an angle θ3. To do. Similarly to the sensor unit unit 201, when the light receiving unit of the sensor unit unit 202 receives the light of the infrared LEDs in the sensor unit units 203 and 204, the main control unit 303 starts infrared from which direction with respect to the Y axis. Whether the light of the LED is received is derived as angles θ2 and θ4.

ここで、デジタイザ101内のセンサユニット部201、202の間の距離は予め決まった値であり、その距離は既知の値である。また、デジタイザ101、102内のセンサユニット部(201と202、203と204)の相互の位置関係は決まっている。このように、センサユニット部201、202の間の距離は既知である。また、センサユニット部201、202を相互に結ぶ直線と、センサユニット部201、202およびセンサユニット部203を相互に結ぶ直線とがなす角度θ1、θ2が測定で判明する。したがって、主制御部303は、この角度θ1、θ2から、三角測量の原理よりセンサユニット部203の位置を導出する。同様に、主制御部303は、センサユニット部201、202を相互に結ぶ直線と、センサユニット部201、202およびセンサユニット部204とを相互に結ぶ直線とがなす角度θ3、θ4から、センサユニット部204の位置を導出する。主制御部303は、以上のようにして、デジタイザ101、102の各センサユニット部201、202、203、204の位置を導出する(ステップS706)。   Here, the distance between the sensor unit parts 201 and 202 in the digitizer 101 is a predetermined value, and the distance is a known value. Further, the mutual positional relationship between the sensor unit sections (201 and 202, 203 and 204) in the digitizers 101 and 102 is determined. Thus, the distance between the sensor unit parts 201 and 202 is known. Further, the angles θ1 and θ2 formed by the straight line connecting the sensor unit parts 201 and 202 and the straight line connecting the sensor unit parts 201 and 202 and the sensor unit part 203 are found by measurement. Therefore, the main control unit 303 derives the position of the sensor unit 203 from the angles θ1 and θ2 based on the principle of triangulation. Similarly, the main control unit 303 determines the sensor unit from the angles θ3 and θ4 formed by the straight line connecting the sensor unit units 201 and 202 and the straight line connecting the sensor unit units 201 and 202 and the sensor unit unit 204. The position of the unit 204 is derived. The main control unit 303 derives the positions of the sensor unit units 201, 202, 203, and 204 of the digitizers 101 and 102 as described above (step S706).

前述したように、図1に示した再帰反射材110、111、112、113と、再帰反射材110、111、112、113に対応するセンサユニット部201、202、203、204内の受光部は、XY平面上では同一の座標に位置するものとする。すなわち、プロジェクタ104からの画像の投影方向に沿って投影面100を見ると、再帰反射材110、111、112、113と、センサユニット部201、202、203、204内の受光部の位置は重なる。したがって、デジタイザ101は、各センサユニット部201、202、203、204の位置から、再帰反射材110、111、112、113の座標を認識することができる。   As described above, the light receiving portions in the sensor unit portions 201, 202, 203, and 204 corresponding to the retroreflective materials 110, 111, 112, and 113 and the retroreflective materials 110, 111, 112, and 113 shown in FIG. , It shall be located in the same coordinate on XY plane. That is, when the projection surface 100 is viewed along the projection direction of the image from the projector 104, the positions of the retroreflective members 110, 111, 112, and 113 and the light receiving portions in the sensor unit portions 201, 202, 203, and 204 overlap. . Therefore, the digitizer 101 can recognize the coordinates of the retroreflective members 110, 111, 112, and 113 from the positions of the sensor unit portions 201, 202, 203, and 204.

そして、前述したように、主制御部303は、それぞれのセンサユニット部201、202が、どの方向から光が戻ってこなかったのかを、センサユニット部201、202内の受光部に蓄積された光を元に導出する。主制御部303は、センサユニット部201、202のそれぞれにおいて検出した光の方向(角度)を用いて三角測量の原理により、点106〜109で囲まれた画面のうち、ユーザによって指示された位置を導出する(ステップS707)。   Then, as described above, the main control unit 303 determines which direction the light has not returned from the sensor unit units 201 and 202 from the light accumulated in the light receiving unit in the sensor unit units 201 and 202. Derived based on The main control unit 303 uses the direction (angle) of light detected in each of the sensor unit units 201 and 202 to determine the position indicated by the user among the screens surrounded by the points 106 to 109 by the principle of triangulation. Is derived (step S707).

図8は、プロジェクタ104から投影した画像が投影面100に映し出されている様子の一例の概略を3次元で示す図である。
図8において、図1に示した4つの点106、107、108、109を線で結んでできる平面の横軸をx軸、縦軸をy軸とする。加えて、プロジェクタ104は投影面100に対して垂直方向に光を投影しており、この方向をz軸方向とする。図8において、x、y、z軸の原点0は、プロジェクタ104から投影面100に対して垂直に光を投影した場合の光の軸(光軸)と投影面100との交点とする。また、図8において、プロジェクタ104から投影される光の軸(光軸)は、地面に対して水平であるものとする。
FIG. 8 is a diagram showing an outline of an example of a state in which an image projected from the projector 104 is projected on the projection plane 100 in three dimensions.
In FIG. 8, the horizontal axis of the plane formed by connecting the four points 106, 107, 108, 109 shown in FIG. 1 with lines is the x axis, and the vertical axis is the y axis. In addition, the projector 104 projects light in a direction perpendicular to the projection plane 100, and this direction is taken as the z-axis direction. In FIG. 8, the origin 0 of the x, y, and z axes is the intersection of the light axis (optical axis) and the projection plane 100 when light is projected perpendicularly from the projector 104 to the projection plane 100. In FIG. 8, it is assumed that the light axis (optical axis) projected from the projector 104 is horizontal to the ground.

図9は、デジタイザ101、102のx−y平面における位置の概略の一例を示す図である。図9では、図6に示したように、デジタイザ101の長手方向が地面に対して垂直になるようにデジタイザ101が設置され、デジタイザ102の長手方向が地面に対して垂直にならないようにデジタイザ102が設置されている場合を例に挙げて示す。図10は、プロジェクタ104がデジタイザ101、102内の再帰反射材110、111、112、113の位置を検出する方法の一例を説明するフローチャートである。   FIG. 9 is a diagram illustrating an example of a schematic position of the digitizers 101 and 102 in the xy plane. In FIG. 9, as shown in FIG. 6, the digitizer 101 is installed so that the longitudinal direction of the digitizer 101 is perpendicular to the ground, and the digitizer 102 is not perpendicular to the ground. The case where is installed is shown as an example. FIG. 10 is a flowchart for explaining an example of a method in which the projector 104 detects the positions of the retroreflective members 110, 111, 112, and 113 in the digitizers 101 and 102.

プロジェクタ104の図示しない電源スイッチがオンされる、または、プロジェクタ104の図示しないキャリブレーションモード用ボタンが押下されると、図10のフローチャートが開始する。   When a power switch (not shown) of the projector 104 is turned on or a calibration mode button (not shown) of the projector 104 is pressed, the flowchart of FIG. 10 starts.

プロジェクタ104の主制御部508は、プロジェクタ104から光を投光させ、当該光の再帰反射材110、111、112、113からの反射光に基づいて再帰反射材110、111、112、113の位置を導出する(ステップS1001)。この際に投光される光は、指向性のある光である。尚、この光は、本来、プロジェクタ104が画像を投光する際の光ではなく、再帰反射材112、110、111、113の位置を検出するための専用の光である。   The main control unit 508 of the projector 104 projects light from the projector 104, and positions of the retroreflective members 110, 111, 112, and 113 based on the reflected light from the retroreflective members 110, 111, 112, and 113 of the light. Is derived (step S1001). The light projected at this time is directional light. Note that this light is not a light originally used when the projector 104 projects an image, but a dedicated light for detecting the positions of the retroreflective members 112, 110, 111, and 113.

プロジェクタ104の主制御部508は、x−y平面でx軸およびy軸により分けられる4つの領域(図9のI、II、III、IVで示す領域)にある再帰反射材112、110、111、113をそれぞれ順に検出する。プロジェクタ104の主制御部508は、プロジェクタ104から投光される光の角度をそれぞれx軸方向、y軸方向に走査する。このような走査を行うと、各領域(図9のI、II、III、IVで示す領域)において、走査した光の反射光が受光部507で受光される場所がある。プロジェクタ104の主制御部508は、受光部507で光が受光した際の走査位置(x軸、y軸の値)から、再帰反射材112、110、111、113の位置を、原点0からの相対的な座標値として導出する。   The main control unit 508 of the projector 104 includes retroreflective members 112, 110, and 111 in four regions (regions indicated by I, II, III, and IV in FIG. 9) divided by the x axis and the y axis on the xy plane. , 113 are sequentially detected. The main control unit 508 of the projector 104 scans the angles of light projected from the projector 104 in the x-axis direction and the y-axis direction, respectively. When such scanning is performed, there is a place where reflected light of the scanned light is received by the light receiving unit 507 in each region (regions indicated by I, II, III, and IV in FIG. 9). The main control unit 508 of the projector 104 determines the positions of the retroreflective members 112, 110, 111, and 113 from the origin 0 based on the scanning position (x-axis and y-axis values) when the light receiving unit 507 receives light. Derived as relative coordinate values.

次に、プロジェクタ104の主制御部508は、プロジェクタ104から画像を投影面100に投影した際の画面の大きさ・位置を、再帰反射材110、111、112、113の座標値に基づいて導出する。本実施形態では、画面の大きさ・位置は、再帰反射材110、111、112、113の座標値を頂点とする四角形に対して、予め決められた縮小倍率で縮小したものとする。そして、プロジェクタ104の主制御部508は、導出した画面の四角形の頂点の座標に画像の四隅が投影されるように、投影する画像の四隅の位置を導出し、四隅が導出した位置になるように、画像を投影する(ステップS1002)。そして、図10のフローチャートによる処理を終了する。   Next, the main control unit 508 of the projector 104 derives the size and position of the screen when the image is projected from the projector 104 onto the projection plane 100 based on the coordinate values of the retroreflective members 110, 111, 112, and 113. To do. In this embodiment, the size and position of the screen are assumed to be reduced at a predetermined reduction ratio with respect to a quadrangle having the vertexes of the coordinate values of the retroreflective members 110, 111, 112, and 113. Then, the main control unit 508 of the projector 104 derives the positions of the four corners of the image to be projected so that the four corners of the image are projected on the coordinates of the vertices of the quadrilateral of the derived screen, so that the four corners become the derived positions. Then, an image is projected (step S1002). And the process by the flowchart of FIG. 10 is complete | finished.

尚、前述したように、ステップ1001において、プロジェクタ104から再帰反射材110、111、112、113に光を当て、その光の反射光に基づいて、デジタイザ101、102(再帰反射材110、111、112、113)の位置を検出する。この際にプロジェクタ104から投光する光は、本来、プロジェクタ104が画像を投光する際の光を用いてもよい。   As described above, in step 1001, the projector 104 applies light to the retroreflective members 110, 111, 112, and 113, and the digitizers 101 and 102 (retroreflective members 110, 111,. 112, 113) are detected. At this time, the light projected from the projector 104 may be originally the light emitted when the projector 104 projects an image.

このようにする場合には、例えば、以下のようにしてもよい。まず、プロジェクタ104の主制御部508は、原点0を中心とする長方形の領域に光が照射されるようにプロジェクタ104から投影面100に対して光を照射させ、長方形の大きさを徐々に大きくさせる。そして、プロジェクタ104の主制御部508は、4つの領域(図9のI、II、III、IVで示す領域)毎に、最初に受光部507で光を受光したときの長方形の頂点の座標値を導出する。光が再帰反射材110、111、112、113に当たる点は、長方形の原点0と対角の位置になる。長方形をx軸方向、y軸方向でそれぞれ拡大した倍率から、この対角の位置を導出することができ、この対角の位置から、長方形の頂点の座標値を導出することができる。このようにした場合、当該頂点の座標値が、再帰反射材110、111、112、113の位置になる。   In this case, for example, the following may be performed. First, the main control unit 508 of the projector 104 irradiates light onto the projection surface 100 from the projector 104 so that light is irradiated onto a rectangular area centered on the origin 0, and gradually increases the size of the rectangle. Let Then, the main control unit 508 of the projector 104 determines the coordinate values of the vertices of the rectangle when light is first received by the light receiving unit 507 for each of the four regions (regions indicated by I, II, III, and IV in FIG. 9). Is derived. The points where the light hits the retroreflective members 110, 111, 112, 113 are diagonal to the origin 0 of the rectangle. The diagonal position can be derived from the magnifications obtained by enlarging the rectangle in the x-axis direction and the y-axis direction, respectively, and the coordinate value of the vertex of the rectangle can be derived from the diagonal position. In this case, the coordinate value of the vertex is the position of the retroreflective material 110, 111, 112, 113.

ここで、再帰反射材110、111、112、113の大きさは、それぞれ、デジタイザ101、102の位置を検出するための一点でよいから非常に小さい。デジタイザ101、102が地面に対してどれだけの角度がついているのかを知るためには、その傾き、つまり、デジタイザ101、102のそれぞれについて、長手方向の2点の位置が分かればよい。そのため、その再帰反射材110、111、112、113を検出するための撮像素子は、デジタイザ101上の2点とデジタイザ102上の2点の計4点を検出できるものであればよいので、小さくて済む。   Here, the size of the retroreflective members 110, 111, 112, and 113 is very small because it may be a single point for detecting the positions of the digitizers 101 and 102. In order to know how much angle the digitizers 101, 102 are with respect to the ground, it is only necessary to know the inclination, that is, the positions of the two points in the longitudinal direction for each of the digitizers 101, 102. Therefore, the image sensor for detecting the retroreflective members 110, 111, 112, and 113 only needs to be able to detect a total of four points, two points on the digitizer 101 and two points on the digitizer 102. I'll do it.

以下に、図10のステップS1002の処理の具体例を説明する。
図11は、プロジェクタ104から投影する画像の領域と、再帰反射材110、111、112、113の4点を結んでなる四角形との関係の一例を説明する図である。図11では、図8で示した位置関係でデジタイザ101、102とプロジェクタ104が配置されている場合を例に挙げて示す。
Hereinafter, a specific example of the process in step S1002 of FIG. 10 will be described.
FIG. 11 is a diagram illustrating an example of a relationship between an image region projected from the projector 104 and a quadrilateral formed by connecting four points of the retroreflective members 110, 111, 112, and 113. FIG. 11 shows an example in which the digitizers 101 and 102 and the projector 104 are arranged in the positional relationship shown in FIG.

図11において、点P、Q、R、Sは、図10のステップS1001においてプロジェクタ104の主制御部508で導出された再帰反射材110、111、112、113の位置である。プロジェクタ104が画像を投影する際、この4点を画像の四隅とすると、デジタイザ101、102上に画像が投影されてしまう。したがって、プロジェクタ104から投影される画像は、この四角形PQRSよりも小さい画像でなければならない。ここで、プロジェクタ104から投影される画像の大きさを、再帰反射材110、111、112、113の4つを頂点とした四角形PQRSのαパーセント(α<100)と予め定義しておく。また、投影する画像の形と、再帰反射材110、111、112、113の4つを頂点とした四角形PQRSの形は同じものとする。   In FIG. 11, points P, Q, R, and S are the positions of the retroreflective members 110, 111, 112, and 113 derived by the main control unit 508 of the projector 104 in step S1001 of FIG. When the projector 104 projects an image, if these four points are the four corners of the image, the image is projected on the digitizers 101 and 102. Therefore, the image projected from the projector 104 must be an image smaller than the square PQRS. Here, the size of the image projected from the projector 104 is defined in advance as α percent (α <100) of the quadrangular PQRS with the four retroreflective members 110, 111, 112, and 113 as vertices. Also, the shape of the image to be projected and the shape of the quadrangular PQRS with the four retroreflective members 110, 111, 112, and 113 as vertices are the same.

図11では、プロジェクタ104から投影される画像の領域は、点p、q、r、sを頂点とする四角形の領域である。したがって、プロジェクタ104から投影される画像の領域は、四角形PQRSをαパーセント縮小した四角形pqrsである。当然、四角形PQRSと四角形pqrsは相似形である。前述したように、点P、Q、R、Sの4点の座標は、図10のステップS1001において導出されるので、既知である。したがって、ステップS1002で説明したように、プロジェクタ104は、点p、q、r、sの4点の座標をこの点P、Q、R、Sから導出することにより、四角形pqrsの画像を投影することができる。   In FIG. 11, the area of the image projected from the projector 104 is a quadrangular area having points p, q, r, and s as vertices. Therefore, the area of the image projected from the projector 104 is a quadrangle pqrs obtained by reducing the quadrangle PQRS by α percent. Of course, the quadrangle PQRS and the quadrangle pqrs are similar. As described above, the coordinates of the four points P, Q, R, and S are known because they are derived in step S1001 of FIG. Therefore, as described in step S1002, the projector 104 projects the image of the quadrangle pqrs by deriving the coordinates of the four points p, q, r, and s from the points P, Q, R, and S. be able to.

図12は、プロジェクタ104から投影される画像の四隅の点p、q、r、sの座標を求める方法の一例を説明する図である。
前述したように、点P、Q、R、Sの4点は、プロジェクタ104がデジタイザ101、102に対して投光することにより導出した既知の値である。ここで、点P、Q、R、Sの座標をそれぞれ(Xp、Yp)、(Xq、Yq)、(Xr、Yr)、(Xs、Ys)とする。また、四角形PQRSの対角線の交点を点Tとし、点Tの座標を(Xt、Yt)とする。四角形PQRSの各対角線である直線PR、QSの式が既知であるから、この点Tの座標(Xt、Yt)も導出することができるので、既知の値となる。
FIG. 12 is a diagram for explaining an example of a method for obtaining the coordinates of the four corner points p, q, r, and s of the image projected from the projector 104.
As described above, the four points P, Q, R, and S are known values derived by the projector 104 projecting light to the digitizers 101 and 102. Here, the coordinates of the points P, Q, R, and S are (Xp, Yp), (Xq, Yq), (Xr, Yr), and (Xs, Ys), respectively. In addition, an intersection of diagonal lines of the quadrangle PQRS is a point T, and the coordinates of the point T are (Xt, Yt). Since the equations of the straight lines PR and QS that are diagonal lines of the quadrangle PQRS are known, the coordinates (Xt, Yt) of this point T can also be derived, and thus become known values.

前述したように、四角形pqrsは、四角形PQRSをαパーセント縮小した図形である。ここでは、点p、q、r、sのうち、点sの座標を求める場合を例に挙げて説明する。点sは、線分TSにおいて点Tからαパーセントのところにある点であるから、線分TSを点Tからα:(100−α)に分けた点であるといえる。   As described above, the square pqrs is a figure obtained by reducing the square PQRS by α percent. Here, the case of obtaining the coordinates of the point s among the points p, q, r, and s will be described as an example. Since the point s is a point that is α percent from the point T in the line segment TS, it can be said that the line segment TS is divided from the point T to α: (100−α).

ここで、線分TSをx軸に投影したときのx軸上の投影点を以下のように表記する。すなわち、点Tのx軸への投影点をTx、点Sのx軸への投影点をSx、点sのx軸への投影点をsxと表記する。点T、Txを相互に結ぶ線分TTx、点s、sxを相互に結ぶ線分ssx、点S、Sxを相互に結ぶ線分SSxは、相互に平行である。したがって、点T、Tx、Sx、Sを頂点とする四角形TTxSxSは台形となる。   Here, the projection point on the x-axis when the line segment TS is projected on the x-axis is expressed as follows. That is, the projection point of the point T on the x-axis is denoted as Tx, the projection point of the point S on the x-axis is denoted as Sx, and the projection point of the point s on the x-axis is denoted as sx. The line segment TTx connecting the points T and Tx, the line segment ssx connecting the points s and sx, and the line segment SSx connecting the points S and Sx are parallel to each other. Therefore, the quadrangle TTxSxS having the vertices at the points T, Tx, Sx, and S is a trapezoid.

同様に、線分TSをy軸に投影したときのy軸上の投影点を以下のように表記する。すなわち、点Tのy軸への投影点をTy、点Sのy軸への投影点をSy、点sのy軸への投影点をsyと表記する。この場合、点T、Ty、Sy、Sを頂点とする四角形TTySySも台形となる。
これらの関係により、以下の(1)式、(2)式が成り立つ。したがって、ステップS1002においてプロジェクタ104の主制御部508は、以下の(1)式、(2)式の計算を行うことにより、点sのx座標sxとy座標sy、すなわち点sの座標(sx,sy)を導出することができる。
sx=Xt+α(Xs−Xt)/100 ・・・(1)
sy=Yt+α(Ys−Yt)/100 ・・・(2)
同様に点p、q、rも導出することができるので、プロジェクタ104から投影される画像の四隅の位置を求めることができる。
Similarly, the projection point on the y-axis when the line segment TS is projected on the y-axis is expressed as follows. That is, a projection point of the point T on the y-axis is denoted as Ty, a projection point of the point S on the y-axis is denoted as Sy, and a projection point of the point s on the y-axis is denoted as sy. In this case, the quadrangle TTySyS having the vertices at the points T, Ty, Sy, and S is also a trapezoid.
From these relationships, the following formulas (1) and (2) are established. Accordingly, in step S1002, the main control unit 508 of the projector 104 calculates the following equations (1) and (2) to thereby obtain the x coordinate sx and y coordinate sy of the point s, that is, the coordinate (sx of the point s) , Sy) can be derived.
sx = Xt + α (Xs−Xt) / 100 (1)
sy = Yt + α (Ys−Yt) / 100 (2)
Similarly, since the points p, q, and r can be derived, the positions of the four corners of the image projected from the projector 104 can be obtained.

図13は、図6において、デジタイザ101がデジタイザ102から投光される光を受光することによって各センサユニット部201、202、203、204(再帰反射材110、111、112、113)の位置を求めたときの各点の座標を示す図である。
図13において、原点は点P(再帰反射材110、センサユニット部201の位置)とする。また、地面と平行な方向をX軸方向、垂直な方向をY軸方向とする。図13に示す点P、Q、R、Sを頂点とする四角形PQRSは、図12に示した点P、Q、R、Sを頂点とする四角形と同じである。
FIG. 13 shows the positions of the sensor unit portions 201, 202, 203, and 204 (retroreflective members 110, 111, 112, and 113) when the digitizer 101 receives the light projected from the digitizer 102 in FIG. It is a figure which shows the coordinate of each point when calculated | required.
In FIG. 13, the origin is a point P (the position of the retroreflective member 110 and the sensor unit 201). A direction parallel to the ground is defined as an X-axis direction, and a direction perpendicular to the ground is defined as a Y-axis direction. A quadrangle PQRS having vertices at points P, Q, R, and S shown in FIG. 13 is the same as the quadrangle having vertices at points P, Q, R, and S shown in FIG.

図13に示す点p、q、r、sを頂点とする四角形は、図12で示した四角形pqrsと同じであり、四角形PQRSをαパーセントに縮小した場合の四角形pqrsである。四角形pqrsの頂点(点p、q、r、s)を導出する方法は、図12を参照しながら説明した通りである。ただし、ここでは、センサユニット部201、202、203、204の位置を点P、Q、R、Sの位置とする。前述したように、再帰反射材110、111、112、113は、それぞれ、センサユニット部201、202、203、204の赤外LEDの真上にある。したがって、x−y平面におけるセンサユニット部201、202、203、204の位置と、再帰反射材110、111、112、113の位置は同じである。よって、デジタイザ101の主制御部303は、再帰反射材110、111、112、113の位置(点P、Q、R、S)を導出した後に、プロジェクタ104から投光される画像の四隅を四角形pqrsと想定できる。   A square having apexes p, q, r, and s shown in FIG. 13 is the same as the square pqrs shown in FIG. 12, and is a square pqrs obtained by reducing the square PQRS to α percent. The method of deriving the vertices (points p, q, r, s) of the quadrangle pqrs is as described with reference to FIG. However, here, the positions of the sensor unit portions 201, 202, 203, and 204 are the positions of the points P, Q, R, and S. As described above, the retroreflective members 110, 111, 112, and 113 are directly above the infrared LEDs of the sensor unit portions 201, 202, 203, and 204, respectively. Therefore, the positions of the sensor unit parts 201, 202, 203, and 204 in the xy plane are the same as the positions of the retroreflective members 110, 111, 112, and 113. Therefore, the main control unit 303 of the digitizer 101 derives the four corners of the image projected from the projector 104 after deriving the positions (points P, Q, R, and S) of the retroreflective members 110, 111, 112, and 113. pqrs can be assumed.

そして、デジタイザ101の主制御部303は、図7のステップS707で導出した位置(ユーザによって指示された位置)を、プロジェクタ104から投影された画像の座標に応じて調整する。そして、デジタイザ101の主制御部303は、当該調整した位置を、ユーザによって指示された位置として決定して出力することができる。よって、デジタイザ101、102の入力座標とプロジェクタ104から投光される画像の座標とを一致させることができる。   Then, the main control unit 303 of the digitizer 101 adjusts the position derived in step S707 in FIG. 7 (the position designated by the user) according to the coordinates of the image projected from the projector 104. Then, the main control unit 303 of the digitizer 101 can determine and output the adjusted position as a position designated by the user. Therefore, the input coordinates of the digitizers 101 and 102 and the coordinates of the image projected from the projector 104 can be matched.

以上のように本実施形態では、プロジェクタ104は、再帰反射材110、111、112、113からの光に基づいて、再帰反射材110、111、112、113の位置を導出する。そして、プロジェクタ104は、当該導出した位置を頂点とする四角形PQRSをα[%]縮小した四角形pqrsを、投影する画像の領域とする。デジタイザ101は、再帰反射材110、111、112、113の真下にあるセンサユニット部201、202、203、204の赤外LEDからの光に基づいて、センサユニット部201、202、203、204の位置を導出する。これにより、デジタイザ101は、再帰反射材110、111、112、113の位置が得られる。そして、デジタイザ101は、導出した位置を頂点とする四角形PQRSをα[%]縮小した四角形pqrsが、プロジェクタ104から投影される画像の領域であると認識する。   As described above, in the present embodiment, the projector 104 derives the positions of the retroreflective materials 110, 111, 112, and 113 based on the light from the retroreflective materials 110, 111, 112, and 113. Then, the projector 104 sets a quadrangle pqrs obtained by reducing the quadrangle PQRS having the derived position as a vertex by α [%] as a region of an image to be projected. The digitizer 101 is based on the light from the infrared LEDs of the sensor unit parts 201, 202, 203, 204 directly below the retroreflective members 110, 111, 112, 113. Deriving the position. Thereby, the digitizer 101 can obtain the positions of the retroreflective members 110, 111, 112, and 113. Then, the digitizer 101 recognizes that a quadrangle pqrs obtained by reducing the quadrangle PQRS having the derived position as a vertex by α [%] is an area of an image projected from the projector 104.

したがって、ユーザの作業は、例えば、デジタイザ101、102をおおよそ平行に投影面100に設置することと、プロジェクタ104から画像を投影する指示を行うことになる。このような作業を行うだけで、プロジェクタ104から投影される画像の座標と、デジタイザ101、102で検出される座標とのずれを補正することができる。また、解像度が高い撮像素子を用いることも、撮影画像に対する画像認識処理のために余分なメモリを用いることも不要になる。したがって、デジタイザ101、102の入力座標とプロジェクタ104から投影される座標を容易に且つ確実に一致させることができる。   Therefore, for example, the user's work is to install the digitizers 101 and 102 on the projection surface 100 approximately in parallel and to instruct the projector 104 to project an image. Only by performing such an operation, the deviation between the coordinates of the image projected from the projector 104 and the coordinates detected by the digitizers 101 and 102 can be corrected. In addition, it is not necessary to use an image sensor having a high resolution or to use an extra memory for image recognition processing for a captured image. Therefore, the input coordinates of the digitizers 101 and 102 and the coordinates projected from the projector 104 can be easily and reliably matched.

本実施形態では、図6において、説明を分かりやすくするために、デジタイザ102を斜めに設置したが、通常、ユーザは、目分量でデジタイザ101、102を設置する。この場合、デジタイザ101、102は、おおよそ相互に平行に近い状態になるように設置される。そのため、再帰反射材110、111、112、113の位置(点106、107、108、109)を頂点とした四角形もおおよそ長方形になる。この場合、プロジェクタ104から投影される画像は、この長方形を縮小した相似の長方形となるため、台形歪みの少ない画像になる。   In this embodiment, in order to make the explanation easy to understand in FIG. 6, the digitizer 102 is installed obliquely, but normally, the user installs the digitizers 101 and 102 with a scale amount. In this case, the digitizers 101 and 102 are installed so as to be approximately parallel to each other. Therefore, a quadrangle whose apex is the position of the retroreflective members 110, 111, 112, and 113 (points 106, 107, 108, and 109) is also approximately rectangular. In this case, since the image projected from the projector 104 is a similar rectangle obtained by reducing the rectangle, the image has less trapezoidal distortion.

また、本実施形態では、デジタイザ101、102およびプロジェクタ104とも、再帰反射材110、111、112、113の位置を頂点とする四角形を縮小した画像を、投影される画像とし、その画像における位置を入力座標、投影する画像の座標とした。しかしながら、必ずしもこのようにする必要はない。   In the present embodiment, the digitizers 101 and 102 and the projector 104 also use a reduced image of a quadrangle whose vertex is the position of the retroreflective members 110, 111, 112, and 113 as a projected image, and the position in the image is Input coordinates and projected image coordinates were used. However, this is not always necessary.

例えば、仮に、図6に示したようにしてデジタイザ101、102が設置される場合、プロジェクタ104から投影される画像の領域は、図11に示すように四角形pqrsの領域となり、台形になる。したがって、プロジェクタ104から投影される画像は歪むことになる。したがって、プロジェクタ104の主制御部508は、この歪みを補正するために、例えば、以下のようにすることができる。   For example, if the digitizers 101 and 102 are installed as shown in FIG. 6, the area of the image projected from the projector 104 becomes a square pqrs area as shown in FIG. Therefore, the image projected from the projector 104 is distorted. Therefore, the main control unit 508 of the projector 104 can perform, for example, the following in order to correct this distortion.

まず、主制御部508は、再帰反射材110、111、112、113の位置(点P、Q、R、S)のうちの1つの位置(例えば点P)を選択する。次に、プロジェクタ104の主制御部508は、当該選択した位置を頂点とする長方形または正方形であって、点P、Q、R、Sを頂点とする四角形PQRSの内部に含まれる長方形または正方形を導出する。例えば、プロジェクタ104の主制御部508は、点P、Q、R、Sを頂点とする四角形PQRSの内部に含まれる長方形または正方形のうち、最大の大きさとなる長方形または正方形を導出する。そして、プロジェクタ104の主制御部508は、当該導出した長方形または正方形の頂点の位置を、前述した点p、q、r、sの代わりに用いて、プロジェクタ104から画像を投影する。   First, the main control unit 508 selects one position (for example, point P) among the positions (points P, Q, R, and S) of the retroreflective members 110, 111, 112, and 113. Next, the main control unit 508 of the projector 104 selects a rectangle or square that is a rectangle or square having the selected position as a vertex and is included in a quadrangle PQRS having the points P, Q, R, and S as vertices. To derive. For example, the main control unit 508 of the projector 104 derives the rectangle or square having the maximum size among the rectangles or squares included in the quadrangle PQRS with the points P, Q, R, and S as vertices. Then, the main control unit 508 of the projector 104 projects an image from the projector 104 using the derived rectangular or square vertex positions instead of the points p, q, r, and s described above.

前述したように、デジタイザ101の主制御部303も、再帰反射材110、111、112、113の位置(点P、Q、R、S)を導出することができる。また、デジタイザ101の主制御部303は、点P、Q、R、Sを頂点とする四角形PQRSの内部に含まれる長方形または正方形のうち、最大の大きさとなる長方形または正方形が、プロジェクタ104から投影される画像の領域であることを予め記憶しておく。このようにすることにより、デジタイザ101の主制御部303も、プロジェクタ104から投影される画像の領域を導出することができる。
以上のようにすれば、ユーザが、相互に平行になるようにデジタイザ101、102を設置しなくても、プロジェクタ104から投影される画像が歪むことを抑制することができる。
As described above, the main control unit 303 of the digitizer 101 can also derive the positions (points P, Q, R, and S) of the retroreflective members 110, 111, 112, and 113. Further, the main control unit 303 of the digitizer 101 projects from the projector 104 a rectangle or square having the maximum size among the rectangles or squares included in the quadrangle PQRS having the points P, Q, R, and S as vertices. The image area is stored in advance. In this way, the main control unit 303 of the digitizer 101 can also derive an image area projected from the projector 104.
By doing so, it is possible to prevent the image projected from the projector 104 from being distorted even if the user does not install the digitizers 101 and 102 so as to be parallel to each other.

また、本実施形態では、デジタイザ101、102が赤外遮光方式(赤外線が遮光された領域に基づいて指示された位置を検出する方式)である場合を例に挙げて説明した。しかしながら、デジタイザ101、102は、この方式以外のものでもよく、例えば静電容量方式のものでもよい。   Further, in the present embodiment, the case where the digitizers 101 and 102 are of the infrared light shielding method (method of detecting a position instructed based on the region where the infrared light is shielded) has been described as an example. However, the digitizers 101 and 102 may be other than this type, for example, a capacitance type.

また、本実施形態では、プロジェクタ104が投光し、デジタイザ101、102の再帰反射材110、111、112、113からの反射光を受光することで、プロジェクタ104がデジタイザ101、101の設置位置を検出する場合を例に挙げて説明した。しかしながら、必ずしもこのようにする必要はない。例えば、デジタイザ101、102側に再帰反射材の代わりに自発光素子がある場合、その自発光素子からの光をプロジェクタ104側で検出するようにしてもよい。さらには、赤外遮光方式で位置を検出する際に発光する赤外光をプロジェクタ104側からも見えるように配置して、その自発光素子からの光を元にプロジェクタ104がデジタイザ101、102の位置を検出してもよい。例えば、デジタイザ101の面のうちプロジェクタ104と対向する位置にある面(プロジェクタ104から見える面)に配置した再帰反射材110、111の箇所の筺体部分に穴をあけ、赤外LEDからの発光が、プロジェクタ104から見えるようにする。   In the present embodiment, the projector 104 projects light and receives the reflected light from the retroreflective members 110, 111, 112, and 113 of the digitizers 101 and 102, so that the projector 104 determines the installation positions of the digitizers 101 and 101. The case of detection has been described as an example. However, this is not always necessary. For example, when there is a self-luminous element instead of the retroreflective material on the digitizers 101 and 102 side, the light from the self-luminous element may be detected on the projector 104 side. Furthermore, the infrared light emitted when detecting the position by the infrared shading method is arranged so that it can be seen from the projector 104 side, and the projector 104 of the digitizers 101 and 102 is based on the light from the self-light emitting element. The position may be detected. For example, a hole is made in the housing portion of the retroreflective members 110 and 111 arranged on the surface of the digitizer 101 that faces the projector 104 (the surface that can be seen from the projector 104), and the infrared LED emits light. And visible from the projector 104.

また、本実施形態では、再帰反射材110、111、112、113の位置と、プロジェクタ104から投影される画像の領域との関係(例えば、前述したα)を、プロジェクタ104とデジタイザ101との双方に予め記憶する場合を例に挙げて説明した。しかしながら、必ずしもこのようにする必要はない。例えば、プロジェクタ104が、プロジェクタ104から投影される画像の領域を導出し、導出した領域の情報をデジタイザ101に送信してもよい。このようにした場合には、デジタイザ101は、プロジェクタ104からの情報を取得して、プロジェクタ104から投影される画像の領域を特定することができる。すなわち、このようにした場合には、デジタイザ101は、前述したようにしてセンサユニット部201、202、203、204の位置を導出してプロジェクタ104から投影される画像の領域を特定する必要はない。   In this embodiment, the relationship between the position of the retroreflective members 110, 111, 112, and 113 and the area of the image projected from the projector 104 (for example, α described above) is determined by both the projector 104 and the digitizer 101. The case of storing in advance has been described as an example. However, this is not always necessary. For example, the projector 104 may derive an area of an image projected from the projector 104 and transmit information on the derived area to the digitizer 101. In such a case, the digitizer 101 can acquire information from the projector 104 and specify an area of an image projected from the projector 104. That is, in this case, the digitizer 101 does not need to derive the positions of the sensor unit parts 201, 202, 203, and 204 and specify the area of the image projected from the projector 104 as described above. .

尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
(Other examples)
The present invention is also realized by executing the following processing. That is, first, software (computer program) for realizing the functions of the above embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the computer program.

100:投影面、101・102:デジタイザ、103:ケーブル、104:プロジェクタ   100: Projection plane, 101/102: Digitizer, 103: Cable, 104: Projector

Claims (15)

投影面に画像を投影する投影装置であって、
前記画像に対して指示された位置を検出する座標入力装置であって、前記投影面に配置された座標入力装置の位置を検出する検出手段と、
前記検出手段により検出された位置に基づいて、前記投影面に投影する画像の領域を導出する導出手段と、を有することを特徴とする投影装置。
A projection device that projects an image on a projection surface,
A coordinate input device for detecting a position instructed with respect to the image, and detecting means for detecting a position of the coordinate input device arranged on the projection plane;
A projection apparatus comprising: a derivation unit that derives an area of an image to be projected on the projection plane based on the position detected by the detection unit.
前記座標入力装置から発せられる光を受光する受光手段をさらに有し、
前記検出手段は、前記受光手段により受光された光に基づいて、前記座標入力装置の位置を検出することを特徴とする請求項1に記載の投影装置。
A light receiving means for receiving light emitted from the coordinate input device;
The projection device according to claim 1, wherein the detection unit detects a position of the coordinate input device based on light received by the light receiving unit.
光を投光する投光手段をさらに有し、
前記受光手段は、前記投光手段により投光された光の、前記座標入力装置に備わる再帰反射材からの反射光を受光することを特徴とする請求項2に記載の投影装置。
It further has a light projecting means for projecting light,
The projection device according to claim 2, wherein the light receiving unit receives reflected light from the retroreflective member provided in the coordinate input device of the light projected by the light projecting unit.
前記投光手段は、前記画像を表示するための光を投光することを特徴とする請求項3に記載の投影装置。   The projection device according to claim 3, wherein the light projecting unit projects light for displaying the image. 前記受光手段は、前記座標入力装置に備わる発光手段により発光された光を受光することを特徴とする請求項2に記載の投影装置。   The projection apparatus according to claim 2, wherein the light receiving unit receives light emitted from a light emitting unit included in the coordinate input device. 前記座標入力装置は、前記投影面において、相互に間隔を有する位置に配置される2つの座標入力装置を有し、
前記検出手段は、前記2つの座標入力装置のそれぞれの位置を検出し、
前記導出手段は、前記検出手段により検出された位置に基づいて、前記2つの座標入力装置の間の領域を、前記投影面に投影する画像の領域として導出することを特徴とする請求項2〜5の何れか1項に記載の投影装置。
The coordinate input device has two coordinate input devices arranged at positions spaced from each other on the projection plane,
The detection means detects the position of each of the two coordinate input devices,
The derivation means derives an area between the two coordinate input devices as an area of an image to be projected on the projection plane based on the position detected by the detection means. The projection device according to any one of 5.
前記受光手段は、前記2つの座標入力装置の長手方向における2つの位置から発せられる光をそれぞれ受光し、
前記導出手段は、前記検出手段により検出された4つの位置を頂点とする四角形を縮小した領域を、前記投影面に投影する画像の領域として導出することを特徴とする請求項6に記載の投影装置。
The light receiving means receives light emitted from two positions in the longitudinal direction of the two coordinate input devices, respectively.
The projection according to claim 6, wherein the deriving unit derives a region obtained by reducing a quadrangle whose vertices are four positions detected by the detecting unit as an image region to be projected onto the projection plane. apparatus.
前記受光手段は、前記2つの座標入力装置の長手方向における2つの位置から発せられる光を受光し、
前記導出手段は、前記検出手段により検出された4つの位置の少なくとも1つの位置を頂点とする長方形または正方形を縮小した長方形または正方形の領域を、前記投影面に投影する画像の領域として導出することを特徴とする請求項6に記載の投影装置。
The light receiving means receives light emitted from two positions in the longitudinal direction of the two coordinate input devices,
The derivation means derives a rectangular or square area obtained by reducing a rectangle or square whose apex is at least one of the four positions detected by the detection means as an area of an image to be projected on the projection plane. The projection apparatus according to claim 6.
投影装置から投影面に投影された画像に対して指示された位置を検出する座標入力装置であって、
前記投影装置から投影される画像の領域を取得する取得手段と、
前記取得手段により取得された領域に基づいて、前記指示された位置の座標を調整する調整手段と、を有することを特徴とする座標入力装置。
A coordinate input device that detects an instructed position with respect to an image projected from a projection device onto a projection plane,
Obtaining means for obtaining a region of an image projected from the projection device;
A coordinate input device comprising: an adjusting unit that adjusts the coordinates of the designated position based on the area acquired by the acquiring unit.
前記投影面に配置された前記座標入力装置の位置を検出する検出手段をさらに有し、
前記取得手段は、前記検出手段により取得された位置に基づいて、前記投影装置から投影される画像の領域を導出することを特徴とする請求項9に記載の座標入力装置。
Further comprising detection means for detecting a position of the coordinate input device arranged on the projection plane;
The coordinate input device according to claim 9, wherein the acquisition unit derives a region of an image projected from the projection device based on the position acquired by the detection unit.
発光手段をさらに有し、
前記検出手段は、前記発光手段により発光された光に基づいて、前記投影面に設置された前記座標入力装置の位置を検出することを特徴とする請求項10に記載の座標入力装置。
A light emitting means;
The coordinate input device according to claim 10, wherein the detection unit detects a position of the coordinate input device installed on the projection plane based on light emitted by the light emitting unit.
請求項1〜8の何れか1項に記載の投影装置と、
請求項9〜11の何れか1項に記載の座標入力装置と、を有することを特徴とする画像投影システム。
A projection device according to any one of claims 1 to 8,
An image projection system comprising: the coordinate input device according to claim 9.
前記投影装置の前記検出手段により検出される前記座標入力装置の位置であって、前記投影面に平行な面における位置と、前記座標入力装置の前記検出手段により検出される前記座標入力装置の位置であって、前記投影面に平行な面における位置と、が同じであることを特徴とする請求項12に記載の画像投影システム。   The position of the coordinate input device detected by the detection means of the projection device, the position on a plane parallel to the projection plane, and the position of the coordinate input device detected by the detection means of the coordinate input device The image projection system according to claim 12, wherein a position on a plane parallel to the projection plane is the same. 投影面に画像を投影する投影装置における処理方法であって、
前記画像に対して指示された位置を検出する座標入力装置の位置を検出する検出工程と、
前記検出工程により検出された位置に基づいて、前記投影面に投影する画像の領域を導出する導出工程と、を有することを特徴とする処理方法。
A processing method in a projection apparatus that projects an image on a projection surface,
A detection step of detecting a position of a coordinate input device that detects a position indicated with respect to the image;
And a deriving step of deriving a region of the image to be projected on the projection plane based on the position detected by the detecting step.
投影装置から投影面に投影された画像に対して指示された位置を検出する座標入力装置における処理方法であって、
前記投影装置から投影される画像の領域を取得する取得工程と、
前記取得工程により取得された領域に基づいて、前記指示された位置の座標を調整する調整工程と、を有することを特徴とする処理方法。
A processing method in a coordinate input device for detecting an instructed position with respect to an image projected on a projection plane from a projection device,
Obtaining an area of an image projected from the projection device;
An adjustment step of adjusting the coordinates of the instructed position based on the region acquired in the acquisition step.
JP2015022387A 2015-02-06 2015-02-06 Projector, coordinate input device and processing method Pending JP2016146047A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015022387A JP2016146047A (en) 2015-02-06 2015-02-06 Projector, coordinate input device and processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015022387A JP2016146047A (en) 2015-02-06 2015-02-06 Projector, coordinate input device and processing method

Publications (1)

Publication Number Publication Date
JP2016146047A true JP2016146047A (en) 2016-08-12

Family

ID=56685594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015022387A Pending JP2016146047A (en) 2015-02-06 2015-02-06 Projector, coordinate input device and processing method

Country Status (1)

Country Link
JP (1) JP2016146047A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168841A (en) * 2018-03-22 2019-10-03 富士通株式会社 Information processing apparatus, information processing method, and information processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168841A (en) * 2018-03-22 2019-10-03 富士通株式会社 Information processing apparatus, information processing method, and information processing program
JP7020225B2 (en) 2018-03-22 2022-02-16 富士通株式会社 Information processing equipment, information processing methods and information processing programs

Similar Documents

Publication Publication Date Title
US8294693B2 (en) Portable input device, method for calibration thereof, and computer readable recording medium storing program for calibration
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
JP6111706B2 (en) Position detection apparatus, adjustment method, and adjustment program
JP2008165800A (en) Cursor control method and device
US8896688B2 (en) Determining position in a projection capture system
US9910507B2 (en) Image display apparatus and pointing method for same
CN104853128A (en) Projection system and projection method
JP2019215811A (en) Projection system, image processing apparatus, and projection method
WO2018154634A1 (en) Projection display device, method for controlling projection display device, and program
TWI498792B (en) Optical touch system and touch and display system
CN105700736A (en) Input operation detection device, projection apparatus, interactive whiteboard and digital signage device
JP2016184362A (en) Input device, input operation detection method, and input operation detection computer program
US11073949B2 (en) Display method, display device, and interactive projector configured to receive an operation to an operation surface by a hand of a user
US20150301690A1 (en) Input-operation detection device, image display apparatus, projector apparatus and projector system
JP2020178248A (en) Projection control device, projection control method, projection system, program, and storage medium
CN109644248B (en) Projection type image display device and method for adjusting projection image
US10073614B2 (en) Information processing device, image projection apparatus, and information processing method
JP2015139087A (en) Projection device
JP7287379B2 (en) DISPLAY METHOD, DETECTION DEVICE, AND PROGRAM
JP2016146047A (en) Projector, coordinate input device and processing method
US11228744B2 (en) Method for controlling projection system, projection system, and control program
US9971419B2 (en) Interactive projector and method of correcting Z-coordinate of the same
US20160320897A1 (en) Interactive display system, image capturing apparatus, interactive display method, and image capturing method
US20240073386A1 (en) Display method, portable information processing apparatus, and non-transitory computer-readable storage medium
US20240070828A1 (en) Image correction method, information processing apparatus, and non-transitory computer-readable storage medium