JP2016146047A - Projector, coordinate input device and processing method - Google Patents
Projector, coordinate input device and processing method Download PDFInfo
- Publication number
- JP2016146047A JP2016146047A JP2015022387A JP2015022387A JP2016146047A JP 2016146047 A JP2016146047 A JP 2016146047A JP 2015022387 A JP2015022387 A JP 2015022387A JP 2015022387 A JP2015022387 A JP 2015022387A JP 2016146047 A JP2016146047 A JP 2016146047A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- image
- coordinate input
- light
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本発明は、投影装置、座標入力装置、および処理方法に関し、特に、投影装置から投影された画像に対して指示された位置を座標入力装置で検出するために用いて好適なものである。 The present invention relates to a projection device, a coordinate input device, and a processing method, and is particularly suitable for use with a coordinate input device to detect a designated position with respect to an image projected from the projection device.
従来、プロジェクタ(投影装置)によって投影された画像を指示具や指などを用いてデジタイザ(座標入力装置)へ座標入力させる際には、投影される画像の座標とデジタイザで検出される入力座標とを一致させることが必要である。これを主にキャリブレーション(校正)と呼ぶ。このキャリブレーションを、人手を介さないで自動的に行う技術がある。特許文献1に記載の技術では、プロジェクタから投影された画像とデジタイザとの双方を含む撮影画像に基づいて投影画像とデジタイザとの相対位置を算出し、算出した相対位置に基づいて、キャリブレーションを行う。このように特許文献1に記載の技術ではカメラが必要になる。 Conventionally, when inputting an image projected by a projector (projection device) into a digitizer (coordinate input device) using an indicator or a finger, the coordinates of the projected image and the input coordinates detected by the digitizer Need to match. This is mainly called calibration. There is a technique for performing this calibration automatically without human intervention. In the technique described in Patent Document 1, a relative position between a projected image and a digitizer is calculated based on a captured image including both an image projected from a projector and a digitizer, and calibration is performed based on the calculated relative position. Do. Thus, the technique described in Patent Document 1 requires a camera.
しかしながら、前記技術においては、プロジェクタをデジタイザが配置されているスクリーンに対して投影し、当該投影した画像の歪み補正や大きさの変更を行う作業がまず発生し、その後にキャリブレーションを行わなければならない。このため、システムが使えるようになるまでに時間と手間がかかる。 However, in the above-described technique, an operation for projecting the projector onto the screen on which the digitizer is arranged, correcting the distortion of the projected image, and changing the size first occurs, and then calibration is not performed. Don't be. For this reason, it takes time and labor to use the system.
また、プロジェクタから投影される画像の歪みを補正する前にキャリブレーションを行った場合、その後に行う当該歪みの補正によって、プロジェクタから投影された画像の座標とデジタイザで検出される入力座標とがずれる。このため、改めてキャリブレーションを行わなければならない。つまり、ユーザは作業手順を間違えてしまった場合、余分な時間を浪費し、システムが使用できるまでに時間を費やさなければならない。 Further, when calibration is performed before correcting the distortion of the image projected from the projector, the coordinates of the image projected from the projector and the input coordinates detected by the digitizer are shifted due to the subsequent correction of the distortion. . For this reason, calibration must be performed again. In other words, if the user makes a mistake in the work procedure, he / she wastes extra time and has to spend time before the system can be used.
加えて、プロジェクタから投影される画像の歪み補正や大きさを変える作業というのは、プロジェクタを使い慣れたユーザにとっても、煩雑な作業である。プロジェクタから投影された画像を見ながら、当該作業を行わなければならないからである。したがって、プロジェクタに精通していないユーザにとっては、プロジェクタから投影された画像の歪み補正や大きさを正しく行うことは尚更難しい。 In addition, the operation of correcting distortion and changing the size of an image projected from the projector is a complicated operation even for a user who is used to the projector. This is because the operation must be performed while viewing the image projected from the projector. Therefore, it is even more difficult for a user who is not familiar with the projector to correct distortion and size of the image projected from the projector.
また、カメラを使ってキャリブレーションを自動で行う技術では、撮影するカメラの撮像素子の解像度が高い必要がある。さらに、撮影画像を認識するためにメモリも必要になる。したがって、構成が複雑で高価となる。また、撮影画像を、認識技術を使って解析するので処理時間がかかる。 In addition, in the technique of automatically performing calibration using a camera, the resolution of the image sensor of the camera to be photographed needs to be high. Furthermore, a memory is also required to recognize the captured image. Therefore, the configuration is complicated and expensive. In addition, processing time is required because the captured image is analyzed using recognition technology.
本発明は以上の問題点に鑑みてなされたものであり、投影装置から投影される画像の座標と座標入力装置で検出される座標とのずれを容易に且つ確実に補正することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to easily and surely correct a deviation between the coordinates of an image projected from a projection apparatus and the coordinates detected by a coordinate input apparatus. .
本発明の投影装置は、投影面に画像を投影する投影装置であって、前記画像に対して指示された位置を検出する座標入力装置であって、前記投影面に配置された座標入力装置の位置を検出する検出手段と、前記検出手段により検出された位置に基づいて、前記投影面に投影する画像の領域を導出する導出手段と、を有することを特徴とする。
本発明の座標入力装置は、投影装置から投影面に投影された画像に対して指示された位置を検出する座標入力装置であって、前記投影装置から投影される画像の領域を取得する取得手段と、前記取得手段により取得された領域に基づいて、前記指示された位置の座標を調整する調整手段と、を有することを特徴とする。
The projection device of the present invention is a projection device that projects an image on a projection surface, and is a coordinate input device that detects an instructed position with respect to the image, the coordinate input device arranged on the projection surface. It has a detection means for detecting a position, and a derivation means for deriving a region of an image projected on the projection plane based on the position detected by the detection means.
The coordinate input device of the present invention is a coordinate input device that detects an instructed position with respect to an image projected on the projection plane from the projection device, and obtains an area of the image projected from the projection device. And adjusting means for adjusting the coordinates of the instructed position based on the area acquired by the acquiring means.
本発明によれば、投影装置から投影される画像の座標と座標入力装置で検出される座標とのずれを容易に且つ確実に補正することができる。 ADVANTAGE OF THE INVENTION According to this invention, the shift | offset | difference of the coordinate of the image projected from a projector and the coordinate detected by a coordinate input device can be correct | amended easily and reliably.
以下に、図面を参照しながら、実施形態を説明する。
図1は、画像投影システムの構成の一例を示す図である。図1において、投影面100は、例えば、ホワイトボードまたは室内の壁などである。図1では、投影面100が、地面に対して垂直な平面である場合を例に挙げて示す。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an example of the configuration of an image projection system. In FIG. 1, the
デジタイザ101、102は、座標入力装置の一例であり、例えば、遮光方式のデジタイザである。本実施形態では、デジタイザ101、102は、ユーザにより指示されたポイントの位置を、赤外光を用いて判別する。図1では、投影面100に対して、水平方向において間隔を有してデジタイザ101、102が配置される場合を例に挙げて示す。
The
デジタイザ101、102のそれぞれ向かい合う側面(投影面100の中心側の面)には、再帰反射材が配置される。デジタイザ101内の赤外LEDから投光された赤外光は、デジタイザの102の再帰反射材によって反射される。同様に、デジタイザ102内の赤外LEDから投光された赤外光は、デジタイザ101の再帰反射材によって反射される。
A retroreflective material is disposed on each side surface (the surface on the center side of the projection surface 100) of the
ケーブル103は、デジタイザ101、102を電気的に接続するケーブルである。プロジェクタ104は、投影装置の一例であり、図示しないPCなどから受信した画像、またはプロジェクタ104本体内のメモリに記憶されている画像を投影する。
The
投影画面105は、プロジェクタ104が投影した画像が投影面100に投影されたときに映し出される画面である。この時点では、デジタイザ101、102で検出される入力座標と、プロジェクタ104から投影される画像の座標とはまったく別の座標として存在している。そのため、デジタイザ101、102を用いてユーザが投影画面105を操作するには、前記2つの座標を一致させる作業(キャリブレーション)が必要である。また、投影画面105は、デジタイザ101、102のそれぞれ向かい合う側面(投影面100の中心側の面)の底辺(投影面100に近接または接する辺)の両端の点106、107、108、109を頂点とする四角形に沿って等間隔に投影されていない。このため、通常は、ユーザによる投影画面105の補正が必要となる。
The
再帰反射材110、111は、デジタイザに101に配置された再帰反射材のうち、デジタイザ101、102の長手方向の一端、他端に最も近い位置に配置された再帰反射材である。ここで、再帰反射材110、111で反射された光がプロジェクタ104の方向に反射されるようにする。例えば、デジタイザ101の面のうちプロジェクタ104と対向する位置にある面(プロジェクタ104から見える面)に再帰反射材110、111を配置する。このことは、再帰反射材112、113、デジタイザ102についても同じである。一方、再帰反射材110〜113以外の再帰反射材で反射される光は、プロジェクタ104に入射されないようにする。
The
図2は、デジタイザ101、102の構成の一例を簡略化して示す図である。図2では、説明および表記の都合上、デジタイザ101、102の内部を必要に応じて透視して示す。このことは、他の図においても同じである。
図2において、センサユニット部201、202は、デジタイザ101のセンサユニット部であり、センサユニット部203、204は、デジタイザ102のセンサユニット部である。センサユニット部201、202、203、204は、それぞれ、赤外LEDと赤外受光センサとを有する。
メインユニット部205、206は、それぞれ、デジタイザ101、102のメインユニット部である。メインユニット部205は、内部バスを介してセンサユニット部201、202と相互に通信可能に接続される。同様に、メインユニット部206は、内部バスを介してセンサユニット部203、204と相互に通信可能に接続される。
FIG. 2 is a diagram showing a simplified example of the configuration of the
In FIG. 2,
尚、図1に示した再帰反射材110、111、112、113は、それぞれ、センサユニット部201、202、203、204の赤外LEDの真上(投影面100のプロジェクタ104側の法線方向)に位置するものとする。ただし、赤外LEDと再帰反射材110、111、112、113との位置関係を、予めデジタイザ101、102およびプロジェクタ104の双方に設定していれば、再帰反射材110、111、112、113は、必ずしも赤外LEDの真上になくてもよい。
The
図3は、デジタイザ101の内部構成の一例を示すブロック図である。
図2および図3において、センサユニット部201、202は、それぞれ、デジタイザ101の内部の位置であって、デジタイザ101の長手方向の一端に近接する位置、他端に近接する位置に配置される。センサユニット部201、202は、それぞれ、赤外光を投光する投光部と、再帰反射材から反射されて戻ってきた光、または、対向するデジタイザ102のセンサユニット部203、204の投光部から投光された赤外光を受光する受光部とを有する。
FIG. 3 is a block diagram showing an example of the internal configuration of the
2 and 3, the
メインユニット部205の構成の一例を以下に詳述する。
画像処理部301、302は、それぞれ、センサユニット部201、202から送信されたアナログデータをデジタル化したり適正なレベルに変換したりする。主制御部303は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などを有し、デジタイザ101全体の制御を司る。メモリ部304は、不揮発性メモリや揮発性メモリを有する。不揮発性メモリ内には、主制御部303が実行可能なプログラムが予め格納されている。また、揮発性メモリは、主制御部303の演算時に、データを格納したり呼び出して用いたりするのに使われる。主制御部303は、センサユニット部201、202を制御して赤外LEDの動作(点滅など)を制御する。内部データバス305は、画像処理部301、302、主制御部303、メモリ部304を双方向に通信可能に接続する。尚、デジタイザ102の構成もデジタイザ101と同じ構成で実現できるので、ここではその詳細な説明を省略する。
An example of the configuration of the
The
図4は、図1に示したデジタイザ101、102の動作の一例を概念的に説明する図である。
図4では、デジタイザ101内のセンサユニット部201、デジタイザ102内のセンサユニット部203から、それぞれ赤外光が投光されている様子を示す。ここで、デジタイザ101に配置されている再帰反射材は、デジタイザ101の長手方向の一端の点106の位置から他端の点107の位置まで存在する。同様に、デジタイザ102の再帰反射材は、デジタイザ102の一端の点108から他端の点109まで存在する。
FIG. 4 is a diagram conceptually illustrating an example of the operation of the
FIG. 4 shows a state in which infrared light is projected from the
センサユニット部201の赤外LEDから投光された光は、デジタイザ102の一端の点108から他端の点109までにある再帰反射材に当たり、その反射光がセンサユニット部201の受光部に戻る。同様に、センサユニット部203の赤外LEDから投光された光は、デジタイザ101の一端の点106から他端の点107までに再帰反射材に当たり、その反射光がセンサユニット部203の受光部に戻る。
The light projected from the infrared LED of the
ここで、図4に示すように、ユーザが自分の指、もしくは指示棒のような物体で投影面100の地点401を指した場合を例に挙げて、デジタイザ101、102の動作の一例を説明する。
各センサユニット部201、203から投光された赤外光は、デジタイザ102、101に配置されている再帰反射材でそれぞれ反射され、センサユニット部201、203に戻る。センサユニット部201、203に戻ってきた光は、センサユニット部201、203内の受光部で蓄積される。地点401で指または物体によって赤外光が遮られると、図4に示すように、その遮られた部分だけ再帰反射材に光が到達しないため、当然その部分の光もセンサユニット部201、203に戻ってこない。
Here, as shown in FIG. 4, an example of the operation of the
Infrared light projected from the
主制御部303は、それぞれのセンサユニット部201、203が、どの方向から光が戻ってこなかったのかを受光部に蓄積された光を元に判別する。そして、主制御部303は、センサユニット部201、203のそれぞれにおいて検出した光の方向(角度)を用いて三角測量の原理により点106〜109で囲まれた画面のどの部分にユーザによって指示されたのかを検出する。
以上がデジタイザ101、102の入力装置としての動作の一例の概要である。
The main control unit 303 determines from which direction the
The above is an outline of an example of the operation of the
図5は、図1に示したプロジェクタ104の内部構成の一例を示すブロック図である。
プロジェクタ104は、画像を表す画像光を投影して投影面100などの面上に画像を表示させる。信号入力部501は、図示しないパソコンやDVDプレーヤなどからケーブルを介して入力されたアナログ信号をデジタルデータに変換する。
FIG. 5 is a block diagram showing an example of the internal configuration of the
The
画像処理部502は、信号入力部501から受け取ったデータに対して、画像の輝度、コントラスト、同期、トラッキング、色濃度、色合いなどを調整する。加えて、画像処理部502は、画像範囲の検出、最適ズームの算出、ズーム調整、キーストーン調整などを行う機能を含む。例えば、最適ズームの算出とズーム調整により、プロジェクタ104から投影される画像の大きさが変更される。また、例えば、キーストーン調整により、プロジェクタ104から投影される画像の形が変更される。
The
液晶パネル駆動部503は、画像処理部502から受け取ったデータに基づき液晶パネル504を駆動する。液晶パネル504は、照明光学部505から照射された照明光を、画像を表す画像光に変調するためのパネル画像を、液晶面の画像形成領域に形成する。投射光学部506は、液晶パネル504によって画像光に変調された光を拡大して投影する。受光部507は、デジタイザ101、102の再帰反射材から反射してきた光を受光する。
The liquid crystal
主制御部508は、CPUやDSPなどを有する。主制御部508は、プロジェクタ104全体の制御を司る。メモリ部509は、不揮発性メモリや揮発性メモリを有する。デジタイザ101、102と同様に、不揮発性メモリ内には、予めプログラムが格納される。揮発性メモリは、例えば、主制御部508が演算を行う際のデータを格納するために使用される。レンズ駆動部510は、投影する画像を拡大・縮小、表示画像の移動・補正などを行うために、投射光学部506として備わるレンズを移動させる。データバス511は、プロジェクタ内の各ブロック間(画像処理部502、液晶パネル駆動部503、受光部507、主制御部508、メモリ部509、レンズ駆動部510)の制御バスおよびデータバスである。
The
図6は、デジタイザ101、102のそれぞれを投影面100に設置した様子の概略の一例を示す図である。前述したように、投影面100は、例えば、ホワイトボードまたは室内の壁などである。例えば、デジタイザ101、102の筺体の裏面に磁石が配置される。このようにすることにより、ユーザは、磁石が装着可能なホワイトボードや壁などの投影面100にデジタイザ101、102を簡単に設置することが可能である。デジタイザ101、102はそれぞれが個別のユニットであるため、相互に平行に設置されるとは限らない。図6では、地面と平行な方向をX軸、垂直な方向をY軸と定義する。デジタイザ101は、Y軸と平行に設置されたとする。一方、デジタイザ102は、Y軸と平行にならないで設置されたとする。
FIG. 6 is a diagram showing an example of an outline of how the
図7は、図6に示す状態で設置されたデジタイザ101が、デジタイザ102の設置された位置を検出する方法の一例を説明するフローチャートである。図6および図7を用いて、デジタイザ102の設置された位置を検出する方法の一例を説明する。前述したように、センサユニット部201、202、203、204のそれぞれは、赤外LEDと受光部とを備える。
FIG. 7 is a flowchart for explaining an example of a method in which the
図7において、まず、ユーザは、デジタイザ101、102の図示しない電源スイッチを押下し、デジタイザ101、102の電源をオンする(ステップS701)。デジタイザ101内のメインユニット部205内の主制御部303は、デジタイザ102内のメインユニット部内の主制御部に対してセンサユニット部203、204内の赤外LEDを順に点灯するように要求する(ステップS702)。
In FIG. 7, the user first presses a power switch (not shown) of the
デジタイザ102内の主制御部は、デジタイザ101からの前記要求に対する返答として、前記要求を受け取ったことをデジタイザ101の主制御部303に対し通知する(ステップS703)。そして、デジタイザ101の主制御部303は、センサユニット部203、204の赤外LEDを前記要求に従って点灯させる(ステップS704)。センサユニット部203内の赤外LEDが点灯した際、センサユニット部201、202内のそれぞれの受光部にてその光を受光する(ステップS705)。
The main control unit in the
主制御部303は、センサユニット部201内の受光部が、センサユニット部203内の赤外LEDの光を受光すると、図6に示すように、Y軸に対してどの方向から赤外LEDの光を受光したのかを、角度θ1として導出する。同様に、主制御部303は、センサユニット部204内の赤外LEDの光を受光した際には、Y軸に対してどの方向から赤外LEDの光を受光したのかを、角度θ3として導出する。センサユニット部201と同様に、センサユニット部202の受光部が、センサユニット部203、204内の赤外LEDの光を受光すると、主制御部303は、Y軸に対してどの方向から赤外LEDの光を受光したのかを、角度θ2、θ4として導出する。
When the light receiving unit in the
ここで、デジタイザ101内のセンサユニット部201、202の間の距離は予め決まった値であり、その距離は既知の値である。また、デジタイザ101、102内のセンサユニット部(201と202、203と204)の相互の位置関係は決まっている。このように、センサユニット部201、202の間の距離は既知である。また、センサユニット部201、202を相互に結ぶ直線と、センサユニット部201、202およびセンサユニット部203を相互に結ぶ直線とがなす角度θ1、θ2が測定で判明する。したがって、主制御部303は、この角度θ1、θ2から、三角測量の原理よりセンサユニット部203の位置を導出する。同様に、主制御部303は、センサユニット部201、202を相互に結ぶ直線と、センサユニット部201、202およびセンサユニット部204とを相互に結ぶ直線とがなす角度θ3、θ4から、センサユニット部204の位置を導出する。主制御部303は、以上のようにして、デジタイザ101、102の各センサユニット部201、202、203、204の位置を導出する(ステップS706)。
Here, the distance between the
前述したように、図1に示した再帰反射材110、111、112、113と、再帰反射材110、111、112、113に対応するセンサユニット部201、202、203、204内の受光部は、XY平面上では同一の座標に位置するものとする。すなわち、プロジェクタ104からの画像の投影方向に沿って投影面100を見ると、再帰反射材110、111、112、113と、センサユニット部201、202、203、204内の受光部の位置は重なる。したがって、デジタイザ101は、各センサユニット部201、202、203、204の位置から、再帰反射材110、111、112、113の座標を認識することができる。
As described above, the light receiving portions in the
そして、前述したように、主制御部303は、それぞれのセンサユニット部201、202が、どの方向から光が戻ってこなかったのかを、センサユニット部201、202内の受光部に蓄積された光を元に導出する。主制御部303は、センサユニット部201、202のそれぞれにおいて検出した光の方向(角度)を用いて三角測量の原理により、点106〜109で囲まれた画面のうち、ユーザによって指示された位置を導出する(ステップS707)。
Then, as described above, the main control unit 303 determines which direction the light has not returned from the
図8は、プロジェクタ104から投影した画像が投影面100に映し出されている様子の一例の概略を3次元で示す図である。
図8において、図1に示した4つの点106、107、108、109を線で結んでできる平面の横軸をx軸、縦軸をy軸とする。加えて、プロジェクタ104は投影面100に対して垂直方向に光を投影しており、この方向をz軸方向とする。図8において、x、y、z軸の原点0は、プロジェクタ104から投影面100に対して垂直に光を投影した場合の光の軸(光軸)と投影面100との交点とする。また、図8において、プロジェクタ104から投影される光の軸(光軸)は、地面に対して水平であるものとする。
FIG. 8 is a diagram showing an outline of an example of a state in which an image projected from the
In FIG. 8, the horizontal axis of the plane formed by connecting the four
図9は、デジタイザ101、102のx−y平面における位置の概略の一例を示す図である。図9では、図6に示したように、デジタイザ101の長手方向が地面に対して垂直になるようにデジタイザ101が設置され、デジタイザ102の長手方向が地面に対して垂直にならないようにデジタイザ102が設置されている場合を例に挙げて示す。図10は、プロジェクタ104がデジタイザ101、102内の再帰反射材110、111、112、113の位置を検出する方法の一例を説明するフローチャートである。
FIG. 9 is a diagram illustrating an example of a schematic position of the
プロジェクタ104の図示しない電源スイッチがオンされる、または、プロジェクタ104の図示しないキャリブレーションモード用ボタンが押下されると、図10のフローチャートが開始する。
When a power switch (not shown) of the
プロジェクタ104の主制御部508は、プロジェクタ104から光を投光させ、当該光の再帰反射材110、111、112、113からの反射光に基づいて再帰反射材110、111、112、113の位置を導出する(ステップS1001)。この際に投光される光は、指向性のある光である。尚、この光は、本来、プロジェクタ104が画像を投光する際の光ではなく、再帰反射材112、110、111、113の位置を検出するための専用の光である。
The
プロジェクタ104の主制御部508は、x−y平面でx軸およびy軸により分けられる4つの領域(図9のI、II、III、IVで示す領域)にある再帰反射材112、110、111、113をそれぞれ順に検出する。プロジェクタ104の主制御部508は、プロジェクタ104から投光される光の角度をそれぞれx軸方向、y軸方向に走査する。このような走査を行うと、各領域(図9のI、II、III、IVで示す領域)において、走査した光の反射光が受光部507で受光される場所がある。プロジェクタ104の主制御部508は、受光部507で光が受光した際の走査位置(x軸、y軸の値)から、再帰反射材112、110、111、113の位置を、原点0からの相対的な座標値として導出する。
The
次に、プロジェクタ104の主制御部508は、プロジェクタ104から画像を投影面100に投影した際の画面の大きさ・位置を、再帰反射材110、111、112、113の座標値に基づいて導出する。本実施形態では、画面の大きさ・位置は、再帰反射材110、111、112、113の座標値を頂点とする四角形に対して、予め決められた縮小倍率で縮小したものとする。そして、プロジェクタ104の主制御部508は、導出した画面の四角形の頂点の座標に画像の四隅が投影されるように、投影する画像の四隅の位置を導出し、四隅が導出した位置になるように、画像を投影する(ステップS1002)。そして、図10のフローチャートによる処理を終了する。
Next, the
尚、前述したように、ステップ1001において、プロジェクタ104から再帰反射材110、111、112、113に光を当て、その光の反射光に基づいて、デジタイザ101、102(再帰反射材110、111、112、113)の位置を検出する。この際にプロジェクタ104から投光する光は、本来、プロジェクタ104が画像を投光する際の光を用いてもよい。
As described above, in step 1001, the
このようにする場合には、例えば、以下のようにしてもよい。まず、プロジェクタ104の主制御部508は、原点0を中心とする長方形の領域に光が照射されるようにプロジェクタ104から投影面100に対して光を照射させ、長方形の大きさを徐々に大きくさせる。そして、プロジェクタ104の主制御部508は、4つの領域(図9のI、II、III、IVで示す領域)毎に、最初に受光部507で光を受光したときの長方形の頂点の座標値を導出する。光が再帰反射材110、111、112、113に当たる点は、長方形の原点0と対角の位置になる。長方形をx軸方向、y軸方向でそれぞれ拡大した倍率から、この対角の位置を導出することができ、この対角の位置から、長方形の頂点の座標値を導出することができる。このようにした場合、当該頂点の座標値が、再帰反射材110、111、112、113の位置になる。
In this case, for example, the following may be performed. First, the
ここで、再帰反射材110、111、112、113の大きさは、それぞれ、デジタイザ101、102の位置を検出するための一点でよいから非常に小さい。デジタイザ101、102が地面に対してどれだけの角度がついているのかを知るためには、その傾き、つまり、デジタイザ101、102のそれぞれについて、長手方向の2点の位置が分かればよい。そのため、その再帰反射材110、111、112、113を検出するための撮像素子は、デジタイザ101上の2点とデジタイザ102上の2点の計4点を検出できるものであればよいので、小さくて済む。
Here, the size of the
以下に、図10のステップS1002の処理の具体例を説明する。
図11は、プロジェクタ104から投影する画像の領域と、再帰反射材110、111、112、113の4点を結んでなる四角形との関係の一例を説明する図である。図11では、図8で示した位置関係でデジタイザ101、102とプロジェクタ104が配置されている場合を例に挙げて示す。
Hereinafter, a specific example of the process in step S1002 of FIG. 10 will be described.
FIG. 11 is a diagram illustrating an example of a relationship between an image region projected from the
図11において、点P、Q、R、Sは、図10のステップS1001においてプロジェクタ104の主制御部508で導出された再帰反射材110、111、112、113の位置である。プロジェクタ104が画像を投影する際、この4点を画像の四隅とすると、デジタイザ101、102上に画像が投影されてしまう。したがって、プロジェクタ104から投影される画像は、この四角形PQRSよりも小さい画像でなければならない。ここで、プロジェクタ104から投影される画像の大きさを、再帰反射材110、111、112、113の4つを頂点とした四角形PQRSのαパーセント(α<100)と予め定義しておく。また、投影する画像の形と、再帰反射材110、111、112、113の4つを頂点とした四角形PQRSの形は同じものとする。
In FIG. 11, points P, Q, R, and S are the positions of the
図11では、プロジェクタ104から投影される画像の領域は、点p、q、r、sを頂点とする四角形の領域である。したがって、プロジェクタ104から投影される画像の領域は、四角形PQRSをαパーセント縮小した四角形pqrsである。当然、四角形PQRSと四角形pqrsは相似形である。前述したように、点P、Q、R、Sの4点の座標は、図10のステップS1001において導出されるので、既知である。したがって、ステップS1002で説明したように、プロジェクタ104は、点p、q、r、sの4点の座標をこの点P、Q、R、Sから導出することにより、四角形pqrsの画像を投影することができる。
In FIG. 11, the area of the image projected from the
図12は、プロジェクタ104から投影される画像の四隅の点p、q、r、sの座標を求める方法の一例を説明する図である。
前述したように、点P、Q、R、Sの4点は、プロジェクタ104がデジタイザ101、102に対して投光することにより導出した既知の値である。ここで、点P、Q、R、Sの座標をそれぞれ(Xp、Yp)、(Xq、Yq)、(Xr、Yr)、(Xs、Ys)とする。また、四角形PQRSの対角線の交点を点Tとし、点Tの座標を(Xt、Yt)とする。四角形PQRSの各対角線である直線PR、QSの式が既知であるから、この点Tの座標(Xt、Yt)も導出することができるので、既知の値となる。
FIG. 12 is a diagram for explaining an example of a method for obtaining the coordinates of the four corner points p, q, r, and s of the image projected from the
As described above, the four points P, Q, R, and S are known values derived by the
前述したように、四角形pqrsは、四角形PQRSをαパーセント縮小した図形である。ここでは、点p、q、r、sのうち、点sの座標を求める場合を例に挙げて説明する。点sは、線分TSにおいて点Tからαパーセントのところにある点であるから、線分TSを点Tからα:(100−α)に分けた点であるといえる。 As described above, the square pqrs is a figure obtained by reducing the square PQRS by α percent. Here, the case of obtaining the coordinates of the point s among the points p, q, r, and s will be described as an example. Since the point s is a point that is α percent from the point T in the line segment TS, it can be said that the line segment TS is divided from the point T to α: (100−α).
ここで、線分TSをx軸に投影したときのx軸上の投影点を以下のように表記する。すなわち、点Tのx軸への投影点をTx、点Sのx軸への投影点をSx、点sのx軸への投影点をsxと表記する。点T、Txを相互に結ぶ線分TTx、点s、sxを相互に結ぶ線分ssx、点S、Sxを相互に結ぶ線分SSxは、相互に平行である。したがって、点T、Tx、Sx、Sを頂点とする四角形TTxSxSは台形となる。 Here, the projection point on the x-axis when the line segment TS is projected on the x-axis is expressed as follows. That is, the projection point of the point T on the x-axis is denoted as Tx, the projection point of the point S on the x-axis is denoted as Sx, and the projection point of the point s on the x-axis is denoted as sx. The line segment TTx connecting the points T and Tx, the line segment ssx connecting the points s and sx, and the line segment SSx connecting the points S and Sx are parallel to each other. Therefore, the quadrangle TTxSxS having the vertices at the points T, Tx, Sx, and S is a trapezoid.
同様に、線分TSをy軸に投影したときのy軸上の投影点を以下のように表記する。すなわち、点Tのy軸への投影点をTy、点Sのy軸への投影点をSy、点sのy軸への投影点をsyと表記する。この場合、点T、Ty、Sy、Sを頂点とする四角形TTySySも台形となる。
これらの関係により、以下の(1)式、(2)式が成り立つ。したがって、ステップS1002においてプロジェクタ104の主制御部508は、以下の(1)式、(2)式の計算を行うことにより、点sのx座標sxとy座標sy、すなわち点sの座標(sx,sy)を導出することができる。
sx=Xt+α(Xs−Xt)/100 ・・・(1)
sy=Yt+α(Ys−Yt)/100 ・・・(2)
同様に点p、q、rも導出することができるので、プロジェクタ104から投影される画像の四隅の位置を求めることができる。
Similarly, the projection point on the y-axis when the line segment TS is projected on the y-axis is expressed as follows. That is, a projection point of the point T on the y-axis is denoted as Ty, a projection point of the point S on the y-axis is denoted as Sy, and a projection point of the point s on the y-axis is denoted as sy. In this case, the quadrangle TTySyS having the vertices at the points T, Ty, Sy, and S is also a trapezoid.
From these relationships, the following formulas (1) and (2) are established. Accordingly, in step S1002, the
sx = Xt + α (Xs−Xt) / 100 (1)
sy = Yt + α (Ys−Yt) / 100 (2)
Similarly, since the points p, q, and r can be derived, the positions of the four corners of the image projected from the
図13は、図6において、デジタイザ101がデジタイザ102から投光される光を受光することによって各センサユニット部201、202、203、204(再帰反射材110、111、112、113)の位置を求めたときの各点の座標を示す図である。
図13において、原点は点P(再帰反射材110、センサユニット部201の位置)とする。また、地面と平行な方向をX軸方向、垂直な方向をY軸方向とする。図13に示す点P、Q、R、Sを頂点とする四角形PQRSは、図12に示した点P、Q、R、Sを頂点とする四角形と同じである。
FIG. 13 shows the positions of the
In FIG. 13, the origin is a point P (the position of the
図13に示す点p、q、r、sを頂点とする四角形は、図12で示した四角形pqrsと同じであり、四角形PQRSをαパーセントに縮小した場合の四角形pqrsである。四角形pqrsの頂点(点p、q、r、s)を導出する方法は、図12を参照しながら説明した通りである。ただし、ここでは、センサユニット部201、202、203、204の位置を点P、Q、R、Sの位置とする。前述したように、再帰反射材110、111、112、113は、それぞれ、センサユニット部201、202、203、204の赤外LEDの真上にある。したがって、x−y平面におけるセンサユニット部201、202、203、204の位置と、再帰反射材110、111、112、113の位置は同じである。よって、デジタイザ101の主制御部303は、再帰反射材110、111、112、113の位置(点P、Q、R、S)を導出した後に、プロジェクタ104から投光される画像の四隅を四角形pqrsと想定できる。
A square having apexes p, q, r, and s shown in FIG. 13 is the same as the square pqrs shown in FIG. 12, and is a square pqrs obtained by reducing the square PQRS to α percent. The method of deriving the vertices (points p, q, r, s) of the quadrangle pqrs is as described with reference to FIG. However, here, the positions of the
そして、デジタイザ101の主制御部303は、図7のステップS707で導出した位置(ユーザによって指示された位置)を、プロジェクタ104から投影された画像の座標に応じて調整する。そして、デジタイザ101の主制御部303は、当該調整した位置を、ユーザによって指示された位置として決定して出力することができる。よって、デジタイザ101、102の入力座標とプロジェクタ104から投光される画像の座標とを一致させることができる。
Then, the main control unit 303 of the
以上のように本実施形態では、プロジェクタ104は、再帰反射材110、111、112、113からの光に基づいて、再帰反射材110、111、112、113の位置を導出する。そして、プロジェクタ104は、当該導出した位置を頂点とする四角形PQRSをα[%]縮小した四角形pqrsを、投影する画像の領域とする。デジタイザ101は、再帰反射材110、111、112、113の真下にあるセンサユニット部201、202、203、204の赤外LEDからの光に基づいて、センサユニット部201、202、203、204の位置を導出する。これにより、デジタイザ101は、再帰反射材110、111、112、113の位置が得られる。そして、デジタイザ101は、導出した位置を頂点とする四角形PQRSをα[%]縮小した四角形pqrsが、プロジェクタ104から投影される画像の領域であると認識する。
As described above, in the present embodiment, the
したがって、ユーザの作業は、例えば、デジタイザ101、102をおおよそ平行に投影面100に設置することと、プロジェクタ104から画像を投影する指示を行うことになる。このような作業を行うだけで、プロジェクタ104から投影される画像の座標と、デジタイザ101、102で検出される座標とのずれを補正することができる。また、解像度が高い撮像素子を用いることも、撮影画像に対する画像認識処理のために余分なメモリを用いることも不要になる。したがって、デジタイザ101、102の入力座標とプロジェクタ104から投影される座標を容易に且つ確実に一致させることができる。
Therefore, for example, the user's work is to install the
本実施形態では、図6において、説明を分かりやすくするために、デジタイザ102を斜めに設置したが、通常、ユーザは、目分量でデジタイザ101、102を設置する。この場合、デジタイザ101、102は、おおよそ相互に平行に近い状態になるように設置される。そのため、再帰反射材110、111、112、113の位置(点106、107、108、109)を頂点とした四角形もおおよそ長方形になる。この場合、プロジェクタ104から投影される画像は、この長方形を縮小した相似の長方形となるため、台形歪みの少ない画像になる。
In this embodiment, in order to make the explanation easy to understand in FIG. 6, the
また、本実施形態では、デジタイザ101、102およびプロジェクタ104とも、再帰反射材110、111、112、113の位置を頂点とする四角形を縮小した画像を、投影される画像とし、その画像における位置を入力座標、投影する画像の座標とした。しかしながら、必ずしもこのようにする必要はない。
In the present embodiment, the
例えば、仮に、図6に示したようにしてデジタイザ101、102が設置される場合、プロジェクタ104から投影される画像の領域は、図11に示すように四角形pqrsの領域となり、台形になる。したがって、プロジェクタ104から投影される画像は歪むことになる。したがって、プロジェクタ104の主制御部508は、この歪みを補正するために、例えば、以下のようにすることができる。
For example, if the
まず、主制御部508は、再帰反射材110、111、112、113の位置(点P、Q、R、S)のうちの1つの位置(例えば点P)を選択する。次に、プロジェクタ104の主制御部508は、当該選択した位置を頂点とする長方形または正方形であって、点P、Q、R、Sを頂点とする四角形PQRSの内部に含まれる長方形または正方形を導出する。例えば、プロジェクタ104の主制御部508は、点P、Q、R、Sを頂点とする四角形PQRSの内部に含まれる長方形または正方形のうち、最大の大きさとなる長方形または正方形を導出する。そして、プロジェクタ104の主制御部508は、当該導出した長方形または正方形の頂点の位置を、前述した点p、q、r、sの代わりに用いて、プロジェクタ104から画像を投影する。
First, the
前述したように、デジタイザ101の主制御部303も、再帰反射材110、111、112、113の位置(点P、Q、R、S)を導出することができる。また、デジタイザ101の主制御部303は、点P、Q、R、Sを頂点とする四角形PQRSの内部に含まれる長方形または正方形のうち、最大の大きさとなる長方形または正方形が、プロジェクタ104から投影される画像の領域であることを予め記憶しておく。このようにすることにより、デジタイザ101の主制御部303も、プロジェクタ104から投影される画像の領域を導出することができる。
以上のようにすれば、ユーザが、相互に平行になるようにデジタイザ101、102を設置しなくても、プロジェクタ104から投影される画像が歪むことを抑制することができる。
As described above, the main control unit 303 of the
By doing so, it is possible to prevent the image projected from the
また、本実施形態では、デジタイザ101、102が赤外遮光方式(赤外線が遮光された領域に基づいて指示された位置を検出する方式)である場合を例に挙げて説明した。しかしながら、デジタイザ101、102は、この方式以外のものでもよく、例えば静電容量方式のものでもよい。
Further, in the present embodiment, the case where the
また、本実施形態では、プロジェクタ104が投光し、デジタイザ101、102の再帰反射材110、111、112、113からの反射光を受光することで、プロジェクタ104がデジタイザ101、101の設置位置を検出する場合を例に挙げて説明した。しかしながら、必ずしもこのようにする必要はない。例えば、デジタイザ101、102側に再帰反射材の代わりに自発光素子がある場合、その自発光素子からの光をプロジェクタ104側で検出するようにしてもよい。さらには、赤外遮光方式で位置を検出する際に発光する赤外光をプロジェクタ104側からも見えるように配置して、その自発光素子からの光を元にプロジェクタ104がデジタイザ101、102の位置を検出してもよい。例えば、デジタイザ101の面のうちプロジェクタ104と対向する位置にある面(プロジェクタ104から見える面)に配置した再帰反射材110、111の箇所の筺体部分に穴をあけ、赤外LEDからの発光が、プロジェクタ104から見えるようにする。
In the present embodiment, the
また、本実施形態では、再帰反射材110、111、112、113の位置と、プロジェクタ104から投影される画像の領域との関係(例えば、前述したα)を、プロジェクタ104とデジタイザ101との双方に予め記憶する場合を例に挙げて説明した。しかしながら、必ずしもこのようにする必要はない。例えば、プロジェクタ104が、プロジェクタ104から投影される画像の領域を導出し、導出した領域の情報をデジタイザ101に送信してもよい。このようにした場合には、デジタイザ101は、プロジェクタ104からの情報を取得して、プロジェクタ104から投影される画像の領域を特定することができる。すなわち、このようにした場合には、デジタイザ101は、前述したようにしてセンサユニット部201、202、203、204の位置を導出してプロジェクタ104から投影される画像の領域を特定する必要はない。
In this embodiment, the relationship between the position of the
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
(Other examples)
The present invention is also realized by executing the following processing. That is, first, software (computer program) for realizing the functions of the above embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the computer program.
100:投影面、101・102:デジタイザ、103:ケーブル、104:プロジェクタ 100: Projection plane, 101/102: Digitizer, 103: Cable, 104: Projector
Claims (15)
前記画像に対して指示された位置を検出する座標入力装置であって、前記投影面に配置された座標入力装置の位置を検出する検出手段と、
前記検出手段により検出された位置に基づいて、前記投影面に投影する画像の領域を導出する導出手段と、を有することを特徴とする投影装置。 A projection device that projects an image on a projection surface,
A coordinate input device for detecting a position instructed with respect to the image, and detecting means for detecting a position of the coordinate input device arranged on the projection plane;
A projection apparatus comprising: a derivation unit that derives an area of an image to be projected on the projection plane based on the position detected by the detection unit.
前記検出手段は、前記受光手段により受光された光に基づいて、前記座標入力装置の位置を検出することを特徴とする請求項1に記載の投影装置。 A light receiving means for receiving light emitted from the coordinate input device;
The projection device according to claim 1, wherein the detection unit detects a position of the coordinate input device based on light received by the light receiving unit.
前記受光手段は、前記投光手段により投光された光の、前記座標入力装置に備わる再帰反射材からの反射光を受光することを特徴とする請求項2に記載の投影装置。 It further has a light projecting means for projecting light,
The projection device according to claim 2, wherein the light receiving unit receives reflected light from the retroreflective member provided in the coordinate input device of the light projected by the light projecting unit.
前記検出手段は、前記2つの座標入力装置のそれぞれの位置を検出し、
前記導出手段は、前記検出手段により検出された位置に基づいて、前記2つの座標入力装置の間の領域を、前記投影面に投影する画像の領域として導出することを特徴とする請求項2〜5の何れか1項に記載の投影装置。 The coordinate input device has two coordinate input devices arranged at positions spaced from each other on the projection plane,
The detection means detects the position of each of the two coordinate input devices,
The derivation means derives an area between the two coordinate input devices as an area of an image to be projected on the projection plane based on the position detected by the detection means. The projection device according to any one of 5.
前記導出手段は、前記検出手段により検出された4つの位置を頂点とする四角形を縮小した領域を、前記投影面に投影する画像の領域として導出することを特徴とする請求項6に記載の投影装置。 The light receiving means receives light emitted from two positions in the longitudinal direction of the two coordinate input devices, respectively.
The projection according to claim 6, wherein the deriving unit derives a region obtained by reducing a quadrangle whose vertices are four positions detected by the detecting unit as an image region to be projected onto the projection plane. apparatus.
前記導出手段は、前記検出手段により検出された4つの位置の少なくとも1つの位置を頂点とする長方形または正方形を縮小した長方形または正方形の領域を、前記投影面に投影する画像の領域として導出することを特徴とする請求項6に記載の投影装置。 The light receiving means receives light emitted from two positions in the longitudinal direction of the two coordinate input devices,
The derivation means derives a rectangular or square area obtained by reducing a rectangle or square whose apex is at least one of the four positions detected by the detection means as an area of an image to be projected on the projection plane. The projection apparatus according to claim 6.
前記投影装置から投影される画像の領域を取得する取得手段と、
前記取得手段により取得された領域に基づいて、前記指示された位置の座標を調整する調整手段と、を有することを特徴とする座標入力装置。 A coordinate input device that detects an instructed position with respect to an image projected from a projection device onto a projection plane,
Obtaining means for obtaining a region of an image projected from the projection device;
A coordinate input device comprising: an adjusting unit that adjusts the coordinates of the designated position based on the area acquired by the acquiring unit.
前記取得手段は、前記検出手段により取得された位置に基づいて、前記投影装置から投影される画像の領域を導出することを特徴とする請求項9に記載の座標入力装置。 Further comprising detection means for detecting a position of the coordinate input device arranged on the projection plane;
The coordinate input device according to claim 9, wherein the acquisition unit derives a region of an image projected from the projection device based on the position acquired by the detection unit.
前記検出手段は、前記発光手段により発光された光に基づいて、前記投影面に設置された前記座標入力装置の位置を検出することを特徴とする請求項10に記載の座標入力装置。 A light emitting means;
The coordinate input device according to claim 10, wherein the detection unit detects a position of the coordinate input device installed on the projection plane based on light emitted by the light emitting unit.
請求項9〜11の何れか1項に記載の座標入力装置と、を有することを特徴とする画像投影システム。 A projection device according to any one of claims 1 to 8,
An image projection system comprising: the coordinate input device according to claim 9.
前記画像に対して指示された位置を検出する座標入力装置の位置を検出する検出工程と、
前記検出工程により検出された位置に基づいて、前記投影面に投影する画像の領域を導出する導出工程と、を有することを特徴とする処理方法。 A processing method in a projection apparatus that projects an image on a projection surface,
A detection step of detecting a position of a coordinate input device that detects a position indicated with respect to the image;
And a deriving step of deriving a region of the image to be projected on the projection plane based on the position detected by the detecting step.
前記投影装置から投影される画像の領域を取得する取得工程と、
前記取得工程により取得された領域に基づいて、前記指示された位置の座標を調整する調整工程と、を有することを特徴とする処理方法。 A processing method in a coordinate input device for detecting an instructed position with respect to an image projected on a projection plane from a projection device,
Obtaining an area of an image projected from the projection device;
An adjustment step of adjusting the coordinates of the instructed position based on the region acquired in the acquisition step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015022387A JP2016146047A (en) | 2015-02-06 | 2015-02-06 | Projector, coordinate input device and processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015022387A JP2016146047A (en) | 2015-02-06 | 2015-02-06 | Projector, coordinate input device and processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016146047A true JP2016146047A (en) | 2016-08-12 |
Family
ID=56685594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015022387A Pending JP2016146047A (en) | 2015-02-06 | 2015-02-06 | Projector, coordinate input device and processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016146047A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019168841A (en) * | 2018-03-22 | 2019-10-03 | 富士通株式会社 | Information processing apparatus, information processing method, and information processing program |
-
2015
- 2015-02-06 JP JP2015022387A patent/JP2016146047A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019168841A (en) * | 2018-03-22 | 2019-10-03 | 富士通株式会社 | Information processing apparatus, information processing method, and information processing program |
JP7020225B2 (en) | 2018-03-22 | 2022-02-16 | 富士通株式会社 | Information processing equipment, information processing methods and information processing programs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8294693B2 (en) | Portable input device, method for calibration thereof, and computer readable recording medium storing program for calibration | |
JP6075122B2 (en) | System, image projection apparatus, information processing apparatus, information processing method, and program | |
JP6111706B2 (en) | Position detection apparatus, adjustment method, and adjustment program | |
JP2008165800A (en) | Cursor control method and device | |
US8896688B2 (en) | Determining position in a projection capture system | |
US9910507B2 (en) | Image display apparatus and pointing method for same | |
CN104853128A (en) | Projection system and projection method | |
JP2019215811A (en) | Projection system, image processing apparatus, and projection method | |
WO2018154634A1 (en) | Projection display device, method for controlling projection display device, and program | |
TWI498792B (en) | Optical touch system and touch and display system | |
CN105700736A (en) | Input operation detection device, projection apparatus, interactive whiteboard and digital signage device | |
JP2016184362A (en) | Input device, input operation detection method, and input operation detection computer program | |
US11073949B2 (en) | Display method, display device, and interactive projector configured to receive an operation to an operation surface by a hand of a user | |
US20150301690A1 (en) | Input-operation detection device, image display apparatus, projector apparatus and projector system | |
JP2020178248A (en) | Projection control device, projection control method, projection system, program, and storage medium | |
CN109644248B (en) | Projection type image display device and method for adjusting projection image | |
US10073614B2 (en) | Information processing device, image projection apparatus, and information processing method | |
JP2015139087A (en) | Projection device | |
JP7287379B2 (en) | DISPLAY METHOD, DETECTION DEVICE, AND PROGRAM | |
JP2016146047A (en) | Projector, coordinate input device and processing method | |
US11228744B2 (en) | Method for controlling projection system, projection system, and control program | |
US9971419B2 (en) | Interactive projector and method of correcting Z-coordinate of the same | |
US20160320897A1 (en) | Interactive display system, image capturing apparatus, interactive display method, and image capturing method | |
US20240073386A1 (en) | Display method, portable information processing apparatus, and non-transitory computer-readable storage medium | |
US20240070828A1 (en) | Image correction method, information processing apparatus, and non-transitory computer-readable storage medium |