JP2012027769A - Interactive white board device, image display device and calibration method - Google Patents

Interactive white board device, image display device and calibration method Download PDF

Info

Publication number
JP2012027769A
JP2012027769A JP2010166946A JP2010166946A JP2012027769A JP 2012027769 A JP2012027769 A JP 2012027769A JP 2010166946 A JP2010166946 A JP 2010166946A JP 2010166946 A JP2010166946 A JP 2010166946A JP 2012027769 A JP2012027769 A JP 2012027769A
Authority
JP
Japan
Prior art keywords
image
calibration
unit
estimated
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010166946A
Other languages
Japanese (ja)
Inventor
Hiroyuki Tanaka
宏幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010166946A priority Critical patent/JP2012027769A/en
Publication of JP2012027769A publication Critical patent/JP2012027769A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an interactive white board device, an image display device and a calibration method with which processing time for calibration can be shortened.SOLUTION: An interactive white board device comprises: an image creation part 211 for creating multiple calibration images each of which includes points whose display position are different; an estimated position calculation part 214 for calculating an estimated position estimated to be indicated according to a point included in the next image which is a calibration image to be displayed next, based on an already detected indication position of each point included in the multiple calibration images; a coordinate position determination part 215 for determining whether or not an indication position of a point included in the next image detected by imaging means is within a predetermined range against the estimated position; and an execution part 216 for executing displaying or not of a calibration image after the next image and calibration images thereafter based on the determination result.

Description

本発明は、インタラクティブホワイトボード装置、画像表示装置、及びキャリブレーション方法に関する。   The present invention relates to an interactive whiteboard device, an image display device, and a calibration method.

従来、大型タッチパネルと、プロジェクターと、パソコンとを備える前面投影型タッチパネルシステムが知られている(例えば、特許文献1参照)。
この特許文献1に記載の前面投影型タッチパネルシステムでは、プロジェクターとパソコンとの位置関係によって生じる大型タッチパネル上でのタッチ位置と、当該タッチ位置に対するパソコンの論理座標上の位置とのずれを補正するキャリブレーション処理が実行される。
Conventionally, a front projection touch panel system including a large touch panel, a projector, and a personal computer has been known (see, for example, Patent Document 1).
In the front-projection touch panel system described in Patent Document 1, calibration that corrects a deviation between a touch position on a large touch panel caused by a positional relationship between a projector and a personal computer and a position on the logical coordinate of the personal computer with respect to the touch position. Is executed.

具体的には、パソコンは、4つのマーカー点が含まれる画像を生成して、プロジェクターに出力し、プロジェクターは、当該画像を大型タッチパネルに投射する。そして、大型タッチパネル上に表示された4つのマーカー点がタッチされると、大型タッチパネルは、タッチされた4つのマーカー点の位置座標を検出して、当該位置座標のデータをパソコンに送信する。さらに、大型タッチパネルに対して任意の点がタッチされると、大型タッチパネルは、任意の点の位置座標をパソコンに送信する。
そして、大型タッチパネルから送信された4つのマーカー点及び任意の点の位置座標に基づいて、パソコンは、前記任意の点に対して、投射用の点を算出し、前記任意の点と投射用の点とを一致させるキャリブレーション処理を行う。
Specifically, the personal computer generates an image including four marker points and outputs the image to a projector, and the projector projects the image on a large touch panel. When the four marker points displayed on the large touch panel are touched, the large touch panel detects the position coordinates of the touched four marker points and transmits the data of the position coordinates to the personal computer. Further, when an arbitrary point is touched on the large touch panel, the large touch panel transmits the position coordinates of the arbitrary point to the personal computer.
Then, based on the four marker points transmitted from the large touch panel and the position coordinates of the arbitrary point, the personal computer calculates a projection point for the arbitrary point, and the arbitrary point and the projection point are calculated. A calibration process for matching points is performed.

特開平10−21007号公報Japanese Patent Laid-Open No. 10-21007

しかしながら、このような特許文献1に記載の前面投影型タッチパネルシステムでは、4つのマーカー点に加えて、任意の1点を必須としてキャリブレーション処理を行なう必要がある。このため、キャリブレーション処理を行う際に、これら5つの点を全て指示(タッチ)する必要があり、キャリブレーション処理に時間を要するという問題がある。   However, in such a front projection touch panel system described in Patent Document 1, it is necessary to perform calibration processing with any one point as an essential element in addition to the four marker points. For this reason, when performing the calibration process, it is necessary to instruct (touch) all five points, and there is a problem that the calibration process takes time.

本発明の目的は、キャリブレーションの処理時間を短縮できるインタラクティブホワイトボード装置、画像表示装置、及びキャリブレーション方法を提供することにある。   An object of the present invention is to provide an interactive whiteboard device, an image display device, and a calibration method that can shorten the calibration processing time.

本発明のインタラクティブホワイトボード装置は、画像を出力する画像出力手段と、前記画像を表示する画像表示手段と、前記画像の表示領域内で指示された指示位置を検出する位置検出手段とを備えるインタラクティブホワイトボード装置であって、前記画像出力手段及び前記画像表示手段のいずれかは、表示位置が異なるポイントがそれぞれ含まれる複数のキャリブレーション画像を生成する画像生成部と、前記位置検出手段により既に検出された前記複数のキャリブレーション画像に含まれる各前記ポイントの指示位置に基づいて、次に表示される前記キャリブレーション画像である次画像に含まれるポイントに応じて指示されると推測される推測位置を算出する推測位置算出部と、前記推測位置に対して、前記位置検出手段により検出された前記次画像に含まれるポイントの指示位置が所定範囲内に位置するか否かを判定する座標位置判定部と、前記座標位置判定部により前記所定範囲内に位置しないと判定されると、前記画像表示手段に、前記次画像の更に次の前記キャリブレーション画像を表示させ、前記座標位置判定部により前記所定範囲内に位置すると判定されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させる制御部とを備えることを特徴とする。   An interactive whiteboard apparatus according to the present invention includes an interactive image processing unit that outputs an image, an image display unit that displays the image, and a position detection unit that detects an indicated position instructed in the display area of the image. In the whiteboard device, any one of the image output unit and the image display unit is already detected by the image generation unit that generates a plurality of calibration images each including points having different display positions, and the position detection unit. Based on the indicated position of each point included in the plurality of calibration images, the estimated position estimated to be specified according to the point included in the next image that is the calibration image to be displayed next An estimated position calculation unit for calculating the estimated position and the estimated position by the position detection means. When the coordinate position determination unit that determines whether or not the indicated position of the point included in the subsequent image is within a predetermined range, and the coordinate position determination unit determines that the point is not within the predetermined range, When the image display means displays the calibration image further next to the next image and the coordinate position determination unit determines that the calibration image is located within the predetermined range, the calibration after the next calibration image is performed. And a control unit for stopping the display of the image.

本発明によれば、表示された複数のポイントが、例えば、赤外光または超音波を出射する指示手段によりそれぞれ指示されると、位置検出手段は、当該赤外光または超音波の出射位置に基づいて、当該各ポイントに応じた指示位置を検出する。そして、推測位置算出部は、位置検出手段により検出された指示位置に基づいて、次に表示されるキャリブレーション画像である次画像に含まれるポイントに応じて指示されると推測される推測位置を算出する。そして、座標位置判定部は、当該推測位置と、位置検出手段により検出された次画像に含まれるポイントの指示位置とが所定範囲内に位置するか否かを判定する。指示位置が推測位置に対して所定範囲内に位置しないと判定すると、次画像の更に次のキャリブレーション画像を表示させ、一方、所定範囲内に位置すると判定すると、次画像の更に次のキャリブレーション画像以降の表示を停止させる。   According to the present invention, when the displayed plurality of points are respectively indicated by, for example, an instruction unit that emits infrared light or ultrasonic waves, the position detection unit is set at the emission position of the infrared light or ultrasonic waves. Based on this, the designated position corresponding to each point is detected. The estimated position calculation unit calculates an estimated position estimated to be instructed according to a point included in the next image that is a calibration image to be displayed next based on the indicated position detected by the position detecting unit. calculate. Then, the coordinate position determination unit determines whether or not the estimated position and the indicated position of the point included in the next image detected by the position detection unit are within a predetermined range. If it is determined that the indicated position is not within the predetermined range with respect to the estimated position, the next calibration image of the next image is displayed. On the other hand, if it is determined to be within the predetermined range, the next calibration of the next image is performed. Stop the display after the image.

これによれば、指示位置と推測位置とが所定範囲内に位置する場合には、当該指示位置に対応するポイントが含まれるキャリブレーション画像までを表示すれば、適切なキャリブレーションを行うことができる。従って、使用者により指示されるポイントの数、すなわち、表示されるキャリブレーション画像の数を少なくすることができ、キャリブレーションの処理時間を短縮できる。
例えば、3点目のポイントが含まれるキャリブレーション画像を表示した際に、3点目のポイントに応じた指示位置と、1点目及び2点目の各指示位置、及び、当該キャリブレーション画像における3点目のポイントの位置に基づいて算出される3点目の推測位置とが所定範囲内にあれば、これら1〜3点目のポイントの指示位置に基づいてキャリブレーションを適切に行うことができる。このため、当該3点目のポイントが含まれるキャリブレーション画像(次画像)の表示までで、画像表示を終了でき、4点目のポイントが含まれるキャリブレーション画像(更に次の画像)を表示しなくて済むので、使用者によるポイントの指示操作数を削減できる。従って、上述した従来の5つの点を用いて処理を行う場合に比べ、キャリブレーションの処理時間を短縮できる。
According to this, when the designated position and the estimated position are within a predetermined range, it is possible to perform appropriate calibration by displaying up to the calibration image including the point corresponding to the designated position. . Therefore, the number of points designated by the user, that is, the number of displayed calibration images can be reduced, and the calibration processing time can be shortened.
For example, when a calibration image including the third point is displayed, the designated position corresponding to the third point, the designated positions of the first point and the second point, and the calibration image If the estimated position of the third point calculated based on the position of the third point is within a predetermined range, the calibration can be appropriately performed based on the designated position of the first to third points. it can. Therefore, the image display can be completed until the display of the calibration image (next image) including the third point, and the calibration image (further next image) including the fourth point is displayed. Since there is no need, the number of point instruction operations by the user can be reduced. Accordingly, the calibration processing time can be shortened as compared with the case where processing is performed using the above-described five conventional points.

本発明では、前記次画像が表示される際に、終了ボタンを表示する終了ボタン表示部を備え、前記制御部は、前記終了ボタンが指示されたことが前記位置検出手段により検出されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させることが好ましい。   In the present invention, when the next image is displayed, an end button display unit that displays an end button is provided, and when the position detecting unit detects that the end button has been instructed, It is preferable that display of the calibration image after the next calibration image is stopped.

本発明によれば、例えば、3点目のポイントが表示される際に、次画像の表示領域内に終了ボタンが表示される。これによれば、使用者は、必要に応じて(例えば、上記推測位置が表示される場合で、3点目のポイントの位置と、当該3点目に対応する推測位置とが所定範囲内にあることが目視される場合等)終了ボタンを押下することで、3点目を含んだ次画像の表示のみで処理を終了させることができ、使用者によるポイントの指示操作数をより削減できる。従って、キャリブレーションの処理時間を一層短縮することができる。   According to the present invention, for example, when the third point is displayed, the end button is displayed in the display area of the next image. According to this, if necessary (for example, when the estimated position is displayed, the position of the third point and the estimated position corresponding to the third point are within a predetermined range. By pressing the end button, the process can be terminated only by displaying the next image including the third point, and the number of point instruction operations by the user can be further reduced. Therefore, the calibration processing time can be further shortened.

本発明では、前記所定範囲を設定する範囲設定部を備えることが好ましい。
ここで、位置検出される指示位置と、算出される推測位置とのずれ量が、使用環境によっては、使用状況に支障が無い場合がある。すなわち、所定範囲として設定される範囲が大きくなっても問題がない場合がある。
このため、本発明では、範囲設定部により、使用環境、または用途に応じて、当該範囲を適宜設定できる。従って、例えば、指示位置と推測位置とのずれ量が大きくなっている場合でも、必要最小限の画像表示のみでキャリブレーションの処理を実行することができるので、使用者によるポイントの指示操作数を削減できる。
In this invention, it is preferable to provide the range setting part which sets the said predetermined range.
Here, depending on the usage environment, the amount of deviation between the indicated position for position detection and the calculated estimated position may not affect the usage status. That is, there may be no problem even if the range set as the predetermined range is increased.
For this reason, in this invention, the said range can be suitably set according to a use environment or a use by the range setting part. Therefore, for example, even when the amount of deviation between the designated position and the estimated position is large, the calibration process can be executed with only the minimum necessary image display. Can be reduced.

本発明の画像表示装置は、画像を表示する画像表示手段と、前記画像の表示領域内で指示された指示位置を検出する位置検出手段とを備える画像表示装置であって、表示位置が異なるポイントがそれぞれ含まれる複数のキャリブレーション画像を生成し、前記画像表示手段に出力する画像生成部と、前記位置検出手段により既に検出された前記複数のキャリブレーション画像に含まれる各前記ポイントの指示位置に基づいて、前記次に表示される前記キャリブレーション画像である次画像に含まれるポイントに応じて指示されると推測される推測位置を算出する推測位置算出部と、前記推測位置に対して、前記位置検出手段により検出された前記次画像に含まれるポイントの指示位置が所定範囲内に位置するか否かを判定する座標位置判定部と、前記座標位置判定部により前記所定範囲内に位置しないと判定されると、前記画像表示手段に、前記次画像の更に次の前記キャリブレーション画像を表示させ、前記座標位置判定部により前記所定範囲内に位置すると判定されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させる制御部とを備えることを特徴とする。   An image display device according to the present invention is an image display device comprising image display means for displaying an image and position detection means for detecting an indicated position designated in the display area of the image, wherein the display positions are different. Generating a plurality of calibration images each of which is included in the image display means and outputting them to the image display means, and at the indicated positions of the points included in the plurality of calibration images already detected by the position detection means Based on an estimated position that is estimated to be instructed according to a point included in the next image that is the calibration image that is displayed next, and for the estimated position, A coordinate position determination unit that determines whether or not the indicated position of the point included in the next image detected by the position detection means is within a predetermined range. When the coordinate position determination unit determines that the position is not within the predetermined range, the image display means displays the next calibration image after the next image, and the coordinate position determination unit causes the predetermined range to be displayed. And a control unit that stops the display of the calibration image after the next calibration image when it is determined that the position is located inside.

本発明の画像表示装置においても、上述したインタラクティブホワイトボード装置に係る発明と同様の効果を奏することができる。   Also in the image display device of the present invention, the same effects as those of the invention related to the interactive whiteboard device described above can be obtained.

本発明では、前記次画像が表示される際に、終了ボタンを表示する終了ボタン表示部を備え、前記制御部は、前記終了ボタンが指示されたことが前記位置検出手段により検出されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させることが好ましい。
本発明においても、上述したインタラクティブホワイトボード装置に係る発明と同様の効果を奏することができる。
In the present invention, when the next image is displayed, an end button display unit that displays an end button is provided, and when the position detecting unit detects that the end button has been instructed, It is preferable that display of the calibration image after the next calibration image is stopped.
Also in the present invention, the same effects as those of the invention related to the interactive whiteboard apparatus described above can be obtained.

本発明では、前記所定範囲を設定する範囲設定部を備えることが好ましい。
本発明においても、上述したインタラクティブホワイトボード装置に係る発明と同様の効果を奏することができる。
In this invention, it is preferable to provide the range setting part which sets the said predetermined range.
Also in the present invention, the same effects as those of the invention related to the interactive whiteboard apparatus described above can be obtained.

本発明のキャリブレーション方法は、上述の画像表示装置によって実行されるキャリブレーション方法であって、表示位置が異なるポイントがそれぞれ含まれる複数のキャリブレーション画像を生成し、前記画像表示手段に出力する画像生成工程と、前記キャリブレーション画像の表示領域内で指示された指示位置を検出する指示位置検出工程と、前記指示位置検出工程により既に検出された前記複数のキャリブレーション画像に含まれる各前記ポイントの指示位置に基づいて、前記次に表示される前記キャリブレーション画像である次画像に含まれるポイントに応じて指示されると推測される推測位置を算出する推測位置算出工程と、前記推測位置に対して、前記指示位置検出工程により検出された前記次画像に含まれるポイントの指示位置が所定範囲内に位置するか否かを判定する座標位置判定工程と、前記座標位置判定工程により前記所定範囲内に位置しないと判定されると、前記画像表示手段に、前記次画像の更に次の前記キャリブレーション画像を表示させ、前記座標位置判定工程により前記所定範囲内に位置すると判定されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させる制御工程とを備えることを特徴とする。
本発明によれば、上述した画像表示装置と同様の効果を奏することができる。
The calibration method of the present invention is a calibration method executed by the above-described image display device, and generates a plurality of calibration images each including points with different display positions, and outputs the images to the image display means. A generation step, an indication position detection step for detecting an indication position indicated in the display area of the calibration image, and each of the points included in the plurality of calibration images already detected by the indication position detection step An estimated position calculating step for calculating an estimated position estimated to be instructed according to a point included in the next image that is the calibration image to be displayed next based on the indicated position; The point indicated position included in the next image detected by the indicated position detecting step A coordinate position determining step for determining whether or not the image is located within a predetermined range, and if it is determined by the coordinate position determining step that the image is not within the predetermined range, A control step of displaying the calibration image and stopping the display of the calibration image after the next calibration image when it is determined by the coordinate position determination step that the position is within the predetermined range. It is characterized by.
According to the present invention, the same effects as those of the image display device described above can be obtained.

本発明の第1実施形態に係るインタラクティブホワイトボード装置を模式的に示す概略構成図。1 is a schematic configuration diagram schematically showing an interactive whiteboard device according to a first embodiment of the present invention. 前記第1実施形態における入力画像、投射画像、及び撮像画像の一例を示す図。The figure which shows an example of the input image in the said 1st Embodiment, a projection image, and a captured image. 前記第1実施形態におけるインタラクティブホワイトボード装置のブロック図。The block diagram of the interactive whiteboard apparatus in the said 1st Embodiment. 前記第1実施形態におけるPCのブロック図。The block diagram of PC in the said 1st Embodiment. 前記第1実施形態におけるPCで生成される入力画像を示す図。The figure which shows the input image produced | generated by PC in the said 1st Embodiment. 前記第1実施形態におけるキャリブレーションを実行する様子を示す図。The figure which shows a mode that the calibration in the said 1st Embodiment is performed. 前記第1実施形態におけるキャリブレーションを実行する様子を示す図。The figure which shows a mode that the calibration in the said 1st Embodiment is performed. 前記第1実施形態におけるキャリブレーション実行処理を示すフローチャート。5 is a flowchart showing calibration execution processing in the first embodiment. 本発明の第2実施形態に係るインタラクティブホワイトボード装置のブロック図。The block diagram of the interactive whiteboard apparatus which concerns on 2nd Embodiment of this invention. 前記第2実施形態におけるインタラクティブホワイトボード装置で表示される終了ボタンを示す図。The figure which shows the end button displayed with the interactive whiteboard apparatus in the said 2nd Embodiment. 前記第2実施形態におけるキャリブレーション実行処理を示すフローチャート。The flowchart which shows the calibration execution process in the said 2nd Embodiment.

[第1実施形態]
以下、本発明に係る第1実施形態を図面に基づいて説明する。
[インタラクティブホワイトボード装置の構成]
図1は、本実施形態におけるインタラクティブホワイトボード装置1を模式的に示す概略構成図である。
本実施形態におけるインタラクティブホワイトボード装置(以下、「IW装置」と略す場合がある)1は、図1に示すように、画像出力手段としてのPC(Personal Computer)2と、PC2から入力される画像情報に基づく入力画像を被投射面4に投射する画像表示手段または画像表示装置としてのプロジェクター3と、電子ペン5(図3参照)と、電子ペン5により指示された指示位置を検出する位置検出手段としての撮像手段32(図3参照)とを備えるものであり、上記各装置を備えたシステムとして構成される。
このIW装置1は、プロジェクター3から投射される投射画像をスクリーンやホワイトボード等の被投射面4に表示し、赤外光を出射する電子ペン5(図3参照)により被投射面4上で指示された位置を検出して、当該電子ペン5の指示位置に応じた線等を投射画像中に描画する。
[First Embodiment]
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a first embodiment according to the invention will be described with reference to the drawings.
[Configuration of interactive whiteboard device]
FIG. 1 is a schematic configuration diagram schematically illustrating an interactive whiteboard device 1 according to the present embodiment.
As shown in FIG. 1, an interactive whiteboard device (hereinafter sometimes abbreviated as “IW device”) 1 according to the present embodiment includes a PC (Personal Computer) 2 as image output means and an image input from the PC 2. Projector 3 as an image display means or an image display device for projecting an input image based on information onto the projection surface 4, an electronic pen 5 (see FIG. 3), and position detection for detecting an indicated position designated by the electronic pen 5 The image pickup means 32 (refer FIG. 3) as a means is provided, and it is comprised as a system provided with said each apparatus.
The IW device 1 displays a projection image projected from the projector 3 on a projection surface 4 such as a screen or a white board, and the electronic pen 5 (see FIG. 3) that emits infrared light on the projection surface 4. The instructed position is detected, and a line or the like corresponding to the instructed position of the electronic pen 5 is drawn in the projection image.

このようなIW装置1では、詳しくは後述するが、プロジェクター3は、被投射面4において画像が投射される領域(投射領域)を含む撮像領域を撮像する撮像手段32を有し、当該プロジェクター3は、当該撮像領域内で電子ペン5により擬似的に筆記した軌跡等を含む被投射面4を撮像した撮像画像を取得する。そして、プロジェクター3は、当該撮像画像を取得して、この撮像画像における赤外光の出射位置の解析を行い、当該出射位置の位置情報を電子ペン5による指示位置の位置情報としてPC2へ送信する。一方、PC2は、プレゼンテーションの資料等の画像に、当該指示位置の軌跡を示す線等を重畳した入力画像を生成し、当該入力画像の画像情報をプロジェクター3に送信する。これにより、被投射面4上で電子ペン5の軌跡を示す線が反映された投射画像が、プロジェクター3により投射される。   In such an IW device 1, as will be described in detail later, the projector 3 includes an imaging unit 32 that captures an imaging area including an area (projection area) on which an image is projected on the projection surface 4. Acquires a picked-up image obtained by picking up an image of the projected surface 4 including a locus or the like that is pseudo-written with the electronic pen 5 in the image pickup region. Then, the projector 3 acquires the captured image, analyzes the emission position of the infrared light in the captured image, and transmits the position information of the emission position to the PC 2 as the position information of the instruction position by the electronic pen 5. . On the other hand, the PC 2 generates an input image in which a line indicating the locus of the designated position is superimposed on an image of a presentation material or the like, and transmits image information of the input image to the projector 3. Thereby, a projection image in which a line indicating the locus of the electronic pen 5 is reflected on the projection surface 4 is projected by the projector 3.

図2は、入力画像Pi、投射画像Po、及び撮像画像Pxの一例を示す図である。具体的に、図2(A)は、PC2で生成されてプロジェクター3に入力される入力画像Piを示す図であり、図2(B)は、被投射面4上に投射され、図1におけるA視点で観察される投射画像Poであり、図2(C)は、被投射面4上に表示され、図1におけるB視点で撮像される投射画像Poの撮像画像Pxである。
また、このようなIW装置1において、上述した処理を実行する前に、キャリブレーションと呼ばれる処理を行う必要がある。このキャリブレーションは、PC2からプロジェクター3に入力された入力画像Pi(図2(A))における座標位置と、被投射面4に投射された投射画像Po(図2(B))を撮像した撮像画像Px(図2(C))において、当該投射画像Poに対して電子ペン5が筆記した軌跡の座標位置(出射位置)とを予め一致させておく処理である。すなわち、このIW装置1は、PC2で生成され、プロジェクター3に入力される入力画像Piにおける座標と、プロジェクター3から被投射面4に投射された投射画像Poにおける座標とを位置合わせするキャリブレーション処理を実行する。
FIG. 2 is a diagram illustrating an example of the input image Pi, the projection image Po, and the captured image Px. Specifically, FIG. 2A is a diagram showing an input image Pi generated by the PC 2 and input to the projector 3, and FIG. 2B is projected on the projection surface 4, and is shown in FIG. FIG. 2C is a captured image Px of the projected image Po that is displayed on the projection surface 4 and captured at the B viewpoint in FIG. 1.
Further, in such an IW device 1, it is necessary to perform a process called calibration before performing the above-described process. This calibration is performed by imaging the coordinate position in the input image Pi (FIG. 2A) input from the PC 2 to the projector 3 and the projection image Po projected on the projection surface 4 (FIG. 2B). In the image Px (FIG. 2C), the coordinate position (exit position) of the locus written by the electronic pen 5 with respect to the projection image Po is previously matched. That is, the IW device 1 performs calibration processing for aligning coordinates in the input image Pi generated by the PC 2 and input to the projector 3 with coordinates in the projected image Po projected from the projector 3 onto the projection surface 4. Execute.

これは、電子ペン5の出射位置と、入力画像Piにおける位置とが一致していない場合に、プロジェクター3により被投射面4上で電子ペン5の軌跡を示す線が反映された画像が投射されると、投射画像Poにおいて、当該軌跡の位置が電子ペン5による指示位置からずれるためである。特に、プロジェクター3により台形歪みが補正された画像が被投射面4に投射される場合には、このようなずれが顕著となるため、キャリブレーション処理は必要となる。
なお、具体的なキャリブレーション処理についての詳細は後述する。
This is because when the emission position of the electronic pen 5 and the position in the input image Pi do not match, the projector 3 projects an image reflecting a line indicating the locus of the electronic pen 5 on the projection surface 4. This is because the position of the trajectory is shifted from the position indicated by the electronic pen 5 in the projection image Po. In particular, when an image whose trapezoidal distortion has been corrected by the projector 3 is projected onto the projection surface 4, such a shift becomes significant, and thus calibration processing is necessary.
Details of the specific calibration process will be described later.

[電子ペンの構成]
電子ペン5は、詳しい図示を省略するが、使用者の手で握られる程度の寸法を有するポインティングデバイスである。この電子ペン5は、制御部51と、赤外光を出射するLED(Light Emitting Diode)52と、当該電子ペン5の先端に当該LED52から出射される赤外光の発光状態を切り替える第1スイッチ53と、略中央に当該LED52から出射される赤外光の発光パターンを切り替える第2スイッチ54とが設けられている。このような電子ペン5は、先端を被投射面4に押圧している間、第1スイッチ53がオン状態となり、LED52が点灯するように構成されている。制御部51は、第1スイッチ53の状態に基づき、LED52の発光状態を制御する。すなわち、第1スイッチ53がオン状態では、第1スイッチ53がオン状態であることを表す所定の発光状態でLED52を発光させる。
また、第2スイッチ54が使用者により入力されると、第2スイッチ54がオン状態となる。制御部51は、第2スイッチ54がオン状態では、第2スイッチ54がオン状態であることを表す所定の発光パターンでLED52を発光させる。
[Configuration of electronic pen]
Although not shown in detail, the electronic pen 5 is a pointing device having a size that can be grasped by a user's hand. The electronic pen 5 includes a control unit 51, an LED (Light Emitting Diode) 52 that emits infrared light, and a first switch that switches a light emission state of the infrared light emitted from the LED 52 to the tip of the electronic pen 5. 53 and a second switch 54 for switching the light emission pattern of the infrared light emitted from the LED 52 is provided substantially at the center. The electronic pen 5 is configured such that the first switch 53 is turned on and the LED 52 is lit while the tip is pressed against the projection surface 4. The control unit 51 controls the light emission state of the LED 52 based on the state of the first switch 53. That is, when the first switch 53 is in the on state, the LED 52 is caused to emit light in a predetermined light emission state indicating that the first switch 53 is in the on state.
When the second switch 54 is input by the user, the second switch 54 is turned on. When the second switch 54 is in an on state, the control unit 51 causes the LED 52 to emit light with a predetermined light emission pattern indicating that the second switch 54 is in an on state.

このため、IW装置1により実現されるインタラクティブ機能の実行時に、投射画像に線等を描画する場合には、使用者は、第1スイッチ53を入力してLED52から赤外光を出射させる。また、ポインティングデバイスとしてクリック操作及びドラッグ操作等の操作を行う場合には、使用者は、第2スイッチ54を入力してLED52から出射される赤外光の発光パターンを切り替える。
なお、第1スイッチ53及び第2スイッチ54がオフ状態の場合、制御部51は、LED52が消灯した状態を維持する。上述した第1スイッチ53及び第2スイッチ54として、圧力センサーやタクトスイッチ等の種々のデバイスを採用することができる。
For this reason, when drawing a line etc. on a projection image at the time of execution of an interactive function realized by IW device 1, a user inputs the 1st switch 53 and makes infrared light emit from LED52. Further, when performing an operation such as a click operation and a drag operation as a pointing device, the user inputs the second switch 54 and switches the emission pattern of infrared light emitted from the LED 52.
Note that when the first switch 53 and the second switch 54 are in the off state, the control unit 51 maintains the state in which the LED 52 is turned off. Various devices such as a pressure sensor and a tact switch can be employed as the first switch 53 and the second switch 54 described above.

[プロジェクターの構成]
図3は、IW装置1を構成するPC2及びプロジェクター3の構成を示すブロック図である。
プロジェクター3は、図3に示すように、外装筐体30(図1参照)内に画像表示手段としての画像投射手段31と、位置検出手段としての撮像手段32と、記憶手段33と、画像受信手段34と、制御手段35とを備える。
画像投射手段31は、PC2から入力される入力画像の画像情報に応じた画像光を形成し、当該画像光を拡大投射して、被投射面4に投射画像を表示させる。この際、図2(A)に示す入力画像PiがPC2から入力された場合には、ポイントM1が含まれる投射画像Poが表示される。
この画像投射手段31は、光源装置311、光変調装置312、及び投射レンズ313を備える。
[Projector configuration]
FIG. 3 is a block diagram showing the configuration of the PC 2 and the projector 3 that constitute the IW device 1.
As shown in FIG. 3, the projector 3 includes an image projection unit 31 as an image display unit, an imaging unit 32 as a position detection unit, a storage unit 33, and an image reception unit in an exterior housing 30 (see FIG. 1). Means 34 and control means 35 are provided.
The image projection unit 31 forms image light corresponding to the image information of the input image input from the PC 2, enlarges and projects the image light, and displays the projection image on the projection surface 4. At this time, when the input image Pi shown in FIG. 2A is input from the PC 2, the projection image Po including the point M1 is displayed.
The image projection unit 31 includes a light source device 311, a light modulation device 312, and a projection lens 313.

光源装置311は、図示を省略するが、高圧水銀ランプ等の光源ランプ及び反射鏡であるリフレクター、或いは、LED等の固体光源を備え、光変調装置312に光束を照射する。
光変調装置312は、図示を省略するが、光源装置311から出射された光束を変調して画像光を形成する液晶パネルと、入力される駆動信号に応じて液晶パネルを駆動するドライバーとを備えて構成されている。なお、光変調装置312は、液晶パネルを備える構成に限定されるものではなく、例えば、マイクロミラーを用いたデバイス等、液晶以外の構成を採用してもよい。
投射レンズ313は、光変調装置312により形成された画像光を被投射面4の投射領域内に拡大投射するものであり、これにより、被投射面4上に投射画像が表示される。
Although not shown, the light source device 311 includes a light source lamp such as a high-pressure mercury lamp and a reflector that is a reflecting mirror, or a solid light source such as an LED, and irradiates the light modulation device 312 with a light beam.
Although not shown, the light modulation device 312 includes a liquid crystal panel that modulates a light beam emitted from the light source device 311 to form image light, and a driver that drives the liquid crystal panel according to an input drive signal. Configured. Note that the light modulation device 312 is not limited to a configuration including a liquid crystal panel, and a configuration other than liquid crystal, such as a device using a micromirror, may be employed.
The projection lens 313 enlarges and projects the image light formed by the light modulation device 312 in the projection area of the projection surface 4, thereby displaying a projection image on the projection surface 4.

撮像手段32は、電子ペン5から投射画像Poに対して出射された赤外光の出射位置を検出可能なカメラ(撮像装置)であり、CCD(Charge Coupled Device)により構成することができる他、CMOS(Complementary Metal Oxide Semiconductor)デバイス等、他の撮像素子を備えたデバイスでも構成することができる。
この撮像手段32は、特に図示を省略したが、外装筐体30の前面側(投射方向の前面側)に設けられ、この撮像手段32の撮像領域は、投射レンズ313による画像の投射領域(表示領域)を含むように設定されている。
The imaging means 32 is a camera (imaging device) that can detect the emission position of infrared light emitted from the electronic pen 5 with respect to the projection image Po, and can be constituted by a CCD (Charge Coupled Device). A device provided with another imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) device can also be configured.
Although not shown, the imaging unit 32 is provided on the front side (front side in the projection direction) of the exterior housing 30, and the imaging area of the imaging unit 32 is an image projection area (display) by the projection lens 313. Area).

具体的に、このような撮像手段32は、台形補正がされ図2(B)に示すような投射画像Poに対して、電子ペン5から出射される赤外光により、例えばポイントM1が指示されると、B視点から図2(C)に示す撮像画像Pxを撮像する。
そして、この撮像手段32は、撮像画像Pxにおける指示されたポイントM1(後述する図6において指示ポイントを×印で図示)の座標位置(指示位置)を検出し、位置検出データをPC2に送信する。
Specifically, in such an imaging unit 32, for example, a point M1 is instructed by infrared light emitted from the electronic pen 5 with respect to a projection image Po as shown in FIG. Then, the captured image Px shown in FIG.
Then, the imaging unit 32 detects the coordinate position (indicated position) of the point M1 (indicated in FIG. 6 which will be described later) by the designated point M1 in the captured image Px, and transmits the position detection data to the PC 2. .

記憶手段33は、制御手段35によりプロジェクター3全体を制御するために必要な各種プログラム及びデータを記憶する。
画像受信手段34は、PC2から受信された画像情報(画像信号及びパケット等を含む)を制御手段35に出力する。このような画像情報として、例えば、後述するPC2の画像生成部211で生成されたポイントMを含むキャリブレーション画像である入力画像Piが含まれる。
The storage means 33 stores various programs and data necessary for the control means 35 to control the entire projector 3.
The image receiving unit 34 outputs image information (including an image signal and a packet) received from the PC 2 to the control unit 35. As such image information, for example, an input image Pi that is a calibration image including a point M generated by an image generation unit 211 of the PC 2 described later is included.

制御手段35は、CPU(Central Processing Unit)及び映像処理プロセッサー等を備え、記憶手段33に記憶されたプログラムを実行して、プロジェクター3全体を制御する。この制御手段35は、前記映像処理プロセッサーにより構成される画像処理部351、フレームメモリー352、及び駆動制御部353を備えている。   The control unit 35 includes a CPU (Central Processing Unit), a video processing processor, and the like, and executes the program stored in the storage unit 33 to control the entire projector 3. The control unit 35 includes an image processing unit 351, a frame memory 352, and a drive control unit 353 configured by the video processing processor.

画像処理部351は、画像受信手段34から入力される画像情報に応じた画像をフレームメモリー352上に展開する。
フレームメモリー352は、光変調装置312により形成される1画面分の画像(フレーム)を複数記憶可能に構成されている。このようなフレームメモリー352には、前述のように、例えば、画像処理部351による入力画像Piが展開される。
駆動制御部353は、フレームメモリー352に書き込まれた入力画像の画像データに基づいて、光変調装置312を駆動するための駆動信号を光変調装置312に出力する。このほか、駆動制御部353は、光源装置311の点消灯及び発光光量を制御する制御信号を出力する。
The image processing unit 351 develops an image corresponding to the image information input from the image receiving unit 34 on the frame memory 352.
The frame memory 352 is configured to be capable of storing a plurality of images (frames) for one screen formed by the light modulation device 312. In such a frame memory 352, for example, the input image Pi by the image processing unit 351 is developed as described above.
The drive control unit 353 outputs a drive signal for driving the light modulation device 312 to the light modulation device 312 based on the image data of the input image written in the frame memory 352. In addition, the drive control unit 353 outputs a control signal for controlling turning on / off of the light source device 311 and the amount of emitted light.

[PCの構成]
図4は、IW装置1を構成するPC2の構成を示すブロック図である。
PC2は、プロジェクター3に投射させる画像を生成し、当該画像に応じた画像情報を送信する。このPC2は、図4に示すように、操作手段20と、制御手段21と、記憶手段22とを備える。
このうち、操作手段20は、キーボードと、マウス等のポインティングデバイスとを備え、当該操作手段20は、これらに対する入力操作に応じた操作信号を、制御手段21に出力する。
[PC configuration]
FIG. 4 is a block diagram showing the configuration of the PC 2 that constitutes the IW device 1.
The PC 2 generates an image to be projected on the projector 3 and transmits image information corresponding to the image. As shown in FIG. 4, the PC 2 includes an operation unit 20, a control unit 21, and a storage unit 22.
Among these, the operation means 20 includes a keyboard and a pointing device such as a mouse, and the operation means 20 outputs an operation signal corresponding to an input operation to these to the control means 21.

記憶手段22は、制御手段21での処理に必要な各種プログラム及びデータを記憶する。このようなプログラムとして、詳しくは後述するが、例えば、制御手段21にて実行され、図2(A)に示すポイントM1を含むキャリブレーション画像である入力画像Piを生成するための画像生成プログラムや、後述する推測位置算出部214に推測ポイントNの座標位置(推測位置)を算出させる処理を実行させるための推測位置算出プログラム等が挙げられる。   The storage unit 22 stores various programs and data necessary for processing by the control unit 21. As such a program, which will be described later in detail, for example, an image generation program for generating an input image Pi that is executed by the control means 21 and is a calibration image including the point M1 shown in FIG. An estimated position calculation program for causing the estimated position calculation unit 214 (to be described later) to calculate a coordinate position (estimated position) of the estimated point N may be used.

また、記憶手段22には、当該データとして、キャリブレーション画像のテンプレートや、当該キャリブレーション画像に含まれるポイントMの設定位置データ等が予め記憶されている。
この他、記憶手段22には、プロジェクター3から入力される位置検出データ(指示されたポイントMの位置検出データ)、後述する推測位置算出部214で算出された推測ポイントNの座標位置データ(推測位置データ)、及び、後述する座標位置判定部215で参照される赤外光の出射位置の座標位置(指示位置)と推測ポイントNの座標位置(推測位置)とのずれ量の上限値等が記憶される。
ここで、ずれ量の上限値は、後述する操作手段20を用いて、適宜、IW装置1の使用状況に応じて所望の値を入力することで、後述する範囲設定部217により設定されるものである。
In addition, the storage unit 22 stores in advance, as the data, a template of a calibration image, set position data of the point M included in the calibration image, and the like.
In addition, the storage means 22 stores position detection data (position detection data of the instructed point M) input from the projector 3 and coordinate position data (estimation) of the estimated point N calculated by the estimated position calculation unit 214 described later. Position data), and the upper limit value of the deviation amount between the coordinate position (instructed position) of the infrared light emission position and the coordinate position (estimated position) of the estimated point N referred to by the coordinate position determining unit 215 described later Remembered.
Here, the upper limit value of the deviation amount is set by the range setting unit 217 described later by appropriately inputting a desired value according to the usage status of the IW device 1 using the operation unit 20 described later. It is.

制御手段21は、例えば、CPU(Central Processing Unit)等を備えて構成され、記憶手段22に記憶された後述するプログラムを実行する。すなわち、制御手段21は、記憶手段22に記憶されたプログラム及びデータを処理することにより、各種機能を実現する。このような制御手段21は、前述のキャリブレーションを実行する際には、当該プログラムを処理することにより、図4に示すように、画像生成部211と、画像送信部212と、位置情報取得部213と、推測位置算出部214と、座標位置判定部215と、制御部としての実行部216と、範囲設定部217とを機能として実現する。   The control unit 21 includes, for example, a CPU (Central Processing Unit) and the like, and executes a later-described program stored in the storage unit 22. In other words, the control unit 21 realizes various functions by processing the program and data stored in the storage unit 22. Such a control means 21 processes the program when executing the above-described calibration, and as shown in FIG. 4, an image generation unit 211, an image transmission unit 212, and a position information acquisition unit. 213, the estimated position calculation part 214, the coordinate position determination part 215, the execution part 216 as a control part, and the range setting part 217 are implement | achieved as a function.

図5は、PC2で生成される入力画像Piの一例を示す図である。
画像生成部211は、操作手段20からキャリブレーション処理を実行する操作がされると、記憶手段22から画像生成プログラム、ポイントM(M1〜M9)の設定位置データ等を読み出して、キャリブレーション画像を生成する。このキャリブレーション画像は、図5に示すように、ポイントM1〜M9のうちの1つが含まれる。これらポイントM1〜M9は、ポイントM1から順にキャリブレーション画像に設定され、本実施形態ではポイントM1〜M9がそれぞれ個別に含まれる最大9つのキャリブレーション画像が生成される。
画像送信部212は、画像生成部211により生成されたキャリブレーション画像を、プロジェクター3に送信する。
位置情報取得部213は、画像送信部212によるキャリブレーション画像の送信後、プロジェクター3から受信される指示位置の位置情報(電子ペン5により指示された位置を示す位置検出データ)を取得する。そして、位置情報取得部213は、当該位置情報を、記憶手段22に記憶させる。
FIG. 5 is a diagram illustrating an example of the input image Pi generated by the PC 2.
When an operation for executing a calibration process is performed from the operation unit 20, the image generation unit 211 reads an image generation program, setting position data of the points M (M1 to M9), and the like from the storage unit 22, and generates a calibration image. Generate. This calibration image includes one of points M1 to M9 as shown in FIG. These points M1 to M9 are set as calibration images in order from the point M1, and in the present embodiment, a maximum of nine calibration images each including the points M1 to M9 are generated.
The image transmission unit 212 transmits the calibration image generated by the image generation unit 211 to the projector 3.
The position information acquisition unit 213 acquires position information (position detection data indicating a position instructed by the electronic pen 5) received from the projector 3 after the calibration image is transmitted by the image transmission unit 212. The position information acquisition unit 213 stores the position information in the storage unit 22.

ここで、図6及び図7は、IW装置1においてキャリブレーションを実行する様子を示す図であり、推測位置算出部214及び座標位置判定部215についての機能を図6及び図7を参照しながら説明する。
図6(A)〜(C)に示すように、PC2の画像生成部211により生成されたポイントM1が含まれるキャリブレーション画像CP1(図6(A)参照)をプロジェクター3の画像投射手段31が投射画像PP1(図6(B)参照)として被投射面4上に表示する。そして、図6(C)のように、使用者によって操作される電子ペン5により表示されたポイントM1が指示されると、撮像手段32は、電子ペン5から出射される赤外光を検出して、投射画像PP1を撮像する(図6(D)参照)。
さらに、図6(E)〜(G)に示すように、図6(A)〜(C)と同様に、PC2の画像生成部211により生成されたポイントM1とは異なる位置にポイントM2が含まれるキャリブレーション画像CP2(図6(E)参照)をプロジェクター3の画像投射手段31が投射画像PP2(図6(F)参照)として被投射面4上に表示する。そして、図6(G)のように、使用者によって操作される電子ペン5により表示されたポイントM2が指示されると、撮像手段32は、電子ペン5から出射される赤外光を検出して、投射画像PP2を撮像する(図6(H)参照)。
Here, FIGS. 6 and 7 are diagrams illustrating how the calibration is performed in the IW device 1, and the functions of the estimated position calculation unit 214 and the coordinate position determination unit 215 are described with reference to FIGS. 6 and 7. explain.
As shown in FIGS. 6A to 6C, the image projection unit 31 of the projector 3 uses the calibration image CP1 (see FIG. 6A) including the point M1 generated by the image generation unit 211 of the PC 2. The projected image PP1 (see FIG. 6B) is displayed on the projection surface 4. Then, as shown in FIG. 6C, when the point M1 displayed by the electronic pen 5 operated by the user is instructed, the imaging unit 32 detects infrared light emitted from the electronic pen 5. Then, the projection image PP1 is captured (see FIG. 6D).
Further, as shown in FIGS. 6E to 6G, similarly to FIGS. 6A to 6C, the point M2 is included at a position different from the point M1 generated by the image generation unit 211 of the PC2. The image projection means 31 of the projector 3 displays the calibration image CP2 (see FIG. 6E) to be displayed on the projection surface 4 as the projection image PP2 (see FIG. 6F). Then, as shown in FIG. 6G, when the point M2 displayed by the electronic pen 5 operated by the user is instructed, the imaging unit 32 detects the infrared light emitted from the electronic pen 5. Then, the projection image PP2 is captured (see FIG. 6H).

推測位置算出部214は、撮像手段32から送信された投射画像PP1,PP2の撮像画像SP1,SP2に含まれる赤外光の出射位置を示す位置検出データをポイントM1,M2の指示位置の位置検出データとして記憶手段22から読み出す。そして、推測位置算出部214は、これらの位置検出データ、及びキャリブレーション画像CP1,CP2におけるポイントM1,M2の座標位置に基づいて、次に表示されるポイントM3の推測される指示位置(推測位置)を推測して、推測ポイントN(図7(K)中に破線で図示)の座標位置を算出する。   The estimated position calculation unit 214 detects position detection data indicating the emission position of the infrared light included in the captured images SP1 and SP2 of the projection images PP1 and PP2 transmitted from the imaging unit 32 at the positions indicated by the points M1 and M2. Data is read from the storage means 22 as data. Then, the estimated position calculation unit 214, based on the position detection data and the coordinate positions of the points M1 and M2 in the calibration images CP1 and CP2, the estimated position (estimated position) of the point M3 to be displayed next. ) Is calculated, and the coordinate position of the estimation point N (illustrated by a broken line in FIG. 7K) is calculated.

図7(I),(L),(M)に示すように、PC2の画像生成部211により生成されたポイントM1,M2を結ぶ直線上にないポイントM3が含まれるキャリブレーション画像CP3(図7(I)参照)をプロジェクター3の画像投射手段31が投射画像PP3(図7(L)参照)として被投射面4上に表示する。そして、図7(M)のように、使用者によって操作される電子ペン5により表示されたポイントM3が指示されると、撮像手段32は、電子ペン5から出射される赤外光を検出して、投射画像PP3を撮像する(図7(N)参照)。
座標位置判定部215は、図7(O)に示すように、推測位置算出部214で算出した推測ポイントNの座標位置(破線で図示)と、ポイントM3に応じた指示位置の位置検出データに対応する位置(×印で図示)とを比較する。そして、座標位置判定部215は、記憶手段22に記憶されたずれ量の上限値を参照して、当該ずれ量の上限値より大きいか否かの判定結果を画像生成部211へ入力する。
As shown in FIGS. 7 (I), (L), and (M), a calibration image CP3 including a point M3 that is not on a straight line connecting the points M1 and M2 generated by the image generation unit 211 of the PC 2 (FIG. 7). (I) is displayed on the projection surface 4 by the image projection means 31 of the projector 3 as the projection image PP3 (see FIG. 7L). Then, as shown in FIG. 7M, when the point M3 displayed by the electronic pen 5 operated by the user is instructed, the imaging unit 32 detects the infrared light emitted from the electronic pen 5. Then, the projection image PP3 is captured (see FIG. 7N).
As shown in FIG. 7 (O), the coordinate position determination unit 215 uses the coordinate position of the estimated point N calculated by the estimated position calculation unit 214 (shown by a broken line) and the position detection data of the designated position corresponding to the point M3. The corresponding position (illustrated by a cross) is compared. Then, the coordinate position determination unit 215 refers to the upper limit value of the shift amount stored in the storage unit 22 and inputs a determination result as to whether or not it is larger than the upper limit value of the shift amount to the image generation unit 211.

実行部216は、座標位置判定部215による比較結果(判定結果)に基づいて、以降のキャリブレーション画像の表示が不要であると判定された場合に、プロジェクター3による前記以降のキャリブレーション画像の表示を停止させる。そして、この実行部216は、既に検出された各指示位置の位置検出データ、及び、ポイントMの設定位置データに基づいて、前述のキャリブレーションを行う。例えば、実行部216は、各位置検出データに応じた座標を、各設定位置データに応じた座標に変換する係数を算出する。一方、実行部216は、座標位置判定部215による比較結果(判定結果)に基づいて、以降のキャリブレーション画像の表示が必要であると判定された場合に、プロジェクター3による前記以降のキャリブレーション画像の表示を続行させる。
範囲設定部217は、操作手段20により入力された数値に基づいて、ずれ量の閾値を設定し、当該閾値を記憶手段22に記憶させる。
The execution unit 216 displays the subsequent calibration image by the projector 3 when it is determined that the subsequent calibration image display is unnecessary based on the comparison result (determination result) by the coordinate position determination unit 215. Stop. The execution unit 216 performs the above-described calibration based on the position detection data of each indicated position that has already been detected and the set position data of the point M. For example, the execution unit 216 calculates a coefficient for converting coordinates corresponding to each position detection data into coordinates corresponding to each set position data. On the other hand, when the execution unit 216 determines that the subsequent calibration image needs to be displayed based on the comparison result (determination result) by the coordinate position determination unit 215, the subsequent calibration image by the projector 3 is displayed. Continue to display.
The range setting unit 217 sets a threshold value of the deviation amount based on the numerical value input by the operation unit 20 and stores the threshold value in the storage unit 22.

[IW装置のキャリブレーション実行処理]
次に、IW装置1のキャリブレーション実行処理について、図8に示すフローチャートを参照して説明する。
本実施形態のIW装置1では、前述のように、インタラクティブ機能を実行する前に、PC2は、キャリブレーション実行処理を行う必要がある。このキャリブレーション実行処理は、使用者による操作手段20に対する所定の操作が行われた場合に、PC2の制御手段21が、記憶手段22に記憶されたキャリブレーション実行プログラムを読み出して処理し、IW装置1の各構成を用いて行われる。
このキャリブレーション実行処理では、図8に示すように、まず、画像生成部211が、ポイントM1が含まれるキャリブレーション画像CP1(図6(A)参照)を生成し、画像送信部212が当該画像CP1を送信する(ステップS1:画像生成工程)。
[IW device calibration execution processing]
Next, the calibration execution processing of the IW device 1 will be described with reference to the flowchart shown in FIG.
In the IW device 1 of the present embodiment, as described above, the PC 2 needs to perform calibration execution processing before executing the interactive function. In the calibration execution process, when a predetermined operation is performed on the operation unit 20 by the user, the control unit 21 of the PC 2 reads and processes the calibration execution program stored in the storage unit 22 to process the IW device. This is performed by using each configuration of 1.
In this calibration execution process, as shown in FIG. 8, first, the image generation unit 211 generates a calibration image CP1 (see FIG. 6A) including the point M1, and the image transmission unit 212 performs the image transmission. CP1 is transmitted (step S1: image generation step).

次に、プロジェクター3の画像投射手段31が、入力画像としてのキャリブレーション画像CP1を投射画像PP1(図6(B)参照)として被投射面4上に表示する(ステップS2:画像生成工程)。
そして、図6(C)のように、使用者によって操作される電子ペン5により表示されたポイントM1が指示されると、撮像手段32は、電子ペン5から出射される赤外光を検出して、投射画像PP1を撮像する(図6(D)参照)。そして、撮像手段32は、この投射画像PP1の撮像画像SP1に含まれる赤外光の出射位置を検出し、当該出射位置を示す位置検出データを、指示位置の位置検出データとしてPC2に送信する(ステップS3:指示位置検出工程)。
この位置検出データは、前述のように、位置情報取得部213により、記憶手段22に記憶される。
Next, the image projection means 31 of the projector 3 displays the calibration image CP1 as the input image on the projection surface 4 as the projection image PP1 (see FIG. 6B) (step S2: image generation step).
Then, as shown in FIG. 6C, when the point M1 displayed by the electronic pen 5 operated by the user is instructed, the imaging unit 32 detects infrared light emitted from the electronic pen 5. Then, the projection image PP1 is captured (see FIG. 6D). Then, the imaging unit 32 detects the emission position of the infrared light included in the captured image SP1 of the projection image PP1, and transmits position detection data indicating the emission position to the PC 2 as position detection data of the designated position ( Step S3: designated position detecting step).
The position detection data is stored in the storage unit 22 by the position information acquisition unit 213 as described above.

次に、画像生成部211は、ポイントM1とは異なる位置に設定されるポイントM2が含まれるキャリブレーション画像CP2(図6(E)参照)を生成し、画像送信部212が当該画像CP2を送信する(ステップS4:画像生成工程)
そして、プロジェクター3は、画像投射手段31により被投射面4に当該キャリブレーション画像CP2に応じた投射画像PP2(図6(F)参照)を表示する(ステップS5:画像生成工程)。
次に、図6(G)に示すように、電子ペン5により投射画像PP2に含まれるポイントM2が指示されると、前述のように、撮像手段32が、赤外光を検出して、投射画像PP2を撮像した撮像画像SP2を取得する。そして、前述の場合と同様に、撮像手段32は、撮像画像SP2における赤外光の出射位置を示す位置検出データを、ポイントM2に応じた指示位置の位置検出データとして、PC2に送信する(ステップS6:指示位置検出工程)。
Next, the image generation unit 211 generates a calibration image CP2 (see FIG. 6E) including the point M2 set at a position different from the point M1, and the image transmission unit 212 transmits the image CP2. (Step S4: Image generation step)
Then, the projector 3 displays the projection image PP2 (see FIG. 6F) corresponding to the calibration image CP2 on the projection surface 4 by the image projection unit 31 (step S5: image generation step).
Next, as shown in FIG. 6G, when the point M2 included in the projection image PP2 is instructed by the electronic pen 5, as described above, the imaging unit 32 detects infrared light and projects the infrared light. A captured image SP2 obtained by capturing the image PP2 is acquired. Then, as in the case described above, the imaging unit 32 transmits position detection data indicating the emission position of infrared light in the captured image SP2 to the PC 2 as position detection data of the indicated position corresponding to the point M2 (step S2). S6: indicated position detecting step).

次に、推測位置算出部214は、ポイントM1,M2に応じた指示位置の位置検出データを記憶手段22から読み出して、これらのポイントM1,M2に基づいて、次に表示される3点目のポイントM3の推測される指示位置(推測ポイントNの座標位置)(図7(K)参照)を算出する(ステップS7:推測位置算出工程)。
そして、画像生成部211は、ポイントM1,M2を結ぶ直線上にないポイントM3が含まれるキャリブレーション画像CP3(図7(I)参照)を生成する(ステップS8:画像生成工程)。
Next, the estimated position calculation unit 214 reads out the position detection data of the designated position corresponding to the points M1 and M2 from the storage unit 22, and based on these points M1 and M2, the third point to be displayed next is displayed. An estimated position (coordinate position of the estimated point N) of the point M3 (see FIG. 7K) is calculated (step S7: estimated position calculating step).
Then, the image generation unit 211 generates a calibration image CP3 (see FIG. 7I) including the point M3 that is not on the straight line connecting the points M1 and M2 (step S8: image generation process).

また、プロジェクター3は、ステップS8で生成されたキャリブレーション画像CP3を画像投射手段31により被投射面4に投射画像PP3(図7(L)参照)として表示させる(ステップS9:画像生成工程)。
次に、前述の場合と同様に、電子ペン5によりポイントM3が指示される(図7(M)参照)と、撮像手段32は、赤外光を検出して、投射画像Poを撮像した撮像画像SP3を取得する(図7(N)参照)。そして、撮像手段32は、当該撮像画像SP3における赤外光の出射位置の位置検出データを、指示位置の位置検出データとして、PC2に送信する(ステップS10:指示位置検出工程)。
Further, the projector 3 causes the image projection means 31 to display the calibration image CP3 generated in step S8 on the projection surface 4 as the projection image PP3 (see FIG. 7L) (step S9: image generation process).
Next, as in the case described above, when the point M3 is instructed by the electronic pen 5 (see FIG. 7M), the imaging unit 32 detects the infrared light and captures the projected image Po. An image SP3 is acquired (see FIG. 7N). Then, the imaging unit 32 transmits the position detection data of the infrared light emission position in the captured image SP3 to the PC 2 as the position detection data of the designated position (step S10: designated position detection step).

この後、座標位置判定部215は、ポイントM3に応じた指示位置の位置検出データに対応する位置と、ステップS9で算出された推測ポイントN3の推測位置とを比較する(図7(O)参照、ステップS11)。そして、座標位置判定部215は、比較した際のずれ量が前述の閾値以上であるか、閾値未満であるかを判定することにより、次の表示順のポイントM(この時点では4点目のポイントM4)を含むキャリブレーション画像が必要か否かを判定する(ステップS12:座標位置判定工程)。
具体的に、このステップS12では、両者のずれ量が閾値未満である場合には、ポイントM4は不要であると判定されて、実行部216が、プロジェクター3によるポイントM4を含むキャリブレーション画像の表示を停止させて、指示されたポイントM1〜M3に基づいてキャリブレーションを実行する(ステップS13:制御工程)。このステップS13の後、キャリブレーション実行処理は、終了する。
Thereafter, the coordinate position determination unit 215 compares the position corresponding to the position detection data of the designated position corresponding to the point M3 with the estimated position of the estimated point N3 calculated in step S9 (see FIG. 7 (O)). Step S11). Then, the coordinate position determination unit 215 determines whether the displacement amount at the time of comparison is greater than or equal to the above-described threshold value or less than the threshold value, whereby the next display order point M (the fourth point at this time) It is determined whether or not a calibration image including the point M4) is necessary (step S12: coordinate position determination step).
Specifically, in step S12, if the amount of deviation between the two is less than the threshold value, it is determined that the point M4 is unnecessary, and the execution unit 216 displays the calibration image including the point M4 by the projector 3. Is stopped, and calibration is executed based on the instructed points M1 to M3 (step S13: control process). After step S13, the calibration execution process ends.

一方、ステップS12の判定処理にて、両者のずれ量が閾値以上であると判定された場合には、ポイントM4が必要であると判定し、処理をステップS7に移行する。これにより、既に検出された指示位置に基づいて、推測位置算出部214により、次の表示順のポイントMの予想される指示位置(推測ポイントNの位置)が算出される。そして、次の表示順のポイントM4が含まれるキャリブレーション画像が、画像生成部211により新たに生成され、プロジェクター3により、当該キャリブレーション画像の表示、及び、指示位置の検出が行われる。このように、ずれ量が閾値未満となるまでステップS7〜S12が繰り返される。
そして、ステップS12の判定処理にて、ずれ量が閾値未満であると判定された場合には、処理がステップS13に移行され、実行部216が、検出されたポイントMに応じた指示位置に基づいて、キャリブレーションを実行する(ステップS13:制御工程)。
以上により、キャリブレーション実行処理が終了する。
On the other hand, if it is determined in step S12 that the amount of deviation between the two is greater than or equal to the threshold, it is determined that point M4 is necessary, and the process proceeds to step S7. Thereby, based on the already detected indication position, the estimated position calculation unit 214 calculates the expected indication position (position of the estimation point N) of the point M in the next display order. Then, a calibration image including the next display order point M4 is newly generated by the image generation unit 211, and the projector 3 displays the calibration image and detects the designated position. In this manner, steps S7 to S12 are repeated until the deviation amount becomes less than the threshold value.
If it is determined in step S12 that the amount of deviation is less than the threshold, the process proceeds to step S13, and the execution unit 216 is based on the indicated position corresponding to the detected point M. Then, calibration is executed (step S13: control process).
Thus, the calibration execution process ends.

上述した第1実施形態のIW装置1によれば、以下の効果がある。
本実施形態によれば、表示されたポイントM1,M2が、電子ペン5によりそれぞれ指示されると、撮像手段32は、当該赤外光の出射位置に基づいて、当該各ポイントM1,M2に応じた指示位置を検出すると、推測位置算出部214は、検出された指示位置に基づいて、次の表示順のポイントM3が指示されると推測される推測ポイントNの推測位置を算出する。そして、座標位置判定部215は、当該推測ポイントNの座標位置(推測位置)と、撮像手段32により検出されたポイントM3の指示位置とを比較して、これらのずれ量が所定の閾値以上であるか否かを判定する。当該ずれ量が所定の閾値以上である場合には、更にポイント(ポイントM4)が含まれるキャリブレーション画像を生成し、閾値未満である場合には、当該キャリブレーション画像の表示を中止し、既に検出された指示位置に基づいてキャリブレーションを実行する。
The IW device 1 according to the first embodiment described above has the following effects.
According to the present embodiment, when the displayed points M1 and M2 are respectively indicated by the electronic pen 5, the imaging unit 32 responds to the points M1 and M2 based on the emission position of the infrared light. When the indicated position is detected, the estimated position calculation unit 214 calculates the estimated position of the estimated point N estimated to be instructed to indicate the next display order point M3 based on the detected indicated position. Then, the coordinate position determination unit 215 compares the coordinate position (estimated position) of the estimated point N with the indicated position of the point M3 detected by the imaging unit 32, and the deviation amount is equal to or greater than a predetermined threshold value. It is determined whether or not there is. If the amount of deviation is greater than or equal to a predetermined threshold, a calibration image that further includes a point (point M4) is generated. If the amount of deviation is less than the threshold, display of the calibration image is stopped and already detected. Calibration is executed based on the designated position.

これによれば、表示順で3点目のポイントM3が含まれるキャリブレーション画像CP3を表示した際、ポイントM3に応じた指示位置と、当該ポイントM3の位置に基づいて算出される推測ポイントNの推測位置とが所定の閾値の範囲内にあれば、これら1〜3点目のポイントM1〜M3の指示位置に基づいてキャリブレーションを適切に行うことができる。このため、当該3点目のポイントM3が含まれるキャリブレーション画像CP3の表示までで、画像表示を終了でき、4点目のポイントM4が含まれるキャリブレーション画像を表示しなくて済むので、使用者によるポイントの指示操作数を削減できる。従って、上述した従来の5つの点を用いてキャリブレーションを実行する場合に比べ、キャリブレーションの処理時間を短縮できる。   According to this, when the calibration image CP3 including the third point M3 in the display order is displayed, the indication position corresponding to the point M3 and the estimated point N calculated based on the position of the point M3 are displayed. If the estimated position is within a predetermined threshold range, calibration can be appropriately performed based on the designated positions of the first to third points M1 to M3. For this reason, the image display can be completed up to the display of the calibration image CP3 including the third point M3, and it is not necessary to display the calibration image including the fourth point M4. The number of point indication operations can be reduced. Therefore, the calibration processing time can be shortened compared to the case where the calibration is executed using the above-described five conventional points.

ここで、位置検出される指示位置と、算出される推測ポイントNの推測位置とのずれ量が、使用環境によっては、使用状況に支障が無い場合がある。すなわち、閾値として設定される上限値が大きい場合でも問題がない場合がある。
そこで、本実施形態では、範囲設定部217により、使用環境、または用途に応じて、当該閾値を適宜設定できる。従って、例えば、指示位置と推測ポイントNの推測位置とのずれ量が大きくなっている場合でも、必要最小限のポイントMの表示のみでキャリブレーションの処理を実行することができるので、使用者によるポイントMの指示操作数を削減できる。
Here, depending on the usage environment, the amount of deviation between the indicated position where the position is detected and the estimated position of the estimated point N to be calculated may not affect the usage situation. That is, there may be no problem even when the upper limit value set as the threshold is large.
Therefore, in the present embodiment, the threshold value can be appropriately set by the range setting unit 217 depending on the use environment or the application. Therefore, for example, even when the deviation amount between the designated position and the estimated position of the estimated point N is large, the calibration process can be executed only by displaying the minimum necessary point M. The number of instruction operations for point M can be reduced.

[第2実施形態]
次に、本発明の第2実施形態について説明する。
本実施形態のIW装置は、上述したIW装置1と同様の構成を備えるが、前記IW装置1では、例えば、ポイントM3に応じた指示位置と推測ポイントNの推測位置とのずれ量に基づいて、座標位置判定部215が次の表示順のポイントM4を含むキャリブレーション画像の表示を必要とするか否かを判定していた。これに対し、本実施形態のIW装置では、ポイントM3以降の表示順のポイントMを含むキャリブレーション画像中に、終了ボタンを表示し、使用者が次のポイントMを含むキャリブレーション画像の表示が不要と判断して終了ボタンが指示されると、既に検出された指示位置、及び、推測ポイントの推測位置に基づいてキャリブレーションを実行し、当該キャリブレーション画像の表示を行わない点で相違する。
なお、以下の説明では、前記第1実施形態と同一構成要素については、同一符号を付し、その説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
The IW device of the present embodiment has the same configuration as that of the IW device 1 described above. However, in the IW device 1, for example, based on the amount of deviation between the indicated position corresponding to the point M3 and the estimated position of the estimated point N. The coordinate position determination unit 215 determines whether or not it is necessary to display a calibration image including the point M4 in the next display order. On the other hand, in the IW device of the present embodiment, the end button is displayed in the calibration image including the point M in the display order after the point M3, and the user can display the calibration image including the next point M. If the end button is instructed by determining that it is unnecessary, the calibration is executed based on the already detected indication position and the estimation position of the estimation point, and the calibration image is not displayed.
In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図9は、本実施形態におけるIW装置1Aを示すブロック図であり、図9では、プロジェクター3の構成が前記第1実施形態と同一であるため、プロジェクター3の詳細な構成図を省略する。図10は、3点のポイントM1〜M3が表示された状態において、終了ボタンBが被投射面4に表示された状態を示す図である。
本実施形態に係るIW装置1Aは、図9に示すように、PC2に代えてPC2Aを備えるほかは、前述のIW装置1と同様の構成を備える。また、PC2Aは、制御手段21の構成に加えて新たに終了ボタン表示部218を機能的に有するほかは、PC2と同様の構成を有する。
この終了ボタン表示部218は、前述のポイントM3〜M9が含まれるキャリブレーション画像が画像生成部211により生成されると、図10に示すように、当該各画像に終了ボタンBを合成する。
FIG. 9 is a block diagram showing the IW device 1A in the present embodiment. In FIG. 9, since the configuration of the projector 3 is the same as that of the first embodiment, a detailed configuration diagram of the projector 3 is omitted. FIG. 10 is a diagram illustrating a state in which the end button B is displayed on the projection surface 4 in a state where the three points M1 to M3 are displayed.
As shown in FIG. 9, the IW device 1 </ b> A according to the present embodiment has the same configuration as the above-described IW device 1 except that the PC 2 </ b> A is provided instead of the PC 2. The PC 2A has the same configuration as the PC 2 except that the end button display unit 218 is newly functionally added to the configuration of the control means 21.
When a calibration image including the above-described points M3 to M9 is generated by the image generation unit 211, the end button display unit 218 synthesizes an end button B with each image as shown in FIG.

本実施形態における画像生成部211は、ポイントMの表示順において3点目以降のポイントMが含まれるキャリブレーション画像に、推測位置算出部214により算出された推測ポイントNを合成する。このようなキャリブレーション画像の画像情報が受信されるプロジェクター3により、図10に示すように、推測ポイントN、ポイントM(図10の例ではポイントM3)、及び終了ボタンBが含まれるキャリブレーション画像が、投射画像Poとして表示させる。
そして、使用者は、電子ペン5を用いて終了ボタンBを指示すると、撮像手段32により指示位置が検出され、終了ボタンBが指示されたことが検出される。これにより、ポイントM4が含まれるキャリブレーション画像の生成及び表示が行われずに、PC2Aの実行部216がキャリブレーションを実行する。
The image generation unit 211 in this embodiment combines the estimated point N calculated by the estimated position calculation unit 214 with a calibration image including the third and subsequent points M in the display order of the points M. As shown in FIG. 10, the projector 3 that receives the image information of such a calibration image includes a guess point N, a point M (point M <b> 3 in the example of FIG. 10), and a calibration image including an end button B. Is displayed as the projected image Po.
When the user designates the end button B using the electronic pen 5, the designated position is detected by the imaging means 32, and it is detected that the end button B has been designated. Accordingly, the execution unit 216 of the PC 2A executes calibration without generating and displaying a calibration image including the point M4.

図11は、本実施形態のIW装置1Aのキャリブレーション実行処理を示すフローチャートである。
以下の説明では、前記第1実施形態と同一の処理については、説明を省略する。
本実施形態におけるキャリブレーション実行処理では、図11に示すように、前述のステップS1〜S6を順次実行する。
ステップS6の後、推測位置算出部214が、ポイントM1,M2に応じた指示位置の位置検出データに基づいて、次に表示される3点目のポイントM3の推測される指示位置(推測ポイントNの座標位置)を算出する(ステップS7:推測位置算出工程)。
この後、画像生成部211は、ポイントM3と、推測位置算出部214により算出された推測ポイントNの位置を示す表示と、及び、終了ボタン表示部218で生成された終了ボタンBとが含まれるキャリブレーション画像を生成する(ステップS21:画像生成工程)。
そして、プロジェクター3は、ステップS21で生成されたキャリブレーション画像の画像情報を受信して、当該キャリブレーション画像を投射画像Poとして表示させる(ステップS22:画像生成工程)。
このキャリブレーション画像が表示されると、使用者により、ポイントM3の位置と、推測ポイントNを示す表示の位置との比較が行われる。そして、使用者が、これらの位置の差が所定範囲内であると判断されると、当該キャリブレーション画像に含まれる終了ボタンBが指示されることになり、また、所定範囲外であると、ポイントM3が指示されることとなる。このため、ポイントM3の位置と終了ボタンBの位置とは、これらの指示位置が明確に区別できるように、十分に離れて設定される。
FIG. 11 is a flowchart showing calibration execution processing of the IW device 1A of the present embodiment.
In the following description, description of the same processing as in the first embodiment will be omitted.
In the calibration execution process in this embodiment, as shown in FIG. 11, the above-described steps S1 to S6 are sequentially executed.
After step S6, the estimated position calculation unit 214, based on the position detection data of the indicated position corresponding to the points M1 and M2, estimates the indicated position (the estimated point N) of the third point M3 to be displayed next. Coordinate position) is calculated (step S7: estimated position calculation step).
Thereafter, the image generation unit 211 includes a point M3, a display indicating the position of the estimated point N calculated by the estimated position calculation unit 214, and an end button B generated by the end button display unit 218. A calibration image is generated (step S21: image generation step).
Then, the projector 3 receives the image information of the calibration image generated in step S21 and displays the calibration image as the projection image Po (step S22: image generation process).
When this calibration image is displayed, the user compares the position of the point M3 with the display position indicating the estimated point N. When the user determines that the difference between these positions is within the predetermined range, the end button B included in the calibration image is instructed, and when the user is outside the predetermined range, Point M3 is instructed. For this reason, the position of the point M3 and the position of the end button B are set sufficiently apart so that these indicated positions can be clearly distinguished.

次に、投射画像が電子ペン5により指示されると、撮像手段32は、電子ペン5からの赤外光の検出に応じて投射画像を撮像し、この撮像画像に基づいて、ポイントM3に応じた指示位置(当該赤外光の出射位置)を検出する。そして、当該指示位置を示す位置検出データをPC2Aに送信する(ステップS23:指示位置検出工程)。   Next, when the projection image is instructed by the electronic pen 5, the imaging unit 32 captures the projection image in response to detection of infrared light from the electronic pen 5, and based on the captured image, the imaging unit 32 responds to the point M 3. The indicated position (the emission position of the infrared light) is detected. Then, position detection data indicating the designated position is transmitted to the PC 2A (step S23: designated position detecting step).

PC2Aでは、取得された位置検出データに基づいて、終了ボタンBが指示されたか否かが判定され(ステップS24)、指示されたと判定された場合には、実行部216が、検出されたポイントMに応じた指示位置に基づいて、キャリブレーションを実行する(ステップS13:制御工程)。これにより、キャリブレーション実行処理が終了する。
また、終了ボタンBは指示されていないと判定された場合には、前記第1実施形態のステップS11と同様の処理を行い、座標位置判定部215は、比較した際のずれ量が閾値以上であるか、閾値未満であるかを判定する(ステップS12:座標位置判定工程)。
The PC 2A determines whether or not the end button B has been instructed based on the acquired position detection data (step S24). If it is determined that the instruction has been instructed, the execution unit 216 detects the detected point M. The calibration is executed based on the indicated position corresponding to (step S13: control process). Thereby, the calibration execution process ends.
If it is determined that the end button B is not instructed, the same processing as in step S11 of the first embodiment is performed, and the coordinate position determination unit 215 determines that the amount of deviation when compared is equal to or greater than a threshold value. It is determined whether or not it is less than the threshold value (step S12: coordinate position determination step).

このステップS12の判定処理(座標位置判定工程)にて、ずれ量が閾値以上であると判定された場合には、ポイントM4が必要であると判定し、処理をステップS7に移行する。これにより、既に検出された指示位置に基づいて、推測位置算出部214により、次の表示順のポイントMの予想される指示位置(推測ポイントNの位置)が算出される(ステップS7:推測位置算出工程)。そして、次の表示順のポイントM、推測ポイントNを示す表示、及び、終了ボタンBが含まれるキャリブレーション画像が、画像生成部211により新たに生成され、プロジェクター3により、当該キャリブレーション画像の表示(S21,S22:画像生成工程)、及び、指示位置の検出が行われる(S23:指示位置検出工程)。このように、ずれ量が閾値未満となるまでステップS7、S21〜S24、S11、S12が繰り返される。
一方、ステップS12の判定処理にて、ずれ量が閾値未満であると判定された場合には、処理がステップS13に移行され、実行部216が、検出されたポイントMに応じた指示位置に基づいて、キャリブレーションを実行する(ステップS13:制御工程)。これにより、キャリブレーション実行処理が終了する。
In the determination process (coordinate position determination process) in step S12, when it is determined that the deviation amount is equal to or greater than the threshold value, it is determined that the point M4 is necessary, and the process proceeds to step S7. Thereby, based on the already detected indication position, the estimated position calculation unit 214 calculates the expected indication position (position of the estimation point N) of the point M in the next display order (step S7: estimation position). Calculation step). Then, a calibration image including a display M indicating the next display order point M, an estimated point N, and an end button B is newly generated by the image generation unit 211, and the projector 3 displays the calibration image. (S21, S22: image generation process) and the detection of the designated position are performed (S23: designated position detection process). In this manner, steps S7, S21 to S24, S11, and S12 are repeated until the deviation amount becomes less than the threshold value.
On the other hand, if it is determined in step S12 that the amount of deviation is less than the threshold value, the process proceeds to step S13, and the execution unit 216 is based on the indicated position corresponding to the detected point M. Then, calibration is executed (step S13: control process). Thereby, the calibration execution process ends.

上述した第2実施形態のIW装置1Aによれば、前述のIW装置1と同様の効果を奏することができるほか、以下の効果がある。
本実施形態では、3点目のポイントM3が表示される際に、キャリブレーション画像の表示領域内に終了ボタンBが表示される。これによれば、使用者は、必要に応じて(例えば、推測ポイントNの推測位置が表示される場合で、3点目のポイントM3の位置と、当該3点目に対応する推測位置とが所定範囲内にあることが目視される場合等)終了ボタンBを押下することで、3点目を含んだキャリブレーション画像の表示のみで処理を終了させることができ、使用者によるポイントMの指示操作数をより削減できる。従って、キャリブレーションの処理時間を一層短縮することができる。
According to the IW device 1A of the second embodiment described above, the same effects as the IW device 1 described above can be obtained, and the following effects can be obtained.
In the present embodiment, when the third point M3 is displayed, an end button B is displayed in the display area of the calibration image. According to this, the user can obtain the position of the third point M3 and the estimated position corresponding to the third point when necessary (for example, when the estimated position of the estimated point N is displayed). When the end button B is pressed, the processing can be ended only by displaying the calibration image including the third point, and the user points to the point M. The number of operations can be further reduced. Therefore, the calibration processing time can be further shortened.

[実施形態の変形]
なお、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。
前記各実施形態では、画像表示手段または画像表示装置としてプロジェクターを例示したが、本発明はこれに限らない。すなわち、画像出力手段と、画像表示手段または画像表示装置と、当該画像表示手段または画像表示装置により表示された画像における電子ペン等による指示位置を検出する位置検出手段とを備えた装置であればよい。この場合、画像出力手段としては、前述のPCに限らず、他の画像出力手段でもよく、画像表示手段または画像表示装置もプロジェクターに限らず各種ディスプレイを採用することもできる。更に、位置検出手段も、撮像素子を有する撮像装置に限らず、表示画像における指示位置を検出可能であれば、他の構成を有する装置でもよい。同様に、電子ペンも指示位置を赤外光の出射により示す構成に限らず、他の構成でもよい。また、各種ディスプレイを採用した画像表示手段に位置検出手段を設けて、画像表示手段により表示された画像に対して指示された指示位置を位置検出手段により検出させてもよい。
[Modification of Embodiment]
The best configuration, method, and the like for carrying out the present invention have been disclosed above, but the present invention is not limited to this.
In each of the above embodiments, the projector is exemplified as the image display means or the image display device, but the present invention is not limited to this. That is, any device including an image output means, an image display means or an image display device, and a position detection means for detecting an indicated position by an electronic pen or the like in an image displayed by the image display means or the image display device. Good. In this case, the image output means is not limited to the above-described PC, but may be other image output means. The image display means or the image display device is not limited to the projector, and various displays can be employed. Further, the position detection means is not limited to the image pickup apparatus having the image pickup device, and may be an apparatus having another configuration as long as the indicated position in the display image can be detected. Similarly, the electronic pen is not limited to the configuration in which the indication position is indicated by the emission of infrared light, but may have another configuration. In addition, a position detection unit may be provided in the image display unit that employs various displays, and the designated position instructed with respect to the image displayed by the image display unit may be detected by the position detection unit.

前記各実施形態では、PC2の制御手段21において、入力画像Piの画像生成や、座標位置の比較や、推測ポイントの座標位置の算出等を行っていたが、プロジェクター3の制御手段35において、これらの処理を行ってもよい。すなわち、PC2の制御手段21の構成をプロジェクター3の制御手段35が備える構成としてもよい。この場合には、PC2により実行されるとして説明した一連の処理を、プロジェクター3が行うこととなる。   In each of the embodiments described above, the control unit 21 of the PC 2 performs image generation of the input image Pi, comparison of coordinate positions, calculation of the coordinate position of the estimated point, and the like. You may perform the process of. That is, the configuration of the control unit 21 of the PC 2 may be included in the control unit 35 of the projector 3. In this case, the projector 3 performs a series of processes described as being executed by the PC 2.

前記各実施形態では、プロジェクター3に撮像手段32を備える構成であったが、前述のように、プロジェクター3とは別に、撮像手段を備える撮像装置が設けられる構成であってもよい。この場合には、当該撮像装置が、画像の投射領域を含む撮像領域を撮像した撮像画像から、電子ペン5による指示位置を検出し、当該指示位置を示す位置情報をPC又はプロジェクターに送信するようにしてもよく、或いは、当該撮像画像をPC又はプロジェクターに送信して、当該PC又はプロジェクターが電子ペン5による指示位置を示す位置情報を取得するようにしてもよい。   In each of the above-described embodiments, the projector 3 includes the imaging unit 32. However, as described above, the projector 3 may include an imaging device including the imaging unit. In this case, the imaging device detects an instruction position by the electronic pen 5 from a captured image obtained by imaging an imaging area including the projection area of the image, and transmits position information indicating the instruction position to the PC or the projector. Alternatively, the captured image may be transmitted to a PC or a projector, and the PC or projector may acquire position information indicating the position indicated by the electronic pen 5.

前記各実施形態では、ポイントM1とポイントM2との表示を異なるタイミングで行っていたが、ポイントM1及びポイントM2を同時に表示し、ポイントM1,M2の座標位置を同時に検出してもよい。また、ポイントM1〜M3を同時に表示して、これらの座標位置を同時に検出してもよい。
また、前記各実施形態では、入力画像Piにおいて、ポイントM1とポイントM2とは対角線上に表示されたが、これに限定されず、対角線上でなくてもよい。この際、順に表示される直近の3つのポイントMが、それぞれ同一直線上にないことが好ましく、また、それぞれのポイントMが十分に離れていることが好ましい。
In each of the above embodiments, the point M1 and the point M2 are displayed at different timings. However, the point M1 and the point M2 may be displayed at the same time, and the coordinate positions of the points M1 and M2 may be detected at the same time. Further, the points M1 to M3 may be displayed at the same time, and these coordinate positions may be detected simultaneously.
Moreover, in each said embodiment, although the point M1 and the point M2 were displayed on the diagonal line in the input image Pi, it is not limited to this, It does not need to be on a diagonal line. At this time, it is preferable that the three most recent points M displayed in order are not on the same straight line, and it is preferable that the respective points M are sufficiently separated.

前記各実施形態では、ポイントを指示するために赤外光を出射する電子ペン5を用いたが、本発明はこれに限らず、被投射面4上での指示位置を明示することができればよく、超音波を出射する機能を有するものであってもよい。また、電子ペン5は、ペンを模した形状を有していたが、指し棒のような長い形状を有するものや、レーザーポインター等で構成してもよい。
更に、位置検出手段が、所定の物体(例えば人の指)を検出可能に構成されている場合には、位置検出手段が当該物体の位置を検出することで指示位置を検出することができるので、電子ペンに例示される指示手段は、必ずしも必要ない。
In each of the above-described embodiments, the electronic pen 5 that emits infrared light is used to indicate a point. However, the present invention is not limited to this, and it is sufficient that the indicated position on the projection surface 4 can be clearly indicated. It may have a function of emitting ultrasonic waves. Moreover, although the electronic pen 5 has a shape imitating a pen, the electronic pen 5 may be configured with a long shape such as a pointer or a laser pointer.
Further, when the position detection unit is configured to detect a predetermined object (for example, a human finger), the position detection unit can detect the indicated position by detecting the position of the object. The instruction means exemplified in the electronic pen is not always necessary.

前記各実施形態では、位置検出手段として、赤外光を検出可能で、かつ、投射画像Poの投射領域を含む被投射面4の領域を撮像する撮像手段32を挙げたが、本発明はこれに限らない。すなわち、本発明の位置検出手段は、撮像手段32とは異なる構成により、検出対象の位置を検出するものでもよい。例えば、電子ペン5から、赤外光及び超音波が出射され、位置検出手段が、赤外光を検出する赤外光検出手段と、超音波を検出する超音波検出手段とを備え、これら各検出手段の検出結果に基づいて、電子ペン5の指示位置を検出するものであってもよい。
前記各実施形態では、赤外光を出射する電子ペン5を用いたが、本発明はこれに限定されず、可視光の範囲の色光を出射する電子ペンを用いてもよい。
In each of the above embodiments, as the position detection means, the imaging means 32 that can detect infrared light and images the area of the projection surface 4 including the projection area of the projection image Po is described. Not limited to. In other words, the position detection unit of the present invention may detect the position of the detection target with a configuration different from that of the imaging unit 32. For example, infrared light and ultrasonic waves are emitted from the electronic pen 5, and the position detection unit includes an infrared light detection unit that detects infrared light, and an ultrasonic detection unit that detects ultrasonic waves. The indicated position of the electronic pen 5 may be detected based on the detection result of the detection means.
In each of the above embodiments, the electronic pen 5 that emits infrared light is used. However, the present invention is not limited to this, and an electronic pen that emits colored light in the visible light range may be used.

前記各実施形態では、液晶パネル等の光変調装置312を備えたプロジェクター3を例示したが、本発明はこれに限らない。すなわち、入射光束を画像情報に応じて変調して画像を形成する光変調装置であれば、他の構成の光変調装置を採用してもよい。例えば、マイクロミラーを用いたデバイスなど、液晶以外の光変調装置を用いたプロジェクターにも、本発明を適用することも可能である。   In each of the above embodiments, the projector 3 including the light modulation device 312 such as a liquid crystal panel is illustrated, but the present invention is not limited to this. That is, as long as it is a light modulation device that forms an image by modulating an incident light beam according to image information, a light modulation device having another configuration may be adopted. For example, the present invention can be applied to a projector using a light modulation device other than liquid crystal, such as a device using a micromirror.

本発明は、画像出力手段、画像表示手段及び位置検出手段を備えるインタラクティブホワイトボード装置及び、当該装置を構成する画像表示装置に好適に利用することができる。   The present invention can be suitably used for an interactive whiteboard device including an image output unit, an image display unit, and a position detection unit, and an image display device constituting the device.

1,1A…インタラクティブホワイトボード装置、2,2A…PC(画像出力手段)、3…プロジェクター(画像表示手段または画像表示装置)、31…画像投射手段(画像表示手段)、32…撮像手段(位置検出手段)、211…画像生成部、214…推測位置算出部、215…座標位置判定部、216…実行部(制御部)、217…範囲設定部、218…終了ボタン表示部。   DESCRIPTION OF SYMBOLS 1,1A ... Interactive white board apparatus, 2, 2A ... PC (image output means), 3 ... Projector (image display means or image display apparatus), 31 ... Image projection means (image display means), 32 ... Imaging means (position) Detection means), 211... Image generation unit, 214... Estimated position calculation unit, 215... Coordinate position determination unit, 216... Execution unit (control unit), 217.

Claims (7)

画像を出力する画像出力手段と、
前記画像を表示する画像表示手段と、
前記画像の表示領域内で指示された指示位置を検出する位置検出手段とを備えるインタラクティブホワイトボード装置であって、
前記画像出力手段及び前記画像表示手段のいずれかは、
表示位置が異なるポイントがそれぞれ含まれる複数のキャリブレーション画像を生成する画像生成部と、
前記位置検出手段により既に検出された前記複数のキャリブレーション画像に含まれる各前記ポイントの指示位置に基づいて、次に表示される前記キャリブレーション画像である次画像に含まれるポイントに応じて指示されると推測される推測位置を算出する推測位置算出部と、
前記推測位置に対して、前記位置検出手段により検出された前記次画像に含まれるポイントの指示位置が所定範囲内に位置するか否かを判定する座標位置判定部と、
前記座標位置判定部により前記所定範囲内に位置しないと判定されると、前記画像表示手段に、前記次画像の更に次の前記キャリブレーション画像を表示させ、
前記座標位置判定部により前記所定範囲内に位置すると判定されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させる制御部とを備える
ことを特徴とするインタラクティブホワイトボード装置
Image output means for outputting an image;
Image display means for displaying the image;
An interactive whiteboard device comprising position detection means for detecting a designated position designated in the display area of the image,
Either of the image output means and the image display means,
An image generation unit that generates a plurality of calibration images each including points with different display positions;
Based on the pointed position of each of the points included in the plurality of calibration images already detected by the position detecting unit, the point is indicated according to the point included in the next image that is the calibration image to be displayed next. An estimated position calculation unit for calculating an estimated position estimated to be
A coordinate position determination unit that determines whether or not an indicated position of a point included in the next image detected by the position detection unit is within a predetermined range with respect to the estimated position;
When the coordinate position determination unit determines that the position is not within the predetermined range, the image display means displays the calibration image further next to the next image,
An interactive whiteboard device, comprising: a control unit that stops display of the calibration image after the next calibration image when the coordinate position determination unit determines that the position is within the predetermined range.
請求項1に記載のインタラクティブホワイトボード装置において、
前記次画像が表示される際に、終了ボタンを表示する終了ボタン表示部を備え、
前記制御部は、前記終了ボタンが指示されたことが前記位置検出手段により検出されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させる
ことを特徴とするインタラクティブホワイトボード装置。
The interactive whiteboard device according to claim 1, wherein
An end button display unit for displaying an end button when the next image is displayed;
When the position detecting unit detects that the end button has been instructed, the control unit stops the display of the calibration image after the next calibration image. .
請求項1または請求項2に記載のインタラクティブホワイトボード装置において、
前記所定範囲を設定する範囲設定部を備える
ことを特徴とするインタラクティブホワイトボード装置。
The interactive whiteboard device according to claim 1 or 2,
An interactive whiteboard device comprising: a range setting unit for setting the predetermined range.
画像を表示する画像表示手段と、
前記画像の表示領域内で指示された指示位置を検出する位置検出手段とを備える画像表示装置であって、
表示位置が異なるポイントがそれぞれ含まれる複数のキャリブレーション画像を生成し、前記画像表示手段に出力する画像生成部と、
前記位置検出手段により既に検出された前記複数のキャリブレーション画像に含まれる各前記ポイントの指示位置に基づいて、前記次に表示される前記キャリブレーション画像である次画像に含まれるポイントに応じて指示されると推測される推測位置を算出する推測位置算出部と、
前記推測位置に対して、前記位置検出手段により検出された前記画像に含まれるポイントの指示位置が所定範囲内に位置するか否かを判定する座標位置判定部と、
前記座標位置判定部により前記所定範囲内に位置しないと判定されると、前記画像表示手段に、前記次画像の更に次の前記キャリブレーション画像を表示させ、
前記座標位置判定部により前記所定範囲内に位置すると判定されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させる制御部とを備える
ことを特徴とする画像表示装置。
Image display means for displaying an image;
An image display device comprising: position detection means for detecting an indicated position designated in the display area of the image,
An image generation unit that generates a plurality of calibration images each including points with different display positions, and outputs them to the image display means;
Based on the pointed position of each point included in the plurality of calibration images already detected by the position detecting means, the direction is indicated according to the point included in the next image which is the calibration image displayed next. An estimated position calculating unit that calculates an estimated position estimated to be performed;
A coordinate position determination unit that determines whether or not an indicated position of a point included in the image detected by the position detection unit is within a predetermined range with respect to the estimated position;
When the coordinate position determination unit determines that the position is not within the predetermined range, the image display means displays the calibration image further next to the next image,
An image display device comprising: a control unit that stops displaying the calibration image after the next calibration image when the coordinate position determination unit determines that the position is within the predetermined range.
請求項4に記載の画像表示装置において、
前記次画像が表示される際に、終了ボタンを表示する終了ボタン表示部を備え、
前記制御部は、前記終了ボタンが指示されたことが前記位置検出手段により検出されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させる
ことを特徴とする画像表示装置。
The image display device according to claim 4,
An end button display unit for displaying an end button when the next image is displayed;
The control unit stops display of the calibration image after the next calibration image when the position detecting unit detects that the end button has been instructed.
請求項4または請求項5に記載の画像表示装置において、
前記所定範囲を設定する範囲設定部を備える
ことを特徴とする画像表示装置。
In the image display device according to claim 4 or 5,
An image display device comprising: a range setting unit that sets the predetermined range.
請求項4から請求項6のいずれかに記載の画像表示装置によって実行されるキャリブレーション方法であって、
表示位置が異なるポイントがそれぞれ含まれる複数のキャリブレーション画像を生成し、前記画像表示手段に出力する画像生成工程と、
前記キャリブレーション画像の表示領域内で指示された指示位置を検出する指示位置検出工程と、
前記指示位置検出工程により既に検出された前記複数のキャリブレーション画像に含まれる各前記ポイントの指示位置に基づいて、前記次に表示される前記キャリブレーション画像である次画像に含まれるポイントに応じて指示されると推測される推測位置を算出する推測位置算出工程と、
前記推測位置に対して、前記指示位置検出工程により検出された前記次画像に含まれるポイントの指示位置が所定範囲内に位置するか否かを判定する座標位置判定工程と、
前記座標位置判定工程により前記所定範囲内に位置しないと判定されると、前記画像表示手段に、前記次画像の更に次の前記キャリブレーション画像を表示させ、
前記座標位置判定工程により前記所定範囲内に位置すると判定されると、前記次のキャリブレーション画像以降の前記キャリブレーション画像の表示を停止させる制御工程とを備える
ことを特徴とするキャリブレーション方法。
A calibration method executed by the image display device according to any one of claims 4 to 6,
An image generation step of generating a plurality of calibration images each including points with different display positions, and outputting them to the image display means;
An indicated position detecting step of detecting an indicated position indicated in the display area of the calibration image;
Based on the indicated position of each point included in the plurality of calibration images already detected by the indicated position detecting step, according to the point included in the next image which is the calibration image displayed next An estimated position calculating step for calculating an estimated position estimated to be instructed;
A coordinate position determination step for determining whether or not an indicated position of a point included in the next image detected by the indicated position detection step is within a predetermined range with respect to the estimated position;
When it is determined by the coordinate position determination step that the position is not within the predetermined range, the image display means displays the calibration image further next to the next image,
A calibration method comprising: a control step of stopping display of the calibration image after the next calibration image when the coordinate position determination step determines that the position is within the predetermined range.
JP2010166946A 2010-07-26 2010-07-26 Interactive white board device, image display device and calibration method Pending JP2012027769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010166946A JP2012027769A (en) 2010-07-26 2010-07-26 Interactive white board device, image display device and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010166946A JP2012027769A (en) 2010-07-26 2010-07-26 Interactive white board device, image display device and calibration method

Publications (1)

Publication Number Publication Date
JP2012027769A true JP2012027769A (en) 2012-02-09

Family

ID=45780607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010166946A Pending JP2012027769A (en) 2010-07-26 2010-07-26 Interactive white board device, image display device and calibration method

Country Status (1)

Country Link
JP (1) JP2012027769A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150035995A1 (en) * 2013-08-02 2015-02-05 Seiko Epson Corporation Projector and projector control method
WO2015146190A1 (en) * 2014-03-28 2015-10-01 セイコーエプソン株式会社 Light curtain installation method and bidirectional display device
WO2020090228A1 (en) * 2018-11-01 2020-05-07 ソニー株式会社 Information processing device, information processing method, and program
WO2022044384A1 (en) * 2020-08-28 2022-03-03 富士フイルム株式会社 Indicated position detection device, indicated position detection method, indicated position detection program, and projection system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10015457B2 (en) 2013-08-02 2018-07-03 Seiko Epson Corporation Projector and control method with a starting reference position in a lower part of a target image
CN104347020A (en) * 2013-08-02 2015-02-11 精工爱普生株式会社 Projector and projector control method
JP2015031817A (en) * 2013-08-02 2015-02-16 セイコーエプソン株式会社 Projector, and control method of projector
US20150035995A1 (en) * 2013-08-02 2015-02-05 Seiko Epson Corporation Projector and projector control method
TWI635350B (en) * 2014-03-28 2018-09-11 日商精工愛普生股份有限公司 Light curtain installation method and bidirectional display apparatus
CN106133666A (en) * 2014-03-28 2016-11-16 精工爱普生株式会社 Light curtain method to set up and bi-directional display device
KR20160139014A (en) * 2014-03-28 2016-12-06 세이코 엡슨 가부시키가이샤 Light curtain installation method and bidirectional display device
JP2015191455A (en) * 2014-03-28 2015-11-02 セイコーエプソン株式会社 Light curtain installation method and bidirectional display device
WO2015146190A1 (en) * 2014-03-28 2015-10-01 セイコーエプソン株式会社 Light curtain installation method and bidirectional display device
CN106133666B (en) * 2014-03-28 2019-05-07 精工爱普生株式会社 Light curtain setting method and bi-directional display device
KR101955257B1 (en) 2014-03-28 2019-05-30 세이코 엡슨 가부시키가이샤 Light curtain installation method and bidirectional display device
WO2020090228A1 (en) * 2018-11-01 2020-05-07 ソニー株式会社 Information processing device, information processing method, and program
JPWO2020090228A1 (en) * 2018-11-01 2021-10-14 ソニーグループ株式会社 Information processing equipment, information processing methods and programs
US11631381B2 (en) 2018-11-01 2023-04-18 Sony Group Corporation Information processing apparatus, information processing method, and program for controlling input position in an overlap region
JP7396295B2 (en) 2018-11-01 2023-12-12 ソニーグループ株式会社 Information processing device, information processing method and program
WO2022044384A1 (en) * 2020-08-28 2022-03-03 富士フイルム株式会社 Indicated position detection device, indicated position detection method, indicated position detection program, and projection system
JPWO2022044384A1 (en) * 2020-08-28 2022-03-03

Similar Documents

Publication Publication Date Title
US9594455B2 (en) Projector and control method
JP6387644B2 (en) Position detection device, position detection system, and position detection method
US10268284B2 (en) Image display system
JP6417690B2 (en) Projector, display device, and projector control method
US9304607B2 (en) Pointer positioning method of handheld pointer device
US20190124309A1 (en) Projector and method for controlling projector
JP6477130B2 (en) Interactive projector and interactive projection system
JP2012027769A (en) Interactive white board device, image display device and calibration method
US20200264729A1 (en) Display method, display device, and interactive projector
US9733728B2 (en) Position detecting device and position detecting method
WO2016157804A1 (en) Projector and projector control method
KR20170129948A (en) Interactive projector, interactive projection system, and method for cntrolling interactive projector
JP6634904B2 (en) Electronic device and electronic device control method
JP6569259B2 (en) POSITION DETECTION DEVICE, DISPLAY DEVICE, POSITION DETECTION METHOD, AND DISPLAY METHOD
JP6459706B2 (en) Interactive projector and interactive projection system
JP2020074089A (en) Electronic device and control method of the same
JP4434381B2 (en) Coordinate input device
JP2020021316A (en) Control device and control method
JP2019117322A (en) Projection type display unit, method of controlling the same, and program
TW201409287A (en) Multi-mode interactive projection system, pointing device thereof, and control method therefor
US9787961B2 (en) Projector and method for controlling projector
US9971419B2 (en) Interactive projector and method of correcting Z-coordinate of the same
JP2020191045A (en) Indicator, display system, and operation method
JP6291912B2 (en) Position detection apparatus and position detection method
JP6291911B2 (en) Position detection apparatus and position detection method