JP2017138776A - Interactive projector and auto-calibration execution method for the same - Google Patents

Interactive projector and auto-calibration execution method for the same Download PDF

Info

Publication number
JP2017138776A
JP2017138776A JP2016018866A JP2016018866A JP2017138776A JP 2017138776 A JP2017138776 A JP 2017138776A JP 2016018866 A JP2016018866 A JP 2016018866A JP 2016018866 A JP2016018866 A JP 2016018866A JP 2017138776 A JP2017138776 A JP 2017138776A
Authority
JP
Japan
Prior art keywords
calibration
image
auto
projection
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016018866A
Other languages
Japanese (ja)
Other versions
JP6631281B2 (en
JP2017138776A5 (en
Inventor
ポラック,カロル,マルチン
Marcin Pawlak Karol
健児 田中
Kenji Tanaka
健児 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016018866A priority Critical patent/JP6631281B2/en
Publication of JP2017138776A publication Critical patent/JP2017138776A/en
Publication of JP2017138776A5 publication Critical patent/JP2017138776A5/ja
Application granted granted Critical
Publication of JP6631281B2 publication Critical patent/JP6631281B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an interactive projector automatically adjusting brightness of a calibration image imaged according to an installation environment and being capable of accurately detecting positions of calibration marks, and auto-calibration therefor.SOLUTION: An interactive projector 100 adjusts brightness of an auto-calibration image according to an installation environment from a projection section 200, and projects the auto-calibration image. An imaging section 300 images a projection surface. A calibration execution section 620 executes auto-calibration determining correspondence among positions on a picked-up image imaged by the imaging section 300 and positions in a projection image memory based on positions of a plurality of calibration marks in the auto-calibration image imaged.SELECTED DRAWING: Figure 3

Description

本発明は、投写面に対するユーザーの指示体による指示を受け取ることが可能なインタラクティブプロジェクターに関する。   The present invention relates to an interactive projector capable of receiving an instruction from a user's indicator on a projection surface.

特許文献1には、インタラクティブプロジェクターが開示されている。インタラクティブプロジェクターは、投写画面をスクリーンに投写するとともに、発光ペンや指などの指示体(pointing element)を含む画像をカメラで撮像し、この撮像画像を用いて指示体の位置を検出することが可能である。すなわち、インタラクティブプロジェクターは、指示体の先端がスクリーンに接しているときに投写画面に対して描画等の所定の指示が入力されているものと認識し、その指示に応じて投写画面を再描画する。従って、ユーザーは、投写画面をユーザーインターフェースとして用いて、各種の指示を入力することが可能である。   Patent Document 1 discloses an interactive projector. An interactive projector projects a projection screen onto a screen, and an image including a pointing element such as a light-emitting pen or a finger can be captured by a camera, and the position of the pointer can be detected using the captured image. It is. That is, the interactive projector recognizes that a predetermined instruction such as drawing is input to the projection screen when the tip of the indicator is in contact with the screen, and redraws the projection screen according to the instruction. . Therefore, the user can input various instructions using the projection screen as a user interface.

特許文献1では、複数のキャリブレーションマークを含むオートキャリブレーション画像を用いたオートキャリブレーション(投写画像と撮影画像の位置の対応付け)を行う提案がなされている。オートキャリブレーションでは、プロジェクターからオートキャリブレーション画像を投写し、投写されたオートキャリブレーション画像をプロジェクターのカメラで撮像し、その撮像画像を解析することによって投写画像上の位置と撮影画像上の位置が対応付けられる。   Japanese Patent Application Laid-Open No. 2004-133620 proposes auto calibration (corresponding to the position of a projected image and a captured image) using an auto calibration image including a plurality of calibration marks. In auto calibration, an auto calibration image is projected from the projector, the projected auto calibration image is captured by the projector camera, and the captured image is analyzed to determine the position on the projected image and the position on the captured image. It is associated.

特開2015−159524号公報JP2015-159524A

しかしながら、本願の発明者は、プロジェクターの設置環境の影響によっては、撮像されたオートキャリブレーション画像の明度が画像解析のための好ましい範囲を外れてしまう場合があることを見いだした。例えば、環境光が過度に明るい場合には、撮像画像の明度が過大になり、キャリブレーションマークの位置を精度良く検出できない。この結果、投写画像上の位置と撮影画像上の位置の対応付けを精度良く行えないという問題が生じ得ることが判明した。   However, the inventor of the present application has found that the brightness of the captured auto-calibration image may deviate from the preferable range for image analysis depending on the influence of the installation environment of the projector. For example, when the ambient light is excessively bright, the brightness of the captured image becomes excessive, and the position of the calibration mark cannot be detected with high accuracy. As a result, it has been found that there may be a problem that the position on the projected image and the position on the captured image cannot be accurately associated.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

(1)本発明の一形態によれば、投写面に対するユーザーの指示体による指示を受け取ることが可能なインタラクティブプロジェクターが提供される。このインタラクティブプロジェクターは、投写画像メモリーに格納された画像データに従って前記投写面に画像を投写する投写部と;前記投写面を撮像して撮像画像を生成する撮像部と;前記投写部から複数のキャリブレーションマークを含むオートキャリブレーション画像を投写させている状態で前記撮像部に前記投写面を撮像させ、撮像されたオートキャリブレーション画像内の前記複数のキャリブレーションマークの位置に基づいて、前記撮像部で撮像される撮像画像上の位置と前記投写画像メモリー内の画像データ上の位置との対応関係を決定するオートキャリブレーションを実行可能なキャリブレーション実行部と;前記オートキャリブレーションで決定された位置の対応関係を用い、前記撮像部で撮像された指示体を含む撮像画像に基づいて、前記指示体により指示された指示位置を検出する検出部と;を備える。前記キャリブレーション実行部は、前記オートキャリブレーションの実行時において、前記撮像部により撮像されたオートキャリブレーション画像の明度が予め定めた許容範囲内に収まるように、前記撮像部の露出を調整する。
このインタラクティブプロジェクターによれば、撮像部の露出を調整することによって、撮像されたオートキャリブレーション画像の明度を画像解析のための好ましい範囲に納めることができ、投写画像上の位置と撮影画像上の位置の対応付けを精度良く行うことが可能である。
(1) According to one aspect of the present invention, an interactive projector is provided that can receive an instruction from a user's indicator on a projection surface. The interactive projector includes a projection unit that projects an image on the projection plane according to image data stored in a projection image memory; an imaging unit that captures the projection plane and generates a captured image; and a plurality of calibrations from the projection unit. The imaging unit causes the imaging unit to image the projection plane while projecting an auto calibration image including a calibration mark, and based on the positions of the plurality of calibration marks in the captured auto calibration image, the imaging unit A calibration execution unit capable of executing auto-calibration for determining a correspondence relationship between a position on the captured image captured by the camera and a position on the image data in the projection image memory; a position determined by the auto-calibration The captured image including the indicator imaged by the imaging unit using the correspondence relationship It comprises; based on a detection unit for detecting the indicated indication position by the indicator. The calibration execution unit adjusts the exposure of the image capturing unit so that the brightness of the auto calibration image captured by the image capturing unit is within a predetermined allowable range when the auto calibration is performed.
According to this interactive projector, by adjusting the exposure of the imaging unit, the brightness of the captured auto-calibration image can be kept within a preferable range for image analysis, and the position on the projected image and the captured image can be adjusted. It is possible to accurately associate the positions.

(2)上記インタラクティブプロジェクターにおいて、前記キャリブレーション実行部は、前記撮像されたオートキャリブレーション画像内の最も高い明度が前記許容範囲内に収まるように前記撮像部の露出を調整するものとしてもよい。
この構成によれば、撮像されたオートキャリブレーション画像内の最高明度が許容範囲内に収まるので、キャリブレーションマークの位置を精度良く検出することができ、投写画像上の位置と撮影画像上の位置の対応付けを精度良く行うことが可能である。
(2) In the interactive projector, the calibration execution unit may adjust the exposure of the imaging unit so that the highest brightness in the captured auto-calibration image is within the allowable range.
According to this configuration, since the maximum brightness in the captured auto-calibration image falls within the allowable range, the position of the calibration mark can be detected with high accuracy, and the position on the projected image and the position on the captured image can be detected. Can be accurately associated.

(3)上記インタラクティブプロジェクターにおいて、前記撮像されたオートキャリブレーション画像内の明度を調べる際に、前記撮像されたオートキャリブレーション画像の周縁に存在する一部の領域を除外し、除外した領域以外の中央領域における明度を調べるものとしてもよい。
この構成によれば、環境光の影響が少ない中央領域の明度が許容範囲内に収まるように露出の調整を行うので、適切な露出調整を行うことが可能である。
(3) In the interactive projector, when examining the brightness in the captured auto-calibration image, a part of the area existing on the periphery of the captured auto-calibration image is excluded, and other than the excluded area It is good also as what investigates the brightness in a center area | region.
According to this configuration, the exposure adjustment is performed so that the brightness of the central region, which is less influenced by the ambient light, falls within the allowable range. Therefore, it is possible to perform appropriate exposure adjustment.

本発明は、種々の形態で実現することが可能であり、例えば、インタラクティブプロジェクター、指示体とインタラクティブプロジェクターとを含むプロジェクションシステム、そのオートキャリブレーション実行方法、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の様々な形態で実現することができる。   The present invention can be realized in various forms, for example, to realize an interactive projector, a projection system including an indicator and an interactive projector, an auto-calibration execution method thereof, and a function of those methods or apparatuses. And various forms such as a non-transitory storage medium on which the computer program is recorded.

位置検出システムの斜視図。The perspective view of a position detection system. 位置検出システムの正面図。The front view of a position detection system. 位置検出システムの側面図。The side view of a position detection system. プロジェクターの内部構成を示すブロック図。The block diagram which shows the internal structure of a projector. オートキャリブレーション画像の一例を示す説明図。Explanatory drawing which shows an example of an auto calibration image. 不適切な明度を有するキャリブレーションマークの例を示す説明図。Explanatory drawing which shows the example of the calibration mark which has improper brightness. オートキャリブレーションの実行手順を示すフローチャート。The flowchart which shows the execution procedure of auto calibration.

図1は、本発明の一実施形態としてのインタラクティブプロジェクションシステム900の斜視図である。このシステム900は、インタラクティブプロジェクター100と、操作面を提供するスクリーン板920と、層状検出光照射部440(ライトカーテンユニット)と、自発光指示体70とを有している。なお、層状検出光照射部440は、インタラクティブプロジェクター100の一部であるが、図1では、図示の便宜上、別体として描いている。スクリーン板920の前面は、投写スクリーン面SS(projection Screen Surface)として利用される。プロジェクター100は、支持部材910によってスクリーン板920の前方かつ上方に固定されている。なお、図1では投写スクリーン面SSを鉛直に配置しているが、投写スクリーン面SSを水平に配置してこのシステム900を使用することも可能である。   FIG. 1 is a perspective view of an interactive projection system 900 as an embodiment of the present invention. The system 900 includes an interactive projector 100, a screen plate 920 that provides an operation surface, a layered detection light irradiation unit 440 (light curtain unit), and a self-luminous indicator 70. Note that the layered detection light irradiating unit 440 is a part of the interactive projector 100, but is illustrated as a separate body in FIG. 1 for convenience of illustration. The front surface of the screen plate 920 is used as a projection screen surface (SS). The projector 100 is fixed to the front and above the screen plate 920 by a support member 910. In FIG. 1, the projection screen surface SS is arranged vertically, but the system 900 can be used with the projection screen surface SS arranged horizontally.

プロジェクター100は、投写スクリーン面SS上に投写画面PS(Projected Screen)を投写する。投写画面PSは、通常は、プロジェクター100内で描画された画像を含んでいる。プロジェクター100内で描画された画像がない場合には、プロジェクター100から投写画面PSに光が照射されて、白色画像が表示される。本明細書において、「投写スクリーン面SS」とは、画像が投写される部材の表面を意味する。また、「投写画面PS」とは、プロジェクター100によってスクリーン面SS上に投写された画像の領域を意味する。通常は、投写スクリーン面SSの一部に投写画面PSが投写される。投写スクリーン面SSを「投写面SS」とも呼ぶ。   The projector 100 projects a projection screen PS (Projected Screen) on the projection screen surface SS. The projection screen PS usually includes an image drawn in the projector 100. When there is no image drawn in the projector 100, light is emitted from the projector 100 to the projection screen PS, and a white image is displayed. In this specification, “projection screen surface SS” means the surface of a member on which an image is projected. The “projection screen PS” means an area of an image projected on the screen surface SS by the projector 100. Usually, the projection screen PS is projected on a part of the projection screen surface SS. The projection screen surface SS is also referred to as a “projection surface SS”.

自発光指示体70は、発光可能な先端部71と、使用者が保持する軸部72と、軸部72に設けられたボタンスイッチ73とを有するペン型の指示体である。自発光指示体70の先端部71は、例えば赤外光を発する。自発光指示体70の構成や機能については後述する。このシステム900では、1つ又は複数の自発光指示体70とともに、1つ又は複数の非発光指示体80(非発光のペンや指など)を利用可能である。   The self-light emitting indicator 70 is a pen-type indicator having a tip portion 71 capable of emitting light, a shaft portion 72 held by a user, and a button switch 73 provided on the shaft portion 72. For example, the tip 71 of the self-luminous indicator 70 emits infrared light. The configuration and function of the self-luminous indicator 70 will be described later. In this system 900, one or a plurality of non-luminous indicators 80 (non-luminous pens, fingers, etc.) can be used together with one or a plurality of self-luminous indicators 70.

図2Aは、インタラクティブプロジェクションシステム900の正面図であり、図2Bはその側面図である。本明細書では、投写面SSの左右に沿った方向をX方向と定義し、投写面SSの上下に沿った方向をY方向と定義し、投写面SSの法線に沿った方向をZ方向と定義している。また、図2Aにおける投写面SSの左上の位置を座標(X,Y)の原点(0,0)としている。なお、便宜上、X方向を「左右方向」とも呼び、Y方向を「上下方向」とも呼び、Z方向を「前後方向」とも呼ぶ。また、Y方向(上下方向)のうち、プロジェクター100から見て投写画面PSが存在する方向を「下方向」と呼ぶ。なお、図2Bでは、図示の便宜上、スクリーン板920のうちの投写画面PSの範囲にハッチングを付している。   FIG. 2A is a front view of the interactive projection system 900, and FIG. 2B is a side view thereof. In this specification, the direction along the left and right of the projection surface SS is defined as the X direction, the direction along the top and bottom of the projection surface SS is defined as the Y direction, and the direction along the normal line of the projection surface SS is defined as the Z direction. It is defined as Also, the upper left position of the projection surface SS in FIG. 2A is the origin (0, 0) of the coordinates (X, Y). For convenience, the X direction is also referred to as “left-right direction”, the Y direction is also referred to as “up-down direction”, and the Z direction is also referred to as “front-rear direction”. Further, in the Y direction (up and down direction), a direction in which the projection screen PS exists when viewed from the projector 100 is referred to as a “down direction”. In FIG. 2B, for convenience of illustration, the range of the projection screen PS in the screen plate 920 is hatched.

プロジェクター100は、投写画面PSを投写面SS上に投写する投写レンズ210と、投写画面PSの領域を撮像するカメラ310と、指示体(自発光指示体70及び非発光指示体80)に層状検出光LL(図2B)を照射するための層状検出光照射部440とを有している。層状検出光照射部440は、非発光指示体80が投写画面PS(すなわち投写面SS)に接していることを検出するために、投写画面PSの表面全体に亘って層状(又はカーテン状)の検出光LLを射出する照射部である。層状検出光LLとしては、例えば赤外光を利用できる。ここで、「層状」又は「カーテン状」とは、ほぼ一様な厚さの薄い空間形状を意味する。投写面SSと層状検出光LLとの間の距離は、例えば1〜10mm(好ましくは1〜5mm)の範囲の値に設定される。   The projector 100 performs layered detection on the projection lens 210 that projects the projection screen PS on the projection surface SS, the camera 310 that captures an area of the projection screen PS, and indicators (the self-luminous indicator 70 and the non-luminous indicator 80). And a layered detection light irradiation unit 440 for irradiating the light LL (FIG. 2B). In order to detect that the non-light emitting indicator 80 is in contact with the projection screen PS (that is, the projection surface SS), the layer detection light irradiation unit 440 has a layer (or curtain shape) over the entire surface of the projection screen PS. It is an irradiation part which inject | emits the detection light LL. For example, infrared light can be used as the layered detection light LL. Here, “layer” or “curtain” means a thin space shape having a substantially uniform thickness. The distance between the projection surface SS and the layered detection light LL is set to a value in the range of 1 to 10 mm (preferably 1 to 5 mm), for example.

カメラ310は、層状検出光LL(赤外光)と自発光指示体70が発する赤外光の波長を含む波長領域の光を受光して撮像する第1の撮像機能を少なくとも有している。カメラ310は、更に、可視光を含む光を受光して撮像する第2の撮像機能を有し、これらの2つの撮像機能を切り替え可能に構成されていることが好ましい。例えば、カメラ310は、可視光を遮断して近赤外光のみを通過させる近赤外フィルターをレンズの前に配置したりレンズの前から後退させたりすることが可能な近赤外フィルター切換機構(図示せず)をそれぞれ備えることが好ましい。図2Bに示すように、カメラ310は投写面SSからZ方向に距離Lだけ離れた位置に設置されている。   The camera 310 has at least a first imaging function for receiving and imaging light in a wavelength region including the layered detection light LL (infrared light) and the wavelength of infrared light emitted from the self-luminous indicator 70. The camera 310 further has a second imaging function for receiving and imaging light including visible light, and is preferably configured to be able to switch between these two imaging functions. For example, the camera 310 has a near-infrared filter switching mechanism capable of disposing a near-infrared filter that blocks visible light and allows only near-infrared light to pass in front of or behind the lens. (Not shown) are preferably provided. As shown in FIG. 2B, the camera 310 is installed at a position separated from the projection plane SS by a distance L in the Z direction.

図2Aの例は、インタラクティブプロジェクションシステム900がホワイトボードモードで動作している様子を示している。ホワイトボードモードは、自発光指示体70や非発光指示体80を用いて投写画面PS上にユーザーが任意に描画できるモードである。投写面SS上には、ツールボックスTBを含む投写画面PSが投写されている。このツールボックスTBは、処理を元に戻す取消ボタンUDBと、マウスポインターを選択するポインターボタンPTBと、描画用のペンツールを選択するペンボタンPEBと、描画された画像を消去する消しゴムツールを選択する消しゴムボタンERBと、画面を次に進めたり前に戻したりする前方/後方ボタンFRBと、を含んでいる。ユーザーは、指示体を用いてこれらのボタンをクリックすることによって、そのボタンに応じた処理を行ったり、ツールを選択したりすることが可能である。なお、システム900の起動直後は、マウスポインターがデフォールトツールとして選択されるようにしてもよい。図2Aの例では、ユーザーがペンツールを選択した後、自発光指示体70の先端部71を投写面SSに接した状態で投写画面PS内で移動させることにより、投写画面PS内に線が描画されてゆく様子が描かれている。この線の描画は、プロジェクター100の内部の投写画像生成部(後述)によって行われる。   The example of FIG. 2A shows a state where the interactive projection system 900 is operating in the whiteboard mode. The whiteboard mode is a mode in which the user can arbitrarily draw on the projection screen PS using the self-light emitting indicator 70 and the non-light emitting indicator 80. A projection screen PS including a tool box TB is projected on the projection surface SS. This tool box TB selects a cancel button UDB for returning processing, a pointer button PTB for selecting a mouse pointer, a pen button PEB for selecting a pen tool for drawing, and an eraser tool for erasing a drawn image. It includes an eraser button ERB and a forward / backward button FRB that advances or moves the screen forward. The user can perform a process corresponding to the button or select a tool by clicking these buttons using an indicator. Note that the mouse pointer may be selected as the default tool immediately after the system 900 is activated. In the example of FIG. 2A, after the user selects the pen tool, the tip 71 of the self-luminous indicator 70 is moved in the projection screen PS while being in contact with the projection surface SS, thereby drawing a line in the projection screen PS. The state of being done is drawn. The line drawing is performed by a projection image generation unit (described later) inside the projector 100.

なお、インタラクティブプロジェクションシステム900は、ホワイトボードモード以外の他のモードでも動作可能である。例えば、このシステム900は、パーソナルコンピューター(図示せず)から通信回線を介して転送されたデータの画像を投写画面PSに表示するPCインタラクティブモードでも動作可能である。PCインタラクティブモードにおいては、例えば表計算ソフトウェアなどのデータの画像が表示され、その画像内に表示された各種のツールやアイコンを利用してデータの入力、作成、修正等を行うことが可能となる。   Note that the interactive projection system 900 can operate in modes other than the whiteboard mode. For example, the system 900 can also operate in a PC interactive mode in which an image of data transferred from a personal computer (not shown) via a communication line is displayed on the projection screen PS. In the PC interactive mode, for example, an image of data such as spreadsheet software is displayed, and it is possible to input, create, and correct data using various tools and icons displayed in the image. .

図3は、インタラクティブプロジェクター100と自発光指示体70の内部構成を示すブロック図である。プロジェクター100は、制御部700と、投写部200と、投写画像生成部500と、位置検出部600と、撮像部300と、信号光送信部430と、層状検出光照射部440とを有している。   FIG. 3 is a block diagram showing the internal configuration of the interactive projector 100 and the self-luminous indicator 70. The projector 100 includes a control unit 700, a projection unit 200, a projection image generation unit 500, a position detection unit 600, an imaging unit 300, a signal light transmission unit 430, and a layered detection light irradiation unit 440. Yes.

制御部700は、プロジェクター100内部の各部の制御を行う。また、制御部700は、位置検出部600で検出された指示体(自発光指示体70や非発光指示体80)の指示位置に応じて、投写画面PS上で行われた指示の内容を判定するとともに、その指示の内容に従って投写画像を作成又は変更することを投写画像生成部500に指令する。   The control unit 700 controls each unit in the projector 100. In addition, the control unit 700 determines the content of the instruction made on the projection screen PS according to the indication position of the indicator (self-luminous indicator 70 or non-luminous indicator 80) detected by the position detector 600. In addition, it instructs the projection image generation unit 500 to create or change the projection image according to the contents of the instruction.

投写画像生成部500は、投写画像を記憶する投写画像メモリー510を有しており、投写部200によって投写面SS上に投写される投写画像を生成する機能を有する。投写画像生成部500は、更に、投写画面PS(図2A)の台形歪みを補正するキーストーン補正部としての機能を有することが好ましい。   The projection image generation unit 500 includes a projection image memory 510 that stores the projection image, and has a function of generating a projection image projected on the projection plane SS by the projection unit 200. The projected image generation unit 500 preferably further has a function as a keystone correction unit that corrects the trapezoidal distortion of the projection screen PS (FIG. 2A).

投写部200は、投写画像生成部500で生成された投写画像を投写面SS上に投写する機能を有する。投写部200は、図2Bで説明した投写レンズ210の他に、光変調部220と、光源230とを有する。光変調部220は、投写画像メモリー510から与えられる投写画像データに応じて光源230からの光を変調することによって投写画像光IMLを形成する。この投写画像光IMLは、典型的には、RGBの3色の可視光を含むカラー画像光であり、投写レンズ210によって投写面SS上に投写される。なお、光源230としては、超高圧水銀ランプ等の光源ランプの他、発光ダイオードやレーザーダイオード等の種々の光源を採用可能である。また、光変調部220としては、透過型又は反射型の液晶パネルやデジタルミラーデバイス等を採用可能であり、色光別に複数の光変調部220を備えた構成としてもよい。   The projection unit 200 has a function of projecting the projection image generated by the projection image generation unit 500 onto the projection surface SS. The projection unit 200 includes a light modulation unit 220 and a light source 230 in addition to the projection lens 210 described with reference to FIG. 2B. The light modulator 220 modulates the light from the light source 230 according to the projection image data given from the projection image memory 510 to form the projection image light IML. The projection image light IML is typically color image light including three colors of visible light of RGB, and is projected on the projection surface SS by the projection lens 210. As the light source 230, various light sources such as a light emitting diode and a laser diode can be adopted in addition to a light source lamp such as an ultra-high pressure mercury lamp. Further, as the light modulation unit 220, a transmissive or reflective liquid crystal panel, a digital mirror device, or the like can be adopted, and a configuration including a plurality of light modulation units 220 for each color light may be employed.

信号光送信部430は、自発光指示体70によって受信される装置信号光ASLを送信する機能を有する。装置信号光ASLは、同期用の近赤外光信号であり、プロジェクター100の信号光送信部430から自発光指示体70に対して定期的に発せられる。自発光指示体70の先端発光部77は、装置信号光ASLに同期して、予め定められた発光パターン(発光シーケンス)を有する近赤外光である指示体信号光PSL(後述)を発する。また、撮像部300のカメラ310は、指示体(自発光指示体70及び非発光指示体80)の位置検出を行う際に、装置信号光ASLに同期した所定のタイミングで撮像を実行する。   The signal light transmitter 430 has a function of transmitting the device signal light ASL received by the self-light emitting indicator 70. The apparatus signal light ASL is a synchronizing near-infrared light signal, and is periodically emitted from the signal light transmission unit 430 of the projector 100 to the self-luminous indicator 70. The tip light emitting unit 77 of the self-light emitting indicator 70 emits indicator signal light PSL (described later) that is near infrared light having a predetermined light emission pattern (light emission sequence) in synchronization with the device signal light ASL. In addition, the camera 310 of the imaging unit 300 executes imaging at a predetermined timing synchronized with the apparatus signal light ASL when detecting the positions of the indicators (the self-emission indicator 70 and the non-emission indicator 80).

撮像部300は、図2A,図2Bで説明したカメラ310を有している。前述したように、このカメラ310は、層状検出光LLと自発光指示体70が発する赤外光の波長を含む波長領域の光を受光して撮像する機能を有する。図3の例では、層状検出光照射部440によって照射された層状検出光LLが指示体(自発光指示体70及び非発光指示体80)で反射され、その反射検出光RDLがカメラ310によって受光されて撮像される様子が描かれている。カメラ310は、更に、自発光指示体70の先端発光部77から発せられる近赤外光である指示体信号光PSLも受光して撮像する。カメラ310の撮像は、層状検出光照射部440から発せられる層状検出光LLがオン状態(発光状態)である第1の期間と、層状検出光LLがオフ状態(非発光状態)である第2の期間と、の両方で実行される。位置検出部600は、これらの2種類の期間における画像を比較することによって、画像内に含まれる個々の指示体が、自発光指示体70と非発光指示体80のいずれであるかを判定することが可能である。   The imaging unit 300 includes the camera 310 described with reference to FIGS. 2A and 2B. As described above, the camera 310 has a function of receiving and imaging light in a wavelength region including the layered detection light LL and the wavelength of the infrared light emitted from the self-luminous indicator 70. In the example of FIG. 3, the layered detection light LL irradiated by the layered detection light irradiating unit 440 is reflected by the indicators (the self-emission indicator 70 and the non-emission indicator 80), and the reflected detection light RDL is received by the camera 310. The state of being captured is depicted. The camera 310 further receives and images the indicator signal light PSL which is near infrared light emitted from the tip light emitting unit 77 of the self-emission indicator 70. Imaging by the camera 310 includes a first period in which the layered detection light LL emitted from the layered detection light irradiation unit 440 is in an on state (light emission state) and a second period in which the layered detection light LL is in an off state (non-light emission state). It is executed both in the period. The position detection unit 600 determines whether each indicator included in the image is the self-emission indicator 70 or the non-emission indicator 80 by comparing the images in these two types of periods. It is possible.

位置検出部600は、カメラ310で撮像された画像を解析して、指示体(自発光指示体70や非発光指示体80)の指示位置を決定する機能を有する。この際、位置検出部600は、自発光指示体70の発光パターンを利用して、画像内の個々の指示体が自発光指示体70と非発光指示体80のいずれであるかについても判定する。本実施形態において、位置検出部600は、検出部610と、キャリブレーション実行部620と、を有している。検出部610は、カメラ310で撮像された撮像画像を解析して指示体の指示位置を検出する機能を有する。キャリブレーション実行部620は、後述するオートキャリブレーション(撮像画像上の位置と投写画像メモリー510内の画像データ上の位置との対応付け)を実行する機能を有する。オートキャリブレーションの結果は、検出部610が指示体の指示位置を検出する際に利用される。すなわち、図2Aに示すように指示体70を用いた指示が行われると、検出部610は、オートキャリブレーションで決定された位置の対応関係を用い、撮像部300のカメラ310で撮像された指示体70を含む撮像画像に基づいて、指示体70により指示された指示位置を検出する。このオートキャリブレーションの結果、撮像画像上の位置と投写画像メモリー510内の画像データ上の位置との対応関係が決定される。この対応関係は、投写面SS上の位置とプロジェクター100の座標との対応関係にも相当する。   The position detection unit 600 has a function of analyzing an image captured by the camera 310 and determining an indication position of an indicator (the self-emission indicator 70 or the non-emission indicator 80). At this time, the position detection unit 600 determines whether each indicator in the image is the self-emission indicator 70 or the non-emission indicator 80 using the light emission pattern of the self-emission indicator 70. . In the present embodiment, the position detection unit 600 includes a detection unit 610 and a calibration execution unit 620. The detection unit 610 has a function of analyzing a captured image captured by the camera 310 and detecting an instruction position of the indicator. The calibration execution unit 620 has a function of executing auto-calibration (correspondence between a position on a captured image and a position on image data in the projection image memory 510) described later. The result of the auto calibration is used when the detection unit 610 detects the indication position of the indicator. That is, when an instruction using the indicator 70 is performed as illustrated in FIG. 2A, the detection unit 610 uses the position correspondence determined by auto-calibration, and the instruction captured by the camera 310 of the imaging unit 300. Based on the captured image including the body 70, the indicated position indicated by the indicator 70 is detected. As a result of this auto-calibration, the correspondence between the position on the captured image and the position on the image data in the projection image memory 510 is determined. This correspondence also corresponds to the correspondence between the position on the projection surface SS and the coordinates of the projector 100.

自発光指示体70には、ボタンスイッチ73の他に、信号光受信部74と、制御部75と、先端スイッチ76と、先端発光部77とが設けられている。信号光受信部74は、プロジェクター100の信号光送信部430から発せられた装置信号光ASLを受信する機能を有する。先端スイッチ76は、自発光指示体70の先端部71が押されるとオン状態になり、先端部71が解放されるとオフ状態になるスイッチである。先端スイッチ76は、通常はオフ状態にあり、自発光指示体70の先端部71が投写面SSに接触するとその接触圧によってオン状態になる。先端スイッチ76がオフ状態のときには、制御部75は、先端スイッチ76がオフ状態であることを示す特定の第1の発光パターンで先端発光部77を発光させることによって、第1の発光パターンを有する指示体信号光PSLを発する。一方、先端スイッチ76がオン状態になると、制御部75は、先端スイッチ76がオン状態であることを示す特定の第2の発光パターンで先端発光部77を発光させることによって、第2の発光パターンを有する指示体信号光PSLを発する。これらの第1の発光パターンと第2の発光パターンは、互いに異なるので、位置検出部600は、カメラ310で撮像された画像を分析することによって、先端スイッチ76がオン状態かオフ状態かを識別することが可能である。   In addition to the button switch 73, the self light emitting indicator 70 is provided with a signal light receiving unit 74, a control unit 75, a tip switch 76, and a tip light emitting unit 77. The signal light receiver 74 has a function of receiving the device signal light ASL emitted from the signal light transmitter 430 of the projector 100. The tip switch 76 is a switch that is turned on when the tip 71 of the self-luminous indicator 70 is pressed and turned off when the tip 71 is released. The tip switch 76 is normally in an off state, and when the tip 71 of the self-luminous indicator 70 comes into contact with the projection surface SS, the tip switch 76 is turned on by the contact pressure. When the tip switch 76 is in the OFF state, the control unit 75 has the first light emission pattern by causing the tip light emitting unit 77 to emit light with a specific first light emission pattern indicating that the tip switch 76 is in the OFF state. The indicator signal light PSL is emitted. On the other hand, when the tip switch 76 is turned on, the control unit 75 causes the tip light emitting unit 77 to emit light with a specific second light emission pattern indicating that the tip switch 76 is turned on. The indicator signal light PSL having Since the first light emission pattern and the second light emission pattern are different from each other, the position detection unit 600 identifies whether the tip switch 76 is in the on state or the off state by analyzing the image captured by the camera 310. Is possible.

自発光指示体70のボタンスイッチ73は、先端スイッチ76と同じ機能を有する。従って、制御部75は、ユーザーによってボタンスイッチ73が押された状態では上記第2の発光パターンで先端発光部77を発光させ、ボタンスイッチ73が押されていない状態では上記第1の発光パターンで先端発光部77を発光させる。換言すれば、制御部75は、先端スイッチ76とボタンスイッチ73の少なくとも一方がオンの状態では上記第2の発光パターンで先端発光部77を発光させ、先端スイッチ76とボタンスイッチ73の両方がオフの状態では上記第1の発光パターンで先端発光部77を発光させる。   The button switch 73 of the self-luminous indicator 70 has the same function as the tip switch 76. Accordingly, the control unit 75 causes the tip light emitting unit 77 to emit light with the second light emission pattern when the button switch 73 is pressed by the user, and uses the first light emission pattern when the button switch 73 is not pressed. The tip light emitting unit 77 emits light. In other words, the control unit 75 causes the tip light emitting unit 77 to emit light with the second light emission pattern when at least one of the tip switch 76 and the button switch 73 is on, and both the tip switch 76 and the button switch 73 are off. In this state, the tip light emitting portion 77 is caused to emit light with the first light emission pattern.

但し、ボタンスイッチ73に対して先端スイッチ76と異なる機能を割り当てるようにしてもよい。例えば、ボタンスイッチ73に対してマウスの右クリックボタンと同じ機能を割り当てた場合には、ユーザーがボタンスイッチ73を押すと、右クリックの指示がプロジェクター100の制御部700に伝達され、その指示に応じた処理が実行される。このように、ボタンスイッチ73に対して先端スイッチ76と異なる機能を割り当てた場合には、先端発光部77は、先端スイッチ76のオン/オフ状態及びボタンスイッチ73のオン/オフ状態に応じて、互いに異なる4つの発光パターンで発光する。この場合には、自発光指示体70は、先端スイッチ76とボタンスイッチ73のオン/オフ状態の4つの組み合わせを区別しつつ、プロジェクター100に伝達することが可能である。   However, a function different from the tip switch 76 may be assigned to the button switch 73. For example, when the same function as that of the right click button of the mouse is assigned to the button switch 73, when the user presses the button switch 73, a right click instruction is transmitted to the control unit 700 of the projector 100, and the instruction is received. A corresponding process is executed. As described above, when a function different from that of the tip switch 76 is assigned to the button switch 73, the tip light emitting unit 77 depends on the on / off state of the tip switch 76 and the on / off state of the button switch 73. Light is emitted with four different light emission patterns. In this case, the self-luminous indicator 70 can transmit to the projector 100 while distinguishing the four combinations of the on / off states of the tip switch 76 and the button switch 73.

図3に描かれている5種類の信号光の具体例をまとめると以下の通りである。
(1)投写画像光IML:投写面SSに投写画面PSを投写するために、投写レンズ210によって投写面SS上に投写される画像光(可視光)である。
(2)層状検出光LL: 非発光指示体80の指示位置を検出するために、投写画面PSの全面にわたって照射されるカーテン状の近赤外光である。
(3)反射検出光RDL:層状検出光LLとして照射された近赤外光のうち、指示体(自発光指示体70及び非発光指示体80)によって反射され、カメラ310によって受光される近赤外光である。
(4)装置信号光ASL:プロジェクター100と自発光指示体70との同期をとるために、プロジェクター100の信号光送信部430から定期的に発せられる近赤外光である。
(5)指示体信号光PSL:装置信号光ASLに同期したタイミングで、自発光指示体70の先端発光部77から発せられる近赤外光である。指示体信号光PSLの発光パターンは、自発光指示体70のスイッチ73,76のオン/オフ状態に応じて変更される。また、複数の自発光指示体70を識別する固有の発光パターンを有する。
Specific examples of the five types of signal light depicted in FIG. 3 are summarized as follows.
(1) Projected image light IML: Image light (visible light) projected onto the projection surface SS by the projection lens 210 in order to project the projection screen PS onto the projection surface SS.
(2) Layered detection light LL: Curtain-like near-infrared light that is irradiated over the entire surface of the projection screen PS in order to detect the indicated position of the non-light emitting indicator 80.
(3) Reflected detection light RDL: Near-red light reflected by the indicators (self-luminous indicator 70 and non-luminous indicator 80) of the near-infrared light emitted as the layered detection light LL and received by the camera 310 It is outside light.
(4) Device signal light ASL: near-infrared light periodically emitted from the signal light transmission unit 430 of the projector 100 in order to synchronize the projector 100 and the self-luminous indicator 70.
(5) Indicator signal light PSL: Near-infrared light emitted from the tip light emitting part 77 of the self-emission indicator 70 at a timing synchronized with the device signal light ASL. The light emission pattern of the indicator signal light PSL is changed according to the on / off state of the switches 73 and 76 of the self-light emission indicator 70. Further, it has a unique light emission pattern for identifying the plurality of self-light emitting indicators 70.

図4は、オートキャリブレーションに利用されるオートキャリブレーション画像ACPの一例を示す説明図である。この例では、5×5個のキャリブレーションマークCMを含むオートキャリブレーション画像ACPが、投写面SS上に投写されている。図4の下部に拡大して示すように、1つのキャリブレーションマークCMは、複数の明領域LA(明るい矩形部分)と複数の暗領域DA(暗い矩形部分)が規則的に配列された形状を有する。なお、この例では、暗領域DAの明度は背景と同じであり、背景の一部となっている。キャリブレーションマークCMの中心位置CCは、中央にある明領域LAと暗領域DAの交点位置として認識される。撮像部300(カメラ310)は、投写面SS上に投写されたオートキャリブレーション画像ACPを多階調画像として撮像することが可能である。なお、投写画像メモリー510(図3)に格納されているオートキャリブレーション画像データでは、例えば、明領域LAは全白の領域であり、暗領域DAは全黒の領域である。但し、投写面SS上に投写された状態では、投写面SSの光反射/吸収特性や環境光の影響のため、明領域LAは全白領域でなく、暗領域DAも全黒領域ではない。従って、撮像部300で撮像される多階調のオートキャリブレーション画像ACPにおいて、明領域LAは画素値がその可能最大値(例えば10ビットでは1023)よりもやや小さな画素値を有する高明度の領域となり、暗領域DAは画素値がゼロよりもやや大きな画素値を有する低明度の領域となる。   FIG. 4 is an explanatory diagram showing an example of an auto calibration image ACP used for auto calibration. In this example, an auto calibration image ACP including 5 × 5 calibration marks CM is projected on the projection surface SS. As shown in an enlarged view in the lower part of FIG. 4, one calibration mark CM has a shape in which a plurality of bright areas LA (bright rectangular parts) and a plurality of dark areas DA (dark rectangular parts) are regularly arranged. Have. In this example, the brightness of the dark area DA is the same as that of the background and is a part of the background. The center position CC of the calibration mark CM is recognized as the intersection position of the bright area LA and the dark area DA in the center. The imaging unit 300 (camera 310) can capture the auto calibration image ACP projected on the projection surface SS as a multi-tone image. In the auto-calibration image data stored in the projection image memory 510 (FIG. 3), for example, the bright area LA is an all white area, and the dark area DA is an all black area. However, when projected onto the projection surface SS, the light area LA is not an all white area and the dark area DA is not an all black area due to the light reflection / absorption characteristics of the projection surface SS and the influence of ambient light. Therefore, in the multi-gradation auto-calibration image ACP imaged by the imaging unit 300, the bright area LA has a high brightness area in which the pixel value is slightly smaller than the maximum possible value (for example, 1023 for 10 bits). Thus, the dark area DA is a low brightness area having a pixel value slightly larger than zero.

キャリブレーション実行部620(図3)は、このオートキャリブレーション画像ACPを投写部200に投写させた状態で撮像部300に撮像させ、撮像されたオートキャリブレーション画像ACPを解析して、個々のキャリブレーションマークCMの中心位置CCを検出する。一方、このオートキャリブレーション画像ACPの画像データは、投写画像メモリー510内に格納されており、その画像データにおけるキャリブレーションマークCMの中心位置CCは既知である。従って、キャリブレーション実行部620は、撮像されたオートキャリブレーション画像ACPの解析結果から、撮像部300で撮像される撮像画像上の位置と、投写画像メモリー510内の画像データ上の位置との対応関係を決定することが可能である。   The calibration execution unit 620 (FIG. 3) causes the imaging unit 300 to capture the auto-calibration image ACP projected on the projection unit 200, analyzes the captured auto-calibration image ACP, and performs individual calibration. The center position CC of the action mark CM is detected. On the other hand, the image data of the auto calibration image ACP is stored in the projection image memory 510, and the center position CC of the calibration mark CM in the image data is known. Therefore, the calibration execution unit 620 associates the position on the captured image captured by the imaging unit 300 with the position on the image data in the projection image memory 510 based on the analysis result of the captured auto-calibration image ACP. It is possible to determine the relationship.

図5は、不適切な明度を有するオートキャリブレーション画像ACPにおけるキャリブレーションマークCMの例を示す説明図である。この例では、図4に比べて明領域LAと暗領域DAの明度がいずれも過度に高くなっている。このようなキャリブレーションマークCMでは、明領域LAと暗領域DAの境界が不明確なので、キャリブレーションマークCMの中心位置CCを精度良く検出することが困難であり、オートキャリブレーションの精度が低下してしまう可能性がある。そこで、キャリブレーション実行部620は、以下に説明するように、撮像されたオートキャリブレーション画像ACPが適切な明度を有するように、撮像部300(カメラ310)の露出の調整を実行する。   FIG. 5 is an explanatory diagram showing an example of the calibration mark CM in the auto-calibration image ACP having inappropriate brightness. In this example, the brightness of the light area LA and the dark area DA is excessively higher than in FIG. In such a calibration mark CM, since the boundary between the bright area LA and the dark area DA is unclear, it is difficult to accurately detect the center position CC of the calibration mark CM, and the accuracy of auto-calibration decreases. There is a possibility that. Therefore, the calibration execution unit 620 adjusts the exposure of the imaging unit 300 (camera 310) so that the captured auto-calibration image ACP has appropriate brightness as described below.

図6は、露出調整を含むオートキャリブレーションの実行手順を示すフローチャートである。この実行手順は、キャリブレーション実行部620の制御の下で行われる。ステップS110では、撮像部300のカメラ310の露出を初期設定する。露出の初期設定値としては、例えば、カメラ310の最小露出値又はそれに近い値を利用可能である。この理由は、撮像されるオートキャリブレーション画像ACPが不適切な明度を有するのは、外部からの環境光(例えば太陽光)が強すぎて、露出過多となる場合が多いと想定されるからである。   FIG. 6 is a flowchart showing an execution procedure of auto calibration including exposure adjustment. This execution procedure is performed under the control of the calibration execution unit 620. In step S110, the exposure of the camera 310 of the imaging unit 300 is initialized. For example, a minimum exposure value of the camera 310 or a value close thereto can be used as the initial exposure setting value. This is because the auto-calibration image ACP to be captured has an inappropriate brightness because it is assumed that the external ambient light (for example, sunlight) is too strong and often overexposed. is there.

ステップS120では、投写部200がオートキャリブレーション画像ACPを投写面SSに投写し、撮像部300がその画像を撮像する。ステップS130では、撮像されたオートキャリブレーション画像ACPのうちの周辺領域を除外して、中央領域のみを明度の調査対象とする。この理由は、周辺領域は環境光の影響によるノイズが多く含まれている可能性があるため、周辺領域を含むオートキャリブレーション画像ACPの全体に関して明度を求めてしまうと、露出調整に適した明度が得られない可能性があるためである。   In step S120, the projection unit 200 projects the auto calibration image ACP on the projection surface SS, and the imaging unit 300 captures the image. In step S130, the peripheral area of the captured auto-calibration image ACP is excluded, and only the central area is set as the lightness investigation target. This is because the surrounding area may contain a lot of noise due to the influence of ambient light. Therefore, if the brightness is obtained with respect to the entire auto-calibration image ACP including the surrounding area, the brightness suitable for exposure adjustment. This is because there is a possibility that cannot be obtained.

図6のステップS130に示した例では、撮像されたオートキャリブレーション画像ACPのうちで、左右の両端部の領域をそれぞれ除外しているが、この代わりに、上端部の領域と上端部の領域とをそれぞれ除外しても良い。或いは、左右の両端部の領域に加えて、上下の両端部の領域も除外しても良い。また、図6の例では、除外した左端部と右端部の領域のサイズは、撮像されたオートキャリブレーション画像ACPの幅のそれぞれ約1/3であり、残った中央領域の幅も撮像されたオートキャリブレーション画像ACPの幅の約1/3となっているが、除外する領域のサイズは適宜好ましい値に設定可能である。これらの説明から理解できるように、明度を調べる際には、撮像されたオートキャリブレーション画像ACPの周縁に存在する一部の領域を除外し、除外した領域以外の中央領域における明度を調べることが好ましい。但し、周縁の領域を除外せずに、撮像されたオートキャリブレーション画像ACPの全体を明度の調査対象としても良い。   In the example shown in step S130 of FIG. 6, the left and right end regions are excluded from the captured auto-calibration image ACP. Instead, the upper end region and the upper end region are excluded. And may be respectively excluded. Alternatively, the upper and lower end regions may be excluded in addition to the left and right end portions. In the example of FIG. 6, the size of the excluded left end portion and right end portion area is about 1/3 of the width of the captured auto-calibration image ACP, and the width of the remaining central region is also imaged. Although it is about 1/3 of the width of the auto calibration image ACP, the size of the area to be excluded can be set to a preferable value as appropriate. As can be understood from these explanations, when examining the brightness, a part of the area existing at the periphery of the captured auto-calibration image ACP is excluded, and the brightness in the central area other than the excluded area is examined. preferable. However, the entire captured auto-calibration image ACP may be the lightness investigation target without excluding the peripheral region.

ステップS140では、撮像されたオートキャリブレーション画像ACPの調査対象領域の画素の画素値を調べて、最高明度Lmaxを求める。この際、精度をより高めるために、オートキャリブレーション画像ACPの撮像を複数回実行し、撮像された複数のオートキャリブレーション画像ACPの最高明度Lmaxの平均値を求めるようにしてもよい。なお、本明細書において、「最高明度Lmax」とは、特定の表色系の明度を意味しているのではなく、調査対象領域の画素値の中で最も大きな画素値を意味している。   In step S140, the pixel value of the pixel in the investigation target area of the captured auto-calibration image ACP is examined to obtain the maximum brightness Lmax. At this time, in order to further improve the accuracy, the auto calibration image ACP may be captured a plurality of times, and the average value of the maximum brightness Lmax of the plurality of captured auto calibration images ACP may be obtained. In the present specification, “maximum brightness Lmax” does not mean the brightness of a specific color system, but means the largest pixel value among the pixel values in the investigation target area.

ステップS150では、得られた最高明度Lmaxが予め設定された許容範囲内にあるか否かが判定される。最高明度Lmaxが許容範囲内に無い場合にはステップS160に移行し、許容範囲内にある場合にはステップS170に移行する。最高明度Lmaxの許容範囲は、例えば、明度の可能最大値の80%±5%の範囲に設定可能である。ここで、「明度の可能最大値」は、複数ビットの画素値が取り得る最大値を意味している。例えば画素値が10ビットで表現される場合には、「明度の可能最大値」は十進数で1023である。なお、最高明度Lmaxの許容範囲は、明度の可能最大値(例えば1023)を含まないことが好ましい。この理由は、環境光の影響で明領域LAの最高明度Lmaxが可能最大値(=1023)に達している場合に、それが許容範囲内にあるものと判定しないようにするためである。なお、キャリブレーションマークCMの中心位置CCを精度良く求めるために、最高明度Lmaxの許容範囲は、明度の中央値(10ビットの画素値では十進数で512)よりも可能最大値により近い範囲に設定されることが好ましい。   In step S150, it is determined whether or not the obtained maximum brightness Lmax is within a preset allowable range. If the maximum brightness Lmax is not within the allowable range, the process proceeds to step S160, and if it is within the allowable range, the process proceeds to step S170. The allowable range of the maximum brightness Lmax can be set, for example, in a range of 80% ± 5% of the maximum possible brightness value. Here, the “maximum possible value of brightness” means the maximum value that can be taken by a pixel value of a plurality of bits. For example, when the pixel value is expressed by 10 bits, the “maximum possible brightness value” is 1023 in decimal. Note that the allowable range of the maximum brightness Lmax preferably does not include the maximum possible brightness value (for example, 1023). The reason is that when the maximum brightness Lmax of the bright area LA has reached the maximum possible value (= 1023) due to the influence of ambient light, it is not determined that it is within the allowable range. In order to accurately determine the center position CC of the calibration mark CM, the allowable range of the maximum brightness Lmax is closer to the maximum possible value than the median value of brightness (512 in decimal for a 10-bit pixel value). It is preferably set.

最高明度Lmaxが許容範囲内に無い場合には、ステップS160において、カメラ310の露出が調整される。例えば、最高明度Lmaxが許容範囲よりも低い場合にはカメラ310の露出値をN1だけ増大させ、逆に、最高明度Lmaxが許容範囲よりも高い場合にはカメラ310の露出値をN2だけ減少させる。露出の増大幅N1は、露出の減少幅N2より大きく設定しておくことが好ましい。例えば、露出値を8ビットで表現する場合には、N1=8、N2=1に設定することが可能である。ここで、露出の増大幅N1を減少幅N2よりも大きくした理由は、ステップS110における露出の初期設定値をカメラ310の最小露出値に近い値としたからである。露出の増大幅N1を減少幅N2よりも大きくしておけば、最高明度Lmaxを短時間で許容範囲に近づけることが可能である。また、最高明度Lmaxが許容範囲よりも高くなった後は、より小さな減少幅N2で露出を調整することによって、最高明度Lmaxを適切な許容範囲に納めることが可能となる。但し、露出の調整方法は、上述したものに限らず、他の各種の調整方法を採用可能である。   If the maximum brightness Lmax is not within the allowable range, the exposure of the camera 310 is adjusted in step S160. For example, when the maximum brightness Lmax is lower than the allowable range, the exposure value of the camera 310 is increased by N1, and conversely, when the maximum brightness Lmax is higher than the allowable range, the exposure value of the camera 310 is decreased by N2. . The increased exposure width N1 is preferably set larger than the decreased exposure width N2. For example, when the exposure value is expressed by 8 bits, it is possible to set N1 = 8 and N2 = 1. Here, the reason why the increase width N1 of exposure is made larger than the decrease width N2 is that the initial exposure value in step S110 is set to a value close to the minimum exposure value of the camera 310. If the increase width N1 of exposure is larger than the decrease width N2, the maximum brightness Lmax can be brought close to the allowable range in a short time. Further, after the maximum brightness Lmax becomes higher than the allowable range, the maximum brightness Lmax can be set within an appropriate allowable range by adjusting the exposure with a smaller reduction width N2. However, the exposure adjustment method is not limited to that described above, and other various adjustment methods can be employed.

上述したステップS110〜S160の処理によってカメラ310の露出が適正な値に調整されると、ステップS170において、その適正露出で撮像されたオートキャリブレーション画像ACPを用いて、オートキャリブレーションが実行される。すなわち、キャリブレーション実行部620は、撮像されたオートキャリブレーション画像ACPを解析して、個々のキャリブレーションマークCMの中心位置CCを検出し、撮像部300で撮像される撮像画像上の位置と、投写画像メモリー510内の画像データ上の位置との対応関係を決定する。   When the exposure of the camera 310 is adjusted to an appropriate value by the processing in steps S110 to S160 described above, autocalibration is executed using the autocalibration image ACP captured at the appropriate exposure in step S170. . That is, the calibration execution unit 620 analyzes the captured auto-calibration image ACP, detects the center position CC of each calibration mark CM, and the position on the captured image captured by the imaging unit 300; The correspondence with the position on the image data in the projection image memory 510 is determined.

以上のように、本実施形態では、撮像部300により撮像されたオートキャリブレーション画像ACPの明度が予め定めた許容範囲内に収まるように撮像部300の露出を調整するので、撮像されたオートキャリブレーション画像ACPの明度を画像解析のための好ましい範囲に納めることができる。この結果、プロジェクター100の設置環境の影響によって撮像画像の明度が不適切となってしまう可能がある場合にも、投写画像メモリー510内の投写画像上の位置と、撮像部300で撮像された撮影画像上の位置の対応付けを精度良く行うことが可能である。   As described above, in the present embodiment, the exposure of the imaging unit 300 is adjusted so that the brightness of the auto calibration image ACP captured by the imaging unit 300 is within a predetermined allowable range. The brightness of the motion image ACP can fall within a preferable range for image analysis. As a result, even when the brightness of the captured image may become inappropriate due to the influence of the installation environment of the projector 100, the position on the projection image in the projection image memory 510 and the image captured by the imaging unit 300 are captured. It is possible to accurately associate positions on the image.

・変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
・ Modification:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

・変形例1:
上記実施形態では、撮像されたオートキャリブレーション画像ACPの最高明度Lmaxがその許容範囲内に収まるように撮像部300の露出を調整していたが、最高明度Lmax以外の他の明度値を利用して露出の調整を行っても良い。例えば、撮像されたオートキャリブレーション画像ACPの調査対象領域における平均明度がその許容範囲内に収まるように撮像部300の露出を調整しても良く、或いは、調査対象領域内にある明領域LAの平均明度がその許容範囲内に収まるように撮像部300の露出を調整しても良い。後者の場合には、個々の画素が明領域LAに属しているか否かは、例えば、その画素値が中央値(10ビットの画素値では十進数で512)以上か否かによって判定することができる。
・ Modification 1:
In the above embodiment, the exposure of the imaging unit 300 is adjusted so that the maximum brightness Lmax of the captured auto-calibration image ACP is within the allowable range, but other brightness values other than the maximum brightness Lmax are used. You may adjust the exposure. For example, the exposure of the imaging unit 300 may be adjusted so that the average brightness in the survey target area of the captured auto-calibration image ACP falls within the allowable range, or the bright area LA in the survey target area may be adjusted. The exposure of the imaging unit 300 may be adjusted so that the average brightness falls within the allowable range. In the latter case, whether or not each pixel belongs to the bright area LA can be determined, for example, by determining whether or not the pixel value is equal to or greater than the median value (a decimal value of 512 for a 10-bit pixel value). it can.

・変形例2:
上記実施形態では、明領域LA(白領域)と暗領域DA(黒領域)の2種類の矩形形状が組み合わされたキャリブレーションマークCMを有するオートキャリブレーション画像ACPを利用していたが、オートキャリブレーション画像としてはこれ以外の種々の形状を有するキャリブレーションマークを含む画像を利用可能である。また、キャリブレーションマークの個数も任意に設定可能である。
Modification 2
In the above embodiment, the auto calibration image ACP having the calibration mark CM in which two types of rectangular shapes of the bright area LA (white area) and the dark area DA (black area) are combined is used. As the calibration image, an image including calibration marks having various other shapes can be used. Further, the number of calibration marks can be arbitrarily set.

・変形例3:
上記実施形態では、層状検出光LLを利用したインタラクティブプロジェクターを説明したが、本発明は、層状検出光LLを利用しないタイプのインタラクティブプロジェクターにも適用可能である。例えば、複数のカメラで撮像した複数の撮像画像を用い、ステレオカメラ方式(三角測量)で指示体の指示位置を検出するインタラクティブプロジェクターにも本発明を適用可能である。この場合には、各カメラに関して図6で説明した露出調整を行うことが好ましい。
・ Modification 3:
Although the interactive projector using the layered detection light LL has been described in the above embodiment, the present invention can also be applied to an interactive projector that does not use the layered detection light LL. For example, the present invention can also be applied to an interactive projector that uses a plurality of captured images captured by a plurality of cameras and detects the pointing position of a pointer by a stereo camera method (triangulation). In this case, it is preferable to perform the exposure adjustment described with reference to FIG. 6 for each camera.

以上、いくつかの実施例に基づいて本発明の実施の形態について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得るとともに、本発明にはその等価物が含まれることはもちろんである。   The embodiments of the present invention have been described above based on some examples. However, the above-described embodiments of the present invention are for facilitating the understanding of the present invention and limit the present invention. It is not a thing. The present invention can be changed and improved without departing from the spirit and scope of the claims, and it is needless to say that the present invention includes equivalents thereof.

70…自発光指示体,71…先端部,72…軸部,73…ボタンスイッチ,74…信号光受信部,75…制御部,76…先端スイッチ,77…先端発光部,80…非発光指示体,100…インタラクティブプロジェクター,200…投写部,210…投写レンズ,220…光変調部,230…光源,300…撮像部,310…カメラ,430…信号光送信部,440…層状検出光照射部,500…投写画像生成部,510…投写画像メモリー,600…位置検出部,610…検出部,620…キャリブレーション実行部,700…制御部,900…インタラクティブプロジェクションシステム,910…支持部材,920…スクリーン板,ACP…オートキャリブレーション画像,ASL…装置信号光,CC…中心位置,CM…キャリブレーションマーク,DA…暗領域,ERB…消しゴムボタン,FRB…前方/後方ボタン,IML…投写画像光,L…距離,LA…明領域,LL…層状検出光,PEB…ペンボタン,PS…投写画面,PSL…指示体信号光,PTB…ポインターボタン,RDL…反射検出光,SS…投写面,TB…ツールボックス,UDB…取消ボタン   DESCRIPTION OF SYMBOLS 70 ... Self-light-emitting indicator, 71 ... Tip part, 72 ... Shaft part, 73 ... Button switch, 74 ... Signal light receiving part, 75 ... Control part, 76 ... Tip switch, 77 ... Tip light-emitting part, 80 ... Non-light-emitting instruction Body: 100 Interactive projector, 200 Projection unit, 210 Projection lens, 220 Light modulation unit, 230 Light source, 300 Imaging unit, 310 Camera, 430 Signal light transmission unit, 440 Layer detection light irradiation unit , 500 ... Projection image generation unit, 510 ... Projection image memory, 600 ... Position detection unit, 610 ... Detection unit, 620 ... Calibration execution unit, 700 ... Control unit, 900 ... Interactive projection system, 910 ... Support member, 920 ... Screen plate, ACP ... Auto calibration image, ASL ... Device signal light, CC ... Center position, CM ... Calibration DA, dark area, ERB, eraser button, FRB, forward / backward button, IML, projected image light, L, distance, LA, bright area, LL, layered detection light, PEB, pen button, PS, projected screen, PSL ... Indicator signal light, PTB ... Pointer button, RDL ... Reflection detection light, SS ... Projection plane, TB ... Tool box, UDB ... Cancel button

Claims (4)

投写面に対するユーザーの指示体による指示を受け取ることが可能なインタラクティブプロジェクターであって、
投写画像メモリーに格納された画像データに従って前記投写面に画像を投写する投写部と、
前記投写面を撮像して撮像画像を生成する撮像部と、
前記投写部から複数のキャリブレーションマークを含むオートキャリブレーション画像を投写させている状態で前記撮像部に前記投写面を撮像させ、撮像されたオートキャリブレーション画像内の前記複数のキャリブレーションマークの位置に基づいて、前記撮像部で撮像される撮像画像上の位置と前記投写画像メモリー内の画像データ上の位置との対応関係を決定するオートキャリブレーションを実行可能なキャリブレーション実行部と、
前記オートキャリブレーションで決定された位置の対応関係を用い、前記撮像部で撮像された指示体を含む撮像画像に基づいて、前記指示体により指示された指示位置を検出する検出部と、
を備え、
前記キャリブレーション実行部は、前記オートキャリブレーションの実行時において、前記撮像部により撮像されたオートキャリブレーション画像の明度が予め定めた許容範囲内に収まるように、前記撮像部の露出を調整する、インタラクティブプロジェクター。
An interactive projector capable of receiving instructions from a user's indicator on a projection surface,
A projection unit that projects an image on the projection surface in accordance with image data stored in a projection image memory;
An imaging unit that images the projection plane and generates a captured image;
Positions of the plurality of calibration marks in the captured auto-calibration image by causing the imaging unit to capture the projection plane while projecting an auto-calibration image including a plurality of calibration marks from the projection unit. A calibration execution unit capable of executing auto-calibration for determining a correspondence relationship between a position on a captured image captured by the imaging unit and a position on image data in the projection image memory;
A detection unit that detects an indication position instructed by the indicator based on a captured image including the indicator imaged by the imaging unit using the correspondence relationship of the position determined by the auto-calibration;
With
The calibration execution unit adjusts the exposure of the imaging unit so that the brightness of the auto-calibration image captured by the imaging unit is within a predetermined allowable range when the auto-calibration is performed. Interactive projector.
請求項1に記載のインタラクティブプロジェクターであって、
前記キャリブレーション実行部は、前記撮像されたオートキャリブレーション画像内の最も高い明度が前記許容範囲内に収まるように前記撮像部の露出を調整する、インタラクティブプロジェクター。
The interactive projector according to claim 1,
The interactive execution projector, wherein the calibration execution unit adjusts the exposure of the imaging unit so that the highest brightness in the captured auto-calibration image is within the allowable range.
請求項1又は2に記載のインタラクティブプロジェクターであって、
前記キャリブレーション実行部は、前記撮像されたオートキャリブレーション画像内の明度を調べる際に、前記撮像されたオートキャリブレーション画像の周縁に存在する一部の領域を除外し、除外した領域以外の中央領域における明度を調べる、インタラクティブプロジェクター。
The interactive projector according to claim 1 or 2,
The calibration execution unit excludes a part of a region existing at the periphery of the captured auto-calibration image when examining the brightness in the captured auto-calibration image, and a center other than the excluded region An interactive projector that checks the brightness in the area.
投写面に対するユーザーの指示体による指示を受け取ることが可能なインタラクティブプロジェクターのオートキャリブレーション実行方法であって、
(a)投写画像メモリーに格納されたオートキャリブレーション画像データに従って、複数のキャリブレーションマークを含むオートキャリブレーション画像を前記投写面に投写する工程と、
(b)前記投写面を撮像部で撮像することによって、撮像されたオートキャリブレーション画像を生成する工程と、
(c)前記撮像されたオートキャリブレーション画像内の前記複数のキャリブレーションマークの位置に基づいて、前記撮像部で撮像される撮像画像上の位置と前記投写画像メモリー内の画像データ上の位置との対応関係を決定する工程と、
を備え、
前記工程(b)は、前記撮像部により撮像されたオートキャリブレーション画像の明度が予め定めた許容範囲内に収まるように、前記撮像部の露出を調整する工程を含む、インタラクティブプロジェクターのオートキャリブレーション実行方法。
An automatic calibration execution method for an interactive projector capable of receiving an instruction from a user's indicator on a projection surface,
(A) projecting an autocalibration image including a plurality of calibration marks on the projection surface in accordance with the autocalibration image data stored in the projection image memory;
(B) generating an imaged auto-calibration image by imaging the projection plane with an imaging unit;
(C) Based on the positions of the plurality of calibration marks in the captured auto-calibration image, the position on the captured image captured by the imaging unit and the position on the image data in the projection image memory Determining the correspondence between
With
The step (b) includes the step of adjusting the exposure of the image capturing unit so that the brightness of the auto calibration image captured by the image capturing unit falls within a predetermined allowable range. Execution method.
JP2016018866A 2016-02-03 2016-02-03 Interactive projector and its auto-calibration execution method Active JP6631281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016018866A JP6631281B2 (en) 2016-02-03 2016-02-03 Interactive projector and its auto-calibration execution method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016018866A JP6631281B2 (en) 2016-02-03 2016-02-03 Interactive projector and its auto-calibration execution method

Publications (3)

Publication Number Publication Date
JP2017138776A true JP2017138776A (en) 2017-08-10
JP2017138776A5 JP2017138776A5 (en) 2019-02-14
JP6631281B2 JP6631281B2 (en) 2020-01-15

Family

ID=59566766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016018866A Active JP6631281B2 (en) 2016-02-03 2016-02-03 Interactive projector and its auto-calibration execution method

Country Status (1)

Country Link
JP (1) JP6631281B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872382A (en) * 2017-12-01 2019-06-11 欧姆龙株式会社 Image processing system and image processing method
JP2019176356A (en) * 2018-03-29 2019-10-10 セイコーエプソン株式会社 Projector, and method for controlling projector

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211824A (en) * 2008-03-26 2008-09-11 Olympus Corp Digital camera
JP2009092867A (en) * 2007-10-05 2009-04-30 Seiko Epson Corp Projector, program, and method of adjusting brightness
JP2011040873A (en) * 2009-08-07 2011-02-24 Seiko Epson Corp Projector, program, information storage medium, and exposure adjusting method
JP2013195741A (en) * 2012-03-21 2013-09-30 Seiko Epson Corp Image processing apparatus, projector, and method of controlling projector
JP2015166893A (en) * 2014-03-03 2015-09-24 セイコーエプソン株式会社 Position detector and control method of position detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009092867A (en) * 2007-10-05 2009-04-30 Seiko Epson Corp Projector, program, and method of adjusting brightness
JP2008211824A (en) * 2008-03-26 2008-09-11 Olympus Corp Digital camera
JP2011040873A (en) * 2009-08-07 2011-02-24 Seiko Epson Corp Projector, program, information storage medium, and exposure adjusting method
JP2013195741A (en) * 2012-03-21 2013-09-30 Seiko Epson Corp Image processing apparatus, projector, and method of controlling projector
JP2015166893A (en) * 2014-03-03 2015-09-24 セイコーエプソン株式会社 Position detector and control method of position detector

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872382A (en) * 2017-12-01 2019-06-11 欧姆龙株式会社 Image processing system and image processing method
CN109872382B (en) * 2017-12-01 2023-06-20 欧姆龙株式会社 Image processing system and image processing method
JP2019176356A (en) * 2018-03-29 2019-10-10 セイコーエプソン株式会社 Projector, and method for controlling projector
JP7151126B2 (en) 2018-03-29 2022-10-12 セイコーエプソン株式会社 Projector and projector control method

Also Published As

Publication number Publication date
JP6631281B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
CN107094247B (en) Position detection device and contrast adjustment method thereof
CN110308825B (en) Display device and control method of display device
US10133366B2 (en) Interactive projector and interactive projection system
KR20170122259A (en) Interactive projector, interactive projection system, and method for controlling interactive projector
JP6729297B2 (en) Projector, projection system and detection light irradiation device
JP6562124B2 (en) Position detection system and method for controlling position detection system
CN107407995B (en) Interactive projector, interactive projection system, and control method for interactive projector
JP7119488B2 (en) Projector and projector control method
JP6631281B2 (en) Interactive projector and its auto-calibration execution method
JP6503828B2 (en) Interactive projection system, pointer, and control method of interactive projection system
US11093085B2 (en) Position detection method, position detection device, and interactive projector
US10551972B2 (en) Interactive projector and method of controlling interactive projector
JP2017138774A (en) Position detection device, position detection system, and position detection method
JP6631280B2 (en) Position detecting device, position detecting system, and position detecting method
JP6451446B2 (en) Interactive projector and interactive projection system
US11144164B2 (en) Position detection method, position detection device, and interactive projector
JP6690272B2 (en) Position detection system, self-luminous indicator, and unique information acquisition method
JP2018132911A (en) Position detection device, and method for adjusting intensity of detection light
JP6547366B2 (en) Interactive projector
JP6690271B2 (en) Position detection system, position detection device, and position detection method
JP2016186678A (en) Interactive projector and method for controlling interactive projector
JP2017033222A (en) Interactive projector and correction method for z coordinate of the same
JP6337558B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2019106105A (en) Interactive projection system, interactive projector, and method for controlling interactive projector
JP2016186679A (en) Interactive projector and method for controlling interactive projector

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6631281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150