JP2015192310A - Projection system, portable equipment, program, and control method of portable equipment - Google Patents

Projection system, portable equipment, program, and control method of portable equipment Download PDF

Info

Publication number
JP2015192310A
JP2015192310A JP2014068242A JP2014068242A JP2015192310A JP 2015192310 A JP2015192310 A JP 2015192310A JP 2014068242 A JP2014068242 A JP 2014068242A JP 2014068242 A JP2014068242 A JP 2014068242A JP 2015192310 A JP2015192310 A JP 2015192310A
Authority
JP
Japan
Prior art keywords
image
projection
unit
projector
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014068242A
Other languages
Japanese (ja)
Inventor
和義 氣賀澤
Kazuyoshi Kikazawa
和義 氣賀澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014068242A priority Critical patent/JP2015192310A/en
Publication of JP2015192310A publication Critical patent/JP2015192310A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a projection system capable of instructing a geometric correction to a projection image by operating portable equipment.SOLUTION: A projector includes: a display section for projecting a projection image on a projection object; a correction section for performing the geometric correction of the projected image in accordance with instruction information from a portable terminal 70; and a projection control section which makes the display section project a position identification image for identifying a position on the projection image and the projection image after the geometric correction. The portable terminal 70 includes: an imaging section 72 for capturing the projection image that is projected; a position identification section 802 for making the position on the projection image correspondent to a position on the captured image on the basis of the captured image obtained by capturing the position identification image; an operation input section 74 for detecting an operation onto the captured image; an instruction information generation section 804 for generating the instruction information represented by the position on the projection image in accordance with the correspondence by the position identification section 802; and a radio communication section 71 for transmitting the instruction information to the projector.

Description

本発明は、プロジェクションシステム、携帯機器、プログラム、及び、携帯機器の制御方法に関する。   The present invention relates to a projection system, a portable device, a program, and a control method for the portable device.

投射物体の形状に合わせて投射画像の幾何補正を行う技術が知られている(例えば、特許文献1参照)。
特許文献1には、カメラ付き携帯電話によって撮影された、スクリーンに投影されたテスト画像に基づいて、映像出力装置から出力される映像を幾何補正する映像変換装置について開示されている。
A technique for performing geometric correction of a projected image in accordance with the shape of a projected object is known (see, for example, Patent Document 1).
Patent Document 1 discloses a video conversion device that geometrically corrects a video output from a video output device based on a test image projected on a screen taken by a camera-equipped mobile phone.

特開2006−33357号公報JP 2006-33357 A

しかしながら、特許文献1は、スクリーンに投射された投射画像の全体を撮影して幾何補正を行うことが想定されているため、投射画像の一部を撮影して、撮影部分を局所的に補正することができない。すなわち、カメラ付き携帯電話で投射画像の一部を撮影して映像変換装置に送信しても、映像変換装置は投射画像のどの部分を補正してよいのか認識することができない。
本発明は上記事情に鑑みてなされたものであり、携帯機器の操作により、投射画像に対する幾何補正を指示することができるプロジェクションシステム、携帯機器、プログラム、及び、携帯機器の制御方法を提供することを目的とする。
However, in Patent Document 1, it is assumed that the entire projected image projected on the screen is captured and geometric correction is performed. Therefore, a part of the projected image is captured and the captured part is locally corrected. I can't. That is, even if a part of the projection image is photographed with a camera-equipped mobile phone and transmitted to the video conversion device, the video conversion device cannot recognize which part of the projection image may be corrected.
The present invention has been made in view of the above circumstances, and provides a projection system, a portable device, a program, and a method for controlling a portable device that can instruct geometric correction on a projected image by operating the portable device. With the goal.

上記目的を達成するため、本発明のプロジェクションシステムは、プロジェクター及び携帯機器を備えるプロジェクションシステムであって、前記プロジェクターは、投射物体に投射画像を投射する投射部と、携帯機器から送信される指示情報に従って、前記投射物体に投射された前記投射画像の幾何補正を行う補正部と、前記投射画像上の位置を特定するための位置特定用画像、及び前記幾何補正後の前記投射画像を前記投射部に投射させる投射制御部と、を備え、前記携帯機器は、前記投射部によって前記投射物体に投射された前記位置特定用画像を撮影する撮影部と、前記位置特定用画像を撮影して得られた撮影画像に基づき、前記投射画像上の位置と、前記撮影画像上の位置とを対応付ける位置特定部と、前記撮影画像に対する操作を検出する操作検出部と、前記位置特定部による対応付けに従って、前記操作検出部により検出した操作内容から、前記投射画像上の位置で表す前記指示情報を生成する指示情報生成部と、前記指示情報を前記プロジェクターに送信する送信装置と、を備えることを特徴とする。
本発明の構成によれば、携帯機器の操作により、投射画像に対する幾何補正を指示することができる。
In order to achieve the above object, a projection system of the present invention is a projection system including a projector and a portable device, and the projector includes a projection unit that projects a projection image on a projection object, and instruction information transmitted from the portable device. The correction unit that performs geometric correction of the projection image projected on the projection object, the position specifying image for specifying the position on the projection image, and the projection image after the geometric correction are displayed on the projection unit. The portable device is obtained by photographing the position specifying image and a photographing unit that photographs the position specifying image projected onto the projection object by the projection unit. A position specifying unit that associates a position on the projected image with a position on the captured image based on the captured image, and an operation on the captured image An instruction information generation unit that generates the instruction information represented by the position on the projection image from the operation content detected by the operation detection unit according to the association by the position specifying unit, the operation information to be detected, and the instruction information And a transmission device for transmitting to the projector.
According to the configuration of the present invention, it is possible to instruct geometric correction for a projected image by operating a portable device.

また、本発明は、上記プロジェクションシステムにおいて、前記撮影部は、前記位置特定用画像の一部を撮影し、前記位置特定部は、前記位置特定用画像の一部を撮影した撮影画像から前記投射画像上の位置と、前記撮影画像上の位置とを対応付けることを特徴とする。
本発明の構成によれば、投射画像の一部を撮影して、幾何補正を行う箇所をプロジェクターに指示することができる。
In the projection system according to the aspect of the invention, the imaging unit may capture a part of the position specifying image, and the position specifying unit may project the projection from a captured image obtained by capturing a part of the position specifying image. A position on the image is associated with a position on the captured image.
According to the configuration of the present invention, it is possible to capture a part of the projection image and instruct the projector where to perform geometric correction.

また、本発明は、上記プロジェクションシステムにおいて、前記投射制御部は、前記投射画像として、前記幾何補正の対象となる補正対象画像と、前記位置特定用画像とを交互に切り替えて前記投射部に投射させることを特徴とする。
本発明の構成によれば、補正対象画像と位置特定用画像とを携帯機器に撮影させて、携帯機器に、幾何補正を行う位置を、投射画像上の位置で表す指示情報を生成させることができる。
In the projection system according to the aspect of the invention, the projection control unit may alternately switch a correction target image to be the geometric correction target and the position specifying image as the projection image and project the projected image on the projection unit. It is characterized by making it.
According to the configuration of the present invention, the portable device can cause the portable device to capture the correction target image and the position specifying image, and can generate instruction information that represents the position on the projection image where the geometric correction is performed. it can.

また、本発明は、上記プロジェクションシステムにおいて、前記プロジェクターは、前記補正対象画像と前記位置特定用画像とを切り替えるタイミングに基づいて、前記携帯機器に、前記投射画像の撮影タイミングを通知する通知制御部を備え、前記携帯機器は、前記プロジェクターから通知された前記撮影タイミングに従って、前記撮影部に前記投射画像を撮影させる撮影制御部を備えることを特徴とする。
本発明の構成によれば、補正対象画像と位置特定用画像との撮影タイミングを携帯機器に通知して、携帯機器に、補正対象画像と位置特定用画像とを撮影させることができる。
In the projection system according to the aspect of the invention, the projector may notify the portable device of the shooting timing of the projection image based on the timing of switching between the correction target image and the position specifying image. The portable device includes a photographing control unit that causes the photographing unit to photograph the projection image in accordance with the photographing timing notified from the projector.
According to the configuration of the present invention, it is possible to notify the mobile device of the shooting timing of the correction target image and the position specifying image and cause the mobile device to take the correction target image and the position specifying image.

また、本発明は、上記プロジェクションシステムにおいて、前記投射制御部は、前記投射画像として、幾何補正の対象となる補正対象画像と、前記位置特定用画像とを重畳した重畳画像を前記投射部に投射させ、前記位置特定部は、前記撮影画像から前記位置特定用画像を抽出して、前記投射画像上の位置と、前記撮影画像上の位置とを対応付けることを特徴とする。
本発明の構成によれば、一度の撮影により補正対象画像と位置特定用画像とを携帯機器に撮影させることができ、幾何補正を行うための操作の手間を簡略化することができる。
本発明の構成によれば、位置特定用画像により、投射画像上の位置を精度よく特定することができる。
In the projection system according to the aspect of the invention, the projection control unit may project, as the projection image, a superimposed image obtained by superimposing the correction target image to be geometrically corrected and the position specifying image on the projection unit. The position specifying unit extracts the position specifying image from the captured image, and associates a position on the projection image with a position on the captured image.
According to the configuration of the present invention, it is possible to cause the portable device to shoot the correction target image and the position specifying image by one shooting, and it is possible to simplify the trouble of operation for performing geometric correction.
According to the configuration of the present invention, the position on the projection image can be accurately identified by the position specifying image.

また、本発明は、上記プロジェクションシステムにおいて、前記投射制御部は、前記補正対象画像の平均輝度が第1の基準値よりも低い領域に、第2の基準値よりも高い輝度を有する前記位置特定用画像を重畳した前記重畳画像を前記投射部に投射させることを特徴とする。
本発明の構成によれば、携帯端末における位置特定用画像の抽出精度を高めることができる。
In the projection system according to the aspect of the invention, the projection control unit may determine the position having a brightness higher than the second reference value in a region where the average brightness of the correction target image is lower than the first reference value. The superimposed image on which the image for use is superimposed is projected on the projection unit.
According to the configuration of the present invention, it is possible to improve the extraction accuracy of the position specifying image in the mobile terminal.

また、本発明は、上記プロジェクションシステムにおいて、前記投射制御部は、前記補正対象画像の平均輝度が第3の基準値よりも高い領域に、第4の基準値よりも低い輝度を有する記位置特定用画像を重畳した前記重畳画像を前記投射部に投射させることを特徴とする。
本発明の構成によれば、携帯端末における位置特定用画像の抽出精度を高めることができる。
In the projection system according to the aspect of the invention, the projection control unit may specify a position having a luminance lower than the fourth reference value in a region where the average luminance of the correction target image is higher than the third reference value. The superimposed image on which the image for use is superimposed is projected on the projection unit.
According to the configuration of the present invention, it is possible to improve the extraction accuracy of the position specifying image in the mobile terminal.

また、本発明は、上記プロジェクションシステムにおいて、前記プロジェクターは、前記携帯機器から受信した情報に基づき、前記位置特定用画像の有するグリッド線の間隔を変更することを特徴とする。
本構成によれば、携帯端末の操作者は、撮影範囲に注意を払う必要がなくなる。
In the projection system according to the aspect of the invention, the projector may change an interval between grid lines included in the position specifying image based on information received from the portable device.
According to this configuration, the operator of the mobile terminal does not need to pay attention to the shooting range.

また、本発明は、上記プロジェクションシステムにおいて、前記携帯機器は、前記撮影部によって撮影された前記撮影画像を表示する表示部を備えることを特徴とする。
本構成によれば、撮影部によって撮影された前記撮影画像を表示することができる。
In the projection system according to the aspect of the invention, the portable device may include a display unit that displays the captured image captured by the imaging unit.
According to this configuration, the photographed image photographed by the photographing unit can be displayed.

また、本発明は、上記プロジェクションシステムにおいて、前記表示部は、前記撮影部が前記補正対象画像を撮影して得られた第1の撮影画像と、前記撮影部が前記位置特定用画像を撮影して得られた第2の撮影画像とのうち、前記第1の撮影画像のみを表示することを特徴とする。
本構成によれば、携帯端末の操作者は、補正対象画像を撮影した第1の撮影画像の表示を見ながら、投射画像上の位置を指定することができる。
In the projection system according to the aspect of the invention, the display unit may capture the first captured image obtained by the photographing unit photographing the correction target image, and the photographing unit may photograph the position specifying image. Of the second captured images obtained in this manner, only the first captured image is displayed.
According to this configuration, the operator of the mobile terminal can specify the position on the projected image while viewing the display of the first captured image obtained by capturing the correction target image.

本発明の携帯機器は、投射画像を投射するプロジェクターによって投射された、当該投射画像上の位置を特定するための位置特定用画像を撮影部に撮影させる撮影制御部と、前記位置特定用画像の撮影画像に基づき、前記投射画像上の位置と、前記撮影画像上の位置とを対応付ける位置特定部と、前記撮影画像に対する操作を検出する操作検出部と、前記操作検出部により検出した操作内容を、前記位置特定部による対応付けに従って、前記投射画像上の位置で表す指示情報に変換する指示情報変換部と、前記指示情報を送信装置により前記プロジェクターに送信させる送信制御部と、を備えることを特徴とする。
本発明の構成によれば、携帯機器の操作により、投射画像に対する幾何補正を指示することができる。
The portable device of the present invention includes a photographing control unit that causes a photographing unit to photograph a position specifying image for specifying a position on the projection image, which is projected by a projector that projects a projection image, and the position specifying image. Based on the captured image, a position specifying unit that associates a position on the projected image with a position on the captured image, an operation detection unit that detects an operation on the captured image, and an operation content detected by the operation detection unit. An instruction information conversion unit that converts the instruction information represented by the position on the projection image according to the association by the position specifying unit, and a transmission control unit that causes the projector to transmit the instruction information to the projector. Features.
According to the configuration of the present invention, it is possible to instruct geometric correction for a projected image by operating a portable device.

本発明のプログラムは、コンピューターに、投射画像を投射するプロジェクターによって投射された、当該投射画像上の位置を特定するための位置特定用画像を撮影部に撮影させる撮影手順と、前記位置特定用画像の撮影画像に基づき、前記投射画像上の位置と、前記撮影画像上の位置とを対応付ける対応づけ手順と、前記撮影画像に対する操作を検出する検出手順と、前記検出手順により検出した操作内容から、前記対応付け手順による対応付けに従って、前記投射画像上の位置で表す指示情報を生成する生成手順と、前記指示情報を送信装置により前記プロジェクターに送信させる送信手順と、を実行させることを特徴とする。
本発明の構成によれば、携帯機器の操作により、投射画像に対する幾何補正を指示することができる。
The program of the present invention is a program for causing a computer to shoot a position specifying image for specifying a position on the projection image, which is projected by a projector that projects a projection image, and the position specifying image. Based on the captured image, the association procedure for associating the position on the projected image with the position on the captured image, the detection procedure for detecting an operation on the captured image, and the operation content detected by the detection procedure, According to the association by the association procedure, a generation procedure for generating instruction information represented by a position on the projection image and a transmission procedure for causing the projector to transmit the instruction information to the projector are executed. .
According to the configuration of the present invention, it is possible to instruct geometric correction for a projected image by operating a portable device.

本発明の携帯機器の制御方法は、投射画像を投射するプロジェクターによって投射された、当該投射画像上の位置を特定するための位置特定用画像を撮影部に撮影させる撮影ステップと、前記位置特定用画像の撮影画像に基づき、前記投射画像上の位置と、前記撮影画像上の位置とを対応付ける対応づけステップと、前記撮影画像に対する操作を検出する検出ステップと、前記検出ステップにより検出した操作内容から、前記対応付けステップによる対応付けに従って、前記投射画像上の位置で表す指示情報を生成する生成ステップと、前記指示情報を送信装置により前記プロジェクターに送信させる送信ステップと、を有することを特徴とする。
本発明の構成によれば、携帯機器の操作により、投射画像に対する幾何補正を指示することができる。
The method for controlling a portable device of the present invention includes a shooting step of shooting a position specifying image for specifying a position on the projection image, which is projected by a projector that projects a projection image, and the position specifying Based on the captured image of the image, an association step that associates a position on the projected image with a position on the captured image, a detection step that detects an operation on the captured image, and an operation content detected by the detection step A generation step of generating instruction information represented by a position on the projection image in accordance with the association in the association step; and a transmission step of causing the projector to transmit the instruction information to the projector. .
According to the configuration of the present invention, it is possible to instruct geometric correction for a projected image by operating a portable device.

本発明によれば、携帯機器の操作により、投射画像に対する幾何補正を指示することができる。   According to the present invention, it is possible to instruct geometric correction for a projected image by operating a portable device.

プロジェクターを構成する各部の機能ブロック図である。It is a functional block diagram of each part which comprises a projector. 座標検出用画像の一例を示す図である。It is a figure which shows an example of the image for coordinate detection. 携帯端末を構成する各部の機能ブロック図である。It is a functional block diagram of each part which comprises a portable terminal. (A)は、投射物体に第1投射画像が投射された状態を示し、(B)は、投射物体に第2投射画像が投射された状態を示す図である。(A) shows a state where the first projection image is projected on the projection object, and (B) shows a state where the second projection image is projected on the projection object. 対応テーブルの一例を示す図である。It is a figure which shows an example of a correspondence table. (A)は、ドラッグ・アンド・ドロップの操作を行っている様子を示す図であり(B)は、ドラッグ・アンド・ドロップの操作後に表示される画像を示す図である。(A) is a figure which shows a mode that drag-and-drop operation is performed, (B) is a figure which shows the image displayed after drag-and-drop operation. (A)は、投射物体の一例を示す図であり、(B)は、投射物体に投射する第1投射画像の一例を示す図である。(A) is a figure which shows an example of a projection object, (B) is a figure which shows an example of the 1st projection image projected on a projection object. (A)は、第1投射画像を投射物体に投射した状態を示す図であり、(B)は、携帯端末の撮影範囲を示す図である。(A) is a figure which shows the state which projected the 1st projection image on the projection object, (B) is a figure which shows the imaging | photography range of a portable terminal. (A)は、ドラッグ・アンド・ドロップの操作を行っている様子を示す図であり(B)は、ドラッグ・アンド・ドロップの操作後に表示される画像を示す図である。(A) is a figure which shows a mode that drag-and-drop operation is performed, (B) is a figure which shows the image displayed after drag-and-drop operation. (A)は、幾何補正前の投射画像及び投射物体を示す図であり、(B)は、幾何補正後の投射画像及び投射物体を示す図である。(A) is a figure which shows the projection image and projection object before geometric correction, (B) is a figure which shows the projection image and projection object after geometric correction. プロジェクターの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a projector. プロジェクターの処理手順の続きを示すフローチャートである。It is a flowchart which shows the continuation of the process sequence of a projector. 携帯端末の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a portable terminal. 携帯端末の処理手順の続きを示すフローチャートである。It is a flowchart which shows the continuation of the process sequence of a portable terminal.

[第1実施形態]
以下、添付図面を参照しながらプロジェクションシステムの実施形態について説明する。まず、図1を参照しながらプロジェクター1の構成について説明する。図1に、プロジェクター1の全体構成の一例を示す。プロジェクションシステムは、プロジェクター1と、携帯端末70とを備えている。プロジェクター1は、パーソナルコンピューターや各種映像プレーヤー等の外部の画像供給装置100に接続され、この画像供給装置100から入力される入力画像データD(補正対象画像)に基づく画像を投射物体に投射して表示する装置である。画像供給装置100としては、ビデオ再生装置、DVD(Digital Versatile Disk)再生装置、テレビチューナー装置、CATV(Cable television)のセットトップボックス、ビデオゲーム装置等の映像出力装置、パーソナルコンピューター等が挙げられる。また、投射物体は、建物や模型など、一様に平らではない物体であってもよいし、スクリーンSC等の平らな投射面を有するものであってもよい。
また、携帯端末70には、スマートフォン、携帯電話、タブレットPCやPDA等が含まれる。
[First Embodiment]
Hereinafter, embodiments of a projection system will be described with reference to the accompanying drawings. First, the configuration of the projector 1 will be described with reference to FIG. FIG. 1 shows an example of the overall configuration of the projector 1. The projection system includes a projector 1 and a mobile terminal 70. The projector 1 is connected to an external image supply device 100 such as a personal computer or various video players, and projects an image based on input image data D (correction target image) input from the image supply device 100 onto a projection object. It is a device to display. Examples of the image supply device 100 include a video playback device, a DVD (Digital Versatile Disk) playback device, a TV tuner device, a CATV (Cable television) set-top box, a video output device such as a video game device, and a personal computer. The projected object may be an object that is not uniformly flat, such as a building or a model, or may have a flat projection surface such as a screen SC.
The mobile terminal 70 includes a smartphone, a mobile phone, a tablet PC, a PDA, and the like.

プロジェクター1は、画像供給装置100に接続するインターフェイスとして、I/F(インターフェイス)部24を備える。I/F部24には、例えば、デジタル映像信号が入力されるDVIインターフェイス、USBインターフェイス、LANインターフェイス等を用いることができる。また、I/F部24には、例えば、NTSC、PAL、SECAM等のコンポジット映像信号が入力されるS映像端子、コンポジット映像信号が入力されるRCA端子、コンポーネント映像信号が入力されるD端子等を用いることができる。さらに、I/F部24には、HDMI(登録商標)規格に準拠したHDMIコネクター等の汎用インターフェイスを用いることができる。また、I/F部24は、アナログ映像信号をデジタル画像データに変換するA/D変換回路を有し、VGA端子等のアナログ映像端子により画像供給装置300に接続される構成としてもよい。なお、I/F部24は、有線通信によって画像信号の送受信を行ってもよく、無線通信によって画像信号の送受信を行ってもよい。   The projector 1 includes an I / F (interface) unit 24 as an interface connected to the image supply apparatus 100. For the I / F unit 24, for example, a DVI interface, a USB interface, a LAN interface, or the like to which a digital video signal is input can be used. In addition, the I / F unit 24 includes, for example, an S video terminal to which a composite video signal such as NTSC, PAL, or SECAM is input, an RCA terminal to which a composite video signal is input, a D terminal to which a component video signal is input, or the like. Can be used. Furthermore, a general-purpose interface such as an HDMI connector conforming to the HDMI (registered trademark) standard can be used for the I / F unit 24. The I / F unit 24 may include an A / D conversion circuit that converts an analog video signal into digital image data, and may be connected to the image supply device 300 through an analog video terminal such as a VGA terminal. Note that the I / F unit 24 may perform transmission / reception of image signals by wired communication, or may perform transmission / reception of image signals by wireless communication.

プロジェクター1は、大きく分けて光学的な画像の形成を行う表示部10と、この表示部10により表示する画像を電気的に処理する画像処理系とを備えている。まず、表示部10について説明する。   The projector 1 includes a display unit 10 that forms an optical image roughly and an image processing system that electrically processes an image displayed by the display unit 10. First, the display unit 10 will be described.

表示部10は、光源部11、光変調装置12及び投射光学系13を備える。
光源部11は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)等からなる光源を備えている。また、光源部11は、光源が発した光を光変調装置12に導くリフレクター及び補助リフレクターを備えていてもよい。また、光源部11は、投射光の光学特性を高めるためのレンズ群(不図示)、偏光板、或いは光源が発した光の光量を光変調装置12に至る経路上で低減させる調光素子等を備えたものであってもよい。
光変調装置12は、光源部11から射出された光を画像データに基づいて変調する変調手段に相当する。光変調装置12は、液晶ライトバルブを用いた構成とする。光変調装置12は、複数の画素をマトリクス状に配置した透過型液晶パネルを備え、これら複数の画素により画像を形成し、形成した画像によって光源が発した光を変調する。光変調装置12は、光変調装置駆動部23によって駆動され、マトリクス状に配置された各画素における光の透過率を変化させることにより、画像を形成する。
投射光学系13は、投射する画像の拡大・縮小及び焦点の調整を行うズームレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター等を備えている。投射光学系13は、光変調装置12で変調された光を、ズームレンズを用いて投射物体に投射して結像させる。
The display unit 10 includes a light source unit 11, a light modulation device 12, and a projection optical system 13.
The light source unit 11 includes a light source including a xenon lamp, an ultra high pressure mercury lamp, an LED (Light Emitting Diode), and the like. The light source unit 11 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 12. The light source unit 11 is a lens group (not shown) for enhancing the optical characteristics of the projection light, a polarizing plate, a light control element that reduces the amount of light emitted from the light source on the path to the light modulation device 12, and the like. It may be provided.
The light modulation device 12 corresponds to a modulation unit that modulates light emitted from the light source unit 11 based on image data. The light modulation device 12 has a configuration using a liquid crystal light valve. The light modulation device 12 includes a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix, forms an image with the plurality of pixels, and modulates light emitted from a light source with the formed image. The light modulation device 12 is driven by the light modulation device driving unit 23, and forms an image by changing the light transmittance of each pixel arranged in a matrix.
The projection optical system 13 includes a zoom lens that performs enlargement / reduction of a projected image and a focus adjustment, a zoom adjustment motor that adjusts the degree of zoom, a focus adjustment motor that performs focus adjustment, and the like. The projection optical system 13 forms an image by projecting the light modulated by the light modulation device 12 onto a projection object using a zoom lens.

表示部10には、投射光学系駆動部21、光源駆動部22及び光変調装置駆動部23が接続されている。
投射光学系駆動部21は、制御部30の制御に従って投射光学系13が備える各モーターを駆動する。光源駆動部22は、制御部30の制御に従って光源部11が備える光源を駆動する。光変調装置駆動部23は、制御部30の制御に従って光変調装置12を駆動する。
A projection optical system drive unit 21, a light source drive unit 22, and a light modulation device drive unit 23 are connected to the display unit 10.
The projection optical system drive unit 21 drives each motor included in the projection optical system 13 according to the control of the control unit 30. The light source driving unit 22 drives the light source included in the light source unit 11 according to the control of the control unit 30. The light modulation device driving unit 23 drives the light modulation device 12 according to the control of the control unit 30.

プロジェクター1は、画像生成部56を備えている。画像生成部56は、制御部30の指示により座標検出用画像(位置特定用画像)を生成する。画像生成部56は、生成した座標検出用画像を画像処理部25に渡す。座標検出用画像には、当該座標検出用画像を画像解析することで、座標検出用画像上の位置を特定可能な画像が形成されている。図2に、座標検出用画像の一例を示す。座標検出用画像には、画像上の位置を特定するための基準となる縦横の線(以下、グリッド線という)がそれぞれ所定間隔をおいて形成されている。なお、以下では、座標検出用画像の横方向をX軸方向、縦方向をY軸方向と表記する。また、X軸方向に形成されたグリッド線には、当該グリッド線のY軸方向における座標値が数字で示されている。同様に、Y軸方向に形成されたグリッド線には、当該グリッド線のX軸方向の座標値が数字で示されている。例えば、図2に示す点Pの位置は、(X,Y)=(1088,544)となる。
なお、図2には、座標検出用画像上の座標値を数値で示したが、座標が特定できれば、数値で示す必要はない。例えば、色や図形の形状によって座標値を表してもよい。
The projector 1 includes an image generation unit 56. The image generation unit 56 generates a coordinate detection image (position specifying image) according to an instruction from the control unit 30. The image generation unit 56 passes the generated coordinate detection image to the image processing unit 25. In the coordinate detection image, an image that can specify the position on the coordinate detection image is formed by performing image analysis on the coordinate detection image. FIG. 2 shows an example of a coordinate detection image. In the image for coordinate detection, vertical and horizontal lines (hereinafter referred to as grid lines) serving as a reference for specifying a position on the image are formed at predetermined intervals. In the following, the horizontal direction of the coordinate detection image is expressed as the X-axis direction, and the vertical direction is expressed as the Y-axis direction. In addition, the grid lines formed in the X-axis direction indicate the coordinate values of the grid lines in the Y-axis direction with numerals. Similarly, in the grid lines formed in the Y-axis direction, the coordinate values in the X-axis direction of the grid lines are indicated by numerals. For example, the position of the point P shown in FIG. 2 is (X, Y) = (1088, 544).
In FIG. 2, the coordinate values on the coordinate detection image are indicated by numerical values. However, if the coordinates can be specified, it is not necessary to indicate the numerical values. For example, the coordinate values may be represented by colors or graphic shapes.

プロジェクター1の画像処理系は、プロジェクター1の全体を統合的に制御する制御部30を中心に構成される。プロジェクター1は、制御部30が処理するデータや制御部30が実行する制御プログラムを記憶した記憶部54を備える。また、プロジェクター1は、リモコン5による操作を検出するリモコン受光部52を備え、操作パネル51及びリモコン受光部52を介した操作を検出する入力処理部53を備えている。
記憶部54は、フラッシュメモリー、EEPROM等の不揮発性のメモリーである。制御部30は、記憶部54に記憶された制御プログラムを読み出して実行することにより、プロジェクター1の各部を制御する。また、制御部30は、記憶部54が記憶する制御プログラムを実行することにより、投射制御部31、補正制御部32、通知制御部33の機能を実行する。
The image processing system of the projector 1 is configured around a control unit 30 that controls the entire projector 1 in an integrated manner. The projector 1 includes a storage unit 54 that stores data processed by the control unit 30 and a control program executed by the control unit 30. In addition, the projector 1 includes a remote control light receiving unit 52 that detects an operation by the remote controller 5, and includes an input processing unit 53 that detects an operation via the operation panel 51 and the remote control light receiving unit 52.
The storage unit 54 is a non-volatile memory such as a flash memory or an EEPROM. The control unit 30 controls each unit of the projector 1 by reading and executing the control program stored in the storage unit 54. Further, the control unit 30 executes the functions of the projection control unit 31, the correction control unit 32, and the notification control unit 33 by executing the control program stored in the storage unit 54.

投射制御部31は、投射光学系駆動部21、光源駆動部22、光変調装置駆動部23及び画像処理部25を制御して、投射物体に画像を投射させる。また、投射制御部31は、入力画像データDに基づく画像と、画像生成部56により生成された座標検出用画像に基づく画像とを所定時間ごとに交互に投射物体に投射させる。なお、以下では、入力画像データDに基づいて投射物体上に投射される画像を第1投射画像という。また、座標検出用画像に基づいて投射物体上に投射される画像を第2投射画像という。また、第2投射画像は、第1投射画像と同等かそれよりも大きなサイズで投射物体に投射される。すなわち、第2投射画像は、第1投射画像の位置を特定するための画像であるため、第1投射画像が投射された投射物体上の範囲と一致するように、第2投射画像が投射されるのが好ましい。   The projection control unit 31 controls the projection optical system driving unit 21, the light source driving unit 22, the light modulation device driving unit 23, and the image processing unit 25 to project an image on a projection object. Further, the projection control unit 31 alternately projects an image based on the input image data D and an image based on the coordinate detection image generated by the image generation unit 56 onto the projection object every predetermined time. Hereinafter, an image projected on the projection object based on the input image data D is referred to as a first projection image. An image projected on the projection object based on the coordinate detection image is referred to as a second projection image. Further, the second projection image is projected onto the projection object with a size equal to or larger than that of the first projection image. That is, since the second projection image is an image for specifying the position of the first projection image, the second projection image is projected so as to coincide with the range on the projection object on which the first projection image is projected. It is preferable.

補正制御部32は、例えば、幾何補正の開始を指示する開始コマンドを携帯端末70から受信すると、画像生成部56に、座標検出用画像の生成を指示する。また、補正制御部32は、携帯端末70から送信される指示情報に基づいて、入力画像データD及び座標検出用画像の幾何補正を画像処理部25に指示する。   For example, when receiving a start command for instructing the start of geometric correction from the portable terminal 70, the correction control unit 32 instructs the image generation unit 56 to generate a coordinate detection image. Further, the correction control unit 32 instructs the image processing unit 25 to perform geometric correction of the input image data D and the coordinate detection image based on the instruction information transmitted from the portable terminal 70.

通知制御部33は、携帯端末70に、撮影を指示する指示コマンドを生成する。通知制御部33は、投射物体に投射される画像が切り替わるタイミングに基づいて、指示コマンドを生成する。指示コマンドには、投射物体に第1投射画像が投射されている際に発行される第1指示コマンドと、投射物体に第2投射画像が投射されている際に発行される第2指示コマンドとが含まれる。通知制御部33は、生成した指示コマンドを、無線通信部55を介して携帯端末70に送信する。   The notification control unit 33 generates an instruction command for instructing the mobile terminal 70 to perform shooting. The notification control unit 33 generates an instruction command based on the timing at which the image projected on the projection object is switched. The instruction command includes a first instruction command issued when the first projection image is projected on the projection object, and a second instruction command issued when the second projection image is projected on the projection object. Is included. The notification control unit 33 transmits the generated instruction command to the mobile terminal 70 via the wireless communication unit 55.

プロジェクター1の本体には、ユーザーが操作を行うための各種スイッチ及びインジケーターランプを備えた操作パネル51が配置されている。操作パネル51は、入力処理部53に接続されている。入力処理部53は、制御部30の制御に従い、プロジェクター1の動作状態や設定状態に応じて操作パネル51のインジケーターランプを適宜点灯或いは点滅させる。操作パネル51のスイッチが操作されると、操作されたスイッチに対応する操作信号が入力処理部53から制御部30に出力される。
また、プロジェクター1は、ユーザーが使用するリモコン5を有する。リモコン5は各種のボタンを備えており、これらのボタンの操作に対応して赤外線信号を送信する。プロジェクター1の本体には、リモコン5が発する赤外線信号を受光するリモコン受光部52が配置されている。リモコン受光部52は、リモコン5から受光した赤外線信号をデコードして、リモコン5における操作内容を示す操作信号を生成し、制御部30に出力する。
In the main body of the projector 1, an operation panel 51 including various switches and indicator lamps for operation by a user is disposed. The operation panel 51 is connected to the input processing unit 53. The input processing unit 53 appropriately lights or blinks the indicator lamp of the operation panel 51 according to the operation state and setting state of the projector 1 according to the control of the control unit 30. When the switch of the operation panel 51 is operated, an operation signal corresponding to the operated switch is output from the input processing unit 53 to the control unit 30.
The projector 1 also has a remote controller 5 that is used by the user. The remote controller 5 includes various buttons, and transmits an infrared signal corresponding to the operation of these buttons. The main body of the projector 1 is provided with a remote control light receiving unit 52 that receives an infrared signal emitted from the remote controller 5. The remote control light receiving unit 52 decodes the infrared signal received from the remote control 5, generates an operation signal indicating the operation content in the remote control 5, and outputs the operation signal to the control unit 30.

画像処理部25は、制御部30の制御に従って入力画像データDを取得し、入力画像データDについて、画像サイズや解像度、静止画像か動画像であるか、動画像である場合はフレームレート等の属性などを判定する。そして、画像処理部25は、フレーム毎にフレームメモリー26に画像を展開する。また、画像処理部25は、取得した入力画像データDの解像度が光変調装置12の液晶パネルの表示解像度と異なる場合には解像度変換処理を行う。また、リモコン5や操作パネル51の操作によりズームが指示された場合には拡大処理又は縮小処理を行って、これらの処理後の画像をフレームメモリー26に展開する。その後、画像処理部25は、フレームメモリー26に展開したフレーム毎の画像を表示信号として光変調装置駆動部23に出力する。
また、画像処理部25は、補正部251を備えている。補正部251は、補正制御部32の指示に従って、フレームメモリー26に展開された入力画像データDと座標検出用画像との幾何補正を行う。幾何補正処理の詳細については、例えば、特開2013−78001号公報に開示がある。画像処理部25は、幾何補正後の入力画像データD及び座標検出用画像を光変調装置駆動部23に渡す。
The image processing unit 25 acquires the input image data D in accordance with the control of the control unit 30, and the input image data D includes an image size, a resolution, a still image or a moving image, and a frame rate in the case of a moving image. Determine attributes and so on. The image processing unit 25 develops an image in the frame memory 26 for each frame. Further, the image processing unit 25 performs resolution conversion processing when the resolution of the acquired input image data D is different from the display resolution of the liquid crystal panel of the light modulation device 12. When zooming is instructed by operating the remote controller 5 or the operation panel 51, enlargement processing or reduction processing is performed, and the image after these processing is developed in the frame memory 26. Thereafter, the image processing unit 25 outputs the image for each frame developed in the frame memory 26 to the light modulation device driving unit 23 as a display signal.
Further, the image processing unit 25 includes a correction unit 251. The correction unit 251 performs geometric correction between the input image data D developed in the frame memory 26 and the coordinate detection image in accordance with an instruction from the correction control unit 32. Details of the geometric correction processing are disclosed in, for example, Japanese Patent Laid-Open No. 2013-78001. The image processing unit 25 passes the input image data D and the coordinate detection image after geometric correction to the light modulation device driving unit 23.

また、プロジェクター1は、無線通信部55を備える。無線通信部55は、図示しないアンテナやRF(Radio Frequency)回路等を備え、制御部30の制御の下、携帯端末70との間で無線通信規格に準拠して通信する。プロジェクター1と携帯端末70とは、無線通信方式によって各種データを送受信可能に接続されている。この無線通信方式には、例えば無線LAN(Local Area Network)、Bluetooth(登録商標)、UWB(Ultra Wide Band)、赤外線通信等の近距離無線通信方式や、携帯電話回線を利用した無線通信方式を採用することができる。無線通信部55は、制御部30から渡された指示コマンドを携帯端末70に送信し、又は携帯端末70から送信される指示情報を受信して、制御部30に渡す。   In addition, the projector 1 includes a wireless communication unit 55. The wireless communication unit 55 includes an antenna (not shown), an RF (Radio Frequency) circuit, and the like, and communicates with the portable terminal 70 in accordance with a wireless communication standard under the control of the control unit 30. The projector 1 and the portable terminal 70 are connected so that various data can be transmitted and received by a wireless communication method. This wireless communication system includes, for example, a short-range wireless communication system such as a wireless local area network (LAN), Bluetooth (registered trademark), UWB (Ultra Wide Band), and infrared communication, and a wireless communication system using a mobile phone line. Can be adopted. The wireless communication unit 55 transmits the instruction command passed from the control unit 30 to the portable terminal 70 or receives the instruction information transmitted from the portable terminal 70 and passes it to the control unit 30.

次に、図3を参照しながら携帯端末70の構成について説明する。
携帯端末70は、無線通信部71、撮像部72、表示部73、操作入力部74、記憶部75及び制御部80及びメモリー81を備え、これら各部が、バス90により相互接続されている。なお、携帯端末70は、図3に示す構成以外に、音声出力用のスピーカー、音声入力用のマイク、マイクにより入力した音声信号及びスピーカーに出力する音声信号を音声処理する音声処理部等を備えていてもよい。
Next, the configuration of the mobile terminal 70 will be described with reference to FIG.
The portable terminal 70 includes a wireless communication unit 71, an imaging unit 72, a display unit 73, an operation input unit 74, a storage unit 75, a control unit 80, and a memory 81, and these units are interconnected by a bus 90. In addition to the configuration shown in FIG. 3, the mobile terminal 70 includes a sound output speaker, a sound input microphone, a sound processing unit that performs sound processing on a sound signal input by the microphone and a sound signal output to the speaker, and the like. It may be.

無線通信部71は、図示しないアンテナやRF(Radio Frequency)回路等を備え、制御部80の制御の下、プロジェクター1との間で無線通信規格に準拠して通信する。無線通信部71は、プロジェクター1から送信された指示コマンドを受信して制御部80に渡し、また、制御部80から渡された指示情報をプロジェクター1に送信する。   The wireless communication unit 71 includes an antenna (not shown), an RF (Radio Frequency) circuit, and the like, and communicates with the projector 1 in accordance with the wireless communication standard under the control of the control unit 80. The wireless communication unit 71 receives the instruction command transmitted from the projector 1 and passes it to the control unit 80, and transmits the instruction information passed from the control unit 80 to the projector 1.

撮像部72は、制御部80の制御に従って撮影を実行し、撮影した撮影画像データを制御部80に出力する。   The imaging unit 72 performs imaging in accordance with the control of the control unit 80 and outputs the captured image data to the control unit 80.

表示部73は、液晶ディスプレイ等の表示パネル731を備える。表示部73は、制御部80から入力した制御信号と画像信号とに基づいて各種駆動回路を駆動して、表示パネル731に画像を表示する。表示パネルは、液晶ディスプレイに限らず、有機EL(electro-luminescence)ディスプレイ等、他の表示装置から構成されてもよい。   The display unit 73 includes a display panel 731 such as a liquid crystal display. The display unit 73 drives various drive circuits based on the control signal and the image signal input from the control unit 80 and displays an image on the display panel 731. The display panel is not limited to a liquid crystal display, and may be composed of other display devices such as an organic EL (electro-luminescence) display.

操作入力部74は、指、タッチペン等の指示体の表示部73への接触を検出するタッチセンサー等を備えている。タッチセンサーは、表示部73の備える表示パネル731に一体的に形成されることにより、タッチパネルを構成している。タッチセンサーは、静電容量式、超音波式、感圧式、抵抗膜式、光検知式等、各種のタッチセンサーであってよい。操作入力部74は、指示体が触れた表示パネル731面上の位置を入力位置として検出し、検出した入力位置に応じた位置信号を制御部80へ出力する。   The operation input unit 74 includes a touch sensor or the like that detects contact of an indicator such as a finger or a touch pen with the display unit 73. The touch sensor forms a touch panel by being integrally formed on the display panel 731 included in the display unit 73. The touch sensor may be various types of touch sensors such as a capacitance type, an ultrasonic type, a pressure sensitive type, a resistance film type, and a light detection type. The operation input unit 74 detects a position on the surface of the display panel 731 touched by the indicator as an input position, and outputs a position signal corresponding to the detected input position to the control unit 80.

記憶部75は、制御部81のCPUが実行するオペレーティングシステム、アプリケーションプログラム等の制御プログラムや、制御部81により処理されるデータを不揮発的に記憶する。   The storage unit 75 stores in a non-volatile manner control programs such as an operating system and application programs executed by the CPU of the control unit 81 and data processed by the control unit 81.

メモリー81は、ROM(Read Only Memory)やRAM(Random Access Memory)等の記憶装置である。制御部81は、CPU(Central Processing Unit:不図示)を備え、記憶部75に記憶したオペレーティングシステムをCPUが実行することにより、携帯端末70を制御する。また、制御部81は、不揮発性の記憶装置である記憶部75に記憶された各種のアプリケーションプログラムを実行することにより、撮影制御部801、位置特定部802、表示制御部803、指示情報生成部804の各機能を実行する。   The memory 81 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The control unit 81 includes a CPU (Central Processing Unit: not shown), and controls the portable terminal 70 when the CPU executes an operating system stored in the storage unit 75. In addition, the control unit 81 executes various application programs stored in the storage unit 75 that is a nonvolatile storage device, so that the imaging control unit 801, the position specifying unit 802, the display control unit 803, and the instruction information generation unit. Each function of 804 is executed.

撮影制御部801は、プロジェクター1から送信された指示コマンドに従って撮像部72を制御し、投射物体に投射された投射画像を撮影する。
ユーザーは、図4(A)に示すように、投射物体に第1投射画像が投射されると、携帯端末70を操作して、第1投射画像の幾何補正を行いたい範囲が撮影されるように撮像部72を設定する。撮像部72の撮影範囲は、第1投射画像の一部であっても、又は全部であってもよく、幾何補正を行いたい範囲が含まれる範囲であればよい。その後、プロジェクター1から送信される第1指示コマンドに従って撮影制御部801が撮像部72を制御し、設定された撮影範囲を撮影する。また、第1投射画像の投射から所定時間を経過すると、プロジェクター1の制御により、投射物体に投射される投射画像が、第1投射画像から第2投射画像に切り替わる(図4(B)参照)。ユーザーは、携帯端末70を動かさないように保持していれば、プロジェクター1から送信される第2指示コマンドを受信した携帯端末70の撮影制御部801が、投射物体に投射された第2投射画像を撮影する。第2投射画像を撮影した撮影画像データは、第1投射画像を撮影した撮影画像データと同じ撮影範囲で撮影される。
撮影制御部801は、第1指示コマンドを無線通信部71から入力した場合には、撮像部72に撮影を行わせて、撮影された撮影画像データをメモリー81に記憶させると共に、表示制御部803に渡す。撮影画像データは、表示制御部803の制御により表示パネル731に表示される。なお、以下では、第1指示コマンドを受信した場合に撮影された画像データを、第1撮影画像データと呼ぶ。第1撮影画像データは、第1投射画像、すなわち、入力画像データDに基づく画像を投射物体に投射した画像である。
また、撮影制御部801は、第2指示コマンドを無線通信部71から入力した場合には、撮像部72に撮影を行わせて、撮影された撮影画像データをメモリー81に記憶させる。なお、以下では、第2指示コマンドを受信した場合に撮影された画像データを、第2撮影画像データと呼ぶ。第2撮影画像データは、第2投射画像、すなわち、座標検出用画像に基づく画像を投射物体に投射した画像である。
The imaging control unit 801 controls the imaging unit 72 according to the instruction command transmitted from the projector 1 and captures a projection image projected on the projection object.
As shown in FIG. 4A, when the first projection image is projected onto the projection object, the user operates the mobile terminal 70 so that a range in which the geometric correction of the first projection image is desired is captured. The imaging unit 72 is set to The imaging range of the imaging unit 72 may be a part or the whole of the first projection image, and may be a range that includes a range in which geometric correction is desired. Thereafter, the imaging control unit 801 controls the imaging unit 72 in accordance with the first instruction command transmitted from the projector 1 and images the set imaging range. Further, when a predetermined time has elapsed from the projection of the first projection image, the projection image projected onto the projection object is switched from the first projection image to the second projection image by the control of the projector 1 (see FIG. 4B). . If the user holds the portable terminal 70 so as not to move, the second projection image projected on the projection object is obtained by the imaging control unit 801 of the portable terminal 70 that has received the second instruction command transmitted from the projector 1. Shoot. The photographed image data obtained by photographing the second projection image is photographed within the same photographing range as the photographed image data obtained by photographing the first projection image.
When the first instruction command is input from the wireless communication unit 71, the imaging control unit 801 causes the imaging unit 72 to perform imaging, stores the captured image data in the memory 81, and the display control unit 803. To pass. The captured image data is displayed on the display panel 731 under the control of the display control unit 803. In the following, the image data captured when the first instruction command is received is referred to as first captured image data. The first captured image data is a first projection image, that is, an image obtained by projecting an image based on the input image data D onto a projection object.
In addition, when the second instruction command is input from the wireless communication unit 71, the shooting control unit 801 causes the imaging unit 72 to perform shooting and causes the memory 81 to store the captured image data. Hereinafter, the image data captured when the second instruction command is received is referred to as second captured image data. The second captured image data is an image obtained by projecting a second projection image, that is, an image based on the coordinate detection image onto the projection object.

位置特定部802は、メモリー81に記憶された、第2撮影画像データを画像解析して、第2投射画像上の各格子点の座標値を求める。
座標検出用画像上には、図2に示すように、各格子点のX軸方向、Y軸方向の座標値が数字で示されている。位置特定部802は、第2撮影画像データを座標解析して、第2撮影画像データに記録された数字を解析し、第2投射画像上の各格子点の座標値を求める。以下では、求めた各格子点の座標値を元画座標値という。また、位置特定部802は、元画座標値を撮像座標に対応付ける処理を行う。撮像座標とは、撮像部72が備える固体撮像素子の座標系である。固体撮像素子は、複数の撮像素子(受光素子)を水平方向及び垂直方向に2次元に配置した構造を有している。撮像座標は、固体撮像素子の備える各受光素子を識別する、水平方向及び垂直方向の座標を表している。位置特定部802は、格子点の元画座標値を、当該格子点を撮影した撮像素子の撮像座標での座標値(以下、撮影座標値という)に対応付ける。例えば、図4に示す点Pの元画座標値は、(X,Y)=(1088,544)であるが、この点Pの中心が撮像部72の座標(x,y)=(100,100)に位置する撮像素子によって撮影されたとする。この場合、点Pの撮像座標は、(x,y)=(100,100)となる。位置特定部802は、各格子点の元画座標値を、撮像座標の座標値に対応付けることで、対応テーブルを作成する。図5に対応テーブルの一例を示す。
なお、本実施形態では、元画座標を、撮像素子を特定する撮像座標に対応付けていたが、第2撮影画像データを記憶するメモリー81のアドレスに対応付けることもできる。
The position specifying unit 802 performs image analysis on the second captured image data stored in the memory 81, and obtains the coordinate value of each lattice point on the second projection image.
On the coordinate detection image, as shown in FIG. 2, the coordinate values of each lattice point in the X-axis direction and Y-axis direction are indicated by numerals. The position specifying unit 802 performs coordinate analysis on the second photographed image data, analyzes the numbers recorded in the second photographed image data, and obtains the coordinate value of each lattice point on the second projection image. Hereinafter, the obtained coordinate values of the respective grid points are referred to as original image coordinate values. Also, the position specifying unit 802 performs processing for associating the original image coordinate values with the imaging coordinates. The imaging coordinates are a coordinate system of a solid-state imaging device included in the imaging unit 72. The solid-state imaging device has a structure in which a plurality of imaging devices (light receiving devices) are two-dimensionally arranged in the horizontal direction and the vertical direction. The imaging coordinates represent horizontal and vertical coordinates for identifying each light receiving element included in the solid-state imaging element. The position specifying unit 802 associates the original image coordinate value of the lattice point with a coordinate value (hereinafter referred to as an imaging coordinate value) at an imaging coordinate of an imaging element that has captured the lattice point. For example, the original image coordinate value of the point P shown in FIG. 4 is (X, Y) = (1088, 544), and the center of the point P is the coordinate (x, y) = (100, It is assumed that the image is captured by an image sensor located at 100). In this case, the imaging coordinates of the point P are (x, y) = (100, 100). The position specifying unit 802 creates a correspondence table by associating the original image coordinate values of the respective grid points with the coordinate values of the imaging coordinates. FIG. 5 shows an example of the correspondence table.
In the present embodiment, the original image coordinates are associated with the image capturing coordinates that specify the image sensor, but may be associated with the address of the memory 81 that stores the second captured image data.

表示制御部803は、表示部73に制御信号と画像信号とを出力して、表示パネル731の表示を制御する。表示制御部803の制御により、第1投射画像を撮影した第1撮影画像データが表示パネル731に表示される。   The display control unit 803 controls the display on the display panel 731 by outputting a control signal and an image signal to the display unit 73. Under the control of the display control unit 803, first captured image data obtained by capturing the first projection image is displayed on the display panel 731.

指示情報生成部804は、操作入力部74から入力した位置信号に基づいて、第2投射画像上の位置、すなわち、元画座標値で示される位置を特定する。この処理について具体的に説明する。
表示部73の表示パネル731には、表示制御部803の制御により第1撮影画像データが表示されている。ユーザーは、第1撮影画像データ、すなわち、第1投射画像を見ながら、幾何補正を行いたい位置の指示をタッチ操作により行う。操作入力部74は、ユーザーによってタッチされた表示パネル731上の位置を示す位置信号を生成して、制御部80に出力する。例えば、ユーザーが表示パネル731上で、ドラッグ・アンド・ドロップの操作を行ったとする。この場合、操作入力部74は、ユーザーが最初にタッチした位置(以下、Q1という)を示す位置信号と、ドラッグ後のドロップの操作によりポインティングデバイスを離した位置(以下、Q2という)を示す位置信号とを生成する。そして、操作入力部74は、生成したQ1、Q2の位置信号と共に、ドラッグ・アンド・ドロップの操作を示す信号を制御部80に出力する。図6(A)に、携帯端末70の表示パネル731に表示された第1撮影画像データに対して、ユーザーがドラッグ・アンド・ドロップの操作を行っている様子を示す。図6(A)に示すドラッグ・アンド・ドロップの操作により、携帯端末70の表示パネル731に表示された第1撮影画像データの状態が、図6(B)に示すように変化する。
The instruction information generation unit 804 specifies the position on the second projection image, that is, the position indicated by the original image coordinate value, based on the position signal input from the operation input unit 74. This process will be specifically described.
The first photographed image data is displayed on the display panel 731 of the display unit 73 under the control of the display control unit 803. While viewing the first photographed image data, that is, the first projection image, the user designates a position where geometric correction is desired by a touch operation. The operation input unit 74 generates a position signal indicating the position on the display panel 731 touched by the user, and outputs the position signal to the control unit 80. For example, assume that the user performs a drag-and-drop operation on the display panel 731. In this case, the operation input unit 74 indicates a position signal indicating a position (hereinafter referred to as Q1) that the user first touched and a position indicating a position (hereinafter referred to as Q2) where the pointing device is released by a drop operation after dragging. Signal. Then, the operation input unit 74 outputs a signal indicating the drag and drop operation to the control unit 80 together with the generated position signals of Q1 and Q2. FIG. 6A shows a state in which the user performs a drag-and-drop operation on the first captured image data displayed on the display panel 731 of the mobile terminal 70. 6A, the state of the first captured image data displayed on the display panel 731 of the portable terminal 70 changes as shown in FIG. 6B.

指示情報生成部804は、入力したQ1、Q2の位置信号によりタッチされた表示パネル731上の位置をそれぞれに認識する。次に、指示情報生成部804は、位置信号により示された表示パネル731上の各位置に表示された第1撮影画像データの画素の撮影座標値をQ1、Q2それぞれ特定する。第1撮影画像データ上の撮影座標値を特定することで、対応する第2撮影画像データ上の撮影座標値が特定される。第1撮影画像データと第2撮影画像データとは、撮影範囲等の撮像部72の設定を変更せずに撮影された画像データであるため、第1撮影画像データの撮影座標値を特定することで、対応する第2撮影画像データの撮影画像値を特定することができる。次に、指示情報生成部804は、図5に示す対応テーブルを参照して、特定した撮影座標値を、元画座標値に変換する。なお、ユーザーによりタッチされた位置に相当する撮影座標値及び元画座標値が対応テーブルに登録されていない場合、指示情報生成部804は、対応テーブルに記録された撮影座標値及び元画座標値を補間処理して、対応するQ1及びQ2の元画座標値を求める。指示情報生成部804は、変換したQ1及びQ2の元画座標値を表す指示情報を生成して、無線通信部71に出力する。指示情報は、無線通信部71によりプロジェクター1に送信される。   The instruction information generation unit 804 recognizes the touched position on the display panel 731 based on the input position signals Q1 and Q2. Next, the instruction information generation unit 804 specifies the shooting coordinate values of the pixels of the first captured image data displayed at each position on the display panel 731 indicated by the position signal, Q1 and Q2, respectively. By specifying the shooting coordinate value on the first shot image data, the shooting coordinate value on the corresponding second shot image data is specified. Since the first photographed image data and the second photographed image data are image data photographed without changing the setting of the imaging unit 72 such as the photographing range, the photographing coordinate value of the first photographed image data is specified. Thus, the captured image value of the corresponding second captured image data can be specified. Next, the instruction information generation unit 804 refers to the correspondence table shown in FIG. 5 and converts the identified shooting coordinate values into original image coordinate values. When the shooting coordinate value and the original image coordinate value corresponding to the position touched by the user are not registered in the correspondence table, the instruction information generation unit 804 stores the shooting coordinate value and the original image coordinate value recorded in the correspondence table. Are interpolated to obtain the corresponding original image coordinate values of Q1 and Q2. The instruction information generation unit 804 generates instruction information indicating the converted original image coordinate values of Q1 and Q2, and outputs the instruction information to the wireless communication unit 71. The instruction information is transmitted to the projector 1 by the wireless communication unit 71.

図7(A)に示す投射物体に、図7(B)に示す第1投射画像を投射させる場合について説明する。なお、投射物体と、第1投射画像とを区別するため、投射物体を実線で示し、第1投射画像を点線で示す。図8(A)に、投射物体に第1投射画像を投射した状態を示す。第1投射画像の頂点の1つが、対応する投射物体の頂点からズレて投射されている。ユーザーは、第1投射画像のズレを補正するために、ズレを補正したい範囲が撮影範囲に含まれるように携帯端末70の撮像部72を調整する。図8(B)に、撮像部72の撮影範囲を実線で示す。携帯端末70は、プロジェクター1から送信される第1指示コマンドと、第2指示コマンドとに従って投射物体に投射された第1投射画像と第2投射画像とを撮影する。第1投射画像と第2投射画像とが撮影されると、携帯端末70は、表示パネル731に第1投射画像を表示させる。表示パネル731に第1撮影画像データが表示された状態で、ユーザーは、図9(A)に示すように移動させたい位置(Q1:移動元位置)に指をドラッグし、ドラッグした指を移動させる位置(Q2:移動先位置)でドロップする。これにより、携帯端末70の表示パネル731上では、図9(B)に示すようにドラッグ位置の画像が、ドロップ位置に移動するように第1投射画像が補正される。また、携帯端末70は、プロジェクター1に、ドラッグ位置Q1及びドロップ位置Q2の元画座標値を送信する。プロジェクター1は、携帯端末70から受信した元画座標値に基づいて入力画像データD及び座標検出用画像を幾何補正し、幾何補正後の画像を投射物体に投射する。これにより、図10(A)に示すように第1投射画像の頂点の1つが、対応する投射物体の頂点からズレて投射されていた状態から、図10(B)に示すように第1投射画像の頂点が投射物体の頂点に一致した状態に補正される。   A case where the first projection image shown in FIG. 7B is projected onto the projection object shown in FIG. 7A will be described. In addition, in order to distinguish a projection object and a 1st projection image, a projection object is shown as a continuous line and a 1st projection image is shown as a dotted line. FIG. 8A shows a state in which the first projection image is projected on the projection object. One of the vertices of the first projection image is projected with a deviation from the corresponding projection object. In order to correct the shift of the first projection image, the user adjusts the imaging unit 72 of the mobile terminal 70 so that the range in which the shift is to be corrected is included in the shooting range. FIG. 8B shows the shooting range of the imaging unit 72 with a solid line. The portable terminal 70 captures the first projection image and the second projection image projected on the projection object according to the first instruction command and the second instruction command transmitted from the projector 1. When the first projection image and the second projection image are captured, the mobile terminal 70 displays the first projection image on the display panel 731. In a state where the first photographed image data is displayed on the display panel 731, the user drags his / her finger to a position to be moved (Q1: movement source position) as shown in FIG. 9A and moves the dragged finger. Drop at the position to be moved (Q2: destination position). Thereby, on the display panel 731 of the portable terminal 70, as shown in FIG. 9B, the first projected image is corrected so that the image at the drag position moves to the drop position. In addition, the portable terminal 70 transmits the original image coordinate values of the drag position Q1 and the drop position Q2 to the projector 1. The projector 1 geometrically corrects the input image data D and the coordinate detection image based on the original image coordinate values received from the mobile terminal 70, and projects the geometrically corrected image onto the projection object. Thereby, as shown in FIG. 10 (A), from the state where one of the vertices of the first projection image is projected with a deviation from the vertex of the corresponding projection object, the first projection as shown in FIG. 10 (B). The vertex of the image is corrected to coincide with the vertex of the projection object.

次に、図11及び図12に示すフローチャートを参照しながらプロジェクター1の処理手順を説明する。
制御部30は、まず、幾何補正の開始を指示する開始コマンドを携帯端末70から受信したか否かを判定する(ステップS1)。開始コマンドを受信した場合(ステップS1;Yes)、制御部30は、動作モードを幾何補正モードに変更し(ステップS2)、座標検出用画像を生成する(ステップS3)。なお、ステップS3の処理は、制御部30の画像生成部56による制御によって行われる。
Next, the processing procedure of the projector 1 will be described with reference to the flowcharts shown in FIGS.
First, the control unit 30 determines whether or not a start command for instructing the start of geometric correction is received from the portable terminal 70 (step S1). When the start command is received (step S1; Yes), the control unit 30 changes the operation mode to the geometric correction mode (step S2), and generates a coordinate detection image (step S3). Note that the process of step S3 is performed under the control of the image generation unit 56 of the control unit 30.

次に、制御部30は、第1投射画像を投射物体に投射する(ステップS4)。第1投射画像を投射すると、制御部30は、第1投射画像の撮影を指示する第1指示コマンドを生成して、携帯端末70に送信する(ステップS5)。また、制御部30は、第1投射画像を投射物体に投射してからの経過時間を計時し、経過時間が所定時間を経過したか否かを判定する(ステップS6)。所定時間を経過したと判定すると(ステップS6;Yes)、制御部30は、第1投射画像に代えて第2投射画像を投射物体に投射する(ステップS7)。第2投射画像を投射すると、制御部30は、第2投射画像の撮影を指示する第2指示コマンドを携帯端末70に送信する(ステップS8)。第2投射画像が投射物体に投射されると、制御部30は、携帯端末70から送信される情報を受信しているか否かを判定する(ステップS9)。情報を受信していない場合(ステップS9;No)、制御部30は、第2投射画像を投射してからの経過時間が所定時間を経過したか否かを判定する(ステップS10)。所定時間を経過していない場合(ステップS10;No)、制御部30は、ステップS9に戻り、携帯端末70から送信される情報を受信したか否かを判定する(ステップS9)。また、所定時間を経過した場合(ステップS10;Yes)、制御部30は、ステップS4に戻り、第1投射画像の投射物体への投射を再度行う(ステップS4)。なお、ステップS4〜S10の処理は、制御部30の投射制御部31による制御によって行われる。   Next, the control unit 30 projects the first projection image onto the projection object (step S4). When the first projection image is projected, the control unit 30 generates a first instruction command for instructing photographing of the first projection image, and transmits the first instruction command to the portable terminal 70 (step S5). Moreover, the control part 30 time-measures the elapsed time after projecting a 1st projection image on a projection object, and determines whether elapsed time passed predetermined time (step S6). If it determines with having passed predetermined time (step S6; Yes), it will replace with a 1st projection image, and the control part 30 will project a 2nd projection image on a projection object (step S7). When the second projection image is projected, the control unit 30 transmits a second instruction command for instructing photographing of the second projection image to the portable terminal 70 (step S8). When the second projected image is projected onto the projection object, the control unit 30 determines whether information transmitted from the mobile terminal 70 is received (step S9). When information is not received (step S9; No), the control part 30 determines whether the elapsed time after projecting a 2nd projection image passed predetermined time (step S10). When the predetermined time has not elapsed (step S10; No), the control unit 30 returns to step S9 and determines whether information transmitted from the portable terminal 70 has been received (step S9). When the predetermined time has elapsed (step S10; Yes), the control unit 30 returns to step S4 and again projects the first projected image onto the projection object (step S4). Note that the processes in steps S4 to S10 are performed by control by the projection control unit 31 of the control unit 30.

次に、ステップS9において携帯端末70から情報を受信した場合の処理手順について、図12に示すフローチャートを参照しながら説明する。
携帯端末70から情報を受信した場合(ステップS9;Yes)、制御部30は、受信した情報が指示情報であるか否かを判定する(ステップS11)。受信した情報が指示情報である場合(ステップS11;Yes)、制御部30は、指示情報に含まれるQ1及びQ2の元画座標値に基づいて入力画像データD及び座標検出用画像の幾何補正を行う(ステップS12)。入力画像データDと座標検出用画像との両方の幾何補正を行うことで、入力画像データDと座標検出用画像との座標系が異なってしまわないようにしている。入力画像データDと座標検出用画像との座標系が異なってしまうと、次に幾何補正を行ったときに、Q1とQ2との正確な座標が求められなくなる。なお、ステップS12の処理は、制御部30の補正制御部32による制御によって行われる。また、受信した情報が指示情報ではない場合(ステップS11;No)、制御部30は、受信した情報が幾何補正を終了させる終了コマンドであるか否かを判定する(ステップS13)。受信した情報が終了コマンドである場合(ステップS13;Yes)、制御部30は、動作モードを、幾何補正モードから通常モードに変更する(ステップS14)。通常モードでは、第1投射画像と第2投射画像とを交互に投射物体に投射するのではなく、入力画像データDに基づく第1投射画像を、投射物体に投射する。また、受信した情報が終了コマンドではなかった場合(ステップS13;No)、制御部30は、受信した情報に応じた処理を行い、図11示すステップS4の処理に移行する。
Next, a processing procedure when information is received from the mobile terminal 70 in step S9 will be described with reference to a flowchart shown in FIG.
When information is received from the portable terminal 70 (step S9; Yes), the control unit 30 determines whether the received information is instruction information (step S11). When the received information is the instruction information (step S11; Yes), the control unit 30 performs geometric correction of the input image data D and the coordinate detection image based on the original image coordinate values of Q1 and Q2 included in the instruction information. It performs (step S12). By performing geometric correction of both the input image data D and the coordinate detection image, the coordinate system of the input image data D and the coordinate detection image is prevented from differing. If the coordinate systems of the input image data D and the coordinate detection image are different, the correct coordinates of Q1 and Q2 cannot be obtained when geometric correction is performed next time. Note that the process of step S <b> 12 is performed under the control of the correction control unit 32 of the control unit 30. If the received information is not instruction information (step S11; No), the control unit 30 determines whether the received information is an end command for ending geometric correction (step S13). When the received information is an end command (step S13; Yes), the control unit 30 changes the operation mode from the geometric correction mode to the normal mode (step S14). In the normal mode, the first projection image and the second projection image are not alternately projected onto the projection object, but the first projection image based on the input image data D is projected onto the projection object. If the received information is not an end command (step S13; No), the control unit 30 performs a process according to the received information and proceeds to the process of step S4 shown in FIG.

次に、携帯端末70の処理手順について、図13及び図14に示すフローチャートを参照しながら説明する。
携帯端末70の制御部81は、まず、操作入力部74により操作を入力したか否かを判定する(ステップS21)。操作を入力した場合(ステップS21;Yes)、制御部81は、入力した操作が、幾何補正の開始を指示する操作であるか否かを判定する(ステップS22)。幾何補正の開始操作である場合(ステップS22;Yes)、制御部81は、開始コマンドをプロジェクター1に送信する(ステップS26)。また、制御部81は、表示部73に、「幾何補正を行いたい部分が撮影されるように、カメラの撮影範囲を設定して下さい。」といったメッセージを表示させる。その後、制御部81は、プロジェクター1から指示コマンドを受信したか否かを判定する(ステップS27)。プロジェクター1から指示コマンドを受信した場合(ステップS27;Yes)、制御部81は、受信したコマンドが第1指示コマンドであるか否かを判定する(ステップS28)。受信したコマンドが、第1指示コマンドである場合(ステップS28;Yes)、制御部81は、撮影制御部801の制御により、投射物体に投射された第1投射画像を撮影する(ステップS29)。このとき、撮像部72によって撮影される第1撮影画像データは、投射物体に投射された第1投射画像の全体であってもよいし、第1投射画像のうちの幾何補正を行いたい範囲が含まれる一部であってもよい。制御部81は、撮影された第1撮影画像データをメモリー81に記憶させると共に、表示制御部803の制御により、表示パネル731に表示させる。
Next, the processing procedure of the mobile terminal 70 will be described with reference to the flowcharts shown in FIGS.
First, the control unit 81 of the mobile terminal 70 determines whether or not an operation is input by the operation input unit 74 (step S21). When an operation is input (step S21; Yes), the control unit 81 determines whether or not the input operation is an operation for instructing the start of geometric correction (step S22). When the operation is a geometric correction start operation (step S22; Yes), the control unit 81 transmits a start command to the projector 1 (step S26). In addition, the control unit 81 causes the display unit 73 to display a message such as “Please set the shooting range of the camera so that the part for which geometric correction is to be performed is shot”. Thereafter, the control unit 81 determines whether or not an instruction command is received from the projector 1 (step S27). When the instruction command is received from the projector 1 (step S27; Yes), the control unit 81 determines whether or not the received command is the first instruction command (step S28). When the received command is the first instruction command (step S28; Yes), the control unit 81 captures the first projection image projected on the projection object under the control of the capturing control unit 801 (step S29). At this time, the first photographed image data photographed by the imaging unit 72 may be the entire first projection image projected on the projection object, or a range in the first projection image where geometric correction is desired. Some of them may be included. The control unit 81 stores the captured first captured image data in the memory 81 and causes the display panel 731 to display the first captured image data under the control of the display control unit 803.

また、ステップS28において、受信したコマンドが第1指示コマンドではないと判定すると(ステップS28;No)、制御部81は、受信したコマンドが第2指示コマンドであるか否かを判定する(ステップS30)。制御部81は、受信したコマンドが第2指示コマンドであると判定すると(ステップS30;Yes)、制御部81は、投射物体に投射された第2投射画像を撮影する(ステップS31)。このときに撮影された第2撮影画像データは、第1撮影画像と同一範囲の画像データであることが好ましい。すなわち、第1撮影画像データと第2撮影画像データとが撮影される間、携帯端末70のカメラは、できるだけ動かさないようにしていることが好ましい。このため、携帯端末70の表示部73に、「携帯端末70をできるだけ動かさないで下さい。」といったメッセージを表示させてもよい。なお、ステップS26〜S31の処理は、制御部81の撮影制御部801による制御によって行われる。   If it is determined in step S28 that the received command is not the first instruction command (step S28; No), the control unit 81 determines whether or not the received command is the second instruction command (step S30). ). When the control unit 81 determines that the received command is the second instruction command (step S30; Yes), the control unit 81 captures the second projection image projected on the projection object (step S31). The second photographed image data photographed at this time is preferably image data in the same range as the first photographed image. In other words, it is preferable that the camera of the portable terminal 70 is not moved as much as possible while the first captured image data and the second captured image data are captured. For this reason, a message such as “Please do not move the mobile terminal 70 as much as possible” may be displayed on the display unit 73 of the mobile terminal 70. Note that the processing in steps S26 to S31 is performed under the control of the imaging control unit 801 of the control unit 81.

第1撮影画像データと、第2撮影画像データとが撮影されると(ステップS33)、制御部81は、元画座標値を算出する(ステップS34)。この処理の詳細については、図14に示すフローチャートを参照しながら説明する。元画座標値を算出すると、制御部81は、算出した元画座標値を含む指示情報を生成する。制御部81は、指示情報生成部804の制御により、生成した指示情報を、無線通信部71を介してプロジェクター1に送信する(ステップS35)。   When the first captured image data and the second captured image data are captured (step S33), the control unit 81 calculates an original image coordinate value (step S34). Details of this processing will be described with reference to the flowchart shown in FIG. When the original image coordinate value is calculated, the control unit 81 generates instruction information including the calculated original image coordinate value. The control unit 81 transmits the generated instruction information to the projector 1 via the wireless communication unit 71 under the control of the instruction information generation unit 804 (step S35).

次に、図14に示すフローチャートを参照しながら、元画座標値を算出する処理について説明する。
まず、制御部81は、第2撮影画像データを解析して、撮影された第2投射画像上の各格子点の座標値を求める(ステップS341)。第2投射画像には、図2に示すように、第2投射画像上の座標値が数値で記録されている。位置特定部802は、画像解析により第2撮影画像データに撮影された数値を解析して、第2投射画像上の各格子点の座標値(元画座標値)を求める。第2投射画像上の各格子点の元画座標値が求められると、制御部81は、特定した各格子点を撮影した撮像素子の座標値(撮像座標値)を求める。位置特定部802は、特定した格子点の元画座標値と、撮像座標値とを対応付けて対応テーブルに登録する(ステップS342)。なお、ステップS341、S342の処理は、制御部81の位置特定部802による制御によって行われる。
Next, a process for calculating the original image coordinate value will be described with reference to the flowchart shown in FIG.
First, the control unit 81 analyzes the second captured image data, and obtains the coordinate value of each lattice point on the captured second projection image (step S341). In the second projection image, as shown in FIG. 2, the coordinate values on the second projection image are recorded numerically. The position specifying unit 802 analyzes the numerical value captured in the second captured image data by image analysis, and obtains the coordinate value (original image coordinate value) of each lattice point on the second projection image. When the original image coordinate value of each grid point on the second projection image is obtained, the control unit 81 obtains the coordinate value (imaging coordinate value) of the image sensor that captured each identified grid point. The position specifying unit 802 associates the original image coordinate value of the specified lattice point with the imaging coordinate value and registers them in the correspondence table (step S342). Note that the processing of steps S341 and S342 is performed by control by the position specifying unit 802 of the control unit 81.

次に、制御部81は、第1撮影画像データを表示パネル731に表示させる(ステップS343)。この制御は、表示制御部803の制御によって行われる。   Next, the control unit 81 displays the first photographed image data on the display panel 731 (step S343). This control is performed under the control of the display control unit 803.

第1撮影画像データを表示パネル731に表示させると、制御部81は、操作入力部74から出力される信号を監視して、表示パネル731に対するユーザーの操作入力を検出したか否かを判定する(ステップS344)。ユーザーは、表示パネル731に表示された第1撮影画像データを参照しながら、幾何補正を行いたい位置をドラッグ・アンド・ドロップの操作により指定する。   When the first photographed image data is displayed on the display panel 731, the control unit 81 monitors a signal output from the operation input unit 74 and determines whether or not a user operation input to the display panel 731 has been detected. (Step S344). The user designates a position where geometric correction is to be performed by a drag-and-drop operation while referring to the first captured image data displayed on the display panel 731.

操作入力が検出されると、制御部81は、ユーザーにより選択された表示パネル731上の位置を検出する。例えば、ユーザーが指でドラッグ・アンド・ドロップの操作を行った場合、操作入力部74は、ユーザーが最初にタッチした位置Q1を示す位置信号と、ドラッグ後のドロップの操作により指を離した位置Q2を示す位置信号とを制御部81に出力する。制御部81は、入力した位置信号によりタッチされた表示パネル731上のQ1,Q2の位置を特定し、特定した位置Q1,Q2にそれぞれ表示した第1撮影画像データの画素を特定して、撮影座標値を求める(ステップS345)。撮影座標値を求めると、制御部81は、図5に示す対応テーブルを参照して、第2投射画像上の元画座標値を求める(ステップS346)。第1撮影画像データと第2撮影画像データとは、撮影範囲等の撮像部72の設定を変更せずに撮影された画像データであるため、第1撮影画像データの撮影座標値を第2撮影画像データの撮影画像値と判断することができる。制御部81は、求めた元画座標値を含む指示情報を生成して、無線通信部71に出力する。なお、ステップS344〜S346の処理は、指示情報生成部804の制御により行われる。指示情報は、無線通信部71によりプロジェクター1に送信される。   When the operation input is detected, the control unit 81 detects the position on the display panel 731 selected by the user. For example, when the user performs a drag-and-drop operation with a finger, the operation input unit 74 displays the position signal indicating the position Q1 touched first by the user and the position where the finger is released by the drop operation after dragging. A position signal indicating Q2 is output to the controller 81. The control unit 81 identifies the positions of Q1 and Q2 on the display panel 731 touched by the input position signal, identifies the pixels of the first photographed image data displayed at the identified positions Q1 and Q2, respectively, and performs photographing. A coordinate value is obtained (step S345). When the photographing coordinate value is obtained, the control unit 81 obtains the original image coordinate value on the second projection image with reference to the correspondence table shown in FIG. 5 (step S346). Since the first photographed image data and the second photographed image data are image data photographed without changing the setting of the imaging unit 72 such as a photographing range, the photographing coordinate value of the first photographed image data is set to the second photographing. It can be determined as a captured image value of the image data. The control unit 81 generates instruction information including the obtained original image coordinate value and outputs the instruction information to the wireless communication unit 71. Note that the processing in steps S344 to S346 is performed under the control of the instruction information generation unit 804. The instruction information is transmitted to the projector 1 by the wireless communication unit 71.

[第2実施形態]
次に、第2実施形態について説明する。なお、プロジェクター1及び携帯端末70の構成は、上述した第1実施形態の構成とほぼ同一の構成であるため、図示及びその説明を省略する。
本実施形態のプロジェクター1は、第1実施形態のように第1投射画像と第2投射画像とを交互に投射物体に投射するのではない。本実施形態では、画像生成部56が、補正制御部32の制御により座標検出用画像を生成して、入力画像データDに、生成した座標検出用画像を重畳した画像(以下、重畳画像という)を生成する。画像生成部56は、生成した重畳画像を画像処理部25に渡す。重畳画像は、投射制御部31の制御により投射物体に投射される。また、本実施形態は、第1投射画像と第2投射画像とを交互に投射するものではないため、投射制御部31は、携帯端末70に撮影タイミングを指示する第1指示コマンドと第2指示コマンドと生成しない。
[Second Embodiment]
Next, a second embodiment will be described. In addition, since the structure of the projector 1 and the portable terminal 70 is a structure substantially the same as the structure of 1st Embodiment mentioned above, illustration and its description are abbreviate | omitted.
The projector 1 according to this embodiment does not alternately project the first projection image and the second projection image onto the projection object as in the first embodiment. In the present embodiment, the image generation unit 56 generates a coordinate detection image under the control of the correction control unit 32 and superimposes the generated coordinate detection image on the input image data D (hereinafter referred to as a superimposed image). Is generated. The image generation unit 56 passes the generated superimposed image to the image processing unit 25. The superimposed image is projected onto the projection object under the control of the projection control unit 31. In addition, since the first embodiment does not alternately project the first projection image and the second projection image, the projection control unit 31 instructs the portable terminal 70 to instruct the photographing timing and the second instruction command. Do not generate with command.

携帯端末70は、撮像部72により、投射物体に投射された投射画像の全体又は一部を所定レートで撮影する。撮像部72により撮影された撮影画像データは、表示パネル731に表示されると共に、メモリー81に記憶される。位置特定部802は、メモリー81から重畳画像の撮影画像データを取得し、画像解析により座標検出用画像を抽出する。また、位置特定部802は、抽出した座標検出用画像を解析して、座標検出用画像の各格子点の座標(元画座標値)を求める。また、位置特定部802は、撮影画像データの各格子点を撮影した撮像素子を特定して、撮像素子の座標系での座標値である撮像座標値を求める。位置特定部802は、特定した格子点の元画座標値と、撮像座標値とを対応付けて対応テーブルに登録する。以降の処理については、上述した第1実施形態と同一であるため説明を省略する。   The portable terminal 70 captures the whole or part of the projected image projected on the projection object at a predetermined rate by the imaging unit 72. The captured image data captured by the imaging unit 72 is displayed on the display panel 731 and stored in the memory 81. The position specifying unit 802 acquires captured image data of a superimposed image from the memory 81 and extracts a coordinate detection image by image analysis. Further, the position specifying unit 802 analyzes the extracted coordinate detection image to obtain the coordinates (original image coordinate value) of each lattice point of the coordinate detection image. In addition, the position specifying unit 802 specifies an imaging element that has captured each lattice point of the captured image data, and obtains an imaging coordinate value that is a coordinate value in the coordinate system of the imaging element. The position specifying unit 802 associates the original image coordinate value of the specified grid point with the imaging coordinate value and registers them in the correspondence table. Since the subsequent processing is the same as that of the first embodiment described above, description thereof is omitted.

(変形例)
画像生成部56において、入力画像データDを所定の領域に分割し、分割した各領域の平均輝度を算出するようにしてもよい。画像生成部56は、算出した各領域の平均輝度と第1の基準値とを比較する。第1の基準値は、平均輝度(階調値)が低いかどうか(つまり、その領域が暗いかどうか)を判断するのに用いられる基準値である。第1の基準値は、最大階調値の半分以下の階調値であることが好ましく、例えば最大階調値の25%の階調値とすることができる。画像生成部56は、平均輝度が、第1の基準値よりも低い入力画像データDの領域には、第2の基準値よりも高い輝度を有する座標検出用画像を重畳する。第2の基準値は、座標検出用画像が認識されやすいように、第1の基準値に対して十分な差があることが好ましい。また、第2の基準値は、最大階調値の半分以上の階調値であることが好ましく、例えば最大階調値の90%の階調値、又は最大階調値(=全白)とすることができる。すなわち、第2の基準値には、全白を含む高輝度に対応する範囲が含まれる基準値を用いることができる。
また、画像生成部56は、算出した各領域の平均輝度と第3の基準値とを比較する。画像生成部56は、入力画像データDの平均輝度が第3の基準値よりも明るい領域には、第4の基準値よりも低い輝度を有する座標検出用画像を重畳する。第3の基準値は、平均輝度(階調値)が高いかどうか(つまり、その領域が明るいかどうか)を判断するのに用いられる基準値である。第3の基準値は、最大階調値の半分以上の階調値であることが好ましく、例えば最大階調値の75%の階調値とすることができる。また、第4の基準値は、座標検出画像が認識されやすいように、第3の基準値に対して十分な差があることが好ましい。最大階調値の半分以下の階調値であることが好ましく、例えば最大階調値の10%の階調値、又は最低階調値(=全黒)とすることができる。すなわち、第4の基準値には、例えば、全黒を含む低輝度に対応する範囲が含まれる基準値を用いることができる。プロジェクター1がこのような重畳画像を生成してスクリーンSCに投射することにより、携帯端末70において、座標検出用画像のパターンを抽出しやすくなる。
(Modification)
The image generation unit 56 may divide the input image data D into predetermined areas and calculate the average luminance of each divided area. The image generation unit 56 compares the calculated average brightness of each region with the first reference value. The first reference value is a reference value used to determine whether the average luminance (gradation value) is low (that is, whether the area is dark). The first reference value is preferably a gradation value that is not more than half of the maximum gradation value, and can be, for example, a gradation value that is 25% of the maximum gradation value. The image generation unit 56 superimposes a coordinate detection image having a luminance higher than the second reference value on an area of the input image data D whose average luminance is lower than the first reference value. The second reference value is preferably sufficiently different from the first reference value so that the coordinate detection image can be easily recognized. The second reference value is preferably a gradation value that is half or more of the maximum gradation value. For example, the gradation value is 90% of the maximum gradation value, or the maximum gradation value (= all white). can do. That is, as the second reference value, a reference value including a range corresponding to high luminance including all white can be used.
In addition, the image generation unit 56 compares the calculated average brightness of each region with the third reference value. The image generation unit 56 superimposes a coordinate detection image having a luminance lower than the fourth reference value in a region where the average luminance of the input image data D is brighter than the third reference value. The third reference value is a reference value used to determine whether the average luminance (gradation value) is high (that is, whether the area is bright). The third reference value is preferably a gradation value that is half or more of the maximum gradation value, and can be, for example, a gradation value that is 75% of the maximum gradation value. The fourth reference value preferably has a sufficient difference from the third reference value so that the coordinate detection image can be easily recognized. The gradation value is preferably half or less of the maximum gradation value. For example, the gradation value may be 10% of the maximum gradation value or the minimum gradation value (= all black). That is, for the fourth reference value, for example, a reference value including a range corresponding to low luminance including all black can be used. When the projector 1 generates such a superimposed image and projects it on the screen SC, the mobile terminal 70 can easily extract the pattern of the coordinate detection image.

以上説明したように、本発明の第1実施形態及び第2実施形態のシステムは、プロジェクター1と携帯端末70とを備えている。プロジェクター1は、表示部10と、補正部251と、制御部30の投射制御部31とを備えている。表示部10は、投射物体に投射画像を投射する。補正部251は、携帯端末70から送信される指示情報に従って、投射物体に投射された画像の幾何補正を行う。投射制御部31は、投射画像上の位置を特定するための位置特定用画像、及び幾何補正後の投射画像を表示部10に投射させる。
また、携帯端末70は、撮像部72と、操作入力部74と、位置特定部802及び指示情報生成部804として機能する制御部80とを備えている。撮像部72は、表示部10によって投射物体に投射された位置特定用画像を撮影する。制御部80の位置特定部802は、撮像部72の撮影画像のうち、位置特定用画像を撮影して得られた撮影画像に基づき投射画像上の位置と、第2投射画像上の位置とを対応付ける。操作入力部74は、撮影画像に対する操作を検出する。指示情報生成部804は、位置特定部802による対応付けに従って、操作入力部74により検出した操作内容から、投射画像上の位置で表す指示情報を生成する。無線通信部71は、指示情報をプロジェクター1に送信する。従って、携帯機器70の操作により、投射画像に対する幾何補正を指示することができる。
As described above, the system according to the first embodiment and the second embodiment of the present invention includes the projector 1 and the mobile terminal 70. The projector 1 includes a display unit 10, a correction unit 251, and a projection control unit 31 of the control unit 30. The display unit 10 projects a projection image on the projection object. The correction unit 251 performs geometric correction of the image projected on the projection object in accordance with the instruction information transmitted from the mobile terminal 70. The projection control unit 31 causes the display unit 10 to project a position specifying image for specifying a position on the projection image and a projected image after geometric correction.
The mobile terminal 70 includes an imaging unit 72, an operation input unit 74, and a control unit 80 that functions as a position specifying unit 802 and an instruction information generation unit 804. The imaging unit 72 captures the position specifying image projected on the projection object by the display unit 10. The position specifying unit 802 of the control unit 80 determines the position on the projection image and the position on the second projection image based on the shot image obtained by shooting the position specifying image among the shot images of the imaging unit 72. Associate. The operation input unit 74 detects an operation on the captured image. The instruction information generation unit 804 generates instruction information represented by the position on the projection image from the operation content detected by the operation input unit 74 in accordance with the association by the position specifying unit 802. The wireless communication unit 71 transmits instruction information to the projector 1. Accordingly, it is possible to instruct geometric correction on the projected image by operating the portable device 70.

また、撮像部72は、第2投射画像の一部を撮影し、位置特定部802は、第2投射画像の一部を撮影した撮影画像から投射画像上の位置と、撮影画像上の位置とを対応付ける。従って、第2投射画像の一部を撮影して、幾何補正を行う箇所をプロジェクター1に指示することができる。   In addition, the imaging unit 72 captures a part of the second projection image, and the position specifying unit 802 includes a position on the projection image and a position on the captured image from the captured image obtained by capturing a part of the second projection image. Associate. Therefore, a part of the second projection image can be photographed, and a location for performing geometric correction can be instructed to the projector 1.

また、プロジェクター1の投射制御部31は、投射画像として、幾何補正の対象となる第1投射画像と、第2投射画像とを交互に切り替えて投射光学系13により投射物体に投射させる。従って、携帯端末70に、第1投射画像と第2投射画像とを撮影させて、幾何補正を行う位置を、第1投射画像上の位置で表す指示情報を生成させることができる。   In addition, the projection control unit 31 of the projector 1 alternately switches between the first projection image and the second projection image that are targets for geometric correction as the projection image, and causes the projection optical system 13 to project the projection image onto the projection object. Therefore, it is possible to cause the portable terminal 70 to capture the first projection image and the second projection image, and to generate instruction information that represents the position on the first projection image where the geometric correction is performed.

また、プロジェクター1は、第1投射画像と第2投射画像とを切り替えるタイミングに基づいて、携帯端末70に、投射画像の撮影タイミングを通知する通知制御部33を備えている。また、携帯端末70は、プロジェクター1から通知された撮影タイミングに従って、撮像部72に投射画像を撮影させる撮影制御部801を備えている。従って、携帯端末70に、第1投射画像と第2投射画像とを撮影させて、幾何補正を行う位置を示す、第1投射画像上の位置で表す指示情報を生成させることができる。   In addition, the projector 1 includes a notification control unit 33 that notifies the portable terminal 70 of the shooting timing of the projection image based on the timing of switching between the first projection image and the second projection image. In addition, the mobile terminal 70 includes a shooting control unit 801 that causes the imaging unit 72 to capture a projection image in accordance with the shooting timing notified from the projector 1. Therefore, it is possible to cause the portable terminal 70 to capture the first projection image and the second projection image, and to generate the instruction information represented by the position on the first projection image that indicates the position where the geometric correction is performed.

また、投射制御部31は、投射画像として、幾何補正の対象となる第1投射画像と、第2投射画像とを重畳した画像を投射光学系13に投射させる。位置特定部802は、撮影画像から第2投射画像を抽出して、投射画像上の位置と、撮影画像上の位置とを対応付ける。従って、一度の撮影により第1投射画像と第2投射画像とを携帯端末70に撮影させることができ、幾何補正を行うための操作の手間を簡略化することができる。   Further, the projection control unit 31 causes the projection optical system 13 to project an image obtained by superimposing the first projection image to be geometrically corrected and the second projection image as a projection image. The position specifying unit 802 extracts the second projection image from the captured image and associates the position on the projection image with the position on the captured image. Therefore, the first projection image and the second projection image can be photographed by the portable terminal 70 by one photographing, and the labor of the operation for performing geometric correction can be simplified.

また、プロジェクター1は、携帯端末70から受信した情報に基づき、第2投射画像の有するグリッド線の間隔を変更する。従って、携帯端末70の操作者は、撮影範囲に注意を払う必要がなくなる。   Further, the projector 1 changes the interval between the grid lines of the second projection image based on the information received from the mobile terminal 70. Therefore, the operator of the mobile terminal 70 does not need to pay attention to the shooting range.

また、携帯端末70は、撮像部72によって撮影された撮影画像を表示する表示部73を備えている。従って、撮像部72によって撮影された撮影画像を表示部73に表示することができる。
また、表示部73は、撮像部72が第1投射画像を撮影して得られた第1の撮影画像と、撮像部72が第2投射画像を撮影して得られた第2の撮影画像とのうち、第1の撮影画像のみを表示する。従って、携帯端末70の操作者は、第1投射画像を撮影した第1の撮影画像の表示を見ながら、投射画像上の位置を指定することができる。
In addition, the mobile terminal 70 includes a display unit 73 that displays a captured image captured by the imaging unit 72. Therefore, the captured image captured by the imaging unit 72 can be displayed on the display unit 73.
The display unit 73 includes a first captured image obtained by the imaging unit 72 capturing the first projection image, and a second captured image obtained by the imaging unit 72 capturing the second projection image. Of these, only the first photographed image is displayed. Therefore, the operator of the mobile terminal 70 can specify the position on the projected image while viewing the display of the first captured image obtained by capturing the first projected image.

また、上記実施形態において、画像表示装置(プロジェクター1)は、画像を表示する表示部(投射光学系13)と、外部の装置(携帯端末70)とデータ通信可能な通信部(無線通信部55)とを備える。また、画像表示装置は、表示部が画像を表示するタイミングに基づいて、外部の装置が表示画像を撮影するタイミングを決定し、決定した撮影タイミングを指示するデータを通信部によって外部の装置に送信させる制御部(通知制御部33)と、を備える。外部の装置は、撮影部(撮像部72)と、画像表示装置が送信するデータを受信する通信部(無線通信部71)と、通信部により受信したデータで指定されたタイミングで撮影部に撮影させる撮影制御部(撮影制御部801)と、を備える。
この構成により、画像表示装置が画像を表示するタイミングに合わせて外部の装置に撮影を実行させることができる。例えば、画像表示装置が画像を切り替えて表示する場合に、切り替えて表示される複数の画像のうち特定の画像を撮影させることができる。
ここで、受信したデータで指定されたタイミングで撮影部が撮影した撮影画像をもとにデータを処理し、データ処理の結果に基づき、画像表示装置を制御するデータを生成して、通信部により画像表示装置に送信してもよい。
In the above embodiment, the image display device (projector 1) includes a display unit (projection optical system 13) for displaying an image and a communication unit (wireless communication unit 55) capable of data communication with an external device (mobile terminal 70). ). Further, the image display device determines the timing at which the external device captures the display image based on the timing at which the display unit displays the image, and transmits data indicating the determined capturing timing to the external device through the communication unit. A control unit (notification control unit 33). The external device shoots the photographing unit (imaging unit 72), the communication unit (wireless communication unit 71) that receives data transmitted by the image display device, and the photographing unit at a timing specified by the data received by the communication unit. A shooting control unit (shooting control unit 801).
With this configuration, it is possible to cause an external device to perform shooting in accordance with the timing at which the image display device displays an image. For example, when the image display apparatus switches and displays the images, a specific image can be captured among the plurality of images displayed by switching.
Here, the data is processed based on the captured image captured by the imaging unit at the timing specified by the received data, and data for controlling the image display device is generated based on the result of the data processing. You may transmit to an image display apparatus.

上述した実施形態は、本発明の好適な実施形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
例えば、第1及び第2撮影画像データを撮影する際に、携帯端末70が、プロジェクター1に、カメラ(撮像部72)に設定された画角(ズーム)に関する情報を送信してもよい。プロジェクター1は、撮像画像内のグリッド線数がある範囲内に収まるように、グリッド線の間隔を変更する。すなわち、撮像画像内のグリッド線数が所定の本数よりも多ければグリッド線間隔を広げる指示を出し、グリッド線の本数が少なければグリッド線間隔を狭める指示を出す。これにより、ユーザーが撮像範囲を特に気にする必要がなくなる。
The embodiment described above is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
For example, when photographing the first and second photographed image data, the mobile terminal 70 may transmit information regarding the angle of view (zoom) set in the camera (imaging unit 72) to the projector 1. The projector 1 changes the grid line interval so that the number of grid lines in the captured image falls within a certain range. That is, if the number of grid lines in the captured image is larger than a predetermined number, an instruction to increase the grid line interval is issued, and if the number of grid lines is small, an instruction to decrease the grid line interval is issued. This eliminates the need for the user to be particularly concerned about the imaging range.

また、携帯端末70の記憶部75に記憶させたアプリケーションプログラムは、ネットワーク上のサーバー装置等からダウンロードすることで取得してもよい。また、USB(Universal Serial Bus)メモリー等の外部記憶装置に記憶させたものを、携帯端末70に読み込ませてインストールするものであってもよい。   The application program stored in the storage unit 75 of the mobile terminal 70 may be acquired by downloading from a server device on the network. Further, what is stored in an external storage device such as a USB (Universal Serial Bus) memory may be read into the portable terminal 70 and installed.

1…プロジェクター、5…リモコン、10…表示部(投射部)、13…投射光学系、25…画像処理部、26…フレームメモリー、30…制御部、31…投射制御部、32…補正制御部、33…通知制御部、54…記憶部、55…無線通信部、56…画像生成部、70…携帯端末、71…無線通信部、72…撮像部(撮影部)、73…表示部、74…操作入力部(操作検出部)、75…記憶部、80…制御部、81…メモリー、251…補正部、731…表示パネル、801…撮影制御部、802…位置特定部、803…表示制御部、804…指示情報生成部。   DESCRIPTION OF SYMBOLS 1 ... Projector, 5 ... Remote control, 10 ... Display part (projection part), 13 ... Projection optical system, 25 ... Image processing part, 26 ... Frame memory, 30 ... Control part, 31 ... Projection control part, 32 ... Correction control part 33 ... Notification control unit, 54 ... Storage unit, 55 ... Wireless communication unit, 56 ... Image generation unit, 70 ... Mobile terminal, 71 ... Wireless communication unit, 72 ... Imaging unit (imaging unit), 73 ... Display unit, 74 ... operation input unit (operation detection unit), 75 ... storage unit, 80 ... control unit, 81 ... memory, 251 ... correction unit, 731 ... display panel, 801 ... photographing control unit, 802 ... position specifying unit, 803 ... display control Unit, 804 .. Instruction information generation unit.

Claims (13)

プロジェクター及び携帯機器を備えるプロジェクションシステムであって、
前記プロジェクターは、
投射物体に投射画像を投射する投射部と、
携帯機器から送信される指示情報に従って、前記投射物体に投射された前記投射画像の幾何補正を行う補正部と、
前記投射画像上の位置を特定するための位置特定用画像、及び前記幾何補正後の前記投射画像を前記投射部に投射させる投射制御部と、を備え、
前記携帯機器は、
前記投射部によって前記投射物体に投射された前記位置特定用画像を撮影する撮影部と、
前記位置特定用画像を撮影して得られた撮影画像に基づき、前記投射画像上の位置と、前記撮影画像上の位置とを対応付ける位置特定部と、
前記撮影画像に対する操作を検出する操作検出部と、
前記位置特定部による対応付けに従って、前記操作検出部により検出した操作内容から、前記投射画像上の位置で表す前記指示情報を生成する指示情報生成部と、
前記指示情報を前記プロジェクターに送信する送信装置と、を備えることを特徴とするプロジェクションシステム。
A projection system comprising a projector and a portable device,
The projector is
A projection unit that projects a projection image onto a projection object;
According to the instruction information transmitted from the portable device, a correction unit that performs geometric correction of the projected image projected on the projection object;
A position control image for specifying a position on the projection image, and a projection control unit that projects the geometrically corrected projection image on the projection unit,
The portable device is
An imaging unit that captures the position specifying image projected onto the projection object by the projection unit;
Based on a captured image obtained by capturing the position specifying image, a position specifying unit that associates a position on the projection image with a position on the captured image;
An operation detection unit for detecting an operation on the captured image;
An instruction information generating unit that generates the instruction information represented by the position on the projection image from the operation content detected by the operation detecting unit according to the association by the position specifying unit;
A projection system comprising: a transmission device that transmits the instruction information to the projector.
前記撮影部は、前記位置特定用画像の少なくとも一部を撮影し、
前記位置特定部は、前記位置特定用画像の少なくとも一部を撮影した撮影画像から前記投射画像上の位置と、前記撮影画像上の位置とを対応付けることを特徴とする請求項1記載のプロジェクションシステム。
The photographing unit photographs at least a part of the position specifying image,
The projection system according to claim 1, wherein the position specifying unit associates a position on the projection image with a position on the shot image from a shot image obtained by shooting at least a part of the position specifying image. .
前記投射制御部は、前記投射画像として、前記幾何補正の対象となる補正対象画像と、前記位置特定用画像とを交互に切り替えて前記投射部に投射させることを特徴とする請求項1又は2記載のプロジェクションシステム。   3. The projection control unit according to claim 1, wherein the projection control unit alternately switches between a correction target image to be subjected to geometric correction and the position specifying image, and causes the projection unit to project the projection image. The projection system described. 前記プロジェクターは、前記補正対象画像と前記位置特定用画像とを切り替えるタイミングに基づいて、前記携帯機器に、前記投射画像の撮影タイミングを通知する通知制御部を備え、
前記携帯機器は、前記プロジェクターから通知された前記撮影タイミングに従って、前記撮影部に前記投射画像を撮影させる撮影制御部を備えることを特徴とする請求項3記載のプロジェクションシステム。
The projector includes a notification control unit that notifies the portable device of the shooting timing of the projection image based on the timing of switching between the correction target image and the position specifying image.
The projection system according to claim 3, wherein the portable device includes a photographing control unit that causes the photographing unit to photograph the projection image in accordance with the photographing timing notified from the projector.
前記投射制御部は、前記投射画像として、幾何補正の対象となる補正対象画像と、前記位置特定用画像とを重畳した重畳画像を前記投射部に投射させ、
前記位置特定部は、前記撮影画像から前記位置特定用画像を抽出して、前記投射画像上の位置と、前記撮影画像上の位置とを対応付けることを特徴とする請求項1記載のプロジェクションシステム。
The projection control unit causes the projection unit to project a superimposed image in which a correction target image to be subjected to geometric correction and the position specifying image are superimposed as the projection image,
The projection system according to claim 1, wherein the position specifying unit extracts the position specifying image from the captured image and associates a position on the projection image with a position on the captured image.
前記投射制御部は、前記補正対象画像の平均輝度が第1の基準値よりも低い領域に、第2の基準値よりも高い輝度を有する前記位置特定用画像を重畳した前記重畳画像を前記投射部に投射させることを特徴とする請求項5記載のプロジェクションシステム。   The projection control unit projects the superimposed image obtained by superimposing the position specifying image having a luminance higher than a second reference value on a region where the average luminance of the correction target image is lower than a first reference value. The projection system according to claim 5, wherein the projection system is projected onto a projection unit. 前記投射制御部は、前記補正対象画像の平均輝度が第3の基準値よりも高い領域に、第4の基準値よりも低い輝度を有する前記位置特定用画像を重畳した前記重畳画像を前記投射部に投射させることを特徴とする請求項5又は6記載のプロジェクションシステム。   The projection control unit projects the superimposed image obtained by superimposing the position specifying image having a luminance lower than a fourth reference value on a region where the average luminance of the correction target image is higher than a third reference value. The projection system according to claim 5, wherein the projection system is projected onto a projection unit. 前記プロジェクターは、前記携帯機器から受信した情報に基づき、前記位置特定用画像の有するグリッド線の間隔を変更することを特徴とする請求項1から7のいずれか一項に記載のプロジェクションシステム。   The projection system according to claim 1, wherein the projector changes an interval between grid lines of the position specifying image based on information received from the portable device. 前記携帯機器は、前記撮影部によって撮影された前記撮影画像を表示する表示部を備えることを特徴とする請求項1から8のいずれか一項記載のプロジェクションシステム。   The projection system according to claim 1, wherein the portable device includes a display unit that displays the captured image captured by the imaging unit. 前記表示部は、前記撮影部が前記補正対象画像を撮影して得られた第1の撮影画像と、前記撮影部が前記位置特定用画像を撮影して得られた第2の撮影画像とのうち、前記第1の撮影画像のみを表示することを特徴とする請求項9記載のプロジェクションシステム。   The display unit includes a first photographed image obtained by photographing the correction target image by the photographing unit and a second photographed image obtained by photographing the position specifying image by the photographing unit. 10. The projection system according to claim 9, wherein only the first photographed image is displayed. 投射画像を投射するプロジェクターによって投射された、当該投射画像上の位置を特定するための位置特定用画像を撮影部に撮影させる撮影制御部と、
前記位置特定用画像の撮影画像に基づき、前記投射画像上の位置と、前記撮影画像上の位置とを対応付ける位置特定部と、
前記撮影画像に対する操作を検出する操作検出部と、
前記操作検出部により検出した操作内容を、前記位置特定部による対応付けに従って、前記投射画像上の位置で表す指示情報に変換する指示情報変換部と、
前記指示情報を送信装置により前記プロジェクターに送信させる送信制御部と、
を備えることを特徴とする携帯機器。
An imaging control unit that causes the imaging unit to image a position specifying image for specifying a position on the projection image, which is projected by the projector that projects the projection image;
A position specifying unit that associates a position on the projection image with a position on the captured image based on the captured image of the position specifying image;
An operation detection unit for detecting an operation on the captured image;
An instruction information conversion unit that converts the operation content detected by the operation detection unit into instruction information represented by a position on the projection image in accordance with the association by the position specifying unit;
A transmission control unit for causing the projector to transmit the instruction information to the projector;
A portable device comprising:
コンピューターに、
投射画像を投射するプロジェクターによって投射された、当該投射画像上の位置を特定するための位置特定用画像を撮影部に撮影させる撮影手順と、
前記位置特定用画像の撮影画像に基づき、前記投射画像上の位置と、前記撮影画像上の位置とを対応付ける対応づけ手順と、
前記撮影画像に対する操作を検出する検出手順と、
前記検出手順により検出した操作内容から、前記対応付け手順による対応付けに従って、前記投射画像上の位置で表す指示情報を生成する生成手順と、
前記指示情報を送信装置により前記プロジェクターに送信させる送信手順と、
を実行させるためのプログラム。
On the computer,
An imaging procedure for causing the imaging unit to image a position specifying image for specifying a position on the projection image, which is projected by the projector that projects the projection image,
An association procedure for associating a position on the projected image with a position on the captured image based on the captured image of the position specifying image;
A detection procedure for detecting an operation on the captured image;
A generation procedure for generating instruction information represented by a position on the projection image from the operation content detected by the detection procedure according to the association by the association procedure;
A transmission procedure for causing the projector to transmit the instruction information to the projector;
A program for running
投射画像を投射するプロジェクターによって投射された、当該投射画像上の位置を特定するための位置特定用画像を撮影部に撮影させる撮影ステップと、
前記位置特定用画像の撮影画像に基づき、前記投射画像上の位置と、前記撮影画像上の位置とを対応付ける対応づけステップと、
前記撮影画像に対する操作を検出する検出ステップと、
前記検出ステップにより検出した操作内容から、前記対応付けステップによる対応付けに従って、前記投射画像上の位置で表す指示情報を生成する生成ステップと、
前記指示情報を送信装置により前記プロジェクターに送信させる送信ステップと、
を有することを特徴とする携帯機器の制御方法。
An imaging step for causing the imaging unit to image a position specifying image for specifying a position on the projection image, which is projected by the projector that projects the projection image;
An association step of associating a position on the projected image with a position on the captured image based on the captured image of the position specifying image;
A detection step of detecting an operation on the captured image;
A generation step for generating instruction information represented by a position on the projection image from the operation content detected by the detection step according to the association by the association step.
A transmission step of causing the projector to transmit the instruction information by a transmission device;
A method for controlling a portable device, comprising:
JP2014068242A 2014-03-28 2014-03-28 Projection system, portable equipment, program, and control method of portable equipment Pending JP2015192310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014068242A JP2015192310A (en) 2014-03-28 2014-03-28 Projection system, portable equipment, program, and control method of portable equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014068242A JP2015192310A (en) 2014-03-28 2014-03-28 Projection system, portable equipment, program, and control method of portable equipment

Publications (1)

Publication Number Publication Date
JP2015192310A true JP2015192310A (en) 2015-11-02

Family

ID=54426501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014068242A Pending JP2015192310A (en) 2014-03-28 2014-03-28 Projection system, portable equipment, program, and control method of portable equipment

Country Status (1)

Country Link
JP (1) JP2015192310A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018159795A (en) * 2017-03-22 2018-10-11 熊視多媒體創意有限公司 Projection mapping method
CN113473094A (en) * 2020-03-30 2021-10-01 精工爱普生株式会社 Setting support method and setting support device
CN113994662A (en) * 2019-06-20 2022-01-28 索尼集团公司 Information processing apparatus, information processing method, program, projection apparatus, and information processing system
JP2022045483A (en) * 2020-09-09 2022-03-22 セイコーエプソン株式会社 Information generation method, information generation system, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018159795A (en) * 2017-03-22 2018-10-11 熊視多媒體創意有限公司 Projection mapping method
CN113994662A (en) * 2019-06-20 2022-01-28 索尼集团公司 Information processing apparatus, information processing method, program, projection apparatus, and information processing system
CN113994662B (en) * 2019-06-20 2024-04-16 索尼集团公司 Information processing device, corresponding method, system, medium and projection device
CN113473094A (en) * 2020-03-30 2021-10-01 精工爱普生株式会社 Setting support method and setting support device
US11496721B2 (en) 2020-03-30 2022-11-08 Seiko Epson Corporation Setting assistance method and setting assistance apparatus
CN113473094B (en) * 2020-03-30 2024-04-02 精工爱普生株式会社 Setting support method and setting support device
JP2022045483A (en) * 2020-09-09 2022-03-22 セイコーエプソン株式会社 Information generation method, information generation system, and program
CN114245094A (en) * 2020-09-09 2022-03-25 精工爱普生株式会社 Information generating method, information generating system, and recording medium
US11616935B2 (en) 2020-09-09 2023-03-28 Seiko Epson Corporation Information generation method, information generation system, and non-transitory computer-readable storage medium storing program
JP7272336B2 (en) 2020-09-09 2023-05-12 セイコーエプソン株式会社 INFORMATION GENERATION METHOD, INFORMATION GENERATION SYSTEM AND PROGRAM
CN114245094B (en) * 2020-09-09 2024-04-05 精工爱普生株式会社 Information generating method, information generating system, and recording medium

Similar Documents

Publication Publication Date Title
US9494846B2 (en) Projection display device for setting a projection range based on a location specified by an electronic pen and method of controlling the same
US9554105B2 (en) Projection type image display apparatus and control method therefor
JP6753049B2 (en) Projector and projector control method.
CN106605195B (en) Communication apparatus and control method of communication apparatus
US8964090B2 (en) Control apparatus, control method, and computer-readable recording medium
JP6307852B2 (en) Image display device and method for controlling image display device
CN107817924B (en) Display device and control method of display device
KR101691880B1 (en) Interactive System Having Auto Calibration Function And Auto Calibration Method of Interactive System
JP2016038566A (en) Image projection device and program
JP2015192310A (en) Projection system, portable equipment, program, and control method of portable equipment
JP6064321B2 (en) Display device and display control method
JP2008187362A (en) Projector and projected image adjustment method
JP2017129728A (en) Image quality correcting method and image projecting system
CN112668569A (en) Projection type image display device
JP6269801B2 (en) Projector and projector control method
US20180039380A1 (en) Display apparatus, display system, and method of controlling display apparatus
JP6374535B2 (en) Operating device, tracking system, operating method, and program
US20160309091A1 (en) Display apparatus, display control method, and image capturing apparatus
JP2018132769A (en) Image display device, and control method of image display device
JP5015121B2 (en) Imaging device
WO2020162051A1 (en) Projection type video display system
US11516404B2 (en) Control apparatus and control method
JP2019109273A (en) projector
JP2012027324A (en) Display device, display device control method and display system
JP2016144114A (en) Projector and method for controlling projector

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160628