JP2019197122A - Control method for image projection system, image projection system, and projectors - Google Patents

Control method for image projection system, image projection system, and projectors Download PDF

Info

Publication number
JP2019197122A
JP2019197122A JP2018090386A JP2018090386A JP2019197122A JP 2019197122 A JP2019197122 A JP 2019197122A JP 2018090386 A JP2018090386 A JP 2018090386A JP 2018090386 A JP2018090386 A JP 2018090386A JP 2019197122 A JP2019197122 A JP 2019197122A
Authority
JP
Japan
Prior art keywords
image
projector
information
unit
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018090386A
Other languages
Japanese (ja)
Inventor
龍太郎 山崎
Ryutaro Yamazaki
龍太郎 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2018090386A priority Critical patent/JP2019197122A/en
Publication of JP2019197122A publication Critical patent/JP2019197122A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a control method for an image projection system capable of transmitting information among a plurality of projectors without performing communication via a network or the like, and the image projection system and the projectors.SOLUTION: A control method for an image projection system projecting images by a plurality of projectors 1 projects a QR code 200 by a projector 1a, images the QR code 200, generates a picked-up image in a projector 1b, acquires a data table as arrangement information on the basis of the generated picked-up image, generates the QR code 200 on the basis of the acquired data table and a data table stored by itself, and projects the generated QR code 200 by the projector 1b.SELECTED DRAWING: Figure 1

Description

本発明は、画像投写システムの制御方法、画像投写システム及びプロジェクターに関する。   The present invention relates to an image projection system control method, an image projection system, and a projector.

複数のプロジェクターにより複数の画像を並べて投写して一つの大きな画像を表示するシステムが知られている(例えば、特許文献1参照)。特許文献1に記載のシステムにおいて、各プロジェクターは、隣のプロジェクターが投写するQRコード(登録商標)等の識別画像を撮像することによって、隣のプロジェクターの位置を認識する。そして、メインとなる1つのプロジェクターは、ネットワーク等を介して他のプロジェクターから情報を収集することで、すべてのプロジェクターの並び順を検出することが可能になっている。   A system is known that displays a single large image by projecting a plurality of images side by side with a plurality of projectors (see, for example, Patent Document 1). In the system described in Patent Document 1, each projector recognizes the position of the adjacent projector by capturing an identification image such as a QR code (registered trademark) projected by the adjacent projector. One main projector can collect information from other projectors via a network or the like to detect the arrangement order of all the projectors.

特開2017−191307号公報JP 2017-191307 A

しかしながら、特許文献1に記載のシステムは、ネットワーク等を介してプロジェクター間で通信を行う構成であるため、通信環境を構築するための作業や、設定操作等の煩雑な手続きをユーザーが行わなければならないという問題を有している。   However, since the system described in Patent Document 1 is configured to communicate between projectors via a network or the like, the user has to perform complicated procedures such as work for establishing a communication environment and setting operations. It has a problem of not becoming.

本願の画像投写システムの制御方法は、第1のプロジェクター及び第2のプロジェクターを含む複数のプロジェクターにより画像を投写する画像投写システムの制御方法であって、前記第2のプロジェクターにより、第2の識別画像を投写し、前記第1のプロジェクターにおいて、前記第2の識別画像を撮像して第1の撮像画像を生成し、前記第1のプロジェクターにおいて、生成した前記第1の撮像画像に基づいて、第1の外部情報を取得し、前記第1のプロジェクターにおいて、取得した前記第1の外部情報と、前記第1のプロジェクターが記憶する第1の内部情報とに基づいて、第1の識別画像を生成し、前記第1のプロジェクターにより、生成した前記第1の識別画像を投写することを特徴とする。   A control method for an image projection system according to the present application is a control method for an image projection system in which an image is projected by a plurality of projectors including a first projector and a second projector, and the second identification is performed by the second projector. An image is projected, the first projector captures the second identification image to generate a first captured image, and the first projector based on the generated first captured image, First external information is acquired, and in the first projector, a first identification image is obtained based on the acquired first external information and first internal information stored in the first projector. The first identification image is generated and projected by the first projector.

上記の画像投写システムの制御方法において、前記第2のプロジェクターにおいて、前記第1の識別画像を撮像して第2の撮像画像を生成し、前記第2のプロジェクターにおいて、生成した前記第2の撮像画像に基づいて、第2の外部情報を取得し、前記第2のプロジェクターにおいて、取得した前記第2の外部情報と、前記第2のプロジェクターが記憶する第2の内部情報とに基づいて、前記第2の識別画像を更新し、前記第2のプロジェクターにより、更新後の前記第2の識別画像を投写することが望ましい。   In the control method of the image projection system, the second projector captures the first identification image to generate a second captured image, and the second projector generates the second captured image. Based on the image, the second external information is acquired, and in the second projector, based on the acquired second external information and the second internal information stored in the second projector, It is desirable to update the second identification image and project the updated second identification image by the second projector.

上記の画像投写システムの制御方法において、前記第1のプロジェクターにおいて、更新後の前記第2の識別画像を撮像して前記第1の撮像画像を生成し、前記第1のプロジェクターにおいて、前記第1の撮像画像から取得される前記第1の外部情報に基づいて、前記第1の識別画像を更新し、前記第1のプロジェクターにより、更新後の前記第1の識別画像を投写することが望ましい。   In the control method of the image projection system, the first projector captures the updated second identification image to generate the first captured image, and the first projector includes the first projection image. It is desirable that the first identification image is updated based on the first external information acquired from the captured image, and the updated first identification image is projected by the first projector.

上記の画像投写システムの制御方法において、前記画像投写システムは、第3のプロジェクターをさらに備え、前記第3のプロジェクターにおいて、前記第1のプロジェクターが投写した前記第1の識別画像を撮像することが望ましい。   In the control method of the image projection system, the image projection system further includes a third projector, and the third projector captures the first identification image projected by the first projector. desirable.

上記の画像投写システムの制御方法において、前記第1の内部情報には、前記複数のプロジェクターが投写する画像の配列に関する配列情報が含まれており、前記第1のプロジェクターにおいて、前記第1の撮像画像における前記第2の識別画像の位置に基づいて、前記第1のプロジェクターが投写する画像に対する前記第2のプロジェクターが投写する画像の相対位置を、前記第1の外部情報として取得し、前記第1のプロジェクターにおいて、取得した前記第1の外部情報に基づいて、前記配列情報を更新し、更新後の前記配列情報に基づいて前記第1の識別画像を生成することが望ましい。   In the control method of the image projection system, the first internal information includes arrangement information related to an arrangement of images projected by the plurality of projectors. In the first projector, the first imaging Based on the position of the second identification image in the image, the relative position of the image projected by the second projector with respect to the image projected by the first projector is acquired as the first external information, and the first In one projector, it is preferable that the array information is updated based on the acquired first external information, and the first identification image is generated based on the updated array information.

上記の画像投写システムの制御方法において、前記第1のプロジェクターにおいて、投写する画像の色及び明るさの少なくとも一方を測定し、測定結果に応じた第1の測定情報を前記内部情報として記憶し、前記第2のプロジェクターにおいて、投写する画像の色及び明るさの少なくとも一方を測定し、測定結果に応じた第2の測定情報が格納された前記第2の識別画像を生成して投写し、前記第1のプロジェクターにおいて、前記第1の外部情報として、前記第2の測定情報を取得し、前記第1のプロジェクターにおいて、取得した前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第1の識別画像を生成することが望ましい。   In the control method of the image projection system, the first projector measures at least one of a color and brightness of an image to be projected, and stores first measurement information according to a measurement result as the internal information, The second projector measures at least one of a color and brightness of an image to be projected, generates and projects the second identification image storing second measurement information according to a measurement result, and In the first projector, the second measurement information is acquired as the first external information, and in the first projector, based on the acquired second measurement information and the first measurement information. Thus, it is desirable to generate the first identification image.

上記の画像投写システムの制御方法において、前記第1のプロジェクターにおいて、取得した前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第2のプロジェクターが投写する画像を補正するための補正情報を決定し、決定した補正情報に基づいて前記第1の識別画像を生成し、前記第2のプロジェクターにおいて、前記第1の識別画像を撮像して前記補正情報を取得し、取得した前記補正情報に基づいて前記画像を補正することが望ましい。   In the control method of the image projection system, the first projector corrects an image projected by the second projector based on the acquired second measurement information and the first measurement information. Correction information is determined, the first identification image is generated based on the determined correction information, and the second projector captures the first identification image to acquire the correction information. It is desirable to correct the image based on the correction information.

本願の画像投写システムは、第1のプロジェクター及び第2のプロジェクターを含む複数のプロジェクターにより画像を投写する画像投写システムであって、前記第2のプロジェクターは、第2の識別画像を投写する第2の投写部を備え、前記第1のプロジェクターは、前記第2の識別画像を撮像して第1の撮像画像を生成する第1の撮像部と、前記第1の撮像部によって生成された前記第1の撮像画像に基づいて、第1の外部情報を取得する第1の取得部と、第1の内部情報を記憶する第1の記憶部と、前記第1の取得部によって取得された前記第1の外部情報と、前記第1の記憶部に記憶されている前記第1の内部情報とに基づいて、第1の識別画像を生成する第1の生成部と、前記第1の生成部によって生成された前記第1の識別画像を投写する第1の投写部と、を備えることを特徴とする。   The image projection system of the present application is an image projection system that projects an image by a plurality of projectors including a first projector and a second projector, and the second projector projects a second identification image. The first projector includes a first imaging unit that captures the second identification image and generates a first captured image, and the first imaging unit that is generated by the first imaging unit. Based on one captured image, a first acquisition unit that acquires first external information, a first storage unit that stores first internal information, and the first acquisition unit acquired by the first acquisition unit A first generation unit that generates a first identification image based on the first external information and the first internal information stored in the first storage unit, and the first generation unit. The generated first identification image A first projection section that projects, characterized in that it comprises a.

上記の画像投写システムにおいて、前記第2のプロジェクターは、前記第2の識別画像を生成する第2の生成部と、前記第1の識別画像を撮像して第2の撮像画像を生成する第2の撮像部と、前記第2の撮像画像に基づいて、第2の外部情報を取得する第2の取得部と、第2の内部情報を記憶する第2の記憶部と、を備え、前記第2の生成部は、前記第2の取得部によって取得された前記第2の外部情報と、前記第2の記憶部に記憶されている前記第2の内部情報とに基づいて、前記第2の識別画像を更新し、前記第2の投写部は、更新後の前記第2の識別画像を投写することが望ましい。   In the image projection system, the second projector includes a second generation unit that generates the second identification image, and a second generation unit that captures the first identification image and generates a second captured image. An imaging unit, a second acquisition unit that acquires second external information based on the second captured image, and a second storage unit that stores second internal information. The second generation unit, based on the second external information acquired by the second acquisition unit and the second internal information stored in the second storage unit, It is desirable that the identification image is updated and the second projection unit projects the updated second identification image.

上記の画像投写システムにおいて、前記第1の撮像部は、更新後の前記第2の識別画像を撮像して前記第1の撮像画像を生成し、前記第1の生成部は、前記第1の撮像画像から取得される前記第1の外部情報に基づいて、前記第1の識別画像を更新し、前記第1の投写部は、更新後の前記第1の識別画像を投写することが望ましい。   In the image projection system, the first imaging unit captures the updated second identification image to generate the first captured image, and the first generation unit includes the first imaging unit. It is desirable that the first identification image is updated based on the first external information acquired from the captured image, and the first projection unit projects the updated first identification image.

上記の画像投写システムにおいて、前記第1のプロジェクターが投写した前記第1の識別画像を撮像する第3のプロジェクターをさらに備えることが望ましい。   The image projection system preferably further includes a third projector that captures the first identification image projected by the first projector.

上記の画像投写システムにおいて、前記第1の内部情報には、前記複数のプロジェクターが投写する画像の配列に関する配列情報が含まれており、前記第1の取得部は、前記第1の撮像画像における前記第2の識別画像の位置に基づいて、前記第1のプロジェクターが投写する画像に対する前記第2のプロジェクターが投写する画像の相対位置を、前記第1の外部情報として取得し、前記第1の生成部は、取得した前記相対位置に基づいて前記配列情報を更新し、更新後の前記配列情報に基づいて前記第1の識別画像を生成することが望ましい。   In the image projection system, the first internal information includes arrangement information related to an arrangement of images projected by the plurality of projectors, and the first acquisition unit includes the first captured image in the first captured image. Based on the position of the second identification image, the relative position of the image projected by the second projector with respect to the image projected by the first projector is acquired as the first external information, and the first It is desirable that the generation unit updates the array information based on the acquired relative position, and generates the first identification image based on the updated array information.

上記の画像投写システムにおいて、前記第1のプロジェクターは、前記第1の投写部から投写する画像の色及び明るさの少なくとも一方を測定する第1の測定部をさらに備え、前記第2のプロジェクターは、前記第2の投写部から投写する画像の色及び明るさの少なくとも一方を測定する第2の測定部をさらに備え、前記第2の識別画像には、前記第2の測定部による測定結果に応じた第2の測定情報が格納されており、前記第1の内部情報には、前記第1の測定部による測定結果に応じた第1の測定情報が含まれており、前記第1の取得部は、前記第1の外部情報として、前記第2の測定情報を取得し、前記第1の生成部は、取得された前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第1の識別画像を生成することが望ましい。   In the image projection system, the first projector further includes a first measurement unit that measures at least one of color and brightness of an image projected from the first projection unit, and the second projector includes: And a second measuring unit that measures at least one of color and brightness of an image projected from the second projecting unit, and the second identification image includes a measurement result by the second measuring unit. Corresponding second measurement information is stored, and the first internal information includes first measurement information according to a measurement result by the first measurement unit, and the first acquisition is performed. The unit acquires the second measurement information as the first external information, and the first generation unit is based on the acquired second measurement information and the first measurement information. Desirably, generating the first identification image There.

上記の画像投写システムにおいて、前記第2のプロジェクターは、前記第2の投写部から投写する画像の色及び明るさの少なくとも一方を補正する補正部をさらに備え、前記第1の生成部は、取得された前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第2の投写部から投写する画像を補正するための補正情報を決定し、決定した前記補正情報に基づいて前記第1の識別画像を生成し、前記第2の取得部は、前記第2の外部情報として前記補正情報を取得し、前記補正部は、前記第2の取得部が取得した前記補正情報に基づいて前記画像を補正することが望ましい。   In the image projection system, the second projector further includes a correction unit that corrects at least one of a color and brightness of an image projected from the second projection unit, and the first generation unit includes the acquisition unit. Correction information for correcting an image projected from the second projection unit is determined based on the second measurement information and the first measurement information, and based on the determined correction information The first identification image is generated, the second acquisition unit acquires the correction information as the second external information, and the correction unit adds the correction information acquired by the second acquisition unit to the correction information. It is desirable to correct the image based on it.

本願のプロジェクターは、複数のプロジェクターにより画像を投写する画像投写システムに備わるプロジェクターであって、他のプロジェクターが投写する第2の識別画像を撮像して撮像画像を生成する撮像部と、前記撮像部によって生成された前記撮像画像に基づいて、外部情報を取得する取得部と、内部情報を記憶する記憶部と、前記取得部によって取得された前記外部情報と、前記記憶部に記憶されている前記内部情報とに基づいて、第1の識別画像を生成する生成部と、前記生成部によって生成された前記第1の識別画像を投写する投写部と、を備えたことを特徴とする。   The projector of the present application is a projector provided in an image projection system that projects an image by a plurality of projectors, the imaging unit that captures a second identification image projected by another projector and generates a captured image, and the imaging unit Based on the captured image generated by the above, an acquisition unit that acquires external information, a storage unit that stores internal information, the external information acquired by the acquisition unit, and the storage unit that is stored in the storage unit And a generation unit that generates a first identification image based on internal information, and a projection unit that projects the first identification image generated by the generation unit.

上記のプロジェクターにおいて、前記内部情報には、前記複数のプロジェクターが投写する画像の配列に関する配列情報が含まれており、前記取得部は、前記撮像画像における前記第2の識別画像の位置に基づいて、当該プロジェクターが投写する画像に対する前記他のプロジェクターが投写する画像の相対位置を、前記外部情報として取得し、前記生成部は、前記取得部によって取得された前記相対位置に基づいて前記配列情報を更新し、更新後の前記配列情報に基づいて前記第1の識別画像を生成することが望ましい。   In the projector described above, the internal information includes arrangement information related to an arrangement of images projected by the plurality of projectors, and the acquisition unit is based on the position of the second identification image in the captured image. The relative position of the image projected by the other projector with respect to the image projected by the projector is acquired as the external information, and the generation unit obtains the arrangement information based on the relative position acquired by the acquisition unit. It is desirable to update and generate the first identification image based on the updated arrangement information.

上記のプロジェクターにおいて、前記投写部から投写する画像の色及び明るさの少なくとも一方を測定する測定部をさらに備え、前記第2の識別画像には、前記他のプロジェクターが投写する画像の色及び明るさの少なくとも一方を測定した測定結果に応じた第2の測定情報が格納されており、前記内部情報には、前記測定部による測定結果に応じた第1の測定情報が含まれており、前記取得部は、前記外部情報として、前記第2の測定情報を取得し、前記生成部は、取得された前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第1の識別画像を生成することが望ましい。   The projector may further include a measurement unit that measures at least one of color and brightness of an image projected from the projection unit, and the second identification image includes the color and brightness of an image projected by the other projector. Second measurement information according to a measurement result obtained by measuring at least one of the lengths is stored, and the internal information includes first measurement information according to a measurement result by the measurement unit, The acquisition unit acquires the second measurement information as the external information, and the generation unit is configured to generate the first measurement information based on the acquired second measurement information and the first measurement information. It is desirable to generate an identification image.

画像投写システムを示す説明図。Explanatory drawing which shows an image projection system. プロジェクターの概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a projector. プロジェクターに備わる画像投写部の概略構成を示すブロック図。FIG. 2 is a block diagram showing a schematic configuration of an image projection unit provided in the projector. 部分画像の配列を自動判定する際のプロジェクターの動作を示すフローチャート。6 is a flowchart showing the operation of the projector when automatically determining the arrangement of partial images. データテーブルを説明するための説明図。Explanatory drawing for demonstrating a data table. QRコードを表示する位置を説明するための説明図。Explanatory drawing for demonstrating the position which displays a QR code. 各プロジェクターのデータテーブルの更新の推移を示す表。The table | surface which shows transition of the update of the data table of each projector. 各プロジェクターのデータテーブルの更新の推移を示す表。The table | surface which shows transition of the update of the data table of each projector. 各プロジェクターのデータテーブルの更新の推移を示す表。The table | surface which shows transition of the update of the data table of each projector. 部分画像が別の配列パターンで配列されている例を説明するための説明図。Explanatory drawing for demonstrating the example by which the partial image is arranged by another arrangement pattern. 補正処理を説明するための説明図。Explanatory drawing for demonstrating a correction process. 補正処理を説明するための説明図。Explanatory drawing for demonstrating a correction process. 補正処理を説明するための説明図。Explanatory drawing for demonstrating a correction process. 補正処理を説明するための説明図。Explanatory drawing for demonstrating a correction process. 補正処理を実行する際のエンドプロジェクターの動作を説明するためのフローチャート。6 is a flowchart for explaining the operation of an end projector when executing correction processing. 補正処理を実行する際のリレープロジェクターの動作を説明するためのフローチャート。6 is a flowchart for explaining the operation of a relay projector when executing correction processing. 補正処理を実行する際のマスタープロジェクターの動作を説明するためのフローチャート。6 is a flowchart for explaining the operation of a master projector when executing correction processing.

以下、本実施形態の画像投写システムについて、図面を参照して説明する。
図1は、本実施形態の画像投写システム100を示す説明図である。
図1に示すように、画像投写システム100は、3つのプロジェクター1(プロジェクター1a,1b,1c)を備えている。各プロジェクター1は、スクリーンや壁面等の投写面Spに画像を投写して表示する。3つのプロジェクター1は、それぞれが協働して1つの大きな画像(以降、「投写画像Pa」とも呼ぶ)を表示できるように、各プロジェクター1から投写される画像(以降、「部分画像Pd」とも呼ぶ。)が隣り合って並ぶように設置されている。図1の例では、各プロジェクター1は、3つの部分画像Pdが横一列に配列されるように配置されている。また、各プロジェクター1は、それぞれの部分画像Pdの一部が他のプロジェクター1の部分画像Pdの一部と重なり合うように設置されている。このため、部分画像Pd間に隙間がなく、各部分画像Pdをスムーズに連結することが可能になっている。なお、これ以降、複数のプロジェクター1が協働して1つの投写画像Paを表示することを「マルチプロジェクション」とも呼び、部分画像Pd同士が重なり合っている領域Aoのことを「重畳領域Ao」とも呼ぶ。
Hereinafter, the image projection system of the present embodiment will be described with reference to the drawings.
FIG. 1 is an explanatory diagram showing an image projection system 100 of the present embodiment.
As shown in FIG. 1, the image projection system 100 includes three projectors 1 (projectors 1a, 1b, 1c). Each projector 1 projects and displays an image on a projection surface Sp such as a screen or a wall surface. The three projectors 1 cooperate with each other to display one large image (hereinafter also referred to as “projected image Pa”), so that the images projected from each projector 1 (hereinafter referred to as “partial image Pd”). Are installed next to each other. In the example of FIG. 1, each projector 1 is arranged so that three partial images Pd are arranged in a horizontal row. Each projector 1 is installed such that a part of each partial image Pd overlaps a part of the partial image Pd of the other projector 1. For this reason, there is no gap between the partial images Pd, and the partial images Pd can be smoothly connected. Hereinafter, the display of one projection image Pa by the cooperation of the plurality of projectors 1 is also referred to as “multi-projection”, and the area Ao where the partial images Pd overlap each other is also referred to as the “superimposition area Ao”. Call.

プロジェクター1は、それぞれの識別情報等の情報が格納されたQRコード(登録商標)200を、自身の部分画像Pdの周縁部に投写することができる。また、プロジェクター1は、少なくとも自身が投写する部分画像Pdを含む範囲を撮像可能になっている。このため、1つの重畳領域Aoを共有する2つのプロジェクター1のうち、一方のプロジェクター1が、その重畳領域AoにQRコード200を投写すると、他方のプロジェクター1は、そのQRコード200を撮像して、QRコード200に格納されている情報を取得することができる。つまり、画像投写システム100の各プロジェクター1は、QRコード200の投写と撮像とによって、他のプロジェクター1との間で情報の伝達を行うことができる。このため、例えば、部分画像Pdの配列を判定したり、部分画像Pd間の色や明るさのばらつきを補正したりする処理を、QRコード200を用いた情報伝達によって実現することが可能となっている。   The projector 1 can project a QR code (registered trademark) 200 in which information such as identification information is stored on the peripheral portion of its own partial image Pd. Further, the projector 1 can capture a range including at least the partial image Pd projected by itself. For this reason, when one projector 1 projects the QR code 200 in the superimposition area Ao among the two projectors 1 sharing one superimposition area Ao, the other projector 1 captures the QR code 200. , Information stored in the QR code 200 can be acquired. That is, each projector 1 of the image projection system 100 can transmit information to and from other projectors 1 by projecting the QR code 200 and imaging. For this reason, for example, processing for determining the arrangement of the partial images Pd and correcting variations in color and brightness between the partial images Pd can be realized by information transmission using the QR code 200. ing.

なお、図1では省略しているが、各プロジェクター1により投写画像Paとして所望のコンテンツを表示させる際には、各プロジェクター1は、外部の画像供給装置3(図2参照)に接続され、画像供給装置3からコンテンツに対応する画像情報の供給を受ける。   Although not shown in FIG. 1, when a desired content is displayed as a projection image Pa by each projector 1, each projector 1 is connected to an external image supply device 3 (see FIG. 2), and the image is displayed. Image information corresponding to the content is supplied from the supply device 3.

図2は、プロジェクター1の概略構成を示すブロック図であり、図3は、プロジェクター1に備わる画像投写部17の概略構成を示すブロック図である。
図2に示すように、プロジェクター1は、制御部10と、記憶部11と、入力操作部12と、リモコン信号受信部13と、撮像部14と、画像情報入力部15と、画像情報処理部16と、投写部としての画像投写部17とを一体的に備えて構成されている。プロジェクター1は、画像情報入力部15に入力される画像情報に基づいて、画像投写部17から投写面Spに画像を投写する。
FIG. 2 is a block diagram illustrating a schematic configuration of the projector 1, and FIG. 3 is a block diagram illustrating a schematic configuration of the image projection unit 17 provided in the projector 1.
As shown in FIG. 2, the projector 1 includes a control unit 10, a storage unit 11, an input operation unit 12, a remote control signal receiving unit 13, an imaging unit 14, an image information input unit 15, and an image information processing unit. 16 and an image projection unit 17 as a projection unit are integrally provided. The projector 1 projects an image from the image projection unit 17 onto the projection plane Sp based on the image information input to the image information input unit 15.

制御部10は、1つ又は複数のプロセッサーを備えて構成され、記憶部11に記憶されている制御プログラム(図示せず)に従って動作することによりプロジェクター1の動作を統括制御する。   The control unit 10 includes one or more processors, and performs overall control of the operation of the projector 1 by operating according to a control program (not shown) stored in the storage unit 11.

記憶部11は、RAM(Random Access Memory)及びROM(Read Only Memory)等のメモリーを備えて構成される。RAMは、各種データ等の一時記憶に用いられ、ROMは、プロジェクター1の動作を制御するための制御プログラムや制御データ等を記憶する。また、本実施形態の記憶部11には、各プロジェクター1に固有の識別情報31が記憶されるとともに、部分画像Pdの配列の判定に用いられる配列情報としてのデータテーブル32が記憶されている。   The storage unit 11 includes a memory such as a random access memory (RAM) and a read only memory (ROM). The RAM is used for temporary storage of various data, and the ROM stores a control program and control data for controlling the operation of the projector 1. In the storage unit 11 of the present embodiment, identification information 31 unique to each projector 1 is stored, and a data table 32 is stored as array information used for determining the array of the partial images Pd.

入力操作部12は、ユーザーがプロジェクター1に対して各種指示を行うための複数の操作キーを備えている。入力操作部12が備える操作キーとしては、電源のオンとオフ(スタンバイ)とを切り替えるための「電源キー」、各種設定を行うためのメニュー画像を表示させる「メニューキー」、メニュー画像上で項目を選択するための「方向キー」等がある。ユーザーが入力操作部12の各種操作キーを操作すると、入力操作部12は、ユーザーの操作内容に応じた操作信号を制御部10に出力する。   The input operation unit 12 includes a plurality of operation keys for the user to give various instructions to the projector 1. The operation keys provided in the input operation unit 12 include a “power key” for switching the power on and off (standby), a “menu key” for displaying a menu image for performing various settings, and items on the menu image. There is a “direction key” for selecting. When the user operates various operation keys of the input operation unit 12, the input operation unit 12 outputs an operation signal corresponding to the operation content of the user to the control unit 10.

リモコン信号受信部13は、受光素子やデコーダー等を備えて構成され、プロジェクター1を遠隔操作するためのリモコン2から発せられる赤外光の操作信号を受信する。リモコン2には、複数の操作キーが配列されており、ユーザーがリモコン2の操作キーを操作すると、リモコン2は、操作された操作キーに対応する操作信号を送信する。リモコン信号受信部13は、リモコン2から送信される操作信号を受信してデコードし、制御部10に出力する。   The remote control signal receiving unit 13 includes a light receiving element, a decoder, and the like, and receives an infrared light operation signal emitted from the remote control 2 for remotely operating the projector 1. The remote controller 2 has a plurality of operation keys arranged. When the user operates the operation keys of the remote controller 2, the remote controller 2 transmits an operation signal corresponding to the operated operation key. The remote control signal receiving unit 13 receives and decodes the operation signal transmitted from the remote control 2 and outputs it to the control unit 10.

撮像部14は、CCD(Charge Coupled Device)センサー、或いはCMOS(Complementary Metal Oxide Semiconductor)センサー等の撮像素子(図示せず)を備えたカメラである。撮像部14は、制御部10の制御に基づいて投写面Spを撮像し、その撮像結果として撮像画像を生成して制御部10に出力する。撮像部14は、少なくとも画像投写部17から画像(部分画像Pd)が投写される範囲を撮像する。このため、図1に示したように、複数の部分画像Pdの一部が重畳するようにプロジェクター1が設置されている場合には、撮像部14は、隣り合う部分画像Pdのうち、少なくとも重畳領域Aoに含まれる領域を撮像することができる。   The imaging unit 14 is a camera that includes an imaging element (not shown) such as a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor. The imaging unit 14 images the projection plane Sp based on the control of the control unit 10, generates a captured image as the imaging result, and outputs the captured image to the control unit 10. The imaging unit 14 captures at least a range in which an image (partial image Pd) is projected from the image projection unit 17. For this reason, as shown in FIG. 1, when the projector 1 is installed so that a part of the plurality of partial images Pd is superimposed, the imaging unit 14 at least superimposes the adjacent partial images Pd. An area included in the area Ao can be imaged.

画像情報入力部15は、画像再生装置等の外部の画像供給装置3に接続され、画像供給装置3からコンテンツに対応する画像情報の供給を受ける。また、画像情報入力部15は、制御部10から、記憶部11に記憶されている画像情報や、制御部10が生成した画像情報の供給を受けることができる。画像情報入力部15は、入力された画像情報を画像情報処理部16に出力する。なお、これ以降、画像供給装置3や制御部10から画像情報入力部15に入力される画像情報のことを、「入力画像情報」とも呼び、入力画像情報に基づく画像のことを「入力画像」とも呼ぶ。   The image information input unit 15 is connected to an external image supply device 3 such as an image reproduction device, and receives image information corresponding to content from the image supply device 3. The image information input unit 15 can receive supply of image information stored in the storage unit 11 and image information generated by the control unit 10 from the control unit 10. The image information input unit 15 outputs the input image information to the image information processing unit 16. Hereinafter, image information input from the image supply device 3 or the control unit 10 to the image information input unit 15 is also referred to as “input image information”, and an image based on the input image information is referred to as “input image”. Also called.

画像情報処理部16は、制御部10の制御に基づいて、入力画像情報に対して様々な処理を施し、処理後の画像情報を画像投写部17のライトバルブ駆動部24(図3参照)に出力する。例えば、画像情報処理部16は、投写する画像の色や明るさを補正する処理や、画像の形状の歪みを補正する処理、入力画像上にメニュー画像やメッセージ画像等のOSD(オンスクリーンディスプレイ)画像を重畳する処理等を必要に応じて入力画像情報に施す。本実施形態において、プロジェクター1が投写するQRコード200は、画像情報処理部16によって入力画像上にOSD画像として重畳される画像である。   The image information processing unit 16 performs various processes on the input image information based on the control of the control unit 10, and sends the processed image information to the light valve driving unit 24 (see FIG. 3) of the image projection unit 17. Output. For example, the image information processing unit 16 performs processing for correcting the color and brightness of the projected image, processing for correcting distortion of the shape of the image, and OSD (on-screen display) such as a menu image or a message image on the input image. A process of superimposing an image is performed on the input image information as necessary. In the present embodiment, the QR code 200 projected by the projector 1 is an image that is superimposed as an OSD image on the input image by the image information processing unit 16.

なお、画像情報入力部15及び画像情報処理部16は、1つ又は複数のプロセッサー等によって構成されてもよいし、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の専用の処理装置によって構成されてもよい。   The image information input unit 15 and the image information processing unit 16 may be configured by one or a plurality of processors or the like, or a dedicated process such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). It may be constituted by a device.

図3に示すように、画像投写部17は、光源21、電気光学装置及び光変調装置としての3つの液晶ライトバルブ22R,22G,22B、投写光学系23、ライトバルブ駆動部24等を備えて構成されている。画像投写部17は、光源21から射出された光を、液晶ライトバルブ22R,22G,22Bで変調して画像光を形成し、レンズ及びミラーの少なくとも一方を含む投写光学系23からこの画像光を投写して投写面Spに画像を表示する。   As shown in FIG. 3, the image projection unit 17 includes a light source 21, three liquid crystal light valves 22R, 22G, and 22B serving as an electro-optical device and a light modulation device, a projection optical system 23, a light valve driving unit 24, and the like. It is configured. The image projection unit 17 modulates the light emitted from the light source 21 with the liquid crystal light valves 22R, 22G, and 22B to form image light, and the image light from the projection optical system 23 including at least one of a lens and a mirror. Projecting and displaying an image on the projection surface Sp.

光源21は、超高圧水銀ランプやメタルハライドランプ等の放電型の光源ランプ、又は発光ダイオードや半導体レーザー等の固体光源を含んで構成されている。光源21から射出された光は、図示しないインテグレーター光学系によって輝度分布が略均一な光に変換され、図示しない色分離光学系によって光の3原色である赤色(R)、緑色(G)、青色(B)の各色光成分に分離された後、それぞれ液晶ライトバルブ22R,22G,22Bに入射する。   The light source 21 includes a discharge type light source lamp such as an ultra-high pressure mercury lamp or a metal halide lamp, or a solid light source such as a light emitting diode or a semiconductor laser. Light emitted from the light source 21 is converted into light having a substantially uniform luminance distribution by an integrator optical system (not shown), and red (R), green (G), and blue which are the three primary colors of light by a color separation optical system (not shown). After being separated into each color light component of (B), it enters the liquid crystal light valves 22R, 22G, 22B, respectively.

液晶ライトバルブ22R,22G,22Bは、それぞれ一対の透明基板間に液晶が封入された透過型の液晶パネル等によって構成される。各液晶パネルには、マトリクス状に配列された複数の画素からなる矩形の画素領域22iが形成されており、液晶に対して画素毎に駆動電圧を印加可能になっている。   The liquid crystal light valves 22R, 22G, and 22B are each configured by a transmissive liquid crystal panel in which liquid crystal is sealed between a pair of transparent substrates. Each liquid crystal panel is formed with a rectangular pixel region 22i composed of a plurality of pixels arranged in a matrix, and a driving voltage can be applied to the liquid crystal for each pixel.

ライトバルブ駆動部24は、液晶ライトバルブ22R,22G,22Bの画素領域22iに画像を形成する。具体的には、ライトバルブ駆動部24は、画像情報処理部16から入力される画像情報に応じた駆動電圧を、画素領域22iの各画素に印加し、各画素を画像情報に応じた光透過率に設定する。光源21から射出された光は、液晶ライトバルブ22R,22G,22Bの画素領域22iを透過することによって画素毎に変調され、画像情報に応じた画像光が色光毎に形成される。形成された各色の画像光は、図示しない色合成光学系によって画素毎に合成されてカラー画像を表す画像光となり、投写光学系23によって投写面Spに拡大投写される。この結果、投写面Sp上には、画像情報に基づく画像が表示される。   The light valve driving unit 24 forms an image in the pixel region 22i of the liquid crystal light valves 22R, 22G, and 22B. Specifically, the light valve driving unit 24 applies a driving voltage corresponding to the image information input from the image information processing unit 16 to each pixel of the pixel region 22i, and transmits each pixel according to the image information. Set to rate. The light emitted from the light source 21 is modulated for each pixel by passing through the pixel regions 22i of the liquid crystal light valves 22R, 22G, and 22B, and image light corresponding to image information is formed for each color light. The formed image light of each color is synthesized for each pixel by a color synthesis optical system (not shown) to form image light representing a color image, and is enlarged and projected onto the projection plane Sp by the projection optical system 23. As a result, an image based on the image information is displayed on the projection surface Sp.

図2に戻って、制御部10は、制御プログラムによって実現される機能ブロックとして、QRコード生成部18と、QRコード解析部19とを有している。   Returning to FIG. 2, the control unit 10 includes a QR code generation unit 18 and a QR code analysis unit 19 as functional blocks realized by the control program.

QRコード生成部18は、識別情報31等、他のプロジェクター1に伝達したい情報をエンコードして、識別画像としてのQRコード200を生成する。具体的には、QRコード生成部18は、QRコード200をOSD画像として表示するための画像情報(以降、「識別画像情報」とも呼ぶ。)を生成し、生成した識別画像情報を画像情報処理部16に出力する。そして、画像情報処理部16が、識別画像情報を入力画像情報に重畳する処理を行うと、画像投写部17からQRコード200が投写される。   The QR code generating unit 18 encodes information to be transmitted to other projectors 1 such as the identification information 31 and generates a QR code 200 as an identification image. Specifically, the QR code generation unit 18 generates image information (hereinafter also referred to as “identification image information”) for displaying the QR code 200 as an OSD image, and the generated identification image information is subjected to image information processing. To the unit 16. When the image information processing unit 16 performs a process of superimposing the identification image information on the input image information, the QR code 200 is projected from the image projection unit 17.

QRコード解析部19は、撮像部14で生成された撮像画像から、他のプロジェクター1が投写したQRコード200を検出して、これをデコードし、QRコード200に格納されている情報を取得する。   The QR code analysis unit 19 detects a QR code 200 projected by another projector 1 from the captured image generated by the imaging unit 14, decodes the QR code 200, and acquires information stored in the QR code 200. .

次に、画像投写システム100の動作について説明する。
本実施形態の画像投写システム100は、各プロジェクター1が、それぞれの識別情報31等が格納されたQRコード200を投写するとともに、他のプロジェクター1が投写したQRコード200を撮像することにより、各部分画像Pdがどのような配列パターンで配列されていて、どのプロジェクター1がどの位置に部分画像Pdを投写しているのかを自動的に判定することが可能になっている。
Next, the operation of the image projection system 100 will be described.
In the image projection system 100 of the present embodiment, each projector 1 projects the QR code 200 in which the identification information 31 and the like are stored, and also images each QR code 200 projected by the other projector 1. It is possible to automatically determine in which arrangement pattern the partial images Pd are arranged and which projector 1 projects the partial image Pd at which position.

図4は、部分画像Pdの配列を自動判定する際のプロジェクター1の動作を示すフローチャートである。ユーザーがリモコン2を用いて配列の自動判定を指示する操作を行うと、リモコン2から送信された操作信号は、各プロジェクター1のリモコン信号受信部13によって受信される。そして、各プロジェクター1の制御部10は、図4に示すフローに従って動作する。   FIG. 4 is a flowchart showing the operation of the projector 1 when automatically determining the arrangement of the partial images Pd. When the user performs an operation for instructing automatic array determination using the remote controller 2, the operation signal transmitted from the remote controller 2 is received by the remote control signal receiver 13 of each projector 1. And the control part 10 of each projector 1 operate | moves according to the flow shown in FIG.

なお、説明を簡単にするために、本実施形態では、部分画像Pdを最大で3つまで配列できるものとする。つまり、マルチプロジェクションに寄与するプロジェクター1の最大数は、3である。また、図1に示したように、本実施形態では、3つの部分画像Pdが横並びで配列されており、このうち、投写面Spに向かって左側の部分画像Pdをプロジェクター1aが投写し、中央の部分画像Pdをプロジェクター1bが投写し、右側の部分画像Pdをプロジェクター1cが投写するものとする。また、プロジェクター1aの識別情報31は「101」に設定され、プロジェクター1bの識別情報31は「102」に設定され、プロジェクター1cの識別情報31は「103」に設定されているものとする。   In order to simplify the description, it is assumed in the present embodiment that up to three partial images Pd can be arranged. That is, the maximum number of projectors 1 that contribute to multi-projection is three. Further, as shown in FIG. 1, in the present embodiment, three partial images Pd are arranged side by side. Among these, the left partial image Pd is projected by the projector 1a toward the projection plane Sp, and the center is displayed. The partial image Pd is projected by the projector 1b, and the right partial image Pd is projected by the projector 1c. Further, it is assumed that the identification information 31 of the projector 1a is set to “101”, the identification information 31 of the projector 1b is set to “102”, and the identification information 31 of the projector 1c is set to “103”.

図4に示すように、ステップS101では、制御部10は、QRコード生成部18により、自身の記憶部11に記憶されている識別情報31及びデータテーブル32をエンコードして、これらの情報が格納された1つのQRコード200を生成する。   As shown in FIG. 4, in step S101, the control unit 10 encodes the identification information 31 and the data table 32 stored in its storage unit 11 by the QR code generation unit 18, and stores these information. One generated QR code 200 is generated.

図5は、データテーブル32を説明するための説明図であり、一例として、プロジェクター1bの記憶部11に記憶されているデータテーブル32を示している。
図5に示すように、データテーブル32は、部分画像Pdの配列を自動判定するために用いられるデータ群であり、プロジェクター1の最大数と同数の3つのデータ列L1,L2,L3を含んで構成されている。各プロジェクター1は、撮像部14によって生成された撮像画像から他のプロジェクター1が投写したQRコード200を検出し、その検出結果をデータテーブル32に格納する。第1データ列L1は、自身の検出結果を格納するためのデータ列であり、第2データ列L2及び第3データ列L3は、他のプロジェクター1の検出結果を格納するためのデータ列である。
FIG. 5 is an explanatory diagram for explaining the data table 32. As an example, the data table 32 stored in the storage unit 11 of the projector 1b is shown.
As shown in FIG. 5, the data table 32 is a data group used for automatically determining the arrangement of the partial images Pd, and includes three data strings L1, L2, and L3 that are the same number as the maximum number of the projectors 1. It is configured. Each projector 1 detects the QR code 200 projected by another projector 1 from the captured image generated by the imaging unit 14 and stores the detection result in the data table 32. The first data string L1 is a data string for storing its own detection results, and the second data string L2 and the third data string L3 are data strings for storing the detection results of the other projectors 1. .

各データ列は、第1項目C1〜第5項目C5の5つのデータを格納可能であり、第1項目C1には、検出を行うプロジェクター1の識別情報31が格納される。このため、第1データ列L1の第1項目C1には、自身の識別情報31(この例では「102」)が格納されている。配列の自動判定を行う前の初期状態では、他のプロジェクター1の識別情報31を取得できていないため、第2データ列L2及び第3データ列L3の第1項目C1は、空欄(図中では「−」で示す。)である。なお、これ以降、各データ列の第1項目C1に設定されるプロジェクター1が投写する部分画像Pdを「基準画像Pd」とも呼ぶ。   Each data string can store five data of the first item C1 to the fifth item C5, and the identification information 31 of the projector 1 that performs detection is stored in the first item C1. Therefore, the identification information 31 (“102” in this example) is stored in the first item C1 of the first data string L1. Since the identification information 31 of the other projectors 1 has not been acquired in the initial state before the automatic array determination, the first item C1 of the second data string L2 and the third data string L3 is blank (in the drawing, "-".) Hereinafter, the partial image Pd projected by the projector 1 set in the first item C1 of each data string is also referred to as “reference image Pd”.

各データ列の第2項目C2には、基準画像Pdの上側に部分画像Pdを投写するプロジェクター1の識別情報31が格納され、第3項目C3には、基準画像Pdの右側に部分画像Pdを投写するプロジェクター1の識別情報31が格納される。同様に、第4項目C4には、基準画像Pdの下側に部分画像Pdを投写するプロジェクター1の識別情報31が格納され、第5項目C5には、基準画像Pdの左側に部分画像Pdを投写するプロジェクター1の識別情報31が格納される。初期状態では、第2項目C2〜第5項目C5は、いずれも空欄である。   The second item C2 of each data string stores the identification information 31 of the projector 1 that projects the partial image Pd on the upper side of the reference image Pd. The third item C3 stores the partial image Pd on the right side of the reference image Pd. The identification information 31 of the projector 1 to project is stored. Similarly, the identification information 31 of the projector 1 that projects the partial image Pd below the reference image Pd is stored in the fourth item C4, and the partial image Pd is stored on the left side of the reference image Pd in the fifth item C5. The identification information 31 of the projector 1 to project is stored. In the initial state, the second item C2 to the fifth item C5 are all blank.

図4に戻って、ステップS102では、制御部10は、QRコード生成部18が生成したQRコード200を投写面Spに表示する。具体的には、制御部10は、白色で無地の画像(全白画像)を表す画像情報を画像情報入力部15に出力するとともに、生成されたQRコード200の画像情報を画像情報処理部16に出力する。この結果、画像情報処理部16が全白画像上にQRコード200をOSD画像として重畳させることにより、QRコード200が画像投写部17から投写される。このとき、制御部10は、画像情報処理部16に指示をして、QRコード200を部分画像Pdの周縁部に配置させる。   Returning to FIG. 4, in step S <b> 102, the control unit 10 displays the QR code 200 generated by the QR code generation unit 18 on the projection plane Sp. Specifically, the control unit 10 outputs image information representing a white and plain image (an all-white image) to the image information input unit 15 and also outputs the image information of the generated QR code 200 to the image information processing unit 16. Output to. As a result, the QR code 200 is projected from the image projection unit 17 by the image information processing unit 16 superimposing the QR code 200 on the all white image as an OSD image. At this time, the control unit 10 instructs the image information processing unit 16 to place the QR code 200 on the peripheral portion of the partial image Pd.

図6は、QRコード200を表示する位置を説明するための説明図である。図6では、プロジェクター1が投写する基準画像Pdが実線で示され、基準画像Pdの上下左右に隣り合うように投写される部分画像Pdが破線で示されている。   FIG. 6 is an explanatory diagram for explaining a position where the QR code 200 is displayed. In FIG. 6, the reference image Pd projected by the projector 1 is indicated by a solid line, and the partial images Pd projected so as to be adjacent to the upper and lower sides and the left and right of the reference image Pd are indicated by broken lines.

図6に示すように、プロジェクター1は、自身が投写する部分画像Pd(基準画像Pd)の周縁部であって、基準画像Pdの上下左右に他のプロジェクター1が部分画像Pdを投写する場合に重畳領域Aoとなる領域にQRコード200を表示する。具体的には、プロジェクター1は、基準画像Pdと他の1つの部分画像Pdとのみ重畳され得る領域、即ち重畳領域Aoとなり得る枠状の領域から、他の2つの部分画像Pdと重畳され得る角部の領域Awを除いた領域に1つのQRコード200を表示させる。つまり、プロジェクター1は、基準画像Pdの上側の部分画像Pdとのみ重畳され得る第1領域A1と、基準画像Pdの右側の部分画像Pdとのみ重畳され得る第2領域A2と、基準画像Pdの下側の部分画像Pdとのみ重畳され得る第3領域A3と、基準画像Pdの左側の部分画像Pdとのみ重畳され得る第4領域A4のいずれかにQRコード200を表示する。   As shown in FIG. 6, the projector 1 is a peripheral portion of the partial image Pd (reference image Pd) projected by itself, and the other projector 1 projects the partial image Pd on the upper, lower, left, and right sides of the reference image Pd. The QR code 200 is displayed in the area to be the overlapping area Ao. Specifically, the projector 1 can be superimposed on the other two partial images Pd from a region that can be superimposed only on the reference image Pd and the other partial image Pd, that is, a frame-shaped region that can be the superimposed region Ao. One QR code 200 is displayed in an area excluding the corner area Aw. That is, the projector 1 includes the first area A1 that can be superimposed only on the upper partial image Pd of the reference image Pd, the second area A2 that can be superimposed only on the right partial image Pd of the reference image Pd, and the reference image Pd. The QR code 200 is displayed in either the third region A3 that can be superimposed only on the lower partial image Pd or the fourth region A4 that can be superimposed only on the left partial image Pd of the reference image Pd.

より具体的には、プロジェクター1の制御部10は、第1領域A1、第2領域A2、第3領域A3及び第4領域A4のそれぞれに、基準画像Pdの外縁に沿って2つの表示位置を設定する。第1領域A1には、左から順に表示位置P1,P2が設定され、第2領域A2には、上から順に表示位置P3,P4が設定され、第3領域A3には、右から順に表示位置P5,P6が設定され、第4領域A4には、下から順に表示位置P7,P8が設定される。そして、制御部10は、合計で8つの表示位置P1〜P8のうち、いずれか1つの表示位置にQRコード200を表示させ、これ以降、時間の経過とともにQRコード200の表示位置を時計回りに循環的に変化させる。   More specifically, the control unit 10 of the projector 1 sets two display positions along the outer edge of the reference image Pd in each of the first area A1, the second area A2, the third area A3, and the fourth area A4. Set. Display positions P1 and P2 are set in order from the left in the first area A1, display positions P3 and P4 are set in order from the top in the second area A2, and display positions in order from the right in the third area A3. P5 and P6 are set, and display positions P7 and P8 are set in order from the bottom in the fourth area A4. Then, the control unit 10 displays the QR code 200 at any one of the eight display positions P1 to P8 in total, and thereafter, the display position of the QR code 200 is rotated clockwise as time passes. Change cyclically.

図4に戻って、ステップS103では、制御部10は、撮像部14に指示をして、投写面Spを撮像させる。そして、ステップS104では、制御部10は、撮像部14によって生成された撮像画像に基づいて、基準画像Pdの第1領域A1〜第4領域A4内に、自身が投写したQRコード200以外のQRコード200、即ち基準画像Pdの上下左右のいずれかに隣り合う位置に部分画像Pdを投写するプロジェクター1のQRコード200が存在するか否かを判断する。そして、制御部10は、他のプロジェクター1のQRコード200が検出されなかった場合にはステップS105に処理を移し、他のプロジェクター1のQRコード200が検出された場合にはステップS107に処理を移す。   Returning to FIG. 4, in step S <b> 103, the control unit 10 instructs the imaging unit 14 to image the projection plane Sp. In step S <b> 104, based on the captured image generated by the imaging unit 14, the control unit 10 includes a QR other than the QR code 200 projected by itself within the first area A <b> 1 to the fourth area A <b> 4 of the reference image Pd. It is determined whether or not the QR code 200 of the projector 1 that projects the partial image Pd exists at a position adjacent to the code 200, that is, one of the upper, lower, left, and right sides of the reference image Pd. When the QR code 200 of the other projector 1 is not detected, the control unit 10 moves the process to step S105, and when the QR code 200 of the other projector 1 is detected, the process proceeds to step S107. Transfer.

他のQRコード200が検出されずにステップS105に処理が移行した場合には、制御部10は、現在の表示位置にQRコード200を表示させてから所定の単位時間(例えば、1秒)が経過したか否かを判断する。そして、制御部10は、単位時間が経過した場合にはステップS106に処理を移す。一方、単位時間が経過していない場合には制御部10は、ステップS103に処理を戻し、投写面Spの撮像とQRコード200の検出とを繰り返す。   When the process proceeds to step S105 without detecting another QR code 200, the control unit 10 displays a predetermined unit time (for example, 1 second) after displaying the QR code 200 at the current display position. Judge whether or not it has passed. And the control part 10 moves a process to step S106, when unit time passes. On the other hand, if the unit time has not elapsed, the control unit 10 returns the process to step S103, and repeats the imaging of the projection plane Sp and the detection of the QR code 200.

現在の表示位置にQRコード200を表示してから単位時間が経過してステップS106に処理が移行した場合には、制御部10は、QRコード200の表示位置を次の位置に変更する。つまり、制御部10は、順番が次の表示位置にQRコード200を重畳するように画像情報処理部16に指示をして、ステップS102に処理を戻す。この結果、次回、QRコード200は、新しい表示位置に配置される。   When the unit time has elapsed after the QR code 200 is displayed at the current display position and the process proceeds to step S106, the control unit 10 changes the display position of the QR code 200 to the next position. That is, the control unit 10 instructs the image information processing unit 16 to superimpose the QR code 200 on the next display position in the order, and returns the process to step S102. As a result, next time, the QR code 200 is arranged at a new display position.

ステップS104にて他のプロジェクター1が投写したQRコード200が検出されてステップS107に処理が移行した場合には、制御部10は、QRコード解析部19により、検出されたQRコード200をデコードし、QRコード200に格納されている情報、即ち他のプロジェクター1の識別情報31及びデータテーブル32を取得する。   When the QR code 200 projected by another projector 1 is detected in step S104 and the process proceeds to step S107, the control unit 10 decodes the detected QR code 200 by the QR code analysis unit 19. , The information stored in the QR code 200, that is, the identification information 31 and the data table 32 of the other projector 1 are acquired.

ステップS108では、制御部10は、検出されたQRコード200に基づいて、自身の記憶部11に記憶されているデータテーブル32を更新する。例えば、制御部10は、撮像画像内におけるQRコード200の位置に基づいて、このQRコード200を投写したプロジェクター1の部分画像Pdの、基準画像Pdに対する相対位置を判別する。言い換えれば、制御部10は、QRコード200が第1領域A1〜第4領域A4のいずれの領域で検出されたのかに基づいて、これを投写したプロジェクター1が基準画像Pdの上下左右のいずれに部分画像Pdを投写しているのかを判別する。そして、自身のデータテーブル32の第1データ列L1において、第2項目C2〜第5項目C5のうちの対応する項目に、QRコード200から取得した識別情報31を格納する。例えば、基準画像Pdの上側に位置する第1領域A1でQRコード200が検出された場合には、制御部10は、「上」に対応する第2項目C2に識別情報31を格納する。   In step S108, the control unit 10 updates the data table 32 stored in its own storage unit 11 based on the detected QR code 200. For example, the control unit 10 determines the relative position of the partial image Pd of the projector 1 that projects the QR code 200 with respect to the reference image Pd based on the position of the QR code 200 in the captured image. In other words, based on whether the QR code 200 is detected in any of the first area A1 to the fourth area A4, the control unit 10 determines whether the projector 1 that projects the QR code 200 is up, down, left, or right of the reference image Pd. It is determined whether the partial image Pd is being projected. Then, in the first data string L1 of the own data table 32, the identification information 31 acquired from the QR code 200 is stored in the corresponding item among the second item C2 to the fifth item C5. For example, when the QR code 200 is detected in the first region A1 located above the reference image Pd, the control unit 10 stores the identification information 31 in the second item C2 corresponding to “up”.

また、制御部10は、QRコード200から取得したデータテーブル32の第1データ列L1の内容を、自身のデータテーブル32の第2データ列L2又は第3データ列L3に複写する。さらに、制御部10は、取得したデータテーブル32の第2データ列L2又は第3データ列L3の第1項目C1に自身以外の識別情報31が格納されている場合には、当該データ列を自身のデータテーブル32の第2データ列L2又は第3データ列L3に複写する。   In addition, the control unit 10 copies the contents of the first data string L1 of the data table 32 acquired from the QR code 200 to the second data string L2 or the third data string L3 of its own data table 32. Furthermore, when the identification information 31 other than itself is stored in the first item C1 of the second data string L2 or the third data string L3 of the acquired data table 32, the control unit 10 stores the data string itself The data table 32 is copied to the second data string L2 or the third data string L3.

ステップS109では、制御部10は、更新の前後で自身のデータテーブル32に変化があったか否かを判断する。そして、制御部10は、データテーブル32に変化があった場合、即ちデータテーブル32に新たな情報が追加された場合にはステップS110に処理を移す。一方、新たな情報が追加されず、更新の前後でデータテーブル32に変化がなかった場合には、制御部10は、ステップS113に処理を移す。   In step S109, the control unit 10 determines whether or not the own data table 32 has changed before and after the update. Then, when there is a change in the data table 32, that is, when new information is added to the data table 32, the control unit 10 moves the process to step S110. On the other hand, when new information is not added and there is no change in the data table 32 before and after the update, the control unit 10 moves the process to step S113.

データテーブル32に変化があってステップS110に処理が移行した場合には、制御部10は、更新されたデータテーブル32に基づいて、QRコード200を更新する。つまり、制御部10は、ステップS108で更新されたデータテーブル32を、QRコード生成部18によりエンコードして、次回表示すべきQRコード200を生成する。   When there is a change in the data table 32 and the process proceeds to step S110, the control unit 10 updates the QR code 200 based on the updated data table 32. That is, the control unit 10 encodes the data table 32 updated in step S108 by the QR code generation unit 18, and generates the QR code 200 to be displayed next time.

ステップS111では、制御部10は、現在の表示位置にQRコード200を表示させてから単位時間が経過したか否かを判断する。そして、制御部10は、単位時間が経過した場合にはステップS112に処理を移し、単位時間が経過していない場合にはステップS111を繰り返す。   In step S111, the control unit 10 determines whether or not a unit time has elapsed since the QR code 200 was displayed at the current display position. Then, the control unit 10 moves the process to step S112 when the unit time has elapsed, and repeats step S111 when the unit time has not elapsed.

現在の表示位置にQRコード200を表示してから単位時間が経過してステップS112に処理が移行した場合には、制御部10は、ステップS106と同様、QRコード200の表示位置を次の位置に変更し、ステップS102に処理を戻す。   When the unit time has elapsed after the QR code 200 is displayed at the current display position and the process proceeds to step S112, the control unit 10 sets the display position of the QR code 200 to the next position as in step S106. And the process returns to step S102.

ステップS109において更新の前後でデータテーブル32に変化がなくステップS113に処理が移行した場合には、制御部10は、データテーブル32に変化のない状態が第1の所定期間(例えば、表示位置が一巡する期間)継続したか否かを判断する。そして、制御部10は、データテーブル32に変化のない状態が第1の所定期間継続した場合には、データテーブル32が確定したと判断してステップS114に処理を移す。これ以降、制御部10は、データテーブル32やQRコード200の更新は行わず、単位時間毎に表示位置を変えながらQRコード200の表示のみを行う。一方、制御部10は、データテーブル32に変化のない状態が第1の所定期間継続していない場合には、ステップS111に処理を移す。   If there is no change in the data table 32 before and after the update in step S109 and the process proceeds to step S113, the control unit 10 determines that the data table 32 remains unchanged for a first predetermined period (for example, the display position is changed). It is determined whether or not it has continued). Then, when the state in which the data table 32 has not changed continues for the first predetermined period, the control unit 10 determines that the data table 32 has been determined and moves the process to step S114. Thereafter, the control unit 10 does not update the data table 32 or the QR code 200, but only displays the QR code 200 while changing the display position every unit time. On the other hand, the control part 10 transfers a process to step S111, when the state with no change in the data table 32 is not continuing for the 1st predetermined period.

データテーブル32が確定してステップS114に処理が移行した場合には、制御部10は、現在の表示位置にQRコード200を表示させてから単位時間が経過したか否かを判断する。そして、制御部10は、単位時間が経過した場合にはステップS115に処理を移し、単位時間が経過していない場合にはステップS114を繰り返す。   When the data table 32 is confirmed and the process proceeds to step S114, the control unit 10 determines whether or not a unit time has elapsed since the QR code 200 was displayed at the current display position. And the control part 10 transfers a process to step S115, when unit time has passed, and repeats step S114, when unit time has not passed.

現在の表示位置にQRコード200を表示してから単位時間が経過してステップS115に処理が移行した場合には、制御部10は、ステップS106と同様、QRコード200の表示位置を次の位置に変更する。そして、ステップS116では、制御部10は、画像情報処理部16に指示をして、新たな表示位置にQRコード200を表示させる。   When the unit time has elapsed after the QR code 200 is displayed at the current display position and the process proceeds to step S115, the control unit 10 sets the display position of the QR code 200 to the next position as in step S106. Change to In step S116, the control unit 10 instructs the image information processing unit 16 to display the QR code 200 at a new display position.

ステップS117では、制御部10は、データテーブル32が確定してから第2の所定期間(例えば、第1の所定期間と同様、表示位置が一巡する期間)が経過したか否かを判断する。そして、制御部10は、第2の所定期間が経過した場合には、フローを終了し、第2の所定期間が経過していない場合にはステップS114に戻る。   In step S117, the control unit 10 determines whether or not a second predetermined period (for example, a period in which the display position goes around) has elapsed since the data table 32 is determined. Then, the control unit 10 ends the flow when the second predetermined period has elapsed, and returns to step S114 when the second predetermined period has not elapsed.

上記のフローによってデータテーブル32が完成すると、各プロジェクター1の制御部10は、各部分画像Pdがどのような配列パターンで配列されていて、どのプロジェクター1がどの位置に部分画像Pdを投写しているのかを認識することが可能となる。   When the data table 32 is completed by the above-described flow, the control unit 10 of each projector 1 projects the partial image Pd at which position and which projector 1 arranges the partial images Pd in what arrangement pattern. It becomes possible to recognize whether there is.

次に、図1に示した各プロジェクター1a,1b,1cが、図4で示したフローチャートに従って動作した場合の具体例について説明する。   Next, a specific example when the projectors 1a, 1b, and 1c shown in FIG. 1 operate according to the flowchart shown in FIG. 4 will be described.

図7A〜図7Cは、各プロジェクター1a,1b,1cのデータテーブル32の更新の推移を示す表である。
表中の左端の数値は、QRコード200が1つの表示位置に表示される期間に付した通し番号であり、その右側には、その期間におけるQRコード200の表示位置P1〜P8が示されている。この例では、すべてのプロジェクター1a,1b,1cは、配列の自動判定の開始に伴い、QRコード200を、第1領域A1の左側の表示位置P1に表示し、その後、時計回りにP2,P3,…,P8の順に表示位置を変更した後で、再び表示位置P1に戻って同じ順序で表示位置の変更を繰り返す。なお、これ以降、通し番号がn(nは正の整数)の期間のことを「第nの期間」とも表記する。
7A to 7C are tables showing the transition of the update of the data table 32 of each projector 1a, 1b, 1c.
The numerical value at the left end in the table is a serial number assigned to a period in which the QR code 200 is displayed at one display position, and the display positions P1 to P8 of the QR code 200 in that period are shown on the right side. . In this example, all the projectors 1a, 1b, and 1c display the QR code 200 at the display position P1 on the left side of the first area A1 with the start of automatic array determination, and then P2 and P3 clockwise. ,..., P8, the display position is changed, and then the display position P1 is returned to the display position P1 and the display position is changed in the same order. In the following, a period in which the serial number is n (n is a positive integer) is also referred to as “nth period”.

図7Aに示すように、配列の自動判定が開始された直後の第1の期間では、各プロジェクター1は、表示位置P1にQRコード200を表示する。このとき、各プロジェクター1のデータテーブル32は、初期状態のままであり、第1データ列L1の第1項目C1に自身の識別情報31が格納されている以外、他の項目は空欄になっている。なお、第1の期間及び第2の期間を含め、これ以降、第1領域A1(表示位置P1,P2)及び第3領域A3(表示位置P5,P6)のいずれかにQRコード200が表示される期間では、表示されるQRコード200は、他のプロジェクター1から検出されない。   As shown in FIG. 7A, in the first period immediately after the automatic array determination is started, each projector 1 displays the QR code 200 at the display position P1. At this time, the data table 32 of each projector 1 remains in the initial state, and other items are blank except that the identification information 31 is stored in the first item C1 of the first data string L1. Yes. After this, including the first period and the second period, the QR code 200 is displayed in either the first area A1 (display positions P1, P2) or the third area A3 (display positions P5, P6). During this period, the displayed QR code 200 is not detected from other projectors 1.

第3の期間では、各プロジェクター1は、第2領域A2の表示位置P3にQRコード200を表示する。このとき、プロジェクター1bは、左側の第4領域A4でプロジェクター1aのQRコード200を検出する。このため、プロジェクター1bは、第1データ列L1のうち左側に対応する第5項目C5に、プロジェクター1aの識別情報31である「101」を格納するとともに、QRコード200から取得したデータテーブル32の第1データ列L1を、自身のデータテーブル32の第2データ列L2に複写する。   In the third period, each projector 1 displays the QR code 200 at the display position P3 in the second area A2. At this time, the projector 1b detects the QR code 200 of the projector 1a in the fourth area A4 on the left side. For this reason, the projector 1b stores “101”, which is the identification information 31 of the projector 1a, in the fifth item C5 corresponding to the left side of the first data string L1, and also stores the data table 32 acquired from the QR code 200. The first data string L1 is copied to the second data string L2 of its own data table 32.

同様に、第3の期間において、プロジェクター1cは、左側の第4領域A4でプロジェクター1bのQRコード200を検出する。このため、プロジェクター1cは、第1データ列L1のうち左側に対応する第5項目C5に、プロジェクター1bの識別情報31である「102」を格納するとともに、QRコード200から取得したデータテーブル32の第1データ列L1を、自身のデータテーブル32の第2データ列L2に複写する。   Similarly, in the third period, the projector 1c detects the QR code 200 of the projector 1b in the fourth area A4 on the left side. For this reason, the projector 1c stores “102”, which is the identification information 31 of the projector 1b, in the fifth item C5 corresponding to the left side of the first data string L1, and also includes the data table 32 acquired from the QR code 200. The first data string L1 is copied to the second data string L2 of its own data table 32.

第4の期間では、各プロジェクター1は、第2領域A2の表示位置P4にQRコード200を表示する。プロジェクター1bは、プロジェクター1aのQRコード200を引き続き検出するが、プロジェクター1aのQRコード200は更新されていないため、データテーブル32は変化しない。一方、プロジェクター1cは、第3の期間に更新されたプロジェクター1bのQRコード200を検出する。そして、プロジェクター1cは、プロジェクター1bのデータテーブル32の第1データ列L1を、自身のデータテーブル32の第2データ列L2に複写するとともに、第3の期間にてプロジェクター1bのデータテーブル32に追加されたプロジェクター1aに関する第2データ列L2を、自身のデータテーブル32の第3データ列L3に複写する。   In the fourth period, each projector 1 displays the QR code 200 at the display position P4 in the second area A2. The projector 1b continues to detect the QR code 200 of the projector 1a, but the data table 32 does not change because the QR code 200 of the projector 1a has not been updated. On the other hand, the projector 1c detects the QR code 200 of the projector 1b updated in the third period. Then, the projector 1c copies the first data row L1 of the data table 32 of the projector 1b to the second data row L2 of its own data table 32 and adds it to the data table 32 of the projector 1b in the third period. The second data string L2 related to the projector 1a thus copied is copied to the third data string L3 of its own data table 32.

第7の期間では、各プロジェクター1は、第4領域A4の表示位置P7にQRコード200を表示する。このとき、プロジェクター1aは、右側の第2領域A2でプロジェクター1bのQRコード200を検出する。このため、プロジェクター1aは、第1データ列L1のうち右側に対応する第3項目C3に、プロジェクター1bの識別情報31である「102」を格納するとともに、QRコード200から取得したデータテーブル32の第1データ列L1を、自身のデータテーブル32の第2データ列L2に複写する。   In the seventh period, each projector 1 displays the QR code 200 at the display position P7 in the fourth area A4. At this time, the projector 1a detects the QR code 200 of the projector 1b in the second area A2 on the right side. For this reason, the projector 1a stores “102”, which is the identification information 31 of the projector 1b, in the third item C3 corresponding to the right side of the first data string L1, and also stores the data table 32 acquired from the QR code 200. The first data string L1 is copied to the second data string L2 of its own data table 32.

同様に、第7の期間において、プロジェクター1bは、右側の第2領域A2でプロジェクター1cのQRコード200を検出する。このため、プロジェクター1bは、第1データ列L1のうち右側に対応する第3項目C3に、プロジェクター1cの識別情報31である「103」を格納するとともに、QRコード200から取得したデータテーブル32の第1データ列L1を、自身のデータテーブル32の第3データ列L3に複写する。   Similarly, in the seventh period, the projector 1b detects the QR code 200 of the projector 1c in the second area A2 on the right side. For this reason, the projector 1b stores “103”, which is the identification information 31 of the projector 1c, in the third item C3 corresponding to the right side of the first data string L1, and also includes the data table 32 acquired from the QR code 200. The first data string L1 is copied to the third data string L3 of its own data table 32.

第8の期間では、各プロジェクター1は、第4領域A4の表示位置P8にQRコード200を表示する。プロジェクター1aは、第7の期間に更新されたプロジェクター1bのQRコード200を検出する。そして、プロジェクター1aは、プロジェクター1bのデータテーブル32の第1データ列L1を、自身のデータテーブル32の第2データ列L2に複写するとともに、第7の期間にてプロジェクター1bのデータテーブル32に追加されたプロジェクター1cに関する第3データ列L3を、自身のデータテーブル32の第3データ列L3に複写する。一方、プロジェクター1bは、プロジェクター1cのQRコード200を引き続き検出するが、プロジェクター1cのQRコード200は更新されていないため、データテーブル32は変化しない。   In the eighth period, each projector 1 displays the QR code 200 at the display position P8 in the fourth area A4. The projector 1a detects the QR code 200 of the projector 1b updated in the seventh period. Then, the projector 1a copies the first data row L1 of the data table 32 of the projector 1b to the second data row L2 of its own data table 32, and adds it to the data table 32 of the projector 1b in the seventh period. The third data string L3 related to the projector 1c thus copied is copied to the third data string L3 of its own data table 32. On the other hand, the projector 1b continues to detect the QR code 200 of the projector 1c, but the data table 32 does not change because the QR code 200 of the projector 1c has not been updated.

図7Bに示すように、第11の期間では、各プロジェクター1は、第2領域A2の表示位置P3にQRコード200を表示する。このとき、プロジェクター1bは、プロジェクター1aのQRコード200を検出し、QRコード200から取得したデータテーブル32の第1データ列L1を、自身のデータテーブル32の第2データ列L2に複写する。   As shown in FIG. 7B, in the eleventh period, each projector 1 displays the QR code 200 at the display position P3 in the second area A2. At this time, the projector 1b detects the QR code 200 of the projector 1a, and copies the first data string L1 of the data table 32 acquired from the QR code 200 to the second data string L2 of its own data table 32.

同様に、第11の期間において、プロジェクター1cは、プロジェクター1bのQRコード200を検出し、QRコード200から取得したデータテーブル32の第1データ列L1を、自身のデータテーブル32の第2データ列L2に複写する。   Similarly, in the eleventh period, the projector 1c detects the QR code 200 of the projector 1b, and uses the first data string L1 of the data table 32 acquired from the QR code 200 as the second data string of its own data table 32. Copy to L2.

第12の期間では、各プロジェクター1は、第2領域A2の表示位置P4にQRコード200を表示する。プロジェクター1bは、プロジェクター1aのQRコード200を引き続き検出するが、プロジェクター1aのQRコード200は更新されていないため、データテーブル32は変化しない。一方、プロジェクター1cは、第11の期間に更新されたプロジェクター1bのQRコード200を検出する。そして、第11の期間にてプロジェクター1bのデータテーブル32で更新されたプロジェクター1aに関する第2データ列L2を、自身のデータテーブル32の第3データ列L3に複写する。   In the twelfth period, each projector 1 displays the QR code 200 at the display position P4 in the second area A2. The projector 1b continues to detect the QR code 200 of the projector 1a, but the data table 32 does not change because the QR code 200 of the projector 1a has not been updated. On the other hand, the projector 1c detects the QR code 200 of the projector 1b updated in the eleventh period. Then, the second data row L2 related to the projector 1a updated in the data table 32 of the projector 1b in the eleventh period is copied to the third data row L3 of the own data table 32.

第15の期間及び第16の期間では、プロジェクター1aは、プロジェクター1bのQRコード200を検出し、プロジェクター1bは、プロジェクター1cのQRコード200を検出するが、いずれのQRコード200も更新されていないため、データテーブル32は変化しない。また、第16の期間において、プロジェクター1aのデータテーブル32は、第8の期間で更新されてから表示位置が一巡するまでの間、変化していないことになる。このため、プロジェクター1aは、データテーブル32が確定したものと判断し、これ以降、他のプロジェクター1のQRコード200の検出を行わない。   In the fifteenth period and the sixteenth period, the projector 1a detects the QR code 200 of the projector 1b, and the projector 1b detects the QR code 200 of the projector 1c, but none of the QR codes 200 is updated. Therefore, the data table 32 does not change. Further, in the sixteenth period, the data table 32 of the projector 1a does not change from the update in the eighth period until the display position makes a round. For this reason, the projector 1a determines that the data table 32 has been confirmed, and thereafter does not detect the QR code 200 of the other projector 1.

同様に、図7Cに示すように、第19の期間では、プロジェクター1bは、プロジェクター1aのQRコード200を検出し、プロジェクター1cは、プロジェクター1bのQRコード200を検出するが、いずれのQRコード200も更新されていないため、データテーブル32は変化しない。また、プロジェクター1bのデータテーブル32は、第11の期間で更新されてから表示位置が一巡するまでの間、変化していないことになる。このため、プロジェクター1bは、データテーブル32が確定したものと判断し、これ以降、他のプロジェクター1のQRコード200の検出を行わない。   Similarly, as shown in FIG. 7C, in the nineteenth period, the projector 1b detects the QR code 200 of the projector 1a, and the projector 1c detects the QR code 200 of the projector 1b. Is not updated, the data table 32 does not change. In addition, the data table 32 of the projector 1b has not changed from when it is updated in the eleventh period until the display position is completed. For this reason, the projector 1b determines that the data table 32 has been confirmed, and thereafter does not detect the QR code 200 of the other projector 1.

第20の期間では、プロジェクター1cは、プロジェクター1bのQRコード200を検出するが、QRコード200が更新されていないため、データテーブル32は変化しない。また、プロジェクター1cのデータテーブル32は、第12の期間で更新されてから表示位置が一巡するまでの間、変化していないことになる。このため、プロジェクター1cは、データテーブル32が確定したものと判断し、これ以降、他のプロジェクター1のQRコード200の検出を行わない。   In the twentieth period, the projector 1c detects the QR code 200 of the projector 1b, but the data table 32 does not change because the QR code 200 is not updated. In addition, the data table 32 of the projector 1c does not change from when it is updated in the twelfth period until the display position is completed. For this reason, the projector 1c determines that the data table 32 has been determined, and thereafter does not detect the QR code 200 of the other projector 1.

第24の期間において、プロジェクター1aは、データテーブル32が確定してから表示位置が一巡したため、QRコード200の表示を終了する。同様に、図示は省略するが、プロジェクター1bは、第27の期間においてQRコード200の表示を終了し、プロジェクター1cは、第28の期間においてQRコード200の表示を終了する。   In the twenty-fourth period, the projector 1a ends the display of the QR code 200 because the display position has made a round after the data table 32 is determined. Similarly, although not shown, the projector 1b ends the display of the QR code 200 in the 27th period, and the projector 1c ends the display of the QR code 200 in the 28th period.

以上の動作により、各プロジェクター1のデータテーブル32が完成する。各データテーブル32は、データ列が入れ替わっているものの、その内容は共通である。つまり、すべてのプロジェクター1は、部分画像Pdの配列に関して共通の情報を共有する。各プロジェクター1は、完成したデータテーブル32に基づいて、投写画像Paを構成する部分画像Pdの数(プロジェクター1の数)や配列パターンを認識するとともに、その配列パターンにおける自身の部分画像Pdの位置を認識する。そして、プロジェクター1は、認識した位置に基づいて、自身がマスタープロジェクター、リレープロジェクター、エンドプロジェクターのいずれに該当するのかを判断する。   With the above operation, the data table 32 of each projector 1 is completed. The contents of the data tables 32 are the same although the data strings are exchanged. That is, all the projectors 1 share common information regarding the arrangement of the partial images Pd. Each projector 1 recognizes the number of partial images Pd constituting the projection image Pa (the number of projectors 1) and the arrangement pattern based on the completed data table 32, and positions of the partial images Pd in the arrangement pattern. Recognize Then, the projector 1 determines whether it corresponds to the master projector, the relay projector, or the end projector based on the recognized position.

マスタープロジェクターは、画像投写システム100の動作を統括する1つのプロジェクター1であり、これ以降、プロジェクター1間で情報の伝達を行う際に、マスタープロジェクター以外のプロジェクター1(以降、「スレーブプロジェクター」とも呼ぶ。)に情報を発信したり、スレーブプロジェクターからの情報を集約したりする処理を行う。スレーブプロジェクターのうち、マスタープロジェクターと隣り合っていないスレーブプロジェクターと、マスタープロジェクターとの間で情報を中継するプロジェクター1がリレープロジェクターであり、それ以外のスレーブプロジェクターがエンドプロジェクターである。   The master projector is one projector 1 that supervises the operation of the image projection system 100, and thereafter, when information is transmitted between the projectors 1, a projector 1 other than the master projector (hereinafter also referred to as “slave projector”). )) And processing to aggregate information from slave projectors. Among the slave projectors, the slave projector that is not adjacent to the master projector and the projector 1 that relays information between the master projector are relay projectors, and the other slave projectors are end projectors.

どのプロジェクター1がどの役割を担って、どの経路で情報が伝達されるのかについては、様々な配列パターンのそれぞれについて、制御プログラムで予め定められている。本実施形態では、投写画像Paの中央に部分画像Pdを投写する1つのプロジェクター1がマスタープロジェクターになるように設定されており、投写画像Paの中央が重畳領域Aoの場合には、その重畳領域Aoを共有する複数のプロジェクター1のいずれか1つがマスタープロジェクターになるように設定されている。   Which projector 1 plays which role and through which route information is transmitted is predetermined by the control program for each of various arrangement patterns. In the present embodiment, when one projector 1 that projects the partial image Pd at the center of the projection image Pa is set as the master projector, and the center of the projection image Pa is the overlap area Ao, the overlap area One of the plurality of projectors 1 sharing Ao is set to be the master projector.

このため、図1に示したように、3つのプロジェクター1が横一列に部分画像Pdを投写する配列パターンでは、中央に部分画像Pdを投写するプロジェクター1bがマスタープロジェクターとなり、両脇に部分画像Pdを投写するプロジェクター1a,1cは、エンドプロジェクターとなる。この例では、すべてのエンドプロジェクターの部分画像Pdがマスタープロジェクターの部分画像Pdと隣り合っているため、リレープロジェクターは存在しない。   For this reason, as shown in FIG. 1, in the arrangement pattern in which the three projectors 1 project the partial image Pd in a horizontal row, the projector 1b that projects the partial image Pd in the center serves as a master projector, and the partial images Pd on both sides. Projectors 1a and 1c for projecting are end projectors. In this example, since the partial images Pd of all the end projectors are adjacent to the partial image Pd of the master projector, there is no relay projector.

図8は、部分画像Pdが別の配列パターンで配列されている例を説明するための説明図である。
図8に示すように、この例では、画像投写システム100は、6つのプロジェクター1を含んで構成され、それぞれの部分画像Pdは、3×2のマトリクス状に配列されている。ここで、上側に配置されている3つの部分画像Pdを、左から順にPd1,Pd2,Pd3とし、それぞれを投写するプロジェクター1を1d,1e,1fとする。また、下側に配置されている3つの部分画像Pdを、左から順にPd4,Pd5,Pd6とし、それぞれを投写するプロジェクター1を1g,1h,1iとする。
FIG. 8 is an explanatory diagram for explaining an example in which the partial images Pd are arranged in another arrangement pattern.
As shown in FIG. 8, in this example, the image projection system 100 includes six projectors 1, and the partial images Pd are arranged in a 3 × 2 matrix. Here, it is assumed that the three partial images Pd arranged on the upper side are Pd1, Pd2, and Pd3 in order from the left, and the projector 1 that projects them is 1d, 1e, and 1f. Further, the three partial images Pd arranged on the lower side are Pd4, Pd5, and Pd6 in order from the left, and the projectors 1 that project the respective partial images Pd are 1g, 1h, and 1i.

この配列パターンでは、中央に部分画像Pd2,Pd5を投写する2つのプロジェクター1e,1hのうち、上側の部分画像Pd2を投写するプロジェクター1eがマスタープロジェクターになるように設定されている。また、マスタープロジェクターの部分画像Pd2の両脇に部分画像Pd1,Pd3を投写するプロジェクター1d,1fがリレープロジェクターになり、下側に部分画像Pd4,Pd5,Pd6を投写するプロジェクター1g,1h,1iがエンドプロジェクターになる。各プロジェクター1は、生成したデータテーブル32に基づいて、自身の役割を認識する。   In this arrangement pattern, the projector 1e that projects the upper partial image Pd2 among the two projectors 1e and 1h that projects the partial images Pd2 and Pd5 at the center is set to be the master projector. The projectors 1d and 1f that project the partial images Pd1 and Pd3 on both sides of the partial image Pd2 of the master projector are relay projectors, and the projectors 1g, 1h, and 1i that project the partial images Pd4, Pd5, and Pd6 on the lower side. Become an end projector. Each projector 1 recognizes its role based on the generated data table 32.

プロジェクター1間で情報を伝達する際には、マスタープロジェクター(プロジェクター1e)の部分画像Pd2と上下左右のいずれかで隣り合う位置に部分画像Pdを投写するプロジェクター1は、マスタープロジェクターと直接情報の送受信を行う。即ち部分画像Pd2の下側に部分画像Pd5を投写するエンドプロジェクター(プロジェクター1h)と、部分画像Pd2の左右に部分画像Pd1,Pd3を投写するリレープロジェクター(プロジェクター1d,1f)は、マスタープロジェクター(プロジェクター1e)と直接情報の送受信を行う。一方、マスタープロジェクターの部分画像Pd2と隣り合わない位置に部分画像Pd4,Pd6を投写するエンドプロジェクター(プロジェクター1g,1i)は、それぞれの上側に隣り合う位置に部分画像Pd1,Pd3を投写するリレープロジェクター(プロジェクター1d,1f)を経由してマスタープロジェクターと情報の送受信を行う。   When information is transmitted between the projectors 1, the projector 1 that projects the partial image Pd at a position adjacent to the partial image Pd2 of the master projector (projector 1e) either vertically or horizontally transmits and receives information directly with the master projector. I do. That is, the end projector (projector 1h) that projects the partial image Pd5 below the partial image Pd2, and the relay projectors (projectors 1d and 1f) that project the partial images Pd1 and Pd3 to the left and right of the partial image Pd2 are the master projector (projector). 1e) and send / receive information directly. On the other hand, the end projectors (projectors 1g and 1i) that project the partial images Pd4 and Pd6 at positions that are not adjacent to the partial image Pd2 of the master projector are relay projectors that project the partial images Pd1 and Pd3 at positions adjacent to the upper side thereof. Information is transmitted to and received from the master projector via the projectors 1d and 1f.

ここで、画像投写システム100でプロジェクター1毎の部分画像Pdの色及び明るさのばらつきを補正する際の動作について説明する。
図9A〜図9Dは、補正処理を説明するための説明図である。なお、画像投写システム100は、図8に示したように、6つのプロジェクター1により、3×2のマトリクス状の配列で部分画像Pdを投写するものとするが、図9A〜図9Dでは、説明を分かりやすくするために、各部分画像Pdを分離して表示している。
Here, an operation when the image projection system 100 corrects variations in color and brightness of the partial image Pd for each projector 1 will be described.
9A to 9D are explanatory diagrams for explaining the correction processing. Note that the image projection system 100 projects the partial image Pd in a 3 × 2 matrix arrangement by the six projectors 1 as illustrated in FIG. 8, but in FIGS. 9A to 9D, the description is given. In order to facilitate understanding, each partial image Pd is displayed separately.

ユーザーにより補正処理の実行が指示されると、各プロジェクター1は、自身が投写する画像の色及び明るさを測定する。具体的には、各プロジェクター1は、予め定められた1つ又は複数の測定用画像を投写するとともに、投写された測定用画像を撮像部14で撮像し、撮像された測定用画像の色及び明るさを測定する。各プロジェクター1は、それぞれの測定結果に応じた測定情報を生成する。測定用画像としては、例えば、所定の色で所定の明るさを有する無地の画像が用いられる。   When the execution of the correction process is instructed by the user, each projector 1 measures the color and brightness of the image that it projects. Specifically, each projector 1 projects one or more predetermined measurement images, the projected measurement image is captured by the imaging unit 14, and the color of the captured measurement image and Measure brightness. Each projector 1 generates measurement information corresponding to each measurement result. As the measurement image, for example, a plain image having a predetermined color and a predetermined brightness is used.

図9Aに示すように、エンドプロジェクター(プロジェクター1g,1h,1i)は、生成した測定情報に識別情報31を対応付け、これをエンコードしてQRコード201を生成する。そして、生成したQRコード201を情報の伝達先であるマスタープロジェクター又はリレープロジェクターとの重畳領域Aoに表示する。補正処理において、QRコード201の表示位置は、予め第1領域A1〜第4領域A4(図6参照)のそれぞれに1つずつ定められており、プロジェクター1は、例えば、第1領域A1であれば表示位置P2、第2領域A2であれば表示位置P4、第3領域A3であれば表示位置P6、第4領域A4であれば表示位置P8にQRコード201を表示する。この例では、すべてのエンドプロジェクターは、自身の部分画像Pdの上側に部分画像Pdを投写するプロジェクター1に情報を伝達するため、第1領域A1の表示位置P2にQRコード201を表示する。   As shown in FIG. 9A, the end projector (projectors 1g, 1h, 1i) associates identification information 31 with the generated measurement information and encodes it to generate a QR code 201. Then, the generated QR code 201 is displayed in the overlapping area Ao with the master projector or relay projector that is the information transmission destination. In the correction processing, the display position of the QR code 201 is determined in advance for each of the first area A1 to the fourth area A4 (see FIG. 6), and the projector 1 may be, for example, the first area A1. For example, the QR code 201 is displayed at the display position P2, the display position P4 if the second area A2, the display position P6 if the third area A3, and the display position P8 if the fourth area A4. In this example, all end projectors display the QR code 201 at the display position P2 in the first area A1 in order to transmit information to the projector 1 that projects the partial image Pd above the partial image Pd thereof.

リレープロジェクター(プロジェクター1d,1f)は、エンドプロジェクター(プロジェクター1g,1i)が投写したQRコード201を撮像し、QRコード201に格納されているエンドプロジェクターの測定情報を取得する。さらに、図9Bに示すように、リレープロジェクターは、取得した測定情報と自身の測定情報のそれぞれに識別情報31を対応付け、これらをまとめてエンコードして、双方の測定情報が格納された1つのQRコード202を生成する。そして、生成したQRコード202をマスタープロジェクターとの重畳領域Aoに表示する。QRコード202の表示位置は、上記と同様、表示位置P2,P4,P6,P8のいずれかである。つまり、マスタープロジェクターの部分画像Pdの左側に部分画像Pdを投写するリレープロジェクター(プロジェクター1d)は、第2領域A2の表示位置P4にQRコード202を表示し、マスタープロジェクターの部分画像Pdの右側に部分画像Pdを投写するリレープロジェクター(プロジェクター1f)は、第4領域A4の表示位置P8にQRコード202を表示する。   The relay projectors (projectors 1d and 1f) capture the QR code 201 projected by the end projectors (projectors 1g and 1i), and acquire measurement information of the end projector stored in the QR code 201. Furthermore, as shown in FIG. 9B, the relay projector associates the identification information 31 with each of the acquired measurement information and its own measurement information, encodes them together, and stores the measurement information of both. A QR code 202 is generated. Then, the generated QR code 202 is displayed in the overlapping area Ao with the master projector. The display position of the QR code 202 is one of the display positions P2, P4, P6, and P8 as described above. That is, the relay projector (projector 1d) that projects the partial image Pd on the left side of the partial image Pd of the master projector displays the QR code 202 at the display position P4 in the second area A2, and on the right side of the partial image Pd of the master projector. The relay projector (projector 1f) that projects the partial image Pd displays the QR code 202 at the display position P8 in the fourth area A4.

マスタープロジェクター(プロジェクター1e)は、エンドプロジェクター及びリレープロジェクターによって重畳領域Aoに表示されたQRコード201,202を撮像し、QRコード201,202に格納されている測定情報を取得する。これにより、すべてのスレーブプロジェクターの測定情報がマスタープロジェクターに集約される。マスタープロジェクターは、取得した測定情報と、自身の測定情報とに基づいて、すべてのプロジェクター1の色及び明るさが均一になるように画像を補正するため補正パラメーターをプロジェクター1毎に決定する。補正パラメーターは、補正情報に相当する。そして、図9Cに示すように、マスタープロジェクターは、決定したすべての補正パラメーターに、プロジェクター1の識別情報31を対応付け、これらの補正パラメーターをまとめてエンコードしてQRコード203を生成し、重畳領域Aoに表示する。QRコード203の表示位置は、表示位置P2,P4,P6,P8のいずれか1つ又は複数である。この例では、マスタープロジェクターは、自身の右側、下側、左側の3つの経路に補正パラメーターを伝達するために、生成したQRコード203を、第2領域A2の表示位置P4、第3領域A3の表示位置P6、及び第4領域A4の表示位置P8に同時に表示する。   The master projector (projector 1e) images the QR codes 201 and 202 displayed in the overlapping area Ao by the end projector and the relay projector, and acquires the measurement information stored in the QR codes 201 and 202. Thereby, the measurement information of all the slave projectors is collected in the master projector. Based on the acquired measurement information and its own measurement information, the master projector determines correction parameters for each projector 1 in order to correct images so that the colors and brightness of all the projectors 1 are uniform. The correction parameter corresponds to correction information. Then, as shown in FIG. 9C, the master projector associates the identification information 31 of the projector 1 with all the determined correction parameters, encodes these correction parameters together, generates a QR code 203, Display on Ao. The display position of the QR code 203 is any one or a plurality of display positions P2, P4, P6, and P8. In this example, the master projector transmits the generated QR code 203 to the display position P4 of the second area A2 and the third area A3 in order to transmit the correction parameters to the three paths on the right side, the lower side, and the left side. Displayed simultaneously at the display position P6 and the display position P8 of the fourth area A4.

リレープロジェクターは、マスタープロジェクターが表示したQRコード203を撮像してデコードし、QRコード203に格納されている複数の補正パラメーターの中から、自身の補正パラメーターと、隣り合う位置に部分画像Pdを投写するエンドプロジェクターの補正パラメーターとを取得する。そして、図9Dに示すように、リレープロジェクターは、取得したエンドプロジェクターの補正パラメーターをエンコードしてQRコード204を生成し、伝達先のエンドプロジェクターとの重畳領域Aoに表示する。QRコード204は、上記と同様、表示位置P2,P4,P6,P8のいずれかに表示される。この例では、すべてのリレープロジェクター(プロジェクター1d,1f)は、下側に部分画像Pdを投写するエンドプロジェクター(プロジェクター1g,1i)に情報を伝達するため、第3領域A3の表示位置P6にQRコード204を表示する。   The relay projector captures and decodes the QR code 203 displayed by the master projector, and projects a partial image Pd at a position adjacent to its own correction parameter from among a plurality of correction parameters stored in the QR code 203. Get the correction parameters of the end projector to be used. Then, as illustrated in FIG. 9D, the relay projector encodes the acquired correction parameters of the end projector to generate a QR code 204, and displays the QR code 204 in the overlapping area Ao with the transmission destination end projector. The QR code 204 is displayed at any one of the display positions P2, P4, P6, and P8 as described above. In this example, all the relay projectors (projectors 1d and 1f) transmit information to the end projectors (projectors 1g and 1i) that project the partial image Pd on the lower side, so that QR is displayed at the display position P6 in the third area A3. The code 204 is displayed.

エンドプロジェクターは、マスタープロジェクター又はリレープロジェクターが表示したQRコード203,204を撮像してデコードし、QRコード203,204に格納されている自身の補正パラメーターを取得する。   The end projector captures and decodes the QR codes 203 and 204 displayed by the master projector or the relay projector, and acquires its correction parameters stored in the QR codes 203 and 204.

各プロジェクター1は、生成又は取得した自身の補正パラメーターを記憶部11に記憶する。そして、これ以降、画像の投写を行う際に、各プロジェクター1の制御部10は、補正パラメーターを画像情報処理部16に出力し、入力される画像情報に対して、補正パラメーターに応じた補正処理を実行させる。この結果、プロジェクター1毎の部分画像Pdの色及び明るさのばらつきが低減された状態で投写画像Paが表示される。   Each projector 1 stores the generated or acquired correction parameter in the storage unit 11. Thereafter, when projecting an image, the control unit 10 of each projector 1 outputs a correction parameter to the image information processing unit 16, and performs correction processing according to the correction parameter for the input image information. Is executed. As a result, the projection image Pa is displayed in a state where variations in color and brightness of the partial image Pd for each projector 1 are reduced.

なお、エンドプロジェクター及びリレープロジェクターは、測定情報を表すQRコード201,202を表示した後、補正パラメーターを表すQRコード203,204を検出した場合に、表示したQRコード201,202を消去する。また、マスタープロジェクター及びリレープロジェクターは、補正パラメーターを表すQRコード203,204を表示した後、伝達先のプロジェクター1が表示していたQRコード201,202が消去されたことを受けて、自身が表示していたQRコード203,204を消去する。ただし、QRコード201〜204を消去するタイミングは上記に限定されず、各プロジェクター1は、伝達先のプロジェクター1がQRコード201〜204を検出するのに十分な長さの所定時間が経過した後でQRコード201〜204を消去するようにしてもよい。   Note that the end projector and the relay projector delete the displayed QR codes 201 and 202 when the QR codes 203 and 204 representing the correction parameters are detected after displaying the QR codes 201 and 202 representing the measurement information. In addition, the master projector and the relay projector display the QR codes 203 and 204 representing the correction parameters, and then display the QR codes 201 and 202 displayed by the transmission destination projector 1 in response to the deletion. The QR codes 203 and 204 that have been deleted are deleted. However, the timing at which the QR codes 201 to 204 are deleted is not limited to the above. Each projector 1 is configured after a predetermined time period sufficient for the transmission destination projector 1 to detect the QR codes 201 to 204 has elapsed. In this case, the QR codes 201 to 204 may be deleted.

図10〜図12は、上述した補正処理を実行する際のプロジェクター1の動作を説明するためのフローチャートであり、図10は、エンドプロジェクターの動作を示している。ユーザーがリモコン2を用いて補正処理の実行を指示する操作を行うと、リモコン2から送信された操作信号は、各プロジェクター1のリモコン信号受信部13によって受信される。このうち、エンドプロジェクターの制御部10は、図10に示すフローに従って動作する。   10 to 12 are flowcharts for explaining the operation of the projector 1 when executing the above-described correction processing, and FIG. 10 shows the operation of the end projector. When the user performs an operation for instructing execution of correction processing using the remote controller 2, the operation signal transmitted from the remote controller 2 is received by the remote control signal receiver 13 of each projector 1. Among these, the control unit 10 of the end projector operates according to the flow shown in FIG.

図10に示すように、エンドプロジェクターの制御部10は、補正処理の実行が指示されると、予め定められた所定の測定用画像の画像情報を画像情報入力部15に出力し、画像投写部17から測定用画像を投写させるとともに、投写された測定用画像を撮像部14に撮像させる。そして、制御部10は、撮像された測定用画像の色及び明るさを測定し、測定結果に応じた測定情報を生成して、記憶部11に記憶する(ステップS121)。   As shown in FIG. 10, when the execution of the correction process is instructed, the control unit 10 of the end projector outputs image information of a predetermined measurement image set in advance to the image information input unit 15, and the image projection unit The image for measurement is projected from 17 and the image for measurement projected is imaged by the imaging unit 14. And the control part 10 measures the color and brightness of the imaged image for a measurement, produces | generates the measurement information according to a measurement result, and memorize | stores it in the memory | storage part 11 (step S121).

その後、エンドプロジェクターの制御部10は、測定情報に自身の識別情報31を対応付け、この測定情報をQRコード生成部18によりエンコードしてQRコード201を生成する(ステップS122)。そして、制御部10は、画像情報処理部16に指示をして、生成したQRコード201を、マスタープロジェクター又はリレープロジェクターとの重畳領域Aoに表示させる(ステップS123)。   Thereafter, the control unit 10 of the end projector associates the identification information 31 with the measurement information, encodes the measurement information by the QR code generation unit 18, and generates the QR code 201 (step S122). Then, the control unit 10 instructs the image information processing unit 16 to display the generated QR code 201 in the overlapping area Ao with the master projector or the relay projector (step S123).

その後、エンドプロジェクターの制御部10は、撮像部14に投写面Spを撮像させ(ステップS124)、マスタープロジェクター又はリレープロジェクターのQRコード203,204が表示される位置にQRコード203,204が検出されたか否かを判断する(ステップS125)。そして、QRコード203,204が検出されない場合(ステップS125:No)には、制御部10は、QRコード203,204が検出されるまで、撮像と検出とを繰り返す。   Thereafter, the control unit 10 of the end projector causes the imaging unit 14 to image the projection plane Sp (step S124), and the QR codes 203 and 204 are detected at positions where the QR codes 203 and 204 of the master projector or the relay projector are displayed. It is determined whether or not (step S125). When the QR codes 203 and 204 are not detected (step S125: No), the control unit 10 repeats imaging and detection until the QR codes 203 and 204 are detected.

一方、QRコード203,204が検出された場合(ステップS125:Yes)には、エンドプロジェクターの制御部10は、QRコード解析部19によってQRコード203,204をデコードして、QRコード203,204に格納されている自身の補正パラメーターを取得し、取得した補正パラメーターを記憶部11に記憶する(ステップS126)。   On the other hand, when the QR codes 203 and 204 are detected (step S125: Yes), the control unit 10 of the end projector decodes the QR codes 203 and 204 by the QR code analysis unit 19, and the QR codes 203 and 204 are detected. The own correction parameter stored in is acquired, and the acquired correction parameter is stored in the storage unit 11 (step S126).

その後、エンドプロジェクターの制御部10は、画像情報処理部16に指示をして、ステップS123で表示したQRコード201を消去させて、フローを終了する。   Thereafter, the control unit 10 of the end projector instructs the image information processing unit 16 to delete the QR code 201 displayed in step S123, and ends the flow.

図11は、補正処理を実行する際のリレープロジェクターの動作を説明するためのフローチャートである。ユーザーがリモコン2を用いて補正処理の実行を指示する操作を行うと、リレープロジェクターの制御部10は、図11に示すフローに従って動作する。   FIG. 11 is a flowchart for explaining the operation of the relay projector when executing the correction process. When the user performs an operation to instruct execution of the correction process using the remote controller 2, the control unit 10 of the relay projector operates according to the flow shown in FIG.

図11に示すように、リレープロジェクターの制御部10は、補正処理の実行が指示されると、エンドプロジェクターと同様、画像投写部17から測定用画像を投写させるとともに、投写された測定用画像を撮像部14に撮像させる。そして、制御部10は、撮像された測定用画像の色及び明るさを測定し、測定結果に応じた測定情報を生成して、記憶部11に記憶する(ステップS131)。   As shown in FIG. 11, when the control unit 10 of the relay projector is instructed to execute the correction process, the image projection unit 17 projects the measurement image and the projected measurement image as in the end projector. The imaging unit 14 is caused to capture an image. And the control part 10 measures the color and brightness of the imaged image for a measurement, produces | generates the measurement information according to a measurement result, and memorize | stores it in the memory | storage part 11 (step S131).

その後、リレープロジェクターの制御部10は、撮像部14に投写面Spを撮像させ(ステップS132)、エンドプロジェクターのQRコード201が表示される位置にQRコード201が検出されたか否かを判断する(ステップS133)。そして、QRコード201が検出されない場合(ステップS133:No)には、制御部10は、QRコード201が検出されるまで、撮像と検出とを繰り返す。   Thereafter, the control unit 10 of the relay projector causes the imaging unit 14 to image the projection plane Sp (step S132), and determines whether or not the QR code 201 is detected at a position where the QR code 201 of the end projector is displayed (step S132). Step S133). If the QR code 201 is not detected (step S133: No), the control unit 10 repeats imaging and detection until the QR code 201 is detected.

一方、QRコード201が検出された場合(ステップS133:Yes)には、リレープロジェクターの制御部10は、QRコード解析部19によってQRコード201をデコードして、QRコード201に格納されているエンドプロジェクターの測定情報を取得し、記憶部11に記憶する(ステップS134)。   On the other hand, when the QR code 201 is detected (step S133: Yes), the control unit 10 of the relay projector decodes the QR code 201 by the QR code analysis unit 19 and stores the end stored in the QR code 201. The projector measurement information is acquired and stored in the storage unit 11 (step S134).

その後、リレープロジェクターの制御部10は、取得したエンドプロジェクターの測定情報と自身の測定情報のそれぞれに識別情報31を対応付け、これらをまとめてエンコードしてQRコード202を生成する(ステップS135)。そして、制御部10は、画像情報処理部16に指示をして、生成したQRコード202を、マスタープロジェクターとの重畳領域Aoに表示させる(ステップS136)。   After that, the control unit 10 of the relay projector associates the identification information 31 with each of the acquired measurement information of the end projector and its own measurement information, and encodes them together to generate the QR code 202 (step S135). Then, the control unit 10 instructs the image information processing unit 16 to display the generated QR code 202 in the overlapping area Ao with the master projector (step S136).

その後、リレープロジェクターの制御部10は、撮像部14に投写面Spを撮像させ(ステップS137)、マスタープロジェクターのQRコード203が表示される位置にQRコード203が検出されたか否かを判断する(ステップS138)。そして、QRコード203が検出されない場合(ステップS138:No)には、制御部10は、QRコード203が検出されるまで、撮像と検出とを繰り返す。   Thereafter, the control unit 10 of the relay projector causes the imaging unit 14 to image the projection surface Sp (step S137), and determines whether or not the QR code 203 is detected at a position where the QR code 203 of the master projector is displayed ( Step S138). If the QR code 203 is not detected (step S138: No), the control unit 10 repeats imaging and detection until the QR code 203 is detected.

一方、QRコード203が検出された場合(ステップS138:Yes)には、リレープロジェクターの制御部10は、QRコード解析部19によってQRコード203をデコードし、QRコード203に格納されている複数の補正パラメーターの中から、自身の補正パラメーターと、隣り合う位置に部分画像Pdを投写するエンドプロジェクターの補正パラメーターとを取得して、記憶部11に記憶する。(ステップS139)。   On the other hand, when the QR code 203 is detected (step S138: Yes), the control unit 10 of the relay projector decodes the QR code 203 by the QR code analysis unit 19, and a plurality of items stored in the QR code 203 are stored. Among the correction parameters, own correction parameters and correction parameters of the end projector that projects the partial image Pd at adjacent positions are acquired and stored in the storage unit 11. (Step S139).

また、マスタープロジェクターのQRコード203を検出したことを受けて、リレープロジェクターの制御部10は、画像情報処理部16に指示をして、ステップS136で表示したQRコード202を消去させる(ステップS140)。   In response to the detection of the QR code 203 of the master projector, the control unit 10 of the relay projector instructs the image information processing unit 16 to delete the QR code 202 displayed in step S136 (step S140). .

さらに、リレープロジェクターの制御部10は、取得した補正パラメーターのうちエンドプロジェクターの補正パラメーターを、QRコード生成部18によりエンコードしてQRコード204を生成する(ステップS141)。そして、制御部10は、画像情報処理部16に指示をして、生成したQRコード204を、エンドプロジェクターとの重畳領域Aoに表示させる(ステップS142)。   Further, the control unit 10 of the relay projector encodes the correction parameters of the end projector among the acquired correction parameters by the QR code generation unit 18 to generate the QR code 204 (step S141). Then, the control unit 10 instructs the image information processing unit 16 to display the generated QR code 204 in the overlapping area Ao with the end projector (step S142).

その後、リレープロジェクターの制御部10は、撮像部14に投写面Spを撮像させ(ステップS143)、その撮像画像に基づいて、伝達先のエンドプロジェクターが表示していたQRコード201が消去されたか否かを判断する(ステップS144)。そして、制御部10は、エンドプロジェクターのQRコード201が消去されていなければ(ステップS144:No)、それが消去されるまで自身のQRコード204の表示も継続する。一方、エンドプロジェクターのQRコード201が消去されていれば(ステップS144:Yes)、制御部10は、画像情報処理部16に指示をして、ステップS142で表示したQRコード204を消去させて(ステップS145)、フローを終了する。   Thereafter, the control unit 10 of the relay projector causes the imaging unit 14 to capture the projection plane Sp (step S143), and based on the captured image, whether or not the QR code 201 displayed by the destination end projector has been deleted. Is determined (step S144). Then, if the QR code 201 of the end projector has not been erased (step S144: No), the control unit 10 also continues to display its own QR code 204 until it is erased. On the other hand, if the QR code 201 of the end projector has been erased (step S144: Yes), the control unit 10 instructs the image information processing unit 16 to erase the QR code 204 displayed in step S142 ( Step S145), the flow ends.

図12は、補正処理を実行する際のマスタープロジェクターの動作を説明するためのフローチャートである。ユーザーがリモコン2を用いて補正処理の実行を指示する操作を行うと、マスタープロジェクターの制御部10は、図12に示すフローに従って動作する。   FIG. 12 is a flowchart for explaining the operation of the master projector when executing the correction process. When the user performs an operation to instruct execution of the correction process using the remote controller 2, the control unit 10 of the master projector operates according to the flow shown in FIG.

図12に示すように、マスタープロジェクターの制御部10は、補正処理の実行が指示されると、エンドプロジェクター及びリレープロジェクターと同様、画像投写部17から測定用画像を投写させるとともに、投写された測定用画像を撮像部14に撮像させる。そして、制御部10は、撮像された測定用画像の色及び明るさを測定し、測定結果に応じた測定情報を生成して、記憶部11に記憶する(ステップS151)。   As shown in FIG. 12, when the control unit 10 of the master projector is instructed to execute the correction process, the image projection unit 17 projects the measurement image and the projected measurement, as in the case of the end projector and the relay projector. The image capturing unit 14 is caused to capture an image for use. Then, the control unit 10 measures the color and brightness of the captured measurement image, generates measurement information corresponding to the measurement result, and stores the measurement information in the storage unit 11 (step S151).

その後、マスタープロジェクターの制御部10は、撮像部14に投写面Spを撮像させ(ステップS152)、リレープロジェクター及びエンドプロジェクターのQRコード201,202が表示される位置にQRコード201,202が検出されたか否かを判断する(ステップS153)。そして、QRコード201,202が検出されない場合(ステップS153:No)には、制御部10は、QRコード201,202が検出されるまで、撮像と検出とを繰り返す。   Thereafter, the control unit 10 of the master projector causes the imaging unit 14 to image the projection plane Sp (step S152), and the QR codes 201 and 202 are detected at positions where the QR codes 201 and 202 of the relay projector and the end projector are displayed. It is determined whether or not (step S153). When the QR codes 201 and 202 are not detected (step S153: No), the control unit 10 repeats imaging and detection until the QR codes 201 and 202 are detected.

一方、QRコード201,202が検出された場合(ステップS153:Yes)には、マスタープロジェクターの制御部10は、QRコード解析部19によってQRコード201,202をデコードして、QRコード201,202に格納されている測定情報を取得し、記憶部11に記憶する(ステップS154)。なお、リレープロジェクターのQRコード202から取得される測定情報には、上述したように、リレープロジェクターの測定情報と、エンドプロジェクターの測定情報とが格納されている。   On the other hand, when the QR codes 201 and 202 are detected (step S153: Yes), the control unit 10 of the master projector decodes the QR codes 201 and 202 by the QR code analysis unit 19, and the QR codes 201 and 202 are decoded. Is acquired and stored in the storage unit 11 (step S154). Note that the measurement information acquired from the QR code 202 of the relay projector stores the measurement information of the relay projector and the measurement information of the end projector, as described above.

マスタープロジェクターの制御部10は、すべてのスレーブプロジェクターの測定情報を取得したか否かを判断し(ステップS155)、すべての測定情報が取得されていない場合には(ステップS155:No)、投写面Spの撮像、QRコード201,202の検出、測定情報の取得を繰り返す。   The control unit 10 of the master projector determines whether or not the measurement information of all the slave projectors has been acquired (step S155). When all the measurement information has not been acquired (step S155: No), the projection plane Sp imaging, detection of QR codes 201 and 202, and acquisition of measurement information are repeated.

一方、すべてのスレーブプロジェクターの測定情報が取得された場合には(ステップS155:Yes)、マスタープロジェクターの制御部10は、取得した測定情報と、自身の測定情報とに基づいて、すべてのプロジェクター1の色及び明るさが均一になるように画像を補正するための補正パラメーターをプロジェクター1毎に決定する(ステップS156)。   On the other hand, when the measurement information of all the slave projectors has been acquired (step S155: Yes), the control unit 10 of the master projector determines all the projectors 1 based on the acquired measurement information and its own measurement information. The correction parameters for correcting the image so that the color and brightness of the projector are uniform are determined for each projector 1 (step S156).

マスタープロジェクターの制御部10は、決定したすべての補正パラメーターにプロジェクター1の識別情報31を対応付け、QRコード生成部18により、これらをまとめてエンコードして1つのQRコード203を生成する(ステップS157)。そして、制御部10は、画像情報処理部16に指示をして、情報の伝達先であるプロジェクター1d,1f,1hとの重畳領域AoにQRコード203を表示させる(ステップS158)。   The control unit 10 of the master projector associates the identification information 31 of the projector 1 with all the determined correction parameters, and the QR code generation unit 18 encodes them together to generate one QR code 203 (step S157). ). Then, the control unit 10 instructs the image information processing unit 16 to display the QR code 203 in the overlapping area Ao with the projectors 1d, 1f, and 1h that are information transmission destinations (step S158).

その後、マスタープロジェクターの制御部10は、撮像部14に投写面Spを撮像させ(ステップS159)、伝達先のプロジェクター1が表示していたQRコード201,202が消去されたか否かを判断する(ステップS160)。そして、制御部10は、伝達先のすべてのプロジェクター1のQRコード201,202が消去されていなければ(ステップS160:No)、それらが消去されるまで自身のQRコード203の表示も継続する。一方、伝達先のすべてのプロジェクター1のQRコード201,202が消去されていれば(ステップS160:Yes)、制御部10は、画像情報処理部16に指示をして、ステップS158で表示したQRコード203を消去させて(ステップS161)、フローを終了する。   Thereafter, the control unit 10 of the master projector causes the imaging unit 14 to image the projection plane Sp (step S159), and determines whether or not the QR codes 201 and 202 displayed by the transmission destination projector 1 have been deleted (step S159). Step S160). Then, if the QR codes 201 and 202 of all the transmission destination projectors 1 have not been deleted (step S160: No), the control unit 10 also continues to display its own QR code 203 until they are deleted. On the other hand, if the QR codes 201 and 202 of all the transmission destination projectors 1 have been deleted (step S160: Yes), the control unit 10 instructs the image information processing unit 16 to display the QR displayed in step S158. The code 203 is deleted (step S161), and the flow ends.

以上説明したように、本実施形態の画像投写システム100、プロジェクター1及びそれらの制御方法によれば、以下の効果を得ることができる。   As described above, according to the image projection system 100, the projector 1, and the control method thereof according to the present embodiment, the following effects can be obtained.

(1)本実施形態によれば、複数のプロジェクター1により投写画像Paを投写する画像投写システム100において、プロジェクター1は、他のプロジェクター1が投写したQRコード200〜202を撮像し、撮像画像に基づいて各種情報(識別情報31、データテーブル32、相対位置、測定情報)を取得する。そして、プロジェクター1は、取得した情報と、自身が記憶している情報とに基づいてQRコード200〜203を生成して投写する。つまり、QRコード200〜203の投写と撮像とを行うことによって、自身が取得した情報や自身が記憶する情報を、自身以外のプロジェクター1に伝達することが可能となるため、ネットワーク等を介して通信を行う必要がなくなる。   (1) According to the present embodiment, in the image projection system 100 that projects the projection image Pa by the plurality of projectors 1, the projector 1 captures the QR codes 200 to 202 projected by the other projectors 1 to form a captured image. Various information (identification information 31, data table 32, relative position, measurement information) is acquired based on the information. Then, the projector 1 generates and projects QR codes 200 to 203 based on the acquired information and the information stored in the projector 1 itself. In other words, by performing projection and imaging of the QR codes 200 to 203, it is possible to transmit information acquired by itself or information stored by itself to projectors 1 other than itself, and therefore via a network or the like. There is no need to communicate.

(2)本実施形態によれば、隣り合う位置に部分画像Pdを投写する2つのプロジェクター1は、互いに他方のプロジェクター1が投写したQRコード200に基づいてQRコード200を生成(更新)する。このため、双方のプロジェクター1は、他方のプロジェクター1が記憶する情報を格納したQRコード200を生成することが可能となる。   (2) According to the present embodiment, the two projectors 1 that project the partial image Pd to adjacent positions generate (update) the QR code 200 based on the QR code 200 projected by the other projector 1. Therefore, both projectors 1 can generate a QR code 200 that stores information stored in the other projector 1.

(3)本実施形態によれば、他のプロジェクター1から取得した情報や、自身が記憶する情報を、さらに別のプロジェクターに伝達することができるため、3つ以上のプロジェクター1間で情報の伝達や共有が可能となる。   (3) According to the present embodiment, information acquired from other projectors 1 and information stored by itself can be transmitted to another projector, so that information is transmitted between three or more projectors 1. And sharing.

(4)本実施形態によれば、プロジェクター1は、他のプロジェクター1が投写する部分画像Pdの、基準画像Pdに対する相対位置を判別し、部分画像Pdの配列に関するデータテーブル32を更新する。そして、プロジェクター1は、更新したデータテーブル32に基づいてQRコード200を生成するため、自身が更新したデータテーブル32を、自身以外のプロジェクター1に伝達することが可能となる。   (4) According to this embodiment, the projector 1 determines the relative position of the partial image Pd projected by the other projector 1 with respect to the reference image Pd, and updates the data table 32 regarding the arrangement of the partial images Pd. Since the projector 1 generates the QR code 200 based on the updated data table 32, the data table 32 updated by itself can be transmitted to projectors 1 other than itself.

(5)本実施形態によれば、リレープロジェクターは、エンドプロジェクターの測定結果に応じた測定情報をQRコード201から取得し、取得した測定情報と、自身の測定結果に応じた測定情報とに基づいてQRコード202を生成するため、エンドプロジェクターの測定結果と、リレープロジェクターの測定結果の双方を、マスタープロジェクターに伝達することが可能となる。   (5) According to this embodiment, the relay projector acquires measurement information corresponding to the measurement result of the end projector from the QR code 201, and based on the acquired measurement information and the measurement information corresponding to its own measurement result. Since the QR code 202 is generated, both the measurement result of the end projector and the measurement result of the relay projector can be transmitted to the master projector.

(6)本実施形態によれば、マスタープロジェクターは、エンドプロジェクター及びリレープロジェクターの測定結果に応じた測定情報をQRコード201,202から取得し、取得した測定情報と、自身の測定結果に応じた測定情報とに基づいて補正パラメーターを決定する。そして、マスタープロジェクターは、決定した補正パラメーターを格納したQRコード203を生成して表示するため、エンドプロジェクター及びリレープロジェクターに補正パラメーターを伝達することが可能となる。   (6) According to the present embodiment, the master projector acquires measurement information corresponding to the measurement results of the end projector and the relay projector from the QR codes 201 and 202, and corresponds to the acquired measurement information and its own measurement result. The correction parameter is determined based on the measurement information. Since the master projector generates and displays the QR code 203 storing the determined correction parameter, the correction parameter can be transmitted to the end projector and the relay projector.

なお、上記実施形態において、例えば、図1におけるプロジェクター1bを第1のプロジェクターとすると、プロジェクター1a,1cの一方は第2のプロジェクターに相当し、他方は第3のプロジェクターに相当する。また、図8において、リレープロジェクターであるプロジェクター1d,1fを第1のプロジェクターとすると、エンドプロジェクターであるプロジェクター1g,1iが第2のプロジェクターに相当し、マスタープロジェクターであるプロジェクター1eが第3のプロジェクターに相当する。また、マスタープロジェクターであるプロジェクター1eを第1のプロジェクターとすると、マスタープロジェクターに測定情報を伝達するプロジェクター1d,1f,1hが第2のプロジェクターに相当する。また、QRコード200〜204をデコードして、格納されている情報を取得する際の制御部10(QRコード解析部19を含む)が取得部に相当する。また、QRコード200〜204を生成する際の制御部10(QRコード生成部18を含む)が生成部に相当する。また、他のプロジェクター1のQRコード200に基づいて取得される情報(他のプロジェクター1のデータテーブル32や測定情報、部分画像Pdの相対位置等)が外部情報に相当し、自身の記憶部11に記憶される情報(自身のデータテーブル32や測定情報等)が内部情報に相当する。また、所定の測定用画像を投写して画像の色及び明るさを測定する際の画像投写部17、撮像部14及び制御部10が測定部に相当する。また、補正パラメーターに応じた補正処理を行う際の画像情報処理部16が補正部に相当する。   In the above embodiment, for example, when the projector 1b in FIG. 1 is the first projector, one of the projectors 1a and 1c corresponds to the second projector, and the other corresponds to the third projector. In FIG. 8, when the projectors 1d and 1f that are relay projectors are the first projectors, the projectors 1g and 1i that are end projectors correspond to the second projector, and the projector 1e that is the master projector is the third projector. It corresponds to. When the projector 1e that is a master projector is the first projector, the projectors 1d, 1f, and 1h that transmit measurement information to the master projector correspond to the second projector. In addition, the control unit 10 (including the QR code analysis unit 19) when decoding QR codes 200 to 204 and acquiring stored information corresponds to the acquisition unit. The control unit 10 (including the QR code generation unit 18) when generating the QR codes 200 to 204 corresponds to the generation unit. Further, information acquired based on the QR code 200 of the other projector 1 (data table 32, measurement information, relative position of the partial image Pd, etc. of the other projector 1) corresponds to external information, and own storage unit 11 Information (such as its own data table 32 and measurement information) stored in the information corresponds to internal information. The image projecting unit 17, the imaging unit 14, and the control unit 10 when projecting a predetermined measurement image and measuring the color and brightness of the image correspond to the measuring unit. The image information processing unit 16 when performing correction processing according to the correction parameter corresponds to the correction unit.

(変形例)
また、上記実施形態は、以下のように変更してもよい。
(Modification)
Moreover, you may change the said embodiment as follows.

上記実施形態において、部分画像Pdの配列を自動判定する際に、各プロジェクター1から投写されるQRコード200が重なり合ってしまうと、正しい判定ができなくなる。このため、QRコード200は、常に他のQRコード200と重ならないように表示されることが望ましい。上記実施形態のように、同じ表示位置から同じ周期(単位時間)、同じ順序(時計回り)でQRコード200の表示位置を変更すれば、理論上、QRコード200が重なることはない。しかしながら、リモコン2からの操作信号の受信の遅れや、周期のばらつき等に起因して、QRコード200が重なってしまう事態も起こり得る。このため、QRコード200の最初の表示位置、表示位置の変更順序、表示位置の変更周期(単位時間)の少なくとも1つの項目をプロジェクター1毎に変えることにより、ある期間では重なっても別の期間では重ならずに表示されるようにしてもよい。この場合、これらの項目は、ユーザーによって個別に設定されてもよいし、ランダムに決定するようにしてもよい。   In the above embodiment, when the arrangement of the partial images Pd is automatically determined, if the QR codes 200 projected from the projectors 1 overlap, correct determination cannot be performed. For this reason, it is desirable that the QR code 200 is always displayed so as not to overlap with other QR codes 200. If the display position of the QR code 200 is changed in the same cycle (unit time) and the same order (clockwise) from the same display position as in the above embodiment, the QR codes 200 do not overlap in theory. However, the QR code 200 may overlap due to a delay in receiving the operation signal from the remote controller 2 or a variation in cycle. For this reason, by changing at least one item of the first display position of the QR code 200, the display position change order, and the display position change cycle (unit time) for each projector 1, even if they overlap in one period, another period Then, they may be displayed without overlapping. In this case, these items may be individually set by the user or may be determined at random.

また、上記実施形態のように、すべてのプロジェクター1でQRコード200の最初の表示位置、表示位置の変更周期、表示位置の変更順序を同一にした態様において、例えば、一部のプロジェクター1が上下反転して配置されている場合には、上下に隣り合う位置に部分画像Pdを投写するプロジェクター1間で、QRコード200が重なってしまう可能性が高まる。このため、プロジェクター1の姿勢を検知する手段(姿勢検知部)を備えるようにして、上下反転が検知された場合には、最初の表示位置を(例えば、表示位置P1から表示位置P5に)変更するようにしてもよい。   Moreover, in the aspect which made the initial display position of QR Code 200, the change period of a display position, and the change order of the display position the same in all the projectors 1 like the said embodiment, for example, some projectors 1 are up-down. In the case of being reversed, the QR code 200 is more likely to overlap between the projectors 1 that project the partial images Pd at positions adjacent to each other in the vertical direction. For this reason, the first display position is changed (for example, from the display position P1 to the display position P5) when upside down is detected by providing a means (attitude detection unit) for detecting the attitude of the projector 1. You may make it do.

上記実施形態では、補正パラメーターを伝達する際に、マスタープロジェクターは、すべてのプロジェクター1の補正パラメーターが格納されたQRコード203を生成し、これを3つの表示位置に表示しているが、この態様に限定されない。例えば、伝達経路に応じて3つの異なるQRコード203を生成し、それぞれを対応する表示位置に表示するようにしてもよい。この場合、各QRコード203には、伝達経路上のプロジェクター1の補正パラメーターが含まれていればよい。   In the above embodiment, when transmitting the correction parameters, the master projector generates the QR code 203 in which the correction parameters of all the projectors 1 are stored and displays them in three display positions. It is not limited to. For example, three different QR codes 203 may be generated according to the transmission path, and each may be displayed at a corresponding display position. In this case, each QR code 203 only needs to include the correction parameter of the projector 1 on the transmission path.

上記実施形態では、3つのプロジェクター1の部分画像Pdが横一列に配列された例と、6つのプロジェクター1の部分画像Pdが3×2のマトリクス状に配列された例を示したが、部分画像Pdの配列は、これらに限定されない。なお、プロジェクター1の数が多い場合には、エンドプロジェクターとマスタープロジェクターとを結ぶ伝達経路上に複数のリレープロジェクターが介在する態様もあり得る。つまり、リレープロジェクターは、エンドプロジェクターとマスタープロジェクターとの間以外に、エンドプロジェクターとリレープロジェクターとの間、リレープロジェクターとマスタープロジェクターの間、そしてリレープロジェクターとリレープロジェクターの間に配置され得る。   In the above embodiment, the example in which the partial images Pd of the three projectors 1 are arranged in a horizontal row and the example in which the partial images Pd of the six projectors 1 are arranged in a 3 × 2 matrix are shown. The sequence of Pd is not limited to these. When the number of projectors 1 is large, there may be a mode in which a plurality of relay projectors are interposed on a transmission path connecting the end projector and the master projector. That is, the relay projector can be disposed between the end projector and the relay projector, between the relay projector and the master projector, and between the relay projector and the relay projector, in addition to between the end projector and the master projector.

上記実施形態において、部分画像Pdの配列を自動判定する際に、プロジェクター1は、識別情報31とデータテーブル32とが格納されたQRコード200を表示するようにしているが、データテーブル32の第1データ列L1の第1項目C1に、QRコード200を投写したプロジェクター1の識別情報31が格納されているため、QRコード200には、データテーブル32のみを格納するようにしてもよい。   In the above embodiment, when automatically determining the arrangement of the partial images Pd, the projector 1 displays the QR code 200 in which the identification information 31 and the data table 32 are stored. Since the identification information 31 of the projector 1 that projected the QR code 200 is stored in the first item C1 of the one data string L1, only the data table 32 may be stored in the QR code 200.

上記実施形態では、隣り合う部分画像Pd同士が重なる重畳領域Ao内にQRコード200〜204を表示するようにしているが、撮像部14が自身の部分画像Pdよりも十分に広い範囲を撮像可能であれば、QRコード200〜204は、重畳領域Ao内に収まっている必要はない。また、撮像部14が十分に広い範囲を撮像可能な場合には、隣り合う部分画像Pdは、重畳していなくてもよい。   In the above embodiment, the QR codes 200 to 204 are displayed in the overlapping area Ao where adjacent partial images Pd overlap each other. However, the imaging unit 14 can capture a sufficiently wider range than the partial image Pd of itself. If so, the QR codes 200 to 204 do not need to be within the overlapping region Ao. Moreover, when the imaging part 14 can image a sufficiently wide range, the adjacent partial images Pd do not need to be superimposed.

上記実施形態において、識別情報31は、他と重複しないようにユーザーによって設定された情報であってもよいが、プロジェクター1が、MACアドレスのように、互いに重複しないように予め設定されている情報を有している場合には、これらの情報を識別情報31として利用してもよい。   In the above-described embodiment, the identification information 31 may be information set by the user so as not to be duplicated with others, but information that is preset by the projector 1 so as not to be duplicated, such as a MAC address. Such information may be used as the identification information 31.

上記実施形態では、第1領域A1〜第4領域A4のそれぞれに2つの表示位置を設定しているが、各領域内の表示位置の数は、1つでも3つ以上であってもよい。表示位置が多いほど、表示位置が一巡するのに要する時間は長くなるが、QRコード200が他のQRコード200と重なり合わずに表示されやすくなるうえ、投写面Spの汚れ等に起因する誤検出等を回避することが可能となる。   In the above embodiment, two display positions are set for each of the first area A1 to the fourth area A4. However, the number of display positions in each area may be one or three or more. As the number of display positions increases, the time required for the display position to go around becomes longer. However, the QR code 200 is more easily displayed without overlapping with other QR codes 200, and an error caused by dirt on the projection surface Sp or the like. Detection and the like can be avoided.

上記実施形態では、部分画像Pdの色及び明るさを測定して補正する態様を示したが、色と明るさのいずれか一方のみを補正する態様であってもよい。   In the above-described embodiment, the aspect in which the color and brightness of the partial image Pd are measured and corrected has been described. However, only one of the color and brightness may be corrected.

上記実施形態では、自動判定された部分画像Pdの配列パターンに基づいて、測定情報及び補正パラメーターを伝達する動作について説明したが、判定された配列パターンを利用した動作は上記に限定されない。例えば、画像供給装置3からすべてのプロジェクター1に、投写画像Paの全体に対応する共通の画像情報が入力される構成において、各プロジェクター1は、入力される画像情報から自身が担当(投写)する範囲を抽出する際に、自動判定された配列パターンに基づいて適切な範囲を抽出することが可能となる。   In the above embodiment, the operation for transmitting the measurement information and the correction parameter based on the automatically determined arrangement pattern of the partial image Pd has been described. However, the operation using the determined arrangement pattern is not limited to the above. For example, in a configuration in which common image information corresponding to the entire projection image Pa is input from the image supply device 3 to all projectors 1, each projector 1 is responsible for (projects) itself from the input image information. When extracting the range, it is possible to extract an appropriate range based on the automatically determined sequence pattern.

上記実施形態では、マスタープロジェクターが他のプロジェクター1に補正パラメーターを伝達する態様を示したが、ユーザーによって設定され得る様々な設定情報を他のプロジェクター1に伝達し、すべてのプロジェクター1が同じ設定情報を共有するようにしてもよい。例えば、OSD画像を重畳する位置をユーザーが設定可能な場合には、その位置の設定を共有するようにしてもよいし、プロジェクター1が音声出力機能を有している場合には、その機能を無効にする設定等を共有してもよい。また、画像供給装置3から画像情報入力部15に画像情報が入力されていない未入力状態で表示すべき画像をユーザーが設定可能な場合には、その画像の設定を共有してもよいし、未入力状態が長く続いた場合に省電力モードに移行する構成では、省電力モードに移行するまでの時間の設定を共有してもよい。   In the above-described embodiment, the aspect in which the master projector transmits the correction parameter to the other projector 1 has been described. However, various setting information that can be set by the user is transmitted to the other projector 1, and all the projectors 1 have the same setting information. May be shared. For example, when the user can set the position where the OSD image is superimposed, the setting of the position may be shared. When the projector 1 has an audio output function, the function is You may share settings to disable. Further, when the user can set an image to be displayed in a state where no image information is input from the image supply device 3 to the image information input unit 15, the setting of the image may be shared. In the configuration that shifts to the power saving mode when the non-input state continues for a long time, the setting of the time until shifting to the power saving mode may be shared.

上記実施形態では、識別画像として、マトリクス型の2次元コードであるQRコード200〜204を用いているが、他の識別画像を採用してもよい。例えば、1次元のバーコードを用いてもよいし、QRコード以外のマトリクス型の2次元コードや、バーコードを積み上げたスタック型の2次元コードを用いてもよい。   In the above-described embodiment, QR codes 200 to 204 that are matrix-type two-dimensional codes are used as identification images, but other identification images may be employed. For example, a one-dimensional barcode may be used, or a matrix type two-dimensional code other than a QR code, or a stack type two-dimensional code obtained by stacking barcodes may be used.

上記実施形態では、光変調装置として、透過型の液晶ライトバルブ22R,22G,22Bを用いているが、反射型の液晶ライトバルブ等、反射型の光変調装置を用いることも可能である。また、入射した光の射出方向を、画素としてのマイクロミラー毎に制御することにより、光源21から射出された光を変調するデジタルミラーデバイス等を用いることもできる。また、色光別に複数の光変調装置を備える構成に限定されず、1つの光変調装置で複数の色光を時分割で変調する構成としてもよい。   In the above-described embodiment, the transmissive liquid crystal light valves 22R, 22G, and 22B are used as the light modulator. However, it is also possible to use a reflective light modulator such as a reflective liquid crystal light valve. Also, a digital mirror device that modulates the light emitted from the light source 21 can be used by controlling the emission direction of the incident light for each micromirror as a pixel. Further, the configuration is not limited to a configuration including a plurality of light modulation devices for each color light, and a configuration in which a plurality of color lights are modulated in a time division manner by one light modulation device may be employed.

以下に、実施形態から導き出される内容を記載する。   The contents derived from the embodiment will be described below.

画像投写システムの制御方法は、第1のプロジェクター及び第2のプロジェクターを含む複数のプロジェクターにより画像を投写する画像投写システムの制御方法であって、前記第2のプロジェクターにより、第2の識別画像を投写し、前記第1のプロジェクターにおいて、前記第2の識別画像を撮像して第1の撮像画像を生成し、前記第1のプロジェクターにおいて、生成した前記第1の撮像画像に基づいて、第1の外部情報を取得し、前記第1のプロジェクターにおいて、取得した前記第1の外部情報と、前記第1のプロジェクターが記憶する第1の内部情報とに基づいて、第1の識別画像を生成し、前記第1のプロジェクターにより、生成した前記第1の識別画像を投写することを特徴とする。   The control method of the image projection system is a control method of an image projection system in which an image is projected by a plurality of projectors including a first projector and a second projector, and a second identification image is obtained by the second projector. The first projector captures the second identification image to generate a first captured image, and the first projector generates a first captured image based on the generated first captured image. The first projector generates a first identification image based on the acquired first external information and the first internal information stored in the first projector. The generated first identification image is projected by the first projector.

この構成によれば、複数のプロジェクターにより画像を投写する画像投写システムにおいて、第1のプロジェクターは、第2のプロジェクターが投写した第2の識別画像を撮像し、第1の外部情報を取得する。そして、第1のプロジェクターは、取得した第1の外部情報と、自身が記憶している第1の内部情報とに基づいて第1の識別画像を生成して投写する。つまり、識別画像の投写と撮像とを行うことによって、自身が取得した情報や自身が記憶する情報を、自身以外のプロジェクターに伝達することが可能となるため、情報を伝達するためにネットワーク等を介して通信を行う必要がなくなる。   According to this configuration, in the image projection system that projects an image using a plurality of projectors, the first projector captures the second identification image projected by the second projector and acquires the first external information. Then, the first projector generates and projects a first identification image based on the acquired first external information and the first internal information stored in itself. In other words, by projecting and capturing an identification image, it is possible to transmit information acquired by itself or information stored by itself to projectors other than itself, so a network or the like may be used to transmit information. There is no need to communicate through the network.

上記の画像投写システムの制御方法において、前記第2のプロジェクターにおいて、前記第1の識別画像を撮像して第2の撮像画像を生成し、前記第2のプロジェクターにおいて、生成した前記第2の撮像画像に基づいて、第2の外部情報を取得し、前記第2のプロジェクターにおいて、取得した前記第2の外部情報と、前記第2のプロジェクターが記憶する第2の内部情報とに基づいて、前記第2の識別画像を更新し、前記第2のプロジェクターにより、更新後の前記第2の識別画像を投写することが望ましい。   In the control method of the image projection system, the second projector captures the first identification image to generate a second captured image, and the second projector generates the second captured image. Based on the image, the second external information is acquired, and in the second projector, based on the acquired second external information and the second internal information stored in the second projector, It is desirable to update the second identification image and project the updated second identification image by the second projector.

この構成によれば、第1のプロジェクターは、第2のプロジェクターが投写した第2の識別画像に基づいて第1の識別画像を生成し、第2のプロジェクターは、第1の識別画像に基づいて第2の識別画像を生成(更新)する。このため、双方のプロジェクターは、他方のプロジェクターが記憶する情報に基づいて識別画像を生成することが可能となる。   According to this configuration, the first projector generates a first identification image based on the second identification image projected by the second projector, and the second projector based on the first identification image. A second identification image is generated (updated). Therefore, both projectors can generate an identification image based on information stored in the other projector.

上記の画像投写システムの制御方法において、前記第1のプロジェクターにおいて、更新後の前記第2の識別画像を撮像して前記第1の撮像画像を生成し、前記第1のプロジェクターにおいて、前記第1の撮像画像から取得される前記第1の外部情報に基づいて、前記第1の識別画像を更新し、前記第1のプロジェクターにより、更新後の前記第1の識別画像を投写することが望ましい。   In the control method of the image projection system, the first projector captures the updated second identification image to generate the first captured image, and the first projector includes the first projection image. It is desirable that the first identification image is updated based on the first external information acquired from the captured image, and the updated first identification image is projected by the first projector.

この構成によれば、第2のプロジェクターは、第1のプロジェクターが投写した第1の識別画像に基づいて第2の識別画像を更新し、第1のプロジェクターは、第2のプロジェクターが更新した第2の識別画像に基づいて、第1の識別画像を更新する。このため、双方のプロジェクターは、他方のプロジェクターの更新内容を反映させた最新の識別画像を生成することが可能となる。   According to this configuration, the second projector updates the second identification image based on the first identification image projected by the first projector, and the first projector updates the second identification image updated by the second projector. The first identification image is updated based on the second identification image. For this reason, both projectors can generate the latest identification image reflecting the update contents of the other projector.

上記の画像投写システムの制御方法において、前記画像投写システムは、第3のプロジェクターをさらに備え、前記第3のプロジェクターにおいて、前記第1のプロジェクターが投写した前記第1の識別画像を撮像することが望ましい。   In the control method of the image projection system, the image projection system further includes a third projector, and the third projector captures the first identification image projected by the first projector. desirable.

この構成によれば、第1のプロジェクターは、自身が記憶する情報や、第2のプロジェクターから取得した情報を第3のプロジェクターに伝達することが可能となる。   According to this configuration, the first projector can transmit information stored by itself or information acquired from the second projector to the third projector.

上記の画像投写システムの制御方法において、前記第1の内部情報には、前記複数のプロジェクターが投写する画像の配列に関する配列情報が含まれており、前記第1のプロジェクターにおいて、前記第1の撮像画像における前記第2の識別画像の位置に基づいて、前記第1のプロジェクターが投写する画像に対する前記第2のプロジェクターが投写する画像の相対位置を、前記第1の外部情報として取得し、前記第1のプロジェクターにおいて、取得した前記第1の外部情報に基づいて、前記配列情報を更新し、更新後の前記配列情報に基づいて前記第1の識別画像を生成することが望ましい。   In the control method of the image projection system, the first internal information includes arrangement information related to an arrangement of images projected by the plurality of projectors. In the first projector, the first imaging Based on the position of the second identification image in the image, the relative position of the image projected by the second projector with respect to the image projected by the first projector is acquired as the first external information, and the first In one projector, it is preferable that the array information is updated based on the acquired first external information, and the first identification image is generated based on the updated array information.

この構成によれば、第1のプロジェクターは、複数のプロジェクターが投写する画像の配列に関する配列情報を、取得した相対位置に基づいて更新し、更新した配列情報に基づいて第1の識別画像を生成するため、自身が更新した配列情報を、自身以外のプロジェクターに伝達することが可能となる。   According to this configuration, the first projector updates the arrangement information related to the arrangement of the images projected by the plurality of projectors based on the acquired relative position, and generates the first identification image based on the updated arrangement information. Therefore, it is possible to transmit the array information updated by itself to projectors other than itself.

上記の画像投写システムの制御方法において、前記第1のプロジェクターにおいて、投写する画像の色及び明るさの少なくとも一方を測定し、測定結果に応じた第1の測定情報を前記内部情報として記憶し、前記第2のプロジェクターにおいて、投写する画像の色及び明るさの少なくとも一方を測定し、測定結果に応じた第2の測定情報が格納された前記第2の識別画像を生成して投写し、前記第1のプロジェクターにおいて、前記第1の外部情報として、前記第2の測定情報を取得し、前記第1のプロジェクターにおいて、取得した前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第1の識別画像を生成することが望ましい。   In the control method of the image projection system, the first projector measures at least one of a color and brightness of an image to be projected, and stores first measurement information according to a measurement result as the internal information, The second projector measures at least one of a color and brightness of an image to be projected, generates and projects the second identification image storing second measurement information according to a measurement result, and In the first projector, the second measurement information is acquired as the first external information, and in the first projector, based on the acquired second measurement information and the first measurement information. Thus, it is desirable to generate the first identification image.

この構成によれば、第1のプロジェクターは、第2のプロジェクターの測定結果に応じた第2の測定情報を第2の識別画像から取得し、取得した第2の測定情報と、自身の測定結果に応じた第1の測定情報とに基づいて第1の識別画像を生成する。このため、第1のプロジェクターと第2のプロジェクターの双方の測定結果を、別のプロジェクターに伝達したり、双方の測定結果に基づいて決定した情報(例えば、補正情報)を第2のプロジェクターに伝達したりすることが可能となる。   According to this configuration, the first projector acquires the second measurement information corresponding to the measurement result of the second projector from the second identification image, the acquired second measurement information, and its own measurement result. A first identification image is generated based on the first measurement information according to the above. For this reason, the measurement results of both the first projector and the second projector are transmitted to another projector, and information (for example, correction information) determined based on both measurement results is transmitted to the second projector. It becomes possible to do.

上記の画像投写システムの制御方法において、前記第1のプロジェクターにおいて、取得した前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第2のプロジェクターが投写する画像を補正するための補正情報を決定し、決定した補正情報に基づいて前記第1の識別画像を生成し、前記第2のプロジェクターにおいて、前記第1の識別画像を撮像して前記補正情報を取得し、取得した前記補正情報に基づいて前記画像を補正することが望ましい。   In the control method of the image projection system, the first projector corrects an image projected by the second projector based on the acquired second measurement information and the first measurement information. Correction information is determined, the first identification image is generated based on the determined correction information, and the second projector captures the first identification image to acquire the correction information. It is desirable to correct the image based on the correction information.

この構成によれば、第1のプロジェクターは、第1のプロジェクター及び第2のプロジェクターの双方の測定結果に基づいて補正情報を決定し、第2のプロジェクターは、第1のプロジェクターで決定された補正情報に基づいて画像を補正することが可能となる。   According to this configuration, the first projector determines correction information based on the measurement results of both the first projector and the second projector, and the second projector corrects the correction determined by the first projector. The image can be corrected based on the information.

画像投写システムは、第1のプロジェクター及び第2のプロジェクターを含む複数のプロジェクターにより画像を投写する画像投写システムであって、前記第2のプロジェクターは、第2の識別画像を投写する第2の投写部を備え、前記第1のプロジェクターは、前記第2の識別画像を撮像して第1の撮像画像を生成する第1の撮像部と、前記第1の撮像部によって生成された前記第1の撮像画像に基づいて、第1の外部情報を取得する第1の取得部と、第1の内部情報を記憶する第1の記憶部と、前記第1の取得部によって取得された前記第1の外部情報と、前記第1の記憶部に記憶されている前記第1の内部情報とに基づいて、第1の識別画像を生成する第1の生成部と、前記第1の生成部によって生成された前記第1の識別画像を投写する第1の投写部と、を備えることを特徴とする。   The image projection system is an image projection system that projects an image by a plurality of projectors including a first projector and a second projector, and the second projector projects a second identification image. A first imaging unit configured to capture the second identification image and generate a first captured image; and the first projector generated by the first imaging unit. Based on the captured image, a first acquisition unit that acquires first external information, a first storage unit that stores first internal information, and the first acquisition unit that is acquired by the first acquisition unit. Based on the external information and the first internal information stored in the first storage unit, the first generation unit that generates the first identification image and the first generation unit generate the first identification image. Projecting the first identification image A first projection portion that, characterized in that it comprises a.

この構成によれば、複数のプロジェクターにより画像を投写する画像投写システムにおいて、第1のプロジェクターは、第2のプロジェクターが投写した第2の識別画像を撮像し、第1の外部情報を取得する。そして、第1のプロジェクターは、取得した第1の外部情報と、自身が記憶している第1の内部情報とに基づいて第1の識別画像を生成して投写する。つまり、識別画像の投写と撮像とを行うことによって、自身が取得した情報や自身が記憶する情報を、自身以外のプロジェクターに伝達することが可能となるため、情報を伝達するためにネットワーク等を介して通信を行う必要がなくなる。   According to this configuration, in the image projection system that projects an image using a plurality of projectors, the first projector captures the second identification image projected by the second projector and acquires the first external information. Then, the first projector generates and projects a first identification image based on the acquired first external information and the first internal information stored in itself. In other words, by projecting and capturing an identification image, it is possible to transmit information acquired by itself or information stored by itself to projectors other than itself, so a network or the like may be used to transmit information. There is no need to communicate through the network.

上記の画像投写システムにおいて、前記第2のプロジェクターは、前記第2の識別画像を生成する第2の生成部と、前記第1の識別画像を撮像して第2の撮像画像を生成する第2の撮像部と、前記第2の撮像画像に基づいて、第2の外部情報を取得する第2の取得部と、第2の内部情報を記憶する第2の記憶部と、を備え、前記第2の生成部は、前記第2の取得部によって取得された前記第2の外部情報と、前記第2の記憶部に記憶されている前記第2の内部情報とに基づいて、前記第2の識別画像を更新し、前記第2の投写部は、更新後の前記第2の識別画像を投写することが望ましい。   In the image projection system, the second projector includes a second generation unit that generates the second identification image, and a second generation unit that captures the first identification image and generates a second captured image. An imaging unit, a second acquisition unit that acquires second external information based on the second captured image, and a second storage unit that stores second internal information. The second generation unit, based on the second external information acquired by the second acquisition unit and the second internal information stored in the second storage unit, It is desirable that the identification image is updated and the second projection unit projects the updated second identification image.

この構成によれば、第1のプロジェクターは、第2のプロジェクターが投写した第2の識別画像に基づいて第1の識別画像を生成し、第2のプロジェクターは、第1の識別画像に基づいて第2の識別画像を生成(更新)する。このため、双方のプロジェクターは、他方のプロジェクターが記憶する情報に基づいて識別画像を生成することが可能となる。   According to this configuration, the first projector generates a first identification image based on the second identification image projected by the second projector, and the second projector based on the first identification image. A second identification image is generated (updated). Therefore, both projectors can generate an identification image based on information stored in the other projector.

上記の画像投写システムにおいて、前記第1の撮像部は、更新後の前記第2の識別画像を撮像して前記第1の撮像画像を生成し、前記第1の生成部は、前記第1の撮像画像から取得される前記第1の外部情報に基づいて、前記第1の識別画像を更新し、前記第1の投写部は、更新後の前記第1の識別画像を投写することが望ましい。   In the image projection system, the first imaging unit captures the updated second identification image to generate the first captured image, and the first generation unit includes the first imaging unit. It is desirable that the first identification image is updated based on the first external information acquired from the captured image, and the first projection unit projects the updated first identification image.

この構成によれば、第2のプロジェクターは、第1のプロジェクターが投写した第1の識別画像に基づいて第2の識別画像を更新し、第1のプロジェクターは、第2のプロジェクターが更新した第2の識別画像に基づいて、第1の識別画像を更新する。このため、双方のプロジェクターは、他方のプロジェクターの更新内容を反映させた最新の識別画像を生成することが可能となる。   According to this configuration, the second projector updates the second identification image based on the first identification image projected by the first projector, and the first projector updates the second identification image updated by the second projector. The first identification image is updated based on the second identification image. For this reason, both projectors can generate the latest identification image reflecting the update contents of the other projector.

上記の画像投写システムにおいて、前記第1のプロジェクターが投写した前記第1の識別画像を撮像する第3のプロジェクターをさらに備えることが望ましい。   The image projection system preferably further includes a third projector that captures the first identification image projected by the first projector.

この構成によれば、第1のプロジェクターは、自身が記憶する情報や、第2のプロジェクターから取得した情報を第3のプロジェクターに伝達することが可能となる。   According to this configuration, the first projector can transmit information stored by itself and information acquired from the second projector to the third projector.

上記の画像投写システムにおいて、前記第1の内部情報には、前記複数のプロジェクターが投写する画像の配列に関する配列情報が含まれており、前記第1の取得部は、前記第1の撮像画像における前記第2の識別画像の位置に基づいて、前記第1のプロジェクターが投写する画像に対する前記第2のプロジェクターが投写する画像の相対位置を、前記第1の外部情報として取得し、前記第1の生成部は、取得した前記相対位置に基づいて前記配列情報を更新し、更新後の前記配列情報に基づいて前記第1の識別画像を生成することが望ましい。   In the image projection system, the first internal information includes arrangement information related to an arrangement of images projected by the plurality of projectors, and the first acquisition unit includes the first captured image in the first captured image. Based on the position of the second identification image, the relative position of the image projected by the second projector with respect to the image projected by the first projector is acquired as the first external information, and the first It is desirable that the generation unit updates the array information based on the acquired relative position, and generates the first identification image based on the updated array information.

この構成によれば、第1のプロジェクターは、複数のプロジェクターが投写する画像の配列に関する配列情報を、取得した相対位置に基づいて更新し、更新した配列情報に基づいて第1の識別画像を生成するため、自身が更新した配列情報を、自身以外のプロジェクターに伝達することが可能となる。   According to this configuration, the first projector updates the arrangement information related to the arrangement of the images projected by the plurality of projectors based on the acquired relative position, and generates the first identification image based on the updated arrangement information. Therefore, it is possible to transmit the array information updated by itself to projectors other than itself.

上記の画像投写システムにおいて、前記第1のプロジェクターは、前記第1の投写部から投写する画像の色及び明るさの少なくとも一方を測定する第1の測定部をさらに備え、前記第2のプロジェクターは、前記第2の投写部から投写する画像の色及び明るさの少なくとも一方を測定する第2の測定部をさらに備え、前記第2の識別画像には、前記第2の測定部による測定結果に応じた第2の測定情報が格納されており、前記第1の内部情報には、前記第1の測定部による測定結果に応じた第1の測定情報が含まれており、前記第1の取得部は、前記第1の外部情報として、前記第2の測定情報を取得し、前記第1の生成部は、取得された前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第1の識別画像を生成することが望ましい。   In the image projection system, the first projector further includes a first measurement unit that measures at least one of color and brightness of an image projected from the first projection unit, and the second projector includes: And a second measuring unit that measures at least one of color and brightness of an image projected from the second projecting unit, and the second identification image includes a measurement result by the second measuring unit. Corresponding second measurement information is stored, and the first internal information includes first measurement information according to a measurement result by the first measurement unit, and the first acquisition is performed. The unit acquires the second measurement information as the first external information, and the first generation unit is based on the acquired second measurement information and the first measurement information. Desirably, generating the first identification image There.

この構成によれば、第1のプロジェクターは、第2のプロジェクターの測定結果に応じた第2の測定情報を第2の識別画像から取得し、取得した第2の測定情報と、自身の測定結果に応じた第1の測定情報とに基づいて第1の識別画像を生成するため、第1のプロジェクターの測定結果と、第2のプロジェクターの測定結果の双方を、別のプロジェクターに伝達したり、双方の測定結果に基づいて決定した情報(例えば、補正情報)を第2のプロジェクターに伝達したりすることが可能となる。   According to this configuration, the first projector acquires the second measurement information corresponding to the measurement result of the second projector from the second identification image, the acquired second measurement information, and its own measurement result. In order to generate the first identification image based on the first measurement information according to, both the measurement result of the first projector and the measurement result of the second projector are transmitted to another projector, Information (for example, correction information) determined based on both measurement results can be transmitted to the second projector.

上記の画像投写システムにおいて、前記第2のプロジェクターは、前記第2の投写部から投写する画像の色及び明るさの少なくとも一方を補正する補正部をさらに備え、前記第1の生成部は、取得された前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第2の投写部から投写する画像を補正するための補正情報を決定し、決定した前記補正情報に基づいて前記第1の識別画像を生成し、前記第2の取得部は、前記第2の外部情報として前記補正情報を取得し、前記補正部は、前記第2の取得部が取得した前記補正情報に基づいて前記画像を補正することが望ましい。   In the image projection system, the second projector further includes a correction unit that corrects at least one of a color and brightness of an image projected from the second projection unit, and the first generation unit includes the acquisition unit. Correction information for correcting an image projected from the second projection unit is determined based on the second measurement information and the first measurement information, and based on the determined correction information The first identification image is generated, the second acquisition unit acquires the correction information as the second external information, and the correction unit adds the correction information acquired by the second acquisition unit to the correction information. It is desirable to correct the image based on it.

この構成によれば、第1のプロジェクターは、第1のプロジェクター及び第2のプロジェクターの双方の測定結果に基づいて補正情報を決定し、第2のプロジェクターは、第1のプロジェクターで決定された補正情報に基づいて画像を補正することが可能となる。   According to this configuration, the first projector determines correction information based on the measurement results of both the first projector and the second projector, and the second projector corrects the correction determined by the first projector. The image can be corrected based on the information.

プロジェクターは、複数のプロジェクターにより画像を投写する画像投写システムに備わるプロジェクターであって、他のプロジェクターが投写する第2の識別画像を撮像して撮像画像を生成する撮像部と、前記撮像部によって生成された前記撮像画像に基づいて、外部情報を取得する取得部と、内部情報を記憶する記憶部と、前記取得部によって取得された前記外部情報と、前記記憶部に記憶されている前記内部情報とに基づいて、第1の識別画像を生成する生成部と、前記生成部によって生成された前記第1の識別画像を投写する投写部と、を備えたことを特徴とする。   The projector is a projector provided in an image projection system that projects an image by a plurality of projectors, and captures a second identification image projected by another projector to generate a captured image, and is generated by the imaging unit. An acquisition unit that acquires external information based on the captured image, a storage unit that stores internal information, the external information acquired by the acquisition unit, and the internal information stored in the storage unit And a projection unit for projecting the first identification image generated by the generation unit. The generation unit generates a first identification image based on the above.

この構成によれば、複数のプロジェクターにより画像を投写する画像投写システムにおいて、プロジェクターは、他のプロジェクターが投写した第2の識別画像を撮像し、外部情報を取得する。そして、プロジェクターは、取得した外部情報と、自身が記憶している内部情報とに基づいて第1の識別画像を生成して投写する。つまり、識別画像の投写と撮像とを行うことによって、自身が取得した情報や自身が記憶する情報を、自身以外のプロジェクターに伝達することが可能となるため、情報を伝達するためにネットワーク等を介して通信を行う必要がなくなる。   According to this configuration, in an image projection system that projects an image using a plurality of projectors, the projector captures the second identification image projected by another projector and acquires external information. Then, the projector generates and projects a first identification image based on the acquired external information and the internal information stored therein. In other words, by projecting and capturing an identification image, it is possible to transmit information acquired by itself or information stored by itself to projectors other than itself, so a network or the like may be used to transmit information. There is no need to communicate through the network.

上記のプロジェクターにおいて、前記内部情報には、前記複数のプロジェクターが投写する画像の配列に関する配列情報が含まれており、前記取得部は、前記撮像画像における前記第2の識別画像の位置に基づいて、当該プロジェクターが投写する画像に対する前記他のプロジェクターが投写する画像の相対位置を、前記外部情報として取得し、前記生成部は、前記取得部によって取得された前記相対位置に基づいて前記配列情報を更新し、更新後の前記配列情報に基づいて前記第1の識別画像を生成することが望ましい。   In the projector described above, the internal information includes arrangement information related to an arrangement of images projected by the plurality of projectors, and the acquisition unit is based on the position of the second identification image in the captured image. The relative position of the image projected by the other projector with respect to the image projected by the projector is acquired as the external information, and the generation unit obtains the arrangement information based on the relative position acquired by the acquisition unit. It is desirable to update and generate the first identification image based on the updated arrangement information.

この構成によれば、プロジェクターは、複数のプロジェクターが投写する画像の配列に関する配列情報を、取得した相対位置に基づいて更新し、更新した配列情報に基づいて第1の識別画像を生成するため、自身が更新した配列情報を、自身以外のプロジェクターに伝達することが可能となる。   According to this configuration, the projector updates the arrangement information related to the arrangement of the images projected by the plurality of projectors based on the acquired relative position, and generates the first identification image based on the updated arrangement information. It becomes possible to transmit the array information updated by itself to projectors other than itself.

上記のプロジェクターにおいて、前記投写部から投写する画像の色及び明るさの少なくとも一方を測定する測定部をさらに備え、前記第2の識別画像には、前記他のプロジェクターが投写する画像の色及び明るさの少なくとも一方を測定した測定結果に応じた第2の測定情報が格納されており、前記内部情報には、前記測定部による測定結果に応じた第1の測定情報が含まれており、前記取得部は、前記外部情報として、前記第2の測定情報を取得し、前記生成部は、取得された前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第1の識別画像を生成することが望ましい。   The projector may further include a measurement unit that measures at least one of color and brightness of an image projected from the projection unit, and the second identification image includes the color and brightness of an image projected by the other projector. Second measurement information according to a measurement result obtained by measuring at least one of the lengths is stored, and the internal information includes first measurement information according to a measurement result by the measurement unit, The acquisition unit acquires the second measurement information as the external information, and the generation unit is configured to generate the first measurement information based on the acquired second measurement information and the first measurement information. It is desirable to generate an identification image.

この構成によれば、プロジェクターは、他のプロジェクターの測定結果に応じた第2の測定情報を第2の識別画像から取得し、取得した第2の測定情報と、自身の測定結果に応じた第1の測定情報とに基づいて第1の識別画像を生成するため、当該プロジェクターの測定結果と、他のプロジェクターの測定結果の双方を、別のプロジェクターに伝達したり、双方の測定結果に基づいて決定した情報(例えば、補正情報)を上記の他のプロジェクターに伝達したりすることが可能となる。   According to this configuration, the projector acquires the second measurement information according to the measurement results of the other projectors from the second identification image, and the acquired second measurement information and the first measurement information according to its own measurement result. In order to generate the first identification image based on the measurement information of one, both the measurement result of the projector and the measurement result of the other projector are transmitted to another projector, or based on the measurement results of both It is possible to transmit the determined information (for example, correction information) to the other projector.

1,1a〜1i…プロジェクター、2…リモコン、3…画像供給装置、10…制御部、11…記憶部、12…入力操作部、13…リモコン信号受信部、14…撮像部、15…画像情報入力部、16…画像情報処理部、17…画像投写部、18…QRコード生成部、19…QRコード解析部、21…光源、22R,22G,22B…液晶ライトバルブ、22i…画素領域、23…投写光学系、24…ライトバルブ駆動部、31…識別情報、32…データテーブル、100…画像投写システム、200〜204…QRコード、A1…第1領域、A2…第2領域、A3…第3領域、A4…第4領域、Ao…重畳領域、C1…第1項目、C2…第2項目、C3…第3項目、C4…第4項目、C5…第5項目、L1…第1データ列、L2…第2データ列、L3…第3データ列、P1〜P8…表示位置、Pa…投写画像、Pd,Pd1〜Pd6…部分画像、Sp…投写面。   DESCRIPTION OF SYMBOLS 1,1a-1i ... Projector, 2 ... Remote control, 3 ... Image supply apparatus, 10 ... Control part, 11 ... Memory | storage part, 12 ... Input operation part, 13 ... Remote control signal receiving part, 14 ... Imaging part, 15 ... Image information Input unit, 16 ... image information processing unit, 17 ... image projection unit, 18 ... QR code generation unit, 19 ... QR code analysis unit, 21 ... light source, 22R, 22G, 22B ... liquid crystal light valve, 22i ... pixel region, 23 DESCRIPTION OF SYMBOLS ... Projection optical system, 24 ... Light valve drive part, 31 ... Identification information, 32 ... Data table, 100 ... Image projection system, 200-204 ... QR code, A1 ... 1st area | region, A2 ... 2nd area | region, A3 ... 1st 3 area, A4 ... 4th area, Ao ... superimposed area, C1 ... 1st item, C2 ... 2nd item, C3 ... 3rd item, C4 ... 4th item, C5 ... 5th item, L1 ... 1st data string , L2 ... second data string L3 ... third data string, P1 to P8 ... display position, Pa ... projected image, Pd, Pd1~Pd6 ... partial image, Sp ... projection surface.

Claims (17)

第1のプロジェクター及び第2のプロジェクターを含む複数のプロジェクターにより画像を投写する画像投写システムの制御方法であって、
前記第2のプロジェクターにより、第2の識別画像を投写し、
前記第1のプロジェクターにおいて、前記第2の識別画像を撮像して第1の撮像画像を生成し、
前記第1のプロジェクターにおいて、生成した前記第1の撮像画像に基づいて、第1の外部情報を取得し、
前記第1のプロジェクターにおいて、取得した前記第1の外部情報と、前記第1のプロジェクターが記憶する第1の内部情報とに基づいて、第1の識別画像を生成し、
前記第1のプロジェクターにより、生成した前記第1の識別画像を投写することを特徴とする画像投写システムの制御方法。
A control method of an image projection system for projecting an image by a plurality of projectors including a first projector and a second projector,
Projecting a second identification image by the second projector,
In the first projector, the second identification image is captured to generate a first captured image,
In the first projector, first external information is acquired based on the generated first captured image,
The first projector generates a first identification image based on the acquired first external information and the first internal information stored in the first projector,
A control method for an image projection system, wherein the generated first identification image is projected by the first projector.
請求項1に記載の画像投写システムの制御方法であって、
前記第2のプロジェクターにおいて、前記第1の識別画像を撮像して第2の撮像画像を生成し、
前記第2のプロジェクターにおいて、生成した前記第2の撮像画像に基づいて、第2の外部情報を取得し、
前記第2のプロジェクターにおいて、取得した前記第2の外部情報と、前記第2のプロジェクターが記憶する第2の内部情報とに基づいて、前記第2の識別画像を更新し、
前記第2のプロジェクターにより、更新後の前記第2の識別画像を投写することを特徴とする画像投写システムの制御方法。
A control method for an image projection system according to claim 1,
In the second projector, the first identification image is captured to generate a second captured image,
The second projector acquires second external information based on the generated second captured image,
In the second projector, the second identification image is updated based on the acquired second external information and second internal information stored in the second projector,
A control method for an image projection system, wherein the second projector projects the updated second identification image by the second projector.
請求項2に記載の画像投写システムの制御方法であって、
前記第1のプロジェクターにおいて、更新後の前記第2の識別画像を撮像して前記第1の撮像画像を生成し、
前記第1のプロジェクターにおいて、前記第1の撮像画像から取得される前記第1の外部情報に基づいて、前記第1の識別画像を更新し、
前記第1のプロジェクターにより、更新後の前記第1の識別画像を投写することを特徴とする画像投写システムの制御方法。
A control method for an image projection system according to claim 2,
In the first projector, the updated second identification image is captured to generate the first captured image,
In the first projector, based on the first external information acquired from the first captured image, the first identification image is updated,
An image projection system control method, wherein the first projector projects the updated first identification image by the first projector.
請求項1〜3のいずれか一項に記載の画像投写システムの制御方法であって、
前記画像投写システムは、第3のプロジェクターをさらに備え、
前記第3のプロジェクターにおいて、前記第1のプロジェクターが投写した前記第1の識別画像を撮像することを特徴とする画像投写システムの制御方法。
A control method for an image projection system according to any one of claims 1 to 3,
The image projection system further includes a third projector,
A control method for an image projection system, wherein the third projector captures the first identification image projected by the first projector.
請求項1〜4のいずれか一項に記載の画像投写システムの制御方法であって、
前記第1の内部情報には、前記複数のプロジェクターが投写する画像の配列に関する配列情報が含まれており、
前記第1のプロジェクターにおいて、前記第1の撮像画像における前記第2の識別画像の位置に基づいて、前記第1のプロジェクターが投写する画像に対する前記第2のプロジェクターが投写する画像の相対位置を、前記第1の外部情報として取得し、
前記第1のプロジェクターにおいて、取得した前記第1の外部情報に基づいて、前記配列情報を更新し、更新後の前記配列情報に基づいて前記第1の識別画像を生成することを特徴とする画像投写システムの制御方法。
A control method for an image projection system according to any one of claims 1 to 4,
The first internal information includes arrangement information related to an arrangement of images projected by the plurality of projectors,
In the first projector, based on the position of the second identification image in the first captured image, the relative position of the image projected by the second projector with respect to the image projected by the first projector is determined. Obtaining as the first external information,
In the first projector, the array information is updated based on the acquired first external information, and the first identification image is generated based on the updated array information. Projection system control method.
請求項1〜4のいずれか一項に記載の画像投写システムの制御方法であって、
前記第1のプロジェクターにおいて、投写する画像の色及び明るさの少なくとも一方を測定し、測定結果に応じた第1の測定情報を前記内部情報として記憶し、
前記第2のプロジェクターにおいて、投写する画像の色及び明るさの少なくとも一方を測定し、測定結果に応じた第2の測定情報が格納された前記第2の識別画像を生成して投写し、
前記第1のプロジェクターにおいて、前記第1の外部情報として、前記第2の測定情報を取得し、
前記第1のプロジェクターにおいて、取得した前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第1の識別画像を生成することを特徴とする画像投写システムの制御方法。
A control method for an image projection system according to any one of claims 1 to 4,
In the first projector, at least one of color and brightness of an image to be projected is measured, and first measurement information corresponding to a measurement result is stored as the internal information.
The second projector measures at least one of the color and brightness of an image to be projected, generates and projects the second identification image in which second measurement information corresponding to the measurement result is stored,
In the first projector, the second measurement information is acquired as the first external information,
A control method for an image projection system, characterized in that, in the first projector, the first identification image is generated based on the acquired second measurement information and the first measurement information.
請求項6に記載の画像投写システムの制御方法であって、
前記第1のプロジェクターにおいて、取得した前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第2のプロジェクターが投写する画像を補正するための補正情報を決定し、決定した補正情報に基づいて前記第1の識別画像を生成し、
前記第2のプロジェクターにおいて、前記第1の識別画像を撮像して前記補正情報を取得し、取得した前記補正情報に基づいて前記画像を補正することを特徴とする画像投写システムの制御方法。
A control method for an image projection system according to claim 6,
In the first projector, correction information for correcting an image projected by the second projector is determined and determined based on the acquired second measurement information and the first measurement information. Generating the first identification image based on the correction information;
A control method for an image projection system, wherein the second projector captures the first identification image to acquire the correction information, and corrects the image based on the acquired correction information.
第1のプロジェクター及び第2のプロジェクターを含む複数のプロジェクターにより画像を投写する画像投写システムであって、
前記第2のプロジェクターは、第2の識別画像を投写する第2の投写部を備え、
前記第1のプロジェクターは、
前記第2の識別画像を撮像して第1の撮像画像を生成する第1の撮像部と、
前記第1の撮像部によって生成された前記第1の撮像画像に基づいて、第1の外部情報を取得する第1の取得部と、
第1の内部情報を記憶する第1の記憶部と、
前記第1の取得部によって取得された前記第1の外部情報と、前記第1の記憶部に記憶されている前記第1の内部情報とに基づいて、第1の識別画像を生成する第1の生成部と、
前記第1の生成部によって生成された前記第1の識別画像を投写する第1の投写部と、
を備えることを特徴とする画像投写システム。
An image projection system for projecting an image by a plurality of projectors including a first projector and a second projector,
The second projector includes a second projection unit that projects a second identification image,
The first projector is
A first imaging unit that captures the second identification image to generate a first captured image;
A first acquisition unit that acquires first external information based on the first captured image generated by the first imaging unit;
A first storage unit for storing first internal information;
First generating a first identification image based on the first external information acquired by the first acquisition unit and the first internal information stored in the first storage unit A generator of
A first projection unit that projects the first identification image generated by the first generation unit;
An image projection system comprising:
請求項8に記載の画像投写システムであって、
前記第2のプロジェクターは、
前記第2の識別画像を生成する第2の生成部と、
前記第1の識別画像を撮像して第2の撮像画像を生成する第2の撮像部と、
前記第2の撮像画像に基づいて、第2の外部情報を取得する第2の取得部と、
第2の内部情報を記憶する第2の記憶部と、を備え、
前記第2の生成部は、前記第2の取得部によって取得された前記第2の外部情報と、前記第2の記憶部に記憶されている前記第2の内部情報とに基づいて、前記第2の識別画像を更新し、
前記第2の投写部は、更新後の前記第2の識別画像を投写することを特徴とする画像投写システム。
The image projection system according to claim 8, wherein
The second projector is
A second generator for generating the second identification image;
A second imaging unit that captures the first identification image to generate a second captured image;
A second acquisition unit that acquires second external information based on the second captured image;
A second storage unit for storing second internal information,
The second generation unit is configured to generate the second external information based on the second external information acquired by the second acquisition unit and the second internal information stored in the second storage unit. 2 update the identification image,
The image projection system, wherein the second projection unit projects the updated second identification image.
請求項9に記載の画像投写システムであって、
前記第1の撮像部は、更新後の前記第2の識別画像を撮像して前記第1の撮像画像を生成し、
前記第1の生成部は、前記第1の撮像画像から取得される前記第1の外部情報に基づいて、前記第1の識別画像を更新し、
前記第1の投写部は、更新後の前記第1の識別画像を投写することを特徴とする画像投写システム。
The image projection system according to claim 9,
The first imaging unit captures the updated second identification image to generate the first captured image,
The first generation unit updates the first identification image based on the first external information acquired from the first captured image,
The image projection system, wherein the first projection unit projects the updated first identification image.
請求項8〜10のいずれか一項に記載の画像投写システムであって、
前記第1のプロジェクターが投写した前記第1の識別画像を撮像する第3のプロジェクターをさらに備えたことを特徴とする画像投写システム。
The image projection system according to any one of claims 8 to 10,
An image projection system, further comprising a third projector that captures the first identification image projected by the first projector.
請求項8〜11のいずれか一項に記載の画像投写システムであって、
前記第1の内部情報には、前記複数のプロジェクターが投写する画像の配列に関する配列情報が含まれており、
前記第1の取得部は、前記第1の撮像画像における前記第2の識別画像の位置に基づいて、前記第1のプロジェクターが投写する画像に対する前記第2のプロジェクターが投写する画像の相対位置を、前記第1の外部情報として取得し、
前記第1の生成部は、取得した前記相対位置に基づいて前記配列情報を更新し、更新後の前記配列情報に基づいて前記第1の識別画像を生成することを特徴とする画像投写システム。
The image projection system according to any one of claims 8 to 11,
The first internal information includes arrangement information related to an arrangement of images projected by the plurality of projectors,
The first acquisition unit calculates a relative position of an image projected by the second projector with respect to an image projected by the first projector based on a position of the second identification image in the first captured image. , Acquired as the first external information,
The first generation unit updates the array information based on the acquired relative position, and generates the first identification image based on the updated array information.
請求項8〜11のいずれか一項に記載の画像投写システムであって、
前記第1のプロジェクターは、前記第1の投写部から投写する画像の色及び明るさの少なくとも一方を測定する第1の測定部をさらに備え、
前記第2のプロジェクターは、前記第2の投写部から投写する画像の色及び明るさの少なくとも一方を測定する第2の測定部をさらに備え、
前記第2の識別画像には、前記第2の測定部による測定結果に応じた第2の測定情報が格納されており、
前記第1の内部情報には、前記第1の測定部による測定結果に応じた第1の測定情報が含まれており、
前記第1の取得部は、前記第1の外部情報として、前記第2の測定情報を取得し、
前記第1の生成部は、取得された前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第1の識別画像を生成することを特徴とする画像投写システム。
The image projection system according to any one of claims 8 to 11,
The first projector further includes a first measurement unit that measures at least one of color and brightness of an image projected from the first projection unit,
The second projector further includes a second measurement unit that measures at least one of color and brightness of an image projected from the second projection unit,
In the second identification image, second measurement information according to a measurement result by the second measurement unit is stored,
The first internal information includes first measurement information corresponding to a measurement result by the first measurement unit,
The first acquisition unit acquires the second measurement information as the first external information,
The first generation unit generates the first identification image based on the acquired second measurement information and the first measurement information.
請求項13に記載の画像投写システムであって、
前記第2のプロジェクターは、前記第2の投写部から投写する画像の色及び明るさの少なくとも一方を補正する補正部をさらに備え、
前記第1の生成部は、取得された前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第2の投写部から投写する画像を補正するための補正情報を決定し、決定した前記補正情報に基づいて前記第1の識別画像を生成し、
前記第2の取得部は、前記第2の外部情報として前記補正情報を取得し、
前記補正部は、前記第2の取得部が取得した前記補正情報に基づいて前記画像を補正することを特徴とする画像投写システム。
The image projection system according to claim 13,
The second projector further includes a correction unit that corrects at least one of color and brightness of an image projected from the second projection unit,
The first generation unit determines correction information for correcting an image projected from the second projection unit based on the acquired second measurement information and the first measurement information. Generating the first identification image based on the determined correction information;
The second acquisition unit acquires the correction information as the second external information,
The image projection system, wherein the correction unit corrects the image based on the correction information acquired by the second acquisition unit.
複数のプロジェクターにより画像を投写する画像投写システムに備わるプロジェクターであって、
他のプロジェクターが投写する第2の識別画像を撮像して撮像画像を生成する撮像部と、
前記撮像部によって生成された前記撮像画像に基づいて、外部情報を取得する取得部と、
内部情報を記憶する記憶部と、
前記取得部によって取得された前記外部情報と、前記記憶部に記憶されている前記内部情報とに基づいて、第1の識別画像を生成する生成部と、
前記生成部によって生成された前記第1の識別画像を投写する投写部と、
を備えたことを特徴とするプロジェクター。
A projector provided in an image projection system that projects an image by a plurality of projectors,
An imaging unit that captures a second identification image projected by another projector and generates a captured image;
An acquisition unit that acquires external information based on the captured image generated by the imaging unit;
A storage unit for storing internal information;
A generating unit that generates a first identification image based on the external information acquired by the acquiring unit and the internal information stored in the storage unit;
A projection unit that projects the first identification image generated by the generation unit;
A projector characterized by comprising:
請求項15に記載のプロジェクターであって、
前記内部情報には、前記複数のプロジェクターが投写する画像の配列に関する配列情報が含まれており、
前記取得部は、前記撮像画像における前記第2の識別画像の位置に基づいて、当該プロジェクターが投写する画像に対する前記他のプロジェクターが投写する画像の相対位置を、前記外部情報として取得し、
前記生成部は、前記取得部によって取得された前記相対位置に基づいて前記配列情報を更新し、更新後の前記配列情報に基づいて前記第1の識別画像を生成することを特徴とするプロジェクター。
The projector according to claim 15, wherein
The internal information includes arrangement information relating to an arrangement of images projected by the plurality of projectors,
The acquisition unit acquires, as the external information, a relative position of an image projected by the other projector with respect to an image projected by the projector based on the position of the second identification image in the captured image,
The projector updates the array information based on the relative position acquired by the acquisition unit, and generates the first identification image based on the updated array information.
請求項15又は16に記載のプロジェクターであって、
前記投写部から投写する画像の色及び明るさの少なくとも一方を測定する測定部をさらに備え、
前記第2の識別画像には、前記他のプロジェクターが投写する画像の色及び明るさの少なくとも一方を測定した測定結果に応じた第2の測定情報が格納されており、
前記内部情報には、前記測定部による測定結果に応じた第1の測定情報が含まれており、
前記取得部は、前記外部情報として、前記第2の測定情報を取得し、
前記生成部は、取得された前記第2の測定情報と、前記第1の測定情報とに基づいて、前記第1の識別画像を生成することを特徴とするプロジェクター。
The projector according to claim 15 or 16, wherein
A measuring unit for measuring at least one of color and brightness of an image projected from the projection unit;
In the second identification image, second measurement information corresponding to a measurement result obtained by measuring at least one of a color and brightness of an image projected by the other projector is stored.
The internal information includes first measurement information according to a measurement result by the measurement unit,
The acquisition unit acquires the second measurement information as the external information,
The generation unit generates the first identification image based on the acquired second measurement information and the first measurement information.
JP2018090386A 2018-05-09 2018-05-09 Control method for image projection system, image projection system, and projectors Pending JP2019197122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018090386A JP2019197122A (en) 2018-05-09 2018-05-09 Control method for image projection system, image projection system, and projectors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018090386A JP2019197122A (en) 2018-05-09 2018-05-09 Control method for image projection system, image projection system, and projectors

Publications (1)

Publication Number Publication Date
JP2019197122A true JP2019197122A (en) 2019-11-14

Family

ID=68538729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018090386A Pending JP2019197122A (en) 2018-05-09 2018-05-09 Control method for image projection system, image projection system, and projectors

Country Status (1)

Country Link
JP (1) JP2019197122A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556521A (en) * 2020-04-23 2021-10-26 青岛海信激光显示股份有限公司 Projection image correction method and projection system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556521A (en) * 2020-04-23 2021-10-26 青岛海信激光显示股份有限公司 Projection image correction method and projection system
CN113556521B (en) * 2020-04-23 2024-03-26 青岛海信激光显示股份有限公司 Projection image correction method and projection system

Similar Documents

Publication Publication Date Title
US10341626B2 (en) Image projection system, projector, and control method for image projection system
US8523366B2 (en) Projector having projection condition control unit that performs projection condition control based on projected test image
JP7022323B2 (en) Image display system, image display device and control method of image display system
JP6897386B2 (en) Multi-projection system, projector and projector control method
JP6926948B2 (en) Projector, image projection system, and projector control method
US8648964B2 (en) Multi-projection display system and method of adjusting brightness thereof
JP6365079B2 (en) Projector and projector adjustment method
JP6809292B2 (en) Projector and projector control method
US10638100B2 (en) Projector, multi-projection system, and method for controlling projector
US20180196339A1 (en) Display device and control method
JP2019045549A (en) Image projection system, terminal device, and control method for image projection system
JP2012118289A (en) Projection type image display device
JP2019024180A (en) Projector, multi-projection system, and method for controlling projector
JP2019197122A (en) Control method for image projection system, image projection system, and projectors
JP2012018214A (en) Projection type video display device
KR20090012119A (en) Projection display apparatus
JP2011133669A (en) Projection type video display device
JP7176190B2 (en) IMAGE DISPLAY DEVICE, IMAGE DISPLAY SYSTEM, AND IMAGE DISPLAY DEVICE CONTROL METHOD
CN113630588B (en) Control method of image projection system and image projection system
JP7484309B2 (en) Image projection system and method for controlling image projection system
JP5605473B2 (en) Projection display device
WO2020170663A1 (en) Projecting device, and control method and control program for same
JP2013085159A (en) Projector and control method of the same
JP2009031443A (en) Projection type display device
JP2022100661A (en) Control method of projector, projector, and image projection system

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180907

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181120

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200803