JP2020031291A - Projection system - Google Patents

Projection system Download PDF

Info

Publication number
JP2020031291A
JP2020031291A JP2018154357A JP2018154357A JP2020031291A JP 2020031291 A JP2020031291 A JP 2020031291A JP 2018154357 A JP2018154357 A JP 2018154357A JP 2018154357 A JP2018154357 A JP 2018154357A JP 2020031291 A JP2020031291 A JP 2020031291A
Authority
JP
Japan
Prior art keywords
camera
projectors
brightness
cpu
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018154357A
Other languages
Japanese (ja)
Inventor
英司 竹内
Hideji Takeuchi
英司 竹内
巽 栄作
Eisaku Tatsumi
栄作 巽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018154357A priority Critical patent/JP2020031291A/en
Publication of JP2020031291A publication Critical patent/JP2020031291A/en
Pending legal-status Critical Current

Links

Abstract

To reduce a trouble of a user who previously installs a camera at an appropriate position in determining a camera exposure value suitable for a projected image.SOLUTION: The projection system includes: a plurality of projectors; a camera capable of imaging a projection plane to which the projectors project; and one or more control units for controlling the projectors and the camera. The control units are configured to obtain brightness of a predetermined area by the camera for the projectors of the number of the projectors in a state where a pattern is projected only by one of the projectors and determine exposure time of the camera on the basis of a value between the maximum and the minimum of the obtained brightness of the projectors.SELECTED DRAWING: Figure 2

Description

本発明は、複数のプロジェクタの投影制御する投影システムに関する。   The present invention relates to a projection system that controls projection of a plurality of projectors.

投影画面の高解像度化、大画面化のために、プロジェクタを複数用いたマルチ投影という方法が知られている。マルチ投影とは、複数のプロジェクタの投影画面を繋ぎ合わせて、一つの画面を表示する方法である。また、複数のプロジェクタが同じ画像を同一箇所に重畳させるように投影することで、高輝度化を図るスタック投影という方法が知られている。   A multi-projection method using a plurality of projectors has been known in order to increase the resolution and the size of a projection screen. Multi-projection is a method of connecting projection screens of a plurality of projectors to display one screen. In addition, there is known a method called stack projection for achieving high luminance by projecting a plurality of projectors so as to superimpose the same image on the same location.

マルチ投影やスタック投影を実施する場合、重畳領域を厳密に合わせる作業が煩雑であるため、作業の自動化が求められている。補正の自動化として、プロジェクタの投影画像をカメラで撮像し、撮影画像を解析することで、プロジェクタの投影の位置や形状を自動で変更する方法が知られている。このとき、プロジェクタの投影画像を適切に撮像するために、カメラの露出を適切に決定することが求められる。   When performing multi-projection or stack projection, it is complicated to strictly adjust the superimposed region, and thus automation of the operation is required. As a method of automating the correction, a method is known in which a projection image of a projector is captured by a camera, and the captured image is analyzed to automatically change the position and shape of the projection of the projector. At this time, it is necessary to appropriately determine the exposure of the camera in order to appropriately capture the image projected by the projector.

特許文献1には、投影画像を撮像することでカメラの露出値を適切に決定する手法が提案されている。   Patent Literature 1 proposes a method of appropriately determining an exposure value of a camera by capturing a projection image.

特開2006−47338号公報JP 2006-47338 A

しかし、複数のプロジェクタと1台のカメラを用いるシステムにおいては、カメラの露出値を適切に決定するために、予め適切な位置にカメラを設置することがユーザにとって手間になることがある。   However, in a system using a plurality of projectors and one camera, it may be troublesome for the user to previously install the camera at an appropriate position in order to appropriately determine the exposure value of the camera.

本発明は、投影画像に適したカメラの露出値の決定において、予め適切な位置にカメラを設置するユーザの手間を低減することを目的とする。   An object of the present invention is to reduce the trouble of a user who previously installs a camera at an appropriate position in determining an exposure value of a camera suitable for a projected image.

上記の目的を達成するために、本発明に係る投影システムは、
複数のプロジェクタと、
前記複数のプロジェクタが投影する投影面を撮像できるカメラと、
前記複数のプロジェクタと前記カメラを制御する1つ以上の制御部と、
から成る投影システムであって、
前記制御部は、前記複数のプロジェクタの台数分、前記複数のプロジェクタの1台だけにパターンを投影させた状態で前記カメラにより所定の領域の明るさを取得し、取得された複数の前記明るさの最大と最小の間の値を元にカメラの露出値を決定することを特徴とする。
To achieve the above object, a projection system according to the present invention comprises:
Multiple projectors,
A camera capable of imaging a projection plane projected by the plurality of projectors,
One or more control units for controlling the plurality of projectors and the camera,
A projection system comprising:
The control unit obtains the brightness of a predetermined area by the camera in a state where a pattern is projected on only one of the plurality of projectors by the number of the plurality of projectors. The exposure value of the camera is determined on the basis of the value between the maximum and minimum values of.

本発明に係る投影システムによれば、カメラを設置するユーザの手間を低減しうる。   ADVANTAGE OF THE INVENTION According to the projection system which concerns on this invention, the trouble of the user who installs a camera can be reduced.

システムの構成の一例 スタック投影の場合Example of system configuration Stack projection システムの構成の一例 マルチ投影の場合Example of system configuration In case of multiple projection システムの機能ブロック図の一例An example of a functional block diagram of the system システムの処理フローの一例Example of system processing flow カメラ設定処理のフローチャートの一例Example of a flowchart of camera setting processing カメラの撮像可能領域を示す図Diagram showing imageable area of camera 自動位置合わせ処理のフローチャートの一例An example of a flowchart of the automatic positioning process プロジェクタの明るさを示す図Diagram showing the brightness of the projector

以下、図面を参照して本発明の実施形態を詳細に説明するが、この発明は以下の実施の形態に限定されない。また、この発明の実施の形態は発明の好ましい形態を示すものであり、発明の範囲を限定するものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings, but the present invention is not limited to the following embodiments. Further, the embodiments of the present invention show preferred embodiments of the present invention, and do not limit the scope of the invention.

<実施形態1>
[本実施形態のシステム構成]
図1及び図2を用いて本実施形態のシステムの構成について説明する。図1は2台のプロジェクタを用いたシステムの構成の一例を表した図である。
<First embodiment>
[System Configuration of the Present Embodiment]
The configuration of the system according to the present embodiment will be described with reference to FIGS. FIG. 1 is a diagram illustrating an example of a configuration of a system using two projectors.

図1は輝度の向上や投影画像の3D表示のために2台のプロジェクタを同一の投影面上に重ね合わせて投影する形態を示したものである。以後、このような投影形態のことをスタック投影と呼ぶ。プロジェクタ100a及びプロジェクタ100bはそれぞれ画像を投影し、重畳させることで一つの画像を投影面上に投影する。また、プロジェクタ100a、プロジェクタ100b、PC200はLANケーブルを介して相互に通信可能な状態で接続されている。なお、接続形式は相互に通信可能であれば、有線、無線を問わない。また、シリアル通信など、他の方式でも構わない。   FIG. 1 shows an embodiment in which two projectors are superimposed and projected on the same projection plane in order to improve brightness and display a 3D image of a projection image. Hereinafter, such a projection form is referred to as a stack projection. The projector 100a and the projector 100b project an image, and project one image on a projection surface by superimposing the images. The projector 100a, the projector 100b, and the PC 200 are connected via a LAN cable so as to be able to communicate with each other. The connection format may be wired or wireless as long as communication is possible. Further, another method such as serial communication may be used.

PC200は、映像分配器300に対して映像ケーブルを用いて映像信号を供給する。映像分配器300は複数の映像ケーブルを介して映像信号をプロジェクタ100a、プロジェクタ100bに供給する。なお、映像信号の形式はHDMI(登録商標)やDVI、VGAなど、どのような形式を用いても構わない。   The PC 200 supplies a video signal to the video distributor 300 using a video cable. The video distributor 300 supplies video signals to the projectors 100a and 100b via a plurality of video cables. The format of the video signal may be any format such as HDMI (registered trademark), DVI, and VGA.

映像分配器300はPC200から受信した映像信号を複製し、プロジェクタ100a及びプロジェクタ100bにそれぞれ供給する。   The video distributor 300 duplicates the video signal received from the PC 200 and supplies it to the projector 100a and the projector 100b.

カメラ400はUSBケーブルを介してPC200と接続され、PC200からの撮影指示に基づいて投影面の撮影を行い、撮影画像をPC200に送信する。なお、接続はLANによって接続されていてもよい。カメラ400はPC200からの指示に基づいて撮影できればよく、カメラの種類は問わない。   The camera 400 is connected to the PC 200 via a USB cable, shoots a projection plane based on a shooting instruction from the PC 200, and transmits a shot image to the PC 200. The connection may be established by a LAN. The camera 400 only needs to be able to capture an image based on an instruction from the PC 200, and the type of camera is not limited.

図2は投影面の大画面化・高解像度化のためにプロジェクタ4台を投影面上において、投影画像の一部を重ね合わせる形態を示したものである。以降、このような投影形態のことをマルチ投影と呼ぶ。投影面の重畳部に対して減光処理(エッジブレンディング)を施すことで重畳部を目立たなくさせることができる。この構成では、PC1台に対して映像分配器300を介して4台のプロジェクタを接続している。映像ケーブルやLANケーブル、USBケーブルの接続形式に関しては、図1に示したスタック投影の場合と同じ形式である。マルチ投影の場合、映像分配器300はプロジェクタごとに投影する領域を分割して分配する。   FIG. 2 shows a mode in which four projectors are overlapped on a projection plane to partially enlarge a projection image in order to enlarge the screen and increase the resolution of the projection plane. Hereinafter, such a projection form is referred to as multi-projection. By performing light reduction processing (edge blending) on the superimposed portion on the projection surface, the superimposed portion can be made inconspicuous. In this configuration, four projectors are connected to one PC via the video distributor 300. The connection format of the video cable, the LAN cable, and the USB cable is the same format as the case of the stack projection shown in FIG. In the case of multi-projection, the image distributor 300 divides and distributes a region to be projected for each projector.

本実施形態では、説明を簡単にするために、図1に示すように2台のプロジェクタを用いてスタック投影する場合及び、図2に示すように4台のプロジェクタを用いて投影するマルチ投影について説明するが、台数や配置についてはこれに限らない。   In the present embodiment, for simplicity of explanation, a case of stack projection using two projectors as shown in FIG. 1 and a case of multi-projection using four projectors as shown in FIG. Although described, the number and arrangement are not limited to this.

[プロジェクタ100の構成]
図3はシステムを構成するプロジェクタ100、PC200、映像分配器300、及びカメラ400の主要な構成を表す図である。図3を用いて、システムの構成について説明する。
[Configuration of Projector 100]
FIG. 3 is a diagram showing a main configuration of the projector 100, the PC 200, the video distributor 300, and the camera 400 that constitute the system. The configuration of the system will be described with reference to FIG.

本実施形態のプロジェクタ100は、CPU101、RAM102、ROM103、投影部104、投影制御部105、VRAM106、操作部107、ネットワークIF108、画像処理部109、映像入力部110を有する。また、111は上記の各ブロックを接続する内部バスである。CPU101は、プロジェクタ100の各動作ブロックの制御を行う。RAM102は、ワークメモリとして一時的に制御プログラムやデータを格納するものである。ROM103は、CPU101の処理手順を記述した制御プログラムを記憶するためのものである。   The projector 100 according to the present embodiment includes a CPU 101, a RAM 102, a ROM 103, a projection unit 104, a projection control unit 105, a VRAM 106, an operation unit 107, a network IF 108, an image processing unit 109, and a video input unit 110. An internal bus 111 connects the above blocks. The CPU 101 controls each operation block of the projector 100. The RAM 102 temporarily stores a control program and data as a work memory. The ROM 103 is for storing a control program describing a processing procedure of the CPU 101.

投影部104は、後述する投影制御部105によって指示された画像を投影するためのものであり、不図示の液晶パネル、レンズ、光源から構成される。投影制御部105は、VRAM106に格納された画像データを読み出し、投影部104に投影の指示を出すためのものである。VRAM106は投影部104で投影する画像を格納するための領域である。   The projection unit 104 is for projecting an image specified by a projection control unit 105 described later, and includes a liquid crystal panel (not shown), a lens, and a light source. The projection control unit 105 reads out image data stored in the VRAM 106 and issues a projection instruction to the projection unit 104. The VRAM 106 is an area for storing an image projected by the projection unit 104.

操作部107は、ユーザからの指示を受け付け、CPU101に対して指示信号を送信するものである。例えば、スイッチやダイヤルから成る。また、操作部107は不図示のリモコンからの信号を受信し、受信した信号に対応した指示信号をCPU101に対して送るものであっても良い。ネットワークIF108は外部機器とネットワーク通信を行うためのものである。本実施形態では、ネットワークIF108はPC200との通信に用いられる。   The operation unit 107 receives an instruction from a user and transmits an instruction signal to the CPU 101. For example, it consists of a switch and a dial. The operation unit 107 may receive a signal from a remote controller (not shown) and send an instruction signal corresponding to the received signal to the CPU 101. The network IF 108 is for performing network communication with an external device. In the present embodiment, the network IF 108 is used for communication with the PC 200.

画像処理部109は、後述の映像入力部110から受信した映像信号にフレーム数、画素数、画像形状などの変更処理を施して、投影制御部105に送信するものであり、例えば画像処理用のマイクロプロセッサからなる。また、画像処理部109は、専用のマイクロプロセッサである必要はなく、例えば、ROM103に記憶されたプログラムによって、CPU101が画像処理部109と同様の処理を実行しても良い。画像処理部109は、フレーム間引き処理、フレーム補間処理、解像度変換処理、メニュー等のOSD重畳処理、歪み補正処理(キーストーン補正処理)、エッジブレンディングといった機能を実行することが可能である。これらの機能は、ネットワークIF108を介して外部装置からコマンドを受けた場合にも、CPU101から実行を指示することができる。   The image processing unit 109 performs a process of changing the number of frames, the number of pixels, an image shape, and the like on a video signal received from a video input unit 110 described below, and transmits the processed signal to the projection control unit 105. Consists of a microprocessor. The image processing unit 109 does not need to be a dedicated microprocessor. For example, the CPU 101 may execute the same processing as the image processing unit 109 by using a program stored in the ROM 103. The image processing unit 109 can execute functions such as frame thinning processing, frame interpolation processing, resolution conversion processing, OSD superimposition processing such as menus, distortion correction processing (keystone correction processing), and edge blending. These functions can be instructed to be executed by the CPU 101 even when a command is received from an external device via the network IF 108.

映像入力部110は、外部装置から映像信号を受信するものであり、例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子等を含む。また、アナログ映像信号を受信した場合には、受信したアナログ映像信号をデジタル映像信号に変換する。そして、受信した映像信号を、画像処理部109に送信する。ここで、外部装置は、映像信号を出力できるものであれば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機など、どのようなものであってもよい。   The video input unit 110 receives a video signal from an external device, and includes, for example, a composite terminal, an S video terminal, a D terminal, a component terminal, an analog RGB terminal, a DVI-I terminal, a DVI-D terminal, and an HDMI (registered). Trademark) terminals and the like. When an analog video signal is received, the received analog video signal is converted into a digital video signal. Then, the received video signal is transmitted to the image processing unit 109. Here, the external device may be any device such as a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, a game machine, etc., as long as it can output a video signal.

[PC200の構成]
次にPC200について説明する。
[Configuration of PC 200]
Next, the PC 200 will be described.

本実施形態のPC200は、CPU201、RAM202、ROM203、操作部204、表示部205、ネットワークIF206、映像出力部207、通信部208を有する。また、209は上記の各ブロックを接続する内部バスである。   The PC 200 according to the present embodiment includes a CPU 201, a RAM 202, a ROM 203, an operation unit 204, a display unit 205, a network IF 206, a video output unit 207, and a communication unit 208. An internal bus 209 connects the above blocks.

CPU201は、PC200の各動作ブロックの制御を行う。RAM202はワークメモリとして一時的に制御プログラムやデータを格納するものである。ROM203はCPU201の処理手順を記述した制御プログラムを記憶するためのものである。   The CPU 201 controls each operation block of the PC 200. The RAM 202 temporarily stores a control program and data as a work memory. The ROM 203 is for storing a control program describing a processing procedure of the CPU 201.

操作部204はユーザからの指示を受け付け、CPU201に対して指示信号を送信するものである。例えば、マウスやキーボード、タッチパネルなどから成る。表示部205は画像データやUI画面の表示を行う。表示部205は例えば液晶パネルや有機ELパネルである。   The operation unit 204 receives an instruction from a user and transmits an instruction signal to the CPU 201. For example, it includes a mouse, a keyboard, a touch panel, and the like. The display unit 205 displays image data and a UI screen. The display unit 205 is, for example, a liquid crystal panel or an organic EL panel.

ネットワークIF206は、外部機器の制御などを目的として、外部機器とネットワーク通信を行うためのものである。本実施形態では、LAN接続されたプロジェクタ100と通信を行う。なお、本実施形態ではLAN通信によってプロジェクタ100の制御をするものとしているが、LAN通信に限らずその他の通信方法を用いても良い。例えばシリアル通信(RS−232)を用いても良い。その場合、後述の通信部208を介してプロジェクタ100と接続する。   The network IF 206 is for performing network communication with an external device for the purpose of controlling the external device. In the present embodiment, communication is performed with the projector 100 connected to the LAN. In the present embodiment, the projector 100 is controlled by LAN communication. However, the present invention is not limited to LAN communication, and other communication methods may be used. For example, serial communication (RS-232) may be used. In that case, it connects to the projector 100 via the communication unit 208 described later.

映像出力部207は外部装置に対して映像信号を送信するものであり、例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子等を含む。ここで、外部装置は、映像信号を入力できるものであれば、プロジェクタに限らず、ディスプレイ装置や映像分配器など、どのようなものであってもよい。本実施形態では、外部装置はプロジェクタであり、映像分配器300を介して接続する。また、本実施形態では、表示部205にユーザにユーザ操作をさせるためのUI画面を表示するものとして説明するが、映像出力部207に接続された外部機器に対してUI画面を表示する形式であっても良い。   The video output unit 207 transmits a video signal to an external device. For example, a composite terminal, an S video terminal, a D terminal, a component terminal, an analog RGB terminal, a DVI-I terminal, a DVI-D terminal, an HDMI ( (Registered trademark) terminals. Here, the external device is not limited to a projector as long as it can input a video signal, and may be any device such as a display device or a video distributor. In the present embodiment, the external device is a projector, and is connected via the video distributor 300. Further, in the present embodiment, a description will be given assuming that a UI screen for allowing a user to perform a user operation is displayed on the display unit 205, but the UI screen is displayed on an external device connected to the video output unit 207. There may be.

通信部208はカメラ400に対して撮影指示や露出補正指示などを含む信号や撮影画像を送受信するためのものであり、例えば、USB(Universal Serial Bus)などの規格で送受信が行われる。本実施形態ではPC200とカメラ400を通信部208によってUSB接続するものとして説明するが、カメラがネットワークによって制御可能であれば、ネットワークIF206を介してネットワーク接続しても構わない。   The communication unit 208 transmits and receives a signal including a shooting instruction and an exposure correction instruction and a shot image to and from the camera 400. For example, the communication unit 208 performs transmission and reception according to a standard such as USB (Universal Serial Bus). In the present embodiment, the PC 200 and the camera 400 are described as being connected by USB via the communication unit 208. However, if the camera can be controlled by a network, the camera may be connected to the network via the network IF 206.

[分配器300について]
本件で説明するシステムにおいて、分配器300はPC200から複数のプロジェクタ100に対して必要な画像データを伝達する役割を果たす。別の手段(例えばネットワーク通信など)によってPC200からプロジェクタ100に対して画像データを伝達できる場合は、分配器300は不要である。また、PC200の映像出力部207と複数のプロジェクタ100の映像入力部110とを映像ケーブルによって直接接続できる場合も分配器300は不要である。
[About distributor 300]
In the system described in this case, the distributor 300 plays a role of transmitting necessary image data from the PC 200 to the plurality of projectors 100. If image data can be transmitted from PC 200 to projector 100 by another means (for example, network communication), distributor 300 is unnecessary. Also, when the video output unit 207 of the PC 200 and the video input units 110 of the plurality of projectors 100 can be directly connected by a video cable, the distributor 300 is unnecessary.

[カメラ400について]
本実施形態のカメラ400は、CPU401、RAM402、ROM403、光学部404、光学制御部405、撮像素子406、画像処理部407、VRAM408、通信部409を有する。また、410は上記の各ブロックを接続する内部バスである。CPU401は、カメラ400の各動作ブロックの制御を行う。RAM402は、ワークメモリとして一時的に制御プログラムやデータを格納するものである。ROM403は、CPU401の処理手順を記述した制御プログラムを記憶するためのものである。
[About Camera 400]
The camera 400 according to the present embodiment includes a CPU 401, a RAM 402, a ROM 403, an optical unit 404, an optical control unit 405, an image sensor 406, an image processing unit 407, a VRAM 408, and a communication unit 409. An internal bus 410 connects the above blocks. The CPU 401 controls each operation block of the camera 400. The RAM 402 temporarily stores a control program and data as a work memory. The ROM 403 is for storing a control program describing a processing procedure of the CPU 401.

光学部404は、不図示のレンズ、シャッターから構成される。光学制御部405は、光学部404のレンズやシャッターを制御して、露出、フォーカス、ズームを変更することができる。撮像素子406は、カメラ400の外から光学部404を通った光を受けて電気信号に変換する。また、電気信号の増幅も行うことができる。増幅の指標となるISO感度の値の設定は、CPU401が行う。画像処理部407は、撮像素子406から得られた電気信号のA/D変換など、画像の情報を処理できる。VRAM408は画像を格納するための領域である。通信部409は外部との通信を行うための領域である。制御のための情報や、画像の情報を通信する。   The optical unit 404 includes a lens and a shutter (not shown). The optical control unit 405 controls the lens and shutter of the optical unit 404 to change exposure, focus, and zoom. The image sensor 406 receives light passing through the optical unit 404 from outside the camera 400 and converts the light into an electric signal. In addition, amplification of an electric signal can be performed. The setting of the value of the ISO sensitivity as an index of amplification is performed by the CPU 401. The image processing unit 407 can process image information such as A / D conversion of an electric signal obtained from the image sensor 406. The VRAM 408 is an area for storing an image. The communication unit 409 is an area for performing communication with the outside. Information for control and image information are communicated.

なお、本実施形態では、プロジェクタ100、PC200、分配器300、カメラ400を別々の装置として説明しているが、装置どうしを組み合わせて一体の装置としてもよい。
例えば、プロジェクタ100の1つとPC200とを一体の装置にすることができる。その場合、プロジェクタ100のCPU101と、PC200のCPU201とを共通の1つのCPUにしてもよい。このように、装置の組み合わせや、部品の共通化は適宜実施できる。
In the present embodiment, the projector 100, the PC 200, the distributor 300, and the camera 400 are described as separate devices, but the devices may be combined to form an integrated device.
For example, one of the projectors 100 and the PC 200 can be an integrated device. In that case, the CPU 101 of the projector 100 and the CPU 201 of the PC 200 may be one common CPU. Thus, the combination of the devices and the common use of the components can be appropriately implemented.

[システムの処理フローの概要説明]
本実施形態で説明するシステムの処理フローを図4に示す。この処理フローは、PC200のCPU201によって行われる。まず、フロー全体の概要を説明する。各フローの詳細な説明は後述する。
[Overview of system processing flow]
FIG. 4 shows a processing flow of the system described in the present embodiment. This processing flow is performed by the CPU 201 of the PC 200. First, an overview of the entire flow will be described. A detailed description of each flow will be described later.

S100では、PC200にネットワークを介して接続されている複数のプロジェクタ100を検索し、対象とするプロジェクタを選択する。   In S100, a plurality of projectors 100 connected to the PC 200 via the network are searched, and a target projector is selected.

S200では、S100において選択された各々のプロジェクタ100が投影面上に設置確認用テストパターンを投影し、ユーザに対してプロジェクタ100の物理的な配置の確認を促す。   In S200, each of the projectors 100 selected in S100 projects an installation confirmation test pattern on the projection plane, and prompts the user to confirm the physical arrangement of the projector 100.

S300では、S600で行う自動位置合わせ処理が、スタック投影かマルチ投影かというモードを選択する。   In S300, a mode is selected in which the automatic alignment process performed in S600 is a stack projection or a multi projection.

S400では、不図示だが、カメラが複数台接続する場合があるため、PC200に接続された1つ以上のカメラ400の中から、補正に用いる1つのカメラ400を選択する。   In S400, one camera 400 to be used for correction is selected from one or more cameras 400 connected to the PC 200 because a plurality of cameras may be connected, though not shown.

S500では、S400において選択されたカメラ400の設定パラメータ(露出値、ホワイトバランスなど)を後の自動位置合わせ処理(S600)に適したものにするための設定を行う。   In S500, settings are made to make the setting parameters (exposure value, white balance, etc.) of the camera 400 selected in S400 suitable for the subsequent automatic alignment processing (S600).

最後に、S600では、CPU201が通信部208を介してカメラ400のCPU401に投影面上のプロジェクタ100が投影した自動位置合わせ用テストパターンを撮影させるように指示し、撮影した画像に基づいて、プロジェクタ100の位置合わせに必要な変形量を算出する。例えば、キーストーン補正量を算出する。CPU201がS100において選択されたプロジェクタ100のそれぞれに対して、ネットワークIF206を介してプロジェクタ100に変形コマンドを送信することで位置合わせが実施される。   Finally, in S600, the CPU 201 instructs the CPU 401 of the camera 400 to photograph the automatic alignment test pattern projected by the projector 100 on the projection plane via the communication unit 208, and based on the photographed image, The amount of deformation required for 100 position alignment is calculated. For example, a keystone correction amount is calculated. The CPU 201 transmits a deformation command to each of the projectors 100 selected in S100 to the projectors 100 via the network IF 206, thereby performing alignment.

なお、フローの順番は図4の通りでなくてもかまわない。例えばカメラの選択処理(S400)を先に行い、後で自動位置合わせモードの設定(S300)を行っても良い。   The order of the flow does not have to be as shown in FIG. For example, the camera selection process (S400) may be performed first, and the automatic alignment mode setting (S300) may be performed later.

以上の処理は、PC200のCPU201によって行われるが、処理を進めるかどうかの判定や、S300におけるモードの選択などを、PC200の操作部204へのユーザの指示に基づいて行うこともできる。すなわち、ユーザが操作部204に指示した内容をCPU201が実行する。また、PC200のCPU201がGUIを生成し、PC200の表示部205に表示させて、ユーザに指示を促すこともできる。   The above processing is performed by the CPU 201 of the PC 200. However, it is also possible to determine whether to proceed with the processing, select a mode in S300, and the like based on a user instruction to the operation unit 204 of the PC 200. That is, the CPU 201 executes the content specified by the user on the operation unit 204. Also, the CPU 201 of the PC 200 can generate a GUI and display it on the display unit 205 of the PC 200 to prompt the user for an instruction.

以上で本実施形態の処理フローの概要説明を終える。続いて、各フローの詳細説明を行う。   This is the end of the overview of the processing flow of the present embodiment. Next, each flow will be described in detail.

[対象プロジェクタの選択処理]
図4に示した対象プロジェクタ選択処理(S100)について説明する。
[Target projector selection processing]
The target projector selection processing (S100) shown in FIG. 4 will be described.

PC200のCPU201はネットワークIF206を介してIPアドレスの要求を含む所定のブロードキャストパケットを送信する。プロジェクタ100のCPU101は、ネットワークIF108を介してブロードキャストパケットを受信すると、自身のIPアドレスを含むパケットを、PC200に対して送信する。そして、PC200のCPU201はプロジェクタ100から送られた前記パケットを受信すると、前記パケットからIPアドレスを含む情報を抽出して、RAM202に保存する。これら全てのプロジェクタ100の中から、一部のプロジェクタ100を選択してもよい。ユーザが操作部204でプロジェクタ100を選択し、その内容をCPU201が実行することができる。   CPU 201 of PC 200 transmits a predetermined broadcast packet including a request for an IP address via network IF 206. When receiving the broadcast packet via network IF 108, CPU 101 of projector 100 transmits a packet including its own IP address to PC 200. When the CPU 201 of the PC 200 receives the packet sent from the projector 100, the CPU 201 extracts information including the IP address from the packet and stores the information in the RAM 202. Some of the projectors 100 may be selected from all the projectors 100. The user selects the projector 100 with the operation unit 204, and the CPU 201 can execute the content.

以上でS100の対象プロジェクタ選択処理についての説明を終える。   This concludes the description of the target projector selection processing in S100.

[設置位置確認用のテストパターン出力処理]
図4に示した設置位置確認用テストパターン出力処理(S200)について説明する。
[Test pattern output processing for installation position confirmation]
The test pattern output processing for installation position confirmation (S200) shown in FIG. 4 will be described.

PC200のCPU201は、ネットワークIF206を介してS100において選択されたプロジェクタ100にテストパターンをするためのコマンドを送信し、それぞれに対してテストパターンを投影して表示させる。テストパターンは例えば予めVRAM106に保存されたものを使用する。プロジェクタ100に投影させるテストパターンは例えば格子パターンである。図1や図2に示す投影面をユーザが見て、投影されている位置をユーザが確認することができる。ユーザはプロジェクタ100を動かすことなどによって、投影面の位置をおおよそ調整することができる。   The CPU 201 of the PC 200 transmits a command for performing a test pattern to the projector 100 selected in S100 via the network IF 206, and projects and displays the test pattern on each of them. As the test pattern, for example, a test pattern previously stored in the VRAM 106 is used. The test pattern projected on the projector 100 is, for example, a lattice pattern. The user can see the projection plane shown in FIGS. 1 and 2 and check the projected position. The user can roughly adjust the position of the projection plane by moving the projector 100 or the like.

なお、テストパターンはプロジェクタ100のVRAM106に保存されたものでなくてもよく、例えばPC200の映像出力部207から出力され、プロジェクタ100の映像入力部110に入力される画像をテストパターンとして用いてもよい。   Note that the test pattern need not be stored in the VRAM 106 of the projector 100. For example, an image output from the video output unit 207 of the PC 200 and input to the video input unit 110 of the projector 100 may be used as the test pattern. Good.

以上で、S200の設置位置確認用テストパターン出力処理の説明を終える。   This concludes the description of the test pattern output processing for installation position confirmation in S200.

[自動位置合わせモードの選択処理]
図4に示した自動位置合わせモードの選択処理(S300)について説明する。
[Automatic alignment mode selection process]
The selection process (S300) of the automatic positioning mode shown in FIG. 4 will be described.

図1に示したようなスタック投影の自動位置合わせをするか、図2に示したようなマルチ投影の自動位置合わせをするかの選択はユーザがPC200の操作部204を用いて選択することができる。PC200のCPU201は選択された自動位置合わせにモードをRAM202に格納する。   The user can use the operation unit 204 of the PC 200 to select whether to perform the automatic alignment of the stack projection as shown in FIG. 1 or to perform the automatic alignment of the multi-projection as shown in FIG. it can. The CPU 201 of the PC 200 stores the mode in the RAM 202 for the selected automatic alignment.

以上で、S300の自動位置合わせモードの選択処理の説明を終える。   This concludes the description of the automatic alignment mode selection process in S300.

[使用するカメラの選択処理]
図4に示した使用するカメラの選択処理(S400)について説明する。
[Selection of camera to use]
The camera selection process (S400) shown in FIG. 4 will be described.

PC200のCPU201は通信部208を介して、接続されているカメラの一覧を取得して、RAM202に格納する。PC200のCPU201はユーザがPC200の操作部204によってカメラ400を1台選択したことを検知すると、選択されたカメラの情報をRAM202に格納する。PC200のCPU201は選択されたカメラと制御のための通信を確立させることで、撮影や露出値の変更などの各操作が可能になるようにする。   The CPU 201 of the PC 200 acquires a list of connected cameras via the communication unit 208 and stores the list in the RAM 202. When the CPU 201 of the PC 200 detects that the user has selected one camera 400 by the operation unit 204 of the PC 200, the information of the selected camera is stored in the RAM 202. The CPU 201 of the PC 200 establishes communication for control with the selected camera, thereby enabling operations such as photographing and changing an exposure value.

以上でS400の使用するカメラの選択処理の説明を終える。   This concludes the description of the camera selection process used in S400.

[カメラ設定処理]
図4に示したカメラ設定処理(S500)について、図5に示すフローチャートおよび図6を用いて説明する。
[Camera setting process]
The camera setting process (S500) shown in FIG. 4 will be described with reference to the flowchart shown in FIG. 5 and FIG.

まず、カメラ設定処理開始時のシステムの好ましい状態について説明する。図6(a)は、図2のようなマルチ投影をカメラ400で撮影した撮像画像を表している。図6(a)において、投影面600aはプロジェクタ100aの投影面に対応している。同様に、投影面600bはプロジェクタ100b、投影面600cはプロジェクタ100c、投影面600dはプロジェクタ100dにそれぞれ対応している。投影されているパターンは、例えばS200において説明した設置確認用テストパターンを併用することができる。   First, a preferable state of the system at the start of the camera setting process will be described. FIG. 6A shows a captured image obtained by shooting the multi-projection as shown in FIG. In FIG. 6A, the projection plane 600a corresponds to the projection plane of the projector 100a. Similarly, the projection plane 600b corresponds to the projector 100b, the projection plane 600c corresponds to the projector 100c, and the projection plane 600d corresponds to the projector 100d. As the projected pattern, for example, the installation confirmation test pattern described in S200 can be used together.

図5に示すカメラ設定処理の開始の時点では、図6(a)のように、カメラ400の撮像可能領域601の内側に、全てのプロジェクタ100の投影面が収まっていることが好ましい。なぜならば、S600における自動位置合わせ処理では、全てのプロジェクタ100の投影面の全体をカメラ400が撮像できることが好ましく、また、S500におけるカメラ設定処理を行った後に、カメラを動かすことは好ましくないためである。   At the start of the camera setting process shown in FIG. 5, it is preferable that the projection planes of all the projectors 100 fall inside the imageable area 601 of the camera 400 as shown in FIG. This is because, in the automatic positioning process in S600, it is preferable that the camera 400 can capture the entire projection surface of all the projectors 100, and it is not preferable to move the camera after performing the camera setting process in S500. is there.

カメラ400の撮像可能領域601の内側に、全てのプロジェクタ100の投影面が収まっていなければ、ユーザはカメラ400を物理的に動かすか、カメラ400のズームを変更する。このようなカメラの調整はユーザの手間になりうる。カメラ400の撮像画像をPC200の表示部205にライブビューで表示すれば、ユーザは表示部205を見ながらカメラ400の調整を行うことができるため、ユーザの手間を低減しうる。そのために、CPU201は通信部208を通して、定常的にカメラ400の撮像画像を取得し、表示部205に表示させる。   If the projection planes of all the projectors 100 are not within the imageable area 601 of the camera 400, the user physically moves the camera 400 or changes the zoom of the camera 400. Such camera adjustments can be troublesome for the user. If the captured image of the camera 400 is displayed on the display unit 205 of the PC 200 in a live view, the user can adjust the camera 400 while looking at the display unit 205, so that the user's labor can be reduced. For this purpose, the CPU 201 constantly obtains an image captured by the camera 400 through the communication unit 208 and causes the display unit 205 to display the captured image.

続いて、図5のフローチャートについて説明する。この処理フローは、PC200のCPU201によって行われる。   Next, the flowchart of FIG. 5 will be described. This processing flow is performed by the CPU 201 of the PC 200.

S501は、対象プロジェクタに対して、順々に明るさ測定用パターンを投影させるための判定を行うための判定処理である。   S501 is a determination process for making a determination for projecting the brightness measurement pattern on the target projector in order.

S502では、PC200のCPU201がRAM202に格納されている対象プロジェクタ情報に基づいて、映像出力部207、或いはネットワークIF206を介して対象プロジェクタ100のCPU101に対して明るさ測定用パターンを投影するように指示する。このとき、明るさ測定用パターンを投影させるプロジェクタは1台のみとし、その他のプロジェクタに対しては、表示をオフ状態にする。表示をオフ状態にする方法は、PC200のCPU201が黒画像を送信するか、或いはプロジェクタ100にBLANK機能があればプロジェクタ100にBLANKコマンドの送信を行う。明るさ測定用パターンは、例えば投影可能な領域を全て白くした画像であるが、明るさを測定できるパターンであれば、色や模様などが異なっていてもよい。   In step S502, the CPU 201 of the PC 200 instructs the CPU 101 of the target projector 100 to project the brightness measurement pattern via the video output unit 207 or the network IF 206 based on the target projector information stored in the RAM 202. I do. At this time, only one projector projects the brightness measurement pattern, and the display is turned off for the other projectors. As a method for turning off the display, the CPU 201 of the PC 200 transmits a black image, or transmits a BLANK command to the projector 100 if the projector 100 has a BLANK function. The brightness measurement pattern is, for example, an image in which the entire projectable area is whitened, but may be different in color or pattern as long as the pattern can measure brightness.

S503では、PC200のCPU201が、S400において選択されたカメラ400のCPU401に対して明るさ測定を指示するコマンドを、通信部208を介して送り、明るさ測定をさせる。明るさ測定には、カメラ400の測光機能を用いることができる。測光機能は、カメラのCPU401がROM403に格納されたプログラムを読み出して、カメラ400の内部で行うものである。測光機能は、撮像された画像の明るさを算出し、さらに算出された明るさに基づいて明るさに関する値を算出する機能である。明るさに関する値とは、測光機能により算出されるカメラ400のF値、シャッタースピードの値、ISO感度の値などの、カメラ400が撮像する際の撮像画像の明るさに関する値である。測光機能には、カメラ400の撮像可能領域すべてを用いる方式(平均測光)や、その一部を用いる方式がある。本実施形態では、図6(b)のように、撮像可能領域602の一部である所定の領域603の内部だけの情報を用いる。なお、測光機能は、カメラ内の測光機能用の測光センサを用いて明るさを計測することで実現してもよい。   In step S <b> 503, the CPU 201 of the PC 200 sends a command for instructing brightness measurement to the CPU 401 of the camera 400 selected in step S <b> 400 via the communication unit 208 to cause brightness measurement. For the brightness measurement, the photometry function of the camera 400 can be used. In the photometry function, the CPU 401 of the camera reads out a program stored in the ROM 403 and performs the program inside the camera 400. The photometry function is a function of calculating the brightness of a captured image and calculating a value related to the brightness based on the calculated brightness. The value related to the brightness is a value related to the brightness of the captured image when the camera 400 captures an image, such as the F value, the shutter speed value, and the ISO sensitivity value of the camera 400 calculated by the photometry function. The photometric function includes a method using the entire image captureable area of the camera 400 (average photometry) and a method using a part thereof. In the present embodiment, as shown in FIG. 6B, information only inside a predetermined area 603 which is a part of the imageable area 602 is used. The photometric function may be realized by measuring the brightness using a photometric sensor for the photometric function in the camera.

所定の領域603を用いることが好ましい理由を次に述べる。図6(c)は、図6(a)に加えて、投影ではない外光604が撮像可能領域601の内側にある。外光604は例えば日光や部屋の照明によるものである。外光604が投影の明るさよりも明るいと、撮像可能領域601のすべてを用いた測光機能では、外光604の影響により算出される明るさが増加してしまい、投影の明るさを算出するのに適さないことがある。一方で、図6(b)のように所定の領域603を用いることで、外光604の影響を受けにくくなり、投影の明るさを算出するのに適した測光となる。   The reason why it is preferable to use the predetermined area 603 will be described below. FIG. 6C shows that, in addition to FIG. 6A, outside light 604 that is not a projection is inside the imageable area 601. The external light 604 is generated by, for example, sunlight or room lighting. If the external light 604 is brighter than the brightness of the projection, in the photometric function using all of the imageable area 601, the brightness calculated due to the influence of the external light 604 increases, and the brightness of the projection is calculated. May not be suitable for On the other hand, the use of the predetermined area 603 as shown in FIG. 6B makes it less likely to be affected by the external light 604, resulting in a photometry suitable for calculating the brightness of the projection.

このように測光機能により算出された明るさや明るさに関する値を、カメラ400のCPU401が通信部409を介してPC200のCPU201へと送り、受信した情報をPC200のCPU201がRAM202へ書き込む。この値は、プロジェクタ100の台数分だけ送る。   The CPU 401 of the camera 400 sends the brightness or the value related to the brightness calculated by the photometry function to the CPU 201 of the PC 200 via the communication unit 409, and the CPU 201 of the PC 200 writes the received information to the RAM 202. This value is sent by the number of projectors 100.

S504では、PC200のCPU201は、RAM202から明るさを読み出し、明るさ同士を比較して、最大の明るさを選ぶ。最大の明るさを選択する理由は、例えば図6(d)のように所定の領域605に重ならないプロジェクタがあっても、所定の領域605に重なるプロジェクタに対応する明るさを用いることができるためである。具体的には、所定の領域603だけで明るさを取得する場合に、投影面600bや投影面600dの明るさは取得できないが、投影面600aや投影面600cの明るさは取得できる。すなわち、ユーザはカメラ400を設置する際に、いずれかのプロジェクタの投影面をカメラ400の所定の領域605に重畳させるようにすれば、少なくとも1台のプロジェクタの投影面の明るさを取得できる。プロジェクタどうしの明るさをおおよそ同じにしておけば、少なくとも1台のプロジェクタの投影面の明るさを取得することで、おおよそ所望の明るさを取得できると言える。したがって、例えばすべてのプロジェクタの投影面をカメラ400の所定の領域605に重畳させるようにカメラ400を設置させる場合と比較すると、ユーザがカメラを設置する手間を低減しうる。   In step S504, the CPU 201 of the PC 200 reads the brightness from the RAM 202, compares the brightnesses, and selects the maximum brightness. The reason for selecting the maximum brightness is that, for example, even if there is a projector that does not overlap the predetermined area 605 as shown in FIG. 6D, the brightness corresponding to the projector that overlaps the predetermined area 605 can be used. It is. Specifically, when the brightness is acquired only in the predetermined area 603, the brightness of the projection plane 600b or 600d cannot be acquired, but the brightness of the projection plane 600a or 600c can be acquired. That is, when the user installs the camera 400, if the projection plane of any one of the projectors is superimposed on the predetermined area 605 of the camera 400, the brightness of the projection plane of at least one projector can be acquired. If the brightnesses of the projectors are approximately the same, it can be said that approximately the desired brightness can be obtained by obtaining the brightness of the projection surface of at least one projector. Therefore, for example, as compared with the case where the camera 400 is installed so that the projection planes of all the projectors are superimposed on the predetermined area 605 of the camera 400, the time and effort for the user to install the camera can be reduced.

PC200のCPU201は、ROM203に予め格納されているテーブルを参照して、受け取った明るさや明るさに関する値から、S600の自動位置合わせ処理における自動位置合わせ用テストパターンの撮像に適したカメラ400の露出値を算出する。具体的には、カメラ400のF値、シャッタースピードの値、ISO感度の値などを算出する。   The CPU 201 of the PC 200 refers to the table stored in the ROM 203 in advance, and determines the exposure of the camera 400 suitable for capturing the test pattern for automatic alignment in the automatic alignment processing of S600 based on the received brightness and the value regarding the brightness. Calculate the value. Specifically, an F value, a shutter speed value, an ISO sensitivity value, and the like of the camera 400 are calculated.

S505では、PC200のCPU201は、算出された露出値を通信部208を介してカメラ400のCPU401へと送り、カメラ400のRAM402に格納させる。また、PC200のCPU201は、CPU401にカメラ400の露出値に関するパラメータを設定させる。   In step S505, the CPU 201 of the PC 200 sends the calculated exposure value to the CPU 401 of the camera 400 via the communication unit 208, and stores the calculated exposure value in the RAM 402 of the camera 400. Further, the CPU 201 of the PC 200 causes the CPU 401 to set parameters relating to the exposure value of the camera 400.

なお、S503においてカメラ400の測光機能を使うと先述したが、カメラ400の測光機能を用いない方法もある。具体的には、カメラ400が撮像した複数の画像をPC200へと送り、CPU201がPC200の内部で画像処理を行って、それぞれの画像の所定の領域の明るさを比較する方法がある。しかし、この方法では通信部208と通信部409の間で画像を送るため、転送時間においては、カメラ400の測光機能を用いるよりも時間がかかる。カメラ400の測光機能を用いることで、S500のカメラ設定処理に要する時間を短縮することができる。   Although the photometric function of the camera 400 is used in S503 as described above, there is a method that does not use the photometric function of the camera 400. Specifically, there is a method in which a plurality of images captured by the camera 400 are sent to the PC 200, and the CPU 201 performs image processing inside the PC 200, and compares the brightness of a predetermined area of each image. However, in this method, since an image is sent between the communication unit 208 and the communication unit 409, the transfer time is longer than when the photometric function of the camera 400 is used. By using the photometric function of the camera 400, the time required for the camera setting process in S500 can be reduced.

なお、S500のカメラ設定処理の説明では、マルチ投影を例にしたが、スタック投影においても同様である。また、プロジェクタの台数が異なっていてもよい。   In the description of the camera setting process in S500, multi-projection is taken as an example, but the same applies to stack projection. Further, the number of projectors may be different.

以上でS500のカメラ設定処理の説明を終える。   This is the end of the description of the camera setting process in S500.

[自動位置合わせ処理]
図4に示した自動位置合わせ処理(S600)について、図7に示すフローチャートを用いて説明する。
[Automatic alignment processing]
The automatic positioning process (S600) shown in FIG. 4 will be described with reference to the flowchart shown in FIG.

S701は自動位置合わせの対象プロジェクタに対して、順々に自動位置合わせ用テストパターンを投影させるための判定を行うための判定処理である。   S701 is a determination process for performing a determination for sequentially projecting the automatic alignment test pattern on the target projector for automatic alignment.

S702では、PC200のCPU201がRAM202に格納されている対象プロジェクタ情報に基づいて、映像出力部207、或いはネットワークIF206を介して対象プロジェクタ100に対して自動位置合わせ用テストパターンを投影させる。このとき、自動位置合わせ用テストパターンを投影させるプロジェクタは1台のみとし、その他のプロジェクタに対しては、PC200のCPU201が黒画像の送信、或いはBLANKコマンドの送信を行うことで、表示をオフ状態にする。   In S702, the CPU 201 of the PC 200 causes the target projector 100 to project a test pattern for automatic alignment via the video output unit 207 or the network IF 206 based on the target projector information stored in the RAM 202. At this time, only one projector projects the test pattern for automatic positioning, and the CPU 201 of the PC 200 transmits a black image or a BLANK command to the other projectors, thereby turning off the display. To

S703では、PC200のCPU201が、通信部209を介してカメラ400に対して撮像コマンド及び、撮像画像のダウンロードコマンドを送信する。カメラ400のCPU401は撮影コマンドと撮影画像のダウンロードコマンドを受信すると、投影面を撮影し、撮影画像を通信部409を介してPC200に対して送信する。PC200のCPU201は撮影画像を後の計算処理のためにRAM202に格納する。   In step S <b> 703, the CPU 201 of the PC 200 transmits an imaging command and a download command of the captured image to the camera 400 via the communication unit 209. Upon receiving the photographing command and the photographed image download command, the CPU 401 of the camera 400 photographs the projection plane and transmits the photographed image to the PC 200 via the communication unit 409. The CPU 201 of the PC 200 stores the captured image in the RAM 202 for later calculation processing.

S704では、PC200のCPU201はRAM202に格納された撮影画像及び自動位置合わせモードの設定値に基づいて各プロジェクタの変形パラメータ(例えばキーストーン補正量)を算出する。 なお、この変形パラメータを算出するアルゴリズムは既知の方法を用いればよいため、説明を省略する。   In step S704, the CPU 201 of the PC 200 calculates a deformation parameter (for example, a keystone correction amount) of each projector based on the captured image stored in the RAM 202 and the set value of the automatic alignment mode. Note that an algorithm for calculating the deformation parameter may use a known method, and a description thereof will be omitted.

S705では、PC200のCPU201がネットワークIF206を介して、各々のプロジェクタ100に対して変形パラメータを含む変形コマンドを送信する。各プロジェクタ100のCPU101は変形コマンドを受信すると、画像処理部109に指示をして、入力画像に対して変形を施す。   In S705, the CPU 201 of the PC 200 transmits a deformation command including a deformation parameter to each projector 100 via the network IF 206. Upon receiving the transformation command, the CPU 101 of each projector 100 instructs the image processing unit 109 to transform the input image.

以上で、S600の自動位置合わせ処理の説明を終える。   This concludes the description of the automatic positioning process in S600.

<実施形態2>
本発明の実施形態2は、プロジェクタ100の明るさ同士をCPU201が比較して、明るさの最大値と最小値の間の値に基づいてカメラ400の露出値を決定することを特徴とする。実施形態1と同じ点については説明を割愛する。
<Embodiment 2>
The second embodiment of the present invention is characterized in that the CPU 201 compares the brightnesses of the projectors 100 and determines the exposure value of the camera 400 based on a value between the maximum value and the minimum value of the brightness. A description of the same points as in the first embodiment will be omitted.

実施形態1では、S504で明るさの最大値を選択したが、実施形態2では、最大値に限らず、明るさの最大値と最小値の間の値(最大値を含む)を選択できることを示す。図8(a)は、3台のプロジェクタ100のそれぞれの明るさ測定の結果である明るさ801、明るさ802、明るさ803を示す。実施形態2では説明の簡単のため、プロジェクタを3台としている。明るさ801は、プロジェクタ100の投影面が、所定の領域603に重畳していないため暗くなっており、明るさ802、明るさ803は、プロジェクタ100の投影面が、所定の領域603に重畳しているため明るくなっている。明るさ802と明るさ803の違いの原因は、プロジェクタ100の光源の個体差や、プロジェクタ100の設置位置などによる。   In the first embodiment, the maximum value of the brightness is selected in S504. However, in the second embodiment, not only the maximum value but also a value between the maximum value and the minimum value of the brightness (including the maximum value) can be selected. Show. FIG. 8A shows brightness 801, brightness 802, and brightness 803 which are the results of brightness measurement of each of the three projectors 100. In the second embodiment, three projectors are used for the sake of simplicity. The brightness 801 is dark because the projection surface of the projector 100 does not overlap the predetermined area 603, and the brightness 802 and the brightness 803 are such that the projection surface of the projector 100 overlaps the predetermined area 603. It is bright because it is. The cause of the difference between the brightness 802 and the brightness 803 depends on the individual difference of the light source of the projector 100, the installation position of the projector 100, and the like.

S504において、CPU201が明るさ同士を比較して、明るさの中央値を選ぶとする。図8(a)の場合、明るさ802が選択される。CPU201は、テーブルを参照して、明るさ802からS600の自動位置合わせ処理における自動位置合わせ用テストパターンの撮像に適したカメラ400の露出値を算出する。明るさ802を参照して算出された露出値は、明るさ802よりも少し明るい場合や、少し暗い場合にも、S600の自動位置合わせ処理における自動位置合わせ用テストパターンの撮像を好適にできる。この明るさの範囲は、図8(a)の2本の破線の間に示されている。したがって、図8(a)の場合、明るさ803はこの範囲に入るため、明るさ803に対応するプロジェクタ100の自動位置合わせ用テストパターンの撮像を好適にできる。   In S504, it is assumed that the CPU 201 compares the brightnesses and selects the median value of the brightness. In the case of FIG. 8A, the brightness 802 is selected. With reference to the table, the CPU 201 calculates the exposure value of the camera 400 suitable for capturing the automatic alignment test pattern in the automatic alignment processing of S600 based on the brightness 802. Even when the exposure value calculated with reference to the brightness 802 is slightly brighter or darker than the brightness 802, it is possible to preferably capture an automatic alignment test pattern in the automatic alignment process of S600. This range of brightness is shown between two broken lines in FIG. Therefore, in the case of FIG. 8A, since the brightness 803 falls within this range, it is possible to preferably capture an image of the test pattern for automatic alignment of the projector 100 corresponding to the brightness 803.

一方で、明るさ801は、プロジェクタ100の投影面が、所定の領域603に重畳していないため暗くなっているが、カメラ400の向きをわずかに変えることにより、所定の領域603に重畳され、図8(b)の明るさ811のように明るく測定される。図8(b)の明るさ812は明るさ802と同じプロジェクタ100であり、明るさ813は明るさ803と同じプロジェクタ100である。図8(b)の条件において、図8(a)と同様に、S504でCPU201が明るさ同士を比較して、明るさの中央値を選ぶとすると明るさ812が選択される。明るさ812がテーブルを参照して算出された露出値であれば、明るさ811と明るさ813のプロジェクタ100においても、自動位置合わせパターンを好適に撮像できる。   On the other hand, the brightness 801 is dark because the projection surface of the projector 100 is not superimposed on the predetermined area 603, but is superimposed on the predetermined area 603 by slightly changing the direction of the camera 400, It is measured as bright as the brightness 811 in FIG. 8B is the same projector 100 as the brightness 802, and the brightness 813 is the same projector 100 as the brightness 803. Under the conditions of FIG. 8B, similarly to FIG. 8A, if the CPU 201 compares the brightnesses in S504 and selects the median brightness, the brightness 812 is selected. If the brightness 812 is an exposure value calculated with reference to the table, the projector 100 having the brightness 811 and the brightness 813 can appropriately capture an automatic alignment pattern.

以上の説明から、3台のプロジェクタの内の1台の投影面が、所定の領域603に重畳していなくても、3台のプロジェクタの自動位置合わせパターンの撮像に好適な露出値を決定していると言える。所定の領域603に全てのプロジェクタ100の投影面を重畳させるよりも、所定の領域603に全てのプロジェクタ100の投影面を重畳させなくてもよい方が、ユーザがカメラ100を設置する手間は低減されうる。   From the above description, even if one of the three projectors does not have a projection plane superimposed on the predetermined area 603, an exposure value suitable for capturing an automatic alignment pattern of the three projectors is determined. It can be said that. The user does not need to superimpose the projection planes of all the projectors 100 on the predetermined area 603, rather than superimposing the projection planes of all the projectors 100 on the predetermined area 603, which reduces the user's trouble of installing the camera 100. Can be done.

なお、本実施形態では中央値を用いているが、中央値であれば、明るさの最大値と最小値の間の値(最大値を含む)のどのような値も取り得る。また、中央値でない他の値を選択することもできる。   Although the median value is used in the present embodiment, any value between the maximum value and the minimum value of the brightness (including the maximum value) can be used as long as the median value is used. Further, another value other than the median value can be selected.

このように、明るさの最大値と最小値の間の値に基づいてカメラ400の露出値を決定することにより、ユーザは所定の領域603に全てのプロジェクタ100の投影面を重畳させる必要がなくなるので、カメラ400を設置するユーザの手間を低減しうる。   As described above, by determining the exposure value of the camera 400 based on the value between the maximum value and the minimum value of the brightness, the user does not need to superimpose the projection planes of all the projectors 100 on the predetermined area 603. Therefore, it is possible to reduce the trouble of the user who installs the camera 400.

<実施形態3>
本発明の実施形態3は、プロジェクタ100が明るさ測定用パターンを投影している状態と、投影していない状態との、明るさの差分をCPU201が算出し、その差分がある閾値を超えたかどうかを判定することを特徴とする。実施形態1と同じ点については説明を割愛する。
<Embodiment 3>
According to the third embodiment of the present invention, the CPU 201 calculates a brightness difference between a state where the projector 100 is projecting the brightness measurement pattern and a state where the projector 100 is not projecting the brightness measurement pattern, and determines whether the difference exceeds a certain threshold value. Is determined. A description of the same points as in the first embodiment will be omitted.

実施形態1では、S500のカメラ設定処理において、CPU201は全てのプロジェクタ100の明るさ測定を行うが、実施形態2では、これに加えてプロジェクタ100のいずれもが投影していない状態の明るさ測定を行う。投影状態と非投影状態との明るさの差分が、ある閾値以下であれば、図6(b)の所定の領域603に投影面が重畳していないと判定できる。全てのプロジェクタ100の投影面が所定の領域603に重畳していないと判定した場合に、CPU201は、例えば表示部205を通じて、ユーザにカメラ400の設置が適切でないことを伝えることができる。これにより、ユーザはカメラ400の設置が適切でないことを知り、カメラ400の設置を適切にすべきだと判断できるようになる。   In the first embodiment, in the camera setting process in S500, the CPU 201 measures the brightness of all the projectors 100. However, in the second embodiment, in addition to this, the brightness measurement in a state where none of the projectors 100 is projecting is performed. I do. If the difference in brightness between the projected state and the non-projected state is equal to or smaller than a certain threshold value, it can be determined that the projection plane does not overlap the predetermined area 603 in FIG. When it is determined that the projection planes of all the projectors 100 do not overlap the predetermined area 603, the CPU 201 can notify the user that the camera 400 is not properly installed, for example, through the display unit 205. This allows the user to know that the installation of the camera 400 is not appropriate and determine that the installation of the camera 400 should be performed appropriately.

<実施形態4>
本発明の実施形態4は、所定の領域603をユーザに示すことを特徴とする。実施形態1と同じ点については説明を割愛する。
<Embodiment 4>
Embodiment 4 of the present invention is characterized in that the predetermined area 603 is shown to the user. A description of the same points as in the first embodiment will be omitted.

図6(e)はカメラ400で撮像されるライブビューを示している。PC200のCPU201は、カメラ400のライブビューを取得し、取得したライブビューを表示部205に示している。撮像可能領域607は、撮像が可能な全領域である。測光位置表示部606は、測光に用いる位置を表示するためのものである。図6(b)の所定の領域603と測光位置表示部606の位置は、撮像可能領域602または撮像可能領域607に対して同じ位置になっている。本実施形態のように、所定の領域603と測光位置表示部606の形状は異なっていてもよいし、同じであってもよい。形状は円形や十字型に限らず、どのような形状でもよい。さらに、CPU201は、測光位置表示部606と撮像されたプロジェクタ100の投影面とを重畳させるようにユーザに促すメッセージを表示部205に表示させても良い。   FIG. 6E shows a live view captured by the camera 400. The CPU 201 of the PC 200 acquires the live view of the camera 400, and displays the acquired live view on the display unit 205. The imageable area 607 is the entire area in which an image can be captured. The photometric position display section 606 displays a position used for photometry. The position of the predetermined area 603 and the position of the photometry position display unit 606 in FIG. 6B are the same as the position of the imageable area 602 or the imageable area 607. As in the present embodiment, the shape of the predetermined area 603 and the shape of the photometric position display unit 606 may be different or the same. The shape is not limited to a circle or a cross, but may be any shape. Further, the CPU 201 may cause the display unit 205 to display a message prompting the user to superimpose the photometric position display unit 606 and the imaged projection surface of the projector 100.

ユーザは、PC200の表示部205の測光位置表示部606を見て、プロジェクタ100の投影面と重畳しているかどうかを確認できる。従って、測光位置表示部606が表示されていない場合と比較して、カメラ400を設置するユーザの手間を低減しうる。   The user can check the photometry position display unit 606 of the display unit 205 of the PC 200 to check whether the light is superimposed on the projection plane of the projector 100. Therefore, as compared with the case where the photometric position display unit 606 is not displayed, the trouble of the user who installs the camera 400 can be reduced.

<実施形態5>
本発明の実施形態5は、所定の領域603の位置をユーザが変更できることを特徴とする。実施形態1と同じ点については説明を割愛する。
<Embodiment 5>
Embodiment 5 of the present invention is characterized in that the position of the predetermined area 603 can be changed by the user. A description of the same points as in the first embodiment will be omitted.

図6(b)では、撮像可能領域602の中央付近に、所定の領域603が位置しているが、これに限定されるものではない。撮像可能領域602の内側であれば、所定の領域603はどこにあってもよい。PC200のCPU201は、表示部205に所定の領域603を示すことができる。ユーザは表示部205を見て、操作部204を操作して所定の領域603の位置を指示できる。CPU201はユーザに指示された位置となるように、通信部208を介してカメラ400にコマンドを送って、カメラ400のCPU400は受信コマンドに応じて所定の領域603の位置を変更することができる。   In FIG. 6B, the predetermined area 603 is located near the center of the imageable area 602, but the present invention is not limited to this. The predetermined area 603 may be anywhere within the imageable area 602. The CPU 201 of the PC 200 can indicate the predetermined area 603 on the display unit 205. The user can instruct the position of the predetermined area 603 by operating the operation unit 204 while looking at the display unit 205. The CPU 201 sends a command to the camera 400 via the communication unit 208 so that the position is instructed by the user, and the CPU 400 of the camera 400 can change the position of the predetermined area 603 according to the received command.

このように、所定の領域603をユーザが変更できることにより、ユーザはカメラの設置を変更することなく、所定の領域603をプロジェクタ100の投影面に重畳させるように操作ができることになる。したがって、ユーザがカメラを設置する手間を低減しうる。   As described above, since the user can change the predetermined area 603, the user can perform an operation to superimpose the predetermined area 603 on the projection surface of the projector 100 without changing the installation of the camera. Therefore, it is possible to reduce the labor for the user to install the camera.

<その他の実施形態>
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、装置に供給することによっても、達成されることは言うまでもない。このとき、供給された装置の制御部を含むコンピュータ(またはCPUやMPU)は、記憶媒体に格納されたプログラムコードを読み出し実行する。
<Other embodiments>
It is needless to say that the object of the present invention can be attained also by supplying a storage medium storing a program code of software for realizing the functions of the above-described embodiments to the apparatus. At this time, the computer (or CPU or MPU) including the control unit of the supplied apparatus reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used.

また、上述のプログラムコードの指示に基づき、装置上で稼動しているOS(基本システムやオペレーティングシステム)などが処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   An OS (basic system or operating system) or the like running on the apparatus performs part or all of the processing based on the instructions of the program code, and the processing realizes the functions of the above-described embodiments. Needless to say, cases are included.

さらに、記憶媒体から読み出されたプログラムコードが、装置に挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれ、前述した実施形態の機能が実現される場合も含まれることは言うまでもない。このとき、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行う。   Furthermore, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the apparatus or a function expansion unit connected to a computer, and the functions of the above-described embodiments may be realized. Needless to say, it is included. At this time, a CPU or the like provided in the function expansion board or the function expansion unit performs part or all of the actual processing based on the instruction of the program code.

このように、実施形態はその他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、省略、置き換え、変更を行うことができる。   As described above, the embodiment can be implemented in other various forms, and can be omitted, replaced, or changed without departing from the spirit of the invention.

100 プロジェクタ、200 PC、300 分配器、400 カメラ 100 projector, 200 PC, 300 distributor, 400 camera

Claims (6)

複数のプロジェクタと、
前記複数のプロジェクタが投影する投影面を撮像できるカメラと、
前記複数のプロジェクタと前記カメラを制御する1つ以上の制御部と、
から成る投影システムであって、
前記制御部は、前記複数のプロジェクタの台数分、前記複数のプロジェクタの1台だけにパターンを投影させた状態で前記カメラにより所定の領域の明るさを取得し、取得された複数の前記明るさの最大と最小の間の値を元にカメラの露出値を決定することを特徴とする投影システム。
Multiple projectors,
A camera capable of imaging a projection plane projected by the plurality of projectors,
One or more control units for controlling the plurality of projectors and the camera,
A projection system comprising:
The control unit obtains the brightness of a predetermined area by the camera in a state where a pattern is projected on only one of the plurality of projectors by the number of the plurality of projectors. A camera exposure value is determined based on a value between a maximum value and a minimum value of the camera.
前記制御部は、前記複数のプロジェクタの台数分、前記複数のプロジェクタの1台だけにパターンを投影させた状態で前記カメラにより所定の領域の明るさを取得し、取得された複数の前記明るさと、前記複数のプロジェクタの全てを投影させない状態で前記カメラにより前記所定の領域において取得された明るさとの差分を算出し、算出された前記差分がある閾値を超えたかどうかを判定することを特徴とする請求項1に記載の投影システム。 The control unit obtains the brightness of a predetermined area by the camera in a state where a pattern is projected on only one of the plurality of projectors by the number of the plurality of projectors. Calculating a difference between the brightness obtained in the predetermined area by the camera and not projecting all of the plurality of projectors, and determining whether the calculated difference exceeds a certain threshold. The projection system according to claim 1. 前記制御部は、前記所定の領域の位置をユーザに表示することを特徴とする請求項1に記載の投影システム。 The projection system according to claim 1, wherein the control unit displays a position of the predetermined area to a user. 前記制御部は、ユーザの指示に基づいて前記所定の領域の位置を変更できることを特徴とする請求項1に記載の投影システム。 2. The projection system according to claim 1, wherein the control unit can change a position of the predetermined area based on a user's instruction. 3. 前記工程は、前記カメラの測光機能を用いて行われることを特徴とする請求項1に記載の投影システム。 The projection system according to claim 1, wherein the step is performed by using a photometry function of the camera. 複数のプロジェクタの台数分、前記複数のプロジェクタの1台だけにパターンを投影させた状態でカメラにより所定の領域の明るさを取得する工程と、
取得された複数の前記明るさの最大と最小の間の値を元にカメラの露出値を決定する工程と、
を有する投影システムの制御方法。
Obtaining a brightness of a predetermined area by a camera in a state where a pattern is projected on only one of the plurality of projectors by the number of the plurality of projectors;
Determining an exposure value of the camera based on a value between a maximum and a minimum of the obtained plurality of brightnesses;
A control method for a projection system, comprising:
JP2018154357A 2018-08-21 2018-08-21 Projection system Pending JP2020031291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018154357A JP2020031291A (en) 2018-08-21 2018-08-21 Projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018154357A JP2020031291A (en) 2018-08-21 2018-08-21 Projection system

Publications (1)

Publication Number Publication Date
JP2020031291A true JP2020031291A (en) 2020-02-27

Family

ID=69622845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018154357A Pending JP2020031291A (en) 2018-08-21 2018-08-21 Projection system

Country Status (1)

Country Link
JP (1) JP2020031291A (en)

Similar Documents

Publication Publication Date Title
US9621861B2 (en) Projection image display system, projection image display method, and projection-type display apparatus
US10681320B2 (en) Projection apparatus, method for controlling projection apparatus, and non-transitory storage medium
JP6645687B2 (en) Display device and control method
US20170244941A1 (en) Projector and control method thereof
JP5180570B2 (en) Camera control device, camera control method, camera system, and program
JP5119607B2 (en) projector
JP2008187362A (en) Projector and projected image adjustment method
US10455204B2 (en) Display system and information processing method
JP4905059B2 (en) Instruction system, instruction program and instruction apparatus
JP2018125819A (en) Control device, control method, program, and storage medium
JP7116543B2 (en) PROJECTION CONTROL DEVICE, CONTROL METHOD THEREOF, AND PROJECTION SYSTEM
JP6418265B2 (en) Correction control apparatus, correction method, and projector
JP2020031291A (en) Projection system
KR20150125246A (en) Controlling method for setting of multiview camera and controlling apparatus for setting of multiview camera
WO2020162051A1 (en) Projection type video display system
JP2018032922A (en) Projector device and method for controlling projector device
US20190346754A1 (en) Control apparatus controlling projection apparatuses, control method, and storage medium
JP6119126B2 (en) Correction control apparatus, correction method, and projector
JP6700955B2 (en) Projection apparatus and projection method
US20230028087A1 (en) Control apparatus, image projection system, control method, and storage medium
JP2020150481A (en) Information processing device, projection system, information processing method, and program
JP2020134882A (en) Projection control device, image projection device, and projection control method
JP2020053710A (en) Information processing apparatus, projection device, control method of projection device, and program
JP2020079895A (en) Projector, projection system, control method of projector, projection method, and program
JP2019109273A (en) projector

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125