JP2019192996A - Projection control apparatus and projection control method - Google Patents

Projection control apparatus and projection control method Download PDF

Info

Publication number
JP2019192996A
JP2019192996A JP2018081157A JP2018081157A JP2019192996A JP 2019192996 A JP2019192996 A JP 2019192996A JP 2018081157 A JP2018081157 A JP 2018081157A JP 2018081157 A JP2018081157 A JP 2018081157A JP 2019192996 A JP2019192996 A JP 2019192996A
Authority
JP
Japan
Prior art keywords
projection
image
projector
deformable
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018081157A
Other languages
Japanese (ja)
Inventor
和広 門田
Kazuhiro Kadota
和広 門田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018081157A priority Critical patent/JP2019192996A/en
Priority to US16/380,902 priority patent/US20190327457A1/en
Publication of JP2019192996A publication Critical patent/JP2019192996A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a projection control apparatus capable of easily aligning projection images of a plurality of projection apparatuses.SOLUTION: The projection control apparatus controls a plurality of projection apparatuses including a first projection apparatus for projecting a first projection image a second projection apparatus for projecting a second projection image. The projection control apparatus includes: control means for controlling the first projection apparatus and the second projection apparatus; and reception means for receiving a user's operation. The control means controls the first projection apparatus to project images 1401 to 1404 representing a common area where the first projection image and the second projection image are deformable and the second projection apparatus to project images 1406 to 1409 for designating the deformed shapes of the first projection image and the second projection image. The reception means accepts an operation for moving the images 1406 to 1409.SELECTED DRAWING: Figure 14

Description

本発明は、複数の投影装置を制御する投影制御装置及び投影制御方法に関する。   The present invention relates to a projection control apparatus and a projection control method for controlling a plurality of projection apparatuses.

複数台のプロジェクタ(投影装置)の投影位置を重複させる投影方法(スタック投影)が知られている。スタック投影ではプロジェクタ間の投影位置合わせが必要であるため、位置合わせを容易にする機能を有するプロジェクタも知られている。   A projection method (stack projection) in which projection positions of a plurality of projectors (projectors) are overlapped is known. In the case of stack projection, since projection alignment between projectors is necessary, a projector having a function for facilitating alignment is also known.

プロジェクタの光軸と投影面とが直交する正対位置から投影する場合を除き、投影画像の形状に歪みが生じる(台形歪み)。この台形歪みをプロジェクタの位置を変えずに補正する機能として、キーストーン補正機能が知られている。キーストーン補正機能は、台形歪みを相殺するように液晶パネルの画像を変形することによって実現できる。   Except when projecting from a directly-facing position where the optical axis of the projector and the projection plane are orthogonal, the shape of the projected image is distorted (trapezoidal distortion). A keystone correction function is known as a function for correcting this trapezoidal distortion without changing the position of the projector. The keystone correction function can be realized by deforming the image of the liquid crystal panel so as to cancel the trapezoidal distortion.

このキーストーン補正機能を応用することで、複数台のプロジェクタの投影位置を重複させる技術が知られている。   A technique is known in which the projection positions of a plurality of projectors are overlapped by applying this keystone correction function.

ところで、キーストーン補正はハードウェアやソフトウェアの制約から投影画像の変形可能な範囲が決まっていることがある。特許文献1に開示された技術では、キーストーン補正の変形可能な範囲を表す画像を投影画像に重畳させることで、どのように台形歪み補正をしたら良いのかをユーザに示している。   By the way, in the keystone correction, there is a case where a deformable range of the projected image is determined due to restrictions of hardware and software. The technique disclosed in Patent Document 1 shows a user how to correct trapezoidal distortion by superimposing an image representing a deformable range of keystone correction on a projected image.

特開2009−200557号公報JP 2009-200557 A

スタック投影を実現するためには、複数台のプロジェクタそれぞれに対してキーストーン補正機能を用いることが多い。複数台のプロジェクタの光軸が互いに平行でない場合が多いので、複数台のプロジェクタのキーストーン補正の変形量が異なる。また、スタック投影に用いるプロジェクタ全ての変形可能な範囲の中に、目標とする投影位置(例えば、スクリーンの角など)が収まっている必要がある。   In order to realize stack projection, a keystone correction function is often used for each of a plurality of projectors. Since the optical axes of a plurality of projectors are often not parallel to each other, the amount of deformation for keystone correction of the plurality of projectors is different. In addition, the target projection position (for example, the corner of the screen) needs to be within the deformable range of all projectors used for stack projection.

以上のことから、複数台のプロジェクタに共通する変形可能な範囲を予め知っていないと、位置合わせは非常に煩雑になる。   From the above, the alignment becomes very complicated unless the deformable range common to the plurality of projectors is known in advance.

しかしながら、特許文献1では、複数台のプロジェクタを用いる場合については考慮されていない。   However, Patent Document 1 does not consider the case of using a plurality of projectors.

そこで、本発明は、複数の投影装置の投影画像の位置合わせを容易にすることが可能な投影制御装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a projection control device that can facilitate alignment of projection images of a plurality of projection devices.

その目的を達成するために、本発明の一側面としての投影制御装置は、第1投影画像を投影する第1投影装置と第2投影画像を投影する第2投影装置とを含む複数の投影装置を制御する投影制御装置であって、前記第1投影装置及び前記第2投影装置を制御する制御手段と、ユーザの操作を受け付ける受付手段と、を有し、前記制御手段は、前記第1投影画像及び前記第2投影画像が変形可能な共通領域を表す画像を前記第1投影装置に投影させ、且つ、前記第1投影画像及び前記第2投影画像の変形後の形状を指定するための画像を前記第2投影装置に投影させ、前記受付手段は、前記形状を指定するための画像を移動する操作を受け付けることを特徴とする。   In order to achieve the object, a projection control device according to one aspect of the present invention includes a plurality of projection devices including a first projection device that projects a first projection image and a second projection device that projects a second projection image. A projection control apparatus for controlling the first projection apparatus and the second projection apparatus, and a reception means for receiving a user operation, wherein the control means includes the first projection. An image for projecting an image representing a common area where the image and the second projection image can be deformed onto the first projection device, and designating the deformed shape of the first projection image and the second projection image Is projected onto the second projection device, and the accepting means accepts an operation of moving an image for designating the shape.

本発明の一側面としての投影制御装置によれば、複数の投影装置の投影画像の位置合わせを容易にすることができる。   According to the projection control apparatus as one aspect of the present invention, it is possible to easily align the projection images of a plurality of projection apparatuses.

本発明のその他の側面については、以下で説明する実施の形態で明らかにする。   Other aspects of the present invention will be clarified in the embodiments described below.

実施形態1に係るスタック投影を行う投影システムの構成例を示す模式図FIG. 2 is a schematic diagram illustrating a configuration example of a projection system that performs stack projection according to the first embodiment. 実施形態1に係る投影システムの機能構成例を示すブロック図FIG. 3 is a block diagram illustrating an example of a functional configuration of the projection system according to the first embodiment. キーストーン補正に関する図Illustration about keystone correction キーストーン補正の変形可能量に関する図Diagram of the deformable amount of keystone correction 実施形態1に係る自動位置合わせ処理の概要に関するフローチャートThe flowchart regarding the outline | summary of the automatic alignment process which concerns on Embodiment 1. FIG. 実施形態1に係るプロジェクタ選択用GUIの一例を示す図FIG. 6 is a diagram illustrating an example of a projector selection GUI according to the first embodiment. 実施形態1に係るカメラ選択用GUIの一例を示す図6 is a diagram illustrating an example of a camera selection GUI according to the first embodiment. FIG. 実施形態1に係るカメラパラメータ設定用GUIの一例を示す図FIG. 5 is a diagram illustrating an example of a camera parameter setting GUI according to the first embodiment. 実施形態1に係る位置合わせモード選択用GUIの一例を示す図FIG. 5 is a diagram illustrating an example of an alignment mode selection GUI according to the first embodiment. 実施形態1に係る自動位置合わせ処理に関するフローチャートFlowchart relating to automatic alignment processing according to Embodiment 1 カメラ座標平面とプロジェクタ座標平面の一例を示す図The figure which shows an example of a camera coordinate plane and a projector coordinate plane 実施形態1に係る投影形状指定処理に関するフローチャートThe flowchart regarding the projection shape designation | designated process which concerns on Embodiment 1. FIG. 各平面における変形可能領域に関する図Diagram of deformable area in each plane 実施形態1に係る変形後形状指定マーカーと変形可能領域マーカーの一例を示す図The figure which shows an example of the post-deformation shape designation | designated marker and deformable area | region marker which concern on Embodiment 1. 実施形態1に係る投影形状指定用GUIの一例を示す図FIG. 5 is a diagram showing an example of a projection shape designation GUI according to the first embodiment. 実施形態2に係る投影形状指定処理に関するフローチャートFlowchart for projection shape designation processing according to the second embodiment 実施形態2に係る変形可能領域検出用マーカーの一例を示す図The figure which shows an example of the marker for a deformable area | region detection which concerns on Embodiment 2. FIG. 実施形態3に係る投影形状指定処理に関するフローチャートFlowchart for projection shape designation processing according to Embodiment 3

以下、図面を参照して本発明の例示的な実施形態を詳細に説明する。なお、本発明は説明する実施形態に限定されない。また、実施形態で説明される構成要素の全てが本発明に必須とは限らない。実施形態における個々の機能ブロックは、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアとの組み合わせによって実現することができる。また、1つの機能ブロックは複数のハードウェアで実現されてもよい。また、1つのハードウェアが複数の機能ブロックを実現してもよい。また、1つ以上の機能ブロックは、少なくとも1つのプログラマブルプロセッサ(CPU、MPUなど)が少なくとも1つのメモリに読み込まれたコンピュータプログラムを実行することにより実現されてもよい。1つ以上の機能ブロックをハードウェアで実現する場合、ディスクリート回路や、FPGA、ASICといった集積回路によって実現することができる。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to embodiment described. In addition, all of the constituent elements described in the embodiments are not necessarily essential to the present invention. Individual functional blocks in the embodiments can be realized by hardware, software, or a combination of hardware and software. One functional block may be realized by a plurality of hardware. One hardware may realize a plurality of functional blocks. In addition, the one or more functional blocks may be realized by executing a computer program loaded into at least one memory by at least one programmable processor (CPU, MPU, etc.). When at least one functional block is realized by hardware, it can be realized by an integrated circuit such as a discrete circuit, FPGA, or ASIC.

なお、以下の実施形態では、スタンドアロンタイプの投影装置(プロジェクタ)に本発明を適用した構成について説明する。しかし、例えばパーソナルコンピュータ、スマートフォン、タブレット端末、ゲーム機、デジタル(ビデオ)カメラといった一般的な電子機器が内蔵するプロジェクタにも適用可能である。   In the following embodiments, a configuration in which the present invention is applied to a stand-alone type projector (projector) will be described. However, the present invention can also be applied to projectors incorporated in general electronic devices such as personal computers, smartphones, tablet terminals, game machines, and digital (video) cameras.

また、実施形態の説明において、GUIを示す図を用いることがあるが、それらは一例であり、GUIのレイアウトやコンポーネントの種類、画面遷移などは本発明の要旨を逸脱しない範囲で、省略、置き換え、変更を行うことができる。   In the description of the embodiments, GUIs may be used. However, these are only examples, and GUI layout, component types, screen transitions, and the like are omitted or replaced without departing from the gist of the present invention. Can make changes.

[システム構成]
図1は、本発明の実施形態に係る投影システムの一例を表す模式図である。投影システム10は、投影画像のダイナミックレンジの拡大、輝度の向上、もしくは3D表示のために、投影面500上で複数のプロジェクタの投影領域を重畳させて合致させるスタック投影を行う。なお、図1では、2台のプロジェクタ100a及び100bの投影領域A、Bを合致させる投影システムを示しているが、本発明を3台以上のプロジェクタの投影領域を合致させる投影システムに適用しても良い。
[System configuration]
FIG. 1 is a schematic diagram illustrating an example of a projection system according to an embodiment of the present invention. The projection system 10 performs stack projection in which projection areas of a plurality of projectors are overlapped and matched on the projection plane 500 in order to expand the dynamic range of the projection image, improve the luminance, or perform 3D display. FIG. 1 shows a projection system that matches the projection areas A and B of the two projectors 100a and 100b, but the present invention is applied to a projection system that matches the projection areas of three or more projectors. Also good.

投影システム10に含まれる全てのプロジェクタは投影制御装置として機能するパーソナルコンピュータ(PC)200と相互に通信可能に接続される。本実施形態では、投影制御装置として、PCを用いることを例に挙げるが、スマートフォンやタブレットなど、その他の情報処理装置を用いても良い。また、複数のプロジェクタと、投影制御装置との通信は、有線通信であっても無線通信であってもよく、また、通信プロトコルにも特に制限はない。本実施形態では一例として、TCP/IPを通信プロトコルとして用いるローカルエリアネットワーク(LAN)で装置間の通信が行われるものとする。   All projectors included in the projection system 10 are connected to a personal computer (PC) 200 functioning as a projection control device so as to be able to communicate with each other. In the present embodiment, the use of a PC as an example of the projection control apparatus is exemplified, but other information processing apparatuses such as a smartphone and a tablet may be used. Further, communication between the plurality of projectors and the projection control apparatus may be wired communication or wireless communication, and there is no particular limitation on the communication protocol. In this embodiment, as an example, it is assumed that communication between devices is performed in a local area network (LAN) using TCP / IP as a communication protocol.

また、PC200は、予め定められたコマンドをプロジェクタ100a及び100bに送信することにより、プロジェクタ100aおよび100bの動作を制御することができる。プロジェクタ100aおよび100bはPC200から受信したコマンドに応じた動作を行い、動作の結果をPC200に送信する。   In addition, the PC 200 can control the operations of the projectors 100a and 100b by transmitting predetermined commands to the projectors 100a and 100b. Projectors 100a and 100b perform an operation in accordance with a command received from PC 200, and transmit the operation result to PC 200.

投影システム10はさらに、撮影手段としての撮像装置300を有する。撮像装置300は例えばデジタルカメラ、ウェブカメラ、ネットワークカメラである。あるいは、プロジェクタ100又はPC200に内蔵された撮像装置を用いてもよい。撮像装置は、投影面の全体を撮像範囲として含むように設置されているものとする。PC200の外部の撮像装置を用いる場合は、直接あるいはLANを通じて、PC200と通信可能に接続される。PC200は、撮像装置300に予め定められたコマンドを送信することにより、撮像装置300の動作を制御することができる。例えば、撮像装置300はPC200からの要求に応じて撮影を行い、得られた撮影画像のデータをPC200に送信することができる。   The projection system 10 further includes an imaging device 300 as an imaging unit. The imaging device 300 is, for example, a digital camera, a web camera, or a network camera. Alternatively, an imaging device built in the projector 100 or the PC 200 may be used. The imaging device is installed so as to include the entire projection plane as an imaging range. When using an imaging device external to the PC 200, the PC 200 is communicably connected to the PC 200 directly or through a LAN. The PC 200 can control the operation of the imaging apparatus 300 by transmitting a predetermined command to the imaging apparatus 300. For example, the imaging apparatus 300 can perform imaging in response to a request from the PC 200, and can transmit the obtained captured image data to the PC 200.

[プロジェクタ100の構成]
図2は投影システム10に含まれるプロジェクタ100及びPC200の機能構成例を示すブロック図である。プロジェクタ100は、CPU101、RAM102、ROM103、投影部104、投影制御部105、VRAM106、操作部107、ネットワークIF108、画像処理部109、映像入力110を有する。これらの機能ブロックは内部バス111によって通信可能に接続されている。
[Configuration of Projector 100]
FIG. 2 is a block diagram illustrating a functional configuration example of the projector 100 and the PC 200 included in the projection system 10. The projector 100 includes a CPU 101, a RAM 102, a ROM 103, a projection unit 104, a projection control unit 105, a VRAM 106, an operation unit 107, a network IF 108, an image processing unit 109, and a video input 110. These functional blocks are communicably connected via an internal bus 111.

CPU101はプログラマブルプロセッサの一例であり、例えばROM103に記憶されているプログラムをRAM102に読み込んで実行することにより、プロジェクタ100の動作を実現する。   The CPU 101 is an example of a programmable processor, and implements the operation of the projector 100 by, for example, reading a program stored in the ROM 103 into the RAM 102 and executing it.

RAM102は、CPU101がプログラムを実行する際のワークメモリとして用いられる。RAM102には、プログラムやプログラムの実行に用いる変数などが記憶される。また、RAM102は、他の用途(例えばデータバッファとして)に用いられても良い。   The RAM 102 is used as a work memory when the CPU 101 executes a program. The RAM 102 stores a program and variables used for executing the program. The RAM 102 may be used for other purposes (for example, as a data buffer).

ROM103は書き換え可能であっても良い。ROM103はCPU101が実行するプログラム、メニュー画面などの表示に用いるためのGUIデータなど各種の設定値などが記憶される。   The ROM 103 may be rewritable. The ROM 103 stores a program executed by the CPU 101, various setting values such as GUI data used for displaying a menu screen, and the like.

投影部104は、光源、レンズを含む投影光学系などを有し、投影制御部105から供給される投影用画像に基づいて光学像を投影する。本実施形態では液晶パネルを光学変調素子として用い、光源からの光の反射率もしくは透過率を投影用画像に従って制御することにより、投影用画像に基づく光学像を生成し、投影光学系によって投影面に投影する。   The projection unit 104 includes a projection optical system including a light source and a lens, and projects an optical image based on the projection image supplied from the projection control unit 105. In this embodiment, a liquid crystal panel is used as an optical modulation element, and an optical image based on the projection image is generated by controlling the reflectance or transmittance of light from the light source according to the projection image. Project to.

投影制御部105は、画像処理部109から供給される投影用画像のデータを投影部104に供給する。   The projection control unit 105 supplies the projection image data supplied from the image processing unit 109 to the projection unit 104.

VRAM106は、外部(例えばPCやメディアプレーヤー)から受信した投影用画像のデータを格納するビデオメモリである。   The VRAM 106 is a video memory that stores projection image data received from the outside (for example, a PC or a media player).

操作部107は、キーボタン、スイッチ、タッチパネルなどの入力デバイスを有し、ユーザからプロジェクタ100への指示を受け付ける受付手段である。CPU101は操作部107の操作を監視しており、操作部107の操作を検出すると、検出した操作に応じた処理を実行する。なお、プロジェクタ100がリモートコントローラを有する場合、操作部107はリモートコントローラから受信した操作信号をCPU101に通知する。   The operation unit 107 has an input device such as a key button, a switch, or a touch panel, and is a reception unit that receives an instruction from the user to the projector 100. The CPU 101 monitors the operation of the operation unit 107. When the operation of the operation unit 107 is detected, the CPU 101 executes processing according to the detected operation. When the projector 100 has a remote controller, the operation unit 107 notifies the CPU 101 of an operation signal received from the remote controller.

ネットワークIF108はプロジェクタ100を通信ネットワークに接続するインタフェースであり、サポートする通信ネットワークの規格に準拠した構成を有する。本実施形態においてプロジェクタ100は、ネットワークIF108を通じて、PC200と共通のローカルネットワークに接続される。したがって、プロジェクタ100とPC200との通信はネットワークIF108を通じて実行される。   A network IF 108 is an interface for connecting the projector 100 to a communication network, and has a configuration conforming to the standard of the supported communication network. In the present embodiment, the projector 100 is connected to a local network common to the PC 200 through the network IF 108. Therefore, communication between the projector 100 and the PC 200 is executed through the network IF 108.

画像処理部109は、映像入力部110に供給され、VRAM106に格納された映像信号に対して様々な画像処理を必要に応じて適用し、投影制御部105に供給する。画像処理部109は例えば画像処理用のマイクロプロセッサであってよい。あるいは、画像処理部109に相当する機能を、CPU101がROM103に記憶されたプログラムを実行することによって実現してもよい。   The image processing unit 109 applies various image processing to the video signal supplied to the video input unit 110 and stored in the VRAM 106 as necessary, and supplies the image signal to the projection control unit 105. The image processing unit 109 may be a microprocessor for image processing, for example. Alternatively, a function corresponding to the image processing unit 109 may be realized by the CPU 101 executing a program stored in the ROM 103.

画像処理部109が適用可能な画像処理には、フレーム間引き処理、フレーム補間処理、解像度変換処理、メニュー画面などのOSDを重複させる処理、キーストーン補正処理、エッジブレンディング処理などが含まれるが、これらに限定されない。   Image processing that can be applied by the image processing unit 109 includes frame thinning processing, frame interpolation processing, resolution conversion processing, OSD overlap processing such as a menu screen, keystone correction processing, and edge blending processing. It is not limited to.

映像入力部110は、外部装置(本実施形態ではPC200)が出力する映像信号を直接または間接的に受信するインタフェースであり、サポートする映像信号に応じた構成を有する。映像入力部110は例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子の1つ以上を含む。映像入力部110はまた、アナログ映像信号を受信した場合、デジタル映像信号に変換してVRAM106に格納する。   The video input unit 110 is an interface that directly or indirectly receives a video signal output from an external device (PC 200 in the present embodiment), and has a configuration corresponding to the video signal to be supported. The video input unit 110 includes, for example, one or more of a composite terminal, an S video terminal, a D terminal, a component terminal, an analog RGB terminal, a DVI-I terminal, a DVI-D terminal, and an HDMI (registered trademark) terminal. When receiving an analog video signal, the video input unit 110 converts the analog video signal into a digital video signal and stores the digital video signal in the VRAM 106.

[PC200の構成]
次に、PC200の機能構成について説明する。PC200は外部ディスプレイが接続可能な汎用コンピュータであってよく、したがって汎用コンピュータに準じた機能構成を有する。PC200は、CPU201、RAM202、ROM203、操作部204、表示部205、ネットワークIF206、映像出力部207、通信部208を有する。また、これの機能ブロックは内部バス209によって通信可能に接続されている。
[Configuration of PC 200]
Next, the functional configuration of the PC 200 will be described. The PC 200 may be a general-purpose computer to which an external display can be connected, and thus has a functional configuration according to the general-purpose computer. The PC 200 includes a CPU 201, a RAM 202, a ROM 203, an operation unit 204, a display unit 205, a network IF 206, a video output unit 207, and a communication unit 208. These functional blocks are communicably connected via an internal bus 209.

CPU201は、プログラマブルプロセッサの一例であり、例えばROM203に記憶されているプログラム(OSやアプリケーションプログラム)をRAM202に読み込んで実行することにより、PC200の動作を実現する。   The CPU 201 is an example of a programmable processor, and realizes the operation of the PC 200 by, for example, reading a program (OS or application program) stored in the ROM 203 into the RAM 202 and executing it.

RAM202は、CPU201がプログラムを実行する際のワークメモリとして用いられる。RAM202には、プログラムやプログラムの実行に用いる変数などが記憶される。また、RAM202は、他の用途(例えばデータバッファとして)に用いられてもよい。   The RAM 202 is used as a work memory when the CPU 201 executes a program. The RAM 202 stores a program and variables used for executing the program. The RAM 202 may be used for other purposes (for example, as a data buffer).

ROM203は書き換え可能であってよい。ROM203は、CPU201が実行するプログラム、メニュー画面などの表示に用いるためのGUIデータ、各種の設定値などが記憶される。なお、PC200はROM203よりも大容量の記憶装置(HDDやSSD)を有してもよく、この場合OSやアプリケーションプログラムといった容量の大きいプログラムは記憶装置に記憶してもよい。   The ROM 203 may be rewritable. The ROM 203 stores programs executed by the CPU 201, GUI data used for displaying menu screens, various setting values, and the like. The PC 200 may have a storage device (HDD or SSD) having a larger capacity than the ROM 203. In this case, a program having a large capacity such as an OS or an application program may be stored in the storage device.

操作部204は、キーボード、ポインティングデバイス(マウスなど)、タッチパネル、スイッチなどの入力デバイスを有し、ユーザからPC200への指示を受け付ける。なお、キーボードはソフトウェアキーボードであってもよい。CPU201は操作部204の操作を監視しており、操作部204の操作を検出すると、検出した操作に応じた処理を実行する。   The operation unit 204 includes input devices such as a keyboard, a pointing device (such as a mouse), a touch panel, and a switch, and receives instructions from the user to the PC 200. The keyboard may be a software keyboard. The CPU 201 monitors the operation of the operation unit 204. When the operation of the operation unit 204 is detected, processing according to the detected operation is executed.

表示部205は例えば液晶パネルや有機ELパネルである。表示部205は、OSやアプリケーションプログラムが提供する画面の表示を行う。なお、表示部205は外部装置であってもよい。また、表示部205はタッチディスプレイであってもよい。   The display unit 205 is, for example, a liquid crystal panel or an organic EL panel. The display unit 205 displays a screen provided by the OS or application program. The display unit 205 may be an external device. The display unit 205 may be a touch display.

ネットワークIF206はPC200を通信ネットワークに接続するインタフェースであり、サポートする通信ネットワークの規格に準拠した構成を有する。本実施形態においてPC200は、ネットワークIF206を通じて、プロジェクタ100と共通のローカルネットワークに接続される。したがって、PC200とプロジェクタ100との通信はネットワークIF206を通じて実行される。   A network IF 206 is an interface for connecting the PC 200 to a communication network, and has a configuration conforming to the standard of the supported communication network. In the present embodiment, the PC 200 is connected to a local network common to the projector 100 through the network IF 206. Therefore, communication between the PC 200 and the projector 100 is executed through the network IF 206.

映像出力部207は、外部装置(本実施形態ではプロジェクタ100または映像分配器300)に映像信号を送信するインタフェースであり、サポートする映像信号に応じた構成を有する。映像出力部207は例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子の1つ以上を含む。   The video output unit 207 is an interface that transmits a video signal to an external device (in this embodiment, the projector 100 or the video distributor 300), and has a configuration corresponding to the video signal to be supported. The video output unit 207 includes, for example, one or more of a composite terminal, an S video terminal, a D terminal, a component terminal, an analog RGB terminal, a DVI-I terminal, a DVI-D terminal, and an HDMI (registered trademark) terminal.

なお、本実施形態では、プロジェクタ100の投影領域の調整機能を有する投影制御アプリケーションプログラムのUI画面を表示部205に表示するものとするが、映像出力部207に接続された外部機器にUI画面を表示させてもよい。   In this embodiment, the UI screen of the projection control application program having the projection area adjustment function of the projector 100 is displayed on the display unit 205. However, the UI screen is displayed on an external device connected to the video output unit 207. It may be displayed.

通信部208は外部機器と例えばシリアル通信を行うための通信インタフェースであり、代表的にはUSBインタフェースであるが、RS−232Cなど他の規格に準じた構成を有しても良い。本実施形態では撮像装置300が通信部208に接続されるものとするが、撮像装置300とPC200との通信方法に特に制限はなく、両者がサポートしている任意の規格に準拠した通信を行うことができる。   The communication unit 208 is a communication interface for performing serial communication with an external device, for example, and is typically a USB interface, but may have a configuration conforming to another standard such as RS-232C. In this embodiment, it is assumed that the imaging apparatus 300 is connected to the communication unit 208. However, there is no particular limitation on the communication method between the imaging apparatus 300 and the PC 200, and communication conforming to any standard supported by both is performed. be able to.

[キーストーン補正について]
次に、キーストーン補正について図3を用いて説明する。キーストーン補正は、投影面の法線方向と投影方向(一般的には投影光学系の光軸)とのずれに応じて投影画像に生じる台形歪みを相殺するように元画像を幾何学的変換(変形)させる補正(幾何補正)である。画像の幾何学的変換は射影変換によって実現できるため、キーストーン補正は幾何補正の補正量である射影変換のパラメータの決定に等しい。例えば、CPU101は、矩形上の元画像の各頂点の移動量と移動方向に基づいて射影変換のパラメータを決定し、画像処理部109に与えることができる。
[Keystone correction]
Next, keystone correction will be described with reference to FIG. Keystone correction geometrically transforms the original image to cancel the trapezoidal distortion that occurs in the projected image according to the deviation between the normal direction of the projection plane and the projection direction (typically the optical axis of the projection optical system). This is correction (geometric correction) to be (deformed). Since the geometric transformation of the image can be realized by projective transformation, the keystone correction is equivalent to the determination of the parameter of the projective transformation that is the correction amount of the geometric correction. For example, the CPU 101 can determine projection transformation parameters based on the movement amount and movement direction of each vertex of the original image on the rectangle, and can provide the parameters to the image processing unit 109.

例えば、元画像の座標を(xs,ys)とすると、射影変換による変形後の画像の座標(xd,yd)は以下の式1で表わされる。   For example, assuming that the coordinates of the original image are (xs, ys), the coordinates (xd, yd) of the image after deformation by projective transformation are expressed by the following Equation 1.

Figure 2019192996
Figure 2019192996

ここで、Mは3×3行列で、元画像から変形後の画像への射影変換行列である。また、xso、ysoは、図3に実線で示す元画像の左上の頂点の座標であり、xdo、ydoは、図3に一点鎖線で示す変形後の画像において、元画像の頂点(xso,yso)に対応する頂点の座標値である。   Here, M is a 3 × 3 matrix, which is a projective transformation matrix from the original image to the transformed image. Further, xso and yso are the coordinates of the upper left vertex of the original image indicated by the solid line in FIG. 3, and xdo and ydo are the vertexes (xso, yso) of the original image in the transformed image indicated by the dashed line in FIG. ) Is the coordinate value of the vertex corresponding to.

CPU101は、式1の行列Mとその逆行列M−1を、オフセット(xso,yso),(xdo,ydo)とともに、キーストーン補正のパラメータとして画像処理部109に与える。画像処理部109は、以下の式2に従い、キーストーン補正後の座標値(xd,yd)に対応する元画像の座標(xs,ys)を求めることができる。 The CPU 101 supplies the matrix M of Expression 1 and its inverse matrix M −1 to the image processing unit 109 as offset parameters (xso, yso) and (xdo, ydo) as parameters for keystone correction. The image processing unit 109 can obtain the coordinates (xs, ys) of the original image corresponding to the coordinate values (xd, yd) after the keystone correction according to the following Expression 2.

Figure 2019192996
Figure 2019192996

式2で得られる元画像の座標xs,ysがいずれも整数であれば、画像処理部109は元画像座標(xs,ys)の画素値をそのままキーストーン補正後の画像の座標(xd,yd)の画素値とすることができる。一方、式2で得られる元画像の座標が整数にならない場合、画像処理部109は、元画像座標(xs,ys)に相当する画素値を、複数の周辺画素の値を用いた補間演算により求めることができる。補間演算は、例えばバイリニア、バイキュービックなど、公知の補間演算のいずれかを用いて行うことができる。なお、式2で得られる元画像の座標が、元画像の外部領域の座標である場合、画像処理部109は、キーストーン補正後の画像の座標(xd,yd)の画素値を黒(0)またはユーザが設定した背景色とする。このようにして、画像処理部109は、キーストーン補正後の画像の全座標についての画素値を求め、変換後画像を作成することができる。   If the coordinates xs and ys of the original image obtained by Expression 2 are both integers, the image processing unit 109 uses the pixel values of the original image coordinates (xs, ys) as they are as the coordinates (xd, yd) of the image after keystone correction. ) Pixel value. On the other hand, when the coordinates of the original image obtained by Expression 2 are not integers, the image processing unit 109 calculates the pixel value corresponding to the original image coordinates (xs, ys) by interpolation using the values of a plurality of surrounding pixels. Can be sought. The interpolation calculation can be performed using any of known interpolation calculations such as bilinear and bicubic. When the coordinates of the original image obtained by Expression 2 are the coordinates of the external area of the original image, the image processing unit 109 sets the pixel value of the coordinates (xd, yd) of the image after keystone correction to black (0 ) Or the background color set by the user. In this way, the image processing unit 109 can obtain pixel values for all coordinates of the image after the keystone correction, and create a converted image.

ここでは、プロジェクタ100のCPU101から画像処理部109に、行列Mとその逆行列M−1の両方が供給されるものとしたが、いずれか一方の行列だけを供給し、他方の行列は画像処理部109が求めてもよい。 Here, it is assumed that both the matrix M and its inverse matrix M −1 are supplied from the CPU 101 of the projector 100 to the image processing unit 109, but only one of the matrices is supplied, and the other matrix is image processing. The part 109 may obtain it.

なお、キーストーン補正後の画像の頂点の座標は、例えば投影画像の個々の頂点について、頂点が所望の位置に投影されるように操作部107を通じてユーザから移動量を入力させることにより取得することができる。この際、移動量の入力を支援するため、CPU201は、投影制御アプリケーションプログラムの機能を用い、プロジェクタ100にテストパターンを投影させるようにしてもよい。   Note that the coordinates of the vertices of the image after the keystone correction are obtained, for example, by causing the user to input a movement amount through the operation unit 107 so that the vertices are projected at a desired position for each vertex of the projection image. Can do. At this time, in order to support the input of the movement amount, the CPU 201 may cause the projector 100 to project the test pattern using the function of the projection control application program.

ところで、キーストーン補正には、ハードウェアやソフトウェアの制限により、変形可能領域が定められていることがある。図4にキーストーン補正の変形可能量を表す模式図を示す。図4の400はプロジェクタのパネル平面を表す。図4の斜線の領域401は、キーストーン補正する際に左上頂点が移動可能な領域である変形可能領域を表す。斜線の領域401〜404は矩形形状であるパネルの4つの頂点の変形可能領域を表す。また、図4のΔx_maxはx軸方向の最大変形可能量、Δy_maxはy軸方向の最大変形可能量を表す。   By the way, in the keystone correction, a deformable area may be defined due to hardware or software limitations. FIG. 4 is a schematic diagram showing the deformable amount of keystone correction. 4 in FIG. 4 represents a panel plane of the projector. A hatched area 401 in FIG. 4 represents a deformable area where the upper left vertex is movable when performing keystone correction. The hatched areas 401 to 404 represent the deformable areas of the four vertices of the rectangular panel. In FIG. 4, Δx_max represents the maximum deformable amount in the x-axis direction, and Δy_max represents the maximum deformable amount in the y-axis direction.

なお、Δx_max及びΔy_maxは、プロジェクタのハードウェアやソフトウェアの構成によって異なる場合がある。Δx_max及びΔy_maxは、特許文献1と同様、各変形可能領域がパネルの最大画素領域と相似形となるように設定してもよい。また、例えば、各変形可能領域が正方形になるようにΔx_max及びΔy_maxを500ピクセルに設定してもよい。   Note that Δx_max and Δy_max may differ depending on the hardware and software configuration of the projector. Δx_max and Δy_max may be set so that each deformable region is similar to the maximum pixel region of the panel, as in Patent Document 1. Further, for example, Δx_max and Δy_max may be set to 500 pixels so that each deformable region is a square.

[自動位置合わせ処理]
本実施形態のPC200が投影制御アプリケーションプログラムを実行することにより実現する、自動位置合わせ処理の概要を図5のフローチャートに示す。
[Automatic alignment processing]
A flowchart of FIG. 5 shows an outline of the automatic alignment processing realized by the PC 200 of the present embodiment executing the projection control application program.

S501でPC200のCPU201は、PC200が通信可能なプロジェクタ100の中から、自動位置合わせ処理の対象とする複数のプロジェクタを選択する。   In step S <b> 501, the CPU 201 of the PC 200 selects a plurality of projectors to be subjected to automatic alignment processing from the projectors 100 with which the PC 200 can communicate.

図6は、CPU201が投影制御アプリケーションプログラムを実行することにより表示部205に表示されるGUI画面600の例を示す図である。ユーザはPCの操作部204を通じて画面600を操作する。   FIG. 6 is a diagram illustrating an example of a GUI screen 600 displayed on the display unit 205 when the CPU 201 executes the projection control application program. The user operates the screen 600 through the operation unit 204 of the PC.

ユーザによって「検索」ボタン601が押下されたことをCPU201が検出すると、CPU201は、ネットワークIF206を介して、プロジェクタ名とIPアドレスに関する情報を要求する所定のコマンドをネットワーク上にブロードキャストする。なお、このときに要求する情報は、プロジェクタ名とIPアドレスに限らず、例えばキーストーン変形可能量なども予め要求しても良い。   When the CPU 201 detects that the “search” button 601 has been pressed by the user, the CPU 201 broadcasts a predetermined command requesting information on the projector name and the IP address via the network IF 206 on the network. Note that the information requested at this time is not limited to the projector name and the IP address, and for example, the keystone deformable amount may be requested in advance.

ネットワークに接続されている個々のプロジェクタ100のCPU101は、ネットワークIF108を介してコマンドを受信すると、自身のプロジェクタ名とIPアドレスを示す情報を含んだデータを、PC200に対して送信する。PC200のCPU201は、コマンドに応答して送信されたデータを受信し、データに含まれる情報を抽出してリストビュー602に表示する。なお、リストビュー602に表示されるプロジェクタの並び順は、検出された順であってもよいし、特定の規則に基づいてソートしてもよい。   When the CPU 101 of each projector 100 connected to the network receives a command via the network IF 108, the CPU 101 transmits data including information indicating its projector name and IP address to the PC 200. The CPU 201 of the PC 200 receives the data transmitted in response to the command, extracts information included in the data, and displays it on the list view 602. Note that the arrangement order of the projectors displayed in the list view 602 may be the detected order, or may be sorted based on a specific rule.

ユーザは例えばチェックボックス603〜606にチェックを入れることで、位置合わせ対象のプロジェクタを選択する。画面600は、PC200に接続されているプロジェクタ100が4台である場合の例である。   For example, the user selects check boxes 603 to 606 to select a projector to be aligned. Screen 600 is an example when there are four projectors 100 connected to PC 200.

位置合わせ対象のプロジェクタをプロジェクタ100a(Projector1)、プロジェクタ100b(Projector2)としたい場合は、チェックボックス604及びチェックボックス606にチェックを入れればよい。   When the projectors to be aligned are the projector 100a (Projector 1) and the projector 100b (Projector 2), the check box 604 and the check box 606 may be checked.

チェックボックスにチェックが入ったプロジェクタに関する情報(例えば、プロジェクタ名、IPアドレスなど)はPC200のRAM202に格納される。   Information (for example, projector name, IP address, etc.) relating to the projector whose check box is checked is stored in the RAM 202 of the PC 200.

図6の「テストパターンON」ボタン607の操作が検出されると、CPU201は、チェックボックスにチェックが入った複数のプロジェクタのそれぞれに対し、ネットワークIF206を通じてテストパターンの表示を指示するコマンドを送信する。これは、図5の処理フローのS502に相当する。ボタン606の操作に応じて表示させるテストパターンは、各プロジェクタ100の表示領域の大きさや位置を確認しやすくするためのテストパターンであり、例えば格子状の画像などを表示させる。なお、テストパターンに関しては、PC200から個々のプロジェクタ100へ、テストパターンの表示を指示するコマンドを関連付けて送信しても良いし、任意の直線や図形、文字列などをプロジェクタに描画させるコマンドを複数組み合わせて送信しても良い。   When the operation of the “test pattern ON” button 607 in FIG. 6 is detected, the CPU 201 transmits a command for instructing the display of the test pattern through the network IF 206 to each of the plurality of projectors whose check boxes are checked. . This corresponds to S502 of the processing flow in FIG. The test pattern to be displayed according to the operation of the button 606 is a test pattern for making it easy to confirm the size and position of the display area of each projector 100, and displays, for example, a grid image. Regarding the test pattern, a command for instructing display of the test pattern may be transmitted from the PC 200 to each projector 100 in association with each other, or a plurality of commands for causing the projector to draw an arbitrary straight line, figure, character string, or the like. You may transmit in combination.

図6の「テストパターンOFF」ボタン608の操作が検出されると、CPU201はチェックボックスにチェックが入ったプロジェクタそれぞれに対し、ネットワークIF206を通じてテストパターンの非表示を指示するコマンドを送信する。   When the operation of the “test pattern OFF” button 608 in FIG. 6 is detected, the CPU 201 transmits a command instructing non-display of the test pattern through the network IF 206 to each projector whose check box is checked.

図6の「Next」ボタン609の操作が検出されると、図7に示す画面700に遷移する(図5のS502からS503への遷移に相当)。   When the operation of the “Next” button 609 in FIG. 6 is detected, the screen transitions to the screen 700 shown in FIG. 7 (corresponding to the transition from S502 to S503 in FIG. 5).

図5のS503では、自動位置合わせ処理に用いるカメラの選択を行う。図7の700はカメラ選択画面を表す。図7の「検索」ボタン701の操作が検出されると、PC200のCPU201は自身と接続(USB接続やネットワーク接続など)されたカメラの情報(例えば、カメラの製品名)を取得し、ドロップダウンリスト702に表示する。ユーザは検索された複数のカメラから所望のカメラをドロップダウンリスト702によって1台選択する。なお、自動位置合わせ処理に用いるカメラの台数は1台でなく、2台以上選択できてもよい。   In S503 of FIG. 5, the camera used for the automatic alignment process is selected. Reference numeral 700 in FIG. 7 represents a camera selection screen. When the operation of the “Search” button 701 in FIG. 7 is detected, the CPU 201 of the PC 200 acquires information (for example, the product name of the camera) of the camera connected to itself (USB connection, network connection, etc.), and performs drop-down. It is displayed in a list 702. The user selects one desired camera from the plurality of searched cameras by using the drop-down list 702. Note that the number of cameras used for the automatic alignment process is not limited to one, and two or more cameras may be selected.

図7に示す画像領域703は、ドロップダウンリスト702で選択されたカメラで撮影した画像を表示する領域である。例えば、PC200のCPU201が選択されたカメラ300に対して、撮影を指示するコマンドを送信し、取得した撮影画像を画像領域703に貼り付けることで実現する。ここに表示される画像は、ライブビュー画像が望ましいが、静止画であってもよい。   An image area 703 shown in FIG. 7 is an area for displaying an image captured by the camera selected from the drop-down list 702. For example, the CPU 201 of the PC 200 can be realized by transmitting a command for instructing shooting to the selected camera 300 and pasting the acquired captured image in the image area 703. The image displayed here is preferably a live view image, but may be a still image.

ユーザはこの画像領域703を観察することで、カメラの撮像範囲内にプロジェクタの投影画像(テストパターン)が全て収まるためのカメラの設置やズーム調整を容易に行うことができる。   By observing the image area 703, the user can easily perform camera installation and zoom adjustment so that the projection images (test patterns) of the projector are all within the imaging range of the camera.

図7の「Back」ボタン705の操作が検出されると、前画面(図6に示す画面)に戻る。図5のフローチャートでは不図示であるが、S503からS501へ遷移する。   When the operation of the “Back” button 705 in FIG. 7 is detected, the screen returns to the previous screen (screen shown in FIG. 6). Although not shown in the flowchart of FIG. 5, the process proceeds from S503 to S501.

図7のチェックボックス704はカメラのパラメータをPC200が自動で設定するか否かを設定するためのものである。「Next」ボタン706で次画面に遷移する際に、チェックボックス704にチェックが入っているか否かで、カメラのパラメータを自動で設定するかどうかを切り替えることができる。ここでは詳細な説明は割愛するが、複数のプロジェクタ100のテストパターンを投影した状態おいてカメラで測光することにより、そのカメラのパラメータを得ることができる。   A check box 704 in FIG. 7 is used to set whether or not the PC 200 automatically sets camera parameters. When transitioning to the next screen with the “Next” button 706, whether or not to automatically set camera parameters can be switched depending on whether or not the check box 704 is checked. Although detailed description is omitted here, the parameters of the camera can be obtained by performing photometry with the camera in a state where the test patterns of the plurality of projectors 100 are projected.

図7の「Next」ボタン706の操作が検出されると、図8の800に示す画面に遷移する(図5のS503からS504への遷移に相当)。   When the operation of the “Next” button 706 in FIG. 7 is detected, the screen transitions to a screen indicated by 800 in FIG. 8 (corresponding to the transition from S503 to S504 in FIG. 5).

図5のS504では、カメラのパラメータ(シャッター速度、ISO感度、絞り値など)を設定する。図8の800はカメラパラメータ設定画面を表す。   In S504 of FIG. 5, camera parameters (shutter speed, ISO sensitivity, aperture value, etc.) are set. 8 represents a camera parameter setting screen.

図8の801、802、803はそれぞれ、カメラのシャッター速度、ISO感度、絞り値を設定するためのドロップダウンリストである。なお、設定できるカメラのパラメータはこれに限らず、例えばホワイトバランスや測光方式などを設定できるようにしてもよい。   Reference numerals 801, 802, and 803 in FIG. 8 are drop-down lists for setting the camera shutter speed, ISO sensitivity, and aperture value, respectively. Note that the camera parameters that can be set are not limited to this, and for example, white balance, photometry method, and the like may be set.

図8の「テスト撮影」ボタン804の操作が検出されると、PC200は選択されたカメラ300に対して撮影を促すコマンドを送信して、撮影画像を取得し、画像表示領域805上に表示する。このとき表示する画像は、シャッター速度などのパラメータが正しく設定できたかどうかを確認するためのものなので、静止画であることが望ましいが、ライブビュー画像であっても構わない。   When the operation of the “test shooting” button 804 in FIG. 8 is detected, the PC 200 transmits a command for prompting shooting to the selected camera 300, acquires the shot image, and displays it on the image display area 805. . Since the image displayed at this time is for confirming whether parameters such as the shutter speed have been set correctly, it is preferably a still image, but it may be a live view image.

図8の「Back」ボタン806の操作が検出されると、前画面(図7に示す画面)に戻る。図5のフローチャートでは不図示であるが、S504からS503へ遷移する。   When the operation of the “Back” button 806 in FIG. 8 is detected, the screen returns to the previous screen (the screen shown in FIG. 7). Although not shown in the flowchart of FIG. 5, the process proceeds from S504 to S503.

図8の「Next」ボタン807の操作が検出されると、図9の900に示す画面に遷移する(図5のS504からS505への遷移に相当)。   When the operation of the “Next” button 807 in FIG. 8 is detected, the screen transitions to a screen indicated by 900 in FIG. 9 (corresponding to the transition from S504 to S505 in FIG. 5).

図5のS505では、位置合わせモードを選択する。位置合わせモードは「4点指定調整」と「基準プロジェクタに合わせる」のいずれか一つ選択する。   In S505 of FIG. 5, the alignment mode is selected. As the alignment mode, one of “4-point designated adjustment” and “Align with reference projector” is selected.

「4点指定調整」は予め定められた4点に個々の投影領域の頂点を合わせるようなキーストーン補正量を自動で決定するモードである。4点指定調整は、例えば、投影面が枠付きのスクリーンである場合のように、投影目標位置が明確な場合に有用である。なお、座標を調整可能な点の数は4点より少なくてもよいし、頂点以外の座標を含む5点以上としてもよい。   “Four-point designation adjustment” is a mode in which a keystone correction amount is automatically determined such that the vertices of individual projection areas are aligned with four predetermined points. The four-point designation adjustment is useful when the projection target position is clear, for example, when the projection surface is a screen with a frame. Note that the number of points whose coordinates can be adjusted may be less than 4, or may be 5 points or more including coordinates other than the vertexes.

「基準プロジェクタに合わせる」は、1つのプロジェクタを基準プロジェクタとして、基準プロジェクタの投影領域に他のプロジェクタの投影領域を合致させるようなキーストーン補正量を自動で決定するモードである。このモードの自動位置合わせが実行されるのは、基準プロジェクタの投影領域の位置が、指定された位置に調整されている場合である。基準プロジェクタ以外のプロジェクタの投影領域を基準プロジェクタの投影領域に合致させるためのキーストーン補正量を自動的に決定する。こちらは、「4点指定調整」とは異なり、投影目標位置が明確ではない場合(例えば壁面への投影など)に有効な機能である。   “Adjust to reference projector” is a mode in which one projector is used as a reference projector and a keystone correction amount is automatically determined so that the projection area of another projector matches the projection area of the reference projector. The automatic alignment in this mode is executed when the position of the projection area of the reference projector is adjusted to the designated position. A keystone correction amount for automatically matching the projection area of the projector other than the reference projector with the projection area of the reference projector is determined. This is an effective function when the projection target position is not clear (for example, projection onto a wall surface, etc.), unlike “4-point designation adjustment”.

図9に、位置合わせモード選択画面900を示す。ラジオボタン901とラジオボタン902のどちらが選択されているかに応じて、PC200のCPU201はどちらの位置合わせモードで調整するのかを切り替える。選択された位置合わせモードに関する情報はPC200のCPU201が自身のRAM202に格納する。   FIG. 9 shows an alignment mode selection screen 900. Depending on which one of the radio button 901 and the radio button 902 is selected, the CPU 201 of the PC 200 switches which alignment mode is used for adjustment. Information regarding the selected alignment mode is stored in its own RAM 202 by the CPU 201 of the PC 200.

図9のドロップダウンリスト903は、基準プロジェクタを選択するためのものである。ここで選択可能なプロジェクタは図5のS501で調整対象とされたプロジェクタである。ユーザはこのドロップダウンリストから所望のプロジェクタを1台選択し、PC200のCPU201は選択されたプロジェクタを基準プロジェクタとして、自身のRAM202に記憶する。   A drop-down list 903 in FIG. 9 is for selecting a reference projector. The projector that can be selected here is the projector that has been adjusted in S501 in FIG. The user selects one desired projector from the drop-down list, and the CPU 201 of the PC 200 stores the selected projector in its own RAM 202 as the reference projector.

図9の「基準プロジェクタを確認」ボタン904の操作が検出されると、PC200のCPU201は、ネットワークIFを通して、図5のS501において選択されたプロジェクタそれぞれに対して特定のテストパターンを表示させるコマンドを送信する。このとき、基準プロジェクタにのみ他のプロジェクタと色、輝度、形状のいずれかが異なるような画像を投影させることで、投影面上のどの投影画像が基準プロジェクタによるものなのかを容易に確認することができる。   When the operation of the “confirm reference projector” button 904 in FIG. 9 is detected, the CPU 201 of the PC 200 issues a command for displaying a specific test pattern for each of the projectors selected in S501 of FIG. Send. At this time, it is possible to easily confirm which projection image on the projection plane is the reference projector by projecting an image whose color, brightness, or shape is different from other projectors only on the reference projector. Can do.

図9の「Back」ボタン905の操作が検出されると、前画面(図8に示す画面)に戻る。図5のフローチャートでは不図示であるが、S505からS504へ遷移する。   When the operation of the “Back” button 905 in FIG. 9 is detected, the screen returns to the previous screen (the screen shown in FIG. 8). Although not shown in the flowchart of FIG. 5, the process proceeds from S505 to S504.

図9の「Next」ボタン906の操作が検出されると、PC200のCPU201は自動調整処理を開始する(図5のS504からS505への遷移に相当)。   When the operation of the “Next” button 906 in FIG. 9 is detected, the CPU 201 of the PC 200 starts an automatic adjustment process (corresponding to the transition from S504 to S505 in FIG. 5).

図10は、自動位置合わせ処理S506の詳細なフローチャートである。S1002からS1004をプロジェクタごとに繰り返すことで、位置合わせ対象の各プロジェクタとカメラの射影変換行列をそれぞれ取得する。   FIG. 10 is a detailed flowchart of the automatic alignment process S506. By repeating S1002 to S1004 for each projector, the projective transformation matrices of each projector and camera to be aligned are acquired.

図11を用いて、射影変換行列の算出方法について説明する。図11(a)はカメラ座標平面(撮影画像の座標系)を、図11(b)はプロジェクタ座標平面(プロジェクタのパネルの座標系)をそれぞれ表す。プロジェクタ座標平面上の座標を(xi,yi)、カメラ座標平面上の座標を(Xi,Yi)とすると、射影変換式は式3及び式4で表される(iは自然数)。このとき、iが等しい変数はそれぞれ対応していることを表す。   A method of calculating the projective transformation matrix will be described with reference to FIG. FIG. 11A shows the camera coordinate plane (the coordinate system of the captured image), and FIG. 11B shows the projector coordinate plane (the coordinate system of the projector panel). When the coordinates on the projector coordinate plane are (xi, yi) and the coordinates on the camera coordinate plane are (Xi, Yi), the projective transformation formulas are expressed by Formula 3 and Formula 4 (i is a natural number). At this time, the variables having the same i correspond to each other.

Figure 2019192996
Figure 2019192996

Figure 2019192996
Figure 2019192996

ここで、aからhは所定の定数を示す。   Here, a to h are predetermined constants.

上記の式3及び式4を式変形し、行列で表現した式を式5に示す。   Formula 5 is a formula obtained by modifying Formula 3 and Formula 4 above and expressing the result in a matrix.

Figure 2019192996
Figure 2019192996

このときのMが射影変換行列である。この射影変換行列は、式3及び式4に対して、対応する4組の点(x1,y1,X1,Y1)、(x2,y2,X2,Y2)、(x3,y3,X3,Y3)、(x4,y4,X4,Y4)をそれぞれ代入することで算出することができる。すなわち、平面同士の少なくとも4点の座標の対応関係が分かっていれば、射影変換行列を算出できる。   M at this time is a projective transformation matrix. This projective transformation matrix has four corresponding points (x1, y1, X1, Y1), (x2, y2, X2, Y2), (x3, y3, X3, Y3) with respect to Equations 3 and 4. , (X4, y4, X4, Y4) can be respectively calculated. That is, if a correspondence relationship between at least four coordinates of planes is known, a projective transformation matrix can be calculated.

例えば、プロジェクタが四角形(図11(b)の斜線部)を投影し、撮影画像におけるプロジェクタから投影された四角形の頂点座標を検出できれば射影変換行列を算出できる。頂点座標の検出方法についての説明については公知の技術を用いればよいので割愛する。   For example, if the projector projects a quadrangle (the shaded area in FIG. 11B) and the vertex coordinates of the quadrangle projected from the projector in the captured image can be detected, the projective transformation matrix can be calculated. Description of the vertex coordinate detection method will be omitted because a known technique may be used.

図11において、カメラ座標平面のP_a,P_b,P_c,P_dはプロジェクタ座標平面のp_a,p_b,p_c,p_dにそれぞれ対応する。これら既知の4点の対応関係より、射影変換行列を算出する。この算出した射影変換行列を用いることで、未知の座標点の射影変換を実行できる。例えば、カメラ座標平面の点P_eに対して、算出した射影変換行列を掛けることで、対応するプロジェクタ座標平面上の点p_eを算出できる。また、プロジェクタ座標平面上のp_eに、算出した射影変換行列の逆行列を掛けることで、対応するカメラ座標平面の点P_eを算出できる。   In FIG. 11, P_a, P_b, P_c, and P_d on the camera coordinate plane correspond to p_a, p_b, p_c, and p_d on the projector coordinate plane, respectively. A projective transformation matrix is calculated from the correspondence of these four known points. By using this calculated projective transformation matrix, projective transformation of unknown coordinate points can be executed. For example, the corresponding point p_e on the projector coordinate plane can be calculated by multiplying the point P_e on the camera coordinate plane by the calculated projective transformation matrix. Also, by multiplying p_e on the projector coordinate plane by the inverse matrix of the calculated projective transformation matrix, the corresponding point P_e on the camera coordinate plane can be calculated.

上述した方法で射影変換行列の算出ができるが、撮像装置300で撮影する際にプロジェクタが投影する画像は四角形でなくても良い。カメラ座標平面とプロジェクタ座標平面同士の少なくとも4点の座標の対応関係を求めることができるような画像であれば、どのようなものであっても良い。   Although the projective transformation matrix can be calculated by the above-described method, an image projected by the projector when shooting with the imaging apparatus 300 may not be a quadrangle. Any image may be used as long as it can obtain the correspondence of at least four coordinates between the camera coordinate plane and the projector coordinate plane.

図10に戻り、自動位置合わせ処理の説明を行う。PC200のCPU201はS1002からS1004を繰り返し、各プロジェクタの射影変換行列を算出し、自身のRAM202に記憶する。   Returning to FIG. 10, the automatic alignment process will be described. The CPU 201 of the PC 200 repeats S1002 to S1004, calculates the projective transformation matrix of each projector, and stores it in its own RAM 202.

S1005でCPU201は、RAM202に格納されたユーザによって指定された位置合わせモード情報に応じて、変形パラメータの算出方法を切り替える。本実施例では、「基準プロジェクタに合わせる」モードの変形(S1009)に関しては、説明を割愛する。   In step S <b> 1005, the CPU 201 switches the deformation parameter calculation method according to the alignment mode information specified by the user stored in the RAM 202. In the present embodiment, the description of the “match with reference projector” mode modification (S1009) is omitted.

図10のS1005において、ユーザによって「4点指定調整」モードが選択されたと判定された場合、S1006の「投影形状指定処理」に進む。   If it is determined in S1005 in FIG. 10 that the “four-point designation adjustment” mode has been selected by the user, the process proceeds to “projection shape designation processing” in S1006.

図12の「投影形状指定処理(S1006)」の詳細フローチャートを用いて説明する。まず、PC200のCPU201がS1202〜S1203の処理をプロジェクタ毎に繰り返すことにより、カメラ座標平面における各プロジェクタの変形可能領域を取得する。S1202では、PC200のCPU201はネットワークIF206を介し、プロジェクタ100に対してキーストーンの変形可能量を要求するコマンドを送信する。プロジェクタ100はキーストーンの変形可能量を要求するコマンドを受信すると、自身のキーストーン変形可能量を含む情報をPCに対して返信する。PC200はプロジェクタ100から受信したキーストーンの変形可能量を自身のRAM202に記憶する。   A detailed flowchart of “projection shape designation processing (S1006)” in FIG. 12 will be described. First, the CPU 201 of the PC 200 acquires the deformable area of each projector on the camera coordinate plane by repeating the processing of S1202 to S1203 for each projector. In step S <b> 1202, the CPU 201 of the PC 200 transmits a command requesting the keystone deformable amount to the projector 100 via the network IF 206. When the projector 100 receives a command requesting the deformable amount of keystone, it returns information including its own deformable amount of keystone to the PC. The PC 200 stores the keystone deformable amount received from the projector 100 in its own RAM 202.

次に、S1203においてPC200のCPU201は、プロジェクタ座標平面上におけるキーストーン変形可能領域を取得し、それを射影変換することでカメラ座標平面上の変形可能領域を取得する。プロジェクタ100におけるキーストーン変形可能領域を図13(a)、図13(b)に示す。図13(a)の斜線部1301〜1304はプロジェクタ100aのキーストーン変形可能領域を表し、図13(b)の斜線部1311〜1314はプロジェクタ100bのキーストーン変形可能領域を表す。このキーストーン変形可能領域は、各プロジェクタのパネル解像度と、各プロジェクタのキーストーン変形可能量(Δx_max、Δy_max)から求めることができる。左上の変形可能領域1301の座標を例に挙げると、
左上の変形可能領域1301の左上頂点座標=(0、0)、
左上の変形可能領域1301の右上頂点座標=(Δx_max、0)、
左上の変形可能領域1301の右下頂点座標=(Δx_max、Δy_max)、
左上の変形可能領域1301の左下頂点座標=(0、Δy_max)
となる。
Next, in step S1203, the CPU 201 of the PC 200 acquires a keystone deformable area on the projector coordinate plane, and obtains a deformable area on the camera coordinate plane by projective transformation. The keystone deformable area in the projector 100 is shown in FIGS. 13 (a) and 13 (b). 13A represents the keystone deformable region of the projector 100a, and the hatched portions 1311 to 1314 of FIG. 13B represent the keystone deformable region of the projector 100b. This keystone deformable area can be obtained from the panel resolution of each projector and the keystone deformable amount (Δx_max, Δy_max) of each projector. Taking the coordinates of the deformable area 1301 in the upper left as an example,
Upper left vertex coordinate of upper left deformable region 1301 = (0, 0),
Upper right vertex coordinates of the upper left deformable region 1301 = (Δx_max, 0),
Lower right vertex coordinates of upper left deformable region 1301 = (Δx_max, Δy_max),
Lower left vertex coordinates of upper left deformable area 1301 = (0, Δy_max)
It becomes.

PC200のCPU201は位置合わせ対象の全てのプロジェクタ100に対して変形可能領域の座標を求める。次に、PC200のCPU201は図10のS1004で取得した射影変換行列をRAM202から読み出し、その射影変換行列を用いて、変換可能領域の頂点座標をカメラ座標平面上に射影する。図13(c)はプロジェクタ100a及びプロジェクタ100bの変形可能領域をカメラ座標平面上に射影変換した結果を表す。斜線部1331〜1334はプロジェクタ100aのキーストーン変形可能領域をカメラ座標平面上に射影変換した結果を表し、斜線部1341〜1344はプロジェクタ100bのキーストーン変形可能領域をカメラ座標平面上に射影変換した結果を表す。   The CPU 201 of the PC 200 obtains the coordinates of the deformable area for all the projectors 100 to be aligned. Next, the CPU 201 of the PC 200 reads out the projective transformation matrix acquired in S1004 of FIG. 10 from the RAM 202, and projects the vertex coordinates of the convertible region onto the camera coordinate plane using the projective transformation matrix. FIG. 13C shows the result of projective transformation of the deformable regions of the projector 100a and the projector 100b on the camera coordinate plane. The hatched portions 1331-1334 represent the result of projective transformation of the keystone deformable region of the projector 100a on the camera coordinate plane, and the hatched portions 1341-1344 are the projective transform of the keystone deformable region of the projector 100b on the camera coordinate plane. Represents the result.

S1204では、PC200のCPU201はカメラ座標平面における複数のプロジェクタの共通変形可能領域を取得する。共通変形可能領域は、各プロジェクタの変形可能領域を表す多角形の頂点座標に対して公知の数学的手法を適用することで算出する。図13(d)の網掛け部1351〜1354はカメラ座標平面における複数のプロジェクタの共通変形可能領域である。具体的には、プロジェクタ100aの変形可能領域1331(1332〜1334)とプロジェクタ100bの変形可能領域1341(1342〜1344)との両方に含まれている共通領域が、共通変形可能領域1351(1352〜1354)である。なお、S1204において、PC200のCPU201が共通変形可能領域の少なくとも1つが存在しないと判定した場合は、自身の表示部205に警告メッセージを表示させてもよい。警告メッセージには、ユーザに対する具体的な作業指示(例えば「プロジェクタをズームしてください」など)を表示してもよい。さらに、警告メッセージを表示するとともに、PC200のCPU201が、投影面上に共通変形可能領域が存在するような配置になるように各プロジェクタを光学制御(光学ズームやレンズシフト)してもよい。   In step S1204, the CPU 201 of the PC 200 acquires a common deformable area of a plurality of projectors on the camera coordinate plane. The common deformable area is calculated by applying a known mathematical method to the vertex coordinates of the polygon representing the deformable area of each projector. Shaded portions 1351 to 1354 in FIG. 13D are common deformable regions of a plurality of projectors on the camera coordinate plane. Specifically, a common area included in both the deformable area 1331 (1332-1334) of the projector 100a and the deformable area 1341 (1342-1344) of the projector 100b is a common deformable area 1351 (1352). 1354). In S1204, when the CPU 201 of the PC 200 determines that at least one of the common deformable areas does not exist, a warning message may be displayed on its own display unit 205. The warning message may display a specific work instruction (for example, “zoom the projector”) for the user. Furthermore, a warning message may be displayed, and the CPU 201 of the PC 200 may optically control (optical zoom or lens shift) each projector so that a common deformable area exists on the projection surface.

次に、S1205において、PC200のCPU201は、位置合わせ対象プロジェクタのうちいずれか1台のプロジェクタを選択し、S1204で求めた共通変形可能領域をその選択した1台のプロジェクタの座標平面に射影する。   Next, in S1205, the CPU 201 of the PC 200 selects any one of the alignment target projectors, and projects the common deformable area obtained in S1204 onto the coordinate plane of the selected projector.

S1206では、PC200のCPU201が共通変形可能領域を表すマーカーを生成し、S1205で選択したプロジェクタにそのマーカーを投影させる。   In S1206, the CPU 201 of the PC 200 generates a marker representing the common deformable area, and projects the marker on the projector selected in S1205.

なお、このときに共通変形可能領域射影プロジェクタ以外のプロジェクタが非投影状態になるようにPC200のCPU201はネットワークIF206を介してコマンドを送信する。これにより、共通変形可能領域の投影面への投影を他のプロジェクタが阻害することを防止できる。図14(a)及び(b)に投影面1400に投影するマーカーの例を示す。共通変形可能領域を表すマーカーとは、図14(a)及び(b)の1401〜1404のような画像であり、四角形にハッチングを施した領域として表示するようにしたものである。なお、共通変形可能領域を表すマーカーの色や線の太さ、模様などはどのようなものを用いても構わず、例えば、特許文献1に記載されているような表示形態のマーカーのいずれかを用いても良い。   At this time, the CPU 201 of the PC 200 transmits a command via the network IF 206 so that projectors other than the common deformable area projection projector are in a non-projection state. As a result, it is possible to prevent other projectors from inhibiting the projection of the common deformable region onto the projection plane. FIGS. 14A and 14B show examples of markers projected onto the projection plane 1400. FIG. The marker representing the common deformable area is an image such as 1401 to 1404 in FIGS. 14A and 14B and is displayed as a rectangular hatched area. Note that any color, line thickness, pattern, or the like of the marker representing the common deformable region may be used. For example, any of the markers in the display form described in Patent Document 1 is used. May be used.

S1207では、PC200のCPU201は、変形後形状を指定するためのマーカーを生成し、S1205で選択したプロジェクタに更に投影させる。変形後形状を指定するためのマーカーとは、図14に示したような画像である。図14には、L字状のマーカー四個(1406〜1409)とそのL字状マーカー同士を結ぶ線分四本(1411〜1414)とを有するマーカーを示している。自動位置合わせ処理後(変形後)のプロジェクタ100aの投影領域(投影画像)とプロジェクタ100bの投影領域(投影画像)は、それぞれの4つの頂点が位置合わせされて、1つの重畳領域(重畳画像)を形成する。L字状マーカーは、その自動位置合わせ処理後の重畳領域の頂点を表す画像である。なお、マーカーの形状や色は、投影面において少なくとも4点の座標を指定できるようなものであればどのようなものであっても良い。また、変形後形状を指定するためのマーカーの初期位置は、図14(a)に示したように、L字状のマーカー(1406〜1409)が共通変形可能領域を表すマーカー(1401〜1404)の内側に位置するように決定される。このときの位置は、例えば共通変形可能領域の重心であっても良いし、共通変形可能領域の所定の頂点上であっても良い。或いは、カメラ座標平面における共通変形可能領域の内側の特徴的な位置(例えば、スクリーンの角やレーザー墨出し器が投射する線分の交点)であっても良い。また、図14(a)では、L字状のマーカー全体が共通変形可能領域に含まれるようにL字状のマーカーを配置しているが、L字状のマーカーの重畳領域の頂点に対応する部分だけが共通変形可能領域に含まれるようにL字状のマーカーを配置しても良い。   In S1207, the CPU 201 of the PC 200 generates a marker for designating the deformed shape, and further projects it on the projector selected in S1205. The marker for designating the deformed shape is an image as shown in FIG. FIG. 14 shows a marker having four L-shaped markers (1406 to 1409) and four line segments (1411 to 1414) connecting the L-shaped markers. The projection area (projection image) of the projector 100a and the projection area (projection image) of the projector 100b after the automatic alignment process (after deformation) are aligned with each other so that one vertex is aligned. Form. The L-shaped marker is an image that represents the vertex of the superimposed area after the automatic alignment process. The shape and color of the marker may be any as long as it can specify at least four coordinates on the projection plane. In addition, as shown in FIG. 14A, the initial positions of the markers for designating the deformed shape are markers (1401 to 1404) in which L-shaped markers (1406 to 1409) represent common deformable regions. Is determined to be located inside. The position at this time may be, for example, the center of gravity of the common deformable region, or may be on a predetermined vertex of the common deformable region. Alternatively, it may be a characteristic position inside the common deformable region in the camera coordinate plane (for example, an intersection of a screen corner or a line segment projected by the laser marking device). In FIG. 14A, the L-shaped marker is arranged so that the entire L-shaped marker is included in the common deformable region, but corresponds to the apex of the overlapping region of the L-shaped marker. An L-shaped marker may be arranged so that only the portion is included in the common deformable region.

なお、共通変形可能領域を表すマーカー及び変形後形状を指定するためのマーカーは、PC200のCPU201が生成した画像をネットワークIF206或いは映像出力部207を介して送信してもよい。或いは、PC200のCPU201が任意の線分や多角形をプロジェクタ100に描画させるコマンドをネットワークIF206によって送信し、プロジェクタ100のCPU101は受信したコマンドを解釈した結果に基づいてマーカー画像を描画してもよい。   Note that an image generated by the CPU 201 of the PC 200 may be transmitted via the network IF 206 or the video output unit 207 as a marker for indicating the common deformable region and a marker for designating the deformed shape. Alternatively, the CPU 201 of the PC 200 may transmit a command for causing the projector 100 to draw an arbitrary line segment or polygon via the network IF 206, and the CPU 101 of the projector 100 may draw the marker image based on the result of interpreting the received command. .

S1207の処理が完了すると、PC200のCPU201は、図15に示す変形後形状を指定するためのGUI画面1500に遷移させる。   When the processing of S1207 is completed, the CPU 201 of the PC 200 makes a transition to the GUI screen 1500 for designating the deformed shape shown in FIG.

図15において、1501〜1504は左上頂点のマーカー1406を操作するためのボタンである。また、1505〜1508は右上頂点のマーカー1407を操作するためのボタンであり、1509〜1512は右下頂点のマーカー1408を操作するためのボタンであり、1513〜1516は左下頂点のマーカー1409を操作するためのボタンである。これらの操作ボタンは、ボタンに表示されている矢印の方向に、マーカー1406〜1409を移動するための指示を受け付けるためのボタンである。   In FIG. 15, reference numerals 1501 to 1504 denote buttons for operating the marker 1406 at the upper left vertex. Further, reference numerals 1505 to 1508 denote buttons for operating the marker 1407 at the upper right vertex, reference numerals 1509 to 1512 denote buttons for operating the marker 1408 at the lower right vertex, and reference numerals 1513 to 1516 operate the marker 1409 at the lower left vertex. It is a button to do. These operation buttons are buttons for receiving an instruction to move the markers 1406 to 1409 in the direction of the arrow displayed on the button.

図15の画像領域1517はPC200が接続されたカメラ300に指示をして撮影・取得したライブビュー画像を表示する領域である。ユーザは投影面を直接観察するか、この画像領域1517を見ながら操作ボタン1501〜1516のいずれかを操作することで、変形後形状指定マーカーを操作する。   An image area 1517 in FIG. 15 is an area for displaying a live view image taken and acquired by instructing the camera 300 to which the PC 200 is connected. The user directly operates the post-deformation shape designation marker by directly observing the projection surface or by operating one of the operation buttons 1501 to 1516 while viewing the image area 1517.

操作ボタン1501〜1516の操作を検出すると、PC200のCPU201は、自身のRAM202で記憶しているカメラ座標平面における変形後形状を指定するためのマーカーの位置座標を更新する(S1210)。さらにCPU201は、その更新された位置座標のマーカー画像を再生成し、S1205で選択したプロジェクタに再生成したマーカー画像を再投影させる(S1211)。図14(b)は、図14(a)に示した初期状態から操作ボタン1503及び操作ボタン1504をユーザが何度か押下された結果を表わしている。図14(b)の投影面1400では、L字状マーカー部1406とそれに隣接する2つの線分(1411、1414)の位置が変更されて表示されている。   When detecting the operation of the operation buttons 1501 to 1516, the CPU 201 of the PC 200 updates the position coordinates of the marker for designating the deformed shape on the camera coordinate plane stored in its own RAM 202 (S1210). Further, the CPU 201 regenerates the marker image of the updated position coordinate, and re-projects the regenerated marker image on the projector selected in S1205 (S1211). FIG. 14B shows a result of the user pressing the operation button 1503 and the operation button 1504 several times from the initial state shown in FIG. On the projection surface 1400 of FIG. 14B, the positions of the L-shaped marker portion 1406 and two line segments (1411, 1414) adjacent thereto are changed and displayed.

図15の「実行」ボタン1519がユーザによって操作されるまで、操作ボタン1501〜1516は操作可能である。図15の「実行」ボタン1519がユーザによって操作された際は(S1209−YES)、図12に示すフローチャートを終了し、図10のS1007に進む。   Until the “execute” button 1519 in FIG. 15 is operated by the user, the operation buttons 1501 to 1516 can be operated. When the “execute” button 1519 in FIG. 15 is operated by the user (S1209—YES), the flowchart shown in FIG. 12 is terminated, and the process proceeds to S1007 in FIG.

図10に戻り、自動位置合わせ処理の説明をする。   Returning to FIG. 10, the automatic alignment process will be described.

S1007では、PC200のCPU201が投影面上で複数のプロジェクタの投影画像が完全に重なり合って1つの重畳画像を形成するためのキーストーン補正量を取得する。CPU201は自身のRAM202に記憶されているカメラ座標平面における変形後形状の座標をS1004で取得した射影変換行列を用いて各プロジェクタ平面に対して射影することで、各プロジェクタのキーストーン補正量を算出する。   In step S <b> 1007, the CPU 201 of the PC 200 acquires a keystone correction amount for forming a single superimposed image by completely overlapping the projection images of a plurality of projectors on the projection surface. The CPU 201 calculates the keystone correction amount of each projector by projecting the coordinates of the deformed shape in the camera coordinate plane stored in its own RAM 202 onto each projector plane using the projection transformation matrix acquired in S1004. To do.

S1008では、PC200のCPU201がネットワークIF206を介してS1007で算出したキーストーン補正量を各プロジェクタ100に対して送信する。プロジェクタ100はキーストーン補正量をPCから受信すると、受信したキーストーン補正量を自身の画像処理部109に送信し、入力画像の形状補正を実行する。   In step S1008, the CPU 201 of the PC 200 transmits the keystone correction amount calculated in step S1007 to each projector 100 via the network IF 206. When the projector 100 receives the keystone correction amount from the PC, the projector 100 transmits the received keystone correction amount to its own image processing unit 109 to perform shape correction of the input image.

本実施形態によれば、複数台のプロジェクタに対するキーストーン補正の際に、全てのプロジェクタに共通する変形可能範囲を可視化することができるので、ユーザの利便性を向上させることができる。   According to the present embodiment, when the keystone correction is performed on a plurality of projectors, the deformable range common to all projectors can be visualized, so that the convenience for the user can be improved.

特許文献1のプロジェクタを複数台用意して、変形可能な範囲を表す画像の色や模様をプロジェクタ毎に変えるだけでも、(例えば、図13(c)のように)ユーザに各プロジェクタに共通する変形可能範囲を示すことはできる。しかし、この方法では、スタック投影に用いるプロジェクタの台数が3台以上の場合に、全てのプロジェクタに共通する変形可能範囲の識別が非常に困難になってしまう。しかし、本実施形態では、全てのプロジェクタに共通する変形可能範囲を予め求めて、図13(d)に示したようにその共通する変形可能範囲だけを投影面に投影しており、その共通する変形可能範囲の識別が容易になる。   Even if a plurality of projectors of Patent Document 1 are prepared and the color or pattern of an image representing the deformable range is changed for each projector (for example, as shown in FIG. 13C), it is common to each projector for the user. A deformable range can be indicated. However, with this method, when the number of projectors used for stack projection is three or more, it becomes very difficult to identify the deformable range common to all projectors. However, in this embodiment, a deformable range common to all projectors is obtained in advance, and only the common deformable range is projected onto the projection plane as shown in FIG. Identification of the deformable range is facilitated.

実施例1に示した実施形態では、数学的な方法を用いて各プロジェクタの共通変形可能領域を取得したが、取得方法はこれに限らない。本実施例では、画像処理を用いて各プロジェクタの共通変形可能領域を取得する方法について説明する。   In the embodiment shown in Example 1, the common deformable area of each projector is acquired using a mathematical method, but the acquisition method is not limited to this. In the present embodiment, a method for acquiring a common deformable region of each projector using image processing will be described.

各プロジェクタの共通変形可能領域の取得方法を除き、実施例1と同様の構成であるので、各プロジェクタの共通変形可能領域の取得方法以外の説明を省略する。   Except for the method for acquiring the common deformable area of each projector, the configuration is the same as that of the first embodiment, and thus the description other than the method for acquiring the common deformable area of each projector is omitted.

図16は、実施例1に示した図10のS1006の詳細フローチャートである。   FIG. 16 is a detailed flowchart of S1006 of FIG. 10 shown in the first embodiment.

まず、PC200のCPU201はS1601〜S1602を繰り返すことで変形可能量に基づいたマーカー画像を生成する。図17(a)及び(b)に変形可能量に基づいたマーカー画像の例を示す。図17の1701はプロジェクタ100aの変形可能領域である。また図17の1702はプロジェクタ100bの変形可能領域である。PC200のCPU201は、各プロジェクタのマーカー画像を生成する際に、プロジェクタ毎に変形可能領域の色を変える、もしくは各プロジェクタの変形可能領域の色及び輝度を同一にする、のいずれかを行う。   First, the CPU 201 of the PC 200 generates a marker image based on the deformable amount by repeating S1601 to S1602. FIGS. 17A and 17B show examples of marker images based on the deformable amount. Reference numeral 1701 in FIG. 17 denotes a deformable area of the projector 100a. Reference numeral 1702 in FIG. 17 denotes a deformable area of the projector 100b. When generating the marker image of each projector, the CPU 201 of the PC 200 either changes the color of the deformable area for each projector or makes the color and brightness of the deformable area of each projector the same.

マーカー画像に上記のような工夫をすることで、各プロジェクタがマーカー画像を同時に投影した場合に、投影面やその撮影画像に以下のような特徴が表れる。   By devising the marker image as described above, when the projectors simultaneously project the marker image, the following characteristics appear on the projection surface and the captured image.

図17(c)は各プロジェクタがマーカー画像を同時に投影し、それを撮影したときの様子を表す。図17(c)の1703はプロジェクタ100aのみが変形可能領域を投影している領域を、1704はプロジェクタ100bのみが変形可能領域を投影している領域を表す。また、1705は、プロジェクタ100a及びプロジェクタ100bの両方が変形可能領域を投影している領域、すなわち領域1703及び領域1704の両方に含まれている領域を表す。プロジェクタ毎に色を変えた場合、例えば、プロジェクタ100aが赤色、プロジェクタ100bが緑色のマーカーをそれぞれ投影していたとすると、領域1705すなわち複数のプロジェクタの共通変形可能領域は混色である黄色となる。同一の色・輝度とした場合、領域1705のみ他の領域と比べ、輝度が高くなる。   FIG. 17C shows a state in which each projector projects a marker image at the same time and photographs it. In FIG. 17C, reference numeral 1703 denotes an area where only the projector 100a projects the deformable area, and 1704 denotes an area where only the projector 100b projects the deformable area. Reference numeral 1705 denotes a region where both the projector 100a and the projector 100b project a deformable region, that is, a region included in both the region 1703 and the region 1704. When the color is changed for each projector, for example, if the projector 100a projects a red marker and the projector 100b projects a green marker, the region 1705, that is, a common deformable region of a plurality of projectors, is a mixed color yellow. In the case of the same color / brightness, only the area 1705 has a higher brightness than the other areas.

これらの特徴を用いることで、カメラ座標平面における各プロジェクタの共通変形可能領域を取得できる。色情報を用いる際は、撮影画像の全画素に対して、画素の色相が所定の色相に近いかどうかの判定処理を適用することで共通変形可能領域を求めることができる。また、輝度情報を用いる際は、撮影画像の全画素に対して、画素の輝度が所定の閾値以上か否かの判定処理を適用することで共通変形可能領域を求めることができる。ここで、色相や輝度を用いた処理はあくまで一例であり、明度や彩度など、他の画素情報を用いても構わない。   By using these features, it is possible to acquire a common deformable region of each projector on the camera coordinate plane. When color information is used, a common deformable region can be obtained by applying a determination process for determining whether or not the hue of a pixel is close to a predetermined hue for all pixels of the captured image. In addition, when using luminance information, a common deformable region can be obtained by applying a determination process for determining whether or not the luminance of a pixel is equal to or higher than a predetermined threshold value for all pixels of the captured image. Here, the process using the hue and luminance is merely an example, and other pixel information such as brightness and saturation may be used.

PC200のCPU201は上記の処理をS1604〜S1606で実行することで、カメラ座標平面における各プロジェクタの共通変形可能領域を算出できる。   The CPU 201 of the PC 200 can calculate the common deformable area of each projector on the camera coordinate plane by executing the above processing in steps S1604 to S1606.

図16のS1607からS1613までの処理は、図12のS1205からS1211と同一であるため説明を割愛する。   The processing from S1607 to S1613 in FIG. 16 is the same as S1205 to S1211 in FIG.

本実施形態によれば、実施例1と同様に複数台のプロジェクタに対するキーストーン補正の際に、全てのプロジェクタに共通する変形可能量を可視化することができるので、ユーザの利便性を向上させることができる。   According to the present embodiment, as in the first embodiment, when the keystone correction is performed on a plurality of projectors, the deformable amount common to all projectors can be visualized, so that the convenience for the user is improved. Can do.

実施例1の図12で示した「投影形状指定処理」に記載のマーカー画像の描画をPCからプロジェクタに対するネットワークコマンドで実施する場合を考える。   Consider the case where the marker image drawing described in the “projection shape designation process” shown in FIG. 12 of the first embodiment is performed by a network command from the PC to the projector.

この処理は、まず、PC200のCPU201が任意の線分や多角形をプロジェクタ100に描画させるコマンドをネットワークIF206によって送信する。そして、プロジェクタ100のCPU101がネットワークIF108経由で受信したコマンドを解釈し、その内容に従った線分や多角形をVRAM106に格納することで実現される。   In this process, first, the CPU 201 of the PC 200 transmits a command for causing the projector 100 to draw an arbitrary line segment or polygon via the network IF 206. Then, the CPU 101 of the projector 100 interprets the command received via the network IF 108 and stores the line segment or polygon according to the content in the VRAM 106.

ここで、実施例1では、図12のS1206で共通変形可能領域を表すマーカーをS1205で選択したプロジェクタで投影させている。そして、S1207で変形後形状を指定するためのマーカーを、同じプロジェクタで投影させている。しかし、別々のプロジェクタで各マーカーを投影するようにしてもよい。本実施例においてはその方法について説明する。   Here, in the first embodiment, the marker representing the common deformable area is projected by the projector selected in S1205 in S1206 of FIG. In step S1207, a marker for designating the deformed shape is projected by the same projector. However, each marker may be projected by a separate projector. In this embodiment, the method will be described.

まず、図14の共通変形可能領域を表すマーカー1401〜1404と変形後形状を指定するためのマーカー1406〜1407の違いについて説明する。共通変形可能領域を表すマーカー1401〜1404は、各プロジェクタの投影位置および各プロジェクタの変形可能領域によって決まるものである。つまり「投影形状指定処理」の開始から終了まで位置が変化しないマーカーであり、逐次の更新の必要がない。一方で、変形後形状を指定するためのマーカー1406〜1407は、図12のS1209、S1210、S1211で示した通り、ユーザ操作によって位置の更新が必要なマーカーであり、即応性が求められる。   First, the difference between the markers 1401 to 1404 representing the common deformable region in FIG. 14 and the markers 1406 to 1407 for designating the deformed shape will be described. The markers 1401 to 1404 representing the common deformable area are determined by the projection position of each projector and the deformable area of each projector. That is, it is a marker whose position does not change from the start to the end of the “projection shape designation process”, and there is no need for successive updates. On the other hand, the markers 1406 to 1407 for designating the deformed shape are markers that need to be updated by a user operation as shown in S1209, S1210, and S1211 of FIG.

このように異なる要件のマーカーを単一のプロジェクタのCPUで描画すると、逐次更新の必要のないマーカーの描画に処理時間がかかってしまい、即応性が求められるマーカーの描画がレスポンス良く描画できない可能性がある。図18を用いてこの課題を解決する方法について説明する。   If markers with different requirements are drawn on the CPU of a single projector in this way, it may take a long time to draw markers that do not need to be updated sequentially, and it may not be possible to draw markers that require immediate response with good response. There is. A method for solving this problem will be described with reference to FIG.

図18は、実施例1に示した図12の「投影形状指定処理」を変形したものである。まず、投影形状指定処理が開始されると図12のS1201からS1204に示したものと同様の処理を行う。これについては、すでに説明済みであるため詳細は省略する。   FIG. 18 is a modification of the “projection shape designation process” of FIG. 12 shown in the first embodiment. First, when the projection shape designation process is started, the same processes as those shown in S1201 to S1204 in FIG. 12 are performed. Since this has already been described, details are omitted.

S1801にて、PC200のCPU201はネットワークIF206を介して、各プロジェクタに対して、マーカーの描画性能を取得するコマンドを送信する。これを受信したプロジェクタ100は、マーカー描画性能を示す情報をPCに対して返信する。これは例えば、プロジェクタ100のCPU101の動作周波数である。そして、PC200のCPU201は、全てのプロジェクタからマーカーの描画性能を取得すると、その中から最も描画性能が高いプロジェクタ(以下PJ−A)を決定する。   In step S <b> 1801, the CPU 201 of the PC 200 transmits a command for acquiring marker drawing performance to each projector via the network IF 206. Receiving this, the projector 100 returns information indicating the marker drawing performance to the PC. This is, for example, the operating frequency of the CPU 101 of the projector 100. Then, when the CPU 201 of the PC 200 acquires the drawing performance of the marker from all the projectors, it determines the projector (hereinafter referred to as “PJ-A”) having the highest drawing performance from among the drawing performance.

S1802で、PC200のCPU201は、S1801で決定したPJ−A以外の、いずれかのプロジェクタ(以下PJ−B)を選択し、そのプロジェクタの座標平面に対して、S1204で求めた共通変形可能領域を射影する。   In step S1802, the CPU 201 of the PC 200 selects one of the projectors (hereinafter, PJ-B) other than the PJ-A determined in step S1801, and sets the common deformable area obtained in step S1204 for the coordinate plane of the projector. Project.

S1803で、PC200のCPU201は、共通変形可能領域を表すマーカーを生成し、S1802で選択したPJ−Bに対して投影させる。   In step S1803, the CPU 201 of the PC 200 generates a marker representing the common deformable area, and projects the marker onto the PJ-B selected in step S1802.

S1804で、PC200のCPU201は、変形後形状を指定するためのマーカーを生成し、S1801で選択したPJ−Aに対して投影させる。   In step S1804, the CPU 201 of the PC 200 generates a marker for designating the post-deformation shape, and projects the marker onto the PJ-A selected in step S1801.

以降のステップは、図12のS1208〜S1211と同様であるため省略する。   The subsequent steps are the same as S1208 to S1211 in FIG.

本実施例によれば、即応性が求められる「投影形状を指定するためのマーカー」の描画を最も描画性能の高いプロジェクタで、そして、逐次更新の必要のない「共通変形可能領域を表すマーカー」の描画は、それとは別のプロジェクタに実施させることができる。これによって、「投影形状を指定するためのマーカー」を操作しているユーザに対して、このマーカーの更新をレスポンス性よく提示することが可能になる。   According to the present embodiment, drawing of a “marker for designating a projection shape” that requires quick response is performed by a projector having the highest drawing performance, and “a marker representing a common deformable region” that does not need to be sequentially updated. This drawing can be performed by another projector. This makes it possible to present the update of the marker with high responsiveness to the user who operates the “marker for designating the projection shape”.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時の請求項に記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。   In addition, the technical elements described in the present specification or drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

100a プロジェクタ(第1投影装置)
100b プロジェクタ(第2投影装置)
200 PC(投影制御装置)
201 CPU(取得手段、制御手段)
204 操作部(受付手段)
300 撮像装置(撮影手段)
1331〜1334 プロジェクタ100aの変形可能領域(第1領域)
1341〜1344 プロジェクタ100bの変形可能領域(第2領域)
1351〜1354 共通変形可能領域(共通領域)
100a Projector (first projection device)
100b Projector (second projection device)
200 PC (projection control device)
201 CPU (acquisition means, control means)
204 Operation unit (accepting means)
300 Imaging device (photographing means)
1331 to 1334 Deformable region (first region) of projector 100a
1341-1344 Deformable region (second region) of projector 100b
1351-1354 Common deformable area (common area)

Claims (9)

第1投影画像を投影する第1投影装置と第2投影画像を投影する第2投影装置とを含む複数の投影装置を制御する投影制御装置であって、
前記第1投影装置及び前記第2投影装置を制御する制御手段と、
ユーザの操作を受け付ける受付手段と、を有し、
前記制御手段は、前記第1投影画像及び前記第2投影画像が変形可能な共通領域を表す画像を前記第1投影装置に投影させ、且つ、前記第1投影画像及び前記第2投影画像の変形後の形状を指定するための画像を前記第2投影装置に投影させ、
前記受付手段は、前記形状を指定するための画像を移動する操作を受け付ける
ことを特徴とする投影制御装置。
A projection control device that controls a plurality of projection devices including a first projection device that projects a first projection image and a second projection device that projects a second projection image,
Control means for controlling the first projection device and the second projection device;
Receiving means for receiving a user operation,
The control means causes the first projection device to project an image representing a common area in which the first projection image and the second projection image can be deformed, and transforms the first projection image and the second projection image. Projecting an image for designating a later shape on the second projection device,
The projection control apparatus, wherein the reception unit receives an operation of moving an image for designating the shape.
前記共通領域は、前記第1投影画像を変形する際に前記第1投影画像の頂点が移動可能な第1領域及び前記第2投影画像を変形する際に前記第2投影画像の頂点が移動可能な第2領域の両方に含まれている領域である
ことを特徴とする請求項1に記載の投影制御装置。
The common area includes a first area in which the vertex of the first projection image is movable when the first projection image is deformed, and a vertex of the second projection image is movable when the second projection image is deformed. The projection control apparatus according to claim 1, wherein the projection control apparatus is an area included in both of the second areas.
前記形状を指定するための画像は、変形後の前記第1投影画像と変形後の前記第2投影画像とが重畳することによって形成される重畳画像の頂点を表す画像である
ことを特徴とする請求項1又は2に記載の投影制御装置。
The image for designating the shape is an image representing a vertex of a superimposed image formed by superimposing the deformed first projection image and the deformed second projection image. The projection control apparatus according to claim 1 or 2.
前記制御手段は、前記操作に基づいて、前記形状を指定するための画像を投影する位置を前記第2投影装置に変更させる
ことを特徴とする請求項1乃至3のいずれか1項に記載の投影制御装置。
The said control means changes the position which projects the image for designating the said shape to the said 2nd projection apparatus based on the said operation, The Claim 1 thru | or 3 characterized by the above-mentioned. Projection control device.
前記第2投影装置のほうが、前記第1投影装置よりも描画性能が高い
ことを特徴とする請求項1乃至4のいずれか1項に記載の投影制御装置。
The projection control apparatus according to claim 1, wherein the second projection apparatus has higher drawing performance than the first projection apparatus.
請求項1乃至5のいずれか1項に記載の投影制御装置を有する
ことを特徴とする投影装置。
A projection apparatus comprising the projection control apparatus according to claim 1.
請求項1乃至5のいずれか1項に記載の投影制御装置と、
前記複数の投影装置と、を有する
ことを特徴とする投影システム。
A projection control apparatus according to any one of claims 1 to 5;
And a plurality of the projection devices.
第1投影画像を投影する第1投影装置と第2投影画像を投影する第2投影装置とを含む複数の投影装置を制御する投影制御方法であって、
前記第1投影画像及び前記第2投影画像が変形可能な共通領域を表す画像を前記第1投影装置に投影させるステップと、
前記第1投影画像及び前記第2投影画像の変形後の形状を指定するための画像を前記第2投影装置に投影させるステップと、
前記形状を指定するための画像を移動する操作を受け付けるステップと、を有する
ことを特徴とする投影制御方法。
A projection control method for controlling a plurality of projection devices including a first projection device that projects a first projection image and a second projection device that projects a second projection image,
Projecting an image representing a common area in which the first projection image and the second projection image are deformable onto the first projection device;
Projecting an image for designating a deformed shape of the first projection image and the second projection image on the second projection device;
And a step of receiving an operation of moving an image for designating the shape.
請求項8に記載の投影制御方法の各ステップをコンピュータに実行させるためのプログラム。   The program for making a computer perform each step of the projection control method of Claim 8.
JP2018081157A 2018-04-20 2018-04-20 Projection control apparatus and projection control method Pending JP2019192996A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018081157A JP2019192996A (en) 2018-04-20 2018-04-20 Projection control apparatus and projection control method
US16/380,902 US20190327457A1 (en) 2018-04-20 2019-04-10 Projection control apparatus and projection control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018081157A JP2019192996A (en) 2018-04-20 2018-04-20 Projection control apparatus and projection control method

Publications (1)

Publication Number Publication Date
JP2019192996A true JP2019192996A (en) 2019-10-31

Family

ID=68390980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018081157A Pending JP2019192996A (en) 2018-04-20 2018-04-20 Projection control apparatus and projection control method

Country Status (1)

Country Link
JP (1) JP2019192996A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114845091A (en) * 2021-02-01 2022-08-02 扬智科技股份有限公司 Projection device and trapezoidal correction method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114845091A (en) * 2021-02-01 2022-08-02 扬智科技股份有限公司 Projection device and trapezoidal correction method thereof
CN114845091B (en) * 2021-02-01 2023-11-10 扬智科技股份有限公司 Projection device and trapezoid correction method thereof

Similar Documents

Publication Publication Date Title
KR102409805B1 (en) Projection control apparatus and control method thereof, and projection system
US9818377B2 (en) Projection system, image processing apparatus, and correction method
EP2426637B1 (en) Method for generating panoramic image
CN106605195B (en) Communication apparatus and control method of communication apparatus
US7679643B2 (en) Remote instruction system, remote instruction method, and program product for remote instruction
US10754237B2 (en) Control apparatus, control method, projection system, and storage medium
US8985781B2 (en) Projector control device and computer-readable recording medium
JP2020178248A (en) Projection control device, projection control method, projection system, program, and storage medium
JP2020088691A (en) Projection control device, control method of the same, and projection system
US7712903B2 (en) Remote instruction system, remote instruction method and program product for remote instruction
JP2017072795A (en) Projector and control method therefor
JP2020194998A (en) Control arrangement, projection system, control method, program and storage medium
JP2019204034A (en) Projection control device, control method thereof, projection system, program and storage medium
JP2020178221A (en) Projection control device, projection control method, and program
JP7116543B2 (en) PROJECTION CONTROL DEVICE, CONTROL METHOD THEREOF, AND PROJECTION SYSTEM
JP7096664B2 (en) Projection control device and its control method, and projection system
JP2019192996A (en) Projection control apparatus and projection control method
JP2021061541A (en) Control device, control method, projection system, program, and storage medium
US20190327457A1 (en) Projection control apparatus and projection control method
JP2019192997A (en) Projection control apparatus and projection control method
JP7272336B2 (en) INFORMATION GENERATION METHOD, INFORMATION GENERATION SYSTEM AND PROGRAM
US20190346754A1 (en) Control apparatus controlling projection apparatuses, control method, and storage medium
CN115343898A (en) Projection system and projection image superposition method
JP2021128209A (en) Projection system, control unit, control method, program, and storage medium
JP2020080064A (en) Projection control device, projection device, control method of projection device, program, and storage medium