JP2019192996A - Projection control apparatus and projection control method - Google Patents
Projection control apparatus and projection control method Download PDFInfo
- Publication number
- JP2019192996A JP2019192996A JP2018081157A JP2018081157A JP2019192996A JP 2019192996 A JP2019192996 A JP 2019192996A JP 2018081157 A JP2018081157 A JP 2018081157A JP 2018081157 A JP2018081157 A JP 2018081157A JP 2019192996 A JP2019192996 A JP 2019192996A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- image
- projector
- deformable
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、複数の投影装置を制御する投影制御装置及び投影制御方法に関する。 The present invention relates to a projection control apparatus and a projection control method for controlling a plurality of projection apparatuses.
複数台のプロジェクタ(投影装置)の投影位置を重複させる投影方法(スタック投影)が知られている。スタック投影ではプロジェクタ間の投影位置合わせが必要であるため、位置合わせを容易にする機能を有するプロジェクタも知られている。 A projection method (stack projection) in which projection positions of a plurality of projectors (projectors) are overlapped is known. In the case of stack projection, since projection alignment between projectors is necessary, a projector having a function for facilitating alignment is also known.
プロジェクタの光軸と投影面とが直交する正対位置から投影する場合を除き、投影画像の形状に歪みが生じる(台形歪み)。この台形歪みをプロジェクタの位置を変えずに補正する機能として、キーストーン補正機能が知られている。キーストーン補正機能は、台形歪みを相殺するように液晶パネルの画像を変形することによって実現できる。 Except when projecting from a directly-facing position where the optical axis of the projector and the projection plane are orthogonal, the shape of the projected image is distorted (trapezoidal distortion). A keystone correction function is known as a function for correcting this trapezoidal distortion without changing the position of the projector. The keystone correction function can be realized by deforming the image of the liquid crystal panel so as to cancel the trapezoidal distortion.
このキーストーン補正機能を応用することで、複数台のプロジェクタの投影位置を重複させる技術が知られている。 A technique is known in which the projection positions of a plurality of projectors are overlapped by applying this keystone correction function.
ところで、キーストーン補正はハードウェアやソフトウェアの制約から投影画像の変形可能な範囲が決まっていることがある。特許文献1に開示された技術では、キーストーン補正の変形可能な範囲を表す画像を投影画像に重畳させることで、どのように台形歪み補正をしたら良いのかをユーザに示している。 By the way, in the keystone correction, there is a case where a deformable range of the projected image is determined due to restrictions of hardware and software. The technique disclosed in Patent Document 1 shows a user how to correct trapezoidal distortion by superimposing an image representing a deformable range of keystone correction on a projected image.
スタック投影を実現するためには、複数台のプロジェクタそれぞれに対してキーストーン補正機能を用いることが多い。複数台のプロジェクタの光軸が互いに平行でない場合が多いので、複数台のプロジェクタのキーストーン補正の変形量が異なる。また、スタック投影に用いるプロジェクタ全ての変形可能な範囲の中に、目標とする投影位置(例えば、スクリーンの角など)が収まっている必要がある。 In order to realize stack projection, a keystone correction function is often used for each of a plurality of projectors. Since the optical axes of a plurality of projectors are often not parallel to each other, the amount of deformation for keystone correction of the plurality of projectors is different. In addition, the target projection position (for example, the corner of the screen) needs to be within the deformable range of all projectors used for stack projection.
以上のことから、複数台のプロジェクタに共通する変形可能な範囲を予め知っていないと、位置合わせは非常に煩雑になる。 From the above, the alignment becomes very complicated unless the deformable range common to the plurality of projectors is known in advance.
しかしながら、特許文献1では、複数台のプロジェクタを用いる場合については考慮されていない。 However, Patent Document 1 does not consider the case of using a plurality of projectors.
そこで、本発明は、複数の投影装置の投影画像の位置合わせを容易にすることが可能な投影制御装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide a projection control device that can facilitate alignment of projection images of a plurality of projection devices.
その目的を達成するために、本発明の一側面としての投影制御装置は、第1投影画像を投影する第1投影装置と第2投影画像を投影する第2投影装置とを含む複数の投影装置を制御する投影制御装置であって、前記第1投影装置及び前記第2投影装置を制御する制御手段と、ユーザの操作を受け付ける受付手段と、を有し、前記制御手段は、前記第1投影画像及び前記第2投影画像が変形可能な共通領域を表す画像を前記第1投影装置に投影させ、且つ、前記第1投影画像及び前記第2投影画像の変形後の形状を指定するための画像を前記第2投影装置に投影させ、前記受付手段は、前記形状を指定するための画像を移動する操作を受け付けることを特徴とする。 In order to achieve the object, a projection control device according to one aspect of the present invention includes a plurality of projection devices including a first projection device that projects a first projection image and a second projection device that projects a second projection image. A projection control apparatus for controlling the first projection apparatus and the second projection apparatus, and a reception means for receiving a user operation, wherein the control means includes the first projection. An image for projecting an image representing a common area where the image and the second projection image can be deformed onto the first projection device, and designating the deformed shape of the first projection image and the second projection image Is projected onto the second projection device, and the accepting means accepts an operation of moving an image for designating the shape.
本発明の一側面としての投影制御装置によれば、複数の投影装置の投影画像の位置合わせを容易にすることができる。 According to the projection control apparatus as one aspect of the present invention, it is possible to easily align the projection images of a plurality of projection apparatuses.
本発明のその他の側面については、以下で説明する実施の形態で明らかにする。 Other aspects of the present invention will be clarified in the embodiments described below.
以下、図面を参照して本発明の例示的な実施形態を詳細に説明する。なお、本発明は説明する実施形態に限定されない。また、実施形態で説明される構成要素の全てが本発明に必須とは限らない。実施形態における個々の機能ブロックは、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアとの組み合わせによって実現することができる。また、1つの機能ブロックは複数のハードウェアで実現されてもよい。また、1つのハードウェアが複数の機能ブロックを実現してもよい。また、1つ以上の機能ブロックは、少なくとも1つのプログラマブルプロセッサ(CPU、MPUなど)が少なくとも1つのメモリに読み込まれたコンピュータプログラムを実行することにより実現されてもよい。1つ以上の機能ブロックをハードウェアで実現する場合、ディスクリート回路や、FPGA、ASICといった集積回路によって実現することができる。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to embodiment described. In addition, all of the constituent elements described in the embodiments are not necessarily essential to the present invention. Individual functional blocks in the embodiments can be realized by hardware, software, or a combination of hardware and software. One functional block may be realized by a plurality of hardware. One hardware may realize a plurality of functional blocks. In addition, the one or more functional blocks may be realized by executing a computer program loaded into at least one memory by at least one programmable processor (CPU, MPU, etc.). When at least one functional block is realized by hardware, it can be realized by an integrated circuit such as a discrete circuit, FPGA, or ASIC.
なお、以下の実施形態では、スタンドアロンタイプの投影装置(プロジェクタ)に本発明を適用した構成について説明する。しかし、例えばパーソナルコンピュータ、スマートフォン、タブレット端末、ゲーム機、デジタル(ビデオ)カメラといった一般的な電子機器が内蔵するプロジェクタにも適用可能である。 In the following embodiments, a configuration in which the present invention is applied to a stand-alone type projector (projector) will be described. However, the present invention can also be applied to projectors incorporated in general electronic devices such as personal computers, smartphones, tablet terminals, game machines, and digital (video) cameras.
また、実施形態の説明において、GUIを示す図を用いることがあるが、それらは一例であり、GUIのレイアウトやコンポーネントの種類、画面遷移などは本発明の要旨を逸脱しない範囲で、省略、置き換え、変更を行うことができる。 In the description of the embodiments, GUIs may be used. However, these are only examples, and GUI layout, component types, screen transitions, and the like are omitted or replaced without departing from the gist of the present invention. Can make changes.
[システム構成]
図1は、本発明の実施形態に係る投影システムの一例を表す模式図である。投影システム10は、投影画像のダイナミックレンジの拡大、輝度の向上、もしくは3D表示のために、投影面500上で複数のプロジェクタの投影領域を重畳させて合致させるスタック投影を行う。なお、図1では、2台のプロジェクタ100a及び100bの投影領域A、Bを合致させる投影システムを示しているが、本発明を3台以上のプロジェクタの投影領域を合致させる投影システムに適用しても良い。
[System configuration]
FIG. 1 is a schematic diagram illustrating an example of a projection system according to an embodiment of the present invention. The
投影システム10に含まれる全てのプロジェクタは投影制御装置として機能するパーソナルコンピュータ(PC)200と相互に通信可能に接続される。本実施形態では、投影制御装置として、PCを用いることを例に挙げるが、スマートフォンやタブレットなど、その他の情報処理装置を用いても良い。また、複数のプロジェクタと、投影制御装置との通信は、有線通信であっても無線通信であってもよく、また、通信プロトコルにも特に制限はない。本実施形態では一例として、TCP/IPを通信プロトコルとして用いるローカルエリアネットワーク(LAN)で装置間の通信が行われるものとする。
All projectors included in the
また、PC200は、予め定められたコマンドをプロジェクタ100a及び100bに送信することにより、プロジェクタ100aおよび100bの動作を制御することができる。プロジェクタ100aおよび100bはPC200から受信したコマンドに応じた動作を行い、動作の結果をPC200に送信する。
In addition, the PC 200 can control the operations of the
投影システム10はさらに、撮影手段としての撮像装置300を有する。撮像装置300は例えばデジタルカメラ、ウェブカメラ、ネットワークカメラである。あるいは、プロジェクタ100又はPC200に内蔵された撮像装置を用いてもよい。撮像装置は、投影面の全体を撮像範囲として含むように設置されているものとする。PC200の外部の撮像装置を用いる場合は、直接あるいはLANを通じて、PC200と通信可能に接続される。PC200は、撮像装置300に予め定められたコマンドを送信することにより、撮像装置300の動作を制御することができる。例えば、撮像装置300はPC200からの要求に応じて撮影を行い、得られた撮影画像のデータをPC200に送信することができる。
The
[プロジェクタ100の構成]
図2は投影システム10に含まれるプロジェクタ100及びPC200の機能構成例を示すブロック図である。プロジェクタ100は、CPU101、RAM102、ROM103、投影部104、投影制御部105、VRAM106、操作部107、ネットワークIF108、画像処理部109、映像入力110を有する。これらの機能ブロックは内部バス111によって通信可能に接続されている。
[Configuration of Projector 100]
FIG. 2 is a block diagram illustrating a functional configuration example of the
CPU101はプログラマブルプロセッサの一例であり、例えばROM103に記憶されているプログラムをRAM102に読み込んで実行することにより、プロジェクタ100の動作を実現する。
The
RAM102は、CPU101がプログラムを実行する際のワークメモリとして用いられる。RAM102には、プログラムやプログラムの実行に用いる変数などが記憶される。また、RAM102は、他の用途(例えばデータバッファとして)に用いられても良い。
The
ROM103は書き換え可能であっても良い。ROM103はCPU101が実行するプログラム、メニュー画面などの表示に用いるためのGUIデータなど各種の設定値などが記憶される。
The
投影部104は、光源、レンズを含む投影光学系などを有し、投影制御部105から供給される投影用画像に基づいて光学像を投影する。本実施形態では液晶パネルを光学変調素子として用い、光源からの光の反射率もしくは透過率を投影用画像に従って制御することにより、投影用画像に基づく光学像を生成し、投影光学系によって投影面に投影する。
The
投影制御部105は、画像処理部109から供給される投影用画像のデータを投影部104に供給する。
The
VRAM106は、外部(例えばPCやメディアプレーヤー)から受信した投影用画像のデータを格納するビデオメモリである。
The
操作部107は、キーボタン、スイッチ、タッチパネルなどの入力デバイスを有し、ユーザからプロジェクタ100への指示を受け付ける受付手段である。CPU101は操作部107の操作を監視しており、操作部107の操作を検出すると、検出した操作に応じた処理を実行する。なお、プロジェクタ100がリモートコントローラを有する場合、操作部107はリモートコントローラから受信した操作信号をCPU101に通知する。
The
ネットワークIF108はプロジェクタ100を通信ネットワークに接続するインタフェースであり、サポートする通信ネットワークの規格に準拠した構成を有する。本実施形態においてプロジェクタ100は、ネットワークIF108を通じて、PC200と共通のローカルネットワークに接続される。したがって、プロジェクタ100とPC200との通信はネットワークIF108を通じて実行される。
A network IF 108 is an interface for connecting the
画像処理部109は、映像入力部110に供給され、VRAM106に格納された映像信号に対して様々な画像処理を必要に応じて適用し、投影制御部105に供給する。画像処理部109は例えば画像処理用のマイクロプロセッサであってよい。あるいは、画像処理部109に相当する機能を、CPU101がROM103に記憶されたプログラムを実行することによって実現してもよい。
The
画像処理部109が適用可能な画像処理には、フレーム間引き処理、フレーム補間処理、解像度変換処理、メニュー画面などのOSDを重複させる処理、キーストーン補正処理、エッジブレンディング処理などが含まれるが、これらに限定されない。
Image processing that can be applied by the
映像入力部110は、外部装置(本実施形態ではPC200)が出力する映像信号を直接または間接的に受信するインタフェースであり、サポートする映像信号に応じた構成を有する。映像入力部110は例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子の1つ以上を含む。映像入力部110はまた、アナログ映像信号を受信した場合、デジタル映像信号に変換してVRAM106に格納する。
The
[PC200の構成]
次に、PC200の機能構成について説明する。PC200は外部ディスプレイが接続可能な汎用コンピュータであってよく、したがって汎用コンピュータに準じた機能構成を有する。PC200は、CPU201、RAM202、ROM203、操作部204、表示部205、ネットワークIF206、映像出力部207、通信部208を有する。また、これの機能ブロックは内部バス209によって通信可能に接続されている。
[Configuration of PC 200]
Next, the functional configuration of the
CPU201は、プログラマブルプロセッサの一例であり、例えばROM203に記憶されているプログラム(OSやアプリケーションプログラム)をRAM202に読み込んで実行することにより、PC200の動作を実現する。
The
RAM202は、CPU201がプログラムを実行する際のワークメモリとして用いられる。RAM202には、プログラムやプログラムの実行に用いる変数などが記憶される。また、RAM202は、他の用途(例えばデータバッファとして)に用いられてもよい。
The
ROM203は書き換え可能であってよい。ROM203は、CPU201が実行するプログラム、メニュー画面などの表示に用いるためのGUIデータ、各種の設定値などが記憶される。なお、PC200はROM203よりも大容量の記憶装置(HDDやSSD)を有してもよく、この場合OSやアプリケーションプログラムといった容量の大きいプログラムは記憶装置に記憶してもよい。
The
操作部204は、キーボード、ポインティングデバイス(マウスなど)、タッチパネル、スイッチなどの入力デバイスを有し、ユーザからPC200への指示を受け付ける。なお、キーボードはソフトウェアキーボードであってもよい。CPU201は操作部204の操作を監視しており、操作部204の操作を検出すると、検出した操作に応じた処理を実行する。
The
表示部205は例えば液晶パネルや有機ELパネルである。表示部205は、OSやアプリケーションプログラムが提供する画面の表示を行う。なお、表示部205は外部装置であってもよい。また、表示部205はタッチディスプレイであってもよい。 The display unit 205 is, for example, a liquid crystal panel or an organic EL panel. The display unit 205 displays a screen provided by the OS or application program. The display unit 205 may be an external device. The display unit 205 may be a touch display.
ネットワークIF206はPC200を通信ネットワークに接続するインタフェースであり、サポートする通信ネットワークの規格に準拠した構成を有する。本実施形態においてPC200は、ネットワークIF206を通じて、プロジェクタ100と共通のローカルネットワークに接続される。したがって、PC200とプロジェクタ100との通信はネットワークIF206を通じて実行される。
A network IF 206 is an interface for connecting the
映像出力部207は、外部装置(本実施形態ではプロジェクタ100または映像分配器300)に映像信号を送信するインタフェースであり、サポートする映像信号に応じた構成を有する。映像出力部207は例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子の1つ以上を含む。
The
なお、本実施形態では、プロジェクタ100の投影領域の調整機能を有する投影制御アプリケーションプログラムのUI画面を表示部205に表示するものとするが、映像出力部207に接続された外部機器にUI画面を表示させてもよい。
In this embodiment, the UI screen of the projection control application program having the projection area adjustment function of the
通信部208は外部機器と例えばシリアル通信を行うための通信インタフェースであり、代表的にはUSBインタフェースであるが、RS−232Cなど他の規格に準じた構成を有しても良い。本実施形態では撮像装置300が通信部208に接続されるものとするが、撮像装置300とPC200との通信方法に特に制限はなく、両者がサポートしている任意の規格に準拠した通信を行うことができる。
The communication unit 208 is a communication interface for performing serial communication with an external device, for example, and is typically a USB interface, but may have a configuration conforming to another standard such as RS-232C. In this embodiment, it is assumed that the
[キーストーン補正について]
次に、キーストーン補正について図3を用いて説明する。キーストーン補正は、投影面の法線方向と投影方向(一般的には投影光学系の光軸)とのずれに応じて投影画像に生じる台形歪みを相殺するように元画像を幾何学的変換(変形)させる補正(幾何補正)である。画像の幾何学的変換は射影変換によって実現できるため、キーストーン補正は幾何補正の補正量である射影変換のパラメータの決定に等しい。例えば、CPU101は、矩形上の元画像の各頂点の移動量と移動方向に基づいて射影変換のパラメータを決定し、画像処理部109に与えることができる。
[Keystone correction]
Next, keystone correction will be described with reference to FIG. Keystone correction geometrically transforms the original image to cancel the trapezoidal distortion that occurs in the projected image according to the deviation between the normal direction of the projection plane and the projection direction (typically the optical axis of the projection optical system). This is correction (geometric correction) to be (deformed). Since the geometric transformation of the image can be realized by projective transformation, the keystone correction is equivalent to the determination of the parameter of the projective transformation that is the correction amount of the geometric correction. For example, the
例えば、元画像の座標を(xs,ys)とすると、射影変換による変形後の画像の座標(xd,yd)は以下の式1で表わされる。 For example, assuming that the coordinates of the original image are (xs, ys), the coordinates (xd, yd) of the image after deformation by projective transformation are expressed by the following Equation 1.
ここで、Mは3×3行列で、元画像から変形後の画像への射影変換行列である。また、xso、ysoは、図3に実線で示す元画像の左上の頂点の座標であり、xdo、ydoは、図3に一点鎖線で示す変形後の画像において、元画像の頂点(xso,yso)に対応する頂点の座標値である。 Here, M is a 3 × 3 matrix, which is a projective transformation matrix from the original image to the transformed image. Further, xso and yso are the coordinates of the upper left vertex of the original image indicated by the solid line in FIG. 3, and xdo and ydo are the vertexes (xso, yso) of the original image in the transformed image indicated by the dashed line in FIG. ) Is the coordinate value of the vertex corresponding to.
CPU101は、式1の行列Mとその逆行列M−1を、オフセット(xso,yso),(xdo,ydo)とともに、キーストーン補正のパラメータとして画像処理部109に与える。画像処理部109は、以下の式2に従い、キーストーン補正後の座標値(xd,yd)に対応する元画像の座標(xs,ys)を求めることができる。
The
式2で得られる元画像の座標xs,ysがいずれも整数であれば、画像処理部109は元画像座標(xs,ys)の画素値をそのままキーストーン補正後の画像の座標(xd,yd)の画素値とすることができる。一方、式2で得られる元画像の座標が整数にならない場合、画像処理部109は、元画像座標(xs,ys)に相当する画素値を、複数の周辺画素の値を用いた補間演算により求めることができる。補間演算は、例えばバイリニア、バイキュービックなど、公知の補間演算のいずれかを用いて行うことができる。なお、式2で得られる元画像の座標が、元画像の外部領域の座標である場合、画像処理部109は、キーストーン補正後の画像の座標(xd,yd)の画素値を黒(0)またはユーザが設定した背景色とする。このようにして、画像処理部109は、キーストーン補正後の画像の全座標についての画素値を求め、変換後画像を作成することができる。
If the coordinates xs and ys of the original image obtained by Expression 2 are both integers, the
ここでは、プロジェクタ100のCPU101から画像処理部109に、行列Mとその逆行列M−1の両方が供給されるものとしたが、いずれか一方の行列だけを供給し、他方の行列は画像処理部109が求めてもよい。
Here, it is assumed that both the matrix M and its inverse matrix M −1 are supplied from the
なお、キーストーン補正後の画像の頂点の座標は、例えば投影画像の個々の頂点について、頂点が所望の位置に投影されるように操作部107を通じてユーザから移動量を入力させることにより取得することができる。この際、移動量の入力を支援するため、CPU201は、投影制御アプリケーションプログラムの機能を用い、プロジェクタ100にテストパターンを投影させるようにしてもよい。
Note that the coordinates of the vertices of the image after the keystone correction are obtained, for example, by causing the user to input a movement amount through the
ところで、キーストーン補正には、ハードウェアやソフトウェアの制限により、変形可能領域が定められていることがある。図4にキーストーン補正の変形可能量を表す模式図を示す。図4の400はプロジェクタのパネル平面を表す。図4の斜線の領域401は、キーストーン補正する際に左上頂点が移動可能な領域である変形可能領域を表す。斜線の領域401〜404は矩形形状であるパネルの4つの頂点の変形可能領域を表す。また、図4のΔx_maxはx軸方向の最大変形可能量、Δy_maxはy軸方向の最大変形可能量を表す。
By the way, in the keystone correction, a deformable area may be defined due to hardware or software limitations. FIG. 4 is a schematic diagram showing the deformable amount of keystone correction. 4 in FIG. 4 represents a panel plane of the projector. A hatched
なお、Δx_max及びΔy_maxは、プロジェクタのハードウェアやソフトウェアの構成によって異なる場合がある。Δx_max及びΔy_maxは、特許文献1と同様、各変形可能領域がパネルの最大画素領域と相似形となるように設定してもよい。また、例えば、各変形可能領域が正方形になるようにΔx_max及びΔy_maxを500ピクセルに設定してもよい。 Note that Δx_max and Δy_max may differ depending on the hardware and software configuration of the projector. Δx_max and Δy_max may be set so that each deformable region is similar to the maximum pixel region of the panel, as in Patent Document 1. Further, for example, Δx_max and Δy_max may be set to 500 pixels so that each deformable region is a square.
[自動位置合わせ処理]
本実施形態のPC200が投影制御アプリケーションプログラムを実行することにより実現する、自動位置合わせ処理の概要を図5のフローチャートに示す。
[Automatic alignment processing]
A flowchart of FIG. 5 shows an outline of the automatic alignment processing realized by the
S501でPC200のCPU201は、PC200が通信可能なプロジェクタ100の中から、自動位置合わせ処理の対象とする複数のプロジェクタを選択する。
In step S <b> 501, the
図6は、CPU201が投影制御アプリケーションプログラムを実行することにより表示部205に表示されるGUI画面600の例を示す図である。ユーザはPCの操作部204を通じて画面600を操作する。
FIG. 6 is a diagram illustrating an example of a
ユーザによって「検索」ボタン601が押下されたことをCPU201が検出すると、CPU201は、ネットワークIF206を介して、プロジェクタ名とIPアドレスに関する情報を要求する所定のコマンドをネットワーク上にブロードキャストする。なお、このときに要求する情報は、プロジェクタ名とIPアドレスに限らず、例えばキーストーン変形可能量なども予め要求しても良い。
When the
ネットワークに接続されている個々のプロジェクタ100のCPU101は、ネットワークIF108を介してコマンドを受信すると、自身のプロジェクタ名とIPアドレスを示す情報を含んだデータを、PC200に対して送信する。PC200のCPU201は、コマンドに応答して送信されたデータを受信し、データに含まれる情報を抽出してリストビュー602に表示する。なお、リストビュー602に表示されるプロジェクタの並び順は、検出された順であってもよいし、特定の規則に基づいてソートしてもよい。
When the
ユーザは例えばチェックボックス603〜606にチェックを入れることで、位置合わせ対象のプロジェクタを選択する。画面600は、PC200に接続されているプロジェクタ100が4台である場合の例である。
For example, the user selects
位置合わせ対象のプロジェクタをプロジェクタ100a(Projector1)、プロジェクタ100b(Projector2)としたい場合は、チェックボックス604及びチェックボックス606にチェックを入れればよい。
When the projectors to be aligned are the projector 100a (Projector 1) and the
チェックボックスにチェックが入ったプロジェクタに関する情報(例えば、プロジェクタ名、IPアドレスなど)はPC200のRAM202に格納される。
Information (for example, projector name, IP address, etc.) relating to the projector whose check box is checked is stored in the
図6の「テストパターンON」ボタン607の操作が検出されると、CPU201は、チェックボックスにチェックが入った複数のプロジェクタのそれぞれに対し、ネットワークIF206を通じてテストパターンの表示を指示するコマンドを送信する。これは、図5の処理フローのS502に相当する。ボタン606の操作に応じて表示させるテストパターンは、各プロジェクタ100の表示領域の大きさや位置を確認しやすくするためのテストパターンであり、例えば格子状の画像などを表示させる。なお、テストパターンに関しては、PC200から個々のプロジェクタ100へ、テストパターンの表示を指示するコマンドを関連付けて送信しても良いし、任意の直線や図形、文字列などをプロジェクタに描画させるコマンドを複数組み合わせて送信しても良い。
When the operation of the “test pattern ON”
図6の「テストパターンOFF」ボタン608の操作が検出されると、CPU201はチェックボックスにチェックが入ったプロジェクタそれぞれに対し、ネットワークIF206を通じてテストパターンの非表示を指示するコマンドを送信する。
When the operation of the “test pattern OFF”
図6の「Next」ボタン609の操作が検出されると、図7に示す画面700に遷移する(図5のS502からS503への遷移に相当)。
When the operation of the “Next”
図5のS503では、自動位置合わせ処理に用いるカメラの選択を行う。図7の700はカメラ選択画面を表す。図7の「検索」ボタン701の操作が検出されると、PC200のCPU201は自身と接続(USB接続やネットワーク接続など)されたカメラの情報(例えば、カメラの製品名)を取得し、ドロップダウンリスト702に表示する。ユーザは検索された複数のカメラから所望のカメラをドロップダウンリスト702によって1台選択する。なお、自動位置合わせ処理に用いるカメラの台数は1台でなく、2台以上選択できてもよい。
In S503 of FIG. 5, the camera used for the automatic alignment process is selected.
図7に示す画像領域703は、ドロップダウンリスト702で選択されたカメラで撮影した画像を表示する領域である。例えば、PC200のCPU201が選択されたカメラ300に対して、撮影を指示するコマンドを送信し、取得した撮影画像を画像領域703に貼り付けることで実現する。ここに表示される画像は、ライブビュー画像が望ましいが、静止画であってもよい。
An
ユーザはこの画像領域703を観察することで、カメラの撮像範囲内にプロジェクタの投影画像(テストパターン)が全て収まるためのカメラの設置やズーム調整を容易に行うことができる。
By observing the
図7の「Back」ボタン705の操作が検出されると、前画面(図6に示す画面)に戻る。図5のフローチャートでは不図示であるが、S503からS501へ遷移する。
When the operation of the “Back”
図7のチェックボックス704はカメラのパラメータをPC200が自動で設定するか否かを設定するためのものである。「Next」ボタン706で次画面に遷移する際に、チェックボックス704にチェックが入っているか否かで、カメラのパラメータを自動で設定するかどうかを切り替えることができる。ここでは詳細な説明は割愛するが、複数のプロジェクタ100のテストパターンを投影した状態おいてカメラで測光することにより、そのカメラのパラメータを得ることができる。
A
図7の「Next」ボタン706の操作が検出されると、図8の800に示す画面に遷移する(図5のS503からS504への遷移に相当)。
When the operation of the “Next”
図5のS504では、カメラのパラメータ(シャッター速度、ISO感度、絞り値など)を設定する。図8の800はカメラパラメータ設定画面を表す。 In S504 of FIG. 5, camera parameters (shutter speed, ISO sensitivity, aperture value, etc.) are set. 8 represents a camera parameter setting screen.
図8の801、802、803はそれぞれ、カメラのシャッター速度、ISO感度、絞り値を設定するためのドロップダウンリストである。なお、設定できるカメラのパラメータはこれに限らず、例えばホワイトバランスや測光方式などを設定できるようにしてもよい。
図8の「テスト撮影」ボタン804の操作が検出されると、PC200は選択されたカメラ300に対して撮影を促すコマンドを送信して、撮影画像を取得し、画像表示領域805上に表示する。このとき表示する画像は、シャッター速度などのパラメータが正しく設定できたかどうかを確認するためのものなので、静止画であることが望ましいが、ライブビュー画像であっても構わない。
When the operation of the “test shooting”
図8の「Back」ボタン806の操作が検出されると、前画面(図7に示す画面)に戻る。図5のフローチャートでは不図示であるが、S504からS503へ遷移する。
When the operation of the “Back”
図8の「Next」ボタン807の操作が検出されると、図9の900に示す画面に遷移する(図5のS504からS505への遷移に相当)。
When the operation of the “Next”
図5のS505では、位置合わせモードを選択する。位置合わせモードは「4点指定調整」と「基準プロジェクタに合わせる」のいずれか一つ選択する。 In S505 of FIG. 5, the alignment mode is selected. As the alignment mode, one of “4-point designated adjustment” and “Align with reference projector” is selected.
「4点指定調整」は予め定められた4点に個々の投影領域の頂点を合わせるようなキーストーン補正量を自動で決定するモードである。4点指定調整は、例えば、投影面が枠付きのスクリーンである場合のように、投影目標位置が明確な場合に有用である。なお、座標を調整可能な点の数は4点より少なくてもよいし、頂点以外の座標を含む5点以上としてもよい。 “Four-point designation adjustment” is a mode in which a keystone correction amount is automatically determined such that the vertices of individual projection areas are aligned with four predetermined points. The four-point designation adjustment is useful when the projection target position is clear, for example, when the projection surface is a screen with a frame. Note that the number of points whose coordinates can be adjusted may be less than 4, or may be 5 points or more including coordinates other than the vertexes.
「基準プロジェクタに合わせる」は、1つのプロジェクタを基準プロジェクタとして、基準プロジェクタの投影領域に他のプロジェクタの投影領域を合致させるようなキーストーン補正量を自動で決定するモードである。このモードの自動位置合わせが実行されるのは、基準プロジェクタの投影領域の位置が、指定された位置に調整されている場合である。基準プロジェクタ以外のプロジェクタの投影領域を基準プロジェクタの投影領域に合致させるためのキーストーン補正量を自動的に決定する。こちらは、「4点指定調整」とは異なり、投影目標位置が明確ではない場合(例えば壁面への投影など)に有効な機能である。 “Adjust to reference projector” is a mode in which one projector is used as a reference projector and a keystone correction amount is automatically determined so that the projection area of another projector matches the projection area of the reference projector. The automatic alignment in this mode is executed when the position of the projection area of the reference projector is adjusted to the designated position. A keystone correction amount for automatically matching the projection area of the projector other than the reference projector with the projection area of the reference projector is determined. This is an effective function when the projection target position is not clear (for example, projection onto a wall surface, etc.), unlike “4-point designation adjustment”.
図9に、位置合わせモード選択画面900を示す。ラジオボタン901とラジオボタン902のどちらが選択されているかに応じて、PC200のCPU201はどちらの位置合わせモードで調整するのかを切り替える。選択された位置合わせモードに関する情報はPC200のCPU201が自身のRAM202に格納する。
FIG. 9 shows an alignment
図9のドロップダウンリスト903は、基準プロジェクタを選択するためのものである。ここで選択可能なプロジェクタは図5のS501で調整対象とされたプロジェクタである。ユーザはこのドロップダウンリストから所望のプロジェクタを1台選択し、PC200のCPU201は選択されたプロジェクタを基準プロジェクタとして、自身のRAM202に記憶する。
A drop-down
図9の「基準プロジェクタを確認」ボタン904の操作が検出されると、PC200のCPU201は、ネットワークIFを通して、図5のS501において選択されたプロジェクタそれぞれに対して特定のテストパターンを表示させるコマンドを送信する。このとき、基準プロジェクタにのみ他のプロジェクタと色、輝度、形状のいずれかが異なるような画像を投影させることで、投影面上のどの投影画像が基準プロジェクタによるものなのかを容易に確認することができる。
When the operation of the “confirm reference projector”
図9の「Back」ボタン905の操作が検出されると、前画面(図8に示す画面)に戻る。図5のフローチャートでは不図示であるが、S505からS504へ遷移する。
When the operation of the “Back”
図9の「Next」ボタン906の操作が検出されると、PC200のCPU201は自動調整処理を開始する(図5のS504からS505への遷移に相当)。
When the operation of the “Next”
図10は、自動位置合わせ処理S506の詳細なフローチャートである。S1002からS1004をプロジェクタごとに繰り返すことで、位置合わせ対象の各プロジェクタとカメラの射影変換行列をそれぞれ取得する。 FIG. 10 is a detailed flowchart of the automatic alignment process S506. By repeating S1002 to S1004 for each projector, the projective transformation matrices of each projector and camera to be aligned are acquired.
図11を用いて、射影変換行列の算出方法について説明する。図11(a)はカメラ座標平面(撮影画像の座標系)を、図11(b)はプロジェクタ座標平面(プロジェクタのパネルの座標系)をそれぞれ表す。プロジェクタ座標平面上の座標を(xi,yi)、カメラ座標平面上の座標を(Xi,Yi)とすると、射影変換式は式3及び式4で表される(iは自然数)。このとき、iが等しい変数はそれぞれ対応していることを表す。 A method of calculating the projective transformation matrix will be described with reference to FIG. FIG. 11A shows the camera coordinate plane (the coordinate system of the captured image), and FIG. 11B shows the projector coordinate plane (the coordinate system of the projector panel). When the coordinates on the projector coordinate plane are (xi, yi) and the coordinates on the camera coordinate plane are (Xi, Yi), the projective transformation formulas are expressed by Formula 3 and Formula 4 (i is a natural number). At this time, the variables having the same i correspond to each other.
ここで、aからhは所定の定数を示す。 Here, a to h are predetermined constants.
上記の式3及び式4を式変形し、行列で表現した式を式5に示す。 Formula 5 is a formula obtained by modifying Formula 3 and Formula 4 above and expressing the result in a matrix.
このときのMが射影変換行列である。この射影変換行列は、式3及び式4に対して、対応する4組の点(x1,y1,X1,Y1)、(x2,y2,X2,Y2)、(x3,y3,X3,Y3)、(x4,y4,X4,Y4)をそれぞれ代入することで算出することができる。すなわち、平面同士の少なくとも4点の座標の対応関係が分かっていれば、射影変換行列を算出できる。 M at this time is a projective transformation matrix. This projective transformation matrix has four corresponding points (x1, y1, X1, Y1), (x2, y2, X2, Y2), (x3, y3, X3, Y3) with respect to Equations 3 and 4. , (X4, y4, X4, Y4) can be respectively calculated. That is, if a correspondence relationship between at least four coordinates of planes is known, a projective transformation matrix can be calculated.
例えば、プロジェクタが四角形(図11(b)の斜線部)を投影し、撮影画像におけるプロジェクタから投影された四角形の頂点座標を検出できれば射影変換行列を算出できる。頂点座標の検出方法についての説明については公知の技術を用いればよいので割愛する。 For example, if the projector projects a quadrangle (the shaded area in FIG. 11B) and the vertex coordinates of the quadrangle projected from the projector in the captured image can be detected, the projective transformation matrix can be calculated. Description of the vertex coordinate detection method will be omitted because a known technique may be used.
図11において、カメラ座標平面のP_a,P_b,P_c,P_dはプロジェクタ座標平面のp_a,p_b,p_c,p_dにそれぞれ対応する。これら既知の4点の対応関係より、射影変換行列を算出する。この算出した射影変換行列を用いることで、未知の座標点の射影変換を実行できる。例えば、カメラ座標平面の点P_eに対して、算出した射影変換行列を掛けることで、対応するプロジェクタ座標平面上の点p_eを算出できる。また、プロジェクタ座標平面上のp_eに、算出した射影変換行列の逆行列を掛けることで、対応するカメラ座標平面の点P_eを算出できる。 In FIG. 11, P_a, P_b, P_c, and P_d on the camera coordinate plane correspond to p_a, p_b, p_c, and p_d on the projector coordinate plane, respectively. A projective transformation matrix is calculated from the correspondence of these four known points. By using this calculated projective transformation matrix, projective transformation of unknown coordinate points can be executed. For example, the corresponding point p_e on the projector coordinate plane can be calculated by multiplying the point P_e on the camera coordinate plane by the calculated projective transformation matrix. Also, by multiplying p_e on the projector coordinate plane by the inverse matrix of the calculated projective transformation matrix, the corresponding point P_e on the camera coordinate plane can be calculated.
上述した方法で射影変換行列の算出ができるが、撮像装置300で撮影する際にプロジェクタが投影する画像は四角形でなくても良い。カメラ座標平面とプロジェクタ座標平面同士の少なくとも4点の座標の対応関係を求めることができるような画像であれば、どのようなものであっても良い。
Although the projective transformation matrix can be calculated by the above-described method, an image projected by the projector when shooting with the
図10に戻り、自動位置合わせ処理の説明を行う。PC200のCPU201はS1002からS1004を繰り返し、各プロジェクタの射影変換行列を算出し、自身のRAM202に記憶する。
Returning to FIG. 10, the automatic alignment process will be described. The
S1005でCPU201は、RAM202に格納されたユーザによって指定された位置合わせモード情報に応じて、変形パラメータの算出方法を切り替える。本実施例では、「基準プロジェクタに合わせる」モードの変形(S1009)に関しては、説明を割愛する。
In step S <b> 1005, the
図10のS1005において、ユーザによって「4点指定調整」モードが選択されたと判定された場合、S1006の「投影形状指定処理」に進む。 If it is determined in S1005 in FIG. 10 that the “four-point designation adjustment” mode has been selected by the user, the process proceeds to “projection shape designation processing” in S1006.
図12の「投影形状指定処理(S1006)」の詳細フローチャートを用いて説明する。まず、PC200のCPU201がS1202〜S1203の処理をプロジェクタ毎に繰り返すことにより、カメラ座標平面における各プロジェクタの変形可能領域を取得する。S1202では、PC200のCPU201はネットワークIF206を介し、プロジェクタ100に対してキーストーンの変形可能量を要求するコマンドを送信する。プロジェクタ100はキーストーンの変形可能量を要求するコマンドを受信すると、自身のキーストーン変形可能量を含む情報をPCに対して返信する。PC200はプロジェクタ100から受信したキーストーンの変形可能量を自身のRAM202に記憶する。
A detailed flowchart of “projection shape designation processing (S1006)” in FIG. 12 will be described. First, the
次に、S1203においてPC200のCPU201は、プロジェクタ座標平面上におけるキーストーン変形可能領域を取得し、それを射影変換することでカメラ座標平面上の変形可能領域を取得する。プロジェクタ100におけるキーストーン変形可能領域を図13(a)、図13(b)に示す。図13(a)の斜線部1301〜1304はプロジェクタ100aのキーストーン変形可能領域を表し、図13(b)の斜線部1311〜1314はプロジェクタ100bのキーストーン変形可能領域を表す。このキーストーン変形可能領域は、各プロジェクタのパネル解像度と、各プロジェクタのキーストーン変形可能量(Δx_max、Δy_max)から求めることができる。左上の変形可能領域1301の座標を例に挙げると、
左上の変形可能領域1301の左上頂点座標=(0、0)、
左上の変形可能領域1301の右上頂点座標=(Δx_max、0)、
左上の変形可能領域1301の右下頂点座標=(Δx_max、Δy_max)、
左上の変形可能領域1301の左下頂点座標=(0、Δy_max)
となる。
Next, in step S1203, the
Upper left vertex coordinate of upper left
Upper right vertex coordinates of the upper left
Lower right vertex coordinates of upper left
Lower left vertex coordinates of upper
It becomes.
PC200のCPU201は位置合わせ対象の全てのプロジェクタ100に対して変形可能領域の座標を求める。次に、PC200のCPU201は図10のS1004で取得した射影変換行列をRAM202から読み出し、その射影変換行列を用いて、変換可能領域の頂点座標をカメラ座標平面上に射影する。図13(c)はプロジェクタ100a及びプロジェクタ100bの変形可能領域をカメラ座標平面上に射影変換した結果を表す。斜線部1331〜1334はプロジェクタ100aのキーストーン変形可能領域をカメラ座標平面上に射影変換した結果を表し、斜線部1341〜1344はプロジェクタ100bのキーストーン変形可能領域をカメラ座標平面上に射影変換した結果を表す。
The
S1204では、PC200のCPU201はカメラ座標平面における複数のプロジェクタの共通変形可能領域を取得する。共通変形可能領域は、各プロジェクタの変形可能領域を表す多角形の頂点座標に対して公知の数学的手法を適用することで算出する。図13(d)の網掛け部1351〜1354はカメラ座標平面における複数のプロジェクタの共通変形可能領域である。具体的には、プロジェクタ100aの変形可能領域1331(1332〜1334)とプロジェクタ100bの変形可能領域1341(1342〜1344)との両方に含まれている共通領域が、共通変形可能領域1351(1352〜1354)である。なお、S1204において、PC200のCPU201が共通変形可能領域の少なくとも1つが存在しないと判定した場合は、自身の表示部205に警告メッセージを表示させてもよい。警告メッセージには、ユーザに対する具体的な作業指示(例えば「プロジェクタをズームしてください」など)を表示してもよい。さらに、警告メッセージを表示するとともに、PC200のCPU201が、投影面上に共通変形可能領域が存在するような配置になるように各プロジェクタを光学制御(光学ズームやレンズシフト)してもよい。
In step S1204, the
次に、S1205において、PC200のCPU201は、位置合わせ対象プロジェクタのうちいずれか1台のプロジェクタを選択し、S1204で求めた共通変形可能領域をその選択した1台のプロジェクタの座標平面に射影する。
Next, in S1205, the
S1206では、PC200のCPU201が共通変形可能領域を表すマーカーを生成し、S1205で選択したプロジェクタにそのマーカーを投影させる。
In S1206, the
なお、このときに共通変形可能領域射影プロジェクタ以外のプロジェクタが非投影状態になるようにPC200のCPU201はネットワークIF206を介してコマンドを送信する。これにより、共通変形可能領域の投影面への投影を他のプロジェクタが阻害することを防止できる。図14(a)及び(b)に投影面1400に投影するマーカーの例を示す。共通変形可能領域を表すマーカーとは、図14(a)及び(b)の1401〜1404のような画像であり、四角形にハッチングを施した領域として表示するようにしたものである。なお、共通変形可能領域を表すマーカーの色や線の太さ、模様などはどのようなものを用いても構わず、例えば、特許文献1に記載されているような表示形態のマーカーのいずれかを用いても良い。
At this time, the
S1207では、PC200のCPU201は、変形後形状を指定するためのマーカーを生成し、S1205で選択したプロジェクタに更に投影させる。変形後形状を指定するためのマーカーとは、図14に示したような画像である。図14には、L字状のマーカー四個(1406〜1409)とそのL字状マーカー同士を結ぶ線分四本(1411〜1414)とを有するマーカーを示している。自動位置合わせ処理後(変形後)のプロジェクタ100aの投影領域(投影画像)とプロジェクタ100bの投影領域(投影画像)は、それぞれの4つの頂点が位置合わせされて、1つの重畳領域(重畳画像)を形成する。L字状マーカーは、その自動位置合わせ処理後の重畳領域の頂点を表す画像である。なお、マーカーの形状や色は、投影面において少なくとも4点の座標を指定できるようなものであればどのようなものであっても良い。また、変形後形状を指定するためのマーカーの初期位置は、図14(a)に示したように、L字状のマーカー(1406〜1409)が共通変形可能領域を表すマーカー(1401〜1404)の内側に位置するように決定される。このときの位置は、例えば共通変形可能領域の重心であっても良いし、共通変形可能領域の所定の頂点上であっても良い。或いは、カメラ座標平面における共通変形可能領域の内側の特徴的な位置(例えば、スクリーンの角やレーザー墨出し器が投射する線分の交点)であっても良い。また、図14(a)では、L字状のマーカー全体が共通変形可能領域に含まれるようにL字状のマーカーを配置しているが、L字状のマーカーの重畳領域の頂点に対応する部分だけが共通変形可能領域に含まれるようにL字状のマーカーを配置しても良い。
In S1207, the
なお、共通変形可能領域を表すマーカー及び変形後形状を指定するためのマーカーは、PC200のCPU201が生成した画像をネットワークIF206或いは映像出力部207を介して送信してもよい。或いは、PC200のCPU201が任意の線分や多角形をプロジェクタ100に描画させるコマンドをネットワークIF206によって送信し、プロジェクタ100のCPU101は受信したコマンドを解釈した結果に基づいてマーカー画像を描画してもよい。
Note that an image generated by the
S1207の処理が完了すると、PC200のCPU201は、図15に示す変形後形状を指定するためのGUI画面1500に遷移させる。
When the processing of S1207 is completed, the
図15において、1501〜1504は左上頂点のマーカー1406を操作するためのボタンである。また、1505〜1508は右上頂点のマーカー1407を操作するためのボタンであり、1509〜1512は右下頂点のマーカー1408を操作するためのボタンであり、1513〜1516は左下頂点のマーカー1409を操作するためのボタンである。これらの操作ボタンは、ボタンに表示されている矢印の方向に、マーカー1406〜1409を移動するための指示を受け付けるためのボタンである。
In FIG. 15,
図15の画像領域1517はPC200が接続されたカメラ300に指示をして撮影・取得したライブビュー画像を表示する領域である。ユーザは投影面を直接観察するか、この画像領域1517を見ながら操作ボタン1501〜1516のいずれかを操作することで、変形後形状指定マーカーを操作する。
An
操作ボタン1501〜1516の操作を検出すると、PC200のCPU201は、自身のRAM202で記憶しているカメラ座標平面における変形後形状を指定するためのマーカーの位置座標を更新する(S1210)。さらにCPU201は、その更新された位置座標のマーカー画像を再生成し、S1205で選択したプロジェクタに再生成したマーカー画像を再投影させる(S1211)。図14(b)は、図14(a)に示した初期状態から操作ボタン1503及び操作ボタン1504をユーザが何度か押下された結果を表わしている。図14(b)の投影面1400では、L字状マーカー部1406とそれに隣接する2つの線分(1411、1414)の位置が変更されて表示されている。
When detecting the operation of the
図15の「実行」ボタン1519がユーザによって操作されるまで、操作ボタン1501〜1516は操作可能である。図15の「実行」ボタン1519がユーザによって操作された際は(S1209−YES)、図12に示すフローチャートを終了し、図10のS1007に進む。
Until the “execute”
図10に戻り、自動位置合わせ処理の説明をする。 Returning to FIG. 10, the automatic alignment process will be described.
S1007では、PC200のCPU201が投影面上で複数のプロジェクタの投影画像が完全に重なり合って1つの重畳画像を形成するためのキーストーン補正量を取得する。CPU201は自身のRAM202に記憶されているカメラ座標平面における変形後形状の座標をS1004で取得した射影変換行列を用いて各プロジェクタ平面に対して射影することで、各プロジェクタのキーストーン補正量を算出する。
In step S <b> 1007, the
S1008では、PC200のCPU201がネットワークIF206を介してS1007で算出したキーストーン補正量を各プロジェクタ100に対して送信する。プロジェクタ100はキーストーン補正量をPCから受信すると、受信したキーストーン補正量を自身の画像処理部109に送信し、入力画像の形状補正を実行する。
In step S1008, the
本実施形態によれば、複数台のプロジェクタに対するキーストーン補正の際に、全てのプロジェクタに共通する変形可能範囲を可視化することができるので、ユーザの利便性を向上させることができる。 According to the present embodiment, when the keystone correction is performed on a plurality of projectors, the deformable range common to all projectors can be visualized, so that the convenience for the user can be improved.
特許文献1のプロジェクタを複数台用意して、変形可能な範囲を表す画像の色や模様をプロジェクタ毎に変えるだけでも、(例えば、図13(c)のように)ユーザに各プロジェクタに共通する変形可能範囲を示すことはできる。しかし、この方法では、スタック投影に用いるプロジェクタの台数が3台以上の場合に、全てのプロジェクタに共通する変形可能範囲の識別が非常に困難になってしまう。しかし、本実施形態では、全てのプロジェクタに共通する変形可能範囲を予め求めて、図13(d)に示したようにその共通する変形可能範囲だけを投影面に投影しており、その共通する変形可能範囲の識別が容易になる。 Even if a plurality of projectors of Patent Document 1 are prepared and the color or pattern of an image representing the deformable range is changed for each projector (for example, as shown in FIG. 13C), it is common to each projector for the user. A deformable range can be indicated. However, with this method, when the number of projectors used for stack projection is three or more, it becomes very difficult to identify the deformable range common to all projectors. However, in this embodiment, a deformable range common to all projectors is obtained in advance, and only the common deformable range is projected onto the projection plane as shown in FIG. Identification of the deformable range is facilitated.
実施例1に示した実施形態では、数学的な方法を用いて各プロジェクタの共通変形可能領域を取得したが、取得方法はこれに限らない。本実施例では、画像処理を用いて各プロジェクタの共通変形可能領域を取得する方法について説明する。 In the embodiment shown in Example 1, the common deformable area of each projector is acquired using a mathematical method, but the acquisition method is not limited to this. In the present embodiment, a method for acquiring a common deformable region of each projector using image processing will be described.
各プロジェクタの共通変形可能領域の取得方法を除き、実施例1と同様の構成であるので、各プロジェクタの共通変形可能領域の取得方法以外の説明を省略する。 Except for the method for acquiring the common deformable area of each projector, the configuration is the same as that of the first embodiment, and thus the description other than the method for acquiring the common deformable area of each projector is omitted.
図16は、実施例1に示した図10のS1006の詳細フローチャートである。 FIG. 16 is a detailed flowchart of S1006 of FIG. 10 shown in the first embodiment.
まず、PC200のCPU201はS1601〜S1602を繰り返すことで変形可能量に基づいたマーカー画像を生成する。図17(a)及び(b)に変形可能量に基づいたマーカー画像の例を示す。図17の1701はプロジェクタ100aの変形可能領域である。また図17の1702はプロジェクタ100bの変形可能領域である。PC200のCPU201は、各プロジェクタのマーカー画像を生成する際に、プロジェクタ毎に変形可能領域の色を変える、もしくは各プロジェクタの変形可能領域の色及び輝度を同一にする、のいずれかを行う。
First, the
マーカー画像に上記のような工夫をすることで、各プロジェクタがマーカー画像を同時に投影した場合に、投影面やその撮影画像に以下のような特徴が表れる。 By devising the marker image as described above, when the projectors simultaneously project the marker image, the following characteristics appear on the projection surface and the captured image.
図17(c)は各プロジェクタがマーカー画像を同時に投影し、それを撮影したときの様子を表す。図17(c)の1703はプロジェクタ100aのみが変形可能領域を投影している領域を、1704はプロジェクタ100bのみが変形可能領域を投影している領域を表す。また、1705は、プロジェクタ100a及びプロジェクタ100bの両方が変形可能領域を投影している領域、すなわち領域1703及び領域1704の両方に含まれている領域を表す。プロジェクタ毎に色を変えた場合、例えば、プロジェクタ100aが赤色、プロジェクタ100bが緑色のマーカーをそれぞれ投影していたとすると、領域1705すなわち複数のプロジェクタの共通変形可能領域は混色である黄色となる。同一の色・輝度とした場合、領域1705のみ他の領域と比べ、輝度が高くなる。
FIG. 17C shows a state in which each projector projects a marker image at the same time and photographs it. In FIG. 17C,
これらの特徴を用いることで、カメラ座標平面における各プロジェクタの共通変形可能領域を取得できる。色情報を用いる際は、撮影画像の全画素に対して、画素の色相が所定の色相に近いかどうかの判定処理を適用することで共通変形可能領域を求めることができる。また、輝度情報を用いる際は、撮影画像の全画素に対して、画素の輝度が所定の閾値以上か否かの判定処理を適用することで共通変形可能領域を求めることができる。ここで、色相や輝度を用いた処理はあくまで一例であり、明度や彩度など、他の画素情報を用いても構わない。 By using these features, it is possible to acquire a common deformable region of each projector on the camera coordinate plane. When color information is used, a common deformable region can be obtained by applying a determination process for determining whether or not the hue of a pixel is close to a predetermined hue for all pixels of the captured image. In addition, when using luminance information, a common deformable region can be obtained by applying a determination process for determining whether or not the luminance of a pixel is equal to or higher than a predetermined threshold value for all pixels of the captured image. Here, the process using the hue and luminance is merely an example, and other pixel information such as brightness and saturation may be used.
PC200のCPU201は上記の処理をS1604〜S1606で実行することで、カメラ座標平面における各プロジェクタの共通変形可能領域を算出できる。
The
図16のS1607からS1613までの処理は、図12のS1205からS1211と同一であるため説明を割愛する。 The processing from S1607 to S1613 in FIG. 16 is the same as S1205 to S1211 in FIG.
本実施形態によれば、実施例1と同様に複数台のプロジェクタに対するキーストーン補正の際に、全てのプロジェクタに共通する変形可能量を可視化することができるので、ユーザの利便性を向上させることができる。 According to the present embodiment, as in the first embodiment, when the keystone correction is performed on a plurality of projectors, the deformable amount common to all projectors can be visualized, so that the convenience for the user is improved. Can do.
実施例1の図12で示した「投影形状指定処理」に記載のマーカー画像の描画をPCからプロジェクタに対するネットワークコマンドで実施する場合を考える。 Consider the case where the marker image drawing described in the “projection shape designation process” shown in FIG. 12 of the first embodiment is performed by a network command from the PC to the projector.
この処理は、まず、PC200のCPU201が任意の線分や多角形をプロジェクタ100に描画させるコマンドをネットワークIF206によって送信する。そして、プロジェクタ100のCPU101がネットワークIF108経由で受信したコマンドを解釈し、その内容に従った線分や多角形をVRAM106に格納することで実現される。
In this process, first, the
ここで、実施例1では、図12のS1206で共通変形可能領域を表すマーカーをS1205で選択したプロジェクタで投影させている。そして、S1207で変形後形状を指定するためのマーカーを、同じプロジェクタで投影させている。しかし、別々のプロジェクタで各マーカーを投影するようにしてもよい。本実施例においてはその方法について説明する。 Here, in the first embodiment, the marker representing the common deformable area is projected by the projector selected in S1205 in S1206 of FIG. In step S1207, a marker for designating the deformed shape is projected by the same projector. However, each marker may be projected by a separate projector. In this embodiment, the method will be described.
まず、図14の共通変形可能領域を表すマーカー1401〜1404と変形後形状を指定するためのマーカー1406〜1407の違いについて説明する。共通変形可能領域を表すマーカー1401〜1404は、各プロジェクタの投影位置および各プロジェクタの変形可能領域によって決まるものである。つまり「投影形状指定処理」の開始から終了まで位置が変化しないマーカーであり、逐次の更新の必要がない。一方で、変形後形状を指定するためのマーカー1406〜1407は、図12のS1209、S1210、S1211で示した通り、ユーザ操作によって位置の更新が必要なマーカーであり、即応性が求められる。
First, the difference between the
このように異なる要件のマーカーを単一のプロジェクタのCPUで描画すると、逐次更新の必要のないマーカーの描画に処理時間がかかってしまい、即応性が求められるマーカーの描画がレスポンス良く描画できない可能性がある。図18を用いてこの課題を解決する方法について説明する。 If markers with different requirements are drawn on the CPU of a single projector in this way, it may take a long time to draw markers that do not need to be updated sequentially, and it may not be possible to draw markers that require immediate response with good response. There is. A method for solving this problem will be described with reference to FIG.
図18は、実施例1に示した図12の「投影形状指定処理」を変形したものである。まず、投影形状指定処理が開始されると図12のS1201からS1204に示したものと同様の処理を行う。これについては、すでに説明済みであるため詳細は省略する。 FIG. 18 is a modification of the “projection shape designation process” of FIG. 12 shown in the first embodiment. First, when the projection shape designation process is started, the same processes as those shown in S1201 to S1204 in FIG. 12 are performed. Since this has already been described, details are omitted.
S1801にて、PC200のCPU201はネットワークIF206を介して、各プロジェクタに対して、マーカーの描画性能を取得するコマンドを送信する。これを受信したプロジェクタ100は、マーカー描画性能を示す情報をPCに対して返信する。これは例えば、プロジェクタ100のCPU101の動作周波数である。そして、PC200のCPU201は、全てのプロジェクタからマーカーの描画性能を取得すると、その中から最も描画性能が高いプロジェクタ(以下PJ−A)を決定する。
In step S <b> 1801, the
S1802で、PC200のCPU201は、S1801で決定したPJ−A以外の、いずれかのプロジェクタ(以下PJ−B)を選択し、そのプロジェクタの座標平面に対して、S1204で求めた共通変形可能領域を射影する。
In step S1802, the
S1803で、PC200のCPU201は、共通変形可能領域を表すマーカーを生成し、S1802で選択したPJ−Bに対して投影させる。
In step S1803, the
S1804で、PC200のCPU201は、変形後形状を指定するためのマーカーを生成し、S1801で選択したPJ−Aに対して投影させる。
In step S1804, the
以降のステップは、図12のS1208〜S1211と同様であるため省略する。 The subsequent steps are the same as S1208 to S1211 in FIG.
本実施例によれば、即応性が求められる「投影形状を指定するためのマーカー」の描画を最も描画性能の高いプロジェクタで、そして、逐次更新の必要のない「共通変形可能領域を表すマーカー」の描画は、それとは別のプロジェクタに実施させることができる。これによって、「投影形状を指定するためのマーカー」を操作しているユーザに対して、このマーカーの更新をレスポンス性よく提示することが可能になる。 According to the present embodiment, drawing of a “marker for designating a projection shape” that requires quick response is performed by a projector having the highest drawing performance, and “a marker representing a common deformable region” that does not need to be sequentially updated. This drawing can be performed by another projector. This makes it possible to present the update of the marker with high responsiveness to the user who operates the “marker for designating the projection shape”.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時の請求項に記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。 In addition, the technical elements described in the present specification or drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.
100a プロジェクタ(第1投影装置)
100b プロジェクタ(第2投影装置)
200 PC(投影制御装置)
201 CPU(取得手段、制御手段)
204 操作部(受付手段)
300 撮像装置(撮影手段)
1331〜1334 プロジェクタ100aの変形可能領域(第1領域)
1341〜1344 プロジェクタ100bの変形可能領域(第2領域)
1351〜1354 共通変形可能領域(共通領域)
100a Projector (first projection device)
100b Projector (second projection device)
200 PC (projection control device)
201 CPU (acquisition means, control means)
204 Operation unit (accepting means)
300 Imaging device (photographing means)
1331 to 1334 Deformable region (first region) of projector 100a
1341-1344 Deformable region (second region) of
1351-1354 Common deformable area (common area)
Claims (9)
前記第1投影装置及び前記第2投影装置を制御する制御手段と、
ユーザの操作を受け付ける受付手段と、を有し、
前記制御手段は、前記第1投影画像及び前記第2投影画像が変形可能な共通領域を表す画像を前記第1投影装置に投影させ、且つ、前記第1投影画像及び前記第2投影画像の変形後の形状を指定するための画像を前記第2投影装置に投影させ、
前記受付手段は、前記形状を指定するための画像を移動する操作を受け付ける
ことを特徴とする投影制御装置。 A projection control device that controls a plurality of projection devices including a first projection device that projects a first projection image and a second projection device that projects a second projection image,
Control means for controlling the first projection device and the second projection device;
Receiving means for receiving a user operation,
The control means causes the first projection device to project an image representing a common area in which the first projection image and the second projection image can be deformed, and transforms the first projection image and the second projection image. Projecting an image for designating a later shape on the second projection device,
The projection control apparatus, wherein the reception unit receives an operation of moving an image for designating the shape.
ことを特徴とする請求項1に記載の投影制御装置。 The common area includes a first area in which the vertex of the first projection image is movable when the first projection image is deformed, and a vertex of the second projection image is movable when the second projection image is deformed. The projection control apparatus according to claim 1, wherein the projection control apparatus is an area included in both of the second areas.
ことを特徴とする請求項1又は2に記載の投影制御装置。 The image for designating the shape is an image representing a vertex of a superimposed image formed by superimposing the deformed first projection image and the deformed second projection image. The projection control apparatus according to claim 1 or 2.
ことを特徴とする請求項1乃至3のいずれか1項に記載の投影制御装置。 The said control means changes the position which projects the image for designating the said shape to the said 2nd projection apparatus based on the said operation, The Claim 1 thru | or 3 characterized by the above-mentioned. Projection control device.
ことを特徴とする請求項1乃至4のいずれか1項に記載の投影制御装置。 The projection control apparatus according to claim 1, wherein the second projection apparatus has higher drawing performance than the first projection apparatus.
ことを特徴とする投影装置。 A projection apparatus comprising the projection control apparatus according to claim 1.
前記複数の投影装置と、を有する
ことを特徴とする投影システム。 A projection control apparatus according to any one of claims 1 to 5;
And a plurality of the projection devices.
前記第1投影画像及び前記第2投影画像が変形可能な共通領域を表す画像を前記第1投影装置に投影させるステップと、
前記第1投影画像及び前記第2投影画像の変形後の形状を指定するための画像を前記第2投影装置に投影させるステップと、
前記形状を指定するための画像を移動する操作を受け付けるステップと、を有する
ことを特徴とする投影制御方法。 A projection control method for controlling a plurality of projection devices including a first projection device that projects a first projection image and a second projection device that projects a second projection image,
Projecting an image representing a common area in which the first projection image and the second projection image are deformable onto the first projection device;
Projecting an image for designating a deformed shape of the first projection image and the second projection image on the second projection device;
And a step of receiving an operation of moving an image for designating the shape.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018081157A JP2019192996A (en) | 2018-04-20 | 2018-04-20 | Projection control apparatus and projection control method |
US16/380,902 US20190327457A1 (en) | 2018-04-20 | 2019-04-10 | Projection control apparatus and projection control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018081157A JP2019192996A (en) | 2018-04-20 | 2018-04-20 | Projection control apparatus and projection control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019192996A true JP2019192996A (en) | 2019-10-31 |
Family
ID=68390980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018081157A Pending JP2019192996A (en) | 2018-04-20 | 2018-04-20 | Projection control apparatus and projection control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019192996A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114845091A (en) * | 2021-02-01 | 2022-08-02 | 扬智科技股份有限公司 | Projection device and trapezoidal correction method thereof |
-
2018
- 2018-04-20 JP JP2018081157A patent/JP2019192996A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114845091A (en) * | 2021-02-01 | 2022-08-02 | 扬智科技股份有限公司 | Projection device and trapezoidal correction method thereof |
CN114845091B (en) * | 2021-02-01 | 2023-11-10 | 扬智科技股份有限公司 | Projection device and trapezoid correction method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102409805B1 (en) | Projection control apparatus and control method thereof, and projection system | |
US9818377B2 (en) | Projection system, image processing apparatus, and correction method | |
EP2426637B1 (en) | Method for generating panoramic image | |
CN106605195B (en) | Communication apparatus and control method of communication apparatus | |
US7679643B2 (en) | Remote instruction system, remote instruction method, and program product for remote instruction | |
US10754237B2 (en) | Control apparatus, control method, projection system, and storage medium | |
US8985781B2 (en) | Projector control device and computer-readable recording medium | |
JP2020178248A (en) | Projection control device, projection control method, projection system, program, and storage medium | |
JP2020088691A (en) | Projection control device, control method of the same, and projection system | |
US7712903B2 (en) | Remote instruction system, remote instruction method and program product for remote instruction | |
JP2017072795A (en) | Projector and control method therefor | |
JP2020194998A (en) | Control arrangement, projection system, control method, program and storage medium | |
JP2019204034A (en) | Projection control device, control method thereof, projection system, program and storage medium | |
JP2020178221A (en) | Projection control device, projection control method, and program | |
JP7116543B2 (en) | PROJECTION CONTROL DEVICE, CONTROL METHOD THEREOF, AND PROJECTION SYSTEM | |
JP7096664B2 (en) | Projection control device and its control method, and projection system | |
JP2019192996A (en) | Projection control apparatus and projection control method | |
JP2021061541A (en) | Control device, control method, projection system, program, and storage medium | |
US20190327457A1 (en) | Projection control apparatus and projection control method | |
JP2019192997A (en) | Projection control apparatus and projection control method | |
JP7272336B2 (en) | INFORMATION GENERATION METHOD, INFORMATION GENERATION SYSTEM AND PROGRAM | |
US20190346754A1 (en) | Control apparatus controlling projection apparatuses, control method, and storage medium | |
CN115343898A (en) | Projection system and projection image superposition method | |
JP2021128209A (en) | Projection system, control unit, control method, program, and storage medium | |
JP2020080064A (en) | Projection control device, projection device, control method of projection device, program, and storage medium |