JP2016042653A - Image processing system, and image projection device - Google Patents

Image processing system, and image projection device Download PDF

Info

Publication number
JP2016042653A
JP2016042653A JP2014165894A JP2014165894A JP2016042653A JP 2016042653 A JP2016042653 A JP 2016042653A JP 2014165894 A JP2014165894 A JP 2014165894A JP 2014165894 A JP2014165894 A JP 2014165894A JP 2016042653 A JP2016042653 A JP 2016042653A
Authority
JP
Japan
Prior art keywords
image
projection
projector
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014165894A
Other languages
Japanese (ja)
Other versions
JP6458396B2 (en
Inventor
長谷川 史裕
Fumihiro Hasegawa
史裕 長谷川
石川 雅朗
Masaaki Ishikawa
雅朗 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014165894A priority Critical patent/JP6458396B2/en
Publication of JP2016042653A publication Critical patent/JP2016042653A/en
Application granted granted Critical
Publication of JP6458396B2 publication Critical patent/JP6458396B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system operable to project a predetermined image with image projection devices, of which the installation, setting, etc. are facilitated while holding down the cost.SOLUTION: An image processing system is arranged to project a predetermined image on a projection plane with image projection devices each including projection means for projecting an image on the projection plane, and image-taking means for taking the image projected on the projection plane. The image processing system comprises: control means for controlling the projection by the projection means of the image projection devices; measurement means for measuring a three-dimensional position of the projection plane for each image projection device on the basis of an image taken under the control, and measurement parameters of three-dimensional measurement by the projection means and the image-taking means of the image projection devices; and integration means for integrating the measured three-dimensional positions. The predetermined image is projected on the projection plane on the basis of the three-dimensional position of the projection plane resulting from the integration.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理システム、及び画像投影装置に関する。   The present invention relates to an image processing system and an image projection apparatus.

マルチプロジェクション(マルチ投影)は、複数のプロジェクタ(画像投影装置)を用いて大画面を投影する技術であり、単一のディスプレイを用いて大画面を表示する場合と比べて、安価に大画面を実現することができるというメリットがある。   Multi-projection (multi-projection) is a technique for projecting a large screen using a plurality of projectors (image projection devices). Compared to displaying a large screen using a single display, a large screen can be produced at a lower cost. There is a merit that it can be realized.

これに関連する技術として、複数のプロジェクタと複数のステレオカメラを用いて、二次曲線スクリーンに複数のプロジェクタからの映像を任意の始点から歪なく見せる統合装置が知られている(例えば、特許文献1参照)。   As a technology related to this, there is known an integrated device that uses a plurality of projectors and a plurality of stereo cameras to display images from a plurality of projectors on a quadratic curve screen without distortion from an arbitrary starting point (for example, Patent Documents). 1).

特許文献1に開示された技術は、複数のステレオカメラを用いるためコスト面で不利であり、また、複数のプロジェクタと複数のステレオカメラとが別システムになっているため、システムの設置や、設定等に困難を伴っていた。   The technique disclosed in Patent Document 1 is disadvantageous in terms of cost because it uses a plurality of stereo cameras, and since a plurality of projectors and a plurality of stereo cameras are separate systems, system installation and setting It was accompanied by difficulties.

本発明の実施の形態は、上記問題点に鑑みてなされたものであって、複数の画像投影装置を用いて所定の画像を投影する画像処理システムにおいて、システムのコストを抑制しつつ、設置、設定等を容易にする画像処理システムを提供することを目的とする。   An embodiment of the present invention has been made in view of the above problems, and in an image processing system that projects a predetermined image using a plurality of image projection apparatuses, the system is installed while suppressing the cost of the system. An object of the present invention is to provide an image processing system that facilitates setting and the like.

上記課題を解決するため、本発明の一実施形態に係る画像処理システムは、複数の画像投影装置を用いて投影面に所定の画像を投影する画像処理システムであって、前記複数の画像投影装置の各々は、前記投影面に画像を投影する投影手段と、前記投影手段に対して所定の位置に設けられ、前記投影面に投影された画像を撮影する撮影手段と、を有し、前記画像処理システムは、前記複数の画像投影装置の前記投影手段による投影と、前記複数の画像投影装置の前記撮影手段による撮影とを制御する制御手段と、前記制御によって撮影された画像と、前記複数の画像投影装置の前記投影手段及び前記撮影手段による3次元計測の計測パラメータとに基づいて、前記複数の画像投影装置の各々に対する前記投影面の3次元位置を計測する計測手段と、前記計測された複数の3次元位置を統合する統合手段と、を有し、前記統合された前記投影面の3次元位置に基づいて、前記投影面に前記所定の画像を投影する。   In order to solve the above problems, an image processing system according to an embodiment of the present invention is an image processing system that projects a predetermined image on a projection surface using a plurality of image projection devices, and the plurality of image projection devices. Each of which includes a projecting unit that projects an image on the projection surface, and a photographing unit that is provided at a predetermined position with respect to the projection unit and captures the image projected on the projection surface. The processing system includes: a control unit that controls projection by the projection unit of the plurality of image projection devices; and shooting by the shooting unit of the plurality of image projection devices; an image shot by the control; A measuring hand that measures a three-dimensional position of the projection plane with respect to each of the plurality of image projection devices based on measurement parameters of three-dimensional measurement by the projection unit and the photographing unit of the image projection device. If, anda integration means for integrating a plurality of three-dimensional position where the measured, on the basis of the three-dimensional position of the integrated the projection plane, it projects the predetermined image on the projection plane.

本発明の実施の形態によれば、複数の画像投影装置を用いて所定の画像を投影する画像処理システムにおいて、システムのコストを抑制しつつ、設置、設定等を容易にする画像処理システムを提供することができる。   According to an embodiment of the present invention, in an image processing system that projects a predetermined image using a plurality of image projection apparatuses, an image processing system that facilitates installation, setting, etc. while suppressing system cost is provided. can do.

一実施形態に係る画像処理システムの構成例を示す図である。1 is a diagram illustrating a configuration example of an image processing system according to an embodiment. 一実施形態に係るプロジェクタのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the projector which concerns on one Embodiment. 一実施形態に係るPCのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of PC which concerns on one Embodiment. 第1の実施形態に係る画像処理システムの機能構成図である。1 is a functional configuration diagram of an image processing system according to a first embodiment. 第1の実施形態に係る校正用画像の撮影処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of a calibration image photographing process according to the first embodiment. 第1の実施形態に係る校正用画像の撮影について説明するための図である。It is a figure for demonstrating imaging | photography of the image for a calibration which concerns on 1st Embodiment. 第1の実施形態に係る校正処理の一例のフローチャートである。It is a flowchart of an example of the calibration process which concerns on 1st Embodiment. 第1の実施形態に係る記号の定義について説明するための図である。It is a figure for demonstrating the definition of the symbol which concerns on 1st Embodiment. 第1の実施形態に係る3次元座標の算出について説明するための図である。It is a figure for demonstrating calculation of the three-dimensional coordinate which concerns on 1st Embodiment. 第1の実施形態に係る合成されたパターン画像の例を示す図である。It is a figure which shows the example of the synthesized pattern image which concerns on 1st Embodiment. 第1の実施形態に係る画像投影処理の一例のフローチャートである。It is a flowchart of an example of the image projection process which concerns on 1st Embodiment. 第1の実施形態に係る画像処理システムの接続形態の例を示す図である。It is a figure which shows the example of the connection form of the image processing system which concerns on 1st Embodiment. 第2の実施形態に係る画像処理システムの機能構成図である。It is a functional block diagram of the image processing system which concerns on 2nd Embodiment. 第2の実施形態に係る校正処理の一例のフローチャートである。It is a flowchart of an example of the calibration process which concerns on 2nd Embodiment. 第2の実施形態に係る画像投影処理の一例のフローチャートである。It is a flowchart of an example of the image projection process which concerns on 2nd Embodiment. 第3の実施形態に係る画像処理システムの機能構成図である。It is a functional block diagram of the image processing system which concerns on 3rd Embodiment. 第3の実施形態に係る校正用画像の撮影処理の例を示すフローチャートである。10 is a flowchart illustrating an example of a calibration image capturing process according to a third embodiment. 第3の実施形態に係る校正処理の例を示すフローチャートである。It is a flowchart which shows the example of the calibration process which concerns on 3rd Embodiment. 第3の実施形態に係る画像処理の例を示すフローチャートである。10 is a flowchart illustrating an example of image processing according to a third embodiment. 第3の実施形態に係る画像処理システムの接続形態の例を示す図である。It is a figure which shows the example of the connection form of the image processing system which concerns on 3rd Embodiment. 第4の実施形態に係る画像処理システムの構成例を示す図である。It is a figure which shows the structural example of the image processing system which concerns on 4th Embodiment. 第4の実施形態に係る投影画像が生成される領域について説明するための図である。It is a figure for demonstrating the area | region where the projection image which concerns on 4th Embodiment is produced | generated.

以下に、本発明の実施の形態について、添付の図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

<システムの構成>
図1は一実施形態に係る画像処理システムの構成例を示す図である。画像処理システム100は、複数のプロジェクタ(画像投影装置)101−1、101−2、101−3、及びPC(Personal Computer)102等を有する。尚、以下の説明の中で、複数のプロジェクタ101−1〜101−3のうちの任意のプロジェクタを示す場合「プロジェクタ101」を用いる。また、複数のプロジェクタ101−1〜101−3の数は一例であって、2台以上の他の数であっても良い。
<System configuration>
FIG. 1 is a diagram illustrating a configuration example of an image processing system according to an embodiment. The image processing system 100 includes a plurality of projectors (image projection apparatuses) 101-1, 101-2, 101-3, a PC (Personal Computer) 102, and the like. In the following description, “projector 101” is used to indicate an arbitrary projector among the plurality of projectors 101-1 to 101-3. Further, the number of the plurality of projectors 101-1 to 101-3 is an example, and may be another number of two or more.

プロジェクタ101は、投影面104に投影画像を投影する投影手段105と、投影手段105に対して所定の位置に設けられ、投影面104に投影された投影画像を撮影する撮影手段106とを有する。好ましくは、プロジェクタ101は、投影手段105と撮影手段106とによる3次元計測の計測パラメータを予め記憶した記憶手段を有する。   The projector 101 includes a projecting unit 105 that projects a projection image onto the projection surface 104, and an imaging unit 106 that is provided at a predetermined position with respect to the projection unit 105 and photographs the projection image projected onto the projection surface 104. Preferably, the projector 101 includes a storage unit that stores in advance measurement parameters for three-dimensional measurement by the projection unit 105 and the photographing unit 106.

また、プロジェクタ101−1は、例えば図1に示すように、プロジェクタ101−1の投影領域103−1が、プロジェクタ101−2の投影領域103−2の一部と重複するように配置されている。同様に、プロジェクタ101−3は、図1に示すように、プロジェクタ101−3の投影領域103−3が、プロジェクタ101−2の投影領域103−2の一部と重複するように配置されている。つまり、複数のプロジェクタ101−1〜101−3の各々は、隣接するプロジェクタ101と投影領域の少なくとも一部が重複するように配置されている。この配置で、各プロジェクタ101は、他のプロジェクタ101と協働して投影面104に投影対象となる所定の画像を投影する。   Further, for example, as shown in FIG. 1, the projector 101-1 is arranged so that the projection area 103-1 of the projector 101-1 overlaps a part of the projection area 103-2 of the projector 101-2. . Similarly, as shown in FIG. 1, the projector 101-3 is arranged so that the projection area 103-3 of the projector 101-3 overlaps a part of the projection area 103-2 of the projector 101-2. . That is, each of the plurality of projectors 101-1 to 101-3 is arranged so that at least a part of the projection area overlaps with the adjacent projector 101. With this arrangement, each projector 101 projects a predetermined image to be projected onto the projection surface 104 in cooperation with the other projectors 101.

PC102は、複数のプロジェクタ101−1〜101−3と、例えば、有線/無線LAN(Local Area Network)、近距離無線、HDMI(登録商標)、USB(Universal Serial Bus)等を用いて接続され、制御信号や、画像データ等の送受信が可能である。PC102は、複数のプロジェクタ101−1〜101−3を用いて、例えば、各プロジェクタ101の投影領域よりも大きい投影画面を投影面104に投影するマルチプロジェクション(マルチ投影)の制御を行う。   The PC 102 is connected to a plurality of projectors 101-1 to 101-3 using, for example, a wired / wireless LAN (Local Area Network), short-range wireless, HDMI (registered trademark), USB (Universal Serial Bus), etc. Control signals, image data, etc. can be transmitted and received. The PC 102 uses a plurality of projectors 101-1 to 101-3, for example, to control multi-projection (multi-projection) in which a projection screen larger than the projection area of each projector 101 is projected onto the projection surface 104.

上記構成において、PC102は、複数のプロジェクタ101−1〜101−3による画像の投影と、投影された画像の撮影を制御する。また、PC102は、撮影した画像と、各プロジェクタ101が予め記憶した3次元計測の計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置を算出する。さらに、PC102は、算出された各プロジェクタ101に対する投影面104の3次元位置を1つの座標系に統合する。   In the above configuration, the PC 102 controls projection of images by the plurality of projectors 101-1 to 101-3 and shooting of the projected images. Further, the PC 102 calculates the three-dimensional position of the projection plane 104 with respect to each projector 101 based on the photographed image and the measurement parameters of the three-dimensional measurement stored in advance by each projector 101. Further, the PC 102 integrates the calculated three-dimensional position of the projection plane 104 with respect to each projector 101 into one coordinate system.

また、PC102は、統合した投影面104の3次元位置に基づいて、各プロジェクタ101の画像処理パラメータを算出し、算出したパラメータを各プロジェクタ101に通知する。各プロジェクタ101は、通知された画像処理パラメータに基づいて、投影対象となる所定の画像に画像処理(例えば、投影部分の切出し、変形、明るさ調整等)を行い、画像処理後の画像を投影面104に投影する。   Further, the PC 102 calculates image processing parameters of each projector 101 based on the integrated three-dimensional position of the projection plane 104 and notifies the calculated parameters to each projector 101. Based on the notified image processing parameters, each projector 101 performs image processing (for example, extraction of a projected portion, deformation, brightness adjustment) on a predetermined image to be projected, and projects the image after image processing Project onto the surface 104.

上記処理により、投影対象となる所定の画像が投影面104にマルチ投影される。   Through the above processing, a predetermined image to be projected is multi-projected on the projection plane 104.

このように、本実施形態に係る画像処理システム100は、各プロジェクタ101の投影手段105、撮影手段106、及び予め記憶された3次元計測の計測パラメータに基づいて、各プロジェクタ101に対する投影面104の3次元位置を算出する。また、画像処理システム100は、各プロジェクタに対する投影面104の3次元位置を1つの座標系に統合することにより、投影面104の3次元位置を特定する。   As described above, the image processing system 100 according to the present embodiment includes the projection unit 105 of each projector 101, the photographing unit 106, and the projection surface 104 of each projector 101 based on the measurement parameters of the three-dimensional measurement stored in advance. A three-dimensional position is calculated. Further, the image processing system 100 identifies the three-dimensional position of the projection plane 104 by integrating the three-dimensional position of the projection plane 104 with respect to each projector into one coordinate system.

これにより、本実施形態に係る画像処理システム100は、ステレオカメラや、投影面104全体を撮影可能な広角で高解像度なカメラ等の高価な撮影手段、及びカメラの設定、調整等の作業によらずに、投影面104の3次元位置を特定することができる。従って、本実施形態に係る画像処理システム100によれば、複数のプロジェクタ(画像投影装置)101を用いて所定の画像を投影する画像処理システム100において、システムのコストを抑制しつつ、設置、設定等を容易にすることができる。   Thereby, the image processing system 100 according to the present embodiment is based on expensive shooting means such as a stereo camera, a wide-angle and high-resolution camera that can shoot the entire projection surface 104, and operations such as setting and adjustment of the camera. In addition, the three-dimensional position of the projection plane 104 can be specified. Therefore, according to the image processing system 100 according to the present embodiment, in the image processing system 100 that projects a predetermined image using a plurality of projectors (image projection apparatuses) 101, installation and setting are performed while suppressing the cost of the system. Etc. can be facilitated.

尚、図1のシステム構成はあくまで一例であり、本発明の範囲を限定するものではない。例えば、画像処理システム100は、複数のプロジェクタ101の投影画像を重ね合わせて、各プロジェクタ101の投影画面よりも明るい高輝度画面を投影するスタック投影を行うものであっても良い。   Note that the system configuration in FIG. 1 is merely an example, and does not limit the scope of the present invention. For example, the image processing system 100 may perform stack projection in which projection images of a plurality of projectors 101 are superimposed and a high-brightness screen brighter than the projection screens of the projectors 101 is projected.

また、各プロジェクタ101の投影手段105と撮影手段106とによる3次元計測の計測パラメータは、例えば、PC102、外部サーバ、外部記憶装置等が予め記憶しているものであっても良い。   Further, the measurement parameters of the three-dimensional measurement by the projection unit 105 and the imaging unit 106 of each projector 101 may be stored in advance by the PC 102, an external server, an external storage device, or the like, for example.

さらに、PC102の機能は、専用の制御装置等で実現されるものであっても良いし、1つ以上のプロジェクタ101によって実現されるものであっても良い。   Furthermore, the function of the PC 102 may be realized by a dedicated control device or the like, or may be realized by one or more projectors 101.

<ハードウェア構成>
(プロジェクタのハードウェア構成)
図2は、一実施形態に係るプロジェクタのハードウェア構成例を示す図である。プロジェクタ101は、一般的なコンピュータの構成を含み、例えば、CPU(Central Processing Unit)201、メモリ202、ストレージ部203、通信I/F(Interface)204、外部I/F205、光源206、表示素子207、投影レンズ208、モーター209、撮像レンズ210、撮像素子211、バス212等を有する。また、プロジェクタ101は、画像処理を高速化する画像処理部21等を有していても良い。
<Hardware configuration>
(Hardware configuration of projector)
FIG. 2 is a diagram illustrating a hardware configuration example of the projector according to the embodiment. The projector 101 includes a general computer configuration, and includes, for example, a CPU (Central Processing Unit) 201, a memory 202, a storage unit 203, a communication I / F (Interface) 204, an external I / F 205, a light source 206, and a display element 207. A projection lens 208, a motor 209, an imaging lens 210, an imaging element 211, a bus 212, and the like. Further, the projector 101 may include an image processing unit 21 that speeds up image processing.

CPU201は、メモリ202やストレージ部203等からプログラムやデータを読出し、処理を実行することでプロジェクタ101が備える各機能を実現する演算装置である。メモリ202は、例えば、CPU201のワークエリア等として使用されるRAM(Random Access Memory)や、プロジェクタ101の起動プログラム等を格納するROM(Read Only Memory)等を含む。   The CPU 201 is an arithmetic device that implements each function of the projector 101 by reading a program and data from the memory 202, the storage unit 203, and the like and executing processing. The memory 202 includes, for example, a RAM (Random Access Memory) used as a work area of the CPU 201, a ROM (Read Only Memory) that stores a startup program of the projector 101, and the like.

ストレージ部203は、プロジェクタ101のプログラムや、各種データ等を記憶する記憶手段であり、例えば、フラッシュROMや、SSD(Solid State Drive)、HDD(Hard Disk Drive)等で構成される。   The storage unit 203 is a storage unit that stores a program of the projector 101, various data, and the like, and includes, for example, a flash ROM, an SSD (Solid State Drive), an HDD (Hard Disk Drive), or the like.

通信I/F204は、他のプロジェクタ101や、PC102等と通信を行うためのインタフェースであり、例えば、有線/無線LAN、近距離無線通信、LTE(Long Term Evolution)等の通信インタフェースを含む。   The communication I / F 204 is an interface for communicating with another projector 101, the PC 102, and the like, and includes, for example, a communication interface such as a wired / wireless LAN, short-range wireless communication, and LTE (Long Term Evolution).

外部I/F205は、他のプロジェクタ101や、PC102等との画像データ等の送受信を行うためのインタフェースである。外部I/F205は、例えば、USB(Universal Serial Bus)、HDMI等のインタフェースを含む。   An external I / F 205 is an interface for transmitting / receiving image data and the like to / from another projector 101, the PC 102, and the like. The external I / F 205 includes interfaces such as USB (Universal Serial Bus) and HDMI, for example.

光源206は、プロジェクタ101が画像を投影するための光源であり、例えば、ランプ、レーザー、LED(Light Emitting Diode)等の光源を含む。   The light source 206 is a light source for the projector 101 to project an image, and includes, for example, a light source such as a lamp, a laser, and an LED (Light Emitting Diode).

表示素子207は、例えば、DMD(Digital Mirror Device)214、カラーホイール215等を含む。DMD214は、多数の微小鏡面(マイクロミラー)を平面に配置した表示素子である。カラーホイール215は、例えば、赤青、緑の3色に色分けされた円板等を高速で回転させ、透過させることにより色づけを行う。   The display element 207 includes, for example, a DMD (Digital Mirror Device) 214, a color wheel 215, and the like. The DMD 214 is a display element in which a large number of micromirror surfaces (micromirrors) are arranged on a plane. The color wheel 215 performs coloring by rotating and transmitting a disk or the like color-coded into three colors of red, blue, and green at high speed, for example.

光源206から出た光は、投影対象の画像によって、画素毎にその向きが制御されるDMD214で反射し、カラーホイール215で色づけされ、投影レンズ208を通して投影面104に照射されて像を結ぶ。モーター209は、投影レンズ208を駆動するモーターで、ズーム、フォーカス等の調整を行う。尚、DMD214及びカラーホイール215は、表示素子207の一例である。表示素子207は、例えば、LCD(Liquid Crystal Display)等の他の表示素子であっても良い。   The light emitted from the light source 206 is reflected by the DMD 214 whose direction is controlled for each pixel according to the image to be projected, is colored by the color wheel 215, and is irradiated onto the projection plane 104 through the projection lens 208 to form an image. A motor 209 is a motor that drives the projection lens 208 and performs adjustments such as zoom and focus. The DMD 214 and the color wheel 215 are examples of the display element 207. The display element 207 may be another display element such as an LCD (Liquid Crystal Display).

投影面104に投影された画像は、撮像レンズ210及び撮像素子211によって撮像され、撮像された画像はメモリ202、ストレージ部203等に記憶される。   The image projected on the projection surface 104 is picked up by the image pickup lens 210 and the image pickup device 211, and the picked-up image is stored in the memory 202, the storage unit 203, and the like.

また、プロジェクタ101は、プロジェクタ101が投影する画像の画像処理を行うための画像処理部213を有していても良い。画像処理部213は、例えば、画像処理用のプロセッサ、DSP(Digital Signal Processor)、又は専用のハードウェア等によって実現される。また、プロジェクタ101は、画像処理部213を有さずに、例えば、CPU201で動作するプログラムによって、投影する画像の画像処理を行うものであっても良い。   In addition, the projector 101 may include an image processing unit 213 for performing image processing of an image projected by the projector 101. The image processing unit 213 is realized by, for example, an image processing processor, a DSP (Digital Signal Processor), or dedicated hardware. Further, the projector 101 may not perform the image processing unit 213 but may perform image processing of an image to be projected by, for example, a program operating on the CPU 201.

バス212は、上記各構成に接続され、アドレス信号、データ信号、各種制御信号等を伝達する。   The bus 212 is connected to each of the above components and transmits an address signal, a data signal, various control signals, and the like.

(PCのハードウェア構成)
図3は、一実施形態に係るPCのハードウェア構成例を示す図である。PC102は、一般的なコンピュータの構成を有しており、例えば、CPU301、RAM302、ROM303、ストレージ部304、通信I/F305、外部I/F306、表示装置307、入力装置308、バス309等を有する。
(PC hardware configuration)
FIG. 3 is a diagram illustrating a hardware configuration example of a PC according to an embodiment. The PC 102 has a general computer configuration, and includes, for example, a CPU 301, a RAM 302, a ROM 303, a storage unit 304, a communication I / F 305, an external I / F 306, a display device 307, an input device 308, a bus 309, and the like. .

CPU301は、ROM303やストレージ部304等からプログラムやデータをRAM302上に読み出し、処理を実行する演算装置である。RAM302は、CPU301のワークエリア等として用いられる不揮発性のメモリである。ROM303は、例えば、PC102の起動時に実行されるBIOS(Basic Input / Output System)や、各種の設定等を記憶する不揮発性のメモリであり、例えば、フラッシュROM等で構成される。   The CPU 301 is an arithmetic device that reads programs and data from the ROM 303, the storage unit 304, and the like onto the RAM 302 and executes processing. A RAM 302 is a non-volatile memory used as a work area for the CPU 301. The ROM 303 is a non-volatile memory that stores, for example, a basic input / output system (BIOS) executed when the PC 102 is activated, various settings, and the like, and is configured by, for example, a flash ROM.

ストレージ部304は、例えば、OS(Operating System)、アプリケーションプログラム、各種データ等を記憶する不揮発性の記憶装置であり、例えば、HDD、SSD等で構成される。   The storage unit 304 is a non-volatile storage device that stores, for example, an OS (Operating System), application programs, various data, and the like, and includes, for example, an HDD, an SSD, or the like.

通信I/F305は、PC102を複数のプロジェクタ101−1〜101−3に接続して、通信を行うためのインタフェースあり、例えば、有線/無線LAN、近距離無線通信、LTE(Long Term Evolution)等の通信インタフェースを含む。   A communication I / F 305 is an interface for performing communication by connecting the PC 102 to a plurality of projectors 101-1 to 101-3, for example, wired / wireless LAN, near field communication, LTE (Long Term Evolution), etc. Communication interface.

外部I/F306は、複数のプロジェクタ101−1〜101−3等との画像データ等の送受信を行うためのインタフェースである。外部I/F306は、例えば、USB(Universal Serial Bus)、HDMI等のインタフェースを含む。   The external I / F 306 is an interface for transmitting / receiving image data and the like to / from a plurality of projectors 101-1 to 101-3. The external I / F 306 includes interfaces such as USB (Universal Serial Bus) and HDMI, for example.

表示装置307は、例えば、LCDディスプレイ等により実現され、PC102による処理結果等を表示する。入力装置308は、例えば、キーボード、マウス、タッチパネル等により実現され、PC102に各操作信号を入力するために用いられる。バス309は、上記各構成に接続され、アドレス信号、データ信号、及び各種制御信号等を伝達する。   The display device 307 is realized by, for example, an LCD display and displays a processing result by the PC 102 and the like. The input device 308 is realized by, for example, a keyboard, a mouse, a touch panel, and the like, and is used for inputting each operation signal to the PC 102. A bus 309 is connected to each of the above components and transmits an address signal, a data signal, various control signals, and the like.

<機能構成>
[第1の実施形態]
図4は、第1の実施形態に係る画像処理システムの機能構成図である。
<Functional configuration>
[First Embodiment]
FIG. 4 is a functional configuration diagram of the image processing system according to the first embodiment.

(プロジェクタの機能構成)
図4において、複数のプロジェクタ101−1〜101−3は同様の構成を有しているものとする。各プロジェクタ101は、投影手段105、撮影手段106、記憶手段401、画像処理手段402、通信手段403等を有する。
(Functional configuration of projector)
In FIG. 4, a plurality of projectors 101-1 to 101-3 have the same configuration. Each projector 101 includes a projection unit 105, a photographing unit 106, a storage unit 401, an image processing unit 402, a communication unit 403, and the like.

投影手段105は、投影面104に画像を投影するための手段であり、例えば、図2の光源206、表示素子207、投影レンズ208等を含む。   The projection unit 105 is a unit for projecting an image on the projection plane 104, and includes, for example, the light source 206, the display element 207, the projection lens 208, and the like shown in FIG.

撮影手段106は、投影面104に投影された画像を撮影するための手段であり、例えば、図2の撮像レンズ210、撮像素子211等を含む。本実施形態では、撮影手段106は、投影手段105に対して所定の位置に設けられている。また、撮影手段106は、投影手段105が投影面104に投影した画像を撮影できるものであれば、投影面104の全体を撮影できなくても良い。尚、本実施形態では、撮影手段106として単眼カメラを想定しているが、本発明の範囲を限定するものではない。   The photographing unit 106 is a unit for photographing an image projected on the projection plane 104, and includes, for example, the imaging lens 210 and the imaging element 211 shown in FIG. In the present embodiment, the photographing unit 106 is provided at a predetermined position with respect to the projection unit 105. Further, the photographing unit 106 may not be able to photograph the entire projection surface 104 as long as the image projected by the projection unit 105 onto the projection surface 104 can be photographed. In the present embodiment, a monocular camera is assumed as the photographing means 106, but the scope of the present invention is not limited.

記憶手段401は、投影手段105と撮影手段106とによる3次元計測の計測パラメータを予め記憶した記憶手段であり、例えば、図2のストレージ部203、メモリ202等に含まれる。尚、3次元計測の計測パラメータについては後述する。   The storage unit 401 is a storage unit that stores in advance measurement parameters of the three-dimensional measurement performed by the projection unit 105 and the imaging unit 106, and is included in, for example, the storage unit 203 and the memory 202 in FIG. Measurement parameters for three-dimensional measurement will be described later.

画像処理手段402は、例えば、記憶手段401に記憶した画像処理パラメータ、又はPC102や他のプロジェクタ101等から通知された画像処理パラメータを用いて、プロジェクタ101が投影する画像に画像処理(加工)を行う手段である。画像処理手段402は、例えば、図2の画像処理部213や、図2のCPU201で動作するプログラム等によって実現される。   For example, the image processing unit 402 performs image processing (processing) on an image projected by the projector 101 using the image processing parameter stored in the storage unit 401 or the image processing parameter notified from the PC 102 or another projector 101. Means to do. The image processing unit 402 is realized by, for example, the image processing unit 213 in FIG. 2 or a program that operates on the CPU 201 in FIG.

通信手段403は、PC102や、他のプロジェクタ101等と制御データ、画像データ等の送受信を行うための手段であり、例えば、図2の通信I/F204、外部I/F205等を含む。   The communication unit 403 is a unit for transmitting / receiving control data, image data, and the like to / from the PC 102, another projector 101, and the like, and includes, for example, the communication I / F 204 and the external I / F 205 in FIG.

上記構成により、プロジェクタ101は、投影手段105により投影面104に画像を投影し、また、投影された投影画像を撮影手段106により撮影することができる。また、撮影手段106は、投影手段105に対して所定の位置に設けられており、記憶手段401には、投影手段105と撮影手段106による3次元計測の計測パラメータが記憶されている。これにより、画像処理システム100は、投影手段105と撮影手段106と記憶手段401に予め記憶された計測パラメータとに基づいて、プロジェクタ101に対する投影面104の3次元位置(例えば、座標)を計測することができる。   With the above configuration, the projector 101 can project an image onto the projection surface 104 by the projection unit 105 and can capture the projected image with the imaging unit 106. The photographing unit 106 is provided at a predetermined position with respect to the projecting unit 105, and the storage unit 401 stores measurement parameters for three-dimensional measurement by the projecting unit 105 and the photographing unit 106. Accordingly, the image processing system 100 measures the three-dimensional position (for example, coordinates) of the projection surface 104 with respect to the projector 101 based on the measurement parameters stored in advance in the projection unit 105, the imaging unit 106, and the storage unit 401. be able to.

(PCの機能構成)
PC102は、制御手段404、3次元位置計測手段405、3次元位置統合手段406、パラメータ算出手段407、通信手段408、記憶手段409等を有する。
(PC functional configuration)
The PC 102 includes a control unit 404, a three-dimensional position measurement unit 405, a three-dimensional position integration unit 406, a parameter calculation unit 407, a communication unit 408, a storage unit 409, and the like.

制御手段404は、複数のプロジェクタ101−1〜101−3による画像の投影と、複数のプロジェクタ101−1〜101−3による投影面104に投影された画像の撮影を制御する。また、制御手段404は、複数のプロジェクタ101−1〜101−3を用いて、投影面104に所定の画像(例えば、大画面の画像)を投影する制御を行う。   The control unit 404 controls projection of images by the plurality of projectors 101-1 to 101-3 and shooting of images projected on the projection plane 104 by the plurality of projectors 101-1 to 101-3. In addition, the control unit 404 performs control to project a predetermined image (for example, a large screen image) on the projection surface 104 using the plurality of projectors 101-1 to 101-3.

3次元位置計測手段(計測手段)405は、制御手段404の制御によって撮影された複数の画像と、各プロジェクタ101の記憶手段401に予め記憶された計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置を計測する。記憶手段401に予め記憶された計測パラメータは、例えば、投影手段105と撮影手段106とによる三角測量の基線長に対応する情報を含み、3次元位置計測手段405は、この基線長に対応する情報に基づいて投影面104の3次元座標を計測する。   A three-dimensional position measuring unit (measuring unit) 405 projects to each projector 101 based on a plurality of images taken by the control of the control unit 404 and measurement parameters stored in advance in the storage unit 401 of each projector 101. The three-dimensional position of the surface 104 is measured. The measurement parameters stored in advance in the storage unit 401 include, for example, information corresponding to the baseline length of triangulation by the projection unit 105 and the imaging unit 106, and the three-dimensional position measurement unit 405 includes information corresponding to the baseline length. Based on the above, the three-dimensional coordinates of the projection surface 104 are measured.

3次元位置統合手段(統合手段)406は、3次元位置計測手段405によって計測された複数の3次元位置を統合する。例えば、3次元位置統合手段406は、各プロジェクタ101に対する投影面104の3次元位置を1つの座標系に統合する。   A three-dimensional position integration unit (integration unit) 406 integrates a plurality of three-dimensional positions measured by the three-dimensional position measurement unit 405. For example, the three-dimensional position integration unit 406 integrates the three-dimensional position of the projection plane 104 with respect to each projector 101 into one coordinate system.

パラメータ算出手段(算出手段)407は、3次元位置統合手段406によって統合された投影面104の3次元位置に基づいて、各プロジェクタ101が投影する画像の画像処理パラメータ(補正パラメータ)を算出する。   A parameter calculation unit (calculation unit) 407 calculates an image processing parameter (correction parameter) of an image projected by each projector 101 based on the three-dimensional position of the projection plane 104 integrated by the three-dimensional position integration unit 406.

通信手段408は、パラメータ算出手段407によって算出された画像処理パラメータを各プロジェクタ101に送信する手段であり、例えば、図3の通信I/F305、外部I/F306等を含む。また、通信手段408は、各プロジェクタ101に対する制御コマンドの送受信、各プロジェクタ101が撮影した画像の受信、及び各プロジェクタ101への投影対象となる画像の送信等も行う。   The communication unit 408 is a unit that transmits the image processing parameters calculated by the parameter calculation unit 407 to each projector 101, and includes, for example, the communication I / F 305 and the external I / F 306 in FIG. The communication unit 408 also transmits / receives a control command to / from each projector 101, receives an image captured by each projector 101, transmits an image to be projected to each projector 101, and the like.

記憶手段409は、例えば、制御手段404の制御により各プロジェクタ101が撮影した複数の画像、3次元位置統合手段406が統合した投影面104の3次元位置、パラメータ算出手段407が算出した画像処理パラメータ等の各種情報を記憶する。   The storage unit 409 includes, for example, a plurality of images captured by each projector 101 under the control of the control unit 404, the three-dimensional position of the projection plane 104 integrated by the three-dimensional position integration unit 406, and the image processing parameter calculated by the parameter calculation unit 407. Etc. are stored.

尚、制御手段404、3次元位置計測手段405、3次元位置統合手段406、パラメータ算出手段407、記憶手段409等は、例えば、図3のCPU301等で動作するプログラムによって実現される。   Note that the control unit 404, the three-dimensional position measurement unit 405, the three-dimensional position integration unit 406, the parameter calculation unit 407, the storage unit 409, and the like are realized by, for example, a program that operates on the CPU 301 in FIG.

<処理の流れ>
(校正用画像の撮影処理)
図5は、第1の実施形態に係る校正用画像の撮影処理の流れを示すフローチャートである。画像処理システム100は、例えば、PC102に対するユーザ操作等に応じて、校正用の画像の撮影処理を開始する。
<Process flow>
(Capturing image for calibration)
FIG. 5 is a flowchart illustrating the flow of the calibration image capturing process according to the first embodiment. For example, the image processing system 100 starts a calibration image capturing process in response to a user operation on the PC 102 or the like.

尚、撮影処理を開始する前に、複数のプロジェクタ101−1〜101−3は、例えば、図1に示すように、隣接したプロジェクタ101の投影領域の一部が重複するように配置されているものとする。また、複数のプロジェクタ101−1〜101−3の位置関係、例えば、左からプロジェクタ101−1、プロジェクタ101−2、プロジェクタ101−3の順に並べられていること等は、予め設定又は検知されているものとする。   Before starting the shooting process, the plurality of projectors 101-1 to 101-3 are arranged so that, for example, a part of the projection area of the adjacent projector 101 overlaps as shown in FIG. Shall. Further, the positional relationship of the plurality of projectors 101-1 to 101-3, for example, the projector 101-1, the projector 101-2, and the projector 101-3 arranged in order from the left is set or detected in advance. It shall be.

画像処理システム100の校正用の画像の撮影処理が開始すると、PC102は、複数のプロジェクタ101−1〜101−3に、校正用画像の撮影処理の開始を指示する第1撮影指示を送信する(ステップS501)。   When the calibration processing image capturing process of the image processing system 100 is started, the PC 102 transmits a first capturing instruction to instruct the start of the calibration image capturing process to the plurality of projectors 101-1 to 101-3 ( Step S501).

第1撮影指示に応じて、プロジェクタ101−1は、校正用のパターン画像を投影し(ステップS502)、プロジェクタ101−2、101−3は、光源206を消灯する(ステップS503、S504)。   In response to the first shooting instruction, the projector 101-1 projects a pattern image for calibration (step S502), and the projectors 101-2 and 101-3 turn off the light source 206 (steps S503 and S504).

このときに、投影面104に投影されるパターン画像の例を図6(a)に示す。パラメータの補正に使用するパターン画像としては様々なものがあるが、ここでは、図6(a)に示すような、円形パターンを縦横に並べたパターン画像601を用いるものとする。   An example of the pattern image projected onto the projection surface 104 at this time is shown in FIG. There are various pattern images used for parameter correction. Here, it is assumed that a pattern image 601 in which circular patterns are arranged vertically and horizontally as shown in FIG. 6A is used.

図6(a)の状態で、プロジェクタ101−1は、プロジェクタ101−1の投影手段105によってパターン画像601が投影された投影面104を撮影する(ステップS505)。このとき、プロジェクタ101−1が撮影した画像には、プロジェクタ101−1が投影したパターン画像601が含まれる。プロジェクタ101−1は、ステップS505で撮影した画像をPC102に送信する(ステップS506)。   In the state of FIG. 6A, the projector 101-1 captures the projection surface 104 on which the pattern image 601 is projected by the projection unit 105 of the projector 101-1 (step S505). At this time, the image captured by the projector 101-1 includes a pattern image 601 projected by the projector 101-1. The projector 101-1 transmits the image captured in step S505 to the PC 102 (step S506).

また、プロジェクタ101−2は、プロジェクタ101−1の投影手段105によってパターン画像601が投影された投影面を撮影する(ステップS507)。このとき、プロジェクタ101−1が撮影した画像には、プロジェクタ101−1が投影したパターン画像601のうち、プロジェクタ101−1とプロジェクタ101−1の共通領域602の校正パターンが含まれる。プロジェクタ101−2は、ステップS507で撮影した画像をPC102に送信する(ステップS508)。尚、このとき、プロジェクタ101−3の撮影エリアには校正用のパターン画像601が含まれないので、プロジェクタ101−3は、投影面104の撮影を行わなくても良い。   In addition, the projector 101-2 captures the projection surface on which the pattern image 601 is projected by the projection unit 105 of the projector 101-1 (step S507). At this time, the image photographed by the projector 101-1 includes the calibration pattern of the common area 602 of the projector 101-1 and the projector 101-1, among the pattern images 601 projected by the projector 101-1. The projector 101-2 transmits the image captured in step S507 to the PC 102 (step S508). At this time, since the calibration pattern image 601 is not included in the photographing area of the projector 101-3, the projector 101-3 does not have to photograph the projection plane 104.

PC102は、プロジェクタ101−1及びプロジェクタ101−2から画像を受信すると(ステップS509)、複数のプロジェクタ101−1〜101−3に、第2撮影指示を送信する(ステップS510)。   When the PC 102 receives images from the projector 101-1 and the projector 101-2 (step S509), the PC 102 transmits a second photographing instruction to the plurality of projectors 101-1 to 101-3 (step S510).

第2撮影指示に応じて、プロジェクタ101−2は、校正用のパターン画像を投影し(ステップS512)、プロジェクタ101−1、101−3は、光源206を消灯する(ステップS511、S513)。   In response to the second shooting instruction, the projector 101-2 projects a calibration pattern image (step S512), and the projectors 101-1 and 101-3 turn off the light source 206 (steps S511 and S513).

このときに、投影面104に投影されるパターン画像の例を図6(b)に示す。図6(b)の状態で、プロジェクタ101−1は、プロジェクタ101−2の投影手段105によってパターン画像601が投影された投影面104を撮影する(ステップS514)。このとき、プロジェクタ101−1が撮影した画像には、プロジェクタ101−2が投影したパターン画像601のうち、プロジェクタ101−1とプロジェクタ101−1の共通領域602の校正パターンが含まれる。プロジェクタ101−1は、ステップS514で撮影した画像をPC102に送信する(ステップS515)。   An example of the pattern image projected onto the projection plane 104 at this time is shown in FIG. In the state of FIG. 6B, the projector 101-1 captures the projection surface 104 on which the pattern image 601 is projected by the projection unit 105 of the projector 101-2 (step S514). At this time, the image photographed by the projector 101-1 includes the calibration pattern of the common area 602 of the projector 101-1 and the projector 101-1 in the pattern image 601 projected by the projector 101-2. The projector 101-1 transmits the image captured in step S514 to the PC 102 (step S515).

また、プロジェクタ101−2は、プロジェクタ101−2の投影手段105によってパターン画像601が投影された投影面を撮影する(ステップS516)。このとき、プロジェクタ101−2が撮影した画像には、プロジェクタ101−2が投影したパターン画像601が含まれる。プロジェクタ101−2は、ステップS516で撮影した画像をPC102に送信する(ステップS517)。   In addition, the projector 101-2 captures the projection surface on which the pattern image 601 is projected by the projection unit 105 of the projector 101-2 (step S516). At this time, the image captured by the projector 101-2 includes a pattern image 601 projected by the projector 101-2. The projector 101-2 transmits the image captured in step S516 to the PC 102 (step S517).

さらに、プロジェクタ101−3は、プロジェクタ101−2の投影手段105によってパターン画像601が投影された投影面104を撮影する(ステップS518)。このとき、プロジェクタ101−3が撮影した画像には、プロジェクタ101−2が投影したパターン画像601のうち、プロジェクタ101−2とプロジェクタ101−3の共通領域603の校正パターンが含まれる。プロジェクタ101−3は、ステップS518で撮影した画像をPC102に送信する(ステップS519)。   Further, the projector 101-3 captures the projection surface 104 on which the pattern image 601 is projected by the projection unit 105 of the projector 101-2 (step S518). At this time, the image photographed by the projector 101-3 includes the calibration pattern of the common area 603 of the projector 101-2 and the projector 101-3 in the pattern image 601 projected by the projector 101-2. The projector 101-3 transmits the image captured in step S518 to the PC 102 (step S519).

PC102は、プロジェクタ101−1〜101−3から画像を受信すると(ステップS520)、複数のプロジェクタ101−1〜101−3に、第3撮影指示を送信する(ステップS521)。   When the PC 102 receives images from the projectors 101-1 to 101-3 (step S520), the PC 102 transmits a third shooting instruction to the plurality of projectors 101-1 to 101-3 (step S521).

第3撮影指示に応じて、プロジェクタ101−1、101−2は、光源206を消灯し(ステップS522、S523)、プロジェクタ101−3は、校正用のパターン画像を投影する(ステップS524)。   In response to the third shooting instruction, the projectors 101-1 and 101-2 turn off the light source 206 (steps S <b> 522 and S <b> 523), and the projector 101-3 projects a calibration pattern image (step S <b> 524).

このときに、投影面104に投影されるパターン画像の例を図6(c)に示す。図6(c)の状態で、プロジェクタ101−2は、プロジェクタ101−3の投影手段105によってパターン画像601が投影された投影面104を撮影する(ステップS525)。このとき、プロジェクタ101−2が撮影した画像には、プロジェクタ101−3が投影したパターン画像601のうち、プロジェクタ101−2とプロジェクタ101−3の共通領域603の校正パターンが含まれる。プロジェクタ101−2は、ステップS525で撮影した画像をPC102に送信する(ステップS526)。   An example of the pattern image projected on the projection surface 104 at this time is shown in FIG. In the state of FIG. 6C, the projector 101-2 captures the projection surface 104 on which the pattern image 601 is projected by the projection unit 105 of the projector 101-3 (step S525). At this time, the image captured by the projector 101-2 includes a calibration pattern of the common area 603 of the projector 101-2 and the projector 101-3 in the pattern image 601 projected by the projector 101-3. The projector 101-2 transmits the image captured in step S525 to the PC 102 (step S526).

また、プロジェクタ101−3は、プロジェクタ101−3の投影手段105によってパターン画像601が投影された投影面を撮影する(ステップS527)。このとき、プロジェクタ101−3が撮影した画像には、プロジェクタ101−3が投影したパターン画像601が含まれる。プロジェクタ101−3は、ステップS527で撮影した画像をPC102に送信する(ステップS528)。尚、このとき、プロジェクタ101−1の撮影エリアには校正用のパターン画像601が含まれないので、プロジェクタ101−1は投影面104の撮影を行わなくても良い。   In addition, the projector 101-3 captures a projection surface on which the pattern image 601 is projected by the projection unit 105 of the projector 101-3 (step S527). At this time, the image captured by the projector 101-3 includes a pattern image 601 projected by the projector 101-3. The projector 101-3 transmits the image captured in step S527 to the PC 102 (step S528). At this time, since the calibration pattern image 601 is not included in the photographing area of the projector 101-1, the projector 101-1 does not have to photograph the projection plane 104.

PC102は、プロジェクタ101−1、102−3から画像を受信し(ステップS529)、校正用の画像の撮影処理を終了する。   The PC 102 receives images from the projectors 101-1 and 102-3 (step S <b> 529), and ends the calibration image capturing process.

(校正処理)
画像処理システム100は、校正用の画像の撮影処理が終了すると、校正処理を行う。
(Calibration process)
The image processing system 100 performs the calibration process when the calibration image capturing process is completed.

図7は、第1の実施形態に係る校正処理の一例のフローチャートである。   FIG. 7 is a flowchart of an example of a calibration process according to the first embodiment.

校正処理を開始すると、3次元位置計測手段405は、図5の処理で取得した画像と、各プロジェクタ101が予め記憶している計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置(座標)を算出する(ステップS701)。尚、3次元位置の算出方法については後述する。   When the calibration process is started, the three-dimensional position measurement unit 405 performs the three-dimensional projection surface 104 for each projector 101 based on the image acquired in the process of FIG. 5 and the measurement parameters stored in advance by each projector 101. The position (coordinates) is calculated (step S701). A method for calculating the three-dimensional position will be described later.

次に、3次元位置統合手段406は、隣接するプロジェクタの座標系の対応関係を算出する(ステップS702)。例えば、3次元位置統合手段406は、プロジェクタ101−1の座標系とプロジェクタ101−2の座標系の対応関係を算出する。また、3次元位置統合手段406は、プロジェクタ101−2の座標系とプロジェクタ101−3の座標系の対応関係を算出する。   Next, the three-dimensional position integration unit 406 calculates the correspondence between the coordinate systems of adjacent projectors (step S702). For example, the three-dimensional position integration unit 406 calculates a correspondence relationship between the coordinate system of the projector 101-1 and the coordinate system of the projector 101-2. Further, the three-dimensional position integration unit 406 calculates a correspondence relationship between the coordinate system of the projector 101-2 and the coordinate system of the projector 101-3.

さらに、PC102の3次元位置統合手段406は、ステップS802で算出された対応関係に基づいて、投影面104の複数の3次元位置を1つの座標系に統合する(ステップS703)。   Further, the three-dimensional position integration unit 406 of the PC 102 integrates a plurality of three-dimensional positions of the projection plane 104 into one coordinate system based on the correspondence relationship calculated in step S802 (step S703).

続いて、パラメータ算出手段407は、ステップS803で統合された3次元位置に基づいて、複数のプロジェクタ101−1〜101−3の各々が投影する画像の画像処理パラメータを算出する(ステップS704)。また、PC102は、算出された画像処理パラメータを、通信手段408を介して、複数のプロジェクタ101−1〜101−3に送信する(ステップS705)。   Subsequently, the parameter calculation unit 407 calculates image processing parameters of an image projected by each of the plurality of projectors 101-1 to 101-3 based on the three-dimensional position integrated in step S803 (step S704). Further, the PC 102 transmits the calculated image processing parameters to the plurality of projectors 101-1 to 101-3 via the communication unit 408 (step S705).

複数のプロジェクタ101−1〜101−3は、受信した画像処理パラメータをそれぞれ記憶手段401に記憶し(ステップS706〜S708)、校正処理を終了する。   Each of the plurality of projectors 101-1 to 101-3 stores the received image processing parameters in the storage unit 401 (steps S706 to S708), and ends the calibration process.

(3次元座標の計測について)
ここで、3次元位置計測手段405による3次元位置の計測について説明する。また、説明に先立って記号の定義を行う。
(Measurement of 3D coordinates)
Here, the measurement of the three-dimensional position by the three-dimensional position measuring means 405 will be described. Prior to explanation, symbols are defined.

図8は、第1の実施形態に係る記号の定義について説明するための図である。   FIG. 8 is a diagram for explaining the definition of symbols according to the first embodiment.

図8(a)において、プロジェクタ101−1の系で3次元計測する各円形パターンの重心の3次元座標のうち、プロジェクタ101−1でのみ撮影される点の座標群をP1s(i)とする。また、プロジェクタ101−1の系で3次元計測する各円形パターンの重心の3次元座標のうち、プロジェクタ101−1、及び101−2で共に撮影される共通領域602の点の座標群をP1m(j)とする。   In FIG. 8A, among the three-dimensional coordinates of the center of gravity of each circular pattern that is three-dimensionally measured by the system of the projector 101-1, a coordinate group of points photographed only by the projector 101-1 is P1s (i). . In addition, among the three-dimensional coordinates of the center of gravity of each circular pattern that is three-dimensionally measured by the system of the projector 101-1, a coordinate group of points of the common area 602 that are photographed together by the projectors 101-1 and 101-2 is P1m ( j).

また、図7(b)において、プロジェクタ101−2の系で3次元計測する各円形パターンの重心の3次元座標のうち、プロジェクタ101−2でのみ撮影される点の座標群をP2s(k)とする。また、プロジェクタ101−2の系で3次元計測するパターンの重心の3次元座標のうち、プロジェクタ101−1、101−2で共に撮影される共通領域603の点の座標群をP2m(l)とする。   Also, in FIG. 7B, among the three-dimensional coordinates of the center of gravity of each circular pattern that is three-dimensionally measured by the projector 101-2 system, a coordinate group of points that are photographed only by the projector 101-2 is P2s (k). And In addition, among the three-dimensional coordinates of the center of gravity of the pattern that is three-dimensionally measured by the projector 101-2 system, the coordinate group of the points in the common area 603 that are photographed together by the projectors 101-1 and 101-2 is P2m (l). To do.

さらに、図7(a)において、プロジェクタ101−1で投影された共通領域602の点の座標群をプロジェクタ101−2の座標系で表現したものをP2m(j)とする。同様に、図8(b)において、プロジェクタ101−2で投影された共通領域602の点の座標群をプロジェクタ101−1の座標系で表現したものをP1m(l)とする。   Further, in FIG. 7A, let P2m (j) be a coordinate group of points in the common area 602 projected by the projector 101-1, expressed in the coordinate system of the projector 101-2. Similarly, in FIG. 8B, a coordinate group of the points of the common area 602 projected by the projector 101-2 expressed by the coordinate system of the projector 101-1 is P1m (l).

つまり、P1m(j)とP2m(j)は、同一の点群を異なる座標系で表現したものであり、P1m(l)とP2m(l)も、同一の点群を異なる座標系で表現したものである。   That is, P1m (j) and P2m (j) represent the same point group in different coordinate systems, and P1m (l) and P2m (l) also represent the same point group in different coordinate systems. Is.

3次元位置計測手段405は、プロジェクタ101の投影手段105が投影したパターン画像を、プロジェクタ101の撮影手段106が撮影した画像を用いて、プロジェクタ101に対する投影面104の3次元位置を算出(計測)する。例えば、3次元位置計測手段405は、プロジェクタ101−1の投影手段105が投影したパターン画像を、プロジェクタ101−1の撮影手段が撮影した画像を用いて、上記のP1s(i)、P1m(j)を求める。尚、投影面104に投影されたパターン画像の3次元座標は、投影面104の3次元位置を示す情報の一例である。   The three-dimensional position measurement unit 405 calculates (measures) the three-dimensional position of the projection surface 104 with respect to the projector 101 using the pattern image projected by the projection unit 105 of the projector 101 and the image photographed by the photographing unit 106 of the projector 101. To do. For example, the three-dimensional position measurement unit 405 uses the above-described P1s (i) and P1m (j) by using the pattern image projected by the projection unit 105 of the projector 101-1 and the image captured by the imaging unit of the projector 101-1. ) The three-dimensional coordinates of the pattern image projected on the projection plane 104 are an example of information indicating the three-dimensional position of the projection plane 104.

パターン画像の3次元座標は、プロジェクタ101−1の投影手段105からの投影光と、投影面からの反射光を撮影手段106で受光する角度の差により三角測量により求めることができる。尚、ここでは、座標原点をプロジェクタ101−1の中心に置き、投影手段105の視線中心の向きをz軸とする座標系で3次元座標を表現するものとする。   The three-dimensional coordinates of the pattern image can be obtained by triangulation from the difference between the projection light from the projection unit 105 of the projector 101-1 and the angle at which the reflected light from the projection surface is received by the photographing unit 106. Here, it is assumed that the coordinate origin is set at the center of the projector 101-1, and the three-dimensional coordinates are expressed by a coordinate system in which the direction of the center of the line of sight of the projection unit 105 is the z axis.

同様にして、プロジェクタ101−2の投影手段105が投影したパターン画像を、プロジェクタ101−2の撮影手段106が撮影した画像を用いて、プロジェクタ101−2に対する投影面104の3次元座標であるP2s(k)、P2m(l)を求める。このとき、座標原点はプロジェクタ101−2の中心に置き、投影手段105の視線中心の向きをz軸とした座標系とする。   Similarly, a pattern image projected by the projection unit 105 of the projector 101-2 is used as an image captured by the imaging unit 106 of the projector 101-2. (K), P2m (l) is obtained. At this time, the coordinate origin is set at the center of the projector 101-2, and the coordinate system has the z-axis as the direction of the center of the line of sight of the projection unit 105.

さらに、同様の手法により、他のプロジェクタ101、例えば、プロジェクタ101−3に対する投影面104の3次元座標も算出する。尚、この段階では、各プロジェクタ101が投影した校正パターンの間の座標関係は不明である。   Further, the three-dimensional coordinates of the projection plane 104 with respect to another projector 101, for example, the projector 101-3 are also calculated by the same method. At this stage, the coordinate relationship between the calibration patterns projected by the projectors 101 is unknown.

図9は、第1の実施形態に係る3次元座標の算出について説明するための図である。プロジェクタ101の記憶手段401には、プロジェクタ101の投影手段105と撮影手段106とによる3次元計測の計測パラメータが予め記憶されている。この計測パラメータには、例えば、投影光学系の内部パラメータ、撮影光学系の内部パラメータ、及び投影手段105と撮影手段106の外部パラメータ等が含まれる。   FIG. 9 is a diagram for explaining calculation of three-dimensional coordinates according to the first embodiment. The storage unit 401 of the projector 101 stores measurement parameters for three-dimensional measurement by the projection unit 105 and the photographing unit 106 of the projector 101 in advance. The measurement parameters include, for example, internal parameters of the projection optical system, internal parameters of the imaging optical system, external parameters of the projection unit 105 and the imaging unit 106, and the like.

例えば、投影光学系の内部パラメータとして、表示素子207と投影レンズ208との間の距離、投影するパターン画像の各円形パターンと表示素子207上の物理的な位置との関係等を、予め実測等により求め、記憶手段401に記憶しておく。   For example, as the internal parameters of the projection optical system, the distance between the display element 207 and the projection lens 208, the relationship between each circular pattern of the pattern image to be projected and the physical position on the display element 207, etc. are measured in advance. And stored in the storage unit 401.

また、撮影光学系の内部パラメータとして、撮像レンズ210と撮像素子211との距離や、撮影した画像の座標と撮像素子211上の物理的な位置との関係等を、予め実測等により求め、記憶手段401に記憶しておく。   Further, as internal parameters of the imaging optical system, the distance between the imaging lens 210 and the imaging element 211, the relationship between the coordinates of the captured image and the physical position on the imaging element 211, and the like are obtained in advance by actual measurement and stored. Stored in the means 401.

さらに、外部パラメータとして、表示素子207と撮像素子211との間の距離等の三角測量の基線長に対応する情報を、予め実測等により求め、記憶手段401に記憶しておく。   Further, information corresponding to the baseline length of triangulation such as the distance between the display element 207 and the imaging element 211 is obtained in advance by actual measurement or the like and stored in the storage unit 401 as an external parameter.

3次元位置計測手段405は、記憶手段401に記憶した投影光学系の内部パラメータ、撮像光学系の内部パラメータ、及び三角測量の基線長に対応する情報に基づいて、プロジェクタ101に対する投影面104の3次元座標を計測する。   The three-dimensional position measurement unit 405 is configured to output 3 of the projection plane 104 with respect to the projector 101 based on information corresponding to the internal parameters of the projection optical system, the internal parameters of the imaging optical system, and the baseline length of triangulation stored in the storage unit 401. Measure dimensional coordinates.

投影面104までの距離は、表示素子207から投影レンズ208の中心を通る光線と、その反射光が撮像レンズ210の中心を通って撮像素子211に至る光線と、表示素子207と撮像素子211との間の線と、の三角形により計測することができる。例えば、パターン画像の円形パターンの重心の表示素子207上の位置と、対応する円形パターンの重心の撮像素子211上の位置と、上記の基線長に対応する情報と、を用いた三角測量により、投影面104までの距離を計測することができる。   The distance to the projection surface 104 is such that the light beam passing through the center of the projection lens 208 from the display element 207, the light beam whose reflected light reaches the image sensor 211 through the center of the image pickup lens 210, the display element 207, the image sensor 211, It can be measured by the line between and the triangle. For example, by triangulation using the position on the display element 207 of the center of gravity of the circular pattern of the pattern image, the position on the image sensor 211 of the center of gravity of the corresponding circular pattern, and information corresponding to the above-described baseline length, The distance to the projection surface 104 can be measured.

本実施形態では、投影手段105に対して所定の位置に撮影手段106が設けられているので、3次元測量の計測パラメータを予め測定又は計算して、例えば、工場出荷前等に、プロジェクタ101の記憶手段401に記憶しておくことができる。   In the present embodiment, since the photographing unit 106 is provided at a predetermined position with respect to the projection unit 105, the measurement parameters of the three-dimensional survey are measured or calculated in advance, for example, before the factory shipment or the like. It can be stored in the storage unit 401.

(3次元位置の統合について)
3次元位置統合手段406は、隣接するプロジェクタ101で共通に撮影される校正パターン、例えば、図8のP1m(j)及びP2m(j)、及びP1m(l)及びP2m(l)等を用いて、隣接するプロジェクタ101間の座標系の対応関係を算出する。
(About integration of 3D position)
The three-dimensional position integration unit 406 uses calibration patterns that are photographed in common by adjacent projectors 101, such as P1m (j) and P2m (j) and P1m (l) and P2m (l) in FIG. Then, the correspondence relationship of the coordinate system between the adjacent projectors 101 is calculated.

例えば、図8(a)のP1m(j)をプロジェクタ101−2の座標系表現であるP2m(j)で表す場合について考える。この場合、プロジェクタ101−1が投影したパターンP1m(j)を、プロジェクタ101−1で撮影した画像と、プロジェクタ101−2とで撮影した画像とを用いて、SfM(Structure from Motion)により算出することができる。SfMは、多視点から撮影した画像を用いてシーンの3次元構造を推定する公知技術である(例えば、非特許文献1参照)。これにより、プロジェクタ101−1が投影した図8(a)のP1m(j)をプロジェクタ101−2の座標系表現であるP2m(j)で表すことができる。   For example, consider the case where P1m (j) in FIG. 8A is represented by P2m (j) which is the coordinate system representation of the projector 101-2. In this case, the pattern P1m (j) projected by the projector 101-1 is calculated by SfM (Structure from Motion) using the image photographed by the projector 101-1 and the image photographed by the projector 101-2. be able to. SfM is a known technique for estimating the three-dimensional structure of a scene using images taken from multiple viewpoints (see, for example, Non-Patent Document 1). Accordingly, P1m (j) in FIG. 8A projected by the projector 101-1 can be represented by P2m (j) which is a coordinate system representation of the projector 101-2.

同様に、図8(b)のP2m(l)をプロジェクタ101−1の座標系表現であるP1m(l)で表す場合について考える。この場合、プロジェクタ101−2が投影したパターンP2m(l)を、プロジェクタ101−1及び101−2が撮影した画像より、SfMにより、P1m(l)を算出することができる。これにより、プロジェクタ101−2が投影した図8(b)のP2m(l)をプロジェクタ101−1の座標系表現であるP1m(l)で表すことができる。   Similarly, consider the case where P2m (l) in FIG. 8B is represented by P1m (l) which is the coordinate system representation of the projector 101-1. In this case, P1m (l) can be calculated by SfM from the image captured by the projectors 101-1 and 101-2 for the pattern P2m (l) projected by the projector 101-2. Thus, P2m (l) in FIG. 8B projected by the projector 101-2 can be represented by P1m (l) which is a coordinate system representation of the projector 101-1.

次に、3次元位置統合手段406は、個々の座標系の3次元位置を1つの座標系に統合する。例えば、SfMで算出されたP2m(j)とP1m(j)、並びにSfMで算出されたP2m(l)とP2m(l)は同一点であるから、これらの間の関係を表す回転ベクトルRと併進ベクトルtを求めることができる(例えば、非特許文献2参照)。   Next, the three-dimensional position integration unit 406 integrates the three-dimensional positions of the individual coordinate systems into one coordinate system. For example, since P2m (j) and P1m (j) calculated by SfM and P2m (l) and P2m (l) calculated by SfM are the same point, the rotation vector R representing the relationship between them is A translation vector t can be obtained (see, for example, Non-Patent Document 2).

R、tが求められれば、全ての3次元点を同一座標系で表現することができる。この3次元点は同一平面上に乗るから、その平面を推定することができる。例えば、3次元点のうちの1点を(x0、y0、z0)とおくと、平面ax+by+cz+d=0までの距離は、|ax0+by0+cz0+d|/sqrt(a^2+b^2+c^2)である。従って、全点の距離の2乗和を最小にするa、b、c、dが求める平面の式となる。   If R and t are obtained, all three-dimensional points can be expressed in the same coordinate system. Since these three-dimensional points are on the same plane, the plane can be estimated. For example, if one of the three-dimensional points is (x0, y0, z0), the distance to the plane ax + by + cz + d = 0 is | ax0 + by0 + cz0 + d | / sqrt (a ^ 2 + b ^ 2 + c ^ 2). Therefore, a, b, c, d that minimizes the sum of squares of the distances of all points is a plane expression to be obtained.

尚、ここではプロジェクタ101が2台の場合について説明を行ったが、プロジェクタが3台に増えた場合でも、同様の手法により座標系の統合が可能である。   Here, the case where there are two projectors 101 has been described. However, even when the number of projectors is increased to three, coordinate systems can be integrated by the same method.

上記の処理で求められた平面の法線方向からの視点で個々に投影されたパターン画像(2次元の校正パターン画像)を合成することができる。   Pattern images (two-dimensional calibration pattern images) individually projected from the viewpoint from the normal direction of the plane obtained by the above processing can be synthesized.

図10は、第1の実施形態に係る合成されたパターン画像の例を示す図である。図10(a)は、合成されたパターン画像を示している。また、図10(b)は、プロジェクタ101−1によって投影されたパターン1001、プロジェクタ101−2によって投影されたパターン1002、プロジェクタ101−3によって投影されたパターン1003を区別して表示した図である。   FIG. 10 is a diagram illustrating an example of a combined pattern image according to the first embodiment. FIG. 10A shows a combined pattern image. FIG. 10B is a diagram in which the pattern 1001 projected by the projector 101-1, the pattern 1002 projected by the projector 101-2, and the pattern 1003 projected by the projector 101-3 are distinguished and displayed.

パラメータ算出手段407は、この合成されたパターン画像に基づいて画像処理パラメータを算出する。   The parameter calculation unit 407 calculates image processing parameters based on the synthesized pattern image.

例えば、パラメータ算出手段407は、各プロジェクタ101毎に、校正用画像の円形パターンの各々を線形に外挿し、各プロジェクタ101の投影可能領域の外周座標を算出する。   For example, the parameter calculation unit 407 linearly extrapolates each circular pattern of the calibration image for each projector 101, and calculates the outer peripheral coordinates of the projectable area of each projector 101.

また、パラメータ算出手段407は、算出された各プロジェクタ101の投影可能領域の論理和により、複数のプロジェクタ101−1〜101−3による投影可能領域を求める。   Further, the parameter calculation unit 407 obtains a projectable area by the plurality of projectors 101-1 to 101-3 based on the logical sum of the projectable areas of each projector 101.

さらに、パラメータ算出手段407は、複数のプロジェクタ101−1〜101−3による投影可能領域に、投影対象となる所定の画像をマッピングする。例えば、パラメータ算出手段407は、投影対象となる所定の画像のアスペクト比を保ったまま、複数のプロジェクタ101−1〜101−3による投影可能領域に、投影対象となる所定の画像を最大の大きさでマッピングする。パラメータ算出手段407は例えば、図10(b)の領域1004の範囲内に投影対象となる所定の画像が、アスペクト比を保ったまま収まるように幾何補正、配置を行う。   Furthermore, the parameter calculation unit 407 maps a predetermined image to be projected onto a region that can be projected by the plurality of projectors 101-1 to 101-3. For example, the parameter calculation unit 407 maximizes the predetermined image to be projected in the region that can be projected by the plurality of projectors 101-1 to 101-3 while maintaining the aspect ratio of the predetermined image to be projected. Now mapping. For example, the parameter calculation unit 407 performs geometric correction and arrangement so that a predetermined image to be projected falls within the area 1004 in FIG. 10B while maintaining the aspect ratio.

さらにまた、パラメータ算出手段407は、隣接するプロジェクタ101間で投影領域が重複する重複領域を、各プロジェクタ101の投影可能領域より算出し、重複領域の明るさ補正のパラメータを算出する。これは、単純にプロジェクタ101−1〜101−3の画像を重ね合わせると、重複領域が明るくなってしまうためである。   Furthermore, the parameter calculation unit 407 calculates an overlapping area where the projection areas overlap between the adjacent projectors 101 from the projectable area of each projector 101, and calculates a brightness correction parameter for the overlapping area. This is because if the images of the projectors 101-1 to 101-3 are simply superimposed, the overlapping area becomes bright.

例えば、上記のような処理により、パラメータ算出手段407は、投影対象となる所定の画像のうち、各プロジェクタ101が投影する領域の抽出、幾何補正、重複領域の明るさ補正等に必要な画像処理パラメータを算出する。   For example, through the processing described above, the parameter calculation unit 407 performs image processing necessary for extraction of a region projected by each projector 101, geometric correction, brightness correction of an overlapping region, etc., from a predetermined image to be projected. Calculate the parameters.

尚、ここでは、パターン画像を合成する場合について説明を行ったが、パラメータ算出手段407は、円形パターンの重心座標を用いて上記画像処理パラメータを算出するものであっても良い。   Here, the case of synthesizing pattern images has been described. However, the parameter calculation unit 407 may calculate the image processing parameters using the barycentric coordinates of the circular pattern.

(投影処理)
次に投影処理について説明する。例えば、投影したい画像をPC102から各プロジェクタ101に送信し、各プロジェクタ101が記憶手段401に記憶した画像処理パラメータを使って受信した画像を加工して投影することにより、一体化された画像を投影面104に投影することができる。
(Projection processing)
Next, the projection process will be described. For example, an image to be projected is transmitted from the PC 102 to each projector 101, and the image received by each projector 101 using the image processing parameters stored in the storage unit 401 is processed and projected to project an integrated image. It can be projected onto the surface 104.

図11は、第1の実施形態に係る画像投影処理の一例のフローチャートである。   FIG. 11 is a flowchart of an example of the image projection processing according to the first embodiment.

例えば、PC102へのユーザ操作等により投影処理を開始すると、PC102は、複数のプロジェクタ101−1〜101−3にマルチ投影の開始を指示する(ステップS1101)。指示を受けた複数のプロジェクタ101−1〜101−3は、それぞれ、記憶手段401に記憶した画像処理パラメータを読み出す(ステップS1102〜S1104)。   For example, when the projection process is started by a user operation or the like on the PC 102, the PC 102 instructs the plurality of projectors 101-1 to 101-3 to start multi-projection (step S1101). Each of the plurality of projectors 101-1 to 101-3 that has received the instruction reads the image processing parameters stored in the storage unit 401 (steps S1102 to S1104).

また、複数のプロジェクタ101−1〜101−3は、それぞれ、読み出した画像処理パラメータで投影する画像を加工するパラメータ適用モードに入る(ステップS1105〜S1107)。パラメータ適用モードでは、各プロジェクタ101は、読み出した画像処理パラメータに従って、受信した横長の画像から必要な部分の抽出、変形を行い、また、明るさや色の補正を行った画像を投影する。   Each of the projectors 101-1 to 101-3 enters a parameter application mode for processing an image to be projected with the read image processing parameters (steps S1105 to S1107). In the parameter application mode, each projector 101 extracts and transforms a necessary part from the received landscape image according to the read image processing parameter, and projects an image with brightness and color correction.

PC102は、複数のプロジェクタ101−1〜101−3に同一のコンテンツ画像(例えば、横長の画像)を送信する(ステップS1108)。複数のプロジェクタ101−1〜101−3は、それぞれ、PC102から受信したコンテンツ画像にパラメータを適用して画像処理を行い(ステップS1109〜S1111)、画像処理後の画像を投影する(ステップS1112〜S1114)。   The PC 102 transmits the same content image (for example, a horizontally long image) to the plurality of projectors 101-1 to 101-3 (step S1108). Each of the plurality of projectors 101-1 to 101-3 applies a parameter to the content image received from the PC 102, performs image processing (steps S1109 to S1111), and projects the image after image processing (steps S1112 to S1114). ).

上記のコンテンツ画像の送信、及び投影は、マルチ投影が終了するまで、例えば、60fps(frame per second)で繰り返し行われる(ステップS1115)。また、マルチ投影が終了すると、PC102は、マルチ投影の終了指示を複数のプロジェクタ101−1〜101−3に送信する(ステップS1116)。複数のプロジェクタ101−1〜101−3は、それぞれ、マルチ投影の終了指示を受信すると単純投影モードへ移行し(ステップS1117〜S1119)、マルチ投影処理を終了する。   The transmission and projection of the content image are repeatedly performed at, for example, 60 fps (frame per second) until the multi-projection is completed (step S1115). When the multi-projection is completed, the PC 102 transmits a multi-projection end instruction to the plurality of projectors 101-1 to 101-3 (step S1116). Each of the plurality of projectors 101-1 to 101-3 receives the multi-projection end instruction and shifts to the simple projection mode (steps S1117 to S1119), and ends the multi-projection process.

(接続形態)
図12は、第1の実施形態に係る画像処理システムの接続形態の例を示す図である。画像処理システム100は、PC102と各プロジェクタ101との間で、制御信号及び映像信号の通信が行えるものであれば、接続形態は任意で良い。
(Connection type)
FIG. 12 is a diagram illustrating an example of a connection form of the image processing system according to the first embodiment. As long as the image processing system 100 can communicate a control signal and a video signal between the PC 102 and each projector 101, the connection form may be arbitrary.

例えば、図12(a)の接続形態では、PC102は、映像信号を分岐装置1202(例えば、USBハブ)を介して、外付けのビデオカード1201で各プロジェクタ101に送信し、制御信号のやり取りは、無線LANで行う。   For example, in the connection form of FIG. 12A, the PC 102 transmits the video signal to each projector 101 via the branching device 1202 (for example, a USB hub) using the external video card 1201, and the control signal is exchanged. , Using a wireless LAN.

図12(b)の接続形態では、PC102は、映像信号をHDMI等の画像インタフェースを用いて出力し、映像分配器1203で各プロジェクタに映像信号を分配している。また、制御信号のやり取りは、有線LAN等の有線接続によって行われる。   In the connection mode of FIG. 12B, the PC 102 outputs a video signal using an image interface such as HDMI, and the video distributor 1203 distributes the video signal to each projector. In addition, the exchange of control signals is performed by a wired connection such as a wired LAN.

図12(c)の接続形態では、映像信号及び制御信号の通信を無線通信(例えば無線LAN等)によって行う場合の例を示している。   In the connection form of FIG. 12C, an example in which the video signal and the control signal are communicated by wireless communication (for example, wireless LAN) is shown.

尚、図12の各接続形態はあくまで一例であって、画像処理システム100の接続形態は、図12の各接続形態以外にも様々な組合せが可能である。   Each connection form in FIG. 12 is merely an example, and the connection form of the image processing system 100 can be various combinations other than each connection form in FIG.

<まとめ>
以上、本実施形態に係るプロジェクタ101は、投影手段105に対して所定の位置に撮影手段106(カメラ等)が設けられており、投影手段105と撮影手段106による3次元計測の計測パラメータが記憶手段401に予め記憶されている。これにより、カメラの設置、基線長の測定等の準備や、ステレオカメラ等によらずに、プロジェクタ101に対する投影面104の3次元座標を容易に算出することができる。但し、各プロジェクタ101単体の3次元計測だけでは、他のプロジェクタ101との座標系の位置関係は不明である。
<Summary>
As described above, the projector 101 according to the present embodiment is provided with the photographing unit 106 (camera or the like) at a predetermined position with respect to the projection unit 105, and the measurement parameters of the three-dimensional measurement by the projection unit 105 and the photographing unit 106 are stored. Stored in the means 401 in advance. Thereby, the three-dimensional coordinates of the projection plane 104 with respect to the projector 101 can be easily calculated without using the camera installation, the measurement of the baseline length, or the like, or the stereo camera. However, the positional relationship of the coordinate system with other projectors 101 is unknown only by the three-dimensional measurement of each projector 101 alone.

一方、SfMのみによる3次元計測では、精度を出すために多くの円パターンを撮影する必要があり、広角で撮影範囲の広いカメラを用いることが望ましい。しかし、そのようなレンズを持つカメラは高価であり、高解像度の撮像素子も要求されることから、コスト面で不利である。   On the other hand, in the three-dimensional measurement using only SfM, it is necessary to photograph many circular patterns in order to obtain accuracy, and it is desirable to use a camera with a wide angle and a wide photographing range. However, a camera having such a lens is expensive, and a high-resolution image sensor is required, which is disadvantageous in terms of cost.

そこで、本実施の形態では、各プロジェクタ101に内蔵された低コストの撮影手段と、三角測量、SfM等の2つの3次元計測との組合せにより、システムのコストを抑制しつつ、設置、設定等を容易にする画像処理システム100を実現している。   Therefore, in this embodiment, the combination of the low-cost imaging means built in each projector 101 and two three-dimensional measurements such as triangulation, SfM, etc., installation, setting, etc., while suppressing the system cost. An image processing system 100 that facilitates the above is realized.

[第2の実施形態]
図4に示す第1の実施形態の機能構成では、各プロジェクタ101が画像処理手段402を有しているものとして説明を行ったが、投影画像に対する画像処理は、PC102がまとめて行うものであっても良い。
[Second Embodiment]
In the functional configuration of the first embodiment shown in FIG. 4, the projector 101 has been described as having the image processing unit 402, but the image processing on the projection image is performed collectively by the PC 102. May be.

図13は、第2の実施形態に係る画像処理システムの機能構成図である。本実施の形態では、PC102が、複数のプロジェクタ101−1〜101−3のそれぞれが投影する画像の画像処理を行う画像処理手段1301を有している。尚、その他の構成は、第1の実施形態と同様なので、ここでは第1の実施形態との差分を中心に説明する。   FIG. 13 is a functional configuration diagram of the image processing system according to the second embodiment. In the present embodiment, the PC 102 has an image processing unit 1301 that performs image processing of an image projected by each of the plurality of projectors 101-1 to 101-3. Since the other configuration is the same as that of the first embodiment, the difference from the first embodiment will be mainly described here.

本実施形態では、図5に示す第1の実施形態の撮影処理と同様にして、校正用画像の撮影処理が行われる。   In the present embodiment, the calibration image shooting process is performed in the same manner as the shooting process of the first embodiment shown in FIG.

図14は、第2の実施形態に係る校正処理の一例のフローチャートである。ステップS701〜S704までの処理は、第1の実施形態と同様である。ステップS1401において、第1の実施形態では各プロジェクタ101に画像処理パラメータを送信していたが、本実施形態では、算出した画像処理パラメータをPC102が保存する。   FIG. 14 is a flowchart of an example of a calibration process according to the second embodiment. The processing from step S701 to S704 is the same as that in the first embodiment. In step S1401, the image processing parameters are transmitted to each projector 101 in the first embodiment. However, in this embodiment, the PC 102 stores the calculated image processing parameters.

図15は、第2の実施形態に係る画像投影処理の一例のフローチャートである。例えば、PC102へのユーザ操作等により投影処理を開始すると、PC102は、図14のステップS1401で保存した画像処理パラメータを、投影対象となるコンテンツ画像に適用する(ステップS1501)。例えば、PC102の画像処理手段1301は、プロジェクタ101−1に適用する画像処理パラメータを用いて、横長のコンテンツ画像からプロジェクタ101−1が投影する部分を抽出、変形し、また、明るさや色の補正を行う。   FIG. 15 is a flowchart of an example of an image projection process according to the second embodiment. For example, when the projection processing is started by a user operation or the like on the PC 102, the PC 102 applies the image processing parameters saved in step S1401 in FIG. 14 to the content image to be projected (step S1501). For example, the image processing unit 1301 of the PC 102 extracts and deforms a portion projected by the projector 101-1 from the horizontally long content image using image processing parameters applied to the projector 101-1, and corrects brightness and color. I do.

同様に、画像処理手段1301は、プロジェクタ101−2に適用する画像処理パラメータを用いて、横長のコンテンツ画像からプロジェクタ101−2が投影する部分を抽出、変形し、また、明るさや色の補正を行う。さらに、画像処理手段1301は、プロジェクタ101−3に適用する画像処理パラメータを用いて、横長のコンテンツ画像からプロジェクタ101−3が投影する部分を抽出、変形し、また、明るさや色の補正を行う。   Similarly, the image processing unit 1301 extracts and deforms a portion projected by the projector 101-2 from the horizontally long content image using image processing parameters applied to the projector 101-2, and corrects brightness and color. Do. Further, the image processing unit 1301 extracts and deforms a portion projected by the projector 101-3 from the horizontally long content image using image processing parameters applied to the projector 101-3, and corrects brightness and color. .

次に、PC102は、ステップS1501で画像処理を行った画像を、複数のプロジェクタ101−1〜101−3に送信する(ステップS1502)。   Next, the PC 102 transmits the image subjected to the image processing in step S1501 to the plurality of projectors 101-1 to 101-3 (step S1502).

複数のプロジェクタ101−1〜101−3は、それぞれ、PC102から受信した画像を用いて投影画像を更新する(ステップS1503〜1505)。   Each of the plurality of projectors 101-1 to 101-3 updates the projection image using the image received from the PC 102 (steps S1503 to 1505).

上記処理を、マルチ投影が終了するまで、例えば、60fpsで繰り返す(ステップS1506)。   The above process is repeated, for example, at 60 fps until the multi-projection is completed (step S1506).

尚、本実施の形態では、PC102が送信する画像がプロジェクタ101毎に異なるため、図12(b)に示す接続形態は用いることができない。本実施の形態では、例えば、図12(a)、(c)の接続形態等を用いて実現することができる。   In this embodiment, since the image transmitted by the PC 102 differs for each projector 101, the connection form shown in FIG. 12B cannot be used. In the present embodiment, it can be realized using, for example, the connection forms shown in FIGS.

以上、本実施形態によれば、各プロジェクタ101に画像処理手段が不要であり、プロジェクタ101のコスト、又は負荷等を低減することができる。   As described above, according to the present embodiment, each projector 101 does not require an image processing unit, and the cost or load of the projector 101 can be reduced.

[第3の実施形態]
第1及び第2の実施形態では、PC102を用いて画像処理システム100の制御を行う場合について説明を行ったが、画像処理システム100は、PC102によらずに、複数のプロジェクタで構成することも可能である。
[Third Embodiment]
In the first and second embodiments, the case where the image processing system 100 is controlled using the PC 102 has been described. However, the image processing system 100 may be configured by a plurality of projectors without using the PC 102. Is possible.

<機能構成>
図16は、第3の実施形態に係る画像処理システムの機能構成図である。本実施形態に係るプロジェクタ101は、第1の実施形態に係るプロジェクタ101の構成に加えて、画像取得手段1601、3次元位置計測手段1602、3次元位置統合手段1603、パラメータ算出手段1604、制御手段1605、同期手段1606等を有する。
<Functional configuration>
FIG. 16 is a functional configuration diagram of an image processing system according to the third embodiment. In addition to the configuration of the projector 101 according to the first embodiment, the projector 101 according to the present embodiment includes an image acquisition unit 1601, a three-dimensional position measurement unit 1602, a three-dimensional position integration unit 1603, a parameter calculation unit 1604, and a control unit. 1605, synchronization means 1606, and the like.

画像取得手段1601は、投影面104に投影するコンテンツ画像を取得する手段である。画像取得手段1601は、例えば、図2の外部I/F205に接続されたUSBメモリ等の外部ストレージから、投影対象となる同一のコンテンツをそれぞれ取得する。或いは、画像取得手段1601は、通信I/F204等を用いて、サーバ装置等から投影対象となるコンテンツをそれぞれ取得するもの等であっても良い。   The image acquisition unit 1601 is a unit that acquires a content image to be projected onto the projection plane 104. For example, the image acquisition unit 1601 acquires the same content to be projected from an external storage such as a USB memory connected to the external I / F 205 in FIG. Alternatively, the image acquisition unit 1601 may be one that acquires the content to be projected from the server device or the like using the communication I / F 204 or the like.

3次元位置計測手段(計測手段)1602は、制御手段1605等の制御によって撮影された画像と、各プロジェクタ101の記憶手段401に予め記憶された計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置を計測する。   A three-dimensional position measuring unit (measuring unit) 1602 is a projection plane for each projector 101 based on an image photographed under the control of the control unit 1605 and the like and a measurement parameter stored in advance in the storage unit 401 of each projector 101. The three-dimensional position 104 is measured.

3次元位置統合手段(統合手段)1603は、各プロジェクタ101の3次元位置計測手段1602によって計測された複数の3次元位置を統合する。尚、3次元位置の統合処理は、複数のプロジェクタ101で分散して行うものであっても良いし、1つのプロジェクタ101でまとめて行うもの等であっても良い。   A three-dimensional position integration unit (integration unit) 1603 integrates a plurality of three-dimensional positions measured by the three-dimensional position measurement unit 1602 of each projector 101. The three-dimensional position integration process may be performed in a distributed manner by a plurality of projectors 101, or may be performed collectively by a single projector 101.

パラメータ算出手段(算出手段)1604は、3次元位置統合手段1603等によって統合された投影面104の3次元位置に基づいて、各プロジェクタ101が投影する画像の画像処理パラメータ(補正パラメータ)を算出する。   A parameter calculation unit (calculation unit) 1604 calculates image processing parameters (correction parameters) of images projected by the projectors 101 based on the three-dimensional position of the projection plane 104 integrated by the three-dimensional position integration unit 1603 or the like. .

制御手段1605は、複数のプロジェクタ101−1〜101−3による画像の投影と、複数のプロジェクタ101による投影面104に投影された画像の撮影を制御する。また、制御手段404は、複数のプロジェクタ101−1〜101−3を用いて、所定の画像(大画面の画像)を投影するマルチプロジェクションの制御を行う。   The control unit 1605 controls the projection of images by the plurality of projectors 101-1 to 101-3 and the photographing of images projected on the projection plane 104 by the plurality of projectors 101. In addition, the control unit 404 uses a plurality of projectors 101-1 to 101-3 to control multi-projection for projecting a predetermined image (large screen image).

同期手段1606は、複数のプロジェクタ101−1〜101−3の画像投影タイミング等の同期を取るための手段である。   The synchronization unit 1606 is a unit for synchronizing the image projection timings and the like of the plurality of projectors 101-1 to 101-3.

尚、他の構成については、第1の実施形態と同様である。   Other configurations are the same as those in the first embodiment.

<処理の流れ>
(校正用画像の撮影処理)
図17は、第3の実施形態に係る校正用画像の撮影処理の流れを示すフローチャートである。画像処理システム100は、例えば、プロジェクタ101−1へのユーザ操作等に応じて、校正用の画像の撮影処理を開始する。
<Process flow>
(Capturing image for calibration)
FIG. 17 is a flowchart illustrating the flow of the calibration image capturing process according to the third embodiment. The image processing system 100 starts a calibration image capturing process in response to, for example, a user operation on the projector 101-1.

尚、撮影処理を開始する前に、複数のプロジェクタ101−1〜101−3は、例えば、図1に示すように、隣接したプロジェクタ101の投影領域の一部が重複するように配置されているものとする。また、複数のプロジェクタ101−1〜101−3の位置関係、例えば、左からプロジェクタ101−1、プロジェクタ101−2、プロジェクタ101−3の順に並べられていることは、予め設定又は検知されているものとする。   Before starting the shooting process, the plurality of projectors 101-1 to 101-3 are arranged so that, for example, a part of the projection area of the adjacent projector 101 overlaps as shown in FIG. Shall. Further, the positional relationship of the plurality of projectors 101-1 to 101-3, for example, that the projectors 101-1, 101-2, and 101-3 are arranged in order from the left is set or detected in advance. Shall.

校正用の画像の撮影処理の開始操作が行われると(ステップS1701)、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に、校正用の画像の撮影処理の開始を指示する第1撮影指示を送信する(ステップS1702)。   When the start operation of the calibration image capturing process is performed (step S1701), the projector 101-1 instructs the other projectors 101-2 and 101-3 to start the calibration image capturing process. One shooting instruction is transmitted (step S1702).

また、プロジェクタ101−1は、校正用のパターン画像を投影し(ステップS1703)、プロジェクタ101−2、101−3は、第1撮影指示に応じて、光源206を消灯する(ステップS1704、S1705)。   Further, the projector 101-1 projects a pattern image for calibration (step S1703), and the projectors 101-2 and 101-3 turn off the light source 206 in response to the first photographing instruction (steps S1704 and S1705). .

プロジェクタ101−1は、プロジェクタ101−1の投影手段105によってパターン画像が投影された投影面104を撮影し(ステップS1706)、撮影した画像を自装置の記憶手段401に保存(記憶)する(ステップS1707)。   The projector 101-1 captures the projection surface 104 onto which the pattern image is projected by the projection unit 105 of the projector 101-1 (step S 1706), and saves (stores) the captured image in the storage unit 401 of the own apparatus (step S 1706). S1707).

また、プロジェクタ101−2は、プロジェクタ101−1の投影手段105によってパターン画像投影された投影面を撮影し(ステップS1708)、撮影した画像を自装置の記憶手段401に記憶する(ステップS1709)。尚、このとき、プロジェクタ101−3の撮影エリアには校正用のパターン画像が含まれないので、プロジェクタ101−3は、画像の撮影を行わなくても良い。   In addition, the projector 101-2 captures the projection plane on which the pattern image is projected by the projection unit 105 of the projector 101-1 (step S1708), and stores the captured image in the storage unit 401 of the own apparatus (step S1709). At this time, since the calibration pattern image is not included in the photographing area of the projector 101-3, the projector 101-3 does not have to photograph the image.

次に、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に、第2撮影指示を送信する(ステップS1710)。   Next, the projector 101-1 transmits a second shooting instruction to the other projectors 101-2 and 101-3 (step S1710).

プロジェクタ101−1は光源206を消灯する(ステップS1711)。また、第2撮影指示に応じて、プロジェクタ101−2は、校正用のパターン画像を投影し(ステップS1712)、プロジェクタ101−3は、光源206を消灯する(ステップS1713)。   The projector 101-1 turns off the light source 206 (step S1711). In response to the second imaging instruction, the projector 101-2 projects a calibration pattern image (step S1712), and the projector 101-3 turns off the light source 206 (step S1713).

次に、プロジェクタ101−1は、プロジェクタ101−2の投影手段105によってパターン画像が投影された投影面104を撮影し(ステップS1714)し、撮影した画像を自装置の記憶手段401に保存する(ステップS1715)。   Next, the projector 101-1 captures the projection surface 104 on which the pattern image is projected by the projection unit 105 of the projector 101-2 (step S1714), and saves the captured image in the storage unit 401 of the own apparatus (step S1714). Step S1715).

また、プロジェクタ101−2は、プロジェクタ101−2の投影手段105によってパターン画像投影された投影面を撮影し(ステップS1716)、撮影した画像を自装置の記憶手段401保存する(ステップS1717)。   Further, the projector 101-2 captures the projection surface on which the pattern image is projected by the projection unit 105 of the projector 101-2 (step S1716), and stores the captured image in the storage unit 401 of the own apparatus (step S1717).

プロジェクタ101−3は、プロジェクタ101−2の投影手段105によってパターン画像が投影された投影面104を撮影し(ステップS1718)、撮影した画像を自装置の記憶手段401に保存する(ステップS1719)。   The projector 101-3 captures the projection surface 104 on which the pattern image is projected by the projection unit 105 of the projector 101-2 (step S1718), and stores the captured image in the storage unit 401 of the own apparatus (step S1719).

次に、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に、第3撮影指示を送信する(ステップS1720)。   Next, the projector 101-1 transmits a third shooting instruction to the other projectors 101-2 and 101-3 (step S1720).

プロジェクタ101−1は光源206を消灯する(ステップS1721)。また、第2撮影指示に応じて、プロジェクタ101−2は、光源206を消灯し(ステップS1722)、プロジェクタ101−3は、校正用のパターン画像を投影する(ステップS1723)。   The projector 101-1 turns off the light source 206 (step S1721). Further, in response to the second photographing instruction, the projector 101-2 turns off the light source 206 (step S1722), and the projector 101-3 projects a calibration pattern image (step S1723).

次に、プロジェクタ101−2は、プロジェクタ101−3の投影手段105によってパターン画像が投影された投影面104を撮影し(ステップS1724)、撮影した画像を自装置の記憶手段401に保存する(ステップS1725)。   Next, the projector 101-2 captures the projection surface 104 on which the pattern image is projected by the projection unit 105 of the projector 101-3 (step S1724), and stores the captured image in the storage unit 401 of the own apparatus (step S1724). S1725).

また、プロジェクタ101−3は、プロジェクタ101−3の投影手段105によってパターン画像が投影された投影面を撮影し(ステップS1726)、撮影した画像を自装置の記憶手段401に保存し(ステップS1727)、処理を終了する。尚、このとき、プロジェクタ101−1の撮影エリアには校正用のパターン画像が含まれないので、プロジェクタ101−1は画像の撮影を行わなくても良い。   The projector 101-3 captures the projection surface on which the pattern image is projected by the projection unit 105 of the projector 101-3 (step S1726), and stores the captured image in the storage unit 401 of the own apparatus (step S1727). The process is terminated. At this time, since the calibration pattern image is not included in the photographing area of the projector 101-1, the projector 101-1 does not have to photograph the image.

(校正処理)
画像処理システム100は、校正用の画像の撮影処理が終了すると、校正処理を行う。
(Calibration process)
The image processing system 100 performs the calibration process when the calibration image capturing process is completed.

図18は、第3の実施形態に係る校正処理の一例のフローチャートである。   FIG. 18 is a flowchart of an example of a calibration process according to the third embodiment.

校正処理を開始すると、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に構成開始指示を送信する(ステップS1801)。   When the calibration process is started, the projector 101-1 transmits a configuration start instruction to the other projectors 101-2 and 101-3 (step S1801).

次にプロジェクタ101は、図17の処理で取得した画像と、各プロジェクタ101が予め記憶している計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置(座標)を算出する(ステップS1802〜S1804)。   Next, the projector 101 calculates the three-dimensional position (coordinates) of the projection plane 104 with respect to each projector 101 based on the image acquired by the processing of FIG. 17 and the measurement parameters stored in advance by each projector 101 ( Steps S1802 to S1804).

また、各プロジェクタ101は、算出した3次元位置(円パターンの位置)と、撮影した校正パターン画像を他のプロジェクタ101に送信する(ステップS1805〜1807)。各プロジェクタ101は、他のプロジェクタ101から受信した情報を用いて、隣接するプロジェクタ101との3次元位置の対応関係を算出する(ステップS1808〜S1810)。また、プロジェクタ101−2、101−3は、算出した情報をプロジェクタ101−1に送信する(ステップS1811、S1812)。   Each projector 101 transmits the calculated three-dimensional position (the position of the circular pattern) and the captured calibration pattern image to other projectors 101 (steps S1805 to 1807). Each projector 101 uses the information received from the other projectors 101 to calculate the correspondence relationship between the three-dimensional positions with the adjacent projectors 101 (steps S1808 to S1810). In addition, the projectors 101-2 and 101-3 transmit the calculated information to the projector 101-1 (steps S1811 and S1812).

プロジェクタ101−1は、他のプロジェクタ101−1、101−3から受信した情報を用いて、3次元位置を同一座標系に変換して統合する(ステップS1813)。また、プロジェクタ101−1は、統合した3次元位置を用いて、各プロジェクタの画像処理パラメータを算出する(ステップS1814)。   The projector 101-1 uses the information received from the other projectors 101-1, 101-3, converts the three-dimensional position into the same coordinate system, and integrates them (step S1813). Further, the projector 101-1 calculates the image processing parameter of each projector using the integrated three-dimensional position (step S <b> 1814).

プロジェクタ101−1は、算出した画像処理パラメータを他のプロジェクタ101−2、101−3に送信し(ステップS1815)、自装置の画像処理パラメータを記憶手段401に保存する(ステップS1816)。   The projector 101-1 transmits the calculated image processing parameters to the other projectors 101-2 and 101-3 (step S1815), and stores the image processing parameters of the own apparatus in the storage unit 401 (step S1816).

プロジェクタ101−2、101−3は、受信した画像処理パラメータをそれぞれ、自装置の記憶手段401に記憶し(ステップS1817、1818)、校正処理を終了する。   The projectors 101-2 and 101-3 store the received image processing parameters in the storage unit 401 of their own devices (steps S1817 and 1818), and end the calibration process.

(投影処理)
図19は、第3の実施形態に係る画像投影処理の例を示すフローチャートである。尚、各プロジェクタ101には、投影対象となるコンテンツ画像を記憶したUSBメモリ等が予め接続されているものとする。
(Projection processing)
FIG. 19 is a flowchart illustrating an example of image projection processing according to the third embodiment. It is assumed that a USB memory or the like that stores a content image to be projected is connected to each projector 101 in advance.

投影処理を開始すると、プロジェクタ101−1は、マルチ投影指示を他のプロジェクタ101−2、101−3に送信する(ステップS1901)。   When the projection process is started, the projector 101-1 transmits a multi-projection instruction to the other projectors 101-2 and 101-3 (step S1901).

次に、各プロジェクタ101−1〜101−3は、自装置の記憶手段401に記憶した画像処理パラメータを読み出す(ステップS1902〜S1904)。   Next, each of the projectors 101-1 to 101-3 reads out the image processing parameters stored in the storage unit 401 of the own apparatus (steps S1902 to S1904).

また、複数のプロジェクタ101−1〜101−3は、それぞれ、読み出した画像処理パラメータで投影する画像を加工するパラメータ適用モードに入る(ステップS1905〜S1907)。   Each of the projectors 101-1 to 101-3 enters a parameter application mode for processing an image to be projected with the read image processing parameters (steps S1905 to S1907).

次に、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に投影開始指示を送信する(ステップS1908)。   Next, the projector 101-1 transmits a projection start instruction to the other projectors 101-2 and 101-3 (step S1908).

各プロジェクタ101−1〜101−3は、それぞれ、USBメモリ等からコンテンツ画像を1コマ分取得し(ステップS1909〜S1911)、取得したコンテンツ画像にパラメータを適用する(ステップS1912〜S1914)。   Each of the projectors 101-1 to 101-3 acquires one frame of content image from a USB memory or the like (steps S1909 to S1911), and applies parameters to the acquired content image (steps S1912 to S1914).

ここで、各プロジェクタ101−1〜101−3は、投影タイミングの同期を取る(ステップS1915〜S1917)。例えば、各プロジェクタ101−1〜101−3は、同期手段1606により、制御信号の送受信を行い、他のプロジェクタ101の投影準備ができていることを確認し、投影準備が整ったことを確認したときに次の処理に移行する。   Here, the projectors 101-1 to 101-3 synchronize the projection timing (steps S1915 to S1917). For example, each of the projectors 101-1 to 101-3 transmits and receives control signals using the synchronization unit 1606, confirms that the other projectors 101 are ready for projection, and confirms that the projections are ready. Sometimes move on to the next process.

次に、各プロジェクタ101−1〜101−3は、投影画像を更新し(ステップS1918〜S1920)、更新した画像を投影する。   Next, each projector 101-1 to 101-3 updates the projection image (steps S1918 to S1920), and projects the updated image.

上記処理を、マルチ投影が終了するまで、例えば、60fpsで繰り返す(ステップS1921)。ステップS1921で、マルチ投影が終了したと判断すると、プロジェクタ101−1は、他のプロジェクタ101−2、101−3にマルチ投影の終了指示を送信する(ステップS1922)。   The above process is repeated, for example, at 60 fps until the multi-projection is completed (step S1921). If it is determined in step S1921 that multi-projection has ended, projector 101-1 transmits a multi-projection end instruction to other projectors 101-2 and 101-3 (step S1922).

次に、各プロジェクタ101−1〜101−3は、単純投影モードへ移行し(ステップS1923〜S1925)、処理を終了する。   Next, each of the projectors 101-1 to 101-3 shifts to the simple projection mode (steps S1923 to S1925) and ends the process.

上記処理により、画像処理システム100は、PC102によらずにマルチプロジェクションを実現することができる。   With the above processing, the image processing system 100 can realize multi-projection without using the PC 102.

図20は、第3の実施形態に係る画像処理システムの接続形態の例を示す図である。図20の例では、各プロジェクタ101−1〜103−3は、例えば、無線LANや、近距離無線通信等による無線相互通信により制御信号の送受信を行い、例えば、USBメモリ等の外部記憶手段2001から、共通のコンテンツ画像を取得する。尚、図20の接続形態はあくまで一例である。   FIG. 20 is a diagram illustrating an example of a connection form of the image processing system according to the third embodiment. In the example of FIG. 20, each of the projectors 101-1 to 103-3 transmits / receives a control signal by wireless mutual communication such as wireless LAN or short-range wireless communication, for example, an external storage unit 2001 such as a USB memory. To obtain a common content image. Note that the connection form in FIG. 20 is merely an example.

[第4の実施形態]
第1〜第3の実施形態では、複数のプロジェクタ101は、隣接するプロジェクタ101と投影領域の一部が重複するように配置され、各プロジェクタ101の投影画面よりも大きい大画面を投影するマルチプロジェクションを行うものとして説明を行った。
[Fourth Embodiment]
In the first to third embodiments, the plurality of projectors 101 are arranged so that a part of the projection area overlaps with the adjacent projector 101, and multi-projection projects a large screen larger than the projection screen of each projector 101. The explanation was made on the assumption that

本実施の形態では、複数のプロジェクタ101は、隣接するプロジェクタ101と投影領域の一部、又は全部が重複するように配置され、各プロジェクタの投影画面よりも明るい高輝度画面を投影するスタックプロジェクションの例について説明する。   In the present embodiment, a plurality of projectors 101 are arranged so that a part or the whole of the projection area overlaps with adjacent projectors 101, and a stack projection that projects a bright screen that is brighter than the projection screen of each projector. An example will be described.

図21は、第4の実施形態に係る画像処理システムの構成例を示す図である。各機器の構成や、接続形態は、第1の実施形態と同様であるが、各プロジェクタ101の投影領域103−1〜101−3の重なり合う部分が、第1の実施形態よりも大きくなっている。この投影領域が重なり合う部分大きいほど大きな画像を投影できるので、各プロジェクタ101の配置時に留意する。   FIG. 21 is a diagram illustrating a configuration example of an image processing system according to the fourth embodiment. The configuration and connection form of each device are the same as in the first embodiment, but the overlapping portions of the projection areas 103-1 to 101-3 of each projector 101 are larger than those in the first embodiment. . Since a larger image can be projected as the overlapping portion of the projection area is larger, attention should be paid when each projector 101 is arranged.

構成用画像の撮影処理の流れ、及び校正処理の流れは、図6、7に示した第1の実施形態と同様で良い。   The flow of the configuration image photographing process and the flow of the calibration process may be the same as those in the first embodiment shown in FIGS.

また、投影時の処理も基本的に図11に示した第1の実施形態と同様であるが、ステップS1108において、PC102が各プロジェクタ101に送信する画像が横長ではなく、プロジェクタ101の解像度に合った比率のコンテンツ画像を送信する点が異なる。また、画像処理パラメータは、画像の一部ではなく、全部を投影領域に収めるように計算される。   Further, the processing at the time of projection is basically the same as that of the first embodiment shown in FIG. 11, but in step S1108, the image transmitted by the PC 102 to each projector 101 is not horizontally long and matches the resolution of the projector 101. The difference is that content images with different ratios are transmitted. Further, the image processing parameters are calculated so that the entire image is included in the projection area, not a part of the image.

図21は、第4の実施形態に係る投影画像が生成される領域について説明するための図である。この例では、プロジェクタ101−1が投影したパターン2101、プロジェクタ101−2が投影したパターン2102、及びプロジェクタ101−3が投影したパターン2103を含む領域2104にコンテンツ画像を投影するようにパラメータが算出される。   FIG. 21 is a diagram for explaining a region where a projection image according to the fourth embodiment is generated. In this example, the parameters are calculated so that the content image is projected onto an area 2104 including the pattern 2101 projected by the projector 101-1, the pattern 2102 projected by the projector 101-2, and the pattern 2103 projected by the projector 101-3. The

このように、画像処理システム100は、各プロジェクタ101−1〜101−3の投影領域を重ねて、所定の画像処理を行うことにより、マルチプロジェクションのみでなく、スタック投影にも適用することができる。   Thus, the image processing system 100 can be applied not only to multi-projection but also to stack projection by overlapping the projection areas of the projectors 101-1 to 101-3 and performing predetermined image processing. .

100 画像処理システム
101 プロジェクタ(画像投影装置)
101−1 プロジェクタ(第1画像投影装置)
101―2 プロジェクタ(第2画像投影装置)
101−3 プロジェクタ
102 PC
103 投影領域
104 投影面
105 投影手段
106 撮影手段
401 記憶手段
402、1301 画像処理手段
404、1605 制御手段
405、1602 3次元位置計測手段(計測手段)
406、1603 3次元位置統合手段(統合手段)
407、1604 パラメータ算出手段
DESCRIPTION OF SYMBOLS 100 Image processing system 101 Projector (image projection apparatus)
101-1 projector (first image projection apparatus)
101-2 Projector (second image projection device)
101-3 Projector 102 PC
DESCRIPTION OF SYMBOLS 103 Projection area 104 Projection surface 105 Projection means 106 Imaging means 401 Storage means 402, 1301 Image processing means 404, 1605 Control means 405, 1602 Three-dimensional position measurement means (measurement means)
406, 1603 Three-dimensional position integration means (integration means)
407, 1604 Parameter calculation means

特開2009−005044号公報JP 2009-005044 A

八木康史・齋藤英雄編、「コンピュータビジョン最先端ガイド3」、アドコムメディア株式会社、p.5-8、2010年12月発行Yagi Yasushi and Saito Hideo, “Computer Vision Cutting-Edge Guide 3”, Adcom Media Co., Ltd., p.5-8, December 2010 玉木 徹、「姿勢推定と回転行列」、信学技報, IEICE Technical Report、SIP2009-48、SIS2009-23, p.59-64, 2009年9月Toru Tamaki, “Attitude Estimation and Rotation Matrix”, IEICE Technical Report, IEICE Technical Report, SIP2009-48, SIS2009-23, p.59-64, September 2009

Claims (10)

複数の画像投影装置を用いて投影面に所定の画像を投影する画像処理システムであって、
前記複数の画像投影装置の各々は、
前記投影面に画像を投影する投影手段と、
前記投影手段に対して所定の位置に設けられ、前記投影面に投影された画像を撮影する撮影手段と、
を有し、
前記画像処理システムは、
前記複数の画像投影装置の前記投影手段による投影と、前記複数の画像投影装置の前記撮影手段による撮影とを制御する制御手段と、
前記制御によって撮影された画像と、前記複数の画像投影装置の前記投影手段及び前記撮影手段による3次元計測の計測パラメータとに基づいて、前記複数の画像投影装置の各々に対する前記投影面の3次元位置を計測する計測手段と、
前記計測された複数の3次元位置を統合する統合手段と、
を有し、
前記統合された前記投影面の3次元位置に基づいて、前記投影面に前記所定の画像を投影する画像処理システム。
An image processing system that projects a predetermined image on a projection surface using a plurality of image projection devices,
Each of the plurality of image projection devices includes:
Projection means for projecting an image onto the projection plane;
An imaging unit that is provided at a predetermined position with respect to the projection unit and that captures an image projected on the projection plane;
Have
The image processing system includes:
Control means for controlling projection by the projection means of the plurality of image projection apparatuses and photographing by the photographing means of the plurality of image projection apparatuses;
3D of the projection plane for each of the plurality of image projection devices based on the image captured by the control and the measurement unit of the projection unit and the imaging unit of the plurality of image projection devices. A measuring means for measuring the position;
Integration means for integrating the plurality of measured three-dimensional positions;
Have
An image processing system that projects the predetermined image on the projection plane based on the integrated three-dimensional position of the projection plane.
前記複数の画像投影装置の各々は、
自装置の前記投影手段及び前記撮影手段による前記3次元計測の計測パラメータを予め記憶した記憶手段を有する請求項1に記載の画像処理システム。
Each of the plurality of image projection devices includes:
The image processing system according to claim 1, further comprising a storage unit that stores in advance measurement parameters of the three-dimensional measurement performed by the projection unit and the imaging unit of the apparatus itself.
前記計測手段は、
前記複数の画像投影装置のうちの第1画像投影装置が投影した画像を前記第1画像投影装置が撮影した第1の撮影画像と、前記第1画像投影装置の前記3次元計測の計測パラメータとに基づいて、前記第1画像投影装置に対する前記投影面の3次元位置を計測する請求項1又は2に記載の画像処理システム。
The measuring means includes
A first captured image captured by the first image projection device of an image projected by the first image projection device of the plurality of image projection devices, and a measurement parameter of the three-dimensional measurement of the first image projection device; The image processing system according to claim 1, wherein a three-dimensional position of the projection plane with respect to the first image projection apparatus is measured based on the first image projection apparatus.
前記3次元計測の計測パラメータは、前記投影手段と前記撮影手段とによる三角測量の基線長に対応する情報を含み、
前記計測手段は、
前記基線長に対応する情報に基づいて、前記第1画像投影装置に対する前記投影面の座標を計測する請求項3に記載の画像処理システム。
The measurement parameter of the three-dimensional measurement includes information corresponding to a baseline length of triangulation by the projection unit and the photographing unit,
The measuring means includes
The image processing system according to claim 3, wherein coordinates of the projection plane with respect to the first image projection device are measured based on information corresponding to the baseline length.
前記複数の画像投影装置は、前記第1画像投影装置に隣接して配置された第2画像投影装置を含み、
前記統合手段は、
前記第1の撮影画像と、前記第1画像投影装置の前記投影手段が投影した前記画像の少なくとも一部を前記第2画像投影装置の前記撮影手段が撮影した第2の撮影画像とに基づいて、前記第1画像投影装置の座標系と、前記第2画像投影装置の座標系との対応関係を算出する請求項3又は4に記載の画像処理システム。
The plurality of image projection devices include a second image projection device disposed adjacent to the first image projection device,
The integration means includes
Based on the first photographed image and a second photographed image obtained by photographing the at least part of the image projected by the projection unit of the first image projection apparatus by the photographing unit of the second image projection apparatus. 5. The image processing system according to claim 3, wherein a correspondence relationship between the coordinate system of the first image projection device and the coordinate system of the second image projection device is calculated.
前記統合手段は、
Structure from Motionにより、前記対応関係を算出する請求項5に記載の画像処理システム。
The integration means includes
The image processing system according to claim 5, wherein the correspondence relationship is calculated by Structure from Motion.
前記統合手段は、
前記算出された対応関係に基づいて、少なくとも前記第1画像投影装置に対する前記投影面の3次元位置と前記第2画像投影装置に対する前記投影面の3次元位置とを1つの座標系に統合する請求項5又は6に記載の画像処理システム。
The integration means includes
And integrating at least a three-dimensional position of the projection plane with respect to the first image projection apparatus and a three-dimensional position of the projection plane with respect to the second image projection apparatus based on the calculated correspondence. Item 7. The image processing system according to Item 5 or 6.
前記統合手段によって統合された前記投影面の3次元位置に基づいて、前記複数の画像投影装置の各々が投影する画像の画像処理パラメータを算出するパラメータ算出手段を有し、
前記複数の画像投影装置の各々は、
前記算出された画像処理パラメータに基づいて画像処理された画像を、前記投影面に投影する請求項1乃至7のいずれか一項に記載の画像処理システム。
Based on the three-dimensional position of the projection plane integrated by the integration unit, parameter calculation means for calculating image processing parameters of an image projected by each of the plurality of image projection apparatuses;
Each of the plurality of image projection devices includes:
The image processing system according to claim 1, wherein an image subjected to image processing based on the calculated image processing parameter is projected onto the projection plane.
前記複数の画像投影装置の各々は、隣接する画像投影装置と投影領域の少なくとも一部が重複するように配置され、
前記画像処理パラメータは、
前記複数の画像投影装置を用いて前記複数の画像投影装置の各々の投影画面よりも大きい大画面を投影するマルチ投影のための画像処理パラメータ、又は前記複数の画像投影装置を用いて前記複数の画像投影装置の各々の投影画面よりも明るい高輝度画面を投影するスタック投影のための画像処理パラメータである請求項8に記載の画像処理システム。
Each of the plurality of image projection devices is arranged such that at least a part of a projection region overlaps with an adjacent image projection device,
The image processing parameter is:
Image processing parameters for multi-projection for projecting a large screen larger than the projection screen of each of the plurality of image projection devices using the plurality of image projection devices, or the plurality of the plurality of image projection devices using the plurality of image projection devices The image processing system according to claim 8, wherein the image processing parameter is an image processing parameter for stack projection that projects a high-brightness screen brighter than each projection screen of the image projection apparatus.
他の画像投影装置と協働して投影面に所定の画像を投影する画像投影装置であって、
前記投影面に画像を投影する投影手段と、
前記投影手段に対して所定の位置に設けられ、前記投影面に投影された画像を撮影する撮影手段と、
前記投影手段と前記撮影手段とによる3次元計測の計測パラメータを予め記憶した記憶手段と、
自装置及び前記他の画像投影装置の前記投影手段による投影と、自装置及び前記他の画像投影装置の前記撮影手段による撮影とを制御する制御手段と、
前記制御によって撮影された画像と、前記予め記憶した3次元計測の計測パラメータとに基づいて、前記投影面の3次元位置を計測する計測手段と、
前記計測された前記投影面の3次元位置と、前記他の画像投影装置で計測された前記投影面の3次元位置とを統合する統合手段と、
を有し、
前記統合された前記投影面の3次元位置に基づいて、前記投影面に前記所定の画像の少なくとも一部を投影する画像投影装置。
An image projection apparatus that projects a predetermined image on a projection surface in cooperation with another image projection apparatus,
Projection means for projecting an image onto the projection plane;
An imaging unit that is provided at a predetermined position with respect to the projection unit and that captures an image projected on the projection plane;
Storage means for storing in advance measurement parameters of three-dimensional measurement by the projection means and the photographing means;
Control means for controlling projection by the projection means of the own apparatus and the other image projection apparatus and photographing by the photographing means of the own apparatus and the other image projection apparatus;
Measuring means for measuring a three-dimensional position of the projection surface based on an image photographed by the control and the measurement parameter of the three-dimensional measurement stored in advance;
Integration means for integrating the measured three-dimensional position of the projection plane and the three-dimensional position of the projection plane measured by the other image projection apparatus;
Have
An image projection apparatus that projects at least a part of the predetermined image on the projection plane based on the integrated three-dimensional position of the projection plane.
JP2014165894A 2014-08-18 2014-08-18 Image processing system and image projection apparatus Expired - Fee Related JP6458396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014165894A JP6458396B2 (en) 2014-08-18 2014-08-18 Image processing system and image projection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014165894A JP6458396B2 (en) 2014-08-18 2014-08-18 Image processing system and image projection apparatus

Publications (2)

Publication Number Publication Date
JP2016042653A true JP2016042653A (en) 2016-03-31
JP6458396B2 JP6458396B2 (en) 2019-01-30

Family

ID=55592220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014165894A Expired - Fee Related JP6458396B2 (en) 2014-08-18 2014-08-18 Image processing system and image projection apparatus

Country Status (1)

Country Link
JP (1) JP6458396B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016003966T5 (en) 2015-09-01 2018-06-14 Sony Corporation Stacked body
JP2020078070A (en) * 2018-10-31 2020-05-21 中強光電股▲ふん▼有限公司 Image blending method, projection system and processing device thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320652A (en) * 2000-05-11 2001-11-16 Nec Corp Projector
JP2005033703A (en) * 2003-07-11 2005-02-03 Seiko Epson Corp System and method for processing image, projector, program, and information storage medium
JP2005229415A (en) * 2004-02-13 2005-08-25 Nec Viewtechnology Ltd Projector equipped with a plurality of cameras
JP2006140831A (en) * 2004-11-12 2006-06-01 Hitachi Ltd Projector device
JP2009005044A (en) * 2007-06-21 2009-01-08 Mitsubishi Precision Co Ltd Distortion correction and integration method by division imaging, mapping function generation method therefor, distortion correction and integration apparatus by division imaging and mapping function generator therefor
JP2010044255A (en) * 2008-08-14 2010-02-25 Seiko Epson Corp Projection display device and method for correcting image
JP2010533338A (en) * 2007-07-12 2010-10-21 トムソン ライセンシング System and method for recognizing 3D object from 2D image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320652A (en) * 2000-05-11 2001-11-16 Nec Corp Projector
JP2005033703A (en) * 2003-07-11 2005-02-03 Seiko Epson Corp System and method for processing image, projector, program, and information storage medium
JP2005229415A (en) * 2004-02-13 2005-08-25 Nec Viewtechnology Ltd Projector equipped with a plurality of cameras
JP2006140831A (en) * 2004-11-12 2006-06-01 Hitachi Ltd Projector device
JP2009005044A (en) * 2007-06-21 2009-01-08 Mitsubishi Precision Co Ltd Distortion correction and integration method by division imaging, mapping function generation method therefor, distortion correction and integration apparatus by division imaging and mapping function generator therefor
JP2010533338A (en) * 2007-07-12 2010-10-21 トムソン ライセンシング System and method for recognizing 3D object from 2D image
JP2010044255A (en) * 2008-08-14 2010-02-25 Seiko Epson Corp Projection display device and method for correcting image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016003966T5 (en) 2015-09-01 2018-06-14 Sony Corporation Stacked body
JP2020078070A (en) * 2018-10-31 2020-05-21 中強光電股▲ふん▼有限公司 Image blending method, projection system and processing device thereof
JP7449069B2 (en) 2018-10-31 2024-03-13 中強光電股▲ふん▼有限公司 Image blending method, projection system and processing device thereof

Also Published As

Publication number Publication date
JP6458396B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
US10008028B2 (en) 3D scanning apparatus including scanning sensor detachable from screen
CN104835117B (en) Spherical panorama generation method based on overlapping mode
JP6293110B2 (en) Point cloud data acquisition system and method
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
US10063792B1 (en) Formatting stitched panoramic frames for transmission
JP6072849B2 (en) Portable three-dimensional scanner and method for generating a three-dimensional scan result corresponding to an object
US11727648B2 (en) Method and device for synchronizing augmented reality coordinate systems
CA2912859A1 (en) Apparatus and method for three dimensional surface measurement
WO2019061159A1 (en) Method and device for locating faulty photovoltaic panel, and unmanned aerial vehicle
US11789150B2 (en) Localization apparatus and method
JP2017201757A (en) Image acquisition system, image acquisition method, and image processing method
JP2017058843A (en) Image processing apparatus, image processing method, and program for image processing
CN104394316B (en) Camera pan-tilt posture testing system
WO2017179432A1 (en) Image projection method and image projection device for three-dimensional object for projection
US11403499B2 (en) Systems and methods for generating composite sets of data from different sensors
JP6458396B2 (en) Image processing system and image projection apparatus
JP2006197068A (en) Image display and display method
US9019348B2 (en) Display device, image pickup device, and video display system
TW201635250A (en) Indoor monitoring system and method thereof
JP6882147B2 (en) Operation guidance system
JP2006197036A (en) Device and method for stereoscopic image display
JP2021150942A (en) Image capture device and image capture processing method
JP2007221179A (en) Image display device and image display method
JP2015148585A (en) Pattern projection device
JP2014174643A (en) Image processing system, control method therefor, image processing device, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R151 Written notification of patent or utility model registration

Ref document number: 6458396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees