JP2016042653A - Image processing system, and image projection device - Google Patents
Image processing system, and image projection device Download PDFInfo
- Publication number
- JP2016042653A JP2016042653A JP2014165894A JP2014165894A JP2016042653A JP 2016042653 A JP2016042653 A JP 2016042653A JP 2014165894 A JP2014165894 A JP 2014165894A JP 2014165894 A JP2014165894 A JP 2014165894A JP 2016042653 A JP2016042653 A JP 2016042653A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- projector
- unit
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像処理システム、及び画像投影装置に関する。 The present invention relates to an image processing system and an image projection apparatus.
マルチプロジェクション(マルチ投影)は、複数のプロジェクタ(画像投影装置)を用いて大画面を投影する技術であり、単一のディスプレイを用いて大画面を表示する場合と比べて、安価に大画面を実現することができるというメリットがある。 Multi-projection (multi-projection) is a technique for projecting a large screen using a plurality of projectors (image projection devices). Compared to displaying a large screen using a single display, a large screen can be produced at a lower cost. There is a merit that it can be realized.
これに関連する技術として、複数のプロジェクタと複数のステレオカメラを用いて、二次曲線スクリーンに複数のプロジェクタからの映像を任意の始点から歪なく見せる統合装置が知られている(例えば、特許文献1参照)。 As a technology related to this, there is known an integrated device that uses a plurality of projectors and a plurality of stereo cameras to display images from a plurality of projectors on a quadratic curve screen without distortion from an arbitrary starting point (for example, Patent Documents). 1).
特許文献1に開示された技術は、複数のステレオカメラを用いるためコスト面で不利であり、また、複数のプロジェクタと複数のステレオカメラとが別システムになっているため、システムの設置や、設定等に困難を伴っていた。 The technique disclosed in Patent Document 1 is disadvantageous in terms of cost because it uses a plurality of stereo cameras, and since a plurality of projectors and a plurality of stereo cameras are separate systems, system installation and setting It was accompanied by difficulties.
本発明の実施の形態は、上記問題点に鑑みてなされたものであって、複数の画像投影装置を用いて所定の画像を投影する画像処理システムにおいて、システムのコストを抑制しつつ、設置、設定等を容易にする画像処理システムを提供することを目的とする。 An embodiment of the present invention has been made in view of the above problems, and in an image processing system that projects a predetermined image using a plurality of image projection apparatuses, the system is installed while suppressing the cost of the system. An object of the present invention is to provide an image processing system that facilitates setting and the like.
上記課題を解決するため、本発明の一実施形態に係る画像処理システムは、複数の画像投影装置を用いて投影面に所定の画像を投影する画像処理システムであって、前記複数の画像投影装置の各々は、前記投影面に画像を投影する投影手段と、前記投影手段に対して所定の位置に設けられ、前記投影面に投影された画像を撮影する撮影手段と、を有し、前記画像処理システムは、前記複数の画像投影装置の前記投影手段による投影と、前記複数の画像投影装置の前記撮影手段による撮影とを制御する制御手段と、前記制御によって撮影された画像と、前記複数の画像投影装置の前記投影手段及び前記撮影手段による3次元計測の計測パラメータとに基づいて、前記複数の画像投影装置の各々に対する前記投影面の3次元位置を計測する計測手段と、前記計測された複数の3次元位置を統合する統合手段と、を有し、前記統合された前記投影面の3次元位置に基づいて、前記投影面に前記所定の画像を投影する。 In order to solve the above problems, an image processing system according to an embodiment of the present invention is an image processing system that projects a predetermined image on a projection surface using a plurality of image projection devices, and the plurality of image projection devices. Each of which includes a projecting unit that projects an image on the projection surface, and a photographing unit that is provided at a predetermined position with respect to the projection unit and captures the image projected on the projection surface. The processing system includes: a control unit that controls projection by the projection unit of the plurality of image projection devices; and shooting by the shooting unit of the plurality of image projection devices; an image shot by the control; A measuring hand that measures a three-dimensional position of the projection plane with respect to each of the plurality of image projection devices based on measurement parameters of three-dimensional measurement by the projection unit and the photographing unit of the image projection device. If, anda integration means for integrating a plurality of three-dimensional position where the measured, on the basis of the three-dimensional position of the integrated the projection plane, it projects the predetermined image on the projection plane.
本発明の実施の形態によれば、複数の画像投影装置を用いて所定の画像を投影する画像処理システムにおいて、システムのコストを抑制しつつ、設置、設定等を容易にする画像処理システムを提供することができる。 According to an embodiment of the present invention, in an image processing system that projects a predetermined image using a plurality of image projection apparatuses, an image processing system that facilitates installation, setting, etc. while suppressing system cost is provided. can do.
以下に、本発明の実施の形態について、添付の図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the accompanying drawings.
<システムの構成>
図1は一実施形態に係る画像処理システムの構成例を示す図である。画像処理システム100は、複数のプロジェクタ(画像投影装置)101−1、101−2、101−3、及びPC(Personal Computer)102等を有する。尚、以下の説明の中で、複数のプロジェクタ101−1〜101−3のうちの任意のプロジェクタを示す場合「プロジェクタ101」を用いる。また、複数のプロジェクタ101−1〜101−3の数は一例であって、2台以上の他の数であっても良い。
<System configuration>
FIG. 1 is a diagram illustrating a configuration example of an image processing system according to an embodiment. The
プロジェクタ101は、投影面104に投影画像を投影する投影手段105と、投影手段105に対して所定の位置に設けられ、投影面104に投影された投影画像を撮影する撮影手段106とを有する。好ましくは、プロジェクタ101は、投影手段105と撮影手段106とによる3次元計測の計測パラメータを予め記憶した記憶手段を有する。
The
また、プロジェクタ101−1は、例えば図1に示すように、プロジェクタ101−1の投影領域103−1が、プロジェクタ101−2の投影領域103−2の一部と重複するように配置されている。同様に、プロジェクタ101−3は、図1に示すように、プロジェクタ101−3の投影領域103−3が、プロジェクタ101−2の投影領域103−2の一部と重複するように配置されている。つまり、複数のプロジェクタ101−1〜101−3の各々は、隣接するプロジェクタ101と投影領域の少なくとも一部が重複するように配置されている。この配置で、各プロジェクタ101は、他のプロジェクタ101と協働して投影面104に投影対象となる所定の画像を投影する。
Further, for example, as shown in FIG. 1, the projector 101-1 is arranged so that the projection area 103-1 of the projector 101-1 overlaps a part of the projection area 103-2 of the projector 101-2. . Similarly, as shown in FIG. 1, the projector 101-3 is arranged so that the projection area 103-3 of the projector 101-3 overlaps a part of the projection area 103-2 of the projector 101-2. . That is, each of the plurality of projectors 101-1 to 101-3 is arranged so that at least a part of the projection area overlaps with the
PC102は、複数のプロジェクタ101−1〜101−3と、例えば、有線/無線LAN(Local Area Network)、近距離無線、HDMI(登録商標)、USB(Universal Serial Bus)等を用いて接続され、制御信号や、画像データ等の送受信が可能である。PC102は、複数のプロジェクタ101−1〜101−3を用いて、例えば、各プロジェクタ101の投影領域よりも大きい投影画面を投影面104に投影するマルチプロジェクション(マルチ投影)の制御を行う。
The PC 102 is connected to a plurality of projectors 101-1 to 101-3 using, for example, a wired / wireless LAN (Local Area Network), short-range wireless, HDMI (registered trademark), USB (Universal Serial Bus), etc. Control signals, image data, etc. can be transmitted and received. The PC 102 uses a plurality of projectors 101-1 to 101-3, for example, to control multi-projection (multi-projection) in which a projection screen larger than the projection area of each
上記構成において、PC102は、複数のプロジェクタ101−1〜101−3による画像の投影と、投影された画像の撮影を制御する。また、PC102は、撮影した画像と、各プロジェクタ101が予め記憶した3次元計測の計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置を算出する。さらに、PC102は、算出された各プロジェクタ101に対する投影面104の3次元位置を1つの座標系に統合する。
In the above configuration, the PC 102 controls projection of images by the plurality of projectors 101-1 to 101-3 and shooting of the projected images. Further, the PC 102 calculates the three-dimensional position of the
また、PC102は、統合した投影面104の3次元位置に基づいて、各プロジェクタ101の画像処理パラメータを算出し、算出したパラメータを各プロジェクタ101に通知する。各プロジェクタ101は、通知された画像処理パラメータに基づいて、投影対象となる所定の画像に画像処理(例えば、投影部分の切出し、変形、明るさ調整等)を行い、画像処理後の画像を投影面104に投影する。
Further, the PC 102 calculates image processing parameters of each
上記処理により、投影対象となる所定の画像が投影面104にマルチ投影される。
Through the above processing, a predetermined image to be projected is multi-projected on the
このように、本実施形態に係る画像処理システム100は、各プロジェクタ101の投影手段105、撮影手段106、及び予め記憶された3次元計測の計測パラメータに基づいて、各プロジェクタ101に対する投影面104の3次元位置を算出する。また、画像処理システム100は、各プロジェクタに対する投影面104の3次元位置を1つの座標系に統合することにより、投影面104の3次元位置を特定する。
As described above, the
これにより、本実施形態に係る画像処理システム100は、ステレオカメラや、投影面104全体を撮影可能な広角で高解像度なカメラ等の高価な撮影手段、及びカメラの設定、調整等の作業によらずに、投影面104の3次元位置を特定することができる。従って、本実施形態に係る画像処理システム100によれば、複数のプロジェクタ(画像投影装置)101を用いて所定の画像を投影する画像処理システム100において、システムのコストを抑制しつつ、設置、設定等を容易にすることができる。
Thereby, the
尚、図1のシステム構成はあくまで一例であり、本発明の範囲を限定するものではない。例えば、画像処理システム100は、複数のプロジェクタ101の投影画像を重ね合わせて、各プロジェクタ101の投影画面よりも明るい高輝度画面を投影するスタック投影を行うものであっても良い。
Note that the system configuration in FIG. 1 is merely an example, and does not limit the scope of the present invention. For example, the
また、各プロジェクタ101の投影手段105と撮影手段106とによる3次元計測の計測パラメータは、例えば、PC102、外部サーバ、外部記憶装置等が予め記憶しているものであっても良い。
Further, the measurement parameters of the three-dimensional measurement by the
さらに、PC102の機能は、専用の制御装置等で実現されるものであっても良いし、1つ以上のプロジェクタ101によって実現されるものであっても良い。
Furthermore, the function of the
<ハードウェア構成>
(プロジェクタのハードウェア構成)
図2は、一実施形態に係るプロジェクタのハードウェア構成例を示す図である。プロジェクタ101は、一般的なコンピュータの構成を含み、例えば、CPU(Central Processing Unit)201、メモリ202、ストレージ部203、通信I/F(Interface)204、外部I/F205、光源206、表示素子207、投影レンズ208、モーター209、撮像レンズ210、撮像素子211、バス212等を有する。また、プロジェクタ101は、画像処理を高速化する画像処理部21等を有していても良い。
<Hardware configuration>
(Hardware configuration of projector)
FIG. 2 is a diagram illustrating a hardware configuration example of the projector according to the embodiment. The
CPU201は、メモリ202やストレージ部203等からプログラムやデータを読出し、処理を実行することでプロジェクタ101が備える各機能を実現する演算装置である。メモリ202は、例えば、CPU201のワークエリア等として使用されるRAM(Random Access Memory)や、プロジェクタ101の起動プログラム等を格納するROM(Read Only Memory)等を含む。
The
ストレージ部203は、プロジェクタ101のプログラムや、各種データ等を記憶する記憶手段であり、例えば、フラッシュROMや、SSD(Solid State Drive)、HDD(Hard Disk Drive)等で構成される。
The
通信I/F204は、他のプロジェクタ101や、PC102等と通信を行うためのインタフェースであり、例えば、有線/無線LAN、近距離無線通信、LTE(Long Term Evolution)等の通信インタフェースを含む。
The communication I /
外部I/F205は、他のプロジェクタ101や、PC102等との画像データ等の送受信を行うためのインタフェースである。外部I/F205は、例えば、USB(Universal Serial Bus)、HDMI等のインタフェースを含む。
An external I /
光源206は、プロジェクタ101が画像を投影するための光源であり、例えば、ランプ、レーザー、LED(Light Emitting Diode)等の光源を含む。
The
表示素子207は、例えば、DMD(Digital Mirror Device)214、カラーホイール215等を含む。DMD214は、多数の微小鏡面(マイクロミラー)を平面に配置した表示素子である。カラーホイール215は、例えば、赤青、緑の3色に色分けされた円板等を高速で回転させ、透過させることにより色づけを行う。
The
光源206から出た光は、投影対象の画像によって、画素毎にその向きが制御されるDMD214で反射し、カラーホイール215で色づけされ、投影レンズ208を通して投影面104に照射されて像を結ぶ。モーター209は、投影レンズ208を駆動するモーターで、ズーム、フォーカス等の調整を行う。尚、DMD214及びカラーホイール215は、表示素子207の一例である。表示素子207は、例えば、LCD(Liquid Crystal Display)等の他の表示素子であっても良い。
The light emitted from the
投影面104に投影された画像は、撮像レンズ210及び撮像素子211によって撮像され、撮像された画像はメモリ202、ストレージ部203等に記憶される。
The image projected on the
また、プロジェクタ101は、プロジェクタ101が投影する画像の画像処理を行うための画像処理部213を有していても良い。画像処理部213は、例えば、画像処理用のプロセッサ、DSP(Digital Signal Processor)、又は専用のハードウェア等によって実現される。また、プロジェクタ101は、画像処理部213を有さずに、例えば、CPU201で動作するプログラムによって、投影する画像の画像処理を行うものであっても良い。
In addition, the
バス212は、上記各構成に接続され、アドレス信号、データ信号、各種制御信号等を伝達する。
The
(PCのハードウェア構成)
図3は、一実施形態に係るPCのハードウェア構成例を示す図である。PC102は、一般的なコンピュータの構成を有しており、例えば、CPU301、RAM302、ROM303、ストレージ部304、通信I/F305、外部I/F306、表示装置307、入力装置308、バス309等を有する。
(PC hardware configuration)
FIG. 3 is a diagram illustrating a hardware configuration example of a PC according to an embodiment. The
CPU301は、ROM303やストレージ部304等からプログラムやデータをRAM302上に読み出し、処理を実行する演算装置である。RAM302は、CPU301のワークエリア等として用いられる不揮発性のメモリである。ROM303は、例えば、PC102の起動時に実行されるBIOS(Basic Input / Output System)や、各種の設定等を記憶する不揮発性のメモリであり、例えば、フラッシュROM等で構成される。
The
ストレージ部304は、例えば、OS(Operating System)、アプリケーションプログラム、各種データ等を記憶する不揮発性の記憶装置であり、例えば、HDD、SSD等で構成される。
The
通信I/F305は、PC102を複数のプロジェクタ101−1〜101−3に接続して、通信を行うためのインタフェースあり、例えば、有線/無線LAN、近距離無線通信、LTE(Long Term Evolution)等の通信インタフェースを含む。
A communication I /
外部I/F306は、複数のプロジェクタ101−1〜101−3等との画像データ等の送受信を行うためのインタフェースである。外部I/F306は、例えば、USB(Universal Serial Bus)、HDMI等のインタフェースを含む。
The external I /
表示装置307は、例えば、LCDディスプレイ等により実現され、PC102による処理結果等を表示する。入力装置308は、例えば、キーボード、マウス、タッチパネル等により実現され、PC102に各操作信号を入力するために用いられる。バス309は、上記各構成に接続され、アドレス信号、データ信号、及び各種制御信号等を伝達する。
The
<機能構成>
[第1の実施形態]
図4は、第1の実施形態に係る画像処理システムの機能構成図である。
<Functional configuration>
[First Embodiment]
FIG. 4 is a functional configuration diagram of the image processing system according to the first embodiment.
(プロジェクタの機能構成)
図4において、複数のプロジェクタ101−1〜101−3は同様の構成を有しているものとする。各プロジェクタ101は、投影手段105、撮影手段106、記憶手段401、画像処理手段402、通信手段403等を有する。
(Functional configuration of projector)
In FIG. 4, a plurality of projectors 101-1 to 101-3 have the same configuration. Each
投影手段105は、投影面104に画像を投影するための手段であり、例えば、図2の光源206、表示素子207、投影レンズ208等を含む。
The
撮影手段106は、投影面104に投影された画像を撮影するための手段であり、例えば、図2の撮像レンズ210、撮像素子211等を含む。本実施形態では、撮影手段106は、投影手段105に対して所定の位置に設けられている。また、撮影手段106は、投影手段105が投影面104に投影した画像を撮影できるものであれば、投影面104の全体を撮影できなくても良い。尚、本実施形態では、撮影手段106として単眼カメラを想定しているが、本発明の範囲を限定するものではない。
The photographing
記憶手段401は、投影手段105と撮影手段106とによる3次元計測の計測パラメータを予め記憶した記憶手段であり、例えば、図2のストレージ部203、メモリ202等に含まれる。尚、3次元計測の計測パラメータについては後述する。
The
画像処理手段402は、例えば、記憶手段401に記憶した画像処理パラメータ、又はPC102や他のプロジェクタ101等から通知された画像処理パラメータを用いて、プロジェクタ101が投影する画像に画像処理(加工)を行う手段である。画像処理手段402は、例えば、図2の画像処理部213や、図2のCPU201で動作するプログラム等によって実現される。
For example, the
通信手段403は、PC102や、他のプロジェクタ101等と制御データ、画像データ等の送受信を行うための手段であり、例えば、図2の通信I/F204、外部I/F205等を含む。
The
上記構成により、プロジェクタ101は、投影手段105により投影面104に画像を投影し、また、投影された投影画像を撮影手段106により撮影することができる。また、撮影手段106は、投影手段105に対して所定の位置に設けられており、記憶手段401には、投影手段105と撮影手段106による3次元計測の計測パラメータが記憶されている。これにより、画像処理システム100は、投影手段105と撮影手段106と記憶手段401に予め記憶された計測パラメータとに基づいて、プロジェクタ101に対する投影面104の3次元位置(例えば、座標)を計測することができる。
With the above configuration, the
(PCの機能構成)
PC102は、制御手段404、3次元位置計測手段405、3次元位置統合手段406、パラメータ算出手段407、通信手段408、記憶手段409等を有する。
(PC functional configuration)
The
制御手段404は、複数のプロジェクタ101−1〜101−3による画像の投影と、複数のプロジェクタ101−1〜101−3による投影面104に投影された画像の撮影を制御する。また、制御手段404は、複数のプロジェクタ101−1〜101−3を用いて、投影面104に所定の画像(例えば、大画面の画像)を投影する制御を行う。
The
3次元位置計測手段(計測手段)405は、制御手段404の制御によって撮影された複数の画像と、各プロジェクタ101の記憶手段401に予め記憶された計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置を計測する。記憶手段401に予め記憶された計測パラメータは、例えば、投影手段105と撮影手段106とによる三角測量の基線長に対応する情報を含み、3次元位置計測手段405は、この基線長に対応する情報に基づいて投影面104の3次元座標を計測する。
A three-dimensional position measuring unit (measuring unit) 405 projects to each
3次元位置統合手段(統合手段)406は、3次元位置計測手段405によって計測された複数の3次元位置を統合する。例えば、3次元位置統合手段406は、各プロジェクタ101に対する投影面104の3次元位置を1つの座標系に統合する。
A three-dimensional position integration unit (integration unit) 406 integrates a plurality of three-dimensional positions measured by the three-dimensional
パラメータ算出手段(算出手段)407は、3次元位置統合手段406によって統合された投影面104の3次元位置に基づいて、各プロジェクタ101が投影する画像の画像処理パラメータ(補正パラメータ)を算出する。
A parameter calculation unit (calculation unit) 407 calculates an image processing parameter (correction parameter) of an image projected by each
通信手段408は、パラメータ算出手段407によって算出された画像処理パラメータを各プロジェクタ101に送信する手段であり、例えば、図3の通信I/F305、外部I/F306等を含む。また、通信手段408は、各プロジェクタ101に対する制御コマンドの送受信、各プロジェクタ101が撮影した画像の受信、及び各プロジェクタ101への投影対象となる画像の送信等も行う。
The
記憶手段409は、例えば、制御手段404の制御により各プロジェクタ101が撮影した複数の画像、3次元位置統合手段406が統合した投影面104の3次元位置、パラメータ算出手段407が算出した画像処理パラメータ等の各種情報を記憶する。
The
尚、制御手段404、3次元位置計測手段405、3次元位置統合手段406、パラメータ算出手段407、記憶手段409等は、例えば、図3のCPU301等で動作するプログラムによって実現される。
Note that the
<処理の流れ>
(校正用画像の撮影処理)
図5は、第1の実施形態に係る校正用画像の撮影処理の流れを示すフローチャートである。画像処理システム100は、例えば、PC102に対するユーザ操作等に応じて、校正用の画像の撮影処理を開始する。
<Process flow>
(Capturing image for calibration)
FIG. 5 is a flowchart illustrating the flow of the calibration image capturing process according to the first embodiment. For example, the
尚、撮影処理を開始する前に、複数のプロジェクタ101−1〜101−3は、例えば、図1に示すように、隣接したプロジェクタ101の投影領域の一部が重複するように配置されているものとする。また、複数のプロジェクタ101−1〜101−3の位置関係、例えば、左からプロジェクタ101−1、プロジェクタ101−2、プロジェクタ101−3の順に並べられていること等は、予め設定又は検知されているものとする。
Before starting the shooting process, the plurality of projectors 101-1 to 101-3 are arranged so that, for example, a part of the projection area of the
画像処理システム100の校正用の画像の撮影処理が開始すると、PC102は、複数のプロジェクタ101−1〜101−3に、校正用画像の撮影処理の開始を指示する第1撮影指示を送信する(ステップS501)。
When the calibration processing image capturing process of the
第1撮影指示に応じて、プロジェクタ101−1は、校正用のパターン画像を投影し(ステップS502)、プロジェクタ101−2、101−3は、光源206を消灯する(ステップS503、S504)。 In response to the first shooting instruction, the projector 101-1 projects a pattern image for calibration (step S502), and the projectors 101-2 and 101-3 turn off the light source 206 (steps S503 and S504).
このときに、投影面104に投影されるパターン画像の例を図6(a)に示す。パラメータの補正に使用するパターン画像としては様々なものがあるが、ここでは、図6(a)に示すような、円形パターンを縦横に並べたパターン画像601を用いるものとする。
An example of the pattern image projected onto the
図6(a)の状態で、プロジェクタ101−1は、プロジェクタ101−1の投影手段105によってパターン画像601が投影された投影面104を撮影する(ステップS505)。このとき、プロジェクタ101−1が撮影した画像には、プロジェクタ101−1が投影したパターン画像601が含まれる。プロジェクタ101−1は、ステップS505で撮影した画像をPC102に送信する(ステップS506)。
In the state of FIG. 6A, the projector 101-1 captures the
また、プロジェクタ101−2は、プロジェクタ101−1の投影手段105によってパターン画像601が投影された投影面を撮影する(ステップS507)。このとき、プロジェクタ101−1が撮影した画像には、プロジェクタ101−1が投影したパターン画像601のうち、プロジェクタ101−1とプロジェクタ101−1の共通領域602の校正パターンが含まれる。プロジェクタ101−2は、ステップS507で撮影した画像をPC102に送信する(ステップS508)。尚、このとき、プロジェクタ101−3の撮影エリアには校正用のパターン画像601が含まれないので、プロジェクタ101−3は、投影面104の撮影を行わなくても良い。
In addition, the projector 101-2 captures the projection surface on which the
PC102は、プロジェクタ101−1及びプロジェクタ101−2から画像を受信すると(ステップS509)、複数のプロジェクタ101−1〜101−3に、第2撮影指示を送信する(ステップS510)。
When the
第2撮影指示に応じて、プロジェクタ101−2は、校正用のパターン画像を投影し(ステップS512)、プロジェクタ101−1、101−3は、光源206を消灯する(ステップS511、S513)。 In response to the second shooting instruction, the projector 101-2 projects a calibration pattern image (step S512), and the projectors 101-1 and 101-3 turn off the light source 206 (steps S511 and S513).
このときに、投影面104に投影されるパターン画像の例を図6(b)に示す。図6(b)の状態で、プロジェクタ101−1は、プロジェクタ101−2の投影手段105によってパターン画像601が投影された投影面104を撮影する(ステップS514)。このとき、プロジェクタ101−1が撮影した画像には、プロジェクタ101−2が投影したパターン画像601のうち、プロジェクタ101−1とプロジェクタ101−1の共通領域602の校正パターンが含まれる。プロジェクタ101−1は、ステップS514で撮影した画像をPC102に送信する(ステップS515)。
An example of the pattern image projected onto the
また、プロジェクタ101−2は、プロジェクタ101−2の投影手段105によってパターン画像601が投影された投影面を撮影する(ステップS516)。このとき、プロジェクタ101−2が撮影した画像には、プロジェクタ101−2が投影したパターン画像601が含まれる。プロジェクタ101−2は、ステップS516で撮影した画像をPC102に送信する(ステップS517)。
In addition, the projector 101-2 captures the projection surface on which the
さらに、プロジェクタ101−3は、プロジェクタ101−2の投影手段105によってパターン画像601が投影された投影面104を撮影する(ステップS518)。このとき、プロジェクタ101−3が撮影した画像には、プロジェクタ101−2が投影したパターン画像601のうち、プロジェクタ101−2とプロジェクタ101−3の共通領域603の校正パターンが含まれる。プロジェクタ101−3は、ステップS518で撮影した画像をPC102に送信する(ステップS519)。
Further, the projector 101-3 captures the
PC102は、プロジェクタ101−1〜101−3から画像を受信すると(ステップS520)、複数のプロジェクタ101−1〜101−3に、第3撮影指示を送信する(ステップS521)。
When the
第3撮影指示に応じて、プロジェクタ101−1、101−2は、光源206を消灯し(ステップS522、S523)、プロジェクタ101−3は、校正用のパターン画像を投影する(ステップS524)。 In response to the third shooting instruction, the projectors 101-1 and 101-2 turn off the light source 206 (steps S <b> 522 and S <b> 523), and the projector 101-3 projects a calibration pattern image (step S <b> 524).
このときに、投影面104に投影されるパターン画像の例を図6(c)に示す。図6(c)の状態で、プロジェクタ101−2は、プロジェクタ101−3の投影手段105によってパターン画像601が投影された投影面104を撮影する(ステップS525)。このとき、プロジェクタ101−2が撮影した画像には、プロジェクタ101−3が投影したパターン画像601のうち、プロジェクタ101−2とプロジェクタ101−3の共通領域603の校正パターンが含まれる。プロジェクタ101−2は、ステップS525で撮影した画像をPC102に送信する(ステップS526)。
An example of the pattern image projected on the
また、プロジェクタ101−3は、プロジェクタ101−3の投影手段105によってパターン画像601が投影された投影面を撮影する(ステップS527)。このとき、プロジェクタ101−3が撮影した画像には、プロジェクタ101−3が投影したパターン画像601が含まれる。プロジェクタ101−3は、ステップS527で撮影した画像をPC102に送信する(ステップS528)。尚、このとき、プロジェクタ101−1の撮影エリアには校正用のパターン画像601が含まれないので、プロジェクタ101−1は投影面104の撮影を行わなくても良い。
In addition, the projector 101-3 captures a projection surface on which the
PC102は、プロジェクタ101−1、102−3から画像を受信し(ステップS529)、校正用の画像の撮影処理を終了する。
The
(校正処理)
画像処理システム100は、校正用の画像の撮影処理が終了すると、校正処理を行う。
(Calibration process)
The
図7は、第1の実施形態に係る校正処理の一例のフローチャートである。 FIG. 7 is a flowchart of an example of a calibration process according to the first embodiment.
校正処理を開始すると、3次元位置計測手段405は、図5の処理で取得した画像と、各プロジェクタ101が予め記憶している計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置(座標)を算出する(ステップS701)。尚、3次元位置の算出方法については後述する。
When the calibration process is started, the three-dimensional
次に、3次元位置統合手段406は、隣接するプロジェクタの座標系の対応関係を算出する(ステップS702)。例えば、3次元位置統合手段406は、プロジェクタ101−1の座標系とプロジェクタ101−2の座標系の対応関係を算出する。また、3次元位置統合手段406は、プロジェクタ101−2の座標系とプロジェクタ101−3の座標系の対応関係を算出する。
Next, the three-dimensional
さらに、PC102の3次元位置統合手段406は、ステップS802で算出された対応関係に基づいて、投影面104の複数の3次元位置を1つの座標系に統合する(ステップS703)。
Further, the three-dimensional
続いて、パラメータ算出手段407は、ステップS803で統合された3次元位置に基づいて、複数のプロジェクタ101−1〜101−3の各々が投影する画像の画像処理パラメータを算出する(ステップS704)。また、PC102は、算出された画像処理パラメータを、通信手段408を介して、複数のプロジェクタ101−1〜101−3に送信する(ステップS705)。
Subsequently, the
複数のプロジェクタ101−1〜101−3は、受信した画像処理パラメータをそれぞれ記憶手段401に記憶し(ステップS706〜S708)、校正処理を終了する。 Each of the plurality of projectors 101-1 to 101-3 stores the received image processing parameters in the storage unit 401 (steps S706 to S708), and ends the calibration process.
(3次元座標の計測について)
ここで、3次元位置計測手段405による3次元位置の計測について説明する。また、説明に先立って記号の定義を行う。
(Measurement of 3D coordinates)
Here, the measurement of the three-dimensional position by the three-dimensional position measuring means 405 will be described. Prior to explanation, symbols are defined.
図8は、第1の実施形態に係る記号の定義について説明するための図である。 FIG. 8 is a diagram for explaining the definition of symbols according to the first embodiment.
図8(a)において、プロジェクタ101−1の系で3次元計測する各円形パターンの重心の3次元座標のうち、プロジェクタ101−1でのみ撮影される点の座標群をP1s(i)とする。また、プロジェクタ101−1の系で3次元計測する各円形パターンの重心の3次元座標のうち、プロジェクタ101−1、及び101−2で共に撮影される共通領域602の点の座標群をP1m(j)とする。
In FIG. 8A, among the three-dimensional coordinates of the center of gravity of each circular pattern that is three-dimensionally measured by the system of the projector 101-1, a coordinate group of points photographed only by the projector 101-1 is P1s (i). . In addition, among the three-dimensional coordinates of the center of gravity of each circular pattern that is three-dimensionally measured by the system of the projector 101-1, a coordinate group of points of the
また、図7(b)において、プロジェクタ101−2の系で3次元計測する各円形パターンの重心の3次元座標のうち、プロジェクタ101−2でのみ撮影される点の座標群をP2s(k)とする。また、プロジェクタ101−2の系で3次元計測するパターンの重心の3次元座標のうち、プロジェクタ101−1、101−2で共に撮影される共通領域603の点の座標群をP2m(l)とする。
Also, in FIG. 7B, among the three-dimensional coordinates of the center of gravity of each circular pattern that is three-dimensionally measured by the projector 101-2 system, a coordinate group of points that are photographed only by the projector 101-2 is P2s (k). And In addition, among the three-dimensional coordinates of the center of gravity of the pattern that is three-dimensionally measured by the projector 101-2 system, the coordinate group of the points in the
さらに、図7(a)において、プロジェクタ101−1で投影された共通領域602の点の座標群をプロジェクタ101−2の座標系で表現したものをP2m(j)とする。同様に、図8(b)において、プロジェクタ101−2で投影された共通領域602の点の座標群をプロジェクタ101−1の座標系で表現したものをP1m(l)とする。
Further, in FIG. 7A, let P2m (j) be a coordinate group of points in the
つまり、P1m(j)とP2m(j)は、同一の点群を異なる座標系で表現したものであり、P1m(l)とP2m(l)も、同一の点群を異なる座標系で表現したものである。 That is, P1m (j) and P2m (j) represent the same point group in different coordinate systems, and P1m (l) and P2m (l) also represent the same point group in different coordinate systems. Is.
3次元位置計測手段405は、プロジェクタ101の投影手段105が投影したパターン画像を、プロジェクタ101の撮影手段106が撮影した画像を用いて、プロジェクタ101に対する投影面104の3次元位置を算出(計測)する。例えば、3次元位置計測手段405は、プロジェクタ101−1の投影手段105が投影したパターン画像を、プロジェクタ101−1の撮影手段が撮影した画像を用いて、上記のP1s(i)、P1m(j)を求める。尚、投影面104に投影されたパターン画像の3次元座標は、投影面104の3次元位置を示す情報の一例である。
The three-dimensional
パターン画像の3次元座標は、プロジェクタ101−1の投影手段105からの投影光と、投影面からの反射光を撮影手段106で受光する角度の差により三角測量により求めることができる。尚、ここでは、座標原点をプロジェクタ101−1の中心に置き、投影手段105の視線中心の向きをz軸とする座標系で3次元座標を表現するものとする。
The three-dimensional coordinates of the pattern image can be obtained by triangulation from the difference between the projection light from the
同様にして、プロジェクタ101−2の投影手段105が投影したパターン画像を、プロジェクタ101−2の撮影手段106が撮影した画像を用いて、プロジェクタ101−2に対する投影面104の3次元座標であるP2s(k)、P2m(l)を求める。このとき、座標原点はプロジェクタ101−2の中心に置き、投影手段105の視線中心の向きをz軸とした座標系とする。
Similarly, a pattern image projected by the
さらに、同様の手法により、他のプロジェクタ101、例えば、プロジェクタ101−3に対する投影面104の3次元座標も算出する。尚、この段階では、各プロジェクタ101が投影した校正パターンの間の座標関係は不明である。
Further, the three-dimensional coordinates of the
図9は、第1の実施形態に係る3次元座標の算出について説明するための図である。プロジェクタ101の記憶手段401には、プロジェクタ101の投影手段105と撮影手段106とによる3次元計測の計測パラメータが予め記憶されている。この計測パラメータには、例えば、投影光学系の内部パラメータ、撮影光学系の内部パラメータ、及び投影手段105と撮影手段106の外部パラメータ等が含まれる。
FIG. 9 is a diagram for explaining calculation of three-dimensional coordinates according to the first embodiment. The
例えば、投影光学系の内部パラメータとして、表示素子207と投影レンズ208との間の距離、投影するパターン画像の各円形パターンと表示素子207上の物理的な位置との関係等を、予め実測等により求め、記憶手段401に記憶しておく。
For example, as the internal parameters of the projection optical system, the distance between the
また、撮影光学系の内部パラメータとして、撮像レンズ210と撮像素子211との距離や、撮影した画像の座標と撮像素子211上の物理的な位置との関係等を、予め実測等により求め、記憶手段401に記憶しておく。
Further, as internal parameters of the imaging optical system, the distance between the
さらに、外部パラメータとして、表示素子207と撮像素子211との間の距離等の三角測量の基線長に対応する情報を、予め実測等により求め、記憶手段401に記憶しておく。
Further, information corresponding to the baseline length of triangulation such as the distance between the
3次元位置計測手段405は、記憶手段401に記憶した投影光学系の内部パラメータ、撮像光学系の内部パラメータ、及び三角測量の基線長に対応する情報に基づいて、プロジェクタ101に対する投影面104の3次元座標を計測する。
The three-dimensional
投影面104までの距離は、表示素子207から投影レンズ208の中心を通る光線と、その反射光が撮像レンズ210の中心を通って撮像素子211に至る光線と、表示素子207と撮像素子211との間の線と、の三角形により計測することができる。例えば、パターン画像の円形パターンの重心の表示素子207上の位置と、対応する円形パターンの重心の撮像素子211上の位置と、上記の基線長に対応する情報と、を用いた三角測量により、投影面104までの距離を計測することができる。
The distance to the
本実施形態では、投影手段105に対して所定の位置に撮影手段106が設けられているので、3次元測量の計測パラメータを予め測定又は計算して、例えば、工場出荷前等に、プロジェクタ101の記憶手段401に記憶しておくことができる。
In the present embodiment, since the photographing
(3次元位置の統合について)
3次元位置統合手段406は、隣接するプロジェクタ101で共通に撮影される校正パターン、例えば、図8のP1m(j)及びP2m(j)、及びP1m(l)及びP2m(l)等を用いて、隣接するプロジェクタ101間の座標系の対応関係を算出する。
(About integration of 3D position)
The three-dimensional
例えば、図8(a)のP1m(j)をプロジェクタ101−2の座標系表現であるP2m(j)で表す場合について考える。この場合、プロジェクタ101−1が投影したパターンP1m(j)を、プロジェクタ101−1で撮影した画像と、プロジェクタ101−2とで撮影した画像とを用いて、SfM(Structure from Motion)により算出することができる。SfMは、多視点から撮影した画像を用いてシーンの3次元構造を推定する公知技術である(例えば、非特許文献1参照)。これにより、プロジェクタ101−1が投影した図8(a)のP1m(j)をプロジェクタ101−2の座標系表現であるP2m(j)で表すことができる。 For example, consider the case where P1m (j) in FIG. 8A is represented by P2m (j) which is the coordinate system representation of the projector 101-2. In this case, the pattern P1m (j) projected by the projector 101-1 is calculated by SfM (Structure from Motion) using the image photographed by the projector 101-1 and the image photographed by the projector 101-2. be able to. SfM is a known technique for estimating the three-dimensional structure of a scene using images taken from multiple viewpoints (see, for example, Non-Patent Document 1). Accordingly, P1m (j) in FIG. 8A projected by the projector 101-1 can be represented by P2m (j) which is a coordinate system representation of the projector 101-2.
同様に、図8(b)のP2m(l)をプロジェクタ101−1の座標系表現であるP1m(l)で表す場合について考える。この場合、プロジェクタ101−2が投影したパターンP2m(l)を、プロジェクタ101−1及び101−2が撮影した画像より、SfMにより、P1m(l)を算出することができる。これにより、プロジェクタ101−2が投影した図8(b)のP2m(l)をプロジェクタ101−1の座標系表現であるP1m(l)で表すことができる。 Similarly, consider the case where P2m (l) in FIG. 8B is represented by P1m (l) which is the coordinate system representation of the projector 101-1. In this case, P1m (l) can be calculated by SfM from the image captured by the projectors 101-1 and 101-2 for the pattern P2m (l) projected by the projector 101-2. Thus, P2m (l) in FIG. 8B projected by the projector 101-2 can be represented by P1m (l) which is a coordinate system representation of the projector 101-1.
次に、3次元位置統合手段406は、個々の座標系の3次元位置を1つの座標系に統合する。例えば、SfMで算出されたP2m(j)とP1m(j)、並びにSfMで算出されたP2m(l)とP2m(l)は同一点であるから、これらの間の関係を表す回転ベクトルRと併進ベクトルtを求めることができる(例えば、非特許文献2参照)。
Next, the three-dimensional
R、tが求められれば、全ての3次元点を同一座標系で表現することができる。この3次元点は同一平面上に乗るから、その平面を推定することができる。例えば、3次元点のうちの1点を(x0、y0、z0)とおくと、平面ax+by+cz+d=0までの距離は、|ax0+by0+cz0+d|/sqrt(a^2+b^2+c^2)である。従って、全点の距離の2乗和を最小にするa、b、c、dが求める平面の式となる。 If R and t are obtained, all three-dimensional points can be expressed in the same coordinate system. Since these three-dimensional points are on the same plane, the plane can be estimated. For example, if one of the three-dimensional points is (x0, y0, z0), the distance to the plane ax + by + cz + d = 0 is | ax0 + by0 + cz0 + d | / sqrt (a ^ 2 + b ^ 2 + c ^ 2). Therefore, a, b, c, d that minimizes the sum of squares of the distances of all points is a plane expression to be obtained.
尚、ここではプロジェクタ101が2台の場合について説明を行ったが、プロジェクタが3台に増えた場合でも、同様の手法により座標系の統合が可能である。
Here, the case where there are two
上記の処理で求められた平面の法線方向からの視点で個々に投影されたパターン画像(2次元の校正パターン画像)を合成することができる。 Pattern images (two-dimensional calibration pattern images) individually projected from the viewpoint from the normal direction of the plane obtained by the above processing can be synthesized.
図10は、第1の実施形態に係る合成されたパターン画像の例を示す図である。図10(a)は、合成されたパターン画像を示している。また、図10(b)は、プロジェクタ101−1によって投影されたパターン1001、プロジェクタ101−2によって投影されたパターン1002、プロジェクタ101−3によって投影されたパターン1003を区別して表示した図である。
FIG. 10 is a diagram illustrating an example of a combined pattern image according to the first embodiment. FIG. 10A shows a combined pattern image. FIG. 10B is a diagram in which the
パラメータ算出手段407は、この合成されたパターン画像に基づいて画像処理パラメータを算出する。
The
例えば、パラメータ算出手段407は、各プロジェクタ101毎に、校正用画像の円形パターンの各々を線形に外挿し、各プロジェクタ101の投影可能領域の外周座標を算出する。
For example, the
また、パラメータ算出手段407は、算出された各プロジェクタ101の投影可能領域の論理和により、複数のプロジェクタ101−1〜101−3による投影可能領域を求める。
Further, the
さらに、パラメータ算出手段407は、複数のプロジェクタ101−1〜101−3による投影可能領域に、投影対象となる所定の画像をマッピングする。例えば、パラメータ算出手段407は、投影対象となる所定の画像のアスペクト比を保ったまま、複数のプロジェクタ101−1〜101−3による投影可能領域に、投影対象となる所定の画像を最大の大きさでマッピングする。パラメータ算出手段407は例えば、図10(b)の領域1004の範囲内に投影対象となる所定の画像が、アスペクト比を保ったまま収まるように幾何補正、配置を行う。
Furthermore, the
さらにまた、パラメータ算出手段407は、隣接するプロジェクタ101間で投影領域が重複する重複領域を、各プロジェクタ101の投影可能領域より算出し、重複領域の明るさ補正のパラメータを算出する。これは、単純にプロジェクタ101−1〜101−3の画像を重ね合わせると、重複領域が明るくなってしまうためである。
Furthermore, the
例えば、上記のような処理により、パラメータ算出手段407は、投影対象となる所定の画像のうち、各プロジェクタ101が投影する領域の抽出、幾何補正、重複領域の明るさ補正等に必要な画像処理パラメータを算出する。
For example, through the processing described above, the
尚、ここでは、パターン画像を合成する場合について説明を行ったが、パラメータ算出手段407は、円形パターンの重心座標を用いて上記画像処理パラメータを算出するものであっても良い。
Here, the case of synthesizing pattern images has been described. However, the
(投影処理)
次に投影処理について説明する。例えば、投影したい画像をPC102から各プロジェクタ101に送信し、各プロジェクタ101が記憶手段401に記憶した画像処理パラメータを使って受信した画像を加工して投影することにより、一体化された画像を投影面104に投影することができる。
(Projection processing)
Next, the projection process will be described. For example, an image to be projected is transmitted from the
図11は、第1の実施形態に係る画像投影処理の一例のフローチャートである。 FIG. 11 is a flowchart of an example of the image projection processing according to the first embodiment.
例えば、PC102へのユーザ操作等により投影処理を開始すると、PC102は、複数のプロジェクタ101−1〜101−3にマルチ投影の開始を指示する(ステップS1101)。指示を受けた複数のプロジェクタ101−1〜101−3は、それぞれ、記憶手段401に記憶した画像処理パラメータを読み出す(ステップS1102〜S1104)。
For example, when the projection process is started by a user operation or the like on the
また、複数のプロジェクタ101−1〜101−3は、それぞれ、読み出した画像処理パラメータで投影する画像を加工するパラメータ適用モードに入る(ステップS1105〜S1107)。パラメータ適用モードでは、各プロジェクタ101は、読み出した画像処理パラメータに従って、受信した横長の画像から必要な部分の抽出、変形を行い、また、明るさや色の補正を行った画像を投影する。
Each of the projectors 101-1 to 101-3 enters a parameter application mode for processing an image to be projected with the read image processing parameters (steps S1105 to S1107). In the parameter application mode, each
PC102は、複数のプロジェクタ101−1〜101−3に同一のコンテンツ画像(例えば、横長の画像)を送信する(ステップS1108)。複数のプロジェクタ101−1〜101−3は、それぞれ、PC102から受信したコンテンツ画像にパラメータを適用して画像処理を行い(ステップS1109〜S1111)、画像処理後の画像を投影する(ステップS1112〜S1114)。
The
上記のコンテンツ画像の送信、及び投影は、マルチ投影が終了するまで、例えば、60fps(frame per second)で繰り返し行われる(ステップS1115)。また、マルチ投影が終了すると、PC102は、マルチ投影の終了指示を複数のプロジェクタ101−1〜101−3に送信する(ステップS1116)。複数のプロジェクタ101−1〜101−3は、それぞれ、マルチ投影の終了指示を受信すると単純投影モードへ移行し(ステップS1117〜S1119)、マルチ投影処理を終了する。
The transmission and projection of the content image are repeatedly performed at, for example, 60 fps (frame per second) until the multi-projection is completed (step S1115). When the multi-projection is completed, the
(接続形態)
図12は、第1の実施形態に係る画像処理システムの接続形態の例を示す図である。画像処理システム100は、PC102と各プロジェクタ101との間で、制御信号及び映像信号の通信が行えるものであれば、接続形態は任意で良い。
(Connection type)
FIG. 12 is a diagram illustrating an example of a connection form of the image processing system according to the first embodiment. As long as the
例えば、図12(a)の接続形態では、PC102は、映像信号を分岐装置1202(例えば、USBハブ)を介して、外付けのビデオカード1201で各プロジェクタ101に送信し、制御信号のやり取りは、無線LANで行う。
For example, in the connection form of FIG. 12A, the
図12(b)の接続形態では、PC102は、映像信号をHDMI等の画像インタフェースを用いて出力し、映像分配器1203で各プロジェクタに映像信号を分配している。また、制御信号のやり取りは、有線LAN等の有線接続によって行われる。
In the connection mode of FIG. 12B, the
図12(c)の接続形態では、映像信号及び制御信号の通信を無線通信(例えば無線LAN等)によって行う場合の例を示している。 In the connection form of FIG. 12C, an example in which the video signal and the control signal are communicated by wireless communication (for example, wireless LAN) is shown.
尚、図12の各接続形態はあくまで一例であって、画像処理システム100の接続形態は、図12の各接続形態以外にも様々な組合せが可能である。
Each connection form in FIG. 12 is merely an example, and the connection form of the
<まとめ>
以上、本実施形態に係るプロジェクタ101は、投影手段105に対して所定の位置に撮影手段106(カメラ等)が設けられており、投影手段105と撮影手段106による3次元計測の計測パラメータが記憶手段401に予め記憶されている。これにより、カメラの設置、基線長の測定等の準備や、ステレオカメラ等によらずに、プロジェクタ101に対する投影面104の3次元座標を容易に算出することができる。但し、各プロジェクタ101単体の3次元計測だけでは、他のプロジェクタ101との座標系の位置関係は不明である。
<Summary>
As described above, the
一方、SfMのみによる3次元計測では、精度を出すために多くの円パターンを撮影する必要があり、広角で撮影範囲の広いカメラを用いることが望ましい。しかし、そのようなレンズを持つカメラは高価であり、高解像度の撮像素子も要求されることから、コスト面で不利である。 On the other hand, in the three-dimensional measurement using only SfM, it is necessary to photograph many circular patterns in order to obtain accuracy, and it is desirable to use a camera with a wide angle and a wide photographing range. However, a camera having such a lens is expensive, and a high-resolution image sensor is required, which is disadvantageous in terms of cost.
そこで、本実施の形態では、各プロジェクタ101に内蔵された低コストの撮影手段と、三角測量、SfM等の2つの3次元計測との組合せにより、システムのコストを抑制しつつ、設置、設定等を容易にする画像処理システム100を実現している。
Therefore, in this embodiment, the combination of the low-cost imaging means built in each
[第2の実施形態]
図4に示す第1の実施形態の機能構成では、各プロジェクタ101が画像処理手段402を有しているものとして説明を行ったが、投影画像に対する画像処理は、PC102がまとめて行うものであっても良い。
[Second Embodiment]
In the functional configuration of the first embodiment shown in FIG. 4, the
図13は、第2の実施形態に係る画像処理システムの機能構成図である。本実施の形態では、PC102が、複数のプロジェクタ101−1〜101−3のそれぞれが投影する画像の画像処理を行う画像処理手段1301を有している。尚、その他の構成は、第1の実施形態と同様なので、ここでは第1の実施形態との差分を中心に説明する。
FIG. 13 is a functional configuration diagram of the image processing system according to the second embodiment. In the present embodiment, the
本実施形態では、図5に示す第1の実施形態の撮影処理と同様にして、校正用画像の撮影処理が行われる。 In the present embodiment, the calibration image shooting process is performed in the same manner as the shooting process of the first embodiment shown in FIG.
図14は、第2の実施形態に係る校正処理の一例のフローチャートである。ステップS701〜S704までの処理は、第1の実施形態と同様である。ステップS1401において、第1の実施形態では各プロジェクタ101に画像処理パラメータを送信していたが、本実施形態では、算出した画像処理パラメータをPC102が保存する。
FIG. 14 is a flowchart of an example of a calibration process according to the second embodiment. The processing from step S701 to S704 is the same as that in the first embodiment. In step S1401, the image processing parameters are transmitted to each
図15は、第2の実施形態に係る画像投影処理の一例のフローチャートである。例えば、PC102へのユーザ操作等により投影処理を開始すると、PC102は、図14のステップS1401で保存した画像処理パラメータを、投影対象となるコンテンツ画像に適用する(ステップS1501)。例えば、PC102の画像処理手段1301は、プロジェクタ101−1に適用する画像処理パラメータを用いて、横長のコンテンツ画像からプロジェクタ101−1が投影する部分を抽出、変形し、また、明るさや色の補正を行う。
FIG. 15 is a flowchart of an example of an image projection process according to the second embodiment. For example, when the projection processing is started by a user operation or the like on the
同様に、画像処理手段1301は、プロジェクタ101−2に適用する画像処理パラメータを用いて、横長のコンテンツ画像からプロジェクタ101−2が投影する部分を抽出、変形し、また、明るさや色の補正を行う。さらに、画像処理手段1301は、プロジェクタ101−3に適用する画像処理パラメータを用いて、横長のコンテンツ画像からプロジェクタ101−3が投影する部分を抽出、変形し、また、明るさや色の補正を行う。
Similarly, the
次に、PC102は、ステップS1501で画像処理を行った画像を、複数のプロジェクタ101−1〜101−3に送信する(ステップS1502)。
Next, the
複数のプロジェクタ101−1〜101−3は、それぞれ、PC102から受信した画像を用いて投影画像を更新する(ステップS1503〜1505)。 Each of the plurality of projectors 101-1 to 101-3 updates the projection image using the image received from the PC 102 (steps S1503 to 1505).
上記処理を、マルチ投影が終了するまで、例えば、60fpsで繰り返す(ステップS1506)。 The above process is repeated, for example, at 60 fps until the multi-projection is completed (step S1506).
尚、本実施の形態では、PC102が送信する画像がプロジェクタ101毎に異なるため、図12(b)に示す接続形態は用いることができない。本実施の形態では、例えば、図12(a)、(c)の接続形態等を用いて実現することができる。
In this embodiment, since the image transmitted by the
以上、本実施形態によれば、各プロジェクタ101に画像処理手段が不要であり、プロジェクタ101のコスト、又は負荷等を低減することができる。
As described above, according to the present embodiment, each
[第3の実施形態]
第1及び第2の実施形態では、PC102を用いて画像処理システム100の制御を行う場合について説明を行ったが、画像処理システム100は、PC102によらずに、複数のプロジェクタで構成することも可能である。
[Third Embodiment]
In the first and second embodiments, the case where the
<機能構成>
図16は、第3の実施形態に係る画像処理システムの機能構成図である。本実施形態に係るプロジェクタ101は、第1の実施形態に係るプロジェクタ101の構成に加えて、画像取得手段1601、3次元位置計測手段1602、3次元位置統合手段1603、パラメータ算出手段1604、制御手段1605、同期手段1606等を有する。
<Functional configuration>
FIG. 16 is a functional configuration diagram of an image processing system according to the third embodiment. In addition to the configuration of the
画像取得手段1601は、投影面104に投影するコンテンツ画像を取得する手段である。画像取得手段1601は、例えば、図2の外部I/F205に接続されたUSBメモリ等の外部ストレージから、投影対象となる同一のコンテンツをそれぞれ取得する。或いは、画像取得手段1601は、通信I/F204等を用いて、サーバ装置等から投影対象となるコンテンツをそれぞれ取得するもの等であっても良い。
The
3次元位置計測手段(計測手段)1602は、制御手段1605等の制御によって撮影された画像と、各プロジェクタ101の記憶手段401に予め記憶された計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置を計測する。
A three-dimensional position measuring unit (measuring unit) 1602 is a projection plane for each
3次元位置統合手段(統合手段)1603は、各プロジェクタ101の3次元位置計測手段1602によって計測された複数の3次元位置を統合する。尚、3次元位置の統合処理は、複数のプロジェクタ101で分散して行うものであっても良いし、1つのプロジェクタ101でまとめて行うもの等であっても良い。
A three-dimensional position integration unit (integration unit) 1603 integrates a plurality of three-dimensional positions measured by the three-dimensional
パラメータ算出手段(算出手段)1604は、3次元位置統合手段1603等によって統合された投影面104の3次元位置に基づいて、各プロジェクタ101が投影する画像の画像処理パラメータ(補正パラメータ)を算出する。
A parameter calculation unit (calculation unit) 1604 calculates image processing parameters (correction parameters) of images projected by the
制御手段1605は、複数のプロジェクタ101−1〜101−3による画像の投影と、複数のプロジェクタ101による投影面104に投影された画像の撮影を制御する。また、制御手段404は、複数のプロジェクタ101−1〜101−3を用いて、所定の画像(大画面の画像)を投影するマルチプロジェクションの制御を行う。
The
同期手段1606は、複数のプロジェクタ101−1〜101−3の画像投影タイミング等の同期を取るための手段である。
The
尚、他の構成については、第1の実施形態と同様である。 Other configurations are the same as those in the first embodiment.
<処理の流れ>
(校正用画像の撮影処理)
図17は、第3の実施形態に係る校正用画像の撮影処理の流れを示すフローチャートである。画像処理システム100は、例えば、プロジェクタ101−1へのユーザ操作等に応じて、校正用の画像の撮影処理を開始する。
<Process flow>
(Capturing image for calibration)
FIG. 17 is a flowchart illustrating the flow of the calibration image capturing process according to the third embodiment. The
尚、撮影処理を開始する前に、複数のプロジェクタ101−1〜101−3は、例えば、図1に示すように、隣接したプロジェクタ101の投影領域の一部が重複するように配置されているものとする。また、複数のプロジェクタ101−1〜101−3の位置関係、例えば、左からプロジェクタ101−1、プロジェクタ101−2、プロジェクタ101−3の順に並べられていることは、予め設定又は検知されているものとする。
Before starting the shooting process, the plurality of projectors 101-1 to 101-3 are arranged so that, for example, a part of the projection area of the
校正用の画像の撮影処理の開始操作が行われると(ステップS1701)、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に、校正用の画像の撮影処理の開始を指示する第1撮影指示を送信する(ステップS1702)。 When the start operation of the calibration image capturing process is performed (step S1701), the projector 101-1 instructs the other projectors 101-2 and 101-3 to start the calibration image capturing process. One shooting instruction is transmitted (step S1702).
また、プロジェクタ101−1は、校正用のパターン画像を投影し(ステップS1703)、プロジェクタ101−2、101−3は、第1撮影指示に応じて、光源206を消灯する(ステップS1704、S1705)。
Further, the projector 101-1 projects a pattern image for calibration (step S1703), and the projectors 101-2 and 101-3 turn off the
プロジェクタ101−1は、プロジェクタ101−1の投影手段105によってパターン画像が投影された投影面104を撮影し(ステップS1706)、撮影した画像を自装置の記憶手段401に保存(記憶)する(ステップS1707)。
The projector 101-1 captures the
また、プロジェクタ101−2は、プロジェクタ101−1の投影手段105によってパターン画像投影された投影面を撮影し(ステップS1708)、撮影した画像を自装置の記憶手段401に記憶する(ステップS1709)。尚、このとき、プロジェクタ101−3の撮影エリアには校正用のパターン画像が含まれないので、プロジェクタ101−3は、画像の撮影を行わなくても良い。
In addition, the projector 101-2 captures the projection plane on which the pattern image is projected by the
次に、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に、第2撮影指示を送信する(ステップS1710)。 Next, the projector 101-1 transmits a second shooting instruction to the other projectors 101-2 and 101-3 (step S1710).
プロジェクタ101−1は光源206を消灯する(ステップS1711)。また、第2撮影指示に応じて、プロジェクタ101−2は、校正用のパターン画像を投影し(ステップS1712)、プロジェクタ101−3は、光源206を消灯する(ステップS1713)。 The projector 101-1 turns off the light source 206 (step S1711). In response to the second imaging instruction, the projector 101-2 projects a calibration pattern image (step S1712), and the projector 101-3 turns off the light source 206 (step S1713).
次に、プロジェクタ101−1は、プロジェクタ101−2の投影手段105によってパターン画像が投影された投影面104を撮影し(ステップS1714)し、撮影した画像を自装置の記憶手段401に保存する(ステップS1715)。
Next, the projector 101-1 captures the
また、プロジェクタ101−2は、プロジェクタ101−2の投影手段105によってパターン画像投影された投影面を撮影し(ステップS1716)、撮影した画像を自装置の記憶手段401保存する(ステップS1717)。
Further, the projector 101-2 captures the projection surface on which the pattern image is projected by the
プロジェクタ101−3は、プロジェクタ101−2の投影手段105によってパターン画像が投影された投影面104を撮影し(ステップS1718)、撮影した画像を自装置の記憶手段401に保存する(ステップS1719)。
The projector 101-3 captures the
次に、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に、第3撮影指示を送信する(ステップS1720)。 Next, the projector 101-1 transmits a third shooting instruction to the other projectors 101-2 and 101-3 (step S1720).
プロジェクタ101−1は光源206を消灯する(ステップS1721)。また、第2撮影指示に応じて、プロジェクタ101−2は、光源206を消灯し(ステップS1722)、プロジェクタ101−3は、校正用のパターン画像を投影する(ステップS1723)。 The projector 101-1 turns off the light source 206 (step S1721). Further, in response to the second photographing instruction, the projector 101-2 turns off the light source 206 (step S1722), and the projector 101-3 projects a calibration pattern image (step S1723).
次に、プロジェクタ101−2は、プロジェクタ101−3の投影手段105によってパターン画像が投影された投影面104を撮影し(ステップS1724)、撮影した画像を自装置の記憶手段401に保存する(ステップS1725)。
Next, the projector 101-2 captures the
また、プロジェクタ101−3は、プロジェクタ101−3の投影手段105によってパターン画像が投影された投影面を撮影し(ステップS1726)、撮影した画像を自装置の記憶手段401に保存し(ステップS1727)、処理を終了する。尚、このとき、プロジェクタ101−1の撮影エリアには校正用のパターン画像が含まれないので、プロジェクタ101−1は画像の撮影を行わなくても良い。
The projector 101-3 captures the projection surface on which the pattern image is projected by the
(校正処理)
画像処理システム100は、校正用の画像の撮影処理が終了すると、校正処理を行う。
(Calibration process)
The
図18は、第3の実施形態に係る校正処理の一例のフローチャートである。 FIG. 18 is a flowchart of an example of a calibration process according to the third embodiment.
校正処理を開始すると、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に構成開始指示を送信する(ステップS1801)。 When the calibration process is started, the projector 101-1 transmits a configuration start instruction to the other projectors 101-2 and 101-3 (step S1801).
次にプロジェクタ101は、図17の処理で取得した画像と、各プロジェクタ101が予め記憶している計測パラメータとに基づいて、各プロジェクタ101に対する投影面104の3次元位置(座標)を算出する(ステップS1802〜S1804)。
Next, the
また、各プロジェクタ101は、算出した3次元位置(円パターンの位置)と、撮影した校正パターン画像を他のプロジェクタ101に送信する(ステップS1805〜1807)。各プロジェクタ101は、他のプロジェクタ101から受信した情報を用いて、隣接するプロジェクタ101との3次元位置の対応関係を算出する(ステップS1808〜S1810)。また、プロジェクタ101−2、101−3は、算出した情報をプロジェクタ101−1に送信する(ステップS1811、S1812)。
Each
プロジェクタ101−1は、他のプロジェクタ101−1、101−3から受信した情報を用いて、3次元位置を同一座標系に変換して統合する(ステップS1813)。また、プロジェクタ101−1は、統合した3次元位置を用いて、各プロジェクタの画像処理パラメータを算出する(ステップS1814)。 The projector 101-1 uses the information received from the other projectors 101-1, 101-3, converts the three-dimensional position into the same coordinate system, and integrates them (step S1813). Further, the projector 101-1 calculates the image processing parameter of each projector using the integrated three-dimensional position (step S <b> 1814).
プロジェクタ101−1は、算出した画像処理パラメータを他のプロジェクタ101−2、101−3に送信し(ステップS1815)、自装置の画像処理パラメータを記憶手段401に保存する(ステップS1816)。 The projector 101-1 transmits the calculated image processing parameters to the other projectors 101-2 and 101-3 (step S1815), and stores the image processing parameters of the own apparatus in the storage unit 401 (step S1816).
プロジェクタ101−2、101−3は、受信した画像処理パラメータをそれぞれ、自装置の記憶手段401に記憶し(ステップS1817、1818)、校正処理を終了する。
The projectors 101-2 and 101-3 store the received image processing parameters in the
(投影処理)
図19は、第3の実施形態に係る画像投影処理の例を示すフローチャートである。尚、各プロジェクタ101には、投影対象となるコンテンツ画像を記憶したUSBメモリ等が予め接続されているものとする。
(Projection processing)
FIG. 19 is a flowchart illustrating an example of image projection processing according to the third embodiment. It is assumed that a USB memory or the like that stores a content image to be projected is connected to each
投影処理を開始すると、プロジェクタ101−1は、マルチ投影指示を他のプロジェクタ101−2、101−3に送信する(ステップS1901)。 When the projection process is started, the projector 101-1 transmits a multi-projection instruction to the other projectors 101-2 and 101-3 (step S1901).
次に、各プロジェクタ101−1〜101−3は、自装置の記憶手段401に記憶した画像処理パラメータを読み出す(ステップS1902〜S1904)。
Next, each of the projectors 101-1 to 101-3 reads out the image processing parameters stored in the
また、複数のプロジェクタ101−1〜101−3は、それぞれ、読み出した画像処理パラメータで投影する画像を加工するパラメータ適用モードに入る(ステップS1905〜S1907)。 Each of the projectors 101-1 to 101-3 enters a parameter application mode for processing an image to be projected with the read image processing parameters (steps S1905 to S1907).
次に、プロジェクタ101−1は、他のプロジェクタ101−2、101−3に投影開始指示を送信する(ステップS1908)。 Next, the projector 101-1 transmits a projection start instruction to the other projectors 101-2 and 101-3 (step S1908).
各プロジェクタ101−1〜101−3は、それぞれ、USBメモリ等からコンテンツ画像を1コマ分取得し(ステップS1909〜S1911)、取得したコンテンツ画像にパラメータを適用する(ステップS1912〜S1914)。 Each of the projectors 101-1 to 101-3 acquires one frame of content image from a USB memory or the like (steps S1909 to S1911), and applies parameters to the acquired content image (steps S1912 to S1914).
ここで、各プロジェクタ101−1〜101−3は、投影タイミングの同期を取る(ステップS1915〜S1917)。例えば、各プロジェクタ101−1〜101−3は、同期手段1606により、制御信号の送受信を行い、他のプロジェクタ101の投影準備ができていることを確認し、投影準備が整ったことを確認したときに次の処理に移行する。
Here, the projectors 101-1 to 101-3 synchronize the projection timing (steps S1915 to S1917). For example, each of the projectors 101-1 to 101-3 transmits and receives control signals using the
次に、各プロジェクタ101−1〜101−3は、投影画像を更新し(ステップS1918〜S1920)、更新した画像を投影する。 Next, each projector 101-1 to 101-3 updates the projection image (steps S1918 to S1920), and projects the updated image.
上記処理を、マルチ投影が終了するまで、例えば、60fpsで繰り返す(ステップS1921)。ステップS1921で、マルチ投影が終了したと判断すると、プロジェクタ101−1は、他のプロジェクタ101−2、101−3にマルチ投影の終了指示を送信する(ステップS1922)。 The above process is repeated, for example, at 60 fps until the multi-projection is completed (step S1921). If it is determined in step S1921 that multi-projection has ended, projector 101-1 transmits a multi-projection end instruction to other projectors 101-2 and 101-3 (step S1922).
次に、各プロジェクタ101−1〜101−3は、単純投影モードへ移行し(ステップS1923〜S1925)、処理を終了する。 Next, each of the projectors 101-1 to 101-3 shifts to the simple projection mode (steps S1923 to S1925) and ends the process.
上記処理により、画像処理システム100は、PC102によらずにマルチプロジェクションを実現することができる。
With the above processing, the
図20は、第3の実施形態に係る画像処理システムの接続形態の例を示す図である。図20の例では、各プロジェクタ101−1〜103−3は、例えば、無線LANや、近距離無線通信等による無線相互通信により制御信号の送受信を行い、例えば、USBメモリ等の外部記憶手段2001から、共通のコンテンツ画像を取得する。尚、図20の接続形態はあくまで一例である。
FIG. 20 is a diagram illustrating an example of a connection form of the image processing system according to the third embodiment. In the example of FIG. 20, each of the projectors 101-1 to 103-3 transmits / receives a control signal by wireless mutual communication such as wireless LAN or short-range wireless communication, for example, an
[第4の実施形態]
第1〜第3の実施形態では、複数のプロジェクタ101は、隣接するプロジェクタ101と投影領域の一部が重複するように配置され、各プロジェクタ101の投影画面よりも大きい大画面を投影するマルチプロジェクションを行うものとして説明を行った。
[Fourth Embodiment]
In the first to third embodiments, the plurality of
本実施の形態では、複数のプロジェクタ101は、隣接するプロジェクタ101と投影領域の一部、又は全部が重複するように配置され、各プロジェクタの投影画面よりも明るい高輝度画面を投影するスタックプロジェクションの例について説明する。
In the present embodiment, a plurality of
図21は、第4の実施形態に係る画像処理システムの構成例を示す図である。各機器の構成や、接続形態は、第1の実施形態と同様であるが、各プロジェクタ101の投影領域103−1〜101−3の重なり合う部分が、第1の実施形態よりも大きくなっている。この投影領域が重なり合う部分大きいほど大きな画像を投影できるので、各プロジェクタ101の配置時に留意する。
FIG. 21 is a diagram illustrating a configuration example of an image processing system according to the fourth embodiment. The configuration and connection form of each device are the same as in the first embodiment, but the overlapping portions of the projection areas 103-1 to 101-3 of each
構成用画像の撮影処理の流れ、及び校正処理の流れは、図6、7に示した第1の実施形態と同様で良い。 The flow of the configuration image photographing process and the flow of the calibration process may be the same as those in the first embodiment shown in FIGS.
また、投影時の処理も基本的に図11に示した第1の実施形態と同様であるが、ステップS1108において、PC102が各プロジェクタ101に送信する画像が横長ではなく、プロジェクタ101の解像度に合った比率のコンテンツ画像を送信する点が異なる。また、画像処理パラメータは、画像の一部ではなく、全部を投影領域に収めるように計算される。
Further, the processing at the time of projection is basically the same as that of the first embodiment shown in FIG. 11, but in step S1108, the image transmitted by the
図21は、第4の実施形態に係る投影画像が生成される領域について説明するための図である。この例では、プロジェクタ101−1が投影したパターン2101、プロジェクタ101−2が投影したパターン2102、及びプロジェクタ101−3が投影したパターン2103を含む領域2104にコンテンツ画像を投影するようにパラメータが算出される。
FIG. 21 is a diagram for explaining a region where a projection image according to the fourth embodiment is generated. In this example, the parameters are calculated so that the content image is projected onto an
このように、画像処理システム100は、各プロジェクタ101−1〜101−3の投影領域を重ねて、所定の画像処理を行うことにより、マルチプロジェクションのみでなく、スタック投影にも適用することができる。
Thus, the
100 画像処理システム
101 プロジェクタ(画像投影装置)
101−1 プロジェクタ(第1画像投影装置)
101―2 プロジェクタ(第2画像投影装置)
101−3 プロジェクタ
102 PC
103 投影領域
104 投影面
105 投影手段
106 撮影手段
401 記憶手段
402、1301 画像処理手段
404、1605 制御手段
405、1602 3次元位置計測手段(計測手段)
406、1603 3次元位置統合手段(統合手段)
407、1604 パラメータ算出手段
DESCRIPTION OF
101-1 projector (first image projection apparatus)
101-2 Projector (second image projection device)
101-3
DESCRIPTION OF SYMBOLS 103
406, 1603 Three-dimensional position integration means (integration means)
407, 1604 Parameter calculation means
Claims (10)
前記複数の画像投影装置の各々は、
前記投影面に画像を投影する投影手段と、
前記投影手段に対して所定の位置に設けられ、前記投影面に投影された画像を撮影する撮影手段と、
を有し、
前記画像処理システムは、
前記複数の画像投影装置の前記投影手段による投影と、前記複数の画像投影装置の前記撮影手段による撮影とを制御する制御手段と、
前記制御によって撮影された画像と、前記複数の画像投影装置の前記投影手段及び前記撮影手段による3次元計測の計測パラメータとに基づいて、前記複数の画像投影装置の各々に対する前記投影面の3次元位置を計測する計測手段と、
前記計測された複数の3次元位置を統合する統合手段と、
を有し、
前記統合された前記投影面の3次元位置に基づいて、前記投影面に前記所定の画像を投影する画像処理システム。 An image processing system that projects a predetermined image on a projection surface using a plurality of image projection devices,
Each of the plurality of image projection devices includes:
Projection means for projecting an image onto the projection plane;
An imaging unit that is provided at a predetermined position with respect to the projection unit and that captures an image projected on the projection plane;
Have
The image processing system includes:
Control means for controlling projection by the projection means of the plurality of image projection apparatuses and photographing by the photographing means of the plurality of image projection apparatuses;
3D of the projection plane for each of the plurality of image projection devices based on the image captured by the control and the measurement unit of the projection unit and the imaging unit of the plurality of image projection devices. A measuring means for measuring the position;
Integration means for integrating the plurality of measured three-dimensional positions;
Have
An image processing system that projects the predetermined image on the projection plane based on the integrated three-dimensional position of the projection plane.
自装置の前記投影手段及び前記撮影手段による前記3次元計測の計測パラメータを予め記憶した記憶手段を有する請求項1に記載の画像処理システム。 Each of the plurality of image projection devices includes:
The image processing system according to claim 1, further comprising a storage unit that stores in advance measurement parameters of the three-dimensional measurement performed by the projection unit and the imaging unit of the apparatus itself.
前記複数の画像投影装置のうちの第1画像投影装置が投影した画像を前記第1画像投影装置が撮影した第1の撮影画像と、前記第1画像投影装置の前記3次元計測の計測パラメータとに基づいて、前記第1画像投影装置に対する前記投影面の3次元位置を計測する請求項1又は2に記載の画像処理システム。 The measuring means includes
A first captured image captured by the first image projection device of an image projected by the first image projection device of the plurality of image projection devices, and a measurement parameter of the three-dimensional measurement of the first image projection device; The image processing system according to claim 1, wherein a three-dimensional position of the projection plane with respect to the first image projection apparatus is measured based on the first image projection apparatus.
前記計測手段は、
前記基線長に対応する情報に基づいて、前記第1画像投影装置に対する前記投影面の座標を計測する請求項3に記載の画像処理システム。 The measurement parameter of the three-dimensional measurement includes information corresponding to a baseline length of triangulation by the projection unit and the photographing unit,
The measuring means includes
The image processing system according to claim 3, wherein coordinates of the projection plane with respect to the first image projection device are measured based on information corresponding to the baseline length.
前記統合手段は、
前記第1の撮影画像と、前記第1画像投影装置の前記投影手段が投影した前記画像の少なくとも一部を前記第2画像投影装置の前記撮影手段が撮影した第2の撮影画像とに基づいて、前記第1画像投影装置の座標系と、前記第2画像投影装置の座標系との対応関係を算出する請求項3又は4に記載の画像処理システム。 The plurality of image projection devices include a second image projection device disposed adjacent to the first image projection device,
The integration means includes
Based on the first photographed image and a second photographed image obtained by photographing the at least part of the image projected by the projection unit of the first image projection apparatus by the photographing unit of the second image projection apparatus. 5. The image processing system according to claim 3, wherein a correspondence relationship between the coordinate system of the first image projection device and the coordinate system of the second image projection device is calculated.
Structure from Motionにより、前記対応関係を算出する請求項5に記載の画像処理システム。 The integration means includes
The image processing system according to claim 5, wherein the correspondence relationship is calculated by Structure from Motion.
前記算出された対応関係に基づいて、少なくとも前記第1画像投影装置に対する前記投影面の3次元位置と前記第2画像投影装置に対する前記投影面の3次元位置とを1つの座標系に統合する請求項5又は6に記載の画像処理システム。 The integration means includes
And integrating at least a three-dimensional position of the projection plane with respect to the first image projection apparatus and a three-dimensional position of the projection plane with respect to the second image projection apparatus based on the calculated correspondence. Item 7. The image processing system according to Item 5 or 6.
前記複数の画像投影装置の各々は、
前記算出された画像処理パラメータに基づいて画像処理された画像を、前記投影面に投影する請求項1乃至7のいずれか一項に記載の画像処理システム。 Based on the three-dimensional position of the projection plane integrated by the integration unit, parameter calculation means for calculating image processing parameters of an image projected by each of the plurality of image projection apparatuses;
Each of the plurality of image projection devices includes:
The image processing system according to claim 1, wherein an image subjected to image processing based on the calculated image processing parameter is projected onto the projection plane.
前記画像処理パラメータは、
前記複数の画像投影装置を用いて前記複数の画像投影装置の各々の投影画面よりも大きい大画面を投影するマルチ投影のための画像処理パラメータ、又は前記複数の画像投影装置を用いて前記複数の画像投影装置の各々の投影画面よりも明るい高輝度画面を投影するスタック投影のための画像処理パラメータである請求項8に記載の画像処理システム。 Each of the plurality of image projection devices is arranged such that at least a part of a projection region overlaps with an adjacent image projection device,
The image processing parameter is:
Image processing parameters for multi-projection for projecting a large screen larger than the projection screen of each of the plurality of image projection devices using the plurality of image projection devices, or the plurality of the plurality of image projection devices using the plurality of image projection devices The image processing system according to claim 8, wherein the image processing parameter is an image processing parameter for stack projection that projects a high-brightness screen brighter than each projection screen of the image projection apparatus.
前記投影面に画像を投影する投影手段と、
前記投影手段に対して所定の位置に設けられ、前記投影面に投影された画像を撮影する撮影手段と、
前記投影手段と前記撮影手段とによる3次元計測の計測パラメータを予め記憶した記憶手段と、
自装置及び前記他の画像投影装置の前記投影手段による投影と、自装置及び前記他の画像投影装置の前記撮影手段による撮影とを制御する制御手段と、
前記制御によって撮影された画像と、前記予め記憶した3次元計測の計測パラメータとに基づいて、前記投影面の3次元位置を計測する計測手段と、
前記計測された前記投影面の3次元位置と、前記他の画像投影装置で計測された前記投影面の3次元位置とを統合する統合手段と、
を有し、
前記統合された前記投影面の3次元位置に基づいて、前記投影面に前記所定の画像の少なくとも一部を投影する画像投影装置。 An image projection apparatus that projects a predetermined image on a projection surface in cooperation with another image projection apparatus,
Projection means for projecting an image onto the projection plane;
An imaging unit that is provided at a predetermined position with respect to the projection unit and that captures an image projected on the projection plane;
Storage means for storing in advance measurement parameters of three-dimensional measurement by the projection means and the photographing means;
Control means for controlling projection by the projection means of the own apparatus and the other image projection apparatus and photographing by the photographing means of the own apparatus and the other image projection apparatus;
Measuring means for measuring a three-dimensional position of the projection surface based on an image photographed by the control and the measurement parameter of the three-dimensional measurement stored in advance;
Integration means for integrating the measured three-dimensional position of the projection plane and the three-dimensional position of the projection plane measured by the other image projection apparatus;
Have
An image projection apparatus that projects at least a part of the predetermined image on the projection plane based on the integrated three-dimensional position of the projection plane.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014165894A JP6458396B2 (en) | 2014-08-18 | 2014-08-18 | Image processing system and image projection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014165894A JP6458396B2 (en) | 2014-08-18 | 2014-08-18 | Image processing system and image projection apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016042653A true JP2016042653A (en) | 2016-03-31 |
JP6458396B2 JP6458396B2 (en) | 2019-01-30 |
Family
ID=55592220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014165894A Expired - Fee Related JP6458396B2 (en) | 2014-08-18 | 2014-08-18 | Image processing system and image projection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6458396B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112016003966T5 (en) | 2015-09-01 | 2018-06-14 | Sony Corporation | Stacked body |
JP2020078070A (en) * | 2018-10-31 | 2020-05-21 | 中強光電股▲ふん▼有限公司 | Image blending method, projection system and processing device thereof |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001320652A (en) * | 2000-05-11 | 2001-11-16 | Nec Corp | Projector |
JP2005033703A (en) * | 2003-07-11 | 2005-02-03 | Seiko Epson Corp | System and method for processing image, projector, program, and information storage medium |
JP2005229415A (en) * | 2004-02-13 | 2005-08-25 | Nec Viewtechnology Ltd | Projector equipped with a plurality of cameras |
JP2006140831A (en) * | 2004-11-12 | 2006-06-01 | Hitachi Ltd | Projector device |
JP2009005044A (en) * | 2007-06-21 | 2009-01-08 | Mitsubishi Precision Co Ltd | Distortion correction and integration method by division imaging, mapping function generation method therefor, distortion correction and integration apparatus by division imaging and mapping function generator therefor |
JP2010044255A (en) * | 2008-08-14 | 2010-02-25 | Seiko Epson Corp | Projection display device and method for correcting image |
JP2010533338A (en) * | 2007-07-12 | 2010-10-21 | トムソン ライセンシング | System and method for recognizing 3D object from 2D image |
-
2014
- 2014-08-18 JP JP2014165894A patent/JP6458396B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001320652A (en) * | 2000-05-11 | 2001-11-16 | Nec Corp | Projector |
JP2005033703A (en) * | 2003-07-11 | 2005-02-03 | Seiko Epson Corp | System and method for processing image, projector, program, and information storage medium |
JP2005229415A (en) * | 2004-02-13 | 2005-08-25 | Nec Viewtechnology Ltd | Projector equipped with a plurality of cameras |
JP2006140831A (en) * | 2004-11-12 | 2006-06-01 | Hitachi Ltd | Projector device |
JP2009005044A (en) * | 2007-06-21 | 2009-01-08 | Mitsubishi Precision Co Ltd | Distortion correction and integration method by division imaging, mapping function generation method therefor, distortion correction and integration apparatus by division imaging and mapping function generator therefor |
JP2010533338A (en) * | 2007-07-12 | 2010-10-21 | トムソン ライセンシング | System and method for recognizing 3D object from 2D image |
JP2010044255A (en) * | 2008-08-14 | 2010-02-25 | Seiko Epson Corp | Projection display device and method for correcting image |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112016003966T5 (en) | 2015-09-01 | 2018-06-14 | Sony Corporation | Stacked body |
JP2020078070A (en) * | 2018-10-31 | 2020-05-21 | 中強光電股▲ふん▼有限公司 | Image blending method, projection system and processing device thereof |
JP7449069B2 (en) | 2018-10-31 | 2024-03-13 | 中強光電股▲ふん▼有限公司 | Image blending method, projection system and processing device thereof |
Also Published As
Publication number | Publication date |
---|---|
JP6458396B2 (en) | 2019-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10008028B2 (en) | 3D scanning apparatus including scanning sensor detachable from screen | |
CN104835117B (en) | Spherical panorama generation method based on overlapping mode | |
JP6293110B2 (en) | Point cloud data acquisition system and method | |
JP6398472B2 (en) | Image display system, image display apparatus, image display method, and program | |
US10063792B1 (en) | Formatting stitched panoramic frames for transmission | |
JP6072849B2 (en) | Portable three-dimensional scanner and method for generating a three-dimensional scan result corresponding to an object | |
US11727648B2 (en) | Method and device for synchronizing augmented reality coordinate systems | |
CA2912859A1 (en) | Apparatus and method for three dimensional surface measurement | |
WO2019061159A1 (en) | Method and device for locating faulty photovoltaic panel, and unmanned aerial vehicle | |
US11789150B2 (en) | Localization apparatus and method | |
JP2017201757A (en) | Image acquisition system, image acquisition method, and image processing method | |
JP2017058843A (en) | Image processing apparatus, image processing method, and program for image processing | |
CN104394316B (en) | Camera pan-tilt posture testing system | |
WO2017179432A1 (en) | Image projection method and image projection device for three-dimensional object for projection | |
US11403499B2 (en) | Systems and methods for generating composite sets of data from different sensors | |
JP6458396B2 (en) | Image processing system and image projection apparatus | |
JP2006197068A (en) | Image display and display method | |
US9019348B2 (en) | Display device, image pickup device, and video display system | |
TW201635250A (en) | Indoor monitoring system and method thereof | |
JP6882147B2 (en) | Operation guidance system | |
JP2006197036A (en) | Device and method for stereoscopic image display | |
JP2021150942A (en) | Image capture device and image capture processing method | |
JP2007221179A (en) | Image display device and image display method | |
JP2015148585A (en) | Pattern projection device | |
JP2014174643A (en) | Image processing system, control method therefor, image processing device, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181210 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6458396 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |