JP2016128870A - Image processing device, image processing system, and lighting device - Google Patents

Image processing device, image processing system, and lighting device Download PDF

Info

Publication number
JP2016128870A
JP2016128870A JP2015003162A JP2015003162A JP2016128870A JP 2016128870 A JP2016128870 A JP 2016128870A JP 2015003162 A JP2015003162 A JP 2015003162A JP 2015003162 A JP2015003162 A JP 2015003162A JP 2016128870 A JP2016128870 A JP 2016128870A
Authority
JP
Japan
Prior art keywords
image
invisible light
mask
mask area
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015003162A
Other languages
Japanese (ja)
Other versions
JP6604528B2 (en
Inventor
光一 小幡
Koichi Obata
光一 小幡
弘一 吉野
Koichi Yoshino
弘一 吉野
孝太 南澤
Kouta Minamizawa
孝太 南澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Toppan Inc
Original Assignee
Keio University
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University, Toppan Printing Co Ltd filed Critical Keio University
Priority to JP2015003162A priority Critical patent/JP6604528B2/en
Publication of JP2016128870A publication Critical patent/JP2016128870A/en
Application granted granted Critical
Publication of JP6604528B2 publication Critical patent/JP6604528B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make it possible to easily perform an operation for designating a region.SOLUTION: An image processing system comprises: a lighting device; an imaging device; and an image processing device, the lighting device emits invisible light, the imaging device is provided to set the invisible light as an object to be imaged and to image a screen onto which the invisible light emitted from the lighting device is projected, and the image processing device detects a mask region which corresponds to the invisible light which has been projected onto the screen in a picked-up image obtained by the imaging device, synthesizes a plurality of images on the basis of the detected mask region, and outputs a synthesized image in such a manner that the synthesized image is projected, as image light, onto the screen by a projector.SELECTED DRAWING: Figure 8

Description

本発明は、画像処理装置、画像処理システム及び照明装置に関する。   The present invention relates to an image processing device, an image processing system, and an illumination device.

表示画面上の位置に応じた座標の入力を行うにあたり、マウスなどのポインティングデバイスや空間上で操作が可能なモーションコントローラなどを用いることが知られている。
また、一例として、ポインティングデバイスであるレーザーポインタの光が照射されたスクリーン上をカメラによって撮像し、撮像された画像におけるレーザーポインタの光の位置を座標として入力するプレゼンテーション制御システムが知られている。
It is known to use a pointing device such as a mouse or a motion controller that can be operated in space when inputting coordinates according to the position on the display screen.
Also, as an example, there is known a presentation control system that captures an image on a screen irradiated with light from a laser pointer, which is a pointing device, and inputs the position of the laser pointer light in the captured image as coordinates.

特開2001−125738号公報Japanese Patent Laid-Open No. 2001-125738

コンピュータに対する操作として、座標としての点の指定ではなく、或るまとまった領域を指定したい場合がある。このような場合において、上記のような座標を入力するデバイスを利用して領域を指定しようとする場合には、点として座標を連続させて領域を形成する操作が必要になる。
具体的に、マウスであれば、ドラッグ操作によって座標の移動軌跡を描いて領域の輪郭を形成するという操作が必要になる。コンピュータに対する操作として、例えば領域だけを指定すればよいような場合には、上記のように座標を連続させて領域を形成する操作が煩わしいものとなって合理的でなくなる場合がある。
As an operation for the computer, there is a case where it is desired to specify a certain area instead of specifying a point as coordinates. In such a case, when an area is to be designated using a device for inputting coordinates as described above, an operation for forming an area by making coordinates continuous as points is required.
Specifically, in the case of a mouse, an operation of drawing a coordinate movement locus by a drag operation and forming an outline of the region is required. For example, when only an area needs to be designated as an operation for the computer, the operation for forming the area by making the coordinates continuous as described above is troublesome and may not be rational.

本発明は、このような事情に鑑みてなされたもので、領域を指定する操作を簡単に行えるようにすることを目的とする。   The present invention has been made in view of such circumstances, and it is an object of the present invention to easily perform an operation of designating an area.

上述した課題を解決するための本発明の一態様は、不可視光を撮像対象とする撮像装置がスクリーンを撮像して得られた撮像画像において前記スクリーンに投影された不可視光に対応するマスク領域を検出するマスク領域検出部と、前記マスク領域検出部により検出されたマスク領域に基づいて複数の画像を合成する画像合成部とを備える画像処理装置である。   In one embodiment of the present invention for solving the above-described problem, a mask region corresponding to invisible light projected on the screen in a captured image obtained by an imaging device that captures the screen with invisible light is captured. An image processing apparatus includes: a mask area detecting unit for detecting; and an image combining unit for combining a plurality of images based on the mask area detected by the mask area detecting unit.

本発明の一態様は、上記の画像処理装置であって、前記画像合成部は、主画像において前記マスク領域が対応する領域に対して、副画像において前記マスク領域が対応する領域の画像を合成してもよい。   One aspect of the present invention is the above-described image processing device, wherein the image composition unit synthesizes an image of a region corresponding to the mask region in a sub image with a region corresponding to the mask region in a main image. May be.

本発明の一態様は、上記の画像処理装置であって、前記画像合成部は、前記副画像のサイズが前記主画像と異なる場合において、前記主画像において前記マスク領域が対応する領域の重心座標と、前記副画像と前記主画像のサイズの比とに基づいて前記副画像において前記マスク領域が対応する領域を特定してもよい。   One aspect of the present invention is the above-described image processing device, wherein the image composition unit is configured to display barycentric coordinates of an area corresponding to the mask area in the main image when the size of the sub-image is different from that of the main image. And a region corresponding to the mask region in the sub-image based on the ratio of the size of the sub-image and the main image.

本発明の一態様は、上記の画像処理装置であって、前記マスク領域検出部は、撮像画像において第1閾値以上の画素値の画素が集合した領域を前記マスク領域として検出してもよい。   One aspect of the present invention is the above-described image processing device, wherein the mask area detection unit may detect, as the mask area, an area in which pixels having a pixel value equal to or greater than a first threshold value in the captured image.

本発明の一態様は、上記の画像処理装置であって、前記マスク領域検出部は、前記マスク領域に含まれる画素の画素値のうち、前記第1閾値以上から第2閾値以下の範囲の画素値については、前記画素値に応じたゼロから最大値未満の出力画素値に変換し、前記第2閾値より大きい画素値については最大の出力画素値に変換し、前記画像合成部は、前記副画像において前記マスク領域が対応する領域に含まれる画素について前記出力画素値に基づいて前記主画像の画素と合成してもよい。   One aspect of the present invention is the above-described image processing device, wherein the mask region detection unit includes pixels in a range of the pixel values included in the mask region that are in the range from the first threshold value to the second threshold value. The value is converted from zero corresponding to the pixel value to an output pixel value less than the maximum value, and the pixel value greater than the second threshold is converted to the maximum output pixel value. Pixels included in a region corresponding to the mask region in the image may be combined with the pixels of the main image based on the output pixel value.

本発明の一態様は、上記の画像処理装置であって、前記マスク領域検出部は、それぞれ異なる所定の位置から前記スクリーンを撮像する複数の撮像装置によって得られた複数の撮像画像の間で共通して存在する不可視光が投影された領域を、前記マスク領域として検出してもよい。   One aspect of the present invention is the above-described image processing device, wherein the mask area detection unit is common among a plurality of captured images obtained by a plurality of imaging devices that capture the screen from different predetermined positions. Then, an area where the invisible light that exists is projected may be detected as the mask area.

本発明の一態様は、上記の画像処理装置であって、前記撮像装置は、異なる波長域の不可視光ごとに撮像を行うことで、前記異なる波長域の不可視光ごとに応じた複数の波長域対応撮像画像を取得し、前記マスク領域検出部は、前記複数の波長域対応撮像画像ごとにマスク領域を検出し、前記画像合成部は、前記複数の波長域対応撮像画像ごとに検出されたマスク領域に基づいて、前記複数の波長域対応撮像画像ごとに個別に複数の画像を合成してもよい。   One embodiment of the present invention is the above-described image processing device, wherein the imaging device performs imaging for each invisible light in a different wavelength region, thereby a plurality of wavelength regions corresponding to the invisible light in the different wavelength region. A corresponding captured image is acquired, the mask region detection unit detects a mask region for each of the plurality of wavelength region-capable captured images, and the image composition unit detects the mask detected for each of the plurality of wavelength region-captured images. Based on the region, a plurality of images may be individually synthesized for each of the plurality of captured images corresponding to the wavelength regions.

本発明の一態様は、照明装置と、撮像装置と、画像処理装置とを備える画像処理システムであって、前記照明装置は、不可視光を出射する不可視光出射部を備え、前記撮像装置は、不可視光を撮像対象とし、前記照明装置から出射された不可視光が投影されるスクリーンを撮像するように設けられ、前記画像処理装置は、前記撮像装置によって得られた撮像画像において前記スクリーンに投影された不可視光に対応するマスク領域を検出するマスク領域検出部と、前記マスク領域検出部により検出されたマスク領域に基づいて複数の画像を合成する画像合成部とを備え、前記画像合成部により合成された画像が投影装置によって前記スクリーンに画像光として投影されるように、前記合成された画像を出力する出力部とを備える画像処理システムである。   One embodiment of the present invention is an image processing system including an illumination device, an imaging device, and an image processing device, wherein the illumination device includes an invisible light emitting unit that emits invisible light, and the imaging device includes: The invisible light is set as an imaging target, and is provided so as to capture a screen on which the invisible light emitted from the illumination device is projected. The image processing device is projected on the screen in a captured image obtained by the imaging device. A mask region detecting unit that detects a mask region corresponding to the invisible light, and an image combining unit that combines a plurality of images based on the mask region detected by the mask region detecting unit. And an output unit that outputs the synthesized image so that the projected image is projected as image light on the screen by the projection device. It is a non.

本発明の一態様は、上記の画像処理システムであって、それぞれ異なる所定の位置から前記スクリーンを撮像する複数の前記撮像装置を備え、前記マスク領域検出部は、前記複数の撮像装置によって得られた複数の撮像画像の間で共通して存在する不可視光が投影された領域を前記マスク領域として検出してもよい。   One aspect of the present invention is the above-described image processing system including a plurality of the imaging devices that capture the screen from different predetermined positions, and the mask region detection unit is obtained by the plurality of imaging devices. Alternatively, an area projected with invisible light that exists in common among a plurality of captured images may be detected as the mask area.

本発明の一態様は、上記の画像処理システムであって、それぞれ異なる波長域の不可視光を出射する複数の前記照明装置を備え、前記撮像装置は、前記異なる波長域の不可視光ごとに撮像を行うことで、前記異なる波長域の不可視光ごとに応じた複数の波長域対応撮像画像を取得し、前記マスク領域検出部は、前記複数の波長域対応撮像画像ごとにマスク領域を検出し、前記画像合成部は、前記複数の波長域対応撮像画像ごとに検出されたマスク領域に基づいて、前記複数の波長域対応撮像画像ごとに個別に複数の画像を合成してもよい。   One aspect of the present invention is the above-described image processing system, including a plurality of the illumination devices that emit invisible light in different wavelength ranges, and the imaging device performs imaging for each invisible light in the different wavelength ranges. By obtaining a plurality of wavelength region corresponding captured images corresponding to each invisible light of the different wavelength region, the mask region detection unit detects a mask region for each of the plurality of wavelength region corresponding captured images, The image synthesizing unit may synthesize a plurality of images individually for each of the plurality of wavelength region-capable captured images based on the mask region detected for each of the plurality of wavelength region-captured images.

本発明の一態様は、携帯に対応する外形を有し、不可視光を出射する不可視光出射部を備える照明装置である。   One embodiment of the present invention is a lighting device including an invisible light emitting portion that has an outer shape corresponding to carrying and emits invisible light.

本発明の一態様は、上記の照明装置であって、前記不可視光出射部から不可視光が出射されている状態と不可視光が出射されていない状態とのいずれの状態であるのかを報知する出射状態報知部をさらに備えてもよい。   One aspect of the present invention is the above-described illumination device, which emits information that indicates whether the invisible light is emitted from the invisible light emitting unit or the invisible light is not emitted. You may further provide a state alerting | reporting part.

本発明の一態様は、上記の照明装置であって、前記不可視光出射部から出射される不可視光の照射範囲を調整する照射範囲調整部をさらに備えてもよい。   One embodiment of the present invention is the illumination device described above, and may further include an irradiation range adjustment unit that adjusts an irradiation range of the invisible light emitted from the invisible light emission unit.

以上説明したように、本発明によれば、領域を指定する操作が簡単に行えるようになるという効果が得られる。   As described above, according to the present invention, it is possible to easily perform an operation for designating a region.

第1実施形態における画像処理システムの構築例を示す斜視図である。It is a perspective view which shows the construction example of the image processing system in 1st Embodiment. 第1実施形態における画像処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing system in 1st Embodiment. 第1実施形態における照明装置の外観例を示す斜視図である。It is a perspective view which shows the example of an external appearance of the illuminating device in 1st Embodiment. 第1実施形態における照明装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the illuminating device in 1st Embodiment. 第1実施形態における画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus in 1st Embodiment. 第1実施形態におけるマスク領域検出部が撮像画像からマスク領域を検出する処理の手順例を説明する図である。It is a figure explaining the example of the procedure of the process in which the mask area | region detection part in 1st Embodiment detects a mask area | region from a captured image. 第1実施形態における画素値変換アルゴリズムを模式的に示す図である。It is a figure which shows typically the pixel value conversion algorithm in 1st Embodiment. 第1実施形態における画像合成部が第1表示モードに応じて実行する画像合成処理の手順例を説明する図である。It is a figure explaining the example of a procedure of the image composition process which the image composition part in a 1st embodiment performs according to the 1st display mode. 第1実施形態における画像合成部が第1表示モードに応じて実行する画像合成処理の手順例を示すフローチャートである。It is a flowchart which shows the example of a procedure of the image composition process which the image composition part in 1st Embodiment performs according to 1st display mode. 第1実施形態における画像合成部が第3表示モードに応じて実行する画像合成処理の手順例を説明する図である。It is a figure explaining the example of a procedure of the image composition process which the image composition part in a 1st embodiment performs according to the 3rd display mode. 第1実施形態における画像合成部が第3表示モードに応じて実行する画像合成処理の手順例を示すフローチャートである。It is a flowchart which shows the example of a procedure of the image composition process which the image composition part in 1st Embodiment performs according to 3rd display mode. 第1実施形態において、スクリーンに対する照明装置からの赤外光の投影の仕方に応じて、スクリーン上で指定する赤外光投影領域のサイズ、形状が変化することを説明する図である。In 1st Embodiment, it is a figure explaining the size and shape of the infrared light projection area | region designated on a screen changing according to the method of the projection of the infrared light from the illuminating device with respect to a screen. スクリーンにて拡散した赤外光とともに直接光としての赤外光が撮像される状態の一例を説明する図である。It is a figure explaining an example of the state by which infrared light as direct light is imaged with the infrared light diffused by the screen. 第2実施形態における画像処理システムの構成例を示す図である。It is a figure which shows the structural example of the image processing system in 2nd Embodiment. 第2実施形態において、直接光としての赤外光に応じた赤外光対応領域をノイズとして除去するための画像処理の一例を説明するための図である。In 2nd Embodiment, it is a figure for demonstrating an example of the image process for removing the infrared light corresponding | compatible area | region according to the infrared light as a direct light as a noise.

<第1実施形態>
[画像処理システムの構成例]
本実施形態における画像処理システムは、ユーザによる入力デバイスとしての照明装置300の操作に応じてスクリーン100に表示される画像が変化する、インタラクティブシステムである。
以下、図1、図2を参照して、本実施形態の画像処理システムの全体的構成例及び用途例について説明する。図1は、本実施形態における画像処理システムの構築例を示す斜視図である。図2は、本実施形態における画像処理システムの構成例を示すブロック図である。
<First Embodiment>
[Image processing system configuration example]
The image processing system in the present embodiment is an interactive system in which an image displayed on the screen 100 changes in accordance with an operation of the lighting device 300 as an input device by a user.
Hereinafter, an overall configuration example and application example of the image processing system of the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a perspective view showing an example of construction of an image processing system in the present embodiment. FIG. 2 is a block diagram illustrating a configuration example of the image processing system according to the present embodiment.

本実施形態の画像処理システムは、図1、図2に示すように、スクリーン100、プロジェクタ200、照明装置300、撮像装置400及び画像処理装置500を備える。
スクリーン100は筐体10の前面において、ユーザYが観察可能なように設けられる。スクリーン100は、また、プロジェクタ200、照明装置300、撮像装置400及び画像処理装置500は筐体10内に設けられている。ただし、画像処理装置500については、筐体10の外側に設けられてもよい。
As shown in FIGS. 1 and 2, the image processing system of this embodiment includes a screen 100, a projector 200, a lighting device 300, an imaging device 400, and an image processing device 500.
The screen 100 is provided on the front surface of the housing 10 so that the user Y can observe it. The screen 100 is provided with the projector 200, the illumination device 300, the imaging device 400, and the image processing device 500 in the housing 10. However, the image processing apparatus 500 may be provided outside the housing 10.

スクリーン100には、プロジェクタ200(投影装置)により投影された画像PIが表示される。この場合、プロジェクタ200は、スクリーン100の背面から画像光を投影する背面投影型である。
図1に示すように、ユーザYは、入力デバイスとしての照明装置300を所持する。照明装置300は、赤外光(不可視光の一例)を照射する。ユーザYは、スクリーン100の前面側に位置し、照明装置300を使用して、画像が表示されたスクリーン100上の所望の位置に対して照明装置300から出射される赤外光を投影させる。照明装置300がスクリーン100に投影されることにより、ユーザYには不可視であるが、スクリーン100には投影された赤外光が散乱することにより赤外光投影領域IRAとしての不可視の画像領域が形成される。
On the screen 100, an image PI projected by the projector 200 (projection device) is displayed. In this case, the projector 200 is a rear projection type that projects image light from the back surface of the screen 100.
As shown in FIG. 1, the user Y possesses a lighting device 300 as an input device. The lighting device 300 emits infrared light (an example of invisible light). The user Y is located on the front side of the screen 100 and uses the illumination device 300 to project infrared light emitted from the illumination device 300 to a desired position on the screen 100 on which an image is displayed. When the illumination device 300 is projected onto the screen 100, it is invisible to the user Y, but the projected infrared light is scattered on the screen 100, so that an invisible image region is formed as the infrared light projection region IRA. It is formed.

撮像装置400は、赤外光を撮像対象とする。つまり、撮像装置400は、赤外光を撮像可能に構成される。具体的に、赤外光を撮像可能な撮像装置400は、受光素子に光が入射する経路に、赤外光を透過し可視光を減衰させる光学フィルタを設けることによって構成することができる。   The imaging apparatus 400 uses infrared light as an imaging target. That is, the imaging device 400 is configured to be able to capture infrared light. Specifically, the imaging apparatus 400 capable of imaging infrared light can be configured by providing an optical filter that transmits infrared light and attenuates visible light in a path through which light enters the light receiving element.

撮像装置400は、スクリーン100の背面からスクリーンを撮像するように設置される。このとき、撮像装置400の撮像範囲は、例えば、スクリーン100に表示される画像PIのサイズに対応させるように補正が行われる。
上記のように撮像装置400が設置されることで、撮像装置400がスクリーン100を撮像することによっては、例えば画像PIに対応するサイズの画面において、スクリーン100にて形成された赤外光投影領域IRAが含まれる撮像画像が得られる。
The imaging device 400 is installed so as to capture the screen from the back of the screen 100. At this time, the imaging range of the imaging apparatus 400 is corrected so as to correspond to the size of the image PI displayed on the screen 100, for example.
When the imaging apparatus 400 is installed as described above, the imaging apparatus 400 images the screen 100, so that, for example, an infrared light projection area formed on the screen 100 in a screen having a size corresponding to the image PI. A captured image including the IRA is obtained.

撮像装置400によって得られた撮像画像は、図2に示すように、画像処理装置500に出力される。なお、図1においては、撮像装置400と画像処理装置500とがケーブルによって有線で接続された態様を示している。つまり、この場合の撮像画像は有線による信号線あるいはデータインターフェースを経由して撮像装置400から画像処理装置500に伝送される。しかし。撮像装置400と画像処理装置500とは無線通信によって接続されて、撮像画像が伝送されるようにしてもよい。   The captured image obtained by the imaging apparatus 400 is output to the image processing apparatus 500 as shown in FIG. Note that FIG. 1 illustrates an aspect in which the imaging apparatus 400 and the image processing apparatus 500 are connected by a cable. That is, the captured image in this case is transmitted from the imaging device 400 to the image processing device 500 via a wired signal line or a data interface. However. The imaging apparatus 400 and the image processing apparatus 500 may be connected by wireless communication so that a captured image is transmitted.

画像処理装置500は、コンピュータにより構成され、撮像装置400から入力される撮像画像に含まれる赤外光投影領域IRAに基づいてスクリーン100に表示される画像が変化するように画像処理を行う。
ここで、赤外光投影領域IRAは、ユーザYが入力デバイスである照明装置300により赤外光をスクリーン100に照射するという操作を行うことによって形成される。つまり、本実施形態の撮像画像には、ユーザYの操作による入力結果が反映されている。従って、画像処理装置500が、スクリーン100に表示させる画像は、ユーザの操作に応じて変化するインタラクティブな画像である。
より具体的には、画像処理装置500は、画像PIに対応する主画像に、撮像画像に含まれる赤外光投影領域IRAが形成された位置に対応する領域に副画像を合成した合成画像を生成する。
The image processing apparatus 500 is configured by a computer and performs image processing so that an image displayed on the screen 100 changes based on an infrared light projection area IRA included in a captured image input from the imaging apparatus 400.
Here, the infrared light projection area IRA is formed when the user Y performs an operation of irradiating the screen 100 with infrared light by the illumination device 300 as an input device. That is, the input result by the operation of the user Y is reflected in the captured image of this embodiment. Therefore, the image displayed on the screen 100 by the image processing apparatus 500 is an interactive image that changes according to a user operation.
More specifically, the image processing apparatus 500 generates a composite image obtained by combining the sub image with the main image corresponding to the image PI and the region corresponding to the position where the infrared light projection region IRA included in the captured image is formed. Generate.

画像処理装置500は、合成画像がスクリーン100にて表示されるように、合成画像による画像信号を図2に示すようにプロジェクタ200に出力する。なお、図1においては、有線により画像処理装置500とプロジェクタ200とが接続された態様が示されている。しかし、画像処理装置500とプロジェクタ200とは無線通信により接続されてもよい。   The image processing apparatus 500 outputs an image signal based on the composite image to the projector 200 as shown in FIG. 2 so that the composite image is displayed on the screen 100. FIG. 1 shows a state in which the image processing apparatus 500 and the projector 200 are connected by wire. However, the image processing apparatus 500 and the projector 200 may be connected by wireless communication.

プロジェクタ200は、画像処理装置500から合成画像を入力し、入力した合成画像の画像光をスクリーン100に投影する。これにより、スクリーン100にて合成画像が表示される。つまり、スクリーン100においては、主画像に対応する画像内容の画面において、赤外光投影領域IRAが形成されている領域に副画像が合成して表示された画像PIが表示される。   The projector 200 receives a composite image from the image processing apparatus 500 and projects image light of the input composite image on the screen 100. As a result, the composite image is displayed on the screen 100. That is, on the screen 100, an image PI is displayed in which the sub-image is synthesized and displayed in the area where the infrared light projection area IRA is formed on the screen of the image content corresponding to the main image.

[照明装置300の構成例]
図3は、照明装置300の外観例を示す斜視図である。同図に示す照明装置300は、携帯に適した形状の本体部301と、不可視光が照射されるヘッド部302とを備える。このように、照明装置300は、携帯に対応する外形を有している。
[Configuration Example of Lighting Device 300]
FIG. 3 is a perspective view showing an example of the appearance of the lighting device 300. A lighting device 300 shown in the figure includes a main body 301 having a shape suitable for carrying and a head 302 irradiated with invisible light. As described above, the lighting device 300 has an outer shape corresponding to carrying.

照明装置300の本体部301の上面部には、オンオフスイッチ303とインジケータ304が備えられている。
オンオフスイッチ303は、照明装置300が不可視光を出射する状態と、不可視光を出射しない状態とで切り替える操作が行われるスイッチである。
照明装置300の電源がオフの状態においてオンオフスイッチ303を操作することにより電源がオンとなり、照明装置300のヘッド部302から不可視光が出射される。このとき不可視光は、同図の矢印AXで示す方向に沿って放射状に出射される。また、照明装置300の電源がオンの状態においてオンオフスイッチ303を操作すると電源がオフとなり不可視光の出射が停止する。
An on / off switch 303 and an indicator 304 are provided on the upper surface of the main body 301 of the lighting device 300.
The on / off switch 303 is a switch for performing an operation of switching between a state in which the illumination device 300 emits invisible light and a state in which the illumination device 300 does not emit invisible light.
When the lighting device 300 is turned off, the power is turned on by operating the on / off switch 303, and invisible light is emitted from the head portion 302 of the lighting device 300. At this time, the invisible light is emitted radially along the direction indicated by the arrow AX in FIG. In addition, when the on / off switch 303 is operated while the power of the lighting device 300 is on, the power is turned off and emission of invisible light is stopped.

インジケータ304(出射状態報知部の一例)は、照明装置300の不可視光出射部から不可視光が出射されている状態と不可視光を出射していない状態とのいずれの状態であるのかを報知する。具体的に、インジケータ304は、例えば不可視光が出射されている状態のときには発光し、不可視光が出射されていない状態のときには発光しないように動作する。インジケータ304は、例えば可視光に対応するLED(Light Emitted Diode)を備えて構成することができる。   The indicator 304 (an example of an emission state notification unit) notifies whether the invisible light is emitted from the invisible light emission unit of the illumination device 300 or a state where the invisible light is not emitted. Specifically, the indicator 304 operates so as to emit light when, for example, invisible light is emitted, and not emit light when invisible light is not emitted. The indicator 304 can be configured to include, for example, an LED (Light Emitted Diode) corresponding to visible light.

不可視光は人には見えない。このために、照明装置300の場合には、可視光を出射する懐中電灯などのように、光の出射の有無を視覚的に確認することができない。そこで、本実施形態においては、インジケータ304を設けることで、照明装置300が不可視光を出射している状態であるか否かをユーザが視覚的に確認できるようにしている。   Invisible light is invisible to humans. For this reason, in the case of the illumination device 300, the presence or absence of light emission cannot be visually confirmed, such as a flashlight that emits visible light. Therefore, in the present embodiment, by providing the indicator 304, the user can visually confirm whether or not the illumination device 300 is emitting invisible light.

なお、インジケータ304は、発光以外の態様により不可視光が出射しているか否かを示すように構成されてもよい。例えば、オンオフスイッチ303についてスライドスイッチなどを採用する。そのうえで、インジケータ304としては、スライドスイッチが物理的にスライドされるのに連動して、本体部301において形成された窓部から表出して見える色が切り替わるような構成としてもよい。   The indicator 304 may be configured to indicate whether or not invisible light is emitted by a mode other than light emission. For example, a slide switch or the like is employed for the on / off switch 303. In addition, the indicator 304 may be configured such that the color appearing from the window formed in the main body 301 is switched in conjunction with the slide switch being physically slid.

図4は、照明装置300の構成例を示すブロック図である。なお、同図において図3と同一部分には同一符号を付して説明を省略する。
同図に示すように、照明装置300は、オンオフスイッチ303、インジケータ304、制御回路311、バッテリ312、不可視光出射部313及び照射範囲調整部314を備える。
制御回路311は、不可視光出射部313からの不可視光の出射と、インジケータ304の発光を制御する回路である。
バッテリ312は、照明装置300に内蔵される電源である。バッテリ312は、一次電池であってもよいし、二次電池であってもよい。
FIG. 4 is a block diagram illustrating a configuration example of the illumination device 300. In the figure, the same parts as those in FIG.
As shown in the figure, the illumination device 300 includes an on / off switch 303, an indicator 304, a control circuit 311, a battery 312, an invisible light emitting unit 313, and an irradiation range adjusting unit 314.
The control circuit 311 is a circuit that controls emission of invisible light from the invisible light emitting unit 313 and light emission of the indicator 304.
The battery 312 is a power source built in the lighting device 300. The battery 312 may be a primary battery or a secondary battery.

不可視光出射部313は、赤外光を出射する部位である。不可視光出射部313は、赤外線LED313aと光学系部313bとを備える。
赤外線LED313aは、駆動電流の供給に応じて赤外光を発する。光学系部313bは、例えばレンズや、リフレクタなどを備えて構成される部位であり、例えばヘッド部302(図3)において設けられる。赤外線LED313aから発せられた赤外光は、光学系部313bを介することで、図3にて示したように矢印AXで示す光軸方向に沿って放射状に出射される。
The invisible light emitting part 313 is a part that emits infrared light. The invisible light emitting unit 313 includes an infrared LED 313a and an optical system unit 313b.
The infrared LED 313a emits infrared light in response to the supply of drive current. The optical system unit 313b is a part that includes, for example, a lens, a reflector, and the like, and is provided in the head unit 302 (FIG. 3), for example. Infrared light emitted from the infrared LED 313a is emitted radially along the optical axis direction indicated by the arrow AX as shown in FIG. 3 through the optical system unit 313b.

オンオフスイッチ303は、同図に示すように、バッテリ312から制御回路311に電源を供給するラインに挿入されるように設けられる。オンオフスイッチ303がオンとなるのに応じてバッテリ312から制御回路311に電源が供給される。
制御回路311は、電源の供給に応じて、赤外線LED313aに駆動電流を供給する。このように電源の供給に応じて、赤外線LED313aに駆動電流が流れることで、不可視光出射部313から赤外光が出射される。また、制御回路311は、電源の供給に応じて、インジケータ304にも駆動電流を供給する。インジケータ304におけるLEDは、駆動電流により発光する。
このように制御回路311が動作することで、オンオフスイッチ303の操作によって電源がオンとなるのに応じて、赤外光が出射されるとともにインジケータ304が発光して赤外光が出射されている状態であることを示す。
The on / off switch 303 is provided so as to be inserted into a line for supplying power from the battery 312 to the control circuit 311 as shown in FIG. As the on / off switch 303 is turned on, power is supplied from the battery 312 to the control circuit 311.
The control circuit 311 supplies a drive current to the infrared LED 313a in response to the supply of power. As described above, when the drive current flows through the infrared LED 313a in response to the supply of power, infrared light is emitted from the invisible light emitting unit 313. The control circuit 311 also supplies a drive current to the indicator 304 in response to power supply. The LED in the indicator 304 emits light by the drive current.
By operating the control circuit 311 in this way, infrared light is emitted and the indicator 304 emits light and infrared light is emitted as the power is turned on by operating the on / off switch 303. Indicates a state.

また、照射範囲調整部314は、例えば光学系部313bにおけるリフレクタの角度などを調整することにより、光学系部313bから出射される赤外光の照射範囲を調整する。例えば、例えば図3において矢印Fで示すように、ヘッド部302を回転させることにより、照射範囲調整部314としての機構が動作し、ヘッド部302の回転角度に応じて赤外光の照射範囲が変更される。
なお、照射範囲調整部314は省略されてもよい。照射範囲調整部314が省略された場合、不可視光の照射範囲は固定となる。
Further, the irradiation range adjustment unit 314 adjusts the irradiation range of infrared light emitted from the optical system unit 313b, for example, by adjusting the angle of the reflector in the optical system unit 313b. For example, as shown by an arrow F in FIG. 3, for example, a mechanism as the irradiation range adjustment unit 314 operates by rotating the head unit 302, and the irradiation range of infrared light is changed according to the rotation angle of the head unit 302. Be changed.
Note that the irradiation range adjustment unit 314 may be omitted. When the irradiation range adjustment unit 314 is omitted, the irradiation range of invisible light is fixed.

[画像処理装置の構成例]
図5のブロック図を参照して画像処理装置500の構成例について説明する。同図に示す画像処理装置500は、入出力部501、制御部502及び記憶部503を備える。
[Configuration example of image processing apparatus]
A configuration example of the image processing apparatus 500 will be described with reference to the block diagram of FIG. An image processing apparatus 500 shown in the figure includes an input / output unit 501, a control unit 502, and a storage unit 503.

入出力部501は、撮像装置400から出力された撮像画像を入力する。また、入出力部501は、スクリーン100にて表示されるべき画像をプロジェクタ200に出力する。スクリーン100にて表示されるべき画像には、前述のように主画像に対して副画像が合成された合成画像が含まれる。つまり、本実施形態の入出力部501(出力部の一例)は、合成画像がプロジェクタ200によってスクリーンに画像光として投影されるように合成画像を出力する。   The input / output unit 501 inputs the captured image output from the imaging device 400. Further, the input / output unit 501 outputs an image to be displayed on the screen 100 to the projector 200. The image to be displayed on the screen 100 includes a composite image in which the sub image is combined with the main image as described above. That is, the input / output unit 501 (an example of an output unit) of the present embodiment outputs a composite image so that the composite image is projected as image light on the screen by the projector 200.

制御部502は、画像処理装置500における各種制御を実行する。同図の制御部502は、マスク領域検出部521と画像合成部522とを備える。   The control unit 502 executes various controls in the image processing apparatus 500. The control unit 502 shown in the figure includes a mask area detection unit 521 and an image composition unit 522.

マスク領域検出部521は、撮像装置400がスクリーン100を撮像して得られた撮像画像においてスクリーン100に投影された赤外光に対応するマスク領域を検出する。
画像合成部522は、マスク領域検出部521により検出されたマスク領域に基づいて複数の画像を合成する。具体的に、画像合成部522は、主画像においてマスク領域が対応する領域に対して、副画像においてマスク領域が対応する領域の画像を合成する。
画像合成部522は、生成した合成画像を入出力部501からプロジェクタ200に出力する。これにより、合成画像がプロジェクタ200によりスクリーン100に投影され、スクリーン100にて画像として表示される。
The mask area detection unit 521 detects a mask area corresponding to the infrared light projected on the screen 100 in the captured image obtained by the imaging apparatus 400 imaging the screen 100.
The image composition unit 522 composes a plurality of images based on the mask area detected by the mask area detection unit 521. Specifically, the image composition unit 522 synthesizes the image of the area corresponding to the mask area in the sub-image with the area corresponding to the mask area in the main image.
The image composition unit 522 outputs the generated composite image from the input / output unit 501 to the projector 200. As a result, the composite image is projected onto the screen 100 by the projector 200 and displayed as an image on the screen 100.

記憶部503は、制御部502が利用する各種の情報を記憶する。同図に示す記憶部503は、画像合成部522が利用する情報を記憶する部位として、主画像記憶部531及び副画像記憶部532を備える。   The storage unit 503 stores various information used by the control unit 502. The storage unit 503 shown in the figure includes a main image storage unit 531 and a sub image storage unit 532 as parts for storing information used by the image composition unit 522.

主画像記憶部531は、主画像を記憶する。主画像は静止画であってもよいし動画であってもよい。主画像は、スクリーン100の画面全体において主画面として表示される画像である。
副画像記憶部532は、副画像を記憶する。副画像は静止画であってもよいし動画であってもよい。副画像は、主画像に合成される画像である。
The main image storage unit 531 stores a main image. The main image may be a still image or a moving image. The main image is an image displayed as the main screen on the entire screen 100.
The sub image storage unit 532 stores the sub image. The sub image may be a still image or a moving image. The sub-image is an image that is combined with the main image.

ここで、主画像と副画像の内容の具体例について説明する。また、ここでの具体例は、本実施形態の画像処理システムにより、以下に説明する第1表示モード〜第3表示モードのいずれかによるインタラクティブ表示が可能である場合を挙げる。   Here, a specific example of the contents of the main image and the sub-image will be described. Further, a specific example here is a case where interactive display in any one of a first display mode to a third display mode described below is possible by the image processing system of the present embodiment.

第1表示モードでは、スクリーン100に、過去の或る時期において作成された或る地域の古地図が主画像として表示される。そして、ユーザYが、照明装置300によってスクリーン100に表示された古地図上の任意の場所に対して赤外光を投影させると、赤外光投影領域IRAが形成されている領域に対応する古地図上の位置に、現在の地図(現代地図)が比較対象として表示されるというものである。つまり、第1表示モードのもとでは、ユーザは古地図における任意の場所を現代地図と比較することができる。   In the first display mode, an old map of a certain area created at a certain past time is displayed on the screen 100 as a main image. Then, when the user Y projects infrared light onto an arbitrary place on the old map displayed on the screen 100 by the lighting device 300, the old image corresponding to the area where the infrared light projection area IRA is formed. The current map (modern map) is displayed as a comparison target at a position on the map. That is, under the first display mode, the user can compare an arbitrary place on the old map with the modern map.

また、第2表示モードにおいても、スクリーン100には、過去の或る時期において作成された或る地域の古地図が主画像として表示される。そして、ユーザYが、照明装置300によってスクリーン100に表示された古地図上の任意の場所に対して赤外光を投影させると、赤外光投影領域IRAが形成されている領域に対応する古地図上の位置に、対応の位置の古地図が拡大された画像が表示されるというものである。つまり、第2表示モードのもとでは、ユーザの操作によって主画像における任意の位置の古地図を拡大することができる。   Also in the second display mode, an old map of a certain area created at a certain past time is displayed on the screen 100 as a main image. Then, when the user Y projects infrared light onto an arbitrary place on the old map displayed on the screen 100 by the lighting device 300, the old image corresponding to the area where the infrared light projection area IRA is formed. An image in which the old map at the corresponding position is enlarged is displayed at a position on the map. That is, under the second display mode, an old map at an arbitrary position in the main image can be enlarged by a user operation.

また、第3表示モードも、スクリーン100には、過去の或る時期において作成された或る地域の古地図が主画像として表示される。そして、ユーザYが、照明装置300によってスクリーン100に表示された古地図上の任意の場所に対して赤外光を投影させると、赤外光投影領域IRAが形成されている領域に対応する古地図上の位置に、古地図の作成のために測量者が測量を行ったときの軌跡(測量軌跡)が表示されるというものである。つまり、第3表示モードのもとでは、古地図上に測量軌跡を表示させることができる。   In the third display mode, an old map of a certain area created in a certain past time is displayed on the screen 100 as a main image. Then, when the user Y projects infrared light onto an arbitrary place on the old map displayed on the screen 100 by the lighting device 300, the old image corresponding to the area where the infrared light projection area IRA is formed. A trajectory (surveying trajectory) when a surveyor performs surveying for creating an old map is displayed at a position on the map. That is, the survey trajectory can be displayed on the old map under the third display mode.

第1表示モード〜第3表示モードにおいて、主画像記憶部531が記憶する主画像は、所定のサイズ(水平画素数×垂直画素数)による古地図の画像で共通である。
一方、副画像は、第1表示モード〜第3表示モードのそれぞれに応じて以下のように異なる。
つまり、第1表示モードの場合には、副画像は、主画像としての古地図の画像と同じサイズを有する現代地図の画像である。
また、第2表示モードの場合には、副画像は、例えば主画像としての古地図の画像に対して所定倍のサイズを有する古地図の画像である。
また、第3表示モードの場合には、副画像は、例えば主画像としての古地図の画像と同じサイズを有する測量軌跡が表された画像である。
In the first display mode to the third display mode, the main image stored in the main image storage unit 531 is a common old map image having a predetermined size (the number of horizontal pixels × the number of vertical pixels).
On the other hand, the sub-image differs as follows according to each of the first display mode to the third display mode.
That is, in the first display mode, the sub-image is a modern map image having the same size as the old map image as the main image.
In the second display mode, the sub-image is, for example, an image of an old map having a predetermined size with respect to the image of the old map as the main image.
In the case of the third display mode, the sub-image is an image representing a survey trajectory having the same size as the image of the old map as the main image, for example.

本実施形態の画像処理装置500では、副画像記憶部532に、第1表示モード〜第3表示モードの各表示モードに応じたそれぞれに応じた副画像が記憶される。これにより、画像処理装置500は、第1表示モード〜第3表示モードの間で表示モードを任意に選択して切り替えることができる。
具体的に、画像処理装置500は、例えば予め定めた一定時間が経過するごとに表示モードを切り替えることができる。あるいは、画像処理装置500は、主画像が動画である場合には、動画としての主画像の再生を繰り返すようにされたうえで、主画像の再生が開始されるタイミングで表示モードを切り替えることができる。
In the image processing apparatus 500 of the present embodiment, the sub-image storage unit 532 stores sub-images corresponding to the display modes from the first display mode to the third display mode. Accordingly, the image processing apparatus 500 can arbitrarily select and switch the display mode between the first display mode and the third display mode.
Specifically, the image processing apparatus 500 can switch the display mode every time a predetermined time elapses, for example. Alternatively, when the main image is a moving image, the image processing apparatus 500 is configured to repeat the reproduction of the main image as a moving image and switch the display mode at the timing when the reproduction of the main image is started. it can.

[マスク検出処理例]
続いて、図6を参照して、画像処理装置500におけるマスク領域検出部521が実行するマスク処理の手順の一例について説明する。なお、以降の説明にあたり、本実施形態における画像処理装置500は、60fps(frame per second)のフレームレートに対応して画像処理を行うように構成された場合を例に挙げる。
図6(A)には、撮像装置400により撮像され、入出力部501を介して入力された1フレーム分の撮像画像P1が示されている。同図の撮像画像P1においては、スクリーン100に投影された赤外光投影領域IRAに対応する赤外光対応領域AR1が含まれている。
[Mask detection processing example]
Next, with reference to FIG. 6, an example of a mask processing procedure executed by the mask area detection unit 521 in the image processing apparatus 500 will be described. In the following description, an example in which the image processing apparatus 500 in the present embodiment is configured to perform image processing corresponding to a frame rate of 60 fps (frame per second) will be described.
FIG. 6A shows a captured image P1 for one frame captured by the imaging device 400 and input via the input / output unit 501. The captured image P1 in the figure includes an infrared light corresponding area AR1 corresponding to the infrared light projection area IRA projected on the screen 100.

本実施形態の撮像装置400により撮像される撮像画像P1は、同図に示すようにレンズなどの光学系の歪みに応じて全体が歪んでいる。また、図1の構成の場合、撮像装置400はスクリーン100の背面から撮像していることから、スクリーン100を撮像して得られる撮像画像は、スクリーン100の前面側から観察される画像に対して左右が反転している。   The captured image P1 captured by the imaging apparatus 400 of the present embodiment is distorted as a whole according to the distortion of an optical system such as a lens, as shown in FIG. In the case of the configuration of FIG. 1, since the imaging device 400 captures an image from the back side of the screen 100, a captured image obtained by capturing the screen 100 is an image observed from the front side of the screen 100. The left and right are reversed.

そこで、マスク領域検出部521は、撮像画像P1について、歪み補正を行う。撮像画像P1がどのように歪みを生ずるのかについては、例えば撮像装置400の光学系の特性に応じて既知であることから、予め定めたアルゴリズムによって補正を行えばよい。
歪み補正によって、撮像画像P1は、図6(B)に示すように画像の形状についての歪みが補正された撮像画像P2が得られる。
ここで、撮像画像P2の縦横比は、主画像の縦横比と一致している。例えば撮像画像P1の歪み補正を行う過程においては、撮像画像P2の縦横比を主画像の縦横比と一致させるための補正処理(サイズ対応補正)も行われてもよい。
なお、補正処理として、左右反転補正を行った後に歪み補正を行ってもよい。
Therefore, the mask area detection unit 521 performs distortion correction on the captured image P1. Since how the captured image P1 is distorted is known according to, for example, the characteristics of the optical system of the imaging apparatus 400, it may be corrected by a predetermined algorithm.
By the distortion correction, the captured image P1 is obtained as a captured image P2 in which the distortion of the shape of the image is corrected as shown in FIG. 6B.
Here, the aspect ratio of the captured image P2 matches the aspect ratio of the main image. For example, in the process of correcting the distortion of the captured image P1, a correction process (size correspondence correction) for matching the aspect ratio of the captured image P2 with the aspect ratio of the main image may be performed.
In addition, as a correction process, you may perform distortion correction after performing left-right inversion correction.

次に、マスク領域検出部521は、撮像画像P2の左右を反転させる補正(左右反転補正)を行う。左右反転補正が行われることによって、撮像画像P2は、図6(C)に示す撮像画像P3となり、スクリーン100を前面から観察して得られる画像と同じ向きになる。   Next, the mask area detection unit 521 performs correction (horizontal inversion correction) that inverts the left and right of the captured image P2. By performing the left-right reversal correction, the captured image P2 becomes a captured image P3 shown in FIG. 6C, and is in the same direction as the image obtained by observing the screen 100 from the front.

次に、マスク領域検出部521は、撮像画像P3においてマスク領域を検出する処理を行う。検出対象となるマスク領域は、撮像画像P3においてスクリーン100に投影された不可視光に対応する領域、即ち、赤外光対応領域AR1である。
マスク領域検出部521は、以下のようにマスク領域を検出する。ここで、撮像画像P3は、グレースケールによる画像であり、赤外光対応領域AR1の領域は周囲よりも輝度(画素値)が高い。そこで、マスク領域検出部521は、撮像画像P3において、予め定めた閾値以上の画素値の画素が集合した領域をマスク領域として検出する。
Next, the mask area detection unit 521 performs processing for detecting a mask area in the captured image P3. The mask region to be detected is a region corresponding to the invisible light projected on the screen 100 in the captured image P3, that is, the infrared light corresponding region AR1.
The mask area detection unit 521 detects a mask area as follows. Here, the captured image P3 is an image in gray scale, and the region of the infrared light corresponding region AR1 has higher luminance (pixel value) than the surroundings. Therefore, the mask area detection unit 521 detects, as a mask area, an area in which pixels having a pixel value equal to or greater than a predetermined threshold are gathered in the captured image P3.

具体的には、マスク領域検出部521は、撮像画像P3を形成する画素ごとの画素値を入力画素値として、各入力画素値を所定の画素値変換アルゴリズムに従って出力画素値に変換する処理を行うことによってマスク領域を検出する。
図7は画素値変換アルゴリズムを模式的に示している。同図によれば、マスク領域検出部521は、第1閾値th1未満の入力画素値を、「0(ゼロ)」の出力画素値に変換する。そして、マスク領域検出部521は、第1閾値th1の入力画素値を「0」より大きい所定の出力画素値に変換する。マスク領域検出部521は、「0」より大きい出力画素値を有する画素の集合による領域、即ち、入力画素値が第1閾値th1以上の画素の集合による領域をマスク領域として検出する。
そのうえで、マスク領域検出部521は、第2閾値th2より大きい入力画素値を、最大値の出力画素値に変換する。
また、マスク領域検出部521は、第1閾値th1以上から第2閾値th2以下の範囲の入力画素値については、入力画素値に応じた「0」から最大値までの出力画素値に変換する。
Specifically, the mask area detection unit 521 performs a process of converting each input pixel value into an output pixel value according to a predetermined pixel value conversion algorithm, with the pixel value for each pixel forming the captured image P3 as an input pixel value. Thus, the mask area is detected.
FIG. 7 schematically shows a pixel value conversion algorithm. According to the figure, the mask area detection unit 521 converts an input pixel value less than the first threshold th1 into an output pixel value of “0 (zero)”. Then, the mask area detection unit 521 converts the input pixel value of the first threshold th1 into a predetermined output pixel value larger than “0”. The mask area detection unit 521 detects, as a mask area, an area formed by a set of pixels having an output pixel value greater than “0”, that is, an area formed by a set of pixels having an input pixel value equal to or greater than the first threshold th1.
In addition, the mask area detection unit 521 converts an input pixel value larger than the second threshold th2 into a maximum output pixel value.
In addition, the mask area detection unit 521 converts an input pixel value in the range from the first threshold th1 to the second threshold th2 into an output pixel value from “0” to the maximum value corresponding to the input pixel value.

図7の画素値変換アルゴリズムが行われることによって、図6(C)の撮像画像P3は、図6(D)の基準画像P4に変換される。基準画像P4においては、撮像画像P3の赤外光対応領域AR1以外に対応する領域が「0」の出力画素値により黒色となっている。そして、基準画像P4において、撮像画像P3の赤外光対応領域AR1に対応する領域は、「0」より大きい出力画素値が集合している。このように、基準画像P4において、「0」より大きい出力画素値(第1閾値th1以上の入力画素値)の画素が集合した領域がマスク領域MSKである。   By performing the pixel value conversion algorithm in FIG. 7, the captured image P3 in FIG. 6C is converted into the reference image P4 in FIG. 6D. In the reference image P4, a region corresponding to the captured image P3 other than the infrared light corresponding region AR1 is black due to an output pixel value of “0”. In the reference image P4, output pixel values larger than “0” are gathered in the region corresponding to the infrared light corresponding region AR1 of the captured image P3. As described above, in the reference image P4, a region where pixels having an output pixel value larger than “0” (an input pixel value greater than or equal to the first threshold th1) is a mask region MSK.

また、赤外光投影領域IRAは中心から周辺にいくほど光量が低下する。これに伴い、撮像画像P3の赤外光対応領域AR1は、中央から縁側に近づくに従って輝度(画素値)が低下していく。つまり、赤外光対応領域AR1の縁側は、第1閾値th1以上から第2閾値th2以下の範囲に該当する入力画素値を有する画素が多く存在する。このために、基準画像P4における縁部BDにおいては、「0」から最大値の間の中間的な出力画素値を有する画素が多く存在している。
本実施形態のマスク領域検出部521は、図6(D)に示されるような基準画像を生成することにより、マスク領域を検出する。
Further, the amount of light in the infrared light projection area IRA decreases from the center to the periphery. Accordingly, the brightness (pixel value) of the infrared light corresponding area AR1 of the captured image P3 decreases as it approaches the edge side from the center. That is, on the edge side of the infrared light corresponding area AR1, there are many pixels having input pixel values corresponding to the range from the first threshold th1 to the second threshold th2. For this reason, in the edge BD in the reference image P4, there are many pixels having an intermediate output pixel value between “0” and the maximum value.
The mask area detection unit 521 of the present embodiment detects the mask area by generating a reference image as shown in FIG.

[画像合成処理の手順例]
続いて、図8を参照して、古地図の画像上の不可視光が投影された領域に対して、地図上で同じ場所の現代地図の画像を合成して表示する第1表示モードに応じて画像処理装置500における画像合成部522が実行する画像合成処理の手順例について説明する。
以下に説明する画像合成処理は、図6及び図7にて説明した処理によってマスク領域検出部521により得られた基準画像P4を利用した1フレーム分に対応する画像処理である。
[Example of image composition processing]
Next, referring to FIG. 8, in accordance with the first display mode in which an image of a modern map at the same location on the map is combined and displayed on an area where invisible light is projected on the image of the old map. A procedure example of the image composition process executed by the image composition unit 522 in the image processing apparatus 500 will be described.
The image composition processing described below is image processing corresponding to one frame using the reference image P4 obtained by the mask area detection unit 521 by the processing described in FIGS.

画像合成部522は、図8(A)に示されるように、マスク領域検出部521によるマスク領域の検出結果である基準画像P4を入力する。また、画像合成部522は、図8(B)に示されるように、副画像記憶部532から、第1表示モードに対応する副画像SB1を取得する。基準画像P4の縦横比は、前述のように補正処理の段階で主画像と一致するように補正が行われている(サイズ対応補正)。なお、副画像SB1のサイズは、主画像のサイズと同じである。   As shown in FIG. 8A, the image composition unit 522 inputs a reference image P4 that is a detection result of the mask region by the mask region detection unit 521. Further, the image composition unit 522 acquires the sub image SB1 corresponding to the first display mode from the sub image storage unit 532, as shown in FIG. 8B. As described above, the aspect ratio of the reference image P4 is corrected so as to coincide with the main image at the stage of the correction process (size corresponding correction). Note that the size of the sub-image SB1 is the same as the size of the main image.

画像合成部522は、副画像SB1を対象画像として、基準画像P4におけるマスク領域MSK以外の領域をマスクし、マスク領域MSKに含まれる領域を抽出するようにしてマスク処理を行う。
このようなマスク処理の結果、図8(C)に示すように、副画像SB1はマスク領域MSKに対応する領域において画像が表示され、マスク領域MSK以外の領域が非表示(例えば白レベル)となる。
The image composition unit 522 performs mask processing by using the sub-image SB1 as a target image, masking a region other than the mask region MSK in the reference image P4, and extracting a region included in the mask region MSK.
As a result of such mask processing, as shown in FIG. 8C, the sub-image SB1 is displayed in an area corresponding to the mask area MSK, and the area other than the mask area MSK is not displayed (for example, white level). Become.

次に、画像合成部522は、図8(D)に示すように、主画像記憶部531から主画像MNを入力する。そして、主画像MNに対して、マスク領域MSKに対応する領域のみが表示された図8(C)の副画像SB1を重ね合わせるようにして合成する。この結果、図8(E)に示すように、主画像MNに対してマスク領域MSKと同じ位置の副画像SB1の抽出画像EXが重畳して表示された合成画像PSHが生成される。   Next, the image composition unit 522 inputs the main image MN from the main image storage unit 531 as illustrated in FIG. Then, the sub-image SB1 shown in FIG. 8C in which only the area corresponding to the mask area MSK is displayed is superimposed on the main image MN. As a result, as shown in FIG. 8E, a composite image PSH is generated in which the extracted image EX of the sub-image SB1 at the same position as the mask area MSK is superimposed on the main image MN.

また、「0」から最大値の間の中間画素値が密集して存在する抽出画像EXの縁部BDにおける画素は、画素値に応じて同じ位置における合成比率が変更されたうえで主画像の画素との合成が行われる。このために、抽出画像EXにおいて、中心部は副画像の内容が明確に現れているが、縁部BD近傍は背景の主画像が透けて見えるように透明度を有した状態で表示される。
また、基準画像P4の縁部BDにおける画素値は、外周となるほど小さくなる傾向にある。このため、合成画像PSHにおける抽出画像EXは縁部BDの外側になるほど透明度が高くなっていく。
Further, the pixels in the edge BD of the extracted image EX in which intermediate pixel values between “0” and the maximum value exist densely are changed in the composition ratio at the same position in accordance with the pixel value. Synthesis with the pixel is performed. For this reason, in the extracted image EX, the content of the sub-image clearly appears at the center, but the vicinity of the edge BD is displayed with transparency so that the background main image can be seen through.
Further, the pixel value at the edge BD of the reference image P4 tends to be smaller as the outer circumference is reached. For this reason, the transparency of the extracted image EX in the composite image PSH increases as it goes outside the edge BD.

そして、図8(E)の合成画像PSHがスクリーン100に表示された場合には、ユーザYは、自分が照明装置300により不可視光を投影させているスクリーン100上の領域において、古地図に代えて同じ地図上の場所の現代地図が表示された状態を観察できる。つまり、第1表示モードとしての表示が実現される。
また、このように表示される合成画像PSHにおける抽出画像EXは、縁部BDの外側になるほど透明度が高くなっていることから、主画像MNとの境界が曖昧になるようにして見える。このように抽出画像EXと主画像MNとの境界が曖昧となるように表現されることで、スクリーン100にて表示される主画像上に表示される抽出画像EXの見え方を自然なものとすることができる。
When the composite image PSH of FIG. 8E is displayed on the screen 100, the user Y replaces the old map in the area on the screen 100 where the lighting device 300 projects the invisible light. You can observe a state where a modern map of a place on the same map is displayed. That is, display as the first display mode is realized.
In addition, the extracted image EX in the composite image PSH displayed in this way has higher transparency as it goes out of the edge BD, so that the boundary with the main image MN appears to be ambiguous. As described above, the boundary between the extracted image EX and the main image MN is expressed so as to be ambiguous, so that the appearance of the extracted image EX displayed on the main image displayed on the screen 100 is made natural. can do.

図9のフローチャートを参照して図6及び図7により説明したマスク領域検出と図8により説明した画像合成処理に対応して画像処理装置500が実行する処理手順例について説明する。なお、同図に示す処理は、1フレームに対応する画像処理となる。   A processing procedure example executed by the image processing apparatus 500 corresponding to the mask area detection described with reference to FIGS. 6 and 7 and the image composition processing described with reference to FIG. 8 will be described with reference to the flowchart of FIG. Note that the processing shown in the figure is image processing corresponding to one frame.

まず、マスク領域検出部521は、処理対象としてのフレームの撮像画像を入力する(ステップS101)。
次に、マスク領域検出部521は、撮像画像の補正(歪み補正、左右反転補正及びサイズ対応補正)を行う(ステップS102)。
First, the mask area detection unit 521 inputs a captured image of a frame as a processing target (step S101).
Next, the mask area detection unit 521 corrects the captured image (distortion correction, left / right inversion correction, and size correspondence correction) (step S102).

次に、マスク領域検出部521は、ステップS102により補正された撮像画像を利用して、マスク領域MSKを検出する(ステップS103)。具体的には、マスク領域検出部521は、図6にて説明したように、撮像画像P3の各画素の画素値(入力画素値)を図7に例示した画素値変換アルゴリズムによって出力画素値に変換することによって基準画像P4を生成する。   Next, the mask area detection unit 521 detects the mask area MSK using the captured image corrected in step S102 (step S103). Specifically, as described with reference to FIG. 6, the mask area detection unit 521 converts the pixel value (input pixel value) of each pixel of the captured image P3 into the output pixel value by the pixel value conversion algorithm illustrated in FIG. The reference image P4 is generated by the conversion.

次に、画像合成部522は、図8(A)、図8(B)にて説明したように、ステップS103によるマスク領域の検出結果として得られた基準画像P4と副画像SB1とを入力する。そして、画像合成部522は、副画像SB1について、図8(C)にて説明したように、基準画像P4のマスク領域MSKが対応する領域の画像を抽出するようにマスク処理を行う(ステップS104)。   Next, as described with reference to FIGS. 8A and 8B, the image composition unit 522 inputs the reference image P4 and the sub-image SB1 obtained as a result of detection of the mask area in step S103. . Then, as described with reference to FIG. 8C, the image composition unit 522 performs a mask process on the sub-image SB1 so as to extract an image in an area corresponding to the mask area MSK of the reference image P4 (Step S104). ).

次に画像合成部522は、図8(E)にて説明したように、ステップS104によるマスク処理が行われた副画像SB1を主画像MNに合成して、合成画像PSHを生成する(ステップS105)。
マスク領域検出部521と画像合成部522は、上記のようにフレームごとにステップS101〜S105の処理を実行して合成画像PSHを生成する。そして、画像合成部522は、合成画像PSHをフレーム画像とする画像信号を入出力部501からプロジェクタ200に出力させる。
Next, as described in FIG. 8E, the image composition unit 522 composes the sub-image SB1 subjected to the mask process in step S104 with the main image MN, and generates a composite image PSH (step S105). ).
The mask area detection unit 521 and the image composition unit 522 generate the composite image PSH by executing the processes of steps S101 to S105 for each frame as described above. Then, the image composition unit 522 causes the projector 200 to output an image signal using the composite image PSH as a frame image from the input / output unit 501.

なお、画像合成部522が、第3表示モードに対応した測量軌跡の副画像を利用して、図8及び図9と同様の手順による画像処理を行うことで、第1表示モードとしての表示を実現することができる。   The image composition unit 522 performs image processing according to the same procedure as in FIGS. 8 and 9 by using the sub-image of the surveying trajectory corresponding to the third display mode, so that the display as the first display mode is performed. Can be realized.

また、上記の図8及び図9による説明では、スクリーン100において1つの赤外光投影領域IRAが形成されていたことに応じて、撮像画像から1つのマスク領域が検出された場合を例に挙げている。
しかし、第1表示モードと第3表示モードは、マスク処理により主画像に副画像を合成するという処理により実現される。従って、第1表示モードと第3表示モードでは、撮像画像から複数のマスク領域が検出された場合においても、図8に示した処理により、各マスク領域に応じて主画像に副画像を合成させた合成画像が生成される。従って、照明装置300を操作するユーザ数については特に限定されることがない。
Further, in the description with reference to FIGS. 8 and 9 described above, a case where one mask area is detected from the captured image in accordance with the fact that one infrared light projection area IRA is formed on the screen 100 is taken as an example. ing.
However, the first display mode and the third display mode are realized by a process of combining the sub-image with the main image by the mask process. Therefore, in the first display mode and the third display mode, even when a plurality of mask areas are detected from the captured image, the sub-image is combined with the main image according to each mask area by the process shown in FIG. A composite image is generated. Therefore, the number of users who operate the lighting device 300 is not particularly limited.

次に、図10を参照して、古地図の画像上の不可視光が投影された領域に対して、同じ地図上の場所の古地図の拡大図を合成して表示する第2表示モードに応じて画像合成部522が実行する画像合成処理の手順例について説明する。
以下に説明する画像合成処理は、図6及び図7にて説明した処理によってマスク領域検出部521により得られた基準画像P4を利用した1フレーム分に対応する画像処理である。
Next, referring to FIG. 10, in response to the second display mode in which an enlarged view of the old map at the same map location is synthesized and displayed on the area where the invisible light on the old map image is projected. A procedure example of the image composition processing executed by the image composition unit 522 will be described.
The image composition processing described below is image processing corresponding to one frame using the reference image P4 obtained by the mask area detection unit 521 by the processing described in FIGS.

画像合成部522は、図10(A)に示されるように、マスク領域検出部521によるマスク領域の検出結果である基準画像P4を入力する。
また、画像合成部522は、図10(B)に示されるように、副画像記憶部532から、第2表示モードに対応する副画像SB2を取得する。副画像SB2は、前述のように主画像を拡大した画像を表示するために使用される。同図では、主画像の縦方向及び横方向をそれぞれ200%の倍率により拡大した副画像を表示する場合を例に挙げる。この場合、副画像SB2は、主画像の縦方向のサイズ(画素数)をX、主画像の横方向のサイズをYとすると、副画像SB2は、2X×2Yのサイズを有する。
なお、第2表示モードにおける主画像に対する副画像の倍率は特に限定されない。また、副画像の倍率は、1より大きい数値であってもよいし、1より小さい数値であってもよい。つまり、第2表示モードにより副画像として縮小画像を表示してもよい。
As shown in FIG. 10A, the image composition unit 522 inputs a reference image P4 that is a detection result of the mask region by the mask region detection unit 521.
In addition, the image composition unit 522 acquires the sub image SB2 corresponding to the second display mode from the sub image storage unit 532, as illustrated in FIG. The sub-image SB2 is used for displaying an image obtained by enlarging the main image as described above. In the figure, an example is shown in which a sub-image in which the vertical direction and the horizontal direction of the main image are enlarged at a magnification of 200% is displayed. In this case, the sub-image SB2 has a size of 2X × 2Y, where X is the vertical size (number of pixels) of the main image and Y is the horizontal size of the main image.
The magnification of the sub image with respect to the main image in the second display mode is not particularly limited. Further, the sub-image magnification may be a numerical value larger than 1 or a numerical value smaller than 1. That is, a reduced image may be displayed as a sub image in the second display mode.

ここで、図10(A)の基準画像P4は、主画像とX×Yのサイズを有する。これに対して、副画像SB2は、2X×2Yによるサイズを有する。そこで、本実施形態における画像合成部522は、主画像においてマスク領域MSKに対応する位置に同じ地図上の位置の拡大図を表示させるために、副画像SB2においてマスク領域MSKが対応する位置を特定する。
副画像SB2においてマスク領域MSKが対応する位置を特定するにあたり、画像合成部522は、図10(A)に示すように、基準画像P4におけるマスク領域MSKの重心座標GT1を算出する。
次に、画像合成部522は、図10(B)に示すように、副画像SB2において、重心座標GT1に対応する補助重心座標GT2を算出する。補助重心座標GT2は、基準画像P4を2倍に拡大して副画像SB2と同じサイズとした場合に、重心座標GT1と一致する副画像SB2上の座標である。
Here, the reference image P4 in FIG. 10A has a size of X × Y with the main image. On the other hand, the sub-image SB2 has a size of 2X × 2Y. Therefore, the image composition unit 522 in the present embodiment specifies the position corresponding to the mask area MSK in the sub-image SB2 in order to display an enlarged view of the position on the same map at the position corresponding to the mask area MSK in the main image. To do.
In specifying the position corresponding to the mask area MSK in the sub-image SB2, the image composition unit 522 calculates the barycentric coordinates GT1 of the mask area MSK in the reference image P4 as shown in FIG.
Next, as shown in FIG. 10B, the image composition unit 522 calculates auxiliary centroid coordinates GT2 corresponding to the centroid coordinates GT1 in the sub-image SB2. The auxiliary center-of-gravity coordinate GT2 is a coordinate on the sub-image SB2 that coincides with the center-of-gravity coordinate GT1 when the reference image P4 is doubled to have the same size as the sub-image SB2.

画像合成部522は、補助重心座標GT2が求められた副画像SB2において、マスク領域MSKが対応する位置を求める。このために、画像合成部522は、基準画像P4からマスク領域MSKを重心座標GT1とともに抽出する。そして、画像合成部522は、図10(C)に示すように、抽出したマスク領域MSKを、重心座標GT1と補助重心座標GT2とが一致するようにして副画像SB2に対して重ね合わせる。
そのうえで、画像合成部522は、同じ図10(C)に示すように、副画像SB2についてマスク領域MSK以外の領域をマスクし、マスク領域MSKが重ね合わされた領域の画像を抽出するようにマスク処理を行う。このようなマスク処理によって、副画像SB2から、マスク領域MSKが重ね合わされた抽出画像EXに含まれる画像部分が抽出される。
The image composition unit 522 obtains a position corresponding to the mask region MSK in the sub-image SB2 for which the auxiliary barycentric coordinates GT2 has been obtained. For this purpose, the image composition unit 522 extracts the mask region MSK from the reference image P4 together with the barycentric coordinates GT1. Then, as shown in FIG. 10C, the image composition unit 522 superimposes the extracted mask area MSK on the sub-image SB2 so that the center-of-gravity coordinates GT1 and the auxiliary center-of-gravity coordinates GT2 coincide.
In addition, as shown in FIG. 10C, the image composition unit 522 masks a region other than the mask region MSK for the sub-image SB2, and performs mask processing so as to extract an image of the region where the mask region MSK is superimposed. I do. By such mask processing, an image portion included in the extracted image EX on which the mask area MSK is superimposed is extracted from the sub-image SB2.

次に、画像合成部522は、図10(D)に示すように、第2表示モードに対応の主画像MNを主画像記憶部531から取得する。前述のように、主画像MNのサイズは、基準画像P4と同じく、X×Yである。
画像合成部522は、取得した主画像MNと図10(A)の基準画像P4とを重ね合わせた際に主画像MNにおいてマスク領域MSKが対応する領域に、図10(C)で説明したマスク処理によって抽出された抽出画像EXが合成される。
上記の合成処理によって、画像合成部522は、図10(E)に示されるように、主画像MNに対してマスク領域MSKと同じ位置の副画像SB2の抽出画像EXが重畳して表示された合成画像PSHが生成される。
Next, the image composition unit 522 acquires the main image MN corresponding to the second display mode from the main image storage unit 531 as illustrated in FIG. As described above, the size of the main image MN is X × Y like the reference image P4.
When the acquired main image MN and the reference image P4 in FIG. 10A are superimposed, the image composition unit 522 applies the mask described in FIG. 10C to the region corresponding to the mask region MSK in the main image MN. The extracted image EX extracted by the processing is synthesized.
As a result of the above-described combining process, the image combining unit 522 displays the extracted image EX of the sub-image SB2 at the same position as the mask area MSK superimposed on the main image MN, as shown in FIG. A composite image PSH is generated.

また、第2表示モードの場合においても、「0」から最大値の間の中間画素値が多く存在する抽出画像EXの縁部BDにおける画素は、画素値に応じて同じ位置における合成比率が変更されたうえで主画像の画素との合成が行われる。   Also in the second display mode, the composition ratio at the same position of the pixels in the edge BD of the extracted image EX where there are many intermediate pixel values between “0” and the maximum value is changed according to the pixel value. After that, composition with the pixels of the main image is performed.

そして、図10(E)の合成画像PSHがスクリーン100に表示された場合には、ユーザYは、主画像に基づく標準の縮尺の古地図が表示されたスクリーン100上で、自分が照明装置300により不可視光を投影させている領域において、標準に対して2倍の縮尺により拡大された古地図が表示された状態を観察できる。つまり、第2表示モードとしての表示が実現される。
また、このように表示される合成画像PSHにおける抽出画像EXについても、縁部BDの外側になるほど透明度が高くなっており、主画像MNとの境界は曖昧となるようにされている。
When the composite image PSH of FIG. 10E is displayed on the screen 100, the user Y himself / herself is the lighting device 300 on the screen 100 on which the standard scale old map based on the main image is displayed. Thus, in the region where invisible light is projected, it is possible to observe a state in which an old map enlarged by a scale of 2 times the standard is displayed. That is, display as the second display mode is realized.
In addition, the extracted image EX in the composite image PSH displayed in this way also has higher transparency as it goes outside the edge BD, and the boundary with the main image MN is made ambiguous.

図11のフローチャートを参照して、図10により説明した画像合成処理に対応して画像処理装置500が実行する処理手順例について説明する。なお、同図に示す処理は、1フレームに対応する画像処理となる。また、図10では、説明を分かりやすくすることの便宜上、撮像画像から1つのマスク領域が検出された場合に応じた基本的な画像合成処理について説明したが、図11のフローチャートでは、複数のマスク領域が検出された場合に対応した画像合成処理の手順例について説明する。   With reference to the flowchart of FIG. 11, an example of a processing procedure executed by the image processing apparatus 500 corresponding to the image composition processing described with reference to FIG. 10 will be described. Note that the processing shown in the figure is image processing corresponding to one frame. Further, in FIG. 10, for convenience of understanding the description, the basic image composition processing according to the case where one mask area is detected from the captured image has been described. However, in the flowchart of FIG. A procedure example of image composition processing corresponding to a case where a region is detected will be described.

同図において、ステップS201〜S203の処理は、図9のステップS101〜S103と同様に、マスク領域検出部521がマスク領域を検出するために実行する処理である。つまり、マスク領域を検出する処理の手順は、第1表示モード及び第3表示モードと、第2表示モードとで共通である。ステップS201〜S203によっては、撮像画像から複数のマスク領域が検出される場合がある。   In the same figure, the process of step S201-S203 is a process performed in order that the mask area | region detection part 521 detects a mask area | region similarly to step S101-S103 of FIG. That is, the processing procedure for detecting the mask area is common to the first display mode, the third display mode, and the second display mode. Depending on steps S201 to S203, a plurality of mask regions may be detected from the captured image.

次に、画像合成部522は、図10(A)にて説明したように、ステップS203によるマスク領域の検出結果として得られる基準画像P4におけるマスク領域MSKの重心座標GT1を算出する(ステップS204)。ここで、基準画像P4において複数のマスク領域MSKが存在する場合(複数のマスク領域MSKが検出された場合)、画像合成部522は、複数のマスク領域MSKごとの重心座標GT1を算出する。   Next, as described with reference to FIG. 10A, the image composition unit 522 calculates the barycentric coordinates GT1 of the mask region MSK in the reference image P4 obtained as the detection result of the mask region in step S203 (step S204). . Here, when there are a plurality of mask regions MSK in the reference image P4 (when a plurality of mask regions MSK are detected), the image composition unit 522 calculates the barycentric coordinates GT1 for each of the plurality of mask regions MSK.

また、画像合成部522は、基準画像P4に存在するマスク領域MSKごとにラベリングを行う(ステップS205)。ラベリングによって、基準画像P4に複数のマスク領域MSKが存在する場合、複数のマスク領域MSKについて弁別が行われる。なお、ラベリングの処理に際しては、例えば基準画像P4の2値化が行われる。さらにラベリングの処理にあたり、処理負荷の軽減のために、例えばサイズ(解像度)を小さくする処理を行ってもよい。
そのうえで、画像合成部522は、ステップS206によりラベリングを行ったマスク領域MSKごとに付されるラベル番号を示す変数nに、初期値として「0」を代入する(ステップS206)。この場合のラベル番号は「0」から昇順に従って付される。
Further, the image composition unit 522 performs labeling for each mask region MSK present in the reference image P4 (step S205). When there are a plurality of mask regions MSK in the reference image P4 by labeling, the plurality of mask regions MSK are discriminated. In the labeling process, for example, the reference image P4 is binarized. Further, in the labeling process, for example, a process of reducing the size (resolution) may be performed in order to reduce the processing load.
In addition, the image composition unit 522 substitutes “0” as an initial value for a variable n indicating a label number assigned to each mask area MSK labeled in step S206 (step S206). In this case, the label numbers are assigned in ascending order from “0”.

次に、画像合成部522は、図10(B)にて説明したように、副画像SB2においてラベル番号nのマスク領域の重心座標GT1に対応する補助重心座標GT2を算出する(ステップS207)。
次に、画像合成部522は、図10(C)にて説明したように、副画像SB2に、ステップS207により算出された補助重心座標GT2を基準としてラベル番号nのマスク領域MSKを重ね合わせる。そして、画像合成部522は、副画像SB2においてラベル番号nのマスク領域MSKに対応する領域の画像部分を抽出画像EXとして抽出する(ステップS208)。
次に、画像合成部522は、図19(E)にて説明したように、主画像MNにおいてラベル番号nのマスク領域MSKが対応する領域に、ステップS208により抽出された抽出画像EXを合成する(ステップS209)。
ステップS207による補助重心座標の算出と、ステップS208及びS209によるマスク処理とによって、n番目のマスク領域に対応する1つの抽出画像EXが主画像MNに対して合成される。
Next, as described with reference to FIG. 10B, the image composition unit 522 calculates auxiliary centroid coordinates GT2 corresponding to the centroid coordinates GT1 of the mask area with the label number n in the sub-image SB2 (step S207).
Next, as described with reference to FIG. 10C, the image composition unit 522 superimposes the mask region MSK with the label number n on the sub-image SB2 using the auxiliary barycentric coordinates GT2 calculated in step S207 as a reference. Then, the image composition unit 522 extracts the image portion of the area corresponding to the mask area MSK with the label number n in the sub-image SB2 as the extracted image EX (Step S208).
Next, as described with reference to FIG. 19E, the image composition unit 522 synthesizes the extracted image EX extracted in step S208 with the region corresponding to the mask region MSK with the label number n in the main image MN. (Step S209).
One extracted image EX corresponding to the nth mask region is synthesized with the main image MN by calculating the auxiliary barycentric coordinates in step S207 and the mask processing in steps S208 and S209.

ステップS209の処理を終了すると、画像合成部522は、変数nをインクリメントする(ステップS210)。画像合成部522は、ステップS210によりインクリメントされた変数nが最大値より大きいか否かについて判定する(ステップS211)。
変数nが最大値以下である場合(ステップS211−NO)、まだマスク処理(主画像MNに対する抽出画像EXの合成)が行われていないマスク領域MSKが残っている。そこで、この場合の画像合成部522は、ステップS207に処理を戻す。これにより、マスク領域MSKごとに対応してラベル番号nに従ってマスク処理が行われていく。
When the process of step S209 ends, the image composition unit 522 increments the variable n (step S210). The image composition unit 522 determines whether or not the variable n incremented in step S210 is larger than the maximum value (step S211).
If the variable n is less than or equal to the maximum value (step S211-NO), there remains a mask area MSK that has not yet been subjected to mask processing (combination of the extracted image EX with respect to the main image MN). Therefore, the image composition unit 522 in this case returns the process to step S207. As a result, mask processing is performed according to the label number n corresponding to each mask region MSK.

そして、全てのマスク領域MSKに対応するマスク処理が完了すると、変数nが最大値より大きくなったことが判定される(ステップS211−YES)。ステップS211にて変数nが最大値より大きくなったことが判定された段階では、ステップS203により検出された全てのマスク領域MSKごとに応じて、副画像SB2から抽出した抽出画像EXの合成が行われた合成画像PSHが生成されている。
以降において、マスク領域検出部521と画像合成部522は、1フレームごとのタイミングに応じて、ステップS201〜S211による処理を実行する。そして、画像合成部522は、合成画像PSHをフレーム画像とする画像信号を、表示用の画像信号として入出力部501からプロジェクタ200に出力させる。
When the mask processing corresponding to all the mask areas MSK is completed, it is determined that the variable n has become larger than the maximum value (step S211—YES). When it is determined in step S211 that the variable n has become larger than the maximum value, the extracted image EX extracted from the sub-image SB2 is combined for every mask area MSK detected in step S203. A broken composite image PSH is generated.
Thereafter, the mask area detection unit 521 and the image composition unit 522 execute the processes in steps S201 to S211 according to the timing for each frame. Then, the image synthesis unit 522 causes the projector 200 to output an image signal using the synthesized image PSH as a frame image from the input / output unit 501 as a display image signal.

これまでの説明から理解できるように、本実施形態においては、ユーザが照明装置300を入力デバイスとして使用して赤外光をスクリーン100に投影させて赤外光投影領域IRAをスクリーン100形成することで、領域を指定する操作を行うことができる。
つまり、本実施形態においては、領域を指定するにあたり、ユーザは、照明装置300によりスクリーン100に不可視光を投影させるという簡単な操作を行えばよく、座標の移動軌跡を描いて領域の輪郭を形成するといったような操作を行う煩わしさがない。
As can be understood from the above description, in the present embodiment, the user projects the infrared light onto the screen 100 using the illumination device 300 as an input device to form the infrared light projection area IRA. Thus, an operation for designating an area can be performed.
In other words, in this embodiment, when designating a region, the user only needs to perform a simple operation of projecting invisible light onto the screen 100 by the illumination device 300, and form the contour of the region by drawing a coordinate movement trajectory. There is no hassle of performing operations such as.

また、本実施形態においては、図12に例示するように、指定する領域の大きさと形状を簡単に変更することができる。
図12(A)においては、スクリーン100に対して、3つの照明装置300−1、300−2及び300−3から赤外光が投影された状態を平面方向から示している。なお、同図の説明にあたり、照明装置300−1、300−2及び300−3について特に区別しない場合には照明装置300と記載する。
In the present embodiment, as illustrated in FIG. 12, the size and shape of the designated area can be easily changed.
In FIG. 12A, a state in which infrared light is projected from the three illumination devices 300-1, 300-2, and 300-3 onto the screen 100 is shown from the planar direction. In the description of the drawing, the lighting devices 300-1, 300-2, and 300-3 are described as the lighting device 300 unless otherwise distinguished.

また、図12(B)には、照明装置300−1、300−2及び300−3のそれぞれから投影された赤外光によって赤外光投影領域が形成された状態のスクリーン100を前面側から見た図である。
同図において、赤外光投影領域IRA−1は、照明装置300−1から投影された赤外光によって形成されたものである。赤外光投影領域IRA−2は、照明装置300−2から投影された赤外光によって形成されたものである。赤外光投影領域IRA−3は、照明装置300−3から投影された赤外光によって形成されたものである。なお、同図の説明にあたり、赤外光投影領域IRA−1、IRA−2、IRA−3について特に区別しない場合には、赤外光投影領域IRAと記載する。
FIG. 12B shows the screen 100 in a state where an infrared light projection region is formed by infrared light projected from each of the lighting devices 300-1, 300-2, and 300-3 from the front side. FIG.
In the drawing, an infrared light projection area IRA-1 is formed by infrared light projected from the illumination device 300-1. The infrared light projection area IRA-2 is formed by infrared light projected from the illumination device 300-2. The infrared light projection area IRA-3 is formed by infrared light projected from the illumination device 300-3. In the description of the figure, the infrared light projection areas IRA-1, IRA-2, and IRA-3 are described as infrared light projection areas IRA unless otherwise distinguished.

ここで、照明装置300−1からスクリーン100までの距離ds1と、照明装置300−2からスクリーン100までの距離ds2とを比較した場合、距離ds1の方が長い。そして、照明装置300から出射された不可視光は、或る照射角に従って放射状に拡がっていく。
このため、図12(B)に示されるように、照明装置300−1に対応する赤外光投影領域IRA−1と照明装置300−2に対応する赤外光投影領域IRA−2とを比較した場合には、赤外光投影領域IRA−1の方が大きい。
つまり、本実施形態においては、ユーザがスクリーン100の前において前後方向に移動して照明装置300からスクリーン100までの距離を変化させることで、指定する領域のサイズを簡単に変更することができる。
Here, when the distance ds1 from the lighting device 300-1 to the screen 100 is compared with the distance ds2 from the lighting device 300-2 to the screen 100, the distance ds1 is longer. Then, the invisible light emitted from the illumination device 300 spreads radially according to a certain irradiation angle.
Therefore, as shown in FIG. 12B, the infrared light projection area IRA-1 corresponding to the illumination device 300-1 is compared with the infrared light projection area IRA-2 corresponding to the illumination device 300-2. In this case, the infrared light projection area IRA-1 is larger.
That is, in this embodiment, the size of the area to be specified can be easily changed by the user moving in the front-rear direction in front of the screen 100 and changing the distance from the lighting device 300 to the screen 100.

また、図12(A)に示すように、照明装置300−1と照明装置300−2は、スクリーン100に対してほぼ正面から赤外光を投影させているのに対して、照明装置300−3は、スクリーン100に対して或る傾斜角度を有した状態で投影されている。
このために、照明装置300−1と照明装置300−2のそれぞれに対応する赤外光投影領域IRA−1、IRA−2は、いずれもほぼ円形となっている。これに対して、照明装置300−3に対応する赤外光投影領域IRA−3は円形から扁平し、横方向に延伸された楕円形となる。
つまり、本実施形態においてはスクリーン100に対する照明装置300からの赤外光の照射角度を変化させることで赤外光投影領域IRAの形状を簡単に変更することができる。
また、赤外光投影領域IRAの形状については、例えば照明装置300のヘッド部302(図3)において赤外光が出射される開口部の一部を、手や板などで遮ることによっても簡単に変更することができる。
In addition, as illustrated in FIG. 12A, the illumination device 300-1 and the illumination device 300-2 project infrared light from the front almost on the screen 100, whereas the illumination device 300- 3 is projected with a certain tilt angle with respect to the screen 100.
For this reason, both the infrared light projection areas IRA-1 and IRA-2 corresponding to the illumination device 300-1 and the illumination device 300-2 are substantially circular. On the other hand, the infrared light projection area IRA-3 corresponding to the illumination device 300-3 is flattened from a circle and becomes an ellipse extending in the lateral direction.
That is, in the present embodiment, the shape of the infrared light projection area IRA can be easily changed by changing the irradiation angle of the infrared light from the illumination device 300 to the screen 100.
Further, the shape of the infrared light projection area IRA can be simplified by, for example, blocking a part of the opening from which infrared light is emitted in the head unit 302 (FIG. 3) of the illumination device 300 with a hand or a plate. Can be changed.

<第2実施形態>
次に、第2実施形態について説明する。
スクリーン100に形成される赤外光投影領域IRAは、スクリーン100に投影された赤外光がスクリーン100にて拡散することによって形成される。本実施形態におけるスクリーン100は背面投影型のプロジェクタ200に対応しているために或る程度の光透過性を有している。このため、スクリーン100を透過した直接光としての赤外光が強くなるような場合がある。この場合、撮像装置400は、スクリーン100にて拡散した赤外光とともに、スクリーン100にて拡散せずに撮像装置400に直接到達した赤外光も撮像する。
Second Embodiment
Next, a second embodiment will be described.
The infrared light projection area IRA formed on the screen 100 is formed by the infrared light projected on the screen 100 diffusing on the screen 100. Since the screen 100 in this embodiment corresponds to the rear projection type projector 200, the screen 100 has a certain degree of light transmission. For this reason, infrared light as direct light transmitted through the screen 100 may become strong. In this case, the imaging apparatus 400 captures infrared light that has directly diffused to the imaging apparatus 400 without being diffused by the screen 100 together with infrared light that has been diffused by the screen 100.

上記のようにスクリーン100にて拡散した赤外光とともに直接光としての赤外光が撮像される状態の一例について、図13を参照して説明する。
図13(A)は、スクリーン100の前側において右寄りの位置にて、照明装置300からスクリーン100に対して赤外光を照射している状態を示している。
この場合において、照明装置300から出射された赤外光の光束において、スクリーン100にて拡散する赤外光の範囲を光範囲L1により示し、スクリーン100にて拡散せずにスクリーン100を透過する赤外光の範囲を光範囲L2により示す。
光範囲L1にはスクリーン100の背面にて設置される撮像装置400が含まれていないが、光範囲L2には撮像装置400が含まれている。このような場合、撮像装置400で受ける赤外光としては、スクリーン100にて拡散された赤外光に対して直接光としての赤外光が相対的に強くなる。
An example of a state in which infrared light as direct light is imaged together with infrared light diffused by the screen 100 as described above will be described with reference to FIG.
FIG. 13A shows a state in which infrared light is radiated from the lighting device 300 to the screen 100 at a position on the right side on the front side of the screen 100.
In this case, in the infrared light beam emitted from the illumination device 300, the range of infrared light that is diffused by the screen 100 is indicated by the light range L 1, and red that is transmitted through the screen 100 without being diffused by the screen 100. The range of outside light is indicated by the light range L2.
The light range L1 does not include the imaging device 400 installed on the back surface of the screen 100, but the light range L2 includes the imaging device 400. In such a case, the infrared light received by the imaging device 400 is relatively stronger than the infrared light diffused by the screen 100 as the direct light.

上記のようにスクリーン100にて拡散された赤外光に対して直接光としての赤外光が相対的に強くなった場合、撮像装置400がスクリーン100を撮像して得られる撮像画像P3は、図13(B)に示す状態となる。
つまり、撮像画像P3においては、スクリーン100にて拡散した赤外光に応じて赤外光対応領域AR11に加え、直接光としての赤外光に対応する赤外光対応領域AR12が存在する状態となる。
When the infrared light as the direct light is relatively stronger than the infrared light diffused by the screen 100 as described above, the captured image P3 obtained by the imaging device 400 imaging the screen 100 is: The state shown in FIG.
That is, in the captured image P3, in addition to the infrared light corresponding area AR11 according to the infrared light diffused on the screen 100, there is a state in which an infrared light corresponding area AR12 corresponding to infrared light as direct light exists. Become.

ここで、赤外光対応領域AR11と赤外光対応領域AR12のうち、照明装置300を操作するユーザの意図に対応するのは赤外光対応領域AR11である。従って、この場合には、赤外光対応領域AR11に対応するマスク領域に応じた画像の合成が行われた合成画像が表示されればよい。
しかし、図13(B)に示される撮像画像P3についてマスク領域検出を行った場合には、赤外光対応領域AR11に対応するマスク領域に加え、赤外光対応領域AR12に対応するマスク領域まで検出されてしまう。この場合、スクリーン100には、赤外光対応領域AR11に対応するマスク領域に基づいて副画像が合成された領域だけではなく、赤外光対応領域AR12に対応するマスク領域に基づいて副画像が合成された領域まで表示されてしまう。即ち、この場合には、スクリーン100にユーザの操作に対応しない状態の画像まで表示されてしまうという誤動作が生じる。
Here, of the infrared light corresponding area AR11 and the infrared light corresponding area AR12, the infrared light corresponding area AR11 corresponds to the intention of the user who operates the illumination device 300. Therefore, in this case, it is only necessary to display a combined image in which images are combined according to the mask area corresponding to the infrared light corresponding area AR11.
However, when the mask area is detected for the captured image P3 shown in FIG. 13B, in addition to the mask area corresponding to the infrared light corresponding area AR11, the mask area corresponding to the infrared light corresponding area AR12 is also reached. It will be detected. In this case, the screen 100 has not only the area where the sub-image is synthesized based on the mask area corresponding to the infrared light corresponding area AR11 but also the sub image based on the mask area corresponding to the infrared light corresponding area AR12. The combined area will be displayed. That is, in this case, a malfunction occurs in which an image that does not correspond to the user's operation is displayed on the screen 100.

上記のような不具合に対する対策の1つは、図7にて説明した第1閾値th1を高く設定することである。第1閾値を高く設定することで、或る程度大きな値の入力画素値についても「0」の出力画素値とすることができる。このため、直接光の入力画素値が第1閾値th1未満であれば、直接光に応じた画像部分をマスク領域として検出しないようにできる。   One of the countermeasures against the above problems is to set the first threshold th1 described in FIG. 7 high. By setting the first threshold value high, an input pixel value having a somewhat large value can be set to an output pixel value of “0”. For this reason, if the input pixel value of the direct light is less than the first threshold th1, it is possible to prevent the image portion corresponding to the direct light from being detected as a mask region.

しかし、例えば撮像装置400にて受光される直接光が相当に強いような場合には、第1閾値th1の調整によって直接光の画像部分がマスク領域として検出されないようにすることが難しくなる。
また、第1閾値th1を高くすることによっては、第1閾値th1から第2閾値th2までの範囲が狭くなることにもつながる。第1閾値th1から第2閾値th2までの範囲が狭くなると、合成画像PSHにおける抽出画像EXと主画像MNとの領域が明確になってくるために見づらくなる場合がある。
However, for example, when the direct light received by the imaging device 400 is considerably strong, it is difficult to prevent the image portion of the direct light from being detected as a mask region by adjusting the first threshold th1.
Also, increasing the first threshold th1 leads to a narrowing of the range from the first threshold th1 to the second threshold th2. If the range from the first threshold th1 to the second threshold th2 becomes narrow, it may be difficult to see because the region of the extracted image EX and the main image MN in the composite image PSH becomes clear.

そこで、本実施形態の画像処理システムは、直接光としての赤外光に応じた赤外光対応領域をノイズとして除去可能なように構成される。直接光としての赤外光に応じた赤外光対応領域がノイズとして除去されれば、直接光としての赤外光に応じた赤外光対応領域に対応したマスク領域を誤検出することが防止される。
そこで、以下、直接光としての赤外光に応じた赤外光対応領域をノイズとして除去するための構成について説明する。
Therefore, the image processing system according to the present embodiment is configured to be able to remove the infrared light corresponding region corresponding to the infrared light as the direct light as noise. If the infrared light corresponding area corresponding to the infrared light as the direct light is removed as noise, it is possible to prevent erroneous detection of the mask area corresponding to the infrared light corresponding area corresponding to the infrared light as the direct light. Is done.
Therefore, hereinafter, a configuration for removing an infrared light corresponding region corresponding to infrared light as direct light as noise will be described.

図14は、本実施形態における画像処理システムの構成例を示している。同図に示すように、本実施形態においては、それぞれ異なる位置からスクリーン100を撮像するように設けられた2つの撮像装置400−1、400−2が備えられる。なお、以降の説明において、撮像装置400−1、400−2について特に区別しない場合には撮像装置400と記載する。   FIG. 14 shows a configuration example of the image processing system in the present embodiment. As shown in the figure, in the present embodiment, two imaging devices 400-1 and 400-2 are provided so as to image the screen 100 from different positions. In the following description, the imaging devices 400-1 and 400-2 are referred to as the imaging device 400 unless otherwise distinguished.

撮像装置400−1と撮像装置400−2は、一方の撮像装置400が直接光の光範囲L2に含まれている場合に、他方の撮像装置400は直接光の光範囲L2に含まれないようにされた位置関係を有する。撮像装置400−1と撮像装置400−2との間の距離Cdsは、上記の位置関係が得られるように設定される。
同図においては、撮像装置400−1は直接光の光範囲L2に含まれているが、撮像装置400−2は光範囲L2に含まれていない場合が示されている。
In the imaging device 400-1 and the imaging device 400-2, when one imaging device 400 is included in the direct light range L2, the other imaging device 400 is not included in the direct light range L2. It has the positional relationship made. The distance Cds between the imaging device 400-1 and the imaging device 400-2 is set so as to obtain the above positional relationship.
In the drawing, the imaging device 400-1 is included in the light range L2 of direct light, but the imaging device 400-2 is not included in the light range L2.

図15を参照して、本実施形態において、直接光としての赤外光に応じた赤外光対応領域をノイズとして除去するための画像処理の一例について説明する。
同図においては撮像画像P3−1と撮像画像P3−2が示されている。撮像画像P3−1は、図14の撮像装置400−1により撮像して得られた補正後の撮像画像である。撮像画像P3−2は、撮像装置400−2により撮像して得られた補正後の撮像画像である。
With reference to FIG. 15, an example of image processing for removing, as noise, an infrared light corresponding region corresponding to infrared light as direct light will be described in the present embodiment.
In the figure, a captured image P3-1 and a captured image P3-2 are shown. The captured image P3-1 is a corrected captured image obtained by capturing with the imaging device 400-1 in FIG. The captured image P3-2 is a corrected captured image obtained by capturing with the imaging device 400-2.

撮像装置400−1は、図14に示したように直接光の光範囲L2に含まれている。このために、撮像画像P3−1においては、スクリーン100にて拡散した赤外光に応じた赤外光対応領域AR11と、直接光としての赤外光に応じた赤外光対応領域AR12とが含まれている。
一方、撮像装置400−2は直接光の光範囲L2に含まれていない。このために、撮像画像P3−2においては、スクリーン100にて拡散した赤外光に応じた赤外光対応領域AR11は含まれているが、直接光としての赤外光に応じた赤外光対応領域AR12は含まれていない。
The imaging device 400-1 is included in the direct light range L2 as shown in FIG. For this reason, in the captured image P3-1, an infrared light corresponding area AR11 corresponding to the infrared light diffused by the screen 100 and an infrared light corresponding area AR12 corresponding to the infrared light as direct light are included. include.
On the other hand, the imaging device 400-2 is not included in the light range L2 of direct light. For this reason, the captured image P3-2 includes the infrared light corresponding area AR11 corresponding to the infrared light diffused by the screen 100, but the infrared light corresponding to the infrared light as the direct light. The corresponding area AR12 is not included.

本実施形態におけるマスク領域検出部521は、撮像画像P3−1と撮像画像P3−2とについて例えば乗算処理を行うことで、撮像画像P3−1と撮像画像P3−2との間で共通して存在する赤外光対応領域を含み、共通して存在しない赤外光対応領域を含まない撮像画像P3を生成する。
このようにして、本実施形態においては、図6(C)の撮像画像P3として、直接光としての赤外光に応じた赤外光対応領域が含まれないようにすることができる。そして、マスク領域検出部521は、撮像画像P3を対象としてマスク領域検出を行う。これにより、直接光としての赤外光に応じたマスク領域は検出されなくなり、結果的に、照明装置300を操作するユーザが意図した通りの合成画像を表示することができる。
The mask area detection unit 521 in the present embodiment is common between the captured image P3-1 and the captured image P3-2 by performing, for example, multiplication processing on the captured image P3-1 and the captured image P3-2. A captured image P3 including the existing infrared light corresponding region and not including the infrared light corresponding region that does not exist in common is generated.
In this way, in the present embodiment, the captured image P3 in FIG. 6C can be configured not to include an infrared light corresponding region corresponding to infrared light as direct light. Then, the mask area detection unit 521 performs mask area detection for the captured image P3. Thereby, the mask area | region according to the infrared light as direct light is no longer detected, As a result, the synthesized image as the user who operates the illuminating device 300 intended can be displayed.

なお、図14及び図15に示した本実施形態の構成は、照明装置300以外からスクリーン100に照射され、スクリーン100を透過するような外乱光に対しても有効である。
また、図14においては、2つの撮像装置400が備えられた例を示しているが、3以上の撮像装置400を備え、マスク領域検出部521は、3以上の撮像画像の間で共通に存在する赤外光対応領域を含む撮像画像を生成するように構成してもよい。
The configuration of the present embodiment illustrated in FIGS. 14 and 15 is also effective for disturbance light that is applied to the screen 100 from other than the illumination device 300 and passes through the screen 100.
FIG. 14 shows an example in which two imaging devices 400 are provided. However, three or more imaging devices 400 are provided, and the mask area detection unit 521 is present in common among the three or more captured images. A captured image including an infrared light corresponding region may be generated.

[変形例]
本実施形態においては、以下の構成によって、複数の照明装置300ごとに応じて異なる合成処理が行われるようにすることが可能である。
つまり、複数の照明装置300については、それぞれ異なる波長域による赤外光が出射されるように構成する。このためには、例えば複数の照明装置300ごとに異なる波長域の赤外光を通過させるフィルタを設ければよい。
[Modification]
In the present embodiment, it is possible to perform different synthesis processing depending on each of the plurality of lighting devices 300 with the following configuration.
That is, about the some illuminating device 300, it comprises so that the infrared light by a respectively different wavelength range may be radiate | emitted. For this purpose, for example, a filter that allows infrared light in a different wavelength region to pass for each of the plurality of lighting devices 300 may be provided.

また、撮像装置400については、複数の照明装置300が対応する波長域ごとの赤外光を個別に撮像できるように構成する。
このためには、複数の照明装置300が出射する赤外光の波長域ごとに応じた赤外光の撮像を行う複数の撮像装置400を設ければよい。
あるいは、1つの撮像装置400にスピンホイールや液晶チューナブルフィルタなどを適用して、例えばフィールドあるいはフレームごとに異なる波長域の赤外光を撮像した撮像画像が得られるように構成してもよい。
In addition, the imaging device 400 is configured so that infrared light for each wavelength range corresponding to the plurality of illumination devices 300 can be individually imaged.
For this purpose, a plurality of imaging devices 400 that perform imaging of infrared light corresponding to each wavelength range of infrared light emitted from the plurality of illumination devices 300 may be provided.
Alternatively, a spin wheel, a liquid crystal tunable filter, or the like may be applied to one imaging device 400 so that a captured image obtained by imaging infrared light in a different wavelength range for each field or frame, for example, may be obtained.

そして、画像処理装置500は、異なる波長域に対応する複数の撮像画像(波長域対応撮像画像)ごとに、マスク領域検出と主画像に対する副画像(抽出画像EX)の画像合成処理を個別に行う。このような構成によって、照明装置300を操作するユーザごとに、操作に応じて全く異なる抽出画像EXを表示することができる。
一例として、例えば3人のユーザが同じスクリーン100に照明装置300を使用して操作を行っている場合には以下のような表示を行うことができる。つまり、1人目のユーザに対応しては、第1表示モードにより現代地図を表示し、2人目のユーザに対応しては第2表示モードにより拡大図を表示し、3人目のユーザに対応しては第3表示モードにより測量軌跡を表示するというものである。
Then, the image processing apparatus 500 individually performs mask region detection and image synthesis processing of the sub-image (extracted image EX) for the main image for each of a plurality of captured images corresponding to different wavelength regions (wavelength region-capable captured images). . With such a configuration, a completely different extracted image EX can be displayed for each user who operates the lighting apparatus 300 according to the operation.
As an example, for example, when three users are operating the same screen 100 using the lighting device 300, the following display can be performed. In other words, the modern map is displayed in the first display mode for the first user, the enlarged view is displayed in the second display mode for the second user, and the third user is supported. In this case, the survey trajectory is displayed in the third display mode.

なお、これまでの実施形態における画像処理システムは、スクリーン100の背面からプロジェクタ200により画像を投影する背面投影型の構成であった。しかし、本実施形態の画像処理システムは、スクリーンの前面からプロジェクタによって画像を投影する前面投影型であってもよい。前面投影型の場合、撮像装置もスクリーンの前面側からスクリーンを撮像するように設けられる。   Note that the image processing system in the embodiments so far has a rear projection type configuration in which an image is projected from the rear surface of the screen 100 by the projector 200. However, the image processing system of the present embodiment may be a front projection type in which an image is projected from the front surface of the screen by a projector. In the case of the front projection type, the imaging device is also provided so as to capture the screen from the front side of the screen.

なお、上述の画像処理装置500としての機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述の画像処理装置500としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Note that a program for realizing the functions of the above-described image processing apparatus 500 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed, thereby executing the above-described process. Processing as the image processing apparatus 500 may be performed. Here, “loading and executing a program recorded on a recording medium into a computer system” includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices. The “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM. The recording medium also includes a recording medium provided inside or outside that is accessible from the distribution server in order to distribute the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program that can be executed by the terminal device. That is, the format stored in the distribution server is not limited as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device. Note that the program may be divided into a plurality of parts, downloaded at different timings, and combined in the terminal device, or the distribution server that distributes each of the divided programs may be different. Furthermore, the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or a client when the program is transmitted via a network. Including things. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

10 筐体、100 スクリーン、200 プロジェクタ、300 照明装置、301 本体部、302 ヘッド部、303 オンオフスイッチ、304 インジケータ、311 制御回路、312 バッテリ、313 不可視光出射部、313a 赤外線LED、313b 光学系部、314 照射範囲調整部、400 撮像装置、500 画像処理装置、501 入出力部、502 制御部、503 記憶部、521 マスク領域検出部、522 画像合成部、531 主画像記憶部、532 副画像記憶部 10 housing, 100 screen, 200 projector, 300 illumination device, 301 main body, 302 head, 303 on / off switch, 304 indicator, 311 control circuit, 312 battery, 313 invisible light emitting unit, 313a infrared LED, 313b optical system unit 314 Irradiation range adjustment unit, 400 imaging device, 500 image processing device, 501 input / output unit, 502 control unit, 503 storage unit, 521 mask area detection unit, 522 image composition unit, 530 main image storage unit, 532 sub image storage Part

Claims (13)

不可視光を撮像対象とする撮像装置がスクリーンを撮像して得られた撮像画像において前記スクリーンに投影された不可視光に対応するマスク領域を検出するマスク領域検出部と、
前記マスク領域検出部により検出されたマスク領域に基づいて複数の画像を合成する画像合成部と、
を備える画像処理装置。
A mask region detection unit that detects a mask region corresponding to the invisible light projected on the screen in a captured image obtained by the imaging device that captures the invisible light imaging the screen;
An image synthesis unit that synthesizes a plurality of images based on the mask area detected by the mask area detection unit;
An image processing apparatus comprising:
前記画像合成部は、主画像において前記マスク領域が対応する領域に対して、副画像において前記マスク領域が対応する領域の画像を合成する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image synthesis unit synthesizes an image of an area corresponding to the mask area in a sub-image with an area corresponding to the mask area in the main image.
前記画像合成部は、前記副画像のサイズが前記主画像と異なる場合において、前記主画像において前記マスク領域が対応する領域の重心座標と、前記副画像と前記主画像のサイズの比とに基づいて前記副画像において前記マスク領域が対応する領域を特定する
請求項2に記載の画像処理装置。
When the size of the sub image is different from that of the main image, the image composition unit is based on the barycentric coordinates of the region corresponding to the mask region in the main image and the ratio of the size of the sub image and the main image. The image processing apparatus according to claim 2, wherein an area corresponding to the mask area is specified in the sub-image.
前記マスク領域検出部は、撮像画像において第1閾値以上の画素値の画素が集合した領域を前記マスク領域として検出する
請求項1から3のいずれか一項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 3, wherein the mask area detection unit detects, as the mask area, an area in which pixels having a pixel value equal to or greater than a first threshold value in the captured image.
前記マスク領域検出部は、前記マスク領域に含まれる画素の画素値のうち、前記第1閾値以上から第2閾値以下の範囲の画素値については、前記画素値に応じたゼロから最大値未満の出力画素値に変換し、前記第2閾値より大きい画素値については最大の出力画素値に変換し、
前記画像合成部は、前記副画像において前記マスク領域が対応する領域に含まれる画素について前記出力画素値に基づいて前記主画像の画素と合成する
請求項4に記載の画像処理装置。
The mask area detection unit has a pixel value in a range from the first threshold value to the second threshold value among pixel values of the pixels included in the mask area, which is from zero to less than a maximum value according to the pixel value. Converting to an output pixel value, and converting a pixel value greater than the second threshold value to a maximum output pixel value;
The image processing apparatus according to claim 4, wherein the image synthesis unit synthesizes pixels included in an area corresponding to the mask area in the sub-image with pixels of the main image based on the output pixel value.
前記マスク領域検出部は、それぞれ異なる所定の位置から前記スクリーンを撮像する複数の撮像装置によって得られた複数の撮像画像の間で共通して存在する不可視光が投影された領域を、前記マスク領域として検出する
請求項1から5のいずれか一項に記載の画像処理装置。
The mask area detection unit is configured to display an area in which invisible light that is present in common among a plurality of captured images obtained by a plurality of imaging devices that capture the screen from different predetermined positions is projected, as the mask area. The image processing apparatus according to any one of claims 1 to 5.
前記撮像装置は、異なる波長域の不可視光ごとに撮像を行うことで、前記異なる波長域の不可視光ごとに応じた複数の波長域対応撮像画像を取得し、
前記マスク領域検出部は、前記複数の波長域対応撮像画像ごとにマスク領域を検出し、
前記画像合成部は、前記複数の波長域対応撮像画像ごとに検出されたマスク領域に基づいて、前記複数の波長域対応撮像画像ごとに個別に複数の画像を合成する
請求項1から6のいずれか一項に記載の画像処理装置。
The imaging device obtains a plurality of wavelength range-capable imaging images corresponding to the invisible light in the different wavelength regions by performing imaging for each invisible light in different wavelength regions,
The mask area detection unit detects a mask area for each of the plurality of captured images corresponding to wavelength ranges,
The said image synthetic | combination part synthesize | combines a several image separately for every said several wavelength range corresponding captured image based on the mask area | region detected for every said several wavelength range corresponding captured image. An image processing apparatus according to claim 1.
照明装置と、撮像装置と、画像処理装置とを備える画像処理システムであって、
前記照明装置は、不可視光を出射する不可視光出射部を備え、
前記撮像装置は、不可視光を撮像対象とし、前記照明装置から出射された不可視光が投影されるスクリーンを撮像するように設けられ、
前記画像処理装置は、
前記撮像装置によって得られた撮像画像において前記スクリーンに投影された不可視光に対応するマスク領域を検出するマスク領域検出部と、
前記マスク領域検出部により検出されたマスク領域に基づいて複数の画像を合成する画像合成部とを備え、
前記画像合成部により合成された画像が投影装置によって前記スクリーンに画像光として投影されるように、前記合成された画像を出力する出力部とを備える
画像処理システム。
An image processing system comprising an illumination device, an imaging device, and an image processing device,
The lighting device includes an invisible light emitting unit that emits invisible light,
The imaging device is provided to capture an invisible light to be imaged and to image a screen on which the invisible light emitted from the lighting device is projected,
The image processing apparatus includes:
A mask area detection unit that detects a mask area corresponding to invisible light projected on the screen in a captured image obtained by the imaging apparatus;
An image composition unit that composes a plurality of images based on the mask region detected by the mask region detection unit;
An image processing system comprising: an output unit that outputs the synthesized image so that the image synthesized by the image synthesizing unit is projected as image light on the screen by a projection device.
それぞれ異なる所定の位置から前記スクリーンを撮像する複数の前記撮像装置を備え、
前記マスク領域検出部は、前記複数の撮像装置によって得られた複数の撮像画像の間で共通して存在する不可視光が投影された領域を、前記マスク領域として検出する
請求項8に記載の画像処理システム。
A plurality of the imaging devices for imaging the screen from different predetermined positions,
The image according to claim 8, wherein the mask area detection unit detects, as the mask area, an area projected with invisible light that exists in common among a plurality of captured images obtained by the plurality of imaging devices. Processing system.
それぞれ異なる波長域の不可視光を出射する複数の前記照明装置を備え、
前記撮像装置は、前記異なる波長域の不可視光ごとに撮像を行うことで、前記異なる波長域の不可視光ごとに応じた複数の波長域対応撮像画像を取得し、
前記マスク領域検出部は、前記複数の波長域対応撮像画像ごとにマスク領域を検出し、
前記画像合成部は、前記複数の波長域対応撮像画像ごとに検出されたマスク領域に基づいて、前記複数の波長域対応撮像画像ごとに個別に複数の画像を合成する
請求項8または9に記載の画像処理システム。
A plurality of the illumination devices that emit invisible light in different wavelength ranges,
The imaging device obtains a plurality of wavelength-band-captured captured images corresponding to the invisible light in the different wavelength ranges by performing imaging for the invisible light in the different wavelength ranges,
The mask area detection unit detects a mask area for each of the plurality of captured images corresponding to wavelength ranges,
The said image synthetic | combination part synthesize | combines a several image separately for every said several wavelength range corresponding captured image based on the mask area | region detected for every said several wavelength range corresponding captured image. Image processing system.
携帯に対応する外形を有し、不可視光を出射する不可視光出射部を備える
照明装置。
An illuminating device including an invisible light emitting unit that has an outer shape corresponding to a mobile phone and emits invisible light.
前記不可視光出射部から不可視光が出射されている状態と不可視光が出射されていない状態とのいずれの状態であるのかを報知する出射状態報知部をさらに備える
請求項11に記載の照明装置。
The illuminating device according to claim 11, further comprising: an emission state notifying unit that notifies whether the invisible light is emitted from the invisible light emitting unit or the invisible light is not emitted.
前記不可視光出射部から出射される不可視光の照射範囲を調整する照射範囲調整部をさらに備える
請求項11または12に記載の照明装置。
The illumination device according to claim 11, further comprising an irradiation range adjustment unit that adjusts an irradiation range of the invisible light emitted from the invisible light emission unit.
JP2015003162A 2015-01-09 2015-01-09 Image processing apparatus and image processing system Active JP6604528B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015003162A JP6604528B2 (en) 2015-01-09 2015-01-09 Image processing apparatus and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015003162A JP6604528B2 (en) 2015-01-09 2015-01-09 Image processing apparatus and image processing system

Publications (2)

Publication Number Publication Date
JP2016128870A true JP2016128870A (en) 2016-07-14
JP6604528B2 JP6604528B2 (en) 2019-11-13

Family

ID=56384326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015003162A Active JP6604528B2 (en) 2015-01-09 2015-01-09 Image processing apparatus and image processing system

Country Status (1)

Country Link
JP (1) JP6604528B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157916A (en) * 2016-02-29 2017-09-07 国立大学法人東京工業大学 Multiplex information display system and lighting device for use therein
JP2019120885A (en) * 2018-01-10 2019-07-22 パナソニックIpマネジメント株式会社 Projection control system and projection control method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11271675A (en) * 1998-03-25 1999-10-08 Minolta Co Ltd Projector system
JP2003234983A (en) * 2002-02-12 2003-08-22 Seiko Epson Corp Projector
JP2004049412A (en) * 2002-07-17 2004-02-19 Konami Co Ltd Video game apparatus, video game image processing method, and program
JP2010026021A (en) * 2008-07-16 2010-02-04 Sony Corp Display device and display method
JP2011081651A (en) * 2009-10-08 2011-04-21 Sanyo Electric Co Ltd Projection type video display device
JP2011182026A (en) * 2010-02-26 2011-09-15 Seiko Epson Corp Image processing apparatus, image display system, and image extracting device
JP2012104096A (en) * 2010-10-14 2012-05-31 Nikon Corp Projector

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11271675A (en) * 1998-03-25 1999-10-08 Minolta Co Ltd Projector system
JP2003234983A (en) * 2002-02-12 2003-08-22 Seiko Epson Corp Projector
JP2004049412A (en) * 2002-07-17 2004-02-19 Konami Co Ltd Video game apparatus, video game image processing method, and program
JP2010026021A (en) * 2008-07-16 2010-02-04 Sony Corp Display device and display method
JP2011081651A (en) * 2009-10-08 2011-04-21 Sanyo Electric Co Ltd Projection type video display device
JP2011182026A (en) * 2010-02-26 2011-09-15 Seiko Epson Corp Image processing apparatus, image display system, and image extracting device
JP2012104096A (en) * 2010-10-14 2012-05-31 Nikon Corp Projector

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157916A (en) * 2016-02-29 2017-09-07 国立大学法人東京工業大学 Multiplex information display system and lighting device for use therein
JP2019120885A (en) * 2018-01-10 2019-07-22 パナソニックIpマネジメント株式会社 Projection control system and projection control method
JP7054774B2 (en) 2018-01-10 2022-04-15 パナソニックIpマネジメント株式会社 Projection control system and projection control method

Also Published As

Publication number Publication date
JP6604528B2 (en) 2019-11-13

Similar Documents

Publication Publication Date Title
JP6398248B2 (en) Position detection system and method for controlling position detection system
US9609206B2 (en) Image processing apparatus, method for controlling image processing apparatus and storage medium
JP6375672B2 (en) Position detecting apparatus and position detecting method
JP6417690B2 (en) Projector, display device, and projector control method
JP6111706B2 (en) Position detection apparatus, adjustment method, and adjustment program
JP5916248B2 (en) Image generating apparatus, image generating method, program, and computer-readable information storage medium
JP6459194B2 (en) Projector and projected image control method
JP6375660B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2014170511A (en) System, image projection device, information processing device, information processing method, and program
JP2015158653A (en) Reflector, adjustment method, and position detector
JP5601179B2 (en) Gaze detection apparatus and gaze detection method
JP2015166893A (en) Position detector and control method of position detector
JP2018160265A (en) Position detection system, and control method of position detection system
JP5319999B2 (en) Lighting device
JP6604528B2 (en) Image processing apparatus and image processing system
JP5724064B2 (en) Optical projection device
US9838657B2 (en) Projection enhancement system
JP2008287624A (en) System and method for processing image, image processor, and program
JP2016012203A (en) Display device, display method and program
JP5414379B2 (en) Optical wireless communication apparatus, optical wireless communication method, and program
WO2023047833A1 (en) Control device, control method, control program, and projection system
JP2012053603A (en) Information display system
CN108351684B (en) Operation detection device, operation detection method and image display system
JP2019117322A (en) Projection type display unit, method of controlling the same, and program
KR20110074442A (en) Image processing apparatus, image processing method and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150206

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20150206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181030

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191003

R150 Certificate of patent or registration of utility model

Ref document number: 6604528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350