JP2007243707A - Image separation unit - Google Patents

Image separation unit Download PDF

Info

Publication number
JP2007243707A
JP2007243707A JP2006064542A JP2006064542A JP2007243707A JP 2007243707 A JP2007243707 A JP 2007243707A JP 2006064542 A JP2006064542 A JP 2006064542A JP 2006064542 A JP2006064542 A JP 2006064542A JP 2007243707 A JP2007243707 A JP 2007243707A
Authority
JP
Japan
Prior art keywords
image
primary color
projection
projected
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006064542A
Other languages
Japanese (ja)
Inventor
Akichika Shiomi
彰睦 塩見
Nobuyuki Tamori
信行 田森
Tomohiro Hatsugawa
友宏 秡川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2006064542A priority Critical patent/JP2007243707A/en
Publication of JP2007243707A publication Critical patent/JP2007243707A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image separation unit capable of obtaining image data of a background image by eliminating a projected image from a background screen affected by the projected image, and reproducing only the projected image data. <P>SOLUTION: A projection means 12 projects each primary color component successively and periodically at high speed after resolving image information into a plurality of primary color components. An imaging means 16 images an image including the background screen affected by the projection in synchronization with the projection using each sensor provided correspondingly to each primary color. Based on an algorithm using a correlation function among a plurality of the sensors to each primary color which is predetermined in the projection means 12 and the imaging means 16, a calculation processing means 17 performs the calculation processing of outputs of the primary color component and one or more primary colors other than the affected primary color from the image output corresponding to each primary color so as to obtain either image data of only the background screen unaffected by the projection, or information data of the image excluding the background screen. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、投影画像の影響を受けた背景画面において、投影画像が無い状態と同等の背景画面の画像データを分離したり、投影画像のデータを合成画像から分離することができる像分離装置に関する。さらに、本発明は、重なり部分のない原色の投影や、重なりがなく正確に原色に対応する出力のみを取り出すセンサを用いることができない通常の環境においても、像分離を可能にする像分離装置に関する。   The present invention relates to an image separation apparatus capable of separating image data of a background screen equivalent to a state without a projection image on a background screen affected by the projection image, or separating projection image data from a synthesized image. . Furthermore, the present invention relates to an image separation apparatus that enables image separation even in a normal environment where it is not possible to use a primary color projection without an overlapping portion or a sensor that does not overlap and can accurately output only the output corresponding to the primary color. .

背景と非背景(物体)とを分離するものとしてクロマキーシステムがあり、これは、背景に特定の色を使ったり背景の色を変化させて非背景(物体)を分離するものである。
特許文献1記載の発明(クロマキーシステム)は、背景の色を変化させて変化する色を背景と識別し、背景と非背景を分離することを開示している。
特許文献2記載の発明(物体画像切り出し方法、装置、システム及びそのプログラムを記録した媒体)は、2つの異なる背景色における物体の画像から切り出した物体領域(クロマキー物体領域切り出し)の論理和をとることで、物体画像の切り出しを行うことができることを開示している。
特許文献3記載の発明(像分離装置)は、プロジェクタ等により投影されている投影像を除去して投影像の無い場合の実像を得ることができることを開示しているが、投影像を完全に除去することができない。
特許第3241327号公報 特開2000−152278号公報 特開2005−182413号公報
There is a chroma key system that separates a background from a non-background (object), which uses a specific color for the background or changes the color of the background to separate the non-background (object).
The invention described in Patent Document 1 (chroma key system) discloses that a color that changes by changing the color of the background is identified as the background, and the background and the non-background are separated.
The invention described in Patent Document 2 (object image clipping method, apparatus, system, and medium on which the program is recorded) takes the logical sum of object regions (chroma key object region clipping) that are clipped from object images in two different background colors. Thus, it is disclosed that an object image can be cut out.
The invention (image separation device) described in Patent Document 3 discloses that a projected image projected by a projector or the like can be removed to obtain a real image when there is no projected image. It cannot be removed.
Japanese Patent No. 3241327 JP 2000-152278 A JP 2005-182413 A

プロジェクタ等でRGB各色に色分解されて順次高速に投影された画像をプロジェクタの各色に同期する高速度カメラで撮像しても、プロジェクタやカメラのイメージセンサの色フィルタの分光特性が幅広く、RGBの各原色成分の分光特性がお互いに重なり合う部分が存在するためカメラのセンサには、R投影時にはR成分以外のGB成分も撮像される。同様に、G投影時にはG成分以外のRB成分も撮像され、B投影時にはB成分以外のRG成分も撮像される。
このように、本来投影されている原色以外の原色成分がカメラに撮像されるため、単純な色の差分や合成のような方法では空間に投影された投影像を完全に除去することができない。
Even if an image that has been separated into RGB colors by a projector or the like and sequentially projected at a high speed is captured by a high-speed camera synchronized with each color of the projector, the spectral characteristics of the color filters of the projector and the image sensor of the camera are wide, and RGB Since there are portions where the spectral characteristics of the primary color components overlap each other, the camera sensor also captures GB components other than the R component during R projection. Similarly, RB components other than the G component are imaged during G projection, and RG components other than the B component are also imaged during B projection.
In this way, since primary color components other than the primary color that is originally projected are picked up by the camera, the projected image projected onto the space cannot be completely removed by a method such as simple color difference or composition.

本発明者らは、本来投影されている原色以外の原色成分が存在することを前提とした色合成のアルゴリズムを開発し、この方法により空間に投影された投影像を除去することができる。更に、撮像画像から背景画像(撮像側から見た投影画像の無い背景像)を除去することで背景に投影された状態の画像のみを得ること(背景画像と投影画像を分離すること)ができるようにすることに着目した。
本発明の目的は、投影像の影響を受けた背景画面から投影像を完全に除去して、背景の像の画像データを取得したり、投影像のデータのみを再現することができる像分離装置を提供することにある。
The inventors of the present invention have developed a color synthesis algorithm on the premise that there are primary color components other than the primary color that is originally projected, and this method can remove a projected image projected in space. Furthermore, by removing the background image (background image without the projected image viewed from the imaging side) from the captured image, it is possible to obtain only the image projected on the background (separating the background image and the projected image). Focused on doing so.
An object of the present invention is to obtain an image data of a background image by completely removing the projection image from a background screen affected by the projection image, or to reproduce only the data of the projection image Is to provide.

前記目的を達成するために、本発明による請求項1記載の像分離装置は、
画像の情報を複数の原色成分に分解して各原色成分を順次高速で周期的に背景画面に投影する投影手段と、
前記投影の影響を受けた前記背景画面を含む像を各原色対応のセンサにより前記投影に同期して撮像する撮像手段と、
前記投影手段と撮像手段において、予め定まる各原色に対する前記複数のセンサ間の相関関係関数を用いたアルゴリズムに基づいて、
前記各原色対応の画像出力から当該原色成分とこの影響を受けた当該原色成分以外の1以上の原色成分の出力を演算処理することにより、前記投影の影響を受けていない背景画面のみの画像データまたは背景画面を含まない画像の情報データを得る演算処理手段から構成されている。
In order to achieve the object, an image separating apparatus according to claim 1 according to the present invention is provided.
Projecting means for decomposing image information into a plurality of primary color components and sequentially projecting each primary color component on the background screen at high speed sequentially,
Imaging means for capturing an image including the background screen affected by the projection in synchronization with the projection by a sensor corresponding to each primary color;
Based on an algorithm using a correlation function between the plurality of sensors for each primary color determined in advance in the projection unit and the imaging unit,
By calculating the output of the primary color component and one or more primary color components other than the affected primary color component from the image output corresponding to each primary color, image data of only the background screen not affected by the projection Alternatively, it is constituted by arithmetic processing means for obtaining information data of an image that does not include a background screen.

本発明による請求項2記載の像分離装置は、請求項1記載の像分離装置において、
前記投影手段により投影される画像の情報は動画を含み、前記撮像手段は、前記投影された画像の前景から撮像するように構成されている。
本発明による請求項3記載の像分離装置は、
請求項1または2記載の像分離装置において、前記アルゴリズムは、各原色対応の撮像画像に対して、当該原色成分以外の一つまたは二つの原色成分をそれぞれ用いて、空間に投影された画像を推定するものである。
The image separation device according to claim 2 of the present invention is the image separation device according to claim 1,
The information on the image projected by the projection unit includes a moving image, and the imaging unit is configured to capture an image from the foreground of the projected image.
According to the present invention, there is provided an image separating apparatus according to claim 3.
3. The image separation device according to claim 1, wherein the algorithm uses an image projected in space using one or two primary color components other than the primary color component for a captured image corresponding to each primary color, respectively. To be estimated.

本発明による請求項4記載の像分離装置は、請求項1、2または3記載の像分離装置において、前記アルゴリズムは、前記分離されるべき画像データを規定する前記相関関係関数が2次以上の積となり、かつ、影響が極めて小さい場合はその項の演算を省略した近似式を用いるものである。   According to a fourth aspect of the present invention, there is provided the image separation device according to the first, second, or third aspect, wherein the algorithm has a second or higher order correlation function that defines the image data to be separated. If it is a product and the influence is extremely small, an approximate expression in which the calculation of the term is omitted is used.

本発明による像分離装置は、講演等においてプロジェクタ等により前景(非背景)側から講演者にも投影されるような場面や背景側からスクリーン等に投影されるような場面でも投影像の無い人物像を得ることができる。よって、投影像を除去した像により講演者のトラッキングが容易に行え、投影像を除去した講演者のみの像の記録も可能である。
また、プロジェクタで投影した画面に対してジェスチャ等でインタラクティブに操作するような場面でジェスチャを解析する際に投影像の影響(プロジェクタ等で投影されている投影像やその中の動画等の影響)を受けなくできる。
更に、物体に計測用画像を投影し、撮像画像から物体画像を除去することで物体に投影された計測用画像のみを得ることができるので、物体の表面色や背景等の影響を受けずに物体の形状を測定することができる。
The image separation device according to the present invention is a person who has no projection image even in a scene such as a projector projected from the foreground (non-background) side or a scene projected from the background side onto a screen or the like in a lecture or the like. An image can be obtained. Therefore, the speaker can be easily tracked by the image from which the projection image is removed, and the image of only the speaker from which the projection image is removed can be recorded.
In addition, the influence of the projected image when analyzing the gesture in a scene where the screen projected by the projector is operated interactively with the gesture, etc. (the influence of the projected image projected by the projector, etc., and the moving image in the image) Can not receive.
Furthermore, it is possible to obtain only the measurement image projected on the object by projecting the measurement image onto the object and removing the object image from the captured image, so that it is not affected by the surface color or background of the object. The shape of the object can be measured.

以下図面等を参照して本発明による像分離装置の実施形態をさらに詳しく説明する。
(第1の実施形態)
図1に本発明による像分離装置の第1の実施形態の概略構成を示し、図2に演算処理手段の概略構成を示す。図1において、投影手段であるプロジェクタ12に投影したい画像である入力画像11を入力する。プロジェクタとしては、例えば、単板デジタルミラー方式のDLPプロジェクタが利用できる。プロジェクタ12は、前景より空間に対して、複数の原色成分に分解して各原色成分を順次高速で周期的に投影する。以下、プロジェクタ12がRGBの各原色成分に分解して空間の前景より投影するものとして説明する。
Embodiments of an image separation device according to the present invention will be described below in more detail with reference to the drawings.
(First embodiment)
FIG. 1 shows a schematic configuration of a first embodiment of an image separation apparatus according to the present invention, and FIG. 2 shows a schematic configuration of arithmetic processing means. In FIG. 1, an input image 11 that is an image to be projected onto a projector 12 that is a projection unit is input. As the projector, for example, a single plate digital mirror type DLP projector can be used. The projector 12 divides the primary color component into a plurality of primary color components from the foreground to the space, and sequentially projects each primary color component sequentially at a high speed. In the following description, it is assumed that the projector 12 is divided into RGB primary color components and projects from the foreground of the space.

投影手段であるプロジェクタ12の各原色成分の色(RGB各色)の投影に同期してプロジェクタ12から同期信号が出力される。プロジェクタ12の同期信号を基に演算処理手段17で生成される撮像制御信号に応じて撮像手段であるカメラ16で撮像する。カメラ16は、プロジェクタ12が投影する前景側から空間に向かって撮像するように設置される。このとき、カメラ16から見た空間の像15は、プロジェクタ12からの投影がない前景より見た空間像13の上にプロジェクタ12より投影された投影画像14が重なって混合された混合画像15となる。空間の像は、プロジェクタ12より投影された画像14の下になるため前景から見た背景画像13となる。カメラ16で撮像した画像は、プロジェクタ12からの各原色成分の色の投影の同期信号とともに演算処理手段17に入力される。   A synchronization signal is output from the projector 12 in synchronism with the projection of each primary color component color (RGB color) of the projector 12 which is the projection means. An image is picked up by the camera 16 which is an image pickup means in accordance with an image pickup control signal generated by the arithmetic processing means 17 based on the synchronization signal of the projector 12. The camera 16 is installed so as to capture images from the foreground side projected by the projector 12 toward the space. At this time, the image 15 of the space viewed from the camera 16 is combined with the mixed image 15 in which the projection image 14 projected from the projector 12 is superimposed on the space image 13 viewed from the foreground without projection from the projector 12. Become. Since the image of the space is below the image 14 projected from the projector 12, it becomes the background image 13 viewed from the foreground. An image captured by the camera 16 is input to the arithmetic processing means 17 together with a synchronization signal for projection of the primary color components from the projector 12.

演算処理手段17においては、図2に示すように、同期制御部26で入力された同期信号を基に図1のカメラ16用の撮像制御信号、図2の入力処理I/F部21用の画像入力制御信号及び演算処理部24用の演算処理制御信号を生成する。入力処理I/F部21では、撮像制御信号によりカメラ16で撮像され、順次入力された各原色対応の画像データを同期制御部26で生成された画像入力制御信号に応じて一旦画像メモリ用バス22を介して画像メモリ23に保管する。同図の演算処理部24では、同期制御部26で生成された演算処理制御信号に応じて画像メモリ用バス22を介して画像メモリ23より、当該原色成分とこの影響を受けた当該原色成分以外の1以上の原色成分を読み出し、このデータを用いて、空間に投影された投影像のみの当該原色成分とこの影響を受けた原色成分とを、本発明であるアルゴリズムを用いて演算処理部24で求め、画像メモリ23に保管する。
この結果を各原色に対応した撮像画像から減算し、投影画像の影響を受けていないと同等の背景画像を各原色ごとに演算処理部24で求め、画像メモリ23に保管する。更に、この結果を各原色に対応した撮像画像から減算し、空間に投影された投影像の各原色成分を演算処理部24で求め、画像メモリ23に保管する。この結果を各原色成分ごとに1周期分加算し、空間に投影された投影像(撮像画像から背景画像を除去した画像)を演算処理部24で求め、画像メモリ23に保管する。
In the arithmetic processing means 17, as shown in FIG. 2, the imaging control signal for the camera 16 of FIG. 1 and the input processing I / F unit 21 of FIG. 2 are based on the synchronization signal input by the synchronization control unit 26. An image input control signal and an arithmetic processing control signal for the arithmetic processing unit 24 are generated. In the input processing I / F unit 21, image data corresponding to each primary color captured by the camera 16 in accordance with the imaging control signal and sequentially input is temporarily stored in the image memory bus according to the image input control signal generated by the synchronization control unit 26. The image data is stored in the image memory 23 via 22. In the arithmetic processing unit 24 shown in the figure, the primary color component other than the primary color component affected by the primary color component from the image memory 23 via the image memory bus 22 according to the arithmetic processing control signal generated by the synchronization control unit 26 is shown. One or more primary color components are read out, and using this data, the primary color component of only the projected image projected on the space and the primary color component affected by this are calculated using the algorithm of the present invention. And stored in the image memory 23.
This result is subtracted from the captured image corresponding to each primary color, and an equivalent background image that is not affected by the projection image is obtained for each primary color by the arithmetic processing unit 24 and stored in the image memory 23. Further, this result is subtracted from the captured image corresponding to each primary color, and each primary color component of the projected image projected onto the space is obtained by the arithmetic processing unit 24 and stored in the image memory 23. The result is added for one period for each primary color component, and a projection image projected on the space (an image obtained by removing the background image from the captured image) is obtained by the arithmetic processing unit 24 and stored in the image memory 23.

各原色ごとに撮像された入力画像を画像メモリ23より読み出し、1周期分加算し、目で見ていると同等の画像(通常の可視画像。ここでは通常画像ということにする。)を求め、画像メモリ23に保管することもできる。演算の結果求められた通常画像、空間に投影された投影画像、投影画像の影響を受けていない背景画像(前景画像)は、操作子25等の画像選択情報により選択されるかそれぞれ個別に、画像メモリ23より読み出され同期制御部26で生成された演算処理制御信号に同期して演算処理部24より出力され、図1の出力手段18に入力される。   An input image picked up for each primary color is read from the image memory 23 and added for one period to obtain an image equivalent to what is seen with eyes (a normal visible image, here referred to as a normal image). It can also be stored in the image memory 23. The normal image obtained as a result of the operation, the projected image projected on the space, and the background image (foreground image) not affected by the projected image are selected by the image selection information such as the operator 25 or individually. 1 is output from the arithmetic processing unit 24 in synchronization with the arithmetic processing control signal read from the image memory 23 and generated by the synchronization control unit 26, and is input to the output means 18 in FIG.

出力手段18は、入力された画像を利用する表示装置であり、入力された画像をディスプレイ等に表示する。出力手段として、入力された画像を記録する画像記録装置、入力された画像を用いて人物の追跡をするトラッキング装置、入力された画像から人物のジェスチャを解析するジェスチャ解析装置、入力された画像から物体の計測をする計測装置等を挙げることができる。   The output means 18 is a display device that uses an input image, and displays the input image on a display or the like. As an output means, an image recording apparatus that records an input image, a tracking apparatus that tracks a person using the input image, a gesture analysis apparatus that analyzes a person's gesture from the input image, and an input image A measuring device for measuring an object can be used.

図1の演算処理手段17における図2の演算処理部24のアルゴリズムを以下で説明する。
まず、基本的な符号を定義する。
・原空間の像(投影機器から投影されていない景色)をカメラで撮像して得られる画像(背景画像)のRGB値を [Rs, Gs, Bs] とする。
・合成像(投影機器から投影された映像を含む景色)をカメラで撮像して得られる画像から空間の像(投影機器から投影された映像を含む景色)を取り除く処理をすると、投影機器から投影された画像だけが残る。この画像のRGB値を[Rp, Gp, Bp]とする。
・合成像(投影機器から投影された映像を含む景色)をカメラで撮像して得られる画像のRGB値を[(Rs+Rp), (Gs+Gp), (Bs+Bp)] とする。
The algorithm of the arithmetic processing unit 24 of FIG. 2 in the arithmetic processing means 17 of FIG. 1 will be described below.
First, a basic code is defined.
-Let RGB values of an image (background image) obtained by capturing an image of the original space (a scene not projected from the projection device) with a camera be [Rs, Gs, Bs].
・ When processing to remove a spatial image (scenery including a video projected from a projection device) from an image obtained by capturing a composite image (scenery including a video projected from the projection device) with a camera, projection is performed from the projection device. Only the processed image remains. Let the RGB values of this image be [Rp, Gp, Bp].
-Let RGB values of an image obtained by capturing a composite image (a scene including an image projected from a projection device) with a camera be [(Rs + Rp), (Gs + Gp), (Bs + Bp)].

[アルゴリズムの目的]
投影機器から映像が投影されている状況を撮像して、[(Rs+Rp), (Gs+Gp), (Bs+Bp)] を得ても、この画像からだけでは[Rs, Gs, Bs]と [Rp, Gp, Bp] をそれぞれ推定することはできない。プロジェクタ等でRGB各色に色分解されて順次高速に投影された画像をプロジェクタの各色に同期する高速度カメラで撮像しても、プロジェクタやカメラのイメージセンサの色フィルタの特性が幅広いためカメラのセンサには、R投影時にはR成分以外のGB成分も撮像される。同様に、G投影時にはG成分以外のRB成分も撮像され、B投影時にはB成分以外のRG成分も撮像されるため、単純な色の差分や合成のような方法では [Rs, Gs, Bs] と [Rp, Gp, Bp] をそれぞれ推定することはできない。
本発明では、各原色対応の画像出力から当該原色成分と当該原色成分以外の1以上の原色成分とを用いて空間への投影時における未投影時と同等の空間像及び空間に投影された像をそれぞれ推定する根拠となるアルゴリズムが必要である。
[The purpose of the algorithm]
Even if [(Rs + Rp), (Gs + Gp), (Bs + Bp)] is obtained by capturing the situation in which the image is projected from the projector, [Rs, Gs, Bs ] And [Rp, Gp, Bp] cannot be estimated. Even if an image that has been separated into RGB colors by a projector or the like and is sequentially projected at a high speed is captured by a high-speed camera that synchronizes with each color of the projector, the characteristics of the color filters of the projector and the image sensor of the camera are wide. In the R projection, GB components other than the R component are also imaged. Similarly, RB components other than the G component are also imaged during G projection, and RG components other than the B component are also imaged during B projection. Therefore, in a method such as simple color difference or composition, [Rs, Gs, Bs] And [Rp, Gp, Bp] cannot be estimated.
In the present invention, from the image output corresponding to each primary color, using the primary color component and one or more primary color components other than the primary color component, an image projected on the space equivalent to an unprojected state and an image projected onto the space It is necessary to use an algorithm as a basis for estimating each of the above.

[手法の定義]
R投影時のGB成分情報を用い、同様に、G投影時のRB成分情報を用い、B投影時のRG成分情報を用いて [Rs, Gs, Bs] と [Rp, Gp, Bp] をそれぞれ推定可能にする。
手法1.各原色対応の撮像画像に対して、当該原色成分以外の一つの原色成分をそれぞれ用いて、空間に投影された(背景を除去した)画像を推定する方法を手法1とする。
手法2.各原色対応の撮像画像に対して、当該原色成分以外の二つの原色成分をそれぞれ用いて、空間に投影された(背景を除去した)画像を推定する方法を手法2とする。
手法3.前記手法1における演算式に対して近似式を用いる方法を手法3とする。
手法4.前記手法2における演算式に対して近似式を用いる方法を手法4とする。

[撮像手段のセンサ出力の定義]
Rr: 投影機器の出力した赤色の成分にカメラの赤色を感知するセンサの値をRrとする.
Gr: 投影機器の出力した赤色の成分にカメラの緑色を感知するセンサの値をGrとする.
Br: 投影機器の出力した赤色の成分にカメラの青色を感知するセンサの値をBrとする.
Rg: 投影機器の出力した緑色の成分にカメラの赤色を感知するセンサの値をRgとする.
Gg: 投影機器の出力した緑色の成分にカメラの緑色を感知するセンサの値をGgとする.
Bg: 投影機器の出力した緑色の成分にカメラの青色を感知するセンサの値をBgとする.
Rb: 投影機器の出力した青色の成分にカメラの赤色を感知するセンサの値をRbとする.
Gb: 投影機器の出力した青色の成分にカメラの緑色を感知するセンサの値をGbとする.
Bb: 投影機器の出力した青色の成分にカメラの青色を感知するセンサの値をBbとする.
[Method definition]
Using the GB component information at the time of R projection, similarly, using the RB component information at the time of G projection, and using the RG component information at the time of B projection, [Rs, Gs, Bs] and [Rp, Gp, Bp] respectively Make it estimable.
Method 1. Method 1 is a method for estimating an image projected in space (with the background removed) using one primary color component other than the primary color component for each captured image corresponding to the primary color.
Method 2. Method 2 is a method for estimating an image projected in space (with the background removed) using two primary color components other than the primary color component for each primary color-captured image.
Method 3. A method using an approximate expression with respect to the arithmetic expression in Method 1 is referred to as Method 3.
Method 4. A method using an approximate expression with respect to the arithmetic expression in Method 2 is referred to as Method 4.

[Definition of sensor output of imaging means]
Rr: Rr is the value of the sensor that detects the red color of the camera in the red component output from the projector.
Gr: Gr is the value of the sensor that senses the green color of the camera in the red component output from the projector.
Br: Br is the value of the sensor that detects the blue color of the camera in the red component output from the projector.
Rg: Rg is the value of the sensor that detects the red color of the camera in the green component output from the projector.
Gg: Gg is the value of the sensor that detects the green color of the camera in the green component output from the projector.
Bg: Bg is the value of the sensor that detects the blue color of the camera in the green component output from the projector.
Rb: Rb is the value of the sensor that detects the red color of the camera in the blue component output from the projector.
Gb: Gb is the value of the sensor that detects the green color of the camera in the blue component output from the projector.
Bb: The value of the sensor that detects the blue color of the camera in the blue component output from the projector is Bb.

投影機器から投影される映像は、赤色の成分のみの画像・緑色の成分のみの画像・青色の成分のみの画像の3種類である。この3種類の画像を繰り返し高速で投影させることで人間の目にカラー画像を見せる。
投影機器から投影された映像を含む景色をカメラで撮像し背景画像を取り除くと、
赤色の成分のみの画像投影時は [Rr, Gr, Br] であり、
緑色の成分のみの画像投影時は [Rg, Gg, Bg] であり、
青色の成分のみの画像投影時は [Rb, Gb, Bb] である。
投影された画像を含む撮像画像(合成像の画像)、[Rp, Gp, Bp]は以下の式で表すことができる。
[Rp, Gp, Bp] = [(Rr+Rg+Rb), (Gr+Gg+Gb), (Br+Bg+Bb)] ・・・式1
さらに、投影機器から投影された映像を含む景色をカメラで撮像すると、
1枚目の赤色の成分のみの画像投影時は
[R1,G1,B1] = [(Rs+Rr), (Gs+Gr), (Bs+Br)] ・・・・・・式2
2枚目の緑色の成分のみの画像投影時は
[R2,G2,B2] = [(Rs+Rg), (Gs+Gg), (Bs+Bg)] ・・・・・・式3
3枚目の青色の成分のみの画像投影時は
[R3,G3,B3] = [(Rs+Rb), (Gs+Gb), (Bs+Bb)] ・・・・・・式4
とそれぞれ表すことができる。
There are three types of images projected from the projection device: an image with only a red component, an image with only a green component, and an image with only a blue component. By repeatedly projecting these three types of images at high speed, a human eye can see a color image.
When you take a picture of the scenery including the image projected from the projector and remove the background image,
[Rr, Gr, Br] when projecting only the red component,
[Rg, Gg, Bg] when projecting only the green component,
[Rb, Gb, Bb] when projecting only the blue component.
A captured image (image of a composite image) including a projected image, [Rp, Gp, Bp] can be expressed by the following expression.
[Rp, Gp, Bp] = [(Rr + Rg + Rb), (Gr + Gg + Gb), (Br + Bg + Bb)] Equation 1
Furthermore, when taking a picture of the scenery including the image projected from the projection device with the camera,
When projecting only the first red component
[R 1 , G 1 , B 1 ] = [(Rs + Rr), (Gs + Gr), (Bs + Br)] Equation 2
When projecting only the second green component
[R 2 , G 2 , B 2 ] = [(Rs + Rg), (Gs + Gg), (Bs + Bg)]
When projecting only the third blue component,
[R 3 , G 3 , B 3 ] = [(Rs + Rb), (Gs + Gb), (Bs + Bb)]
Respectively.

(手法1による像分離)当該原色成分と当該原色成分以外の内一つの原色成分とを用いる。
RGB3色の画像データ3枚からそれぞれ1色分の画像を抽出し3色の画像を合成する手法による。この手法は、R投影時のGB成分のどちらかからRpを、同様に、G投影時のBR成分のどちらかからGpを、B投影時のRG成分のどちらかからBpを推定する方法である。
ここで、各色が投影されている各色の画素について、以下の相関関係が成立する。このx, y, z は、プロジェクタとイメージセンサの色フィルタ特性に起因するものであり、投影手段と撮像手段の組が決まれば固有に決まるものであり、予め定められたものとすることができる。本発明においては、このx, y, z を相関関係関数と呼ぶ。
Br = x × Rr ・・・・・・式5
Rg = y × Gg ・・・・・・式6
Gb = z × Bb ・・・・・・式7
上式のBr, Rg, Gbを Gr, Bg, Rb に置き換えても、以下のアルゴリズムは成り立つ。
(Image Separation by Method 1) The primary color component and one primary color component other than the primary color component are used.
This is based on a method of extracting one color image from three RGB three-color image data and synthesizing the three color images. In this method, Rp is estimated from either of the GB components at the time of R projection, similarly, Gp is estimated from any of the BR components at the time of G projection, and Bp is estimated from either of the RG components at the time of B projection. .
Here, the following correlation is established for each color pixel onto which each color is projected. These x, y, and z are caused by the color filter characteristics of the projector and the image sensor, and are uniquely determined when the combination of the projection unit and the imaging unit is determined, and can be determined in advance. . In the present invention, these x, y, and z are called correlation functions.
Br = x × Rr ・ ・ ・ ・ ・ ・ Formula 5
Rg = y × Gg ・ ・ ・ ・ ・ ・ Formula 6
Gb = z × Bb (7)
Even if Br, Rg, and Gb in the above equation are replaced with Gr, Bg, and Rb, the following algorithm holds.

(手順1)予め定められたx, y, z を算定して、使用のために準備する。
(手順2)投影機器の投影色順と同期して3枚の映像を撮像する。
投影機器からR,G,Bの投影と同期して、投影画像を含む景色(合成像)をカメラで3枚撮像し格別の画像データを得る。
これらの画像は、[R1, G1, B1],[R2 , G2, B2] ,[R3, G3, B3] であり、式2〜4ですでに示した。
(手順3)3枚の撮像画像を用いる演算より [Rs, Gs, Bs] を推定する。
RGB各色に対して、3枚の画像のうちの当該投影色を含む2枚からなる組の一方より、以下の関係を求めることができる。
R1- R2 = Rr - Rg = u ・・・・・・式8
G2- G3 = Gg - Gb = v ・・・・・・式9
B3- B1 = Bb - Br = w ・・・・・・式10
式5〜10より、3元1次方程式の解より、以下の関係が得られる。
Rr = (u + yv + yzw) / (1 - xyz) ・・・・・・式11
Br = x(u + yv + yzw) / (1 - xyz) ・・・・・・式12
Rg = y(v + zw + xzu) / (1 - xyz) ・・・・・・式13
Gg = (v + zw + xzu) / (1 - xyz) ・・・・・・式14
Gb = z(w + xu + xyv) / (1 - xyz) ・・・・・・式15
Bb = (w + xu + xyv) / (1 - xyz) ・・・・・・式16
上記の式11〜16の関係式を計算することで、Rr, Br, Rg, Gg, Gb, Bbを得て、さらに式2〜4を用いて、
Rs = R2 - Rg = R1 - Rr
Gs = G3 - Gb = G2 - Gg
Bs = B1 - Br = B3 - Bb
から [Rs, Gs, Bs] (背景画像のみ)を得ることができる。
(Procedure 1) Calculate predetermined x, y, z and prepare for use.
(Procedure 2) Three images are captured in synchronization with the projection color order of the projection device.
In synchronism with the R, G, and B projections from the projection device, three scenes (synthesized images) including the projected images are captured by the camera to obtain exceptional image data.
These images, [R 1, G 1, B 1], a [R 2, G 2, B 2], [R 3, G 3, B 3], previously shown in Equation 2-4.
(Procedure 3) [Rs, Gs, Bs] is estimated by calculation using three captured images.
For each RGB color, the following relationship can be obtained from one of a set of two images including the projection color of the three images.
R 1 -R 2 = Rr-Rg = u Equation 8
G 2 -G 3 = Gg-Gb = v Equation 9
B 3 -B 1 = Bb-Br = w
From the equations 5 to 10, the following relationship is obtained from the solution of the ternary linear equation.
Rr = (u + yv + yzw) / (1-xyz) ··· Equation 11
Br = x (u + yv + yzw) / (1-xyz) ··· Equation 12
Rg = y (v + zw + xzu) / (1-xyz) ··· Equation 13
Gg = (v + zw + xzu) / (1-xyz) ··· Equation 14
Gb = z (w + xu + xyv) / (1-xyz)
Bb = (w + xu + xyv) / (1-xyz)
Rr, Br, Rg, Gg, Gb, and Bb are obtained by calculating the relational expressions of the above expressions 11 to 16, and further using expressions 2 to 4,
Rs = R 2 -Rg = R 1 -Rr
Gs = G 3 -Gb = G 2 -Gg
Bs = B 1 -Br = B 3 -Bb
To get [Rs, Gs, Bs] (background image only).

(手順4)空間に投影された画像を推定する。
手順3で得られた[Rs, Gs, Bs]と式2〜4とを用いて、撮像映像と以下の演算を施すことにより、空間に投影された画像を推定することができる。
[R1, G1, B1] - [Rs, Gs, Bs] = [Rr, Gr, Br]
[R2, G2, B2] - [Rs, Gs, Bs] = [Rg, Gg, Bg]
[R3, G3, B3] - [Rs, Gs, Bs] = [Rb, Gb, Bb]
上式で得られた Rr, Gg, Bb を使って1枚の画像を合成することで、空間に投影された推定画像のみ[Rr, Gg, Bb]を得る。
また、式1を用いて Rp, Gp, Bp を得ることで撮像画像から背景画像を除去した画像
[Rp, Gp, Bp]を得る。
この手法における演算要素は、加算器、乗算器、減算器及び除算器で構成できる。
(Procedure 4) An image projected in space is estimated.
Using [Rs, Gs, Bs] obtained in Procedure 3 and Equations 2 to 4, the image projected on the space can be estimated by performing the following calculation with the captured image.
[R 1 , G 1 , B 1 ]-[Rs, Gs, Bs] = [Rr, Gr, Br]
[R 2 , G 2 , B 2 ]-[Rs, Gs, Bs] = [Rg, Gg, Bg]
[R 3 , G 3 , B 3 ]-[Rs, Gs, Bs] = [Rb, Gb, Bb]
[Rr, Gg, Bb] is obtained only for the estimated image projected on the space by synthesizing one image using Rr, Gg, Bb obtained by the above equation.
Also, an image obtained by removing the background image from the captured image by obtaining Rp, Gp, Bp using Equation 1
Obtain [Rp, Gp, Bp].
The arithmetic elements in this method can be composed of an adder, a multiplier, a subtracter, and a divider.

(手法2による像分離)当該原色成分と当該原色成分以外の内二つの原色成分とを用いる。
RGB3色の画像データ3枚からそれぞれ2色分の画像を抽出し3色の画像を合成する手法による。この手法は、R投影時のGB成分の両方からRpを、同様に、G投影時のBR成分の両方からGpを、B投影時のRG成分の両方からBpを推定する方法である。
ここで、各色が投影されている各色の画素について、以下の相関関係が成立する。前述と同様、x1, x2, y1, y2, z1, z2は、プロジェクタとイメージセンサの色フィルタ特性に起因する組み合わせ固有のものであり、本発明においては相関関係関数と呼ぶ。
Gr = x1 × Rr ・・・・・・式17
Br = x2 × Rr ・・・・・・式18
Rg = y1 × Gg ・・・・・・式19
Bg = y2 × Gg ・・・・・・式20
Rb = z1 × Bb ・・・・・・式21
Gb = z2 × Bb ・・・・・・式22
(Image Separation by Method 2) The primary color component and two primary color components other than the primary color component are used.
According to a method of extracting two color images from three RGB three-color image data and synthesizing the three color images. This method is a method for estimating Rp from both of the GB components at the time of R projection, similarly, Gp from both of the BR components at the time of G projection, and Bp from both of the RG components at the time of B projection.
Here, the following correlation is established for each color pixel onto which each color is projected. As described above, x 1 , x 2 , y 1 , y 2 , z 1 , z 2 are unique to the combination resulting from the color filter characteristics of the projector and the image sensor, and are called correlation functions in the present invention. .
Gr = x 1 × Rr ・ ・ ・ ・ ・ ・ Equation 17
Br = x 2 × Rr ・ ・ ・ ・ ・ ・ Equation 18
Rg = y 1 × Gg Equation 19
Bg = y 2 × Gg Equation 20
Rb = z 1 × Bb ・ ・ ・ ・ ・ ・ Formula 21
Gb = z 2 × Bb ・ ・ ・ ・ ・ ・ Formula 22

(手順1)フィルタの特性より、x1, x2, y1, y2, z1, z2の値をあらかじめ求めて準備してあるものを用いる。
(手順2)投影機器の投影色順と同期して3枚の映像を撮像する。
投影機器からR,G,Bの投影と同期して、投影画像を含む景色をカメラで3枚撮像し得られた画像を得る。これらの画像は、[R1, G1, B1],[R2, G2, B2],[R3, G3, B3]であり、式2〜4ですでに示してある。
(手順3)3枚の撮像画像を用いる演算より、[Rs, Gs, Bs]を推定する。
RGB各色に対して、3枚の画像のうちの当該投影色を含む2枚からなる二組より、以下の関係を求めることができる。
R1 - R2 = Rr - Rg = u1 ・・・・・・式23
R1 - R3 = Rr - Rb = u2 ・・・・・・式24
G2 - G1 = Gg - Gr = v1 ・・・・・・式25
G2 - G3 = Gg - Gb = v2 ・・・・・・式26
B3 - B1 = Bb - Br = w1 ・・・・・・式27
B3 - B2 = Bb - Bg = w2 ・・・・・・式28
式17〜22より、6元1次方程式の解より、以下の関係が得られる。
Rr = (y1v1 + u1) / (1 - x1y1) = (z1w1 + u2) / (1 - x2z1)・・・式29
Gr = x1(y1v1 + u1) / (1 - x1y1) = x1(z1w1 + u2) / (1 - x2z1)・・・式30
Br = x2(y1v1 + u1) / (1 - x1y1) = x2(z1w1 + u2) / (1 - x2z1)・・・式31
Rg = y1(x1u1 + v1) / (1 - x1y1) = y1(z2w2 + v2) / (1 - y2z2)・・・式32
Gg = (x1u1 + v1) / (1 - x1y1) = (z2w2 + v2) / (1 - y2z2)・・・式33
Bg = y2(x1u1 + v1) / (1 - x1y1) = y2(z2w2 + v2) / (1 - y2z2)・・・式34
Rb = z1(x2u2 + w1) / (1 - x2z1) = z1(y2v2 + w2) / (1 - y2z2)・・・式35
Gb = z2(x2u2 + w1) / (1 - x2z1) = z2(y2v2 + w2) / (1 - y2z2)・・・式36
Bb = (x2u2 + w1) / (1 - x2z1) = (y2v2 + w2) / (1 - y2z2)・・・式37
上記の式29〜37の関係式を計算することで、Rr, Gr, Br, Rg, Gg, Bg, Rb, Gb, Bbを得て、さらに式2〜4を用いて、
[R1, G1, B1] - [Rr, Gr, Br] = [Rs, Gs, Bs]
[R2, G2, B2] - [Rg, Gg, Bg] = [Rs, Gs, Bs]
[R3, G3, B3] - [Rb, Gb, Bb] = [Rs, Gs, Bs]
から [Rs, Gs, Bs] (背景画像のみ)を得ることができる。
(Procedure 1) Based on the characteristics of the filter, the values x 1 , x 2 , y 1 , y 2 , z 1 , z 2 that have been prepared in advance are used.
(Procedure 2) Three images are captured in synchronization with the projection color order of the projection device.
In synchronism with the R, G, and B projections from the projection device, an image obtained by capturing three scenes including the projection image with the camera is obtained. These images are [R 1 , G 1 , B 1 ], [R 2 , G 2 , B 2 ], [R 3 , G 3 , B 3 ] and have already been shown in equations 2-4 .
(Procedure 3) [Rs, Gs, Bs] is estimated by calculation using three captured images.
For each of the RGB colors, the following relationship can be obtained from two sets of two images including the projection color of the three images.
R 1 -R 2 = Rr-Rg = u 1 ··· Equation 23
R 1 -R 3 = Rr-Rb = u 2 ··· Equation 24
G 2 -G 1 = Gg-Gr = v 1 ··· Equation 25
G 2 -G 3 = Gg-Gb = v 2 ··· Equation 26
B 3 -B 1 = Bb-Br = w 1
B 3 -B 2 = Bb-Bg = w 2
From the equations 17-22, the following relationship is obtained from the solution of the 6-ary linear equation.
Rr = (y 1 v 1 + u 1 ) / (1-x 1 y 1 ) = (z 1 w 1 + u 2 ) / (1-x 2 z 1 ) ... Equation 29
Gr = x 1 (y 1 v 1 + u 1 ) / (1-x 1 y 1 ) = x 1 (z 1 w 1 + u 2 ) / (1-x 2 z 1 ) ... Equation 30
Br = x 2 (y 1 v 1 + u 1 ) / (1-x 1 y 1 ) = x 2 (z 1 w 1 + u 2 ) / (1-x 2 z 1 ) ... Equation 31
Rg = y 1 (x 1 u 1 + v 1 ) / (1-x 1 y 1 ) = y 1 (z 2 w 2 + v 2 ) / (1-y 2 z 2 ) ... Equation 32
Gg = (x 1 u 1 + v 1 ) / (1-x 1 y 1 ) = (z 2 w 2 + v 2 ) / (1-y 2 z 2 )
Bg = y 2 (x 1 u 1 + v 1 ) / (1-x 1 y 1 ) = y 2 (z 2 w 2 + v 2 ) / (1-y 2 z 2 ) ... Formula 34
Rb = z 1 (x 2 u 2 + w 1 ) / (1-x 2 z 1 ) = z 1 (y 2 v 2 + w 2 ) / (1-y 2 z 2 ) ... Formula 35
Gb = z 2 (x 2 u 2 + w 1 ) / (1-x 2 z 1 ) = z 2 (y 2 v 2 + w 2 ) / (1-y 2 z 2 ) ... Equation 36
Bb = (x 2 u 2 + w 1 ) / (1-x 2 z 1 ) = (y 2 v 2 + w 2 ) / (1-y 2 z 2 ) ... Equation 37
Rr, Gr, Br, Rg, Gg, Bg, Rb, Gb, Bb are obtained by calculating the relational expressions of the above equations 29 to 37, and further using equations 2 to 4,
[R 1 , G 1 , B 1 ]-[Rr, Gr, Br] = [Rs, Gs, Bs]
[R 2 , G 2 , B 2 ]-[Rg, Gg, Bg] = [Rs, Gs, Bs]
[R 3 , G 3 , B 3 ]-[Rb, Gb, Bb] = [Rs, Gs, Bs]
To get [Rs, Gs, Bs] (background image only).

(手順4)空間に投影された画像を推定する。
手順3で得られた[Rs, Gs, Bs]と式2〜4とを用いて、撮像映像と以下の演算を施すことにより、空間に投影された画像を推定することができる。
[R1, G1, B1] - [Rs, Gs, Bs] = [Rr, Gr, Br]
[R2, G2, B2] - [Rs, Gs, Bs] = [Rg, Gg, Bg]
[R3, G3, B3] - [Rs, Gs, Bs] = [Rb, Gb, Bb]
上式で得られた Rr, Gg, Bb を使って1枚の画像を合成することで、空間に投影された推定画像のみ[Rr, Gg, Bb]を得る。
また、式1を用いて Rp, Gp, Bp を得ることで撮像画像から背景画像を除去した画像
[Rp, Gp, Bp]を得る。
この手法における演算要素は、加算器、乗算器、減算器及び除算器で構成できる。
(Procedure 4) An image projected in space is estimated.
Using [Rs, Gs, Bs] obtained in Procedure 3 and Equations 2 to 4, the image projected on the space can be estimated by performing the following calculation with the captured image.
[R 1 , G 1 , B 1 ]-[Rs, Gs, Bs] = [Rr, Gr, Br]
[R 2 , G 2 , B 2 ]-[Rs, Gs, Bs] = [Rg, Gg, Bg]
[R 3 , G 3 , B 3 ]-[Rs, Gs, Bs] = [Rb, Gb, Bb]
[Rr, Gg, Bb] is obtained only for the estimated image projected on the space by synthesizing one image using Rr, Gg, Bb obtained by the above equation.
Also, an image obtained by removing the background image from the captured image by obtaining Rp, Gp, Bp using Equation 1
Obtain [Rp, Gp, Bp].
The arithmetic elements in this method can be composed of an adder, a multiplier, a subtracter, and a divider.

(手法3による像分離)前記手法1の演算式に対して近似式を用いて像分離を行う。
前記手法1の手順3の式11〜16に対して近似式を用いて簡略に求める方法である。
近似式の求め方は、u ,v ,w ,x ,y ,z の各値とこれらを組み合わせた積項の値に応じて、無視できる積項を省略したりテーラー展開等の方法を用いて近似式を求めることができる。
例えば、x ,y ,z <<1の場合、xy,xz,yz,xyz の積項は無視できるので式11〜16はそれぞれ以下の式のようになる。
Rr ≒ u + yv ・・・・・・式38
Br ≒ xu ・・・・・・式39
Rg ≒ yv ・・・・・・式40
Gg ≒ v + zw ・・・・・・式41
Gb ≒ zw ・・・・・・式42
Bb ≒ w + xu ・・・・・・式43
したがって、この手法においては、前記手法1の手順3の式11〜16が、上記の式38〜43に入れ替わる。上記の式38〜43の近似式を用いることにより、この手法における演算要素が加算器、乗算器及び減算器のみで構成できるようになる。また、計算式における項数と加減乗除の数が減るため、計算式に相当する回路規模も前記手法1よりも縮小できる。
(Image Separation by Method 3) Image separation is performed using an approximate expression for the arithmetic expression of Method 1.
This is a method of simply obtaining the equations 11 to 16 in the procedure 3 of the method 1 using approximate equations.
Depending on the values of u, v, w, x, y, and z, and the product terms that combine them, you can omit negligible product terms or use methods such as Taylor expansion. An approximate expression can be obtained.
For example, in the case of x, y, z << 1, the product terms of xy, xz, yz, and xyz can be ignored, so that the equations 11 to 16 are as follows.
Rr ≒ u + yv
Br ≒ xu ・ ・ ・ ・ ・ ・ Equation 39
Rg ≒ yv ・ ・ ・ ・ ・ ・ Formula 40
Gg ≒ v + zw ・ ・ ・ ・ ・ ・ Formula 41
Gb ≒ zw ・ ・ ・ ・ ・ ・ Formula 42
Bb ≒ w + xu ・ ・ ・ ・ ・ ・ Formula 43
Therefore, in this method, the equations 11 to 16 in the procedure 3 of the method 1 are replaced with the above equations 38 to 43. By using the approximate expressions of the above expressions 38 to 43, the calculation elements in this method can be configured by only an adder, a multiplier and a subtractor. In addition, since the number of terms and the number of addition / subtraction / division are reduced in the calculation formula, the circuit scale corresponding to the calculation formula can also be reduced as compared with the method 1.

(手法4による像分離)前記手法2の演算式に対して近似式を用いて像分離を行う。
前記手法2の手順3の式29〜37に対して近似式を用いて簡略に求める方法である。
近似式の求め方は、u1,u2,v1,v2,w1,w2,x1,x2,y1,y2,z1,z2の各値とこれらを組み合わせた積項の値に応じて、無視できる積項を省略したりテーラー展開等の方法を用いて近似式を求めることができる。
例えば、x1,x2,y1,y2,z1,z2<<1の場合、これらを組み合わせた2次以上の積項は無視できるので式29〜37はそれぞれ以下の式のようになる。
Rr ≒ y1v1 + u1 ≒ z1w1 + u2 ・・・・・・式44
Gr ≒ x1u1 ≒ x1u2 ・・・・・・式45
Br ≒ x2u1 ≒ x2u2 ・・・・・・式46
Rg ≒ y1v1 ≒ y1v2 ・・・・・・式47
Gg ≒ x1u1 + v1 ≒ z2w2 + v2 ・・・・・・式48
Bg ≒ y2v1 ≒ y2v2 ・・・・・・式49
Rb ≒ z1w1 ≒ z1w2 ・・・・・・式50
Gb ≒ z2w1 ≒ z2w2 ・・・・・・式51
Bb ≒ x2u2 + w1 ≒ y2v2 + w2 ・・・・・・式52
したがって、この手法においては、前記手法2の手順3の式29〜37が、上記の式44〜52に入れ替わる。上記の式44〜52の近似式を用いることにより、この手法における演算要素が加算器、乗算器及び減算器のみで構成できるようになる。また、計算式における項数と加減乗除の数が減るため、計算式に相当する回路規模も前記手法2よりも縮小できる。
(Image Separation by Method 4) Image separation is performed using an approximate expression for the arithmetic expression of Method 2.
This is a method of simply obtaining the equations 29 to 37 in the procedure 3 of the method 2 using approximate equations.
Approximate expression Determination of the combination of these and each value of u 1, u 2, v 1 , v 2, w 1, w 2, x 1, x 2, y 1, y 2, z 1, z 2 Depending on the value of the product term, an approximate expression can be obtained by omitting negligible product terms or using a method such as Taylor expansion.
For example, if x 1 , x 2 , y 1 , y 2 , z 1 , z 2 << 1, then the second and higher order product terms that combine them can be ignored, so equations 29 to 37 are as follows: become.
Rr ≒ y 1 v 1 + u 1 ≒ z 1 w 1 + u 2
Gr ≒ x 1 u 1 ≒ x 1 u 2
Br ≒ x 2 u 1 ≒ x 2 u 2・ ・ ・ ・ ・ ・ Equation 46
Rg ≒ y 1 v 1 ≒ y 1 v 2
Gg ≒ x 1 u 1 + v 1 ≒ z 2 w 2 + v 2
Bg ≒ y 2 v 1 ≒ y 2 v 2
Rb ≒ z 1 w 1 ≒ z 1 w 2 ··· Formula 50
Gb ≒ z 2 w 1 ≒ z 2 w 2
Bb ≒ x 2 u 2 + w 1 ≒ y 2 v 2 + w 2 ······ formula 52
Therefore, in this method, the equations 29 to 37 in the procedure 3 of the method 2 are replaced with the above equations 44 to 52. By using the approximate expressions of the above expressions 44 to 52, the calculation elements in this method can be configured by only an adder, a multiplier and a subtractor. In addition, since the number of terms and the number of addition / subtraction / multiplication / division in the calculation formula are reduced, the circuit scale corresponding to the calculation formula can also be reduced as compared with the method 2.

(第2の実施形態)
次に、空間の背景側から画像を投影し、前景側から撮像する第2の実施形態を図3を参照して説明する。
同図において、投影手段であるプロジェクタ32に投影したい画像である入力画像31を入力する。プロジェクタとしては、前述のように例えば、単板デジタルミラー方式のDLPプロジェクタが利用できる。プロジェクタ32は、背景側よりスクリーン39に対して、複数の原色成分に分解して各原色成分を順次高速で周期的に投影する。前述同様に、プロジェクタ32がRGBの各原色成分に分解してスクリーンの背景側より投影するものとして説明する。
(Second Embodiment)
Next, a second embodiment in which an image is projected from the background side of the space and imaged from the foreground side will be described with reference to FIG.
In the figure, an input image 31 that is an image to be projected is input to a projector 32 that is a projection means. As the projector, for example, a single-plate digital mirror type DLP projector can be used as described above. The projector 32 separates the primary color components on the screen 39 from the background side, and sequentially projects each primary color component sequentially at a high speed. In the same manner as described above, the projector 32 will be described as being decomposed into RGB primary color components and projected from the background side of the screen.

投影手段であるプロジェクタ32の各原色成分の色(RGB各色)の投影に同期してプロジェクタ32から同期信号が出力される。プロジェクタ32の同期信号を基に演算処理手段37で生成される撮像制御信号に応じて撮像手段であるカメラ36で撮像する。カメラ36は、プロジェクタ32がスクリーン39に投影する背景側とは逆のスクリーンの前景側からスクリーン39に向かって撮像するように設置される。このとき、カメラ36から見た空間の像35は、プロジェクタ32からの投影がない前景より見た空間像33の下にプロジェクタ32より投影された投影画像34が重なって混合された混合画像35となる。空間の像は、プロジェクタ32より投影された画像34の上になるため前景から見た背景画像33となる。カメラ36で撮像した画像は、プロジェクタ32からの各原色成分の色の投影の同期信号とともに演算処理手段37に入力される。   A synchronization signal is output from the projector 32 in synchronism with the projection of the colors of the primary color components (RGB colors) of the projector 32 that is the projection means. An image is picked up by the camera 36 as an image pickup means in accordance with an image pickup control signal generated by the arithmetic processing means 37 based on the synchronization signal of the projector 32. The camera 36 is installed so as to capture an image from the foreground side of the screen opposite to the background side projected by the projector 32 onto the screen 39 toward the screen 39. At this time, the image 35 of the space viewed from the camera 36 is mixed with the mixed image 35 in which the projection image 34 projected from the projector 32 is superimposed on the space image 33 viewed from the foreground without projection from the projector 32. Become. Since the image of the space is above the image 34 projected from the projector 32, it becomes the background image 33 viewed from the foreground. An image picked up by the camera 36 is input to the arithmetic processing means 37 together with a sync signal for projection of the primary color components from the projector 32.

演算処理手段37は、既に示した図2における機能・動作と同じであり、演算処理手段37の出力は、前述と同様に出力手段38に入力される。また、演算処理手段37における演算のアルゴリズムは、前述と同じである。
出力手段38は、入力された画像を利用する表示装置であり、入力された画像をディスプレイ等に表示する。出力手段としては、前述同様の装置等を挙げることができる。
The arithmetic processing means 37 is the same as the function / operation in FIG. 2 already shown, and the output of the arithmetic processing means 37 is input to the output means 38 as described above. Further, the calculation algorithm in the calculation processing means 37 is the same as described above.
The output means 38 is a display device that uses an input image, and displays the input image on a display or the like. Examples of the output means include the same devices as described above.

(本発明の像分離装置の利用例)
・プロジェクタ等により前景(非背景)側から講演者にも投影されるような場面や背景側からスクリーン等に投影されるような場面において、本装置の投影画像を除去した背景(前景)画像を使用し、投影像の影響を受けていない講演者のトラッキングを行うことができ、追跡した投影像の影響を受けていない講演者像の録画をすることができる。
・プロジェクタで投影した画面に対してジェスチャ等でインタラクティブに操作するような場面において、本装置の投影画像を除去した背景(前景)画像を使用し、投影像の影響(特に投影画像内の動画等の影響)を受けていない手等の操作状況のジェスチャを解析することができる。
・物体に計測用画像を投影し、物体の形状を測定(投影された計測用画像のみを得て計測)するような場面において、本装置の入力画像として格子点や格子線等のような計測用画像を用いることで、物体に投影された計測用画像のみを得ることができるので、物体の表面色や背景等の影響を受けない画像の解析により物体の形状を測定することができる。
(Application example of the image separation device of the present invention)
・ In a scene that is projected to the speaker from the foreground (non-background) side by a projector or a scene that is projected from the background side to a screen, etc., a background (foreground) image obtained by removing the projected image of this device It can be used to track speakers who are not affected by the projected image, and can record the images of speakers who are not affected by the projected image.
-In a scene where the screen projected by the projector is operated interactively with gestures, etc., the background (foreground) image from which the projection image of this device has been removed is used, and the influence of the projection image (especially the moving image in the projection image, etc.) It is possible to analyze a gesture of an operation state of a hand or the like that has not been affected.
・ Measurement such as grid points and grid lines as the input image of this device in a situation where a measurement image is projected onto an object and the shape of the object is measured (only the projected measurement image is obtained and measured) Since only the measurement image projected on the object can be obtained by using the image for the object, the shape of the object can be measured by analyzing the image that is not affected by the surface color or background of the object.

本発明は、広く画像処理の分野で利用できる。すなわち、映画、その他の映像関連の著作物の作成の分野、会議や興行の分野における映像の表示に関連する像分離の要請に利用できる。投影機や撮像装置の製造の分野で前記像分離装置の製造に利用できる。   The present invention can be widely used in the field of image processing. That is, it can be used for image separation requests related to the display of images in the field of creation of movies and other video-related copyrighted works, and in the field of conferences and entertainment. The present invention can be used for manufacturing the image separation device in the field of manufacturing projectors and imaging devices.

本発明による像分離装置の第1の実施形態の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a first embodiment of an image separation device according to the present invention. 前記像分離装置の演算処理手段の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the arithmetic processing means of the said image separation apparatus. 本発明による像分離装置の第2の実施形態の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of 2nd Embodiment of the image separation apparatus by this invention.

符号の説明Explanation of symbols

11,31 入力画像
12,32 プロジェクタ
13,33 背景画像
14,34 投影画像
15,35 混合画像
16,36 カメラ
17,37 演算処理手段
18,38 出力手段
21 入力処理I/F部
22 画像メモリ用バス
23 画像メモリ
24 演算処理部
25 操作子
26 同期制御部
39 スクリーン
11, 31 Input image 12, 32 Projector 13, 33 Background image 14, 34 Projected image 15, 35 Mixed image 16, 36 Camera 17, 37 Arithmetic processing means 18, 38 Output means 21 Input processing I / F unit 22 For image memory Bus 23 Image memory 24 Arithmetic processing unit 25 Operator 26 Synchronous control unit 39 Screen

Claims (4)

画像の情報を複数の原色成分に分解して各原色成分を順次高速で周期的に背景画面に投影する投影手段と、
前記投影の影響を受けた前記背景画面を含む像を各原色対応のセンサにより前記投影に同期して撮像する撮像手段と、
前記投影手段と撮像手段において、予め定まる各原色に対する前記複数のセンサ間の相関関係関数を用いたアルゴリズムに基づいて、
前記各原色対応の画像出力から当該原色成分とこの影響を受けた当該原色成分以外の1以上の原色成分の出力を演算処理することにより、前記投影の影響を受けていない背景画面のみの画像データまたは背景画面を含まない画像の情報データを得る演算処理手段から構成した像分離装置。
Projecting means for decomposing image information into a plurality of primary color components and sequentially projecting each primary color component on the background screen at high speed sequentially,
Imaging means for capturing an image including the background screen affected by the projection in synchronization with the projection by a sensor corresponding to each primary color;
Based on an algorithm using a correlation function between the plurality of sensors for each primary color determined in advance in the projection unit and the imaging unit,
By calculating the output of the primary color component and one or more primary color components other than the affected primary color component from the image output corresponding to each primary color, image data of only the background screen not affected by the projection Alternatively, an image separating apparatus constituted by arithmetic processing means for obtaining information data of an image not including a background screen.
前記投影手段により投影される画像の情報は動画を含み、前記撮像手段は、前記投影された画像の前景から撮像するように構成した請求項1記載の像分離装置。   The image separation apparatus according to claim 1, wherein the information on the image projected by the projection unit includes a moving image, and the imaging unit is configured to capture an image from a foreground of the projected image. 前記アルゴリズムは、各原色対応の撮像画像に対して、当該原色成分以外の一つまたは二つの原色成分をそれぞれ用いて、空間に投影された画像を推定するものである請求項1または2記載の像分離装置。   3. The algorithm according to claim 1 or 2, wherein the algorithm estimates an image projected in space by using one or two primary color components other than the primary color component for a captured image corresponding to each primary color. Image separation device. 前記アルゴリズムは、前記分離されるべき画像データを規定する前記相関関係関数が2次以上の積となり、かつ、影響が極めて小さい場合はその項の演算を省略した近似式を用いた請求項1、2または3記載の像分離装置。   The algorithm uses an approximate expression in which the correlation function defining the image data to be separated is a product of second order or higher, and when the influence is extremely small, the operation of the term is omitted. 2. The image separation device according to 2 or 3.
JP2006064542A 2006-03-09 2006-03-09 Image separation unit Pending JP2007243707A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006064542A JP2007243707A (en) 2006-03-09 2006-03-09 Image separation unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006064542A JP2007243707A (en) 2006-03-09 2006-03-09 Image separation unit

Publications (1)

Publication Number Publication Date
JP2007243707A true JP2007243707A (en) 2007-09-20

Family

ID=38588773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006064542A Pending JP2007243707A (en) 2006-03-09 2006-03-09 Image separation unit

Country Status (1)

Country Link
JP (1) JP2007243707A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102568352A (en) * 2012-02-17 2012-07-11 广东威创视讯科技股份有限公司 Projection display system and projection display method
CN104460194A (en) * 2013-09-12 2015-03-25 卡西欧计算机株式会社 Projection device, and projection control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102568352A (en) * 2012-02-17 2012-07-11 广东威创视讯科技股份有限公司 Projection display system and projection display method
CN104460194A (en) * 2013-09-12 2015-03-25 卡西欧计算机株式会社 Projection device, and projection control method

Similar Documents

Publication Publication Date Title
JP4823179B2 (en) Imaging apparatus and imaging control method
KR100809351B1 (en) Method and apparatus for calibration of projected image
US20130215226A1 (en) Enriched Digital Photographs
JP2008124625A (en) Imaging apparatus
JP2008109370A (en) Image correcting device and method, and imaging apparatus
WO2012169140A1 (en) Image processing device, image processing method and digital camera
JP2011525324A (en) System and method for marking three-dimensional film
JP2011155477A (en) Video processing apparatus, video processing method, and program
JP5972462B2 (en) Image generation method
KR101733125B1 (en) Method of chroma key image synthesis without background screen
JP2007243707A (en) Image separation unit
JP4753856B2 (en) Motion detection apparatus and method, and imaging apparatus
JP4391431B2 (en) Imaging device
KR101711370B1 (en) Method and apparatus for processing the image
JP5645448B2 (en) Image processing apparatus, image processing method, and program
JP5479149B2 (en) Image generation device
JP2007233647A (en) Presentation data processing apparatus
JP6625598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP2002084551A (en) Device and method for processing stereoscopic image
JP4936816B2 (en) Imaging apparatus and simultaneous display control method
WO2024009745A1 (en) Information processing device, information processing method, and recording medium
US20210203899A1 (en) Image processing device, image processing method, and imaging device
CN108965836B (en) Method for realizing image full-color sampling
JP6259006B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP5932963B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100511