JP2013083872A - Projection luminance adjustment method, projection luminance adjustment device, computer program and recording medium - Google Patents

Projection luminance adjustment method, projection luminance adjustment device, computer program and recording medium Download PDF

Info

Publication number
JP2013083872A
JP2013083872A JP2011224919A JP2011224919A JP2013083872A JP 2013083872 A JP2013083872 A JP 2013083872A JP 2011224919 A JP2011224919 A JP 2011224919A JP 2011224919 A JP2011224919 A JP 2011224919A JP 2013083872 A JP2013083872 A JP 2013083872A
Authority
JP
Japan
Prior art keywords
image
luminance
projector
camera
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011224919A
Other languages
Japanese (ja)
Other versions
JP5775414B2 (en
Inventor
Isao Miyagawa
勲 宮川
Hiroyuki Arai
啓之 新井
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011224919A priority Critical patent/JP5775414B2/en
Publication of JP2013083872A publication Critical patent/JP2013083872A/en
Application granted granted Critical
Publication of JP5775414B2 publication Critical patent/JP5775414B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily acquire a color mixing matrix for linearly approximating output luminance from a projector to observation luminance by a camera, regardless of output performance of the projector, camera sensitivity or dynamic range.SOLUTION: An image input part 2 acquires image data from a camera 20 having captured an image projected on a screen. A luminance change detection part 3 performs projective transformation to map pixels on the image onto pixels on a sample image, creates a projective transformation image, and detects luminance change, of images observed one after another, from the sample image. A luminance update part 4 updates luminance to be outputted from a projector 10, according to the luminance change, and projects the image onto the screen from the projector 10. A correction coefficient calculation part 5 calculates a parameter of luminance correction when an image close to a certain target image is observed.

Description

本発明は、単数または複数のプロジェクタからの投影像をカメラで観測するとき、各画素の観測輝度値が所定の値となるようにプロジェクタからの出力輝度値を自動的に補正する投影輝度調整技術に関する。   The present invention provides a projection brightness adjustment technique for automatically correcting the output brightness value from a projector so that the observed brightness value of each pixel becomes a predetermined value when observing a projection image from one or more projectors with a camera. About.

プロジェクタ・カメラシステムは、様々な用途に利用されている。例えば、会議や、学会発表でのプレゼンテーションにプロジェクタを利用する以外に、ヒューマンインタラクションや、拡張現実感の表示システムとしても利用できる。さらに、複数のプロジェクタを用いると、各プロジェクタからの画像を繋ぎ合わせて巨大な画像(タイリング)を生成でき、近年では、HDR(High Dynamic Range)画像を表示するアプリケーションとしても期待されている。   Projector / camera systems are used in various applications. For example, in addition to using a projector for a conference or presentation at an academic conference presentation, it can also be used as a display system for human interaction or augmented reality. Furthermore, if a plurality of projectors are used, images from the projectors can be connected to generate a huge image (tiling), and in recent years, it is also expected as an application for displaying HDR (High Dynamic Range) images.

プロジェクタからの画像を投影して、カメラによりその投影像を観測するとき、そのカメラが所定の輝度を観測するように原画像を調整する。これは輝度補正と呼ばれており、例えば非特許文献1、2に開示されている。この方法では、プロジェクタからのRGB輝度値とカメラで観測されたRGB輝度値との間の相関関係に着目し、カラー混合行列(Color Mixing Matrix)と呼ばれる3×3の行列Vを用いて、所定のRGB輝度値C=(C,C,C)を、カメラが観測するようにプロジェクタからのRGB出力値P=(P,P,P)を補正する。このシステムにおいて、観測した画像の輝度値Cと各プロジェクタからの出力輝度Pとの間には、次式(1)が成り立つ。 When an image from a projector is projected and the projection image is observed by the camera, the original image is adjusted so that the camera observes a predetermined luminance. This is called luminance correction, and is disclosed in Non-Patent Documents 1 and 2, for example. In this method, attention is paid to the correlation between the RGB luminance values from the projector and the RGB luminance values observed by the camera, and a predetermined 3 × 3 matrix V called a color mixing matrix is used. The RGB output value P = (P R , P G , P B ) from the projector is corrected so that the camera observes the RGB luminance value C = (C R , C G , C B ). In this system, the following expression (1) is established between the luminance value C of the observed image and the output luminance P from each projector.

Figure 2013083872
Figure 2013083872

Vは、プロジェクタのカラー混合行列であり、F=(F,F,F)は、プロジェクタ以外の光源からの照明を含む環境光である(物体表面の反射率は一定と考える)。非特許文献2によれば、4枚のサンプル画像が用意できれば、カラー混合行列と環境光を求めることができる。 V is a color mixing matrix of the projector, and F = (F r , F g , F b ) is ambient light including illumination from a light source other than the projector (considering the reflectance of the object surface is constant). According to Non-Patent Document 2, if four sample images can be prepared, a color mixing matrix and ambient light can be obtained.

S. K. Nayar, H. Peri, M. D. Grossberg, and P. N. Belhumeur:“A Projection System with Radiometric Compensation for Screen Imperfections”, Proc. of ICCV Workshop on Projector-Camera Systems (PROCAMS), 2003.S. K. Nayar, H. Peri, M. D. Grossberg, and P. N. Belhumeur: “A Projection System with Radiometric Compensation for Screen Imperfections”, Proc. Of ICCV Workshop on Projector-Camera Systems (PROCAMS), 2003. K. Fujii, M. D. Grossberg, and S. K. Nayar: “A Projector-Camera System with Real-Time Photometric Adaptation for Dynamic Environments”, Proc. of IEEE Computer Vision and Pattern Recognition (CVPR), vol.1, pp.814-821, 2005.K. Fujii, MD Grossberg, and SK Nayar: “A Projector-Camera System with Real-Time Photometric Adaptation for Dynamic Environments”, Proc. Of IEEE Computer Vision and Pattern Recognition (CVPR), vol.1, pp.814-821 , 2005.

上述したように、非特許文献2によれば、プロジェクタとカメラ間のカラー混合行列を算出するには、4枚の画像が必要である。この画像の例として、グレー系画像、赤系画像、緑系画像、青系画像の4枚が用いられる(以下、サンプル画像と称する)。例えば、グレー系画像の全画素のRGB値をP=(R,G,B)に、赤系画像の全画素値をP=(R+ΔR,G,B)に、緑系画像の全画素値をP=(R,G+ΔG,B)に、青系画像の全画素値をP=(R,G,B+ΔB)に設定する。つまり、グレー系画像を基準画像として、赤系画像、緑系画像、青系画像は、それぞれ1チャネルだけを変化させた画像とする。 As described above, according to Non-Patent Document 2, four images are required to calculate the color mixing matrix between the projector and the camera. As an example of this image, four images of a gray image, a red image, a green image, and a blue image are used (hereinafter referred to as sample images). For example, the RGB values of all the pixels of the gray image are set to P w = (R w , G w , B w ), and all the pixel values of the red image are set to P r = (R w + ΔR, G w , B w ). , All pixel values of the green image are set to P g = (R w , G w + ΔG, B w ), and all pixel values of the blue image are set to P b = (R w , G w , B w + ΔB). . In other words, with a gray image as a reference image, a red image, a green image, and a blue image are images in which only one channel is changed.

非特許文献2は、これらの画像を用いることにより、各画素の輝度変化を容易に検出して、カラー混合行列の要素を算出する。例えば、グレー系の画像、赤系の画像をプロジェクタから出力し、それをカメラで観測したときの画像において、ある画素値がそれぞれC=(R′,G′,B′),C=(R′,G′,B′)とする。プロジェクタの輝度変化は、Rチャネルだけなので、式(1)に従えば、その差分C−Cから、次式(2)の関係になる。 Non-Patent Document 2 uses these images to easily detect the luminance change of each pixel and calculate the elements of the color mixing matrix. For example, when a gray image and a red image are output from a projector and observed with a camera, certain pixel values are C w = (R w ′, G w ′, B w ′), Let C r = (R r ′, G r ′, B r ′). Since the projector changes in luminance only in the R channel, according to the equation (1), the relationship of the following equation (2) is obtained from the difference C r −C w .

Figure 2013083872
Figure 2013083872

よって、次式(3)の計算により、カラー混合行列の要素Vrr,Vgr,Vbrを得ることができる。同様に、緑系画像、青系画像を用いることで、残りのカラー混合行列の要素を推定することができる。 Therefore, the elements V rr , V gr , and V br of the color mixing matrix can be obtained by the calculation of the following equation (3). Similarly, the elements of the remaining color mixing matrix can be estimated by using the green image and the blue image.

Figure 2013083872
Figure 2013083872

数式(1)から明らかなように、従来方法は、プロジェクタからの輝度Pとカメラによる観測輝度Cとの間を直線近似する方法であるため、各チャネルの変化量があまり小さいと、数式(3)で推定される各行列要素の精度が劣化する恐れがある(変化量に対して反比例の関係となっている)。   As is apparent from the equation (1), the conventional method is a method of linearly approximating the luminance P from the projector and the observation luminance C by the camera. Therefore, if the change amount of each channel is too small, the equation (3 ) May degrade the accuracy of each matrix element (being inversely proportional to the amount of change).

つまり、サンプル画像の各変化量ΔR、ΔG、並びにΔBを適当に与えるためには、作業者は、プロジェクタの出力性能、カメラ感度、ダイナミックレンジなどを考慮して、カラー混合行列の各要素を安定して推定する必要があった。言い換えると、プロジェクタの出力性能、カメラ感度、ダイナミックレンジなどを作業者が考慮すること無く、カラー混合行列を自動的に推定することができないという問題があった。   In other words, in order to appropriately provide each change amount ΔR, ΔG, and ΔB of the sample image, the operator stabilizes each element of the color mixing matrix in consideration of the output performance of the projector, camera sensitivity, dynamic range, and the like. And had to be estimated. In other words, there is a problem that the color mixing matrix cannot be automatically estimated without considering the output performance of the projector, camera sensitivity, dynamic range, and the like.

本発明は、このような事情を考慮してなされたものであり、その目的は、プロジェクタの出力性能、カメラ感度、ダイナミックレンジに関わらず、任意のサンプル画像に基づいてプロジェクタからの出力輝度とカメラによる観測輝度との間を直線近似するためのカラー混合行列を容易に獲得することができる技術を提供することにある。   The present invention has been made in consideration of such circumstances, and its purpose is to output brightness from the projector and the camera based on an arbitrary sample image regardless of the output performance, camera sensitivity, and dynamic range of the projector. It is an object of the present invention to provide a technique capable of easily obtaining a color mixing matrix for linearly approximating between the observed luminances obtained from the above.

本発明の一態様は、プロジェクタによって投影される画像をカメラによって撮像するプロジェクタ・カメラシステムでの投影輝度調整方法であって、設定された値に基づくサンプル画像を前記プロジェクタによって投影した投影画像を、前記カメラで観測した観測画像として取得する観測画像取得ステップと、前記サンプル画像と前記観測画像との輝度変化を検出する輝度変化検出ステップと、前記プロジェクタ又は前記カメラの性能に基づいて予め設定される補正パラメータを用いることなく、前記検出された輝度変化の量に基づいて前記プロジェクタの輝度を制御する輝度制御ステップとを含むことを特徴とする投影輝度調整方法である。   One aspect of the present invention is a projection brightness adjustment method in a projector / camera system that captures an image projected by a projector using a camera, and a projection image obtained by projecting a sample image based on a set value by the projector, An observation image acquisition step acquired as an observation image observed by the camera, a luminance change detection step of detecting a luminance change between the sample image and the observation image, and preset based on the performance of the projector or the camera And a brightness control step for controlling the brightness of the projector based on the detected amount of brightness change without using a correction parameter.

本発明の一態様は、上記の投影輝度調整方法であって、前記観測画像取得ステップ、前記輝度変化検出ステップを繰り返し実行し、前記制御ステップは、前記輝度変化の量が所定の許容値以上の場合には、前記プロジェクタへ入力される輝度を更新した後、前記プロジェクタから更新後の輝度に基づいて画像を再び投影するステップと、前記輝度変化の量が前記所定の許容値より小さい場合には、サンプル画像に対する前記プロジェクタの輝度の制御が完了したと判定する完了判定ステップとを含むことを特徴とする。   One aspect of the present invention is the above-described projection luminance adjustment method, wherein the observation image acquisition step and the luminance change detection step are repeatedly executed, and the control step includes the amount of the luminance change being a predetermined allowable value or more. In this case, after updating the luminance input to the projector, projecting the image again based on the updated luminance from the projector, and when the amount of luminance change is smaller than the predetermined allowable value And a completion determination step for determining that the control of the brightness of the projector for the sample image has been completed.

本発明の一態様は、上記の投影輝度調整方法であって、前記輝度制御ステップの後、カラー混合行列と環境光ベクトルとを含む補正パラメータを算出する算出ステップを更に含むことを特徴とする。   One aspect of the present invention is the projection brightness adjustment method described above, further including a calculation step of calculating a correction parameter including a color mixture matrix and an ambient light vector after the brightness control step.

本発明の一態様は、上記の投影輝度調整方法であって、階調誤差を算出するためのテスト画像を生成し、前記補正パラメータを用いて前記テスト画像を補正するステップと、補正後の前記テスト画像の投影画像を前記カメラで撮像して得られたテスト観測画像と、補正前の前記テスト画像との各階調での輝度の誤差を表す階調誤差を算出するステップと、前記階調誤差が所定の閾値以上の場合は、前記補正パラメータ算出に使った前記サンプル画像の輝度階調を変更して、前記輝度制御ステップにより再びそのサンプル画像を補正するステップと、前記階調誤差が所定の閾値より小さい場合は、前記サンプル画像の補正が完了したと判定するステップと、を更に含むことを特徴とする。   One aspect of the present invention is the projection brightness adjustment method described above, wherein a test image for calculating a gradation error is generated, the test image is corrected using the correction parameter, and the corrected image is corrected. Calculating a gradation error representing a luminance error in each gradation between a test observation image obtained by capturing a projected image of the test image with the camera and the test image before correction; and the gradation error Is equal to or greater than a predetermined threshold, the luminance gradation of the sample image used for calculating the correction parameter is changed, the sample image is corrected again by the luminance control step, and the gradation error is predetermined A step of determining that the correction of the sample image has been completed if it is smaller than the threshold value.

本発明の一態様は、プロジェクタによって投影される画像をカメラによって撮像するプロジェクタ・カメラシステムの投影輝度調整装置であって、設定された値に基づくサンプル画像を前記プロジェクタによって投影した投影画像を、前記カメラで観測した観測画像として取得する観測画像取得部と、前記サンプル画像と前記観測画像との輝度変化を検出する輝度変化検出部と、前記プロジェクタ又は前記カメラの性能に基づいて予め設定される補正パラメータを用いることなく、前記検出された輝度変化の量に基づいて前記プロジェクタの輝度を制御する輝度制御部とを備えることを特徴とする投影輝度調整装置である。   One aspect of the present invention is a projection luminance adjustment apparatus for a projector / camera system that captures an image projected by a projector using a camera, and a projection image obtained by projecting a sample image based on a set value by the projector An observation image acquisition unit acquired as an observation image observed by a camera, a luminance change detection unit for detecting a luminance change between the sample image and the observation image, and a correction set in advance based on the performance of the projector or the camera And a brightness control unit that controls the brightness of the projector based on the detected amount of brightness change without using a parameter.

本発明の一態様は、上記の投影輝度調整方法をコンピュータに実行させるためのコンピュータプログラムである。   One aspect of the present invention is a computer program that causes a computer to execute the above-described projection luminance adjustment method.

本発明の一態様は、上記の投影輝度調整方法をコンピュータに実行させるためのコンピュータプログラムを記録した記録媒体である。   One aspect of the present invention is a recording medium on which a computer program for causing a computer to execute the above-described projection luminance adjustment method is recorded.

この発明によれば、プロジェクタの出力性能、カメラ感度、ダイナミックレンジなどを考慮すること無く、任意のサンプル画像を与えても、プロジェクタからの出力輝度とカメラによる観測輝度との間を直線近似するためのカラー混合行列を自動的に獲得することができる。   According to the present invention, even if an arbitrary sample image is given without considering the output performance of the projector, camera sensitivity, dynamic range, etc., the linear approximation is performed between the output luminance from the projector and the observation luminance by the camera. The color mixing matrix can be automatically obtained.

本発明に係る第1実施形態の投影輝度調整装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the projection luminance adjustment apparatus 1 of 1st Embodiment which concerns on this invention. 本第1実施形態の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of this 1st Embodiment. プロジェクタに与えた入力輝度(あるカラーチャネル)をカメラで観測した輝度出力の特性(トーンカーブ)の典型例を示す概念図である。It is a conceptual diagram which shows the typical example of the characteristic (tone curve) of the luminance output which observed the input luminance (a certain color channel) given to the projector with the camera. 線形近似を用いた輝度補正の例を示す概念図である(範囲の狭い近似)。It is a conceptual diagram which shows the example of the brightness | luminance correction | amendment using linear approximation (approximation with a narrow range). 線形近似を用いた輝度補正の例を示す概念図である(範囲の広い近似)。It is a conceptual diagram which shows the example of the brightness | luminance correction | amendment using linear approximation (approximation with a wide range). 本発明に係る第2実施形態の投影輝度調整装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the projection luminance adjustment apparatus 1 of 2nd Embodiment which concerns on this invention. 本第2実施形態での入力輝度レベルPとPの設定方法を説明するための概念図である。It is a conceptual diagram for explaining a method of setting the input brightness level P L and P H in the second embodiment. 本第2実施形態によるモデル評価部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the model evaluation part by this 2nd Embodiment.

以下、本発明の一実施形態を、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

A.第1実施形態
図1は、本発明に係る第1実施形態の投影輝度調整装置1の構成を示すブロック図である。図1において、投影輝度調整装置1は、1台のプロジェクタ10と1台のカメラ20とからなるプロジェクタ・カメラシステムに対する投影輝度調整方法を実現する。投影輝度調整装置1は、画像入力部2、輝度変化検出部3、輝度更新部4、及び補正係数算出部5を備えている。画像入力部2は、カメラ20から画像データを取得する。輝度変化検出部3は、画像入力部1から観測画像を取得し、その画像情報を用いて輝度変化を検出する。輝度更新部4は、射影計算DB6から取り出した平面射影変換のデータを用いて、投影用変換画像を生成し、その輝度変化検出部3にて得た輝度変化に応じてプロジェクタ10から出力する輝度を更新する。補正係数算出部5は、ある目標とする画像に近い画像を観測した時点で輝度補正のパラメータを算出して輝度補正DB7に保存する。
A. First Embodiment FIG. 1 is a block diagram showing a configuration of a projection luminance adjusting apparatus 1 according to a first embodiment of the present invention. In FIG. 1, the projection brightness adjusting apparatus 1 realizes a projection brightness adjusting method for a projector / camera system including one projector 10 and one camera 20. The projection luminance adjusting apparatus 1 includes an image input unit 2, a luminance change detection unit 3, a luminance update unit 4, and a correction coefficient calculation unit 5. The image input unit 2 acquires image data from the camera 20. The luminance change detection unit 3 acquires an observation image from the image input unit 1 and detects a luminance change using the image information. The luminance update unit 4 generates a projection conversion image using the plane projection conversion data extracted from the projection calculation DB 6, and outputs the luminance output from the projector 10 according to the luminance change obtained by the luminance change detection unit 3. Update. The correction coefficient calculation unit 5 calculates a parameter for luminance correction at the time when an image close to a certain target image is observed, and stores it in the luminance correction DB 7.

本第1実施形態による投影輝度調整装置1は、準備したサンプル画像に近い画像を、カメラ20が観測するように、観測した画像の輝度変化に応じて、プロジェクタ10へ与える輝度を更新し、自動的に任意の画像の輝度を補正するための輝度補正係数を算出する。   The projection brightness adjusting apparatus 1 according to the first embodiment updates the brightness given to the projector 10 according to the brightness change of the observed image so that the camera 20 observes an image close to the prepared sample image, and automatically Thus, a luminance correction coefficient for correcting the luminance of an arbitrary image is calculated.

この構成において、プロジェクタ10、カメラ20は、必ずしも構成要素として接続している必要はなく、処理に必要なデータを取得すればよい。また、画像入力部2、輝度変化検出部3、輝度更新部4、補正係数算出部5からそれぞれの矢印へのデータの流れは、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介してリモートなデータ資源を利用する形態でもどちらでも構わない。   In this configuration, the projector 10 and the camera 20 do not necessarily have to be connected as constituent elements, and may acquire data necessary for processing. Further, the flow of data from the image input unit 2, the luminance change detection unit 3, the luminance update unit 4, and the correction coefficient calculation unit 5 to the respective arrows uses a recording medium such as a hard disk, a RAID device, or a CD-ROM. Alternatively, either a form using a remote data resource via a network may be used.

以下、各部の詳細について説明する。なお、下記の各処理部でのサンプル画像は、グレー系画像、赤系画像、緑系画像、青系画像を指している。   Details of each part will be described below. Note that sample images in the following processing units indicate gray images, red images, green images, and blue images.

(画像入力部2)
画像入力部2は、カメラ20で観測(撮像)された、プロジェクタ10によりスクリーン(平面)上に投影された画像を取得し、輝度変化検出部3に転送する。画像入力部2で取得する画像の例としては、スクリーン全体が隠れることなく写された画像、または、所定の領域を撮影した画像である。
(Image input unit 2)
The image input unit 2 acquires an image observed (captured) by the camera 20 and projected onto the screen (plane) by the projector 10 and transfers the image to the luminance change detection unit 3. An example of an image acquired by the image input unit 2 is an image captured without hiding the entire screen, or an image obtained by photographing a predetermined area.

(輝度変化検出部3)
輝度変化検出部3は、画像上の画素とサンプル画像上の画素とを対応付けるための射影変換を行い、射影変換画像を生成する。以下に、該射影変換方法について説明する。
(Brightness change detection unit 3)
The luminance change detection unit 3 performs projective transformation for associating the pixels on the image with the pixels on the sample image, and generates a projected transformed image. The projective transformation method will be described below.

プロジェクタ画面の点の2次元座標を(u,v)、その点がZ=0のXY平面上に投影されたときの3次元座標を(X,Y,0)、その投影点をカメラ20で観測したときの点の2次元座標を(x,y)とすると、プロジェクタ10と平面間の平面射影変換Hps、並びに平面とカメラ20間の平面射影変換Hscによって、次式(4)、(5)の計算により、各画素をそれぞれ対応付けることができる。 The two-dimensional coordinates of the points on the projector screen are (u, v), the three-dimensional coordinates when the points are projected on the XY plane with Z = 0 (X, Y, 0), and the projected points are captured by the camera 20. Assuming that the two-dimensional coordinates of the observed point are (x, y), the following expression (4) is obtained by the plane projection transformation H ps between the projector 10 and the plane and the plane projection transformation H sc between the plane and the camera 20. Each pixel can be associated with each other by the calculation of (5).

Figure 2013083872
Figure 2013083872

Figure 2013083872
Figure 2013083872

さらに、プロジェクタ10から出力する画像の2次元座標(u,v)とサンプル画像上の点の2次元座標(u′,v′)とは、次式(6)の計算により両画素を対応付けることができる。   Furthermore, the two-dimensional coordinates (u, v) of the image output from the projector 10 and the two-dimensional coordinates (u ′, v ′) of the points on the sample image are associated with each other by the calculation of the following equation (6). Can do.

Figure 2013083872
Figure 2013083872

ipは、サンプル画像とプロジェクタ画面間の平面射影変換である。よって、これらの平面射影変換が既知であると、サンプル画像の2次元座標(u′,v′)とカメラ20で観測した2次元座標(x,y)との間、並びに、プロジェクタ画面上の2次元座標(u,v)とカメラ20で観測した2次元座標(x,y)との間を結び付けることができる。これらの平面射影変換は、事前のキャリブレーション作業によって得られており、そのデータが射影変換DB6に格納されている。このキャリブレーションでは、公知となっている平面射影変換推定方法を利用することができる。 H ip is a planar projective transformation between the sample image and the projector screen. Therefore, if these planar projective transformations are known, the two-dimensional coordinates (u ′, v ′) of the sample image and the two-dimensional coordinates (x, y) observed by the camera 20 and on the projector screen are displayed. The two-dimensional coordinates (u, v) and the two-dimensional coordinates (x, y) observed by the camera 20 can be linked. These plane projective transformations are obtained by a prior calibration work, and the data is stored in the projective transformation DB 6. In this calibration, a known planar projective transformation estimation method can be used.

輝度変化検出部3は、画像入力部2から観測画像を取得すると、射影変換DB6から上記平面射影変換のデータを読み込み、数式(6)に従ってサンプル画像の画素の2次元座標値(u′,v′)から観測画像上の画素に該当する2次元座標値(x,y)を算出する。輝度変化検出部3は、この座標計算を対象の画素全てに施して、観測画像を射影変換した画像を生成する。   When the luminance change detection unit 3 acquires the observation image from the image input unit 2, the luminance change detection unit 3 reads the plane projection transformation data from the projection transformation DB 6, and according to Equation (6), the two-dimensional coordinate values (u ′, v) of the pixels of the sample image The two-dimensional coordinate value (x, y) corresponding to the pixel on the observation image is calculated from '). The luminance change detection unit 3 applies this coordinate calculation to all the target pixels, and generates an image obtained by projective transformation of the observed image.

該射影変換画像の各画素は、サンプル画像の対応する各画素に対応付けられるので、観測画像の画素値C′(t)とサンプル画像上の画素値Cとを比較することができる。なお、本第1実施形態の動作が終了するまで、カメラ20から画像を逐次観測するため、状態t、あるいは時刻tでの観測画像の画素値をC′(t)と表すことにする。平面射影変換を用いてオリジナル画像と観測画像との各画素を対応付けしながら、各画素の輝度変化ΔC(t)を、次式(7)の計算によって算出する。   Since each pixel of the projective transformation image is associated with each corresponding pixel of the sample image, the pixel value C ′ (t) of the observed image can be compared with the pixel value C on the sample image. Since the images are sequentially observed from the camera 20 until the operation of the first embodiment is completed, the pixel value of the observed image at the state t or at the time t is represented as C ′ (t). The luminance change ΔC (t) of each pixel is calculated by calculation of the following equation (7) while associating each pixel of the original image and the observed image using the planar projective transformation.

Figure 2013083872
Figure 2013083872

輝度変化検出部3は、逐次観測した画像について、数式(7)を用いてサンプル画像との輝度変化を検出する。   The luminance change detection unit 3 detects a luminance change with respect to the sample image using Equation (7) for the sequentially observed images.

(輝度更新部4)
輝度更新部4は、起動されると、まず、プロジェクタ10にセットする画像を初期化する。例えば、各画素が次式(8)で与えられた入力画像をプロジェクタ10へセットする。
(Luminance update unit 4)
When the luminance update unit 4 is activated, it first initializes an image to be set on the projector 10. For example, the input image given by the following equation (8) for each pixel is set in the projector 10.

Figure 2013083872
Figure 2013083872

Cはサンプル画像の各画素に対応している。但し、αはパラメータであり、例として、α=0.5とする。その画像が所定の平面、または領域へ投影するように、射影変換DB6から平面射影変換のデータを取り出し、その平面射影変換のデータを用いて、その画像から投影用変換画像を生成する。平面射影変換は、一度読み出してメモリ(図示略)に一時記憶して用いる。プロジェクタ10にセットされた画像は、所定の平面であるスクリーン(図示略)に投影される。   C corresponds to each pixel of the sample image. However, α is a parameter. For example, α = 0.5. In order for the image to be projected onto a predetermined plane or region, plane projection transformation data is extracted from the projection transformation DB 6, and a projection conversion image is generated from the image using the plane projection transformation data. The planar projective transformation is used once read out and temporarily stored in a memory (not shown). The image set in the projector 10 is projected onto a screen (not shown) that is a predetermined plane.

いま、状態tでのプロジェクタ入力輝度がP(t)だとする。輝度更新部4は、上述した輝度変化検出部3で得た輝度変化ΔC(t)から全画素についての誤差の平均値(輝度誤差)を計算し、その輝度誤差が所定の許容値ε(例えば、ε=10に設定しておく)より小さい場合には、現時点で処理を停止し、補正係数算出部5へ処理を移行する(補正係数算出部5の処理内容については後述する)。一方、その輝度誤差が所定の許容値ε以上である場合には、状態t+1でのプロジェクタ入力輝度値を、次式(9)で更新する。   Assume that the projector input luminance in the state t is P (t). The luminance update unit 4 calculates an average value (luminance error) of errors for all pixels from the luminance change ΔC (t) obtained by the luminance change detection unit 3 described above, and the luminance error is a predetermined allowable value ε (for example, , Set ε = 10), the process is stopped at the present time, and the process proceeds to the correction coefficient calculation unit 5 (the processing content of the correction coefficient calculation unit 5 will be described later). On the other hand, if the luminance error is greater than or equal to the predetermined allowable value ε, the projector input luminance value in state t + 1 is updated by the following equation (9).

Figure 2013083872
Figure 2013083872

ここで、Kは3×3の行列であり、フィードバック・ゲインとしての役割を担っている。本第1実施形態では、次式(10)とする。   Here, K is a 3 × 3 matrix and plays a role as a feedback gain. In the first embodiment, the following equation (10) is assumed.

Figure 2013083872
Figure 2013083872

パラメータkは自由に設定してもよい。例えば、1台のプロジェクタ10を輝度補正する形態では、k=1.0にセットし、2台のプロジェクタ10における輝度を同時に輝度補正する形態では、k=0.5にセットし、3台のプロジェクタ10における輝度を同時に輝度補正する形態では、k=0.3にセットする。数式(9)を用いて輝度が更新された画素は、プロジェクタ10へ次の状態として与えられる画像上の画素にセットされる。このとき、観測画像を射影変換したのと同様に、射影計算DB6から取り出した平面射影変換のデータを用いて、投影用変換画像を生成する。   The parameter k may be set freely. For example, in the form of correcting the brightness of one projector 10, k = 1.0 is set. In the form of correcting the brightness of the two projectors 10 at the same time, k = 0.5 is set and In the form of correcting the luminance in the projector 10 at the same time, k = 0.3 is set. The pixel whose luminance has been updated using Expression (9) is set to the pixel on the image given to the projector 10 as the next state. At this time, similarly to the projection conversion of the observation image, the projection conversion image is generated using the plane projection conversion data extracted from the projection calculation DB 6.

投影用変換画像の画素は、プロジェクタ画面の画素である。サンプル画像と同じ大きさの画像バッファを用意し、画素が(u′,v′)に対応するため、数式(4)、(5)、(6)の平面射影変換の関係を利用して、プロジェクタ画面上の座標(u,v)を算出する。輝度が更新された画素は、その座標(u,v)の点にセットされる。全ての画素の輝度を更新した後、輝度更新部4は、この投影用変換画像をプロジェクタ10にセットし、更新画像を再び平面に投影する。   The pixel of the conversion image for projection is a pixel of the projector screen. An image buffer having the same size as the sample image is prepared, and the pixels correspond to (u ′, v ′). Coordinates (u, v) on the projector screen are calculated. The pixel whose luminance has been updated is set at the point of the coordinates (u, v). After updating the luminance of all the pixels, the luminance updating unit 4 sets the projection conversion image on the projector 10 and projects the updated image on the plane again.

数式(9)による輝度更新は、各状態tでの輝度変化に応じて行われ、輝度誤差が許容誤差εより小さくなるまで続けられる。各サンプル画像について、輝度誤差が許容誤差εより小さくなった時点で、各サンプル画像の輝度補正が完了したと判定し、作業用のメモリに一時確保しておく。   The luminance update according to Equation (9) is performed according to the luminance change in each state t, and is continued until the luminance error becomes smaller than the allowable error ε. For each sample image, when the luminance error becomes smaller than the allowable error ε, it is determined that the luminance correction of each sample image is completed, and is temporarily secured in the working memory.

(補正係数算出部5)
補正係数算出部5は、4枚のサンプル画像について輝度更新部4の処理が完了した時点で動作を実行する。補正係数算出部5は、一時保存されていた各サンプル画像に関する輝度補正画像を取り出す。ある注目画素について、グレー系画像における、その画素値をP、赤系画像における、その各画素をP、緑系画像における、その各画素をP、青系画像における、その各画素をPとする。これらの画素値は、プロジェクタにセットされた画像上の画素であるため、簡略的にプロジェクタ入力輝度と呼ぶことにする。
(Correction coefficient calculation unit 5)
The correction coefficient calculation unit 5 executes the operation when the processing of the luminance update unit 4 is completed for the four sample images. The correction coefficient calculation unit 5 takes out a luminance correction image related to each sample image that has been temporarily stored. For a pixel of interest, in the gray-based image, the pixel value P W, in the red-based image, the each pixel P R, in the green-based image, the each pixel P G, in the blue-based image, the each pixel Let P B. Since these pixel values are pixels on an image set in the projector, they will be simply referred to as projector input luminance.

一方、オリジナルの画素値として、グレー系画像の各画素をC、赤系画像の各画素をC、緑系画像の各画素をC、青系画像の各画素をCとする。これらの画素値は、カメラ観測で得た画像上の画素とほぼ同等なため、簡略的にカメラ観測輝度と呼ぶことにする。プロジェクタ入力輝度とカメラ観測輝度との関係は、カラー混合行列と環境光ベクトルとを用いて、数式(1)で結び付けることができる。 On the other hand, as original pixel values, each pixel of the gray image is C W , each pixel of the red image is C R , each pixel of the green image is C G , and each pixel of the blue image is C B. Since these pixel values are almost equivalent to the pixels on the image obtained by camera observation, they will be simply referred to as camera observation luminance. The relationship between the projector input luminance and the camera observation luminance can be linked by Equation (1) using the color mixing matrix and the ambient light vector.

カラー混合行列Vの逆行列をUとすると、赤系画像とグレー系画像との輝度差分は、次式(11)で表される。   When the inverse matrix of the color mixing matrix V is U, the luminance difference between the red image and the gray image is expressed by the following equation (11).

Figure 2013083872
Figure 2013083872

観測画像がサンプル画像とほぼ等しいので、数式(11)の左辺の(C−C)は、R成分しか値がなく、他の成分は値0である。つまり、数式(11)は、次式(12)となる。 Since the observed image is substantially equal to the sample image, the left-hand side of equation (11) (C R -C W ), R component only without value and the other component is a value 0. That is, Formula (11) becomes the following Formula (12).

Figure 2013083872
Figure 2013083872

但し、ΔRは(C−C)のR成分であり、(ΔR,ΔG,ΔB)はプロジェクタ入力輝度の差分P−Pの各RGB値である。よって、数式(12)から、カラー混合行列の逆行列要素が、次式(13)で計算できる。 However, ΔR is an R component of (C R −C W ), and (ΔR r , ΔG r , ΔB r ) is each RGB value of the projector input luminance difference P R -P W. Therefore, from Equation (12), the inverse matrix element of the color mixing matrix can be calculated by the following Equation (13).

Figure 2013083872
Figure 2013083872

同様に、緑系画像とグレー系画像との差分から、次式(14)が得られる。   Similarly, the following equation (14) is obtained from the difference between the green image and the gray image.

Figure 2013083872
Figure 2013083872

同様に、青系画像とグレー系画像との差分から、次式(15)が得られる。   Similarly, the following equation (15) is obtained from the difference between the blue image and the gray image.

Figure 2013083872
Figure 2013083872

但し、(ΔR,ΔG,ΔB)はプロジェクタ入力輝度の差分(P−P)の各RGB値であり、(ΔR,ΔG,ΔB)はプロジェクタ入力輝度の差分(P−P)の各RGB値である。以上により、カラー混合行列の逆行列を得たので、行列Uの逆行列を計算し、カラー混合行列Vを得る。さらに、グレー系画像を用いて、数式(1)の関係から、次式(16)を利用して、環境光ベクトルFを算出する。 However, (ΔR g , ΔG g , ΔB g ) is an RGB value of the projector input luminance difference (P G −P W ), and (ΔR b , ΔG b , ΔB b ) is a projector input luminance difference (P B- P W ) RGB values. Thus, since the inverse matrix of the color mixing matrix is obtained, the inverse matrix of the matrix U is calculated to obtain the color mixing matrix V. Furthermore, the ambient light vector F is calculated using the following equation (16) from the relationship of the equation (1) using the gray image.

Figure 2013083872
Figure 2013083872

補正係数算出部5は、全ての画素について、カラー混合行列Vと環境光ベクトルFとを求めた後、それらのデータを輝度補正DB7に格納する(本発明では、カラー混合行列と環境光ベクトルとを合わせて補正パラメータと称している)。   The correction coefficient calculation unit 5 obtains the color mixture matrix V and the ambient light vector F for all pixels, and then stores these data in the brightness correction DB 7 (in the present invention, the color mixture matrix, the ambient light vector, Are called correction parameters).

図2は、本第1実施形態の動作を説明するためのフローチャートである。図2に示すフローチャートでは、グレー系画像、赤系画像、緑系画像、青系画像の順番に処理される。まず、動作が起動されると、輝度更新部4は、サンプル画像をセットし(ステップS1)、補正が完了したか否かを判断する(ステップS2)。ここで、補正が完了していない場合には(ステップS2のNO)、プロジェクタ10にセットする画像の輝度値を初期化し(ステップS3)、その画像が所定の平面、または領域へ投影するように、射影変換DB6から平面射影変換のデータを取り出し、その画像をその平面射影変換のデータを用いて投影用変換画像を生成し(ステップS9)、プロジェクタ10から所定の平面であるスクリーンに投影する(ステップS10)。   FIG. 2 is a flowchart for explaining the operation of the first embodiment. In the flowchart shown in FIG. 2, processing is performed in the order of a gray image, a red image, a green image, and a blue image. First, when the operation is started, the luminance update unit 4 sets a sample image (step S1), and determines whether or not the correction is completed (step S2). If the correction has not been completed (NO in step S2), the luminance value of the image to be set on the projector 10 is initialized (step S3), and the image is projected onto a predetermined plane or region. Then, plane projection conversion data is extracted from the projection conversion DB 6, and a projection conversion image is generated from the image using the plane projection conversion data (step S9), and projected from the projector 10 onto a screen that is a predetermined plane (step S9). Step S10).

画像入力部2では、カメラ20で観測(撮像)された、プロジェクタ10によりスクリーン(平面)上に投影された画像を取得し、輝度変化検出部3に転送する(ステップS4)。輝度変化検出部3では、射影変換DB6から平面射影変換のデータを取り出し、画像上の画素とサンプル画像上の画素とを対応付けるための射影変換を行い、射影変換画像を生成する(ステップS5)。輝度変化検出部3は、逐次観測した画像について、サンプル画像との輝度変化を検出する(ステップS6)。   The image input unit 2 acquires the image observed (captured) by the camera 20 and projected on the screen (plane) by the projector 10 and transfers it to the luminance change detection unit 3 (step S4). The luminance change detection unit 3 extracts plane projection conversion data from the projection conversion DB 6, performs projection conversion for associating the pixels on the image with the pixels on the sample image, and generates a projection conversion image (step S5). The luminance change detection unit 3 detects a luminance change with the sample image for the sequentially observed images (step S6).

輝度更新部4は、上述した輝度変化検出部3で得た輝度変化から全画素についての誤差の平均値(輝度誤差)を計算し、その輝度誤差が所定の許容値ε(例えば、ε=10)より小さいか否かを判断する(ステップS7)。そして、その輝度誤差が所定の許容値ε以上の場合には(ステップS7のNO)、輝度更新部4は、プロジェクタ入力輝度値を更新し(ステップS8)、全ての画素の輝度を更新した後、上述したように、射影変換DB6から取り出した平面射影変換のデータを用いて、投影用変換画像を生成し(ステップS9)、プロジェクタ10から更新画像を再び平面であるスクリーンに投影する(ステップS10)。   The luminance update unit 4 calculates an average value of errors (luminance error) for all pixels from the luminance change obtained by the luminance change detection unit 3 described above, and the luminance error is a predetermined allowable value ε (for example, ε = 10). It is judged whether it is smaller (step S7). If the luminance error is equal to or greater than the predetermined allowable value ε (NO in step S7), the luminance update unit 4 updates the projector input luminance value (step S8) and updates the luminance of all pixels. As described above, a projection conversion image is generated using the plane projection transformation data extracted from the projection transformation DB 6 (step S9), and the updated image is projected again from the projector 10 onto a flat screen (step S10). ).

上述したステップS4〜S10の処理は、輝度誤差が許容誤差εより小さくなるまで(ステップS7がYESになるまで)、その輝度更新を行いながら実行される。輝度更新部4は、各サンプル画像について、輝度誤差が許容誤差εより小さくなった時点で(ステップS7のYES)、各サンプル画像の輝度補正が完了したと判定し(ステップS2のYES)、補正係数算出部5へ処理を移行する。補正係数算出部5は、全ての画素について、カラー混合行列Vと環境光ベクトルFを求めた後、それらのデータを輝度補正DB7に格納する(ステップS11)。   The processes in steps S4 to S10 described above are executed while updating the brightness until the brightness error becomes smaller than the allowable error ε (YES in step S7). The luminance update unit 4 determines that the luminance correction of each sample image is completed (YES in step S2) when the luminance error is smaller than the allowable error ε for each sample image (YES in step S2). The process proceeds to the coefficient calculation unit 5. The correction coefficient calculation unit 5 obtains the color mixing matrix V and the ambient light vector F for all the pixels, and then stores these data in the luminance correction DB 7 (step S11).

上述した第1実施形態によれば、作業者は、事前にプロジェクタ・カメラシステムの光学的な内部パラメータを考慮する必要がなく、適当に与えたサンプル画像からプロジェクタ入力輝度とカメラ観測輝度間の輝度誤差を自動的に補正し、従来方法と同等の精度で各画素のカラー混合行列Vと環境光ベクトルFとを得ることができる。   According to the first embodiment described above, the operator does not need to consider the optical internal parameters of the projector / camera system in advance, and the brightness between the projector input brightness and the camera observation brightness from the appropriately given sample image. The error is automatically corrected, and the color mixing matrix V and the ambient light vector F of each pixel can be obtained with the same accuracy as the conventional method.

また、本第1実施形態によれば、アプリケーションに応じて、輝度補正DB7から補正パラメータを取り出し、非特許文献1、または2の従来方法に従って、任意のコンテンツ画像を輝度補正することが可能である。   Further, according to the first embodiment, it is possible to take out correction parameters from the luminance correction DB 7 according to the application and correct the luminance of an arbitrary content image according to the conventional method of Non-Patent Document 1 or 2. .

なお、本第1実施形態によるフローチャートを一斉に複数のプロジェクタに適用するならば、マルチプロジェクタシステムを自動的に輝度補正し、それぞれの補正パラメータ(カラー混合行列と環境光ベクトル)を得ることができる。   Note that if the flowchart according to the first embodiment is applied to a plurality of projectors all at once, the brightness of the multi-projector system can be automatically corrected and the respective correction parameters (color mixing matrix and ambient light vector) can be obtained. .

B.第2実施形態
次に、本発明の第2実施形態について説明する。
本第2実施形態を説明する前に、本第2実施形態が解決する新たな課題について説明しておく。図3は、プロジェクタに与えた入力輝度(あるカラーチャネル)をカメラで観測した輝度出力の特性(トーンカーブ)の典型例を示す概念図である。また、図4、図5は、線形近似を用いた輝度補正の例を示す概念図である。
B. Second Embodiment Next, a second embodiment of the present invention will be described.
Before describing the second embodiment, a new problem to be solved by the second embodiment will be described. FIG. 3 is a conceptual diagram showing a typical example of a characteristic (tone curve) of luminance output obtained by observing input luminance (a certain color channel) given to the projector with a camera. 4 and 5 are conceptual diagrams showing examples of luminance correction using linear approximation.

一般的に、カメラの感度は、区間Aの低階調レベルでは反応が鈍く、区間Bの中間階調では、ほぼ直線の特性を示し、区間Cの高階調では、その傾きが緩やかとなる。従来方法におけるプロジェクタ・カメラシステムの輝度補正では、このような階調特性に対して、図4、または図5に示す太い直線a、bで示したような線形近似を行い、その直線に従って所定の出力輝度を観測するように、プロジェクタに与える入力輝度を補正する。   In general, the sensitivity of the camera is less responsive at the low gradation level of the section A, shows an almost linear characteristic at the intermediate gradation of the section B, and has a gentle slope at the high gradation of the section C. In the luminance correction of the projector / camera system in the conventional method, linear approximation as shown by the thick straight lines a and b shown in FIG. 4 or FIG. The input luminance given to the projector is corrected so as to observe the output luminance.

図4では、入力輝度レベルPとPの2点を結ぶ直線aでトーンカーブを線形近似しており、図5では、入力輝度レベルPをできるだけ大きくして、Pと結ぶ直線bでトーンカーブを線形近似している。図4では、Pより高い入力輝度に対して近似直線aがトーンカーブから次第に外れるが、図5では、比較的広域な範囲を直線bで近似している。 In FIG. 4, the tone curve is linearly approximated by a straight line a connecting two points of the input luminance levels P L and P H. In FIG. 5, the straight line b connecting P L with the input luminance level P H increased as much as possible. The tone curve is linearly approximated. In Figure 4, the approximate line a relative higher P H input luminance gradually out of the tone curve, in FIG. 5, which approximates the relatively wide range in a straight line b.

つまり、図5では、広範囲にわたって元のトーンカーブとの誤差が小さいため、広範囲の補正が制御できることを示している。入力輝度レベルPとPは、サンプル画像のグレー系画像と各カラー系画像との輝度にそれぞれ対応する。すなわち、基準画像の全画素のRGB値は、Pに対応し、あるカラー系画像(赤系画像、緑系画像、青系画像)のあるチャネルの輝度がP、それ以外のチャネルの輝度がPに対応する。 That is, FIG. 5 shows that the correction over a wide range can be controlled because the error from the original tone curve is small over a wide range. The input luminance levels P L and P H correspond to the luminances of the gray image and each color image of the sample image, respectively. That is, the RGB values of all the pixels of the reference image correspond to P L , the luminance of a certain color system image (red image, green image, blue image) is P H , and the luminance of other channels is There corresponding to P L.

従って、入力輝度レベルにおいてPとPが狭いということは、階調全体の輝度補正の精度に影響を与えるため、できるだけ広範囲に線形近似できる補正パラメータを求めることが必要となる。本第2実施形態は、この課題を解決することを目的とする。 Therefore, in the input luminance level of P L and P H is narrow, because it affects the accuracy of the gradation overall brightness correction, it is necessary to determine the correction parameters can widest possible linear approximation. The second embodiment aims to solve this problem.

図6は、本発明に係る第2実施形態の投影輝度調整装置1の構成を示すブロック図である。なお、図1に対応する部分には同一の符号を付けて説明を省略する。以下では、第1実施形態の構成に対して異なるモデル評価部8について説明する。   FIG. 6 is a block diagram showing a configuration of the projection luminance adjusting apparatus 1 according to the second embodiment of the present invention. It should be noted that portions corresponding to those in FIG. Below, the model evaluation part 8 different with respect to the structure of 1st Embodiment is demonstrated.

(モデル評価部8)
第1実施形態において、グレー系画像のRGBチャネル値が全て(P,P,P)にセットされ、赤系画像のRGBチャネル値が(P,P,P)にセットされ、緑系画像のRGBチャネル値が(P,P,P)にセットされ、青系画像のRGBチャネル値が(P,P,P)にセットされるとする。
(Model evaluation unit 8)
In the first embodiment, the RGB channel values of the gray image are all set to (P L , P L , P L ), and the RGB channel values of the red image are set to (P H , P L , P L ). Assume that the RGB channel values of the green image are set to (P L , P H , P L ), and the RGB channel values of the blue image are set to (P L , P L , P H ).

図7は、本第2実施形態での入力輝度レベルPとPの設定方法を説明するための概念図である。図7に「●」で示すように、本第2実施形態では、初期化では、できるだけ広い範囲から処理を始めるため、Pが0レベルに近い値に、Pは255レベルに近い値に設定される。この初期段階では、補正パラメータが存在しないため、これらのサンプル画像が用意される(サンプル画像の再設定)だけの処理で終了する。 Figure 7 is a conceptual diagram for explaining a method of setting the input brightness level P L and P H in the second embodiment. As shown by "●" in FIG. 7, in the second embodiment, in the initialization, to start the process from as wide a range as possible, to a value close to P L is 0 level, P H is a value close to 255 levels Is set. In this initial stage, since there is no correction parameter, the processing is completed only by preparing these sample images (resetting the sample images).

この初期のサンプル画像から、第1実施形態と同様の手法によって補正パラメータを算出する。輝度補正DB7の補正パラメータが更新されると、モデル評価部8が再起動する。モデル評価部8は、まず、評価誤差を算出するためのN枚のテスト画像を準備する。各テスト画像のRGBチャネル値は、それぞれ(P+n×ΔL,P+n×ΔL,P+n×ΔL)にセットされる。nは0,1,2,…,N−1の整数であり、ΔLは、次式(17)で決められた階調の量子化ステップであり、最大階調レベルを超えない程度に四捨五入されている。 A correction parameter is calculated from this initial sample image by the same method as in the first embodiment. When the correction parameter of the brightness correction DB 7 is updated, the model evaluation unit 8 is restarted. The model evaluation unit 8 first prepares N test images for calculating an evaluation error. The RGB channel values of each test image are set to (P L + n × ΔL, P L + n × ΔL, P L + n × ΔL), respectively. n is an integer of 0, 1, 2,..., N−1, and ΔL is a gradation quantization step determined by the following equation (17), rounded to the extent that the maximum gradation level is not exceeded. ing.

Figure 2013083872
Figure 2013083872

図8は、本第2実施形態によるモデル評価部8の動作を説明するためのフローチャートである。モデル評価部8は、輝度補正DB7に補正パラメータがあるか否かを判断し(ステップS20)、補正パラメータがある場合には(ステップS20のYES)、数式(17)に従って輝度階調を設定し、射影変換DB6からの平面射影変換データを用いて所定の領域に投影されるように、投影用変換画像としてN種類のテスト画像を生成する(ステップS21)。次に、モデル評価部8は、輝度補正DB7から得た補正パラメータを用いて、全てのテスト画像の輝度を補正する(ステップS22)。   FIG. 8 is a flowchart for explaining the operation of the model evaluation unit 8 according to the second embodiment. The model evaluation unit 8 determines whether or not there is a correction parameter in the luminance correction DB 7 (step S20). If there is a correction parameter (YES in step S20), the model evaluation unit 8 sets the luminance gradation according to the equation (17). Then, N types of test images are generated as the projection conversion images so as to be projected onto a predetermined region using the planar projection conversion data from the projection conversion DB 6 (step S21). Next, the model evaluation unit 8 corrects the luminance of all the test images using the correction parameter obtained from the luminance correction DB 7 (step S22).

次に、モデル評価部8は、それぞれ補正されたテスト画像を、輝度更新部4に与え、プロジェクタ10を通して順番に投影する(ステップS23)。その投影画像をカメラ20で次々と観測して、オリジナルのテスト画像との間の輝度誤差の平均値(輝度評価値)を算出する(ステップS24)。次に、その輝度評価値が所定の誤差δ(例えば、δ=10と設定する)より小さいか否かを判断する(ステップS25)。   Next, the model evaluation unit 8 gives the corrected test images to the luminance update unit 4 and sequentially projects them through the projector 10 (step S23). The projected images are observed with the camera 20 one after another, and the average value (luminance evaluation value) of the luminance error with the original test image is calculated (step S24). Next, it is determined whether or not the luminance evaluation value is smaller than a predetermined error δ (for example, δ = 10 is set) (step S25).

そして、その輝度評価値が所定の誤差δより小さい場合には(ステップS25のYES)、モデル評価部8の処理を停止し、当該処理を終了する。一方、補正パラメータがない場合(ステップS20のNO)、あるいは、輝度評価値が所定の誤差δ以上の場合には、サンプル画像の再設定を実施する(ステップS26)。この処理では、先に設定したグレー系画像、赤系画像、緑系画像、青系画像のRGBチャネル値を変更する。図7に「○」で示したように、階調を狭める方向、すなわち、次式(18)、(19)に変更する。   If the luminance evaluation value is smaller than the predetermined error δ (YES in step S25), the process of the model evaluation unit 8 is stopped and the process is terminated. On the other hand, if there is no correction parameter (NO in step S20), or if the luminance evaluation value is greater than or equal to a predetermined error δ, the sample image is reset (step S26). In this process, the RGB channel values of the previously set gray-based image, red-based image, green-based image, and blue-based image are changed. As indicated by “◯” in FIG. 7, the gradation is narrowed, that is, the following equations (18) and (19) are changed.

Figure 2013083872
Figure 2013083872

Figure 2013083872
Figure 2013083872

ΔDは任意の正の整数であり、例えば、ΔD=10と与える。この変更に伴い、サンプル画像の画素を更新し、同様に、第1実施形態に従って、再び、これらのサンプル画像から補正パラメータを算出する。補正パラメータが再度算出されると、モデル評価部8の処理を繰り返すことにより、トーンカーブに最も近い線形近似を探索することができ、それに応じた補正パラメータを得ることができる。   ΔD is an arbitrary positive integer, for example, ΔD = 10. Along with this change, the pixels of the sample image are updated, and similarly, correction parameters are calculated from these sample images again according to the first embodiment. When the correction parameter is calculated again, it is possible to search for a linear approximation closest to the tone curve by repeating the process of the model evaluation unit 8, and to obtain a correction parameter corresponding to the linear approximation.

上述した第1、第2実施形態によれば、プロジェクタの出力性能、カメラ感度、ダイナミックレンジなどを考慮すること無く、任意のサンプル画像を与えても、プロジェクタからの出力輝度Pとカメラによる観測輝度Cとの間を直線近似するためのカラー混合行列を自動的に獲得することができるため、プロジェクタ・カメラシステムを柔軟に輝度補正することが可能となる。   According to the first and second embodiments described above, the output luminance P from the projector and the observation luminance by the camera can be obtained even if an arbitrary sample image is given without considering the output performance, camera sensitivity, dynamic range, etc. of the projector. Since it is possible to automatically obtain a color mixing matrix for linear approximation with C, it is possible to flexibly correct the brightness of the projector / camera system.

なお、本発明は、前述した第1、第2実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム、あるいは装置に供給し、そのシステム、あるいは装置のCPU(MPU)が記憶媒体に格納されたプログラムコードを読み出して実行することによっても実現できる。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体、例えば、CD−ROM、DVD−ROM、CD−R、CD−RW、MO、HDD等は本発明を構成する。   In the present invention, a storage medium storing software program codes for realizing the functions of the first and second embodiments described above is supplied to a system or apparatus, and the CPU (MPU) of the system or apparatus is provided. It can also be realized by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and a storage medium storing the program code, for example, a CD-ROM, DVD-ROM, CD-R , CD-RW, MO, HDD, etc. constitute the present invention.

1 投影輝度調整装置
2 画像入力部
3 輝度変化検出部
4 起動更新部
5 補正係数算出部
6 射影変換DB
7 輝度補正DB
8 モデル評価部
10 プロジェクタ
20 カメラ
DESCRIPTION OF SYMBOLS 1 Projection brightness adjustment apparatus 2 Image input part 3 Brightness change detection part 4 Startup update part 5 Correction coefficient calculation part 6 Projection transformation DB
7 Brightness correction DB
8 Model Evaluation Unit 10 Projector 20 Camera

Claims (7)

プロジェクタによって投影される画像をカメラによって撮像するプロジェクタ・カメラシステムでの投影輝度調整方法であって、
設定された値に基づくサンプル画像を前記プロジェクタによって投影した投影画像を、前記カメラで観測した観測画像として取得する観測画像取得ステップと、
前記サンプル画像と前記観測画像との輝度変化を検出する輝度変化検出ステップと、
前記プロジェクタ又は前記カメラの性能に基づいて予め設定される補正パラメータを用いることなく、前記検出された輝度変化の量に基づいて前記プロジェクタの輝度を制御する輝度制御ステップと
を含むことを特徴とする投影輝度調整方法。
A projection brightness adjustment method in a projector / camera system that captures an image projected by a projector with a camera,
An observation image acquisition step of acquiring a projection image obtained by projecting a sample image based on a set value by the projector as an observation image observed by the camera;
A luminance change detecting step for detecting a luminance change between the sample image and the observed image;
A brightness control step of controlling the brightness of the projector based on the detected amount of brightness change without using a correction parameter set in advance based on the performance of the projector or the camera. Projection brightness adjustment method.
前記観測画像取得ステップ、前記輝度変化検出ステップを繰り返し実行し、
前記制御ステップは、
前記輝度変化の量が所定の許容値以上の場合には、前記プロジェクタへ入力される輝度を更新した後、前記プロジェクタから更新後の輝度に基づいて画像を再び投影するステップと、
前記輝度変化の量が前記所定の許容値より小さい場合には、サンプル画像に対する前記プロジェクタの輝度の制御が完了したと判定する完了判定ステップと
を含むことを特徴とする、請求項1に記載の投影輝度調整方法。
Repeatedly executing the observation image acquisition step and the luminance change detection step;
The control step includes
If the amount of change in luminance is equal to or greater than a predetermined allowable value, after updating the luminance input to the projector, projecting an image again based on the updated luminance from the projector;
The completion determination step of determining that the control of the luminance of the projector with respect to the sample image is completed when the amount of the luminance change is smaller than the predetermined allowable value. Projection brightness adjustment method.
前記輝度制御ステップの後、カラー混合行列と環境光ベクトルとを含む補正パラメータを算出する算出ステップを更に含むことを特徴とする請求項1又は2に記載の投影輝度調整方法。   The projection luminance adjustment method according to claim 1, further comprising a calculation step of calculating a correction parameter including a color mixing matrix and an ambient light vector after the luminance control step. 階調誤差を算出するためのテスト画像を生成し、前記補正パラメータを用いて前記テスト画像を補正するステップと、
補正後の前記テスト画像の投影画像を前記カメラで撮像して得られたテスト観測画像と、補正前の前記テスト画像との各階調での輝度の誤差を表す階調誤差を算出するステップと、
前記階調誤差が所定の閾値以上の場合は、前記補正パラメータ算出に使った前記サンプル画像の輝度階調を変更して、前記輝度制御ステップにより再びそのサンプル画像を補正するステップと、
前記階調誤差が所定の閾値より小さい場合は、前記サンプル画像の補正が完了したと判定するステップと、
を更に含むことを特徴とする請求項3に記載の投影輝度調整方法。
Generating a test image for calculating a gradation error, and correcting the test image using the correction parameter;
Calculating a gradation error representing a luminance error in each gradation between a test observation image obtained by capturing the projected image of the test image after correction with the camera and the test image before correction;
If the gradation error is greater than or equal to a predetermined threshold, changing the luminance gradation of the sample image used for calculating the correction parameter, and correcting the sample image again by the luminance control step;
Determining that the correction of the sample image is completed when the gradation error is smaller than a predetermined threshold;
The projection luminance adjustment method according to claim 3, further comprising:
プロジェクタによって投影される画像をカメラによって撮像するプロジェクタ・カメラシステムの投影輝度調整装置であって、
設定された値に基づくサンプル画像を前記プロジェクタによって投影した投影画像を、前記カメラで観測した観測画像として取得する観測画像取得部と、
前記サンプル画像と前記観測画像との輝度変化を検出する輝度変化検出部と、
前記プロジェクタ又は前記カメラの性能に基づいて予め設定される補正パラメータを用いることなく、前記検出された輝度変化の量に基づいて前記プロジェクタの輝度を制御する輝度制御部と
を備えることを特徴とする投影輝度調整装置。
A projection brightness adjusting device for a projector / camera system that captures an image projected by a projector with a camera,
An observation image acquisition unit for acquiring a projection image obtained by projecting a sample image based on a set value by the projector as an observation image observed by the camera;
A luminance change detection unit for detecting a luminance change between the sample image and the observation image;
A brightness control unit that controls the brightness of the projector based on the detected amount of brightness change without using a correction parameter that is set in advance based on the performance of the projector or the camera. Projection brightness adjustment device.
請求項1から4のいずれかに記載の投影輝度調整方法をコンピュータに実行させるためのコンピュータプログラム。   A computer program for causing a computer to execute the projection luminance adjusting method according to claim 1. 請求項1から4のいずれかに記載の投影輝度調整方法をコンピュータに実行させるためのコンピュータプログラムを記録した記録媒体。   A recording medium on which a computer program for causing a computer to execute the projection luminance adjusting method according to claim 1 is recorded.
JP2011224919A 2011-10-12 2011-10-12 Projection brightness adjustment method, projection brightness adjustment apparatus, computer program, and recording medium Expired - Fee Related JP5775414B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011224919A JP5775414B2 (en) 2011-10-12 2011-10-12 Projection brightness adjustment method, projection brightness adjustment apparatus, computer program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011224919A JP5775414B2 (en) 2011-10-12 2011-10-12 Projection brightness adjustment method, projection brightness adjustment apparatus, computer program, and recording medium

Publications (2)

Publication Number Publication Date
JP2013083872A true JP2013083872A (en) 2013-05-09
JP5775414B2 JP5775414B2 (en) 2015-09-09

Family

ID=48529106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011224919A Expired - Fee Related JP5775414B2 (en) 2011-10-12 2011-10-12 Projection brightness adjustment method, projection brightness adjustment apparatus, computer program, and recording medium

Country Status (1)

Country Link
JP (1) JP5775414B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020136732A1 (en) * 2018-12-25 2020-07-02 堺ディスプレイプロダクト株式会社 Correction image generation system, image control method, image control program, and recording medium
CN114040180A (en) * 2020-08-26 2022-02-11 苏州中科全象智能科技有限公司 3D structured light camera projection brightness control method
WO2023073913A1 (en) * 2021-10-29 2023-05-04 日本電信電話株式会社 Image correction device, image correction method, and program
CN116546175A (en) * 2023-06-01 2023-08-04 深圳创疆网络科技有限公司 Intelligent control method and device for realizing projector based on automatic induction

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111327890B (en) * 2020-03-06 2021-12-28 成都极米科技股份有限公司 Optical machine testing method and device and electronic equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095021A (en) * 2000-09-13 2002-03-29 Seiko Epson Corp Correction curve generating method, image processing method, image display device and recording medium
JP2006217208A (en) * 2005-02-03 2006-08-17 Olympus Corp Image processing method and device, and image display method
JP2009092867A (en) * 2007-10-05 2009-04-30 Seiko Epson Corp Projector, program, and method of adjusting brightness

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095021A (en) * 2000-09-13 2002-03-29 Seiko Epson Corp Correction curve generating method, image processing method, image display device and recording medium
JP2006217208A (en) * 2005-02-03 2006-08-17 Olympus Corp Image processing method and device, and image display method
JP2009092867A (en) * 2007-10-05 2009-04-30 Seiko Epson Corp Projector, program, and method of adjusting brightness

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020136732A1 (en) * 2018-12-25 2020-07-02 堺ディスプレイプロダクト株式会社 Correction image generation system, image control method, image control program, and recording medium
JP6732144B1 (en) * 2018-12-25 2020-07-29 堺ディスプレイプロダクト株式会社 Correction image generation system, image control method, image control program, and recording medium
CN113228155A (en) * 2018-12-25 2021-08-06 堺显示器制品株式会社 Correction image generation system, image control method, image control program, and recording medium
US11232740B1 (en) 2018-12-25 2022-01-25 Sakai Display Products Corporation Correction image generation system, image control method, image control program, and recording medium
CN114040180A (en) * 2020-08-26 2022-02-11 苏州中科全象智能科技有限公司 3D structured light camera projection brightness control method
CN114040180B (en) * 2020-08-26 2023-07-25 苏州中科全象智能科技有限公司 Projection brightness control method for 3D structured light camera
WO2023073913A1 (en) * 2021-10-29 2023-05-04 日本電信電話株式会社 Image correction device, image correction method, and program
CN116546175A (en) * 2023-06-01 2023-08-04 深圳创疆网络科技有限公司 Intelligent control method and device for realizing projector based on automatic induction
CN116546175B (en) * 2023-06-01 2023-10-31 深圳创疆网络科技有限公司 Intelligent control method and device for realizing projector based on automatic induction

Also Published As

Publication number Publication date
JP5775414B2 (en) 2015-09-09

Similar Documents

Publication Publication Date Title
US10602106B2 (en) Information processing apparatus, information processing method, and program
US20190313070A1 (en) Automatic calibration projection system and method
WO2016112704A1 (en) Method and device for adjusting focal length of projector, and computer storage medium
JP5775414B2 (en) Projection brightness adjustment method, projection brightness adjustment apparatus, computer program, and recording medium
WO2008148291A1 (en) Device and method for calibrating multi-screen wall
CN109474814A (en) Two-dimensional calibration method, projector and the calibration system of projector
JP5596427B2 (en) Optical projection control method, optical projection control apparatus, optical projection control system, and program
JP2016085380A (en) Controller, control method, and program
US10205940B1 (en) Determining calibration settings for displaying content on a monitor
JP2005189542A (en) Display system, display program and display method
JP2007288295A (en) Observation position tracking type video image providing apparatus and observation position tracking type video image providing program, and video image providing apparatus and the video image providing program
CN109587463A (en) Calibration method, projector and the calibration system of projector
JP5779071B2 (en) Multiple projection brightness adjustment method, multiple projection brightness adjustment apparatus, computer program, and recording medium
US20170374239A1 (en) Image processing device and image processing method
JP2017147638A (en) Video projection system, video processing apparatus, video processing program, and video processing method
JP5592834B2 (en) Optical projection control apparatus, optical projection control method, and program
JP2006323139A (en) Projector, camera server, and image projection method
TWI682358B (en) Multi-dimensional image projection apparatus and multi-dimensional image calibration method thereof
JP5339299B2 (en) Optical brightness correction apparatus, optical brightness correction method, and optical brightness correction program
JP6757004B2 (en) Image processing equipment and methods, image processing programs, and projection equipment
JP2006109088A (en) Geometric correction method in multi-projection system
WO2023073913A1 (en) Image correction device, image correction method, and program
JP2020025224A (en) Camera evaluation value measuring device and camera evaluation value measuring method
JP5841495B2 (en) Projection type three-dimensional shape restoration apparatus, projection type three-dimensional shape restoration method, projection type three-dimensional shape restoration program, and recording medium recording the program
CN113012182B (en) Offset state testing method, testing device and storage medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130606

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150703

R150 Certificate of patent or registration of utility model

Ref document number: 5775414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees