JP2006311029A - Display image imaging method and apparatus - Google Patents

Display image imaging method and apparatus Download PDF

Info

Publication number
JP2006311029A
JP2006311029A JP2005129196A JP2005129196A JP2006311029A JP 2006311029 A JP2006311029 A JP 2006311029A JP 2005129196 A JP2005129196 A JP 2005129196A JP 2005129196 A JP2005129196 A JP 2005129196A JP 2006311029 A JP2006311029 A JP 2006311029A
Authority
JP
Japan
Prior art keywords
image
exposure time
display
display device
synchronous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005129196A
Other languages
Japanese (ja)
Inventor
Hiroshi Sasaki
佐々木  寛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005129196A priority Critical patent/JP2006311029A/en
Publication of JP2006311029A publication Critical patent/JP2006311029A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display image imaging method and apparatus capable of imaging at a free position a displayed image on an image display apparatus while being periodically updated by adopting a rolling shutter system so as to effectively suppress production of stripe noise without the need for using a synchronizing signal from hardware. <P>SOLUTION: In imaging a displayed image on the image display apparatus 110 for consecutively displaying images periodically by using the rolling shutter system, the display image imaging apparatus allows the image display apparatus 110 to display a prescribed image in advance and images the prescribed image, calculates a synchronizing exposure time at which the stripe noise caused by the display period of the image display apparatus 110 on the basis of the imaged prescribed image, and thereafter controls its exposure time on the basis of the calculated synchronizing exposure time to image the displayed image on the image display apparatus 110. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像表示装置に表示される表示画像を撮像する撮像方法および装置に関するものである。   The present invention relates to an imaging method and apparatus for imaging a display image displayed on an image display device.

画像表示装置として、複数台のプロジェクタによりスクリーン上に1つの画像を合成して投影表示するマルチプロジェクションシステムが知られている。このようなマルチプロジェクションシステムでは、複数台のプロジェクタから投影された各画像間の色差や輝度差、およびその継ぎ目が目立たないようにする等の対策を講じる必要がある。   As an image display device, a multi-projection system is known in which a single image is synthesized and projected and displayed on a screen by a plurality of projectors. In such a multi-projection system, it is necessary to take measures such as making color differences and luminance differences between images projected from a plurality of projectors and the joints inconspicuous.

そこで、本出願人は、スクリーン上にキャリブレーション用の画像を投影し、それをデジタルカメラ等の撮像手段で撮像して、得られた撮像データに基づいて各種の補正を行うようにした画像表示装置を既に提案している(例えば、特許文献1、特許文献2参照)。   Therefore, the present applicant projects an image for calibration on the screen, images it with an imaging means such as a digital camera, and performs various corrections based on the obtained imaging data. An apparatus has already been proposed (see, for example, Patent Document 1 and Patent Document 2).

特許文献1、2に開示の画像表示装置によると、撮像したキャリブレーション用の画像から、スクリーンと複数のプロジェクタとの相対位置関係、およびプロジェクタ間の色差や輝度差、プロジェクタ内の色むらや輝度むらを測定し、それらの測定データに基づいて幾何補正パラメータおよび色補正パラメータを算出して、その算出したパラメータを用いて画像補正を行うので、大画面のシームレスで高解像度、高画質な画像を投影することができる。   According to the image display devices disclosed in Patent Literatures 1 and 2, from the captured calibration image, the relative positional relationship between the screen and the plurality of projectors, the color difference and luminance difference between the projectors, the color unevenness and the luminance in the projector, and the like. Unevenness is measured, geometric correction parameters and color correction parameters are calculated based on the measurement data, and image correction is performed using the calculated parameters. Therefore, a large-screen seamless, high-resolution, high-quality image can be obtained. Can be projected.

ところで、このような画像表示装置に使用されるプロジェクタとしては、例えば単板の表示素子を用いた単板式プロジェクタや3板の表示素子を用いた3板式プロジェクタが知られている。   By the way, as a projector used for such an image display apparatus, for example, a single-plate projector using a single-plate display element and a three-plate projector using a three-plate display element are known.

単板式プロジェクタは、例えば、白色光源と単板の表示素子(例えば、デジタル・マイクロミラー・デバイス(DMD)や液晶等の光変調素子)との間に、少なくとも3つの原色光(赤、緑、青)をそれぞれ透過するカラーフィルタを備えるカラーホイールを配置し、このカラーホイールを所定周波数(例えば、240Hz)で回転させながら、その回転に同期して表示素子の各画素の変調度合いを制御することにより、各原色画像を面順次で表示するようにしている。ここで、人間の視覚は、網膜上に結像した所定時間の積分画像を認識しているので、その所定時間(積分時間)よりも面順次の表示周期を高速に設定することにより、観察者において3原色画像が合成されたフルカラー表示画像として認識される。   A single-plate projector, for example, has at least three primary color lights (red, green, red, green, etc.) between a white light source and a single-plate display element (for example, a light modulation element such as a digital micromirror device (DMD) or liquid crystal). A color wheel having a color filter that transmits blue) is arranged, and the degree of modulation of each pixel of the display element is controlled in synchronization with the rotation while rotating the color wheel at a predetermined frequency (for example, 240 Hz). Thus, each primary color image is displayed in the field sequential order. Here, since human vision recognizes an integral image of a predetermined time imaged on the retina, by setting a frame-sequential display period faster than the predetermined time (integration time), the observer The three primary color images are recognized as a full color display image.

3板式プロジェクタは、3原色光をそれぞれ変調する表示素子を有しており、各表示素子で変調された3つの変調光を例えばクロスプリズム等で合成した後、投影するようにしている。この3板式プロジェクタは、単板式プロジェクタのようなカラーホイールは有していないが、表示素子の変調画像を所定周波数(例えば、60Hz)で切り替えることにより、動画像表示が可能となっている。   The three-plate projector has display elements for modulating the three primary color lights, and the three modulated lights modulated by the respective display elements are combined by, for example, a cross prism and then projected. Although this three-plate projector does not have a color wheel like a single-plate projector, a moving image can be displayed by switching the modulation image of the display element at a predetermined frequency (for example, 60 Hz).

また、画像表示装置のキャリブレーションの際に、スクリーン上に投影されたキャリブレーション用の画像を撮像するデジタルカメラとして、CCD撮像素子を用いたものや、CMOS撮像素子を用いたものが知られている。   In addition, as a digital camera for capturing a calibration image projected on a screen at the time of calibration of an image display device, one using a CCD image sensor or one using a CMOS image sensor is known. Yes.

CCD撮像素子を用いたデジタルカメラは、シャッタ方式として、一般に、撮像エリア内で撮像開始時間が同時となるグローバルシャッタ方式を採用しているので、撮像対象物が移動している場合でも、撮像画像に歪みが生じることがない。   Since a digital camera using a CCD imaging device generally employs a global shutter system in which an imaging start time is simultaneously within an imaging area as a shutter system, a captured image can be obtained even when an imaging target is moving. No distortion occurs.

これに対し、CMOS撮像素子を用いたデジタルカメラは、安価ではあるが、シャッタ方式として、一般にローリングシャッタ方式を採用している。このシャッタ方式は、例えば、所定露出時間で撮像した場合に、垂直方向に配置される各撮像ラインが同時に露出を開始するのではなく、露出開始時間が最上部の撮像ラインから最下部の撮像ラインへ所定時間ずれた状態で撮像するため、撮像対象物が静止している場合には問題ないが、移動している場合には、その移動速度に依存した撮像ラインの撮像開始時間のずれによって歪んだ画像が撮像されることになる。   On the other hand, although a digital camera using a CMOS image sensor is inexpensive, it generally adopts a rolling shutter system as a shutter system. In this shutter method, for example, when imaging is performed with a predetermined exposure time, the imaging lines arranged in the vertical direction do not start exposure at the same time, but the exposure start time is changed from the uppermost imaging line to the lowermost imaging line. When the object to be imaged is stationary, there is no problem. However, when the object is moving, it is distorted due to the difference in the imaging start time of the imaging line depending on the moving speed. An image is captured.

このため、画像表示装置に表示される周期的に切り替わる画像を、CMOS撮像素子を用いたデジタルカメラで撮像すると、上記のローリングシャッタ方式に伴う問題が発生することになる。   For this reason, if a periodically switched image displayed on the image display device is picked up by a digital camera using a CMOS image pickup device, a problem associated with the rolling shutter method occurs.

以下、このローリングシャッタ方式に伴う問題について、画像表示装置が単板式プロジェクタを用いる場合を例にとって、図10および図11を参照しながら説明する。   Hereinafter, the problem associated with the rolling shutter system will be described with reference to FIGS. 10 and 11 by taking as an example the case where the image display apparatus uses a single-plate projector.

ここでは、図10(a)に示すように、単板式プロジェクタのカラーホイール1001が周波数αHzで回転し、均一な白画像をスクリーンに表示するものとする。この状態は、カラーホイール1001を構成するR(赤)、G(緑)、青(B)、スルー(W)フィルタが白色光源の光路上にある時間だけ、各フィルタに対応する色光のみがスクリーンを照明するので、スクリーン照度と時間との関係は、図10(b)にグラフ1002で示すようになり、スクリーン照度は、R、G、B、Wと時分割で領域区分され、その周期はβmsecとなる。ここで、β=1/αである。   Here, as shown in FIG. 10A, it is assumed that the color wheel 1001 of the single-plate projector rotates at a frequency α Hz and displays a uniform white image on the screen. In this state, the R (red), G (green), blue (B), and through (W) filters that make up the color wheel 1001 are only in the color light corresponding to each filter during the time that the filters are on the optical path of the white light source. Therefore, the relationship between the screen illuminance and time is as shown by a graph 1002 in FIG. 10B, and the screen illuminance is divided into R, G, B, and W areas in a time-sharing manner, and the cycle is β msec. Here, β = 1 / α.

また、説明を更に簡単にするために、例えば、均一赤(R)画像のみ表示する場合を考えと、この場合には、赤色以外の色光は表示素子で遮光制御されるので、スクリーン照度と時間との関係は、図10(c)にグラフ1003で示すようになり、その赤(R)光の周期は、グラフ1002の場合と同様に、βmsecとなる。   In order to further simplify the description, for example, a case where only a uniform red (R) image is displayed is considered. In this case, since the color light other than red is controlled to be blocked by the display element, the screen illuminance and time Is as shown by a graph 1003 in FIG. 10C, and the period of the red (R) light is β msec as in the case of the graph 1002.

図11(a)および(b)は、図10(c)のグラフ1003の縦軸にCMOS撮像素子の各ライン位置を重ねて示したものである。図11(a)および(b)では、CMOS撮像素子の露出時間が異なっており、ひし形の領域1101、1102はそれぞれCMOS撮像素子が受光している時間を示している。なお、ひし形1101、1102の傾き量は、ローリングシャッタの仕様に依存して異なるものである。   FIGS. 11A and 11B show the line positions of the CMOS image sensor superimposed on the vertical axis of the graph 1003 in FIG. In FIGS. 11A and 11B, the exposure time of the CMOS image sensor is different, and the rhombus regions 1101 and 1102 indicate the time during which the CMOS image sensor is receiving light. Note that the inclination amounts of the diamonds 1101 and 1102 differ depending on the specifications of the rolling shutter.

図11(a)は、露出時間γmsecがβmsecの整数N倍でない場合である。この場合は、各ライン位置について、ひし形1101内を時間方向で積算すると、撮像画像1103のような垂直方向に濃淡差を持った横縞模様の画像となる。これは、各ライン位置で、スクリーンに表示している赤(R)光の受光量が異なるために発生する。   FIG. 11A shows a case where the exposure time γmsec is not an integer N times βmsec. In this case, when each line position is accumulated in the rhombus 1101 in the time direction, an image with a horizontal stripe pattern having a contrast in the vertical direction as in the captured image 1103 is obtained. This occurs because the amount of received red (R) light displayed on the screen is different at each line position.

図11(b)は、露出時間をβmsecあるいはβmsecの整数倍とした場合である。この場合は、各ライン位置について、ひし形1102内を時間方向で積算すると、全てのライン位置で赤(R)光の受光量が等しくなるので、均一な撮像画像1104が得られることになる。   FIG. 11B shows a case where the exposure time is β msec or an integer multiple of β msec. In this case, for each line position, if the inside of the diamond 1102 is integrated in the time direction, the received light amount of red (R) light becomes equal at all line positions, so that a uniform captured image 1104 is obtained.

以上、赤の均一表示画像を撮像する場合について説明したが、さらに、緑、青、白等の組み合わせがある場合も、横縞が発生しない条件は、各ライン位置での受光量を等しくすることなので、露出時間を上記のβ×Nmsec(=画像表示装置の表示周期の整数N倍)にすることに変わりはない。すなわち、CMOS撮像素子でローリングシャッタ方式を採用する安価なデジタルカメラによって、画像表示装置により周期的に表示される画像を撮像する場合には、表示周期に合った露出時間を選択する必要がある。   As described above, the case of capturing a red uniform display image has been described. Further, even when there are combinations of green, blue, white, etc., the condition that horizontal stripes do not occur is that the received light amount at each line position is equal. The exposure time remains the same as β × Nmsec (= integer N times the display period of the image display device). That is, when an image that is periodically displayed by an image display device is picked up by an inexpensive digital camera that employs a rolling shutter system with a CMOS image pickup device, it is necessary to select an exposure time that matches the display cycle.

一方、画像表示装置による表示画像の撮像方法として、例えば、画像表示装置の垂直同期信号に応じて生成したシャッタ制御信号により、画像表示装置の描画の開始および終了のタイミングと、撮像装置の撮像開始および終了のタイミングとを同期させることにより、横縞のようなノイズが混入しない画像データを得るようにしたものが知られている(例えば、特許文献3参照)。   On the other hand, as a method of capturing a display image by the image display device, for example, the start and end timing of drawing of the image display device and the start of imaging of the image display device by a shutter control signal generated according to the vertical synchronization signal of the image display device In addition, it is known that image data in which noise such as horizontal stripes is not mixed is obtained by synchronizing with the end timing (see, for example, Patent Document 3).

また、ラインセンサ駆動式の撮像装置による被写体の撮像方法として、例えば、被写体の照明光変化を検出し、その検出結果を周波数解析して、最も多い周波数成分の周期の整数倍をラインセンサの露出時間として設定することにより、被写体の照明光変化の影響を低減するようにしたものも知られている(例えば、特許文献4参照)。   In addition, as a method of imaging a subject by a line sensor-driven imaging device, for example, a change in illumination light of the subject is detected, a frequency analysis is performed on the detection result, and an integral multiple of the cycle of the most frequent frequency component is exposed to the line sensor. It is also known that the influence of the illumination light change of the subject is reduced by setting the time (see, for example, Patent Document 4).

さらに、ローリングシャッタ方式のCMOS撮像素子を備える撮像装置として、既知のフリッカ光源(例えば、50Hzあるいは60Hzの蛍光ランプ)のもとで被写体を撮像する際に、フリッカの発生しない最も短い露出時間とその半分の露出時間とのシャッタ時間の異なる2つの撮像画像から、被写体自体の空間周波数成分を除いたフリッカ光源に伴う横縞の空間周波数成分を抽出し、この空間周波数成分が所定量を超えた場合にフリッカが発生していると判定するようにしたものも知られている(例えば、特許文献5参照)。
特開2002−72359号公報 特開2002−116500号公報 特開平11−184445号公報 特開平7−336586号公報 特開2004−7402号公報
Further, as an image pickup apparatus including a rolling shutter type CMOS image pickup device, when an object is imaged under a known flicker light source (for example, a 50 Hz or 60 Hz fluorescent lamp), the shortest exposure time in which flicker does not occur and When the spatial frequency component of the horizontal stripes associated with the flicker light source excluding the spatial frequency component of the subject itself is extracted from two captured images with different shutter times and half exposure time, and this spatial frequency component exceeds a predetermined amount A device that determines that flicker has occurred is also known (see, for example, Patent Document 5).
JP 2002-72359 A JP 2002-116500 A Japanese Patent Laid-Open No. 11-184445 JP-A-7-336586 JP 2004-7402 A

上述したマルチプロジェクションシステムのような画像表示装置により周期的に更新される表示画像を、CMOS撮像素子等のローリングシャッタ方式を採用する安価なデジタルカメラで撮像する場合には、表示画像の切替周期(表示周期)に合った露出時間を精度良く決定する必要があるばかりか、巨大なスクリーン上に投影された画像全体を一度に撮像するため、スクリーンから十分離れた自由な位置にデジタルカメラを設置する必要がある。   When a display image periodically updated by an image display device such as the multi-projection system described above is captured by an inexpensive digital camera that employs a rolling shutter system such as a CMOS image sensor, the display image switching cycle ( In addition to the need to accurately determine the exposure time suitable for the display cycle), the digital camera is installed at a free position sufficiently away from the screen to capture the entire image projected on the huge screen at once. There is a need.

ところが、特許文献3に開示の撮像方法にあっては、露出時間を精度良く画像表示装置に適応させることは可能であるが、画像表示装置と撮像装置との間に、画像表示装置から撮像装置に同期信号を伝送するためのケーブルを接続する必要があるため、撮像装置をスクリーンから十分離した自由な位置に設置するのが難しくなることが懸念される。   However, in the imaging method disclosed in Patent Document 3, it is possible to adapt the exposure time to the image display device with high accuracy, but the image display device to the imaging device is between the image display device and the imaging device. Since there is a need to connect a cable for transmitting a synchronization signal, there is a concern that it is difficult to install the imaging device in a free position sufficiently separated from the screen.

また、特許文献4に開示の撮像方法にあっては、撮像された画像自体にシェーディング等の低周波数成分が混入していたり、周波数解析する領域のサイズが小さく十分な分解能が得られなかったりする場合には、最も多い周波数成分の周期が照明光の変化による露出時間とはならない場合がある。このため、マルチプロジェクションシステムで使用する撮像装置においては、画像表示装置に対して同期した露出時間を安定して算出することができなくなることが懸念される。   Further, in the imaging method disclosed in Patent Document 4, low-frequency components such as shading are mixed in the captured image itself, or the size of the frequency analysis region is small and sufficient resolution cannot be obtained. In some cases, the period of the most frequent frequency component may not be the exposure time due to a change in illumination light. For this reason, in an imaging device used in a multi-projection system, there is a concern that it is impossible to stably calculate the exposure time synchronized with the image display device.

さらに、特許文献5に開示の撮像装置にあっては、既知の照明光を前提として求めた露出時間での撮像によるフリッカの発生を検出するもので、任意の未知の照明光に対しては対応できない。   Furthermore, the imaging device disclosed in Patent Document 5 detects flicker caused by imaging at an exposure time obtained on the assumption of known illumination light, and can handle any unknown illumination light. Can not.

したがって、上記の点に鑑みてなされた本発明の目的は、画像表示装置に周期的に更新されて表示される表示画像を、ローリングシャッタ方式により、ハード的な同期信号を用いることなく、自由な位置から縞状ノイズの発生を効果的に抑えて撮像できる表示画像撮像方法および装置を提供することにある。   Accordingly, an object of the present invention made in view of the above points is to freely display a display image that is periodically updated and displayed on an image display device without using a hardware synchronization signal by a rolling shutter method. It is an object of the present invention to provide a display image capturing method and apparatus capable of capturing an image while effectively suppressing generation of stripe noise from a position.

上記目的を達成する請求項1に係る表示画像撮像方法の発明は、周期的に画像を連続表示する画像表示装置の表示画像をローリングシャッタ方式で撮像するにあたり、
予め上記画像表示装置に所定画像を表示させて撮像し、その所定画像の撮像画像に基づいて上記画像表示装置の表示周期に伴う縞状ノイズが発生しない同期露出時間を算出し、その後、上記算出した同期露出時間に基づいて露出時間を制御して上記画像表示装置の表示画像を撮像することを特徴とするものである。
The invention of the display image capturing method according to claim 1 that achieves the above object is to capture a display image of an image display device that continuously displays images periodically by a rolling shutter method.
A predetermined image is displayed and captured in advance on the image display device, and based on the captured image of the predetermined image, a synchronous exposure time is calculated that does not cause striped noise associated with the display cycle of the image display device, and then the calculation is performed. The display time of the image display device is picked up by controlling the exposure time based on the synchronized exposure time.

請求項2に係る発明は、請求項1に記載の表示画像撮像方法において、上記同期露出時間は、上記所定画像の撮像画像に発生する縞状ノイズを横切る方向の周波数成分の局所ピーク周波数とその大きさとに基づいて算出される評価値が極小となる露出時間とすることを特徴とするものである。   According to a second aspect of the present invention, in the display image capturing method according to the first aspect, the synchronous exposure time includes a local peak frequency of a frequency component in a direction crossing the striped noise generated in the captured image of the predetermined image and its The evaluation time calculated based on the size is an exposure time that minimizes the evaluation value.

請求項3に係る発明は、請求項1または2に記載の表示画像撮像方法において、上記所定画像は、均一階調単原色画像であることを特徴とするものである。   According to a third aspect of the present invention, in the display image capturing method according to the first or second aspect, the predetermined image is a uniform gradation single primary color image.

さらに、上記目的を達成する請求項4に係る発明は、周期的に画像を連続表示する画像表示装置の表示画像をローリングシャッタ方式で撮像する表示画像撮像装置であって、
上記画像表示装置に表示された所定画像の撮像画像に基づいて上記画像表示装置の表示周期に伴う縞状ノイズが発生しない露出時間を算出する同期露出時間算出手段と、
上記同期露出時間算出手段で算出された同期露出時間に基づいて上記画像表示装置の表示画像を撮像する際の露出時間を制御する露出時間制御手段と、
を有することを特徴とするものである。
Furthermore, the invention according to claim 4 that achieves the above object is a display image capturing device that captures a display image of an image display device that continuously displays images periodically by a rolling shutter method.
Synchronous exposure time calculation means for calculating an exposure time that does not cause striped noise accompanying the display cycle of the image display device based on a captured image of the predetermined image displayed on the image display device;
Exposure time control means for controlling the exposure time when the display image of the image display device is captured based on the synchronous exposure time calculated by the synchronous exposure time calculation means;
It is characterized by having.

請求項5に係る発明は、請求項4に記載の表示画像撮像装置において、上記同期露出時間算出手段は、上記所定画像の撮像画像に発生する縞状ノイズを横切る方向の周波数成分の局所ピーク周波数とその大きさとに基づいて算出される評価値が極小となる露出時間を、上記同期露出時間として算出することを特徴とするものである。   According to a fifth aspect of the present invention, in the display image capturing device according to the fourth aspect, the synchronous exposure time calculating means is a local peak frequency of a frequency component in a direction crossing the striped noise generated in the captured image of the predetermined image. And an exposure time at which an evaluation value calculated based on the size is minimized is calculated as the synchronous exposure time.

請求項6に係る発明は、請求項4または5に記載の表示画像撮像装置において、上記同期露出時間算出手段は、均一階調単原色画像からなる所定画像の撮像画像に基づいて上記同期露出時間を算出することを特徴とするものである。   According to a sixth aspect of the present invention, in the display image capturing device according to the fourth or fifth aspect, the synchronous exposure time calculating unit is configured to perform the synchronous exposure time based on a captured image of a predetermined image composed of a uniform primary gradation image. Is calculated.

請求項1に係る発明によると、ハード的な同期信号を用いることなく、画像表示装置の表示周期に高精度に同期した露出時間を決定することができるので、CMOS撮像素子等のローリングシャッタ方式を採用する安価な撮像装置を用いて、画像表示装置に対する撮像装置の設置位置に自由度を持たせつつ、表示画像の撮像画像に発生する縞状ノイズを効果的に抑えることができる。   According to the first aspect of the present invention, since the exposure time synchronized with the display cycle of the image display device can be determined with high accuracy without using a hardware synchronization signal, a rolling shutter system such as a CMOS image sensor can be used. By using a low-cost imaging device to be adopted, it is possible to effectively suppress the stripe noise generated in the captured image of the display image while giving a degree of freedom to the installation position of the imaging device with respect to the image display device.

請求項2に係る発明によると、さらに、所定画像の撮像画像に縞状ノイズ以外の均一でない表示パターンが混入していても、同期露出時間を十分精度良く算出することができる。   According to the second aspect of the present invention, even when a non-uniform display pattern other than the stripe noise is mixed in the captured image of the predetermined image, the synchronous exposure time can be calculated with sufficient accuracy.

請求項3に係る発明によると、さらに、所定画像の撮像画像への縞状ノイズ以外の高周波成分の混入を防ぐことができるので、同期露出時間をより精度良く算出することができる。   According to the third aspect of the present invention, since it is possible to prevent high-frequency components other than striped noise from being mixed in the captured image of the predetermined image, the synchronous exposure time can be calculated with higher accuracy.

請求項4に係る発明によると、ハード的な同期信号を用いることなく、画像表示装置の表示周期に高精度に同期した露出時間を決定することができるので、CMOS撮像素子等を用いて撮像装置を安価に構成できると共に、画像表示装置に対する撮像装置の設置位置に自由度を持たせつつ、表示画像の撮像画像に発生する縞状ノイズを効果的に抑えることができる。   According to the fourth aspect of the invention, the exposure time synchronized with the display cycle of the image display device can be determined with high accuracy without using a hardware synchronization signal. Can be configured at low cost, and stripe noise generated in the captured image of the display image can be effectively suppressed while providing a degree of freedom in the installation position of the imaging device with respect to the image display device.

請求項5に係る発明によると、さらに、所定画像の撮像画像に縞状ノイズ以外の均一でない表示パターンが混入していても、同期露出時間を十分精度良く算出することができる。   According to the fifth aspect of the present invention, the synchronized exposure time can be calculated with sufficient accuracy even if a non-uniform display pattern other than striped noise is mixed in the captured image of the predetermined image.

請求項6に係る発明によると、さらに、所定画像の撮像画像への縞状ノイズ以外の高周波成分の混入を防ぐことができるので、同期露出時間をより精度良く算出することができる。   According to the sixth aspect of the present invention, since it is possible to prevent high-frequency components other than striped noise from being mixed into the captured image of the predetermined image, the synchronous exposure time can be calculated with higher accuracy.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施の形態に係る撮像装置を用いる画像表示撮像システムの概略構成を示す模式図である。本実施の形態は、画像表示装置110による表示画像を撮像装置111で撮像するもので、画像表示装置110は、2台のプロジェクタ107および108を備えるリアプロジェクタ方式のマルチプロジェクションシステムを構成しており、1つの画像を2台のプロジェクタ107、108に分ける等の表示画像の制御を行う表示画像処理装置106、プロジェクタ107、108から射出される投影画像を表示するスクリーン109を有している。   FIG. 1 is a schematic diagram showing a schematic configuration of an image display imaging system using an imaging apparatus according to an embodiment of the present invention. In this embodiment, an image displayed by the image display device 110 is picked up by an image pickup device 111, and the image display device 110 constitutes a rear projector type multi-projection system including two projectors 107 and 108. A display image processing device 106 that controls a display image such as dividing one image into two projectors 107 and 108, and a screen 109 that displays a projection image emitted from the projectors 107 and 108 are provided.

また、撮像装置111は、スクリーン109上に表示された表示画像を撮像するカメラ101、その撮像画像をモニタリングするモニタ104、コンピュータ102を有しており、コンピュータ102は、カメラ101の露出時間等を制御するカメラ制御部103、撮像画像を用いて2台のプロジェクタ107、108間の色ズレおよび投影画像の幾何的ズレの補正情報を算出するキャリブレーションデータ算出部105を有している。   The imaging device 111 includes a camera 101 that captures a display image displayed on the screen 109, a monitor 104 that monitors the captured image, and a computer 102. The computer 102 determines the exposure time of the camera 101 and the like. It has a camera control unit 103 that controls, and a calibration data calculation unit 105 that calculates correction information of the color shift between the two projectors 107 and 108 and the geometric shift of the projected image using the captured image.

ここで、カメラ101は、例えば、図2に概略構成を示すように、CMOS撮像素子およびその駆動回路からなる撮像部201、撮像レンズ203、ターレット204、ターレット駆動モータ202を有している。ターレット204は、3刺激値のX、Y、Zカラーフィルタ205、206、207、濃度の異なるNDフィルタ208、209、スルーホール210、遮光板211を同心円状に保持しており、ターレット駆動モータ202により回転駆動されて、各フィルタを撮像レンズ203の位置に移動させるようになっている。   Here, for example, as shown in FIG. 2, the camera 101 includes an imaging unit 201, an imaging lens 203, a turret 204, and a turret driving motor 202 including a CMOS imaging device and its driving circuit. The turret 204 holds tristimulus X, Y, and Z color filters 205, 206, and 207, ND filters 208 and 209 having different densities, a through hole 210, and a light shielding plate 211 in a concentric manner. Is driven to rotate, and each filter is moved to the position of the imaging lens 203.

図3は、図1に示したカメラ制御部103の構成を示す機能ブロック図である。先ず、キャリブレーションデータ算出部105が、カメラ101にて所望する画像を撮像するために画像表示装置110の画像更新周波数に対応する露出時間のテーブルを最初に作成する。そのため、画像表示装置110に対する画像更新周波数として既知情報がある場合には、その情報が露出制御部303に入力される。   FIG. 3 is a functional block diagram showing the configuration of the camera control unit 103 shown in FIG. First, the calibration data calculation unit 105 first creates a table of exposure times corresponding to the image update frequency of the image display device 110 in order to capture a desired image with the camera 101. Therefore, when there is known information as an image update frequency for the image display device 110, the information is input to the exposure control unit 303.

露出制御部303は、画像表示装置110に対して単一原色(例えば赤)の均一輝度画像を表示するよう指示し表示させる。ここで、単原色の均一輝度画像を表示するのは、後述する同期露出時間算出方法での算出精度を向上させるためである。すなわち、単原色の均一輝度画像を表示することにより、横縞ノイズを明瞭に撮像でき、これにより横縞ノイズ以外に起因する算出精度に悪影響を及ぼす空間的な高周波成分を排除することができるからである。   The exposure control unit 303 instructs the image display device 110 to display a uniform luminance image of a single primary color (for example, red) and displays it. Here, the reason why the uniform luminance image of a single primary color is displayed is to improve the calculation accuracy in the synchronous exposure time calculation method described later. That is, by displaying a uniform luminance image of a single primary color, it is possible to clearly capture horizontal stripe noise, thereby eliminating spatial high-frequency components that adversely affect calculation accuracy caused by other than horizontal stripe noise. .

さらに、露出制御部303は、カメラ101に対して撮像する露出時間の探索範囲を設定する。ここで、露出時間の探索範囲[Tshort,Tlong]は、画像表示装置110に対する画像更新周波数αHzとして、Tshort=(N−3+0.5)/α、Tlong=(N+0.5)/α(ここで、Nは3以上の整数)である。なお、画像更新周波数αHzが未知である場合には、例えば画像更新周波数α=60Hzと仮決めして露出時間の範囲設定を算出する。また、同期露出時間探索範囲[Tshort,Tlong]内の探索露出時間は、カメラ101自体の露出制御可能な最小時間の整数M倍の間隔とし、Mの値は算出する同期露出時間の検出精度と算出処理時間との兼ね合いで予め決定される。 Further, the exposure control unit 303 sets a search range of exposure time for imaging with respect to the camera 101. Here, the search range [T short , T long ] of the exposure time is T short = (N−3 + 0.5) / α and T long = (N + 0.5) / as the image update frequency αHz for the image display device 110. α (where N is an integer of 3 or more). If the image update frequency αHz is unknown, for example, the image update frequency α = 60 Hz is provisionally determined to calculate the exposure time range setting. The search exposure time within the synchronous exposure time search range [T short , T long ] is set to an interval that is an integer M times the minimum time of exposure control of the camera 101 itself, and the value of M is the detection of the synchronous exposure time to be calculated. It is determined in advance in consideration of the accuracy and the calculation processing time.

次に、表示されている単一原色の均一輝度画像をカメラ101で撮像した撮像画像の表示エリアの最大値が、所定階調レベル範囲(例えば、8ビットの256階調で200±10)となる条件で、露出時間Tlong近傍となるように、カメラ101のターレット204を回転させてNDフィルタ208、209、あるいはスルーホール210のいずれかを選択して撮像し、ターレット位置を決定する。この際、撮像レンズ203の絞りを自動制御できる場合には、更に絞りを含めて調整しても良い。さらに、これらの切替で調整しきれない場合には、画像表示装置110に対して輝度レベルの変更を要求する。 Next, the maximum value of the display area of the captured image obtained by capturing the displayed uniform luminance image of the single primary color with the camera 101 is a predetermined gradation level range (for example, 200 ± 10 for 256 gradations of 8 bits). Under these conditions, the turret 204 of the camera 101 is rotated so as to be in the vicinity of the exposure time T long, and any one of the ND filters 208 and 209 or the through hole 210 is selected and imaged to determine the turret position. At this time, if the aperture of the imaging lens 203 can be automatically controlled, the aperture may be further adjusted. Further, when the adjustment cannot be made by these switching operations, the image display device 110 is requested to change the luminance level.

これらの具体的な処理としては、露出制御部303において、テーブル選択部313を介して、第1露出時間テーブル312に格納されて選択可能に設定されているカメラ101のデフォルト状態の露出時間を取得し、その取得露出時間をカメラ101にセットして撮像を行わせ、その撮像画像に対して撮像画像内の表示エリアの最大値が所定階調レベル範囲内にあるかどうかを判断し、範囲外の場合にはカメラ101のNDフィルタ208、209等のフィルタを切替制御し、さらには画像表示装置110の輝度レベル変更制御を行う。これにより、同期露出時間を測定するための初期状態、すなわち同期露出時間探索範囲[Tshort,Tlong]を決定する。 Specifically, the exposure control unit 303 obtains the exposure time in the default state of the camera 101 stored in the first exposure time table 312 and set to be selectable in the exposure control unit 303 via the table selection unit 313. Then, the acquired exposure time is set in the camera 101 to perform imaging, and it is determined whether or not the maximum value of the display area in the captured image is within a predetermined gradation level range with respect to the captured image. In this case, the filters such as the ND filters 208 and 209 of the camera 101 are switched and further the brightness level change control of the image display device 110 is performed. Thus, an initial state for measuring the synchronized exposure time, that is, a synchronized exposure time search range [T short , T long ] is determined.

続いて、露出制御部303は、決定した同期露出時間探索範囲[Tshort,Tlong]を、TlongからTshortに向かって所定間隔D(D=M×露出制御可能な最小時間;Mは定数)でサンプルされた露出時間T(j=1〜L;Lはサンプル数でT=Tlong,T=Tshort)をカメラ101にセットして、各露出時間で順次撮像を行わせて、その順次の撮像画像を同期露出時間検出部304に入力する。 Subsequently, the exposure controller 303 sets the determined synchronized exposure time search range [T short , T long ] to a predetermined interval D (D = M × minimum time during which exposure control is possible) from T long to T short ; The exposure time T j (j = 1 to L; L is the number of samples, and T 1 = T long , T L = T short ) is set in the camera 101 and images are taken sequentially at each exposure time. Accordingly, the sequential captured images are input to the synchronous exposure time detection unit 304.

同期露出時間検出部304は、入力撮像画像に基づいて同期露出時間探索範囲内から3つの同期露出時間候補Tsync1,Tsync2,Tsync3を決定して同期露出時間決定部310に出力する。 The synchronized exposure time detection unit 304 determines three synchronized exposure time candidates T sync1 , T sync2 , and T sync3 from the synchronized exposure time search range based on the input captured image, and outputs them to the synchronized exposure time determination unit 310.

同期露出時間決定部310は、3つの同期露出時間候補Tsync1,Tsync2,Tsync3と、原点を通るという条件(Tsync=0で横縞は発生しない)から、最小自乗法により回帰直線を求めて、実測値としての最小時間間隔βmsecと相関係数を算出し、線形性が十分成り立つ場合にのみ、同期露出時間が決定できたと判定して、露出制御部303に判定結果を出力すると共に、第2露出時間テーブル311にβ×N(ここで、Nは1以上で、β×Nがカメラ101のハード仕様としての最長露出時間を超えない整数)の露出時間を設定する。 The synchronous exposure time determination unit 310 obtains a regression line by the method of least squares from the three synchronous exposure time candidates T sync1 , T sync2 , T sync3, and a condition of passing through the origin (T sync = 0 and no horizontal stripes are generated). Thus, the minimum time interval β m msec as the actual measurement value and the correlation coefficient are calculated, and it is determined that the synchronous exposure time has been determined only when the linearity is sufficiently satisfied, and the determination result is output to the exposure control unit 303. At the same time, an exposure time of β m × N (where N is 1 or more and β m × N is an integer not exceeding the longest exposure time as the hardware specification of the camera 101) is set in the second exposure time table 311.

これに対し、同期露出時間を決定できないと判定された場合には、その判定結果を同様に露出制御部303に出力するが、第2露出時間テーブル311に対しては露出時間の設定は行わない。この同期露出時間を決定できないとする判定結果は、特に、画像表示装置110における表示画像の切り替えが明確にON/OFFする構造とはなっておらず、横縞のコントラストが判別できない程度に小さい場合に生じる。   On the other hand, when it is determined that the synchronous exposure time cannot be determined, the determination result is similarly output to the exposure control unit 303, but the exposure time is not set for the second exposure time table 311. . The determination result that the synchronous exposure time cannot be determined is particularly when the display image switching in the image display device 110 is not clearly turned ON / OFF and the contrast of the horizontal stripe cannot be determined. Arise.

以上により、画像表示装置110の表示画像を撮像装置111にて撮像するための同期露出時間の設定が完了したことになる。これ以降は、露出制御部303によりテーブル選択部313を制御して、同期露出時間を決定できた場合には第1の露出制御モードとして第2露出時間テーブル311に格納されている選択可能露出時間を用いて最適露出時間を決定し、同期露出時間を決定できなかった場合には第2の露出制御モードとして第1露出時間テーブル312に格納されている選択可能露出時間を用いて最適露出時間を決定し、その決定された最適露出時間でカメラ101により表示画像を撮像して、その撮像画像をキャリブレーションデータ算出部105に送出する。   Thus, the setting of the synchronized exposure time for capturing the display image of the image display device 110 by the image capturing device 111 is completed. Thereafter, when the exposure control unit 303 controls the table selection unit 313 to determine the synchronized exposure time, the selectable exposure time stored in the second exposure time table 311 as the first exposure control mode. Is used to determine the optimum exposure time. If the synchronized exposure time cannot be determined, the optimum exposure time is determined using the selectable exposure time stored in the first exposure time table 312 as the second exposure control mode. The display image is captured by the camera 101 with the determined optimum exposure time, and the captured image is sent to the calibration data calculation unit 105.

キャリブレーションデータ算出部105では、カメラ制御部103からの撮像画像に基づいて、画像表示装置110が最適な画像を表示できるようなキャリブレーションデータを算出し、その算出したキャリブレーションデータを画像表示装置110の表示画像処理装置106に送出する。これにより、表示画像処理装置106では、キャリブレーションデータに基づいて外部映像信号を画像処理して、プロジェクタ107、108に出力する。   The calibration data calculation unit 105 calculates calibration data based on the captured image from the camera control unit 103 so that the image display device 110 can display an optimal image, and uses the calculated calibration data as the image display device. 110 to the display image processing apparatus 106. As a result, the display image processing apparatus 106 performs image processing on the external video signal based on the calibration data, and outputs it to the projectors 107 and 108.

ここで、同期露出時間検出部304は、検出エリア抽出部305、離散フーリエ変換(DFT)算出部306、局所ピーク抽出部307、同期評価値算出部308、最小値検出部309を有している。以下、その詳細を説明する。   Here, the synchronous exposure time detection unit 304 includes a detection area extraction unit 305, a discrete Fourier transform (DFT) calculation unit 306, a local peak extraction unit 307, a synchronous evaluation value calculation unit 308, and a minimum value detection unit 309. . Details will be described below.

同期露出時間検出部304に入力される露出時間Tの撮像画像は、検出エリア抽出部305に入力される。検出エリア抽出部305では、撮像画像をモニタ104に表示させ、操作者に手動で所定サイズの検出エリアを選定させるモードと、入力された撮像画像から表示画像の表示エリアを周辺との階調差から抽出して、その表示エリア内で階調レベルが急激に変化しない所定サイズ(例えば、128画素×128画素)の検出エリアを自動的に抽出するモードとのどちらかのモードにより検出エリアを抽出して、その検出エリアをDFT算出部306に出力する。ここで、2つのモードの切り替えは、手動にて行えるようになっている。 The captured image of the exposure time T j input to the synchronized exposure time detection unit 304 is input to the detection area extraction unit 305. The detection area extraction unit 305 displays a captured image on the monitor 104 and allows the operator to manually select a detection area of a predetermined size, and the display area of the display image from the input captured image has a gradation difference from the surroundings. The detection area is extracted by one of the modes for automatically extracting a detection area of a predetermined size (for example, 128 pixels × 128 pixels) in which the gradation level does not change suddenly in the display area. Then, the detection area is output to the DFT calculation unit 306. Here, switching between the two modes can be performed manually.

DFT算出部306では、所定検出エリアの垂直方向の複数n列をそれぞれ抽出し、その抽出列にハニング窓等の窓関数を乗算することで境界部分の不連続性を排除した後、1次元DFT処理して(処理データ数が2のべき乗の場合には、高速フーリエ変換(FFT)でも可)、その処理結果である空間周波数成分を局所ピーク抽出部307に出力する。   The DFT calculation unit 306 extracts a plurality of n columns in the vertical direction of a predetermined detection area, and eliminates the discontinuity of the boundary portion by multiplying the extracted sequences by a window function such as a Hanning window. Processing is performed (in the case where the number of processing data is a power of two, fast Fourier transform (FFT) is also possible), and the spatial frequency component that is the processing result is output to the local peak extraction unit 307.

局所ピーク抽出部307では、入力されたn列分の空間周波数成分を各周波数位置でn列分積算し、その積算した空間周波数成分に対して所定局所周波数範囲内での最小値を算出するオープニング処理を施して局所ピークなしの空間周波数成分を生成し、その生成した局所ピークなしの空間周波数成分を、積算した空間周波数成分から減算することで局所ピーク波形のみを抽出し、その抽出した局所ピーク波形から複数のピーク周波数fとそれに対応するピーク値pを抽出して同期評価値算出部308に出力する。 In the local peak extraction unit 307, the input n-sequence spatial frequency components for n columns are integrated at each frequency position, and an opening for calculating a minimum value within a predetermined local frequency range for the integrated spatial frequency components is performed. Apply processing to generate spatial frequency components without local peaks, and subtract the generated spatial frequency components without local peaks from the accumulated spatial frequency components to extract only the local peak waveform, and then extract the extracted local peaks A plurality of peak frequencies f i and corresponding peak values p i are extracted from the waveform and output to the synchronous evaluation value calculation unit 308.

同期評価値算出部308では、露出時間Tで撮像された撮像画像に対する同期評価値E=Σw(f)fを算出して、内部のメモリに格納する。ここで、w(f)は重み係数で、例えば高周波側の重みを大きく、低周波例の重みを小さくするような予め決められた周波数をパラメータとした関数である。 The synchronization evaluation value calculation unit 308 calculates a synchronization evaluation value E j = Σw (f i ) f i p i for the captured image captured at the exposure time T j and stores it in the internal memory. Here, w (f i ) is a weighting coefficient, for example, a function having a predetermined frequency as a parameter to increase the weight on the high frequency side and decrease the weight in the low frequency example.

最小値検出部309は、露出制御部303から同期露出時間探索範囲の最後のサンプル位置である露出時間Tの撮像が終了した旨の撮像終了情報を受け取った時点で、同期評価値算出部308のメモリに格納されているL個の同期評価値E〜Eから、少なくとも3つの局所的な最小値(極小値)の位置をサンプル時間間隔よりも高精度に決定する。この局所的な最小値は、複数サンプル位置の同期評価値を用いて、サンプル間隔より細かいサブサンプル位置の同期評価値を補間することにより、高精度に決定することができる。これら決定した少なくとも3つの最小値の位置は、露出制御部303から入力される同期露出時間探索範囲[Tshort,Tlong]とサンプル間隔とにより、少なくとも3つの同期露出時間候補Tsync1,Tsync2,Tsync3に変換して、同期露出時間決定部310に出力する。 When the minimum value detection unit 309 receives from the exposure control unit 303 imaging end information indicating that imaging of the exposure time TL , which is the last sample position in the synchronous exposure time search range, has been completed, the synchronization evaluation value calculation unit 308. The positions of at least three local minimum values (minimum values) are determined with higher accuracy than the sample time interval from the L synchronization evaluation values E 1 to E L stored in the memory. This local minimum value can be determined with high accuracy by interpolating the synchronization evaluation values at sub-sample positions finer than the sample interval using the synchronization evaluation values at a plurality of sample positions. The determined positions of the at least three minimum values are at least three synchronous exposure time candidates T sync1 and T sync2 according to the synchronous exposure time search range [T short , T long ] input from the exposure control unit 303 and the sample interval. , T sync3 and output to the synchronous exposure time determination unit 310.

図4は、露出制御部303による同期露出時間探索範囲[Tshort,Tlong]の一部と、その範囲内をサンプリングした露出時間Tに対する撮像画像内の検出エリア画像とを模式的に示した図である。同期露出時間探索範囲[Tshort,Tlong]の一部のサンプリングした露出時間Tおよび検出エリア画像が符号401〜410に対応する。また、露出時間を横軸にし、横縞の強度を縦軸にしたグラフ411は、同期露出時間404、410で横縞が発生せず、その時間から離れるに従って横縞の暗部が太くなっていることを示している。 FIG. 4 schematically shows a part of the synchronous exposure time search range [T short , T long ] by the exposure control unit 303 and a detection area image in the captured image with respect to the exposure time T j sampled within the range. It is a figure. A part of the sampled exposure time T j and detection area image in the synchronous exposure time search range [T short , T long ] correspond to reference numerals 401 to 410. Further, a graph 411 with the exposure time on the horizontal axis and the horizontal stripe intensity on the vertical axis shows that no horizontal stripes are generated at the synchronized exposure times 404 and 410, and the dark portion of the horizontal stripes becomes thicker as the distance from the time increases. ing.

図5は、検出エリア抽出部305およびDFT算出部306での処理内容を説明するための図である。モニタ104には、画像表示装置110のスクリーン109に表示されている表示画像をカメラ101で撮像した撮像画像504が表示されている。この撮像画像504のうち、符号501はプロジェクタ107の投影エリアを示しており、符号502はプロジェクタ108の投影エリアを示している。   FIG. 5 is a diagram for explaining the processing contents in the detection area extraction unit 305 and the DFT calculation unit 306. On the monitor 104, a captured image 504 obtained by capturing the display image displayed on the screen 109 of the image display device 110 with the camera 101 is displayed. In this captured image 504, reference numeral 501 indicates the projection area of the projector 107, and reference numeral 502 indicates the projection area of the projector 108.

検出エリア抽出部305は、例えば、プロジェクタ108の投影エリア502の3辺の境界部分をエッジ抽出して、投影エリア502の中央部分の検出エリア503を自動抽出するか、あるいは操作者の手動操作により所望の検出エリア503を抽出する。   The detection area extraction unit 305 extracts, for example, the boundary portions of the three sides of the projection area 502 of the projector 108 and automatically extracts the detection area 503 at the center of the projection area 502 or by manual operation by the operator. A desired detection area 503 is extracted.

DFT算出部306は、先ず、検出エリア抽出部305で抽出された検出エリア503の垂直方向のn列をサンプリングする。その内の1列のデータを符号505で示してあり、撮像素子のライン位置と階調レベルとの関係を符号506で示してある。次に、1列のデータ506にハニング窓等の窓関数507を乗算し、さらにDFT(データサイズが2のべき乗の場合はFFTも利用可)を行って、空間周波数成分508を得る。   The DFT calculation unit 306 first samples n columns in the vertical direction of the detection area 503 extracted by the detection area extraction unit 305. One column of the data is indicated by reference numeral 505, and the relationship between the line position of the image sensor and the gradation level is indicated by reference numeral 506. Next, a single row of data 506 is multiplied by a window function 507 such as a Hanning window, and DFT (FFT can also be used when the data size is a power of 2) to obtain a spatial frequency component 508.

図6は局所ピーク抽出部307および同期評価値算出部308での処理内容を説明するための図である。   FIG. 6 is a diagram for explaining the processing contents in the local peak extraction unit 307 and the synchronization evaluation value calculation unit 308.

検出エリア503内からサンプリングされたn列の空間周波数成分508−1〜508−nは、同一周波数毎に積算されて1つの空間周波数成分601を得る。この空間周波数成分601に、例えば半径Rの円602をグラフの下側から接するようになぞって、円602の軌跡を算出するオープニング処理(Op)を施すことで、局所的なピークを潰した空間周波数成分603を得る。そして、空間周波数成分601から空間周波数成分603を引くことで、局所的なピーク成分のみを抽出した空間周波数成分604を得、この空間周波数成分604から局所ピーク周波数f,・・・,fに対応するピークパワー値p,・・・,pを抽出する。 The n rows of spatial frequency components 508-1 to 508-n sampled from the detection area 503 are integrated for each same frequency to obtain one spatial frequency component 601. The spatial frequency component 601 is subjected to an opening process (Op) for calculating the trajectory of the circle 602 by tracing the circle 602 having a radius R from the lower side of the graph, for example. A frequency component 603 is obtained. Then, by subtracting the spatial frequency component 603 from the spatial frequency component 601, a spatial frequency component 604 obtained by extracting only the local peak component is obtained, and the local peak frequencies f 1 ,..., F N are obtained from the spatial frequency component 604. peak power value p 1 corresponding to, extracts ..., and p N.

同期評価値算出部308には、入力された局所ピーク周波数f,・・・,fに対応するピークパワーp,・・・,pと重みw(f)とを用いて、露出時間T時に同期露出評価値Eを以下の式から求める。ここで、重みw(f)は、周波数の関数で予め決められている。 The synchronization evaluation value calculation unit 308, the local peak frequency f 1 is input, ..., peak power p 1 corresponding to f N, ..., using the p N and the weight w (f 1), The synchronous exposure evaluation value E j is obtained from the following equation at the exposure time T j . Here, the weight w (f i ) is predetermined by a function of frequency.

Figure 2006311029
Figure 2006311029

図7は、同期評価値算出部308が保持するメモリ内に格納されている同期評価値をグラフ化した図であり、横軸が露出時間、縦軸が同期評価値を示している。   FIG. 7 is a graph of the synchronization evaluation values stored in the memory held by the synchronization evaluation value calculation unit 308. The horizontal axis indicates the exposure time, and the vertical axis indicates the synchronization evaluation value.

図7において、探索範囲702が、露出制御部303で決定された同期露出時間探索範囲[Tshort,Tlong]に対応しており、この範囲で同期評価値は、少なくとも3つの局所的な最小値をとる波形701となり、最小値検出部309で検出される局所的な最小値(極小値)となる露出時間は、同期露出時間候補Tsync1,Tsync2,Tsync3となる。ただし、画像更新周波数αHzが未知の場合は、デフォルト値(例えば60Hz)を使用することになるが、通常の画像表示装置の画像更新周波数は、デフォルト値より大きいので、波形701の局所的な最小値(極小値)は3箇所以上となる。この場合は、露出時間の長い方から3つの同期露出時間候補を選択する。 In FIG. 7, the search range 702 corresponds to the synchronous exposure time search range [T short , T long ] determined by the exposure control unit 303, and in this range, the synchronous evaluation value is at least three local minimums. The exposure time that becomes a waveform 701 that takes a value and becomes the local minimum value (minimum value) detected by the minimum value detection unit 309 is the synchronous exposure time candidates T sync1 , T sync2 , and T sync3 . However, when the image update frequency αHz is unknown, a default value (for example, 60 Hz) is used. However, since the image update frequency of a normal image display device is larger than the default value, a local minimum of the waveform 701 is used. The value (minimum value) is 3 or more. In this case, three synchronized exposure time candidates are selected from the longer exposure time.

図8は、図1のマルチプロジェクションシステムにおける同期露出時間を決定するまでの処理手順を示したフローチャートである。   FIG. 8 is a flowchart showing a processing procedure until the synchronous exposure time is determined in the multi-projection system of FIG.

同期露出時間算出処理を開始すると、先ず、画像表示装置110に所定均一輝度の単原色を表示する(ステップS801)。   When the synchronized exposure time calculation process is started, first, a single primary color having a predetermined uniform luminance is displayed on the image display device 110 (step S801).

続いて、撮像装置111にて、ターゲット階調レベルとなる非同期状態での露出時間を求める(ステップS802)。   Subsequently, the imaging device 111 obtains an exposure time in an asynchronous state that is a target gradation level (step S802).

その後、求めた露出時間が、所定露出時間以上か否かを判定し(ステップS803)、所定露出時間未満の場合には、撮像装置111が備えるNDフィルタが切替可能か否かを判定し(ステップS804)、切替可能である場合には、NDフィルタを切替て(ステップS806)、ステップS802に戻る。   Thereafter, it is determined whether or not the obtained exposure time is equal to or longer than the predetermined exposure time (step S803). If it is less than the predetermined exposure time, it is determined whether or not the ND filter included in the imaging device 111 can be switched (step). (S804) If the switch is possible, the ND filter is switched (step S806), and the process returns to step S802.

一方、ステップS804でNDフィルタの切替が不可の場合には、画像表示装置110の輝度レベルを下げる変更処理を行って(ステップS805)、ステップS802に戻る。   On the other hand, if the ND filter cannot be switched in step S804, a change process for lowering the luminance level of the image display apparatus 110 is performed (step S805), and the process returns to step S802.

また、ステップS803で所定露出時間以上の場合には、同期露出時間探索範囲と探索露出時間(サンプル数)とを決定し(ステップS807)、複数ある探索露出時間の1つをカメラ101にセットして撮像し、撮像画像内の検出エリアを抽出する(ステップS808)。   If the exposure time is equal to or longer than the predetermined exposure time in step S803, the synchronous exposure time search range and the search exposure time (number of samples) are determined (step S807), and one of the plurality of search exposure times is set in the camera 101. Then, the detection area in the captured image is extracted (step S808).

その後、抽出された検出エリア内から垂直方向の所定列データ抽出数が所定値未満か否かを判定し(ステップS809)、抽出列数が所定値未満の場合には、検出画像エリアの所定列に対してDFT処理を行って、既にDFT処理を行った列の同一周波数成分に積算し(ステップS810)、ステップS809に戻る。   Thereafter, it is determined whether or not the number of extracted predetermined column data in the vertical direction from the extracted detection area is less than a predetermined value (step S809). If the number of extracted columns is less than the predetermined value, the predetermined column of the detected image area is determined. Is subjected to DFT processing, integrated to the same frequency component of the column already subjected to DFT processing (step S810), and the process returns to step S809.

一方、ステップS809で抽出列数が所定値となった場合には、積算した周波数成分に対してオープニング処理を実施して、局所ピークを抽出する(ステップS811)。   On the other hand, if the number of extracted columns reaches a predetermined value in step S809, an opening process is performed on the integrated frequency component to extract a local peak (step S811).

その後、抽出した局所ピーク情報(ピーク周波数とピークパワー値)をもとに同期露出評価値Eを算出して、メモリに格納する(ステップS812)。   Thereafter, a synchronous exposure evaluation value E is calculated based on the extracted local peak information (peak frequency and peak power value) and stored in the memory (step S812).

次に、探索露出サンプル数がステップS807での決定サンプル数未満か否かを判定し(ステップS813)、決定サンプル数未満の場合には、探索露出時間を変更して(ステップS814)、ステップS808に戻る。   Next, it is determined whether or not the number of searched exposure samples is less than the number of samples determined in step S807 (step S813). If the number of samples is less than the determined number of samples, the search exposure time is changed (step S814), and step S808 is performed. Return to.

一方、ステップS813で探索露出サンプル数が決定サンプル数となった場合は、メモリに格納されている同期露出評価値が局所的な最小値となる同期露出時間候補を算出する(ステップS815)。   On the other hand, if the number of searched exposure samples becomes the determined number of samples in step S813, a synchronized exposure time candidate is calculated for which the synchronized exposure evaluation value stored in the memory is a local minimum value (step S815).

その後、算出した同期露出時間候補が所定数(例えば3つ)未満か否かを判定し(ステップS816)、所定数未満の場合はステップS815に戻る。   Thereafter, it is determined whether or not the calculated synchronized exposure time candidates are less than a predetermined number (for example, three) (step S816), and if it is less than the predetermined number, the process returns to step S815.

これに対し、算出した同期露出時間候補が所定数になった場合には、算出した所定数の同期露出時間候補が所定条件を満たしているか否かを判定し(ステップS817)、所定条件を満たしている場合には、同期露出時間の最小間隔×整数倍(1〜N)をN個の同期露出時間として決定して露出時間テーブルに格納して(ステップS818)、同期露出時間算出処理を終了する。   On the other hand, when the calculated number of synchronized exposure time candidates reaches a predetermined number, it is determined whether or not the calculated number of synchronized exposure time candidates satisfies the predetermined condition (step S817), and the predetermined condition is satisfied. If it is, the minimum interval of the synchronized exposure times × integer multiple (1 to N) is determined as N synchronized exposure times and stored in the exposure time table (step S818), and the synchronized exposure time calculation process is terminated. To do.

一方、ステップS817で所定条件を満たしていない場合には、同期露出時間を決定せずに露出時間テーブルを更新しないまま、同期露出時間算出処理を終了する。   On the other hand, if the predetermined condition is not satisfied in step S817, the synchronous exposure time calculation process is terminated without updating the exposure time table without determining the synchronous exposure time.

図9は、図1のマルチプロジェクションシステムにおけるキャリブレーションデータ作成までの処理手順を示したフローチャートである。   FIG. 9 is a flowchart showing a processing procedure until calibration data creation in the multi-projection system of FIG.

先ず、テストパターン撮像を行う前に、画像表示装置110に対する撮像装置111の使用可能な同期露出時間を算出する(ステップS901)。   First, before performing test pattern imaging, a usable synchronous exposure time of the imaging apparatus 111 with respect to the image display apparatus 110 is calculated (step S901).

次に、同期露出時間の算出状態を判定し(ステップS902)、算出できたと判定された場合は、使用可能な同期露出時間を第2露出時間テーブル311に格納して(ステップS903)、同期露出時間の使用フラグをONにセットする(ステップS904)。   Next, the calculation state of the synchronized exposure time is determined (step S902). If it is determined that the calculation is possible, the usable synchronized exposure time is stored in the second exposure time table 311 (step S903), and the synchronized exposure is performed. The time use flag is set to ON (step S904).

これに対し、ステップS902で同期露出時間が算出できないと判定された場合には、同期露出時間の使用フラグをOFFにセットする(ステップS905)。以上により、キャリブレーションデータ算出用テストパターン画像の撮像準備が完了する。   On the other hand, if it is determined in step S902 that the synchronous exposure time cannot be calculated, the use flag of the synchronous exposure time is set to OFF (step S905). Thus, the preparation for capturing the test pattern image for calibration data calculation is completed.

続いて、テストパターン画像の撮像処理として、先ず、テストパターン画像を表示する(ステップS906)。その後、同期露出時間の使用フラグを判定して(ステップS907)、使用フラグがONの場合には、算出された同期露出時間が格納されている第2露出時間テーブル311を用いて、表示されているテストパターン画像の最適露出時間を決定し(ステップS908)、使用フラグがOFFの場合には、カメラ101が使用できる全ての露出時間が予め登録されている第1露出時間テーブル312を用いて、表示されているテストパターン画像の最適露出時間を決定して(ステップS909)、その最適露出時間でテストパターン画像を撮像する(ステップS910)。   Subsequently, as a test pattern image imaging process, first, a test pattern image is displayed (step S906). Thereafter, the use flag of the synchronous exposure time is determined (step S907), and when the use flag is ON, the second exposure time table 311 storing the calculated synchronous exposure time is displayed. When the use flag is OFF, the first exposure time table 312 in which all exposure times that can be used by the camera 101 are registered in advance is determined. The optimum exposure time of the displayed test pattern image is determined (step S909), and the test pattern image is captured with the optimum exposure time (step S910).

その後、キャリブレーションデータを算出するためのテストパターン画像を全て撮像したか否かを判定し(ステップS911)、撮像するテストパターン画像が残っている場合には、ステップS906に戻って撮像されていない別のテストパターン画像を表示して撮像を繰り返し、全てのテストパターン画像の撮像を終了したら、その時点で撮像画像をもとにキヤリブレーションデータを算出して、その算出したキャリブレーションデータを画像表示装置110の表示画像処理装置106に送信し(ステップS912)、キャリブレーション処理を終了する。   Thereafter, it is determined whether or not all the test pattern images for calculating the calibration data have been captured (step S911). If there are any test pattern images to be captured, the process returns to step S906 and is not captured. When another test pattern image is displayed and imaging is repeated and imaging of all the test pattern images is completed, calibration data is calculated based on the captured image at that time, and the calculated calibration data is displayed as an image. It transmits to the display image processing apparatus 106 of the display apparatus 110 (step S912), and a calibration process is complete | finished.

以上のように、画像表示装置110の表示画像を、CMOS撮像素子のようなローリングシャッタ方式を用いた安価な撮像装置111で撮像する場合に、横縞が発生しない同期露出時間を、画像表示装置110から同期信号を入力することなく精度良く算出することができる。したがって、マルチプロジェクションシステムのような大掛かりな画像表示装置110に使用するキャリブレーションデータ算出用テストパターンを撮像する撮像装置111を、物理的なケーブル長さによって制限を受けることなく、自由な位置に設置することができる。   As described above, when the display image of the image display device 110 is imaged by the inexpensive image pickup device 111 using a rolling shutter method such as a CMOS image sensor, the synchronous exposure time in which no horizontal stripes are generated is expressed as the image display device 110. Thus, it is possible to calculate with high accuracy without inputting a synchronization signal. Therefore, the imaging device 111 that captures a test pattern for calculating calibration data used for a large-scale image display device 110 such as a multi-projection system is installed at a free position without being limited by the physical cable length. can do.

なお、本発明は、上記実施の形態に限定されるものではなく、幾多の変形または変更が可能である。例えば、上記実施の形態では、同期露出時間の算出処理で一度に3つの同期露出時間候補を算出して同期露出時間の最小間隔を求め、この最小間隔の整数倍を同期露出時間として決定したが、同期露出時間をテストパターンの撮像時に逐次算出するようにしても良い。この場合には、先ず、非同期の露出時間テーブル(第1の露出時間テーブル)を用いて撮像画像の所定輝度レベルとなる露出時間を決定し、その後、該露出時間より短い所定間隔の露出時間で撮像して、上記実施の形態と同様に同期露出評価値を算出し、そ評価値が所定時間内で最小値を取るまで処理を繰り返して、最小値が得られた露出時間を最適同期露出時間とすればよい。このようにすれば、最適同期露出時間を決定する迄に時間がかかるが、逐一同期露出時間を求めるので、より確実に縞状ノイズの発生を抑えることができる。   In addition, this invention is not limited to the said embodiment, Many deformation | transformation or a change is possible. For example, in the above embodiment, the synchronous exposure time calculation process calculates three synchronous exposure time candidates at a time to determine the minimum interval of the synchronous exposure time, and an integral multiple of this minimum interval is determined as the synchronous exposure time. The synchronous exposure time may be calculated sequentially when the test pattern is captured. In this case, first, an exposure time at which a captured image has a predetermined luminance level is determined using an asynchronous exposure time table (first exposure time table), and thereafter, exposure time at a predetermined interval shorter than the exposure time. The image is captured and the synchronous exposure evaluation value is calculated in the same manner as in the above embodiment, and the process is repeated until the evaluation value takes the minimum value within a predetermined time. And it is sufficient. In this way, it takes time to determine the optimum synchronized exposure time, but since the synchronized exposure time is obtained one by one, the occurrence of striped noise can be suppressed more reliably.

また、上記実施の形態では、マルチプロジェクションシステムの表示画像を撮像するようにしたが、本発明はパソコンの液晶モニタ等による表示画像を撮像する場合にも、同様にして縞状ノイズの発生をなくすことができる。さらに、縞状ノイズの検出領域は、撮像画像の一部に限らず、表示画像に対応する撮像画像の全体とすることもできる。   In the above embodiment, the display image of the multi-projection system is picked up. However, the present invention similarly eliminates the occurrence of striped noise when picking up the display image using a liquid crystal monitor of a personal computer or the like. be able to. Furthermore, the detection area of the striped noise is not limited to a part of the captured image, but may be the entire captured image corresponding to the display image.

本発明の一実施の形態に係るマルチプロジェクションシステムの構成を模式的に示した図である。It is the figure which showed typically the structure of the multi-projection system which concerns on one embodiment of this invention. 図1に示すカメラの概略構成を示す図である。It is a figure which shows schematic structure of the camera shown in FIG. 図1に示すカメラ制御部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the camera control part shown in FIG. 図3に示す露出制御部による同期露出時間探索範囲の一部とその範囲内をサンプリングした露出時間に対する撮像画像内の検出エリア画像とを模式的に示した図である。It is the figure which showed typically a part of synchronous exposure time search range by the exposure control part shown in FIG. 3, and the detection area image in the picked-up image with respect to the exposure time sampled within the range. 図3に示す検出エリア抽出部およびDFT算出部での処理内容を説明するための図である。It is a figure for demonstrating the processing content in the detection area extraction part and DFT calculation part which are shown in FIG. 図3に示す局所ピーク抽出部および同期評価値算出部での処理内容を説明するための図である。It is a figure for demonstrating the processing content in the local peak extraction part and synchronous evaluation value calculation part which are shown in FIG. 図3に示す同期評価値算出部が保持するメモリ内に格納されている同期評価値をグラフ化して示す図である。FIG. 4 is a graph showing the synchronization evaluation values stored in the memory held by the synchronization evaluation value calculation unit shown in FIG. 3. 図1のマルチプロジェクションシステムにおける同期露出時間を決定するまでの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence until it determines the synchronous exposure time in the multi-projection system of FIG. 図1のマルチプロジェクションシステムにおけるキャリブレーションデータ作成までの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence until calibration data creation in the multi-projection system of FIG. 単板式プロジェクタの面順次表示を模式的に示した図である。It is the figure which showed typically the surface sequential display of the single plate type projector. 単板式プロジェクタの面順次表示とローリングシャッタ方式の撮像時間との関係および撮像画像に発生するノイズを模式的に示した図である。It is the figure which showed typically the noise which generate | occur | produces in the relationship between the surface sequential display of a single-panel projector, and the imaging time of a rolling shutter system, and a captured image.

符号の説明Explanation of symbols

101 カメラ
102 コンピュータ
103 カメラ制御部
104 モニタ
105 キャリブレーションデータ算出部
106 表示画像処理装置
107,108 プロジェクタ
109 スクリーン
110 画像表示装置
111 撮像装置
303 露出制御部
304 同期露出時間検出部
305 検出エリア抽出部
306 DFT算出部
307 局所ピーク抽出部
308 同期評価値算出部
309 最小値検出部
310 同期露出時間決定部
311 第2露出時間テーブル
312 第1露出時間テーブル
313 テーブル選択部
DESCRIPTION OF SYMBOLS 101 Camera 102 Computer 103 Camera control part 104 Monitor 105 Calibration data calculation part 106 Display image processing apparatus 107,108 Projector 109 Screen 110 Image display apparatus 111 Imaging apparatus 303 Exposure control part 304 Synchronous exposure time detection part 305 Detection area extraction part 306 DFT calculation unit 307 Local peak extraction unit 308 Synchronization evaluation value calculation unit 309 Minimum value detection unit 310 Synchronization exposure time determination unit 311 Second exposure time table 312 First exposure time table 313 Table selection unit

Claims (6)

周期的に画像を連続表示する画像表示装置の表示画像をローリングシャッタ方式で撮像するにあたり、
予め上記画像表示装置に所定画像を表示させて撮像し、その所定画像の撮像画像に基づいて上記画像表示装置の表示周期に伴う縞状ノイズが発生しない同期露出時間を算出し、その後、上記算出した同期露出時間に基づいて露出時間を制御して上記画像表示装置の表示画像を撮像することを特徴とする表示画像撮像方法。
In capturing a display image of an image display device that continuously displays images periodically using a rolling shutter method,
A predetermined image is displayed and captured in advance on the image display device, and based on the captured image of the predetermined image, a synchronous exposure time is calculated that does not cause striped noise associated with the display cycle of the image display device, and then the calculation is performed. A display image capturing method for capturing a display image of the image display device by controlling the exposure time based on the synchronized exposure time.
上記同期露出時間は、上記所定画像の撮像画像に発生する縞状ノイズを横切る方向の周波数成分の局所ピーク周波数とその大きさとに基づいて算出される評価値が極小となる露出時間とすることを特徴とする請求項1に記載の表示画像撮像方法。   The synchronous exposure time is an exposure time at which the evaluation value calculated based on the local peak frequency of the frequency component in the direction crossing the striped noise generated in the captured image of the predetermined image and its magnitude is minimized. The display image capturing method according to claim 1, wherein: 上記所定画像は、均一階調単原色画像であることを特徴とする請求項1または2に記載の表示画像撮像方法。   The display image capturing method according to claim 1, wherein the predetermined image is a uniform gradation single primary color image. 周期的に画像を連続表示する画像表示装置の表示画像をローリングシャッタ方式で撮像する表示画像撮像装置であって、
上記画像表示装置に表示された所定画像の撮像画像に基づいて上記画像表示装置の表示周期に伴う縞状ノイズが発生しない露出時間を算出する同期露出時間算出手段と、
上記同期露出時間算出手段で算出された同期露出時間に基づいて上記画像表示装置の表示画像を撮像する際の露出時間を制御する露出時間制御手段と、
を有することを特徴とする表示画像撮像装置。
A display image capturing device that captures a display image of an image display device that continuously displays images periodically by a rolling shutter method,
Synchronous exposure time calculation means for calculating an exposure time that does not cause striped noise accompanying the display cycle of the image display device based on a captured image of the predetermined image displayed on the image display device;
Exposure time control means for controlling the exposure time when the display image of the image display device is captured based on the synchronous exposure time calculated by the synchronous exposure time calculation means;
A display image imaging device comprising:
上記同期露出時間算出手段は、上記所定画像の撮像画像に発生する縞状ノイズを横切る方向の周波数成分の局所ピーク周波数とその大きさとに基づいて算出される評価値が極小となる露出時間を、上記同期露出時間として算出することを特徴とする請求項4に記載の表示画像撮像装置。   The synchronous exposure time calculation means, the exposure time when the evaluation value calculated based on the local peak frequency and the magnitude of the frequency component in the direction across the striped noise generated in the captured image of the predetermined image is minimized, The display image capturing apparatus according to claim 4, wherein the display image capturing apparatus calculates the synchronous exposure time. 上記同期露出時間算出手段は、均一階調単原色画像からなる所定画像の撮像画像に基づいて上記同期露出時間を算出することを特徴とする請求項4または5に記載の表示画像撮像装置。   6. The display image capturing apparatus according to claim 4, wherein the synchronous exposure time calculating unit calculates the synchronous exposure time based on a captured image of a predetermined image made up of a uniform gradation single primary color image.
JP2005129196A 2005-04-27 2005-04-27 Display image imaging method and apparatus Withdrawn JP2006311029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005129196A JP2006311029A (en) 2005-04-27 2005-04-27 Display image imaging method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005129196A JP2006311029A (en) 2005-04-27 2005-04-27 Display image imaging method and apparatus

Publications (1)

Publication Number Publication Date
JP2006311029A true JP2006311029A (en) 2006-11-09

Family

ID=37477424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005129196A Withdrawn JP2006311029A (en) 2005-04-27 2005-04-27 Display image imaging method and apparatus

Country Status (1)

Country Link
JP (1) JP2006311029A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011061773A (en) * 2009-09-10 2011-03-24 Seiko Epson Corp Exposure attribute setting method, computer-readable storage medium, and image projection setting method
JP2017083788A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Display device and method for controlling display device
WO2018037948A1 (en) * 2016-08-24 2018-03-01 ソニー株式会社 Image processing apparatus and method
WO2019142434A1 (en) * 2018-01-22 2019-07-25 株式会社Jvcケンウッド Image display device and camera evaluation system
CN113890960A (en) * 2021-08-30 2022-01-04 中汽创智科技有限公司 Rolling shutter type exposure camera delay measuring device, method, controller and storage medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011061773A (en) * 2009-09-10 2011-03-24 Seiko Epson Corp Exposure attribute setting method, computer-readable storage medium, and image projection setting method
JP2017083788A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Display device and method for controlling display device
WO2018037948A1 (en) * 2016-08-24 2018-03-01 ソニー株式会社 Image processing apparatus and method
JPWO2018037948A1 (en) * 2016-08-24 2019-06-20 ソニー株式会社 Image processing apparatus and method
JP7070417B2 (en) 2016-08-24 2022-05-18 ソニーグループ株式会社 Image processing equipment and methods
US10991340B2 (en) 2016-08-24 2021-04-27 Sony Corporation Image processing apparatus and image processing method
CN111567040A (en) * 2018-01-22 2020-08-21 Jvc建伍株式会社 Image display device and camera evaluation system
JP2019129332A (en) * 2018-01-22 2019-08-01 株式会社Jvcケンウッド Image display device and camera evaluation system
CN111567040B (en) * 2018-01-22 2022-01-07 Jvc建伍株式会社 Image display device and camera evaluation system
WO2019142434A1 (en) * 2018-01-22 2019-07-25 株式会社Jvcケンウッド Image display device and camera evaluation system
JP7087404B2 (en) 2018-01-22 2022-06-21 株式会社Jvcケンウッド Image display device and camera evaluation system
US11490073B2 (en) 2018-01-22 2022-11-01 Jvckenwood Corporation Image display device and camera evaluation system
CN113890960A (en) * 2021-08-30 2022-01-04 中汽创智科技有限公司 Rolling shutter type exposure camera delay measuring device, method, controller and storage medium
CN113890960B (en) * 2021-08-30 2023-12-29 中汽创智科技有限公司 Rolling shutter type exposure camera delay measuring device, method, controller and storage medium

Similar Documents

Publication Publication Date Title
JP4354449B2 (en) Display image imaging method and apparatus
CN107430324B (en) Digital light projector with invisible light channel
EP3136377B1 (en) Information processing device, information processing method, program
JP2017083672A (en) Image projection system, projector, and control method of image projection system
EP1566973A2 (en) Apparatus and method for driving image display device using DMD
US9470966B2 (en) Image projection apparatus and presentation system
JP4535714B2 (en) projector
JP2017147634A (en) Projection device, projection method, and projection system
JP2006311029A (en) Display image imaging method and apparatus
KR101225063B1 (en) Unobtrusive calibration method for projected image compensation and apparatus for the same
KR20070092107A (en) Method and apparatus for measuring moving picture response curve
JP2007264123A (en) Moving picture quality improving method and program for color display
US11146766B2 (en) Projection-type video display device
US10757381B2 (en) Image projection apparatus and its control method
JP5110911B2 (en) Image projection system and image projection method
JP2009212757A (en) Image display system
JP5082137B2 (en) Projection-type image display device, image display system, and color unevenness correction method
JP2005249946A (en) Defect inspecting apparatus for display device
JP2010130481A (en) Image projection apparatus
JP2019186761A (en) Projector system, projection image unevenness correction method, and program
JP4176058B2 (en) Projector focus adjustment method and projector
JP2019109273A (en) projector
JP7412940B2 (en) Imaging device, computer program and storage medium
JP2016142782A (en) Image projecting device
JP2020034935A (en) Image projection system and control method of image projection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080219

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090918