JP2018072418A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2018072418A
JP2018072418A JP2016208498A JP2016208498A JP2018072418A JP 2018072418 A JP2018072418 A JP 2018072418A JP 2016208498 A JP2016208498 A JP 2016208498A JP 2016208498 A JP2016208498 A JP 2016208498A JP 2018072418 A JP2018072418 A JP 2018072418A
Authority
JP
Japan
Prior art keywords
image data
projection
frame
data
gradation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016208498A
Other languages
Japanese (ja)
Inventor
太介 西尾
Tasuke Nishio
太介 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016208498A priority Critical patent/JP2018072418A/en
Publication of JP2018072418A publication Critical patent/JP2018072418A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of improving the image quality of an image displayed by stack projection.SOLUTION: An image processing device of this invention is an image processing device for generating image data for a projection system having a plurality of projection devices including a first projection device for displaying a first image based on first image data in a projection area, and a second projection device for displaying a second image based on second image data in the projection area. The first image data is image data obtained by performing prescribed image processing of original image data, the prescribed image processing includes restriction processing for restricting an outer gradation value of the prescribed range of a gradation value to an inner gradation value of the prescribed range, and the image processing device includes: acquisition means for acquiring restriction information about the performed restriction processing; and generation means for generating image data corresponding to a change in the gradation value by the restriction processing as second image data on the basis of the restriction information acquired by the acquisition means.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

投影面の1つの投影領域に対して複数のプロジェクタが投影を行う投影方法が知られている。このような投影方法は「スタック投影」などと呼ばれる。スタック投影では、複数のプロジェクタによって表示された複数の画像(投影画像;表示画像)が重なり合う。それにより、投影画像(複数の投影画像が重なり合うことで得られた合成画像)の高輝度化、投影画像の高階調化、等を実現することができる。スタック投影に関する技術は、例えば、特許文献1に記載されている。   A projection method in which a plurality of projectors project to one projection area of a projection surface is known. Such a projection method is called “stack projection” or the like. In stack projection, a plurality of images (projected images; display images) displayed by a plurality of projectors overlap. As a result, it is possible to increase the brightness of the projection image (a composite image obtained by overlapping a plurality of projection images), increase the gradation of the projection image, and the like. A technique related to stack projection is described in Patent Document 1, for example.

1フレーム期間にわたって同一のフレーム画像を表示し続けるホールド駆動型の表示装置では、動画に存在する動オブジェクト(動きのあるオブジェクト)がぼやけ、動画視認性が低下することが知られている。このような現象は「ホールドぼやけ」などと呼ばれる。ヒトが動オブジェクトを観察する場合において、ヒトは、動オブジェクトに視線が追従するように、視線を滑らかに移動させる。しかしながら、ホールド駆動型の表示装置において、表示された動オブジェクトの動きは滑らかでなく、動オブジェクトは、1フレーム期間の静止を繰り返しながら動く。そして、視線の動きと、表示された動オブジェクトの動きとの差、等により、ホールドぼやけが生じる。具体的には、1フレーム期間において、静止している動オブジェクトに対して視線が動く(ぶれる)ことにより、ホールドぼやけが生じる。ホールドぼやけの上記発生原理により、ホールドぼやけの大きさは、同一フレーム画像を表示し続ける期間(ホールド期間)の長さに比例する。   In a hold drive type display device that continues to display the same frame image over one frame period, it is known that a moving object (moving object) existing in a moving image is blurred and moving image visibility is lowered. Such a phenomenon is called “hold blur”. When a human observes a moving object, the human moves the line of sight smoothly so that the line of sight follows the moving object. However, in the hold drive type display device, the movement of the displayed moving object is not smooth, and the moving object moves while repeating the stillness of one frame period. Then, hold blur occurs due to the difference between the movement of the line of sight and the movement of the displayed moving object. Specifically, hold blur occurs when the line of sight moves (shakes) with respect to a stationary moving object in one frame period. Due to the generation principle of hold blur, the magnitude of hold blur is proportional to the length of the period during which the same frame image is continuously displayed (hold period).

フレーム画像を一瞬だけ表示するインパルス駆動型の表示装置では、画像の表示と画像の非表示とが繰り返されるため、ちらつき(フリッカ)が視認されることが知られている。フリッカは、ユーザに視覚的負荷を与える。そのため、フリッカは、眼の疲労、不快感、等の原因となる。   In an impulse drive type display device that displays a frame image for a moment, it is known that flickering is visually recognized because image display and image non-display are repeated. Flicker places a visual burden on the user. Therefore, flicker causes eye fatigue, discomfort, and the like.

そこで、入力画像データの各フレームから高域強調フレームと高域抑圧フレームとを生成し、高域強調フレームと高域抑圧フレームとを入力画像データのフレームレートの2倍のフレームレートで交互に出力する技術が提案されている。高域強調フレームは、空間的な高周波成分が強調されたフレームであり、高域抑圧フレームは、空間的な高周波成分が抑圧されたフレームである。この技術によれば、フリッカを抑制しつつ動画視認性を向上することができる。   Therefore, a high frequency emphasis frame and a high frequency suppression frame are generated from each frame of the input image data, and the high frequency emphasis frame and the high frequency suppression frame are alternately output at a frame rate twice the frame rate of the input image data. Techniques to do this have been proposed. The high frequency enhancement frame is a frame in which a spatial high frequency component is emphasized, and the high frequency suppression frame is a frame in which a spatial high frequency component is suppressed. According to this technique, it is possible to improve moving image visibility while suppressing flicker.

ホールドぼやけは、高周波成分(動オブジェクトのエッジなど)を含む画像で視認されやすい。上記技術によれば、入力画像データの1フレームから高域強調フレームと高域抑圧フレームとが生成され、高域強調フレームと高域抑圧フレームとが入力画像データのフレームレートの2倍のフレームレートで順に表示される。それにより、入力画像データの高周波成分が高域強調フレームで集中的に表示される。つまり、高周波成分のホールド期間が半分に短縮される。その結果、ホールドぼやけを抑制することができ、動画視認性を向上することができる。また、入力画像データの低周波成分は、入力画像データの1フレーム期間(高域強調フレームと高域抑圧フレームとの両方のフレームの期間)において表示される。それにより、フリッカを抑制することもできる。   The hold blur is likely to be visually recognized in an image including a high-frequency component (such as an edge of a moving object). According to the above technique, a high-frequency emphasis frame and a high-frequency suppression frame are generated from one frame of input image data, and the high-frequency emphasis frame and the high-frequency suppression frame have a frame rate that is twice the frame rate of the input image data. Are displayed in order. Thereby, the high frequency component of the input image data is intensively displayed in the high frequency emphasis frame. That is, the high-frequency component hold period is reduced to half. As a result, hold blur can be suppressed and moving image visibility can be improved. The low frequency component of the input image data is displayed in one frame period of the input image data (the period of both the high frequency emphasis frame and the high frequency suppression frame). Thereby, flicker can be suppressed.

しかしながら、上記技術では、高周波成分が強調された後の階調値が規定範囲の外側の値となった場合に、階調値が規定範囲の内側の値に制限される(階調値の飽和)。そして
、階調値の飽和により、画像の再現性が低下したり、動画視認性の向上効果が低下したりする。具体的には、階調値の飽和により、入力画像データの輝度を復元できずに入力画像データの輝度よりも高いまたは低い輝度での表示が行われたり、入力画像データの階調性よりも低い階調性での表示が行われたりする。規定範囲の内側の値に階調値を制限する制限処理による階調値の変化量を、高域抑圧フレームで補う方法が考えられる。しかしながら、この方法では、入力画像データの各フレームを2回ずつ2倍のフレームレートで表示する状態が実現され、ホールドぼやけの低減効果が無くなったり、2重像が視認されたりする。
However, in the above technique, when the gradation value after enhancement of the high frequency component becomes a value outside the specified range, the gradation value is limited to a value inside the specified range (saturation of the gradation value). ). Then, saturation of the gradation value reduces the reproducibility of the image and reduces the effect of improving the moving image visibility. Specifically, due to the saturation of the gradation value, the brightness of the input image data cannot be restored, and the display is performed at a brightness higher or lower than the brightness of the input image data, or more than the gradation of the input image data. Display with low gradation is performed. A method is conceivable in which the amount of change in the gradation value due to the restriction processing that restricts the gradation value to a value inside the specified range is supplemented with a high frequency suppression frame. However, with this method, a state in which each frame of the input image data is displayed twice at a frame rate twice is realized, and the effect of reducing hold blur is lost or a double image is visually recognized.

特許文献2には、前後フレームの平均を計算し、時間方向に平滑化された高域抑圧フレームを生成する技術が記載されている。特許文献2に記載の技術によれば、制限処理による階調値の変化が平滑化され、動画視認性の向上効果が得やすくなる。しかしながら、特許文献2に記載の技術では、動画視認性の低下をまねくホールドぼやけや重像が目立ちにくくなるが、ホールドぼやけや重像が生じる画像領域のサイズが増す。その結果、動オブジェクトの動きの大きさ、動オブジェクトの形状、動オブジェクトの輝度(入力画像データの輝度)、等によっては、動画視認性の向上効果が十分に得られない虞がある。   Patent Document 2 describes a technique for calculating an average of previous and subsequent frames and generating a high-frequency suppression frame smoothed in the time direction. According to the technique described in Patent Document 2, the change in the gradation value due to the restriction process is smoothed, and the effect of improving the moving image visibility is easily obtained. However, with the technique described in Patent Document 2, hold blur and overlapping images that cause a reduction in moving image visibility are less noticeable, but the size of an image area in which hold blur and overlapping images are generated increases. As a result, depending on the magnitude of the motion of the moving object, the shape of the moving object, the luminance of the moving object (the luminance of the input image data), etc., there is a possibility that the effect of improving the moving image visibility cannot be sufficiently obtained.

特開2011−002666号公報JP 2011-002666 A 特開2013−141198号公報JP 2013-141198 A

本発明は、スタック投影により表示された画像の画質を向上することができる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of improving the image quality of an image displayed by stack projection.

本発明の第1の態様は、
投影面の投影領域に対する投影を行うことにより、第1画像データに基づく第1画像を前記投影領域に表示する第1投影装置と、
前記投影領域に対する投影を行うことにより、第2画像データに基づく第2画像を前記投影領域に表示する第2投影装置と、
を含む複数の投影装置を有する投影システムのための画像データを生成する画像処理装置であって、
前記第1画像データは、元画像データに所定の画像処理を施すことによって得られる画像データであり、
前記所定の画像処理は、階調値の所定範囲の外側の階調値を前記所定範囲の内側の階調値に制限する制限処理を含み、
前記画像処理装置は、
行われた制限処理に関する制限情報を取得する取得手段と、
前記取得手段によって取得された前記制限情報に基づいて、前記制限処理による階調値の変化に応じた画像データを、前記第2画像データとして生成する生成手段と、
を有する
ことを特徴とする画像処理装置である。
The first aspect of the present invention is:
A first projection device that displays a first image based on the first image data in the projection area by performing projection on the projection area of the projection surface;
A second projection device that displays a second image based on second image data in the projection area by performing projection on the projection area;
An image processing device for generating image data for a projection system having a plurality of projection devices including:
The first image data is image data obtained by performing predetermined image processing on the original image data,
The predetermined image processing includes a limiting process of limiting a gradation value outside a predetermined range of gradation values to a gradation value inside the predetermined range;
The image processing apparatus includes:
Obtaining means for obtaining restriction information on the restriction processing performed;
Generation means for generating, as the second image data, image data corresponding to a change in gradation value by the restriction process based on the restriction information obtained by the obtaining means;
An image processing apparatus comprising:

本発明の第2の態様は、
投影面の投影領域に対する投影を行うことにより、第1画像データに基づく第1画像を前記投影領域に表示する第1投影装置と、
前記投影領域に対する投影を行うことにより、第2画像データに基づく第2画像を前記
投影領域に表示する第2投影装置と、
を含む複数の投影装置を有する投影システムのための画像データを生成する画像処理方法であって、
前記第1画像データは、元画像データに所定の画像処理を施すことによって得られる画像データであり、
前記所定の画像処理は、階調値の所定範囲の外側の階調値を前記所定範囲の内側の階調値に制限する制限処理を含み、
前記画像処理方法は、
行われた制限処理に関する制限情報を取得するステップと、
取得された前記制限情報に基づいて、前記制限処理による階調値の変化に応じた画像データを、前記第2画像データとして生成するステップと、
を有する
ことを特徴とする画像処理方法である。
The second aspect of the present invention is:
A first projection device that displays a first image based on the first image data in the projection area by performing projection on the projection area of the projection surface;
A second projection device that displays a second image based on second image data in the projection area by performing projection on the projection area;
An image processing method for generating image data for a projection system having a plurality of projection devices including:
The first image data is image data obtained by performing predetermined image processing on the original image data,
The predetermined image processing includes a limiting process of limiting a gradation value outside a predetermined range of gradation values to a gradation value inside the predetermined range;
The image processing method includes:
Obtaining restriction information regarding the restriction processing that has been performed;
Generating, as the second image data, image data corresponding to a change in gradation value by the restriction process based on the obtained restriction information;
An image processing method characterized by comprising:

本発明の第3の態様は、本発明の第2の形態である画像処理方法の各ステップをコンピュータに実行させるためのプログラムである。   A third aspect of the present invention is a program for causing a computer to execute each step of the image processing method according to the second aspect of the present invention.

本発明によれば、スタック投影により表示された画像の画質を向上することができる。   According to the present invention, the image quality of an image displayed by stack projection can be improved.

実施例1に係る投影システムの構成例を示すブロック図FIG. 1 is a block diagram illustrating a configuration example of a projection system according to a first embodiment. 実施例1に係る高域強調・高域抑圧部の構成例を示すブロック図FIG. 3 is a block diagram illustrating a configuration example of a high frequency emphasis / high frequency suppression unit according to the first embodiment. 実施例1に係る投影システムの処理例を示す図FIG. 10 is a diagram illustrating a processing example of the projection system according to the first embodiment. 実施例2に係る投影システムの構成例を示すブロック図FIG. 6 is a block diagram illustrating a configuration example of a projection system according to the second embodiment. 実施例2に係る投影システムの構成例を示すブロック図FIG. 6 is a block diagram illustrating a configuration example of a projection system according to the second embodiment. 実施例3に係る投影システムの構成例を示すブロック図FIG. 6 is a block diagram illustrating a configuration example of a projection system according to a third embodiment. 実施例3に係る投影システムの処理例を示す図FIG. 10 is a diagram illustrating a processing example of the projection system according to the third embodiment. 実施例4に係る投影システムの構成例を示すブロック図FIG. 9 is a block diagram showing an example of the configuration of a projection system according to Embodiment 4. 実施例4に係る投影システムの処理例を示す図FIG. 10 is a diagram illustrating a processing example of the projection system according to the fourth embodiment. 実施例5に係る投影システムの構成例を示すブロック図FIG. 9 is a block diagram showing an example of the configuration of a projection system according to a fifth embodiment. 実施例5に係る投影システムの処理例を示す図FIG. 10 is a diagram illustrating a processing example of the projection system according to the fifth embodiment. 従来例を示す図Figure showing a conventional example

<実施例1>
以下、本発明の実施例1について説明する。本実施例に係る投影システムは、複数の投影装置(プロジェクタ)を有する。各投影装置は、投影面の投影領域に対する投影を行うことにより、投影領域に画像を表示する。投影面は、スクリーンボードの表面、スクリーンシートの表面、壁面、等である。複数の投影装置の間で投影領域は等しい。また、複数の投影装置の間で、各投影装置の投影(表示)は同期する。即ち、本実施例に係る投影システムでは、スタック投影が行われる。
<Example 1>
Embodiment 1 of the present invention will be described below. The projection system according to the present embodiment includes a plurality of projection apparatuses (projectors). Each projection device displays an image in the projection area by performing projection on the projection area of the projection plane. The projection surface is the surface of the screen board, the surface of the screen sheet, the wall surface, or the like. The projection area is the same among the plurality of projection apparatuses. Further, the projection (display) of each projection apparatus is synchronized among the plurality of projection apparatuses. That is, stack projection is performed in the projection system according to the present embodiment.

投影装置の数は特に限定されないが、説明の簡単化のために、本実施例では、2台の投影装置(第1投影装置と第2投影装置)を用いるものとする。第1投影装置は、投影領域に対する投影を行うことにより、第1画像データに基づく第1画像を投影領域に表示する。第2投影装置は、投影領域に対する投影を行うことにより、第2画像データに基づく第2画像を投影領域に表示する。また、本実施例では、発光部(光源)と液晶パネルとを有する液晶プロジェクタを投影装置として用いる例を説明する。なお、投影装置は液晶プロジェクタに限られない。例えば、液晶パネルの液晶素子の代わりにMEMS(Micro
Electro Mechanical System)シャッターを用いたMEMSシャッター方式プロジェクタを投影装置として用いることもできる。
Although the number of projection apparatuses is not particularly limited, in the present embodiment, two projection apparatuses (a first projection apparatus and a second projection apparatus) are used in order to simplify the description. The first projection device displays a first image based on the first image data in the projection area by performing projection on the projection area. The second projection device displays a second image based on the second image data in the projection area by performing projection on the projection area. In this embodiment, an example in which a liquid crystal projector having a light emitting unit (light source) and a liquid crystal panel is used as a projection device will be described. The projection device is not limited to a liquid crystal projector. For example, instead of the liquid crystal element of the liquid crystal panel, MEMS (Micro
A MEMS shutter projector using an Electro Mechanical System (shutter) can also be used as a projection device.

また、投影画像(投影装置によって表示された画像;表示画像)の輝度特性は特に限定されないが、説明の簡単化のために、本実施例では、第1画像の輝度特性が、第2画像の輝度特性と等しいものとする。投影画像の輝度特性は、画像データの階調値と投影画像の輝度との対応関係の特性である。そのため、「投影画像の輝度特性が投影装置の間で等しい」は、「画像データの階調値と投影画像の輝度との対応関係が投影装置の間で等しい」とも言える。具体的には、第1画像のピーク輝度(第1画像の輝度の上限)が、第2画像のピーク輝度と等しく、第1画像の階調特性(ガンマ)が、第2画像の階調特性と等しいものとする。さらに、第1画像のフレームレートが、第2画像のフレームレートと等しいものとする。   In addition, the luminance characteristics of the projection image (the image displayed by the projection apparatus; the display image) are not particularly limited. However, in order to simplify the description, in this embodiment, the luminance characteristics of the first image are the same as those of the second image. It shall be equal to the luminance characteristic. The luminance characteristic of the projected image is a characteristic of the correspondence relationship between the gradation value of the image data and the luminance of the projected image. Therefore, it can be said that “the luminance characteristics of the projected image are equal between the projection devices” is “the correspondence between the gradation value of the image data and the luminance of the projection image is equal between the projection devices”. Specifically, the peak luminance of the first image (the upper limit of the luminance of the first image) is equal to the peak luminance of the second image, and the gradation characteristic (gamma) of the first image is the gradation characteristic of the second image. Is equal to Further, it is assumed that the frame rate of the first image is equal to the frame rate of the second image.

また、本実施例では、第1投影装置が、入力画像データに基づいて第1画像データと第2画像データとを生成し、第2画像データを第2投影装置へ出力する例を説明する。なお、投影システムのための画像データの生成は、第1投影装置とは異なる装置で行われてもよい。例えば、第1投影装置が、第1投影装置に入力された画像データに基づいて第1画像データを生成し、第2投影装置が、第2投影装置に入力された画像データに基づいて第2画像データを生成してもよい。第2投影装置が、入力画像データに基づいて第1画像データと第2画像データとを生成してもよい。第1画像データと第2画像データとの少なくとも一方を生成する画像処理装置は、投影装置とは別体の装置であってもよい。   In the present embodiment, an example in which the first projection device generates first image data and second image data based on input image data and outputs the second image data to the second projection device will be described. Note that generation of image data for the projection system may be performed by an apparatus different from the first projection apparatus. For example, the first projection device generates first image data based on the image data input to the first projection device, and the second projection device performs the second based on the image data input to the second projection device. Image data may be generated. The second projection device may generate the first image data and the second image data based on the input image data. The image processing device that generates at least one of the first image data and the second image data may be a separate device from the projection device.

図1は、本実施例に係る投影システムの構成例を示すブロック図である。図1に示すように、本実施例に係る投影システムは、第1投影装置と第2投影装置を有する。上述した第1画像データは、動画データである第1元画像データに所定の画像処理を施すことによって得られた動画データである。所定の画像処理は特に限定されないが、本実施例では、フレームレート変換部101、高域強調・高域抑圧部102、飽和判断部103、及び、装置間分配部105により、所定の画像処理が行われる。   FIG. 1 is a block diagram illustrating a configuration example of a projection system according to the present embodiment. As shown in FIG. 1, the projection system according to the present embodiment includes a first projection device and a second projection device. The first image data described above is moving image data obtained by performing predetermined image processing on the first original image data that is moving image data. Although the predetermined image processing is not particularly limited, in the present embodiment, predetermined image processing is performed by the frame rate conversion unit 101, the high frequency enhancement / high frequency suppression unit 102, the saturation determination unit 103, and the inter-device distribution unit 105. Done.

フレームレート変換部101は、入力画像データ(第1元画像データ)に対するフレームレート変換処理を行う。フレームレート変換処理により、入力画像データの各フレームからN枚(Nは2以上の整数)のフレームが生成される。そして、フレームレート変換処理により、生成された複数のフレームからなり、且つ、入力画像データのフレームレートのN倍のフレームレートを有する動画データである変換動画データが生成される。   The frame rate conversion unit 101 performs frame rate conversion processing on input image data (first original image data). By frame rate conversion processing, N frames (N is an integer of 2 or more) are generated from each frame of the input image data. Then, the converted moving image data, which is moving image data including a plurality of generated frames and having a frame rate N times the frame rate of the input image data, is generated by the frame rate conversion process.

フレームレート変換処理の方法は特に限定されないが、本実施例では、入力画像データのフレームレートの2倍のフレームレートで入力画像データの各フレームを2回ずつ繰り返す動画データが、変換動画データとして生成される。具体的には、フレームレート変換部101は、入力画像データの1フレーム期間に、入力画像データのフレームデータ(1フレームの画像データ)を、変換動画データのフレームデータとして、高域強調・高域抑圧部102へ2回出力する。フレームレート変換部101は、この処理を入力画像データの各フレームについて行う。   The method of frame rate conversion processing is not particularly limited, but in this embodiment, moving image data in which each frame of the input image data is repeated twice at a frame rate twice the frame rate of the input image data is generated as converted moving image data. Is done. Specifically, the frame rate conversion unit 101 uses the frame data of the input image data (one frame of image data) as the frame data of the converted moving image data during one frame period of the input image data. Output twice to the suppression unit 102. The frame rate conversion unit 101 performs this process for each frame of the input image data.

高域強調・高域抑圧部102は、入力されたフレームデータ(変換動画データの1フレームに対応する画像データ)に対して、空間的な高周波成分を強調する強調処理を施す。それにより、高域強調フレームデータが生成される。また、高域強調・高域抑圧部102は、入力されたフレームデータに対して、空間的な高周波成分を抑圧する抑圧処理を施す。それにより、高域抑圧フレームデータが生成される。そして、高域強調・高域抑圧部102は、高域強調フレームデータを飽和判断部103と非対称化処理部104に出力し、高域抑圧フレームデータを切り替えスイッチ108に出力する。   The high-frequency emphasis / high-frequency suppression unit 102 performs an emphasis process for emphasizing a spatial high-frequency component on the input frame data (image data corresponding to one frame of the converted moving image data). Thereby, high frequency emphasis frame data is generated. Further, the high frequency emphasis / high frequency suppression unit 102 performs a suppression process for suppressing the spatial high frequency component on the input frame data. Thereby, high frequency suppression frame data is generated. Then, the high frequency emphasis / high frequency suppression unit 102 outputs the high frequency emphasis frame data to the saturation determination unit 103 and the asymmetry processing unit 104, and outputs the high frequency suppression frame data to the changeover switch 108.

図2は、高域強調・高域抑圧部102の構成の具体例を示すブロック図である。LPF部113は、2次元の空間ローパスフィルタである。LPF部113は、高域強調・高域抑圧部102に入力されたフレームデータから空間的な低周波成分を抽出し、抽出した低周波成分のデータを、高域抑圧フレームデータとして出力する。ローパスフィルタの方式は特に限定されない。例えば、LPF部113として、一般的な2次元FIRフィルタなどを用いることができる。減算器114は、高域強調・高域抑圧部102に入力されたフレームデータから、高域抑圧フレームデータを減算する。それにより、高域強調・高域抑圧部102に入力されたフレームデータの空間的な高周波成分を表すデータ(高周波成分データ)が得られる。加算器115は、高域強調・高域抑圧部102に入力されたフレームデータに、高周波成分データを加算する。そして、加算器115は、加算結果を、高域強調フレームデータとして出力する。   FIG. 2 is a block diagram showing a specific example of the configuration of the high frequency emphasis / high frequency suppression unit 102. The LPF unit 113 is a two-dimensional spatial low-pass filter. The LPF unit 113 extracts spatial low-frequency components from the frame data input to the high-frequency emphasis / high-frequency suppression unit 102, and outputs the extracted low-frequency component data as high-frequency suppression frame data. The method of the low pass filter is not particularly limited. For example, a general two-dimensional FIR filter or the like can be used as the LPF unit 113. The subtractor 114 subtracts the high frequency suppression frame data from the frame data input to the high frequency emphasis / high frequency suppression unit 102. Thereby, data (high frequency component data) representing the spatial high frequency component of the frame data input to the high frequency emphasis / high frequency suppression unit 102 is obtained. The adder 115 adds the high frequency component data to the frame data input to the high frequency emphasis / high frequency suppression unit 102. Then, the adder 115 outputs the addition result as high frequency emphasized frame data.

図2において、「H」は高周波成分のデータであり、「L」は低周波成分のデータである。図2に示すように、低周波成分と高周波成分とを含むフレームデータ「L+H」が高域強調・高域抑圧部102に入力された場合には、高域強調フレームデータとして「L+2H」が出力され、高域抑圧フレームデータとして「L」が出力される。上述したように、本実施例では、入力画像データの1フレーム期間に、入力画像データのフレームデータが変換動画データのフレームデータとして、高域強調・高域抑圧部102へ2回出力される。そして、第1投影装置において、第1フレームの表示として、高域強調フレームデータに基づく画像の表示が行われ、第2フレームの表示として、高域抑圧フレームデータに基づく画像の表示が行われる。第1フレームは、変換動画データの複数のフレームのうち、奇数番目のフレームと偶数番目のフレームの一方であり、第2フレームは、変換動画データの複数のフレームのうち、奇数番目のフレームと偶数番目のフレームの他方である。即ち、第1投影装置では、高域強調フレームデータに基づく画像と、高域抑圧フレームデータに基づく画像とが、交互に表示される。そのため、入力画像データの1フレームについて、第1画像の知覚輝度(ユーザによって知覚される輝度)は、高域強調フレームデータの輝度と高域抑圧フレームデータの輝度との平均「L+H」となる。即ち、第1画像の知覚輝度として、入力画像データの輝度を再現することができる。   In FIG. 2, “H” is high frequency component data, and “L” is low frequency component data. As shown in FIG. 2, when frame data “L + H” including a low frequency component and a high frequency component is input to the high frequency emphasis / high frequency suppression unit 102, “L + 2H” is output as high frequency emphasis frame data. Then, “L” is output as the high frequency suppression frame data. As described above, in this embodiment, the frame data of the input image data is output twice to the high frequency emphasis / high frequency suppression unit 102 as the frame data of the converted moving image data in one frame period of the input image data. In the first projection device, an image based on the high frequency emphasis frame data is displayed as the first frame display, and an image based on the high frequency suppression frame data is displayed as the second frame display. The first frame is one of an odd-numbered frame and an even-numbered frame among the plurality of frames of the converted video data, and the second frame is an odd-numbered frame and an even-numbered frame among the plurality of frames of the converted video data. The other of the second frame. That is, in the first projection device, an image based on the high frequency emphasis frame data and an image based on the high frequency suppression frame data are alternately displayed. Therefore, for one frame of the input image data, the perceived brightness of the first image (the brightness perceived by the user) is an average “L + H” of the brightness of the high-frequency emphasized frame data and the brightness of the high-frequency suppressed frame data. That is, the luminance of the input image data can be reproduced as the perceived luminance of the first image.

なお、図2の例では、変換動画データの各フレームについて、変換動画データのフレームデータから高域強調フレームデータと高域抑圧フレームデータとが生成されるが、これに限られない。上述したように、第1投影装置では、第1フレームの表示として、高域強調フレームデータに基づく画像の表示が行われ、第2フレームの表示として、高域抑圧フレームデータに基づく画像の表示が行われる。そのため、第1フレームに対する強調処理と第2フレームに対する抑圧処理とが行われ、第1フレームに対する抑圧処理と第2フレームに対する強調処理とが省略されてもよい。即ち、第1フレームの期間では高域抑圧フレームデータの生成・出力が省略され、第2フレームの期間では高域強調フレームデータの生成・出力が省略されてもよい。   In the example of FIG. 2, the high frequency emphasis frame data and the high frequency suppression frame data are generated from the frame data of the converted video data for each frame of the converted video data. However, the present invention is not limited to this. As described above, in the first projection device, an image based on the high-frequency emphasized frame data is displayed as the first frame, and an image based on the high-frequency suppression frame data is displayed as the second frame. Done. Therefore, the enhancement process for the first frame and the suppression process for the second frame may be performed, and the suppression process for the first frame and the enhancement process for the second frame may be omitted. That is, the generation / output of high frequency suppression frame data may be omitted during the first frame period, and the generation / output of high frequency emphasized frame data may be omitted during the second frame period.

飽和判断部103は、飽和判断部103に入力された高域強調フレームデータに基づいて、当該高域強調フレームデータに飽和画素が存在するか否かを判断する。飽和画素は、階調値の所定範囲の外側の階調値を有する画素である。所定範囲は、例えば、第1投影装置が表示可能な階調値の範囲である。即ち、所定範囲は、第1画像の輝度の下限に対応する階調値から、第1画像の輝度の上限に対応する階調値までの範囲である。なお、所定範囲は特に限定されない。所定範囲は、メーカによって予め定められた固定範囲であってもよいし、ユーザからの指示、投影システムの使用環境、等に応じて適宜変更される範囲であってもよい。   Based on the high frequency emphasized frame data input to the saturation determining unit 103, the saturation determining unit 103 determines whether there is a saturated pixel in the high frequency emphasized frame data. A saturated pixel is a pixel having a gradation value outside a predetermined range of gradation values. The predetermined range is, for example, a range of gradation values that can be displayed by the first projection device. That is, the predetermined range is a range from a gradation value corresponding to the lower limit of the luminance of the first image to a gradation value corresponding to the upper limit of the luminance of the first image. The predetermined range is not particularly limited. The predetermined range may be a fixed range determined in advance by the manufacturer, or may be a range that is appropriately changed according to an instruction from the user, a use environment of the projection system, and the like.

そして、飽和判断部103は、上記判断の結果を、非対称化処理部104へ出力する。
本実施例では、飽和判断部103は、高域強調フレームデータに飽和画素が存在する場合に判断結果「飽和画素あり」を出力し、高域強調フレームデータに飽和画素が存在しない場合に判断結果「飽和画素なし」を出力する。
Then, saturation determination section 103 outputs the result of the determination to asymmetry processing section 104.
In the present embodiment, the saturation determination unit 103 outputs the determination result “saturated pixel exists” when the saturated pixel exists in the high frequency emphasized frame data, and the determination result when the saturated pixel does not exist in the high frequency emphasized frame data. “No saturated pixel” is output.

非対称化処理部104は、飽和判断部103からの判断結果に応じて、第2画像データの元となる第2元画像データを生成し、第2元画像データを装置間分配部105へ出力する。また、非対称化処理部104は、高域強調・高域抑圧部102から出力された高域強調フレームデータを、第1画像データのフレームデータの元となる第3元画像データとして、装置間分配部105へ出力する。本実施例では、装置間分配部105により、所定範囲の外側の階調値を所定範囲の内側の階調値に制限(クリップ)する制限処理が行われる。具体的には、装置間分配部105により、高域強調フレームデータに対して制限処理が施される。「高域強調・高域抑圧部102から出力された高域強調フレームデータ」は、「制限前画像データ(制限処理が施される前の第1画像データ)のフレームデータ」とも言える。   The asymmetry processing unit 104 generates second original image data that is the source of the second image data according to the determination result from the saturation determination unit 103, and outputs the second original image data to the inter-apparatus distribution unit 105. . Further, the asymmetry processing unit 104 distributes the high frequency emphasis frame data output from the high frequency emphasis / high frequency suppression unit 102 as the third original image data that is the source of the frame data of the first image data. To the unit 105. In this embodiment, the inter-apparatus distribution unit 105 performs a restriction process that restricts (clips) the gradation value outside the predetermined range to the gradation value inside the predetermined range. Specifically, the inter-device distribution unit 105 performs a restriction process on the high frequency emphasized frame data. “High-frequency emphasis frame data output from the high-frequency emphasis / high-frequency suppression unit 102” can also be said to be “frame data of pre-restriction image data (first image data before being subjected to restriction processing)”.

本実施例では、飽和判断部103から判断結果「飽和画素あり」が出力された場合には、非対称化処理部104は、第3元画像データとは異なる画像データを、第2元画像データとして出力する。「第3元画像データとは異なる画像データ」は、「第3元画像データとは非対称な画像データ」とも言える。一方、飽和判断部103から判断結果「飽和画素なし」が出力された場合には、非対称化処理部104は、第3元画像データと同じ画像データを、第2元画像データとして出力する。「第3元画像データと同じ画像データ」は、「第3元画像データと対称的な画像データ」とも言える。   In this embodiment, when the determination result “with saturated pixel” is output from the saturation determination unit 103, the asymmetry processing unit 104 uses image data different from the third original image data as the second original image data. Output. “Image data different from the third original image data” can also be said to be “image data asymmetric with the third original image data”. On the other hand, when the determination result “no saturated pixel” is output from the saturation determination unit 103, the asymmetry processing unit 104 outputs the same image data as the third original image data as the second original image data. “The same image data as the third original image data” can be said to be “image data symmetrical to the third original image data”.

具体的には、飽和判断部103から判断結果「飽和画素あり」が出力された場合には、非対称化処理部104は、各画素の階調値が所定値(所定のオフセット値)である画像データを、第2元画像データとして出力する。一方、飽和判断部103から判断結果「飽和画素なし」が出力された場合には、非対称化処理部104は、高域強調・高域抑圧部102から出力された高域強調フレームデータを、第2元画像データとしても出力する。なお、オフセット値は、メーカによって予め定められた固定値であってもよいし、ユーザからの指示、投影システムの使用環境、等に応じて適宜変更される値であってもよい。   Specifically, when the determination result “with saturated pixels” is output from the saturation determination unit 103, the asymmetry processing unit 104 is an image in which the gradation value of each pixel is a predetermined value (predetermined offset value). The data is output as second original image data. On the other hand, when the determination result “no saturated pixel” is output from the saturation determination unit 103, the asymmetry processing unit 104 outputs the high frequency emphasis frame data output from the high frequency emphasis / high frequency suppression unit 102 to Also output as binary image data. The offset value may be a fixed value determined in advance by the manufacturer, or may be a value that is appropriately changed according to an instruction from the user, a usage environment of the projection system, and the like.

このように、本実施例では、飽和画素が存在する場合の第2元画像データとして、制限前画像データ(制限前画像データのフレームデータ)とは異なる画像データが使用される。そして、飽和画素が存在しない場合の第2元画像データとして、制限前画像データ(制限前画像データのフレームデータ)と等しい画像データが使用される。「飽和画素が存在する場合の第2元画像データ」は、「制限処理が行われる場合の第2元画像データ」、「制限処理による階調値の変化が生じる場合の第2元画像データ」、等とも言える。そして、「飽和画素が存在しない場合の第2元画像データ」は、「制限処理が行われない場合の第2元画像データ」、「制限処理による階調値の変化が生じない場合の第2元画像データ」とも言える。なお、飽和画素が存在するか否かに拘らず、制限前画像データとは異なる画像データが第2元画像データとして使用されてもよい。   As described above, in the present embodiment, image data different from pre-restriction image data (frame data of pre-restriction image data) is used as the second original image data in the case where saturated pixels exist. Then, image data equal to the pre-restriction image data (frame data of the pre-restriction image data) is used as the second original image data when there is no saturated pixel. “Second original image data when saturated pixels are present” includes “second original image data when restriction processing is performed” and “second original image data when gradation value changes due to restriction processing”. , Etc. The “second original image data when there is no saturated pixel” includes the “second original image data when the restriction process is not performed” and the “second original image data when the gradation value is not changed by the restriction process”. It can also be said to be “original image data”. Note that image data different from the pre-restriction image data may be used as the second original image data regardless of whether there is a saturated pixel.

装置間分配部105は、飽和判断部103から出力された第3元画像データ(高域強調フレームデータ)に制限処理を施すことにより、制限フレームデータを生成する。そして、装置間分配部105は、制限フレームデータを出力する。第3元画像データに飽和画素が存在しない場合には、装置間分配部105は、第3元画像データと同じ画像データを制限フレームデータとして出力する。第3元画像データに飽和画素が存在する場合には、装置間分配部105は、第3元画像データの飽和画素の階調値を所定範囲の内側の値に制限することにより、制限フレームデータを生成する。そして、装置間分配部105は、制限フレームデータを出力する。また、装置間分配部105は、行った制限処理による階調値
の変化量を判断することにより、行った制限処理に関する制限情報を取得(生成)する。
The inter-apparatus distribution unit 105 generates restriction frame data by performing restriction processing on the third original image data (high frequency emphasis frame data) output from the saturation determination unit 103. Then, the inter-apparatus distribution unit 105 outputs the restricted frame data. If there is no saturated pixel in the third original image data, the inter-apparatus distribution unit 105 outputs the same image data as the third original image data as restricted frame data. When saturated pixels exist in the third original image data, the inter-apparatus distribution unit 105 restricts the gradation value of the saturated pixels in the third original image data to a value inside a predetermined range, thereby limiting frame data. Is generated. Then, the inter-apparatus distribution unit 105 outputs the restricted frame data. Further, the inter-apparatus distribution unit 105 acquires (generates) restriction information regarding the performed restriction process by determining the amount of change in the gradation value due to the performed restriction process.

また、装置間分配部105は、上記制限情報に基づいて、制限処理による階調値の変化に応じた画像データを、補償フレームデータとして生成する。具体的には、装置間分配部105は、上記制限情報に基づいて、制限処理による階調値の変化を補う画像データを、補償フレームデータとして生成する。そして、装置間分配部105は、補償フレームデータを出力する。本実施例では、装置間分配部105は、飽和判断部103から出力された第2元画像データと、上記制限処理による階調値の変化量とを用いて、補償フレームデータを生成する。具体的には、装置間分配部105は、第2元画像データの階調値に、上記制限処理による階調値の変化量を加算することにより、補償フレームデータを生成する。より具体的には、以下の条件1,2を満たす画像データが、補償フレームデータとして生成される。制限画素は、制限処理によって所定範囲の内側の値に階調値が制限された画素であり、飽和画素である。第3元画像データに飽和画素が存在しない場合には、装置間分配部105は、第2元画像データおよび第3元画像データと同じ画像データを、補償フレームデータとして出力する。第3元画像データに飽和画素が存在する場合には、装置間分配部105は、第2元画像データおよび第3元画像データと異なる画像データを、補償フレームデータとして出力する。

条件1:制限画素に対応する画素の階調値が、制限処理による階調値の変化量を第2元画像データの階調値に加算して得られる階調値である。
条件2:制限画素以外の画素に対応する画素の階調値が、第2元画像データの階調値である。
In addition, the inter-apparatus distribution unit 105 generates image data corresponding to a change in the gradation value by the restriction process as compensation frame data based on the restriction information. Specifically, the inter-apparatus distribution unit 105 generates, as compensation frame data, image data that compensates for the change in gradation value due to the restriction process based on the restriction information. Then, the inter-apparatus distribution unit 105 outputs compensation frame data. In the present embodiment, the inter-apparatus distribution unit 105 generates compensation frame data using the second original image data output from the saturation determination unit 103 and the amount of change in the gradation value due to the restriction process. Specifically, the inter-apparatus distribution unit 105 generates the compensation frame data by adding the change amount of the gradation value by the restriction process to the gradation value of the second original image data. More specifically, image data satisfying the following conditions 1 and 2 is generated as compensation frame data. The restricted pixel is a pixel whose gradation value is restricted to a value inside a predetermined range by the restriction process, and is a saturated pixel. When there is no saturated pixel in the third original image data, the inter-apparatus distribution unit 105 outputs the same image data as the second original image data and the third original image data as compensation frame data. When saturated pixels exist in the third original image data, the inter-apparatus distribution unit 105 outputs image data different from the second original image data and the third original image data as compensation frame data.

Condition 1: The gradation value of the pixel corresponding to the restricted pixel is a gradation value obtained by adding the change amount of the gradation value by the restriction process to the gradation value of the second original image data.
Condition 2: The gradation value of a pixel corresponding to a pixel other than the restricted pixel is the gradation value of the second original image data.

なお、制限処理による階調値の変化が補われれば、補償フレームデータの生成方法は特に限定されない。例えば、制限画素の階調値の変化量が、制限画素に対応する画素と、その周囲の画素とによって補われてもよい。   Note that the compensation frame data generation method is not particularly limited as long as the change in the gradation value due to the restriction process is compensated. For example, the change amount of the gradation value of the restricted pixel may be supplemented by the pixel corresponding to the restricted pixel and the surrounding pixels.

輝度復元部106は、非対称化処理部104の処理結果に応じて、投影画像(第1画像と第2画像が重なり合うことで得られる合成画像)の輝度変動が抑制されるように、発光輝度を決定する。そして、輝度復元部106は、決定した発光輝度に発光部の発光輝度を制御する輝度制御データを出力する。輝度復元部106から出力された輝度制御データは、発光部111A,111Bの発光輝度の制御で使用される。具体的には、輝度復元部106から出力された輝度制御データは、第1フレームの期間において使用される。   In accordance with the processing result of the asymmetry processing unit 104, the luminance restoration unit 106 reduces the emission luminance so that the luminance variation of the projection image (the synthesized image obtained by overlapping the first image and the second image) is suppressed. decide. Then, the luminance restoration unit 106 outputs luminance control data for controlling the light emission luminance of the light emitting unit to the determined light emission luminance. The luminance control data output from the luminance restoring unit 106 is used for controlling the emission luminance of the light emitting units 111A and 111B. Specifically, the luminance control data output from the luminance restoration unit 106 is used in the period of the first frame.

本実施例では、第3元画像データを用いて制限フレームデータが得られ、第2元画像データを用いて補償フレームデータが得られる。そして、制限フレームデータに基づく画像が第1投影装置によって表示される期間において、補償フレームデータに基づく画像が第2投影装置によって表示される。   In this embodiment, limited frame data is obtained using the third original image data, and compensation frame data is obtained using the second original image data. Then, during the period in which the image based on the limited frame data is displayed by the first projection device, the image based on the compensation frame data is displayed by the second projection device.

本実施例では、第3元画像データが飽和画素を含まない場合には、第3元画像データと同じ画像データが第2元画像データとして採用される。「第3元画像データが飽和画素を含まない場合」は「制限フレームデータが制限画素を含まない場合」とも言える。そして、輝度復元部106は、第3元画像データと同じ画像データが第2元画像データとして採用された場合に、所定の基準輝度に応じた輝度制御データを出力する。第3元画像データは、入力画像データから得られた高域強調フレームデータである。そのため、第3元画像データと同じ画像データが第2元画像データとして採用された場合には、第1投影装置と第2投影装置のそれぞれにおいて入力画像データに基づく輝度での表示が行われる。   In the present embodiment, when the third original image data does not include saturated pixels, the same image data as the third original image data is adopted as the second original image data. It can be said that “when the third original image data does not include saturated pixels” “when the limited frame data does not include limited pixels”. Then, the luminance restoration unit 106 outputs luminance control data corresponding to a predetermined reference luminance when the same image data as the third original image data is adopted as the second original image data. The third original image data is high frequency emphasized frame data obtained from the input image data. For this reason, when the same image data as the third original image data is adopted as the second original image data, display with luminance based on the input image data is performed in each of the first projection device and the second projection device.

一方で、第3元画像データが飽和画素を含む場合には、各階調値がオフセット値である
画像データが第2元画像データとして採用される。「第3元画像データが飽和画素を含む場合」は「制限フレームデータが制限画素を含む場合」とも言える。そして、そのような場合には、入力画像データに基づく上記輝度は、第2投影装置で実現されない。そのため、発光部111A,111Bの発光輝度を常に基準輝度に制御すると、制限画素を含む制限フレームデータの表示期間における合成画像の輝度と、制限画素を含まない制限フレームデータの表示期間における合成画像の輝度との差が生じる。例えば、制限画素を含まない制限フレームデータの表示期間において、制限画素を含まない制限フレームデータの表示期間における合成画像の輝度よりも低い輝度で、合成画像が表示される。本実施例では、制限画素を含まない制限フレームデータの表示期間において、制限画素を含まない制限フレームデータの表示期間における合成画像の輝度の半分の輝度で、合成画像が表示される。そのため、本実施例では、輝度復元部106は、各階調値がオフセット値である画像データが第2元画像データとして採用された場合に、基準輝度の2倍の発光輝度に応じた輝度制御データを出力する。それにより、合成画像の輝度変動を抑制することができる。
On the other hand, when the third original image data includes saturated pixels, image data in which each gradation value is an offset value is adopted as the second original image data. It can be said that “when the third original image data includes saturated pixels” “when the limited frame data includes limited pixels”. In such a case, the luminance based on the input image data is not realized by the second projection device. Therefore, if the light emission brightness of the light emitting units 111A and 111B is always controlled to the reference brightness, the brightness of the composite image in the display period of the limited frame data including the limited pixels and the composite image in the display period of the limited frame data not including the limited pixels are displayed. A difference from the brightness occurs. For example, in the display period of restricted frame data that does not include restricted pixels, the composite image is displayed with a lower brightness than the brightness of the composite image in the display period of restricted frame data that does not include restricted pixels. In the present embodiment, in the display period of restricted frame data that does not include restricted pixels, the composite image is displayed with a brightness that is half the brightness of the composite image in the display period of restricted frame data that does not include restricted pixels. Therefore, in the present embodiment, the luminance restoration unit 106 uses the luminance control data corresponding to the light emission luminance that is twice the reference luminance when image data whose gradation values are offset values is adopted as the second original image data. Is output. Thereby, the brightness | luminance fluctuation | variation of a synthesized image can be suppressed.

基準輝度決定部107は、基準輝度に応じた輝度制御データを出力する。基準輝度決定部107から出力された輝度制御データも、発光部111A,111Bの発光輝度の制御で使用される。具体的には、基準輝度決定部107から出力された輝度制御データは、第2フレームの期間において使用される。   The reference brightness determination unit 107 outputs brightness control data corresponding to the reference brightness. The luminance control data output from the reference luminance determining unit 107 is also used for controlling the emission luminance of the light emitting units 111A and 111B. Specifically, the brightness control data output from the reference brightness determining unit 107 is used in the period of the second frame.

上述したように、本実施例では、第1フレームの期間において、非対称化処理部104の処理結果に応じた輝度制御データが使用され、第2フレームの期間において、基準輝度に応じた輝度制御データが使用される。非対称化処理部104の処理結果に応じて第1フレームの期間の輝度制御データを変えることで、輝度バランス(第1フレームの期間における合成画像の輝度と第2フレームの期間における合成画像の輝度との間のバランス)の変動を抑制することもできる。さらに、周波数バランス(合成画像の空間周波数と入力画像データの空間周波数との間のバランス)の変動を抑制することもできる。   As described above, in this embodiment, the luminance control data corresponding to the processing result of the asymmetry processing unit 104 is used in the first frame period, and the luminance control data corresponding to the reference luminance is used in the second frame period. Is used. By changing the luminance control data in the first frame period according to the processing result of the asymmetry processing unit 104, the luminance balance (the luminance of the synthesized image in the first frame period and the luminance of the synthesized image in the second frame period) Fluctuations in the balance) can also be suppressed. Furthermore, fluctuations in frequency balance (balance between the spatial frequency of the composite image and the spatial frequency of the input image data) can be suppressed.

なお、基準輝度は、メーカによって予め定められた固定値であってもよいし、ユーザからの指示、投影システムの使用環境、等に応じて適宜変更される値であってもよい。また、本実施例では、出力された輝度制御データに応じた発光輝度で発光部が発光するため、「輝度制御データを出力する処理」は、「発光部の発光輝度を制御する処理」とも言える。   The reference luminance may be a fixed value determined in advance by the manufacturer, or may be a value that is appropriately changed according to an instruction from the user, a usage environment of the projection system, and the like. In this embodiment, since the light emitting unit emits light with the light emission luminance corresponding to the output luminance control data, “the process of outputting the luminance control data” can be said to be “the process of controlling the light emission luminance of the light emitting unit”. .

なお、発光部の発光輝度の制御方法、輝度制御データ、等は特に限定されない。例えば、発光部に供給するパルス信号のパルス幅を制御することで発光部の発光輝度を制御するPWM制御が行われる場合には、パルス幅を示すデータを輝度制御データとして使用することができる。パルス信号のパルス振幅を制御することで発光部の発光輝度を制御するPAM制御が行われる場合には、パルス振幅を示すデータを輝度制御データとして使用することができる。パルス幅とパルス振幅の両方を制御することで発光部の発光輝度を制御するPHM制御が行われる場合には、パルス幅とパルス振幅の両方を示すデータを輝度制御データとして使用することができる。   Note that a method for controlling the light emission luminance of the light emitting unit, luminance control data, and the like are not particularly limited. For example, when the PWM control for controlling the light emission luminance of the light emitting unit by controlling the pulse width of the pulse signal supplied to the light emitting unit, data indicating the pulse width can be used as the luminance control data. When the PAM control for controlling the light emission luminance of the light emitting unit by controlling the pulse amplitude of the pulse signal, data indicating the pulse amplitude can be used as the luminance control data. When PHM control for controlling the light emission luminance of the light emitting unit by controlling both the pulse width and the pulse amplitude, data indicating both the pulse width and the pulse amplitude can be used as the luminance control data.

なお、本実施例では、発光部111Aの発光輝度と発光部111Bの発光輝度とが共通の輝度制御データを用いて制御されるが、これに限られない。例えば、発光部111Aの発光輝度と発光部111Bの発光輝度とが個別に制御されてもよい。発光部111Aの発光輝度と発光部111Bの発光輝度との一方が変更されずに、発光部111Aの発光輝度と発光部111Bの発光輝度との他方のみが変更されてもよい。具体的には、制限画素を含むフレームの表示期間において、以下の条件3が満たされるように、発光部111Aの発光輝度と発光部111Bの発光輝度との少なくとも一方が制御されてもよい。そして、制限画素を含まないフレームの表示期間において、以下の条件4が満たされるように、発
光部111Aの発光輝度と発光部111Bの発光輝度との少なくとも一方が制御されてもよい。以下の条件3,4において、所定輝度は、例えば、上記基準輝度の2倍の輝度である。

条件3:発光部111Aの発光輝度と発光部111Bの発光輝度との合計が所定輝度の2倍の輝度である。
条件4:発光部111Aの発光輝度と発光部111Bの発光輝度との合計が所定輝度である。
In the present embodiment, the light emission luminance of the light emitting unit 111A and the light emission luminance of the light emitting unit 111B are controlled using common luminance control data, but the present invention is not limited to this. For example, the light emission luminance of the light emitting unit 111A and the light emission luminance of the light emitting unit 111B may be individually controlled. Only one of the light emission luminance of the light emitting unit 111A and the light emission luminance of the light emitting unit 111B may be changed without changing one of the light emission luminance of the light emitting unit 111A and the light emission luminance of the light emitting unit 111B. Specifically, at least one of the light emission luminance of the light emitting unit 111A and the light emission luminance of the light emitting unit 111B may be controlled so that the following condition 3 is satisfied in the display period of the frame including the limited pixels. Then, at least one of the light emission luminance of the light emitting unit 111A and the light emission luminance of the light emitting unit 111B may be controlled so that the following condition 4 is satisfied in a frame display period that does not include the limited pixels. In the following conditions 3 and 4, the predetermined luminance is, for example, twice the reference luminance.

Condition 3: The total of the light emission luminance of the light emitting unit 111A and the light emission luminance of the light emitting unit 111B is twice the predetermined luminance.
Condition 4: The sum of the light emission luminance of the light emitting unit 111A and the light emission luminance of the light emitting unit 111B is a predetermined luminance.

切り替えスイッチ108は、画像データの伝送路、輝度制御データの伝送路、等を切り替えるスイッチである。本実施例では、以下の処理が実現されるように、切り替えスイッチ108が伝送路を切り替える。

・第1フレームの期間において、装置間分配部105から出力された制限フレームデータを、第1画像データ(第1画像データのフレームデータ)として、同期形成部109Aへ導く処理
・第1フレームの期間において、装置間分配部105から出力された補償フレームデータを、第2画像データとして、同期形成部109Bへ導く処理
・第2フレームの期間において、高域強調・高域抑圧部102から出力された高域抑圧フレームデータを、第1画像データ(第1画像データのフレームデータ)として、同期形成部109Aへ導く処理
・第2フレームの期間において、高域強調・高域抑圧部102から出力された高域抑圧フレームデータを、第2画像データとして、同期形成部109Bへ導く処理
・第1フレームの期間において、輝度復元部106から出力された輝度制御データを、同期形成部109A,109Bへ導く処理
・第2フレームの期間において、基準輝度決定部107から出力された輝度制御データを、同期形成部109A,109Bへ導く処理
The changeover switch 108 is a switch for switching an image data transmission path, a luminance control data transmission path, and the like. In the present embodiment, the changeover switch 108 switches the transmission path so that the following processing is realized.

A process of leading the limited frame data output from the inter-apparatus distribution unit 105 to the synchronization forming unit 109A as the first image data (the frame data of the first image data) in the first frame period. In the processing, the compensation frame data output from the inter-apparatus distribution unit 105 is guided to the synchronization forming unit 109B as the second image data. The second frame is output from the high frequency emphasis / high frequency suppression unit 102 in the second frame period. Processing for guiding the high-frequency suppression frame data to the synchronization forming unit 109A as the first image data (frame data of the first image data). Output from the high-frequency emphasis / high-frequency suppression unit 102 during the second frame period. Processing for guiding the high-frequency suppression frame data as the second image data to the synchronization forming unit 109B. In the period of the first frame, luminance recovery is performed. Processing for deriving the luminance control data output from the base unit 106 to the synchronization forming units 109A and 109B. In the period of the second frame, the luminance control data output from the reference luminance determining unit 107 to the synchronization forming units 109A and 109B. Processing

同期形成部109Aは、同期形成部109Aに入力された画像データを液晶パネル110Aへ出力し、同期形成部109Aに入力された輝度制御データを発光部111Aに出力する。同期形成部109Bは、同期形成部109Bに入力された画像データを液晶パネル110Bへ出力し、同期形成部109Bに入力された輝度制御データを発光部111Bに出力する。   The synchronization forming unit 109A outputs the image data input to the synchronization forming unit 109A to the liquid crystal panel 110A, and outputs the brightness control data input to the synchronization forming unit 109A to the light emitting unit 111A. The synchronization forming unit 109B outputs the image data input to the synchronization forming unit 109B to the liquid crystal panel 110B, and outputs the luminance control data input to the synchronization forming unit 109B to the light emitting unit 111B.

同期形成部109A,109Bは、変換動画データの各フレームについて、第1画像の表示と第2画像の表示とが同じタイミングで行われるように、画像データと輝度制御データとを出力する(同期処理)。本実施例では、同期形成部109A,109Bは、液晶パネル110Aの変調率(透過率、反射率、等)の制御と液晶パネル110Bの変調率の制御とが同じタイミングで行われるように、画像データを出力する。また、同期形成部109A,109Bは、液晶パネル110A,110Bの変調率の制御と発光部111A,111Bの発光とが同じタイミングで行われるように、輝度制御データを出力する。具体的には、同期形成部109A,109Bは、データ(画像データ、輝度制御データ、等)を記憶する記憶部を有する。そして、同期形成部109A,109Bは、第1投影装置から第2投影装置へのデータの伝送に要する時間などを考慮したタイミングで、記憶部からデータを読み出し、読み出したデータを出力する。   The synchronization forming units 109A and 109B output the image data and the brightness control data so that the display of the first image and the display of the second image are performed at the same timing for each frame of the converted moving image data (synchronization processing). ). In the present embodiment, the synchronization forming units 109A and 109B perform image control so that the control of the modulation rate (transmittance, reflectance, etc.) of the liquid crystal panel 110A and the control of the modulation rate of the liquid crystal panel 110B are performed at the same timing. Output data. The synchronization forming units 109A and 109B output luminance control data so that the modulation rate control of the liquid crystal panels 110A and 110B and the light emission of the light emitting units 111A and 111B are performed at the same timing. Specifically, the synchronization forming units 109A and 109B have a storage unit that stores data (image data, luminance control data, etc.). Then, the synchronization forming units 109A and 109B read the data from the storage unit and output the read data at a timing that considers the time required to transmit data from the first projection device to the second projection device.

液晶パネル110Aは、液晶パネル110Aに入力された画像データに基づいて、発光部111Aからの光を変調(透過または反射)する。具体的には、液晶パネル110Aは
、複数の液晶素子を有しており、液晶パネル110Aに入力された画像データに基づいて各液晶素子の変調率を制御する。そして、液晶パネル110Aは、液晶パネル110Aに入力された画像データに基づく変調率で、発光部111Aからの光を変調する。液晶パネル110Aによって変調された後の光は、投影レンズ112Aへ照射される。同様に、液晶パネル110Bは、液晶パネル110Bに入力された画像データに基づいて、発光部111Bからの光を変調する。液晶パネル110Bによって変調された後の光は、投影レンズ112Bへ照射される。
The liquid crystal panel 110A modulates (transmits or reflects) light from the light emitting unit 111A based on image data input to the liquid crystal panel 110A. Specifically, the liquid crystal panel 110A includes a plurality of liquid crystal elements, and controls the modulation rate of each liquid crystal element based on image data input to the liquid crystal panel 110A. The liquid crystal panel 110A modulates the light from the light emitting unit 111A with a modulation rate based on the image data input to the liquid crystal panel 110A. The light after being modulated by the liquid crystal panel 110A is applied to the projection lens 112A. Similarly, the liquid crystal panel 110B modulates the light from the light emitting unit 111B based on the image data input to the liquid crystal panel 110B. The light after being modulated by the liquid crystal panel 110B is applied to the projection lens 112B.

発光部111Aは、発光部111Aに入力された輝度制御データに応じた発光輝度の光を、液晶パネル110Aに照射する。同様に、発光部111Bは、発光部111Bに入力された輝度制御データに応じた発光輝度の光を、液晶パネル110Bに照射する。発光部が変調パネル(液晶パネル)の背面に光を照射し、発光部からの光を変調パネルが透過する場合には、発光部は「バックライトユニット」とも言える。   The light emitting unit 111A irradiates the liquid crystal panel 110A with light having a luminance corresponding to the luminance control data input to the light emitting unit 111A. Similarly, the light emitting unit 111B irradiates the liquid crystal panel 110B with light having a luminance corresponding to the luminance control data input to the light emitting unit 111B. When the light emitting unit irradiates light on the back surface of the modulation panel (liquid crystal panel) and the modulation panel transmits light from the light emitting unit, the light emitting unit can be said to be a “backlight unit”.

投影レンズ112Aは、液晶パネル110Aからの光に光学的な変化を与え、光学的な変化が与えられた後の光を投影領域に照射する。それにより、投影領域に第1画像が表示(結像)される。同様に、投影レンズ112Bは、液晶パネル110Bからの光に光学的な変化を与え、光学的な変化が与えられた後の光を投影領域に照射する。それにより、投影領域に第2画像が表示される。   The projection lens 112A optically changes the light from the liquid crystal panel 110A, and irradiates the projection area with the light after the optical change is given. Thereby, the first image is displayed (imaged) in the projection area. Similarly, the projection lens 112B optically changes the light from the liquid crystal panel 110B, and irradiates the projection area with the light after the optical change is given. Thereby, the second image is displayed in the projection area.

本実施例に係る投影システムの処理の具体例と効果について、図3,12を用いて説明する。図3,12は、投影システムで使用される種々の画像データの輝度分布の一例を示す。図3,12の上段には、第1投影装置の入力画像データの輝度分布、第1投影装置の中間画像データの輝度分布、及び、第1投影装置の出力画像データの輝度分布が示されている。入力画像データは、投影装置に入力された画像データである。中間画像データは、入力画像データから出力画像データを生成する処理の途中で生成された画像データである。出力画像データは、液晶パネルに入力される画像データである。図3,12の中段には、第2投影装置の入力画像データの輝度分布、第1投影装置の中間画像データの輝度分布、及び、第1投影装置の出力画像データの輝度分布が示されている。図3,12の下段には、スタック輝度の分布と、知覚輝度の分布とが示されている。図3には、第1フレームの投影輝度(投影画像の輝度;投影領域における輝度;投影面上の輝度)の分布も示されている。   Specific examples and effects of the processing of the projection system according to the present embodiment will be described with reference to FIGS. 3 and 12 show examples of luminance distributions of various image data used in the projection system. 3 and 12, the luminance distribution of the input image data of the first projection device, the luminance distribution of the intermediate image data of the first projection device, and the luminance distribution of the output image data of the first projection device are shown. Yes. The input image data is image data input to the projection apparatus. The intermediate image data is image data generated during the process of generating output image data from input image data. The output image data is image data input to the liquid crystal panel. 3 and 12, the luminance distribution of the input image data of the second projection device, the luminance distribution of the intermediate image data of the first projection device, and the luminance distribution of the output image data of the first projection device are shown. Yes. In the lower part of FIGS. 3 and 12, the distribution of the stack luminance and the distribution of the perceived luminance are shown. FIG. 3 also shows the distribution of the projection luminance (luminance of the projection image; luminance in the projection area; luminance on the projection plane) of the first frame.

スタック輝度は、スタック投影を行った場合の輝度であり、第1投影装置の輝度と第2投影装置の輝度との和である。図3,12では、スタック輝度の分布として、上段の輝度分布と中段の輝度分布との和が示されている。図3,12では、知覚輝度として、出力画像データに基づく画像を表示した場合の知覚輝度が示されている。第1フレームと第2フレームが十分に高いフレームレートで順に表示される場合には、第1フレームの輝度と第2フレームの輝度との平均が、ユーザによって知覚される。そのため、図3,12では、第1フレームの出力画像データに対応するスタック輝度の分布と、第2フレームの出力画像データに対応するスタック輝度の分布との平均が、知覚輝度の分布として示されている。   The stack luminance is the luminance when stack projection is performed, and is the sum of the luminance of the first projection device and the luminance of the second projection device. 3 and 12, the sum of the upper-level luminance distribution and the middle-level luminance distribution is shown as the stack luminance distribution. 3 and 12, the perceptual brightness when an image based on the output image data is displayed is shown as the perceptual brightness. When the first frame and the second frame are sequentially displayed at a sufficiently high frame rate, the average of the luminance of the first frame and the luminance of the second frame is perceived by the user. Therefore, in FIGS. 3 and 12, the average of the stack luminance distribution corresponding to the output image data of the first frame and the stack luminance distribution corresponding to the output image data of the second frame is shown as the distribution of perceptual luminance. ing.

図3は、本実施例に係る投影システムの処理の具体例を示し、図12は、従来の投影システムの処理の具体例を示す。図3,12は、第1フレームの画像データとして高域強調フレームデータを生成し、且つ、第2フレームの画像データとして高域抑圧フレームデータを生成する画像処理が行われる例を示す。   FIG. 3 shows a specific example of the process of the projection system according to the present embodiment, and FIG. 12 shows a specific example of the process of the conventional projection system. 3 and 12 show an example in which image processing for generating high-frequency emphasized frame data as image data of the first frame and generating high-frequency suppression frame data as image data of the second frame is performed.

従来の投影システムの処理の具体例を、図12を用いて説明する。図12の例では、第1投影装置と第2投影装置のそれぞれに同じ入力画像データが入力される。そして、第1
投影装置と第2投影装置を用いてスタック投影が行われる。
A specific example of the processing of the conventional projection system will be described with reference to FIG. In the example of FIG. 12, the same input image data is input to each of the first projection device and the second projection device. And first
Stack projection is performed using the projection device and the second projection device.

図12の例では、各投影装置は、入力画像データから、第1フレームの中間画像データとして高域強調フレームデータを生成し、第2フレームの中間画像データとして高域抑圧フレームデータを生成する。図12の例では、高域強調フレームデータは飽和画素を含む。図12において、破線部分の輝度は飽和画素の輝度である。図12の例では、高域強調フレームデータが出力画像データとして用いられるが、高域強調フレームデータが飽和画素を含む場合には、飽和画素の階調値を所定範囲の内側の階調値に制限する制限処理が行われる。そのため、図12の例では、第1フレームの出力画像データの輝度分布として、高域強調フレームデータの輝度分布からハッチング部分を除いた輝度分布が得られる。ハッチング部分は、制限処理による階調値の変化量に対応する。制限処理により第1フレームの階調値が変化したにも拘らず、高域抑圧フレームデータを第2フレームの出力画像データとして用いると、合成画像の画質が劣化(破綻)する。そこで、図12の例では、制限処理による階調値の変化量を高域抑圧フレームデータの階調値に加算することにより、第2フレームの出力画像データが生成される。   In the example of FIG. 12, each projection device generates high-frequency emphasized frame data as intermediate image data of the first frame and high-frequency suppression frame data as intermediate image data of the second frame from the input image data. In the example of FIG. 12, the high frequency emphasized frame data includes saturated pixels. In FIG. 12, the brightness | luminance of a broken line part is a brightness | luminance of a saturated pixel. In the example of FIG. 12, high-frequency emphasized frame data is used as output image data. However, when the high-frequency emphasized frame data includes saturated pixels, the gradation value of the saturated pixel is changed to a gradation value inside a predetermined range. Restriction processing to restrict is performed. Therefore, in the example of FIG. 12, the luminance distribution obtained by removing the hatched portion from the luminance distribution of the high-frequency emphasized frame data is obtained as the luminance distribution of the output image data of the first frame. The hatched portion corresponds to the amount of change in the gradation value due to the restriction process. When the high-frequency suppression frame data is used as the output image data of the second frame, although the gradation value of the first frame is changed by the restriction process, the image quality of the composite image is deteriorated (failed). Therefore, in the example of FIG. 12, the output image data of the second frame is generated by adding the change amount of the gradation value by the restriction process to the gradation value of the high-frequency suppression frame data.

図12に示すように、制限処理により、輝度分布は入力画像データの輝度分布に近づく。図12の例では、第1フレームの出力画像データの輝度分布として、入力画像データの輝度分布と同じ輝度分布が得られる。さらに、図12に示すように、制限処理による階調値の変化量を高域抑圧フレームデータの階調値に加算することによっても、輝度分布は入力画像データの輝度分布に近づく。図12の例では、第2フレームの出力画像データの輝度分布として、入力画像データの輝度分布と同じ輝度分布が得られる。その結果、ホールド期間(同一フレーム画像を表示し続ける期間)として、入力画像データのフレームを第1フレームと第2フレームに分ける前のホールド期間と同じ(または近い)期間が実現されてしまい、動画視認性の向上効果を得ることができない。   As shown in FIG. 12, the luminance distribution approaches the luminance distribution of the input image data by the restriction process. In the example of FIG. 12, the same luminance distribution as the luminance distribution of the input image data is obtained as the luminance distribution of the output image data of the first frame. Furthermore, as shown in FIG. 12, the luminance distribution approaches the luminance distribution of the input image data also by adding the amount of change in the gradation value due to the limiting process to the gradation value of the high-frequency suppression frame data. In the example of FIG. 12, the same luminance distribution as that of the input image data is obtained as the luminance distribution of the output image data of the second frame. As a result, as the hold period (the period during which the same frame image is continuously displayed), the same (or close) period as the hold period before dividing the frame of the input image data into the first frame and the second frame is realized. The effect of improving visibility cannot be obtained.

一方、本実施例の投影システムによれば、図12を用いて説明した上記課題を含む様々な課題を解決することができ、合成画像の画質を向上することができる。本実施例の投影システムの処理の具体例を、図3を用いて説明する。   On the other hand, according to the projection system of the present embodiment, various problems including the above problem described with reference to FIG. 12 can be solved, and the image quality of the composite image can be improved. A specific example of the processing of the projection system of the present embodiment will be described with reference to FIG.

本実施例では、図3に示すように、第1投影装置は、入力画像データから、第1フレームと第1投影装置に対応する中間画像データとして高域強調フレームデータを生成する。図3の例では、高域強調フレームデータは飽和画素を含む。飽和画素は、飽和判断部103によって検出される。飽和画素が検出されると、非対称化処理部104は、第1フレームと第2投影装置に対応する中間画像データとして、第1フレームと第1投影装置に対応する中間画像データ(高域強調フレームデータ)とは異なる画像データを生成する。具体的には、図3に示すように、各階調値がオフセット値である画像データが、第1フレームと第2投影装置に対応する中間画像データとして生成される。   In the present embodiment, as shown in FIG. 3, the first projection device generates high-frequency emphasized frame data as intermediate image data corresponding to the first frame and the first projection device from the input image data. In the example of FIG. 3, the high frequency emphasis frame data includes saturated pixels. Saturated pixels are detected by the saturation determination unit 103. When the saturation pixel is detected, the asymmetry processing unit 104 uses the intermediate image data (high frequency enhancement frame) corresponding to the first frame and the first projection device as the intermediate image data corresponding to the first frame and the second projection device. Image data different from (data) is generated. Specifically, as shown in FIG. 3, image data in which each gradation value is an offset value is generated as intermediate image data corresponding to the first frame and the second projection device.

本実施例では、図3に示すように、装置間分配部105は、高域強調フレームデータに制限処理を施すことにより、第1フレームと第1投影装置に対応する出力画像データを生成する。そして、装置間分配部105は、第1フレームと第2投影装置に対応する中間画像データ(オフセット値)に、制限処理による階調値の変化量を加算することにより、第1フレームと第2投影装置に対応する出力画像データを生成する。   In this embodiment, as shown in FIG. 3, the inter-apparatus distribution unit 105 generates output image data corresponding to the first frame and the first projection device by performing a restriction process on the high-frequency emphasized frame data. Then, the inter-apparatus distribution unit 105 adds the change amount of the gradation value due to the limiting process to the intermediate image data (offset value) corresponding to the first frame and the second projection apparatus, and thereby the first frame and the second frame. Output image data corresponding to the projection device is generated.

また、図3に示すように、第1投影装置は、第2フレーム、第1投影装置、及び、第2投影装置に対応する出力画像データとして高域抑圧フレームデータを生成する。即ち、本実施例では、高域抑圧フレームデータの階調値は変更されない。   Further, as shown in FIG. 3, the first projection device generates high-frequency suppression frame data as output image data corresponding to the second frame, the first projection device, and the second projection device. That is, in the present embodiment, the gradation value of the high frequency suppression frame data is not changed.

このように、本実施例では、第1フレームと第1投影装置に対応する画像データに対す
る制限処理による階調値の変化は、第2フレームの画像データでは補われずに、当該第1フレームと第2投影装置に対応する画像データで補われる。それにより、合成画像の画質を高精度に向上することができる。例えば、制限処理による階調値の変化に起因した画質劣化を抑制することができる。また、入力画像データの高周波成分のホールド期間を半減することができるため、ホールドぼやけの大きさを半減することができる。その結果、動画視認性を向上することができる。
As described above, in this embodiment, the change in the gradation value due to the restriction process on the image data corresponding to the first frame and the first projection device is not supplemented by the image data of the second frame, and the first frame and Supplemented with image data corresponding to the second projection device. Thereby, the image quality of the composite image can be improved with high accuracy. For example, it is possible to suppress deterioration in image quality due to a change in gradation value due to the restriction process. Further, since the hold period of the high-frequency component of the input image data can be halved, the magnitude of hold blur can be halved. As a result, the moving image visibility can be improved.

さらに、本実施例では、第1フレームと第2投影装置に対応する中間画像データとして高域強調フレームデータとは異なる画像データが採用された場合に、発光部111A,111Bの発光輝度が、基準輝度の2倍の発光輝度に高められる。これにより、図3に示すように、第1フレームの投影輝度として、第1フレームの出力画像データの輝度の2倍の輝度を実現することができる。その結果、合成画像の輝度変動などを抑制することができる。具体的には、第1フレームと投影輝度の分布とに対応するスタック輝度の分布として、図12において第1フレームと中間画像データの輝度分布とに対応するスタック輝度の分布と同等の分布を得ることができる。それにより、画像の再現性を維持しつつ、スタック投影による高輝度な表示(投影)を実現することができる。   Furthermore, in this embodiment, when image data different from the high frequency emphasis frame data is adopted as the intermediate image data corresponding to the first frame and the second projection device, the light emission luminance of the light emitting units 111A and 111B is the reference The luminous intensity is increased to twice the luminance. As a result, as shown in FIG. 3, it is possible to realize a luminance that is twice the luminance of the output image data of the first frame as the projection luminance of the first frame. As a result, it is possible to suppress the luminance variation of the composite image. Specifically, as the stack luminance distribution corresponding to the first frame and the projection luminance distribution, a distribution equivalent to the stack luminance distribution corresponding to the first frame and the luminance distribution of the intermediate image data is obtained in FIG. be able to. As a result, it is possible to realize high-luminance display (projection) by stack projection while maintaining image reproducibility.

なお、図3に示すように、第1フレームと投影輝度の分布とに対応するスタック輝度は、図12において第1フレームと中間画像データの輝度分布とに対応するスタック輝度に比べ、オフセット値に対応する輝度だけ高い。しかしながら、投影装置では、黒の輝度が0に近いわけではなく、画像のコントラストで相対的に黒が表現される。つまり、投影装置では、直視型の表示装置とは異なり、絶対的な黒(輝度が略0である黒)の表示はあまり要求されない。従って、画像間で輝度分布が同一であれば、画像間で黒の輝度が異なっていても、画質上の妨害感は無い。   As shown in FIG. 3, the stack luminance corresponding to the distribution of the first frame and the projected luminance is set to an offset value compared to the stack luminance corresponding to the luminance distribution of the first frame and the intermediate image data in FIG. Only the corresponding brightness is high. However, in the projection apparatus, the luminance of black is not close to 0, and relatively black is expressed by the contrast of the image. In other words, unlike the direct-view display device, the projection device is not required to display absolute black (black whose luminance is substantially 0). Therefore, if the luminance distribution is the same between the images, there is no sense of hindrance in image quality even if the luminance of black differs between the images.

なお、本実施例では、第1画像の輝度特性が第2画像の輝度特性と同じであることを前提としたが、これに限られない。第1画像の輝度特性と第2画像の輝度特性が互いに近づくように、第1投影装置と第2投影装置の少なくとも一方において種々の調整が行われてもよい。例えば、投影輝度、発光部の発光輝度、変調パネルからの光の輝度、投影レンズからの光の輝度、等を検出する輝度センサを投影装置に設けてもよい。そして、投影装置が、輝度センサの検出値に基づいて、自身の輝度特性が他の投影装置の輝度特性に近づくように、自身の処理特性を自動で調整してもよい。処理特性は、階調値と変調率の対応関係の特性、輝度制御データと発光部の発光輝度との対応関係の特性、等である。   In this embodiment, it is assumed that the luminance characteristic of the first image is the same as the luminance characteristic of the second image, but the present invention is not limited to this. Various adjustments may be made in at least one of the first projection device and the second projection device so that the luminance characteristics of the first image and the luminance characteristics of the second image approach each other. For example, the projection device may be provided with a brightness sensor that detects projection brightness, light emission brightness of the light emitting unit, light brightness from the modulation panel, light brightness from the projection lens, and the like. Then, based on the detection value of the brightness sensor, the projection apparatus may automatically adjust its processing characteristics so that its own brightness characteristics approach the brightness characteristics of other projection apparatuses. The processing characteristics include a correspondence characteristic between the gradation value and the modulation rate, a correspondence characteristic between the luminance control data and the light emission luminance of the light emitting unit, and the like.

<実施例2>
以下、本発明の実施例2について説明する。なお、以下では、実施例1と異なる点(構成、処理、等)について詳しく説明し、実施例1と同じ点についての説明は省略する。本実施例では、複数の投影装置のそれぞれに同じ入力画像データが入力される。そして、複数の投影装置のそれぞれにおいて、自身のための出力画像データが生成される。本実施例では、投影装置の間での画像データの伝送は行われずに、投影装置の役割に関する情報のみが投影装置の間で伝送される。
<Example 2>
Embodiment 2 of the present invention will be described below. In the following, points (configuration, processing, etc.) different from those in the first embodiment will be described in detail, and descriptions of the same points as those in the first embodiment will be omitted. In this embodiment, the same input image data is input to each of the plurality of projection apparatuses. Then, output image data for itself is generated in each of the plurality of projection apparatuses. In this embodiment, image data is not transmitted between the projection apparatuses, and only information regarding the role of the projection apparatus is transmitted between the projection apparatuses.

図4は、本実施例に係る投影システムの構成例を示すブロック図である。図4において、実施例1(図1)と同じ機能部には、実施例1と同じ符号が付されている。図4に示すように、本実施例に係る投影システムは、分配器213、投影装置A、及び、投影装置Bを有する。分配器213には、入力画像データ(第1元画像データ)が入力される。分配器213は、入力画像データを投影装置A,Bへ出力する。   FIG. 4 is a block diagram illustrating a configuration example of the projection system according to the present embodiment. 4, the same reference numerals as those in the first embodiment are assigned to the same functional units as those in the first embodiment (FIG. 1). As shown in FIG. 4, the projection system according to the present embodiment includes a distributor 213, a projection apparatus A, and a projection apparatus B. The distributor 213 receives input image data (first original image data). The distributor 213 outputs the input image data to the projection apparatuses A and B.

フレームレート変換部201A,201Bは、実施例1のフレームレート変換部101と同様の機能を有する。高域強調・高域抑圧部202A,202Bは、実施例1の高域強
調・高域抑圧部102と同様の機能を有する。輝度復元部206A,206Bは、実施例1の輝度復元部106と同様の機能を有する。基準輝度決定部207A,207Bは、実施例1の基準輝度決定部107と同様の機能を有する。
The frame rate conversion units 201A and 201B have the same functions as the frame rate conversion unit 101 of the first embodiment. The high frequency emphasis / high frequency suppression units 202A and 202B have the same functions as the high frequency emphasis / high frequency suppression unit 102 of the first embodiment. The luminance restoration units 206A and 206B have the same function as the luminance restoration unit 106 of the first embodiment. The reference luminance determining units 207A and 207B have the same function as the reference luminance determining unit 107 of the first embodiment.

非対称化処理部204Aは、飽和判断部103からの判断結果に応じて、第2元画像データと第3元画像データの一方を生成し、生成した画像データを装置間分配部205Aへ出力する。また、非対称化処理部204Aは、飽和判断部103からの判断結果に応じて、第2元画像データと第3元画像データの他方の生成を、非対称化処理部204Bに指示する。非対称化処理部204Bは、非対称化処理部204Aからの指示に応じて、第2元画像データと第3元画像データの上記他方である画像データを生成し、生成した画像データを装置間分配部205Bへ出力する。第2元画像データの生成方法、第3元画像データの生成方法、等は、実施例1と同じである。   The asymmetry processing unit 204A generates one of the second original image data and the third original image data according to the determination result from the saturation determination unit 103, and outputs the generated image data to the inter-apparatus distribution unit 205A. Further, the asymmetry processing unit 204A instructs the asymmetry processing unit 204B to generate the other of the second original image data and the third original image data according to the determination result from the saturation determination unit 103. The asymmetry processing unit 204B generates image data which is the other of the second original image data and the third original image data in response to an instruction from the asymmetry processing unit 204A, and distributes the generated image data to the inter-device distribution unit Output to 205B. The generation method of the second original image data, the generation method of the third original image data, and the like are the same as those in the first embodiment.

投影装置Aが実施例1の第1投影装置と同じ役割を担い、且つ、投影装置Bが実施例1の第2投影装置と同じ役割を担う場合には、非対称化処理部204Aは、第3元画像データを生成し、第3元画像データを装置間分配部205Aへ出力する。そして、非対称化処理部204Aは、第2元画像データの生成を非対称化処理部204Bに指示する。飽和判断部103からの判断結果が「飽和画素あり」である場合には、非対称化処理部204Aは、各画素の階調値がオフセット値である第2元画像データを生成するための指示を、非対称化処理部204Bへする。この指示は、制限処理に関する指示であるため、「制限情報」とも言える。その後、非対称化処理部204Bは、非対称化処理部204Aからの指示に応じて、第2元画像データを生成し、第2元画像データを装置間分配部205Bへ出力する。   When the projection apparatus A plays the same role as the first projection apparatus of the first embodiment and the projection apparatus B plays the same role as the second projection apparatus of the first embodiment, the asymmetry processing unit 204A Original image data is generated, and the third original image data is output to the inter-apparatus distribution unit 205A. Then, the asymmetry processing unit 204A instructs the asymmetry processing unit 204B to generate the second original image data. When the determination result from the saturation determination unit 103 is “with saturated pixels”, the asymmetry processing unit 204A issues an instruction to generate second original image data in which the gradation value of each pixel is an offset value. To the asymmetry processing unit 204B. Since this instruction is an instruction related to the restriction process, it can be said to be “restriction information”. Thereafter, the asymmetry processing unit 204B generates second original image data in response to an instruction from the asymmetry processing unit 204A, and outputs the second original image data to the inter-device distribution unit 205B.

投影装置Aが第2投影装置と同じ役割を担い、且つ、投影装置Bが第1投影装置と同じ役割を担う場合には、非対称化処理部204Aは、第2元画像データを生成し、第2元画像データを装置間分配部205Aへ出力する。そして、非対称化処理部204Aは、第3元画像データの生成を非対称化処理部204Bに指示する。その後、非対称化処理部204Bは、非対称化処理部204Aからの指示に応じて、第3元画像データを生成し、第3元画像データを装置間分配部205Bへ出力する。   When the projection apparatus A plays the same role as the second projection apparatus and the projection apparatus B plays the same role as the first projection apparatus, the asymmetry processing unit 204A generates the second original image data, and The binary image data is output to the inter-apparatus distribution unit 205A. Then, the asymmetry processing unit 204A instructs the asymmetry processing unit 204B to generate the third original image data. Thereafter, the asymmetry processing unit 204B generates third original image data in response to an instruction from the asymmetry processing unit 204A, and outputs the third original image data to the inter-device distribution unit 205B.

装置間分配部205Aは、制限フレームデータと補償フレームデータの一方を生成し、生成した画像データを出力する。装置間分配部205Bは、制限フレームデータと補償フレームデータの他方を生成し、生成した画像データを出力する。具体的には、投影装置Aが第1投影装置と同じ役割を担い、且つ、投影装置Bが第2投影装置と同じ役割を担う場合には、装置間分配部205Aは制限フレームデータを生成し、装置間分配部205Bは補償フレームデータを生成する。投影装置Aが第2投影装置と同じ役割を担い、且つ、投影装置Bが第1投影装置と同じ役割を担う場合には、装置間分配部205Aは補償フレームデータを生成し、装置間分配部205Bは制限フレームデータを生成する。制限フレームデータの生成方法、補償フレームデータの生成方法、等は、実施例1と同じである。本実施例では、投影装置Aと投影装置Bのそれぞれにおいて、高域強調フレームデータが生成される。そのため、投影装置Aと投影装置Bのそれぞれにおいて、自身で生成された高域強調フレームデータを用いて制限フレームデータも補償フレームデータも生成することができる。   The inter-apparatus distribution unit 205A generates one of limited frame data and compensation frame data, and outputs the generated image data. The inter-apparatus distribution unit 205B generates the other of the limited frame data and the compensation frame data, and outputs the generated image data. Specifically, when the projection apparatus A plays the same role as the first projection apparatus and the projection apparatus B plays the same role as the second projection apparatus, the inter-apparatus distribution unit 205A generates restricted frame data. The inter-apparatus distribution unit 205B generates compensation frame data. When the projection apparatus A plays the same role as the second projection apparatus and the projection apparatus B plays the same role as the first projection apparatus, the inter-apparatus distribution unit 205A generates compensation frame data, and the inter-apparatus distribution unit 205B generates restricted frame data. The method for generating restricted frame data, the method for generating compensation frame data, and the like are the same as those in the first embodiment. In the present embodiment, high frequency emphasis frame data is generated in each of the projection apparatus A and the projection apparatus B. Therefore, each of the projection apparatus A and the projection apparatus B can generate both the limited frame data and the compensation frame data using the high-frequency emphasized frame data generated by itself.

なお、第1投影装置の役割を担う投影装置などから、第2投影装置の役割を担う投影装置へ、制限処理による階調値の変化量を示す情報が出力されてもよい。この情報も「制限情報」と言える。そして、第2投影装置の役割を担う投影装置では、高域強調フレームデータを用いずに、制限処理による階調値の変化量を示す情報を用いて、補償フレームデータが生成されてもよい。それにより、第2投影装置の役割を担う投影装置において、制限
処理による階調値の変化量を高域強調フレームデータから判断する処理が不要となるため、処理負荷を低減することができる。
Note that information indicating the amount of change in the gradation value due to the restriction process may be output from a projection apparatus that serves as the first projection apparatus to a projection apparatus that serves as the second projection apparatus. This information can also be called “restriction information”. And in the projection apparatus which plays the role of a 2nd projection apparatus, compensation frame data may be produced | generated using the information which shows the variation | change_quantity of the gradation value by a restriction | limiting process, without using high frequency emphasis frame data. Thereby, in the projection apparatus that plays the role of the second projection apparatus, it is not necessary to determine the amount of change in the gradation value due to the restriction process from the high-frequency emphasized frame data, so that the processing load can be reduced.

切り替えスイッチ208A,208Bは、同期形成部109A,109Bに実施例1と同様のデータが入力されるように、画像データの伝送路、輝度制御データの伝送路、等を切り替える。   The changeover switches 208A and 208B switch the image data transmission path, the luminance control data transmission path, and the like so that the same data as in the first embodiment is input to the synchronization forming units 109A and 109B.

具体的には、以下の処理が実現されるように、切り替えスイッチ208Aが伝送路を切り替える。

・第1フレームの期間において、装置間分配部205Aから出力された画像データを、同期形成部109Aへ導く処理
・第2フレームの期間において、高域強調・高域抑圧部202Aから出力された高域抑圧フレームデータを、同期形成部109Aへ導く処理
・第1フレームの期間において、輝度復元部206Aから出力された輝度制御データを、同期形成部109Aへ導く処理
・第2フレームの期間において、基準輝度決定部207Aから出力された輝度制御データを、同期形成部109Aへ導く処理
Specifically, the changeover switch 208A switches the transmission path so that the following processing is realized.

A process for guiding the image data output from the inter-apparatus distribution unit 205A to the synchronization forming unit 109A in the first frame period. In the second frame period, the high frequency output from the high frequency emphasis / high frequency suppression unit 202A. Processing for deriving region-suppressed frame data to synchronization forming unit 109A. Processing for deriving luminance control data output from luminance restoring unit 206A to synchronization forming unit 109A in the first frame period. Reference in second frame period. Processing for guiding the brightness control data output from the brightness determining unit 207A to the synchronization forming unit 109A

また、以下の処理が実現されるように、切り替えスイッチ208Bが伝送路を切り替える。

・第1フレームの期間において、装置間分配部205Bから出力された画像データを、同期形成部109Bへ導く処理
・第2フレームの期間において、高域強調・高域抑圧部202Bから出力された高域抑圧フレームデータを、同期形成部109Bへ導く処理
・第1フレームの期間において、輝度復元部206Bから出力された輝度制御データを、同期形成部109Bへ導く処理
・第2フレームの期間において、基準輝度決定部207Bから出力された輝度制御データを、同期形成部109Bへ導く処理
The changeover switch 208B switches the transmission path so that the following processing is realized.

A process for guiding the image data output from the inter-apparatus distribution unit 205B to the synchronization forming unit 109B during the first frame period. The high frequency output from the high frequency emphasis / high frequency suppression unit 202B during the second frame period. Processing for deriving region-suppressed frame data to synchronization forming unit 109B. Processing for deriving luminance control data output from luminance restoring unit 206B to synchronization forming unit 109B in the first frame period. Reference in second frame period. Processing for guiding the luminance control data output from the luminance determining unit 207B to the synchronization forming unit 109B

以上述べた構成によれば、投影装置Aと投影装置Bの一方において、実施例1の第1画像と同じ画像を表示することができ、投影装置Aと投影装置Bの他方において、実施例1の第2画像と同じ画像を表示することができる。そのため、本実施例においても、実施例1と同様に、合成画像の画質を高精度に向上することができる。   According to the configuration described above, the same image as the first image of the first embodiment can be displayed on one of the projection apparatus A and the projection apparatus B, and the first embodiment can be displayed on the other of the projection apparatus A and the projection apparatus B. The same image as the second image can be displayed. Therefore, also in the present embodiment, as in the first embodiment, the image quality of the composite image can be improved with high accuracy.

さらに、本実施例では、投影装置の間での画像データの伝送は行われずに、データサイズが小さいデータ(指示;情報)のみが投影装置の間で伝送される。そのため、本実施例では、投影装置の間でのデータの伝送時間を短縮することができ、合成画像の表示に要する時間を短縮することができる。また、本実施例では、投影装置の間で伝送されるデータのデータサイズが小さいため、投影装置の間でのデータの伝送に高速インターフェース(高速データ通信が可能なインターフェース)を用いる必要がない。そして、上記伝送時間を短縮することにより、同期処理のために一時的に保持する必要があるデータ(伝送時間分のデータ)のデータサイズを低減することができ、同期形成部が有する記憶部の記憶容量を低減することができる。即ち、同期形成部が有する記憶部として、記憶容量の小さい安価な記憶部を用いることができる。そのため、各投影装置のコストを低減することができる。   Further, in this embodiment, image data is not transmitted between the projection apparatuses, and only data (instruction; information) having a small data size is transmitted between the projection apparatuses. Therefore, in this embodiment, the data transmission time between the projection apparatuses can be shortened, and the time required for displaying the composite image can be shortened. In this embodiment, since the data size of data transmitted between the projection apparatuses is small, it is not necessary to use a high-speed interface (interface capable of high-speed data communication) for data transmission between the projection apparatuses. By shortening the transmission time, the data size of data (data for the transmission time) that needs to be temporarily held for the synchronization process can be reduced, and the storage unit included in the synchronization forming unit The storage capacity can be reduced. That is, an inexpensive storage unit having a small storage capacity can be used as the storage unit included in the synchronization forming unit. Therefore, the cost of each projection apparatus can be reduced.

なお、図5に示すように、図4の分配器213の代わりに、互いに異なる信号源1,2が使用されてもよい。図5の例では、信号源1が投影装置Aに画像データを出力し、信号源2が、信号源1からの画像データの出力に同期して、投影装置Bに画像データを出力する。信号源1,2が出力する画像データは、入力画像データ(第1元画像データ)であってもよいし、そうでなくてもよい。例えば、第1画像データと第2画像データが予め生成され、第1画像データと第2画像データの一方が信号源1に予め記録され、第1画像データと第2画像データの他方が信号源2に予め記録されてもよい。そして、第1画像データと第2画像データの一方を信号源1が出力し、第1画像データと第2画像データの他方を信号源2が出力してもよい。そのような構成によれば、第1画像データと第2画像データを生成する機能を投影装置が有していなくても、高画質な合成画像の表示が可能となる。そして、投影装置のコストを大幅に低減することができる。   As shown in FIG. 5, different signal sources 1 and 2 may be used instead of the distributor 213 in FIG. In the example of FIG. 5, the signal source 1 outputs image data to the projection apparatus A, and the signal source 2 outputs image data to the projection apparatus B in synchronization with the output of the image data from the signal source 1. The image data output from the signal sources 1 and 2 may or may not be input image data (first original image data). For example, the first image data and the second image data are generated in advance, one of the first image data and the second image data is recorded in advance in the signal source 1, and the other of the first image data and the second image data is the signal source. 2 may be recorded in advance. Then, the signal source 1 may output one of the first image data and the second image data, and the signal source 2 may output the other of the first image data and the second image data. According to such a configuration, it is possible to display a high-quality composite image even if the projection apparatus does not have a function of generating the first image data and the second image data. And the cost of a projection apparatus can be reduced significantly.

<実施例3>
以下、本発明の実施例3について説明する。なお、以下では、実施例1,2と異なる点(構成、処理、等)について詳しく説明し、実施例1,2と同じ点についての説明は省略する。本実施例では、実施例1と同様に、1台の投影装置にのみ入力画像データが入力される例を説明する。しかし、本実施例の処理は、各投影装置に入力画像データが入力される構成でも実施可能である。本実施例では、複数の投影装置が、表示可能な輝度の範囲(ダイナミックレンジ)が互いに異なる2台以上の投影装置を含む。ダイナミックレンジは、「表示可能な階調値の範囲である階調範囲」とも言える。
<Example 3>
Embodiment 3 of the present invention will be described below. In the following, differences (configuration, processing, etc.) from the first and second embodiments will be described in detail, and the description of the same points as the first and second embodiments will be omitted. In the present embodiment, as in the first embodiment, an example in which input image data is input to only one projector will be described. However, the processing of the present embodiment can also be implemented with a configuration in which input image data is input to each projection apparatus. In the present embodiment, the plurality of projection devices include two or more projection devices having different displayable luminance ranges (dynamic ranges). It can be said that the dynamic range is “a gradation range that is a range of gradation values that can be displayed”.

ダイナミックレンジが非常に広い表示装置、非常に広いダイナミックレンジが規定された画像フォーマット(画像データのデータフォーマット)、等が提案されている。非常に広いダイナミックレンジは、「HDR(High Dynamic Range)」などと呼ばれる。本実施例では、HDR非対応の投影装置を投影装置Aとして用い、HDR対応の投影装置を投影装置Bとして用いる例を説明する。HDR非対応の投影装置は、ダイナミックレンジが狭い投影装置であり、HDR対応の投影装置は、ダイナミックレンジが広い投影装置である。   A display device having a very wide dynamic range, an image format in which a very wide dynamic range is defined (data format of image data), and the like have been proposed. The very wide dynamic range is called “HDR (High Dynamic Range)” or the like. In the present embodiment, an example in which a non-HDR compatible projection apparatus is used as the projection apparatus A and an HDR compatible projection apparatus is used as the projection apparatus B will be described. Projectors that do not support HDR are projectors that have a narrow dynamic range, and projectors that support HDR are projectors that have a wide dynamic range.

図6は、本実施例に係る投影システムの構成例を示すブロック図である。図6において、実施例1(図1)と同じ機能部には、実施例1と同じ符号が付されている。図6に示すように、本実施例に係る投影システムは、投影装置Aと投影装置Bを有する。   FIG. 6 is a block diagram illustrating a configuration example of the projection system according to the present embodiment. In FIG. 6, the same functional parts as those in the first embodiment (FIG. 1) are denoted by the same reference numerals as those in the first embodiment. As shown in FIG. 6, the projection system according to the present embodiment includes a projection apparatus A and a projection apparatus B.

ダイナミックレンジ取得部313は、複数の投影装置のそれぞれについて、ダイナミックレンジに関するレンジ情報を取得する(レンジ情報取得処理)。本実施例では、ダイナミックレンジ取得部313は、投影装置Aのレンジ情報を予め記憶しており、投影装置Bのレンジ情報を投影装置Bから取得する。なお、レンジ情報の取得方法は特に限定されない。例えば、ユーザによってダイナミックレンジが指定されることにより、レンジ情報が取得されてもよい。インターネットからレンジ情報が取得されてもよい。投影装置のダイナミックレンジが変更可能である場合には、ダイナミックレンジの拡大、ダイナミックレンジの縮小、等が適宜行われてもよい。   The dynamic range acquisition unit 313 acquires range information regarding the dynamic range for each of the plurality of projection apparatuses (range information acquisition process). In the present embodiment, the dynamic range acquisition unit 313 stores range information of the projection apparatus A in advance, and acquires range information of the projection apparatus B from the projection apparatus B. In addition, the acquisition method of range information is not specifically limited. For example, range information may be acquired by specifying a dynamic range by a user. Range information may be acquired from the Internet. When the dynamic range of the projection apparatus can be changed, the dynamic range may be increased, the dynamic range may be reduced, and the like as appropriate.

飽和判断部303は、高域強調・高域抑圧部102から出力された高域強調フレームデータに飽和画素が存在するか否かを判断する。本実施例では、高域強調フレームデータと、ダイナミックレンジ取得部313によって取得されたレンジ情報とに基づいて、飽和画素の有無が判断される。具体的には、レンジ情報によって示されたダイナミックレンジ(階調範囲)の外側の階調値を有する画素が、飽和画素として検出される。この処理が、複数の投影装置のそれぞれについて行われる。HDR対応の投影装置については、飽和画素が検出されることは略無い。   The saturation determination unit 303 determines whether there is a saturation pixel in the high frequency emphasis frame data output from the high frequency emphasis / high frequency suppression unit 102. In this embodiment, the presence / absence of a saturated pixel is determined based on the high frequency emphasis frame data and the range information acquired by the dynamic range acquisition unit 313. Specifically, a pixel having a gradation value outside the dynamic range (gradation range) indicated by the range information is detected as a saturated pixel. This process is performed for each of the plurality of projection apparatuses. For HDR compatible projection devices, it is almost impossible to detect saturated pixels.

なお、飽和画素か否かの判断に用いる所定範囲は、ダイナミックレンジと異なっていてもよい。また、一部の投影装置についてのみ、飽和判断部303の上記処理が行われてもよい。例えば、実施例1の第1投影装置の役割を担う投影装置についてのみ、上記処理が行われてもよい。本実施例では、各投影装置のレンジ情報に基づいて、実施例1の第1投影装置の役割を担う投影装置と、実施例1の第2投影装置の役割を担う投影装置とが選択される。なお、投影装置の選択方法は特に限定されない。実施例1の第1投影装置の役割を担う投影装置と、実施例1の第2投影装置の役割を担う投影装置とは、予め定められていてもよい。   Note that the predetermined range used for determining whether or not the pixel is a saturated pixel may be different from the dynamic range. Further, the above processing of the saturation determination unit 303 may be performed only for some projection apparatuses. For example, the above process may be performed only for the projection apparatus that plays the role of the first projection apparatus of the first embodiment. In the present embodiment, based on the range information of each projection apparatus, the projection apparatus that plays the role of the first projection apparatus of Embodiment 1 and the projection apparatus that plays the role of the second projection apparatus of Embodiment 1 are selected. . In addition, the selection method of a projection apparatus is not specifically limited. The projection device that plays the role of the first projection device of Embodiment 1 and the projection device that plays the role of the second projection device of Embodiment 1 may be determined in advance.

装置間分配部305は、ダイナミックレンジ取得部313によって取得された各レンジ情報に基づいて、複数の投影装置から第1投影装置と第2投影装置を選択する(装置選択処理)。本実施例では、装置間分配部305は、複数の投影装置のうち、ダイナミックレンジが最も広い投影装置でない投影装置を、第1投影装置として選択する。そして、装置間分配部305は、複数の投影装置のうち、ダイナミックレンジが第1投影装置の階調範囲よりも広い投影装置を、第2投影装置として選択する。本実施例では、投影装置Aのダイナミックレンジは、投影装置Bのダイナミックレンジよりも狭い。そのため、投影装置Aが第1投影装置として選択され、投影装置Bが第2投影装置として選択される。   The inter-apparatus distribution unit 305 selects a first projection apparatus and a second projection apparatus from a plurality of projection apparatuses based on each range information acquired by the dynamic range acquisition unit 313 (apparatus selection process). In the present embodiment, the inter-apparatus distribution unit 305 selects a projection apparatus that is not the projection apparatus having the widest dynamic range among the plurality of projection apparatuses as the first projection apparatus. Then, the inter-apparatus distribution unit 305 selects, as the second projection device, a projection device having a dynamic range wider than the gradation range of the first projection device among the plurality of projection devices. In this embodiment, the dynamic range of the projection apparatus A is narrower than the dynamic range of the projection apparatus B. Therefore, the projection apparatus A is selected as the first projection apparatus, and the projection apparatus B is selected as the second projection apparatus.

装置間分配部305は、高域強調・高域抑圧部102から出力された高域強調フレームデータに制限処理を施すことにより、制限フレームデータを生成する。本実施例では、制限処理として、第1投影装置のダイナミックレンジの外側の階調値を、第1投影装置のダイナミックレンジの内側の階調値に制限する処理が行われる。なお、制限処理で使用される所定範囲は、ダイナミックレンジと異なっていてもよい。   The inter-device distribution unit 305 generates restriction frame data by performing restriction processing on the high frequency emphasized frame data output from the high frequency emphasis / high frequency suppression unit 102. In the present embodiment, as the limiting process, a process of limiting the gradation value outside the dynamic range of the first projection apparatus to the gradation value inside the dynamic range of the first projection apparatus is performed. Note that the predetermined range used in the restriction process may be different from the dynamic range.

また、装置間分配部305は、高域強調・高域抑圧部102から出力された高域強調フレームデータの階調値に、上記制限処理による階調値の変化量を加算することにより、補償フレームデータを生成する。即ち、本実施例では、制限前画像データ(制限前画像データのフレームデータ)と等しい画像データが、第2元画像データとして常に使用される。具体的には、高域強調フレームデータが第2元画像データとして常に使用される。   Further, the inter-apparatus distribution unit 305 compensates for the gradation value of the high-frequency emphasis frame data output from the high-frequency emphasis / high-frequency suppression unit 102 by adding the change amount of the tone value due to the restriction process to the tone value of the high-frequency emphasis frame data. Generate frame data. That is, in this embodiment, image data equal to the pre-restriction image data (frame data of the pre-restriction image data) is always used as the second original image data. Specifically, the high frequency emphasis frame data is always used as the second original image data.

基準輝度決定部307A,307Bは、実施例1の基準輝度決定部107と同様の機能を有する。但し、本実施例では、基準輝度決定部307Aは、輝度制御データを同期形成部109Aに直接出力し、基準輝度決定部307Bは、輝度制御データを同期形成部109Bに直接出力する。   The reference luminance determining units 307A and 307B have the same function as the reference luminance determining unit 107 of the first embodiment. However, in this embodiment, the reference luminance determining unit 307A directly outputs the luminance control data to the synchronization forming unit 109A, and the reference luminance determining unit 307B directly outputs the luminance control data to the synchronization forming unit 109B.

切り替えスイッチ308は、実施例1の切り替えスイッチ108と同様の機能を有する。但し、本実施例では、切り替えスイッチ308は、輝度制御データの伝送路の切り替えは行わず、以下の処理が実現されるように画像データの伝送路の切り替えを行う。

・第1フレームの期間において、装置間分配部305から出力された制限フレームデータを、第1投影装置の同期形成部へ導く処理
・第1フレームの期間において、装置間分配部305から出力された補償フレームデータを、第2投影装置の同期形成部へ導く処理
・第2フレームの期間において、高域強調・高域抑圧部102から出力された高域抑圧フレームデータを、第1投影装置の同期形成部と、第2投影装置の同期形成部とへ導く処理
The changeover switch 308 has the same function as the changeover switch 108 of the first embodiment. However, in this embodiment, the changeover switch 308 does not switch the transmission path of the luminance control data, but switches the transmission path of the image data so that the following processing is realized.

A process for guiding the limited frame data output from the inter-apparatus distribution unit 305 during the first frame period to the synchronization forming unit of the first projection apparatus. The output from the inter-apparatus distribution unit 305 during the first frame period. Processing for guiding the compensation frame data to the synchronization forming unit of the second projection apparatus. In the period of the second frame, the high-frequency suppression frame data output from the high-frequency emphasis / high-frequency suppression unit 102 is synchronized with the first projection apparatus. Processing leading to the forming unit and the synchronization forming unit of the second projection device

本実施例に係る投影システムの処理の具体例と効果について、図7を用いて説明する。本実施例では、図7に示すように、第1投影装置(投影装置A)にのみ入力画像データが
入力される。そして、第1投影装置により、第1投影装置と第2投影装置(投影装置B)のそれぞれについて、出力画像データが生成される。第2投影装置の出力画像データは、第1投影装置から第2投影装置へ伝送され、第2投影装置によって表示される。
Specific examples and effects of the processing of the projection system according to the present embodiment will be described with reference to FIG. In this embodiment, as shown in FIG. 7, input image data is input only to the first projection apparatus (projection apparatus A). Then, the first projection device generates output image data for each of the first projection device and the second projection device (projection device B). The output image data of the second projection device is transmitted from the first projection device to the second projection device and displayed by the second projection device.

図7において、「DR1」は、第1投影装置のダイナミックレンジを示し、「DR2」は、第2投影装置のダイナミックレンジを示す。図7に示すように、本実施例では、第1投影装置のダイナミックレンジDR1は、第2投影装置のダイナミックレンジDR2よりも狭い。   In FIG. 7, “DR1” indicates the dynamic range of the first projector, and “DR2” indicates the dynamic range of the second projector. As shown in FIG. 7, in the present embodiment, the dynamic range DR1 of the first projection device is narrower than the dynamic range DR2 of the second projection device.

本実施例では、第1投影装置は、入力画像データから、中間画像データとして高域強調フレームデータを生成する。具体的には、図7に示すように、第1フレームと第1投影装置に対応する中間画像データ、及び、第1フレームと第2投影装置に対応する中間画像データとして、高域強調フレームデータが生成される。図7の例では、高域強調フレームデータは、第1投影装置のダイナミックレンジの外側の階調値を有する飽和画素を含む。しかし、第2投影装置のダイナミックレンジは広いため、高域強調フレームデータは、第2投影装置のダイナミックレンジの外側の階調値を有する飽和画素を含まない。   In the present embodiment, the first projection device generates high-frequency emphasized frame data as intermediate image data from the input image data. Specifically, as shown in FIG. 7, high-frequency emphasized frame data is used as intermediate image data corresponding to the first frame and the first projection device, and intermediate image data corresponding to the first frame and the second projection device. Is generated. In the example of FIG. 7, the high-frequency emphasis frame data includes saturated pixels having gradation values outside the dynamic range of the first projection device. However, since the dynamic range of the second projector is wide, the high-frequency emphasized frame data does not include saturated pixels having gradation values outside the dynamic range of the second projector.

本実施例では、図7に示すように、装置間分配部305は、高域強調フレームデータに制限処理を施すことにより、第1フレームと第1投影装置に対応する出力画像データを生成する。そして、装置間分配部305は、高域強調フレームデータに、制限処理による階調値の変化量を加算することにより、第1フレームと第2投影装置に対応する出力画像データを生成する。また、図7に示すように、第1投影装置は、第2フレーム、第1投影装置、及び、第2投影装置に対応する出力画像データとして高域抑圧フレームデータを生成する。   In this embodiment, as shown in FIG. 7, the inter-apparatus distribution unit 305 generates output image data corresponding to the first frame and the first projection device by performing restriction processing on the high-frequency emphasized frame data. Then, the inter-apparatus distribution unit 305 generates output image data corresponding to the first frame and the second projection apparatus by adding the change amount of the gradation value by the restriction process to the high frequency emphasis frame data. In addition, as illustrated in FIG. 7, the first projection device generates high-frequency suppression frame data as output image data corresponding to the second frame, the first projection device, and the second projection device.

第2投影装置のダイナミックレンジは広いため、上記加算後の階調値が第2投影装置のダイナミックレンジの外側の階調値となることは少ない。上記加算後の階調値が第2投影装置のダイナミックレンジの上限階調値(階調値の上限)を上回ったとしても、上記加算後の階調値と上限階調値との差は、制限処理による階調値の変化量よりも小さい。同様に、上記加算後の階調値が第2投影装置のダイナミックレンジの下限階調値(階調値の下限)を下回ったとしても、上記加算後の階調値と下限階調値との差は、制限処理による階調値の変化量よりも小さい。   Since the dynamic range of the second projector is wide, the gradation value after the addition is unlikely to be a gradation value outside the dynamic range of the second projector. Even if the gradation value after the addition exceeds the upper limit gradation value (the upper limit of the gradation value) of the dynamic range of the second projector, the difference between the gradation value after the addition and the upper limit gradation value is It is smaller than the change amount of the gradation value by the restriction process. Similarly, even if the gradation value after the addition falls below the lower limit gradation value (lower limit of the gradation value) of the dynamic range of the second projector, the difference between the gradation value after the addition and the lower limit gradation value is the same. The difference is smaller than the change amount of the gradation value due to the limiting process.

このように、本実施例でも、第1フレームと第1投影装置に対応する画像データに対する制限処理による階調値の変化は、第2フレームの画像データでは補われずに、当該第1フレームと第2投影装置に対応する画像データで補われる。それにより、合成画像の画質を高精度に向上することができる。   As described above, also in the present embodiment, the change in the gradation value due to the restriction process on the image data corresponding to the first frame and the first projection device is not supplemented by the image data of the second frame, and the first frame and Supplemented with image data corresponding to the second projection device. Thereby, the image quality of the composite image can be improved with high accuracy.

また、本実施例では、ダイナミックレンジが広い投影装置を第2投影装置として用いることで、高域強調フレームデータを第2元画像データとして常に使用することができる。これにより、発光部の発光輝度を変えずに、合成画像の輝度変動などを抑制することができる。具体的には、第1フレームと出力画像データの輝度分布とに対応するスタック輝度の分布として、図12において第1フレームと中間画像データの輝度分布とに対応するスタック輝度の分布と同等の分布を得ることができる。それにより、画像の再現性を維持しつつ、スタック投影による高輝度な表示(投影)を実現することができる。さらに、本実施例では、実施例1,2のオフセット値は使用されないため、オフセット値による輝度の増加は生じない。そのため、第1フレームと出力画像データの輝度分布とに対応するスタック輝度として、図12において第1フレームと中間画像データの輝度分布とに対応するスタック輝度と同等の輝度を得ることができる。   Further, in this embodiment, by using a projection device with a wide dynamic range as the second projection device, the high-frequency emphasized frame data can always be used as the second original image data. Thereby, the brightness | luminance fluctuation | variation of a synthesized image, etc. can be suppressed, without changing the light emission brightness of a light emission part. Specifically, as the distribution of the stack luminance corresponding to the first frame and the luminance distribution of the output image data, the distribution equivalent to the distribution of the stack luminance corresponding to the first frame and the luminance distribution of the intermediate image data in FIG. Can be obtained. As a result, it is possible to realize high-luminance display (projection) by stack projection while maintaining image reproducibility. Further, in the present embodiment, the offset values of the first and second embodiments are not used, and thus the luminance does not increase due to the offset value. Therefore, as the stack luminance corresponding to the first frame and the luminance distribution of the output image data, a luminance equivalent to the stack luminance corresponding to the first frame and the luminance distribution of the intermediate image data in FIG. 12 can be obtained.

<実施例4>
以下、本発明の実施例4について説明する。なお、以下では、実施例1〜3と異なる点(構成、処理、等)について詳しく説明し、実施例1〜3と同じ点についての説明は省略する。本実施例では、実施例1と同様に、1台の投影装置にのみ入力画像データが入力される例を説明する。しかし、本実施例の処理は、各投影装置に入力画像データが入力される構成でも実施可能である。本実施例では、入力画像データとして、複数の画像データが入力される。複数の入力画像データは、複数の投影装置によって表示されることを想定して生成された複数の画像データである。
<Example 4>
Embodiment 4 of the present invention will be described below. In the following, points (configuration, processing, etc.) different from those of the first to third embodiments will be described in detail, and the description of the same points as those of the first to third embodiments will be omitted. In the present embodiment, as in the first embodiment, an example in which input image data is input to only one projector will be described. However, the processing of the present embodiment can also be implemented with a configuration in which input image data is input to each projection apparatus. In this embodiment, a plurality of image data is input as input image data. The plurality of input image data are a plurality of image data generated on the assumption that they are displayed by a plurality of projection devices.

投影装置の画像表示における自由度の高さを活かした投影方法として、「プロジェクションマッピング」と呼ばれる投影方法が提案されている。プロジェクションマッピングでは、例えば、建造物の表面などを投影面として用いた投影が行われる。投影装置の画像表示における自由度の高さを活かした投影方法は、今後、盛んに提案されるものと考えられる。   A projection method called “projection mapping” has been proposed as a projection method utilizing the high degree of freedom in image display of the projection apparatus. In projection mapping, for example, projection is performed using the surface of a building as a projection plane. Projection methods that take advantage of the high degree of freedom in image display of the projection apparatus are considered to be actively proposed in the future.

一例として、互いに異なる2つの画像データに基づく2つの画像を合成して表示する場合を考える。直視型の表示装置を用いる場合は、「アルファブレンド」と呼ばれる合成方法を用いて2つの画像データの合成が行われる。アルファブレンドでは、例えば、2つの画像データの加重平均が、合成画像データとして生成される。しかしながら、画像データを合成する方法では、階調性、空間解像度、等が、合成前の画像データのそれらから低下してしまう。例えば、2つの画像データを0.5:0.5の重み(ブレンド率)で合成すると、階調性、空間解像度、等が半減してしまう。   As an example, consider a case where two images based on two different image data are combined and displayed. When a direct-view display device is used, two image data are combined using a combining method called “alpha blend”. In alpha blending, for example, a weighted average of two image data is generated as composite image data. However, in the method of synthesizing image data, gradation, spatial resolution, and the like are deteriorated from those of image data before synthesis. For example, when two image data are combined with a weight (blend rate) of 0.5: 0.5, gradation, spatial resolution, and the like are halved.

そこで、合成したい2つの画像の一方である画像I1を投影装置P1で表示し、2つの画像の他方であるI2を投影装置P2で画像I1に重ねて表示する。このような方法によれば、階調性、空間解像度、等の上記低下を抑制することができる。本実施例は、このような表示(投影)を想定した例である。   Therefore, the image I1 which is one of the two images to be synthesized is displayed by the projection device P1, and the image I1 which is the other of the two images is displayed by being superimposed on the image I1 by the projection device P2. According to such a method, it is possible to suppress the above-described decrease in gradation, spatial resolution, and the like. The present embodiment is an example assuming such display (projection).

図8は、本実施例に係る投影システムの構成例を示すブロック図である。図8において、実施例1,3(図1,6)と同じ機能部には、実施例1,3と同じ符号が付されている。図8に示すように、本実施例に係る投影システムは、第1投影装置と第2投影装置を有する。   FIG. 8 is a block diagram illustrating a configuration example of the projection system according to the present embodiment. In FIG. 8, the same reference numerals as those in the first and third embodiments are assigned to the same functional units as those in the first and third embodiments (FIGS. 1 and 6). As shown in FIG. 8, the projection system according to the present embodiment includes a first projection device and a second projection device.

フレームレート変換部401は、実施例1のフレームレート変換部101と同様の機能を有する。但し、本実施例では、フレームレート変換部401は、複数の入力画像データのそれぞれについて、フレームレート変換部101の処理と同様の処理を行う。本実施例では、複数の入力画像データとして、2つの入力画像データID1,ID2が入力される。入力画像データが静止画データである場合には、フレームレート変換部401は、当該静止画データを、変換動画データのフレームデータとして出力する。例えば、入力画像データID1が動画データであり、且つ、入力画像データID2が静止画データである場合には、フレームレート変換部401は、動画データID1から生成された変換動画データのフレームレートで、静止画データID2を繰り返し出力する。   The frame rate conversion unit 401 has the same function as the frame rate conversion unit 101 of the first embodiment. However, in this embodiment, the frame rate conversion unit 401 performs the same processing as the processing of the frame rate conversion unit 101 for each of a plurality of input image data. In this embodiment, two input image data ID1 and ID2 are input as a plurality of input image data. When the input image data is still image data, the frame rate conversion unit 401 outputs the still image data as frame data of converted moving image data. For example, when the input image data ID1 is moving image data and the input image data ID2 is still image data, the frame rate conversion unit 401 uses the frame rate of the converted moving image data generated from the moving image data ID1. Still image data ID2 is repeatedly output.

レイヤ情報取得部413は、複数の入力画像データのそれぞれについて、入力画像データに関するレイヤ情報(画像情報)を取得する(画像情報取得処理)。本実施例では、レイヤ情報として、入力画像データが静止画データであるか動画データであるかを示す情報が取得される。なお、レイヤ情報の取得方法は特に限定されない。例えば、ユーザによって指定された情報が、レンジ情報として取得されてもよい。入力画像データに付加されているメタデータ(ヘッダ情報)からレイヤ情報が抽出されてもよい。また、レイヤ情報は上記情報に限られない。例えば、入力画像データの優先順位を示す情報(前景の画像デー
タであるか背景の画像データであるかを示す種類情報、ブレンド率、等)が、レイヤ情報として使用されてもよい。
The layer information acquisition unit 413 acquires layer information (image information) related to the input image data for each of the plurality of input image data (image information acquisition process). In this embodiment, information indicating whether the input image data is still image data or moving image data is acquired as the layer information. In addition, the acquisition method of layer information is not specifically limited. For example, information specified by the user may be acquired as range information. Layer information may be extracted from metadata (header information) added to input image data. The layer information is not limited to the above information. For example, information indicating the priority order of input image data (type information indicating whether the image data is foreground image data or background image data, a blend rate, etc.) may be used as the layer information.

高域強調・高域抑圧部402は、複数の入力画像データのそれぞれについて、レイヤ情報取得部413によって取得されたレイヤ情報に基づいて、強調処理と抑圧処理を実行するか否かを判断する。「強調処理と抑圧処理を実行する」と判断された入力画像データについて、高域強調・高域抑圧部402は、フレームレート変換部401から出力されたフレームデータから高域強調フレームデータと高域抑圧フレームデータを生成する。そして、高域強調・高域抑圧部402は、高域強調フレームデータを飽和判断部403と装置間分配部405へ出力し、高域抑圧フレームデータを切り替えスイッチ408へ出力する。「強調処理と抑圧処理を実行しない」と判断された入力画像データについて、高域強調・高域抑圧部402は、フレームレート変換部401から出力されたフレームデータを、そのまま、飽和判断部403と装置間分配部405へ出力する。なお、フレームレート変換部401から出力されたフレームデータには飽和画素は存在しないため、フレームレート変換部401から出力されたフレームデータは、飽和判断部403へ出力されなくてもよい。   The high frequency emphasis / high frequency suppression unit 402 determines whether to perform enhancement processing and suppression processing for each of the plurality of input image data based on the layer information acquired by the layer information acquisition unit 413. For the input image data determined to “execute enhancement processing and suppression processing”, the high frequency enhancement / high frequency suppression unit 402 uses the high frequency enhanced frame data and the high frequency from the frame data output from the frame rate conversion unit 401. Generate suppression frame data. Then, the high frequency emphasis / high frequency suppression unit 402 outputs the high frequency emphasis frame data to the saturation determination unit 403 and the inter-device distribution unit 405, and outputs the high frequency suppression frame data to the changeover switch 408. For the input image data determined to “do not execute enhancement processing and suppression processing”, the high frequency enhancement / high frequency suppression unit 402 uses the frame data output from the frame rate conversion unit 401 as it is as the saturation determination unit 403. The data is output to the inter-apparatus distribution unit 405. Note that since no saturated pixel exists in the frame data output from the frame rate conversion unit 401, the frame data output from the frame rate conversion unit 401 may not be output to the saturation determination unit 403.

本実施例では、入力画像データが動画データである場合に、「強調処理と抑圧処理を実行する」と判断され、入力画像データが静止画データである場合に、「強調処理と抑圧処理を実行しない」と判断される。なお、判断方法は特に限定されない。例えば、入力画像データが前景の画像データである場合に、「強調処理と抑圧処理を実行する」と判断され、入力画像データが背景の画像データである場合に、「強調処理と抑圧処理を実行しない」と判断されてもよい。入力画像データのブレンド率が閾値以上である場合に、「強調処理と抑圧処理を実行する」と判断され、入力画像データのブレンド率が閾値未満である場合に、「強調処理と抑圧処理を実行しない」と判断されてもよい。   In this embodiment, when the input image data is moving image data, it is determined that “enhancement processing and suppression processing are executed”, and when the input image data is still image data, “enhancement processing and suppression processing is executed. It is judged as “No”. The determination method is not particularly limited. For example, when the input image data is foreground image data, it is determined that “enhancement processing and suppression processing are executed”, and when the input image data is background image data, “enhancement processing and suppression processing is executed. It may be determined that “no”. When the blend rate of the input image data is equal to or greater than the threshold, it is determined that “enhancement processing and suppression processing are executed”, and when the blend rate of the input image data is less than the threshold, “execute enhancement processing and suppression processing” is performed. It may be determined that “no”.

詳細は後述するが、本実施例では、「強調処理と抑圧処理を実行する」と判断された入力画像データが第1元画像データとして使用され、「強調処理と抑圧処理を実行しない」と判断された入力画像データが第2元画像データとして使用される。そのため、「強調処理と抑圧処理を実行するか否かの判断」は、「複数のレイヤ情報に基づいて、複数の入力画像データから第1元画像データと第2元画像データを選択する画像選択処理」とも言える。   Although details will be described later, in this embodiment, input image data determined to “execute enhancement processing and suppression processing” is used as the first original image data, and it is determined that “enhancement processing and suppression processing are not performed”. The inputted image data is used as the second original image data. Therefore, “determination of whether to perform enhancement processing and suppression processing” is “image selection for selecting first original image data and second original image data from a plurality of input image data based on a plurality of layer information” It can also be said to be “processing”.

なお、画像選択処理は行われなくてもよい。例えば、第1元画像データとして使用される入力画像データと、第2元画像データとして使用される入力画像データとが予め定められていてもよい。具体的には、第1投影装置が2つの入力端子T1,T2を有しており、入力端子T1に入力された画像データが第1元画像データとして使用され、入力端子T2に入力された画像データが第2元画像データとして使用されてもよい。そのような構成では、例えば、入力端子T1に動画データが入力され、入力端子T2に静止画データが入力される。   Note that the image selection process may not be performed. For example, input image data used as the first original image data and input image data used as the second original image data may be determined in advance. Specifically, the first projection device has two input terminals T1 and T2, and the image data input to the input terminal T1 is used as the first original image data, and the image input to the input terminal T2 is used. Data may be used as the second original image data. In such a configuration, for example, moving image data is input to the input terminal T1, and still image data is input to the input terminal T2.

飽和判断部403は、高域強調・高域抑圧部402から出力された各フレームデータ(高域強調フレームデータ、または、強調処理と抑圧処理が施されていないフレームデータ)について、フレームデータに飽和画素が存在するか否かを判断する。そして、飽和判断部403は、上記判断の結果を装置間分配部405へ出力する。飽和画素は、高域強調フレームデータに存在し得るものであり、未処理フレームデータ(強調処理と抑圧処理が施されていないフレームデータ)には存在しない。そのため、高域強調フレームデータについては判断結果として「飽和画素あり」または「飽和画素なし」が得られ、未処理フレームデータについては判断結果として「飽和画素なし」が得られる。本実施例では、未処理フレームデータは、第1投影装置に入力された静止画データである。   The saturation determination unit 403 saturates the frame data for each frame data output from the high frequency emphasis / high frequency suppression unit 402 (high frequency emphasis frame data or frame data not subjected to emphasis processing and suppression processing). It is determined whether or not a pixel exists. Then, saturation determination section 403 outputs the result of the determination to inter-apparatus distribution section 405. Saturated pixels can be present in high-frequency emphasized frame data, and are not present in unprocessed frame data (frame data that has not been subjected to enhancement processing and suppression processing). For this reason, “with saturated pixels” or “without saturated pixels” is obtained as a determination result for high-frequency emphasized frame data, and “without saturated pixels” is obtained as a determination result for unprocessed frame data. In this embodiment, the unprocessed frame data is still image data input to the first projection device.

装置間分配部405は、飽和判断部403の判断結果に基づいて、高域強調・高域抑圧部402から出力された高域強調フレームデータに制限処理を施すことにより、制限フレームデータを生成する。また、装置間分配部405は、高域強調・高域抑圧部102から出力された未処理フレームデータの階調値に、上記制限処理による階調値の変化量を加算することにより、補償フレームデータを生成する。制限フレームデータは切り替えスイッチ408へ出力され、補償フレームデータは同期形成部109Bへ出力される。本実施例では、第1フレームの期間と第2フレームの期間の両方において、補償フレームデータが同期形成部109Bへ導かれる。   Based on the determination result of the saturation determination unit 403, the inter-apparatus distribution unit 405 generates restriction frame data by performing restriction processing on the high frequency emphasis frame data output from the high frequency emphasis / high frequency suppression unit 402. . Further, the inter-apparatus distribution unit 405 adds the amount of change in the gradation value due to the restriction process to the gradation value of the unprocessed frame data output from the high-frequency emphasis / high-frequency suppression unit 102, thereby obtaining a compensation frame. Generate data. The limited frame data is output to the changeover switch 408, and the compensation frame data is output to the synchronization forming unit 109B. In this embodiment, the compensation frame data is guided to the synchronization forming unit 109B in both the first frame period and the second frame period.

第3元画像データは、制限処理の対象である。そのため、本実施例では、高域強調フレームデータが第3元画像データとして使用される。そして、第1元画像データは、第3元画像データの元となる画像データである。そのため、本実施例では、「強調処理と抑圧処理を実行する」と判断された入力画像データが第1元画像データとして使用される。また、第2元画像データは、制限処理による階調値の変化量の加算の対象である。そのため、本実施例では、「強調処理と抑圧処理を実行しない」と判断された入力画像データが第2元画像データとして使用される。具体的には、「強調処理と抑圧処理を実行しない」と判断された入力画像データから得られた未処理フレームデータが第2元画像データとして使用される。本実施例では、第1投影装置に入力された静止画データが第2元画像データとして使用される。   The third original image data is a target of restriction processing. Therefore, in this embodiment, the high frequency emphasis frame data is used as the third original image data. The first original image data is image data that is the source of the third original image data. Therefore, in this embodiment, input image data determined to “execute enhancement processing and suppression processing” is used as the first original image data. The second original image data is a target of addition of the change amount of the gradation value by the restriction process. For this reason, in this embodiment, input image data determined as “not performing enhancement processing and suppression processing” is used as second original image data. Specifically, unprocessed frame data obtained from input image data determined to “not execute enhancement processing and suppression processing” is used as second original image data. In this embodiment, still image data input to the first projection device is used as second original image data.

切り替えスイッチ408は、実施例1の切り替えスイッチ108と同様の機能を有する。但し、本実施例では、切り替えスイッチ408は、輝度制御データの伝送路の切り替えは行わず、以下の処理が実現されるように画像データの伝送路の切り替えを行う。

・第1フレームの期間において、装置間分配部405から出力された制限フレームデータを、同期形成部109Aへ導く処理
・第2フレームの期間において、高域強調・高域抑圧部402から出力された高域抑圧フレームデータを、同期形成部109Aへ導く処理
The changeover switch 408 has the same function as the changeover switch 108 of the first embodiment. However, in the present embodiment, the changeover switch 408 does not switch the transmission path of the luminance control data, but switches the transmission path of the image data so that the following processing is realized.

A process of guiding the limited frame data output from the inter-apparatus distribution unit 405 to the synchronization forming unit 109A in the first frame period. A process of outputting from the high frequency emphasis / high frequency suppression unit 402 in the second frame period. Processing for guiding high frequency suppression frame data to the synchronization forming unit 109A

なお、入力画像データID1と入力画像データID2の両方について、「強調処理と抑圧処理を実行する」と判断されることがある。その場合には、例えば、2つの入力画像データID1,ID2から生成された2つの高域強調フレームデータのうち、飽和画素が存在する高域強調フレームデータが、第3元画像データとして使用される。また、上記2つの高域強調フレームデータのうち、飽和画素が存在しない高域強調フレームデータが、第2元画像データとして使用される。そして、第1フレームの期間において、制限フレームデータが同期形成部109Aへ導かれ、補償フレームデータが同期形成部109Bへ導かれる。また、第2フレームの期間において、2つの入力画像データID1,ID2から生成された2つの高域抑圧フレームデータの一方が同期形成部109Aへ導かれ、2つの高域抑圧フレームデータの他方が同期形成部109Bへ導かれる。   It may be determined that “enhancement processing and suppression processing are executed” for both input image data ID1 and input image data ID2. In that case, for example, high-frequency emphasized frame data in which saturated pixels are present among the two high-frequency emphasized frame data generated from the two input image data ID1 and ID2 is used as the third original image data. . Of the two high-frequency emphasized frame data, high-frequency emphasized frame data having no saturated pixel is used as the second original image data. In the period of the first frame, the limited frame data is guided to the synchronization forming unit 109A, and the compensation frame data is guided to the synchronization forming unit 109B. Further, in the period of the second frame, one of the two high-frequency suppression frame data generated from the two input image data ID1 and ID2 is guided to the synchronization forming unit 109A, and the other of the two high-frequency suppression frame data is synchronized. Guided to forming part 109B.

上記2つの高域強調フレームデータの両方に飽和画素が存在する場合には、2つの高域強調フレームデータのうち、飽和画素の飽和量が相対的に大きい高域強調フレームデータが、第3元画像データとして使用されてもよい。そして、2つの高域強調フレームデータのうち、飽和画素の飽和量が相対的に小さい高域強調フレームデータが、第2元画像データとして使用されてもよい。飽和画素の階調値が所定範囲の上限階調値よりも大きい場合において、「飽和量」は「上限階調値と飽和画素の階調値との差」を意味する。飽和画素の階調値が所定範囲の下限階調値よりも小さい場合において、「飽和量」は「下限階調値と飽和画素の階調値との差」を意味する。   When saturated pixels exist in both of the two high-frequency emphasized frame data, among the two high-frequency emphasized frame data, the high-frequency emphasized frame data in which the saturation amount of the saturated pixels is relatively large is the third element. It may be used as image data. Of the two high-frequency emphasized frame data, high-frequency emphasized frame data in which the saturation amount of saturated pixels is relatively small may be used as the second original image data. When the gradation value of the saturated pixel is larger than the upper limit gradation value of the predetermined range, “saturation amount” means “difference between the upper limit gradation value and the gradation value of the saturation pixel”. When the gradation value of the saturated pixel is smaller than the lower limit gradation value of the predetermined range, the “saturation amount” means “the difference between the lower limit gradation value and the gradation value of the saturated pixel”.

本実施例に係る投影システムの処理の具体例と効果について、図9を用いて説明する。本実施例では、図9に示すように、第1投影装置に入力画像データID1,ID2が入力される。そして、第1投影装置により、第1投影装置と第2投影装置のそれぞれについて、出力画像データが生成される。第2投影装置の出力画像データは、第1投影装置から第2投影装置へ伝送され、第2投影装置によって表示される。   Specific examples and effects of the processing of the projection system according to the present embodiment will be described with reference to FIG. In this embodiment, as shown in FIG. 9, input image data ID1 and ID2 are input to the first projection device. Then, output image data is generated for each of the first projection device and the second projection device by the first projection device. The output image data of the second projection device is transmitted from the first projection device to the second projection device and displayed by the second projection device.

ここでは、入力画像データID1が動画データであり、且つ、入力画像データID2が静止画データである例を説明する。本実施例では、第1投影装置は、入力画像データID1を第1元画像データとして用い、入力画像データID2を第2元画像データとして用いる。図9において、入力画像データID1の輝度分布と入力画像データID2の輝度分布とに対応するスタック輝度の分布は、入力画像データID1の輝度分布と入力画像データID2の輝度分布との和である。以後、「入力画像データID1の輝度と入力画像データID2の輝度との和」を「想定輝度」と記載する。   Here, an example in which the input image data ID1 is moving image data and the input image data ID2 is still image data will be described. In the present embodiment, the first projection device uses the input image data ID1 as the first original image data, and uses the input image data ID2 as the second original image data. In FIG. 9, the stack luminance distribution corresponding to the luminance distribution of the input image data ID1 and the luminance distribution of the input image data ID2 is the sum of the luminance distribution of the input image data ID1 and the luminance distribution of the input image data ID2. Hereinafter, “the sum of the luminance of the input image data ID1 and the luminance of the input image data ID2” will be referred to as “assumed luminance”.

強調処理と圧縮処理は、動画視認性を向上するために行われる。そのため、本実施例では、第1投影装置は、動画データである入力画像データID1に対してのみ強調処理と圧縮処理を施す。それにより、図9に示すように、第1フレームと第1投影装置に対応する中間画像データとして高域強調フレームデータが生成される。そして、第2フレームと第1投影装置に対応する出力画像データとして高域抑圧フレームデータが生成される。また、第1フレームと第2投影装置に対応する中間画像データ、及び、第2フレームと第2投影装置に対応する出力画像データとしては、静止画データである入力画像データID2が採用される。   The enhancement process and the compression process are performed in order to improve the moving image visibility. Therefore, in the present embodiment, the first projection device performs enhancement processing and compression processing only on the input image data ID1 that is moving image data. Accordingly, as shown in FIG. 9, high-frequency emphasized frame data is generated as intermediate image data corresponding to the first frame and the first projection device. Then, high-frequency suppression frame data is generated as output image data corresponding to the second frame and the first projection device. Further, as the intermediate image data corresponding to the first frame and the second projection device and the output image data corresponding to the second frame and the second projection device, the input image data ID2 which is still image data is employed.

本実施例では、図9に示すように、装置間分配部405は、高域強調フレームデータに制限処理を施すことにより、第1フレームと第1投影装置に対応する出力画像データを生成する。そして、装置間分配部405は、入力画像データID2に、制限処理による階調値の変化量を加算することにより、第1フレームと第2投影装置に対応する出力画像データを生成する。入力画像データID2には飽和画素は存在しないため、上記加算により、制限処理による画質劣化(合成画像の画質の劣化)を抑制しつつ、飽和量、飽和画素の数、等を低減することができる。   In this embodiment, as shown in FIG. 9, the inter-apparatus distribution unit 405 generates output image data corresponding to the first frame and the first projection device by performing restriction processing on the high-frequency emphasized frame data. Then, the inter-apparatus distribution unit 405 generates output image data corresponding to the first frame and the second projection apparatus by adding the change amount of the gradation value due to the restriction process to the input image data ID2. Since there is no saturated pixel in the input image data ID2, the above addition can reduce the saturation amount, the number of saturated pixels, and the like while suppressing deterioration in image quality (deterioration in image quality of the composite image) due to the restriction process. .

このように、本実施例でも、第1フレームと第1投影装置に対応する画像データに対する制限処理による階調値の変化は、第2フレームの画像データでは補われずに、当該第1フレームと第2投影装置に対応する画像データで補われる。それにより、合成画像の画質を高精度に向上することができる。また、本実施例でも、合成画像の輝度変動などを抑制することができる。具体的には、図9に示すように、知覚輝度の分布として想定輝度の分布と同等の分布を得ることができる。それにより、画像の再現性を維持しつつ、スタック投影による高輝度な表示(投影)を実現することができる。さらに、本実施例では、実施例1,2のオフセット値は使用されないため、オフセット値による輝度の増加は生じない。そのため、知覚輝度として想定輝度と同等の輝度を得ることができる。   As described above, also in the present embodiment, the change in the gradation value due to the restriction process on the image data corresponding to the first frame and the first projection device is not supplemented by the image data of the second frame, and the first frame and Supplemented with image data corresponding to the second projection device. Thereby, the image quality of the composite image can be improved with high accuracy. Also in this embodiment, it is possible to suppress the luminance fluctuation of the composite image. Specifically, as shown in FIG. 9, a distribution equivalent to the distribution of assumed luminance can be obtained as the distribution of perceived luminance. As a result, it is possible to realize high-luminance display (projection) by stack projection while maintaining image reproducibility. Further, in the present embodiment, the offset values of the first and second embodiments are not used, and thus the luminance does not increase due to the offset value. Therefore, the brightness equivalent to the assumed brightness can be obtained as the perceived brightness.

<実施例5>
以下、本発明の実施例5について説明する。なお、以下では、実施例1〜4と異なる点(構成、処理、等)について詳しく説明し、実施例1〜4と同じ点についての説明は省略する。本実施例では、実施例2と同様に、各投影装置に入力画像データが入力される例を説明する。しかし、本実施例の処理は、1台の投影装置にのみ入力画像データが入力される構成でも実施可能である。また、本実施例では、実施例4と同様に、投影装置間で入力画像データが異なる例を説明する。しかし、本実施例の処理は、投影装置間で入力画像データが等しい場合でも実施可能である。
<Example 5>
Embodiment 5 of the present invention will be described below. In the following, points (configuration, processing, etc.) different from those of the first to fourth embodiments will be described in detail, and the description of the same points as those of the first to fourth embodiments will be omitted. In the present embodiment, as in the second embodiment, an example in which input image data is input to each projection apparatus will be described. However, the processing of the present embodiment can be performed even in a configuration in which input image data is input to only one projector. In the present embodiment, as in the fourth embodiment, an example in which input image data differs between projection apparatuses will be described. However, the processing of this embodiment can be performed even when the input image data is the same between the projection apparatuses.

実施例1〜4では、所定の画像処理として、フレームレート変換処理、強調処理、抑圧処理、制限処理、等を含む画像処理が行われる例を説明した。本実施例では、フレームレート変換処理、強調処理、及び、抑圧処理の代わりに、入力画像データの各階調値に所定のゲイン値を乗算する乗算処理が行われる例を説明する。一般的な表示装置は、ユーザの好みに応じて、表示画像の輝度、表示画像のコントラスト、等を調整する機能を有する。このような調整は、例えば、ユーザから指示に応じて画像データに所定のゲイン値を乗じることにより実現される。画像データの階調値には上限と下限があるため、上記調整後の状態(輝度、コントラスト、等)にも上限と下限がある。そのため、上限よりも大きい階調値は上限に制限されたり、下限よりも小さい階調値は下限に制限されたりする。または、階調値が上限を上回ったり階調値が下限を下回ったりしないように、ゲイン値が制限される。   In the first to fourth embodiments, the example in which image processing including frame rate conversion processing, enhancement processing, suppression processing, restriction processing, and the like is performed as the predetermined image processing has been described. In the present embodiment, an example will be described in which a multiplication process is performed in which each tone value of input image data is multiplied by a predetermined gain value, instead of the frame rate conversion process, the enhancement process, and the suppression process. A general display device has a function of adjusting the brightness of the display image, the contrast of the display image, and the like according to the user's preference. Such adjustment is realized, for example, by multiplying image data by a predetermined gain value in accordance with an instruction from the user. Since the gradation value of the image data has an upper limit and a lower limit, the state after adjustment (brightness, contrast, etc.) also has an upper limit and a lower limit. Therefore, the gradation value larger than the upper limit is restricted to the upper limit, and the gradation value smaller than the lower limit is restricted to the lower limit. Alternatively, the gain value is limited so that the gradation value does not exceed the upper limit and the gradation value does not fall below the lower limit.

図10は、本実施例に係る投影システムの構成例を示すブロック図である。図10において、実施例1,3(図1,6)と同じ機能部には、実施例1,3と同じ符号が付されている。図10に示すように、本実施例に係る投影システムは、第1投影装置と第2投影装置を有する。   FIG. 10 is a block diagram illustrating a configuration example of the projection system according to the present embodiment. 10, the same reference numerals as those in the first and third embodiments are assigned to the same functional units as those in the first and third embodiments (FIGS. 1 and 6). As shown in FIG. 10, the projection system according to the present embodiment includes a first projection device and a second projection device.

信号伸張部502Aは、入力画像データID1の各階調値に所定のゲイン値を乗算することにより、第1伸張画像データを生成する(乗算処理)。同様に、信号伸張部502Bは、入力画像データID2の各階調値に所定のゲイン値を乗算することにより、第2伸張画像データを生成する。   The signal expansion unit 502A generates first expanded image data by multiplying each gradation value of the input image data ID1 by a predetermined gain value (multiplication processing). Similarly, the signal expansion unit 502B generates second expanded image data by multiplying each gradation value of the input image data ID2 by a predetermined gain value.

なお、入力画像データID1の各階調値に乗算するゲイン値は、入力画像データID2の各階調値に乗算するゲイン値と同じであってもよいし、異なっていてもよい。ゲイン値は、メーカによって予め定められた固定値であってもよいし、ユーザからの指示、投影システムの使用環境、等に応じて適宜変更される値であってもよい。入力画像データID2に対する乗算処理は省略されてもよい。また、入力画像データID1と入力画像データID2のそれぞれは、動画データであってもよいし、静止画データであってもよい。   Note that the gain value multiplied by each gradation value of the input image data ID1 may be the same as or different from the gain value multiplied by each gradation value of the input image data ID2. The gain value may be a fixed value determined in advance by the manufacturer, or may be a value that is appropriately changed according to an instruction from the user, a use environment of the projection system, and the like. The multiplication process for the input image data ID2 may be omitted. Each of the input image data ID1 and the input image data ID2 may be moving image data or still image data.

なお、乗算処理に起因した飽和画素が発生しやすい画像データを入力画像データID1として用い、乗算処理に起因した飽和画素が発生しにくい画像データを入力画像データID2として用いることが好ましい。例えば、所定範囲の中心から離れた階調値を有する画素が多い画像データを入力画像データID1として用い、所定範囲の中心から離れた階調値を有する画素が少ない画像データを入力画像データID2として用いることが好ましい。相対的に重要度が高い画像データを入力画像データID1として用い、相対的に重要度が低い画像データを入力画像データID2として用いてもよい。   Note that it is preferable to use, as the input image data ID1, image data in which saturated pixels due to multiplication processing are likely to occur as input image data ID1, and image data in which saturation pixels due to multiplication processing are unlikely to occur. For example, image data having many pixels having gradation values far from the center of a predetermined range is used as the input image data ID1, and image data having few pixels having gradation values far from the center of the predetermined range is used as the input image data ID2. It is preferable to use it. Image data with relatively high importance may be used as input image data ID1, and image data with relatively low importance may be used as input image data ID2.

装置間分配部505は、第1伸張画像データに制限処理を施すことにより、制限画像データを生成する。制限画像データの生成方法は、実施例1の制限フレームデータの生成方法と同じである。そして、装置間分配部505は、制限画像データを同期形成部109Aへ出力する。また、装置間分配部505は、行った制限処理による階調値の変化量を、加算部513へ通知する。「制限処理による階調値の変化量」は「制限情報」とも言える。   The inter-apparatus distribution unit 505 generates restriction image data by performing restriction processing on the first decompressed image data. The method for generating restricted image data is the same as the method for generating restricted frame data in the first embodiment. Then, the inter-apparatus distribution unit 505 outputs the restricted image data to the synchronization forming unit 109A. Further, the inter-apparatus distribution unit 505 notifies the addition unit 513 of the change in the gradation value due to the restriction processing that has been performed. It can be said that “the change amount of the gradation value by the restriction process” is “restriction information”.

加算部513は、上記制限情報に基づいて、制限処理による階調値の変化を補う補償画像データを生成する。補償画像データの生成方法は、実施例1の補償フレームデータの生成方法と同じである。具体的には、加算部513は、第2伸張画像データの階調値に、上記制限処理による階調値の変化量を加算することにより、補償画像データを生成する。そして、加算部513は、補償画像データを同期形成部109Bへ出力する。   Based on the restriction information, the adder 513 generates compensation image data that compensates for the change in gradation value due to the restriction process. The method for generating compensation image data is the same as the method for generating compensation frame data in the first embodiment. Specifically, the adding unit 513 generates compensated image data by adding the amount of change in the tone value resulting from the restriction process to the tone value of the second decompressed image data. Then, the adding unit 513 outputs the compensation image data to the synchronization forming unit 109B.

本実施例に係る投影システムの処理の具体例と効果について、図11を用いて説明する。図11に示すように、本実施例では、第1投影装置と第2投影装置のそれぞれに入力画像データが入力される。また、本実施例では、第1投影装置の入力画像データID1は、第2投影装置の入力画像データID2と異なる。   Specific examples and effects of the processing of the projection system according to the present embodiment will be described with reference to FIG. As shown in FIG. 11, in this embodiment, input image data is input to each of the first projection device and the second projection device. In this embodiment, the input image data ID1 of the first projection device is different from the input image data ID2 of the second projection device.

本実施例では、図10に示すように、信号伸張部502Aは、入力画像データID1の各階調値にゲイン値を乗算することにより、第1投影装置に対応する中間画像データとして、第1伸張画像フレームデータを生成する。また、信号伸張部502Bは、入力画像データID2の各階調値にゲイン値を乗算することにより、第2投影装置に対応する中間画像データとして、第2伸張画像フレームデータを生成する。図10の例では、第1伸張画像データは飽和画素を含み、第2伸張画像データは飽和画素を含まない。   In this embodiment, as shown in FIG. 10, the signal decompression unit 502A multiplies each tone value of the input image data ID1 by a gain value, thereby obtaining the first decompression as intermediate image data corresponding to the first projection device. Generate image frame data. Further, the signal expansion unit 502B generates second expanded image frame data as intermediate image data corresponding to the second projection device by multiplying each gradation value of the input image data ID2 by a gain value. In the example of FIG. 10, the first decompressed image data includes saturated pixels, and the second decompressed image data does not include saturated pixels.

本実施例では、図10に示すように、装置間分配部505は、第1伸張画像データに制限処理を施すことにより、第1投影装置に対応する出力画像データを生成する。そして、加算部513は、第2伸張画像データに、制限処理による階調値の変化量を加算することにより、第2投影装置に対応する出力画像データを生成する。上記加算により、制限処理による画質劣化(合成画像の画質の劣化)を抑制しつつ、飽和量、飽和画素の数、等を低減することが期待できる。   In this embodiment, as shown in FIG. 10, the inter-apparatus distribution unit 505 generates output image data corresponding to the first projection device by performing a restriction process on the first decompressed image data. Then, the adding unit 513 generates output image data corresponding to the second projection device by adding the change amount of the gradation value by the restriction process to the second decompressed image data. By the above addition, it can be expected that the saturation amount, the number of saturated pixels, and the like are reduced while suppressing the image quality deterioration (deterioration of the image quality of the composite image) due to the restriction process.

なお、実施例1〜5の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリとを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。   In addition, each hardware part of Examples 1-5 may be individual hardware, and may not be so. The functions of two or more functional units may be realized by common hardware. Each of a plurality of functions of one functional unit may be realized by individual hardware. Two or more functions of one functional unit may be realized by common hardware. Each functional unit may be realized by hardware or not. For example, the apparatus may include a processor and a memory in which a control program is stored. The functions of at least some of the functional units included in the apparatus may be realized by the processor reading and executing the control program from the memory.

なお、実施例1〜5はあくまで一例であり、本発明の要旨の範囲内で実施例1〜5の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1〜5の構成を適宜組み合わせて得られる構成も、本発明に含まれる。   In addition, Examples 1-5 are an example to the last, and the structure obtained by changing suitably and changing the structure of Examples 1-5 within the range of the summary of this invention is also contained in this invention. Configurations obtained by appropriately combining the configurations of Examples 1 to 5 are also included in the present invention.

<その他の実施例>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other examples>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

105,205A,205B,305,405:装置間分配部 513:加算部   105, 205A, 205B, 305, 405: inter-apparatus distribution unit 513: addition unit

Claims (20)

投影面の投影領域に対する投影を行うことにより、第1画像データに基づく第1画像を前記投影領域に表示する第1投影装置と、
前記投影領域に対する投影を行うことにより、第2画像データに基づく第2画像を前記投影領域に表示する第2投影装置と、
を含む複数の投影装置を有する投影システムのための画像データを生成する画像処理装置であって、
前記第1画像データは、第1元画像データに所定の画像処理を施すことによって得られる画像データであり、
前記所定の画像処理は、階調値の所定範囲の外側の階調値を前記所定範囲の内側の階調値に制限する制限処理を含み、
前記画像処理装置は、
行われた制限処理に関する制限情報を取得する取得手段と、
前記取得手段によって取得された前記制限情報に基づいて、前記制限処理による階調値の変化に応じた画像データを、前記第2画像データとして生成する生成手段と、
を有する
ことを特徴とする画像処理装置。
A first projection device that displays a first image based on the first image data in the projection area by performing projection on the projection area of the projection surface;
A second projection device that displays a second image based on second image data in the projection area by performing projection on the projection area;
An image processing device for generating image data for a projection system having a plurality of projection devices including:
The first image data is image data obtained by performing predetermined image processing on the first original image data,
The predetermined image processing includes a limiting process of limiting a gradation value outside a predetermined range of gradation values to a gradation value inside the predetermined range;
The image processing apparatus includes:
Obtaining means for obtaining restriction information on the restriction processing performed;
Generation means for generating, as the second image data, image data corresponding to a change in gradation value by the restriction process based on the restriction information obtained by the obtaining means;
An image processing apparatus comprising:
前記第2画像データは、前記制限処理による階調値の変化を補う画像データである
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the second image data is image data that compensates for a change in gradation value due to the restriction process.
前記第1元画像データに前記所定の画像処理を施すことにより前記第1画像データを生成する処理手段、を有し、
前記取得手段は、前記処理手段によって行われた前記所定の画像処理に基づいて、前記制限処理による階調値の変化量を判断することにより、前記制限情報を取得する
ことを特徴とする請求項1または2に記載の画像処理装置。
Processing means for generating the first image data by performing the predetermined image processing on the first original image data;
The acquisition unit acquires the restriction information by determining a change amount of a gradation value by the restriction process based on the predetermined image processing performed by the processing unit. The image processing apparatus according to 1 or 2.
前記複数の投影装置のそれぞれについて、表示可能な階調値の範囲である階調範囲に関するレンジ情報を取得するレンジ情報取得手段と、
前記複数の投影装置のうち、前記階調範囲が最も広い投影装置でない投影装置を前記第1投影装置として選択し、前記複数の投影装置のうち、前記階調範囲が前記第1投影装置の階調範囲よりも広い投影装置を前記第2投影装置として選択する装置選択手段と、
をさらに有する
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
For each of the plurality of projection devices, range information acquisition means for acquiring range information regarding a gradation range that is a range of gradation values that can be displayed;
Among the plurality of projection devices, a projection device that is not the projection device having the widest gradation range is selected as the first projection device, and among the plurality of projection devices, the gradation range is a floor of the first projection device. Device selection means for selecting a projection device wider than the adjustment range as the second projection device;
The image processing apparatus according to claim 1, further comprising:
前記所定範囲は、前記第1投影装置が表示可能な階調値の範囲である
ことを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the predetermined range is a range of gradation values that can be displayed by the first projection apparatus.
前記生成手段は、第2元画像データの階調値に前記制限処理による階調値の変化量を加算することにより、前記第2画像データを生成する
ことを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。
The said generation means produces | generates the said 2nd image data by adding the variation | change_quantity of the gradation value by the said limitation process to the gradation value of 2nd original image data. The image processing apparatus according to any one of the above.
前記生成手段は、前記制限処理によって前記所定範囲の内側の値に階調値が制限された制限画素に対応する画素の階調値が、前記制限処理による階調値の変化量を前記第2元画像データの階調値に加算して得られる階調値であり、且つ、前記制限画素以外の画素に対応する画素の階調値が前記第2元画像データの階調値である画像データを、前記第2画像データとして生成する
ことを特徴とする請求項6に記載の画像処理装置。
The generation means is configured such that a gradation value of a pixel corresponding to a restricted pixel whose gradation value is restricted to a value inside the predetermined range by the restriction process indicates a change amount of the gradation value by the restriction process. Image data which is a gradation value obtained by adding to the gradation value of the original image data, and in which the gradation value of a pixel corresponding to a pixel other than the restricted pixel is the gradation value of the second original image data The image processing apparatus according to claim 6, wherein the second image data is generated as the second image data.
複数の画像データのそれぞれについて、画像データに関する画像情報を取得する画像情報取得手段と、
前記複数の画像データに対応する複数の画像情報に基づいて、前記複数の画像データから前記第1元画像データと前記第2元画像データとを選択する画像選択手段と、
をさらに有する
ことを特徴とする請求項6または7に記載の画像処理装置。
Image information acquisition means for acquiring image information related to image data for each of a plurality of image data;
Image selecting means for selecting the first original image data and the second original image data from the plurality of image data based on a plurality of pieces of image information corresponding to the plurality of image data;
The image processing apparatus according to claim 6, further comprising:
前記第2元画像データは、前記制限処理が施される前の第1画像データと等しい
ことを特徴とする請求項6〜8のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the second original image data is equal to the first image data before the restriction process is performed.
前記第2元画像データは、前記制限処理が施される前の第1画像データとは異なる
ことを特徴とする請求項6〜8のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the second original image data is different from the first image data before the restriction process is performed.
前記第2元画像データの各画素の階調値は所定値である
ことを特徴とする請求項10に記載の画像処理装置。
The image processing apparatus according to claim 10, wherein a gradation value of each pixel of the second original image data is a predetermined value.
前記第2元画像データは、静止画データである
ことを特徴とする請求項10に記載の画像処理装置。
The image processing apparatus according to claim 10, wherein the second original image data is still image data.
前記生成手段は、
前記制限処理によって前記所定範囲の内側の値に階調値が制限された制限画素を含む第1画像データに対応する第2画像データを、前記第2元画像データと、前記制限処理による階調値の変化量とを用いて生成し、
前記制限画素を含まない第1画像データに対応する第2画像データとして、前記第2元画像データを採用する
ことを特徴とする請求項6〜12のいずれか1項に記載の画像処理装置。
The generating means includes
The second image data corresponding to the first image data including the restricted pixel whose gradation value is restricted to a value inside the predetermined range by the restriction process, the second original image data, and the gradation by the restriction process With the amount of change in value,
The image processing apparatus according to claim 6, wherein the second original image data is adopted as second image data corresponding to the first image data not including the restriction pixel.
前記生成手段は、
前記制限処理によって前記所定範囲の内側の値に階調値が制限された制限画素を含む第1画像データに対応する第2画像データを、前記第2元画像データと、前記制限処理による階調値の変化量とを用いて生成し、
前記制限画素を含まない第1画像データに対応する第2画像データとして、前記制限処理が施される前の第1画像データを採用する
ことを特徴とする請求項11に記載の画像処理装置。
The generating means includes
The second image data corresponding to the first image data including the restricted pixel whose gradation value is restricted to a value inside the predetermined range by the restriction process, the second original image data, and the gradation by the restriction process With the amount of change in value,
The image processing apparatus according to claim 11, wherein the first image data before the restriction process is applied as the second image data corresponding to the first image data not including the restriction pixel.
前記第1投影装置は、第1発光手段と、前記第1発光手段からの光を前記第1画像データに基づいて変調する第1変調手段と、を有し、
前記第2投影装置は、第2発光手段と、前記第2発光手段からの光を前記第2画像データに基づいて変調する第2変調手段と、を有し、
前記画像処理装置は、前記第1発光手段の発光輝度と前記第2発光手段の発光輝度との少なくとも一方を制御する制御手段、をさらに有し、
前記制御手段は、
前記制限画素を含む第1画像データの表示期間において、前記第1発光手段の発光輝度と前記第2発光手段の発光輝度との合計が所定輝度の2倍の輝度となるように、前記第1発光手段の発光輝度と前記第2発光手段の発光輝度との少なくとも一方を制御し、
前記制限画素を含まない第1画像データの表示期間において、前記第1発光手段の発光輝度と前記第2発光手段の発光輝度との合計が前記所定輝度となるように、前記第1発光手段の発光輝度と前記第2発光手段の発光輝度との少なくとも一方を制御する
ことを特徴とする請求項14に記載の画像処理装置。
The first projection device includes first light emitting means, and first modulation means for modulating light from the first light emitting means based on the first image data,
The second projection device includes second light emitting means, and second modulation means for modulating light from the second light emitting means based on the second image data,
The image processing apparatus further includes control means for controlling at least one of the light emission luminance of the first light emission means and the light emission luminance of the second light emission means,
The control means includes
In the display period of the first image data including the restricted pixels, the first light emission means and the second light emission means have a luminance that is twice as high as a predetermined luminance. Controlling at least one of the light emission brightness of the light emission means and the light emission brightness of the second light emission means;
In the display period of the first image data that does not include the restricted pixels, the first light emitting unit has a predetermined luminance so that the sum of the light emitting luminance of the first light emitting unit and the light emitting luminance of the second light emitting unit becomes the predetermined luminance. The image processing apparatus according to claim 14, wherein at least one of light emission luminance and light emission luminance of the second light emitting unit is controlled.
前記所定の画像処理は、
動画データである前記第1元画像データの各フレームからN枚(Nは2以上の整数)のフレームを生成して、生成した複数のフレームからなり、且つ、前記第1元画像データのフレームレートのN倍のフレームレートを有する動画データである変換動画データを生成するフレームレート変換処理、
前記変換動画データの複数のフレームのうち、奇数番目のフレームと偶数番目のフレームの一方である第1フレームに対する、空間的な高周波成分を強調する強調処理、
前記変換動画データの前記複数のフレームのうち、前記奇数番目のフレームと前記偶数番目のフレームの他方である第2フレームに対する、空間的な高周波成分を抑圧する抑圧処理、及び、
前記強調処理が施された後の前記第1フレームの画像データに対する前記制限処理
を含む
ことを特徴とする請求項1〜15のいずれか1項に記載の画像処理装置。
The predetermined image processing includes
N frames (N is an integer greater than or equal to 2) are generated from each frame of the first original image data that is moving image data, and the frame rate of the first original image data includes a plurality of generated frames. Frame rate conversion processing for generating converted video data that is video data having a frame rate N times the
An enhancement process that emphasizes a spatial high-frequency component for a first frame that is one of an odd-numbered frame and an even-numbered frame among a plurality of frames of the converted moving image data;
A suppression process for suppressing a spatial high-frequency component for the second frame that is the other of the odd-numbered frame and the even-numbered frame among the plurality of frames of the converted moving image data; and
The image processing apparatus according to claim 1, further comprising the restriction process on the image data of the first frame after the enhancement process is performed.
前記所定の画像処理は、
前記第1元画像データの各階調値に所定のゲイン値を乗算する乗算処理、及び、
前記乗算処理が施された後の画像データに対する前記制限処理
を含む
ことを特徴とする請求項1〜15のいずれか1項に記載の画像処理装置。
The predetermined image processing includes
A multiplication process for multiplying each gradation value of the first original image data by a predetermined gain value; and
The image processing apparatus according to claim 1, further comprising the restriction process on the image data after the multiplication process is performed.
投影面の投影領域に対する投影を行うことにより、第1画像データに基づく第1画像を前記投影領域に表示する第1投影装置と、
前記投影領域に対する投影を行うことにより、第2画像データに基づく第2画像を前記投影領域に表示する第2投影装置と、
を含む複数の投影装置を有する投影システムのための画像データを生成する画像処理方法であって、
前記第1画像データは、元画像データに所定の画像処理を施すことによって得られる画像データであり、
前記所定の画像処理は、階調値の所定範囲の外側の階調値を前記所定範囲の内側の階調値に制限する制限処理を含み、
前記画像処理方法は、
行われた制限処理に関する制限情報を取得するステップと、
取得された前記制限情報に基づいて、前記制限処理による階調値の変化に応じた画像データを、前記第2画像データとして生成するステップと、
を有する
ことを特徴とする画像処理方法。
A first projection device that displays a first image based on the first image data in the projection area by performing projection on the projection area of the projection surface;
A second projection device that displays a second image based on second image data in the projection area by performing projection on the projection area;
An image processing method for generating image data for a projection system having a plurality of projection devices including:
The first image data is image data obtained by performing predetermined image processing on the original image data,
The predetermined image processing includes a limiting process of limiting a gradation value outside a predetermined range of gradation values to a gradation value inside the predetermined range;
The image processing method includes:
Obtaining restriction information regarding the restriction processing that has been performed;
Generating, as the second image data, image data corresponding to a change in gradation value by the restriction process based on the obtained restriction information;
An image processing method comprising:
前記第2画像データは、前記制限処理による階調値の変化を補う画像データである
ことを特徴とする請求項18に記載の画像処理方法。
The image processing method according to claim 18, wherein the second image data is image data that compensates for a change in gradation value due to the restriction process.
請求項18または19に記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the image processing method according to claim 18 or 19.
JP2016208498A 2016-10-25 2016-10-25 Image processing device and image processing method Pending JP2018072418A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016208498A JP2018072418A (en) 2016-10-25 2016-10-25 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016208498A JP2018072418A (en) 2016-10-25 2016-10-25 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2018072418A true JP2018072418A (en) 2018-05-10

Family

ID=62113933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016208498A Pending JP2018072418A (en) 2016-10-25 2016-10-25 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2018072418A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185868A1 (en) * 2021-03-03 2022-09-09 Eizo株式会社 Image display system, image display method, and image display program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185868A1 (en) * 2021-03-03 2022-09-09 Eizo株式会社 Image display system, image display method, and image display program

Similar Documents

Publication Publication Date Title
JP6758891B2 (en) Image display device and image display method
JP5585264B2 (en) Image display device, image display method, and image supply device
JP6136030B2 (en) Video display control device
JP3741212B2 (en) Image processing system, projector, program, information storage medium, and monochrome expansion processing method
JP2003069961A (en) Frame rate conversion
US20110110602A1 (en) Image processing apparatus and control method thereof, and computer-readable storage medium
JP5473373B2 (en) Image processing apparatus and image processing method
JP7254477B2 (en) Display device and its control method
JP6391280B2 (en) Image display apparatus and control method thereof
US10198982B2 (en) Image processing apparatus, method thereof, and image display apparatus
JP2019159182A (en) Display device and control method of the same, program
JP2002333858A (en) Image display device and image reproducing method
JP2018072418A (en) Image processing device and image processing method
US20190139500A1 (en) Display apparatus and control method thereof
JP2018133043A (en) Image processing device and image processing method
WO2013114805A1 (en) Video display control device
JP2021033122A (en) Projection system, control device, projection method, program and storage medium
JP2008111910A (en) Video processing circuit and video display apparatus
JP5527990B2 (en) Display control apparatus and display control method
JP2011141341A (en) Image signal distribution apparatus and control method thereof, and program
JP2018191243A (en) Image processing device and image processing method
JP5539007B2 (en) Liquid crystal display device and image display method
JP6628826B2 (en) Display device and display method
JP6701147B2 (en) Liquid crystal driving device, image display device, liquid crystal driving method, and liquid crystal driving program
JP5340104B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116