JP2011211276A - Image processing apparatus, image display system, and image processing method - Google Patents

Image processing apparatus, image display system, and image processing method Download PDF

Info

Publication number
JP2011211276A
JP2011211276A JP2010074274A JP2010074274A JP2011211276A JP 2011211276 A JP2011211276 A JP 2011211276A JP 2010074274 A JP2010074274 A JP 2010074274A JP 2010074274 A JP2010074274 A JP 2010074274A JP 2011211276 A JP2011211276 A JP 2011211276A
Authority
JP
Japan
Prior art keywords
image
gradation
image data
shape
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010074274A
Other languages
Japanese (ja)
Inventor
Kenji Mizushiro
賢次 水城
Toshiki Fujimori
俊樹 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010074274A priority Critical patent/JP2011211276A/en
Publication of JP2011211276A publication Critical patent/JP2011211276A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image display system, and an image processing method, capable of efficiently correcting variations in gradation of a plurality of partial images as a whole.SOLUTION: The image processing apparatus includes: a shape-correcting information calculator 38 for calculating shape-correcting information indicating the correspondence relation between each pixel position on an image forming element of a projector and each pixel position on a projected surface 9; shape-correcting processors 37a-37d for substantially matching each pixel position on the projected surface 9 to each pixel position defined in image data on the basis of the shape-correcting information; a gradation-correcting information calculator 35 for calculating gradation-correcting information indicating the correspondence relation between the luminance level on the projected surface 9 and a gradation value on each of plurality of evaluation regions defined in the image data for gradation measurement concerning the evaluation regions including an evaluation region selected from a partial image for gradation measurement projected by each of the projectors on the basis of the image data for gradation measurement after shape correcting processing; and a gradation-correcting processor 34 for causing the luminance level of each pixel on the projected surface 9 to approximate to the luminance level of each pixel defined in the image data on the basis of the gradation-correcting information.

Description

本発明は、画像処理装置、画像表示システム、画像処理方法に関する。   The present invention relates to an image processing apparatus, an image display system, and an image processing method.

従来から、画像表示装置の1つとしてプロジェクターが知られている。プロジェクターは、設置が容易であることや、大画面の画像を表示可能であること等の特長を有している。近年、複数のプロジェクターを用いて画像を表示する画像表示システムが提案されている(例えば、特許文献1)。特許文献1のマルチディスプレイ装置は、複数のプロジェクターの各々に、表示する画像の一部の画像(以下、部分画像という)を投射させ、複数の部分画像の全体で1つの画像を表示する。これにより、大画面、高輝度、高解像度で画像を表示することが可能になる。   Conventionally, a projector is known as one of image display apparatuses. The projector has features such as being easy to install and capable of displaying a large screen image. In recent years, an image display system that displays an image using a plurality of projectors has been proposed (for example, Patent Document 1). The multi-display device of Patent Document 1 projects a partial image (hereinafter referred to as a partial image) of a displayed image on each of a plurality of projectors, and displays one image as a whole of the plurality of partial images. This makes it possible to display an image with a large screen, high brightness, and high resolution.

この種の画像表示システムにより、視聴者向けの画像(以下、コンテンツ画像という)を表示するには、被投射面上に複数の部分画像が並んで表示されるように、複数のプロジェクターを配置する。コンテンツ画像の表示品質を高めるには、各部分画像の歪や複数の部分画像の相対位置のずれを減らすこと、複数の部分画像での相対的な明るさや色調等の表示条件を高精度に管理することが重要である。一般に、上記の表示条件を手動で高精度に調整することは難しく、ユーザーの負担を減らす観点で、表示条件の調整を自動化する技術が期待されている。   In order to display an image for viewers (hereinafter referred to as a content image) using this type of image display system, a plurality of projectors are arranged so that a plurality of partial images are displayed side by side on the projection surface. . In order to improve the display quality of content images, the distortion of each partial image and the relative position shift of multiple partial images are reduced, and the display conditions such as relative brightness and color tone of multiple partial images are managed with high accuracy. It is important to. In general, it is difficult to manually adjust the display conditions with high accuracy, and a technique for automating the adjustment of display conditions is expected from the viewpoint of reducing the burden on the user.

明るさや色調の調整を自動化するには、輝度ムラ(グレイの階調ムラ)や色ムラ(色ごとの階調ムラ)を自動的に補正する技術(例えば、特許文献2)を適用することが考えられる。以下、輝度ムラや色ムラを総称して階調ムラという。特許文献2の画像表示装置は、画像補正部、データ格納部、および画像形成部を備えている。画像補正部は、データ格納部に格納されている補正データに基づいて、入力された画像データを補正する。画像形成部は、補正された画像データに応じて表示する画像を形成する。プロジェクターにより表示されたグレイ画像上の複数の位置における出力レベルがグレイ画像データに規定される入力レベルに近づくように、補正データが決定されている。補正データは、画像形成部の入出力特性データに基づいて算出されている。   In order to automate the adjustment of brightness and color tone, it is possible to apply a technique (for example, Patent Document 2) that automatically corrects luminance unevenness (gray gradation unevenness) and color unevenness (gradation unevenness for each color). Conceivable. Hereinafter, luminance unevenness and color unevenness are collectively referred to as gradation unevenness. The image display device of Patent Document 2 includes an image correction unit, a data storage unit, and an image forming unit. The image correction unit corrects the input image data based on the correction data stored in the data storage unit. The image forming unit forms an image to be displayed according to the corrected image data. The correction data is determined so that the output levels at a plurality of positions on the gray image displayed by the projector approach the input levels defined in the gray image data. The correction data is calculated based on input / output characteristic data of the image forming unit.

特開2006−349791号公報JP 2006-349791 A 特開2001−209358号公報JP 2001-209358 A

特許文献2の技術によれば、部分画像ごとの階調ムラを補正することができ、複数の部分画像の全体としての階調ムラを減らすことが可能であるようにも思われる。しかしながら、複数のプロジェクターにより表示を行う画像表示システムに、実際に特許文献2の技術を適用しようとすると、下記のような課題がある。   According to the technique of Patent Document 2, it seems that gradation unevenness for each partial image can be corrected, and gradation unevenness as a whole of a plurality of partial images can be reduced. However, if the technique of Patent Document 2 is actually applied to an image display system that performs display by a plurality of projectors, there are the following problems.

特許文献2の技術により、部分画像ごとの階調ムラを補正するには、プロジェクターごとにグレイ画像を表示して階調ムラを補正する必要があり、プロジェクターの数に応じて補正に要する手間や時間が増加してしまう。また、画像の全体での階調ムラを補正するには、複数の部分画像で輝度や色調を揃えるために、複数のプロジェクターでの相互の出力の調整に手間や時間を要してしまう。   In order to correct gradation unevenness for each partial image by the technique of Patent Document 2, it is necessary to display a gray image for each projector to correct gradation unevenness. Time will increase. In addition, in order to correct gradation unevenness in the entire image, it takes time and effort to adjust the mutual output of a plurality of projectors in order to align the luminance and color tone of a plurality of partial images.

また、部分画像の歪や複数の部分画像の相対位置のずれを補正すると、補正前後で被投射面上の各画素の位置が変化する。したがって、被投射面の各画素の位置と、各画素用の補正量とが対応しなくなり、結果として階調ムラの発生を招いてしまう。   Further, when the distortion of the partial image and the shift of the relative positions of the plurality of partial images are corrected, the position of each pixel on the projection surface changes before and after the correction. Therefore, the position of each pixel on the projection surface does not correspond to the correction amount for each pixel, and as a result, gradation unevenness occurs.

本発明は、前記事情に鑑み成されたものであって、複数の部分画像の全体での階調ムラを効率的に補正することが可能な画像処理装置、画像表示システム、および画像処理方法を提供することを目的の1つとする。   The present invention has been made in view of the above circumstances, and provides an image processing apparatus, an image display system, and an image processing method capable of efficiently correcting gradation unevenness in a plurality of partial images as a whole. One of the purposes is to provide it.

本発明では、前記目的を達成するために以下の手段を採用している。
本発明の画像処理装置は、それぞれが画像形成素子を有しており被投写面に画像を投射する複数のプロジェクターとともに用いられる画像処理装置であって、前記画像形成素子上の各画素の位置と、前記被投射面上の各画素の位置との対応関係を示す形状補正情報を算出する形状補正情報算出部と、前記形状補正情報に基づいて、処理後の画像データに基づいて前記複数のプロジェクターが協働して投射する画像の前記被投射面での形状を、処理前の前記画像データによって規定される形状と略一致させる形状補正処理を前記画像データに施す形状補正処理部と、前記形状補正処理部により前記形状補正処理を施された階調測定用の画像データに基づいて前記複数のプロジェクターが協働して投射する階調測定用の画像のうちで各プロジェクターが投射する階調測定用の部分画像から選択される評価領域を含む複数の評価領域について、前記被投射面上の前記階調測定用の画像の各評価領域での輝度レベルと、前記階調測定用の画像を示す階調測定用の画像データに規定された各評価領域での階調値との対応関係を示す階調補正情報を算出する階調補正情報算出部と、前記階調補正情報に基づいて、処理後の前記画像データに基づいて前記複数のプロジェクターが協働して投射する画像の被投射面での各画素の輝度レベルを、処理前の前記画像データに規定された各画素の階調値に相当する輝度レベルに近づける階調補正処理を前記画像データに施す階調補正処理部と、を備えていることを特徴とする。
In the present invention, the following means are adopted in order to achieve the object.
The image processing apparatus of the present invention is an image processing apparatus that is used with a plurality of projectors each having an image forming element and projecting an image on a projection surface, and the position of each pixel on the image forming element and A shape correction information calculation unit that calculates shape correction information indicating a correspondence relationship with the position of each pixel on the projection surface; and the plurality of projectors based on image data after processing based on the shape correction information A shape correction processing unit that applies shape correction processing to the image data so that the shape of the image projected in cooperation with the shape to be projected on the projection surface substantially matches the shape defined by the image data before processing, and the shape Of the gradation measurement images that the plurality of projectors project in cooperation based on the gradation measurement image data that has been subjected to the shape correction processing by the correction processing unit, For a plurality of evaluation areas including an evaluation area selected from the partial image for gradation measurement projected by the brightness level in each evaluation area of the image for gradation measurement on the projection surface, and the floor A gradation correction information calculation unit for calculating gradation correction information indicating a correspondence relationship with a gradation value in each evaluation region defined in image data for gradation measurement indicating an image for gradation measurement; and the gradation Based on the correction information, the brightness level of each pixel on the projection surface of the image projected by the plurality of projectors in cooperation with the image data after processing is defined in the image data before processing. A gradation correction processing unit that performs gradation correction processing on the image data so as to approach a luminance level corresponding to the gradation value of each pixel.

このようにすれば、形状補正情報算出部が形状補正情報を算出し、形状補正処理部が、形状補正情報に基づいて画像データに形状補正処理を施すので、被投射面上に表示された画像の形状を、補正前の画像データに規定された画像の形状と略一致させることができる。これにより、各部分画像の歪を減らすように、また複数の部分画像での相対位置のずれを減らすように、画像データを補正可能になる。   With this configuration, the shape correction information calculation unit calculates the shape correction information, and the shape correction processing unit performs shape correction processing on the image data based on the shape correction information, so that the image displayed on the projection surface is displayed. Can be made to substantially coincide with the shape of the image defined in the image data before correction. As a result, the image data can be corrected so as to reduce the distortion of each partial image and to reduce the shift of the relative position in the plurality of partial images.

また、形状補正処理が施された後の階調測定用の画像データに基づいて投射された被投射面上の階調測定用の画像の各評価領域での輝度レベルを用いて、階調補正情報算出部が階調補正情報を算出するので、形状補正処理に伴う被投射面上の画素の移動が加味された階調補正情報が得られる。また、被投射面上の階調測定用の各部分画像から選択される評価領域を含む複数の評価領域の輝度レベルを用いて、階調補正情報算出部が階調補正情報を算出するので、各部分画像での階調ムラと、複数の部分画像での輝度レベルの違いとが加味された階調補正情報が得られる。すなわち、複数の部分画像を1つの画像としてみたときの画像の全体を加味した階調補正情報が得られ、この階調補正情報を用いて画像の全体を示す画像データに階調補正処理部が階調補正処理を施すので、複数の部分画像の全体としての階調ムラを減らすように画像データを効率的に補正可能になる。   In addition, tone correction is performed using the luminance level in each evaluation area of the image for tone measurement on the projection surface projected based on the image data for tone measurement after the shape correction processing is performed. Since the information calculation unit calculates the gradation correction information, gradation correction information in which the movement of the pixels on the projection surface accompanying the shape correction process is taken into account is obtained. In addition, since the gradation correction information calculation unit calculates the gradation correction information using the luminance levels of a plurality of evaluation areas including the evaluation area selected from each partial image for gradation measurement on the projection surface, Gradation correction information in which gradation unevenness in each partial image and a difference in luminance level in a plurality of partial images are taken into consideration can be obtained. In other words, gradation correction information that takes into account the entire image when a plurality of partial images are viewed as one image is obtained, and the gradation correction processing unit adds image correction data that represents the entire image using the gradation correction information. Since gradation correction processing is performed, image data can be efficiently corrected so as to reduce gradation unevenness as a whole of a plurality of partial images.

本発明に係る画像処理装置は、代表的な態様として以下のような態様をとりえる。   The image processing apparatus according to the present invention can take the following aspects as typical aspects.

前記形状補正情報算出部は、前記複数のプロジェクターによる前記被投射面上の全体の投射領域に収まる領域として設定された有効投射領域での画像の形状が、前記階調測定用の画像データによって規定される形状と略一致するように前記形状補正情報を算出し、前記階調補正情報算出部は、前記形状補正情報を用いて前記形状補正処理を施された後の前記階調測定用の画像データに基づいて投射された前記被投射面上の階調測定用の画像の前記有効投射領域内の前記評価領域の輝度レベルを用いて前記階調補正情報を算出するとよい。   The shape correction information calculation unit defines the shape of an image in an effective projection area set as an area that fits in the entire projection area on the projection surface by the plurality of projectors by the image data for gradation measurement. The shape correction information is calculated so as to substantially match the shape to be obtained, and the gradation correction information calculation unit uses the shape correction information to perform the shape correction processing and then the gradation measurement image. The gradation correction information may be calculated using a luminance level of the evaluation area in the effective projection area of the image for gradation measurement on the projection surface projected based on the data.

このようにすれば、複数のプロジェクターにより投射可能な最大の領域のうちで、実際に画像が表示される有効投射領域の外側の領域用の、階調補正情報の算出や階調補正処理を省くことができ、実際に表示される画像の階調ムラを効率的に補正可能になる。   In this way, the calculation of gradation correction information and gradation correction processing for the area outside the effective projection area where an image is actually displayed out of the maximum areas that can be projected by a plurality of projectors are omitted. Therefore, it is possible to efficiently correct gradation unevenness in an actually displayed image.

前記階調補正処理を施された後の画像データに基づいて前記複数のプロジェクターが協働して投射する画像のうちで、各プロジェクターが投射する部分画像を示す画像データを生成するデータ生成部を備え、前記形状補正処理部は、前記データ生成部により生成された各画像データに前記形状補正処理を施すとよい。   A data generation unit that generates image data indicating a partial image projected by each projector among images projected by the plurality of projectors in cooperation based on the image data after the gradation correction processing is performed. The shape correction processing unit may perform the shape correction processing on each image data generated by the data generation unit.

このようにすれば、階調補正処理部により補正された画像データに基づいて、複数の部分画像の各々を示す画像データ(以下、部分画像データという)をデータ生成部が生成するので、生成された各部分画像データに基づいて複数の部分画像を投射させることにより、複数の部分画像の全体での階調ムラが補正された画像を表示可能になる。また、各部分画像データに形状補正処理を施すので、各部分画像の歪や複数の部分画像の相対位置のずれを高精度に補正可能になる。   According to this configuration, the data generation unit generates image data indicating each of the plurality of partial images (hereinafter referred to as partial image data) based on the image data corrected by the gradation correction processing unit. By projecting a plurality of partial images based on each partial image data, it is possible to display an image in which gradation unevenness is corrected in the whole of the plurality of partial images. In addition, since shape correction processing is performed on each partial image data, distortion of each partial image and displacement of relative positions of a plurality of partial images can be corrected with high accuracy.

前記データ生成部は、前記画像を構成する複数の前記部分画像のうちで互いに隣り合う一対の部分画像の各々が該一対の部分画像で重複する重複領域を含むように、前記部分画像を示す画像データを生成するとよい。   The data generation unit is an image showing the partial image such that each of a pair of partial images adjacent to each other among the plurality of partial images constituting the image includes an overlapping region overlapping the pair of partial images. It is good to generate data.

このようにすれば、互いに隣り合う一対の部分画像で重複領域を重畳させて画像の全体を表示すると、被投射面上に複数の部分画像が隙間なく配列されるので、複数の部分画像で一体感を高めて画像を表示することが可能になる。   In this way, when the entire image is displayed by overlapping the overlapping region between a pair of partial images adjacent to each other, the plurality of partial images are arranged without gaps on the projection surface. It is possible to display an image with an enhanced experience.

前記一対の部分画像を示す一対の前記画像データの各々を処理対象として、処理後の前記一対の画像データが示す前記一対の部分画像で前記重複領域が互いに重畳されたときの前記重複領域の各画素の輝度レベルを、前記階調補正処理部により前記階調補正処理を施される前の前記画像を示す画像データに規定された前記重複領域の各画素の階調値に相当する輝度レベルに近づけるエッジブレンド処理を施すエッジブレンド処理部を備えているとよい。   Each of the overlapping regions when the overlapping regions are superimposed on each other in the pair of partial images indicated by the pair of image data after processing, with each of the pair of image data indicating the pair of partial images being processed. The luminance level of the pixel is set to a luminance level corresponding to the gradation value of each pixel in the overlapping area defined in the image data indicating the image before the gradation correction processing is performed by the gradation correction processing unit. It is preferable to provide an edge blend processing unit that performs an edge blend process for bringing them closer.

このようにすれば、被投射面上で一対の部分画像の重複領域が互いに重畳された状態で、重複領域の各画素の輝度レベルが画像データに規定された階調値に相当する輝度レベルよりも高くなることが回避され、被投射面上で重畳された重複領域すなわち部分画像の継ぎ目を識別させにくくすることができる。   In this way, with the overlapping areas of the pair of partial images superimposed on each other on the projection surface, the luminance level of each pixel in the overlapping area is higher than the luminance level corresponding to the gradation value defined in the image data. Can be avoided, and it is possible to make it difficult to identify the overlapping region, that is, the joint of the partial images, superimposed on the projection surface.

前記階調補正情報算出部は、前記階調測定用の画像データに基づいて前記データ生成部により生成された前記部分画像を示す各画像データに前記エッジブレンド処理部により前記エッジブレン処理を施された後の前記部分画像を示す各画像データに基づいて前記複数のプロジェクターが協働して投射し、前記一対の部分画像で前記重複領域が前記被投射面上で互いに重畳されている階調測定用の画像の各評価領域での輝度レベルを用いて、前記階調補正情報を算出するとよい。   The gradation correction information calculation unit performs the edge blend process on the image data indicating the partial image generated by the data generation unit based on the image data for gradation measurement by the edge blend processing unit. Gradation measurement in which the plurality of projectors collaborately project based on each image data indicating the partial image after, and the overlapping regions are superimposed on the projection surface in the pair of partial images The gradation correction information may be calculated using the luminance level in each evaluation area of the image for use.

このようにすれば、被投射面上で一対の部分画像が互いの重複領域を重畳されている状態の階調測定用の画像の各評価領域での輝度レベルを用いて階調補正情報を算出するので、重複領域に対する形状補正情報の算出や形状補正処理を一対の部分画像でまとめて行うことができる。したがって、階調補正処理に要する演算等の負荷を減らすことができ、画像の階調ムラを効率的に補正することができる。   In this way, tone correction information is calculated using the brightness level in each evaluation region of the image for tone measurement in a state where a pair of partial images are superimposed on each other on the projection surface. Therefore, the calculation of the shape correction information and the shape correction processing for the overlapping region can be performed collectively with a pair of partial images. Therefore, it is possible to reduce a load such as calculation required for the gradation correction processing, and it is possible to efficiently correct gradation unevenness of an image.

本発明の画像表示システムは、上記の本発明に係る画像処理装置と、前記画像処理装置により前記階調補正処理を施された後の画像データに基づいて、画像を協働して投射する複数のプロジェクターと、を備えていることを特徴とする。   An image display system according to the present invention includes a plurality of the above-described image processing device according to the present invention and a plurality of images that cooperate to project an image based on the image data that has been subjected to the gradation correction processing by the image processing device. And a projector.

このようにすれば、形状補正情報に基づいて画像データに形状補正処理を施すので、各部分画像の歪や複数の部分画像の相対位置のずれが低減された画像を表示可能になる。複数の部分画像からなる画像の全体を加味した階調補正情報が得られ、この階調補正情報を用いて画像の全体を示す画像データに階調補正処理部が階調補正処理を施すので、画像データを効率的に補正可能になり、階調ムラの少ない画像を効率的に表示可能になる。   In this way, since the image data is subjected to the shape correction process based on the shape correction information, it is possible to display an image in which the distortion of each partial image and the relative position shift of the plurality of partial images are reduced. Gradation correction information that takes into account the entire image composed of a plurality of partial images is obtained, and the gradation correction processing unit performs gradation correction processing on the image data indicating the entire image using the gradation correction information. Image data can be corrected efficiently, and an image with little gradation unevenness can be displayed efficiently.

本発明の画像処理方法は、それぞれが画像形成素子を有しており被投写面に画像を投射する複数のプロジェクターにおける前記画像形成素子上の各画素の位置と、前記被投射面上の各画素の位置との対応関係を示す形状補正情報を算出するステップと、前記形状補正情報に基づいて、処理後の画像データに基づいて前記複数のプロジェクターが協働して投射する画像の前記被投射面での形状を、処理前の前記画像データによって規定される形状と略一致させる形状補正処理を前記画像データに施すステップと、前記形状補正処理を施された階調測定用の画像データに基づいて前記複数のプロジェクターが協働して投射する階調測定用の画像のうちで各プロジェクターが投射する階調測定用の部分画像から選択される評価領域を含む複数の評価領域について、前記被投射面上の前記階調測定用の画像の各評価領域での輝度レベルと、前記階調測定用の画像を示す階調測定用の画像データに規定された各評価領域での階調値との対応関係を示す階調補正情報を算出するステップと、
前記階調補正情報に基づいて、処理後の前記画像データに基づいて前記複数のプロジェクターが協働して投射する画像の被投射面での各画素の輝度レベルを、処理前の前記画像データに規定された各画素の階調値に相当する輝度レベルに近づける階調補正処理を前記画像データに施すステップと、を有していることを特徴とする。
According to the image processing method of the present invention, the position of each pixel on the image forming element in each of a plurality of projectors each having an image forming element and projecting an image on the projection surface, and each pixel on the projection surface A step of calculating shape correction information indicating a correspondence relationship with the position of the image, and the projected surface of an image projected by the plurality of projectors based on image data after processing based on the shape correction information And applying a shape correction process to the image data to substantially match the shape defined by the image data before processing with the image data for gradation measurement subjected to the shape correction process A plurality of evaluations including an evaluation area selected from the gradation measurement partial images projected by each projector among the gradation measurement images projected by the plurality of projectors in cooperation. For each area, the brightness level in each evaluation area of the image for gradation measurement on the projection surface and each evaluation area defined in the image data for gradation measurement indicating the image for gradation measurement. Calculating gradation correction information indicating a correspondence relationship with the gradation value of
Based on the gradation correction information, the luminance level of each pixel on the projection surface of an image projected by the plurality of projectors in cooperation with the image data after processing is set as the image data before processing. Applying to the image data a gradation correction process that approximates a luminance level corresponding to a prescribed gradation value of each pixel.

このようにすれば、形状補正情報に基づいて画像データに形状補正処理を施すので、各部分画像の歪や複数の部分画像での相対位置のずれを減らすように、画像データを補正可能になる。複数の部分画像からなる画像の全体を加味した補正情報が得られ、この階調補正情報を用いて画像の全体を示す画像データに階調補正処理部が階調補正処理を施すので、画像の全体としての階調ムラを減らすように画像データを効率的に補正可能になる。   In this way, since the image data is subjected to the shape correction process based on the shape correction information, the image data can be corrected so as to reduce the distortion of each partial image and the shift of the relative position among a plurality of partial images. . Correction information that takes into account the entire image composed of a plurality of partial images is obtained, and the gradation correction processing unit performs gradation correction processing on the image data indicating the entire image using this gradation correction information. Image data can be efficiently corrected so as to reduce gradation unevenness as a whole.

本発明に係る画像表示システムの構成例を示す概念図である。It is a conceptual diagram which shows the structural example of the image display system which concerns on this invention. 被投射面上の投射領域の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the projection area | region on a to-be-projected surface. 画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an image processing apparatus. 形状補正情報および階調補正情報を算出するときの処理のフローを示すフローチャートである。It is a flowchart which shows the flow of a process when calculating shape correction information and gradation correction information. 画像データを補正するときの処理フローを示すフローチャートである。It is a flowchart which shows the processing flow when correct | amending image data. プロジェクター設置作業の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of a projector installation operation | work. プロジェクター設置作業に用いるガイド画像の説明図である。It is explanatory drawing of the guide image used for a projector installation operation | work. 形状補正情報算出処理の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of a shape correction information calculation process. 被投射面での特徴点の位置の測定方法を示す説明図である。It is explanatory drawing which shows the measuring method of the position of the feature point in a to-be-projected surface. 形状補正情報の算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of shape correction information. 階調補正情報算出処理の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of a gradation correction information calculation process. (a)、(b)は、エッジブレンド処理の処理内容を示す説明図である。(A), (b) is explanatory drawing which shows the processing content of an edge blend process. 被投射面上での輝度レベルの測定方法を示す説明図である。It is explanatory drawing which shows the measuring method of the luminance level on a to-be-projected surface. 階調補正情報の算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of gradation correction information. (a)〜(c)は、画像データを補正するときの処理内容を処理順に示す説明図である。(A)-(c) is explanatory drawing which shows the processing content when correcting image data in order of a process. (a)〜(c)は、図13(c)から続く処理内容の説明図である。(A)-(c) is explanatory drawing of the processing content which continues from FIG.13 (c).

以下、図面を参照しつつ本発明の実施形態を説明する。説明に用いる図面において、特徴的な部分を分かりやすく示すために、図面中の構造の寸法や縮尺を実際の構造に対して異ならせている場合がある。また、実施形態において同様の構成要素については、同じ符号を付して図示し、その詳細な説明を省略する場合がある。なお、本発明の技術範囲は下記の実施形態に限定されるものではない。本発明の主旨を逸脱しない範囲内で多様な変形が可能である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings used for explanation, in order to show characteristic parts in an easy-to-understand manner, dimensions and scales of structures in the drawings may be different from actual structures. In addition, in the embodiment, the same components are illustrated with the same reference numerals, and detailed description thereof may be omitted. The technical scope of the present invention is not limited to the following embodiment. Various modifications are possible without departing from the gist of the present invention.

図1は、本発明の一実施形態である画像表示システムの概念図、図2は被投射面上の投射領域の位置関係を示す説明図である。   FIG. 1 is a conceptual diagram of an image display system according to an embodiment of the present invention, and FIG. 2 is an explanatory diagram showing a positional relationship of projection areas on a projection surface.

図1に示すように画像表示システム1は、複数のプロジェクター2、画像処理装置3、および測定装置4を備えている。画像表示システム1は、例えば信号源8から入力された画像データが示すコンテンツ画像Pを複数のプロジェクター2で協働して、スクリーンや壁等の被投射面9に投射する。ここでは、複数のプロジェクター2として第1のプロジェクター21、第2のプロジェクター22、第3のプロジェクター23、および第4のプロジェクター24が設けられているとして説明する。本発明の適用範囲は、複数のプロジェクターを用いるものであれば、プロジェクターの数や配置に限定されない。以下の説明では、各プロジェクターから投射された画像を「部分画像」と称し、部分画像を示す画像データを「部分画像データ」と称することがある。   As shown in FIG. 1, the image display system 1 includes a plurality of projectors 2, an image processing device 3, and a measurement device 4. For example, the image display system 1 projects a content image P indicated by image data input from a signal source 8 onto a projection surface 9 such as a screen or a wall in cooperation with a plurality of projectors 2. Here, a description will be given assuming that a first projector 21, a second projector 22, a third projector 23, and a fourth projector 24 are provided as the plurality of projectors 2. The application range of the present invention is not limited to the number and arrangement of projectors as long as a plurality of projectors are used. In the following description, an image projected from each projector may be referred to as “partial image”, and image data indicating the partial image may be referred to as “partial image data”.

複数のプロジェクター2の各々は、供給された画像データ(ここでは部分画像データ)に基づいて画像(ここでは部分画像)を表示可能である。本発明の適用範囲は、複数のプロジェクターを構成する各プロジェクターの構成に限定されない。例えば、各プロジェクターは、単板式のプロジェクターであってもよいし、三板式のプロジェクター等の複数の画像形成素子を含んだものであってもよい。また、各プロジェクターは、被投射面9に対して視聴者と同じ側から投射するフロント投射型のものであってもよいし、被投射面9を挟んで視聴者と反対側から投射するリア投射型のものであってもよい。   Each of the plurality of projectors 2 can display an image (here, a partial image) based on the supplied image data (here, partial image data). The scope of application of the present invention is not limited to the configuration of each projector constituting a plurality of projectors. For example, each projector may be a single-plate projector or may include a plurality of image forming elements such as a three-plate projector. Each projector may be a front projection type that projects from the same side as the viewer on the projection surface 9, or a rear projection that projects from the opposite side of the viewer across the projection surface 9. It may be of a type.

本実施形態の複数のプロジェクター2の各々は、光源、3つの画像形成素子、および投射光学系を有する三板式のプロジェクターである。光源から射出された光は、赤色光、緑色光、および青色光に分離され、色光ごとに対応する画像形成素子に入射する。各画像形成素子は、二次元的に配列された複数の画素(以下、変調要素という)を有している。本実施形態では、各プロジェクターの画像形成素子の変調要素の数および変調要素の配列が、複数のプロジェクター2で、一致している。画像形成素子としては、例えば透過型または反射型の液晶ライトバルブや、デジタルミラーデバイス(DMD)等が挙げられる。画像形成素子は、プロジェクターに入力された部分画像データの画素ごとの階調値を示すデータ(以下、画素データという)に基づいて、複数の変調要素を互いに独立して制御する。変調要素に入射した光は、変調要素ごとに変調されて画素データに規定された階調値に応じた光量の光になる。複数の変調要素により変調された光が全体として光学像(画像)になる。3つの画像形成素子は、互いに異なる色(赤、緑、青)の光学像を形成する。3色の光学像がダイクロイックプリズム等により合成された後に、合成された光学像が投射光学系により被投射面9に投射され、フルカラーの画像(ここでは部分画像)を表示可能になっている。   Each of the plurality of projectors 2 of the present embodiment is a three-plate projector having a light source, three image forming elements, and a projection optical system. The light emitted from the light source is separated into red light, green light, and blue light, and enters the corresponding image forming element for each color light. Each image forming element has a plurality of pixels (hereinafter referred to as modulation elements) arranged two-dimensionally. In the present embodiment, the number of modulation elements of the image forming elements of each projector and the arrangement of the modulation elements are the same in the plurality of projectors 2. Examples of the image forming element include a transmissive or reflective liquid crystal light valve and a digital mirror device (DMD). The image forming element controls a plurality of modulation elements independently from each other based on data (hereinafter referred to as pixel data) indicating gradation values for each pixel of the partial image data input to the projector. The light incident on the modulation element is modulated for each modulation element and becomes light with a light amount corresponding to the gradation value defined in the pixel data. The light modulated by the plurality of modulation elements becomes an optical image (image) as a whole. The three image forming elements form optical images of different colors (red, green, blue). After the three color optical images are combined by a dichroic prism or the like, the combined optical image is projected onto the projection surface 9 by the projection optical system, and a full color image (here, a partial image) can be displayed.

各プロジェクターが被投射面9上に投射可能な最大の領域である投射領域は、複数のプロジェクター2で異ならせて設定されている。図2に示すように、第1〜第4投射領域A1〜A4は、互いの周縁部が重なり合うように設定されており、全体として全体投射領域A0を構成している。第1〜第4投射領域A1〜A4の各々は、隣接する他の投射領域と重畳された重畳領域A5を含んでいる。   The projection area, which is the maximum area that each projector can project onto the projection surface 9, is set differently for the plurality of projectors 2. As shown in FIG. 2, the first to fourth projection areas A1 to A4 are set so that their peripheral edges overlap each other, and constitute the entire projection area A0 as a whole. Each of the first to fourth projection areas A1 to A4 includes an overlapping area A5 that is overlapped with another adjacent projection area.

第1のプロジェクター21の投射領域(第1投射領域A1)は、第2のプロジェクター22の投射領域(第2投射領域A2)と被投射面9上の水平方向に並んでいる。この水平方向において、第1投射領域A1の端部は、第2投射領域A2の端部と重ね合わされている。第3のプロジェクター23の投射領域(第3投射領域A3)と、第4のプロジェクター24の投射領域(第4投射領域A4)との水平方向の位置関係については、第1、第2投射領域A1、A2の水平方向の位置関係と同様になっている。   The projection area (first projection area A1) of the first projector 21 is aligned with the projection area (second projection area A2) of the second projector 22 in the horizontal direction on the projection surface 9. In the horizontal direction, the end of the first projection area A1 is overlapped with the end of the second projection area A2. Regarding the horizontal positional relationship between the projection area of the third projector 23 (third projection area A3) and the projection area of the fourth projector 24 (fourth projection area A4), the first and second projection areas A1. , A2 is the same as the horizontal positional relationship.

第1投射領域A1は、被投射面9上の水平方向と直交する垂直方向に第3投射領域A3と並んでいる。この垂直方向において、第1投射領域A1の端部は第3投射領域A3の端部と重ね合わされている。第2投射領域A2と第4投射領域A4との垂直方向の位置関係については、第1、第3投射領域A1、A3の垂直方向の位置関係と同様になっている。   The first projection area A1 is aligned with the third projection area A3 in the vertical direction orthogonal to the horizontal direction on the projection surface 9. In the vertical direction, the end of the first projection area A1 is overlapped with the end of the third projection area A3. The vertical positional relationship between the second projection region A2 and the fourth projection region A4 is the same as the vertical positional relationship between the first and third projection regions A1 and A3.

ところで、通常は全体投射領域A0の外形が矩形にならない。これは、第1〜第4のプロジェクター21〜24の配置に起因して、第1〜第4投射領域A1〜A4の歪や相対位置のずれを生じるからである。ここでは、全体投射領域A0に収まる略矩形の領域を実際に画像の表示に用いる領域(有効投射領域A)としている。有効投射領域Aは、例えば、全体投射領域A0に収まる最大の矩形領域として設定され、そのアスペクト比はコンテンツ画像Pのアスペクト比に応じて設定される。第1〜第4のプロジェクター21〜24は、各投射領域のうちで有効投射領域Aに収まる領域に対して各部分画像を投射するようになっている。   By the way, normally, the outer shape of the entire projection area A0 is not rectangular. This is because the first to fourth projection areas A1 to A4 are distorted and the relative positions are shifted due to the arrangement of the first to fourth projectors 21 to 24. Here, a substantially rectangular area that falls within the entire projection area A0 is an area that is actually used for displaying an image (effective projection area A). The effective projection area A is set as, for example, the largest rectangular area that can be accommodated in the entire projection area A0, and the aspect ratio is set according to the aspect ratio of the content image P. The 1st-4th projectors 21-24 project each partial image with respect to the area | region which fits in the effective projection area | region A among each projection area | region.

例えば、第1のプロジェクター21から投射された光により、第1投射領域A1のうちで有効投射領域Aに収まる領域に、第1の部分画像P1が表示される。以下同様に、第2〜第4のプロジェクター22〜24により、第2の部分画像P2、第3の部分画像P3、および第4の部分画像P4が表示される。第1〜第4の部分画像P1〜P4は、重畳領域A5にて互いの重複領域P5を重畳されて表示され、全体としてコンテンツ画像Pを構成する。   For example, the first partial image P <b> 1 is displayed in an area that falls within the effective projection area A in the first projection area A <b> 1 by the light projected from the first projector 21. Similarly, the second partial image P2, the third partial image P3, and the fourth partial image P4 are displayed by the second to fourth projectors 22 to 24. The first to fourth partial images P1 to P4 are displayed with the overlapping area P5 superimposed on each other in the overlapping area A5, and constitute the content image P as a whole.

図1の説明に戻り、測定装置4は、被投射面9上に表示された画像の輝度レベルの色調分布(XYZまたはRGBの三軸二次元情報)を測定可能なものである。本実施形態の測定装置4は、全体投射領域A0の全体を含む被投射面9上の領域を撮像可能な撮像装置により構成されている。後述する形状補正情報や階調補正情報を算出するときに、撮像装置により撮像された撮像画像を示す撮像画像データは、画像処理装置3へ出力される。   Returning to the description of FIG. 1, the measuring device 4 can measure the color tone distribution (XYZ or RGB three-axis two-dimensional information) of the luminance level of the image displayed on the projection surface 9. The measuring device 4 of the present embodiment is configured by an imaging device capable of imaging an area on the projection surface 9 including the entire projection area A0. When calculating shape correction information and gradation correction information, which will be described later, captured image data indicating a captured image captured by the imaging device is output to the image processing device 3.

撮像装置は、例えばCCDカメラ等の二次元イメージセンサーにより構成される。撮像装置は、2以上の二次元イメージセンサーにより構成されていてもよい。例えば形状補正情報を算出するときの撮像用と、階調補正情報を算出するときの撮像用とで異なる二次元イメージセンサーを用いてもよい。   The imaging device is constituted by a two-dimensional image sensor such as a CCD camera. The imaging device may be composed of two or more two-dimensional image sensors. For example, different two-dimensional image sensors may be used for imaging when calculating shape correction information and for imaging when calculating gradation correction information.

階調補正情報を算出するときの撮像用の撮像装置としては、xyz等色関数近似の分光感度を持つフィルターを用いて撮像し、マトリクス補正演算によりXYZ三刺激値を得るものや、等色関数とは異なるRGBフィルターを用いて撮像し、RGB画像を得るものが挙げられる。   As an imaging device for imaging when calculating gradation correction information, an image is obtained using a filter having a spectral sensitivity approximate to xyz color matching function, and an XYZ tristimulus value is obtained by matrix correction calculation. And an image obtained by using an RGB filter different from the above to obtain an RGB image.

ところで、1回の撮像により全体投射領域A0の全体を撮像すれば、数回の撮像による撮像画像を合わせて全体投射領域A0の全体を撮像する場合と比較して、撮像と撮像の間の撮像装置の移動等による誤差をなくすことができる。全体投射領域A0の寸法やアスペクト比によっては、全体投射領域A0の全体が撮像装置の画角に収まらない場合もありえる。この場合には、撮像装置を三脚等に据えること等により、被投射面9に対する撮像装置の相対位置を略固定した状態で全体投射領域A0を部分ごとに撮像し、2回以上の撮像結果を合わせて全体投射領域A0の全体を撮像した撮像画像を取得してもよい。   By the way, if the whole projection area A0 is imaged by one imaging, the imaging between imaging is compared with the case where the whole projection area A0 is imaged by combining the captured images by several imaging. Errors due to movement of the device can be eliminated. Depending on the size and aspect ratio of the entire projection area A0, the entire projection area A0 may not fit within the angle of view of the imaging apparatus. In this case, by placing the imaging device on a tripod or the like, the entire projection area A0 is imaged for each part in a state where the relative position of the imaging device with respect to the projection surface 9 is substantially fixed, and the imaging result of two or more times In addition, a captured image obtained by capturing the entire projection area A0 may be acquired.

画像処理装置3は、コンテンツ画像Pを示す画像データを例えば信号源8から受け取る。画像処理装置3は、画像データに階調補正処理を施した後に、階調補正処理後の画像データを元に複数の部分画像データを生成する。各部分画像データは、第1〜第4の部分画像P1〜P4のいずれかを示すデータである。画像処理装置3は、各部分画像データにエッジブレンド処理を施した後に形状補正処理を施す。階調補正処理、形状補正処理、およびエッジブレンド処理では、概略すると下記の処理を行う。   The image processing device 3 receives image data indicating the content image P from, for example, the signal source 8. The image processing apparatus 3 performs a gradation correction process on the image data, and then generates a plurality of partial image data based on the image data after the gradation correction process. Each partial image data is data indicating one of the first to fourth partial images P1 to P4. The image processing apparatus 3 performs shape correction processing after performing edge blend processing on each partial image data. The outline of the gradation correction process, the shape correction process, and the edge blend process is as follows.

階調補正処理では、補正前の画像データに基づいて投射される画像における階調ムラよりも補正後の画像データに基づいて投射された画像における階調ムラが減るように、コンテンツ画像Pを示す画像データを補正する。階調補正処理では、各部分画像での階調ムラと、複数の部分画像P1〜P4での相対的な輝度や色調の違いとを、いずれもコンテンツ画像Pの階調ムラとして同じ処理で補正する。各部分画像での階調ムラは、例えば、布状のスクリーンのたわみ等による被投射面9の局所的に歪みや、各プロジェクター内の光源光の強度の空間的な不均一性、レンズ等の光学部品における色収差等により発生する。複数の部分画像P1〜P4での相対的な輝度や色調の違いは、例えば、複数のプロジェクター2での定格の出力光量の違いや、プロジェクターの製造誤差等により発生する。   In the gradation correction process, the content image P is displayed so that the gradation unevenness in the image projected based on the corrected image data is less than the gradation unevenness in the image projected based on the image data before correction. Correct the image data. In the gradation correction process, gradation unevenness in each partial image and relative luminance and color tone differences among the plurality of partial images P1 to P4 are corrected by the same process as gradation unevenness of the content image P. To do. The gradation unevenness in each partial image is, for example, local distortion of the projection surface 9 due to the deflection of the cloth-like screen, spatial nonuniformity of the light source light intensity in each projector, lenses, etc. It occurs due to chromatic aberration and the like in the optical component. Differences in relative luminance and color tone among the plurality of partial images P1 to P4 occur due to, for example, a difference in rated output light quantity among the plurality of projectors 2, a manufacturing error of the projector, and the like.

エッジブレンド処理では、図1に示したように、互いに隣り合う一対の部分画像で互いの重複領域P5が重畳されたときに、重複領域P5の各画素の輝度レベル値が、コンテンツ画像Pを示す画像データに規定された各画素の階調値に相当する輝度レベルに近づくように、各部分画像データを補正する。   In the edge blending process, as shown in FIG. 1, when the overlapping region P5 is superimposed on a pair of adjacent partial images, the luminance level value of each pixel in the overlapping region P5 indicates the content image P. Each partial image data is corrected so as to approach a luminance level corresponding to the gradation value of each pixel defined in the image data.

形状補正処理では、各部分画像内の画像歪を補正するとともに、複数の部分画像P1〜P4の相対位置のずれを補正する。画像歪の一例として、例えば被投射面9に対する第1〜第4のプロジェクター21〜24の各々の投射方向、すなわち垂直方向の仰角や俯角、水平方向の煽り角等に応じて発生する画像歪(例えばキーストン歪)が挙げられる。画像歪の他の例として、例えば布状のスクリーンのたわみ等により、被投射面9が局所的に歪むことにより発生する画像歪が挙げられる。上記の第1〜第4の部分画像P1〜P4の相対位置のずれは、第1〜第4のプロジェクター21〜24で、例えば、投射方向が一致していないことや相対位置のずれていること等に起因する。   In the shape correction process, the image distortion in each partial image is corrected and the relative position shift between the plurality of partial images P1 to P4 is corrected. As an example of image distortion, for example, image distortion (corresponding to the projection direction of each of the first to fourth projectors 21 to 24 with respect to the projection surface 9, that is, the vertical elevation angle, depression angle, horizontal inclination angle, etc.) For example, keystone distortion). As another example of the image distortion, there is an image distortion generated when the projection surface 9 is locally distorted due to, for example, a cloth-like screen deflection. The relative position shift of the first to fourth partial images P1 to P4 is, for example, that the projection directions do not match or the relative position is shifted in the first to fourth projectors 21 to 24. Due to etc.

画像処理装置3は、形状補正処理後の部分画像データを、この部分画像を担当するプロジェクターへ入力する。第1〜第4のプロジェクター21〜24は、画像処理装置3から入力された部分画像データに基づいて、被投射面9上に第1〜第4の部分画像P1〜P4を投射する。画像処理装置3は、画像表示システム1の設置時や、画像表示システム1の設置時から所定期間が経過したメンテナンス時等の適宜選択されるタイミングに、形状補正処理に用いる形状補正情報や階調補正処理に用いる階調補正情報を算出する。   The image processing apparatus 3 inputs the partial image data after the shape correction processing to the projector that is in charge of this partial image. The first to fourth projectors 21 to 24 project the first to fourth partial images P1 to P4 on the projection surface 9 based on the partial image data input from the image processing device 3. The image processing apparatus 3 uses shape correction information and gradations used for shape correction processing at an appropriately selected timing such as when the image display system 1 is installed or when a predetermined period has elapsed since the image display system 1 is installed. Tone correction information used for correction processing is calculated.

本発明に係る画像処理装置の機能を実現する態様として、例えば下記の第1〜第3の態様が挙げられる。
第1の態様として、各種処理を行うASIC等の1以上のロジック回路による画像処理装置が挙げられる。この画像処理装置は、その一部または全部が、第1〜第4のプロジェクター21〜24、測定装置4、信号源8のいずれかと一体化されていてもよい。
第2の態様として、プログラムが実装されたコンピューターによる構成が挙げられる。すなわち、プログラムにより各種処理をコンピューターに実行させることにより、画像処理装置の機能を実現することができる。例えば、メモリーやCPUを利用して各処理における演算を実行させ、演算結果をハードディスクやメモリー等の記憶部に格納しておき、必要に応じて演算結果を読出して他の処理に供することにより、ロジック回路等を用いる場合と同様の処理結果が得られる。なお、第2の態様において、各種処理を複数のコンピューターに分担させて行わせるようにしてもよい。
第3の態様として、各種処理の一部の処理を行うロジック回路と、プログラムにより各種処理の他の処理を行うコンピューターとを組み合わせた構成が挙げられる。
Examples of modes for realizing the functions of the image processing apparatus according to the present invention include the following first to third modes.
As a first aspect, there is an image processing apparatus using one or more logic circuits such as an ASIC that performs various processes. A part or all of this image processing apparatus may be integrated with any of the first to fourth projectors 21 to 24, the measuring apparatus 4, and the signal source 8.
As a second aspect, there is a configuration by a computer in which a program is installed. That is, the functions of the image processing apparatus can be realized by causing a computer to execute various processes according to a program. For example, by performing a calculation in each process using a memory or a CPU, storing the calculation result in a storage unit such as a hard disk or a memory, and reading out the calculation result as necessary for other processes. Processing results similar to those obtained when a logic circuit or the like is used can be obtained. In the second aspect, various processes may be shared by a plurality of computers.
As a third aspect, there is a configuration in which a logic circuit that performs a part of various processes and a computer that performs other processes by a program are combined.

このように、本発明に係る画像処理装置の機能を実現するには、各種処理を行う独立した装置としての態様の他に、各種処理の一部を行う複数の機能部の集合としての態様もとりえる。すなわち、複数の機能部が、別体の複数の装置に分かれて設けられており、互いに協働して処理を行う態様であっても画像処理装置の機能を実現することができる。   As described above, in order to realize the functions of the image processing apparatus according to the present invention, in addition to an aspect as an independent apparatus that performs various processes, an aspect as a set of a plurality of functional units that perform a part of various processes can be taken. Yeah. That is, a plurality of functional units are separately provided in a plurality of separate devices, and the function of the image processing device can be realized even in a mode in which processing is performed in cooperation with each other.

以上のように複数のプロジェクター2によりコンテンツ画像Pを表示すると、コンテンツ画像Pを大画面、高解像度、高輝度で表示にすることができる。例えば、一台のプロジェクターにより表示する場合と比較して、プロジェクターあたりの画素数(変調要素の数)が同じである条件では、解像度を下げることなく大画面でコンテンツ画像Pを表示することができる。また、同じ画面サイズでコンテンツ画像Pを表示する条件で比較すると、プロジェクターの数に応じて画素数を増すことができ、高解像度でコンテンツ画像を表示することができる。プロジェクターあたりの定格の出力光量が同じである条件で比較すると、表示に寄与する光の光量をプロジェクターの数に応じて増すことができ、高輝度でコンテンツ画像Pを表示することができる。   When the content image P is displayed by the plurality of projectors 2 as described above, the content image P can be displayed with a large screen, high resolution, and high luminance. For example, the content image P can be displayed on a large screen without reducing the resolution under the condition that the number of pixels per projector (the number of modulation elements) is the same as compared with the case of displaying with one projector. . Further, when the comparison is made under the condition that the content image P is displayed with the same screen size, the number of pixels can be increased according to the number of projectors, and the content image can be displayed with high resolution. When the comparison is made under the condition that the rated output light amount per projector is the same, the light amount contributing to the display can be increased according to the number of projectors, and the content image P can be displayed with high brightness.

これらの効果を得るためにプロジェクターの画素数や出力を増す手法と比較すると、各プロジェクターのコストを飛躍的に下げることができるので、プロジェクターの数を加味しても装置コストを低減する効果が期待される。また、通常時はプロジェクターごとに例えば別の場所(例えば小会議室)に設置して使用し、用途に応じて、例えば大会議室に画像表示システムを構築して、コンテンツ画像を大画面、高解像度、高輝度で表示することも可能である。このように、プロジェクターを単独で使用するか、複数のプロジェクターを組み合わせて使用するかを用途に応じて選択可能になるので、1台のプロジェクターで上記の効果を得ようとする場合と比較して、利便性が高くなる。   Compared with the method of increasing the number of pixels and output of the projector to obtain these effects, the cost of each projector can be drastically reduced, so the effect of reducing the equipment cost even with the number of projectors is expected Is done. In addition, for example, each projector is usually installed and used in another place (for example, a small meeting room), and an image display system is constructed in, for example, a large meeting room according to the application, and content images are displayed on a large screen, It is also possible to display with high resolution and high brightness. In this way, it is possible to select whether to use a projector alone or in combination with a plurality of projectors, depending on the application, so compared to the case where one projector tries to obtain the above effect , Increase convenience.

また、画像処理装置3により階調補正処理や形状補正処理が施された画像データに基づいてコンテンツ画像Pが表示されるので、コンテンツ画像Pの全体での階調ムラや、各部分画像の画像歪、複数の部分画像での相対位置のずれが低減される。したがって、複数の部分画像での一体感が高められた状態でコンテンツ画像Pを表示することができ、コンテンツ画像Pを高品質な画像として表示可能になる。本発明では、階調補正処理に要する演算等の負荷を低減可能になっており、画像データを効率よく補正可能になっている。   In addition, since the content image P is displayed based on the image data that has been subjected to the gradation correction processing and the shape correction processing by the image processing device 3, gradation unevenness in the entire content image P and the image of each partial image are displayed. Distortion and relative position shift in a plurality of partial images are reduced. Therefore, the content image P can be displayed in a state where the sense of unity among the plurality of partial images is enhanced, and the content image P can be displayed as a high-quality image. In the present invention, it is possible to reduce a load such as computation required for the gradation correction processing, and it is possible to efficiently correct image data.

次に、図3を参照しつつ画像処理装置3の構成について詳しく説明する。図3は、本発明に係る画像処理装置の機能構成を示すブロック図である。
図3に示すように画像処理装置3は、階調補正部30、データ生成部31、第1〜第4のエッジブレンド処理部32a〜32d、および形状補正部33を備えている。
Next, the configuration of the image processing apparatus 3 will be described in detail with reference to FIG. FIG. 3 is a block diagram showing a functional configuration of the image processing apparatus according to the present invention.
As shown in FIG. 3, the image processing apparatus 3 includes a gradation correction unit 30, a data generation unit 31, first to fourth edge blend processing units 32 a to 32 d, and a shape correction unit 33.

階調補正部30は、階調補正処理部34、階調補正情報算出部35、および記憶部36を有している。記憶部36は、例えばハードディスクや不揮発メモリー等により構成される。記憶部36には、階調補正情報が格納されている。階調補正情報は、階調補正処理前の画像データに規定された各画素の階調値と、階調補正処理後の画像データに基づいて被投射面9上に表示された各画素(以下、表示画素という)の輝度レベルとの対応関係を示す情報である。すなわち、階調補正情報を参照すると、表示画素の輝度レベルを所定値に近づけるように画像データを補正するときに、各画素の階調値の補正量として要求される値が分かるようになっている。   The gradation correction unit 30 includes a gradation correction processing unit 34, a gradation correction information calculation unit 35, and a storage unit 36. The storage unit 36 is configured by, for example, a hard disk or a nonvolatile memory. The storage unit 36 stores gradation correction information. The gradation correction information includes each pixel displayed on the projection surface 9 based on the gradation value of each pixel defined in the image data before the gradation correction process and the image data after the gradation correction process (hereinafter, referred to as the gradation correction information). , Which is a display pixel). That is, referring to the gradation correction information, when the image data is corrected so that the luminance level of the display pixel approaches a predetermined value, the value required as the correction amount of the gradation value of each pixel can be known. Yes.

本実施形態の階調補正情報は、画像データに規定された画素配列における各画素について、フルカラー画像を構成する各基本色の階調値の補正量を示す情報を含んでいる。具体的には、各画素の階調補正用のデータとして、赤の階調値の補正量を示す情報、緑の階調値の補正量を示す情報、および青の階調値の補正量を示す情報を含んでおり、これらの情報はテーブル形式で記憶部36に格納されている。   The gradation correction information of the present embodiment includes information indicating the correction amount of the gradation value of each basic color constituting the full color image for each pixel in the pixel array defined in the image data. Specifically, information indicating the correction amount of the red tone value, information indicating the correction amount of the green tone value, and the correction amount of the blue tone value are used as tone correction data for each pixel. This information is stored in the storage unit 36 in a table format.

階調補正処理部34は、コンテンツ画像Pを表示するときに、記憶部36から階調補正情報を読出し、コンテンツ画像Pを示す画像データに階調補正情報を用いて階調補正処理を施す。階調補正情報算出部35が階調補正情報を算出する。階調補正情報を算出するときに、複数のプロジェクター2は協働して階調測定用の画像を被投射面9に投射する。被投射面9上の階調測定用の画像は、測定装置4により撮像され、得られた撮像画像を示す撮像画像データが階調補正情報算出部35へ出力される。階調測定用の画像は、被投射面9に投射された状態で輝度レベルの分布を測定可能なパターンから適宜選択される。階調測定用の画像としては、階調値を高精度に測定可能にする観点で、全画素の階調値が同じである画像(以下、ベタ画像という)用いることが好ましい。階調測定用の画像を示す階調測定用の画像データは、画像処理装置3の内部(例えば記憶部36)または外部(例えば信号源8)に格納されており、階調補正情報を算出するときに各プロジェクターへ出力される。   When displaying the content image P, the gradation correction processing unit 34 reads the gradation correction information from the storage unit 36, and performs gradation correction processing on the image data indicating the content image P using the gradation correction information. The gradation correction information calculation unit 35 calculates gradation correction information. When calculating gradation correction information, the plurality of projectors 2 cooperate to project an image for gradation measurement onto the projection surface 9. An image for gradation measurement on the projection surface 9 is captured by the measurement device 4, and captured image data indicating the obtained captured image is output to the gradation correction information calculation unit 35. The image for gradation measurement is appropriately selected from patterns that can measure the distribution of luminance levels in a state of being projected on the projection surface 9. As an image for gradation measurement, it is preferable to use an image (hereinafter referred to as a solid image) in which the gradation values of all the pixels are the same from the viewpoint of making it possible to measure gradation values with high accuracy. Image data for gradation measurement indicating an image for gradation measurement is stored inside (for example, the storage unit 36) or outside (for example, the signal source 8) of the image processing apparatus 3, and calculates gradation correction information. Sometimes output to each projector.

階調補正情報算出部35は、階調測定用の画像における複数の評価領域の各々について、上記の撮像画像に写っている階調測定用の画像(階調測定用の撮像画像という)での階調値と、階調測定用の画像データに規定されている階調値とを比較し、階調補正情報を算出する。撮像画像の各画素の階調値は、この画素に相当する被投射面上の領域の輝度レベルに相当する。評価領域は、階調測定用の画像を構成する1画素または連続する2以上の画素により構成される領域である。被投射面9上の階調測定用の画像のうちで各プロジェクターが投射した領域を階調測定用の部分画像としたときに、いずれの階調測定用の部分画像にも1以上の評価領域が含まれるように複数の評価領域が選択されていれば、評価領域の範囲や数、配置については自由に設定可能である
階調補正情報算出部35は、算出した階調補正情報を記憶部36に格納し、階調補正情報を更新する。
The gradation correction information calculation unit 35 uses a gradation measurement image (referred to as a gradation measurement captured image) reflected in the captured image for each of a plurality of evaluation regions in the gradation measurement image. The gradation correction information is calculated by comparing the gradation value with the gradation value defined in the image data for gradation measurement. The gradation value of each pixel of the captured image corresponds to the luminance level of the area on the projection surface corresponding to this pixel. The evaluation area is an area constituted by one pixel or two or more continuous pixels constituting an image for gradation measurement. When the area projected by each projector in the gradation measurement image on the projection surface 9 is a partial image for gradation measurement, each partial image for gradation measurement has one or more evaluation areas. If a plurality of evaluation areas are selected such that the evaluation area is included, the range, number, and arrangement of the evaluation areas can be freely set. The gradation correction information calculation unit 35 stores the calculated gradation correction information in the storage unit. 36, and the gradation correction information is updated.

データ生成部31は、コンテンツ画像Pを表示するときに、階調補正処理後の画像データを元に各部分画像データを生成する。データ生成部31は、例えば各投射領域のオーバーラップ量を示す情報、および各投射領域の被投射面9上での配置を示す情報を参照し、図2に示した重畳領域A5の大きさを加味して部分画像データを生成する。オーバーラップ量は、一対の投射領域を所定の方向(例えば水平方向)に並べたときに、1つの投射領域の所定の方向での幅と、一対の投射領域が互いに重なり合う領域の所定の方向での幅との比率等により表される。例えば、コンテンツ画像Pを部分画像の数で等分割した複数の領域と、オーバーラップ量により定まる重複領域P5との和で表される領域に相当する画像を部分画像として、画像データから部分画像に相当するデータを抽出することにより部分画像データが得られる。   When displaying the content image P, the data generation unit 31 generates each partial image data based on the image data after the gradation correction processing. For example, the data generation unit 31 refers to the information indicating the overlap amount of each projection area and the information indicating the arrangement of each projection area on the projection surface 9, and determines the size of the overlap area A5 illustrated in FIG. In consideration, partial image data is generated. When the pair of projection areas are arranged in a predetermined direction (for example, the horizontal direction), the overlap amount is the width in a predetermined direction of one projection area and the predetermined direction of the area where the pair of projection areas overlap each other. It is expressed by the ratio with the width of For example, an image corresponding to a region represented by the sum of a plurality of regions obtained by equally dividing the content image P by the number of partial images and an overlapping region P5 determined by the overlap amount is used as a partial image, and the image data is converted into a partial image. Partial image data is obtained by extracting corresponding data.

データ生成部31は、第1の部分画像P1を示す第1の部分画像データを第1のエッジブレンド処理部32aへ出力する。データ生成部31は、以下同様に、第2〜第4の部分画像P2〜P4を示す第2〜第4の部分画像データを第2〜第4のエッジブレンド処理部32b〜32dへ出力する。   The data generation unit 31 outputs the first partial image data indicating the first partial image P1 to the first edge blend processing unit 32a. Similarly, the data generation unit 31 outputs the second to fourth partial image data indicating the second to fourth partial images P2 to P4 to the second to fourth edge blend processing units 32b to 32d.

第1〜第4のエッジブレンド処理部32a〜32dは、入力された部分画像データに対してエッジブレンド処理を施す。重複領域P5の任意の画素は、複数の部分画像に含まれており、この画素の階調値は複数の部分画像データに規定されている。エッジブレンド処理では、上記の任意の画素の階調値として複数の部分画像データに規定された値の積算値が、階調補正処理前の画像データに規定されたこの画素の階調値に近づくように、各部分画像データを補正する。第1〜第4のエッジブレンド処理部32a〜32dは、エッジブレンド処理後の各部分画像データを形状補正部33へ出力する。   The first to fourth edge blend processing units 32a to 32d perform edge blend processing on the input partial image data. Arbitrary pixels in the overlapping region P5 are included in the plurality of partial images, and the gradation values of the pixels are defined in the plurality of partial image data. In the edge blending process, the integrated value of the values defined in the plurality of partial image data as the gradation value of the arbitrary pixel approaches the gradation value of this pixel defined in the image data before the gradation correction process. Thus, each partial image data is corrected. The first to fourth edge blend processing units 32 a to 32 d output the partial image data after the edge blend processing to the shape correction unit 33.

形状補正部33は、第1〜第4の形状補正処理部37a〜37d、形状補正情報算出部38、および記憶部39を有している。記憶部39は、階調補正部30の記憶部36と同様のものであり、記憶部36と同じ装置により構成されていてもよい。記憶部39には、形状補正情報が格納されている。形状補正情報は、各プロジェクターの画像形成素子上の各変調要素の位置と、被投射面9上の各表示画素の位置との対応関係を示す情報である。形状補正情報は、例えば変調要素ごとの値としてテーブル形式で格納されている。形状補正情報を参照すれば、有効投射領域Aの所定の位置に所定の画素が表示されるようにする上で、各画素データをいずれの変調要素へ入力すればよいのかが分かる。   The shape correction unit 33 includes first to fourth shape correction processing units 37 a to 37 d, a shape correction information calculation unit 38, and a storage unit 39. The storage unit 39 is the same as the storage unit 36 of the gradation correction unit 30 and may be configured by the same device as the storage unit 36. The storage unit 39 stores shape correction information. The shape correction information is information indicating a correspondence relationship between the position of each modulation element on the image forming element of each projector and the position of each display pixel on the projection surface 9. The shape correction information is stored in a table format as a value for each modulation element, for example. By referring to the shape correction information, it can be understood to which modulation element each pixel data should be input in order to display a predetermined pixel at a predetermined position in the effective projection area A.

第1〜第4の形状補正処理部37a〜37dは、コンテンツ画像Pを表示するときに、上記の第1〜第4の部分画像データに形状補正処理を施す。例えは、第1の形状補正処理部37aは、第1のエッジブレンド処理部32aから第1のプロジェクター21により投射する第1の部分画像P1を示す第1の部分画像データを受け取る。第1の形状補正処理部37aは、形状補正処理前の部分画像データに規定された部分画像が、第1投射領域A1の内側の有効投射領域A内に表示されるように、例えば、下記の形状補正処理を行う。   When displaying the content image P, the first to fourth shape correction processing units 37a to 37d perform shape correction processing on the first to fourth partial image data. For example, the first shape correction processing unit 37a receives first partial image data indicating the first partial image P1 projected by the first projector 21 from the first edge blend processing unit 32a. For example, the first shape correction processing unit 37a may display the partial image defined in the partial image data before the shape correction processing in the effective projection area A inside the first projection area A1, for example, as follows. Perform shape correction processing.

第1の形状補正処理部37aは、全体投射領域A0の内側であって有効投射領域Aの外側の各画素(以下、非表示画素という)について、形状補正情報により各非表示画素と対応付けられた画像形成素子の各変調要素に供給するデータを、非表示用のマスクデータ(例えば黒を示すデータ)にする。また、有効投射領域Aの内側の各画素について、形状補正情報により表示画素と対応付けられた変調要素に供給するデータを、この表示画素用の画素データとして部分画像データに規定されたデータにする。   The first shape correction processing unit 37a is associated with each non-display pixel by shape correction information for each pixel inside the entire projection area A0 and outside the effective projection area A (hereinafter referred to as a non-display pixel). The data supplied to each modulation element of the image forming element is made non-display mask data (for example, data indicating black). Further, for each pixel inside the effective projection area A, the data supplied to the modulation element associated with the display pixel by the shape correction information is changed to data defined in the partial image data as the pixel data for the display pixel. .

第1の形状補正処理部37aは、表示画素の位置が格子状の画素配列の格子点位置からずれている場合には、必要に応じてレンダリング処理等の補間処理を行う。例えば、表示画素に対応する画像データ上の画素の周囲の画素の画素データを用いて、表示画素の位置に応じた画素データを補間により求める。補間のときに参照する周囲の画素の位置や、補間のときに周囲の画素の画素データに乗じる重み付けの係数(補間係数)等は、形状補正情報の一部として予め求めておくとよい。   When the position of the display pixel is deviated from the grid point position of the grid-like pixel array, the first shape correction processing unit 37a performs an interpolation process such as a rendering process as necessary. For example, pixel data corresponding to the position of the display pixel is obtained by interpolation using pixel data of pixels around the pixel on the image data corresponding to the display pixel. The positions of surrounding pixels to be referred to at the time of interpolation, weighting coefficients (interpolation coefficients) to be multiplied by the pixel data of the surrounding pixels at the time of interpolation, and the like may be obtained in advance as part of the shape correction information.

第2〜第4の形状補正処理部37b〜37dは、第1の形状補正処理部37aと同様の形状補正処理を行う。すなわち、第2の形状補正処理部37bは、第2のエッジブレンド処理部32bから第2の部分画像データを受け取り、形状補正処理後の第2の部分画像データを第2のプロジェクター22へ出力する。第3の形状補正処理部37cは、第3のエッジブレンド処理部32cから第3の部分画像データを受け取り、形状補正処理後の第3の部分画像データを第3のプロジェクター23へ出力する。第4の形状補正処理部37dは、第4のエッジブレンド処理部32dから第4の部分画像データを受け取り、形状補正処理後の第4の部分画像データを第4のプロジェクター24へ出力する。   The second to fourth shape correction processing units 37b to 37d perform the same shape correction processing as that of the first shape correction processing unit 37a. That is, the second shape correction processing unit 37 b receives the second partial image data from the second edge blend processing unit 32 b and outputs the second partial image data after the shape correction processing to the second projector 22. . The third shape correction processing unit 37 c receives the third partial image data from the third edge blend processing unit 32 c and outputs the third partial image data after the shape correction processing to the third projector 23. The fourth shape correction processing unit 37d receives the fourth partial image data from the fourth edge blend processing unit 32d, and outputs the fourth partial image data after the shape correction processing to the fourth projector 24.

形状補正情報算出部38は、形状補正情報を算出する。形状補正情報を算出するときに、各プロジェクターは、複数の特徴点を含んだ形状測定用の画像を被投射面9に投射する。被投射面9上の形状測定用の画像は、測定装置4により撮像され、得られた撮像画像を示す撮像画像データが形状補正情報算出部38へ出力される。形状測定用の画像の投射および撮像は、複数のプロジェクター2で並行して行ってもよいし、複数のプロジェクター2でタイミングを異ならせて行ってもよい。   The shape correction information calculation unit 38 calculates shape correction information. When calculating the shape correction information, each projector projects a shape measurement image including a plurality of feature points onto the projection surface 9. The shape measurement image on the projection surface 9 is captured by the measurement device 4, and captured image data indicating the obtained captured image is output to the shape correction information calculation unit 38. Projection and imaging of an image for shape measurement may be performed in parallel by a plurality of projectors 2 or may be performed at different timings by a plurality of projectors 2.

形状補正情報算出部38は、形状測定用の画像における複数の特徴点の各々について、上記の撮像画像に写っている形状測定用の画像(形状測定用の撮像画像という)での位置と、形状測定用の画像データに規定されている位置とを比較し、形状補正情報を算出する。形状補正情報算出部38は、算出した形状補正情報を記憶部39に格納し、形状補正情報を更新する。   The shape correction information calculation unit 38, for each of a plurality of feature points in the shape measurement image, the position and shape in the shape measurement image (referred to as the shape measurement captured image) reflected in the captured image. The shape correction information is calculated by comparing the position defined in the image data for measurement. The shape correction information calculation unit 38 stores the calculated shape correction information in the storage unit 39 and updates the shape correction information.

次に、図4〜図16を参照しつつ、画像処理装置3の処理フローと処理内容について説明する。   Next, the processing flow and processing contents of the image processing apparatus 3 will be described with reference to FIGS.

図4は、形状補正情報および階調補正情報を算出するときの処理のフローを示すフローチャート、図5は、画像データを補正するときの処理フローを示すフローチャートである。ここでは、画像表示システム1の設置時に形状補正情報および階調補正情報を算出する例について説明する。なお、下記のステップS2〜S7の処理を行うことにより、本発明に係る画像処理方法の一態様を行うことができる。また、ステップS2〜S7の処理をコンピューターに行わせるプログラムを用いることにより、本発明に係る画像処理装置の機能を実現することもできる。   FIG. 4 is a flowchart showing a processing flow when calculating shape correction information and gradation correction information, and FIG. 5 is a flowchart showing a processing flow when correcting image data. Here, an example in which the shape correction information and the gradation correction information are calculated when the image display system 1 is installed will be described. In addition, the one aspect | mode of the image processing method which concerns on this invention can be performed by performing the process of following step S2-S7. Further, the function of the image processing apparatus according to the present invention can be realized by using a program that causes a computer to perform the processes of steps S2 to S7.

図4に示すように、形状補正情報および階調補正情報を算出するのに先立ち、まず被投射面9に対して複数のプロジェクター2を配置し、必要に応じて各プロジェクターの配置を粗調整する(ステップS1)。次いで、各プロジェクターが投射した形状測定用の画像を用いて、画像処理装置3の形状補正情報算出部38により形状補正情報を算出させる(ステップS2)。次いで、複数のプロジェクター2が協働して投射した階調測定用の画像を用いて、階調補正情報算出部35により階調補正情報を算出させる(ステップS3)。   As shown in FIG. 4, prior to calculating the shape correction information and the gradation correction information, first, a plurality of projectors 2 are arranged on the projection surface 9, and the arrangement of each projector is roughly adjusted as necessary. (Step S1). Next, the shape correction information is calculated by the shape correction information calculation unit 38 of the image processing apparatus 3 using the image for shape measurement projected by each projector (step S2). Next, tone correction information is calculated by the tone correction information calculation unit 35 using the tone measurement images projected by the plurality of projectors 2 in cooperation (step S3).

図5に示すように、コンテンツ画像Pを示す画像データを補正するには、ステップS3で算出された階調補正情報を用いて、階調補正処理部34により画像データに階調補正処理を実行させる(ステップS4)。次いで、階調補正処理後の画像データを元に、データ生成部31に各部分画像データを生成させる(ステップS5)。次いで、データ生成部31が生成した各部分画像データに対して、第1〜第4のエッジブレンド処理部32a〜32dによりエッジブレンド処理を実行させる(ステップS6)。次いで、ステップS2で算出された形状補正情報を用いて、エッジブレンド処理後の各部分画像データに対して第1〜第4の形状補正処理部37a〜37dにより形状補正処理を実行させる(ステップS7)。   As shown in FIG. 5, in order to correct the image data indicating the content image P, the tone correction processing unit 34 executes tone correction processing on the image data using the tone correction information calculated in step S3. (Step S4). Next, each partial image data is generated by the data generation unit 31 based on the image data after the gradation correction processing (step S5). Next, the first to fourth edge blend processing units 32a to 32d are caused to execute edge blend processing on each partial image data generated by the data generation unit 31 (step S6). Next, using the shape correction information calculated in step S2, the first to fourth shape correction processing units 37a to 37d execute shape correction processing on each partial image data after the edge blend processing (step S7). ).

図6は、プロジェクター設置作業の処理フローを示すフローチャート、図7はプロジェクター設置作業の処理内容を示す説明図である。
図6に示すように、プロジェクター設置作業では、例えば各プロジェクターを設置するユーザーが、重畳領域A5のサイズ(オーバーラップ量)を指定する(ステップS11)。
FIG. 6 is a flowchart showing a processing flow of the projector installation work, and FIG. 7 is an explanatory diagram showing processing contents of the projector installation work.
As shown in FIG. 6, in the projector installation work, for example, the user who installs each projector designates the size (overlap amount) of the overlapping area A5 (step S11).

本実施形態では、ユーザーからオーバーラップ量を示す情報の入力を受け付けるユーザーインターフェース(図示略)が画像処理装置3に設けられている。ユーザーが入力した情報は、画像処理装置3の内部または外部の記憶部に格納される。画像処理装置3は、オーバーラップ量を必要とする処理を実行するときに、上記の記憶部からオーバーラップ量を示す情報を読み出して処理に供する。上記のユーザーインターフェースとしては、例えばタッチパネルやキーボード、マウス等の各種入力デバイスが挙げられる。また、ユーザーは、上記の各種入力デバイスを利用して、各プロジェクターが担当する投射領域の被投射面9での配列を画像処理装置3に入力するようになっている。   In the present embodiment, the image processing apparatus 3 is provided with a user interface (not shown) that receives input of information indicating the overlap amount from the user. Information input by the user is stored in an internal or external storage unit of the image processing apparatus 3. When executing a process that requires an overlap amount, the image processing device 3 reads out information indicating the overlap amount from the storage unit and supplies it to the process. Examples of the user interface include various input devices such as a touch panel, a keyboard, and a mouse. In addition, the user inputs the arrangement on the projection surface 9 of the projection area that each projector is in charge of to the image processing apparatus 3 using the various input devices described above.

なお、オーバーラップ量を示すデータ投射領域の配列を示すデータについては、固定値または可変値として予め設定しておくことも可能であり、この場合にはオーバーラップ量を示す情報等の入力を省くことができる。また、形状補正処理や階調補正処理をプログラムによりコンピューターに実行させる場合には、ユーザーは、コンピューターに接続された各種入力デバイスを利用して、コンピューターにオーバーラップ量を示す情報を入力するとよい。この場合には、コンピューターが入力値を自身の記憶部等に格納して管理し、処理に必要な場合に入力値を読み出し、処理に供するようにしてもよい。   The data indicating the arrangement of the data projection area indicating the overlap amount can be set in advance as a fixed value or a variable value. In this case, input of information indicating the overlap amount is omitted. be able to. Further, when the computer executes the shape correction process and the gradation correction process by a program, the user may input information indicating the overlap amount to the computer using various input devices connected to the computer. In this case, the computer may store and manage the input value in its own storage unit, etc., and read the input value when necessary for processing, and use it for processing.

次いで、画像処理装置3は、オーバーラップ量の入力値をユーザーから受け取り、重畳領域A5のガイドを含んだ画像(以下、ガイド画像という)を示す画像データを各プロジェクターに供給する。各プロジェクターは、画像処理装置3から供給された画像データに基づいて、図7に示すように被投射面9にガイド画像P6を投射する(ステップS12)。本実施形態では、データ生成部31が、各プロジェクターの投射領域の被投射面9での配置、オーバーラップ量、および各プロジェクターの画像形成素子の画素数を用いて、重畳領域A5の輪郭を示す図形を含んだガイド画像P6の画像データを生成する。   Next, the image processing apparatus 3 receives an input value of the overlap amount from the user, and supplies image data indicating an image including a guide of the overlapping area A5 (hereinafter referred to as a guide image) to each projector. Each projector projects the guide image P6 on the projection surface 9 as shown in FIG. 7 based on the image data supplied from the image processing device 3 (step S12). In the present embodiment, the data generation unit 31 indicates the outline of the overlapping region A5 using the arrangement of the projection region of each projector on the projection surface 9, the overlap amount, and the number of pixels of the image forming element of each projector. Image data of a guide image P6 including a figure is generated.

データ生成部31は、例えば以下のようにしてガイド画像の画像データを生成する。ここでは、各プロジェクターの画像形成素子の画素数が1920×1080個であり、オーバーラップ量が20%であるとする。データ生成部31は、第1のプロジェクター21が担当する第1投射領域A1が、第1〜第4投射領域A1〜A4の配列のうちで水平方向の端かつ垂直方向の端に配置されていることを示す情報を、ユーザーが入力した情報から取得する。データ生成部31は、水平方向のうちで第1投射領域A1が第2投射領域A2と重畳される側の第1投射領域A1の端から396ピクセル(1920ピクセルの20%)の位置を重畳領域A5の輪郭として、この輪郭を示すガイドG1を含んだガイド画像P6の画像データを生成する。ユーザーは、ガイドG1の輪郭に第2投射領域A2の輪郭が概ね重なるように、第1のプロジェクター21または第2プロジェクター22を移動させる。   The data generation unit 31 generates image data of the guide image as follows, for example. Here, it is assumed that the number of pixels of the image forming element of each projector is 1920 × 1080, and the overlap amount is 20%. In the data generation unit 31, the first projection area A1 handled by the first projector 21 is arranged at the horizontal end and the vertical end in the arrangement of the first to fourth projection areas A1 to A4. The information indicating that is acquired from the information input by the user. The data generation unit 31 overlaps the position of 396 pixels (20% of 1920 pixels) from the end of the first projection area A1 on the side where the first projection area A1 is overlapped with the second projection area A2 in the horizontal direction. As the contour of A5, image data of the guide image P6 including the guide G1 indicating the contour is generated. The user moves the first projector 21 or the second projector 22 so that the outline of the second projection area A2 substantially overlaps the outline of the guide G1.

データ生成部31は、同様にして、第2〜第4のプロジェクター用のガイド画像の画像データを生成する。ユーザーは、各プロジェクター用のガイド画像を参照しつつ、第1〜第4のプロジェクターを設置する(ステップS13)。ところで、各投射領域の歪や、複数の投射領域での相対位置のずれに起因する部分画像の歪や相対位置のずれについては、後の形状補正処理により補正されることになる。したがって、各投射領域の輪郭をガイドに厳密に一致させる必要はなく、プロジェクターの設置作業におけるユーザーの負担を軽減することができる。
なお、画像表示システム1の設置後、例えば画像表示システム1のメンテナンス時に形状補正情報を算出する場合には、上記のステップS1を省くこともできる。
Similarly, the data generation unit 31 generates image data of guide images for the second to fourth projectors. The user installs the first to fourth projectors while referring to the guide image for each projector (step S13). By the way, the distortion of each projection area, the distortion of the partial image caused by the relative position shift in the plurality of projection areas, and the shift of the relative position are corrected by the subsequent shape correction processing. Therefore, it is not necessary to exactly match the outline of each projection area with the guide, and the burden on the user in the installation work of the projector can be reduced.
Note that when the shape correction information is calculated after the image display system 1 is installed, for example, during maintenance of the image display system 1, the above step S1 may be omitted.

図8は、形状補正情報算出処理の処理フローを示すフローチャート、図9は、被投射面での特徴点の位置の測定方法を示す説明図である。
図8に示すように、形状補正情報算出処理では、まずエッジブレンド処理による部分画像データの補正動作と形状補正処理による部分画像データの補正動作を禁止する(ステップS21)。次いで、図9に示すように、各プロジェクターにより被投射面9上に形状測定用の画像P7を表示させる(ステップS22)。形状測定用の画像P7は、特徴図形G2を含んでいる。特徴図形は、エッジ検出処理やパターン認識処理等を用いた各種画像処理技術により検出可能な形状や輝度分布の図形であり、特徴図形を検出したときに特徴図形を代表する点を特徴点として求めることが可能な図形である。
FIG. 8 is a flowchart showing the processing flow of the shape correction information calculation process, and FIG. 9 is an explanatory diagram showing a method for measuring the position of the feature point on the projection surface.
As shown in FIG. 8, in the shape correction information calculation process, first, the partial image data correction operation by the edge blend process and the partial image data correction operation by the shape correction process are prohibited (step S21). Next, as shown in FIG. 9, an image P7 for shape measurement is displayed on the projection surface 9 by each projector (step S22). The shape measurement image P7 includes a feature graphic G2. A feature figure is a figure with a shape or luminance distribution that can be detected by various image processing techniques using edge detection processing, pattern recognition processing, and the like, and when a feature figure is detected, a point that represents the feature figure is obtained as a feature point. Is a possible figure.

特徴図形については、その形状および位置を検出可能であり、検出した形状および位置と関係づけられた位置を特徴点の位置として特定可能であれば、その形状や数、配置などに特に限定はない。特徴図形の形状としては、例えば互いに交差した線(クロスハッチ、メッシュ)、ドット形状や矩形状であってもよい。特徴図形が、互いに交差する線である場合には、特徴図形を構成する線をハフ変換等により検出し、検出した線分の交点の位置を、それぞれ特徴点の位置として特定することができる。特徴図形がドット形状である場合には、上記の画像処理技術によりドット形状の輪郭または輝度分布を検出し、ドット形状の中心点の位置を特徴点の位置として特定することができる。図9には、互いに交差する2方向の各々に線分が周期的に並ぶメッシュ状の特徴図形G2を例示している。このような特徴図形G2は、線分の交差点の位置をいずれも特徴点の位置として特定可能である。   As long as the shape and position of a feature graphic can be detected and the position associated with the detected shape and position can be specified as the position of the feature point, the shape, number, and arrangement are not particularly limited. . The shape of the feature graphic may be, for example, a line (cross hatch, mesh), a dot shape, or a rectangular shape intersecting each other. When the feature graphic is a line that intersects with each other, the lines constituting the feature graphic are detected by Hough transform or the like, and the position of the intersection of the detected line segment can be specified as the position of the feature point. When the feature graphic has a dot shape, it is possible to detect the contour or luminance distribution of the dot shape by the above-described image processing technique and specify the position of the center point of the dot shape as the position of the feature point. FIG. 9 illustrates a mesh-like feature graphic G2 in which line segments are periodically arranged in two directions intersecting each other. Such a feature graphic G2 can specify the position of the intersection of each line segment as the position of the feature point.

なお、形状測定用の画像を撮像した撮像画像から複数の特徴点を規定可能なように、形状測定用の画像は選択される。各プロジェクターから投射する形状測定用の画像に含まれる特徴点の数は、投射方向に応じて生じる画像歪を射影変換を用いて補正可能にする観点で、4点以上であることが好ましい。各プロジェクターにより投射する形状測定用の画像は、複数のプロジェクターで同じであってもよいし、異なっていてもよい。形状測定用の画像を示す形状測定用の画像データは、画像処理装置3の内部(例えば記憶部39)または外部(例えば信号源8)に格納されており、形状測定用の画像を表示させるときに各プロジェクターへ出力される。   Note that the shape measurement image is selected so that a plurality of feature points can be defined from the captured image obtained by capturing the shape measurement image. The number of feature points included in the shape measurement image projected from each projector is preferably 4 or more from the viewpoint of correcting image distortion caused by the projection direction using projective transformation. The shape measurement images projected by the projectors may be the same or different for the plurality of projectors. Image data for shape measurement indicating an image for shape measurement is stored inside (for example, the storage unit 39) or outside (for example, the signal source 8) of the image processing apparatus 3, and when the image for shape measurement is displayed. Output to each projector.

次いで、被投射面9での特徴点の位置を測定する(ステップS23)。具体的には、被投射面9上に表示されている形状測定用の画像を測定装置4により撮像させ、得られた撮像画像に写っている形状測定用の画像(形状測定用の撮像画像)を検出する。ここでは、形状補正情報算出部38が、上記の撮像画像を示す撮像画像データを受け取り、撮像画像データを解析して形状測定用の撮像画像を検出する。また、形状補正情報算出部38は、上述したハフ変換等を利用して、形状測定用の撮像画像の特徴点の位置を検出する。   Next, the position of the feature point on the projection surface 9 is measured (step S23). Specifically, an image for shape measurement displayed on the projection surface 9 is picked up by the measuring device 4, and an image for shape measurement shown in the obtained picked-up image (a picked-up image for shape measurement) Is detected. Here, the shape correction information calculation unit 38 receives captured image data indicating the captured image and analyzes the captured image data to detect a captured image for shape measurement. In addition, the shape correction information calculation unit 38 detects the position of the feature point of the captured image for shape measurement using the above-described Hough transform or the like.

次いで、形状補正情報算出部38は、ステップS23で得られた形状測定用の撮像画像での特徴点の位置と、この形状測定用の画像を示す形状測定用の画像データに規定された特徴点の位置とを比較して、形状補正情報を算出する(ステップS24)。以下、形状補正情報を算出する方法の例として、第1、第2の方法について説明する。   Next, the shape correction information calculation unit 38 defines the position of the feature point in the captured image for shape measurement obtained in step S23 and the feature point defined in the shape measurement image data indicating the image for shape measurement. The shape correction information is calculated by comparing with the position (step S24). Hereinafter, the first and second methods will be described as examples of the method for calculating the shape correction information.

図10は、射影変換を用いた形状補正情報を算出する第1の方法を示す説明図である。図10には、形状測定用の画像データに規定された形状測定用の画像Dの一部、および形状測定用の撮像画像Tの一部を概念的に図示している。   FIG. 10 is an explanatory diagram showing a first method for calculating shape correction information using projective transformation. FIG. 10 conceptually illustrates a part of the image D for shape measurement defined in the image data for shape measurement and a part of the captured image T for shape measurement.

図10において、符号i,jは画像データ上での画素の配列方向を示す。1920×1080個の画素を含んだ画像を示す画像データである場合には、例えばi方向に1920個の画素が配列され、j方向に1080個の画素が配列される。この画素配列における各画素の位置は、画素配列でi方向の端かつj方向の端に配置された画素を基準として、座標(i,j)で表される。符号D1〜D4は、形状測定用の画像Dに含まれる特徴点を示す。特徴点D1〜D4は、各特徴点を順に結んだ線が四角形状の領域D5の輪郭をなすように選択される。図10において、符号T1〜T4は、形状測定用の撮像画像Tに含まれる特徴点を示す。特徴点T1〜T4は、投射された形状測定用の画像Dにおける特徴点D1〜D4に相当する特徴点である。特徴点T1〜T4を順に結んだ線は四角形状の領域T5の輪郭をなしている。   In FIG. 10, symbols i and j indicate the pixel arrangement direction on the image data. In the case of image data indicating an image including 1920 × 1080 pixels, for example, 1920 pixels are arranged in the i direction and 1080 pixels are arranged in the j direction. The position of each pixel in this pixel array is represented by coordinates (i, j) with reference to the pixels arranged at the end in the i direction and the end in the j direction in the pixel array. Reference signs D1 to D4 indicate feature points included in the image D for shape measurement. The feature points D1 to D4 are selected so that a line connecting the feature points in order forms the outline of the quadrangular region D5. In FIG. 10, symbols T1 to T4 indicate feature points included in the captured image T for shape measurement. The feature points T1 to T4 are feature points corresponding to the feature points D1 to D4 in the projected image D for shape measurement. A line connecting the feature points T1 to T4 in order forms an outline of a quadrangular region T5.

射影変換の変換式は、下記の式(1)、式(2)で表すことができる。式(1)、式(2)において、(x,y)は変換前の任意の点の座標(i,j)を示し、(X,Y)はこの点の変換先の座標(i,j)を示す。a〜hは変換係数を示し、a〜hを求めることにより、1つの射影変換が求まる。
X=(ax+by+c)/(gx+hy+1)・・・(1)
Y=(dx+ey+f)/(gx+hy+1)・・・(2)
The conversion formula of the projective transformation can be expressed by the following formula (1) and formula (2). In Expressions (1) and (2), (x, y) indicates the coordinates (i, j) of an arbitrary point before conversion, and (X, Y) indicates the coordinates (i, j) of the conversion destination of this point. ). a to h represent conversion coefficients, and one projective transformation is obtained by obtaining a to h.
X = (ax + by + c) / (gx + hy + 1) (1)
Y = (dx + ey + f) / (gx + hy + 1) (2)

特徴点D1〜D4の各々の座標は、形状測定用の画像データに規定されているので既知である。特徴点T1〜T4の各々の座標は、形状測定用の撮像画像Tから特徴点の位置を検出することにより、既知になっている。式(1)、式(2)の(x,y)に特徴点D1の座標を代入し、(X,Y)に特徴点T1の座標を代入すると、a〜hの関係式が2つ得られる。同様に特徴点D2、T2の組、特徴点D3、T3の組、特徴点D4、T4の組のそれぞれの座標を代入することにより、a〜hの8つの未知数に対して8つの関係式が得られる。この8元1次方程式を解くことにより、領域D5を領域T5に変換する射影変換のa〜hが得られる。得られた射影変換に対して、領域D5の周上および内側に含まれる各画素の座標を(x,y)に代入することにより、領域D5の各画素と1対1で対応する領域T5での各画素の座標が求まる。   The coordinates of each of the feature points D1 to D4 are known because they are defined in the image data for shape measurement. The coordinates of each of the feature points T1 to T4 are known by detecting the position of the feature point from the captured image T for shape measurement. Substituting the coordinates of the feature point D1 into (x, y) of the expressions (1) and (2) and substituting the coordinates of the feature point T1 into (X, Y), two relational expressions a to h are obtained. It is done. Similarly, by substituting the coordinates of the set of feature points D2 and T2, the set of feature points D3 and T3, and the set of feature points D4 and T4, eight relational expressions are obtained for the eight unknowns a to h. can get. By solving this 8-element linear equation, projection transformations a to h for transforming the region D5 into the region T5 are obtained. For the obtained projective transformation, by substituting the coordinates of each pixel included on the circumference and inside of the region D5 into (x, y), the region T5 corresponding to each pixel in the region D5 has a one-to-one correspondence. The coordinates of each pixel are obtained.

ここでは、形状測定用の画像Dに含まれる複数の特徴点から4つの特徴点D1〜D4を選択して、形状測定用の画像Dの一部をなす領域D5に対する射影変換を求める。そして、異なる特徴点を特徴点D1〜D4として選択することにより、領域D5を異ならせて射影変換を求める。得られた射影変換を用いて、上述のようにして領域D5の各画素と1対1で対応する領域T5での各画素の座標を求める。以下同様にして、形状測定用の画像Dの部分ごとの射影変換を求め、形状測定用の画像Dの各画素の座標と、画素ごとに対応する撮像パターンの画素の座標を求める。   Here, four feature points D1 to D4 are selected from a plurality of feature points included in the image D for shape measurement, and projective transformation is obtained for a region D5 forming a part of the image D for shape measurement. Then, by selecting different feature points as the feature points D1 to D4, the projective transformation is obtained by changing the region D5. Using the obtained projective transformation, the coordinates of each pixel in the region T5 corresponding one-to-one with each pixel in the region D5 are obtained as described above. Similarly, projective transformation for each part of the image D for shape measurement is obtained, and the coordinates of each pixel of the image D for shape measurement and the coordinates of the pixel of the imaging pattern corresponding to each pixel are obtained.

形状測定用の画像Dの各画素の座標は、各プロジェクターの画像形成素子での変調要素の座標と対応関係がある。また、撮像画像Tの中での各画素の座標は、被投射面9での各表示画素の座標と対応関係がある。結果として、画像形成素子での画素(変調要素)の座標と、被投射面での画素(表示画素)の位置との対応関係を示す形状補正情報が得られることになる。   The coordinates of each pixel of the image D for shape measurement have a corresponding relationship with the coordinates of the modulation element in the image forming element of each projector. Further, the coordinates of each pixel in the captured image T have a corresponding relationship with the coordinates of each display pixel on the projection surface 9. As a result, shape correction information indicating the correspondence between the coordinates of the pixel (modulation element) on the image forming element and the position of the pixel (display pixel) on the projection surface is obtained.

例えば、画像形成素子の各変調要素の座標に対して上記の射影変換を行うことにより、被投射面9での画素(以下、変換画素という)の座標が求まる。変換画素の座標の最大値や最小値を参照することにより、有効投射領域Aの範囲が自動または手動で設定される。そして、有効投射領域Aの中に、コンテンツ画像の形式や画素数に応じた画素(表示画素)の配列を配置するものとして、被投射面9での各表示画素の座標を上記の有効投射領域Aの範囲の設定値から求める。表示画素の座標が変換画素の座標からずれる場合には、表示画素の周囲に位置する変換画素に供給される画素データを用いて表示画素の画素データを補間により求めるべく、周囲の変換画素と表示画素との距離に応じた補間の重み付けを示す補間係数を求めておいてもよい。この補間係数は表示画素ごとの固定値になるので、補正情報の一部として保存しておくとよい。   For example, by performing the above-described projective transformation on the coordinates of each modulation element of the image forming element, the coordinates of pixels on the projection surface 9 (hereinafter referred to as conversion pixels) can be obtained. The range of the effective projection area A is set automatically or manually by referring to the maximum value and the minimum value of the coordinates of the converted pixel. Then, in the effective projection area A, an array of pixels (display pixels) corresponding to the format of the content image and the number of pixels is arranged, and the coordinates of each display pixel on the projection surface 9 are set as the effective projection area. It is obtained from the set value in the range of A. When the coordinates of the display pixel deviate from the coordinates of the conversion pixel, the pixel data of the display pixel is displayed by interpolation using the pixel data supplied to the conversion pixel located around the display pixel. You may obtain | require the interpolation coefficient which shows the weighting of interpolation according to the distance with a pixel. Since this interpolation coefficient becomes a fixed value for each display pixel, it is preferable to store it as a part of the correction information.

第2の方法では、撮像画像Tを形状測定用の画像Dに変換する射影変換(第1の方法での射影変換の逆変換)を求める。また、例えば撮像画像Tに含まれる特徴点の座標を用いて全体投射領域A0の範囲を推定し、有効投射領域Aの範囲を自動または手動で設定する。そして、有効投射領域Aの中に、コンテンツ画像Pの形式や画素数に応じた表示画素の配列を配置するものとして、被投射面9での各表示画素の座標を上記の有効投射領域Aの範囲の設定値から求める。得られた各表示画素の座標を射影変換により変換することにより、被投射面9上の各表示画素に対応する画像形成素子での変調要素の座標が求まる。このようにして求められた変調要素の座標が、実際の変調要素の座標と整合しない場合、すなわち画像形成素子の1つの変調要素が2以上の表示画素が対応する場合には、必要に応じて各変調要素に入力される画素データを補間により求めるべく、補間係数を求めておいてもよい。上述のように、求めた補間係数は補正情報の一部として保存しておくとよい。   In the second method, a projective transformation for converting the captured image T into an image D for shape measurement (reverse transformation of the projective transformation in the first method) is obtained. Further, for example, the range of the entire projection area A0 is estimated using the coordinates of the feature points included in the captured image T, and the range of the effective projection area A is set automatically or manually. Then, in the effective projection area A, the arrangement of display pixels according to the format and the number of pixels of the content image P is arranged, and the coordinates of each display pixel on the projection surface 9 are set in the effective projection area A. Calculate from the set value of the range. By converting the obtained coordinates of each display pixel by projective transformation, the coordinates of the modulation element in the image forming element corresponding to each display pixel on the projection surface 9 can be obtained. When the coordinates of the modulation element thus determined do not match the coordinates of the actual modulation element, that is, when one modulation element of the image forming element corresponds to two or more display pixels, as necessary In order to obtain pixel data input to each modulation element by interpolation, an interpolation coefficient may be obtained. As described above, the obtained interpolation coefficient may be stored as a part of the correction information.

図11は、階調補正情報算出処理の処理フローを示すフローチャートである。
図11に示すように、階調補正情報を算出するには、階調補正処理による画像データの補正動作を禁止しておき、エッジブレンド処理による部分画像データの補正と形状補正処理による部分画像データの補正動作を許可しておく(ステップS31)。
FIG. 11 is a flowchart showing the processing flow of the gradation correction information calculation processing.
As shown in FIG. 11, in order to calculate the gradation correction information, the image data correction operation by the gradation correction process is prohibited, and the partial image data correction by the edge blend process and the partial image data by the shape correction process are performed. This correction operation is permitted (step S31).

図12(a)、図12(b)はエッジブレンド処理の処理内容を示す説明図である。図12(a)には、第1、第2投射領域A1、A2にわたり、重畳領域A5をまたいで水平方向に延在する線分B−B’を図示している。図12(b)には、エッジブレンド処理後の部分画像データに基づいて第1、第2のプロジェクター21、22から射出された光について、線分B−B’上の各位置に入射する光の光量を概念図として示している。図12(b)の横軸は、線分B−B’上の位置を示し、図12(b)の横軸に第1、第2投射領域A1、A2および重畳領域A5の範囲との対応関係を併記している。図12(a)の縦軸は、エッジブレンド処理前の部分画像データにより各位置に入射する光の光量に占める、エッジブレンド処理後の部分画像データにより各位置に入射する光の光量を示している。   FIG. 12A and FIG. 12B are explanatory diagrams showing the contents of the edge blend process. FIG. 12A illustrates a line segment B-B ′ extending in the horizontal direction across the overlapping region A5 over the first and second projection regions A1 and A2. FIG. 12B shows light incident on each position on the line segment BB ′ with respect to light emitted from the first and second projectors 21 and 22 based on the partial image data after the edge blending process. Is shown as a conceptual diagram. The horizontal axis in FIG. 12B indicates the position on the line segment BB ′, and the horizontal axis in FIG. 12B corresponds to the ranges of the first and second projection areas A1 and A2 and the overlapping area A5. The relationship is also shown. The vertical axis of FIG. 12A indicates the amount of light incident on each position by the partial image data after the edge blend process, which occupies the amount of light incident on each position by the partial image data before the edge blend process. Yes.

エッジブレンド処理前の部分画像データによる第1のプロジェクター由来の光量は、光の発散角を無視すると、第1投射領域A1で略1になり、第2投射領域で略0になる。同様に、第2のプロジェクター由来の光量は、第2投射領域A2で略1になり、第1投射領域で略0になる。エッジブレンド処理が施されていない部分画像データに基づいて投射されたときの第1、第2の部分画像の重複領域の表示に寄与する光量は、略2になると考えられる。   The amount of light derived from the first projector based on the partial image data before the edge blending process is substantially 1 in the first projection area A1 and substantially 0 in the second projection area, if the light divergence angle is ignored. Similarly, the amount of light derived from the second projector is approximately 1 in the second projection area A2, and is approximately 0 in the first projection area. The amount of light that contributes to the display of the overlapping area of the first and second partial images when projected based on the partial image data that has not been subjected to the edge blending process is considered to be approximately 2.

図12(b)に示すように、エッジブレンド処理後の部分画像データによる第1のプロジェクター由来の光量は、重畳領域A5を除く第1投射領域で略1になっており、重畳領域A5上で第1投射領域A1から第2投射領域A2に向かうにつれて滑らかな曲線を描いて0に漸近している。第2のプロジェクター由来の光量は、水平方向の重畳領域A5の中心を対称軸として、第1のプロジェクター由来の光量と対称的になっている。すなわち、重畳領域A5にて第1のプロジェクター由来の光量が減少するにつれて、第2のプロジェクター由来の光量が増加し、第1、第2プロジェクター由来の総光量が、重畳領域A5の各位置で略1になるように、エッジブレンド処理で部分画像データを補正する。   As shown in FIG. 12B, the amount of light derived from the first projector based on the partial image data after the edge blending process is substantially 1 in the first projection area excluding the overlapping area A5, and on the overlapping area A5. A smooth curve is drawn toward the second projection area A2 from the first projection area A1 and gradually approaches 0. The amount of light derived from the second projector is symmetrical to the amount of light derived from the first projector, with the center of the overlapping region A5 in the horizontal direction as the axis of symmetry. That is, as the amount of light derived from the first projector decreases in the overlapping area A5, the amount of light derived from the second projector increases, and the total amount of light derived from the first and second projectors is substantially reduced at each position in the overlapping area A5. The partial image data is corrected by edge blending so as to be 1.

図11の説明に戻り、複数のプロジェクター2で並行して階調測定用の部分画像を被投射面9上に表示させる(ステップS32)。次いで、被投射面上の階調測定用の画像の複数の位置で、位置ごとの各色の輝度レベルを測定する(ステップS33)。   Returning to the description of FIG. 11, the partial images for gradation measurement are displayed on the projection surface 9 in parallel by the plurality of projectors 2 (step S <b> 32). Next, the luminance level of each color at each position is measured at a plurality of positions of the gradation measurement image on the projection surface (step S33).

本実施形態では、各プロジェクターの入出力特性を利用して画像データを補正するときの補正量を示す階調補正情報を算出することを予定している。階調補正情報を算出するのに先立ち、入出力特性を示す入出力特性情報を取得する入出力特性取得処理を行う。入出力特性取得処理は、例えば予め算出されて記憶部等に格納されている入出力特性情報を読み出す処理であってもよいし、入出力特性情報を算出する処理であってもよい。   In this embodiment, it is planned to calculate gradation correction information indicating a correction amount when correcting image data using input / output characteristics of each projector. Prior to calculating the gradation correction information, an input / output characteristic acquisition process for acquiring input / output characteristic information indicating the input / output characteristics is performed. The input / output characteristic acquisition process may be, for example, a process of reading input / output characteristic information calculated in advance and stored in a storage unit or the like, or a process of calculating input / output characteristic information.

ここでは、入出力特性情報を算出して取得し、取得した入出力特性情報を階調補正情報の算出に供する。入出力特性情報を算出するには、各プロジェクターにより投射された出力測定用の画像の被投射面9上での輝度レベルを測定し、出力測定用の画像を示す出力測定用の画像データに規定された階調値と比較すればよい。   Here, the input / output characteristic information is calculated and acquired, and the acquired input / output characteristic information is used for calculation of gradation correction information. In order to calculate the input / output characteristic information, the luminance level on the projection surface 9 of the output measurement image projected by each projector is measured, and the output measurement image data indicating the output measurement image is specified. What is necessary is just to compare with the gradation value made.

被投射面9上での出力測定用の画像の輝度レベルを測定する処理は、階調測定用の画像の複数の位置での輝度レベルを測定する処理と、並行してあるいは処理の一部または全部を共通化して行うことができる。また、出力測定用の画像を、階調測定用の画像と区別することなく用いることもできる。以下の説明では、別段の断りがない限り、出力測定用の画像も階調測定用の画像と称する。   The process of measuring the luminance level of the image for output measurement on the projection surface 9 is parallel to the process of measuring the luminance level at a plurality of positions of the image for gradation measurement, or a part of the process or All can be done in common. In addition, the output measurement image can be used without being distinguished from the gradation measurement image. In the following description, unless otherwise specified, an output measurement image is also referred to as a gradation measurement image.

本実施形態では、階調測定用の画像として、エッジブレンド処理前の画像データが示す画像の各画素の階調値が同じであるベタ画像を用いる。階調測定用の画像の色調は、フルカラー表示に用いる各基本色(ここでは、赤、緑、青)、およびモノクロ(白、グレイ、黒)を選択する。各基本色の階調測定用の画像を用いた輝度レベルの測定結果は、各プロジェクターの色ごとの入出力特性情報の算出に用いる。モノクロの階調測定用の画像を用いた輝度の測定結果は、被投射面9上の階調測定用の画像における色ムラの測定に用いる。   In the present embodiment, a solid image in which the gradation value of each pixel of the image indicated by the image data before the edge blend process is the same is used as the image for gradation measurement. As the color tone of the image for gradation measurement, each basic color (red, green, blue) and monochrome (white, gray, black) used for full-color display are selected. The measurement result of the luminance level using the image for measuring the gradation of each basic color is used to calculate input / output characteristic information for each color of each projector. The luminance measurement result using the monochrome gradation measurement image is used to measure color unevenness in the gradation measurement image on the projection surface 9.

各基本色の階調測定用の画像として、階調値が異なる複数の画像を用意し、階調値に対する被投射面9上での輝度レベルの関係性を、複数段階の階調値に対して調べる。ここでは、赤、緑、青の各色調については、8ビットの階調値すなわち0から255までの整数で表される階調値の範囲のうちで、255、224、192、160、128、96、64、32の8段階の各階調値の階調測定用の画像(24種類)を用いる。モノクロの色調については、255、224、192、160、128、96、64、32、0の9段階の階調値の階調測定用の画像(9種類)を用いる。すなわち、合計で33種類の階調測定用の画像を用いる。   A plurality of images having different gradation values are prepared as images for measuring the gradation of each basic color, and the relationship of the luminance level on the projection surface 9 with respect to the gradation values is determined with respect to the gradation values of a plurality of stages. Find out. Here, for each color tone of red, green, and blue, 255, 224, 192, 160, 128, among 8-bit gradation values, that is, gradation values represented by integers from 0 to 255, Images (24 types) for gradation measurement of each gradation value of 96, 64, 32 are used. For monochrome color tone, gradation measurement images (9 types) having gradation values of 9 levels of 255, 224, 192, 160, 128, 96, 64, 32, and 0 are used. That is, a total of 33 types of gradation measurement images are used.

被投射面9上の階調測定用の画像の輝度レベルを測定するには、各階調測定用の画像データをデータ生成部31に入力する。各階調測定用の画像データが階調補正部30の記憶部36に格納されている場合には、階調補正処理部34が各階調測定用の画像データを読出してデータ生成部31へ出力するようにすればよい。各階調測定用の画像データが信号源8から供給される場合には、階調補正処理部34が信号源8から各階調測定用の画像データを受け取り、データ生成部31へ出力するようにすればよい。   In order to measure the luminance level of the gradation measurement image on the projection surface 9, each gradation measurement image data is input to the data generation unit 31. When the image data for each gradation measurement is stored in the storage unit 36 of the gradation correction unit 30, the gradation correction processing unit 34 reads out the image data for each gradation measurement and outputs it to the data generation unit 31. What should I do? When image data for each gradation measurement is supplied from the signal source 8, the gradation correction processing unit 34 receives the image data for each gradation measurement from the signal source 8 and outputs it to the data generation unit 31. That's fine.

データ生成部31は、入力された各階調測定用の画像データを元に、各プロジェクター用の階調測定用の部分画像データを生成する。例えば、データ生成部31は、上述したガイド画像を示す画像データを生成するときに取得したオーバーラップ量を示す情報や、各投射領域の被投射面9上での配置を示す情報を参照して、階調測定用の部分画像データを生成する。データ生成部31は、生成した階調測定用の部分画像データを第1〜第4のエッジブレンド処理部32a〜32dへ出力する。   The data generation unit 31 generates partial image data for gradation measurement for each projector based on the input image data for gradation measurement. For example, the data generation unit 31 refers to the information indicating the overlap amount acquired when generating the image data indicating the above-described guide image and the information indicating the arrangement of each projection area on the projection surface 9. Then, partial image data for gradation measurement is generated. The data generation unit 31 outputs the generated partial image data for gradation measurement to the first to fourth edge blend processing units 32a to 32d.

第1〜第4のエッジブレンド処理部32a〜32dは、入力された階調測定用の部分画像データにエッジブレンド処理を施し、エッジブレンド処理後の階調測定用の部分画像データを第1〜第4の形状補正処理部37a〜37dへ出力する。   The first to fourth edge blend processing units 32a to 32d perform edge blend processing on the input partial image data for gradation measurement, and the first to fourth partial image data for gradation measurement after the edge blend processing are first to first. It outputs to the 4th shape correction process parts 37a-37d.

第1〜第4の形状補正処理部37a〜37dは、入力された階調測定用の部分画像データに形状補正処理を施す。ここでは、有効投射領域Aの内側に対象となる階調値のベタ画像が表示され、有効投射領域の外側に黒が表示されるように、第1〜第4の形状補正処理部37a〜37dは、形状補正処理を施す。第1〜第4の形状補正処理部37a〜37dは、形状補正処理後の階調測定用の部分画像データを各プロジェクターへ出力する。   The first to fourth shape correction processing units 37a to 37d perform shape correction processing on the input partial image data for gradation measurement. Here, the first to fourth shape correction processing units 37a to 37d are displayed so that the solid image of the target gradation value is displayed inside the effective projection area A and black is displayed outside the effective projection area. Performs shape correction processing. The first to fourth shape correction processing units 37a to 37d output the partial image data for gradation measurement after the shape correction processing to each projector.

図13は被投射面上での輝度レベルの測定方法を示す説明図である。
図13に示すように階調測定用の画像P8は、形状補正処理後の部分画像データに基づいて投射されているので、被投射面9上の有効投射領域Aの内側に表示される。階調測定用の画像P8は、第1の部分画像P81、第2の部分画像P82、第3の部分画像P83、および第4の部分画像P84を含んでいる。第1〜第4の部分画像P81〜P84は、エッジブレンド処理後の部分画像データに基づいて投射されているので、互いに隣り合う一対の部分画像で互いに重畳されている重複領域の輝度レベルが、階調測定用の画像データに規定された階調値に相当する輝度レベルと概ね同じになっている。
FIG. 13 is an explanatory diagram showing a method for measuring the luminance level on the projection surface.
As shown in FIG. 13, the gradation measurement image P <b> 8 is projected based on the partial image data after the shape correction processing, and thus is displayed inside the effective projection area A on the projection surface 9. The gradation measurement image P8 includes a first partial image P81, a second partial image P82, a third partial image P83, and a fourth partial image P84. Since the first to fourth partial images P81 to P84 are projected based on the partial image data after the edge blending process, the luminance levels of the overlapping areas that are superimposed on each other in a pair of partial images adjacent to each other, It is substantially the same as the luminance level corresponding to the gradation value defined in the image data for gradation measurement.

被投射面上での輝度レベルを測定するには、被投射面9上の階調測定用の画像P8の全体を含んだ領域を測定装置4により撮像する。測定装置4は、得られた撮像画像を示す撮像画像データを階調補正情報算出部35に出力する。階調補正情報算出部35は、階調測定用の画像P8のうちの複数の評価領域E1〜E4の輝度レベルに相当する撮像画像の画素の階調値を、撮像画像データから抽出する。評価領域ついては、第1〜第4の部分画像P81〜P84のいずれからも1以上の評価領域が選択されていれば、評価領域の範囲や数、位置について適宜選択することが可能である。
なお、測定装置4による撮像画像から形状測定用の画像または階調測定用の画像を抽出する機能については、画像処理装置3、測定装置4、あるいはその他の装置のいずれに持たせてもよい。
In order to measure the luminance level on the projection surface, the measurement device 4 captures an area including the entire gradation measurement image P8 on the projection surface 9. The measuring device 4 outputs captured image data indicating the obtained captured image to the gradation correction information calculation unit 35. The gradation correction information calculation unit 35 extracts the gradation values of the pixels of the captured image corresponding to the luminance levels of the plurality of evaluation regions E1 to E4 in the image P8 for gradation measurement from the captured image data. As for the evaluation area, if one or more evaluation areas are selected from any of the first to fourth partial images P81 to P84, the range, number, and position of the evaluation areas can be appropriately selected.
Note that the function of extracting the image for shape measurement or the image for gradation measurement from the image captured by the measurement device 4 may be provided in any of the image processing device 3, the measurement device 4, and other devices.

入出力特性情報を算出するためのデータとしては、例えば各部分画像のうちで重複領域を除いた領域に相当する撮像画像の画素の階調値を撮像画像データから抽出し、その平均値を被投射面9上での部分画像の輝度レベル(出力)として用いればよい。   As the data for calculating the input / output characteristic information, for example, the gradation value of the pixel of the captured image corresponding to the region excluding the overlapping region in each partial image is extracted from the captured image data, and the average value is obtained. What is necessary is just to use as a luminance level (output) of the partial image on the projection surface 9.

このようにして、被投射面9上の評価領域の輝度レベルに相当する階調値や、被投射面9上での各部分画像の輝度レベルに相当する階調値を取得し、1種類の階調測定用の画像についての階調値の測定を終了する。得られた階調値を示す情報の量によっては、階調値を示す情報を記憶部36に格納しておいてもよい。   In this way, the gradation value corresponding to the luminance level of the evaluation area on the projection surface 9 and the gradation value corresponding to the luminance level of each partial image on the projection surface 9 are acquired, and one kind of The measurement of the gradation value for the image for gradation measurement is terminated. Depending on the amount of information indicating the obtained gradation value, information indicating the gradation value may be stored in the storage unit 36.

図11の説明に戻り、階調補正情報算出部35は、全種類の階調測定用の部分画像について階調値の測定が終了したか否かを判定する(ステップS34)。いずれかの階調測定用の部分画像について階調値の測定が終了していない場合(ステップS34;No)には、
測定対象を前回と異なる階調値の階調測定用の部分画像を変更し、ステップS32に戻り、次回の測定対象の階調測定用の部分画像について輝度レベルの測定を開始する。全種類の階調測定用の部分画像について輝度レベルの測定が終了している場合(ステップS34;Yes)には、ステップS35に進む。
Returning to the description of FIG. 11, the gradation correction information calculation unit 35 determines whether or not the measurement of gradation values has been completed for all types of partial images for gradation measurement (step S <b> 34). When the measurement of the gradation value is not completed for any of the partial images for gradation measurement (Step S34; No),
The measurement target partial image for gradation measurement having a gradation value different from the previous one is changed, and the process returns to step S32 to start measuring the luminance level for the next partial image for gradation measurement to be measured. If the luminance level measurement has been completed for all types of partial images for gradation measurement (step S34; Yes), the process proceeds to step S35.

階調補正情報算出部35は、ステップS33で測定した各評価領域の輝度レベルを、この階調測定用の画像データに規定された階調値と比較して、階調補正情報を算出する(ステップS35)。以下、階調補正情報の算出方法の一例について、数値例を示して詳しく説明する。   The gradation correction information calculation unit 35 calculates the gradation correction information by comparing the luminance level of each evaluation area measured in step S33 with the gradation value defined in the image data for gradation measurement ( Step S35). Hereinafter, an example of a method for calculating the gradation correction information will be described in detail with reference to numerical examples.

ここで、階調補正処理を行わないで、グレイのベタ画像を表示させた場合、例えばステップS32で階調値がNのグレイの階調測定用の画像を表示させた場合を考える。このとき、被投射面9上での赤成分の輝度レベルは100×(Kr×N/255)、緑成分の輝度レベルは100×(Kg×N/255)、青成分の輝度レベルは100×(Kb×N/255)であるとする。上記のKr、Kg、Kbは、合成光の輝度レベルに対する各色光の寄与率を示す係数であり、Krは0.299程度、Kgは0.587程度、Kbは0.114程度である。同一の色成分の画素同士の相対的な輝度レベルに着目する場合には、係数Kr、Kg、Kbを無視することができるので、以下の説明で係数Kr、Kg、Kbを省略して示す場合もある。   Here, a case where a gray solid image is displayed without performing the gradation correction processing, for example, a case where a gray gradation measurement image having a gradation value of N is displayed in step S32 is considered. At this time, the luminance level of the red component on the projection surface 9 is 100 × (Kr × N / 255), the luminance level of the green component is 100 × (Kg × N / 255), and the luminance level of the blue component is 100 ×. It is assumed that (Kb × N / 255). The above Kr, Kg, and Kb are coefficients indicating the contribution ratio of each color light to the luminance level of the combined light. Kr is about 0.299, Kg is about 0.587, and Kb is about 0.114. When attention is paid to the relative luminance level between pixels of the same color component, the coefficients Kr, Kg, and Kb can be ignored. Therefore, in the following explanation, the coefficients Kr, Kg, and Kb are omitted. There is also.

グレイの階調測定用の画像は、赤、緑、青の各階調値が128であるとし、このときに表示されるべき画像の赤成分、緑成分、青成分の各輝度レベルは50Kr、50Kg、50Kbであるとする。以下の説明では、これらの輝度レベルを基準輝度レベルという。また、赤成分、緑成分、青成分の輝度レベルの組を(R、G、B)で示す場合がある。   The gray gradation measurement image has 128 gradation values of red, green, and blue. The luminance levels of the red component, green component, and blue component of the image to be displayed at this time are 50 Kr and 50 Kg. , 50 Kb. In the following description, these luminance levels are referred to as reference luminance levels. In addition, a set of luminance levels of red, green, and blue components may be indicated by (R, G, B).

このようなグレイの階調測定用の画像を投射したときに、図13に示した第1の部分画像P81に属する第1の評価領域E1の各色の輝度レベルの測定値が(40Kr、50Kg、55Kb)であり、第2の部分画像P82に属する第2の評価領域E2の各色の輝度レベルの測定値が(55Kr、50Kg、45Kb)であったとする。すなわち、第1、第2の評価領域E1、E2は、表示すべき画像に対して色ムラを生じていることになる。   When such an image for grayscale measurement is projected, the measured value of the luminance level of each color in the first evaluation region E1 belonging to the first partial image P81 shown in FIG. 13 is (40Kr, 50Kg, Suppose that the measured value of the luminance level of each color in the second evaluation region E2 belonging to the second partial image P82 is (55 Kr, 50 Kg, 45 Kb). That is, the first and second evaluation areas E1 and E2 have color unevenness with respect to the image to be displayed.

本実施形態では、有効投射領域Aの内側の複数の部分画像の全体を1つの画像として扱い、第1、第2の評価領域E1、E2の色ムラを複数の部分画像の全体での階調ムラとして補正する。詳しくは、第1、第2の評価領域E1、E2における各色成分の輝度レベルが基準輝度レベルに等しくなるように、第1の評価領域E1の階調値を規定する第1の部分画像データ、および第2の評価領域E2の階調値を規定する第2の部分画像データの元になる画像データを補正する。   In the present embodiment, the whole of the plurality of partial images inside the effective projection area A is treated as one image, and the color unevenness in the first and second evaluation areas E1 and E2 is represented by the gradation of the whole of the plurality of partial images. Correct as unevenness. Specifically, first partial image data that defines the gradation value of the first evaluation region E1 so that the luminance level of each color component in the first and second evaluation regions E1 and E2 is equal to the reference luminance level; Then, the image data that is the basis of the second partial image data that defines the gradation value of the second evaluation area E2 is corrected.

例えば、第1の評価領域E1に着目すると、赤成分の輝度レベルは40Krであり、基準輝度レベル50Krに比べて低いので、不足する輝度レベル10Krを補うために要求される階調値の補正量を算出する。そして、この補正量を画像データ上の階調値に加算することにより第1の評価領域E1の赤成分を補正することができる。また、青成分の輝度レベルは55Kbであり、基準輝度レベル50Kbに比べて5Kb高いので、過剰な輝度レベル5Kbを減らすのに必要な階調値の補正量だけ画像データ上の階調値を小さくすることにより第1の評価領域E1の青成分を補正することができる。同様に、第2の評価領域E2についても画像データ上での階調値を補正することにより、被投射面9上での色ムラを減らすことができる。   For example, when focusing on the first evaluation area E1, the luminance level of the red component is 40 Kr, which is lower than the reference luminance level 50 Kr. Therefore, the correction amount of the gradation value required to compensate for the insufficient luminance level 10 Kr Is calculated. Then, the red component in the first evaluation region E1 can be corrected by adding this correction amount to the gradation value on the image data. Further, the luminance level of the blue component is 55 Kb, which is 5 Kb higher than the reference luminance level 50 Kb. Therefore, the gradation value on the image data is reduced by the correction amount of the gradation value necessary to reduce the excessive luminance level 5 Kb. By doing so, the blue component of the first evaluation region E1 can be corrected. Similarly, the color unevenness on the projection surface 9 can be reduced by correcting the gradation value on the image data for the second evaluation region E2.

図14は、入出力特性を利用した階調補正情報の算出方法を示す説明図である。上記の補正量は、各プロジェクターの入出力特性を利用することにより容易に求めることができる。図14では、被投射面9上の各基本色(赤、緑、青)の階調測定用の画像の輝度レベルの測定値を、各階調測定用の画像データに規定された階調値に対してプロットしたグラフにて入出力特性を示している。   FIG. 14 is an explanatory diagram illustrating a method of calculating gradation correction information using input / output characteristics. The correction amount can be easily obtained by using the input / output characteristics of each projector. In FIG. 14, the measurement value of the luminance level of the image for measuring the gradation of each basic color (red, green, blue) on the projection surface 9 is changed to the gradation value defined in the image data for each gradation measurement. On the other hand, the input / output characteristics are shown in the plotted graph.

第1の評価領域E1の赤成分用の補正量を算出するときに、まず、下記の式(3)に示すように、第1の評価領域E1の赤成分の輝度レベルの補正量ΔRL(E1)が算出される。式(3)において、RL(PR)は赤成分の基準輝度レベルであり、RL(E1)は第1の評価領域E1の赤成分の輝度レベルである。基準輝度レベルRL(PR)は、階調測定用の画像の全域で共通の値である。1つの階調測定用の画像に対する基準輝度レベルは、例えば、この階調測定用の画像における複数の評価領域の被投射面9上での輝度レベルを測定した測定値の平均値に設定される。
ΔRL(E1)=RL(PR)−RL(E1) ・・・(3)
When calculating the correction amount for the red component in the first evaluation region E1, first, as shown in the following equation (3), the correction amount ΔRL (E1 of the luminance level of the red component in the first evaluation region E1 ) Is calculated. In Expression (3), RL (PR) is the reference luminance level of the red component, and RL (E1) is the luminance level of the red component in the first evaluation region E1. The reference luminance level RL (PR) is a value common to the entire area of the gradation measurement image. The reference luminance level for one gradation measurement image is set to, for example, an average value of measurement values obtained by measuring the luminance levels on the projection surface 9 in a plurality of evaluation regions in the gradation measurement image. .
ΔRL (E1) = RL (PR) −RL (E1) (3)

上記の数値例では、RL(PR)=50、RL(E1)=40であるので、ΔRL(E1)=+10になる。すなわち、階調補正処理では、赤成分の輝度が輝度レベルの補正量ΔRL(E1)だけ増加するように、画像データ上の階調値Nを補正すればよい。第1の評価領域E1の赤成分に関する補正後の輝度レベルCRL(E1)は、下記の式(4)で与えられる。上記の数値例ではRL(PR)=50、ΔRL(E1)=+10であるので、CRL(E1)=60である
CRL(E1)=RL(PR)+ΔRL(E1) ・・・(4)
In the above numerical example, since RL (PR) = 50 and RL (E1) = 40, ΔRL (E1) = + 10. That is, in the gradation correction process, the gradation value N on the image data may be corrected so that the luminance of the red component increases by the luminance level correction amount ΔRL (E1). The corrected luminance level CRL (E1) related to the red component in the first evaluation region E1 is given by the following equation (4). In the above numerical example, since RL (PR) = 50 and ΔRL (E1) = + 10, CRL (E1) = 60. CRL (E1) = RL (PR) + ΔRL (E1) (4)

次に、入出力特性を参照して、基準輝度レベルRL(PR)に対応する階調値N(RL(PR))、および補正後の輝度レベルCRL(E1)に対応する補正後の階調値N(CRL(E1))を求める。図14に示す例では、N(RL(PR))=171、N(CRL(E1))=177である。   Next, referring to the input / output characteristics, the gradation value N (RL (PR)) corresponding to the reference luminance level RL (PR) and the corrected gradation corresponding to the corrected luminance level CRL (E1) The value N (CRL (E1)) is obtained. In the example shown in FIG. 14, N (RL (PR)) = 171 and N (CRL (E1)) = 177.

第1の評価領域E1の赤成分に関する階調値の補正量ΔN(E1)は、下記の式(5)に示すように、補正前と補正後の階調値の差分で与えられる。
ΔN(E1)=N(CRL(E1))−N(RL(PR)) ・・・(5)
図14に示す例では、ΔN(E1)=+6である。
The gradation value correction amount ΔN (E1) for the red component in the first evaluation region E1 is given by the difference between the gradation value before and after the correction, as shown in the following equation (5).
ΔN (E1) = N (CRL (E1)) − N (RL (PR)) (5)
In the example shown in FIG. 14, ΔN (E1) = + 6.

基準輝度レベルRL(PR)=50に対応する階調値N(RL(PR))=171を示すデータがプロジェクターに入力されたときには、第1の評価領域E1の被投射面9上の輝度レベルRL(E1)は40になる。一方、補正後の階調値N(CRL(E1))=177をプロジェクターに入力すれば、被投射面9上の輝度レベルは約10増加して約50になり、基準輝度レベルRL(PR)にほぼ等しくなる。このように階調補正処理部34は、階調補正処理前の画像データのうちで第1の評価領域E1に相当する画素の階調値をΔN(E1)だけ増すように画像データを補正すればよい。   When data indicating a gradation value N (RL (PR)) = 171 corresponding to the reference luminance level RL (PR) = 50 is input to the projector, the luminance level on the projection surface 9 in the first evaluation area E1. RL (E1) becomes 40. On the other hand, if the corrected gradation value N (CRL (E1)) = 177 is input to the projector, the luminance level on the projection surface 9 increases by about 10 to about 50, and the reference luminance level RL (PR) Is almost equal to As described above, the gradation correction processing unit 34 corrects the image data so that the gradation value of the pixel corresponding to the first evaluation region E1 in the image data before the gradation correction process is increased by ΔN (E1). That's fine.

本実施形態では、階調補正情報算出部35が評価領域の位置に応じた階調値の補正量ΔNを階調補正情報として算出する。実際には、階調測定用の画像を撮像した撮像画像の中の有効投射領域を複数の分割領域に分割し、各分割領域に相当する被投射面9上の領域を評価領域としている。各分割領域は、撮像画像の1画素、または2以上の連続した画素により構成される。階調補正情報算出部35は、各評価領域に対する階調値の補正量ΔNを、評価領域を構成する画素の画像データ上での位置と関連付けて、テーブル形式で記憶部36に格納する。階調補正情報算出部35は、各評価領域の緑成分や青成分に対する補正量についても同様にして算出し、テーブル形式で記憶部36に格納する。   In the present embodiment, the gradation correction information calculation unit 35 calculates the correction amount ΔN of the gradation value according to the position of the evaluation area as the gradation correction information. Actually, an effective projection area in a captured image obtained by capturing an image for gradation measurement is divided into a plurality of divided areas, and an area on the projection surface 9 corresponding to each divided area is used as an evaluation area. Each divided region is composed of one pixel of the captured image or two or more continuous pixels. The gradation correction information calculation unit 35 stores the correction value ΔN of the gradation value for each evaluation region in the storage unit 36 in a table format in association with the position on the image data of the pixels constituting the evaluation region. The gradation correction information calculation unit 35 similarly calculates the correction amount for the green component and blue component of each evaluation region, and stores them in the storage unit 36 in a table format.

なお、階調補正処理部34が補正前の画像データの階調値を増幅する乗算回路で構成されている場合には、乗算回路の乗算係数が補正量として設定される。また、各色用の画像形成素子に対応した入出力特性データを利用するのではなく、モノクロの階調画像データに対する光の出力特性、すなわち、3つの画像形成素子によって合成された光の入出力特性を示す1つの入出力特性データを、各色において共通に利用するようにしてもよい。   If the gradation correction processing unit 34 is configured by a multiplication circuit that amplifies the gradation value of the image data before correction, the multiplication coefficient of the multiplication circuit is set as the correction amount. Rather than using the input / output characteristic data corresponding to the image forming elements for each color, the light output characteristics for the monochrome gradation image data, that is, the light input / output characteristics synthesized by the three image forming elements One input / output characteristic data indicating the above may be used in common for each color.

図15(a)〜図15(c)、図16(a)〜図16(c)は、コンテンツ画像Pを示す画像データを補正するときの処理内容を処理順に示す説明図である。   FIG. 15A to FIG. 15C and FIG. 16A to FIG. 16C are explanatory diagrams showing the processing contents when correcting the image data indicating the content image P in the order of processing.

コンテンツ画像Pを示す画像データを補正するときに、階調補正処理部34は信号源8等から画像データを受け取る。階調補正処理部34は、記憶部36から階調補正情報を読み出し、階調補正情報を用いて画像データに階調補正処理を施す(ステップS4)。階調補正処理後の画像データが示す画像P90(図15(a)参照)は、投射条件等により生じる階調ムラを被投射面9上で相殺するような階調ムラを含むことになる。   When correcting the image data indicating the content image P, the gradation correction processing unit 34 receives the image data from the signal source 8 or the like. The gradation correction processing unit 34 reads the gradation correction information from the storage unit 36, and performs gradation correction processing on the image data using the gradation correction information (step S4). The image P90 (see FIG. 15A) indicated by the image data after the gradation correction processing includes gradation unevenness that cancels out the gradation unevenness caused by the projection conditions and the like on the projection surface 9.

次いで、データ生成部31は、例えばオーバーラップ量を示す情報および各投射領域の配置を示す情報を参照して、図15(b)に示すように画像P90に重複領域P5を設定する。そして、データ生成部31は、図15(c)に示す部分画像P91a〜P91dに相当する各部分画像データを生成する(ステップS5)。   Next, the data generation unit 31 refers to, for example, information indicating the overlap amount and information indicating the arrangement of each projection region, and sets the overlapping region P5 in the image P90 as illustrated in FIG. Then, the data generation unit 31 generates partial image data corresponding to the partial images P91a to P91d shown in FIG. 15C (step S5).

次いで、第1〜第4のエッジブレンド処理部32a〜32dは、部分画像P91a〜P91dを示す部分画像データにエッジブレンド処理を施す(ステップS6)。図16(a)に示すように、エッジブレンド処理後の部分画像データが示す部分画像P92a〜P92dは、重複領域P5の階調値が画像P90よりも低くなる。   Next, the first to fourth edge blend processing units 32a to 32d perform edge blend processing on the partial image data indicating the partial images P91a to P91d (step S6). As shown in FIG. 16A, in the partial images P92a to P92d indicated by the partial image data after the edge blend process, the gradation value of the overlapping region P5 is lower than that of the image P90.

次いで、第1〜第4の形状補正処理部37a〜37dは、記憶部39から形状補正情報を読み出し、エッジブレンド処理後の部分画像データに形状補正情報を用いて形状補正処理を施す(ステップS7)。図16(b)に示すように、形状補正処理後の部分画像データが示す部分画像P93a〜P93dは、投射方向や被投射面9の歪み等のより発生する画像歪、および複数の部分画像の相対位置のずれを被投射面9上で相殺するような画像歪を含むことになる。   Next, the first to fourth shape correction processing units 37a to 37d read shape correction information from the storage unit 39, and perform shape correction processing using the shape correction information on the partial image data after the edge blend processing (step S7). ). As shown in FIG. 16B, the partial images P93a to P93d indicated by the partial image data after the shape correction processing are image distortions caused by the projection direction, distortion of the projection surface 9, and the like, and a plurality of partial images. Image distortion that cancels out the relative position shift on the projection surface 9 is included.

形状補正処理後の各部分画像データは、各部分画像を担当するプロジェクターへ入力される。各プロジェクターは、入力された部分画像データに基づいて、被投射面9上に部分画像を投射する。図16(c)に示すように、被投射面9上での部分画像P94a〜P94dは、各部分画像での画像歪や階調ムラが補正された状態で表示される。また、部分画像P94a〜P94dは、複数のプロジェクターの相対位置のずれや定格出力の違いによる、相対位置のずれや輝度レベルの違いが補正された状態で表示される。このようにして、コンテンツ画像Pは、部分画像P94a〜P94dで一体感が高められた画像として表示される。   Each partial image data after the shape correction processing is input to the projector in charge of each partial image. Each projector projects a partial image on the projection surface 9 based on the input partial image data. As shown in FIG. 16C, the partial images P94a to P94d on the projection surface 9 are displayed in a state where image distortion and gradation unevenness in each partial image are corrected. The partial images P94a to P94d are displayed in a state in which the relative position shift and the luminance level difference due to the relative position shift and the rated output difference of the plurality of projectors are corrected. In this way, the content image P is displayed as an image in which the sense of unity is enhanced by the partial images P94a to P94d.

以上のような本実施形態の画像処理装置にあっては、被投射面9上の複数の部分画像を1つの画像として階調補正情報を算出するので、複数の部分画像での輝度レベルの違いを加味した階調補正情報が効率的に得られる。   In the image processing apparatus according to the present embodiment as described above, the gradation correction information is calculated by using a plurality of partial images on the projection surface 9 as one image. The tone correction information taking into account can be obtained efficiently.

コンテンツ画像Pの表示に用いるプロジェクターの数に関らず、階調測定用の画像の投射や輝度レベルの測定に要する手間や時間が、1台のプロジェクターを用いる場合と同程度になり、階調補正情報が効率的に得られる。   Regardless of the number of projectors used to display the content image P, the time and effort required to project an image for gradation measurement and measure the brightness level are the same as when using one projector. Correction information can be obtained efficiently.

重複領域P5に対する階調補正情報を複数の部分画像でまとめて算出するので、階調補正情報の算出に要する演算の負荷を減らすことができる。例えば、互いに隣り合う一対の部分画像について、部分画像ごとに階調補正情報を算出すると重複領域に対する階調補正情報の算出の演算を2回行うことになるのに対して、本実施形態では1回の演算で重複領域に対する階調補正情報が得られる。   Since the gradation correction information for the overlapping region P5 is calculated in a plurality of partial images, the calculation load required for calculating the gradation correction information can be reduced. For example, when calculating gradation correction information for each partial image for a pair of partial images adjacent to each other, calculation of gradation correction information for an overlapping region is performed twice, whereas in the present embodiment, 1 is calculated. The gradation correction information for the overlapping area can be obtained by performing the calculation once.

有効投射領域Aの内側の領域について階調補正情報を算出するので、コンテンツ画像Pの表示に用いない領域に対する階調補正情報の算出を省くことができ、階調補正情報の算出に要する演算の負荷を減らすことができる。   Since the gradation correction information is calculated for the area inside the effective projection area A, the calculation of the gradation correction information for the area not used for displaying the content image P can be omitted, and the calculation required for calculating the gradation correction information can be omitted. The load can be reduced.

形状補正処理後の部分画像データに基づいて投射された階調測定用の画像を用いて階調補正情報を算出するので、階調値を補正する対象となる領域の被投射面9上での形状と、画像データ上に規定される形状とを略一致させることができる。すなわち、形状補正処理前後で被投射面9上の表示画素の位置が実質的に移動する影響を加味して階調補正情報を算出するので、階調ムラを高精度に補正することが可能になる。   Since the gradation correction information is calculated using the image for gradation measurement projected based on the partial image data after the shape correction processing, the area on the projection surface 9 of the area whose gradation value is to be corrected is calculated. The shape and the shape defined on the image data can be substantially matched. In other words, the gradation correction information is calculated by taking into account the effect that the position of the display pixel on the projection surface 9 substantially moves before and after the shape correction processing, so that gradation unevenness can be corrected with high accuracy. Become.

エッジブレンド処理後の部分画像データに基づいて投射された階調測定用の画像を用いて階調補正情報を算出するので、被投射面9上で重畳された重複領域P5の輝度レベルが、階調測定用の画像データに規定された階調値に相当する輝度レベルと同程度になる。したがって、被投射面9上を撮像した撮像画像に写っている階調測定用の画像における各位置の輝度レベルの分布する数値範囲が狭くなり、各位置での輝度レベルを細かい刻み幅で評価可能になるので階調ムラを高精度に検出することができる。   Since the gradation correction information is calculated using the image for gradation measurement projected based on the partial image data after the edge blend process, the luminance level of the overlapping region P5 superimposed on the projection surface 9 is It becomes the same level as the luminance level corresponding to the gradation value defined in the image data for tone measurement. Therefore, the numerical value distribution range of the luminance level at each position in the image for gradation measurement shown in the picked-up image captured on the projection surface 9 becomes narrow, and the luminance level at each position can be evaluated with a fine step size. Therefore, gradation unevenness can be detected with high accuracy.

本実施形態の画像表示システムにあっては、形状補正情報に基づいて部分画像データに形状補正処理を施すので、部分画像の歪や相対位置のずれを減らすことができ、コンテンツ画像Pの表示品質を高めることが可能になる。また、複数の部分画像を1つの画像としたときの画像の全体を加味した階調補正情報に基づいて画像データに階調補正処理を施すので、コンテンツ画像Pにおける階調ムラを高精度かつ効率的に補正することが可能になる。これにより、コンテンツ画像Pの表示品質を高めることが可能になり、また利便性の高い画像表示システムを実現することが可能になる。   In the image display system according to the present embodiment, the shape correction processing is performed on the partial image data based on the shape correction information, so that distortion of the partial image and relative position shift can be reduced, and the display quality of the content image P can be reduced. Can be increased. In addition, since gradation correction processing is performed on image data based on gradation correction information that takes the entire image into account when a plurality of partial images are made into one image, gradation unevenness in the content image P is highly accurate and efficient. Correction can be made automatically. As a result, the display quality of the content image P can be improved, and a highly convenient image display system can be realized.

本実施形態の画像処理方法にあっては、部分画像の歪や相対位置のずれを減らすように部分画像データを補正することが可能になり、またコンテンツ画像Pの階調ムラを高精度かつ効率的に補正することが可能になる。   In the image processing method of the present embodiment, it becomes possible to correct partial image data so as to reduce the distortion of the partial image and the shift of the relative position, and the gradation unevenness of the content image P is highly accurate and efficient. Correction can be made automatically.

1・・・画像表示システム、2・・・プロジェクター、3・・・画像処理装置、
4・・・測定装置、8・・・信号源、9・・・被投射面、
21・・・第1のプロジェクター、22・・・第2のプロジェクター、
23・・・第3のプロジェクター、24・・・第4のプロジェクター、
30・・・階調補正部、31・・・データ生成部、
32a・・・第1のエッジブレンド処理部、32b・・・第2のエッジブレンド処理部、
32c・・・第3のエッジブレンド処理部、32d・・・第4のエッジブレンド処理部、
33・・・形状補正部、34・・・階調補正処理部、35・・・階調補正情報算出部、
36・・・記憶部、37a・・・第1の形状補正処理部、
37b・・・第2の形状補正処理部、37c・・・第3の形状補正処理部、
37d・・・第4の形状補正処理部、38・・・形状補正情報算出部、
39・・・記憶部、E1〜E4・・・評価領域、G1・・・ガイド、
G2・・・特徴図形、
S1〜S7、S11〜S13、S21〜S24、S31〜S35・・・ステップ、
A・・・有効投射領域、A0・・・全体投射領域、A1・・・第1投射領域、
A2・・・第2投射領域、A3・・・第3投射領域、A4・・・第4投射領域、
A5・・・重畳領域、B・・・線分、D・・・形状測定用の画像、
D1〜D4・・・特徴点、D5・・・領域、P・・・コンテンツ画像、
P1・・・第1の部分画像、P2・・・第2の部分画像、P3・・・第3の部分画像、
P4・・・第4の部分画像、P5・・・重複領域、P6・・・ガイド画像、
P7・・・形状測定用の画像、P8・・・階調測定用の画像、
P81〜P84・・・階調測定用の部分画像、T・・・形状測定用の撮像画像、
T1〜T4・・・特徴点
DESCRIPTION OF SYMBOLS 1 ... Image display system, 2 ... Projector, 3 ... Image processing apparatus,
4 ... Measuring device, 8 ... Signal source, 9 ... Projected surface,
21 ... 1st projector, 22 ... 2nd projector,
23 ... Third projector, 24 ... Fourth projector,
30 ... gradation correction unit, 31 ... data generation unit,
32a ... 1st edge blend process part, 32b ... 2nd edge blend process part,
32c: third edge blend processing unit, 32d: fourth edge blend processing unit,
33 ... shape correction unit, 34 ... gradation correction processing unit, 35 ... gradation correction information calculation unit,
36 ... storage unit, 37a ... first shape correction processing unit,
37b ... second shape correction processing unit, 37c ... third shape correction processing unit,
37d ... fourth shape correction processing unit, 38 ... shape correction information calculation unit,
39... Storage unit, E1 to E4... Evaluation area, G1.
G2: Characteristic figure,
S1-S7, S11-S13, S21-S24, S31-S35 ... steps,
A ... Effective projection area, A0 ... Whole projection area, A1 ... First projection area,
A2 ... second projection area, A3 ... third projection area, A4 ... fourth projection area,
A5 ... superimposition region, B ... line segment, D ... image for shape measurement,
D1 to D4 ... feature points, D5 ... area, P ... content image,
P1 ... 1st partial image, P2 ... 2nd partial image, P3 ... 3rd partial image,
P4 ... fourth partial image, P5 ... overlapping region, P6 ... guide image,
P7 ... shape measurement image, P8 ... gradation measurement image,
P81 to P84 ... partial image for gradation measurement, T ... captured image for shape measurement,
T1 to T4 ... Features

Claims (8)

それぞれが画像形成素子を有しており被投写面に画像を投射する複数のプロジェクターとともに用いられる画像処理装置であって、
前記画像形成素子上の各画素の位置と、前記被投射面上の各画素の位置との対応関係を示す形状補正情報を算出する形状補正情報算出部と、
前記形状補正情報に基づいて、処理後の画像データに基づいて前記複数のプロジェクターが協働して投射する画像の前記被投射面での形状を、処理前の前記画像データによって規定される形状と略一致させる形状補正処理を前記画像データに施す形状補正処理部と、
前記形状補正処理部により前記形状補正処理を施された階調測定用の画像データに基づいて前記複数のプロジェクターが協働して投射する階調測定用の画像のうちで各プロジェクターが投射する階調測定用の部分画像から選択される評価領域を含む複数の評価領域について、前記被投射面上の前記階調測定用の画像の各評価領域での輝度レベルと、前記階調測定用の画像を示す階調測定用の画像データに規定された各評価領域での階調値との対応関係を示す階調補正情報を算出する階調補正情報算出部と、
前記階調補正情報に基づいて、処理後の前記画像データに基づいて前記複数のプロジェクターが協働して投射する画像の被投射面での各画素の輝度レベルを、処理前の前記画像データに規定された各画素の階調値に相当する輝度レベルに近づける階調補正処理を前記画像データに施す階調補正処理部と、
を備えていることを特徴とする画像処理装置。
An image processing apparatus that has an image forming element and is used with a plurality of projectors that project an image on a projection surface,
A shape correction information calculation unit that calculates shape correction information indicating a correspondence relationship between the position of each pixel on the image forming element and the position of each pixel on the projection surface;
Based on the shape correction information, the shape on the projection surface of the image that the plurality of projectors collaborately projects based on the processed image data is a shape defined by the image data before the processing. A shape correction processing unit that applies a shape correction process to substantially match the image data;
Of the gradation measurement images that the plurality of projectors project in cooperation based on the gradation measurement image data that has been subjected to the shape correction processing by the shape correction processing unit, the floor that each projector projects. For a plurality of evaluation areas including an evaluation area selected from the partial image for tone measurement, the luminance level in each evaluation area of the image for gradation measurement on the projection surface, and the image for gradation measurement A gradation correction information calculation unit for calculating gradation correction information indicating a correspondence relationship with the gradation value in each evaluation region defined in the image data for gradation measurement indicating
Based on the gradation correction information, the luminance level of each pixel on the projection surface of an image projected by the plurality of projectors in cooperation with the image data after processing is set as the image data before processing. A gradation correction processing unit that performs gradation correction processing on the image data so as to approach a luminance level corresponding to the gradation value of each defined pixel;
An image processing apparatus comprising:
前記形状補正情報算出部は、前記複数のプロジェクターによる前記被投射面上の全体の投射領域に収まる領域として設定された有効投射領域での画像の形状が、前記階調測定用の画像データによって規定される形状と略一致するように前記形状補正情報を算出し、
前記階調補正情報算出部は、前記形状補正情報を用いて前記形状補正処理を施された後の前記階調測定用の画像データに基づいて投射された前記被投射面上の階調測定用の画像の前記有効投射領域内の前記評価領域の輝度レベルを用いて前記階調補正情報を算出することを特徴とする請求項1に記載の画像処理装置。
The shape correction information calculation unit defines the shape of an image in an effective projection area set as an area that fits in the entire projection area on the projection surface by the plurality of projectors by the image data for gradation measurement. The shape correction information is calculated so as to substantially match the shape to be obtained,
The gradation correction information calculation unit is for gradation measurement on the projection surface projected based on the image data for gradation measurement after being subjected to the shape correction processing using the shape correction information. The image processing apparatus according to claim 1, wherein the gradation correction information is calculated using a luminance level of the evaluation area in the effective projection area of the image of the image.
前記階調補正処理を施された後の画像データに基づいて前記複数のプロジェクターが協働して投射する画像のうちで、各プロジェクターが投射する部分画像を示す画像データを生成するデータ生成部を備え、前記形状補正処理部は、前記データ生成部により生成された各画像データに前記形状補正処理を施すことを特徴とする請求項1または請求項2に記載の画像処理装置。   A data generation unit that generates image data indicating a partial image projected by each projector among images projected by the plurality of projectors in cooperation based on the image data after the gradation correction processing is performed. The image processing apparatus according to claim 1, wherein the shape correction processing unit performs the shape correction processing on each image data generated by the data generation unit. 前記データ生成部は、前記画像を構成する複数の前記部分画像のうちで互いに隣り合う一対の部分画像の各々が該一対の部分画像で重複する重複領域を含むように、前記部分画像を示す画像データを生成することを特徴とする請求項3に記載の画像処理装置。   The data generation unit is an image showing the partial image such that each of a pair of partial images adjacent to each other among the plurality of partial images constituting the image includes an overlapping region overlapping the pair of partial images. The image processing apparatus according to claim 3, wherein data is generated. 前記一対の部分画像を示す一対の前記画像データの各々を処理対象として、処理後の前記一対の画像データが示す前記一対の部分画像で前記重複領域が互いに重畳されたときの前記重複領域の各画素の輝度レベルを、前記階調補正処理部により前記階調補正処理を施される前の前記画像を示す画像データに規定された前記重複領域の各画素の階調値に相当する輝度レベルに近づけるエッジブレンド処理を施すエッジブレンド処理部を備えていることを特徴とする請求項4に記載の画像処理装置。   Each of the overlapping regions when the overlapping regions are superimposed on each other in the pair of partial images indicated by the pair of image data after processing, with each of the pair of image data indicating the pair of partial images being processed. The luminance level of the pixel is set to a luminance level corresponding to the gradation value of each pixel in the overlapping area defined in the image data indicating the image before the gradation correction processing is performed by the gradation correction processing unit. The image processing apparatus according to claim 4, further comprising an edge blending processing unit that performs an edge blending process to approach the image processing apparatus. 前記階調補正情報算出部は、前記階調測定用の画像データに基づいて前記データ生成部により生成された前記部分画像を示す各画像データに前記エッジブレンド処理部により前記エッジブレン処理を施された後の前記部分画像を示す各画像データに基づいて前記複数のプロジェクターが協働して投射し、前記一対の部分画像で前記重複領域が前記被投射面上で互いに重畳されている階調測定用の画像の各評価領域での輝度レベルを用いて、前記階調補正情報を算出することを特徴とする請求項5に記載の画像処理装置。   The gradation correction information calculation unit performs the edge blend process on the image data indicating the partial image generated by the data generation unit based on the image data for gradation measurement by the edge blend processing unit. Gradation measurement in which the plurality of projectors collaborately project based on each image data indicating the partial image after, and the overlapping regions are superimposed on the projection surface in the pair of partial images The image processing apparatus according to claim 5, wherein the gradation correction information is calculated using a luminance level in each evaluation region of the image for use. 請求項1から請求項6のいずれか一項に記載の画像処理装置と、
前記画像処理装置により前記階調補正処理を施された後の画像データに基づいて、画像を協働して投射する複数のプロジェクターと、
を備えていることを特徴とする画像表示システム。
The image processing apparatus according to any one of claims 1 to 6,
A plurality of projectors for projecting images in cooperation with each other based on the image data after being subjected to the gradation correction processing by the image processing device;
An image display system comprising:
それぞれが画像形成素子を有しており被投写面に画像を投射する複数のプロジェクターにおける前記画像形成素子上の各画素の位置と、前記被投射面上の各画素の位置との対応関係を示す形状補正情報を算出するステップと、
前記形状補正情報に基づいて、処理後の画像データに基づいて前記複数のプロジェクターが協働して投射する画像の前記被投射面での形状を、処理前の前記画像データによって規定される形状と略一致させる形状補正処理を前記画像データに施すステップと、
前記形状補正処理を施された階調測定用の画像データに基づいて前記複数のプロジェクターが協働して投射する階調測定用の画像のうちで各プロジェクターが投射する階調測定用の部分画像から選択される評価領域を含む複数の評価領域について、前記被投射面上の前記階調測定用の画像の各評価領域での輝度レベルと、前記階調測定用の画像を示す階調測定用の画像データに規定された各評価領域での階調値との対応関係を示す階調補正情報を算出するステップと、
前記階調補正情報に基づいて、処理後の前記画像データに基づいて前記複数のプロジェクターが協働して投射する画像の被投射面での各画素の輝度レベルを、処理前の前記画像データに規定された各画素の階調値に相当する輝度レベルに近づける階調補正処理を前記画像データに施すステップと、
を有していることを特徴とする画像処理方法。
Each of the plurality of projectors, each having an image forming element and projecting an image on a projection surface, shows the correspondence between the position of each pixel on the image forming element and the position of each pixel on the projection surface. Calculating shape correction information;
Based on the shape correction information, the shape on the projection surface of the image that the plurality of projectors collaborately projects based on the processed image data is a shape defined by the image data before the processing. Applying to the image data a shape correction process for substantially matching;
A gradation measurement partial image projected by each projector among the gradation measurement images projected by the plurality of projectors in cooperation based on the image data for gradation measurement subjected to the shape correction processing. For a plurality of evaluation areas including an evaluation area selected from the above, the luminance level in each evaluation area of the image for gradation measurement on the projection surface and the gradation measurement indicating the image for gradation measurement Calculating gradation correction information indicating a correspondence relationship with a gradation value in each evaluation area defined in the image data of
Based on the gradation correction information, the luminance level of each pixel on the projection surface of an image projected by the plurality of projectors in cooperation with the image data after processing is set as the image data before processing. Subjecting the image data to a gradation correction process that approximates a luminance level corresponding to the gradation value of each defined pixel;
An image processing method characterized by comprising:
JP2010074274A 2010-03-29 2010-03-29 Image processing apparatus, image display system, and image processing method Pending JP2011211276A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010074274A JP2011211276A (en) 2010-03-29 2010-03-29 Image processing apparatus, image display system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010074274A JP2011211276A (en) 2010-03-29 2010-03-29 Image processing apparatus, image display system, and image processing method

Publications (1)

Publication Number Publication Date
JP2011211276A true JP2011211276A (en) 2011-10-20

Family

ID=44941925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010074274A Pending JP2011211276A (en) 2010-03-29 2010-03-29 Image processing apparatus, image display system, and image processing method

Country Status (1)

Country Link
JP (1) JP2011211276A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186104A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Projection control device, projection device, projection system, projection control method and program
JP2015118282A (en) * 2013-12-18 2015-06-25 キヤノン株式会社 Projection type image display device, method for controlling protection type image display device, and program
WO2016002511A1 (en) * 2014-07-01 2016-01-07 ソニー株式会社 Image processing device and method
JP2016063342A (en) * 2014-09-17 2016-04-25 株式会社リコー Output controller, output control system, and output control program
WO2016083928A1 (en) * 2014-11-28 2016-06-02 Semiconductor Energy Laboratory Co., Ltd. Image processing device, display system, and electronic device
JP2016109813A (en) * 2014-12-04 2016-06-20 キヤノン株式会社 Image display system, control device, control method and program
US9547228B2 (en) 2013-08-26 2017-01-17 Cj Cgv Co., Ltd. Method of correcting image-overlapped area, recording medium and execution device
JP2018026794A (en) * 2016-08-01 2018-02-15 株式会社リコー Image processing system, image projection device, and image processing method
JP2019080279A (en) * 2017-10-27 2019-05-23 セイコーエプソン株式会社 Projector, image projection system, and method for controlling projector
CN109960097A (en) * 2017-12-22 2019-07-02 成都理想境界科技有限公司 A kind of monochromatic laser light source, color laser light source and laser projection device
JP7384193B2 (en) 2021-07-30 2023-11-21 セイコーエプソン株式会社 Display method, projector, and projection system
CN117333727A (en) * 2023-12-01 2024-01-02 山东瀚邦胶带有限公司 Conveyer belt wearing and tearing area discernment analysis system based on visual image processing technique
CN117676107A (en) * 2024-01-31 2024-03-08 武汉中观自动化科技有限公司 Image laser projection method and laser projection device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186104A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Projection control device, projection device, projection system, projection control method and program
US9547228B2 (en) 2013-08-26 2017-01-17 Cj Cgv Co., Ltd. Method of correcting image-overlapped area, recording medium and execution device
JP2015118282A (en) * 2013-12-18 2015-06-25 キヤノン株式会社 Projection type image display device, method for controlling protection type image display device, and program
WO2016002511A1 (en) * 2014-07-01 2016-01-07 ソニー株式会社 Image processing device and method
JPWO2016002511A1 (en) * 2014-07-01 2017-05-25 ソニー株式会社 Image processing apparatus and method
US9883153B2 (en) 2014-07-01 2018-01-30 Sony Corporation Image processing apparatus and method
US11134230B2 (en) 2014-07-01 2021-09-28 Sony Corporation Image processing apparatus and method
JP2016063342A (en) * 2014-09-17 2016-04-25 株式会社リコー Output controller, output control system, and output control program
US10056043B2 (en) 2014-11-28 2018-08-21 Semiconductor Energy Laboratory Co., Ltd. Image processing device, display system, and electronic device
WO2016083928A1 (en) * 2014-11-28 2016-06-02 Semiconductor Energy Laboratory Co., Ltd. Image processing device, display system, and electronic device
US9754540B2 (en) 2014-11-28 2017-09-05 Semiconductor Energy Laboratory Co., Ltd. Image processing device, display system, and electronic device
JP2016109813A (en) * 2014-12-04 2016-06-20 キヤノン株式会社 Image display system, control device, control method and program
JP2018026794A (en) * 2016-08-01 2018-02-15 株式会社リコー Image processing system, image projection device, and image processing method
JP2019080279A (en) * 2017-10-27 2019-05-23 セイコーエプソン株式会社 Projector, image projection system, and method for controlling projector
US11062431B2 (en) 2017-10-27 2021-07-13 Seiko Epson Corporation Projector, image projection system, and method for controlling projector
US11393080B2 (en) 2017-10-27 2022-07-19 Seiko Epson Corporation Projector, image projection system, and method for controlling projector
CN109960097A (en) * 2017-12-22 2019-07-02 成都理想境界科技有限公司 A kind of monochromatic laser light source, color laser light source and laser projection device
JP7384193B2 (en) 2021-07-30 2023-11-21 セイコーエプソン株式会社 Display method, projector, and projection system
CN117333727A (en) * 2023-12-01 2024-01-02 山东瀚邦胶带有限公司 Conveyer belt wearing and tearing area discernment analysis system based on visual image processing technique
CN117676107A (en) * 2024-01-31 2024-03-08 武汉中观自动化科技有限公司 Image laser projection method and laser projection device

Similar Documents

Publication Publication Date Title
JP2011211276A (en) Image processing apparatus, image display system, and image processing method
JP5338718B2 (en) Correction information calculation apparatus, image processing apparatus, image display system, and image correction method
JP5604909B2 (en) Correction information calculation apparatus, image processing apparatus, image display system, and image correction method
US9661257B2 (en) Projection system, image processing device, and projection method
US9818377B2 (en) Projection system, image processing apparatus, and correction method
JP5440250B2 (en) Correction information calculation apparatus, image processing apparatus, image display system, and image correction method
JP3925521B2 (en) Keystone correction using part of the screen edge
JP5560771B2 (en) Image correction apparatus, image display system, and image correction method
JP5910157B2 (en) Image projection device
EP1519575A1 (en) Image processing system, projector, information storage medium, and image processing method
JP2010288063A (en) Projector, program, information storage medium, and trapezoidal distortion correction method
US8144264B2 (en) Image processor, image display device, image processing method, image display method, and program
US20100014778A1 (en) Image correcting apparatus, image correcting method, projector and projection system
WO2013024540A1 (en) Image processing apparatus and image processing method
KR20130043300A (en) Apparatus and method for correcting image projected by projector
JP5135724B2 (en) Color evaluation method for image display device
JP2011182078A (en) Correction information calculation device, image correction device, image display system, and correction information calculation method
JP4583863B2 (en) Image display system
JP5561503B2 (en) Projector, program, information storage medium, and trapezoidal distortion correction method
JP5522241B2 (en) Image processing apparatus, image display apparatus, image processing method, image display method, and program
JP2012230302A (en) Image generation device, projection type image display device, image display system, image generation method and computer program
JP2016075883A (en) Projection system, projection device, projection method and program
JP2010288062A (en) Projector, program, information storage medium, and image projection method
JP2011205199A (en) Image processing device, image display system, image processing method
US20220114697A1 (en) Image correction device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120202