JP2011091516A - Projector and display adjustment method of the projector - Google Patents

Projector and display adjustment method of the projector Download PDF

Info

Publication number
JP2011091516A
JP2011091516A JP2009241941A JP2009241941A JP2011091516A JP 2011091516 A JP2011091516 A JP 2011091516A JP 2009241941 A JP2009241941 A JP 2009241941A JP 2009241941 A JP2009241941 A JP 2009241941A JP 2011091516 A JP2011091516 A JP 2011091516A
Authority
JP
Japan
Prior art keywords
image
projector
gain
video
mask image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009241941A
Other languages
Japanese (ja)
Inventor
Ryoichi Yonezawa
領一 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009241941A priority Critical patent/JP2011091516A/en
Publication of JP2011091516A publication Critical patent/JP2011091516A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for simply displaying one screen using a plurality of projectors at a low cost. <P>SOLUTION: The capture part 26 of a projector 10 receives and captures a blending area and a blending amount as a mask image from a PC by a video signal. Luminance data of the captured mask image is converted to a gain. When using a video wall function, the video adjustment part 23 of the projector 10 uses an alpha blending function to reflect the gain obtained from the mask image, on a projected video. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、プロジェクタおよびプロジェクタの表示調整方法に係り、複数のプロジェクタを用いて一つの映像を表示させる機能を有するプロジェクタ及びプロジェクタの表示調整方法に関する。   The present invention relates to a projector and a projector display adjustment method, and more particularly to a projector having a function of displaying a single image using a plurality of projectors and a projector display adjustment method.

従来より、一つの映像(または画像)を複数のプロジェクタを用いて表示するビデオウォール機能とよばれる技術があり、例えば、複数のプロジェクタをマトリクス状に設置して一つの大きな画面とする。図5は、4台のプロジェクタを上下左右に配置した「2×2」のビデオウォール投影を示している。このような表示をするためには、映像の調整が必要になり、エッジブレンディングと呼ばれる技術が用いられる。この技術は、各映像において重複部分に対してグレディエーション処理を施すことで、重なったときに重なりが認識できないようにしている。そのため、プロジェクタは、色合い、輝度、コントラスト等をユーザが調整できるようになっている。   Conventionally, there is a technique called a video wall function for displaying one video (or image) using a plurality of projectors. For example, a plurality of projectors are installed in a matrix to form one large screen. FIG. 5 shows a “2 × 2” video wall projection in which four projectors are arranged vertically and horizontally. In order to perform such display, it is necessary to adjust an image, and a technique called edge blending is used. In this technique, the overlapping process in each video is subjected to a gradation process so that the overlap cannot be recognized when they overlap. Therefore, the projector allows the user to adjust the hue, brightness, contrast, and the like.

エッジブレンディングが適正に行われない場合、表示される画像が見苦しいものになりかねず、様々な技術が提案されている。例えば、特許文献1に開示の技術では、パーソナルコンピュータ(以下、「PC」という)に、エッジブレンドボードと呼ばれる画像処理装置を搭載し、プロジェクタからスクリーン上に投射させた映像をカメラで撮影して、プロジェクタを調整している。具体的には、エッジブレンドボードに恒等変換関数を設定し、グラフィックスボード出力の輝度を順次変化させながら、プロジェクタを順番に1台ずつ投射する。そしてスクリーン上の画像をカメラで撮影し、各測定値をプロジェクタとカメラの輝度感度特性として求め、各輝度感度特性を基に各プロジェクタ間の輝度の差を零に補正するための輝度補正値を求める。さらに、この輝度補正値にしたがって基準輝度変換関数を補正して各エッジブレンドボード固有の輝度変換関数を設定し、輝度変換関数にしたがって輝度の補正された画像をスクリーンに連続して並べて表示する。このような処理を行うことで、画像の継ぎ目をスムーズに表示している。   If edge blending is not performed properly, the displayed image may be unsightly, and various techniques have been proposed. For example, in the technology disclosed in Patent Document 1, an image processing device called an edge blend board is mounted on a personal computer (hereinafter referred to as “PC”), and an image projected on a screen from a projector is captured by a camera. Adjust the projector. Specifically, an identity conversion function is set on the edge blend board, and projectors are projected one by one in order while sequentially changing the luminance of the graphics board output. Then, an image on the screen is taken with the camera, and each measured value is obtained as a luminance sensitivity characteristic between the projector and the camera. Based on each luminance sensitivity characteristic, a luminance correction value for correcting the luminance difference between the projectors to zero is obtained. Ask. Further, the reference brightness conversion function is corrected according to the brightness correction value to set a brightness conversion function unique to each edge blend board, and images whose brightness is corrected according to the brightness conversion function are continuously arranged and displayed on the screen. By performing such processing, the seam of the image is displayed smoothly.

特開2002−238064号公報Japanese Patent Laid-Open No. 2002-238064

ところで、特許文献1に開示の技術では、専用の映像処理装置と、さらにエッジの境界の輝度を測定するカメラ等の測定装置を搭載したシステムが必要とされた。その結果、自動調整は可能であるものの、システムが大がかりになったり、コストが高くなったり、設置性の観点から導入が難しいケースがあるなどの課題があり、簡易的な且つ低コストのシステムが求められていた。   By the way, the technique disclosed in Patent Document 1 requires a system equipped with a dedicated video processing device and a measuring device such as a camera for measuring the brightness of the edge boundary. As a result, although automatic adjustment is possible, there are problems such as a large system, high costs, and cases where it is difficult to introduce from the standpoint of installation. It was sought after.

本発明の目的は、以上のような状況に鑑みなされたものであって、複数のプロジェクタを用いて一つの画面を表示することを、簡易的かつ低コストで可能とする技術を提供することにある。   An object of the present invention has been made in view of the above situation, and provides a technique that enables simple and low-cost display of a single screen using a plurality of projectors. is there.

本発明に係るプロジェクタは、エッジブレンディング用のマスク画像を外部から取得する画像取得手段と、前記マスク画像を輝度データに変換する輝度データ変換手段と、前記マスク画像の輝度データを出力画像のゲイン調整データに変換するゲイン変換手段と、前記ゲイン調整データを記録する記録手段と、出力する映像に前記ゲイン調整データを反映させるデータ反映手段と、を備える。
また、前記ゲイン変換手段は、前記ゲイン調整データに対してスムージング処理を施してもよい。
また、当該プロジェクタは、ジオメトリエンジンを備え、前記マスク画像は、前記ジオメトリエンジンによる補正後の投影画像をもとに生成されていてもよい。
また、前記データ反映手段は、アルファブレンディング処理によって、出力する映像に対してマスク処理を施してもよい。
本発明に係る方法は、複数のプロジェクタから投影される映像をエッジブレンディングにより合成する表示調整方法であって、PCからモノカラーの映像を前記複数のプロジェクタから投影する調整映像投影工程と、前記複数のモノカラーの映像の重複部分を特定する重複特定工程と、特定された重複部分にグラディエーションを施したモノカラーのマスク画像を出力するマスク画像投影工程と、投影される複数の映像で構成される映像全体の輝度が同一になるときの前記マスク画像をぞれぞれのプロジェクタにおいて取得するキャプチャ工程と、前記マスク画像の輝度データをゲインに変換して記録する変換工程と、を備える。
また、当該方法は、前記ゲインを反映させた映像を出力する映像出力工程を備えてもよい。
また、当該方法は、前記ゲインの階調をスムージング処理するスムージング工程を備えてもよい。
また、前記映像出力工程は、アルファブレンディング処理によりオリジナルの画像に対して前記マスク画像を反映させてもよい。
The projector according to the present invention includes an image acquisition unit that acquires an edge blending mask image from the outside, a luminance data conversion unit that converts the mask image into luminance data, and a gain adjustment of the output data of the luminance data of the mask image Gain conversion means for converting to data, recording means for recording the gain adjustment data, and data reflection means for reflecting the gain adjustment data in the output video.
The gain converting means may perform a smoothing process on the gain adjustment data.
The projector may include a geometry engine, and the mask image may be generated based on a projection image corrected by the geometry engine.
Further, the data reflecting means may perform mask processing on the video to be output by alpha blending processing.
The method according to the present invention is a display adjustment method for synthesizing images projected from a plurality of projectors by edge blending, an adjusted image projecting step of projecting monochromatic images from a plurality of projectors from a PC, and the plurality A duplication identification process for identifying overlapping portions of mono-color video, a mask image projection step for outputting a mono-color mask image in which the identified overlapping portions are subjected to gradation, and a plurality of projected images. Each of the projectors obtains the mask image when the luminance of the entire video becomes the same, and a conversion step of converting the luminance data of the mask image into a gain and recording it.
The method may further include a video output step of outputting a video reflecting the gain.
The method may further include a smoothing step of performing a smoothing process on the gain gradation.
In the video output step, the mask image may be reflected on the original image by alpha blending processing.

本発明によれば、複数のプロジェクタを用いて一つの画面を表示することを、簡易的かつ低コストで可能とする技術を提供することにある。   An object of the present invention is to provide a technique that enables simple and low-cost display of a single screen using a plurality of projectors.

本発明の実施の形態に係る、プロジェクタの機能ブロック図である。It is a functional block diagram of a projector according to an embodiment of the present invention. 本発明の実施の形態に係る、キーストン調整処理中の投影画像例を示した図である。It is the figure which showed the example of the projection image in process of keystone adjustment based on embodiment of this invention. 本発明の実施の形態に係る、エッジブレンディングの状態の投影画像を示した図である。It is the figure which showed the projection image of the state of edge blending based on embodiment of this invention. 本発明の実施の形態に係る、エッジブレンディング処理手順を示すフローチャートである。It is a flowchart which shows the edge blending process sequence based on embodiment of this invention. 従来技術に係る、4台のプロジェクタを上下左右に配置した「2×2」のビデオウォール投影を示した図である。It is the figure which showed the video wall projection of "2x2" which has arrange | positioned the four projectors based on the prior art up and down, right and left.

次に、本発明を実施するための形態(以下、「実施形態」という)を、図面を参照して具体的に説明する。本実施形態のプロジェクタは、ブレンディングエリア(形状)とブレンディング量(グラディエーション)をPCから映像信号で受け取りキャプチャすることでエッジブレンディング用マスク画像(以下、単に「マスク画像」という)を作成する。そして、プロジェクタは、ビデオウォール機能を用いるときに、マスク画像をアルファブレンディング機能やOSD機能を用いて投影する映像に反映させる。従来、エッジブレンディングには専用の画像制御装置が必要であった。しかし、近年、プロジェクタに組み込まれている画像エンジンの高性能化に伴い形状を変えるジオメトリエンジンの内蔵や画像のアルファブレンディングの充実が図られている。その機能を利用して、追加構成を極力抑えて、エッジブレンディングができるプロジェクタを提供する。   Next, a mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be specifically described with reference to the drawings. The projector of the present embodiment receives a blending area (shape) and blending amount (gradation) as a video signal from a PC and captures it to create an edge blending mask image (hereinafter simply referred to as “mask image”). Then, when using the video wall function, the projector reflects the mask image on the projected image using the alpha blending function or the OSD function. Conventionally, a dedicated image control device has been required for edge blending. However, in recent years, with the enhancement of the performance of an image engine incorporated in a projector, a built-in geometry engine that changes the shape and enhancement of image alpha blending have been attempted. By utilizing this function, a projector capable of edge blending while minimizing the additional configuration is provided.

図1は、本実施形態に係るプロジェクタ10の構成を示す機能ブロック図であり、主に画像処理機能に着目して示している。プロジェクタ10は、入力部12と、出力部14と、画像処理部20と、投影部30と、操作部40と、通信部50とを備える。   FIG. 1 is a functional block diagram showing a configuration of the projector 10 according to the present embodiment, and mainly shows an image processing function. The projector 10 includes an input unit 12, an output unit 14, an image processing unit 20, a projection unit 30, an operation unit 40, and a communication unit 50.

入力部12は、PCやDVD(Digital Versatile Disk)プレーヤ等の外部の装置から映像信号を取得する。入力部12は、例えばHDMI(High-Definition Multimedia Interface)やD−subインタフェイスである。出力部14は、映像信号を出力するインタフェイスであり、上述同様HDMIやD−subインタフェイスなどである。   The input unit 12 acquires a video signal from an external device such as a PC or a DVD (Digital Versatile Disk) player. The input unit 12 is, for example, a high-definition multimedia interface (HDMI) or a D-sub interface. The output unit 14 is an interface that outputs a video signal, and is an HDMI or D-sub interface as described above.

画像処理部20は、CPU21と、映像調整部23と、OSDエンジン24と、補正処理部25と、を備え、入力部12から取得した映像信号を所定の形式に変換したり、調整したりして、投影部30に出力する。OSDエンジン24と、補正処理部25とは、それぞれ専用ICにより構成されている。   The image processing unit 20 includes a CPU 21, a video adjustment unit 23, an OSD engine 24, and a correction processing unit 25, and converts or adjusts a video signal acquired from the input unit 12 into a predetermined format. Output to the projection unit 30. The OSD engine 24 and the correction processing unit 25 are each configured by a dedicated IC.

CPU21は、図示しないメモリとともに、所定のプログラムを実行して、映像調整部23と、OSDエンジン24と、補正処理部25とを統括的に制御したり、それら各要素の機能を実行する。また、CPU21は、入力部12や出力部14の入出力制御を行ったり、通信部50の通信制御を行ったり、投影部30による表示出力制御を行ったり、さらに、操作部40に対するユーザの操作を取得し、各構成要素に対して所望の動作を行うように制御する。   The CPU 21 executes a predetermined program together with a memory (not shown) to centrally control the video adjustment unit 23, the OSD engine 24, and the correction processing unit 25, and to execute the functions of these elements. Further, the CPU 21 performs input / output control of the input unit 12 and the output unit 14, performs communication control of the communication unit 50, performs display output control by the projection unit 30, and further performs user operations on the operation unit 40. And control to perform a desired operation for each component.

映像調整部23は、入力部12で取得された映像信号に基づいて、所定の解像度に合わせたスケーリング処理や、輝度調整や、色調整など各種の画像処理を実行する。また、映像調整部23は、ビデオウォール表示を行うときに、上記の映像信号から投影すべき分割映像を作り出す。   Based on the video signal acquired by the input unit 12, the video adjustment unit 23 performs various image processing such as scaling processing according to a predetermined resolution, luminance adjustment, and color adjustment. The video adjusting unit 23 creates a divided video to be projected from the video signal when performing video wall display.

OSDエンジン24は、必要に応じてOSD画面を生成して入力部12で取得した映像信号に合成する。例えば、OSDエンジン24は、プロジェクタ10の設定画面や、警告などの映像を形成する。また、OSDエンジン24は、エッジブレンディングを行うときに、重複領域の輝度調整処理を実行する。なお、OSDエンジン24の各処理は、公知の技術を用いることで実現できる。例えば、OSDエンジンとして市場で一般的に入手可能なICでは、RGB各色4ビット(計4,096色)の表現ができ、さらに色のついた半透明色を表示するアルファブレンディング処理を行うブレンド機能も備える。また、OSD表示と映像とを様々な混合比で合成して透明度合いを制御することもでき、この透明度合いの制御によって輝度制御ができる。   The OSD engine 24 generates an OSD screen as necessary and synthesizes it with the video signal acquired by the input unit 12. For example, the OSD engine 24 forms a setting screen of the projector 10 and a video such as a warning. Further, the OSD engine 24 executes the brightness adjustment process for the overlapping area when performing edge blending. Each process of the OSD engine 24 can be realized by using a known technique. For example, an IC that is generally available on the market as an OSD engine can express 4 bits of RGB (total 4,096 colors), and a blend function that performs alpha blending processing to display colored translucent colors Also equipped. Further, the degree of transparency can be controlled by combining the OSD display and the video at various mixing ratios, and the brightness can be controlled by controlling the degree of transparency.

補正処理部25は、キーストン補正及びジオメトリ補正を行う。4点補正による一般的なキーストン補正について、図2を基に簡単に説明する。一般に、プロジェクタ10とスクリーン90の相対位置関係により、スクリーンに表示される映像91が台形に歪むことがあり、この歪みをキーストンという。そして、台形歪みを補正することをキーストン補正という。キーストン補正の手順としては、例えば図示のように、まずスクリーン90上の映像91の左上の角を所望の位置に設定し(図2(a))、次に、右上の角(図2(b))、つづいて右下の角(図2(c))、最後に左下の角(図2(e))をそれぞれ所望の位置に設定する。このような手順によって、スクリーン90上には、適正な映像91(図2(e))が表示される。この補正処理は、手動で行う場合と、自動で行う場合とがある。   The correction processing unit 25 performs keystone correction and geometry correction. General keystone correction by four-point correction will be briefly described with reference to FIG. In general, the image 91 displayed on the screen may be distorted into a trapezoid due to the relative positional relationship between the projector 10 and the screen 90, and this distortion is called keystone. Correcting the keystone distortion is called keystone correction. As a keystone correction procedure, for example, as shown in the figure, first, the upper left corner of the image 91 on the screen 90 is set to a desired position (FIG. 2A), and then the upper right corner (FIG. 2B). )), And then the lower right corner (FIG. 2C) and finally the lower left corner (FIG. 2E) are set to desired positions. By such a procedure, an appropriate image 91 (FIG. 2 (e)) is displayed on the screen 90. This correction processing may be performed manually or automatically.

また、ジオメトリ補正は、例えば、円柱型スクリーンやプラネタリウムなどのドーム施設において投影を行う場合、それらスクリーンの形状による歪みを補正する処理をいい、この処理機能を有するジオメトリエンジンともよばれる。   The geometry correction is a process for correcting distortion due to the shape of the screen when projection is performed in a dome facility such as a cylindrical screen or a planetarium, and is also called a geometry engine having this processing function.

図1の説明に戻る。キャプチャ部26は、PCで作成されたマスク画像を取得し記憶する。さらに、キャプチャ部26は、マスク画像の輝度データをゲイン調整マップに変換しゲイン調整マップの階調補正を行いゲイン調整マップの階調をスムーズにするデータ変換部27と、ゲイン調整マップを記録するマスクデータ記憶部28とを備える。   Returning to the description of FIG. The capture unit 26 acquires and stores a mask image created by the PC. Furthermore, the capture unit 26 converts the luminance data of the mask image into a gain adjustment map, corrects the tone of the gain adjustment map, and records the gain adjustment map. And a mask data storage unit 28.

投影部30は、ランプユニットや、液晶パネルやDMDチップなどの所定の光変調手段と、投射用レンズ等の光学ユニットを備えており、CPU21による制御によって画像処理部20から出力された映像信号をスクリーン90に投射する。   The projection unit 30 includes a lamp unit, predetermined light modulation means such as a liquid crystal panel and a DMD chip, and an optical unit such as a projection lens. The projection unit 30 receives a video signal output from the image processing unit 20 under the control of the CPU 21. Projects onto the screen 90.

操作部40は、プロジェクタ10に対するユーザからの操作指示を取得する。その指示取得は、プロジェクタ10に設けられた操作パネル(図示せず)から直接取得されてもよいし、操作部40が備えるリモコン受光部41がリモコン42からの指示を取得してもよい。取得した操作指示は、画像処理部20のCPU21に送られる。   The operation unit 40 acquires an operation instruction from the user for the projector 10. The instruction may be acquired directly from an operation panel (not shown) provided in the projector 10, or the remote control light receiving unit 41 included in the operation unit 40 may acquire an instruction from the remote control 42. The acquired operation instruction is sent to the CPU 21 of the image processing unit 20.

以上の構成のプロジェクタ10により、ビデオウォール表示をするときのエッジブレンディング処理手順について説明する。図3は、エッジブレンディングの状態の投影画像を示した図である。以下では便宜的に、左右の各映像を「分割画像」、一つに結合された映像91を「結合画像91」ともいう。第1の分割画像91aにおいては、右端の所定の幅がブレンディング部93aとして設定される。同様に、第2の分割画像91bにおいて、左端の所定の幅がブレンディング部93bとして設定される。二つのブレンディング部93a,93bは同じ幅であり、この領域には同じ映像が表示され、内側から外側へ向けて、比例して輝度が減少する。これらブレンディング部93a,93bがマスク画像に相当する。   An edge blending processing procedure when displaying a video wall by the projector 10 having the above configuration will be described. FIG. 3 is a diagram showing a projected image in the edge blending state. Hereinafter, for convenience, the left and right videos are also referred to as “divided images”, and the combined video 91 is also referred to as “combined image 91”. In the first divided image 91a, a predetermined width at the right end is set as the blending portion 93a. Similarly, in the second divided image 91b, a predetermined width at the left end is set as the blending portion 93b. The two blending portions 93a and 93b have the same width, and the same image is displayed in this area, and the luminance decreases in proportion from the inside toward the outside. These blending portions 93a and 93b correspond to mask images.

図3(c)は、OSDエンジン24によって形成される二つのブレンディング部93a,93bの輝度の勾配、つまりグラディエーションを示した図である。図示のように、第1の分割画像91aのブレンディング部93aでは、開始部95aにおいて輝度の倍率が100%であり、右端部94aに向かって線形的に減少し、右端部94aで0%となる。同様に、第2の分割画像91bのブレンディング部93bでは、開始部95bにおいて輝度の倍率が100%であり、左端部94bに向かって線形的に減少し、左端部94bで0%となる。そして、二つのブレンディング部93a,93bが適正に一致している場合、各位置における輝度の倍率は100%に合成される。なお、開始部95a,95bや右端部94a及び左端部94bの輝度は、上記の倍率(%)に限るものでない。また、輝度の勾配は、線形に限る趣旨ではなく、合成したときに100%の輝度になればよい。   FIG. 3C is a diagram showing the gradient of brightness of the two blending portions 93 a and 93 b formed by the OSD engine 24, that is, the gradient. As shown in the figure, in the blending part 93a of the first divided image 91a, the luminance magnification is 100% at the start part 95a, linearly decreases toward the right end part 94a, and becomes 0% at the right end part 94a. . Similarly, in the blending unit 93b of the second divided image 91b, the luminance magnification is 100% at the start unit 95b, linearly decreases toward the left end 94b, and becomes 0% at the left end 94b. When the two blending portions 93a and 93b are properly matched, the luminance magnification at each position is combined to 100%. In addition, the brightness | luminance of the start parts 95a and 95b, the right end part 94a, and the left end part 94b is not restricted to said magnification (%). Further, the luminance gradient is not limited to linear, and it is sufficient that the luminance gradient is 100% when synthesized.

また、図4は、エッジブレンディング処理手順を示すフローチャートである。まず、ユーザは二つのプロジェクタ10を左右に並べる(S10)。ここで、スクリーン90に向かって左側に並べられたプロジェクタ10をセット1、右側に並べられたプロジェクタ10をセット2と呼ぶ。   FIG. 4 is a flowchart showing an edge blending processing procedure. First, the user arranges the two projectors 10 on the left and right (S10). Here, the projectors 10 arranged on the left side of the screen 90 are referred to as “set 1”, and the projectors 10 arranged on the right side are referred to as “set 2”.

つぎに、ユーザは、セット1及びセット2の各操作部40(またはリモコン42)を操作し、スクリーン90に映像を投影し、キーストン調整を施すことで投影された映像が所望の形状となるように調整する(S12)。このとき、セット1及びセット2の各映像の重複位置等が所望の位置等に調整される。曲面投影の場合、ジオメトリ補正等を行って形状を合わせる。   Next, the user operates each operation unit 40 (or remote controller 42) of set 1 and set 2, projects an image on the screen 90, and performs keystone adjustment so that the projected image has a desired shape. (S12). At this time, the overlapping position of the images in the set 1 and the set 2 is adjusted to a desired position. In the case of curved projection, the shape is matched by performing geometry correction or the like.

つづいて、ユーザは、セット1及びセット2それぞれの輝度のキャリブレーションを行う(S14)。例えば、PCで作成するマスクの最も輝度の低い黒画像と最も輝度の高い白画像をプロジェクタに投影して覚えさせる。より具体的には、左白右黒のような画像が用いられる。なお、輝度のキャリブレーションや輝度調整が適切に行うことができれば、モノクロ画像に限らず、例えば、赤色や青色などのモノカラー画像であってもよい。   Subsequently, the user calibrates the brightness of each of set 1 and set 2 (S14). For example, a black image with the lowest luminance and a white image with the highest luminance of a mask created by a PC are projected onto a projector to be remembered. More specifically, an image such as left white right black is used. In addition, as long as brightness calibration and brightness adjustment can be performed appropriately, the image is not limited to a monochrome image, and may be a monocolor image such as red or blue.

そして、セット1及びセット2の各プロジェクタ10から、調整用画像を投影する(S16)。この調整用画像は、PCから出力された白い画像であり、以下、便宜的にセット1から投影される調整用画像を「セット1調整用画像」、セット2から投影される調整用画像を「セット2調整用画像」という。   Then, the adjustment images are projected from the projectors 10 of the set 1 and the set 2 (S16). This adjustment image is a white image output from the PC. Hereinafter, for convenience, the adjustment image projected from the set 1 is referred to as “set 1 adjustment image”, and the adjustment image projected from the set 2 is referred to as “ It is referred to as “set 2 adjustment image”.

つぎに、ユーザは、PCを用いて、セット1及びセット2の各プロジェクタ10から投影されている映像を確認しながら、グラディエーションを施す領域であるマスク画像の形状について、まずセット1調整用画像に対応するマスク画像の形状を特定し、そのセット1用のマスク画像にグラディエーションを施す(S18)。つづいて同様に、ユーザは、まずセット2調整用画像に対応するマスク画像の形状を特定し、そのセット2用のマスク画像にグラディエーションを施す(S20)。   Next, the user first confirms the images projected from the projectors 10 in the set 1 and the set 2 using the PC, and first sets the image for adjusting the set 1 as the shape of the mask image that is the area to be subjected to the gradient. The shape of the mask image corresponding to is specified, and the mask image for the set 1 is graded (S18). Similarly, the user first specifies the shape of the mask image corresponding to the set 2 adjustment image, and performs gradient on the mask image for set 2 (S20).

そして、ユーザは、投影されている全画面において輝度が一定になるように、セット1調整用画像及びセット2調整用画像の各マスク画像のグラディエーションを調整する(S22)。全画面で輝度が一定でなければ(S24のN)、一定になるまで上記のグラディエーションの調整処理を継続する(S22)。   Then, the user adjusts the gradient of each mask image of the set 1 adjustment image and the set 2 adjustment image so that the luminance is constant over the entire projected screen (S22). If the luminance is not constant on the entire screen (N in S24), the above gradation adjustment processing is continued until it becomes constant (S22).

全画面で輝度が一定になるように調整完了したら(S24のY)、セット1のプロジェクタ10のキャプチャ部26はセット1用のマスク画像を、セット2のプロジェクタ10のキャプチャ部26は、セット2用のマスク画像を取り込む(S26)。   When the adjustment is completed so that the brightness is constant over the entire screen (Y in S24), the capture unit 26 of the projector 10 in the set 1 uses the mask image for the set 1, and the capture unit 26 in the projector 10 in the set 2 uses the set 2 A mask image is taken in (S26).

つぎに、各プロジェクタ10のキャプチャ部26において、データ変換部27は、取り込んだマスク画像の輝度データをゲイン調整マップに変換し(S28)、ゲイン調整マップの階調補正を行い、ゲイン調整マップの階調をスムーズにする(S30)。例えば、キャプチャした輝度が0(黒)の場合にはゲインは「0.0」で、投影される画像においてオリジナルの画素の輝度×0.0となる。また、キャプチャした輝度が255(白)の場合にはゲインは「1.0」で投影される画像においてオリジナルの画素の輝度×1.0とする。また、OSDの処理が入力画像より階調が多い場合は線形補完等で輝度の階調段差がでないようにスムーズにする。キャプチャしたマスク画像にノイズがあれば、スムージング処理においてノイズが除去される。   Next, in the capture unit 26 of each projector 10, the data conversion unit 27 converts the luminance data of the captured mask image into a gain adjustment map (S28), performs tone correction of the gain adjustment map, and sets the gain adjustment map. The gradation is made smooth (S30). For example, when the captured luminance is 0 (black), the gain is “0.0”, and the luminance of the original pixel in the projected image × 0.0. When the captured luminance is 255 (white), the gain is “1.0” and the original pixel luminance × 1.0 in the projected image. Further, when the OSD processing has more gradations than the input image, smoothing is performed so that there is no luminance gradation step by linear interpolation or the like. If there is noise in the captured mask image, the noise is removed in the smoothing process.

そして、OSDエンジン24は、ビデオウォール投影する場合に、ゲイン調整マップを出力画像に反映させて投影する(S32)。暗い所は出力RGBの画素が暗くなるように輝度を変換する。実際にはプロジェクタの画像処理ICが提供するOSDやスプラッシュスクリーン等の合成機能を用いる。   Then, when the video wall projection is performed, the OSD engine 24 reflects the gain adjustment map in the output image and projects it (S32). In a dark place, the luminance is converted so that the output RGB pixels become dark. In practice, a composite function such as an OSD or a splash screen provided by the image processing IC of the projector is used.

なお、マスクデータ記憶部28にはゲイン調整マップが記憶されるが、キャプチャされたマスク画像のデータが記録されてもよく、その場合は、OSDエンジン24がビデオウォール投影の際のエッジブレンディング処理において、ゲイン調整データを生成してもよい。   Although the gain adjustment map is stored in the mask data storage unit 28, captured mask image data may be recorded. In this case, the OSD engine 24 performs edge blending processing during video wall projection. The gain adjustment data may be generated.

以上の実施形態によると、以下の効果を得られる。
(1)プロジェクタ10に内蔵される透明化機能を使用するので、専用の輝度補正装置が不要である。
(2)マスク設定をRS232Cやネットワーク、USBメモリといったデータで渡さず、映像として登録できるので複雑な手順や独自の通信ソフトが不要である。
(3)輝度調整のための専用装置を使う必要がないため、一般的なPCと汎用のソフトといったユーザの使いやすい手段でマスク作成方法を選べる。
(4)ブレンディングの形状は矩形以外にもPCで作ることが可能な形状であれば、自由に作ることができる。
(5)Web上でマスク画像の雛形を公開して配布することもできる。
(6)曲面等に投影するような場合、従来はプロジェクタ10に入力される映像自体を調整する必要があり、汎用の機器、例えば、DVDプレーヤやゲーム機等を接続して使用することは出来なかった。しかし、本実施形態では、マスク画像がプロジェクタ10に記録されるため、映像ソースに制限がない。
According to the above embodiment, the following effects can be obtained.
(1) Since the transparency function built in the projector 10 is used, a dedicated brightness correction device is not required.
(2) Since the mask setting can be registered as an image without passing it as data such as RS232C, network or USB memory, complicated procedures and unique communication software are not required.
(3) Since it is not necessary to use a dedicated device for brightness adjustment, a mask creation method can be selected by means that are easy for the user to use, such as a general PC and general-purpose software.
(4) The shape of the blending can be freely made as long as it can be made by a PC other than a rectangle.
(5) A mask image template can be disclosed and distributed on the Web.
(6) When projecting onto a curved surface or the like, conventionally, it is necessary to adjust the image itself input to the projector 10, and a general-purpose device such as a DVD player or a game machine can be connected and used. There wasn't. However, in this embodiment, since the mask image is recorded on the projector 10, there is no limitation on the video source.

以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。例えば、マスク作成に、ユーザが手動で行ったが、特許文献1で示した技術を用いてもよい。   The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. . For example, although the user manually performs mask creation, the technique shown in Patent Document 1 may be used.

10 プロジェクタ
20 画像処理部
21 CPU
23 映像調整部
24 OSDエンジン
25 補正処理部
26 キャプチャ部
27 データ変換部
28 マスクデータ記憶部
10 Projector 20 Image Processing Unit 21 CPU
23 Image adjustment unit 24 OSD engine 25 Correction processing unit 26 Capture unit 27 Data conversion unit 28 Mask data storage unit

Claims (8)

エッジブレンディング用のマスク画像を外部から取得する画像取得手段と、
前記マスク画像の輝度データを出力画像のゲイン調整データに変換するゲイン変換手段と、
前記ゲイン調整データを記録する記録手段と、
出力する映像に前記ゲイン調整データを反映させるデータ反映手段と、
を備えることを特徴とするプロジェクタ。
Image acquisition means for acquiring a mask image for edge blending from the outside;
Gain conversion means for converting the luminance data of the mask image into gain adjustment data of the output image;
Recording means for recording the gain adjustment data;
Data reflecting means for reflecting the gain adjustment data in the output video;
A projector comprising:
前記ゲイン変換手段は、前記ゲイン調整データに対してスムージング処理を施すことを特徴とする請求項1に記載のプロジェクタ。   The projector according to claim 1, wherein the gain conversion unit performs a smoothing process on the gain adjustment data. ジオメトリエンジンを備え、
前記マスク画像は、前記ジオメトリエンジンによる補正後の投影画像をもとに生成されていることを特徴とする請求項1または2に記載のプロジェクタ。
With a geometry engine,
The projector according to claim 1, wherein the mask image is generated based on a projection image corrected by the geometry engine.
前記データ反映手段は、アルファブレンディング処理によって、出力する映像に対してマスク処理を施すことを特徴とする請求項1から3までのいずれかに記載のプロジェクタ。   The projector according to any one of claims 1 to 3, wherein the data reflection unit performs a mask process on the video to be output by an alpha blending process. 複数のプロジェクタから投影される映像をエッジブレンディングにより合成する表示調整方法であって、
PCからモノカラーの映像を前記複数のプロジェクタから投影する調整映像投影工程と、
前記複数のモノカラーの映像の重複部分を特定する重複特定工程と、
特定された重複部分にグラディエーションを施したモノカラーのマスク画像(輝度データ)を出力するマスク画像投影工程と、
投影される複数の映像で構成される映像全体の輝度が同一になるときの前記マスク画像をぞれぞれのプロジェクタにおいて取得するキャプチャ工程と、
前記マスク画像の輝度データをゲインに変換して記録する変換工程と、
を備えることを特徴とする表示調整方法。
A display adjustment method for synthesizing images projected from a plurality of projectors by edge blending,
An adjustment image projection step of projecting a monocolor image from the plurality of projectors from a PC;
An overlapping specifying step for specifying an overlapping portion of the plurality of monochromatic images;
A mask image projecting step for outputting a monochromatic mask image (luminance data) obtained by performing gradation on the identified overlapping portion;
A capture step of acquiring the mask image in each projector when the luminance of the entire video composed of a plurality of projected images is the same;
A conversion step of converting luminance data of the mask image into gain and recording;
A display adjustment method comprising:
前記ゲインを反映させた映像を出力する映像出力工程を備えることを特徴とする請求項5に記載の表示調整方法。   6. The display adjustment method according to claim 5, further comprising a video output step of outputting a video reflecting the gain. 前記ゲインの階調をスムージング処理するスムージング工程を備えることを特徴とする請求項5または6に記載の表示調整方法。   The display adjustment method according to claim 5, further comprising a smoothing step of performing a smoothing process on the gain gradation. 前記映像出力工程は、アルファブレンディング処理によりオリジナルの画像に対して前記マスク画像を反映させることを特徴とする請求項5から7までのいずれかに記載の表示調整方法。   8. The display adjustment method according to claim 5, wherein in the video output step, the mask image is reflected on an original image by an alpha blending process.
JP2009241941A 2009-10-21 2009-10-21 Projector and display adjustment method of the projector Pending JP2011091516A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009241941A JP2011091516A (en) 2009-10-21 2009-10-21 Projector and display adjustment method of the projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009241941A JP2011091516A (en) 2009-10-21 2009-10-21 Projector and display adjustment method of the projector

Publications (1)

Publication Number Publication Date
JP2011091516A true JP2011091516A (en) 2011-05-06

Family

ID=44109384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009241941A Pending JP2011091516A (en) 2009-10-21 2009-10-21 Projector and display adjustment method of the projector

Country Status (1)

Country Link
JP (1) JP2011091516A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013011491A1 (en) 2011-07-21 2013-01-24 Imax Corporation Generalized normalization for image display
WO2015008765A1 (en) * 2013-07-19 2015-01-22 株式会社Jvcケンウッド Multi-projector system, projector device, adjustment device and adjustment method, and adjustment program
JP2015026992A (en) * 2013-07-26 2015-02-05 株式会社リコー Projection system, image processing device, projection method, and program
US9384535B2 (en) 2008-06-13 2016-07-05 Imax Corporation Methods and systems for reducing or eliminating perceived ghosting in displayed stereoscopic images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077778A (en) * 2000-08-30 2002-03-15 Matsushita Electric Ind Co Ltd Video projector device
JP2005004201A (en) * 2003-06-10 2005-01-06 Mitsubishi Electric Research Laboratories Inc Method and system for projecting image onto display surface
JP2006030600A (en) * 2004-07-16 2006-02-02 Nec Viewtechnology Ltd Multi-screen display system, multi-screen display method, correction compensation method, and program
JP2007300540A (en) * 2006-05-02 2007-11-15 Hitachi Ltd Image display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077778A (en) * 2000-08-30 2002-03-15 Matsushita Electric Ind Co Ltd Video projector device
JP2005004201A (en) * 2003-06-10 2005-01-06 Mitsubishi Electric Research Laboratories Inc Method and system for projecting image onto display surface
JP2006030600A (en) * 2004-07-16 2006-02-02 Nec Viewtechnology Ltd Multi-screen display system, multi-screen display method, correction compensation method, and program
JP2007300540A (en) * 2006-05-02 2007-11-15 Hitachi Ltd Image display system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9384535B2 (en) 2008-06-13 2016-07-05 Imax Corporation Methods and systems for reducing or eliminating perceived ghosting in displayed stereoscopic images
WO2013011491A1 (en) 2011-07-21 2013-01-24 Imax Corporation Generalized normalization for image display
EP2734976A4 (en) * 2011-07-21 2015-03-18 Imax Corp Generalized normalization for image display
US9106811B2 (en) 2011-07-21 2015-08-11 Imax Corporation Generalized normalization for image display
WO2015008765A1 (en) * 2013-07-19 2015-01-22 株式会社Jvcケンウッド Multi-projector system, projector device, adjustment device and adjustment method, and adjustment program
JP2015038590A (en) * 2013-07-19 2015-02-26 株式会社Jvcケンウッド Multi-projector system, projector device, adjustment device and adjustment method, and adjustment program
JP2015026992A (en) * 2013-07-26 2015-02-05 株式会社リコー Projection system, image processing device, projection method, and program

Similar Documents

Publication Publication Date Title
TWI242381B (en) Image processing system, projector, information storage medium, and picture processing method
US10440337B2 (en) Projection apparatus, information processing apparatus, and control methods thereof
JP2009200613A (en) Projector and display adjusting method of projector
US10616541B2 (en) Image projection system, projector, and method for controlling image projection system
US20170244941A1 (en) Projector and control method thereof
US10281714B2 (en) Projector and projection system that correct optical characteristics, image processing apparatus, and storage medium
US9470966B2 (en) Image projection apparatus and presentation system
US11611731B2 (en) Evaluation method for image projection system, image projection system, and image projection control apparatus
JP4720595B2 (en) Projector, video projection method and program
JP2008032925A (en) Projection type display system, projection type display device, and screen
US8319787B2 (en) Image projection apparatus and image output apparatus
US20050024597A1 (en) Adjustment in the amount of projected image distortion correction
JP2006245737A (en) Projection image correction device and method for projection image correction and program
JP2011091516A (en) Projector and display adjustment method of the projector
JP5205865B2 (en) Projection image shape distortion correction support system, projection image shape distortion correction support method, projector, and program
JP5822575B2 (en) Image projection apparatus, control method for image projection apparatus, and program
JP2011135445A (en) Image projection apparatus
US11350067B2 (en) Evaluation method for image projection system, image projection system, and image projection control apparatus
JP2020071354A (en) Projection system and projection method
JP2005156964A (en) Projector and projector system
JP2006349792A (en) Projector, image processing method for projector and image processing program for projector
JP2010130481A (en) Image projection apparatus
JP2009060393A (en) Document camera device, image processing device, image processing method, and program
JP2019009551A (en) Projection apparatus, control method of the same, and program
JP7309352B2 (en) Electronic equipment and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130806