JP6794092B2 - Display device - Google Patents
Display device Download PDFInfo
- Publication number
- JP6794092B2 JP6794092B2 JP2015041626A JP2015041626A JP6794092B2 JP 6794092 B2 JP6794092 B2 JP 6794092B2 JP 2015041626 A JP2015041626 A JP 2015041626A JP 2015041626 A JP2015041626 A JP 2015041626A JP 6794092 B2 JP6794092 B2 JP 6794092B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- projected
- region
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、表示装置等に関する。 The present invention relates to a display device and the like.
プロジェクタの使用形態は近年多様化しており、プロジェクタの投影方法の1つとして、複数のプロジェクタを用いたマルチ投影がある。マルチ投影は、複数のプロジェクタの複数の投影画像を繋ぎ合わせることで、1つの投影画像(合成投影画像)を構成する投影方法である。 The usage patterns of projectors have been diversified in recent years, and one of the projection methods of projectors is multi-projection using a plurality of projectors. Multi-projection is a projection method for forming one projected image (composite projected image) by joining a plurality of projected images of a plurality of projectors.
マルチ投影においては、複数の投影画像の間のつなぎ目を見えにくくするために、各投影画像の投影領域(表示領域)を調整する必要がある。例えば、各投影画像の投影位置(表示位置)、各投影画像の形状、等を調整する必要がある。一般的には、ユーザが、リモコン等を用いてプロジェクタを操作することにより、投影領域を調整する。しかしながら、投影領域の調整は非常に困難である。 In multi-projection, it is necessary to adjust the projection area (display area) of each projection image in order to make the joint between the plurality of projection images difficult to see. For example, it is necessary to adjust the projection position (display position) of each projected image, the shape of each projected image, and the like. Generally, the user adjusts the projection area by operating the projector using a remote controller or the like. However, it is very difficult to adjust the projection area.
投影領域の調整を簡単化するための技術として、例えば、特許文献1に開示の技術がある。特許文献1に開示の技術では、投影領域の調整を補助するマーカーが配置された投影画像が投影される。特許文献1に開示の技術によれば、投影画像に配置されたマーカーが他の投影画像に配置されたマーカーに重なるように投影領域を調整すればよいため、ユーザは投影領域を容易に調整することができる。
As a technique for simplifying the adjustment of the projection area, for example, there is a technique disclosed in
ここで、複数の投影画像の間のつなぎ目をより見えにくくするための画像処理として、輝度低減処理がある。輝度低減処理は、投影画像の一部が他の投影画像の一部に重なるように、複数の投影画像を並べることを前提とした画像処理である。このような配置方法で複数の投影画像を配置した場合、非ブレンド領域に比べ明るい画像がブレンド領域に表示され、ブレンド領域と非ブレンド領域の間に合成輝度(合成投影画像の投影輝度(表示輝度))の段差が生じる。ブレンド領域は、投影画像の領域のうち他の投影画像に重なる領域であり、非ブレンド領域は、投影画像の領域のうち他の投影画像に重ならない領域である。ブレンド領域の表示輝度が増加するのは、複数の投影画像が重ね合わせられるためである。輝度低減処理は、上記段差が低減するようにブレンド領域の輝度を低減する画像処理である。 Here, there is a brightness reduction process as an image process for making the joint between a plurality of projected images less visible. The brightness reduction process is an image process on the premise that a plurality of projected images are arranged so that a part of the projected image overlaps a part of another projected image. When a plurality of projected images are arranged by such an arrangement method, an image brighter than the non-blended area is displayed in the blended area, and the composite brightness (projected brightness (display brightness) of the composite projected image) is displayed between the blended area and the non-blended area. )) Steps occur. The blended region is a region of the projected image that overlaps the other projected image, and the non-blended region is a region of the projected image that does not overlap the other projected image. The display brightness of the blend region is increased because a plurality of projected images are superimposed. The brightness reduction process is an image process that reduces the brightness of the blend region so that the step is reduced.
しかしながら、ブレンド領域にマーカーが配置された画像データに輝度低減処理を施すと、マーカーの視認性が低下し、投影領域の調整が困難となる。 However, if the image data in which the marker is arranged in the blend region is subjected to the brightness reduction processing, the visibility of the marker is lowered and it becomes difficult to adjust the projection region.
本発明は、輝度低減処理によるマーカーの視認性の低下を抑制することができる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of suppressing a decrease in visibility of a marker due to a luminance reduction process.
本発明に係る表示装置は、
第1投影画像を投影する表示装置であって、
画像データを取得する取得手段と、
前記第1投影画像の領域のうち他の表示装置によって投影される第2投影画像に重なる領域であるブレンド領域の輝度を低減する輝度低減処理を前記取得手段で取得された画像データに施して投影用画像データを生成する処理手段と、
前記投影用画像データに基づいて前記第1投影画像を投影する投影手段と、
を有し、
前記処理手段は、
前記輝度低減処理の前に、前記ブレンド領域を示すグラフィック画像であるマーカーのデータを前記取得手段で取得された画像データに合成することが可能であり、
前記マーカーのデータを前記取得手段で取得された画像データに合成した場合に、前記マーカーのデータを前記取得手段で取得された画像データに合成しなかった場合に比べ小さい値に、前記ブレンド領域のうち前記マーカーを合成する領域の輝度の前記輝度低減処理による低減量を設定する
ことを特徴とする。
The display device according to the present invention is
A display device that projects the first projected image.
Acquisition method for acquiring image data and
The image data acquired by the acquisition means is subjected to a brightness reduction process for reducing the brightness of the blend region, which is an region overlapping the second projected image projected by another display device in the region of the first projected image, and projected. Processing means to generate image data for
A projection means for projecting the first projected image based on the projection image data, and
Have,
The processing means
Prior to the luminance reduction process, it is possible to combine the marker data, which is a graphic image showing the blend region, with the image data acquired by the acquisition means.
When synthesis of the data before KOR manufacturers in the image data acquired by the acquisition unit, smaller compared with the case where the data of the markers did not synthesize the acquired image data by the acquisition unit The value is set to the amount of reduction of the brightness of the region in which the marker is synthesized in the blend region by the brightness reduction processing.
本発明によれば、輝度低減処理によるマーカーの視認性の低下を抑制することができる。 According to the present invention, it is possible to suppress a decrease in the visibility of the marker due to the luminance reduction process.
以下、本発明の実施形態に係る表示装置及びその制御方法について、図面を参照して説明する。なお、以下で説明する構成や処理は、あくまで一例であり、本発明の範囲を限定する主旨のものではない。 Hereinafter, the display device and the control method thereof according to the embodiment of the present invention will be described with reference to the drawings. The configuration and processing described below are merely examples, and are not intended to limit the scope of the present invention.
本実施形態に係る表示装置は、画像データに基づく投影画像を投影対象物(壁、スクリーンシート、スクリーンボード、等)に投影する投影型表示装置である。以下では、本実施形態に係る表示装置が透過型液晶プロジェクタ(表示デバイスとして透過型液晶パネルを用いたプロジェクタ)である場合の例を説明する。しかし、本実施形態に係る表示装置は、透過型液晶プロジェクタに限らない。本発明は、DLP、LCOS(反射型液晶パネル)、等の表示デバイスを用いたプロジェクタにも適用することができる。また、本発明は、単板式の液晶プロジェクタと3板式の液晶プロジェクタとのどちらにも適用することができる。画像データは、1枚の画像を表す静止画像データであってもよいし、複数のフレームに対応する複数の画像を表す動画像データであってもよい。 The display device according to the present embodiment is a projection type display device that projects a projected image based on image data onto a projection object (wall, screen sheet, screen board, etc.). Hereinafter, an example will be described in which the display device according to the present embodiment is a transmissive liquid crystal projector (a projector using a transmissive liquid crystal panel as a display device). However, the display device according to this embodiment is not limited to the transmissive liquid crystal projector. The present invention can also be applied to a projector using a display device such as DLP or LCOS (reflective liquid crystal panel). Further, the present invention can be applied to both a single-plate type liquid crystal projector and a three-plate type liquid crystal projector. The image data may be still image data representing one image, or moving image data representing a plurality of images corresponding to a plurality of frames.
<全体構成>
まず、図1を用いて、本実施形態に係る液晶プロジェクタの全体構成について説明する。図1は、本実施形態に係る液晶プロジェクタ100の全体構成の一例を示す図である。図1に示すように、液晶プロジェクタ100は、CPU110、ROM111、RAM112、操作部113、画像入力部130、及び、画像処理部140を有する。また、液晶プロジェクタ100は、さらに、液晶制御部150、液晶パネル151R,151G,151B、光源制御部160、光源161、色分離部162、色合成部163、光学系制御部170、及び、投影光学系171を有する。また、液晶プロジェクタ100は、さらに、記録再生部191、記録媒体192、通信部193、撮影部194、表示制御部195、及び、表示部196を有する。以下では、液晶プロジェクタ100によって投影される投影画像を「第1投影画像」と記載し、液晶プロジェクタ100以外の表示装置によって投影される投影画像を「第2投影画像」と記載する。
<Overall configuration>
First, the overall configuration of the liquid crystal projector according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of the overall configuration of the
なお、液晶プロジェクタ100は、上述した機能部の一部を有していなくてもよい。例えば、液晶プロジェクタ100は、記録再生部191、記録媒体192、通信部193、撮影部194、表示制御部195、及び、表示部196の少なくともいずれかを有していなくてもよい。
The
CPU110は、液晶プロジェクタ100の各機能部を制御する。CPU110は、例えば、操作部113や通信部193から送信された制御信号を受信し、受信した制御信号に応じて各機能部を制御する。ROM111は、CUP110の処理手順を記述した制御プログラムを記憶する。RAM112は、ワークメモリとして一時的に制御プログラムやデータを記憶する。
The
操作部113は、液晶プロジェクタ100に対するユーザ操作を受け付け、行われたユーザ操作に応じた制御信号をCPU110に送信する。操作部113としては、例えば、スイッチ、ダイヤル、表示部196上に設けられたタッチパネル、等を用いることができる。また、操作部113として、リモコンからの信号を受信し、受信した信号に応じた制御信号をCPU110に送信する信号受信部(赤外線受信部など)を用いることもできる。
The
画像入力部130は、画像データを外部装置から取得し、取得した画像データを画像処理部140に出力する。画像入力部130は、画像データとしてアナログ信号を外部装置から受信した場合には、受信したアナログ信号をデジタル信号に変換し、得られたデジタル信号を画像処理部140に送信する。画像入力部130としては、例えば、コンポジット端子、S端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子、等を用いることができる。画像入力部130に画像データを出力する外部装置は、画像データを出力することができる装置であればよい。画像入力部130に画像データを出力する外部装置としては、例えば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機、等を用いることができる。
The
画像処理部140は、画像処理部140に入力された画像データに所定の画像処理を施すことにより、投影用画像データ(表示用画像データ)を生成する。そして、画像処理部140は、生成した投影用画像データを液晶制御部150に出力する。所定の画像処理は、エッジブレンド処理を含む。エッジブレンド処理は、ブレンド領域の輝度を低減する輝度低減処理(減光処理)である。ブレンド領域は、第1投影画像の領域のうち、第2投影画像に重なる領域である。画像処理部140としては、例えば、画像処理用のマイクロプロセッサを用いることができる。
The
なお、所定の画像処理として、輝度低減処理を含む複数の画像処理が行われてもよい。
例えば、所定の画像処理は、フレーム間引き処理、フレーム補間処理、解像度変換処理、及び、歪み補正処理の少なくともいずれかを含んでいてもよい。歪み補正処理は、画像の歪みを補正する画像処理であり、例えば、台形状の歪みを補正するキーストン補正処理である。
In addition, as a predetermined image processing, a plurality of image processing including a luminance reduction processing may be performed.
For example, the predetermined image processing may include at least one of a frame thinning process, a frame interpolation process, a resolution conversion process, and a distortion correction process. The distortion correction process is an image process that corrects image distortion, and is, for example, a keystone correction process that corrects trapezoidal distortion.
なお、画像処理部140は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、画像処理部140の機能が実現されてもよい。
The
光源制御部160は、光源161のオン/オフ(点灯/消灯)を制御したり、光源の発光量を制御したりする。光源制御部160としては、例えば、制御用のマイクロプロセッサを用いることができる。なお、光源制御部160は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、光源制御部160の機能が実現されてもよい。光源161としては、例えば、ハロゲンランプ、キセノンランプ、高圧水銀ランプ、LED、等を用いることができる。
The light
色分離部162は、光源161から発せられた光を、赤色の光(R光)、緑色の光(G光)、及び、青色の光(B光)に分離する。色分離部162としては、例えば、ダイクロイックミラー、プリズム、等を用いることができる。なお、R光を発するR光源、G光を発するG光源、及び、B光を発するB光源の3つの光源が光源161として使用される場合には、色分離部162は不要である。
The
液晶パネル151Rは、赤色に対応する液晶パネルであって、複数の液晶素子を有する。色分離部162から発せられた3色の光のうち、R光が、液晶パネル151Rが有する複数の液晶素子を透過する。液晶パネル151Gは、緑色に対応する液晶パネルであって、複数の液晶素子を有する。色分離部162から発せられた3色の光のうち、G光が、液晶パネル151Gが有する複数の液晶素子を透過する。そして、液晶パネル151Bは、青色に対応する液晶パネルであって、複数の液晶素子を有する。色分離部162から発せられた3色の光のうち、B光が、液晶パネル151Bが有する複数の液晶素子を透過する。
The liquid crystal panel 151R is a liquid crystal panel corresponding to red color, and has a plurality of liquid crystal elements. Of the three colors of light emitted from the
液晶制御部150は、画像処理部140から出力された投影用画像データに基づいて、液晶パネル151R,151G,151Bが有する各液晶素子の透過率を制御する。液晶素子の透過率は、例えば、液晶素子に印加する電圧、液晶素子に供給する電流、または、それらの両方を制御することにより、制御することができる。画像処理部140に入力された画像データが動画像データである場合、画像処理部は、フレーム毎に投影用画像データを生成する。そして、液晶制御部150は、フレーム毎に、そのフレームの投影用画像データに基づいて、各液晶素子の透過率を制御する。液晶制御部150としては、例えば、制御用のマイクロプロセッサを用いることができる。なお、液晶制御部150は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、液晶制御部150の機能が実現されてもよい。
The liquid
色合成部163は、液晶パネル151Rを透過した光(透過R光)、液晶パネル151Gを透過した光(透過G光)、及び、液晶パネル151Bを透過した光(透過B光)を合成する。色合成部163としては、例えば、ダイクロイックミラー、プリズム、等を用いることができる。
The
また、投影光学系171は、色合成部163から発せられた光(透過R光、透過G光、
及び、透過B光を合成した光;合成光)を、スクリーンシートに投影する。上述したように、液晶パネル151R,151G,151Bの透過率は、投影用画像データに基づいて制御される。そのため、合成光を投影することにより、投影用画像データに基づく画像が投影(表示)される。投影光学系171は、例えば、複数のレンズと、各レンズを駆動するアクチュエータと、を有する。各レンズの位置や向きを変更することにより、スクリーンシート上に形成された第1投影画像の拡大、縮小、焦点調整、等を行うことができる。
Further, the projection
And, the light obtained by synthesizing the transmitted B light; the synthesized light) is projected onto the screen sheet. As described above, the transmittance of the
光学系制御部170は、投影光学系171を制御する。具体的には、投影光学系171は、投影光学系171が有するアクチュエータに指示を出すことにより、投影光学系171が有する各レンズの位置や向きを制御する。例えば、光学系制御部170は、液晶プロジェクタ100に対するユーザ操作に応じて、投影光学系171を制御する。光学系制御部170としては、例えば、制御用のマイクロプロセッサを用いることができる。なお、光学系制御部170は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、光学系制御部170の機能が実現されてもよい。
The optical
撮影部194は、液晶プロジェクタ100の周辺を撮影する。例えば、撮影部194は、スクリーンシート側を撮影する。具体的には、撮影部194は、スクリーンシート上に形成された投影画像(第1投影画像、第2投影画像、または、それらの両方)を撮影する。そして、撮影部194は、撮影によって得られた画像データを記録再生部191に出力する。撮影部194は、例えば、レンズ、アクチュエータ、マイクロプロセッサ、撮像素子、及び、AD変換部を有する。レンズは被写体の光学像を取得し、アクチュエータはレンズを駆動し、マイクロプロセッサはアクチュエータを制御する。撮像素子は、レンズを介して取得した光学像を画像信号(アナログ信号)に変換し、AD変換部は、撮像素子により得られた画像信号をデジタル信号に変換する。なお、撮影部194の撮影方向は、スクリーン方向(液晶プロジェクタ100からスクリーンシートへ向かう方向)に限らない。例えば、撮影部194の撮影方向は、スクリーン方向の逆方向であってもよい。撮影部194は、投影画像を見る視聴者の側を撮影してもよい。
The photographing
記録媒体192は、様々なデータを記憶することができる。例えば、記録媒体192は、画像データ、液晶プロジェクタ100に必要な制御データ、等を記憶することができる。記録媒体192としては、例えば、磁気ディスク、光ディスク、半導体メモリ、等を用いることができる。記録媒体192は、液晶プロジェクタ100に内蔵された記録媒体であってもよいし、液晶プロジェクタ100に対して着脱可能な記録媒体であってもよい。
The
通信部193は、様々なデータを外部装置から取得(受信)する。例えば、通信部193は、画像データ、液晶プロジェクタ100に必要な制御データ、等を外部装置から取得する。通信部193は、取得した画像データを、画像処理部140や記録再生部191に出力する。通信部193の通信方式としては、例えば、無線LAN、有線LAN、USB、Bluetooth(登録商標)、等を用いることができる。通信部193としてHDMI端子が使用されてもよい。その場合には、通信部193は、HDMI端子を介してCEC通信を行う。通信部193と通信を行う外部装置は、通信部193と通信を行うことができる装置であればよい。通信部193と通信を行うとしては、例えば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機、等を用いることができる。
The
記録再生部191は、撮影部194から出力された撮影画像データ、通信部193で取得された画像データ、画像入力部130で取得された画像データ、等を記録媒体192に記録する。また、記録再生部191は、記録媒体192から画像データを取得し、取得した画像データを画像処理部140に出力することもできる(再生処理)。記録再生部19
1は、例えば、記録媒体192と電気的に接続されたインタフェースと、記録媒体192との通信を行うマイクロプロセッサとを有する。なお、記録再生部191が有するマイクロプロセッサは、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、記録再生部191が有するマイクロプロセッサの機能が実現されてもよい。
The recording /
表示部196は、液晶プロジェクタ100に対するユーザ操作を補助する操作画面を表示する。操作画面は、例えば、スイッチアイコンが配置された画像である。表示部196は、画像を表示できれば、どのような構造を有していてもよい。表示部196としては、例えば、液晶表示パネル、CRT表示パネル、有機EL表示パネル、LED表示パネル、プラズマ表示パネル、等を用いることができる。なお、各物理ボタンに対応する発光部(例えばLED)が使用されてもよい。発光部を発光させることにより、ユーザは、物理ボタンを容易に認識することができる。
The
表示制御部195は、表示部196による画像表示を制御する。表示制御を行うマイクロプロセッサなどからなる。表示制御部195としては、例えば、制御用のマイクロプロセッサを用いることができる。なお、表示制御部195は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、表示制御部195の機能が実現されてもよい。
The
なお、画像処理部140、液晶制御部150、光源制御部160、光学系制御部170、記録再生部191、及び、表示制御部195の機能は、1つのマイクロプロセッサによって実現されてもよいし、複数のマイクロプロセッサによって実現されてもよい。これら6つの機能部に対応する6つのマイクロプロセッサが使用されてもよい。1つの機能部の処理は、1つのマイクロプロセッサによって実現されてもよいし、複数のマイクロプロセッサによって実現されてもよい。複数の機能部間で共通のマイクロプロセッサが使用されてもよい。上記6つの機能部のうちの2つ以上の機能部間で共通のマイクロプロセッサが使用されてもよい。
The functions of the
<基本動作>
次に、図2を用いて、液晶プロジェクタ100の基本動作を説明する。図2は、液晶プロジェクタ100の基本動作の一例を示すフロー図である。基本的には、CPU110が、ROM111に記憶されたプログラムに基づいて、各機能部を制御することにより、図2の動作が実現される。図2の動作は、液晶プロジェクタ100の電源がオンされたことに応じて開始される。
<Basic operation>
Next, the basic operation of the
まず、CPU110が、不図示の電源部から液晶プロジェクタ100の各機能部に電力を供給すると共に、投影開始処理を実行する(S201)。投影開始処理では、光源制御部160への指示、液晶制御部150への指示、画像処理部140の動作設定、等が行われる。光源制御部160への指示により、光源161を点灯する点灯制御が行われ、液晶制御部150への指示により、液晶パネル151R,151G,151B(各液晶素子)を駆動する駆動制御が行われる。投影開始処理が行われることにより、投影画像(第1投影画像)が投影される。
First, the
次に、CPU110が、画像入力部130に入力された画像データが変化したか否かを判定する(S202)。画像データが変化した場合には、S203に処理が進められ、画像データが変化しなかった場合には、S204に処理が進められる。
Next, the
S203では、CPU110が、タイミング変更処理を実行する。タイミング変更処理では、入力画像(画像入力部130に入力された画像データによって表された画像)の解
像度、入力画像のフレームレート、等が検出される。そして、検出結果に応じたタイミングで入力画像がサンプリングされ、サンプリングされた入力画像(データ)が出力される。それにより、画像処理部140において、入力画像に必要な画像処理が施される。その結果、必要な画像処理が施された後の投影画像(第1投影画像)が投影される。そして、S203からS204に処理が進められる。
In S203, the
S204では、CPU110が、液晶プロジェクタ100に対するユーザ操作が行われた否かを判定する。ユーザ操作が行われなかった場合には、S208に処理が進められる。ユーザ操作が行われた場合には、CPU110が、ユーザ操作が終了操作であるか否かを判定する(S205)。終了操作は、投影を終了するユーザ操作である。ユーザ操作が終了操作である場合には、S206に処理が進められる。ユーザ操作が終了操作でない場合には、CPU110が、ユーザ操作に応じた処理(ユーザ処理)を実行する(S207)。そして、S207からS208に処理が進められる。ユーザ処理は、例えば、設置設定の変更、入力画像の変更、画像処理の変更、情報の表示、等である。
In S204, the
S208では、CPU110が、通信部193によってコマンドが受信されたか否かを判定する。コマンドが受信されなかった場合には、S202に処理が戻される。コマンド受信された場合には、CPU110が、受信されたコマンド(受信コマンド)が終了コマンドであるか否かを判定する(S209)。終了コマンドは、投影を終了するコマンドである。受信コマンドが終了コマンドである場合には、S206に処理が進められる。受信コマンドが終了コマンドでない場合には、CPU110が、受信コマンドに応じた処理(コマンド処理)を実行する(S210)。そして、S210からS202に処理が戻される。コマンド処理は、例えば、設置設定の変更、入力画像の変更、画像処理の変更、情報の表示、等である。
In S208, the
上述したように、終了操作が行われた場合や終了コマンドが受信された場合には、S206の処理が行われる。S206では、CPU110が、投影終了処理を実行する。投影終了処理では、光源制御部160への指示、液晶制御部150への指示、必要な情報(各種設定値)のROM111への保存、等が行われる。光源制御部160への指示により、光源161を消灯する消灯制御が行われ、液晶制御部150への指示により、液晶パネル151R,151G,151B(各液晶素子)の駆動を停止する駆動停止制御が行われる。投影終了処理が行われることにより、投影画像(第1投影画像)の投影が終了される。そして、図2の動作フローが終了される。
As described above, when the end operation is performed or the end command is received, the process of S206 is performed. In S206, the
なお、画像入力部130に入力された画像データに基づく投影画像が投影される場合を説明したが、液晶プロジェクタ100は、他の画像データに基づく投影画像を投影することもできる。例えば、液晶プロジェクタ100は、記録媒体192から画像データを読み出し、読み出した画像データに基づく投影画像を投影することもできる。また、液晶プロジェクタ100は、通信部193で受信された画像データに基づく投影画像を投影することもできる。どの画像データに基づく投影画像を投影するかは、例えば、液晶プロジェクタに設定されている動作モードに応じて決定される(切り替えられる)。
Although the case where the projected image based on the image data input to the
<本実施形態で解決される課題>
次に、本実施形態で解決される課題について、図12〜17を参照して説明する。
<Problems to be solved in this embodiment>
Next, the problems to be solved in this embodiment will be described with reference to FIGS. 12 to 17.
図12は、マルチ投影の一例を示す。マルチ投影は、複数のプロジェクタの複数の投影画像を繋ぎ合わせることで、1つの投影画像(合成投影画像)を構成する投影方法である。図12は、2台のプロジェクタ20a,20bを用いたマルチ投影の一例を示す。なお、マルチ投影に使用するプロジェクタの数は2台より多くてもよい。
FIG. 12 shows an example of multi-projection. Multi-projection is a projection method for forming one projected image (composite projected image) by joining a plurality of projected images of a plurality of projectors. FIG. 12 shows an example of multi-projection using two
図12では、プロジェクタ20aによって、スクリーン10上に投影画像10aが投影されており、プロジェクタ20bによって、スクリーン10上に投影画像10bが投影されている。投影画像10aの右辺部分は、投影画像10bの左辺部分に重なっている。図12において、符号30は、投影画像10aと投影画像10bが重なり合うブレンド領域を示す。エッジブレンド処理を行わずに投影を行うと、非ブレンド領域に比べ明るい画像がブレンド領域に表示され、ブレンド領域と非ブレンド領域の間に合成輝度(合成投影画像の投影輝度(表示輝度))の段差が生じる。非ブレンド領域は、投影画像の領域のうち他の投影画像に重ならない領域である。例えば、投影画像10a,10bの輝度が一様であった場合、図12に示すように、ブレンド領域30の合成輝度が、非ブレンド領域の2倍に高められる。その結果、合成輝度の段差が生じる。
In FIG. 12, the
エッジブレンド処理を行うことにより、合成輝度の段差を低減することができる。図13にエッジブレンド処理後の投影画像の一例を示す。図13において、投影画像10aの領域30aと、投影画像10bの領域30bとは、いずれも、図12のブレンド領域30に対応する領域である。図13の例では、領域30aの輝度を低減するエッジブレンド処理が投影画像10aに施され、且つ、領域30bの輝度を低減するエッジブレンド処理が投影画像10bに施された場合の例を示す。このようなエッジブレンド処理を行うことにより、図14に示すように、ブレンド領域30の合成輝度を、非ブレンド領域の合成輝度に合わせることができる。
By performing the edge blending process, it is possible to reduce the step in the combined brightness. FIG. 13 shows an example of the projected image after the edge blending process. In FIG. 13, the
マルチ投影を行う際、ユーザは、複数の投影画像の間のつなぎ目を見えにくくするために、各投影画像の投影領域(表示領域)を調整する。例えば、ユーザによって、各投影画像の投影位置(表示位置)、各投影画像の形状、等が調整される。投影位置は、例えば、プロジェクタの設置位置を変更することにより、変更することができる。投影画像の形状は、例えば、キーストン補正に使用するパラメータを変更することにより、変更することができる。そして、投影領域の調整を簡単化するために、図15のように、ブレンド領域を示すマーカー(投影領域の調整を補助する補助マーカー)が表示されることがある。補助マーカーはブレンド領域を示すマーカーであるため、補助マーカーの少なくとも一部はブレンド領域に含まれる。そのため、補助マーカーが配置された画像データにエッジブレンド処理を施すと、図16に示すように、補助マーカーの一部の輝度が不必要に低減され、補助マーカーの視認性が低下する。補助マーカーの視認性が悪いと、ユーザは、投影領域を容易に調整することができない。 When performing multi-projection, the user adjusts the projection area (display area) of each projection image in order to make the joint between the plurality of projection images difficult to see. For example, the user adjusts the projection position (display position) of each projected image, the shape of each projected image, and the like. The projection position can be changed, for example, by changing the installation position of the projector. The shape of the projected image can be changed, for example, by changing the parameters used for keystone correction. Then, in order to simplify the adjustment of the projection area, as shown in FIG. 15, a marker indicating the blend area (an auxiliary marker that assists the adjustment of the projection area) may be displayed. Since the auxiliary marker is a marker indicating the blend region, at least a part of the auxiliary marker is included in the blend region. Therefore, when the edge blending process is applied to the image data in which the auxiliary marker is arranged, the brightness of a part of the auxiliary marker is unnecessarily reduced and the visibility of the auxiliary marker is lowered, as shown in FIG. If the visibility of the auxiliary marker is poor, the user cannot easily adjust the projection area.
補助マーカーは、グラフィック画像を元画像内に配置する描画処理によって描画されることがある。例えば、補助マーカーは、入力画像に重ねられたOSD(オンスクリーンディスプレイ)画像である。描画処理がエッジブレンド処理よりも後に行われれば、補助マーカーの視認性の低下を抑制することができる。しかしながら、描画処理により、補助マーカー以外のグラフィック画像が描画されることもある。例えば、各種設定値を示すメニュー画像が描画処理によって描画されることがある。描画処理がエッジブレンド処理よりも後に行われると、図17に示すように、エッジブレンド処理を施すべきグラフィック画像40にエッジブレンド処理が施されず、グラフィック画像40内に上述した合成輝度の段差が生じる。そのため、エッジブレンド処理は、描画処理の後に行われることが望ましい。
The auxiliary marker may be drawn by a drawing process in which the graphic image is placed in the original image. For example, the auxiliary marker is an OSD (On Screen Display) image superimposed on the input image. If the drawing process is performed after the edge blend process, it is possible to suppress a decrease in the visibility of the auxiliary marker. However, a graphic image other than the auxiliary marker may be drawn by the drawing process. For example, menu images showing various setting values may be drawn by drawing processing. When the drawing process is performed after the edge blend process, as shown in FIG. 17, the edge blend process is not applied to the
そこで、本実施形態では、描画処理が行われた後にエッジブレンド処理を行う。そして、補助マーカーが配置された画像データについては、それ以外の画像データに比べ小さい値に、ブレンド領域の輝度のエッジブレンド処理による低減量を制御する。それにより、エッジブレンド処理を施すべきグラフィック画像を高画質で投影でき、且つ、エッジブレンド処理による補助マーカーの視認性の低下を抑制することができる。 Therefore, in the present embodiment, the edge blending process is performed after the drawing process is performed. Then, for the image data in which the auxiliary marker is arranged, the amount of reduction of the brightness of the blend region by the edge blending process is controlled to a value smaller than that of the other image data. As a result, the graphic image to be subjected to the edge blending process can be projected with high image quality, and the deterioration of the visibility of the auxiliary marker due to the edge blending process can be suppressed.
<本実施形態の特徴>
次に、液晶プロジェクタ100の特徴的な動作について説明する。図3は、画像処理部140の内部構成の一例を示す図である。図3に示すように、画像処理部140は、OSD合成部310と各種画像処理部320を有する。
<Characteristics of this embodiment>
Next, the characteristic operation of the
図3において、元画像データsig301は、画像入力部130、記録再生部191、または、通信部193から出力された入力画像データであり、元画像(入力画像)を表す画像データである。タイミング信号sig302は、元画像データsig301の供給元(元画像データsig301を出力した機能部)から出力された信号であり、元画像データsig301に同期した信号である。タイミング信号sig302は、例えば、垂直同期信号、水平同期信号、クロック信号、等を含む。画像処理部140が有する各機能部は、タイミング信号sig302に同期して動作する。なお、画像処理部140は、タイミング信号を受信せずに、タイミング信号を生成し、生成したタイミング信号を使用してもよい。
In FIG. 3, the original image data sig301 is input image data output from the
OSD合成部310は、CPU110と連携して処理を行う。具体的には、OSD合成部310は、元画像データsig301を取得し、取得画像データsig303を各種画像処理部320に出力する。OSD合成部310は、元画像データsig301を取得画像データsig303として出力することができる。また、OSD合成部310は、グラフィック画像を表すグラフィック画像データを元画像データsig301に合成することにより、元画像にグラフィック画像を重ねた合成画像データを取得(生成)することができる。合成画像データは、CPU110からの指示に応じて生成される。例えば、1つ以上のグラフィック画像データが予め用意されており、CPU110からの指示に応じたグラフィック画像データを用いた合成によって、合成画像データが生成される。そして、OSD合成部310は、合成画像データを生成した場合に、合成画像データを取得画像データsig303として出力する。
The
各種画像処理部320は、取得画像データsig303に所定の画像処理を施すことにより、投影用画像データsig304を生成する。そして、各種画像処理部320は、投影用画像データsig304を液晶制御部150に出力する。上述したように、所定の画像処理は、エッジブレンド処理を含む。
The various
なお、上述したように、所定の画像処理として、エッジブレンド処理を含む複数の画像処理が行われてもよい。例えば、所定の画像処理は、画像データの特徴量の取得、IP変換、フレームレート変換、解像度変換、γ変換、色域変換、色補正、エッジ強調、等を含んでいてもよい。特徴量は、例えば、画素値のヒストグラム、画素値の代表値(平均値、中間値、最頻値、最大値、最小値、等)、輝度値のヒストグラム、輝度値の代表値、等である。これらの画像処理ついては、公知技術を用いることができるため、その説明を割愛する。 As described above, a plurality of image processes including an edge blend process may be performed as a predetermined image process. For example, the predetermined image processing may include acquisition of feature amounts of image data, IP conversion, frame rate conversion, resolution conversion, γ conversion, color gamut conversion, color correction, edge enhancement, and the like. The feature amount is, for example, a histogram of pixel values, a representative value of pixel values (mean value, an intermediate value, a mode value, a maximum value, a minimum value, etc.), a histogram of brightness values, a representative value of brightness values, and the like. .. Since known techniques can be used for these image processings, the description thereof will be omitted.
図4は、本実施形態に係るマルチ投影の一例を示す。図4は、2台のプロジェクタ400a,400bを用いたマルチ投影の一例を示す。プロジェクタ400a,400bは、図1の液晶プロジェクタ100と同様の構成を有する。なお、マルチ投影に使用するプロジェクタの数は2台より多くてもよい。
FIG. 4 shows an example of multi-projection according to the present embodiment. FIG. 4 shows an example of multi-projection using two
図4は、プロジェクタ400aによって、スクリーン410上に投影画像500aが投影されており、プロジェクタ400bによって、スクリーン410上に投影画像500bが投影されている。投影画像500aと投影画像500bは、投影領域の調整が完了した際に1つの投影画像(合成投影画像)を形成する。図4では、投影画像500aは台形状に歪んで投影されており、投影画像500bはキーストン補正処理によって歪みなく投影
されている。
In FIG. 4, the projected
このような場合、例えば、ユーザは、合成投影画像が形成されるように、投影画像500aの投影領域を調整する。なお、投影領域の調整では、1台のプロジェクタに対応する1つの投影画像の投影領域のみが調整されるとは限らない。複数台のプロジェクタに対応する複数の投影画像のそれぞれについて、投影領域が調整(変更)されることもある。投影領域の調整方法は特に限定されるものではない。
In such a case, for example, the user adjusts the projection area of the projected
図5を用いて、プロジェクタ400aの動作の一例について説明する。図5は、プロジェクタ400aの動作の一例を示すフローチャートである。なお、プロジェクタ400bでも、以下で説明する動作と同様の動作が行われる。本実施形態では、プロジェクタ400aは、調整モードを含む複数の動作モードのいずれかを設定可能である。調整モードは、投影画像の投影領域の調整を行う際に設定すべき動作モードである。図5の動作は、プロジェクタ400aに対して調整モードが設定されたことをトリガとして開始される。
An example of the operation of the
まず、S601にて、CPU110が、RAM112に予め記憶された補助マーカーをRAM112から読み出し、読み出した補助マーカーをOSD合成部310に出力する。それにより、OSD合成部310において、補助マーカーを用いた合成が行われ、補助マーカーが配置された合成画像データが生成される。
First, in S601, the
次に、S602にて、CPU110が、RAM112に予め記憶されたエッジブレンドパラメータである調整パラメータをRAM112から読み出し、読み出した調整パラメータを各種画像処理部320に設定する。例えば、読み出された調整パラメータが、各種画像処理部320が保持している変換データに書き込まれる。エッジブレンドパラメータは、エッジブレンド処理に使用するパラメータである。変換データは、エッジブレンドパラメータを用いて輝度値を変換するデータである。変換データとしては、LUT(ルックアップテーブル)、関数、等が使用される。
Next, in S602, the
そして、S603にて、CPU110が、各種画像処理部320にエッジブレンド処理の実行を指示する。それにより、調整パラメータを用いたエッジブレンド処理が、S601で生成された合成画像データに施される。それにより、投影用画像データが生成される。その後、S603で生成された投影用画像データに基づく投影画像が、投影画像500aとして投影される。
Then, in S603, the
次に、S604にて、CPU110が、調整モードの設定が解除されたか否かを判定する。調整モードは、例えば、プロジェクタ400aに対するユーザ操作によって解除される。ユーザ操作は、調整モードを解除するユーザ操作、調整モードから他の動作モードに動作モードを変更するユーザ操作、等である。調整モードが解除された場合には、S605に処理が進められ、調整モードが解除されなかった場合には、S601に処理が戻される。
Next, in S604, the
なお、調整モードの解除方法は上記方法に限らない。例えば、調整モードが設定されてから所定時間(3分、5分、10分、等)後に、自動で調整モードが解除されてもよい。 The method of canceling the adjustment mode is not limited to the above method. For example, the adjustment mode may be automatically canceled after a predetermined time (3 minutes, 5 minutes, 10 minutes, etc.) after the adjustment mode is set.
なお、図5の動作が開始されるタイミングは上記タイミングに限らない。例えば、プロジェクタ400aの電源がオンされたことをトリガとして、図5の動作が開始されてもよい。そして、プロジェクタ400aの電源がオンされたタイミングから所定時間後に、S604からS605に処理が進められてもよい。
The timing at which the operation of FIG. 5 is started is not limited to the above timing. For example, the operation of FIG. 5 may be started with the power of the
S605では、CPU110が、補助マーカーを消去する指示をOSD合成部310に
出力する。それにより、OSD合成部310において、補助マーカーが配置されていない画像データ(入力画像データまたは合成画像データ)が得られる。
In S605, the
次に、S606にて、CPU110が、CPU110が、RAM112に予め記憶されたエッジブレンドパラメータである通常パラメータをRAM112から読み出し、読み出した通常パラメータを各種画像処理部320に設定する。
Next, in S606, the
そして、S607にて、CPU110が、各種画像処理部320にエッジブレンド処理の実行を指示する。それにより、通常パラメータを用いたエッジブレンド処理が、S605で得られた画像データに施される。それにより、投影用画像データが生成される。詳細は後述するが、通常パラメータは調整パラメータとは異なる。このように、本実施形態では、補助マーカーが配置された画像データが取得された場合と、そうでない場合とで、エッジブレンドパラメータが切り替えられて使用される。その後、S607で生成された投影用画像データに基づく投影画像が、投影画像500aとして投影される。具体的には、S603で生成された投影用画像データに基づく投影画像から、S607で生成された投影用画像データに基づく投影画像に、投影画像500aが変更(更新)される。
Then, in S607, the
<通常パラメータ>
通常パラメータの一例について説明する。本実施形態では、輝度が一様な入力画像データから図6(a)に示す投影画像500aが得られるように、通常パラメータとして、図6(b)のエッジブレンドパラメータが使用される。図6(a)において、符号510aは、ブレンド領域を示す。図6(a)では、入力画像データの画像サイズは、W(水平方向における画素数)×H(垂直方向における画素数)である。そして、右端から左側にEB画素分の領域がブレンド領域510aである。図6(b)において、縦軸はエッジブレンド処理の補正比率Rを示し、横軸は水平方向における画素位置(水平位置)xを示す。補正比率は、エッジブレンド処理前の輝度に対するエッジブレンド処理後の輝度の割合であり、エッジブレンド処理後の輝度に対応する値である。図6(b)の例では、ブレンド領域と非ブレンド領域の境界(x=W−EB)から右端(x=W)にかけて輝度が連続的に低下している。図6(b)の補正比率は、垂直方向における画素位置(垂直位置)yには依存しない。
<Normal parameters>
An example of normal parameters will be described. In the present embodiment, the edge blend parameter of FIG. 6 (b) is used as a normal parameter so that the projected
本実施形態では、変換データとして、図6(c)に示すLUT520が用意されている。図6(c)は、図6(b)の通常パラメータが書き込まれた後の変換データを示す。LUT520は、水平方向9個×垂直方向10個の計90個のデータブロックを有する。90個のデータブロックは、ブレンド領域510aを構成する水平方向9個×垂直方向10個の計90個の分割領域にそれぞれ対応する。各データブロックには、エッジブレンドパラメータが示す補正比率Rを離散化した値が書き込まれる。図6(c)において、各データブロック内に記載されている数値は、補正比率Rである。なお、LUTのデータブロックの数は特に限定されない。データブロックの数が多いほど、より連続的な補正比率の分布を表現することができ、より高精度なエッジブレンド処理を実現することができる。
In the present embodiment, the
なお、通常パラメータは、図6(b)に示すパラメータに限らない。例えば、通常パラメータとして、ブレンド領域内の各画素の輝度値を同じ低減量で低減するパラメータが使用されてもよい。 The normal parameters are not limited to the parameters shown in FIG. 6B. For example, as a normal parameter, a parameter that reduces the brightness value of each pixel in the blend region by the same reduction amount may be used.
<エッジブレンド処理>
エッジブレンド処理の一例について説明する。ここでは、図6(b)の通常パラメータを用いた場合の例を説明するが、他のエッジブレンドパラメータを用いる場合も以下で述べる処理と同様の処理が行われる。
<Edge blend processing>
An example of edge blending processing will be described. Here, an example in which the normal parameter shown in FIG. 6B is used will be described, but when other edge blend parameters are used, the same processing as described below is performed.
図7(a)は、図6(a)と同じものである。図7(b)は、ブレンド領域510aの各画素の入力輝度値(入力画素値)を示す。入力輝度値は、エッジブレンド処理前の輝度値である。図7(b)の例では、ブレンド領域510aは、水平方向N個×垂直方向M個の画素を有する。図7(b)において、各画素に記載されている数字は入力輝度値である。図7(c)は、LUT520を示す。図7(c)は、図6(b)の通常パラメータが書き込まれた後のLUT520を示す。図7(c)の例では、LUT520は、水平方向n個×垂直方向m個のデータブロックを有する。なお、Nとnは必ずしも一致せず、Mとmも必ずしも一致しない。
FIG. 7A is the same as FIG. 6A. FIG. 7B shows an input luminance value (input pixel value) of each pixel in the
図8を用いて、エッジブレンド処理について説明する。図8は、エッジブレンド処理の流れの一例を示すフローチャートである。図8は、1つの画素(処理対象画素)に対する処理を示す。エッジブレンド処理では、ブレンド領域内の各画素について、図8の処理が行われる。以下では、図7(b)の画素511が処理対象画素である場合の例を説明する。
The edge blending process will be described with reference to FIG. FIG. 8 is a flowchart showing an example of the flow of the edge blending process. FIG. 8 shows processing for one pixel (processing target pixel). In the edge blending process, the processing of FIG. 8 is performed for each pixel in the blending region. Hereinafter, an example in which the
まず、S610にて、各種画像処理部320が、エッジブレンドパラメータが格納されているLUT520から、処理対象画素511の位置に基づいて補正比率を抽出する。本実施形態では、処理対象画素511の位置から所定範囲内に分割領域が存在するデータブロックの補正比率が抽出される。所定範囲内に分割領域の全部が含まれるデータブロックの補正比率のみが抽出されてもよいし、所定範囲内に分割領域の少なくとも一部が含まれるデータブロックの補正比率が抽出されてもよい。所定範囲内に分割領域の中心位置が含まれるデータブロックの補正比率が抽出されてもよい。ここでは、補正比率530a,530b,530c,530dが抽出されたとする。各データブロックに対応する分割領域は、データブロックの数n,mとブレンド領域510aのサイズH,EBとから算出することができる。なお、補正比率の抽出方法はこれに限らない。例えば、処理対象画素511の位置を含む分割領域に対応する補正比率が抽出されてもよい。
First, in S610, various
次に、S611にて、各種画像処理部320が、エッジブレンド係数を算出する。本実施形態では、処理対象画素511の位置と、S610で補正比率の抽出対象とされた複数の分割領域の位置(例えば中心位置)と、に基づく線形補間が行われる。それにより、S610で抽出された複数の補正比率から、処理対象画素511の位置に対応する補正比率が、エッジブレンド係数として算出される。ここでは、補正比率530a,530b,530c,530dからエッジブレンド係数が算出される。なお、線形補間でなく、非線形補間が行われてもよい。上記補間は、「処理対象画素511の位置と分割領域の位置との間の距離に応じた重みで複数の補正比率を合成する重み付け合成」と言うこともできる。この場合、重みとしては、距離が短いほど大きい重みが使用される。S610で補正比率が1つだけ抽出された場合には、抽出された補正比率がエッジブレンド係数として設定される。
Next, in S611, various
そして、S612にて、各種画像処理部320が、処理対象画素511の輝度値(画素値)に、S611で算出したエッジブレンド係数を乗算する。その結果、図7(d)に示すように、処理対象画素511の輝度値が255から243に低減される。図7(d)は、ブレンド領域510aの各画素の出力輝度値(出力画素値)を示す。出力輝度値は、エッジブレンド処理後の輝度値である。
Then, in S612, various
以上の処理をブレンド領域510a内の全ての画素について行うことにより、図7(d)の処理結果が得られる。
By performing the above processing for all the pixels in the
なお、エッジブレンド処理の方法は、上記情報に限らない。ブレンド領域と非ブレンド領域の間の合成輝度の段差を低減することができれば、どのような方法でブレンド領域の
輝度が低減されてもよい。
The method of edge blending processing is not limited to the above information. The brightness of the blended region may be reduced by any method as long as the step of the combined brightness between the blended region and the non-blended region can be reduced.
<調整パラメータ>
調整パラメータの一例について説明する。本実施形態では、輝度が一様な入力画像に補助マーカーを重ねた合成画像データから図9(a)に示す投影画像500aが得られるように、調整パラメータとして、図9(b),9(c)に示すようなエッジブレンドパラメータが使用される。図9(a)の例では、ブレンド領域に含まれている補助マーカーの幅は、WM画素である。図9(b)は、図9(a)の垂直位置901についての調整パラメータを示し、図9(c)は、図9(a)の垂直位置902についての調整パラメータを示す。このように、本実施形態では、調整パラメータの補正比率は、垂直位置yには依存する。
<Adjustment parameters>
An example of the adjustment parameter will be described. In the present embodiment, the adjustment parameters are shown in FIGS. 9 (b) and 9 (a) so that the projected
図9(b)では、水平位置x=W−WMから水平位置x=Wまでの範囲に補助マーカーが存在するため、その範囲(マーカー範囲)の補正比率として、図6(b)よりも大きい値が設定されている。具体的には、マーカー範囲の補正比率として、輝度を低減しない補正比率が設定されている。そして、図9(b)では、マーカー範囲以外の範囲には補助マーカーが存在しないため、マーカー範囲以外の範囲の補正比率として、図6(b)と同じ値が設定されている。垂直位置902には補助マーカーが存在しないため、垂直位置902についての調整パラメータ(図9(c))として、図6(b)と同じエッジブレンドパラメータが使用される。
In FIG. 9B, since the auxiliary marker exists in the range from the horizontal position x = W-WM to the horizontal position x = W, the correction ratio of the range (marker range) is larger than that in FIG. 6B. The value is set. Specifically, as the correction ratio of the marker range, a correction ratio that does not reduce the brightness is set. Since there is no auxiliary marker in the range other than the marker range in FIG. 9B, the same value as in FIG. 6B is set as the correction ratio in the range other than the marker range. Since there is no auxiliary marker at the
図9(d)は、図9(b),9(c)の調整パラメータが書き込まれた後のLUT520(変換データ)を示す。図9(d)のドットで塗りつぶされたデータブロック(右上と右下)には、分割領域に補助マーカーが存在するため、図6(c)よりも大きい補正比率が書き込まれている。具体的には、輝度を低減しない補正比率「100」が書き込まれている。図9(d)のLUT520を用いることにより、ブレンド領域のうち補助マーカーが存在する領域の低減量(エッジブレンド処理による低減量)を、図6(b)の通常パラメータを用いた場合よりも小さい値に制御することができる。具体的には、ブレンド領域のうち補助マーカーが存在する領域の低減量を、ゼロ(0)に制御することができる。厳密には、ブレンド領域のうち補助マーカーが存在する領域とその周辺の領域の低減量を、ゼロ(0)に制御することができる。そして、残りの領域(ブレンド領域のうち補助マーカーが存在しない領域)の低減量を、図6(b)の通常パラメータを用いた場合と同じ値に制御することができる。 FIG. 9 (d) shows the LUT 520 (conversion data) after the adjustment parameters of FIGS. 9 (b) and 9 (c) are written. In the data block (upper right and lower right) filled with dots in FIG. 9 (d), an auxiliary marker exists in the divided area, so that a correction ratio larger than that in FIG. 6 (c) is written. Specifically, a correction ratio "100" that does not reduce the brightness is written. By using the LUT520 of FIG. 9D, the reduction amount (reduction amount by the edge blending process) of the region where the auxiliary marker exists in the blend region is smaller than that when the normal parameter of FIG. 6B is used. It can be controlled to a value. Specifically, the reduction amount of the region in which the auxiliary marker exists in the blend region can be controlled to zero (0). Strictly speaking, the amount of reduction in the region where the auxiliary marker exists and the region around the blend region can be controlled to zero (0). Then, the reduction amount of the remaining region (the region of the blend region in which the auxiliary marker does not exist) can be controlled to the same value as when the normal parameter of FIG. 6B is used.
なお、調整パラメータを用いたエッジブレンド処理は上記処理に限らない。例えば、ブレンド領域のうち補助マーカーが存在する領域の低減量は0より大きくてもよい。また、ブレンド領域全体の低減量が、通常パラメータを用いた場合よりも小さい値に制御されてもよい。補助マーカーの視認性の低下を抑制できれば、ブレンド領域の低減量はどのように制御されてもよい。 The edge blending process using the adjustment parameters is not limited to the above processing. For example, the amount of reduction in the region where the auxiliary marker is present in the blend region may be larger than 0. Further, the reduction amount of the entire blend region may be controlled to a value smaller than that when the normal parameter is used. The amount of reduction in the blend region may be controlled in any way as long as the decrease in visibility of the auxiliary marker can be suppressed.
具体的には、輝度が一様な入力画像に補助マーカーを重ねた合成画像データから図10(a)に示す投影画像500aが得られるように、調整パラメータとして、図10(b)に示すようなエッジブレンドパラメータが使用されてもよい。ここでは、調整パラメータの補正比率は、垂直位置yに依存しない。
Specifically, as shown in FIG. 10 (b), the adjustment parameters are such that the projected
図10(b)では、ブレンド領域全体に対して、輝度を低減しない補正比率が設定されている。図10(c)は、図10(b)の調整パラメータが書き込まれた後のLUT520(変換データ)を示す。図10(c)では、全てのデータブロックに対して、輝度を低減しない補正比率「100」が書き込まれている。図10(c)のLUT520を用いることにより、ブレンド領域全体の低減量をゼロ(0)に制御することができる。即ち、ブ
レンド領域の全ての画素について、エッジブレンド処理後の画素値として、エッジブレンド処理前の画素値と同じ値を得ることができる。その結果、補助マーカーの視認性の低下を抑制することができる。
In FIG. 10B, a correction ratio that does not reduce the brightness is set for the entire blend region. FIG. 10 (c) shows the LUT 520 (conversion data) after the adjustment parameters of FIG. 10 (b) have been written. In FIG. 10C, a correction ratio “100” that does not reduce the brightness is written for all the data blocks. By using the LUT520 of FIG. 10C, the reduction amount of the entire blend region can be controlled to zero (0). That is, for all the pixels in the blend region, the same value as the pixel value before the edge blending process can be obtained as the pixel value after the edge blending process. As a result, it is possible to suppress a decrease in the visibility of the auxiliary marker.
また、輝度が一様な入力画像に補助マーカーを重ねた合成画像データから図11(a)に示す投影画像500aが得られるように、調整パラメータとして、図11(b)に示すようなエッジブレンドパラメータが使用されてもよい。ここでは、調整パラメータの補正比率は、垂直位置yに依存しない。
Further, as an adjustment parameter, an edge blend as shown in FIG. 11B is used so that the projected
図11(b)では、ブレンド領域と非ブレンド領域の境界(x=W−EB)から右端(x=W)にかけて補正比率が連続的に低下している。しかし、図11(b)では、右端(x=W)の補正比率として、図6(b)よりも大きい値が設定されている。図11(c)は、図11(b)の調整パラメータが書き込まれた後のLUT520(変換データ)を示す。図11(c)のLUT520を用いることにより、マーカー領域の輝度の低下を抑制することができ、補助マーカーの視認性の低下を抑制することができる。 In FIG. 11B, the correction ratio continuously decreases from the boundary (x = W-EB) between the blended region and the non-blended region to the right end (x = W). However, in FIG. 11B, a value larger than that in FIG. 6B is set as the correction ratio at the right end (x = W). FIG. 11C shows the LUT520 (conversion data) after the adjustment parameters of FIG. 11B have been written. By using the LUT520 of FIG. 11C, it is possible to suppress a decrease in the brightness of the marker region and suppress a decrease in the visibility of the auxiliary marker.
以上に述べたように、本実施形態によれば、補助マーカーが配置された画像データが取得された場合に、そうでない場合に比べ小さい値に、ブレンド領域の輝度のエッジブレンド処理による低減量が制御される。それにより、エッジブレンド処理による補助マーカーの視認性の低下を抑制することができる。その結果、ユーザは、投影領域を容易に調整することができる。 As described above, according to the present embodiment, when the image data in which the auxiliary marker is arranged is acquired, the amount of reduction in the brightness of the blended region by the edge blending process is reduced to a smaller value than in the case where the auxiliary marker is not arranged. Be controlled. As a result, it is possible to suppress a decrease in visibility of the auxiliary marker due to the edge blending process. As a result, the user can easily adjust the projection area.
なお、本実施形態では、補助マーカーが配置された画像データが、画像データの合成によって取得(生成)される例を説明したが、これに限らない。画像データの合成は、液晶プロジェクタとは異なる外部装置で行われてもよい。そして、液晶プロジェクタが、補助マーカーが配置された画像データを外部装置から取得してもよい。液晶プロジェクタに入力された画像に補助マーカーが配置されているか否かの判定方法は特に限定されない。例えば、外部装置から、補助マーカーが配置されているか否かを示すメタデータを含む画像データが取得されてもよい。その場合には、メタデータを用いて補助マーカーが配置されているか否かを判定することができる。 In the present embodiment, an example in which the image data in which the auxiliary marker is arranged is acquired (generated) by synthesizing the image data has been described, but the present invention is not limited to this. The image data may be combined by an external device different from the liquid crystal projector. Then, the liquid crystal projector may acquire the image data in which the auxiliary marker is arranged from the external device. The method for determining whether or not the auxiliary marker is arranged on the image input to the liquid crystal projector is not particularly limited. For example, image data including metadata indicating whether or not an auxiliary marker is arranged may be acquired from an external device. In that case, the metadata can be used to determine whether or not the auxiliary marker is placed.
なお、本実施形態では、補助マーカーが配置された画像データが取得された場合と、そうでない場合とで、エッジブレンドパラメータを切り替えたが、低減量の制御方法はこれに限らない。例えば、補助マーカーが配置された画像データが取得された場合に、エッジブレンド処理が省略されてもよい。 In the present embodiment, the edge blend parameter is switched between the case where the image data in which the auxiliary marker is arranged is acquired and the case where the image data is not acquired, but the control method of the reduction amount is not limited to this. For example, the edge blending process may be omitted when the image data in which the auxiliary marker is arranged is acquired.
<その他の実施形態>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。プロセッサーとしては、例えば、CPUやMPUを用いることができる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体が本発明を構成することになる。
プログラムコードを記憶する記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、等を用いることができる。
また、上述のプログラムコードの指示に基づき、装置上で稼動しているOS(基本システムやオペレーティングシステム)などが処理の一部又は全部を行い、その処理によって
前述した実施形態の機能が実現される構成も、本発明に含まれる。
さらに、記憶媒体から読み出されたプログラムコードが、装置に挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれ、前述した実施形態の機能が実現される構成も、本発明に含まれる。このとき、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が処理の一部又は全部を行う。
<Other Embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. As the processor, for example, a CPU or an MPU can be used. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the program code itself and the storage medium storing the program code constitute the present invention.
As the storage medium for storing the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM, or the like can be used.
Further, based on the instruction of the above-mentioned program code, the OS (basic system or operating system) running on the device performs a part or all of the processing, and the processing realizes the function of the above-described embodiment. The configuration is also included in the present invention.
Further, the program code read from the storage medium is written in the memory provided in the function expansion board inserted in the device or the function expansion unit connected to the computer, and the function of the above-described embodiment is realized. , Included in the present invention. At this time, based on the instruction of the program code, the function expansion board, the CPU provided in the function expansion unit, or the like performs a part or all of the processing.
100:液晶プロジェクタ 140:画像処理部 171:投影光学系
310:OSD合成部 320:各種画像処理部
100: LCD projector 140: Image processing unit 171: Projection optical system 310: OSD compositing unit 320: Various image processing units
Claims (6)
画像データを取得する取得手段と、
前記第1投影画像の領域のうち他の表示装置によって投影される第2投影画像に重なる領域であるブレンド領域の輝度を低減する輝度低減処理を前記取得手段で取得された画像データに施して投影用画像データを生成する処理手段と、
前記投影用画像データに基づいて前記第1投影画像を投影する投影手段と、
を有し、
前記処理手段は、
前記輝度低減処理の前に、前記ブレンド領域を示すグラフィック画像であるマーカーのデータを前記取得手段で取得された画像データに合成することが可能であり、
前記マーカーのデータを前記取得手段で取得された画像データに合成した場合に、前記マーカーのデータを前記取得手段で取得された画像データに合成しなかった場合に比べ小さい値に、前記ブレンド領域のうち前記マーカーを合成する領域の輝度の前記輝度低減処理による低減量を設定する
ことを特徴とする表示装置。 A display device that projects the first projected image.
Acquisition method for acquiring image data and
The image data acquired by the acquisition means is subjected to a brightness reduction process for reducing the brightness of the blend region, which is an region overlapping the second projected image projected by another display device in the region of the first projected image, and projected. Processing means to generate image data for
A projection means for projecting the first projected image based on the projection image data, and
Have,
The processing means
Prior to the luminance reduction process, it is possible to combine the marker data, which is a graphic image showing the blend region, with the image data acquired by the acquisition means.
When the marker data is combined with the image data acquired by the acquisition means, the value of the blend region is set to a smaller value than when the marker data is not combined with the image data acquired by the acquisition means. A display device characterized in that the amount of reduction of the brightness of the region in which the marker is synthesized by the brightness reduction processing is set.
ことを特徴とする請求項1に記載の表示装置。 The processing means blends the case where the marker data is combined with the image data acquired by the acquisition means and the case where the marker data is not combined with the image data acquired by the acquisition means. The display device according to claim 1, wherein the amount of reduction of the brightness of the region in which the marker is not synthesized by the brightness reduction processing is not changed.
ことを特徴とする請求項1または2に記載の表示装置。 The processing means synthesizes the marker data with the image data acquired by the acquisition means, and does not combine the marker data with the image data acquired by the acquisition means. The display device according to claim 1 or 2, wherein the parameters used for the reduction process are switched.
整モードを含む複数の動作モードのいずれかを設定可能であり、
前記処理手段は、前記調整モードが設定されている場合に、前記マーカーのデータを前記取得手段で取得された画像データに合成する
ことを特徴とする請求項1〜3のいずれか1項に記載の表示装置。 The display device can set any one of a plurality of operation modes including an adjustment mode, which is an operation mode to be set when adjusting the projection area of the projected image.
The processing means according to any one of claims 1 to 3, wherein the processing means synthesizes the data of the marker with the image data acquired by the acquisition means when the adjustment mode is set. Display device.
画像データを取得する取得ステップと、
前記第1投影画像の領域のうち他の表示装置によって投影される第2投影画像に重なる領域であるブレンド領域の輝度を低減する輝度低減処理を前記取得ステップで取得された画像データに施して投影用画像データを生成する処理ステップと、
前記投影用画像データに基づいて前記第1投影画像を投影する投影ステップと、
を有し、
前記処理ステップでは、
前記輝度低減処理の前に、前記ブレンド領域を示すグラフィック画像であるマーカーのデータを前記取得ステップで取得された画像データに合成することが可能であり、
前記マーカーのデータを前記取得ステップで取得された画像データに合成した場合に、前記マーカーのデータを前記取得ステップで取得された画像データに合成しなかった場合に比べ小さい値に、前記ブレンド領域のうち前記マーカーを合成する領域の輝度の前記輝度低減処理による低減量を設定する
ことを特徴とする表示装置の制御方法。 This is a control method for a display device that projects a first projected image.
The acquisition step to acquire the image data and
The image data acquired in the acquisition step is projected by applying a brightness reduction process for reducing the brightness of the blend region, which is an region overlapping the second projected image projected by another display device in the region of the first projected image. Processing steps to generate image data for
A projection step of projecting the first projected image based on the projection image data,
Have,
In the processing step
Prior to the luminance reduction process, it is possible to combine the marker data, which is a graphic image showing the blend region, with the image data acquired in the acquisition step.
When the marker data is combined with the image data acquired in the acquisition step, the value of the blend region is set to a smaller value than when the marker data is not combined with the image data acquired in the acquisition step. A method for controlling a display device, which comprises setting a reduction amount of the brightness of a region in which the marker is synthesized by the brightness reduction processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015041626A JP6794092B2 (en) | 2015-03-03 | 2015-03-03 | Display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015041626A JP6794092B2 (en) | 2015-03-03 | 2015-03-03 | Display device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016163228A JP2016163228A (en) | 2016-09-05 |
JP2016163228A5 JP2016163228A5 (en) | 2018-04-12 |
JP6794092B2 true JP6794092B2 (en) | 2020-12-02 |
Family
ID=56847420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015041626A Active JP6794092B2 (en) | 2015-03-03 | 2015-03-03 | Display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6794092B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019035939A (en) * | 2017-08-10 | 2019-03-07 | キヤノン株式会社 | Projector and control method thereof |
JP6926948B2 (en) * | 2017-10-27 | 2021-08-25 | セイコーエプソン株式会社 | Projector, image projection system, and projector control method |
JP2021039203A (en) * | 2019-09-02 | 2021-03-11 | キヤノン株式会社 | Image processing device and image processing method |
TW202332243A (en) * | 2021-12-10 | 2023-08-01 | 日商索尼集團公司 | Information processing method, information processing system, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4574819B2 (en) * | 2000-08-30 | 2010-11-04 | パナソニック株式会社 | Video projector device |
JP2013074475A (en) * | 2011-09-28 | 2013-04-22 | Mitsubishi Electric Corp | Projection type display device |
JP6164820B2 (en) * | 2012-10-11 | 2017-07-19 | キヤノン株式会社 | Projector, control method therefor, and image projection system |
JP2015026992A (en) * | 2013-07-26 | 2015-02-05 | 株式会社リコー | Projection system, image processing device, projection method, and program |
-
2015
- 2015-03-03 JP JP2015041626A patent/JP6794092B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016163228A (en) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6164820B2 (en) | Projector, control method therefor, and image projection system | |
JP2016065995A (en) | Projection type image display device and method of controlling the same | |
US20170244941A1 (en) | Projector and control method thereof | |
JP6794092B2 (en) | Display device | |
US9568812B2 (en) | Image projection apparatus and control method thereof | |
JP2013083755A (en) | Display device, method of controlling display device, and program | |
JP2014135677A (en) | Projection apparatus and method of controlling the same | |
JP6635748B2 (en) | Display device, display device control method, and program | |
JP2015114443A (en) | Display device and control method of display device | |
JP2017129704A (en) | Display device, projector, and method for controlling display device | |
JP2019134206A (en) | Projection device and control method therefor | |
JP6345316B2 (en) | Projector, control method therefor, program, and storage medium | |
JP2020191589A (en) | Projection device, projection method, program, and storage medium | |
US20180376031A1 (en) | Projection apparatus that improves dynamic range of luminance of printed material, control method therefor, and storage medium | |
JP6700955B2 (en) | Projection apparatus and projection method | |
JP2014142466A (en) | Projection device and control method of the same, program, and storage medium | |
JP2020072357A (en) | Projection apparatus and projection method | |
JP2019035939A (en) | Projector and control method thereof | |
JP2014137386A (en) | Projector, control method therefor, and image projection system | |
JP2019047355A (en) | projector | |
JP2018180105A (en) | Projection device and image projection method | |
JP2019114887A (en) | Projection type image display device and control method thereof | |
JP6562653B2 (en) | Projection device | |
JP7309352B2 (en) | Electronic equipment and its control method | |
JP2014036394A (en) | Distortion correction method of projection image and projection display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180302 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180302 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190311 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191127 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20191127 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20191205 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20191210 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20191220 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20200107 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20200414 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20200623 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20200804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200817 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20200901 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20200908 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20201013 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20201013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201111 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6794092 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |