JP2011082798A - Projection graphic display device - Google Patents

Projection graphic display device Download PDF

Info

Publication number
JP2011082798A
JP2011082798A JP2009233352A JP2009233352A JP2011082798A JP 2011082798 A JP2011082798 A JP 2011082798A JP 2009233352 A JP2009233352 A JP 2009233352A JP 2009233352 A JP2009233352 A JP 2009233352A JP 2011082798 A JP2011082798 A JP 2011082798A
Authority
JP
Japan
Prior art keywords
image
video signal
test pattern
mask information
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009233352A
Other languages
Japanese (ja)
Inventor
Ryuhei Amano
隆平 天野
Masutaka Inoue
益孝 井上
Masahiro Haraguchi
昌弘 原口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009233352A priority Critical patent/JP2011082798A/en
Publication of JP2011082798A publication Critical patent/JP2011082798A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projection graphic display device capable of displaying a projection video conformed to the shape of a screen by a simple configuration. <P>SOLUTION: A projector 10 includes: a light source 30; a video-signal processor 60 generating a video signal for the projection video by converting an input video signal; and an indicating element 40 generating a video light by modulating outgoing light from the light source 30 on the basis of the video signal generated by the video-signal processor 60. The projector further includes a projection optical system 50 projecting the video light generated by the indicating element 40 to a projection surface 100. The screen 120 is mounted on the projection surface 100. The video signal processor 60 includes: a mask-information generating means generating mask information for masking the video light in response to a non-display area on the basis of display-region information indicating the region of the screen 120; and a mask-video generating means converting the non-display area into a mask video signal for displaying a black on the basis of the mask information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、投写型映像表示装置に関し、より特定的には、投写型映像表示装置において、スクリーンの形状に一致させた投写映像を表示するための技術に関する。   The present invention relates to a projection display apparatus, and more particularly to a technique for displaying a projection image that matches the shape of a screen in the projection display apparatus.

近年、デジタル技術の進化に伴ない、店舗や屋外などでハイビジョン画質などの高画質の映像をディスプレイで再生することにより広告を行なう、デジタルサイネージと呼ばれるシステムが普及している。   In recent years, with the advancement of digital technology, a system called digital signage, which performs advertisement by reproducing high-quality images such as high-definition image quality on a display in stores or outdoors, has become widespread.

このデジタルサイネージのシステムでは、たとえば特表2004−533636号公報(特許文献1)に開示されるように、PC(パーソナルコンピュータ)や映像再生装置等の外部の映像供給装置から供給される映像信号を、店舗や屋外などに設置された投写型映像表示装置(以下、プロジェクタとも称する。)で表示させる形態が広く採用されている。これによれば、その店舗などに来客した顧客に、映像と音声とによる広告を閲覧させることができるので、その広告効果は、従来の紙媒体のポスターなどに比べると格段に大きいと考えられており、近年、急速に広がりつつある。   In this digital signage system, as disclosed in, for example, JP-T-2004-533636 (Patent Document 1), a video signal supplied from an external video supply device such as a PC (personal computer) or a video playback device is received. A form of displaying on a projection display apparatus (hereinafter also referred to as a projector) installed in a store or outdoors is widely adopted. According to this, since the customer who visited the store can browse advertisements using video and audio, the advertising effect is considered to be much larger than conventional paper media posters. In recent years, it is spreading rapidly.

プロジェクタの具体的な利用形態としては、店舗のウィンドウにフィルム状のスクリーンを特定の形状にカットして貼り付けた投写面に映像を投写させる、あるいは、人物の形状にカットしたスクリーンに映像を投写させるなどの構成が採られており、矩形状のスクリーンに投写させる通常の利用形態に対して、広告効果をさらに高めている。   As a specific form of use of the projector, an image is projected on a projection surface obtained by cutting and pasting a film-like screen into a specific shape on a shop window, or an image is projected onto a screen cut into a person's shape. The advertisement effect is further enhanced with respect to the normal usage pattern in which the image is projected onto a rectangular screen.

このような利用形態では、プロジェクタに映像を表示させるに際して、予めスクリーンの形状に合った映像コンテンツを作成するとともに、スクリーンの枠内に映像が収まるようにプロジェクタの設置調整が行なわれている。   In such a usage mode, when displaying a video on the projector, video content matching the shape of the screen is created in advance, and the projector is adjusted so that the video fits within the frame of the screen.

特表2004−533636号公報JP-T-2004-533636

しかしながら、上記のような利用形態では、プロジェクタの設置調整の煩わしさが生じるとともに、スクリーン形状に一致した映像コンテンツを事前に制作する必要がある。   However, in the above-described usage mode, troublesome installation adjustment of the projector occurs, and it is necessary to produce video content that matches the screen shape in advance.

特に、映像コンテンツがスクリーンの形状に一致しない場合には、投写面において、プロジェクタが投写した映像の領域がスクリーン領域からはみ出してしまうために、観察者の目に直接光として入射される可能性がある。そのため、正確に設置調整を行なうことが不可欠となる。   In particular, when the video content does not match the shape of the screen, the area of the image projected by the projector may protrude from the screen area on the projection surface, and thus may be directly incident on the observer's eyes. is there. Therefore, it is indispensable to perform installation adjustment accurately.

それゆえ、この発明は、かかる課題を解決するためになされたものであり、その目的は、簡易な構成で、スクリーンの形状に一致させた投写映像を表示することが可能な投写型映像表示装置を提供することである。   Therefore, the present invention has been made to solve such a problem, and an object of the present invention is to provide a projection-type image display device capable of displaying a projection image that matches the shape of the screen with a simple configuration. Is to provide.

この発明のある局面に従う投写型映像表示装置は、光源と、入力された映像信号を変換して投写映像用の映像信号を生成する映像信号処理部と、映像信号処理部により生成された映像信号に基づき、光源から出射された光を変調して映像光を生成する表示素子と、表示素子で生成された映像光を投写面に投写する投写光学系とを備える。投写面は、画像を表示しない非表示領域と、画像を表示する表示領域とを有する。映像信号処理部は、投写面における表示領域を示す表示領域情報を入力する表示領域情報入力手段と、表示領域情報に基づき、非表示領域に対応させて映像光をマスクするためのマスク情報を生成するマスク情報生成手段と、入力された映像信号を、マスク情報に基づき、非表示領域を黒表示させるためのマスク映像信号に変換するマスク映像生成手段とを含む。   A projection display apparatus according to an aspect of the present invention includes a light source, a video signal processing unit that converts an input video signal to generate a video signal for projection video, and a video signal generated by the video signal processing unit. And a projection element that modulates the light emitted from the light source to generate image light and a projection optical system that projects the image light generated by the display element onto the projection surface. The projection plane has a non-display area that does not display an image and a display area that displays an image. The image signal processing unit generates display area information input means for inputting display area information indicating the display area on the projection plane, and mask information for masking image light corresponding to the non-display area based on the display area information. And a mask video generation unit that converts the input video signal into a mask video signal for displaying a non-display area in black based on the mask information.

好ましくは、映像信号処理部は、マスク映像生成手段により生成されたマスク映像信号を表示素子に供給するマスクモードと、入力された映像信号をそのまま表示素子に供給する通常モードとを切替えて表示素子を動作させるためのモード切替手段をさらに含む。   Preferably, the video signal processing unit switches between a mask mode in which the mask video signal generated by the mask video generation means is supplied to the display element and a normal mode in which the input video signal is supplied to the display element as it is. Further includes mode switching means for operating the.

好ましくは、表示領域入力手段は、テストパターンを投写面に投写させたときの投写映像を撮像して撮像画像を生成する撮像手段を含む。マスク情報生成手段は、明るさが異なる複数のテストパターンを投写面に投写させたときに撮像手段によって生成される複数の撮像画像の差分値と、所定の閾値とを比較し、該比較結果に基づいてマスク情報を生成する。所定の閾値は、投写面が設置される環境に応じて変更可能に構成される。   Preferably, the display area input unit includes an imaging unit that captures a projected image when the test pattern is projected onto the projection plane and generates a captured image. The mask information generation unit compares a difference value between a plurality of captured images generated by the imaging unit when a plurality of test patterns having different brightness are projected on the projection surface, and a predetermined threshold value. Based on this, mask information is generated. The predetermined threshold is configured to be changeable according to the environment where the projection plane is installed.

好ましくは、投写型映像表示装置は、投写面に投写された画像の表示位置をシフトさせる、または表示サイズを変更させるための画像調整手段をさらに備える。マスク情報生成手段は、マスク映像信号に基づく映像光を投写面に投写させたときに、画像調整手段によって指定される画像の調整量に基づいて、生成されたマスク情報の微調整を行なうマスク情報調整手段を含む。   Preferably, the projection display apparatus further includes image adjusting means for shifting the display position of the image projected on the projection surface or changing the display size. The mask information generating means finely adjusts the generated mask information based on the image adjustment amount specified by the image adjusting means when image light based on the mask video signal is projected onto the projection surface. Including adjustment means.

好ましくは、表示領域入力手段は、テストパターンを投写面に投写させたときの投写映像を撮像して撮像画像を生成する撮像手段を含む。映像信号処理部は、画面全体を単色表示とする第1のテストパターンと、画面を複数の画素ブロックに分割して画素ブロック単位で第1のテストパターンから明るさを変更させた第2のテストパターンとを生成するテストパターン生成手段をさらに含む。マスク情報生成手段は、第1のテストパターンを投写面に投写させたときに撮像手段によって生成される第1の撮像画像と、第2のテストパターンを投写面に投写させたときに撮像手段によって生成される第2の撮像画像との差分値に基づいて、画素ブロック単位でマスク情報を生成する。   Preferably, the display area input unit includes an imaging unit that captures a projected image when the test pattern is projected onto the projection plane and generates a captured image. The video signal processing unit includes a first test pattern in which the entire screen is displayed in a single color and a second test in which the screen is divided into a plurality of pixel blocks and the brightness is changed from the first test pattern in pixel block units. Test pattern generation means for generating a pattern is further included. The mask information generating means uses the imaging means when the first test image generated by the imaging means when the first test pattern is projected onto the projection plane and the second test pattern is projected onto the projection plane. Based on the difference value from the generated second captured image, mask information is generated in units of pixel blocks.

好ましくは、表示領域入力手段は、テストパターンを投写面に投写させたときの投写映像を撮像して撮像画像を生成する撮像手段を含む。映像信号処理部は、表示画面の所定方向に沿って交互に配置された、互いに明るさの異なる第1の領域と第2の領域とを有するテストパターンを生成するテストパターン生成手段をさらに含む。テストパターン生成手段は、表示画面上に配置される第1および第2の領域の配置数を異ならせることにより複数のテストパターンを生成するとともに、生成された複数のテストパターンに基づいて、表示画面の各画素の所定方向の位置を特定する。マスク情報生成手段は、複数のテストパターンを投写面に投写させたときに撮像手段によって生成される複数の撮像画像の差分値と、各画素の所定方向の位置とに基づいて、マスク情報を生成する。   Preferably, the display area input unit includes an imaging unit that captures a projected image when the test pattern is projected onto the projection plane and generates a captured image. The video signal processing unit further includes test pattern generation means for generating a test pattern having a first area and a second area, which are alternately arranged along a predetermined direction of the display screen and have different brightness. The test pattern generation means generates a plurality of test patterns by varying the number of first and second regions arranged on the display screen, and displays the display screen based on the generated plurality of test patterns. The position of each pixel in a predetermined direction is specified. The mask information generating means generates mask information based on the difference values of the plurality of captured images generated by the imaging means when a plurality of test patterns are projected on the projection plane and the positions of the pixels in a predetermined direction. To do.

この発明によれば、簡易な構成で、スクリーンの形状に一致させた投写映像を表示することができる。   According to the present invention, it is possible to display a projected image that matches the shape of the screen with a simple configuration.

この発明の実施の形態1に係る投写型映像表示装置の映像投写時の状態を示す図である。It is a figure which shows the state at the time of the image projection of the projection type video display apparatus concerning Embodiment 1 of this invention. 図1のA方向から見た状態を示す図である。It is a figure which shows the state seen from the A direction of FIG. 本実施の形態1に係るプロジェクタの全体構成図である1 is an overall configuration diagram of a projector according to a first embodiment. 本実施の形態1に係るプロジェクタにおける映像信号処理部が実行する映像信号処理ルーチンを説明するフローチャートである。6 is a flowchart illustrating a video signal processing routine executed by a video signal processing unit in the projector according to the first embodiment. テストパターンに基づく投写映像を撮像した撮像画像を説明する図である。It is a figure explaining the picked-up image which imaged the projection image | video based on a test pattern. 本実施の形態1の変更例1に係るプロジェクタにおける映像信号処理部が実行する映像信号処理ルーチンを説明するフローチャートである。It is a flowchart explaining the video signal processing routine which the video signal processing part in the projector which concerns on the example 1 of a change of this Embodiment 1 performs. マスク情報を基に変換された全白テストパターンを投写したときの投写映像を示す図である。It is a figure which shows a projection image when the all white test pattern converted based on mask information is projected. 本実施の形態1の変更例2に係るプロジェクタにおける映像信号処理部の構成を説明する図である。It is a figure explaining the structure of the video signal process part in the projector which concerns on the modification 2 of this Embodiment 1. FIG. 本実施の形態1の変更例3に係るプロジェクタにおける映像信号処理部の構成を説明する図である。It is a figure explaining the structure of the video signal processing part in the projector which concerns on the modification 3 of this Embodiment 1. FIG. 本実施の形態1の変更例4に係るプロジェクタにおける映像信号処理部が実行する映像信号処理ルーチンを説明するフローチャートである。It is a flowchart explaining the video signal processing routine which the video signal processing part in the projector which concerns on the modification 4 of this Embodiment 1 performs. 本実施の形態1の変更例5に係るプロジェクタにおける映像信号処理部が実行する映像信号処理ルーチンを説明するフローチャートである。It is a flowchart explaining the video signal processing routine which the video signal processing part in the projector which concerns on the modification 5 of this Embodiment 1 performs. 本実施の形態2に係るプロジェクタにおける映像信号処理部が実行する映像信号処理ルーチンを説明するフローチャートである。It is a flowchart explaining the video signal processing routine which the video signal processing part in the projector which concerns on this Embodiment 2 performs. テストパターンを変更する手順を説明する図である。It is a figure explaining the procedure which changes a test pattern. テストパターンが変更されるごとにカメラによって取得される撮像画像を説明する図である。It is a figure explaining the picked-up image acquired by a camera whenever a test pattern is changed. 位置情報テーブルを説明する図である。It is a figure explaining a position information table. 本実施の形態3に係るプロジェクタにおける映像信号処理部が実行する映像信号処理ルーチンを説明するフローチャートである。It is a flowchart explaining the video signal processing routine which the video signal processing part in the projector which concerns on this Embodiment 3 performs. テストパターンを変更する手順を説明する図である。It is a figure explaining the procedure which changes a test pattern. 位置情報テーブルを説明する図である。It is a figure explaining a position information table. この発明の実施の形態4に係るプロジェクタの映像投写時の状態を示す図である。It is a figure which shows the state at the time of the image projection of the projector which concerns on Embodiment 4 of this invention. 図19のB方向から見た状態を示す図である。It is a figure which shows the state seen from the B direction of FIG. 本実施の形態4に係るプロジェクタにおける映像信号処理部が実行する映像信号処理ルーチンを説明するフローチャートである。It is a flowchart explaining the video signal processing routine which the video signal processing part in the projector which concerns on this Embodiment 4 performs. モニタの表示領域(タッチパネルの操作領域)を示す図である。It is a figure which shows the display area (operation area of a touch panel) of a monitor. 投写面に投写される合成画像を説明する図である。It is a figure explaining the synthesized image projected on a projection surface. 描画画像を修正する手順を説明する図である。It is a figure explaining the procedure which corrects a drawing image. この発明の実施の形態5に係るプロジェクタの映像投写時の状態を示す図である。It is a figure which shows the state at the time of the image projection of the projector which concerns on Embodiment 5 of this invention. 図25のB方向から見た状態を示す図である。It is a figure which shows the state seen from the B direction of FIG. 本実施の形態5に係るプロジェクタにおける映像信号処理部が実行する映像信号処理ルーチンを説明するフローチャートである。It is a flowchart explaining the video signal processing routine which the video signal process part in the projector which concerns on this Embodiment 5 performs.

以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当する部分には同一符号を付してその説明は繰返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the same or corresponding parts in the drawings are denoted by the same reference numerals and description thereof will not be repeated.

[実施の形態1]
図1は、この発明の実施の形態1に係る投写型映像表示装置の映像投写時の状態を示す図である。図2は、図1のA方向から見た状態を示す図である。
[Embodiment 1]
FIG. 1 is a diagram showing a state at the time of image projection of the projection display apparatus according to Embodiment 1 of the present invention. FIG. 2 is a diagram showing a state viewed from the direction A in FIG.

図1を参照して、本実施の形態1に係る投写型映像表示装置(以下、「プロジェクタ」とも記す。)10は、液晶デバイスを利用して映像を投影する液晶プロジェクタであって、投写面100に液晶デバイスにより表示される映像の光を投写することにより、投写映像110を表示する。   Referring to FIG. 1, a projection display apparatus (hereinafter also referred to as “projector”) 10 according to the first embodiment is a liquid crystal projector that projects an image using a liquid crystal device, and has a projection surface. A projected image 110 is displayed by projecting light of an image displayed on the liquid crystal device 100.

投写面100は、ガラスなどからなる透明体からなり、プロジェクタ10からの映像光を透過させる。投写面100上には、スクリーン120が設置されている。スクリーン120は、電圧の印加状態により透明状態と拡散状態との切り替えが可能な構成であって、プロジェクタ10からの映像光が照射されたときに拡散状態に切り替え、その光を映し出すフィルム状のものである。例えば、このフィルム状のスクリーン120を、店舗のウィンドウなどに直接貼っておけば、プロジェクタ10から光が照射されない場合には、透明状態に切り替えることでウィンドウと一体となって透明な状態を維持する。そして、プロジェクタ10から光が照射される場合には、拡散状態に切り替えることで映像を表示することができるため、ウィンドウの機能を失わずに、それをスクリーンとして利用できる。   The projection surface 100 is made of a transparent body made of glass or the like, and transmits image light from the projector 10. A screen 120 is installed on the projection surface 100. The screen 120 can be switched between a transparent state and a diffusion state by applying a voltage, and is a film-like one that switches to the diffusion state when the image light from the projector 10 is irradiated and displays the light. It is. For example, if the film-like screen 120 is directly attached to a store window or the like, when light is not irradiated from the projector 10, the transparent state is maintained integrally with the window by switching to the transparent state. . And when light is irradiated from the projector 10, since it can display an image | video by switching to a diffusion state, it can be utilized as a screen, without losing the function of a window.

なお、スクリーン120は、上記のような透明状態と拡散状態との切り替えが可能なフィルムに限定されるものではなく、状態変化のない拡散材料を用いたものでもよい。ただし、図2に示すように、スクリーン120に光を照射したときに、プロジェクタ10とは反対側から(図中のA方向から)投写映像の情報を認識できることが必要である。   Note that the screen 120 is not limited to a film that can be switched between the transparent state and the diffusion state as described above, and may be one using a diffusion material that does not change in state. However, as shown in FIG. 2, when the screen 120 is irradiated with light, it is necessary to be able to recognize the information of the projected image from the side opposite to the projector 10 (from the direction A in the figure).

これにより、投写面100は、画像を表示しない非表示領域と、画像を表示する表示領域とに区分される。表示領域は、スクリーン120に相当する。非表示領域は、投写映像110の表示領域からスクリーン120を除いた領域に相当する。   Thereby, the projection plane 100 is divided into a non-display area that does not display an image and a display area that displays an image. The display area corresponds to the screen 120. The non-display area corresponds to an area obtained by removing the screen 120 from the display area of the projected image 110.

プロジェクタ10は、投写映像110を含む領域を、撮像面を介して撮像して撮像画像を生成するカメラ20を含む。カメラ20は、撮像素子と、撮像素子の各画素からの出力信号の取得など撮像素子を制御する撮像素子制御部と、撮像光学系とを含む。撮像素子としては、例えばCCDやCMOSなどを用いることができる。   The projector 10 includes a camera 20 that captures an area including the projected image 110 via an imaging surface and generates a captured image. The camera 20 includes an image sensor, an image sensor control unit that controls the image sensor such as acquisition of an output signal from each pixel of the image sensor, and an imaging optical system. For example, a CCD or CMOS can be used as the image sensor.

(プロジェクタの構成)
図3は、本実施の形態1に係るプロジェクタ10の全体構成図である。
(Projector configuration)
FIG. 3 is an overall configuration diagram of the projector 10 according to the first embodiment.

図3を参照して、プロジェクタ10は、カメラ20と、光源30と、光源30から出射された光を変調して映像光を生成する表示素子40と、表示素子40で生成された映像光を投写面100に投写する投写光学系50と、入力映像信号を変換して投写映像用の映像信号を生成する映像信号処理部60とを備える。   Referring to FIG. 3, projector 10 includes camera 20, light source 30, display element 40 that modulates light emitted from light source 30 to generate image light, and image light generated by display element 40. A projection optical system 50 that projects onto the projection surface 100 and a video signal processing unit 60 that converts an input video signal and generates a video signal for a projected video are provided.

光源30は、超高圧水銀ランプやメタルハライドランプなどの放電型光源ランプからなる。さらに、放電発光型の光源ランプに限らず、LED、レーザダイオード、有機EL(Electro Luminescence)素子、シリコン発光素子等の各種固体発光素子を採用してもよい。   The light source 30 is a discharge-type light source lamp such as an ultrahigh pressure mercury lamp or a metal halide lamp. Furthermore, the present invention is not limited to a discharge light source lamp, and various solid light emitting elements such as an LED, a laser diode, an organic EL (Electro Luminescence) element, and a silicon light emitting element may be employed.

表示素子40は、一対の透明基板間に液晶が封入された液晶パネル等によって構成された液晶ライトバルブからなる。液晶ライトバルブには、マトリクス上に配列された複数の画素からなる矩形状の画素領域が形成されており、液晶に対して画素ごとに駆動電圧を印加可能になっている。図示しないライトバルブ駆動部の駆動によって、液晶ライトバルブの各画素に映像信号に応じた駆動電圧が印加されると、光源30から射出された光は、画素ごとに異なる光透過率で液晶ライトバルブを透過して、映像信号に応じた映像光となり、投写光学系50によって投写面100に投写される。   The display element 40 includes a liquid crystal light valve configured by a liquid crystal panel or the like in which liquid crystal is sealed between a pair of transparent substrates. In the liquid crystal light valve, a rectangular pixel region composed of a plurality of pixels arranged on a matrix is formed, and a driving voltage can be applied to the liquid crystal for each pixel. When a driving voltage corresponding to a video signal is applied to each pixel of the liquid crystal light valve by driving a light valve driving unit (not shown), the light emitted from the light source 30 is different from the liquid crystal light valve with a different light transmittance for each pixel. , And becomes image light corresponding to the image signal, and is projected onto the projection plane 100 by the projection optical system 50.

なお、図示は省略するが、表示素子40は、光の3原色である赤(R)、緑(G)、青(B)の各色光用に3つの液晶ライトバルブを備えている。光源30から出射される光は、図示しない光分離光学系によって3つの色光に分離された後、それぞれ各色光用の液晶ライトバルブに入射する。液晶ライトバルブを透過した各色の映像光は、図示しない光合成光学系によって画素ごとに色合成され、カラー映像を示す映像光となって投写光学系50から投写される。   Although not shown, the display element 40 includes three liquid crystal light valves for light of the three primary colors, red (R), green (G), and blue (B). The light emitted from the light source 30 is separated into three color lights by a light separation optical system (not shown), and then enters a liquid crystal light valve for each color light. The image light of each color transmitted through the liquid crystal light valve is color-combined for each pixel by a light combining optical system (not shown), and is projected from the projection optical system 50 as image light indicating a color image.

映像信号処理部60は、PC(パーソナルコンピュータ)や映像再生装置等の外部の映像供給装置(図示せず)から入力される映像信号のサンプリングを行ない、映像信号に応じたデジタルの映像データを生成する。さらに、映像信号処理部60は、生成した映像データに対して各種データ処理(映像信号処理)を施し、処理後の映像データを表示素子40に出力する。   The video signal processing unit 60 samples a video signal input from an external video supply device (not shown) such as a PC (personal computer) or a video playback device, and generates digital video data corresponding to the video signal. To do. Further, the video signal processing unit 60 performs various data processing (video signal processing) on the generated video data, and outputs the processed video data to the display element 40.

ここで、本実施の形態1に係るプロジェクタ10は、動作モードとして、電源投入時または投写指示時においてプロジェクタ10の初期設定を行なうための「イニシャライズモード」と、投写面100の非表示領域(図2参照)に対応させて映像光の一部をマスクして投写面100に投写させるための「マスクモード」と、入力映像信号に応じた映像光をそのまま(すなわち、マスクせずに)投写面100に投写させるための「通常モード」とを有している。これら3つのモードの間の切替えは、ユーザの操作に応じてプロジェクタ10に対して各種指示を行なうための入力操作部から発せられる操作信号に従って実行される。なお、入力操作部は、プロジェクタ10の装置本体に設けられた複数のキー、もしくは遠隔操作が可能なリモコン(リモートコントローラの略)を用いて構成される。   Here, the projector 10 according to the first embodiment has an “initialization mode” for initial setting of the projector 10 when the power is turned on or a projection instruction, and a non-display area (see FIG. 2) and masking a part of the image light and projecting it on the projection surface 100, and the image surface corresponding to the input image signal as it is (that is, without masking) the projection surface. 100 has a “normal mode” for projecting to 100. Switching between these three modes is executed in accordance with an operation signal issued from an input operation unit for giving various instructions to projector 10 in accordance with a user operation. The input operation unit is configured by using a plurality of keys provided on the main body of the projector 10 or a remote control that can be operated remotely (abbreviation of a remote controller).

映像信号処理部60は、ユーザの操作に従って上記3つの動作モードのうちの一の動作モードが選択されると、選択された動作モードにおいて予め規定された画像処理を映像データに対して施し、処理後の映像データを表示素子40に出力する。   When one of the three operation modes is selected in accordance with a user operation, the video signal processing unit 60 performs image processing defined in advance in the selected operation mode on the video data, The subsequent video data is output to the display element 40.

最初に、電源投入時に実行されるイニシャライズモードでは、映像信号処理部60は、明るさが互いに異なる複数のテストパターンを連続して投写面100に投写させる。このとき投写面100に表示される複数の投写映像110は、カメラ20で撮像される。映像信号処理部60は、後述する方法によって、カメラ20によって取得される複数の撮像画像を比較することにより、投写映像110の表示領域であるスクリーン120の領域(以下、スクリーン領域とも称す。)を検出する。そして、映像信号処理部60は、その検出したスクリーン領域に基づいて、スクリーン120以外の非表示領域に対応させて映像光をマスクするためのマスク情報を生成する。   First, in the initialization mode executed when the power is turned on, the video signal processing unit 60 causes a plurality of test patterns having different brightness to be projected onto the projection plane 100 in succession. At this time, a plurality of projected images 110 displayed on the projection plane 100 are captured by the camera 20. The video signal processing unit 60 compares a plurality of captured images acquired by the camera 20 by a method to be described later, so that an area of the screen 120 that is a display area of the projected video 110 (hereinafter also referred to as a screen area). To detect. Then, the video signal processing unit 60 generates mask information for masking the video light in correspondence with the non-display area other than the screen 120 based on the detected screen area.

次に、ユーザの操作に従ってマスクモードが動作モードに選択されると、映像信号処理部60は、イニシャライズモードで生成されたマスク情報に基づき、映像信号を、非表示領域を黒表示させるためのマスク映像信号に変換する。これにより、マスクモードでは、投写映像110に対して、スクリーン120には画像が表示される一方で、スクリーン120以外の領域は黒表示として投写面100に投写される。この結果、非表示領域を透過する光の強度が抑えられるため、投写面100の反対側にいる観察者の目に直接光が入射されるのを防止できる。また、スクリーン120に投写される映像を観察者にとって見やすいものとすることができる。   Next, when the mask mode is selected as the operation mode in accordance with the user operation, the video signal processing unit 60 displays a video signal as a mask for displaying the non-display area in black based on the mask information generated in the initialization mode. Convert to video signal. Thus, in the mask mode, an image is displayed on the screen 120 with respect to the projection image 110, while an area other than the screen 120 is projected on the projection plane 100 as a black display. As a result, the intensity of the light transmitted through the non-display area is suppressed, so that it is possible to prevent light from being directly incident on the eyes of the observer on the opposite side of the projection plane 100. Further, the image projected on the screen 120 can be easily viewed by the observer.

一方、投写面100が透明体でない場合(たとえば、壁面である場合)には、ユーザの操作に従って通常モードが選択される。この場合には、映像信号処理部60は、入力映像信号を、上述したマスク映像信号への変換を行なうことなく、そのまま表示素子40へ出力する。これにより、投写面100には、投写映像110の全領域が表示される。   On the other hand, when the projection surface 100 is not a transparent body (for example, a wall surface), the normal mode is selected according to the user's operation. In this case, the video signal processing unit 60 outputs the input video signal to the display element 40 as it is without converting the input video signal into the mask video signal described above. As a result, the entire area of the projected image 110 is displayed on the projection plane 100.

(映像信号処理部の構成)
映像信号処理部60は、このような3つの動作モードを実現するための構成として、画像記憶部70と、差分検出部72と、閾値制御部74と、マスク情報生成部76と、マスク情報記憶部78と、マスク映像生成部80と、テストパターン生成部82と、映像信号選択部84と、モード切替部86と、制御部90とを含む。
(Configuration of video signal processor)
The video signal processing unit 60 has an image storage unit 70, a difference detection unit 72, a threshold control unit 74, a mask information generation unit 76, and a mask information storage as a configuration for realizing such three operation modes. Unit 78, mask video generation unit 80, test pattern generation unit 82, video signal selection unit 84, mode switching unit 86, and control unit 90.

制御部90は、CPU(Central Processing Unit)、フラッシュメモリ等からなるROM(Read Only Memory)、各種データの一時記憶等に用いられるRAM(Random Access Memory)等(いずれも図示せず)を備え、コンピュータとして機能するものである。制御部90は、CPUがROMに記憶されている制御プログラムに従って動作することにより、プロジェクタ10の動作を統括制御する。   The control unit 90 includes a CPU (Central Processing Unit), a ROM (Read Only Memory) including a flash memory, a RAM (Random Access Memory) used for temporary storage of various data, etc. (none of which are shown), It functions as a computer. The control unit 90 performs overall control of the operation of the projector 10 by the CPU operating according to a control program stored in the ROM.

カメラ20は、上述したように、投写映像110を含む領域を、撮像面を介して撮像して撮像画像を生成する。画像記憶部70は、後述するように、イニシャライズモードの実行中において、テストパターン生成部82により生成されたテストパターンを投写面100に投写させたときに、カメラ20によって取得された撮像画像を一時的に記憶する。   As described above, the camera 20 captures an area including the projected image 110 via the imaging surface to generate a captured image. As will be described later, the image storage unit 70 temporarily captures a captured image acquired by the camera 20 when the test pattern generated by the test pattern generation unit 82 is projected onto the projection plane 100 during execution of the initialization mode. Remember me.

差分検出部72は、明るさが異なる複数のテストパターンを投写面100に投写させたときの複数の撮像画像の差分値を検出する。差分検出部72は、検出された差分値と、閾値制御部74から与えられる所定の閾値とを比較して、その比較結果をマスク情報生成部76へ出力する。   The difference detection unit 72 detects a difference value between a plurality of captured images when a plurality of test patterns having different brightness are projected on the projection plane 100. The difference detection unit 72 compares the detected difference value with a predetermined threshold given from the threshold control unit 74 and outputs the comparison result to the mask information generation unit 76.

マスク情報生成部76は、差分検出部72により検出された複数の撮像画像の差分値と所定の閾値との比較結果に基づいて、マスク情報を生成する。生成されたマスク情報は、マスク情報記憶部78に記憶される。   The mask information generation unit 76 generates mask information based on a comparison result between the difference values of the plurality of captured images detected by the difference detection unit 72 and a predetermined threshold value. The generated mask information is stored in the mask information storage unit 78.

マスク映像生成部80は、マスクモードの実行中において、マスク情報記憶部78に記憶されたマスク情報を参照することにより、入力映像信号を、スクリーン以外の領域(非表示領域)を黒表示させるためのマスク映像信号に変換する。   The mask video generation unit 80 refers to the mask information stored in the mask information storage unit 78 during execution of the mask mode so that the input video signal is displayed in black in a region other than the screen (non-display region). To the mask video signal.

映像信号選択部84は、テストパターン生成部82からテストパターンを受け、マスク映像生成部80からマスク映像信号を受け、外部の映像供給装置から入力映像信号を受ける。そして、映像信号選択部84は、モード切替部86からのモード切替信号に応じて、テストパターン、マスク映像信号および入力映像信号のいずれか1つを選択して表示素子40へ出力する。   The video signal selection unit 84 receives a test pattern from the test pattern generation unit 82, receives a mask video signal from the mask video generation unit 80, and receives an input video signal from an external video supply device. Then, the video signal selection unit 84 selects any one of the test pattern, the mask video signal, and the input video signal according to the mode switching signal from the mode switching unit 86 and outputs it to the display element 40.

具体的には、モード切替部86は、入力操作部(図示せず)から発せられる操作信号に基づいて、プロジェクタ10の動作モードの切替えを実行する。たとえば電源投入時には、モード切替部86は、イニシャライズモードを選択するように動作モードを切替える。モード切替部86は、切替え後の動作モードを示す信号(モード切替信号)を制御部90および映像信号選択部84へ送信する。   Specifically, mode switching unit 86 switches the operation mode of projector 10 based on an operation signal issued from an input operation unit (not shown). For example, when the power is turned on, the mode switching unit 86 switches the operation mode so as to select the initialization mode. The mode switching unit 86 transmits a signal indicating the operation mode after switching (mode switching signal) to the control unit 90 and the video signal selection unit 84.

映像信号選択部84は、イニシャライズモードへの切替えに伴なって、テストパターンを選択して表示素子40へ出力する。また、映像信号選択部84は、マスクモードへの切替えに伴なって、マスク映像信号を選択して表示素子40へ出力する。さらに、映像信号選択部84は、通常モードへの切替えに伴なって、映像信号を選択して表示素子40へ出力する。   The video signal selection unit 84 selects a test pattern and outputs it to the display element 40 in accordance with the switching to the initialization mode. Further, the video signal selection unit 84 selects a mask video signal and outputs it to the display element 40 in accordance with the switching to the mask mode. Further, the video signal selection unit 84 selects a video signal and outputs it to the display element 40 in accordance with the switching to the normal mode.

(映像信号処理)
次に、本実施の形態1に係る映像信号処理部60における映像信号処理についてより詳細に説明する。
(Video signal processing)
Next, the video signal processing in the video signal processing unit 60 according to the first embodiment will be described in more detail.

図4は、映像信号処理部60が実行する映像信号処理ルーチンを説明するフローチャートである。この映像信号処理は、フレームごとに制御部90(図3)によって予め格納されたプログラムに従って実行される。   FIG. 4 is a flowchart for explaining a video signal processing routine executed by the video signal processing unit 60. This video signal processing is executed according to a program stored in advance by the control unit 90 (FIG. 3) for each frame.

図4を参照して、まず制御部90は、ステップS01により、現在の動作モードがイニシャライズモードであるかどうかを判定する。   Referring to FIG. 4, first, control unit 90 determines whether or not the current operation mode is an initialization mode in step S01.

現在の動作モードがイニシャライズモードであるとき(S01のYES判定時)には、テストパターン生成部82は、画面全体を黒色の単色表示とするテストパターン(以下、「全黒テストパターン」とも称す。)を生成する。映像信号選択部84は、モード切替信号に応答して、生成された全黒テストパターンを表示素子40へ出力する。これにより、表示素子40では、光源30から射出された光が、全黒テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS02)。ステップS03では、全黒テストパターンに基づく投写映像110がカメラ20で撮像される。画像記憶部70は、カメラ20により取得された撮像画像を「画像A」として保存する。   When the current operation mode is the initialization mode (when YES is determined in S01), the test pattern generation unit 82 is also referred to as a test pattern (hereinafter, referred to as “all black test pattern”) that displays the entire screen in a single black color. ) Is generated. The video signal selection unit 84 outputs the generated all black test pattern to the display element 40 in response to the mode switching signal. As a result, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all-black test pattern, and is projected onto the projection plane 100 by the projection optical system 50 (step S02). In step S03, the projected image 110 based on the all black test pattern is captured by the camera 20. The image storage unit 70 stores the captured image acquired by the camera 20 as “image A”.

次に、ステップS04により、テストパターン生成部82は、画面全体を白色の単色表示とするテストパターン(以下、「全白テストパターン」とも称す。)を生成する。映像信号選択部84は、その生成された全白テストパターンを表示素子40へ出力する。これにより、表示素子では、光源30から射出された光が、全白テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS04)。ステップS05では、全白テストパターンに基づく投写映像110がカメラ20で撮像される。画像記憶部70は、その撮像画像を「画像B」として保存する。   Next, in step S04, the test pattern generation unit 82 generates a test pattern (hereinafter, also referred to as “all white test pattern”) that displays the entire screen in a single color of white. The video signal selection unit 84 outputs the generated all white test pattern to the display element 40. Thereby, in the display element, the light emitted from the light source 30 becomes image light corresponding to the all white test pattern and is projected onto the projection plane 100 by the projection optical system 50 (step S04). In step S05, the projection image 110 based on the all white test pattern is captured by the camera 20. The image storage unit 70 stores the captured image as “image B”.

次に、差分検出部72は、画像記憶部70に保存されている画像A(全黒表示)および画像B(全白表示)を比較することにより、画像Aと画像Bとの差分を検出する。図5には、画像A(図5(a)参照)および画像B(図5(b)参照)と、画像Aと画像Bとの間で、画素ごとの差分を検出した結果(図5(c)参照)とが示される。   Next, the difference detection unit 72 detects the difference between the image A and the image B by comparing the image A (full black display) and the image B (full white display) stored in the image storage unit 70. . FIG. 5 shows a result of detecting a difference for each pixel between the image A (see FIG. 5A) and the image B (see FIG. 5B) and the image A and the image B (FIG. 5 ( c)).

図5を参照して、画像Aでは、スクリーン領域が黒表示されるとともに、スクリーン領域以外の領域(非表示領域)には光が透過するため、投写面100の背景の画像が映し出されている。また、画像Bでは、スクリーン領域が白表示されるとともに、スクリーン領域以外の領域(非表示領域)には投写面100の背景の画像が映し出されている。したがって、画像Aと画像Bとを比較すると、非表示領域における差分値が略零となる一方で、スクリーン領域には輝度差が生じている。   Referring to FIG. 5, in image A, the screen area is displayed in black, and light is transmitted through areas other than the screen area (non-display area), so that the background image of projection plane 100 is displayed. . In the image B, the screen area is displayed in white, and the background image of the projection surface 100 is displayed in an area other than the screen area (non-display area). Therefore, when the image A and the image B are compared, the difference value in the non-display area becomes substantially zero, while a luminance difference occurs in the screen area.

差分検出部72は、画素ごとに差分値が所定の閾値以上となるか否かを判定し、その判定結果に基づいて画像Aと画像Bとの差分情報を生成する。具体的には、差分検出部72は、画素ごとに差分値の大小により二値化された差分情報を生成する。たとえば、差分検出部72は、差分値が所定の閾値よりも小さい画素を「0」とし、差分値が所定の閾値以上となる画素を「1」とする。   The difference detection unit 72 determines whether or not the difference value is equal to or greater than a predetermined threshold value for each pixel, and generates difference information between the image A and the image B based on the determination result. Specifically, the difference detection unit 72 generates difference information binarized by the size of the difference value for each pixel. For example, the difference detection unit 72 sets a pixel having a difference value smaller than a predetermined threshold to “0”, and sets a pixel having a difference value equal to or larger than the predetermined threshold to “1”.

次に、マスク情報生成部76は、差分検出部72で生成された差分情報に基づいて、マスク情報を生成する。具体的には、マスク情報生成部76は、二値化された差分情報に対応させて二値化したマスク情報を生成する。これにより、スクリーン領域に位置する画素を「1」とし、スクリーン領域外に位置する画素を「0」として二値化したマスク情報が生成される。マスク情報生成部76によって生成されたマスク情報がマスク情報記憶部78に保存されると、イニシャライズモードが終了し(ステップS08)、処理が最初に戻される。   Next, the mask information generation unit 76 generates mask information based on the difference information generated by the difference detection unit 72. Specifically, the mask information generation unit 76 generates binarized mask information corresponding to the binarized difference information. As a result, the binarized mask information is generated with the pixel located in the screen area as “1” and the pixel located outside the screen area as “0”. When the mask information generated by the mask information generation unit 76 is stored in the mask information storage unit 78, the initialization mode ends (step S08), and the process returns to the beginning.

再びステップS01に戻って、現在の動作モードがイニシャライズモードでないとき(S01のNO判定時)には、制御部90はさらに、ステップS09により、現在の動作モードがマスクモードであるかどうかを判定する。現在の動作モードがマスクモードであるとき(S09のYES判定時)、マスク映像生成部80は、マスク情報記憶部78に保存されたマスク情報を参照することにより(ステップS11)、入力映像信号をマスク映像信号に変換する(ステップS12)。   Returning again to step S01, when the current operation mode is not the initialization mode (when NO is determined in S01), control unit 90 further determines whether or not the current operation mode is the mask mode in step S09. . When the current operation mode is the mask mode (YES in S09), the mask video generation unit 80 refers to the mask information stored in the mask information storage unit 78 (step S11), and the input video signal is obtained. Conversion into a mask video signal (step S12).

具体的には、マスク映像生成部80は、入力映像信号とマスク情報とを、対応する画素ごとに論理積をとることにより、入力映像信号をマスク映像信号に変換する。たとえば、マスク映像生成部80は、対応する画素のマスク情報が「1」であるときには、入力映像信号の信号値をマスク映像信号の信号値とし、対応する画素のマスク情報が「0」であるときには、マスク映像信号の信号値を「0」として、マスク映像信号を生成する。すなわち、マスク情報が「0」とされている各画素、すなわち、スクリーン領域外に位置する各画素は、マスク映像信号では、その信号値が強制的に「0」に変換される。したがって、投写映像110では、スクリーン領域外に位置する各画素が黒表示される。   Specifically, the mask video generation unit 80 converts the input video signal into a mask video signal by taking the logical product of the input video signal and the mask information for each corresponding pixel. For example, when the mask information of the corresponding pixel is “1”, the mask video generation unit 80 sets the signal value of the input video signal as the signal value of the mask video signal, and the mask information of the corresponding pixel is “0”. Sometimes, the mask video signal is generated with the signal value of the mask video signal set to “0”. That is, for each pixel whose mask information is “0”, that is, each pixel located outside the screen area, the signal value is forcibly converted to “0” in the mask video signal. Therefore, in the projected image 110, each pixel located outside the screen area is displayed in black.

映像信号選択部84は、マスク映像生成部80により生成されたマスク映像信号を表示素子40へ出力する。これにより、表示素子40では、光源30から射出された光が、マスク映像信号に応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS12)。   The video signal selection unit 84 outputs the mask video signal generated by the mask video generation unit 80 to the display element 40. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the mask image signal, and is projected onto the projection plane 100 by the projection optical system 50 (step S12).

これに対して、現在の動作モードがマスクモードでないとき(S09のNO判定時)には、映像信号選択部84は、入力映像信号を表示素子40へ出力する。これにより、表示素子40では、光源30から射出された光が、入力映像信号に応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS12)。   On the other hand, when the current operation mode is not the mask mode (NO determination at S09), the video signal selection unit 84 outputs the input video signal to the display element 40. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the input image signal, and is projected onto the projection plane 100 by the projection optical system 50 (step S12).

制御部90は、ステップS13により、電源がOFFされたか否かを判定し、電源がOFFされたとき(S13のYES判定時)には、一連の映像信号処理を終了する。一方、電源がOFFされていないとき(S13のNO判定時)には、処理は最初に戻される。   In step S13, the controller 90 determines whether or not the power is turned off. When the power is turned off (YES in S13), the series of video signal processing ends. On the other hand, when the power is not turned off (NO determination in S13), the process is returned to the beginning.

以上に述べたように、この発明の実施の形態1によれば、イニシャライズモードにおいて、投写映像を撮像するカメラによって取得される撮像画像に基づいて投写面のスクリーン領域が検出され、その検出されたスクリーン領域に基づいてマスク情報が生成される。これによって、マスクモードでは、マスク情報を基にスクリーン領域以外が黒表示された投写映像が投写面に表示される。したがって、スクリーンの形状に完全に一致した映像コンテンツの制作を必要とせずに、容易にスクリーンの形状に一致した映像を投写させることができる。   As described above, according to the first embodiment of the present invention, in the initialization mode, the screen area of the projection surface is detected based on the captured image acquired by the camera that captures the projected image, and the detected screen area is detected. Mask information is generated based on the screen area. As a result, in the mask mode, a projected image in which the area other than the screen area is displayed in black based on the mask information is displayed on the projection surface. Accordingly, it is possible to easily project an image that matches the shape of the screen without the need to produce video content that completely matches the shape of the screen.

また、入力映像信号にマスク処理を施すことによってスクリーン領域以外の非表示領域を透過する光の強度が抑えられるため、投写面の反対側にいる観察者の目に直接光が入射されるのを防止できる。さらに、スクリーンに投写される映像を観察者にとって見やすいものとすることができる。   In addition, by applying mask processing to the input video signal, the intensity of light transmitted through the non-display area other than the screen area can be suppressed, so that light is directly incident on the eyes of the observer on the opposite side of the projection plane. Can be prevented. Furthermore, the image projected on the screen can be easily viewed by the observer.

(マスク情報の精度を向上させるための変更例)
以下では、先の実施の形態1に係るプロジェクタの変更例として、イニシャライズモードで生成されるマスク情報の精度をさらに向上させるための技術について説明する。なお、以下の変更例1〜5に係るプロジェクタは、いずれも、先の実施の形態1に係るプロジェクタにおける映像信号処理の内容を変更したものであり、プロジェクタの全体構成は互いに共通している。
(Modification example to improve the accuracy of mask information)
Hereinafter, as a modification example of the projector according to the first embodiment, a technique for further improving the accuracy of the mask information generated in the initialization mode will be described. Note that all the projectors according to the following modification examples 1 to 5 are obtained by changing the contents of the video signal processing in the projector according to the first embodiment, and the overall configuration of the projectors is common to each other.

[変更例1:変動型閾値の導入]
図6は、本実施の形態1の変更例1に係るプロジェクタにおける映像信号処理部60が実行する映像信号処理ルーチンを説明するフローチャートである。この映像信号処理は、フレームごとに制御部90(図3)によって予め格納されたプログラムに従って実行される。
[Modification 1: Introduction of variable threshold]
FIG. 6 is a flowchart for explaining a video signal processing routine executed by the video signal processing unit 60 in the projector according to the first modification of the first embodiment. This video signal processing is executed according to a program stored in advance by the control unit 90 (FIG. 3) for each frame.

図6を参照して、本変更例1に係るフローチャートは、図4のフローチャートにおけるステップS06,S07を、ステップS21〜S26に変更した点でのみ異なる。   Referring to FIG. 6, the flowchart according to the first modification is different only in that steps S06 and S07 in the flowchart of FIG. 4 are changed to steps S21 to S26.

ステップS03,S05によって、画像A(全黒表示)および画像B(全白表示)が画像記憶部70に保存されると、閾値制御部74(図3)は、閾値を予め定められた初期値に設定する(ステップS21)。差分検出部72は、設定された閾値(初期値)を用いて画像Aと画像Bとの差分を検出する(ステップS22)。具体的には、差分検出部72は、画素ごとに差分値が初期値以上となるか否かを判定し、その判定結果に基づいて二値化された差分情報を生成する。差分検出部72は、差分値が初期値よりも小さい画素を「0」とし、差分値が初期値以上となる画素を「1」として二値化した差分情報を生成する。   When image A (full black display) and image B (full white display) are stored in image storage unit 70 in steps S03 and S05, threshold control unit 74 (FIG. 3) sets a predetermined initial value for the threshold. (Step S21). The difference detection unit 72 detects the difference between the image A and the image B using the set threshold value (initial value) (step S22). Specifically, the difference detection unit 72 determines whether the difference value is equal to or greater than the initial value for each pixel, and generates binarized difference information based on the determination result. The difference detection unit 72 generates difference information binarized by setting a pixel having a difference value smaller than the initial value to “0” and a pixel having a difference value equal to or larger than the initial value to “1”.

マスク情報生成部76は、差分検出部72で生成された差分情報に対応させて二値化されたマスク情報を生成する。(ステップS23)。   The mask information generation unit 76 generates binarized mask information corresponding to the difference information generated by the difference detection unit 72. (Step S23).

次に、ステップS24により、再び全白テストパターンを投写面100に投写させる。このとき、マスク映像生成部80は、マスク情報生成部76で生成されたマスク情報に基づいて、全白テストパターンの一部の領域を黒表示させるためのテストパターンに変換する。具体的には、マスク映像生成部80は、全白テストパターンとマスク情報とを、対応する画素ごとに論理積をとることにより、マスク情報が「0」とされている各画素の信号値を強制的に「0」に変換する。   Next, in step S24, the all white test pattern is again projected on the projection plane 100. At this time, based on the mask information generated by the mask information generation unit 76, the mask video generation unit 80 converts a partial region of the all white test pattern into a test pattern for displaying black. Specifically, the mask video generation unit 80 calculates the signal value of each pixel in which the mask information is “0” by taking the logical product of the all white test pattern and the mask information for each corresponding pixel. Forced conversion to “0”.

図7(a)に、図6のステップS24により、マスク情報を基に変換された全白テストパターンを投写したときの投写映像110を示す。投写映像110では、スクリーン領域が白表示される一方で、スクリーン領域以外が黒表示されている。   FIG. 7A shows a projected image 110 when the all white test pattern converted based on the mask information in step S24 of FIG. 6 is projected. In the projected image 110, the screen area is displayed in white, while the area other than the screen area is displayed in black.

ここで、投写面100の背景に、光を反射あるいは拡散させる物体があった場合には、カメラ20によって取得される撮像画像において、スクリーン領域以外にエッジ部分が含まれる可能性がある。このエッジ部分は、隣接する画素間の階調値の差が大きい部分であって、たとえば当該物体の輪郭部分に現われる。これにより、画像Aおよび画像Bを比較したときにエッジ部分における差分値が閾値以上を示すことによって、当該エッジ部分が誤ってスクリーン領域と認識されてしまう可能性がある。その結果、スクリーンの形状を正確に反映したマスク情報を生成できないという問題が生じる。   Here, when there is an object that reflects or diffuses light in the background of the projection plane 100, the captured image acquired by the camera 20 may include an edge portion other than the screen region. This edge portion is a portion where the difference in gradation value between adjacent pixels is large, for example, appears in the contour portion of the object. As a result, when the image A and the image B are compared with each other, the difference value in the edge portion indicates a threshold value or more, so that the edge portion may be erroneously recognized as a screen region. As a result, there arises a problem that mask information that accurately reflects the shape of the screen cannot be generated.

そこで、本変更例1に係るプロジェクタでは、映像信号処理において撮像画像の差分検出に用いる閾値を、スクリーン120が設置される環境に応じて変更可能に構成する。   Therefore, the projector according to the first modification is configured such that the threshold value used for detecting the difference between the captured images in the video signal processing can be changed according to the environment where the screen 120 is installed.

具体的には、図6のステップS25において、ステップS24において全白テストパターンを投写したときの投写映像110を見て、スクリーン領域以外に白表示された領域がないかどうかを確認する。スクリーン領域以外に白表示領域がないことが確認されたとき(S25のYES判定時)には、閾値の変更は行なわれない。したがって、マスク情報生成部76によって生成されたマスク情報がマスク情報記憶部78に保存され(ステップS26)、イニシャライズモードが終了する(ステップ08)。   Specifically, in step S25 of FIG. 6, the projected image 110 when the all white test pattern is projected in step S24 is viewed, and it is confirmed whether there is any white display area other than the screen area. When it is confirmed that there is no white display area other than the screen area (YES in S25), the threshold value is not changed. Therefore, the mask information generated by the mask information generation unit 76 is stored in the mask information storage unit 78 (step S26), and the initialization mode ends (step 08).

これに対して、全白テストパターンを投写したときの投写映像110を見て、スクリーン領域以外に白表示領域があることが確認されたとき(S25のNO判定時)には、ステップS21に戻り、閾値の変更が行なわれる。なお、閾値の変更は、閾値制御部74が、制御部90の指示に従って、入力操作部から発せられる操作信号に応じた変化量だけ閾値を変化させることにより行なわれる。これにより、ステップS22以降では、変更後の閾値を用いて再度マスク情報が生成される。このようにして、ステップS21〜S24の処理は、ステップS25においてスクリーン領域以外の領域に白表示された領域がないことが確認されるまで、繰り返し実行される。   On the other hand, when it is confirmed that there is a white display area other than the screen area by looking at the projected image 110 when the all white test pattern is projected (NO in S25), the process returns to step S21. The threshold value is changed. Note that the threshold value is changed by the threshold value control unit 74 changing the threshold value by an amount corresponding to an operation signal issued from the input operation unit in accordance with an instruction from the control unit 90. Thereby, after step S22, mask information is generated again using the changed threshold value. In this way, the processes in steps S21 to S24 are repeatedly executed until it is confirmed in step S25 that there is no white display area other than the screen area.

以上に述べたように、本変更例1に係る映像信号処理では、撮像画像の差分検出に用いる閾値を、スクリーン120が設置される環境に応じて変更可能としたことにより、差分検出の結果に基づいて生成されるマスク情報の精度を高めることができる。   As described above, in the video signal processing according to the first modification, the threshold value used for the difference detection of the captured image can be changed according to the environment where the screen 120 is installed. The accuracy of the mask information generated based on this can be improved.

なお、図6のステップS24については、スクリーン領域以外を黒表示させた全白テストパターンを投写させる構成としたが、スクリーン領域の輪郭部分のみを白表示とし、かつ、当該輪郭部分以外を黒表示とするように変換した全白テストパターンを投写させる構成としてもよい。この場合は、図7(b)に示すように、輪郭部分の白表示がスクリーン領域内に適切に表示されないときには、閾値が変更され、変更後の閾値を用いて再びマスク情報の生成が行なわれる。   Note that although step S24 in FIG. 6 is configured to project an all-white test pattern in which the area other than the screen area is displayed in black, only the outline area of the screen area is displayed in white and the area other than the outline area is displayed in black. It is also possible to project the all-white test pattern converted as follows. In this case, as shown in FIG. 7B, when the white display of the contour portion is not properly displayed in the screen area, the threshold value is changed, and mask information is generated again using the changed threshold value. .

[変更例2:表示素子とカメラの撮像素子との画素数の整合性]
図8は、本実施の形態1の変更例2に係るプロジェクタにおける映像信号処理部の構成を説明する図である。
[Modification 2: Consistency of the number of pixels between the display element and the imaging element of the camera]
FIG. 8 is a diagram illustrating the configuration of the video signal processing unit in the projector according to the second modification of the first embodiment.

図8を参照して、本変更例2では、映像信号処理部60(図3)におけるマスク情報生成部76を、マスク情報生成回路760と、画素数変換部762とを含むように構成する。なお、マスク情報生成部76以外の各構成要素(図示せず)については、図3の映像信号処理部60に含まれる構成要素と同一である。   Referring to FIG. 8, in the second modification, the mask information generation unit 76 in the video signal processing unit 60 (FIG. 3) is configured to include a mask information generation circuit 760 and a pixel number conversion unit 762. Note that each component (not shown) other than the mask information generation unit 76 is the same as the component included in the video signal processing unit 60 of FIG.

マスク情報生成回路760は、上述した方法により、差分検出部72により検出された複数の撮像画像の差分値と所定の閾値との比較結果に基づいて、マスク情報を生成する。生成されたマスク情報は、画素数変換部762へ出力される。   The mask information generation circuit 760 generates mask information based on a comparison result between a difference value between a plurality of captured images detected by the difference detection unit 72 and a predetermined threshold value by the method described above. The generated mask information is output to the pixel number conversion unit 762.

画素数変換部762は、カメラ20の撮像素子の画素数と、プロジェクタ10の表示素子40の画素数とが一致していない場合、たとえば撮像素子の画素数が表示素子40の画素数よりも少ない場合には、マスク情報生成回路760で生成されたマスク情報に対して補間処理を施す。具体的には、マスク情報に、表示素子40の一の画素に対応する信号値が存在しなくても、当該画素を包囲する周囲の画素に対応する信号値を用いた補間処理によって、当該画素の信号値が求められる。   When the number of pixels of the imaging element of the camera 20 and the number of pixels of the display element 40 of the projector 10 do not match, the pixel number conversion unit 762 has, for example, a smaller number of pixels of the imaging element than the number of pixels of the display element 40. In this case, interpolation processing is performed on the mask information generated by the mask information generation circuit 760. Specifically, even if a signal value corresponding to one pixel of the display element 40 does not exist in the mask information, the pixel is subjected to interpolation processing using signal values corresponding to surrounding pixels surrounding the pixel. Are obtained.

このような構成としたことにより、マスク情報をより精度良く投写面の非表示領域に一致させることができる。この結果、投写映像においては、スクリーン領域の輪郭部分をより正確に表示することができるため、投写面100の反対側にいる観察者の目に直接光が入射されるのを防止できるとともに、スクリーン120に投写される映像を観察者にとって見やすいものとすることができる。   With such a configuration, the mask information can be matched with the non-display area of the projection surface with higher accuracy. As a result, in the projected image, the contour portion of the screen region can be displayed more accurately, so that direct light can be prevented from being incident on the eyes of the observer on the opposite side of the projection plane 100, and the screen The image projected on 120 can be easily viewed by the observer.

[変更例3:カメラ画角による歪補正]
図1に示したようなプロジェクタ10の本体にカメラ20を取り付けた構成では、装置構成上、カメラ20の撮像素子を投写映像110の中央部分と対向する位置に設置させることができず、該中央部分からずれた位置に撮像素子が設置される場合がある。このような場合には、投写映像110を撮像した撮像画像に台形歪みが生じる可能性がある。
[Modification 3: Distortion correction by camera angle of view]
In the configuration in which the camera 20 is attached to the main body of the projector 10 as shown in FIG. 1, the image sensor of the camera 20 cannot be installed at a position facing the central portion of the projected image 110 due to the device configuration. In some cases, an image sensor is installed at a position shifted from the portion. In such a case, trapezoidal distortion may occur in the captured image obtained by capturing the projected image 110.

そこで、本変更例3に係るプロジェクタでは、プロジェクタ10とカメラ20との位置関係に基づいて予め取得されているカメラ20の画角歪情報に基づいて、撮像画像に生じた台形歪みを補正する。そして、補正後の撮像画像に基づいてマスク情報を生成する。   Therefore, in the projector according to the third modification, the trapezoidal distortion generated in the captured image is corrected based on the angle-of-view distortion information of the camera 20 acquired in advance based on the positional relationship between the projector 10 and the camera 20. Then, mask information is generated based on the corrected captured image.

図9は、本実施の形態1の変更例3に係るプロジェクタにおける映像信号処理部の構成を説明する図である。   FIG. 9 is a diagram for explaining the configuration of the video signal processing unit in the projector according to the third modification of the first embodiment.

図9を参照して、本変更例3では、映像信号処理部60(図3)におけるマスク情報生成部76を、マスク情報生成回路760と、歪補正部764と、画角歪情報記憶部766と、画素数変換部762とを含むように構成する。なお、マスク情報生成部76以外の各構成要素(図示せず)については、図3の映像信号処理部60に含まれる構成要素と同一である。   Referring to FIG. 9, in the third modification, the mask information generation unit 76 in the video signal processing unit 60 (FIG. 3) includes a mask information generation circuit 760, a distortion correction unit 764, and an angle-of-view distortion information storage unit 766. And a pixel number conversion unit 762. Note that each component (not shown) other than the mask information generation unit 76 is the same as the component included in the video signal processing unit 60 of FIG.

マスク情報生成回路760は、上述した方法により、差分検出部72により検出された複数の撮像画像の差分値と所定の閾値との比較結果に基づいて、マスク情報を生成する。生成されたマスク情報は、歪補正部764へ出力される。   The mask information generation circuit 760 generates mask information based on a comparison result between a difference value between a plurality of captured images detected by the difference detection unit 72 and a predetermined threshold value by the method described above. The generated mask information is output to the distortion correction unit 764.

歪補正部764は、画角歪情報記憶部766に記憶されている画角歪情報を参照することにより、マスク情報生成回路760で生成されたマスク情報を補正する。具体的には、歪補正部764は、画角歪情報に基づいて、撮像素子の各画素のうちどの画素の画素値の読み込みを行なうかを設定する。補正されたマスク情報は、画素数変換部762へ出力される。   The distortion correction unit 764 corrects the mask information generated by the mask information generation circuit 760 by referring to the view angle distortion information stored in the view angle distortion information storage unit 766. Specifically, the distortion correction unit 764 sets which pixel value of each pixel of the image sensor is to be read based on the view angle distortion information. The corrected mask information is output to the pixel number conversion unit 762.

画素数変換部762は、カメラ20の撮像素子の画素数と、プロジェクタ10の表示素子40の画素数とが一致していない場合に、マスク情報生成回路760で生成されたマスク情報に対して補間処理を施す。具体的には、マスク情報に、表示素子40の一の画素に対応する信号値が存在しなくても、当該画素を包囲する周囲の画素に対応する信号値を用いた補間処理によって、当該画素の信号値が求められる。   The pixel number conversion unit 762 interpolates the mask information generated by the mask information generation circuit 760 when the number of pixels of the imaging element of the camera 20 and the number of pixels of the display element 40 of the projector 10 do not match. Apply processing. Specifically, even if a signal value corresponding to one pixel of the display element 40 does not exist in the mask information, the pixel is subjected to interpolation processing using signal values corresponding to surrounding pixels surrounding the pixel. Are obtained.

このような構成としたことにより、プロジェクタ10とカメラ20との位置関係に左右されることなく、マスク情報を精度良く投写面の非表示領域に一致させることができる。   With such a configuration, the mask information can be made to coincide with the non-display area of the projection plane with high accuracy without being influenced by the positional relationship between the projector 10 and the camera 20.

[変更例4:テストパターンの色表示]
スクリーン120の素材色やスクリーン120が設置される環境によっては、全黒テストパターンに基づく投写映像を撮像した画像Aと全白テストパターンに基づく投写映像を撮像した画像Bとの差分を検出することが困難となる可能性がある。
[Modification 4: Test pattern color display]
Depending on the material color of the screen 120 and the environment in which the screen 120 is installed, the difference between the image A obtained by capturing the projected image based on the all-black test pattern and the image B obtained by capturing the projected image based on the all-white test pattern is detected. May be difficult.

本変更例4に係るプロジェクタでは、テストパターンの表示色を切替えて投写面に投写させる。そして、このとき撮像素子により取得された複数の撮像画像の差分に基づいてマスク情報を生成するものとする。   In the projector according to the fourth modification, the display color of the test pattern is switched and projected onto the projection surface. And mask information shall be produced | generated based on the difference of the some captured image acquired by the image pick-up element at this time.

図10は、本実施の形態1の変更例4に係るプロジェクタにおける映像信号処理部60が実行する映像信号処理ルーチンを説明するフローチャートである。この映像信号処理は、フレームごとに制御部90(図3)によって予め格納されたプログラムに従って実行される。   FIG. 10 is a flowchart illustrating a video signal processing routine executed by the video signal processing unit 60 in the projector according to the fourth modification of the first embodiment. This video signal processing is executed according to a program stored in advance by the control unit 90 (FIG. 3) for each frame.

図10を参照して、本変更例4に係るフローチャートは、図4のフローチャートにおけるステップS04〜S07を、ステップS31〜S41に変更した点でのみ異なる。   Referring to FIG. 10, the flowchart according to the fourth modification is different only in that steps S04 to S07 in the flowchart of FIG. 4 are changed to steps S31 to S41.

現在の動作モードがイニシャライズモードであるとき(S01のYES判定時)には、テストパターン生成部82が、全黒テストパターンを生成し、映像信号選択部84が、その生成された全黒テストパターンを表示素子40へ出力する。これにより、表示素子40では、光源30から射出された光が、全黒テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS02)。ステップS03では、カメラ20が全黒テストパターンに基づく投写映像110を撮像する。画像記憶部70は、その撮像画像を「画像A」として保存する。   When the current operation mode is the initialization mode (YES in S01), the test pattern generation unit 82 generates an all black test pattern, and the video signal selection unit 84 generates the generated all black test pattern. Is output to the display element 40. As a result, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all-black test pattern, and is projected onto the projection plane 100 by the projection optical system 50 (step S02). In step S03, the camera 20 captures the projected image 110 based on the all black test pattern. The image storage unit 70 stores the captured image as “image A”.

次に、ステップS31により、テストパターン生成部82は、全白テストパターンを生成する。映像信号選択部84は、その生成された全白テストパターンを表示素子40へ出力する。これにより、表示素子40では、光源30から出射された光が、全白テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される。ステップS32では、カメラ20が全白テストパターンに基づく投写映像110を撮像する。画像記憶部70は、その撮像画像を「画像W」として保存する。   Next, in step S31, the test pattern generation unit 82 generates an all white test pattern. The video signal selection unit 84 outputs the generated all white test pattern to the display element 40. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all white test pattern, and is projected onto the projection plane 100 by the projection optical system 50. In step S32, the camera 20 captures the projected image 110 based on the all white test pattern. The image storage unit 70 stores the captured image as “image W”.

次に、ステップS33により、テストパターン生成部82は、画面全体を赤色の単色表示とするテストパターン(以下、「全赤テストパターン」とも称す。)を生成する。映像信号選択部84は、その生成された全赤テストパターンを表示素子40へ出力する。これにより、表示素子40では光源30から射出された光が、全赤テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS33)。ステップS34では、カメラ20が全赤テストパターンに基づく投写映像110を撮像する。画像記憶部70は、その撮像画像を「画像R」として保存する。   Next, in step S33, the test pattern generation unit 82 generates a test pattern (hereinafter, also referred to as “all-red test pattern”) that displays the entire screen in a single red color. The video signal selection unit 84 outputs the generated all-red test pattern to the display element 40. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all-red test pattern, and is projected onto the projection plane 100 by the projection optical system 50 (step S33). In step S34, the camera 20 captures the projected image 110 based on the all-red test pattern. The image storage unit 70 stores the captured image as “image R”.

次に、ステップS35により、テストパターン生成部82は、画面全体を緑色の単色表示とするテストパターン(以下、「全緑テストパターン」とも称す。)を生成する。映像信号選択部84は、その生成された全緑テストパターンを表示素子40へ出力する。これにより、表示素子40では光源30から射出された光が、全緑テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS35)。ステップS36では、カメラ20が全緑テストパターンに基づく投写映像110を撮像する。画像記憶部70は、その撮像画像を「画像G」として保存する。   Next, in step S35, the test pattern generation unit 82 generates a test pattern (hereinafter, also referred to as “all green test pattern”) that displays the entire screen in a single color of green. The video signal selection unit 84 outputs the generated all green test pattern to the display element 40. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all green test pattern, and is projected onto the projection plane 100 by the projection optical system 50 (step S35). In step S36, the camera 20 captures the projected image 110 based on the all green test pattern. The image storage unit 70 stores the captured image as “image G”.

次に、ステップS37により、テストパターン生成部82は、画面全体を青色の単色表示とするテストパターン(以下、「全青テストパターン」とも称す。)を生成する。映像信号選択部84は、その生成された全青テストパターンを表示素子40へ出力する。これにより、表示素子40では光源30から射出された光が、全青テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS37)。ステップS38では、カメラ20が全青テストパターンに基づく投写映像110を撮像する。画像記憶部70は、その撮像画像を「画像B」として保存する。   Next, in step S <b> 37, the test pattern generation unit 82 generates a test pattern (hereinafter, also referred to as “all-blue test pattern”) that displays the entire screen in a single blue color. The video signal selection unit 84 outputs the generated all-blue test pattern to the display element 40. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all-blue test pattern, and is projected onto the projection plane 100 by the projection optical system 50 (step S37). In step S38, the camera 20 captures the projected image 110 based on the all-blue test pattern. The image storage unit 70 stores the captured image as “image B”.

差分検出部72は、画像記憶部70に保存されている画像A(全黒表示)と、画像W(全白表示)、画像R(全赤表示)、画像G(全緑表示)および画像B(全青表示)の各々とを比較することにより、画像Aと画像W,R,G,Bの各々との差分を検出する(ステップS06)。具体的には、差分検出部72は、画像Aおよび画像Wの間で、画素ごとの差分値を所定の閾値以上となるか否かを判定し、その判定結果に基づいて画像Aと画像Wとの差分情報を生成する。同様に、差分検出部72は、画像Aおよび画像Rの差分情報を生成し、画像Aおよび画像Gの差分情報を生成し、画像Aおよび画像Bの差分情報を生成する。なお、各々の差分検出に用いる閾値が共通でなくてもよい。   The difference detection unit 72 includes an image A (all black display), an image W (all white display), an image R (all red display), an image G (all green display), and an image B stored in the image storage unit 70. The difference between the image A and each of the images W, R, G, and B is detected by comparing each (all blue display) (step S06). Specifically, the difference detection unit 72 determines whether or not the difference value for each pixel is greater than or equal to a predetermined threshold between the image A and the image W, and the image A and the image W are based on the determination result. Difference information is generated. Similarly, the difference detection unit 72 generates difference information between the image A and the image R, generates difference information between the image A and the image G, and generates difference information between the image A and the image B. In addition, the threshold value used for each difference detection may not be common.

次に、差分検出部72は、生成された4つの差分情報を対比することにより、プロジェクタ10の投写領域のうち、4つの差分情報の間で差分値が一致する画素を検出する(ステップS40)。差分検出部72は、検出された画素の位置情報からなる差分情報を生成してマスク情報生成部76へ出力する。   Next, the difference detection unit 72 compares the four pieces of generated difference information to detect a pixel in which the difference values match between the four pieces of difference information in the projection area of the projector 10 (step S40). . The difference detection unit 72 generates difference information including the detected pixel position information and outputs the difference information to the mask information generation unit 76.

マスク情報生成部76は、差分検出部72で生成された差分情報に基づいて、画素ごとに差分値の大小により二値化されたマスク情報を生成する。マスク情報生成部76によって生成されたマスク情報がマスク情報記憶部78に保存されると、イニシャライズモードが終了し(ステップS08)、処理が最初に戻される。   Based on the difference information generated by the difference detection unit 72, the mask information generation unit 76 generates mask information binarized by the magnitude of the difference value for each pixel. When the mask information generated by the mask information generation unit 76 is stored in the mask information storage unit 78, the initialization mode ends (step S08), and the process returns to the beginning.

このように、複数の表示色でテストパターンを投写したときに取得される複数の撮像画像に基づいてマスク情報を生成する構成としたことにより、スクリーン120の状態によらずスクリーン領域を正確に検出することができるため、マスク情報を精度良く投写面の非表示領域に一致させることができる。   As described above, the mask information is generated based on the plurality of captured images acquired when the test pattern is projected with the plurality of display colors, so that the screen area can be accurately detected regardless of the state of the screen 120. Therefore, the mask information can be matched with the non-display area of the projection plane with high accuracy.

[変更例5:マスク情報の微調整]
本変更例5に係るプロジェクタでは、撮像画像の差分情報に基づいて生成されたマスク情報を、ユーザの操作に応じて微調整を可能とする。
[Modification 5: Fine adjustment of mask information]
In the projector according to the fifth modification, the mask information generated based on the difference information of the captured image can be finely adjusted according to the user's operation.

図11は、本実施の形態1の変更例5に係るプロジェクタにおける映像信号処理部60が実行する映像信号処理ルーチンを説明するフローチャートである。この映像信号処理は、フレームごとに制御部90(図3)によって予め格納されたプログラムに従って実行される。   FIG. 11 is a flowchart for explaining a video signal processing routine executed by the video signal processing unit 60 in the projector according to the fifth modification of the first embodiment. This video signal processing is executed according to a program stored in advance by the control unit 90 (FIG. 3) for each frame.

図11を参照して、本変更例5に係るフローチャートは、図4のフローチャートにおけるステップS07を、ステップS51〜S55に変更した点でのみ異なる。   Referring to FIG. 11, the flowchart according to the fifth modification is different only in that step S07 in the flowchart of FIG. 4 is changed to steps S51 to S55.

図11に示すように、ステップS06では、差分検出部72は、画像Aと画像Bとの差分を検出する。具体的には、差分検出部72は、画素ごとに差分値が閾値以上となるか否かを判定し、その判定結果に基づいて二値化された差分情報を生成する。   As shown in FIG. 11, in step S <b> 06, the difference detection unit 72 detects a difference between the image A and the image B. Specifically, the difference detection unit 72 determines whether or not the difference value is equal to or greater than a threshold value for each pixel, and generates binarized difference information based on the determination result.

マスク情報生成部76は、差分検出部72で生成された差分情報に対応させて二値化されたマスク情報を生成する。(ステップS51)。   The mask information generation unit 76 generates binarized mask information corresponding to the difference information generated by the difference detection unit 72. (Step S51).

次に、ステップS52により、再び全白テストパターンを投写面100に投写させる。このとき、マスク映像生成部80は、マスク情報生成部76で生成されたマスク情報に基づいて、全白テストパターンの一部の領域を黒表示させるためのテストパターンに変換する。具体的には、マスク映像生成部80は、全白テストパターンとマスク情報とを、対応する画素ごとに論理積をとることにより、マスク情報が「0」とされている各画素の信号値を強制的に「0」に変換する。   Next, in step S52, the all-white test pattern is again projected on the projection plane 100. At this time, based on the mask information generated by the mask information generation unit 76, the mask video generation unit 80 converts a partial region of the all white test pattern into a test pattern for displaying black. Specifically, the mask video generation unit 80 calculates the signal value of each pixel in which the mask information is “0” by taking the logical product of the all white test pattern and the mask information for each corresponding pixel. Forced conversion to “0”.

ステップS53では、ユーザによって、ステップS52において全白テストパターンを投写したときの投写映像110を見て、スクリーン領域以外に白表示された領域がないことを確認される。スクリーン領域以外に白表示領域がないことが確認されたとき(S53のYES判定時)には、マスク情報生成部76によって生成されたマスク情報がマスク情報記憶部78に保存され(ステップS55)、イニシャライズモードが終了する(ステップ08)。   In step S53, the user looks at the projected image 110 when the all white test pattern is projected in step S52, and confirms that there is no white display area other than the screen area. When it is confirmed that there is no white display area other than the screen area (YES in S53), the mask information generated by the mask information generation unit 76 is stored in the mask information storage unit 78 (step S55). The initialization mode ends (step 08).

これに対して、ユーザによって、全白テストパターンを投写したときの投写映像110を見て、スクリーン領域以外に白表示領域があることが確認されたとき(S53のNO判定時)には、マスク情報の調整が行なわれる(ステップS54)。   On the other hand, when the user sees the projected image 110 when the all-white test pattern is projected and confirms that there is a white display area other than the screen area (NO determination in S53), the mask is displayed. Information adjustment is performed (step S54).

マスク情報の調整は、ユーザが入力操作部に設けられた操作ボタンを操作することにより行なわれる。操作ボタンには、画像を拡大縮小させるための拡大縮小ボタンと、画像を上下左右方向にシフトさせるためのシフトボタンとが含まれる。ユーザは、ステップS52で全白テストパターンを投写したときの投写映像110を見ながら、これらのボタンを操作することにより、マスク情報の調整量を設定する。マスク情報生成部76は、設定された調整量に従って、マスク情報を調整する。これにより、投写面100には、調整後のマスク情報に基づいて一部の領域が黒表示となるように変換された全白テストパターンが投写される。   Adjustment of the mask information is performed by the user operating an operation button provided on the input operation unit. The operation buttons include an enlargement / reduction button for enlarging / reducing the image and a shift button for shifting the image vertically and horizontally. The user sets the adjustment amount of the mask information by operating these buttons while viewing the projected image 110 when the all white test pattern is projected in step S52. The mask information generation unit 76 adjusts the mask information according to the set adjustment amount. As a result, an all-white test pattern converted so that a part of the area is displayed in black based on the adjusted mask information is projected onto the projection plane 100.

このようにして、ステップS52〜S54の処理は、ステップS53においてスクリーン領域以外の領域に白表示された領域がないことが確認されるまで、繰り返し実行される。そして、スクリーン領域内に白表示領域が収まった状態でのマスク情報が、最終的なマスク情報としてマスク情報記憶部78に保存される(ステップS55)。   In this way, the processes in steps S52 to S54 are repeatedly executed until it is confirmed in step S53 that there is no white display area other than the screen area. Then, the mask information with the white display area within the screen area is stored in the mask information storage unit 78 as final mask information (step S55).

以上に述べたように、本変更例5に係る映像信号処理では、マスク情報を用いて変換したテストパターンを投写したときの投写映像に基づいてマスク情報の微調整を行なうことができるため、マスク情報の精度を高めることができる。   As described above, in the video signal processing according to the fifth modification, the mask information can be finely adjusted based on the projection image when the test pattern converted using the mask information is projected. The accuracy of information can be increased.

なお、本変更例5では、全白テストパターンを投写させたときの投写映像に基づいて、マスク情報を調整する構成としたが、投写光学系50に搭載されているズーム機能やシフト機能を用いて投写映像の微調整を行なう構成としてもよい。この場合には、スクリーン領域内に白表示領域が収まるように、投写光学系50のシフト位置やズーム位置が調整される。   In the fifth modification, the mask information is adjusted based on the projection image when the all white test pattern is projected. However, the zoom function and the shift function installed in the projection optical system 50 are used. Thus, it may be configured to finely adjust the projected image. In this case, the shift position and zoom position of the projection optical system 50 are adjusted so that the white display area is within the screen area.

[変更例6]
上述した本発明の実施の形態1およびその変更例1〜5では、明るさが異なる複数のテストパターンに基づく投写映像をカメラで撮像し、複数の撮像画像の差分を検出することによりマスク情報を生成する構成について説明したが、スクリーンが比較的暗い環境に設置される状況や、プロジェクタの投写有効領域を黒いカーテンなどで覆うような状況の下では、差分検出に代えて、撮像画像の輝度レベルを検出する構成とすることによって、マスク情報を生成することができる。
[Modification 6]
In the first embodiment of the present invention described above and the first to fifth modifications thereof, mask information is obtained by capturing a projected image based on a plurality of test patterns having different brightness with a camera and detecting a difference between the plurality of captured images. In the situation where the screen is installed in a relatively dark environment or the projection effective area of the projector is covered with a black curtain, etc., the brightness level of the captured image is used instead of the difference detection. The mask information can be generated by adopting a configuration for detecting.

具体的には、イニシャライズモードにおいて、全白テストパターンを投写面100に投写させ、投写映像110をカメラ20によって撮像する。映像信号処理部60は、その撮像画像を「画像A」として保存する。そして、映像信号処理部60は、画像Aの画素ごとに輝度レベルが所定の閾値以上となるか否かを判定し、その判定結果に基づいてマスク情報を生成する。これにより、輝度レベルが所定の閾値を下回る画素を「0」とし、輝度レベルが所定の閾値以上となる画素を「1」として二値化されたマスク情報が生成される。   Specifically, in the initialization mode, an all white test pattern is projected on the projection plane 100 and the projected image 110 is captured by the camera 20. The video signal processing unit 60 stores the captured image as “image A”. Then, the video signal processing unit 60 determines whether or not the luminance level is equal to or higher than a predetermined threshold value for each pixel of the image A, and generates mask information based on the determination result. As a result, binarized mask information is generated by setting a pixel whose luminance level is lower than the predetermined threshold to “0” and a pixel having a luminance level equal to or higher than the predetermined threshold to “1”.

また、スクリーン120のサイズ情報もマスク情報の生成に利用することで、マスク情報の精度を向上させることができる。詳細には、マスク情報生成部76は、スクリーン120のサイズに関する情報を予め所有しており、二値化されたマスク情報のうち、マスク情報が「1」となる領域に対して、当該領域における隣接して連続する画素数をカウントする。マスク情報生成部76は、カウント値と、スクリーン120のサイズ情報に基づいて予め設定された基準値とを比較し、カウント値が基準値を下回るときには、当該領域がノイズ領域であると判断してマスク情報を「0」に書き換える。   Further, the accuracy of the mask information can be improved by using the size information of the screen 120 to generate the mask information. More specifically, the mask information generation unit 76 has information about the size of the screen 120 in advance, and among the binarized mask information, the mask information is “1” in the area. Count the number of adjacent adjacent pixels. The mask information generation unit 76 compares the count value with a reference value set in advance based on the size information of the screen 120, and determines that the area is a noise area when the count value falls below the reference value. Rewrite the mask information to “0”.

[実施の形態2]
図12は、本実施の形態2に係るプロジェクタにおける映像信号処理部60が実行する映像信号処理ルーチンを説明するフローチャートである。この映像信号処理は、フレームごとに制御部90(図3)によって予め格納されたプログラムに従って実行される。
[Embodiment 2]
FIG. 12 is a flowchart for explaining a video signal processing routine executed by the video signal processing unit 60 in the projector according to the second embodiment. This video signal processing is executed according to a program stored in advance by the control unit 90 (FIG. 3) for each frame.

図12を参照して、本実施の形態2に係るフローチャートは、図4のフローチャートにおけるステップS02〜S07を、ステップS61〜S68に変更した点でのみ異なる。   Referring to FIG. 12, the flowchart according to the second embodiment is different only in that steps S02 to S07 in the flowchart of FIG. 4 are changed to steps S61 to S68.

図12に示すように、現在の動作モードがイニシャライズモードであるとき(S01のYES判定時)には、テストパターン生成部82は、全白テストパターンを生成する。映像信号選択部84は、その生成された全白テストパターンを表示素子40へ出力する。これにより、表示素子40では、光源30から射出された光が、全白テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS61)。ステップS62では、全白テストパターンに基づく投写映像110がカメラ20で撮像される。画像記憶部70は、その撮像画像を「画像A」として保存する。   As shown in FIG. 12, when the current operation mode is the initialization mode (when YES is determined in S01), the test pattern generation unit 82 generates an all white test pattern. The video signal selection unit 84 outputs the generated all white test pattern to the display element 40. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all-white test pattern, and is projected onto the projection plane 100 by the projection optical system 50 (step S61). In step S <b> 62, the projected image 110 based on the all white test pattern is captured by the camera 20. The image storage unit 70 stores the captured image as “image A”.

次に、テストパターン生成部82は、テストパターンを、全白テストパターンから画面の一部分が黒表示に変換されたテストパターンに変更する(ステップS63)。   Next, the test pattern generation unit 82 changes the test pattern to a test pattern in which a part of the screen is converted to black display from the all white test pattern (step S63).

ここで、黒表示への変換は、画素ブロック単位で実行される。図13には、テストパターンの変更する手順が示される。図13を参照して、投写有効領域は、複数の画素ブロック(m×nブロック)に分割される。全白テストパターン(図13(1))を初期画像として、左上端部の画素ブロックB(1,1)から順に、画素ブロック単位で黒表示に変換される(図13(2),(3))。そして、図13(4)に示すように、1ライン目右端部の画素ブロックB(1,n)に対する黒表示への変換が終了すると、2ライン目に移り、2ライン目に対しても、左端部の画素ブロックB(2,1)から順に画素ブロック単位で黒表示に変換される(図13(5),(6))。そして、最終ラインの右端部の画素ブロックB(m,n)が黒表示に変換されると(図13(8))、テストパターンの変更が終了する。   Here, the conversion to black display is performed in units of pixel blocks. FIG. 13 shows a procedure for changing the test pattern. Referring to FIG. 13, the effective projection area is divided into a plurality of pixel blocks (m × n blocks). Using the all-white test pattern (FIG. 13 (1)) as an initial image, the pixel block B (1, 1) at the upper left end is converted into black display in units of pixel blocks (FIGS. 13 (2) and (3)). )). Then, as shown in FIG. 13 (4), when the conversion to the black display for the pixel block B (1, n) at the right end of the first line is completed, the process moves to the second line, and also for the second line, The pixel block B (2, 1) at the left end is converted into black display in order of pixel block (FIGS. 13 (5) and (6)). When the pixel block B (m, n) at the right end of the last line is converted to black display (FIG. 13 (8)), the test pattern change is completed.

再び図12を参照して、ステップS64では、変更後のテストパターンに基づく投写映像110がカメラ20で撮像される。画像記憶部70は、その撮像画像を「画像B」として保存する。図14は、テストパターンが変更されるごとにカメラ20によって取得される撮像画像(画像B)を説明する図である。図14(a)を参照して、黒表示に変換された画素ブロックがスクリーン領域外にある状態では、画像Bには黒表示領域が検出されない。したがって、画像Aと画像Bとの間には差分が発生しない。これに対して、図14(b),(c)のように、黒表示に変換された画素ブロックがスクリーン領域内にある状態では、画像Bには黒表示領域が検出される。よって、画像Aと画像Bとの間には差分が発生する。   Referring to FIG. 12 again, in step S64, the projection image 110 based on the changed test pattern is captured by the camera 20. The image storage unit 70 stores the captured image as “image B”. FIG. 14 is a diagram illustrating a captured image (image B) acquired by the camera 20 every time the test pattern is changed. Referring to FIG. 14A, in the state where the pixel block converted to black display is outside the screen area, the black display area is not detected in image B. Accordingly, no difference occurs between the image A and the image B. On the other hand, as shown in FIGS. 14B and 14C, in the state where the pixel block converted into the black display is in the screen area, the black display area is detected in the image B. Therefore, a difference occurs between the image A and the image B.

図12のステップS65では、差分検出部72は、画像記憶部70に保存されている画像A(全白表示)および画像B(一部黒表示)を比較することにより、画像Aと画像Bとの差分を検出する。具体的には、差分検出部72は、画素ブロックごとに差分値が所定の閾値以上となるか否かを判定し、その判定結果に基づいて画像Aと画像Bとの差分情報を生成する。たとえば、差分検出部72は、差分値が所定の閾値よりも小さい画素ブロックについては、変動フラグを「0」に設定し、差分値が所定の閾値以上となる画素ブロックについては、変動フラグを「1」に設定することにより、画素ブロックごとに差分値の大小により二値化された変動フラグを生成する。そして、差分検出部72は、予め所有している各画素ブロックの位置を特定するための位置情報テーブルに、画素ブロックごとに設定した変動フラグを記録する(ステップS66)。   In step S65 of FIG. 12, the difference detection unit 72 compares the image A and the image B with each other by comparing the image A (all white display) and the image B (partially black display) stored in the image storage unit 70. The difference of is detected. Specifically, the difference detection unit 72 determines whether or not the difference value is greater than or equal to a predetermined threshold value for each pixel block, and generates difference information between the image A and the image B based on the determination result. For example, the difference detection unit 72 sets the variation flag to “0” for a pixel block whose difference value is smaller than a predetermined threshold, and sets the variation flag to “0” for a pixel block whose difference value is equal to or greater than the predetermined threshold. By setting it to “1”, a variation flag binarized by the magnitude of the difference value is generated for each pixel block. Then, the difference detection unit 72 records the variation flag set for each pixel block in the position information table for specifying the position of each pixel block owned in advance (step S66).

図15に、全画素ブロックに対して変動フラグが記録された位置情報テーブルを示す。同図では、変動フラグが「1」に設定された画素ブロックが黒表示されるとともに、変動フラグが「0」に設定された画素ブロックが白表示されている。すなわち、この黒表示された画素ブロックで形成される領域が、スクリーン領域に対応している。   FIG. 15 shows a position information table in which variation flags are recorded for all pixel blocks. In the figure, pixel blocks with the variation flag set to “1” are displayed in black, and pixel blocks with the variation flag set to “0” are displayed in white. That is, the area formed by the black-displayed pixel blocks corresponds to the screen area.

図12のステップS67では、テストパターン生成部82は、画素ブロック単位でのテストパターンの変更が、すべての画素ブロックに対して終了したか否かを判定する。テストパターンの変更がすべての画素ブロックに対して終了していないとき(S67のNO判定時)には、ステップS03に戻り、現在黒表示に変換されている画素ブロックの右隣(もしくは次のライン)の画素ブロックを選択して黒表示に変換する。そして、変更後のテストパターンに基づいて、ステップS64〜S66の処理を行なうことにより、位置情報テーブルを更新させる。   In step S67 of FIG. 12, the test pattern generation unit 82 determines whether or not the test pattern change for each pixel block has been completed for all the pixel blocks. When the test pattern change has not been completed for all pixel blocks (NO in S67), the process returns to step S03, and the pixel block that is currently converted to black display (or the next line) ) Pixel block is selected and converted to black display. Then, based on the changed test pattern, the position information table is updated by performing the processes of steps S64 to S66.

このようにして、テストパターンの変更がすべての画素ブロックに対して終了したとき(S67のYES判定時)には、マスク情報生成部76は、位置情報テーブルに記録された変動フラグ(図15)に基づいて、マスク情報を生成する。具体的には、マスク情報生成部76は、変動フラグが「1」の画素ブロックを構成する各画素を「1」とし、変動フラグが「0」の画素ブロックを構成する各画素を「0」として二値化したマスク情報を生成する(ステップS68)。マスク情報生成部76によって生成されたマスク情報がマスク情報記憶部78に保存されると、イニシャライズモードが終了し(ステップS08)、処理が最初に戻される。   In this way, when the change of the test pattern is completed for all the pixel blocks (when YES is determined in S67), the mask information generation unit 76 changes the variation flag (FIG. 15) recorded in the position information table. Based on the above, mask information is generated. Specifically, the mask information generating unit 76 sets each pixel constituting the pixel block having the variation flag “1” to “1”, and sets each pixel constituting the pixel block having the variation flag “0” to “0”. And binarized mask information is generated (step S68). When the mask information generated by the mask information generation unit 76 is stored in the mask information storage unit 78, the initialization mode ends (step S08), and the process returns to the beginning.

なお、上述した実施の形態2では、画素ブロック単位でテストパターンを黒表示に変更する構成を説明したが、画素単位でテストパターンを黒表示に変更する構成としてもよい。この場合には、撮像画像の差分検出を画素数分行なう必要があるために処理負荷が大きくなるが、より精度の高いマスク情報を生成することができる。   In the second embodiment described above, the configuration in which the test pattern is changed to black display in units of pixel blocks has been described. However, the test pattern may be changed to black display in units of pixels. In this case, since it is necessary to detect the difference between the captured images by the number of pixels, the processing load increases, but more accurate mask information can be generated.

あるいは、処理負荷の増大を避けつつ、精度の高いマスク情報を生成するためには、図13に示すテストパターンの変更において、水平方向および垂直方向のそれぞれについて、1ライン単位あるいは数ライン単位で黒表示に変更させることにより、おおよそのスクリーン領域(一次検出領域)を検出しておき、その後、一次検出領域のみを画素単位で黒表示に変更させることによって、精密なスクリーン領域(二次検出領域)を検出する構成とすればよい。   Alternatively, in order to generate high-accuracy mask information while avoiding an increase in processing load, in the test pattern change shown in FIG. 13, in each of the horizontal direction and the vertical direction, black is obtained in units of one line or several lines. By changing the display, an approximate screen area (primary detection area) is detected, and then only the primary detection area is changed to black display in units of pixels, thereby providing a precise screen area (secondary detection area). It may be configured to detect.

[実施の形態3]
図16は、本実施の形態3に係るプロジェクタにおける映像信号処理部60が実行する映像信号処理ルーチンを説明するフローチャートである。この映像信号処理は、フレームごとに制御部90(図3)によって予め格納されたプログラムに従って実行される。
[Embodiment 3]
FIG. 16 is a flowchart for explaining a video signal processing routine executed by the video signal processing unit 60 in the projector according to the third embodiment. This video signal processing is executed according to a program stored in advance by the control unit 90 (FIG. 3) for each frame.

図16を参照して、本実施の形態3に係るフローチャートは、図4のフローチャートにおけるステップS02〜S07を、ステップS71〜S83に変更した点でのみ異なる。   Referring to FIG. 16, the flowchart according to the third embodiment is different only in that steps S02 to S07 in the flowchart of FIG. 4 are changed to steps S71 to S83.

図16に示すように、現在の動作モードがイニシャライズモードであるとき(S01のYES判定時)には、テストパターン生成部82は、全白テストパターンを生成する。映像信号選択部84は、その生成された全白テストパターンを表示素子40へ出力する。これにより、表示素子40では、光源30から射出された光が、全白テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS71)。ステップS72では、全白テストパターンに基づく投写映像110がカメラ20で撮像される。画像記憶部70は、その撮像画像を「画像A」として保存する。   As shown in FIG. 16, when the current operation mode is the initialization mode (when YES is determined in S01), the test pattern generation unit 82 generates an all white test pattern. The video signal selection unit 84 outputs the generated all white test pattern to the display element 40. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all white test pattern, and is projected onto the projection plane 100 by the projection optical system 50 (step S71). In step S <b> 72, the projection image 110 based on the all white test pattern is captured by the camera 20. The image storage unit 70 stores the captured image as “image A”.

次に、テストパターン生成部82は、全黒テストパターンを生成する(ステップS73)。映像信号選択部84は、その生成された全黒テストパターンを表示素子40へ出力する。これにより、表示素子40では、光源30から射出された光が、全黒テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS73)。ステップS74では、全黒テストパターンに基づく投写映像110がカメラ20で撮像される。画像記憶部70は、その撮像画像を「画像B(1)」として保存する。   Next, the test pattern generation unit 82 generates an all black test pattern (step S73). The video signal selection unit 84 outputs the generated all black test pattern to the display element 40. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all-black test pattern, and is projected onto the projection plane 100 by the projection optical system 50 (step S73). In step S <b> 74, the projected image 110 based on the all black test pattern is captured by the camera 20. The image storage unit 70 stores the captured image as “image B (1)”.

次に、差分検出部72は、画像記憶部70に保存されている画像A(全白表示)および画像B(1)(全黒表示)を比較することにより、画像Aと画像B(1)との差分を検出する(ステップS75)。差分検出部72は、画素ごとに差分値が所定の閾値以上となるか否かを判定し、その判定結果に基づいて二値化された差分情報を生成する。   Next, the difference detection unit 72 compares the image A (all white display) and the image B (1) (all black display) stored in the image storage unit 70, thereby comparing the image A and the image B (1). Is detected (step S75). The difference detection unit 72 determines whether or not the difference value is equal to or greater than a predetermined threshold value for each pixel, and generates binarized difference information based on the determination result.

マスク情報生成部76は、差分検出部72で生成された差分情報に基づいてマスク情報を生成する。具体的には、マスク情報生成部76は、差分情報から、スクリーン領域を推定する(ステップS76)。   The mask information generation unit 76 generates mask information based on the difference information generated by the difference detection unit 72. Specifically, the mask information generation unit 76 estimates a screen area from the difference information (step S76).

次に、テストパターン生成部82は、テストパターンを、全黒テストパターンから白色領域と黒色領域とが交互に配置されたテストパターンに変更する(ステップS77)。図17には、テストパターンを変更する手順が示される。図17に示すように、テストパターンの変更は、画面の水平方向および垂直方向のそれぞれについて行なわれる。   Next, the test pattern generation unit 82 changes the test pattern from an all black test pattern to a test pattern in which white areas and black areas are alternately arranged (step S77). FIG. 17 shows a procedure for changing the test pattern. As shown in FIG. 17, the test pattern is changed in each of the horizontal direction and the vertical direction of the screen.

具体的には、図17(a)を参照して、水平方向に交互に配置する白色領域および黒色領域の配置数を変更することによって、複数のテストパターンが生成される。たとえば、n=2のテストパターンH(2)では、白色領域および黒色領域が1つずつ配置される(配置数=2)。また、n=3のテストパターンH(3)では、白色領域および黒色領域が2つずつ配置される(配置数=4)。すなわち、n番目のテストパターンH(n)では、白色領域および黒色領域の配置数は2(n−1)となる。なお、一例として、水平方向の画素数が1024である場合には、n=11のテストパターンH(11)を生成することで、配置数を画素数に一致させることができる。 Specifically, referring to FIG. 17A, a plurality of test patterns are generated by changing the number of white areas and black areas alternately arranged in the horizontal direction. For example, in the test pattern H (2) with n = 2, one white area and one black area are arranged (number of arrangements = 2). In the test pattern H (3) with n = 3, two white areas and two black areas are arranged (the number of arrangements = 4). That is, in the nth test pattern H (n), the number of white areas and black areas is 2 (n-1) . As an example, when the number of pixels in the horizontal direction is 1024, the number of arrangement can be made to match the number of pixels by generating the test pattern H (11) with n = 11.

同様の方法によって、垂直方向に交互に配置する白色領域および黒色領域の配置数を変更することによって、図17(b)に示すように、垂直方向に対しても複数のテストパターンが生成される。   By changing the number of white areas and black areas alternately arranged in the vertical direction by a similar method, a plurality of test patterns are generated in the vertical direction as shown in FIG. .

図16のステップS77では、テストパターン生成部82は、図17(a)に示す水平方向の変更パターンからn番目のテストパターンH(n)を選択し、テストパターンH(n)にテストパターンを変更する。なお、テストパターン生成部82は、配置数が最も少ないテストパターンH(2)から順次選択する。そして、水平方向のテストパターンの選択が終了すると、垂直方向のテストパターン(図17(b))について、配置数が最も少ないテストパターンV(2)から順次選択する。   In step S77 of FIG. 16, the test pattern generation unit 82 selects the nth test pattern H (n) from the horizontal change patterns shown in FIG. 17A, and sets the test pattern H (n) to the test pattern H (n). change. Note that the test pattern generation unit 82 sequentially selects the test patterns H (2) having the smallest number of arrangements. When the selection of the test pattern in the horizontal direction is completed, the test pattern V (2) having the smallest number of arrangements is sequentially selected for the test pattern in the vertical direction (FIG. 17B).

ステップS78では、変更後のテストパターンH(n)に基づく投写映像110がカメラ20で撮像される。画像記憶部70は、その撮像画像を「画像B(n)」として保存する。   In step S78, the projected image 110 based on the changed test pattern H (n) is captured by the camera 20. The image storage unit 70 stores the captured image as “image B (n)”.

次に、差分検出部72は、画像記憶部70に保存されている画像Aおよび画像B(n)を比較することにより、画像Aと画像B(n)との差分を検出する(ステップS79)。差分検出部72は、ステップS76で推定されたスクリーン領域内に位置する画素に対して、画素ごとに画像Aおよび画像B(n)の差分値が所定の閾値以上となるか否かを判定する。そして、その判定結果を「0」または「1」で表記することにより、二値化された変動パターンを生成する。たとえば、差分値が所定の閾値以上となる画素については「0」とし、差分値が所定の閾値よりも小さい画素については「1」とする。そして、差分検出部72は、表示素子上での各画素の水平方向の位置を特定するための位置情報テーブルに、生成された変動パターンを記録する(ステップS80)。   Next, the difference detection unit 72 detects the difference between the image A and the image B (n) by comparing the image A and the image B (n) stored in the image storage unit 70 (step S79). . The difference detection unit 72 determines whether the difference value between the image A and the image B (n) is greater than or equal to a predetermined threshold for each pixel with respect to the pixel located in the screen region estimated in step S76. . Then, by expressing the determination result as “0” or “1”, a binarized variation pattern is generated. For example, “0” is set for pixels whose difference value is equal to or greater than a predetermined threshold, and “1” is set for pixels whose difference value is smaller than the predetermined threshold. Then, the difference detection unit 72 records the generated variation pattern in the position information table for specifying the horizontal position of each pixel on the display element (step S80).

図18に、表示素子上の画素の水平位置を特定するための位置情報テーブルを示す。位置情報テーブルでは、1つのテストパターンについて黒表示される画素が「0」として、白表示される画素が「1」として表記されるものとする。したがって、図17(a)で示したように、n=2のテストパターンH(2)から順にn=11のテストパターンH(11)までテストパターンを変更させることにより、各画素の水平位置は、2進数で表記された10桁の数値で表されることとなる。たとえば、画面の左端部に位置する画素は、各テストパターンで常に黒表示されるため、水平位置が[0000000000]で表され、画面の右端部に位置する画素は、各テストパターンで常に白表示されるため、水平位置が[1111111111]で表される。このように、表示素子上の各画素の水平位置は、互いに異なる10桁の数値で表すことができる。なお、図示は省略するが、各画素の垂直方向の位置についても同様に表すことができる。   FIG. 18 shows a position information table for specifying the horizontal position of the pixel on the display element. In the position information table, it is assumed that a pixel displayed in black for one test pattern is expressed as “0” and a pixel displayed in white is expressed as “1”. Therefore, as shown in FIG. 17A, by changing the test pattern from the test pattern H (2) of n = 2 to the test pattern H (11) of n = 11 in order, the horizontal position of each pixel is changed. It is represented by a 10-digit numerical value expressed in binary. For example, since the pixel located at the left end of the screen is always displayed in black in each test pattern, the horizontal position is represented by [0000000], and the pixel located at the right end of the screen is always displayed in white in each test pattern. Therefore, the horizontal position is represented by [1111111111]. As described above, the horizontal position of each pixel on the display element can be expressed by 10-digit numerical values different from each other. Although illustration is omitted, the vertical position of each pixel can be similarly expressed.

図16のステップS81では、テストパターン生成部82は、水平方向におけるテストパターンの変更が終了したか否かを判定する。水平方向におけるテストパターンの変更が終了していないとき(S81のNO判定時)には、ステップS77に戻り、(n+1)番目のテストパターンH(n+1)を選択する。そして、変更後のテストパターンに基づいて、ステップS78〜S80の処理を行なうことにより、変動パターンを更新させる。   In step S81 of FIG. 16, the test pattern generation unit 82 determines whether or not the test pattern change in the horizontal direction is finished. If the test pattern change in the horizontal direction has not been completed (NO in S81), the process returns to step S77, and the (n + 1) th test pattern H (n + 1) is selected. Then, based on the test pattern after the change, the variation pattern is updated by performing the processing of steps S78 to S80.

このようにして、水平方向におけるテストパターンの変更が終了したとき(S81のYES判定時)には、マスク情報生成部76は、位置情報テーブルを参照することにより、取得された変動パターンに基づいて、スクリーン領域の左端部および右端部に該当する表示素子上の画素の水平位置を決定する。   In this way, when the change of the test pattern in the horizontal direction is completed (when YES is determined in S81), the mask information generation unit 76 refers to the position information table and based on the acquired variation pattern. Then, the horizontal position of the pixel on the display element corresponding to the left end and the right end of the screen area is determined.

なお、垂直方向についてもステップS77〜S82の処理を行なうことにより、マスク情報生成部76は、スクリーン領域の上端部および下端部に該当する表示素子上の画素の垂直位置を決定する。そして、マスク情報生成部76は、決定された表示素子上の画素位置(水平画素位置および垂直画素位置)に基づいてマスク情報を生成する。マスク情報生成部76によって生成されたマスク情報がマスク情報記憶部78に保存されると、イニシャライズモードが終了し(ステップS08)、処理が最初に戻される。   Note that the mask information generation unit 76 determines the vertical positions of the pixels on the display element corresponding to the upper end and the lower end of the screen region by performing the processes of steps S77 to S82 also in the vertical direction. Then, the mask information generation unit 76 generates mask information based on the determined pixel position (horizontal pixel position and vertical pixel position) on the display element. When the mask information generated by the mask information generation unit 76 is stored in the mask information storage unit 78, the initialization mode ends (step S08), and the process returns to the beginning.

なお、上述した実施の形態3では、表示素子上の画素ごとの水平位置および垂直位置を特定する構成について説明したが、マスク情報に対して画素単位での精度を要求しない場合には、テストパターンの数を減らすことにより、2画素単位、または4画素単位といったブロック単位で水平位置および垂直位置を特定する構成としてもよい。かかる構成によれば、映像信号処理部における処理負荷が抑えられる。   In Embodiment 3 described above, the configuration for specifying the horizontal position and the vertical position for each pixel on the display element has been described. However, when the mask information does not require accuracy in units of pixels, the test pattern The horizontal position and the vertical position may be specified in units of blocks such as 2 pixels or 4 pixels by reducing the number of pixels. According to such a configuration, the processing load in the video signal processing unit can be suppressed.

[実施の形態4]
図19は、この発明の実施の形態4に係るプロジェクタの映像投写時の状態を示す図である。図20は、図19のB方向から見た状態を示す図である。
[Embodiment 4]
FIG. 19 is a diagram showing a state at the time of image projection of the projector according to Embodiment 4 of the present invention. FIG. 20 is a diagram showing a state viewed from the direction B of FIG.

図19および20を参照して、本実施の形態4に係るプロジェクタは、図1に示すプロジェクタに対して、タッチパネルを付加したモニタ200が設置されている点でのみ異なる。   Referring to FIGS. 19 and 20, the projector according to the fourth embodiment differs from projector shown in FIG. 1 only in that monitor 200 with a touch panel is installed.

タッチパネルを付加したモニタ200は、表示用のパネルとして、TFT(Thin Film Transistor)方式のLCD(Liquid Crystal Display)を採用している。また、タッチパネルは具体的には抵抗膜方式のタッチパネルを採用している。タッチパネルのXY方向に電圧を印加して、ユーザが指先またはペンによってタッチパネルの表面をタッチ操作(押圧操作)すると、操作した位置の電圧を分圧として取り出し、取り出した分圧をXY座標に変換して操作した位置を認識することができる。タッチパネルは、操作された位置に応じた信号(検出信号)を映像信号処理部60へ出力する。   The monitor 200 to which a touch panel is added employs a TFT (Thin Film Transistor) type LCD (Liquid Crystal Display) as a display panel. The touch panel specifically employs a resistive touch panel. When a voltage is applied in the XY direction of the touch panel and the user touches (presses) the surface of the touch panel with a fingertip or a pen, the voltage at the operated position is extracted as a partial pressure, and the extracted partial pressure is converted into XY coordinates. The position operated can be recognized. The touch panel outputs a signal (detection signal) corresponding to the operated position to the video signal processing unit 60.

なお、モニタ200の表示領域とタッチパネルの操作領域とは、同一の形状およびサイズに設定されており、タッチパネルは、その操作領域とモニタ200の表示領域とが重なり合うようにモニタ200に固定されている。このため、ユーザは、モニタ200に表示される画像の所望の位置をタッチ操作によって指示することができるとともに、入力映像上に手書きの画像を書き込むことが可能になっている。   The display area of the monitor 200 and the operation area of the touch panel are set to have the same shape and size, and the touch panel is fixed to the monitor 200 so that the operation area and the display area of the monitor 200 overlap. . For this reason, the user can instruct a desired position of the image displayed on the monitor 200 by a touch operation, and can write a handwritten image on the input video.

本実施の形態4に係るプロジェクタにおいて、映像信号処理部60は、タッチパネルから出力される検出信号に基づいてマスク情報を生成する。以下に、図21を参照して、本実施の形態4に係るプロジェクタにおける映像信号処理部60が実行する映像信号処理を説明する。この映像信号処理は、フレームごとに制御部90(図3)によって予め格納されたプログラムに従って実行される。   In the projector according to the fourth embodiment, the video signal processing unit 60 generates mask information based on the detection signal output from the touch panel. The video signal processing executed by the video signal processing unit 60 in the projector according to Embodiment 4 will be described below with reference to FIG. This video signal processing is executed according to a program stored in advance by the control unit 90 (FIG. 3) for each frame.

図21を参照して、まず制御部90は、ステップS01により、現在の動作モードがイニシャライズモードであるかどうかを判定する。   Referring to FIG. 21, first, control unit 90 determines whether or not the current operation mode is an initialization mode in step S01.

現在の動作モードがイニシャライズモードであるとき(S01のYES判定時)には、テストパターン生成部82は、全黒テストパターンを生成する。映像信号選択部84は、モード切替信号に応答して、生成された全黒テストパターンを表示素子40へ出力する。これにより、表示素子40では、光源30から射出された光が、全黒テストパターンに応じた映像光となり、投写光学系50によって投写面100に投写される(ステップS91)。   When the current operation mode is the initialization mode (when YES is determined in S01), the test pattern generation unit 82 generates an all black test pattern. The video signal selection unit 84 outputs the generated all black test pattern to the display element 40 in response to the mode switching signal. Thereby, in the display element 40, the light emitted from the light source 30 becomes image light corresponding to the all-black test pattern and is projected onto the projection plane 100 by the projection optical system 50 (step S91).

ステップS92では、全黒テストパターンに基づく投写映像110がカメラ20で撮像される。撮像画像は、モニタ200に背景画像として表示される。   In step S <b> 92, the projected image 110 based on the all black test pattern is captured by the camera 20. The captured image is displayed on the monitor 200 as a background image.

ユーザは、モニタ200に表示された撮像画像上でスクリーン領域を確認すると、このスクリーン領域を塗りつぶすように、ペン等によってタッチパネルの操作領域内をタッチ操作(描画)する(ステップS93)。制御部90は、その動作中、タッチパネルからの検出信号を定期的に監視しており、タッチパネルがタッチ操作されている場合には、操作された位置を検出信号によって認識するとともに、操作位置のXY座標を示す位置情報を、入力映像に合成するための画像を表す画像データを生成する描画制御部(図示せず)およびマスク情報生成部76に出力する。   When the user confirms the screen area on the captured image displayed on the monitor 200, the user touches (draws) the operation area of the touch panel with a pen or the like so as to fill the screen area (step S93). During the operation, the control unit 90 periodically monitors a detection signal from the touch panel. When the touch panel is touched, the control unit 90 recognizes the operated position based on the detection signal and also determines the XY of the operation position. Position information indicating the coordinates is output to a drawing control unit (not shown) and a mask information generation unit 76 that generate image data representing an image to be combined with the input video.

描画制御部は、制御部90から入力される位置情報に基づいて、入力映像上の当該位置情報が表す位置に、描画の軌跡を表す画像(描画画像)が重畳されるような映像データを生成する。これにより、全黒テストパターンに描画画像が重畳された合成画像が投写面100に投写される。   The drawing control unit generates video data based on the position information input from the control unit 90 so that an image (drawing image) representing a drawing locus is superimposed on the position represented by the position information on the input video. To do. As a result, a composite image in which the drawn image is superimposed on the all black test pattern is projected onto the projection plane 100.

マスク情報生成部76は、制御部90から入力される位置情報に基づいて、マスク情報を生成する。このとき、マスク情報生成部76は、制御部90から入力される位置情報によって描画領域を特定し、これをスクリーン領域と認識する。その後、マスク情報生成部76は、認識したスクリーン領域に基づいてマスク情報を生成する。具体的には、スクリーン領域内の位置(画素)を「1」とし、スクリーン領域外の位置(画素)を「0」として二値化したマスク情報を生成する。   The mask information generation unit 76 generates mask information based on the position information input from the control unit 90. At this time, the mask information generation unit 76 identifies the drawing area based on the position information input from the control unit 90, and recognizes this as a screen area. Thereafter, the mask information generation unit 76 generates mask information based on the recognized screen area. Specifically, the binarized mask information is generated with the position (pixel) in the screen area set to “1” and the position (pixel) outside the screen area set to “0”.

ステップS94では、再び全白テストパターンを投写面100に投写させる。このとき、マスク映像生成部80は、マスク情報生成部76で生成されたマスク情報に基づき、全白テストパターンを、その一部の領域を黒表示させるためのテストパターンに変換する。具体的には、マスク映像生成部80は、全白テストパターンとマスク情報とを、対応する画素ごとに論理積をとることにより、マスク情報が「0」とされている各画素の信号値を強制的に「0」に変換する。   In step S94, the all white test pattern is projected onto the projection plane 100 again. At this time, based on the mask information generated by the mask information generation unit 76, the mask video generation unit 80 converts the all white test pattern into a test pattern for displaying a partial area in black. Specifically, the mask video generation unit 80 calculates the signal value of each pixel in which the mask information is “0” by taking the logical product of the all white test pattern and the mask information for each corresponding pixel. Forced conversion to “0”.

ステップS95では、ユーザは、ステップS94において全白テストパターンを投写したときの投写映像110を見て、スクリーン領域以外に白表示された領域がないことを確認する。スクリーン領域以外に白表示領域がないことが確認されたとき(S95のYES判定時)には、マスク情報生成部76によって生成されたマスク情報がマスク情報記憶部78に保存され(ステップS97)、イニシャライズモードが終了する(ステップ08)。   In step S95, the user checks the projected image 110 when the all white test pattern is projected in step S94, and confirms that there is no white display area other than the screen area. When it is confirmed that there is no white display area other than the screen area (YES in S95), the mask information generated by the mask information generation unit 76 is stored in the mask information storage unit 78 (step S97). The initialization mode ends (step 08).

これに対して、全白テストパターンを投写したときの投写映像110を見て、スクリーン領域以外に白表示領域があることが確認されたとき(S95のNO判定時)には、ユーザは、描画画像を修正する(ステップS96)。   On the other hand, when it is confirmed that there is a white display area other than the screen area by looking at the projected image 110 when the all white test pattern is projected (NO in S95), the user draws The image is corrected (step S96).

描画画像の修正は、ユーザがモニタ200に表示されている背景画像を上下左右方向にシフトさせる、あるいは、背景画像を拡大縮小することにより行なわれる。以下に、図22〜図24を参照して、描画画像の具体的な修正の手順について説明する。   The drawing image is corrected by the user shifting the background image displayed on the monitor 200 in the vertical and horizontal directions, or by enlarging or reducing the background image. Hereinafter, a specific procedure for correcting a drawn image will be described with reference to FIGS.

図22(1),(2)は、モニタ200の表示領域(タッチパネルの操作領域)を示す図である。図22(1)には、全黒テストパターンを投写したときの撮像画像が背景画像として表示されている。ユーザがペン等を用いて図22(2)のラインL1に示すような軌跡でタッチパネル上に描画を行なうと、描画画像が背景画像に重畳された合成画像がモニタ200に表示される。また、映像信号処理部60が、描画画像が全黒テストパターンに合成されるようにデータ処理を施すことにより、描画画像が全黒テストパターンに重畳された合成画像が投写光学系50から投写面100に投写される。   22 (1) and 22 (2) are diagrams showing the display area (operation area of the touch panel) of the monitor 200. FIG. In FIG. 22 (1), a captured image when an all-black test pattern is projected is displayed as a background image. When the user draws on the touch panel using a pen or the like along a locus as indicated by a line L1 in FIG. 22B, a composite image in which the drawn image is superimposed on the background image is displayed on the monitor 200. Further, the video signal processing unit 60 performs data processing so that the drawn image is synthesized with the all-black test pattern, so that a synthesized image in which the drawn image is superimposed on the all-black test pattern is transferred from the projection optical system 50 to the projection surface. 100 is projected.

このとき、モニタ200に表示されているスクリーン120と、実際のスクリーン120とで位置およびサイズが一致している場合には、図23(A)に示すように、タッチパネルに対するタッチ操作の軌跡L1の位置およびサイズが、投写面100に投写される映像に正確に反映させることができる。一方、モニタ200に表示されているスクリーン120と、実際のスクリーン120とで位置およびサイズが一致していない場合には、たとえば、図23(B)に示すように、タッチ操作の軌跡L1の位置がモニタ200とスクリーン120との間でずれてしまい、タッチ操作の軌跡L1の位置およびサイズを、投写映像において正確に反映させることができない。   At this time, when the screen 120 displayed on the monitor 200 and the actual screen 120 have the same position and size, as shown in FIG. The position and size can be accurately reflected in the image projected on the projection plane 100. On the other hand, when the position and the size of the screen 120 displayed on the monitor 200 and the actual screen 120 do not match, for example, as shown in FIG. Is shifted between the monitor 200 and the screen 120, and the position and size of the locus L1 of the touch operation cannot be accurately reflected in the projected image.

そこで、図23(B)のような場合には、ユーザは、モニタ200の表示領域の外周部分に設けられている上下左右シフトボタンを操作することにより、背景画像を右方向にシフトさせる(図24(B)参照)。これにより、モニタ200に表示されているスクリーン120の位置と、実際のスクリーン120の位置とを一致させることができる。その後、図24(C)に示すように描画領域を消去(リセット)すると、ユーザは、再度スクリーン領域を塗りつぶすように、ペン等によってタッチパネルの操作領域内をタッチ操作(描画)する。   Therefore, in the case shown in FIG. 23B, the user shifts the background image to the right by operating the up / down / left / right shift buttons provided on the outer periphery of the display area of the monitor 200 (FIG. 23). 24 (B)). Thereby, the position of the screen 120 displayed on the monitor 200 and the actual position of the screen 120 can be matched. Thereafter, when the drawing area is erased (reset) as shown in FIG. 24C, the user performs a touch operation (drawing) in the operation area of the touch panel with a pen or the like so as to fill the screen area again.

再び図21を参照して、上述した方法によって、描画画像の修正が行なわれると(ステップS96)、ユーザは、モニタ200に表示された撮像画像上でスクリーン領域を確認し、このスクリーン領域を塗りつぶすように、ペン等によってタッチパネルの操作領域内をタッチ操作する(ステップS93)。   Referring to FIG. 21 again, when the drawn image is corrected by the above-described method (step S96), the user confirms the screen area on the captured image displayed on monitor 200 and fills this screen area. As described above, a touch operation is performed in the operation area of the touch panel with a pen or the like (step S93).

マスク情報生成部76は、制御部90から入力される位置情報に基づいて、マスク情報を生成する。その後、マスク情報を用いて変換された全白テストパターンを再び投写面100に投写させる。このときの投写映像110を見て、スクリーン領域以外に白表示された領域がないことが確認されたとき(S95のYES判定時)には、マスク情報生成部76によって生成されたマスク情報が最終的なマスク情報としてマスク情報記憶部78に保存され(ステップS97)、イニシャライズモードが終了する(ステップ08)。   The mask information generation unit 76 generates mask information based on the position information input from the control unit 90. Thereafter, the all white test pattern converted using the mask information is projected onto the projection plane 100 again. When it is confirmed from the projected image 110 at this time that there is no white display area other than the screen area (YES in S95), the mask information generated by the mask information generation unit 76 is final. Is stored in the mask information storage unit 78 as typical mask information (step S97), and the initialization mode ends (step 08).

以上に述べたように、この発明の実施の形態4によれば、タッチパネルのタッチ操作という容易な操作によってユーザはマスク情報をリアルタイムに生成することができる。そのため、マスク情報の生成を簡易かつ精度良く行なうことが可能となる。   As described above, according to the fourth embodiment of the present invention, the user can generate mask information in real time by an easy operation such as a touch operation on the touch panel. For this reason, the mask information can be generated easily and accurately.

[実施の形態5]
図25は、この発明の実施の形態5に係るプロジェクタの映像投写時の状態を示す図である。図26は、図25のB方向から見た状態を示す図である。
[Embodiment 5]
FIG. 25 is a diagram showing a state at the time of image projection of the projector according to Embodiment 5 of the present invention. FIG. 26 is a diagram showing a state viewed from the direction B of FIG.

図25および26を参照して、本実施の形態5に係るプロジェクタは、図1に示すプロジェクタに対して、カメラ20に代えて、外部入力部210を備える点でのみ異なる。   Referring to FIGS. 25 and 26, the projector according to the fifth embodiment is different from the projector shown in FIG. 1 only in that an external input unit 210 is provided instead of camera 20.

外部入力部210は、PCやカメラ等の外部の映像供給装置(図示せず)から入力される画像データを受信する。外部入力部210が受信する画像データには、PCが有するグラフィック演算処理によって作成された、スクリーン120の形状を示す二値化データや、カメラで撮像した画像データを基に作成された二値化データが含まれている。なお、外部の映像供給装置に代えて、プロジェクタ10が備えるメモリ用スロットから画像データを入力する構成としてもよい。映像信号処理部60は、後述するように、これらの二値化データに基づいてマスク情報を生成する。   The external input unit 210 receives image data input from an external video supply device (not shown) such as a PC or a camera. The image data received by the external input unit 210 includes binarization data created by graphic calculation processing of the PC and indicating the shape of the screen 120, and binarization created based on image data captured by the camera. Contains data. Instead of an external video supply device, image data may be input from a memory slot provided in the projector 10. As will be described later, the video signal processing unit 60 generates mask information based on these binarized data.

図27は、本実施の形態5に係るプロジェクタにおける映像信号処理部60が実行する映像信号処理ルーチンを説明するフローチャートである。この映像信号処理は、フレームごとに制御部90(図3)によって予め格納されたプログラムに従って実行される。   FIG. 27 is a flowchart illustrating a video signal processing routine executed by video signal processing unit 60 in the projector according to the fifth embodiment. This video signal processing is executed according to a program stored in advance by the control unit 90 (FIG. 3) for each frame.

図27を参照して、本実施の形態5に係るフローチャートは、図4のフローチャートにおけるステップS02〜S07を、ステップS101〜S106に変更した点でのみ異なる。   Referring to FIG. 27, the flowchart according to the fifth embodiment is different only in that steps S02 to S07 in the flowchart of FIG. 4 are changed to steps S101 to S106.

図27に示すように、まず制御部90は、ステップS01により、現在の動作モードがイニシャライズモードであるかどうかを判定する。現在の動作モードがイニシャライズモードであるとき(S01のYES判定時)には、マスク情報生成部76は、外部入力部210が受信した画像データを読み込む(ステップS101)。マスク情報生成部76は、読み込んだ画像データに基づいて、二値化されたマスク情報を生成する(ステップS102)。   As shown in FIG. 27, first, in step S01, the control unit 90 determines whether or not the current operation mode is the initialization mode. When the current operation mode is the initialization mode (when YES is determined in S01), the mask information generation unit 76 reads the image data received by the external input unit 210 (step S101). The mask information generation unit 76 generates binarized mask information based on the read image data (step S102).

次に、ステップS103により、再び全白テストパターンを投写面100に投写させる。このとき、マスク映像生成部80では、マスク情報生成部76で生成されたマスク情報に基づいて、全白テストパターンの一部の領域を黒表示させるためのテストパターンに変換する。具体的には、マスク映像生成部80は、全白テストパターンとマスク情報とを、対応する画素ごとに論理積をとることにより、マスク情報が「0」とされている各画素の信号値を強制的に「0」に変換する。   Next, in step S103, the all-white test pattern is again projected on the projection plane 100. At this time, the mask video generation unit 80 converts a part of the all-white test pattern into a test pattern for displaying black based on the mask information generated by the mask information generation unit 76. Specifically, the mask video generation unit 80 calculates the signal value of each pixel in which the mask information is “0” by taking the logical product of the all white test pattern and the mask information for each corresponding pixel. Forced conversion to “0”.

ステップS105では、ユーザは、ステップS103において全白テストパターンを投写したときの投写映像110を見て、スクリーン領域以外に白表示された領域がないことを確認する。スクリーン領域以外に白表示領域がないことが確認されたとき(S105のYES判定時)には、マスク情報生成部76によって生成されたマスク情報がマスク情報記憶部78に保存され(ステップS106)、イニシャライズモードが終了する(ステップ08)。   In step S105, the user confirms that there is no white display area other than the screen area by looking at the projected image 110 when the all white test pattern is projected in step S103. When it is confirmed that there is no white display area other than the screen area (YES in S105), the mask information generated by the mask information generation unit 76 is stored in the mask information storage unit 78 (step S106). The initialization mode ends (step 08).

これに対して、ユーザが、全白テストパターンを投写したときの投写映像110を見て、スクリーン領域以外に白表示領域があることが確認されたとき(S105のNO判定時)には、マスク情報の調整が行なわれる(ステップS104)。   On the other hand, when the user sees the projected image 110 when the all white test pattern is projected and confirms that there is a white display area other than the screen area (NO determination in S105), the mask is displayed. Information adjustment is performed (step S104).

マスク情報の調整は、ユーザが入力操作部に設けられた操作ボタンを操作することにより行なわれる。操作ボタンには、画像を拡大縮小させるための拡大縮小ボタンと、画像を上下左右方向にシフトさせるためのシフトボタンとが含まれる。ユーザは、全白テストパターンを投写したときの投写映像110を見ながら、これらのボタンを操作することにより、マスク情報の調整量を設定する。マスク情報生成部76は、設定された調整量に従って、マスク情報を調整することができる。投写面100には、調整後のマスク情報に基づいて一部の領域が黒表示となるように変換された全白テストパターンが投写される。このようにして、ステップS103〜S105の処理は、ステップS105においてスクリーン領域以外の領域に白表示された領域がないことが確認されるまで、繰り返し実行される。そして、スクリーン領域内に白表示領域が収まった状態でのマスク情報が、最終的なマスク情報としてマスク情報記憶部78に保存される(ステップS106)。   Adjustment of the mask information is performed by the user operating an operation button provided on the input operation unit. The operation buttons include an enlargement / reduction button for enlarging / reducing the image and a shift button for shifting the image vertically and horizontally. The user sets the mask information adjustment amount by operating these buttons while viewing the projected image 110 when the all white test pattern is projected. The mask information generation unit 76 can adjust the mask information according to the set adjustment amount. On the projection surface 100, an all white test pattern converted so that a part of the area is displayed in black based on the adjusted mask information is projected. In this way, the processes in steps S103 to S105 are repeatedly executed until it is confirmed in step S105 that there is no white display area other than the screen area. Then, the mask information with the white display area within the screen area is stored in the mask information storage unit 78 as final mask information (step S106).

なお、本実施の形態5では、全白テストパターンを投写させたときの投写映像に基づいて、マスク情報を調整する構成としたが、投写光学系50に搭載されているズーム機能やシフト機能を用いて投写映像の微調整を行なう構成としてもよい。この場合には、スクリーン領域内に白表示領域が収まるように、投写光学系50のシフト位置やズーム位置が調整される。   In the fifth embodiment, the mask information is adjusted based on the projection image when the all white test pattern is projected. However, the zoom function and shift function installed in the projection optical system 50 are used. It is also possible to employ a configuration in which the projected image is finely adjusted. In this case, the shift position and zoom position of the projection optical system 50 are adjusted so that the white display area is within the screen area.

以上に述べたように、この発明の実施の形態5によれば、マスク情報の生成は、外部入力部に与えられる画像データをベースとして行なわれる。そのため、映像信号処理の処理負荷が抑えられ、マスク情報の生成を簡易に行なうことが可能となる。   As described above, according to the fifth embodiment of the present invention, the mask information is generated based on the image data given to the external input unit. For this reason, the processing load of the video signal processing is suppressed, and the mask information can be easily generated.

なお、本実施の形態では、プロジェクタとして液晶プロジェクタを採用したが、これに限定されるものではない。たとえば、DLP(Digital Light Processing)(登録商標)方式のプロジェクタ等の他の方式のプロジェクタに本発明の技術を採用してもよい。   In this embodiment, a liquid crystal projector is used as the projector, but the present invention is not limited to this. For example, the technology of the present invention may be applied to other projectors such as a DLP (Digital Light Processing) (registered trademark) projector.

今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and is intended to include meanings equivalent to the scope of claims for patent and all modifications within the scope.

10 プロジェクタ、20 カメラ、30 光源、40 表示素子、50 投写光学系、60 映像信号処理部、70 画像記憶部、72 差分検出部、74 閾値制御部、76 マスク情報生成部、78 マスク情報記憶部、80 マスク映像生成部、82 テストパターン生成部、84 映像信号選択部、86 モード切替部、90 制御部、100 投写面、110 投写映像、120 スクリーン、200 モニタ、210 外部入力部、760 マスク情報生成回路、762 画素数変換部、764 歪補正部、766 画角歪情報記憶部。   DESCRIPTION OF SYMBOLS 10 Projector, 20 Cameras, 30 Light source, 40 Display element, 50 Projection optical system, 60 Image signal processing part, 70 Image storage part, 72 Difference detection part, 74 Threshold control part, 76 Mask information generation part, 78 Mask information storage part , 80 Mask image generation unit, 82 Test pattern generation unit, 84 Video signal selection unit, 86 Mode switching unit, 90 Control unit, 100 Projection plane, 110 Projected image, 120 screen, 200 Monitor, 210 External input unit, 760 Mask information Generation circuit, 762 pixel number conversion unit, 764 distortion correction unit, 766 angle-of-view distortion information storage unit.

Claims (6)

光源と、
入力された映像信号を変換して投写映像用の映像信号を生成する映像信号処理部と、
前記映像信号処理部により生成された映像信号に基づき、前記光源から出射された光を変調して映像光を生成する表示素子と、
前記表示素子で生成された映像光を投写面に投写する投写光学系とを備えた投写型映像表示装置であって、
前記投写面は、画像を表示しない非表示領域と、画像を表示する表示領域とを有し、
前記映像信号処理部は、
前記投写面における前記表示領域を示す表示領域情報を入力する表示領域情報入力手段と、
前記表示領域情報に基づき、前記非表示領域に対応させて映像光をマスクするためのマスク情報を生成するマスク情報生成手段と、
前記入力された映像信号を、前記マスク情報に基づき、前記非表示領域を黒表示させるためのマスク映像信号に変換するマスク映像生成手段とを含む、投写型映像表示装置。
A light source;
A video signal processing unit that converts an input video signal to generate a video signal for a projected video;
Based on the video signal generated by the video signal processing unit, a display element that modulates the light emitted from the light source to generate video light;
A projection-type image display device comprising: a projection optical system that projects image light generated by the display element onto a projection plane;
The projection surface has a non-display area that does not display an image and a display area that displays an image.
The video signal processor is
Display area information input means for inputting display area information indicating the display area on the projection plane;
Mask information generating means for generating mask information for masking image light in correspondence with the non-display area based on the display area information;
A projection-type video display device, comprising: a mask video generation unit that converts the input video signal into a mask video signal for displaying the non-display area in black based on the mask information.
前記映像信号処理部は、前記マスク映像生成手段により生成された前記マスク映像信号を前記表示素子に供給するマスクモードと、前記入力された映像信号をそのまま前記表示素子に供給する通常モードとを切替えて前記表示素子を動作させるためのモード切替手段をさらに含む、請求項1に記載の投写型映像表示装置。   The video signal processing unit switches between a mask mode in which the mask video signal generated by the mask video generation means is supplied to the display element and a normal mode in which the input video signal is directly supplied to the display element. The projection display apparatus according to claim 1, further comprising mode switching means for operating the display element. 前記表示領域入力手段は、テストパターンを前記投写面に投写させたときの投写映像を撮像して撮像画像を生成する撮像手段を含み、
前記マスク情報生成手段は、明るさが異なる複数のテストパターンを前記投写面に投写させたときに前記撮像手段によって生成される複数の撮像画像の差分値と、所定の閾値とを比較し、該比較結果に基づいて前記マスク情報を生成し、
前記所定の閾値は、前記投写面が設置される環境に応じて変更可能に構成される、請求項1に記載の投写型映像表示装置。
The display area input unit includes an imaging unit that captures a projected image when a test pattern is projected on the projection plane and generates a captured image;
The mask information generation means compares a difference value between a plurality of captured images generated by the imaging means when a plurality of test patterns having different brightness are projected on the projection plane, and a predetermined threshold value, Generating the mask information based on the comparison result;
The projection display apparatus according to claim 1, wherein the predetermined threshold is configured to be changeable according to an environment in which the projection plane is installed.
前記投写面に投写された画像の表示位置をシフトさせる、または表示サイズを変更させるための画像調整手段をさらに備え、
前記マスク情報生成手段は、前記マスク映像信号に基づく映像光を前記投写面に投写させたときに、前記画像調整手段によって指定される画像の調整量に基づいて、生成された前記マスク情報の微調整を行なうためのマスク情報調整手段を含む、請求項1に記載の投写型映像表示装置。
Image adjustment means for shifting the display position of the image projected on the projection surface or changing the display size;
The mask information generation unit is configured to finely generate the mask information generated based on an image adjustment amount specified by the image adjustment unit when image light based on the mask video signal is projected onto the projection plane. The projection display apparatus according to claim 1, further comprising a mask information adjusting unit for performing adjustment.
前記表示領域入力手段は、テストパターンを前記投写面に投写させたときの投写映像を撮像して撮像画像を生成する撮像手段を含み、
前記映像信号処理部は、
画面全体を単色表示とする第1のテストパターンと、画面を複数の画素ブロックに分割して画素ブロック単位で前記第1のテストパターンから明るさを変更させた第2のテストパターンとを生成するテストパターン生成手段をさらに含み、
前記マスク情報生成手段は、前記第1のテストパターンを前記投写面に投写させたときに前記撮像手段によって生成される第1の撮像画像と、前記第2のテストパターンを前記投写面に投写させたときに前記撮像手段によって生成される第2の撮像画像との差分値に基づいて、画素ブロック単位で前記マスク情報を生成する、請求項1に記載の投写型映像表示装置。
The display area input unit includes an imaging unit that captures a projected image when a test pattern is projected onto the projection plane and generates a captured image;
The video signal processor is
A first test pattern in which the entire screen is displayed in a single color and a second test pattern in which the screen is divided into a plurality of pixel blocks and the brightness is changed from the first test pattern in units of pixel blocks are generated. A test pattern generating means;
The mask information generation unit projects the first captured image generated by the imaging unit when the first test pattern is projected onto the projection plane and the second test pattern onto the projection plane. 2. The projection display apparatus according to claim 1, wherein the mask information is generated in units of pixel blocks based on a difference value from the second captured image generated by the imaging unit when the image information is generated.
前記表示領域入力手段は、テストパターンを前記投写面に投写させたときの投写映像を撮像して撮像画像を生成する撮像手段を含み、
前記映像信号処理部は、
表示画面の所定方向に沿って交互に配置された、互いに明るさの異なる第1の領域と第2の領域とを有するテストパターンを生成するテストパターン生成手段をさらに含み、
前記テストパターン生成手段は、表示画面上に配置される前記第1および第2の領域の配置数を異ならせることにより複数のテストパターンを生成するとともに、生成された前記複数のテストパターンに基づいて、表示画面の各画素の前記所定方向の位置を特定し、
前記マスク情報生成手段は、前記複数のテストパターンを前記投写面に投写させたときに前記撮像手段によって生成される複数の撮像画像の差分値と、各画素の前記所定方向の位置とに基づいて、前記マスク情報を生成する、請求項1に記載の投写型映像表示装置。
The display area input unit includes an imaging unit that captures a projected image when a test pattern is projected on the projection plane and generates a captured image;
The video signal processor is
Test pattern generating means for generating a test pattern having a first area and a second area, which are alternately arranged along a predetermined direction of the display screen and have different brightness,
The test pattern generation means generates a plurality of test patterns by changing the number of the first and second regions arranged on the display screen, and based on the generated plurality of test patterns Identify the position of each pixel on the display screen in the predetermined direction,
The mask information generation means is based on a difference value between a plurality of captured images generated by the imaging means when the plurality of test patterns are projected on the projection plane, and a position of each pixel in the predetermined direction. The projection display apparatus according to claim 1, wherein the mask information is generated.
JP2009233352A 2009-10-07 2009-10-07 Projection graphic display device Withdrawn JP2011082798A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009233352A JP2011082798A (en) 2009-10-07 2009-10-07 Projection graphic display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009233352A JP2011082798A (en) 2009-10-07 2009-10-07 Projection graphic display device

Publications (1)

Publication Number Publication Date
JP2011082798A true JP2011082798A (en) 2011-04-21

Family

ID=44076393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009233352A Withdrawn JP2011082798A (en) 2009-10-07 2009-10-07 Projection graphic display device

Country Status (1)

Country Link
JP (1) JP2011082798A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089242A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, video data correction method and program
JP2014089261A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, program and image processing method
JP2015060197A (en) * 2013-09-20 2015-03-30 カシオ計算機株式会社 Projection device, projection control method, and program
JP2015060190A (en) * 2013-09-20 2015-03-30 カシオ計算機株式会社 Projection device, projection control method, and program
WO2016103871A1 (en) * 2014-12-25 2016-06-30 シャープ株式会社 Display device and control method therefor
JP2018023112A (en) * 2017-08-09 2018-02-08 カシオ計算機株式会社 Image output device, image output method and program
US20190043444A1 (en) * 2017-08-07 2019-02-07 Seiko Epson Corporation Display device and control method for display device
JP2020014075A (en) * 2018-07-17 2020-01-23 恵 志水 Image projection system, image projection method, and program
WO2021203257A1 (en) 2020-04-08 2021-10-14 Qualcomm Incorporated Generating dynamic virtual mask layers for cutout regions of display panels
CN114173101A (en) * 2020-09-10 2022-03-11 优派国际股份有限公司 Projection device and projection method
WO2023000937A1 (en) * 2021-07-21 2023-01-26 青岛海信激光显示股份有限公司 Projection device, and projected image correction method
WO2023151067A1 (en) * 2022-02-14 2023-08-17 Qualcomm Incorporated Display mask layer generation and runtime adjustment
US12080203B2 (en) 2021-03-01 2024-09-03 Seiko Epson Corporation Projection image displaying method and a non-transitory computer-readable storage medium storing program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089261A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, program and image processing method
JP2014089242A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, video data correction method and program
JP2015060197A (en) * 2013-09-20 2015-03-30 カシオ計算機株式会社 Projection device, projection control method, and program
JP2015060190A (en) * 2013-09-20 2015-03-30 カシオ計算機株式会社 Projection device, projection control method, and program
WO2016103871A1 (en) * 2014-12-25 2016-06-30 シャープ株式会社 Display device and control method therefor
US10297229B2 (en) 2014-12-25 2019-05-21 Sharp Kabushiki Kaisha Display device and control method therefor
US10657925B2 (en) 2017-08-07 2020-05-19 Seiko Epson Corporation Display device and control method for conversion of luminance information
US20190043444A1 (en) * 2017-08-07 2019-02-07 Seiko Epson Corporation Display device and control method for display device
JP2018023112A (en) * 2017-08-09 2018-02-08 カシオ計算機株式会社 Image output device, image output method and program
JP2020014075A (en) * 2018-07-17 2020-01-23 恵 志水 Image projection system, image projection method, and program
WO2021203257A1 (en) 2020-04-08 2021-10-14 Qualcomm Incorporated Generating dynamic virtual mask layers for cutout regions of display panels
US12056881B2 (en) 2020-04-08 2024-08-06 Qualcomm Incorporated Generating dynamic virtual mask layers for cutout regions of display panels
CN114173101A (en) * 2020-09-10 2022-03-11 优派国际股份有限公司 Projection device and projection method
US12080203B2 (en) 2021-03-01 2024-09-03 Seiko Epson Corporation Projection image displaying method and a non-transitory computer-readable storage medium storing program
WO2023000937A1 (en) * 2021-07-21 2023-01-26 青岛海信激光显示股份有限公司 Projection device, and projected image correction method
WO2023151067A1 (en) * 2022-02-14 2023-08-17 Qualcomm Incorporated Display mask layer generation and runtime adjustment

Similar Documents

Publication Publication Date Title
JP2011082798A (en) Projection graphic display device
US7484855B2 (en) Image processing system, projector, computer-readable medium and image processing method
JP3846592B2 (en) Image processing system, projector, program, information storage medium, and image processing method
US10761624B2 (en) Display apparatus and method for controlling display apparatus
CN103279313B (en) Display device and display control method
US10431131B2 (en) Projector and control method for projector
JP5251202B2 (en) Distortion correction method for projected image of projector and projector
JP7338404B2 (en) Display system control method and control device
JP5509729B2 (en) Image display apparatus, image display method, and image processing apparatus
CN107817924B (en) Display device and control method of display device
JP2020042322A (en) Image display apparatus and control method thereof
JP4720595B2 (en) Projector, video projection method and program
JP2009036884A (en) Projection-type display device and display method
JP5205865B2 (en) Projection image shape distortion correction support system, projection image shape distortion correction support method, projector, and program
JP2005354171A (en) Image display apparatus
JP2014074825A (en) Projector and control method of projector
JP2011050053A (en) Method of setting display system, device of setting display system, and computer readable storage medium
JP2023043372A (en) Image display method and projector
WO2016157920A1 (en) Information processing device, information processing method, and program
JP2014072699A (en) Projection type display device and control method and program therefor
US11778150B2 (en) Image supply device, display system, and method for direct display of second image
US20230209026A1 (en) Projection method and projector
JP2010243870A (en) Projector and its control method
US20200145628A1 (en) Projection apparatus and correcting method of display image
JP2020098225A (en) Image extraction method and projector

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130108