JP4605189B2 - Video display apparatus and method - Google Patents

Video display apparatus and method Download PDF

Info

Publication number
JP4605189B2
JP4605189B2 JP2007184936A JP2007184936A JP4605189B2 JP 4605189 B2 JP4605189 B2 JP 4605189B2 JP 2007184936 A JP2007184936 A JP 2007184936A JP 2007184936 A JP2007184936 A JP 2007184936A JP 4605189 B2 JP4605189 B2 JP 4605189B2
Authority
JP
Japan
Prior art keywords
light
signal
video
unit
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007184936A
Other languages
Japanese (ja)
Other versions
JP2008003613A (en
Inventor
哲二郎 近藤
秀雄 中屋
裕二 奥村
勉 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007184936A priority Critical patent/JP4605189B2/en
Publication of JP2008003613A publication Critical patent/JP2008003613A/en
Application granted granted Critical
Publication of JP4605189B2 publication Critical patent/JP4605189B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、液晶プロジェクタ又はレーザ光プロジェクタ等の映像投射装置から投射される光を表示する映像表示装置及び方法に関する。   The present invention relates to an image display apparatus and method for displaying light projected from an image projection apparatus such as a liquid crystal projector or a laser light projector.

液晶プロジェクタ、レーザ光プロジェクタ及びフィルム映写機等の映像投射装置は、映像の大画面化が容易であり、これによってより臨場感を得易く、またより大人数で同時に映像を見られる等の特徴を有する。   Video projection devices such as liquid crystal projectors, laser light projectors, and film projectors have features such as being able to easily increase the screen size of the image, making it easier to get a sense of realism, and allowing a larger number of people to view the image simultaneously. .

しかし、一般に映像投射装置においては、大画面化に伴って光源の出力強度を増加させる必要があるが、これは必ずしも容易ではなく、大画面化を制約する要因の一つにもなっている。また、例えば屋外シアタ等、屋外での使用においては、周囲が十分に暗い状態で用いられるとは限らず、プロジェクタよりも自発光による映像の方が見易くて適当である。   However, in general, in an image projection apparatus, it is necessary to increase the output intensity of a light source as the screen size increases. However, this is not always easy and is one of the factors that restrict the screen size. In addition, when used outdoors such as outdoor theater, the surroundings are not always used in a sufficiently dark state, and a self-luminous image is easier to see than a projector and is appropriate.

このような問題に対し、従来、映像機又はプロジェクタにより投射した画像を明るく観察できるように、投写用スクリーンに輝度増幅機能を持たせた増幅発光スクリーンが特開平10−123622号公報に開示されている(以下、従来例という)。   Conventionally, an amplification light emitting screen in which a projection screen has a luminance amplification function so that an image projected by a video machine or a projector can be observed brightly is disclosed in Japanese Patent Laid-Open No. 10-123622. (Hereinafter referred to as a conventional example).

図14(a)及び(b)は、従来例に記載の増幅発光スクリーンを示す図であって、夫々1画素を拡大して示す側面図、及びスクリーンを示す正面図である。図14(a)に示すように、従来の増幅発光スクリーンの単位画素213は、投写される画像である信号光201を受光して電流に変換して増幅する受光素子203と、この受光素子203の一端に接続された導線204と、導線204の他端に接続され、受光素子203から増幅電流が供給される発光素子205と、発光素子205から発光される光の配光角度を調整して出力光207とするレンズ206と、受光素子203及び発光素子205にワイヤを介して接続された夫々マイナス側リード209及びプラス側リード208と、これらを格納するパッケージ210とから構成される。増幅発光スクリーン211は、図14(b)に示すように、画素213がマトリックス状に配列されたものである。   FIGS. 14A and 14B are diagrams showing an amplification light emitting screen described in a conventional example, and are a side view showing an enlarged pixel and a front view showing the screen. As shown in FIG. 14A, a unit pixel 213 of a conventional amplified light emitting screen receives a signal light 201 that is a projected image, converts it into a current, and amplifies it by means of a light receiving element 203. A conductive wire 204 connected to one end of the light source, a light emitting device 205 connected to the other end of the conductive wire 204 to which an amplification current is supplied from the light receiving device 203, and a light distribution angle of light emitted from the light emitting device 205. A lens 206 serving as output light 207, a negative lead 209 and a positive lead 208 connected to the light receiving element 203 and the light emitting element 205 through wires, and a package 210 for storing them, respectively. As shown in FIG. 14B, the amplified light emitting screen 211 has pixels 213 arranged in a matrix.

このように構成された従来例に記載の増幅発光スクリーンにおいては、特に高出力型でない通常の映写機及びプロジェクタ等の投写型画像機器による画像が大画面に明るく表示することができる。   In the amplified light emitting screen described in the conventional example configured as described above, an image obtained by a projection type imaging device such as a normal projector and a projector that is not a high output type can be displayed brightly on a large screen.

従来技術として、特許文献1には、結像された画像を画素毎に受光する受光素子と、受光素子からの光電出力に応じて点灯制御される発光素子からなるアクティブスクリーンが開示され、特許文献2には、受光素子と発光素子の間に、制御素子を介在させて時定数回路などを設けることが開示されている。   As a conventional technique, Patent Document 1 discloses an active screen including a light receiving element that receives a focused image for each pixel and a light emitting element that is controlled to be turned on according to a photoelectric output from the light receiving element. 2 discloses that a time constant circuit or the like is provided between a light receiving element and a light emitting element with a control element interposed.

特開平01−105989号公報Japanese Patent Laid-Open No. 01-105989 特開平10−123622号公報JP-A-10-123622

しかしながら、液晶プロジェクタ及びレーザ光プロジェクタ、並びに従来例においては、画素あるいは走査線のような離散化された情報の集合によって画像を構成することから、投影するスクリーンが大きくなるほど、即ち、大画面化するほど、画素間若しくは走査線間の隙間等の粗が目に付き易くなったり、又は精細さが低下したりする等の問題点がある。   However, in the liquid crystal projector, the laser light projector, and the conventional example, an image is configured by a set of discretized information such as pixels or scanning lines, so that the larger the screen to be projected, that is, the larger the screen. As a result, there is a problem that roughness such as a gap between pixels or scanning lines is likely to be noticed or the definition is lowered.

また、従来の自発型の映像表示装置においては、各画素に映像信号を供給する映像信号処理装置が接続されるが、大画面化又は高解像度化によって画素数が増加するほど、映像信号処理装置から各画素までの信号線の配線数が増大し、そのために装置の設置及びメンテナンスが大変であったり拡張性に欠けたりする等の問題点がある。   In addition, in the conventional spontaneous type video display device, a video signal processing device that supplies a video signal to each pixel is connected. However, as the number of pixels increases as the screen size increases or the resolution increases, the video signal processing device increases. As a result, the number of signal lines from each pixel to each pixel increases, which causes problems such as difficult installation and maintenance of the apparatus and lack of expandability.

本発明は、このような従来の実情に鑑みて提案されたものであり、大画面化されても高解像度且つ高精細であると共に十分な明るさの映像が表示可能な映像表示装置及び方法を提供することを目的とする。   The present invention has been proposed in view of such a conventional situation, and provides a video display device and method capable of displaying a high-resolution and high-definition and sufficiently bright video even when the screen is enlarged. The purpose is to provide.

上述した目的を達成するために、本発明に係る映像表示装置は、第1の映像信号に基づく光が表示面に投射され、この投射光から得られた信号を処理して自発光によって上記表示面に映像を表示する映像表示装置であって、上記表示面内に設けられ該表示面に投射される投射光を受光し該投射光に基づく信号を出力する複数の受光手段と、上記受光手段からの出力信号を補正処理して第2の映像信号を生成する複数の信号処理手段と、上記第2の映像信号に基づき発光する発光手段とを有し、各信号処理手段は、上記複数の信号処理手段のうちの他の信号処理手段に対応する上記受光手段からの出力信号も受信することを特徴とする。   In order to achieve the above-described object, the video display device according to the present invention projects light based on the first video signal onto the display surface, processes the signal obtained from the projection light, and performs self-emission to display the display. An image display device for displaying an image on a surface, a plurality of light receiving means provided in the display surface for receiving projection light projected on the display surface and outputting a signal based on the projection light, and the light receiving means And a plurality of signal processing means for generating a second video signal by correcting the output signal from the light source, and a light emitting means for emitting light based on the second video signal. An output signal from the light receiving means corresponding to the other signal processing means among the signal processing means is also received.

また、本発明に係る映像表示方法は、第1の映像信号に基づく光が表示面に投射され、この投射光から得られた信号を処理して自発光によって上記表示面に映像を表示する映像表示方法であって、上記表示面内に設けられた複数の受光手段において該表示面に投射される投射光を受光し該投射光に基づく信号を出力する受光工程と、上記受光工程において出力された出力信号を補正処理して第2の映像信号を複数の信号処理手段により生成する信号処理工程と、上記第2の映像信号に基づき発光する発光工程とを有し、各信号処理手段は、上記複数の信号処理手段のうちの他の信号処理手段に対応する上記受光手段からの出力信号も受信することを特徴とする。   The video display method according to the present invention is a video in which light based on a first video signal is projected on a display surface, a signal obtained from the projection light is processed and a video is displayed on the display surface by self-emission. A display method, in which a plurality of light receiving means provided in the display surface receives projection light projected on the display surface and outputs a signal based on the projection light, and is output in the light reception step. A signal processing step of correcting the output signal to generate a second video signal by a plurality of signal processing means, and a light emission step of emitting light based on the second video signal, each signal processing means, An output signal from the light receiving means corresponding to the other signal processing means among the plurality of signal processing means is also received.

本発明においては、表示面に投射された投射光に基づいて得られた信号を補正処理した第2の映像信号に基づき発光手段が発光して映像を表示するため、大画面化においても高解像度且つ高精細で十分な明るさの映像を呈示できる。   In the present invention, since the light emitting means emits light and displays an image based on the second video signal obtained by correcting the signal obtained based on the projection light projected on the display surface, high resolution is achieved even when the screen is enlarged. In addition, a high-definition and sufficiently bright image can be presented.

本発明によれば、第1の映像信号に基づく光が表示面に投射され、この投射光から得られた信号を処理して自発光によって上記表示面に映像を表示する映像表示装置であって、上記表示面内に設けられ該表示面に投射される投射光を受光し該投射光に基づく信号を出力する複数の受光手段と、上記受光手段からの出力信号を補正処理して第2の映像信号を生成する信号処理手段と、上記第2の映像信号に基づき発光する発光手段とを有し、各信号処理手段は、上記複数の信号処理手段のうちの他の信号処理手段に対応する上記受光手段からの出力信号も受信するので、発光手段による自発光により映像を表示するため、大画面化においても高解像度且つ高精細で十分な明るさの映像を呈示できる。   According to the present invention, there is provided a video display device in which light based on a first video signal is projected on a display surface, and a signal obtained from the projection light is processed to display a video on the display surface by self-emission. A plurality of light receiving means provided in the display surface for receiving the projection light projected on the display surface and outputting a signal based on the projection light; and correcting the output signal from the light receiving means to perform a second process A signal processing unit configured to generate a video signal; and a light emitting unit configured to emit light based on the second video signal. Each signal processing unit corresponds to another signal processing unit among the plurality of signal processing units. Since the output signal from the light receiving means is also received, an image is displayed by self-emission by the light emitting means, so that even with a large screen, a high resolution, high definition and sufficiently bright image can be presented.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

図1(a)及び(b)は、本発明の第1の実施の形態における映像表示装置を示す図であって、夫々スクリーンの一部を示す正面図及び図1(a)のA―A線における側面図である。   1A and 1B are diagrams showing a video display device according to the first embodiment of the present invention, each showing a front view showing a part of a screen and AA in FIG. 1A. It is a side view in a line.

図1(a)に示すように、本実施の形態の映像表示装置は、スクリーンの表面側からスクリーン上に投射装置によって第1の映像信号に基づく光が投射され、その投射光から得られた信号を補正処理して第1の映像信号より解像度が高い第2の映像信号を生成し、この第2の映像信号に基づき映像を再表示する映像表示装置であり、スクリーン1上にマトリックス状に設けられた複数の光透過手段である透過部2と、スクリーン1の裏面側10bにて光透過部2と対向する位置に設けられスクリーン1の表面側10aから投射された投射光3を受光する受光手段である受光部4と、受光部4が受光した投射光3に基づいて補正処理をして映像信号を生成する信号処理手段である信号処理部5と、信号処理部5から出力される映像信号をスクリーン1の裏面側10bから光として投射する光投射手段である投射部6とから構成されている。   As shown in FIG. 1A, the video display device according to the present embodiment is obtained from the projection light by projecting light based on the first video signal onto the screen from the surface side of the screen. A video display device that corrects a signal to generate a second video signal having a higher resolution than the first video signal, and redisplays the video based on the second video signal. A plurality of light transmitting means provided, and the projection light 3 projected from the front surface side 10a of the screen 1 provided at a position facing the light transmitting portion 2 on the back surface side 10b of the screen 1 are received. The light receiving unit 4 that is a light receiving unit, the signal processing unit 5 that is a signal processing unit that performs a correction process based on the projection light 3 received by the light receiving unit 4 and generates a video signal, and the signal processing unit 5 output the signal. Screen the video signal And a projection portion 6 which is a light projecting means for projecting a light from the back side 10b of the down 1.

光透過部2は、例えば、スクリーン1を貫通する微小な孔、又は貫通する孔に透明なガラス若しくは樹脂類を嵌め込んだもの等を使用することができる。あるいは、受光部4において検知するのに十分な光量が得られる場合には、スクリーン1におけるその部分を薄くしただけであってもよく、または他の部分と同一のままでもスクリーンの構造自体が光透過手段であると見做すこともできる。   As the light transmission part 2, for example, a minute hole penetrating the screen 1, or a material in which transparent glass or resin is fitted into the hole penetrating the screen 1 can be used. Alternatively, when a sufficient amount of light for detection by the light receiving unit 4 can be obtained, only that portion of the screen 1 may be thinned, or the screen structure itself is light even if it remains the same as other portions. It can also be regarded as a transmission means.

スクリーン1の表面側10aに投射された光3は、スクリーン1上に設けられた光透過部2を介し、スクリーン1の裏面側10bに設けられた受光部4において検知される。ここで、スクリーン1の表面側10aには、第1の映像信号が投射光3として投射されるものとしたが、この投射光3は、可視光に限らず、例えば赤外線及び紫外線等の不可視光を使用することもできる。また、受光部4の代わりに、受信部を設けて、無線によってデータ伝送することも可能である。   The light 3 projected on the front side 10 a of the screen 1 is detected by the light receiving unit 4 provided on the back side 10 b of the screen 1 through the light transmitting unit 2 provided on the screen 1. Here, the first video signal is projected as the projection light 3 on the surface side 10a of the screen 1. However, the projection light 3 is not limited to visible light, but is invisible light such as infrared rays and ultraviolet rays. Can also be used. Moreover, it is also possible to provide a receiving unit instead of the light receiving unit 4 and transmit data wirelessly.

受光部4は、スクリーン1の表面側10aにおける投射光3、又は後述する信号処理部5における具体的な処理に応じて異なり、例えば3原色(RGB)の光を併せて受光するもの、又は、例えばRGBの各色に対応して受光するものを個別に分けて配置したもの等とすることができる。   The light receiving unit 4 differs depending on the projection light 3 on the surface side 10a of the screen 1 or specific processing in the signal processing unit 5 described later, for example, receiving light of three primary colors (RGB), or For example, the received light corresponding to each color of RGB can be separately arranged.

受光部4の後段には光投射部6が設けられているが、受光部の出力信号は光投射部6の隙間6a又は光投射部6に設けた通路若しくは中継部6bを介し、受光部出力信号線4aにより、更に後段に設けられた信号処理部5,5,5(以下、任意の信号処理部を示すときは信号処理部5という。)に入力される。 Although the light projection unit 6 is provided at the subsequent stage of the light receiving unit 4, the output signal of the light receiving unit is output through the gap 6 a of the light projection unit 6 or the path provided in the light projection unit 6 or the relay unit 6 b. The signal line 4a is further input to signal processing units 5 2 , 5 5 , 5 8 (hereinafter referred to as the signal processing unit 5 when referring to an arbitrary signal processing unit) provided in the subsequent stage.

スクリーン1は、所定領域Pに区切られ、信号処理部5は、この各所定領域Pに対応して複数設けられており、1つの信号処理部5に対しては、所定領域Pに含まれる例えば16個の光透過部2を介して夫々16個の光受光部4にて受光された透過光3から得られた出力信号が入力されるものとすることができる。更に、各信号処理部5には、対応する所定領域だけではなく、近接する他の領域の受光部4が受光した投射光3からの出力信号も併せて入力される。例えば、領域P、P、Pに対応する信号処理回路5を、夫々信号処理部5、5、5としたとき、信号処理回路5には、領域Pに設けられる受光部4が受光した投射光3だけではなく、領域Pの周囲に隣接する領域P1〜4、領域P6〜9に設けられた受光部4からの出力信号も合わせて入力される。 Screen 1 is divided into a predetermined region P n, the signal processing unit 5 is provided in a plurality corresponding to the respective predetermined regions P n, for a single signal processing unit 5, a predetermined region P n The output signal obtained from the transmitted light 3 received by each of the 16 light receiving units 4 via, for example, 16 included light transmitting units 2 may be input. Furthermore, not only the corresponding predetermined area but also the output signal from the projection light 3 received by the light receiving parts 4 in other adjacent areas are input to each signal processing section 5 together. For example, the signal processing circuit 5 corresponding to the region P 2, P 5, P 8, when the respective signal processing unit 5 2, 5 5, 5 8, the signal processing circuit 5 5 is provided in the region P 5 Not only the projection light 3 received by the light receiving unit 4 but also the output signals from the light receiving units 4 provided in the regions P 1-4 and P 6-9 adjacent to the periphery of the region P 5 are input together.

信号処理部5は、入力された複数の受光部4からの出力信号を使用して、全体画像における一部分の領域を示す部分画像信号を合成し、この合成した部分画像信号に基づいて局所的な領域毎の信号処理を行い、高画質な映像信号を生成する。このように解像度を向上し、高画質な映像信号を生成する画像データ変換装置については後述する。また、スクリーン1の両面からの投射光によって適切な映像が生成されるような補正を考慮したものであってもよい。なお、1つの信号処理部5に入力する受光部4の出力の数、位置関係、並びに信号処理部5及び光投射部6の外枠の大きさ及び形状等については、図1に限定するものでは決してない。   The signal processing unit 5 uses the input output signals from the plurality of light receiving units 4 to synthesize a partial image signal indicating a partial region in the entire image, and based on the combined partial image signal, a local image signal is generated. Signal processing is performed for each region, and a high-quality video signal is generated. An image data conversion apparatus that improves the resolution and generates a high-quality video signal will be described later. Further, the correction may be made so that an appropriate video is generated by the projection light from both sides of the screen 1. Note that the number and position of the outputs of the light receiving unit 4 input to one signal processing unit 5 and the size and shape of the outer frame of the signal processing unit 5 and the light projection unit 6 are limited to those shown in FIG. Never.

信号処理部5の出力信号である第2の映像信号は、信号処理部出力信号線5aを介して受光部4と信号処理部5との間に設けられた光投射部6に入力される。これは、上記局所的な領域毎の映像をスクリーンの裏面側10bから投射するごく小規模なものである。その構成としては、例えば、LCDプロジェクタ及び各種レーザ光プロジェクタ並びにこれに準じたものが適用でき、スクリーン1の裏面側10bの光投射部6から投射された光7がスクリーン1の表面側10aに達するものであればよい。また、逆にスクリーン1については、その裏面側1bからの投射光7を完全に遮ることなく、スクリーン1の表面側10aに透過させられるものである必要がある。   The second video signal that is an output signal of the signal processing unit 5 is input to the light projection unit 6 provided between the light receiving unit 4 and the signal processing unit 5 via the signal processing unit output signal line 5a. This is a very small scale projecting the image for each local area from the back side 10b of the screen. As the configuration, for example, an LCD projector, various laser light projectors, and the like can be applied, and the light 7 projected from the light projection unit 6 on the back side 10b of the screen 1 reaches the front side 10a of the screen 1. Anything is acceptable. On the other hand, the screen 1 needs to be transmitted through the front surface side 10a of the screen 1 without completely blocking the projection light 7 from the back surface side 1b.

次に、図1に示す第1の実施の形態の変形例について説明する。図2は、本発明の第1の実施の形態の変形例を示す図である。なお、図2に示す本変形例において、図1に示す第1の実施の形態と同一構成要素には同一の符号を付してその詳細な説明は省略する。本変形例においては、上述の第1の実施の形態における小規模な映像表示装置(以下、小規模スクリーンという。)を、同一面上に複数個継ぎ合わせることで1つの大規模な映像表示装置(以下、大規模スクリーンという。)を構成するものである。   Next, a modification of the first embodiment shown in FIG. 1 will be described. FIG. 2 is a diagram showing a modification of the first embodiment of the present invention. In this modification shown in FIG. 2, the same components as those in the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted. In this modification, one large-scale video display device is obtained by joining a plurality of small-scale video display devices (hereinafter referred to as small-scale screens) in the first embodiment on the same plane. (Hereinafter referred to as a large-scale screen).

図2(a)に示すように、大規模スクリーン10は、図1に示すスクリーン1と同様に構成された9枚の小規模スクリーン1a〜1iから構成され、上述と同様に、大規模スクリーン10は複数の光透過部2を有し、各小規模スクリーン1a〜1iには例えば各m個の信号処理部5を配置するものとする。   As shown in FIG. 2A, the large-scale screen 10 is composed of nine small-scale screens 1a to 1i configured in the same manner as the screen 1 shown in FIG. Has a plurality of light transmission parts 2, and each of the small-scale screens 1a to 1i is provided with m signal processing parts 5, for example.

図2(b)は図2(a)の領域S1を拡大して側面からみた図である。図2(b)に示すように、大規模スクリーン10の裏面側10bにおける光透過部2に対向する位置には、受光部4が設けられ、受光部4は受光部出力信号線4aを介して信号処理部5に接続されている。信号処理部5には、上述したように、隣接する領域における受光部4からの複数の出力信号が入力されている。   FIG. 2B is an enlarged view of the region S1 of FIG. As shown in FIG. 2B, a light receiving portion 4 is provided at a position facing the light transmitting portion 2 on the back surface side 10b of the large-scale screen 10, and the light receiving portion 4 is connected via a light receiving portion output signal line 4a. It is connected to the signal processing unit 5. As described above, the signal processing unit 5 receives a plurality of output signals from the light receiving unit 4 in adjacent regions.

第1の実施の形態において、1つの受光部からの出力信号が、その受光部が設けられスクリーンの所定領域に対応する信号処理部に入力されるだけでなく、該信号処理部5に隣接又は近接する複数の信号処理部5に入力されていたのと同様、本変形例の映像表示装置においても、必要とされる受光部4からの出力信号を小規模スクリーン1a〜1iの境界部11周辺に配置される信号処理部5に入力する。このため、小規模スクリーン1a〜1iの境界部11周辺に配置される信号処理部5を相互に接続する必要がある。そこで各小規模スクリーン1a〜1iの境界部分には、上記相互接続のためのインターフェース部12を設ける。大規模スクリーン10の端においては相互接続は不要であるが、その場合には入力端及び出力端共に適切な終端処理を行う。これにより、小規模スクリーン1a〜1i間をこのインターフェース下部12により相互に接続するのみで、容易に大規模スクリーン10を形成することができると共に、メンテナンス等に極めて便利である。   In the first embodiment, an output signal from one light receiving unit is not only input to a signal processing unit provided with the light receiving unit and corresponding to a predetermined area of the screen, but also adjacent to the signal processing unit 5 or Similarly to the case where the signals are input to the plurality of adjacent signal processing units 5, in the video display device according to the present modification, the output signals from the light receiving unit 4 that are required are transmitted around the boundary 11 of the small-scale screens 1 a to 1 i. To the signal processing unit 5 arranged in For this reason, it is necessary to mutually connect the signal processing units 5 arranged around the boundary 11 of the small-scale screens 1a to 1i. Therefore, an interface unit 12 for the interconnection is provided at the boundary between the small-scale screens 1a to 1i. No interconnection is required at the end of the large-scale screen 10, but in that case, appropriate termination processing is performed on both the input end and the output end. Thus, the large-scale screen 10 can be easily formed by simply connecting the small-scale screens 1a to 1i to each other by the interface lower portion 12, and it is very convenient for maintenance and the like.

なお、図2においては9枚の小規模スクリーン1a〜1iによって1枚の相似形の大規模スクリーン10を構成しているが、使用する小規模スクリーン1a〜1iの枚数、これらにより構成される大規模スクリーン10及び個々の小規模スクリーン1a〜1iの形状及び大きさ等については同図に従う必要は全くなく、小規模スクリーン1a〜1iにインターフェース部を設け、隣接する小規模スクリーン1a〜1iの間における信号線の相互接続が行われるものであれば基本的に自由に構成することができる。   In FIG. 2, one similar large-scale screen 10 is constituted by nine small-scale screens 1a to 1i. However, the number of small-scale screens 1a to 1i to be used is large. The shape and size of the scale screen 10 and the individual small-scale screens 1a to 1i do not have to follow the same figure, and an interface unit is provided in the small-scale screens 1a to 1i so that the space between the adjacent small-scale screens 1a to 1i Basically, it can be freely configured as long as the signal lines are interconnected.

次に、本発明の第1の実施の形態及びその変形例における信号処理部について更に詳細に説明する。1つの信号処理部では、スクリーンの所定領域に対応する部分的な第2の映像信号が生成され、スクリーン上での表示画素となる複数の投射部6のうち、この所定領域に配置される投射部6に上記部分的な領域の映像信号が供給される。第1の映像信号に基づく光を受光部にて受光し、この受光部からの出力信号から第1の映像信号より解像度が高い高精細な第2の映像信号を生成する信号処理部5として、本願発明者等が先に出願した例えば特開2000−125268号公報等に記載された画像データ変換装置を使用することができ、受光部4からの出力信号に基づき、補正処理を行って、例えば、1つの受光部4に対して、4×4画素の信号を生成して、1:(4×4)の高解像度化を行う。   Next, the signal processing unit in the first embodiment of the present invention and its modification will be described in more detail. In one signal processing unit, a partial second video signal corresponding to a predetermined area of the screen is generated, and projections arranged in this predetermined area among a plurality of projection units 6 serving as display pixels on the screen. The video signal of the partial area is supplied to the unit 6. As the signal processing unit 5 that receives light based on the first video signal at the light receiving unit and generates a high-definition second video signal having a higher resolution than the first video signal from the output signal from the light receiving unit, The image data conversion device described in, for example, Japanese Patent Application Laid-Open No. 2000-125268 previously filed by the inventors of the present application can be used, and correction processing is performed based on the output signal from the light receiving unit 4, for example, A signal of 4 × 4 pixels is generated for one light receiving unit 4 to increase the resolution of 1: (4 × 4).

ここで、上記特開2000−125268号公報等においては、注目画素(生成画素)の周辺に位置する原画像の複数画素からクラスタップ及び予測タップを抽出するが、これに対応して、本実施の形態における1つの信号処理部は、1つの信号処理部5によって生成された部分的な第2の映像信号が供給される光投射部6が配置されるスクリーン1の所定領域(Pn)に含まれる受光部4の最外周に位置する受光部4よりも外側に設けられる受光部4による出力信号も入力され信号処理に使用する。即ち、1つの信号処理部5は、この信号処理部5からの第2の映像信号が供給される光投射部6が配置されるスクリーン1の所定領域に設けられた受光部4からの出力信号と共に、例えばこの信号処理部5に隣接する他の信号処理部5からの第2の映像信号が供給される光投射部6が配置されるスクリーン1の他の領域に設けられた受光部4からの出力信号が入力されて信号処理を行うものである。   Here, in the above Japanese Patent Laid-Open No. 2000-125268 and the like, class taps and prediction taps are extracted from a plurality of pixels of the original image located around the target pixel (generated pixel). One signal processing unit in the form is included in a predetermined region (Pn) of the screen 1 where the light projection unit 6 to which a partial second video signal generated by one signal processing unit 5 is supplied is arranged. An output signal from the light receiving unit 4 provided outside the light receiving unit 4 located on the outermost periphery of the light receiving unit 4 is also input and used for signal processing. That is, one signal processing unit 5 outputs an output signal from the light receiving unit 4 provided in a predetermined area of the screen 1 on which the light projection unit 6 to which the second video signal from the signal processing unit 5 is supplied is arranged. In addition, for example, from the light receiving unit 4 provided in another area of the screen 1 where the light projection unit 6 to which the second video signal from the other signal processing unit 5 adjacent to the signal processing unit 5 is supplied is arranged. The output signal is input and signal processing is performed.

図3に、スクリーン1の所定領域の光投射部6に対し部分的な画像信号を供給入力する本実施の形態における信号処理部のブロック図を示す。図3に示すように、信号処理部5は、画素に相当する各受光部からの出力信号S21が入力され、これらの出力信号S21を再構築して部分画像データS22を出力するデータ構築部21と、部分画像データS22が入力され、所定の領域の画像を切り出す第1及び第2の領域切出部22a、22bと、第1の領域切出部22aにより切り出されたデータ(所定の受光部からの出力信号)S23からクラスコードS24を生成するクラスコード生成部23と、クラスコード生成部23から供給されるクラスコードS24の予測係数データS25を読み出す予測係数ROM(Read Only Memory)24と、第2の領域切出部22bにより切り出されたデータ(所定の受光部からの出力信号)S26及び予測係数ROM24により読み出された予測係数S25が入力され、予測演算を行って画像データS27を生成する予測演算部25と、予測演算部25からの画像データS27が入力され、各画素(光投射部6)毎のデータに振り分けた各生成画素信号S28を出力する生成画素信号出力部26とから構成されている。   FIG. 3 is a block diagram of a signal processing unit in the present embodiment that supplies and inputs a partial image signal to the light projection unit 6 in a predetermined area of the screen 1. As shown in FIG. 3, the signal processing unit 5 receives an output signal S21 from each light receiving unit corresponding to a pixel, reconstructs the output signal S21, and outputs partial image data S22. The partial image data S22 is input, and the first and second region cutout portions 22a and 22b that cut out an image of a predetermined region, and the data cut out by the first region cutout portion 22a (predetermined light receiving portion) A class code generator 23 that generates a class code S24 from S23, a prediction coefficient ROM (Read Only Memory) 24 that reads prediction coefficient data S25 of the class code S24 supplied from the class code generator 23, Data (output signal from a predetermined light receiving unit) S26 cut out by the second region cutout part 22b and the prediction coefficient S read out by the prediction coefficient ROM 24 25, the prediction calculation unit 25 that performs the prediction calculation and generates the image data S27, and the image data S27 from the prediction calculation unit 25 are input, and the data is distributed to the data for each pixel (light projection unit 6). The generated pixel signal output unit 26 outputs the generated pixel signal S28.

データ構築部21は、各受光部からの出力信号S21を受ける入力バッファであり、ここで部分画像データS22を再構築する。このデータ構築部21は、必要に応じて(アナログ信号が入力される場合)、アナログ/ディジタル(A/D)変換器を含むものである。   The data construction unit 21 is an input buffer that receives the output signal S21 from each light receiving unit, and reconstructs the partial image data S22 here. The data construction unit 21 includes an analog / digital (A / D) converter as required (when an analog signal is input).

第1の領域切出部22aは、データ構築部21から部分画像データS22が入力され、部分画像データS22のうち、例えば、注目画素に対応する注目受光部及びこの注目画素を中心しとした複数の周辺画素に対応する上記注目受光部を中心とした周辺受光部でなる例えば合計7つの受光部をクラス分類用の画素(以下、これをクラスタップという。)に対応する受光部として設定し、これら7タップからの出力信号S23をクラスコード生成部23に供給する。以下、受光部を画素、受光部からの出力信号を画素値ともいう。   The first region cutout unit 22a receives the partial image data S22 from the data construction unit 21, and includes, for example, a target light receiving unit corresponding to the target pixel in the partial image data S22 and a plurality around the target pixel. For example, a total of seven light-receiving units composed of peripheral light-receiving units centered on the target light-receiving unit corresponding to the peripheral pixels are set as light-receiving units corresponding to pixels for class classification (hereinafter referred to as class taps), The output signal S23 from these 7 taps is supplied to the class code generator 23. Hereinafter, the light receiving unit is also referred to as a pixel, and the output signal from the light receiving unit is also referred to as a pixel value.

クラスコード生成部23は、供給されたクラスタップの信号レベル分布に基づいてクラスコードを生成する。クラスコードの生成方法としては、部分画像データS22が例えばパルス符号変調PCM(Pulse Code Modulation)データであるときは、このPCMデータをそのままクラスコードとして使用する方法や、いわゆるADRC(Adaptive Dynamic Range Coding)等のデータ圧縮方法を使用してクラス数を削減する方法等がる。このうちPCMデータをそのままクラスコードとする方法では、クラスタップとして8ビットのPCMデータを7タップ使用する場合、クラス数が256という膨大な数のクラス数に分類されることになり、実用上問題がある。 The class code generation unit 23 generates a class code based on the signal level distribution of the supplied class tap. As a method for generating the class code, when the partial image data S22 is, for example, pulse code modulation PCM (Pulse Code Modulation) data, a method of using this PCM data as a class code as it is, or so-called ADRC (Adaptive Dynamic Range Coding) There is a method of reducing the number of classes using a data compression method such as. In the method of the intact class code of these PCM data, when using 8-bit 7-tap the PCM data as a class tap, will be the number of classes are classified into several number of classes huge as 2 56, practically There's a problem.

そこで実際には、クラスコード生成部23は、ADRCのようなデータ圧縮処理(すなわち再量子化処理)を施すことによりクラス数を削減するようになされている。このADRCによるクラスコード生成方法は、注目画素を中心とする近傍領域内の数タップからADRCコードを下記式(1)によって求め、当該ADRCコードに基づいてクラスコードを生成する手法を用いている。   Therefore, in practice, the class code generation unit 23 reduces the number of classes by performing data compression processing (that is, requantization processing) such as ADRC. This class code generation method by ADRC uses a method of obtaining an ADRC code from the following taps in a neighboring area centered on the pixel of interest by the following formula (1) and generating a class code based on the ADRC code.

Figure 0004605189
Figure 0004605189

ここで、cはADRCコード、xは各クラスタップの入力画素値、MINは領域内にある各クラスタップの入力画素値のうちの最小画素値、DRは領域内のダイナミックレンジ(最大画素値と最小画素値との差分)、kは再量子化ビット数である。 Here, c i is an ADRC code, x i is an input pixel value of each class tap, MIN is a minimum pixel value among input pixel values of each class tap in the region, and DR is a dynamic range (maximum pixel in the region). Difference between the value and the minimum pixel value), k is the number of requantization bits.

すなわち、ADRCによる分類法は、領域内のダイナミックレンジから再量子化ビット数に応じた量子化ステップ幅を算出し、入力画素値から最小画素値を減算した画素値を量子化ステップ幅に応じて再量子化するものである。例えば領域内の7タップにおいて、各クラスタップを1ビットに再量子化する1ビットADRCを行う場合では、領域内のダイナミックレンジに基づいて7タップの各入力画素値を適応的に1ビット量子化し、その結果、7タップの入力画素値を7ビットのデータに削減することができるので、全体としてクラス数を128クラスにまで削減することができる。   That is, in the classification method based on ADRC, a quantization step width corresponding to the number of requantization bits is calculated from the dynamic range in the region, and a pixel value obtained by subtracting the minimum pixel value from the input pixel value is determined according to the quantization step width. Requantize. For example, in the case of performing 1-bit ADRC in which each class tap is re-quantized to 1 bit in 7 taps in the region, each input pixel value of 7 taps is adaptively 1-bit quantized based on the dynamic range in the region. As a result, since the input pixel value of 7 taps can be reduced to 7-bit data, the number of classes as a whole can be reduced to 128 classes.

図3に戻って、予測係数ROM24は、後述する学習回路30によって予め生成された各クラス毎に対応する予測係数データを格納しており、クラスコード生成部23から供給されるクラスコードS24に応じた予測係数データS25を読み出し、これを予測演算部25に送出する。   Returning to FIG. 3, the prediction coefficient ROM 24 stores prediction coefficient data corresponding to each class generated in advance by the learning circuit 30 described later, and corresponds to the class code S24 supplied from the class code generation unit 23. The prediction coefficient data S25 is read out and sent to the prediction calculation unit 25.

第2の領域切出部22bは、データ構築部21から入力される部分画像データS22のうち、注目画素に対応する注目受光部及びこの注目画素を中心とした複数の周辺画素に対応する上記注目受光部を中心とした周辺受光部でなる例えば合計13タップを予測演算用の画素に対応する受光部として選定し(以下、これを予測タップと呼ぶ)、この受光部からの出力信号(画素値)S26を予測演算部25に供給する。   The second region cutout unit 22b includes the target light receiving unit corresponding to the target pixel and the target target corresponding to the plurality of peripheral pixels centered on the target pixel in the partial image data S22 input from the data construction unit 21. For example, a total of 13 taps composed of peripheral light receiving parts centered on the light receiving part are selected as light receiving parts corresponding to prediction calculation pixels (hereinafter referred to as prediction taps), and an output signal (pixel value) from the light receiving part is selected. ) S26 is supplied to the prediction calculation unit 25.

予測演算部25は、第2の領域切出部22bから供給された予測タップの各画素値S26と、予測係数ROM24から供給された予測係数データS25とを用いて、線形一次結合でなる下記式(2)によって表される積和演算を行うことにより、予測タップには存在しない例えば高解像度HD(High Definition)の画素の集まりであるHD画像データ等、より解像度が高い高画質な画像データを生成し、これを生成画素信号出力部26に出力する。   The prediction calculation unit 25 uses the linear taps for each pixel value S26 of the prediction tap supplied from the second region cutout unit 22b and the prediction coefficient data S25 supplied from the prediction coefficient ROM 24. By performing the product-sum operation represented by (2), high-resolution image data with higher resolution, such as HD image data that is a collection of high-resolution HD (High Definition) pixels, that does not exist in the prediction tap, for example. The generated pixel signal is output to the generated pixel signal output unit 26.

Figure 0004605189
Figure 0004605189

ここで、x’は高解像度画像の各画素値、xは各予測タップの画素値、wは予測係数、nは予測タップ数であり、この場合nは13である。 Here, x ′ is each pixel value of the high-resolution image, x i is the pixel value of each prediction tap, w i is the prediction coefficient, and n is the number of prediction taps. In this case, n is 13.

生成画素出力部26は、高解像度画像データから各画素に対応する画素信号を生成し、生成した画素信号を対応する光投射部へ出力するための出力バッファであり、各画素位置への振り分けを行う。この生成画素出力部26は、シリアルに出力してもよく、また、必要に応じてディジタル/アナログ(D/A)変換器を含むものである。   The generation pixel output unit 26 is an output buffer for generating a pixel signal corresponding to each pixel from the high-resolution image data, and outputting the generated pixel signal to the corresponding light projection unit, and distributing the pixel signal to each pixel position. Do. The generated pixel output unit 26 may output serially and includes a digital / analog (D / A) converter as necessary.

次に、予測係数ROM24に格納されている予測係数データを生成する学習回路について説明する。基本的に学習は、高解像度である教師画像と低域通過フィルタ(LPF)を通して解像度を投射画像相当に下げた生徒画像との間で行う。ただし、表示画素の位置及び投射光のスポット径等によっては、光投射部6から投射される表示光に対して、投射装置から投射光3が重畳するため、これを補正して表示するための画素信号の生成が必要であり、本実施の形態においてはこの補正を考慮した予測係数の生成を行う。   Next, a learning circuit that generates prediction coefficient data stored in the prediction coefficient ROM 24 will be described. Basically, learning is performed between a high-resolution teacher image and a student image whose resolution is reduced to a level corresponding to a projection image through a low-pass filter (LPF). However, since the projection light 3 is superimposed on the display light projected from the light projection unit 6 depending on the position of the display pixel and the spot diameter of the projection light, the display light is corrected and displayed. It is necessary to generate a pixel signal. In this embodiment, a prediction coefficient is generated in consideration of this correction.

図4は、本実施の形態の学習回路を示すブロック図である。学習回路30は、予測係数データを予め生成して、これを予測係数ROM24に格納するようになされている。学習回路30は、教師画像データS31が入力される垂直間引きフィルタLPF31と、教師画像データS31及びLPF31の通過後のデータS32から投射光重畳分を補正する投射光重畳補正部32と、LPF31の通過後データS32にノイズを重畳するノイズ重畳部33と、ノイズ重畳部33によりノイズが重畳された画像データ(生徒画像データ)S33からクラスタップ及び予測タップを選定する第1及び第2の領域切出部34a、34bと、第1の領域切出部34aから供給されたクラスタップの画素値S34に基づきクラスコードS35を生成するクラスコード生成部35と、第2の領域切出部34bから供給される予測タップの画素値S36、クラスコード生成部35から供給されるクラスコードS35、及び投射光重畳分補正部32から供給される画像データ(第2の教師画像データ)S36から正規方程式により予測係数を演算する正規方程式演算部36と、予測係数を決定する予測係数決定部37と、決定された予測係数データをクラスコードと共に格納するメモリ38とから構成される。   FIG. 4 is a block diagram showing the learning circuit of the present embodiment. The learning circuit 30 generates prediction coefficient data in advance and stores it in the prediction coefficient ROM 24. The learning circuit 30 includes a vertical decimation filter LPF 31 to which the teacher image data S 31 is input, a projection light superimposition correction unit 32 that corrects the projection light superimposition from the teacher image data S 31 and the data S 32 that has passed through the LPF 31, and the LPF 31. A noise superimposing unit 33 that superimposes noise on the post-data S32, and first and second region extractions that select a class tap and a prediction tap from the image data (student image data) S33 on which the noise is superimposed by the noise superimposing unit 33 Units 34a and 34b, a class code generation unit 35 that generates a class code S35 based on the pixel value S34 of the class tap supplied from the first region extraction unit 34a, and a second region extraction unit 34b. Prediction tap pixel value S36, class code S35 supplied from the class code generator 35, and projection light superimposition A normal equation calculation unit 36 for calculating a prediction coefficient from the image data (second teacher image data) S36 supplied from the correction unit 32 using a normal equation, a prediction coefficient determination unit 37 for determining a prediction coefficient, and the determined prediction And a memory 38 for storing the coefficient data together with the class code.

投射光重畳分補正部32は、生成画素位置に応じ、基本的には投射光の重畳分を元の教師画像データS31から差し引き、新たに教師画像データ(第2の教師画像データ)S37を生成して、この教師画像データS37から改めて学習を行うための補正を行う。   The projection light superimposition correction unit 32 basically subtracts the projection light superimposition from the original teacher image data S31 according to the generation pixel position, and newly generates teacher image data (second teacher image data) S37. Then, correction for performing learning again from the teacher image data S37 is performed.

投射光重畳の影響をより少なくするためには投射光は表示光よりも弱くすることが望ましい。しかし、この場合には、ノイズの影響が大きくなり得る。そのため、ノイズ重畳部33は、LPF31の通過後にノイズを重畳させた生徒画像データS33を生成し、この生徒画像データS33を使用して学習を行うことで、ノイズ抑圧の効果も有する予測係数を得る。   In order to reduce the influence of projection light superimposition, it is desirable that the projection light be weaker than the display light. However, in this case, the influence of noise can be large. Therefore, the noise superimposing unit 33 generates student image data S33 in which noise is superimposed after passing through the LPF 31, and performs learning using the student image data S33, thereby obtaining a prediction coefficient that also has a noise suppression effect. .

また、上述の図3に示す生成画素信号出力部26を、画素位置(投射部6の位置)に応じて重畳分を差し引いた補正を行う投射光重畳分補正機能を含めた構成としてもよい。この場合は、図4における投射光重畳分補正部32は削除可能である。   Further, the generated pixel signal output unit 26 shown in FIG. 3 described above may be configured to include a projection light superimposition correction function for performing correction by subtracting the superimposition according to the pixel position (position of the projection unit 6). In this case, the projection light superimposed correction unit 32 in FIG. 4 can be deleted.

更に、赤外線及び紫外線等の不可視光を使用する場合、並びに無線によってデータ伝送を行う場合等には、投射光の重畳は考慮しなくてもよく、少なくとも投射光重畳分補正部は削除することができる。   Furthermore, when invisible light such as infrared rays and ultraviolet rays is used, and when data is transmitted wirelessly, superimposition of projection light does not have to be considered, and at least the projection light superimposition correction unit may be deleted. it can.

第1の領域切出部34a、第2の領域切出部34b及びクラスコード生成部35は、図3に示す信号処理部における第1の領域切出部22a、第2の領域切出部22b及びクラスコード生成部23と同様の構成とすることができ、第1の領域切出部34aに入力される生徒画像データS33からクラスタップを選定し、クラスコード生成部35がクラスタップの信号レベル分布に基づいてクラスコードS34を生成した後、これを正規化方程式演算部36に送出する。また、第2の領域切出部34bは、生徒画像データS33から予測タップを選定し、正規化方程式演算部36に供給する。   The first region cutout unit 34a, the second region cutout unit 34b, and the class code generation unit 35 are the first region cutout unit 22a and the second region cutout unit 22b in the signal processing unit shown in FIG. And the class code generation unit 23, the class tap is selected from the student image data S33 input to the first region extraction unit 34a, and the class code generation unit 35 receives the signal level of the class tap. After generating the class code S34 based on the distribution, it is sent to the normalization equation calculator 36. The second region cutout unit 34 b selects a prediction tap from the student image data S <b> 33 and supplies it to the normalization equation calculation unit 36.

正規化方程式演算部36は、第2の教師画像データS37及び予測タップの画素値S36を基に、クラスコードS35が示すクラスに応じた予測係数をクラス毎に算出し、その結果得られた予測係数データS39をメモリ38に格納する。   The normalization equation calculation unit 36 calculates, for each class, a prediction coefficient corresponding to the class indicated by the class code S35 based on the second teacher image data S37 and the pixel value S36 of the prediction tap, and the prediction obtained as a result The coefficient data S39 is stored in the memory 38.

この場合、正規化方程式演算部36は、上記式(2)における予測係数wを最小自乗法によって求めるようになされている。具体的には正規方程式36は、Xを高解像度に変換する前の、相対的に解像度が低い画像(生徒画像)の画素値、Wを予測係数、Yを高解像度画像(第2の教師画像)の画素値として、いわゆる観測方程式と呼ばれる下記式(3)を生成するように各データを収集する。   In this case, the normalized equation calculation unit 36 is configured to obtain the prediction coefficient w in the above equation (2) by the method of least squares. Specifically, the normal equation 36 includes pixel values of a relatively low resolution image (student image), W is a prediction coefficient, and Y is a high resolution image (second teacher image) before X is converted to high resolution. ) Are collected so as to generate the following expression (3) called a so-called observation equation.

Figure 0004605189
Figure 0004605189

ここで、mは予測する高解像度画像の画素の画素数を示す学習データ数、nは予測タップ数である。   Here, m is the number of learning data indicating the number of pixels of the high-resolution image to be predicted, and n is the number of prediction taps.

次に正規方程式演算部36は、上記式(3)式を基に、下記式(4)に示す残差方程式を立てる。   Next, the normal equation calculation unit 36 establishes a residual equation shown in the following equation (4) based on the above equation (3).

Figure 0004605189
Figure 0004605189

従って各予測係数wは、上記式(4)から、下記式(5)が最小のときに最適な値となることがわかる。すなわち、下記式(6)を満たすように予測係数wが算出される。 Therefore, it can be seen from the above formula (4) that each prediction coefficient w i is an optimum value when the following formula (5) is minimum. That is, the prediction coefficient w i is calculated so as to satisfy the following formula (6).

Figure 0004605189
Figure 0004605189

Figure 0004605189
Figure 0004605189

そこで、正規方程式演算部36は、このn個ある上記式(6)式を満たすようなw、w、……、wを算出すればよいことになり、上記式(4)から、下記式(7)を得、これらの式(6)及び(7)から、下記式(8)を求める。 Therefore, the normal equation calculation unit 36 has only to calculate w 1 , w 2 ,..., W n that satisfy the above-described equation (6), and from the equation (4), The following formula (7) is obtained, and the following formula (8) is obtained from these formulas (6) and (7).

Figure 0004605189
Figure 0004605189

Figure 0004605189
Figure 0004605189

そして、正規方程式演算部36は、上記式(4)及び(8)式から、下記式(9)によって表される正規方程式を生成する。   Then, the normal equation calculation unit 36 generates a normal equation represented by the following equation (9) from the equations (4) and (8).

Figure 0004605189
Figure 0004605189

このようにして正規方程式演算部36は、予測タップ数nと同一次数の連立方程式でなる正規方程式を生成し、掃き出し法(Gauss Jordanの消去法)を用いてこの正規方程式を解くことにより、各予測係数wを算出する。予測係数決定部37は、各クラスコードに対応する予測係数wを決定し、これをメモリに送出する。 In this way, the normal equation calculation unit 36 generates a normal equation that is a simultaneous equation of the same order as the predicted tap number n, and solves this normal equation using the sweep-out method (Gauss Jordan elimination method). A prediction coefficient w i is calculated. The prediction coefficient determination unit 37 determines the prediction coefficient w i corresponding to each class code and sends it to the memory.

本実施の形態によれば、学習回路30にて、予め投射光重畳分を補正し、更にノイズ等を考慮した教師画像及び生徒画像から予測係数を学習し、信号処理部5にてこの学習した予測係数から画像データを推定して画素信号を生成することにより、投射光から得られる信号を信号処理部5にて補正すれば、スクリーン1上に極め精度が高く、高精細な映像を表示することができる。更に、小規模なスクリーンを複数枚用意し、この境界における信号処理部5にインターフェース部12を設けることにより、容易にスクリーンの大型化が図れ、かつ、部品交換等のメンテナンスに便利である。即ち、本実施の形態における小規模映像表示装置単位で映像表示装置をユーザに提供することができ、ユーザ側において、ユーザ自身の使用目的及びコスト等を考慮して、任意の個数の小規模映像表示装置のインターフェース部12同士を接続し、任意の大きさの映像表示装置を組み立てて使用することが可能となる。   According to the present embodiment, the learning circuit 30 corrects the projection light superimposition in advance, and further learns the prediction coefficient from the teacher image and student image in consideration of noise and the like, and the signal processing unit 5 learns the prediction coefficient. By estimating the image data from the prediction coefficient and generating a pixel signal, if the signal obtained from the projection light is corrected by the signal processing unit 5, a highly precise and high-definition image is displayed on the screen 1. be able to. Furthermore, by preparing a plurality of small screens and providing the interface unit 12 in the signal processing unit 5 at this boundary, the screen can be easily enlarged and convenient for maintenance such as component replacement. That is, the video display device can be provided to the user in units of the small video display device according to the present embodiment, and any number of small video images can be provided on the user side in consideration of the user's own purpose and cost. By connecting the interface units 12 of the display devices, it is possible to assemble and use a video display device of an arbitrary size.

以上のような本発明の第1の実施の形態においては、映像信号を映像投射装置によってスクリーン上に投射すると共に、スクリーン側においては、この投射光を受光し、受光した投射光に基づいて映像信号を造り直し、これをスクリーン裏面側から光投射手段によってスクリーン表面に投射することにより、大画面においても高画質で高輝度の映像表示を実現する。   In the first embodiment of the present invention as described above, the video signal is projected on the screen by the video projection device, and on the screen side, the projection light is received, and the video is based on the received projection light. By re-creating the signal and projecting it from the back side of the screen to the screen surface by the light projection means, high-quality and high-luminance video display is realized even on a large screen.

次に、本発明の第2の実施の形態において説明する。上述した第1の実施の形態及びその変形例においては、夫々スクリーン1及びスクリーン10に映像投射装置により映像を投射し、その投射光から得られた信号を処理して高精細な映像を再表示するものであったが、本実施の形態においては、映像投射装置において、投射する映像に付加データを付加することにより、表示側に設けられた上述の信号処理部における高精細化のための信号処理と共に、映像投射装置側においても高精細化のための信号処理を担わせるものである。   Next, a second embodiment of the present invention will be described. In the first embodiment and the modification described above, an image is projected onto the screen 1 and the screen 10 by the image projection device, and a signal obtained from the projection light is processed to re-display a high-definition image. However, in the present embodiment, in the video projection device, by adding additional data to the projected video, a signal for high definition in the above-described signal processing unit provided on the display side. Along with the processing, the video projection apparatus side is also responsible for signal processing for higher definition.

図5は、本発明の第2の実施の形態における映像投射装置を示すブロック図である。映像投射装置は入力端子を介して入力される元映像信号S41から高画質化用付加信号S42を生成する生成部41と、元映像信号S41及び高画質化用付加信号S42から合成映像信号S43を生成する合成映像信号生成部とから構成される映像信号処理部43と、合成映像信号S43をスクリーン(図示せず)表面に投射する映像信号投射部44とを有する。   FIG. 5 is a block diagram showing a video projection apparatus according to the second embodiment of the present invention. The video projection apparatus generates a high image quality additional signal S42 from an original video signal S41 input via an input terminal, and a synthesized video signal S43 from the original video signal S41 and the high image quality additional signal S42. A video signal processing unit 43 including a generated composite video signal generation unit and a video signal projection unit 44 that projects the composite video signal S43 on the surface of a screen (not shown).

即ち、上述の第1の実施の形態においては、元映像信号S41がそのまま投射されていたのに対し、本実施の形態においては、映像投射装置側に映像信号処理部を設け、高画質化を目的とした各種の付加的な信号を生成してこれを上記元映像信号に付加又は埋め込む等した合成映像信号を生成し、映像信号投射部において合成映像信号に基づいて変調した光をスクリーン表面側に投射する。   That is, in the first embodiment described above, the original video signal S41 is projected as it is, but in this embodiment, a video signal processing unit is provided on the video projection device side to improve image quality. Generates various desired additional signals and generates a composite video signal by adding or embedding it to the original video signal. The screen signal side modulates the light modulated based on the composite video signal in the video signal projection unit. Project to.

スクリーン側で、投射光を受光して再表示する映像表示装置においては、上述の第1の実施の形態とほぼ同様に構成されており、合成映像信号に基づいて投射された投射光を受光部にて受光し、この受光部からの出力信号に基づいて信号処理部が合成映像信号を生成する。この後述する信号処理部は、合成映像信号から付加データを分離し、分離した付加データに基づき、更に効率的かつ効果的に合成映像信号の高品質化処理を行うものである。   The video display device that receives and redisplays the projection light on the screen side is configured in substantially the same manner as the first embodiment described above, and receives the projection light projected based on the composite video signal. The signal processing unit generates a composite video signal based on the output signal from the light receiving unit. The signal processing unit, which will be described later, separates the additional data from the composite video signal, and performs a process for improving the quality of the composite video signal more efficiently and effectively based on the separated additional data.

上記付加データの付加方法については、後述するが、例えば、スクリーンに裏面側に設けられる信号処理部が担う処理領域内の部分画像に電子透しの技術を使用して付加データを埋め込む方法や、合成映像信号を生成することなく、元映像信号S41に基づいて投射し、この元映像信号41の投射とは別のタイミングで(好ましくは事前に)、かつ目では知覚し難い程度の弱い光によって投射する方法等を使用してもよい。更に、第1の実施の形態と同様に、スクリーンの裏面側に投射光を受光する受光部の代わりに受信部を設け、無線信号により付加信号及び映像信号を伝送するものとしてもよい。   The method of adding the additional data will be described later. For example, a method of embedding the additional data using a digital watermark technique in a partial image in a processing area provided by a signal processing unit provided on the back side of the screen, Without generating a composite video signal, projection is performed based on the original video signal S41, and at a timing different from the projection of the original video signal 41 (preferably in advance) and by weak light that is difficult to perceive by the eyes You may use the method of projecting. Further, similarly to the first embodiment, a receiving unit may be provided on the back side of the screen instead of the light receiving unit that receives the projection light, and the additional signal and the video signal may be transmitted by radio signals.

なお、スクリーン裏面側の信号処理部における信号処理に時間がかかるために、そのままでは特に動きの大きな動画像において、スクリーン表面側からの投射映像と同裏面側からの投射映像との時間的なずれが生じる場合は、例えば、上述した如く投射光の強度低減若しくは不可視光の使用、又は上述の信号処理部5における処理高速化等によって対処することができる。   In addition, since the signal processing in the signal processing unit on the back side of the screen takes time, in a moving image with a large movement as it is, the time lag between the projected video from the screen front side and the projected video from the back side. If this occurs, it can be dealt with, for example, by reducing the intensity of the projection light or using invisible light as described above, or by increasing the processing speed in the signal processing unit 5 described above.

また、映像投射装置40によるスクリーン表面側への合成信号を投射する際、可視光のみではなく、赤外線又は紫外線等の不可視光を使用してもよい。これにより、上記のスクリーン表面側への投射映像とスクリーン裏面側からの投射映像との時間的なズレの問題はなくなる。また、スクリーン裏面側からの投射光のみによって映像を表示するため、スクリーン両面側からの映像の合成における信号処理、即ち、スクリーンの裏面側の信号処理部にて生成される第2の映像信号は、スクリーン表面側に第1の映像信号に基づいて投射される映像を考慮する必要等があるが、このような信号処理における複雑さが軽減される。更に、映像投射装置40における構成の簡素化も図られる。   Moreover, when projecting the composite signal to the screen surface side by the video projection device 40, not only visible light but also invisible light such as infrared rays or ultraviolet rays may be used. This eliminates the problem of temporal deviation between the projected image on the screen surface side and the projected image from the screen back side. Further, since the image is displayed only by the projection light from the back side of the screen, the signal processing in the synthesis of the images from both sides of the screen, that is, the second video signal generated by the signal processing unit on the back side of the screen is Although it is necessary to consider the image projected on the screen surface side based on the first image signal, the complexity of such signal processing is reduced. Further, the configuration of the video projection device 40 can be simplified.

以下、本実施の形態においては、付加データとして動きベクトルを映像信号に付加する場合について説明する。先ず、本実施の形態の映像信号処理部43における高画質化用の付加データである動きベクトルの付加方法について説明する。付加データの付加方法として最も簡単なのは、付加データを単純に付加するものである。例えば、表示ユニットの大きさとブロック・マッチングにおけるブロックの大きさとを同じ8×8画素とした場合、探索範囲を64×64画素とすると、2(X及びY方向)×6bit=12bitのデータを8×8画素、即ち8×8個の受光部で受ける各画素データに分散して持たせることになる。この場合、1個の画素当たりに付加される付加データの大きさは、元の(8×8)×8=512bitよりも少ないデータ量となる。具体的には、図6に示すように、例えば8×8画素の画素ブロック45内において、予め決めた12個の画素46において1bitづつ付加データを付加させるものとする。また、プログレッシブに限らず、インタ・レース([8×4画素ブロック]×2)の場合でも同様に付加データを付加することができる。ここで、インタ・レースの場合は、1bitの付加データを有する画素46に加え、更に12個の付加データを持たせる画素47を追加する。その他の画素48は、付加データがない画素である。   Hereinafter, in the present embodiment, a case where a motion vector is added to a video signal as additional data will be described. First, a method for adding a motion vector, which is additional data for improving image quality, in the video signal processing unit 43 according to the present embodiment will be described. The simplest method for adding additional data is to simply add additional data. For example, if the display unit size and the block size in the block matching are the same 8 × 8 pixels, and the search range is 64 × 64 pixels, 2 (X and Y directions) × 6 bits = 12 bits of data is 8 Each pixel data received by × 8 pixels, that is, 8 × 8 light receiving portions, is distributed and held. In this case, the size of the additional data added per pixel is smaller than the original (8 × 8) × 8 = 512 bits. Specifically, as shown in FIG. 6, for example, in the pixel block 45 of 8 × 8 pixels, it is assumed that additional data is added by 1 bit in 12 predetermined pixels 46. Further, not only progressive but also additional data can be added in the case of interlace ([8 × 4 pixel block] × 2). Here, in the case of interlace, in addition to the pixel 46 having 1-bit additional data, a pixel 47 having 12 additional data is added. The other pixels 48 are pixels with no additional data.

図7(a)、(b)及び図7(d)、(e)は、夫々RGBの3×8=24bitのデータ及びYUV(Y:輝度信号、UV:色差信号)(4:2:2)の2×8=16bitの元映像信号S41の画素データ(以下、元データという。)及び元データに付加データを付加した画素の付加データを示す模式図である。図7(a)に示すのは、図6に示す1画素分のRGBにおける元データ、即ち、画素48におけるデータを示す。このような元データに対し、図7(b)に示すように、単純に1bitの付加データ(付加ビット)49aを追加して25bitとする。   FIGS. 7A, 7B, 7D, and 7E show RGB 3 × 8 = 24 bit data and YUV (Y: luminance signal, UV: color difference signal) (4: 2: 2), respectively. 2) is a schematic diagram showing pixel data (hereinafter referred to as original data) of the original video signal S41 of 2 × 8 = 16 bits and additional data of pixels obtained by adding additional data to the original data. FIG. 7A shows original data in RGB for one pixel shown in FIG. 6, that is, data in the pixel 48. As shown in FIG. 7B, 1-bit additional data (additional bit) 49a is simply added to such original data to obtain 25 bits.

また、図7(d)は、YUVにおける水平方向に隣接する2画素分の元データを示すもので、右図に示す画素が図6に示す1画素分の元データを示すものである。このような元データに対し、図7(e)の右図に示すように、単純に1bitの付加データ(付加ビット)49cを追加して17bitとする。図7(b)又は図7(e)に示す画素データが図6の画素46又は47の付加データありの画素である。   FIG. 7D shows the original data for two pixels adjacent in the horizontal direction in YUV, and the pixel shown in the right figure shows the original data for one pixel shown in FIG. As shown in the right diagram of FIG. 7E, 1-bit additional data (additional bit) 49c is simply added to such original data to make 17 bits. The pixel data shown in FIG. 7B or FIG. 7E is a pixel with additional data of the pixel 46 or 47 in FIG.

また、全ての画素においてビット長を揃えることで処理をより容易にすることもできるが、このとき全画素において1bit付加すれば、更に52bit又は40bitの付加データを付加可能である。   Further, the processing can be made easier by making the bit lengths uniform in all pixels, but if 1 bit is added in all pixels at this time, additional data of 52 bits or 40 bits can be added.

更に、元のデータに対してビット長を変えない場合、例えば、RGBであれば1画素が24bit、YUVであれば1画素が16bitの画素データに対し、何らかのデータ圧縮を行う。データ圧縮の方法は様々あるが、例えば単純に、視覚的に重要度が低いビット群を付加データの各ビットで置き換える方法等がある。図7(c)及び(f)は、付加データを置換付加した場合の画素データを示す図であって、夫々RGBの24bitの画素データ及びYUVの16bitの画素データを示す模式図である。図7(c)に示すように、RGBであれば、例えばB(Blue)の最階位ビットLSB(Least Significant Bit)を、また、図7(f)に示すように、YUV4:2:2であれば、例えば色差信号Vの最階位ビットLSBを、その画素ブロックにおける動きベクトルを表わす計12bitのデータの1つ(夫々付加ビット49b、付加ビット49d)と置き換える。そして、動きベクトルを示す計12bitのデータを8×8画素(8×8個の受光部で受ける各画素データ)に分散して伝送することができる。なお、MSBは最上位ビット(Most Significant Bit)を示す。   Further, when the bit length is not changed with respect to the original data, for example, some data compression is performed on pixel data of one pixel of 24 bits for RGB and one pixel of 16 bits for YUV. There are various data compression methods. For example, there is a method of simply replacing a bit group having low visual importance with each bit of the additional data. FIGS. 7C and 7F are diagrams showing pixel data when additional data is replaced and added, and are schematic diagrams showing RGB 24-bit pixel data and YUV 16-bit pixel data, respectively. As shown in FIG. 7C, for RGB, for example, the most significant bit LSB (Least Significant Bit) of B (Blue) is used, and as shown in FIG. 7F, YUV 4: 2: 2 is used. If so, for example, the most significant bit LSB of the color difference signal V is replaced with one of 12-bit data (additional bit 49b and additional bit 49d, respectively) representing the motion vector in the pixel block. Then, a total of 12-bit data indicating the motion vector can be distributed and transmitted to 8 × 8 pixels (each pixel data received by 8 × 8 light receiving units). MSB indicates the most significant bit.

スクリーンの裏面側に設けられる信号処理部では、動きベクトルを示す各ビットを分離して動きベクトルのデータを得、分離して空いたB又はYデータの最下位ビットには0又は1を機械的に割り当てることにより、8bitデータとして扱うことができる。   In the signal processing section provided on the back side of the screen, each bit indicating a motion vector is separated to obtain motion vector data, and 0 or 1 is mechanically assigned to the least significant bit of B or Y data which is separated and vacated. Can be handled as 8-bit data.

次に、本実施の形態における映像信号処理部43について更に詳細に説明する。映像信号処理部43は、動きベクトル検出を行ってその結果を元の画像信号に付加して合成信号を生成するが、この動きベクトルは、本願発明者等が先に出願した例えば特開2001−53981号公報に記載された動きベクトル検出装置等により検出することができる。   Next, the video signal processing unit 43 in the present embodiment will be described in more detail. The video signal processing unit 43 performs motion vector detection and adds the result to the original image signal to generate a composite signal. This motion vector is, for example, disclosed in Japanese Patent Application Laid-Open No. 2001-2001 filed earlier by the present inventors. It can be detected by a motion vector detection device described in Japanese Patent No. 53981.

即ち、動きベクトル検出装置は、画像信号内の注目画素および上記注目画素の周辺に位置する複数の画素を含む対象画素毎に、各対象画素を通り、時間方向に延びる直線上に位置する複数の画素を抽出する抽出手段と、各注目画素に対する各対象画素に対して、上記抽出手段によって直線の方向毎に抽出される複数の画素の画素値に基づいて、直線の方向毎に類似度を検出する類似度検出手段と、上記対象画素毎の上記直線の方向毎に検出された上記類似度に基づいて、上記注目画素に対する動きベクトルを算出する動きベクトル算出手段とを備えることにより、時空間内で注目フレーム内の複数の画素を通る複数の直線上に位置する複数のフレーム内の画素の画素値に基づいてなされる演算処理の結果に基づいて動きベクトルが算出される。   In other words, the motion vector detection device has a plurality of target pixels including a target pixel in an image signal and a plurality of pixels positioned around the target pixel, and each of the target pixels includes a plurality of pixels positioned on a straight line extending in the time direction. Extraction means for extracting pixels, and for each target pixel for each pixel of interest, similarity is detected for each straight line direction based on pixel values of a plurality of pixels extracted for each straight line direction by the extraction means. And a motion vector calculating means for calculating a motion vector for the target pixel based on the similarity detected for each direction of the straight line for each target pixel. The motion vector is calculated based on the result of the arithmetic processing performed based on the pixel values of the pixels in the plurality of frames located on the plurality of straight lines passing through the plurality of pixels in the target frame.

図8は、動きベクトルを検出して、この動きベクトルを元映像信号に付加して合成信号を生成する映像信号処理部を示すブロック図である。図8に示すように、映像信号処理部43は、元映像信号S41が入力され、動きベクトルS51,S52を検出する高画質化用付加信号生成部41と、動きベクトルS51,S52と元映像信号S41とが入力され、合成信号S44を生成する合成信号生成部42とから構成される。   FIG. 8 is a block diagram showing a video signal processing unit that detects a motion vector and adds the motion vector to the original video signal to generate a synthesized signal. As shown in FIG. 8, the video signal processing unit 43 receives the original video signal S41 and detects the motion vectors S51 and S52. The image quality processing additional signal generation unit 41 detects the motion vectors S51 and S52, and the motion vectors S51 and S52 and the original video signal. S41 is input, and it is comprised from the synthetic | combination signal generation part 42 which produces | generates synthetic | combination signal S44.

高画質化用付加信号生成部41は、フレームメモリ51〜53と、フレームメモリ51,52及び52,53からのフレームデータが入力されて夫々動きベクトルS51,S52を検出する夫々動きベクトル検出部54及び55とから構成される。   The additional signal generating unit 41 for improving image quality receives the frame data from the frame memories 51 to 53 and the frame memories 51, 52 and 52, 53, and detects the motion vectors S51 and S52, respectively. And 55.

先ず、ノイズを除去されるべき元映像信号S41がフレームメモリ51に供給される。フレームメモリ51には、フレームメモリ52、53がシフトレジスタ状に順次接続されている。これにより、フレームメモリ51、52、53には、時間的に連続する3個のフレームの画像データが記憶される。   First, the original video signal S41 from which noise is to be removed is supplied to the frame memory 51. Frame memories 52 and 53 are sequentially connected to the frame memory 51 in a shift register shape. As a result, the frame memories 51, 52, and 53 store the image data of three temporally continuous frames.

フレームメモリ51、52は、記憶しているフレームを動きベクトル検出部54に供給する。動きベクトル検出部54は、供給される2個のフレームに基づいてブロック・マッチングを行って動きベクトルS51を検出し、検出した動きベクトルS51を合成信号生成部42に供給する。同様に、フレームメモリ52、53は記憶しているフレームを動きベクトル検出部55に供給し、動きベクトル検出部55がこのフレームから動きベクトルS52を検出して合成信号生成部42に供給する。   The frame memories 51 and 52 supply the stored frames to the motion vector detection unit 54. The motion vector detection unit 54 performs block matching based on the two supplied frames to detect the motion vector S51, and supplies the detected motion vector S51 to the synthesized signal generation unit 42. Similarly, the frame memories 52 and 53 supply the stored frames to the motion vector detection unit 55, and the motion vector detection unit 55 detects the motion vector S 52 from this frame and supplies it to the synthesized signal generation unit 42.

合成信号生成部42は、これらの動きベクトルS51,S52を上述したように、元映像信号に単に付加するか、又は置換する等して動きベクトルを付加した合成映像信号S44を生成する。そして、この合成映像信号S44が映像信号投射部に供給され、合成映像信号S44に基づきスクリーンに映像が投射される。   The composite signal generation unit 42 generates the composite video signal S44 to which the motion vector is added by simply adding or replacing the motion vectors S51 and S52 to the original video signal as described above. The composite video signal S44 is supplied to the video signal projection unit, and an image is projected on the screen based on the composite video signal S44.

映像投射装置40の映像信号投射部44の一例として、図9に示す光スイッチを使用した投射装置を使用することができる。図9に示すように、映像投射部44は、コヒーレント光等の光を発光する発光手段であるレーザ光源102と、レーザ光源102に一端が接続された光ファイバ103と、この光ファイバ103の他端に接続された、分岐手段である1入力L出力光スイッチ104(L≧2の自然数)と、この光スイッチ104のL個の各出力端に個別に接続された光ファイバ105と、このL本の各光ファイバ105に個別に接続された1入力M出力光スイッチ106と、このL個の各1入力M出力光スイッチ106(M≧2の自然数)の出力端107に接続された光射出部108と、上述した図5に示す映像信号処理部43からされた合成映像信号S43が入力され、この合成映像信号S43に基づきレーザ光源52、1入力L出力光スイッチ54及び1入力M出力光スイッチ56を制御する制御信号を出力する信号処理回路59とから構成されている。ここで、制御信号は、レーザ光の輝度を変調する光変調信号(輝度変調信号)S43a及びレーザ光の光路を切り替え選択する光スイッチ制御信号(光路選択信号)S43b、S43cである。   As an example of the video signal projection unit 44 of the video projection device 40, a projection device using the optical switch shown in FIG. 9 can be used. As shown in FIG. 9, the image projection unit 44 includes a laser light source 102 that is a light emitting unit that emits light such as coherent light, an optical fiber 103 having one end connected to the laser light source 102, and other optical fibers 103. A 1-input L-output optical switch 104 (a natural number of L ≧ 2) connected to the end, and an optical fiber 105 individually connected to each of the L output ends of the optical switch 104; 1-input M-output optical switch 106 individually connected to each of the optical fibers 105, and light emission connected to the output end 107 of each of these L 1-input M-output optical switches 106 (M ≧ 2 natural number) 5 and the above-described video signal processing unit 43 shown in FIG. 5 are input. Based on the composite video signal S43, the laser light source 52 and the 1-input L-output optical switches 54 and 1 And a signal processing circuit 59 for outputting a control signal for controlling the force M output optical switch 56. Here, the control signals are an optical modulation signal (luminance modulation signal) S43a for modulating the luminance of the laser light and optical switch control signals (optical path selection signals) S43b and S43c for switching and selecting the optical path of the laser light.

1入力L出力光スイッチ104及び1入力M出力光スイッチ106は、その出力端を夫々L個及びM個有し、夫々X軸方向及びY軸方向に1列に配列されたものとなっている。以下、このような配列を1次元アレイともいう。この1入力L出力光スイッチ104及び1入力M出力光スイッチ106としては、光導波路において電気光学効果を利用した電子光スイッチを使用することができる。このような光スイッチには、例えば、方向性結合器型、干渉器型、Y分岐型、2つの非対称な導波路を交差して形成された非対象X分岐型又は3つ以上の光導波路に存在する3つ以上の固有モードを利用した多モード型の素子、例えば多重導波路方向性結合器、導波路アレー素子及びマルチモード干渉器(MMI)等がある(電子情報通信学会誌 Vol.82 No.7 pp.760-767 1999年7月)。   The 1-input L-output optical switch 104 and the 1-input M-output optical switch 106 have L and M output ends, respectively, and are arranged in a line in the X-axis direction and the Y-axis direction, respectively. . Hereinafter, such an array is also referred to as a one-dimensional array. As the 1-input L-output optical switch 104 and the 1-input M-output optical switch 106, an electro-optical switch using an electro-optic effect in an optical waveguide can be used. Such an optical switch includes, for example, a directional coupler type, an interferometer type, a Y branch type, an asymmetric X branch type formed by crossing two asymmetric waveguides, or three or more optical waveguides. There are multimode type elements using three or more existing modes, such as a multi-waveguide directional coupler, a waveguide array element, and a multi-mode interferometer (MMI). No.7 pp.760-767 July 1999).

1入力2出力光スイッチを多段接続して、1次元アレイが構成された1入力L出力光スイッチ104の各出力端に、同様の構成、即ち、1入力2出力光スイッチを多段接続して1入力M出力の1次元アレイを構成した1入力M出力光スイッチ106を接続することで、L×M画素に対応した2次元アレイの光射出部108を構成することができる。   A 1-input 2-output optical switch is connected in multiple stages, and a 1-input 2-output optical switch is connected in multiple stages to each output end of the 1-input L-output optical switch 104 in which a one-dimensional array is configured. By connecting a one-input M-output optical switch 106 that forms a one-dimensional array of input M outputs, a two-dimensional array light emitting unit 108 corresponding to L × M pixels can be configured.

光射出部108は、光強度の変調と光路の切り替えとを行ったレーザ光を空中に射出する部分であり、簡単には、光スイッチの光導波路又は光ファイバ等の端部である。これらを1次元又は2次元アレイに配置し、そこからの射出光をスクリーン上に映して画像を構成する。ここで、上記端部(光出射部108)には、ビームの形状及び広がりなどを補正するレンズを設けたり、画素の位置に応じて適切な出射角度を持たせたりする等してもよい。   The light emitting portion 108 is a portion that emits laser light that has undergone light intensity modulation and optical path switching, and is simply an end portion of an optical waveguide or an optical fiber of an optical switch. These are arranged in a one-dimensional or two-dimensional array, and light emitted therefrom is projected on a screen to form an image. Here, the end portion (light emitting portion 108) may be provided with a lens that corrects the shape and spread of the beam, or may have an appropriate emission angle according to the position of the pixel.

信号処理部109は、映像信号入力端100から合成映像信号S43が入力され、レーザ光源102、1入力L出力光スイッチ104及び1入力M出力光スイッチ106へ夫々光変調信号S102、X軸に対する光スイッチ制御信号S103及びY軸に対する光スイッチ制御信号S104を夫々入力する。本実施の形態においては、レーザ光源102に光変調信号S102が入力され、映像信号に基づいてレーザ光を直接変調するもの、即ち発光手段により輝度変調を行うものである。なお、各光の射出部58に光変調器を付加したもの、又は、各射出部108に付加した光スイッチを光変調器として使用することもでき、その場合は、レーザ光源から照射されるレーザ光の強度を一定とすることができ、上記変調器に対して光返答信号を供給する。本実施の形態においては、レーザ光源102において輝度変調をするため、光分岐手段である1入力L出力光スイッチ104及び1入力M出力光スイッチ106は、単に光の光路を切り換え選択する切り替え選択手段として機能する。光スイッチ制御信号S43b及びS43cは、1入力L出力光スイッチ104及び1入力M出力光スイッチ106のように1入力2出力光スイッチの多段接続から構成される場合は、各光スイッチの光路を切り替え選択する信号である。   The signal processing unit 109 receives the composite video signal S43 from the video signal input terminal 100 and supplies the optical modulation signal S102 to the laser light source 102, the 1-input L-output optical switch 104, and the 1-input M-output optical switch 106, respectively, and the light for the X axis. A switch control signal S103 and an optical switch control signal S104 for the Y axis are input. In the present embodiment, the light modulation signal S102 is input to the laser light source 102, and the laser light is directly modulated based on the video signal, that is, the luminance modulation is performed by the light emitting means. In addition, what added the light modulator to each light emission part 58, or the optical switch added to each light emission part 108 can also be used as a light modulator, In that case, the laser irradiated from a laser light source The light intensity can be made constant, and an optical response signal is supplied to the modulator. In this embodiment, since the laser light source 102 performs luminance modulation, the 1-input L-output optical switch 104 and the 1-input M-output optical switch 106, which are optical branching means, simply switch and select the optical path of light. Function as. When the optical switch control signals S43b and S43c are composed of a multi-stage connection of 1-input 2-output optical switches such as the 1-input L-output optical switch 104 and 1-input M-output optical switch 106, the optical path of each optical switch is switched. The signal to select.

この信号処理部109は、制御部(図示せず)を有し、この制御部は、元映像信号S41に付加データが付加されて合成された合成映像信号S43が入力され、この合成映像信号S43に基づき、光路切り替え及び光強度の変調の光変調信号及び光スイッチ制御信号を生成する。また、この信号処理部109においては、ノイズ抑制、I−P(Interlace−Progressive)変換、画素数変換、画素位置変換、フレーム・レート変換、及びデコード等、各種の画像信号処理を行ってもよい。   The signal processing unit 109 includes a control unit (not shown), and the control unit receives a synthesized video signal S43 synthesized by adding additional data to the original video signal S41, and the synthesized video signal S43. Based on the above, an optical modulation signal and an optical switch control signal for optical path switching and optical intensity modulation are generated. The signal processing unit 109 may perform various image signal processing such as noise suppression, IP (Interlace-Progressive) conversion, pixel number conversion, pixel position conversion, frame rate conversion, and decoding. .

このような投射部44により、レーザ光源からの光を1次元アレイ状に配置された光スイッチを組み合わせて光射出部を2次元アレイ状に構成し、光源及び光スイッチに入力する光変調信号及び光スイッチ制御信号により夫々輝度変調及び光路選択を制御することにより、高解像度化及び高フレーム速度の表示が可能であり、素子間特性ばらつきによる画質劣化が生じ難く投射される映像の信頼性が高いものとなる。   With such a projection unit 44, a light emission unit is configured in a two-dimensional array by combining light switches arranged in a one-dimensional array with light from a laser light source, and a light modulation signal input to the light source and the optical switch, and By controlling the luminance modulation and optical path selection by the optical switch control signal, respectively, high resolution and high frame rate display are possible, and image quality is hardly deteriorated due to variations in characteristics between elements, and the reliability of the projected image is high. It will be a thing.

本実施の形態においても、第1の実施の形態と同様に、部分画像データ毎に関連する動きベクトルのデータを付加又は合成等して得られた合成映像信号S44に基づきスクリーンに投射される投射光に対し、スクリーンの裏面に設けられる映像表示装置にて、この投射光を受光して処理し、再表示する。   Also in the present embodiment, similarly to the first embodiment, the projection projected on the screen based on the synthesized video signal S44 obtained by adding or synthesizing the motion vector data related to each partial image data. With respect to the light, this projection light is received and processed by a video display device provided on the back surface of the screen, and redisplayed.

次に、この映像表示装置の信号処理部について説明する。信号処理部以外の映像表示装置の構成は、図1又は2に示す第1の実施の形態と同様の構成とすることができ、ここでは、信号処理部について説明する。図10は、本実施の形態の信号処理部を示すブロック図である。本実施の形態の信号処理部は、動きベクトル等の付加データが付加された合成映像信号から付加データを分離して領域切り出しに使用するものである。   Next, the signal processing unit of this video display device will be described. The configuration of the video display device other than the signal processing unit can be the same as that of the first embodiment shown in FIG. 1 or 2, and here, the signal processing unit will be described. FIG. 10 is a block diagram showing the signal processing unit of the present embodiment. The signal processing unit of the present embodiment separates the additional data from the synthesized video signal to which additional data such as a motion vector is added, and uses it for segmentation.

合成映像信号に基づきスクリーンに投射された投射光は、スクリーンに設けられた複数の光透過部を介してスクリーンの裏面側にて上記光透過部に対向する位置に設けられた受光部にて受光され、図10に示すように、受光部からの出力信号S61が信号処理部60に入力される。   The projection light projected on the screen based on the composite video signal is received by a light receiving unit provided at a position facing the light transmitting unit on the back side of the screen through a plurality of light transmitting units provided on the screen. Then, as shown in FIG. 10, an output signal S61 from the light receiving unit is input to the signal processing unit 60.

この信号処理部60としては、動きベクトルに基づいたクラス分類適応処理(例えば本願発明者等が先に出願した特開2000−341609号公報等)を使用することができ、これにより、折り返し歪除去した映像信号を生成することができる。   As the signal processing unit 60, class classification adaptive processing based on motion vectors (for example, Japanese Patent Application Laid-Open No. 2000-341609 previously filed by the inventors of the present application) can be used. The generated video signal can be generated.

即ち、信号処理部60は、各受光部からの出力信号S61が入力されデータを再構築するデータ構築部61と、データ構築部61にて構築されたデータS62を格納する部分画像メモリ62と、この部分画像メモリ62にシフトレジスタ状に順次接続された部分画像メモリ63,64と、部分画像メモリ63から供給されるデータS64から動きベクトルS66、S67を分離する夫々動きベクトル分離部65,66と、動きベクトルS66,S67、及び部分画像メモリ62〜63からの部分画像S63〜S65が入力され、動きベクトルS66,S67に基づいて領域を切り出し、クラスタップ及び予測タップを選定する夫々クラスタップ領域切出部67及び予測タップ領域切出部68と、クラスタップからクラスコードS70を生成するクラスコード生成部69と、クラスコードS70に基づき、後述する学習回路にて予め学習された予測係数データS71を読み出す予測係数ROM70と、予測係数データS71と予測タップとが入力され、高画質化映像信号S72を予測演算する予測演算部71と、高画質化映像信号S72から各画素毎の画素信号S74を生成する画素信号出力部72とから構成される。この画素信号S73がスクリーンの裏面側に複数設けられた各光投射部に入力され、スクリーンの裏面側から表面側に画素信号S73に基づく映像を投射することにより高画質化映像がスクリーン上に表示される。   That is, the signal processing unit 60 receives the output signal S61 from each light receiving unit, reconstructs data, a partial image memory 62 that stores data S62 constructed by the data construction unit 61, and Partial image memories 63 and 64 sequentially connected in a shift register form to the partial image memory 62, and motion vector separation units 65 and 66 for separating motion vectors S66 and S67 from data S64 supplied from the partial image memory 63, respectively. , Motion vectors S66 and S67, and partial images S63 to S65 from the partial image memories 62 to 63 are input, a region is extracted based on the motion vectors S66 and S67, and a class tap region prediction and a prediction tap are selected respectively. A class code S70 is generated from the extraction unit 67, the prediction tap region extraction unit 68, and the class tap. Based on the class code generator 69 and the class code S70, the prediction coefficient ROM 70 for reading the prediction coefficient data S71 previously learned by the learning circuit described later, the prediction coefficient data S71, and the prediction tap are input, and the high-quality video is input. A prediction calculation unit 71 that predicts and calculates the signal S72 and a pixel signal output unit 72 that generates a pixel signal S74 for each pixel from the high-quality video signal S72. The pixel signal S73 is input to a plurality of light projection units provided on the back side of the screen, and an image based on the pixel signal S73 is projected from the back side to the front side of the screen to display a high-quality video on the screen. Is done.

ここで、部分画像メモリ62〜64に格納される部分画像は、図1に示す第1の実施の形態における部分画像データよりも、動きベクトルの探索範囲分だけ広い領域である必要があり、動きベクトルの探索範囲に対応する各受光部からの出力信号が入力される。そして、データ構築部61にて再構築された部分画像データが入力される部分画像メモリ62〜64には、時間的に連続する3個のフレームの部分画像データが記憶される。この部分画像データには、動きベクトルが付加されている。   Here, the partial images stored in the partial image memories 62 to 64 need to be an area wider than the partial image data in the first embodiment shown in FIG. An output signal from each light receiving unit corresponding to the vector search range is input. Then, the partial image data 62 to 64 to which the partial image data reconstructed by the data construction unit 61 is input stores partial image data of three temporally continuous frames. A motion vector is added to the partial image data.

動きベクトル分離部65,66には、部分画像メモリ63の部分画像S64が供給され、上述したように、所定の画素データに付加又は所定の画素データの所定のビットと置換されて付加された動きベクトルを示す付加ビットを分離し、この分離した付加ビットから動きベクトルS66、S67を生成する。   The motion vector separation units 65 and 66 are supplied with the partial image S64 of the partial image memory 63, and, as described above, the motion added to the predetermined pixel data or replaced with the predetermined bit of the predetermined pixel data. The additional bits indicating the vector are separated, and motion vectors S66 and S67 are generated from the separated additional bits.

領域切出部67には、フレームメモリ62、63、64に記憶されているフレームの部分画像データが供給される。領域切出部67は、動きベクトル分離部65から供給される動きベクトルS66及び動きベクトル分離部66から供給される動きベクトルS67を参照して、供給される部分画像データから、所定の位置の画像領域を切り出す。切り出された画像領域のデータS68がクラスコード生成部69に供給される。   The partial image data of the frames stored in the frame memories 62, 63 and 64 is supplied to the area cutout unit 67. The region cutout unit 67 refers to the motion vector S66 supplied from the motion vector separation unit 65 and the motion vector S67 supplied from the motion vector separation unit 66, and determines an image at a predetermined position from the supplied partial image data. Cut out the area. The cut-out image area data S68 is supplied to the class code generation unit 69.

クラスコード生成部69は、供給されるデータから、例えばADRC処理等によって時空間内のパターンを抽出し、抽出したパターンに従って分類されるクラスを示すクラスコードS70を生成する。このように、領域切出し部67が切り出す画像領域は、クラス分類に係る処理に用いられるので、かかる画像領域はクラスタップと称される。クラスコードS70は、予測係数ROM70に供給される。   The class code generation unit 69 extracts a pattern in space-time from the supplied data by, for example, ADRC processing, and generates a class code S70 indicating a class classified according to the extracted pattern. As described above, the image area cut out by the area cutout unit 67 is used for processing related to the class classification, and thus the image area is referred to as a class tap. The class code S70 is supplied to the prediction coefficient ROM 70.

予測係数ROM70は、クラス毎に予め決定された予測係数を記憶しており、記憶している予測係数から、クラスコードに対応する予測係数を読み出す。この予測係数ROM70の出力(予測係数データS71)は、予測演算部71に供給される。   The prediction coefficient ROM 70 stores a prediction coefficient predetermined for each class, and reads a prediction coefficient corresponding to the class code from the stored prediction coefficient. The output (prediction coefficient data S71) of the prediction coefficient ROM 70 is supplied to the prediction calculation unit 71.

一方、領域切出部68には、部分画像メモリ62、63、64に記憶されているフレームの部分画像が供給される。領域切出部68は、動きベクトル分離部65、66から供給される動きベクトルS66、S67を参照して、供給されるフレームの部分画像データから所定の位置の画像領域を切出し、切り出した画像領域のデータを予測演算部71に供給する。予測演算部71は、領域切出部68から供給されるデータS69と、予測係数ROM70から供給される予測係数データS71とに基づいて所定の演算を行い、その結果として出力画像を生成する。この出力画像はノイズが除去若しくは軽減されている。このように、領域切出部68が切り出す画像領域は、出力画像を予測生成するための演算に用いられるので、かかる画像領域は予測タップと称される。   On the other hand, the partial image of the frame stored in the partial image memories 62, 63, 64 is supplied to the area cutout unit 68. The region cutout unit 68 refers to the motion vectors S66 and S67 supplied from the motion vector separation units 65 and 66, cuts out an image region at a predetermined position from the partial image data of the supplied frame, and cuts out the image region Is supplied to the prediction calculation unit 71. The prediction calculation unit 71 performs a predetermined calculation based on the data S69 supplied from the region cutout unit 68 and the prediction coefficient data S71 supplied from the prediction coefficient ROM 70, and generates an output image as a result. This output image has noise removed or reduced. As described above, the image region cut out by the region cutout unit 68 is used for the calculation for predicting and generating the output image, and thus the image region is referred to as a prediction tap.

領域切出部67、68で切り出される夫々クラスタップ及び予測タップは、予測されるべき注目画素を含む部分画像メモリ63に格納されている注目フレームの部分画像と、時間的に注目フレームの前後に位置するフレーム、即ち、部分画像メモリ62、63に格納されているフレームの部分画像とから、注目画素及び注目画素の周囲に位置する周辺画素と同一の空間位置の画素がクラスタップ、予測タップとして抽出される。ここで、動きベクトル分離部65、68から出力される動きベクトルに応じて時間的に切出し位置がずらされ、フレーム全体におけるクラスタップ、予測タップの切出し位置が動きベクトルに従って平行移動させられる。   The class tap and the prediction tap cut out by the region cutout units 67 and 68 are respectively the partial image of the target frame stored in the partial image memory 63 including the target pixel to be predicted and the temporal frame before and after the target frame. From the located frame, that is, the partial image of the frame stored in the partial image memories 62 and 63, the pixel of the same spatial position as the pixel of interest and the surrounding pixels located around the pixel of interest is used as a class tap and a prediction tap. Extracted. Here, the cut-out positions are shifted in time according to the motion vectors output from the motion vector separation units 65 and 68, and the cut-out positions of the class tap and the prediction tap in the entire frame are translated according to the motion vectors.

生成画素信号生成部72は、ノイズが除去された出力画像から、各画素(光投射部)に供給する画素信号を生成し、この画素信号S73を各画素に振り分ける。   The generated pixel signal generation unit 72 generates a pixel signal to be supplied to each pixel (light projection unit) from the output image from which noise is removed, and distributes the pixel signal S73 to each pixel.

次に、図10に示す信号処理部にて使用される予測係数を学習するための学習回路について説明する。図11は、本実施の形態における学習回路を示すブロック図である。   Next, a learning circuit for learning a prediction coefficient used in the signal processing unit shown in FIG. 10 will be described. FIG. 11 is a block diagram showing a learning circuit in the present embodiment.

図11に示すように、本実施の形態における学習回路80は、第1の実施の形態と異なり、教師画像データS81は、投射光の重畳の補正は行わない。即ち、投射光重畳分の補正を行った第2の教師画像データは生成せず、元の教師画像データS81を使用する。これは、第1の映像信号である投射映像信号(無線により伝送する場合は伝送信号)と第2の映像信号である表示映像信号との間で1フレーム分の時間遅延が生じるため、適切な補正は必ずしも容易ではないことを考慮したものであり、不可視光又は無線による信号伝送を行うことがより望ましい。また、LPF81、正規方程式演算部91、及び予測係数決定部92は、第1の実施の形態に示すLPF31、正規方程式演算部36、及び予測係数決定部37と同様の構成とし、同様の処理を行うものとする。   As shown in FIG. 11, the learning circuit 80 in the present embodiment is different from the first embodiment in that the teacher image data S81 does not correct the superimposition of the projection light. That is, the second teacher image data subjected to the correction for the projection light superimposition is not generated, and the original teacher image data S81 is used. This is because a time delay corresponding to one frame occurs between the projection video signal that is the first video signal (a transmission signal when wirelessly transmitted) and the display video signal that is the second video signal. In consideration of the fact that correction is not always easy, it is more desirable to perform signal transmission by invisible light or wirelessly. The LPF 81, the normal equation calculation unit 91, and the prediction coefficient determination unit 92 have the same configuration as the LPF 31, the normal equation calculation unit 36, and the prediction coefficient determination unit 37 described in the first embodiment, and perform the same processing. Assumed to be performed.

LPF82及びノイズ重畳部82を介して部分画像メモリ83〜85に供給される時間的に連続した3フレームの3つの部分画像のうち、時間的に連続する2つのフレームの部分画像が動きベクトル検出部86、87に入力され、夫々動きベクトルが検出され、これら2つの動きベクトルと、3つの部分画像データが夫々領域切出部88、89に供給される。領域切出部89は、クラスタップを切り出し、クラスコード生成部にクラスタップを供給する。クラスコード生成部はクラスコードを生成して正規化方程式演算部91に供給する。また、領域切出部89は、予測タップを切り出し、正規化方程式演算部91に供給する。正規化方程式演算部は、教師データS81及び予測タップから第1の実施の形態と同様の方法にて予測係数を推定する。予測係数決定部92で決定された予測係数は、メモリ93に送出される。このメモリに格納された予測係数が、上述の信号処理部の予測係数ROM70にて読み出される予測係数となる。   Of the three partial images of three temporally continuous frames supplied to the partial image memories 83 to 85 via the LPF 82 and the noise superimposing unit 82, the partial images of two temporally continuous frames are motion vector detection units. 86 and 87, the motion vectors are respectively detected, and these two motion vectors and three partial image data are supplied to the region extraction units 88 and 89, respectively. The area cutout unit 89 cuts out the class tap and supplies the class tap to the class code generation unit. The class code generation unit generates a class code and supplies it to the normalized equation calculation unit 91. Further, the region cutout unit 89 cuts out the prediction tap and supplies it to the normalization equation calculation unit 91. The normalization equation calculation unit estimates the prediction coefficient from the teacher data S81 and the prediction tap by the same method as in the first embodiment. The prediction coefficient determined by the prediction coefficient determination unit 92 is sent to the memory 93. The prediction coefficient stored in this memory becomes a prediction coefficient read by the prediction coefficient ROM 70 of the signal processing unit described above.

本実施の形態においては、映像投射装置側で動きベクトル検出を行ってその結果を元の画像データに付加し、映像表示側で、この動きベクトルを検出し、この動きベクトルに基づいてフレーム間で対応する画素を用いたクラス分類適応処理を行う等することで、より効果的なノイズ抑圧効果が得られる。   In the present embodiment, the motion vector detection is performed on the video projection device side, the result is added to the original image data, the motion vector is detected on the video display side, and between the frames based on the motion vector. A more effective noise suppression effect can be obtained by performing class classification adaptive processing using corresponding pixels.

また、本実施の形態における映像信号処理部43は、付加データとして動きベクトルを付加して合成映像信号を生成するものとして説明したが、映像信号処理部43の他の例としては、例えば、本願発明者等が先に出願した特開平10−313458号公報に記載されているようなMPEG歪等の圧縮符号化に伴って発生する歪及びノイズを抑圧する復号処理手段である画像データ変換装置が適用可能である。   In addition, the video signal processing unit 43 in the present embodiment has been described as generating a synthesized video signal by adding a motion vector as additional data, but other examples of the video signal processing unit 43 include, for example, the present application An image data conversion apparatus which is a decoding processing means for suppressing distortion and noise generated with compression encoding such as MPEG distortion as described in Japanese Patent Application Laid-Open No. 10-31458 previously filed by the inventors. Applicable.

即ち、MPEGデコードされた画像データに生じるブロック歪を補正するための画像データ変換装置であって、画像データの特徴量を抽出する特徴量抽出回路と、抽出された特徴量に基づいて上記MPEGデコードされた画像データを切り出し、クラスタップ及び予測タップを選定する夫々クラスタップ領域切出回路及び予測タップ切出回とと、クラスタップ切出回路により切り出した画像データを圧縮して圧縮データパターンを生成するADRC(Adaptive Dynamic Range Coding )回路と、クラスタップ切出回路により切り出された画像データの属するクラスコードを発生するクラスコード発生回路と、推定式の予測係数がクラス毎に記憶されているROMテーブルと、予測係数と上記予測タップ切出回路により切り出された画像データとに基づいて推定演算する推定演算回路とを備える。   That is, an image data conversion apparatus for correcting block distortion generated in MPEG-decoded image data, a feature amount extraction circuit for extracting feature amounts of image data, and the MPEG decoding based on the extracted feature amounts Cut out the image data, select the class tap and prediction tap, respectively, and generate the compressed data pattern by compressing the image data cut out by the class tap area extraction circuit and the prediction tap extraction circuit respectively, and the class tap extraction circuit An ADRC (Adaptive Dynamic Range Coding) circuit, a class code generation circuit for generating a class code to which the image data extracted by the class tap extraction circuit belongs, and a ROM table in which a prediction coefficient of the estimation formula is stored for each class Based on the prediction coefficient and the image data cut out by the prediction tap cut-out circuit. And a estimation calculation circuit for estimating.

また、予測係数を学習する学習回路を有し、画像データ変換装置でMPEG歪の除去を行うことを考慮して、予めMPEGエンコード/MPEGデコード処理を行ってブロック歪の生じる前後の画像データによって学習することにより、MPEG歪の除去した画像データを再現するための予測係数を生成する。   In addition, a learning circuit for learning a prediction coefficient is included, and learning is performed based on image data before and after the occurrence of block distortion by performing MPEG encoding / MPEG decoding processing in advance in consideration of removal of MPEG distortion by an image data converter. As a result, a prediction coefficient for reproducing the image data from which the MPEG distortion has been removed is generated.

この画像データ変換装置においては、ブロック歪のない画像データを推定するための予測係数をROMテーブルに記憶しておき、入力される画像データ、及びROMテーブルから読み出された予測係数に基づいて推定演算を行うことによって、歪み等が除去された画像データを出力することができる。すなわち、上記画像データ変換装置は、実際の画像データから予め学習により求められた予測係数に基づいて推定演算するので、より実際に近い波形を再現して画質が良好でMPEGのブロック歪のない画像データを出力することができる。   In this image data conversion apparatus, a prediction coefficient for estimating image data having no block distortion is stored in a ROM table, and estimated based on input image data and a prediction coefficient read from the ROM table. By performing the calculation, it is possible to output image data from which distortion and the like are removed. That is, the image data conversion apparatus performs an estimation calculation based on a prediction coefficient obtained by learning in advance from actual image data. Therefore, an image that reproduces a waveform closer to the actual, has a good image quality, and has no MPEG block distortion. Data can be output.

とりわけ、上記画像データ変換装置は、特徴量抽出回路によってブロック歪の除去の対象となる画像データのDCTブロックの位置を検出し、この検出結果によって画像データの切出領域及びサンプル数を変えることによって、ブロック歪の程度に追従して、より画質のよい画像データを得ることができる。   In particular, the image data conversion apparatus detects the position of the DCT block of the image data from which block distortion is to be removed by the feature amount extraction circuit, and changes the cutout region and the number of samples of the image data according to the detection result. By following the degree of block distortion, image data with better image quality can be obtained.

このような画像データ変換装置は、配信される画像データが、MPEG等で圧縮されている場合に有効である。そして、このような画像データに基づき投射された投射光をスクリーン裏面側に設けられた信号処理部にて高解像度化し、再表示することにより、MPEG等により圧縮され、投射装置側に配信された映像においても、投射装置側でブロック歪み等を除去してから投射することにより、その投射光から表示装置側で信号処理を施すことにより、スクリーン上に極めて高画質な映像を再表示することができる。   Such an image data conversion apparatus is effective when the image data to be distributed is compressed by MPEG or the like. Then, the projection light projected based on such image data is increased in resolution by a signal processing unit provided on the back side of the screen, re-displayed, compressed by MPEG or the like, and distributed to the projection apparatus side. Even in video, by projecting after removing block distortion etc. on the projection device side, signal processing is performed on the display device side from the projected light, so that an extremely high quality image can be re-displayed on the screen it can.

次に、本発明の第3の実施の形態について説明する。図12(a)及び(b)は、本実施の形態における映像表示装置を示す夫々正面図及びB−B線における側面図である。本実施の形態においては、大画面化においても高解像度且つ高精細で十分な明るさの映像を呈示でき、更に装置の設置、メンテナンス、及び拡張もより容易である自発光型の大型映像表示装置である。本発明においては、信号処理部によって高画質化のための付加データを併せ持たせた映像信号に基づいて変調した光を、光投射部によって映像表示面側に設けられた複数の受光部に対して投射し、ある近傍領域内における上記受光部の各出力に基づいて別に設けられた信号処理部において上記近傍領域に関わる高画質映像信号を生成してこれを発光部によって表示させることで、大画面、高画質かつ高輝度な映像を呈示する。これについて、以下に説明する。   Next, a third embodiment of the present invention will be described. 12A and 12B are a front view and a side view taken along line BB, respectively, showing the video display device according to the present embodiment. In the present embodiment, a self-luminous large-sized image display device that can present a high-resolution, high-definition and sufficiently bright image even when the screen is enlarged, and that is easier to install, maintain, and expand the device. It is. In the present invention, the light modulated based on the video signal having additional data for improving the image quality by the signal processing unit is applied to the plurality of light receiving units provided on the video display surface side by the light projection unit. The signal processing unit provided separately based on each output of the light receiving unit in a certain neighboring region generates a high-quality video signal related to the neighboring region and displays it by the light emitting unit. Present the screen, high-quality and high-brightness video. This will be described below.

第1及び第2の実施の形態のように、スクリーン上に映像を表示するものではなく、図12に示すように、本第3の実施の形態における映像表示装置110は、複数の発光部がマトリックス状に配置されることにより表示画面が形成されている。この発光部111からなる表示画面の所定位置には、受光部112が設けられている。この受光部112は、受光した投射光を検知し、得られ信号を受光部出力信号線112aを介してその後段に設けられた信号処理部113に入力される。信号処理回路113は、受光部112からの出力信号に基づいて高解像度化の処理を行って映像信号113aを生成し、この映像信号113aを各発光部111に供給する。発光部111は、供給された映像信号113aに基づいて発光し、映像を表示する。   Unlike the first and second embodiments, it does not display an image on the screen. As shown in FIG. 12, the image display device 110 according to the third embodiment includes a plurality of light emitting units. A display screen is formed by arranging in a matrix. A light receiving unit 112 is provided at a predetermined position on the display screen including the light emitting unit 111. The light receiving unit 112 detects the received projection light and inputs the obtained signal to the signal processing unit 113 provided in the subsequent stage via the light receiving unit output signal line 112a. The signal processing circuit 113 performs high resolution processing based on the output signal from the light receiving unit 112 to generate a video signal 113 a, and supplies the video signal 113 a to each light emitting unit 111. The light emitting unit 111 emits light based on the supplied video signal 113a and displays an image.

受光部112は、例えば色フィルタを付したフォト・ダイオード及びフォト・トランジスタ等各種の受光素子が用いられ、光の3原色分を1箇所に併せて1画素(1つの受光部)としたものが配置されている。受光部112は、各色毎に適宜分けられた受光部を配置してもよい。   The light receiving unit 112 uses, for example, various light receiving elements such as a photo diode and a photo transistor with a color filter, and combines the three primary colors of light into one pixel (one light receiving unit). Has been placed. The light receiving unit 112 may be provided with a light receiving unit appropriately divided for each color.

各受光部112は、その出力信号を1つの信号処理部113のみではなく、隣接する信号処理部113に入力する。この信号処理部113においては、画像全体の内の一部分の領域についての画像処理を行う。その際、上記領域の近傍に設けられた上記受光部の出力信号をも併せて処理に用いるため、これらの領域に含まれる上記受光部出力信号が上記第1の信号処理部に入力される。   Each light receiving unit 112 inputs the output signal not only to one signal processing unit 113 but also to the adjacent signal processing unit 113. In the signal processing unit 113, image processing is performed on a partial region of the entire image. At this time, since the output signal of the light receiving unit provided in the vicinity of the region is also used for processing, the light receiving unit output signal included in these regions is input to the first signal processing unit.

各信号処理部113は、例えば画像データ変換装置等を使用して解像度の向上、即ち画素密度の増加を行うものが適用され、図12に示すのは、1つの受光部に対して16個の発光部が対応している16倍密化の場合の例である。本実施の形態においては、図3に示す上述の第1の実施の形態における信号処理部と同様の構成とする。   As each signal processing unit 113, for example, an image data conversion device or the like is used to improve the resolution, that is, increase the pixel density, and FIG. This is an example in the case of 16-fold densification that the light emitting unit supports. In the present embodiment, the configuration is the same as that of the signal processing unit in the first embodiment shown in FIG.

ただし、これは一例であり、倍密度や信号処理部113の担う発光部111の数又は受光部112と発光部111との位置関係及び画素配置等については、これに限定するものではない。また発光部111については、白色ランプと色フィルタとを組み合わせたもの、CRT等の電子管式のもの、又は発光ダイオード等の各種素子を使用することができる。発光部111と受光部112とはほぼ同一面上に配置されるが、発光部111による光が受光部112には入射しないように、遮蔽板(図示せず)を設ける等してもよい。   However, this is merely an example, and the density, the number of the light emitting units 111 that the signal processing unit 113 bears, the positional relationship between the light receiving unit 112 and the light emitting unit 111, the pixel arrangement, and the like are not limited thereto. As the light emitting unit 111, a combination of a white lamp and a color filter, an electron tube type such as a CRT, or various elements such as a light emitting diode can be used. Although the light emitting unit 111 and the light receiving unit 112 are arranged on substantially the same plane, a shielding plate (not shown) may be provided so that light from the light emitting unit 111 does not enter the light receiving unit 112.

なお、本装置は、信号処理部113の単位でユニット化したものを同一面上に展開・配置して構成したものであると捉えられる。このユニット内の各種信号線は、信号処理部113を1つのみ用意し、全画面分を担わせる場合と比較し、配線長が極めて短く、更に配線数も極めて少ない。このようにユニット毎に扱えることで、装置のメンテナンス性及び拡張性等を向上することができる。   In addition, this apparatus can be considered to be configured by developing and arranging on the same plane a unitized unit of the signal processing unit 113. Various signal lines in this unit have a very short wiring length and a very small number of wirings as compared with the case where only one signal processing unit 113 is prepared and handles the entire screen. By handling each unit in this way, it is possible to improve the maintainability and expandability of the apparatus.

完全なユニット化を行う場合には、図13(a)及び(b)に示すように、ユニット間の受光部の出力信号配線の相互接続および切断と終端を容易に行うための例えばコネクタ群等から成るインターフェース部114を設けておくことができる。   In the case of complete unitization, as shown in FIGS. 13A and 13B, for example, a connector group for easily connecting, disconnecting and terminating the output signal wiring of the light receiving unit between the units. An interface unit 114 can be provided.

図13(a)及び(b)は、本発明の第3の実施の形態の変形例の映像表示装置示す図であって、夫々正面図及び領域S2を拡大してその側面を示す側面図である。本変形例においては、図13(a)に示すように、上述の実施例に基づいた相対的に小規模な映像表示装置110a〜110iを同一面上に複数個継ぎ合わせることで、1つの大規模な映像表示装置120を構成するものである。即ち、図13(a)に示すように、9個の小規模映像表示装置110a〜110iによって小規模映像表示装置と相似形の大規模映像表示装置120が構成されている例を示す。この大規模な映像表示装置120を容易に構成するため、図13(b)に示すように、隣接する小規模映像表示装置110a〜110iの端部近傍における受光部112の出力信号線112aの相互接続及び切断・終端を行うための例えばコネクタ群等からなるインターフェース部114が設けられている。これにより、小規模映像表示装置110a〜110iの相互接続及び切断・終端が極めて容易になる。   FIGS. 13A and 13B are diagrams showing a video display device according to a modification of the third embodiment of the present invention, each of which is a front view and a side view showing an enlarged side view of the region S2. is there. In this modification, as shown in FIG. 13 (a), a plurality of relatively small-sized video display devices 110a to 110i based on the above-described embodiment are joined together on the same surface, so that one large size is displayed. A large-scale video display device 120 is configured. That is, as shown in FIG. 13A, an example in which a large-scale video display device 120 similar to the small-scale video display device is configured by nine small-scale video display devices 110a to 110i is shown. In order to easily configure the large-scale video display device 120, as shown in FIG. 13B, the output signal lines 112a of the light receiving units 112 in the vicinity of the ends of the adjacent small-scale video display devices 110a to 110i are mutually connected. An interface unit 114 including, for example, a connector group for connecting, disconnecting, and terminating is provided. As a result, the small-scale video display devices 110a to 110i can be extremely easily interconnected and disconnected / terminated.

本実施の形態においても、第1の実施例と同様、小規模映像表示装置単位で映像表示装置をユーザに提供することができ、ユーザ側において、ユーザ自身の使用目的及びコスト等を考慮して、任意の個数の小規模映像表示装置のインターフェース部同士を接続し、任意の大きさの映像表示装置を組み立てて使用することが可能となる。   Also in the present embodiment, as in the first embodiment, the video display device can be provided to the user in units of small-scale video display devices, and the user's own usage purpose and cost are taken into consideration on the user side. It is possible to connect the interface units of an arbitrary number of small-sized video display devices and assemble and use an arbitrary size video display device.

なお、小規模映像表示装置の数、小規模映像表示装置により構成される大規模映像表示装置の形状、及び個々の小規模映像表示装置の形状・大きさ等については、同図のものに限る必要は全くない。   The number of small-scale video display devices, the shape of the large-scale video display device constituted by the small-scale video display devices, and the shape and size of each small-scale video display device are limited to those shown in FIG. There is no need.

また、映像表示装置に対して光投射する映像信号については、映像表示装置における上記継ぎ合わせの有無によらず、複数台の光投射装置を用いて領域毎に分けて投射したり、又は、一部若しくは全部を重畳させたりしてもよい。この場合、1つの光投射装置に担わせる受光部の領域は、映像表示装置の規模の継ぎ合わせ又は上記ユニットの境界等位置によらず任意に設定することができる。   In addition, the video signal to be optically projected to the video display device may be projected separately for each region using a plurality of optical projection devices, regardless of the presence or absence of the above-mentioned joining in the video display device, or You may superimpose a part or all. In this case, the region of the light receiving unit to be carried by one light projection device can be arbitrarily set regardless of the scale of the video display device or the position of the unit boundary.

次に、本発明における映像表示装置の第4の実施の形態について説明する。上述した第2の実施の形態と同様に、映像表示装置に映像を投射する投射装置の映像信号処理部において、例えば動きベクトル等の高画質化用の付加データを併せ持たせた合成映像信号を生成し、この合成映像信号を不可視光による光投射部を用いて映像表示装置側に投射し、映像表示装置において、第3の実施の形態と同様、表示画面に設けられた複数の受光部で付加データが付加された投射光を受光する。そして、図10に示す信号処理回路と同様の構成の信号処理回路に、受光部からの出力信号を供給し、信号処理部が付加データに基づいてより効率的かつ効果的な映像の高品質化処理を行う。上記付加データについては、信号処理部の担う部分画像内に電子透しの技術を用いて埋め込んだり、本来の映像信号の投射とは別のタイミングで(好ましくは事前に)投射したりする等の方法を用いることができる。また、合成映像信号又は付加データを無線で伝送する場合は、受光部の代わりに、受信部を設ける。   Next, a fourth embodiment of the video display device according to the present invention will be described. Similar to the second embodiment described above, in the video signal processing unit of the projection device that projects the video on the video display device, for example, a composite video signal having additional data for high image quality such as a motion vector is provided. The composite video signal is generated and projected to the video display device side using a light projection unit using invisible light. In the video display device, as in the third embodiment, a plurality of light receiving units provided on the display screen are used. The projection light to which the additional data is added is received. Then, the output signal from the light receiving unit is supplied to the signal processing circuit having the same configuration as the signal processing circuit shown in FIG. 10, and the signal processing unit improves the quality of the video more efficiently and effectively based on the additional data. Process. The additional data is embedded in a partial image carried by the signal processing unit using an electronic watermarking technique, or projected at a timing (preferably in advance) different from the projection of the original video signal. The method can be used. In addition, when the composite video signal or the additional data is transmitted wirelessly, a receiving unit is provided instead of the light receiving unit.

本実施の形態の光投射装置においても、上述の第2の実施の形態と同様の映像信号処理部が設けられ、高画質化を目的とした各種の付加的なデータを生成し、これをさらに上記元映像信号に付加したりあるいは埋め込んだり等した合成映像信号を生成する。そして、映像信号投射部が合成映像信号に基づいて投射光を変調し、これを映像表示面側に投射する。   Also in the optical projection apparatus of the present embodiment, a video signal processing unit similar to that of the second embodiment described above is provided, and various additional data for the purpose of improving the image quality are generated. A composite video signal added to or embedded in the original video signal is generated. Then, the video signal projection unit modulates the projection light based on the synthesized video signal, and projects this onto the video display surface side.

このように、映像表示面側における第1の信号処理部では、上記の付加データに基づいてより効率的かつ効果的な映像の高品質化処理を行う。上記付加データについては、第1の信号処理部の担う部分画像内に電子透しの技術を用いて埋め込んだり、本来の映像信号の投射とは別のタイミングで(好ましくは事前に)投射、伝送したりする等の方法が例えば用いられる。また、上述の第3及び第4の実施の形態における映像信号投射部としては、図9に示す光スイッチを使用した投射装置を使用することができる。   In this way, the first signal processing unit on the video display surface side performs more efficient and effective video quality improvement processing based on the additional data. The additional data is embedded in the partial image of the first signal processing unit using electronic watermarking technology, or projected and transmitted at a timing (preferably in advance) different from the projection of the original video signal. For example, a method such as a method is used. Further, as the video signal projection unit in the third and fourth embodiments described above, a projection device using the optical switch shown in FIG. 9 can be used.

上述したような本発明の実施の形態によれば、スクリーン上に第1の映像信号に基づく光が投射され、この投射光から得られた信号を処理して上記スクリーンに映像を表示する映像表示装置であって、上記スクリーン上に設けられ上記投射光を透過する複数の光透過手段と、上記スクリーンの裏面側にて上記光透過手段と対向する位置に設けられ上記スクリーンの表面側から投射された上記投射光を受光し該投射光に基づく信号を出力する受光手段と、上記受信手段からの出力信号を補正処理して第2の映像信号を生成する信号処理手段と、上記第2の映像信号に基づく光を上記スクリーンの裏面側から該スクリーンの表面側に投射する光投射手段とを有するので投射光による投射映像を大画面においても高画質かつ高輝度で提供することができ、例えばディジタル・シネマにおける映像表示装置として好適である。   According to the embodiment of the present invention as described above, video display is performed in which light based on the first video signal is projected on the screen, and the signal obtained from the projection light is processed to display the video on the screen. A plurality of light transmitting means provided on the screen for transmitting the projection light, and projected from the surface side of the screen provided at a position facing the light transmitting means on the back side of the screen. A light receiving means for receiving the projection light and outputting a signal based on the projection light; a signal processing means for correcting the output signal from the reception means to generate a second video signal; and the second video Since it has light projection means for projecting light based on the signal from the back side of the screen to the front side of the screen, it is possible to provide a projected image by the projection light with high image quality and high brightness even on a large screen. It can, for example, is suitable as an image display device in a digital cinema.

また、第1の映像信号に基づく光が表示面に投射され、この投射光から得られた信号を処理して自発光によって上記表示面に映像を表示する映像表示装置であって、上記表示面内に設けられ該表示面に投射される投射光を受光し該投射光に基づく信号を出力する複数の受光手段と、上記受光手段からの出力信号を補正処理して第2の映像信号を生成する信号処理手段と、上記第2の映像信号に基づき発光する発光手段とを有するので、発光手段による自発光により映像を表示するため、大画面化においても高解像度且つ高精細で十分な明るさの映像を呈示できる。   In addition, the image display apparatus projects light on the display surface by light based on the first image signal, processes the signal obtained from the projection light, and displays the image on the display surface by self-light emission, A plurality of light receiving means for receiving projection light projected on the display surface and outputting a signal based on the projection light; and correcting the output signal from the light receiving means to generate a second video signal Signal processing means and a light emitting means for emitting light based on the second video signal, so that an image is displayed by self-light emission by the light emitting means, so that even with a large screen, high resolution and high definition and sufficient brightness Can be presented.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

(a)及び(b)は、本発明の第1の実施の形態における映像表示装置を示す図であって、夫々スクリーンの一部を示す正面図及び図1(a)のA―A線における側面図である。(A) And (b) is a figure which shows the video display apparatus in the 1st Embodiment of this invention, Comprising: The front view which each shows a part of screen, and the AA line of FIG. 1 (a) It is a side view. 本発明の第1の実施の形態の変形例における映像表示装置を示す図である。It is a figure which shows the video display apparatus in the modification of the 1st Embodiment of this invention. 本発明の第1の実施の形態における映像表示装置の信号処理部のブロック図を示す。The block diagram of the signal processing part of the video display apparatus in the 1st Embodiment of this invention is shown. 本発明の第1の実施の形態における映像表示装置の信号処理部の予測係数を学習する学習回路を示すブロック図である。It is a block diagram which shows the learning circuit which learns the prediction coefficient of the signal processing part of the video display apparatus in the 1st Embodiment of this invention. 本発明の第2の実施の形態における映像投射装置を示すブロック図である。It is a block diagram which shows the video projection apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像投射装置により投射される1ブロック分のデータを示す模式図である。It is a schematic diagram which shows the data for 1 block projected by the video projection apparatus in the 2nd Embodiment of this invention. (a)、(b)及び(c)は、RGBの3×8=24bitの画素データを示す図であり、(d)、(e)及び(f)は、YUV(Y:輝度信号、UV:色差信号)(4:2:2)の2×8=16bitの画素データを示す図であって、夫々元映像信号S41の画素データ(以下、元データという。)、元データに付加データを単純に付加した場合の画素データ、及び付加データを置換付加した場合の画素データを示す模式図である。(A), (b), and (c) are diagrams showing pixel data of 3 × 8 = 24 bits of RGB, and (d), (e), and (f) are YUV (Y: luminance signal, UV : Color difference signal) (4: 2: 2) 2 × 8 = 16-bit pixel data, each of which is pixel data (hereinafter referred to as original data) of the original video signal S41, and additional data is added to the original data. It is a schematic diagram which shows the pixel data at the time of replacing and adding the pixel data at the time of adding simply and additional data. 本発明の第2の実施の形態における映像投射装置の映像信号処理部を示すブロック図である。It is a block diagram which shows the video signal processing part of the video projection apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像投射装置の映像投射部を示す模式図である。It is a schematic diagram which shows the video projection part of the video projection apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像表示装置の信号処理部を示すブロック図である。It is a block diagram which shows the signal processing part of the video display apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像表示装置の信号処理部の予測係数を学習する学習回路を示すブロック図である。It is a block diagram which shows the learning circuit which learns the prediction coefficient of the signal processing part of the video display apparatus in the 2nd Embodiment of this invention. (a)及び(b)は、本発明の第3の実施の形態における映像表示装置を示す夫々正面図及び図12(a)に示すB−B線における側面図である。(A) And (b) is each a front view which shows the video display apparatus in the 3rd Embodiment of this invention, and a side view in the BB line shown to Fig.12 (a). (a)及び(b)は、本発明の第3の実施の形態の変形例における映像表示装置示す図であって、夫々正面図及び領域S2を拡大してその側面を示す側面図である。(A) And (b) is a figure which shows the video display apparatus in the modification of the 3rd Embodiment of this invention, Comprising: It is a side view which expands a front view and area | region S2, respectively, and shows the side surface. (a)及び(b)は、従来例に記載の増幅発光スクリーンを示す図であって、夫々1画素を拡大して示す側面図、及びスクリーンを示す正面図である。(A) And (b) is a figure which shows the amplification light emission screen as described in a prior art example, Comprising: It is the side view which expands and shows 1 pixel, respectively, and the front view which shows a screen.

符号の説明Explanation of symbols

1 スクリーン、 1a〜1i 小規模スクリーン、 2 光透過部、 4,112 受光部、 4a 受光部出力信号線、 5,60,113 信号処理部、 6 光投射部、 6b 中継部、 7 投射光、 10 大規模スクリーン、 12 インターフェース部、 21 データ構築部、 22a,22b,67,68,88,89 領域切出部、 23,69,90 クラスコード生成部、 24,70 予測係数ROM、 25,71 予測演算部、 26,72 生成画素信号出力部、 30 学習回路、 31,81 垂直間引きフィルタLPF、 32 投射光重畳補正部、 33,82 ノイズ重畳部、 34a,34b 領域切出部、 35 クラスコード生成部、 36,91 正規方程式演算部、 37,92 予測係数決定部、 38,93 メモリ、 41 高画質化用付加信号生成部、 42 合成信号生成部、 43 映像信号処理部、 44 映像信号投射部、 51,52,53 フレームメモリ、 54,55,86,87 動きベクトル検出部、 62,63,64,83,84,85 部分画像メモリ、 65,66 動きベクトル分離部、 110 映像表示装置、 111 発光部   DESCRIPTION OF SYMBOLS 1 screen, 1a-1i small-scale screen, 2 light transmission part, 4,112 light-receiving part, 4a light-receiving part output signal line, 5, 60,113 signal processing part, 6 light projection part, 6b relay part, 7 projection light, 10 large-scale screen, 12 interface unit, 21 data construction unit, 22a, 22b, 67, 68, 88, 89 area extraction unit, 23, 69, 90 class code generation unit, 24, 70 prediction coefficient ROM, 25, 71 Prediction calculation unit, 26, 72 generation pixel signal output unit, 30 learning circuit, 31, 81 vertical decimation filter LPF, 32 projection light superimposition correction unit, 33, 82 noise superimposition unit, 34a, 34b region cutout unit, 35 class code Generation unit, 36, 91 Normal equation calculation unit, 37, 92 Prediction coefficient determination unit, 38, 93 Memo 41 additional signal generation unit for high image quality, 42 composite signal generation unit, 43 video signal processing unit, 44 video signal projection unit, 51, 52, 53 frame memory, 54, 55, 86, 87 motion vector detection unit, 62 , 63, 64, 83, 84, 85 Partial image memory, 65, 66 Motion vector separation unit, 110 Video display device, 111 Light emitting unit

Claims (9)

第1の映像信号に基づく光が表示面に投射され、この投射光から得られた信号を処理して自発光によって上記表示面に映像を表示する映像表示装置であって、
上記表示面内に設けられ該表示面に投射される投射光を受光し該投射光に基づく信号を出力する複数の受光手段と、
上記受光手段からの出力信号を補正処理して第2の映像信号を生成する複数の信号処理手段と、
上記第2の映像信号に基づき発光する発光手段とを有し、
各信号処理手段は、上記複数の信号処理手段のうちの他の信号処理手段に対応する上記受光手段からの出力信号も受信する
ことを特徴とする映像表示装置。
A video display device in which light based on a first video signal is projected on a display surface, and a signal obtained from the projection light is processed to display a video on the display surface by self-emission,
A plurality of light receiving means provided in the display surface for receiving projection light projected on the display surface and outputting a signal based on the projection light;
A plurality of signal processing means for correcting the output signal from the light receiving means to generate a second video signal;
Light emitting means for emitting light based on the second video signal,
Each signal processing means also receives the output signal from the said light-receiving means corresponding to the other signal processing means among the said several signal processing means. The video display apparatus characterized by the above-mentioned.
上記各信号処理手段は、上記表示面の所定領域に設けられた1以上の上記発光手段に上記所定領域の上記第2の映像信号を供給するものであり、上記所定領域に設けられる受光手段からの出力信号を上記所定領域に隣接する他の領域に設けられる他の信号処理手段に送信し、該他の領域に設けられる受光手段からの出力信号を上記他の信号処理手段から受信するインターフェース手段を有することを特徴とする請求項1記載の映像表示装置。   Each of the signal processing means supplies the second video signal of the predetermined area to one or more of the light emitting means provided in the predetermined area of the display surface. From the light receiving means provided in the predetermined area Interface means for transmitting the output signal to other signal processing means provided in another area adjacent to the predetermined area and receiving the output signal from the light receiving means provided in the other area from the other signal processing means The video display device according to claim 1, further comprising: 上記補正処理は、画質向上処理であることを特徴とする請求項1記載の映像表示装置。   The video display apparatus according to claim 1, wherein the correction process is an image quality improvement process. 上記補正処理は、クラス分類適応処理を使用することを特徴とする請求項1記載の映像表示装置。   The video display apparatus according to claim 1, wherein the correction process uses a class classification adaptive process. 上記画質向上処理は、上記第1の映像信号より上記第2の映像信号の解像度を高くする高解像度化処理及び/又は上記第1の映像信号からノイズを除去するノイズ除去処理であることを特徴とする請求項3記載の映像表示装置。   The image quality improvement processing is high resolution processing for increasing the resolution of the second video signal than the first video signal and / or noise removal processing for removing noise from the first video signal. The video display device according to claim 3. 第1の映像信号に基づく光を上記表示面に投射する映像信号投射手段を有することを特徴とする請求項1記載の映像表示装置。   2. The video display device according to claim 1, further comprising video signal projection means for projecting light based on the first video signal onto the display surface. 上記第1の映像信号に付加データを付加し、合成映像信号を生成する映像信号処理手段を有し、
上記映像信号投射手段は、上記合成映像信号に基づく光を上記表示面に投射する
ことを特徴とする請求項6記載の映像表示装置。
Video signal processing means for adding additional data to the first video signal and generating a composite video signal;
The video display device according to claim 6, wherein the video signal projecting unit projects light based on the composite video signal onto the display surface.
上記映像信号投射手段は、不可視光を投射することを特徴とする請求項6記載の映像表示装置。   The video display device according to claim 6, wherein the video signal projection means projects invisible light. 第1の映像信号に基づく光が表示面に投射され、この投射光から得られた信号を処理して自発光によって上記表示面に映像を表示する映像表示方法であって、
上記表示面内に設けられた複数の受光手段において該表示面に投射される投射光を受光し該投射光に基づく信号を出力する受光工程と、
上記受光工程において出力された出力信号を補正処理して第2の映像信号を複数の信号処理手段により生成する信号処理工程と、
上記第2の映像信号に基づき発光する発光工程とを有し、
各信号処理手段は、上記複数の信号処理手段のうちの他の信号処理手段に対応する上記受光手段からの出力信号も受信する
ことを特徴とする映像表示方法。
A video display method in which light based on a first video signal is projected on a display surface, a signal obtained from the projection light is processed and a video is displayed on the display surface by self-emission,
A light receiving step of receiving projection light projected on the display surface in a plurality of light receiving means provided in the display surface and outputting a signal based on the projection light;
A signal processing step of correcting the output signal output in the light receiving step and generating a second video signal by a plurality of signal processing means;
A light emitting step of emitting light based on the second video signal,
Each signal processing means also receives the output signal from the said light-receiving means corresponding to the other signal processing means among the said several signal processing means. The video display method characterized by the above-mentioned.
JP2007184936A 2007-07-13 2007-07-13 Video display apparatus and method Expired - Fee Related JP4605189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007184936A JP4605189B2 (en) 2007-07-13 2007-07-13 Video display apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007184936A JP4605189B2 (en) 2007-07-13 2007-07-13 Video display apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002115350A Division JP4010173B2 (en) 2002-04-17 2002-04-17 Video display device and video display method

Publications (2)

Publication Number Publication Date
JP2008003613A JP2008003613A (en) 2008-01-10
JP4605189B2 true JP4605189B2 (en) 2011-01-05

Family

ID=39007969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007184936A Expired - Fee Related JP4605189B2 (en) 2007-07-13 2007-07-13 Video display apparatus and method

Country Status (1)

Country Link
JP (1) JP4605189B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110648626A (en) * 2019-09-30 2020-01-03 深圳市奥拓电子股份有限公司 Method and system for correcting bright and dark lines of LED display screen and storage medium thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01105989A (en) * 1987-10-19 1989-04-24 Fuji Photo Film Co Ltd Active screen
JPH01105925A (en) * 1987-10-19 1989-04-24 Fuji Photo Film Co Ltd Active screen
JPH02203381A (en) * 1989-01-31 1990-08-13 Nec Home Electron Ltd Display device
JPH10123622A (en) * 1996-10-21 1998-05-15 Ishikawa Kogaku Zokei Kenkyusho:Kk Amplifying and light-emitting screen
JP2003308047A (en) * 2002-04-10 2003-10-31 Hewlett Packard Co <Hp> Active display system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6680579B2 (en) * 2001-12-14 2004-01-20 Hewlett-Packard Development Company, L.P. Method and apparatus for image and video display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01105989A (en) * 1987-10-19 1989-04-24 Fuji Photo Film Co Ltd Active screen
JPH01105925A (en) * 1987-10-19 1989-04-24 Fuji Photo Film Co Ltd Active screen
JPH02203381A (en) * 1989-01-31 1990-08-13 Nec Home Electron Ltd Display device
JPH10123622A (en) * 1996-10-21 1998-05-15 Ishikawa Kogaku Zokei Kenkyusho:Kk Amplifying and light-emitting screen
JP2003308047A (en) * 2002-04-10 2003-10-31 Hewlett Packard Co <Hp> Active display system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110648626A (en) * 2019-09-30 2020-01-03 深圳市奥拓电子股份有限公司 Method and system for correcting bright and dark lines of LED display screen and storage medium thereof

Also Published As

Publication number Publication date
JP2008003613A (en) 2008-01-10

Similar Documents

Publication Publication Date Title
CN101212699B (en) Three-dimensional image display apparatus and method and system for processing three-dimensional image signal
CN102893620B (en) Integrated field configurable headset system
CN112585669A (en) Display processing circuitry
US20100165145A1 (en) Image pickup apparatus and method, image processing apparatus and method, image display system, recording medium and program
US10832636B2 (en) Image processing apparatus, image processing method, and program
TR201802291T4 (en) Multiple regression estimators with multiple color channels.
US11122245B2 (en) Display apparatus, method for controlling the same and image providing apparatus
JP2015141333A (en) Image processing apparatus, image processing method, display device, display device control method, and program
Chalmers et al. HDR video past, present and future: A perspective
JP2008098966A (en) Image processing apparatus, image processing method and program
US11356633B2 (en) Video signal processing apparatus, video signal processing method, and video signal processing system
JP2003069961A (en) Frame rate conversion
WO2019008819A1 (en) Image display device and image display method
KR20200014691A (en) Imaging apparatus, control method, recording medium, and information processing apparatus
US9672650B2 (en) Image processing apparatus, image processing method, and storage medium
US9374576B2 (en) Fused region-based VDR prediction
JP5904754B2 (en) Information processing system, information processing apparatus, control method therefor, and program
US6606422B1 (en) Method and apparatus for processing and recovering images
JP4605189B2 (en) Video display apparatus and method
KR20060135736A (en) Changing the aspect ratio of images to be displayed on a screen
JP4010173B2 (en) Video display device and video display method
US8068691B2 (en) Sparkle processing
US20230368489A1 (en) Enhancing image data for different types of displays
JP2008079224A (en) Image data processing system, and image data processing method
CN108495053B (en) Metadata processing method and device for high dynamic range signal

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100920

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees