JP2008233854A - Image signal processing device, image signal processing method and program - Google Patents

Image signal processing device, image signal processing method and program Download PDF

Info

Publication number
JP2008233854A
JP2008233854A JP2007261601A JP2007261601A JP2008233854A JP 2008233854 A JP2008233854 A JP 2008233854A JP 2007261601 A JP2007261601 A JP 2007261601A JP 2007261601 A JP2007261601 A JP 2007261601A JP 2008233854 A JP2008233854 A JP 2008233854A
Authority
JP
Japan
Prior art keywords
image signal
processing
unit
pixel
electron beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007261601A
Other languages
Japanese (ja)
Other versions
JP5110358B2 (en
Inventor
Takashi Tago
隆司 多胡
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007261601A priority Critical patent/JP5110358B2/en
Priority to TW096141892A priority patent/TWI384437B/en
Priority to BRPI0720400-0A priority patent/BRPI0720400A2/en
Priority to AU2007335487A priority patent/AU2007335487B2/en
Priority to KR1020097012575A priority patent/KR20090091177A/en
Priority to PCT/JP2007/074260 priority patent/WO2008075658A1/en
Priority to CN2007800468541A priority patent/CN101589418B/en
Priority to US12/517,375 priority patent/US20100033515A1/en
Priority to EP07850748A priority patent/EP2093746A4/en
Publication of JP2008233854A publication Critical patent/JP2008233854A/en
Application granted granted Critical
Publication of JP5110358B2 publication Critical patent/JP5110358B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve such a natural display equivalent to that of a CRT display device as looks as an image displayed by the CRT display device when an image signal is displayed by an FPD display device e.g. of a display type other than that of the CRT display device. <P>SOLUTION: An ABL processing part 33 applies a processing emulated from an ABL (Automatic Beam current Limiter) processing to an image signal, a VM processing part 34 applies a processing emulated from a VM (Velocity Modulation) processing to the processed image signal, and a CRT γ processing part 35 executes gamma correction for the processing image signal. This invention can be applied to the case that an image looking as an image displayed in the CRT is displayed in an LCD. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像信号処理装置、画像信号処理方法、及びプログラムに関し、特に、例えば、ABL(Automatic Beam current Limiter)処理、VM(Velocity Modulation)処理、及びCRT(Cathode Ray Tube)用γ処理を含むFPD(Flat Panel Display)(フラットディスプレイ)用信号処理を行うことにより、FPDの表示装置であるFPD表示装置において、CRTの表示装置であるCRT表示装置と同等の自然な表示を行うことができるようにする画像信号処理装置、画像信号処理方法、及びプログラムに関する。   The present invention relates to an image signal processing device, an image signal processing method, and a program, and particularly includes, for example, ABL (Automatic Beam current Limiter) processing, VM (Velocity Modulation) processing, and CRT (Cathode Ray Tube) γ processing. By performing FPD (Flat Panel Display) signal processing, the FPD display device, which is an FPD display device, can perform natural display equivalent to the CRT display device, which is a CRT display device. The present invention relates to an image signal processing device, an image signal processing method, and a program.

図1は、従来の、例えば、LCD(Liquid Crystal Display)等のFPDの表示装置(FPD表示装置)の一例の構成を示している。   FIG. 1 shows an example of a conventional FPD display device (FPD display device) such as an LCD (Liquid Crystal Display).

明るさ調整コントラスト調整部11は、入力された画像信号にオフセットを掛けることで、画像信号の明るさ調整をし、ゲインを調整することで、画像信号のコントラスト調整をして、高画質化処理部12に供給する。   The brightness adjustment / contrast adjustment unit 11 adjusts the brightness of the image signal by applying an offset to the input image signal, and adjusts the contrast of the image signal by adjusting the gain. To the unit 12.

高画質化処理部12は、DRC(Digital Reality Creation)を代表とする高画質化処理を行う。すなわち、高画質化処理部12は、高画質画像を得るための処理ブロックで、明るさ調整コントラスト調整部11からの画像信号に対して、画素数変換などを含む画像信号処理を行って、γ補正部13に供給する。   The high image quality processing unit 12 performs high image quality processing represented by DRC (Digital Reality Creation). That is, the image quality improvement processing unit 12 is a processing block for obtaining a high quality image, and performs image signal processing including pixel number conversion on the image signal from the brightness adjustment contrast adjustment unit 11 to obtain γ This is supplied to the correction unit 13.

ここで、DRCについては、例えば、特開2005-236634号公報や特開2002-223167号公報等に、クラス分類適応処理として記載されている。   Here, DRC is described as class classification adaptation processing in, for example, JP-A-2005-236634 and JP-A-2002-223167.

γ補正部13は、CRT表示装置において暗部が見えにくいなどの理由で本来の蛍光体(CRTの発光部)が持つγ特性に加えて信号処理により暗部の信号レベルを調整するガンマ補正処理を行う処理ブロックである。   The γ correction unit 13 performs a gamma correction process for adjusting the signal level of the dark part by signal processing in addition to the γ characteristic of the original phosphor (CRT light emitting part) because the dark part is difficult to see in the CRT display device. Processing block.

ここで、LCDにおいてもLCDパネル内部に液晶の光電変換特性(透過特性)をCRTのγ特性に合わせる処理回路が入っているため、従来のFPD表示装置では、CRT表示装置と同様にγ補正処理を行っている。   Here, the LCD also has a processing circuit that adjusts the photoelectric conversion characteristics (transmission characteristics) of the liquid crystal to the γ characteristics of the CRT inside the LCD panel. Therefore, in conventional FPD display devices, γ correction processing is performed in the same way as CRT display devices. It is carried out.

γ補正部13は、高画質化処理部12からの画像信号に対してガンマ補正処理を施し、その結果得られる画像信号を、図示せぬFPDとしての、例えば、LCDに供給する。これにより、LCDでは、画像が表示される。   The γ correction unit 13 performs a gamma correction process on the image signal from the image quality improvement processing unit 12 and supplies the image signal obtained as a result to an LCD (not shown) such as an LCD. Thereby, an image is displayed on the LCD.

以上のように、従来のFPD表示装置では、画像信号はコントラストや明るさ調整の処理が行われた後、高画質化処理、ガンマ補正処理を経てFPDに直接入力されている。(図1)   As described above, in the conventional FPD display device, the image signal is directly input to the FPD through the image quality improvement process and the gamma correction process after the contrast and brightness adjustment processes are performed. (Figure 1)

このため、FPD表示装置では、入力と表示画像の明るさはガンマに従った比例関係になるが、表示画像は、CRT表示装置と比べ、明るすぎたりやギラツキが感じられる画像になってしまう。   For this reason, in the FPD display device, the brightness of the input and the display image has a proportional relationship according to gamma, but the display image becomes an image that is too bright or glare compared to the CRT display device.

そこで、暗い部分の階調表現能力がCRTに比べてパネルの特性が落ちるディスプレイ装置において、別のABL回路を使用せずに、適応的に階調表現力を改善する方法がある(例えば、特許文献1を参照)。   Therefore, there is a method to adaptively improve the gradation expression without using a separate ABL circuit in the display device in which the gradation expression ability in the dark part has a panel characteristic lower than that of the CRT (for example, patent) Reference 1).

特開2005-39817号公報JP 2005-39817 A

ところで、上述のように、FPD表示装置で表示される画像が、CRT表示装置と比べ、明るすぎたりやギラツキが感じられる画像になってしまうのは、従来のCRT表示装置に搭載していた画像信号だけを対象とした処理を行う画像信号処理系のみをFPD向けに修正して、FPD表示装置に搭載したためで、CRT表示装置が画像信号処理系だけでなく、駆動系そのものの持つ特有の応答特性と駆動系を含めた総合的な信号処理による表示装置というシステム構造が考慮されていないことに原因がある。   By the way, as described above, the image displayed on the FPD display device becomes an image that is too bright or glare compared to the CRT display device. Only the image signal processing system that processes only the signal is modified for FPD and installed in the FPD display device, so the CRT display device has a unique response not only in the image signal processing system but also in the drive system itself This is because the system structure of a display device by comprehensive signal processing including characteristics and drive system is not taken into consideration.

本発明は、このような状況に鑑みてなされたものであり、CRT表示装置以外の表示方式の、例えば、FPD表示装置で画像信号を表示したときに、CRT表示装置で表示された画像に見えるような、CRT表示装置と同等の自然な表示を行うことができるようにするものである。   The present invention has been made in view of such a situation, and when an image signal is displayed on a display method other than a CRT display device, for example, an FPD display device, the image appears on the CRT display device. Thus, a natural display equivalent to that of a CRT display device can be performed.

本発明の一側面の画像信号処理装置、又は、プログラムは、CRT(Cathode Ray Tube)以外の表示方式の表示装置で画像信号を表示したときに、CRT表示装置で表示された画像に見えるように前記画像信号を処理する画像信号処理装置であり、前記画像信号に対してABL(Automatic Beam current Limiter)処理をエミュレートする処理を適用するABL処理手段と、前記ABL処理手段で処理された画像信号に対してVM(Velocity Modulation)処理をエミュレートする処理を適用するVM処理手段と、前記VM処理手段で処理された画像信号に対してガンマ補正を行うガンマ補正手段とを備える画像信号処理装置、又は、画像信号処理装置として、コンピュータを機能させるプログラムである。   The image signal processing apparatus or the program according to one aspect of the present invention can be viewed as an image displayed on the CRT display device when the image signal is displayed on a display device other than a CRT (Cathode Ray Tube). An image signal processing device that processes the image signal, an ABL processing unit that applies a process of emulating an ABL (Automatic Beam Current Limiter) process to the image signal, and an image signal processed by the ABL processing unit An image signal processing apparatus comprising: VM processing means for applying processing for emulating VM (Velocity Modulation) processing; and gamma correction means for performing gamma correction on the image signal processed by the VM processing means, Or it is a program which makes a computer function as an image signal processing apparatus.

本発明の一側面の画像信号処理方法は、CRT(Cathode Ray Tube)以外の表示方式の表示装置で画像信号を表示したときに、CRT表示装置で表示された画像に見えるように前記画像信号を処理する画像信号処理装置の画像信号処理方法であり、前記画像信号に対してABL(Automatic Beam current Limiter)処理をエミュレートする処理を適用し、前記ABL処理をエミュレートする処理がされた画像信号に対してVM(Velocity Modulation)処理をエミュレートする処理を適用し、前記VM処理をエミュレートする処理がされた画像信号に対してガンマ補正を行うステップを含む画像信号処理方法である。   According to an image signal processing method of one aspect of the present invention, when an image signal is displayed on a display device other than a CRT (Cathode Ray Tube), the image signal is displayed so that the image signal can be seen on the CRT display device. An image signal processing method of an image signal processing apparatus for processing, wherein an image signal subjected to a process for emulating the ABL process is applied by applying a process for emulating an ABL (Automatic Beam Current Limiter) process to the image signal The image signal processing method includes a step of applying a process for emulating a VM (Velocity Modulation) process to the image signal and performing a gamma correction on the image signal subjected to the process for emulating the VM process.

本発明の一側面においては、前記画像信号に対してABL処理をエミュレートする処理が適用され、その処理後の画像信号に対してVM処理をエミュレートする処理が適用される。さらに、その処理後の画像信号に対してガンマ補正が行われる。   In one aspect of the present invention, a process of emulating ABL processing is applied to the image signal, and a process of emulating VM processing is applied to the image signal after the processing. Further, gamma correction is performed on the processed image signal.

本発明の一側面によれば、CRT表示装置と同等の自然な表示を行うことができる。   According to one aspect of the present invention, natural display equivalent to that of a CRT display device can be performed.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. Not something to do.

本発明の一側面の画像信号処理装置、又は、プログラムは、
CRT(Cathode Ray Tube)以外の表示方式の表示装置(例えば、LCD等のFPDを有するFPD表示装置)で画像信号を表示したときに、CRT表示装置で表示された画像に見えるように前記画像信号を処理する画像信号処理装置であり、
前記画像信号に対してABL(Automatic Beam current Limiter)処理をエミュレートする処理を適用するABL処理手段(例えば、図2のABL処理部33)と、
前記ABL処理手段で処理された画像信号に対してVM(Velocity Modulation)処理をエミュレートする処理を適用するVM処理手段(例えば、図2のVM処理部34)と、
前記VM処理手段で処理された画像信号に対してガンマ補正を行うガンマ補正手段(例えば、図2のCRTγ処理部35)と
を備える画像信号処理装置、又は、画像信号処理装置としてコンピュータを機能させるプログラムである。
An image signal processing apparatus or program according to an aspect of the present invention is provided.
When an image signal is displayed on a display device of a display method other than CRT (Cathode Ray Tube) (for example, an FPD display device having an FPD such as an LCD), the image signal can be seen as an image displayed on the CRT display device. An image signal processing device for processing
ABL processing means (for example, the ABL processing unit 33 in FIG. 2) that applies processing for emulating ABL (Automatic Beam Current Limiter) processing to the image signal;
VM processing means (for example, the VM processing unit 34 in FIG. 2) that applies processing for emulating VM (Velocity Modulation) processing on the image signal processed by the ABL processing means;
An image signal processing device comprising gamma correction means (for example, the CRTγ processing unit 35 in FIG. 2) for performing gamma correction on the image signal processed by the VM processing means, or causing a computer to function as an image signal processing device It is a program.

前記VM処理手段には、前記ABL処理手段で処理された画像信号を対象として、前記CRT表示装置の電子ビームの偏向速度の変化が輝度に影響する影響分の補正を行う輝度補正手段(例えば、図5の輝度補正部210)を設けることができる。   In the VM processing unit, a luminance correction unit (for example, a correction unit that corrects an influence of a change in the deflection speed of the electron beam of the CRT display device on the luminance of the image signal processed by the ABL processing unit (for example, The luminance correction unit 210) of FIG. 5 can be provided.

前記VM処理手段には、前記ABL処理手段で処理された画像信号を対象として、前記CRT表示装置の電子ビームが広がって前記CRT表示装置の蛍光体に衝突することをエミュレートする処理を施すEB(Erectron Beam)処理手段(例えば、図5のEB処理部220)を設けることができる。   The VM processing means performs processing for emulating that the electron beam of the CRT display device spreads and collides with the phosphor of the CRT display device for the image signal processed by the ABL processing means. (Erectron Beam) processing means (for example, the EB processing unit 220 in FIG. 5) can be provided.

本発明の一側面の画像信号処理方法は、
CRT(Cathode Ray Tube)以外の表示方式の表示装置で画像信号を表示したときに、CRT表示装置で表示された画像に見えるように前記画像信号を処理する画像信号処理装置の画像信号処理方法であり、
前記画像信号に対してABL(Automatic Beam current Limiter)処理をエミュレートする処理を適用し(例えば、図4のステップS13)、
前記ABL処理をエミュレートする処理がされた画像信号に対してVM(Velocity Modulation)処理をエミュレートする処理を適用し(例えば、図4のステップS14)、
前記VM処理をエミュレートする処理がされた画像信号に対してガンマ補正を行う(例えば、図4のステップS15)
ステップを含む画像信号処理方法である。
An image signal processing method according to one aspect of the present invention includes:
An image signal processing method for an image signal processing apparatus that processes an image signal so that the image is displayed on a CRT display device when the image signal is displayed on a display device other than a CRT (Cathode Ray Tube). Yes,
A process of emulating an ABL (Automatic Beam current Limiter) process is applied to the image signal (for example, step S13 in FIG. 4),
A process of emulating a VM (Velocity Modulation) process is applied to an image signal that has been processed to emulate the ABL process (for example, step S14 in FIG. 4),
Gamma correction is performed on the image signal that has been processed to emulate the VM processing (for example, step S15 in FIG. 4).
An image signal processing method including steps.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図2は、本発明を適用したFPD表示装置が有する画像信号処理装置の一実施の形態の構成例を示している。   FIG. 2 shows a configuration example of an embodiment of an image signal processing device included in an FPD display device to which the present invention is applied.

図2の画像信号処理装置は、CRT以外の表示方式の表示装置、すなわち、ここでは、例えば、LCD等のFPDを有するFPD表示装置で画像信号を表示したときに、CRT表示装置で表示された画像に見えるように画像信号を処理する。   The image signal processing apparatus of FIG. 2 is displayed on a CRT display apparatus when an image signal is displayed on a display apparatus other than a CRT, that is, an FPD display apparatus having an FPD such as an LCD here. Process the image signal so that it looks like an image.

ここで、図2の画像信号処理装置について説明する前に、図2の画像信号処理装置で表示しようとしている画像を表示するCRT表示装置、すなわち、図2の画像信号処理装置がエミュレートするCRT表示装置について説明する。 Before describing the image signal processing apparatus of FIG. 2, a CRT display apparatus that displays an image to be displayed by the image signal processing apparatus of FIG. 2, that is, a CRT emulated by the image signal processing apparatus of FIG. The display device will be described.

図3は、CRT表示装置の構成例を示している。   FIG. 3 shows a configuration example of a CRT display device.

CRT表示装置では、明るさ調整コントラスト調整部51と、高画質化処理部52において、画像信号に対して、図1の明るさ調整コントラスト調整部11と、高画質化処理部12のそれぞれと同様の処理が施され、その処理後の画像信号が、ゲイン調整部53、及び画像信号微分回路60に供給される。   In the CRT display device, the brightness adjustment contrast adjustment unit 51 and the image quality improvement processing unit 52 are the same as the brightness adjustment contrast adjustment unit 11 and the image quality improvement processing unit 12 of FIG. The processed image signal is supplied to the gain adjusting unit 53 and the image signal differentiating circuit 60.

ゲイン調整部(リミッタ)53は、後述するABL制御部59からのABL制御信号により、高画質化処理部52からの画像信号の信号レベルを制限し、γ補正部54に供給する。すなわち、ゲイン調整部53は、後述するCRT56の電子ビームの電流量を直接制限する代わりに、高画質化処理部52から画像信号のゲインを調整する。   The gain adjustment unit (limiter) 53 limits the signal level of the image signal from the image quality improvement processing unit 52 by an ABL control signal from the ABL control unit 59 described later, and supplies the signal level to the γ correction unit 54. That is, the gain adjustment unit 53 adjusts the gain of the image signal from the image quality improvement processing unit 52 instead of directly limiting the amount of electron beam current of the CRT 56 described later.

γ補正部54は、ゲイン調整部53からの画像信号に対して、図1のγ補正部13と同様のγ補正処理を施し、その結果得られる画像信号を、ビデオ(Video)増幅器55に供給する。   The γ correction unit 54 performs γ correction processing similar to that of the γ correction unit 13 of FIG. 1 on the image signal from the gain adjustment unit 53, and supplies the resulting image signal to the video amplifier 55. To do.

ビデオ増幅器55は、γ補正部54からの画像信号を増幅し、CRT駆動画像信号として、CRT56に供給する。   The video amplifier 55 amplifies the image signal from the γ correction unit 54 and supplies it to the CRT 56 as a CRT drive image signal.

一方、FBT(Flyback Transformer)57は、CRT表示装置において、電子ビームの水平走査を行うための水平偏向駆動電流、及びCRT(ブラウン管)56のアノード電圧を発生するためのトランスで、その出力は、ビーム電流検出部58に供給される。   On the other hand, an FBT (Flyback Transformer) 57 is a transformer for generating a horizontal deflection driving current for horizontal scanning of an electron beam and an anode voltage of a CRT (CRT) 56 in a CRT display device, and its output is It is supplied to the beam current detector 58.

ビーム電流検出部58は、FBT57の出力から、ABL制御に必要な電子ビームの電流量を検出し、CRT56、及びABL制御部59に供給する。   The beam current detection unit 58 detects the amount of electron beam current necessary for ABL control from the output of the FBT 57 and supplies it to the CRT 56 and the ABL control unit 59.

ABL制御部59は、ビーム電流検出部58からの電子ビームの電流値を計測し、画像信号の信号レベルを制御するABL制御のためのABL制御信号を、ゲイン調整部53に出力する。   The ABL control unit 59 measures the current value of the electron beam from the beam current detection unit 58 and outputs an ABL control signal for ABL control for controlling the signal level of the image signal to the gain adjustment unit 53.

一方、画像信号微分回路60は、高画質化処理部52からの画像信号を微分し、その結果得られる画像信号の微分値を、VM駆動回路61に供給する。   On the other hand, the image signal differentiating circuit 60 differentiates the image signal from the image quality enhancement processing unit 52 and supplies the differential value of the image signal obtained as a result to the VM drive circuit 61.

VM(Velocity Modulation)(速度変調)駆動回路61は、CRT表示装置において、電子ビームの偏向(水平偏向)速度を部分的に変えることで同一画像信号でも表示輝度を変えるVM処理を行う。CRT表示装置において、VM処理は、主たる水平偏向回路(偏向ヨークDY、FBT57、水平駆動回路(図示せず)等により構成される)とは別に、専用のVMコイル(図示せず)とVM駆動回路61を用いて実現される。   A VM (Velocity Modulation) drive circuit 61 performs VM processing for changing the display luminance even for the same image signal by partially changing the deflection (horizontal deflection) speed of the electron beam in the CRT display device. In the CRT display device, VM processing is performed separately from the main horizontal deflection circuit (consisting of deflection yoke DY, FBT57, horizontal drive circuit (not shown), etc.) and dedicated VM coil (not shown) and VM drive. This is realized using the circuit 61.

すなわち、VM駆動回路61は、画像信号微分回路60からの画像信号の微分値に基づき、VMコイルを駆動するVMコイル駆動信号を生成し、CRT56に供給する。   That is, the VM drive circuit 61 generates a VM coil drive signal for driving the VM coil based on the differential value of the image signal from the image signal differentiation circuit 60 and supplies the VM coil drive signal to the CRT 56.

CRT56は、電子銃EGや、偏向ヨークDY等で構成される。CRT56では、電子銃EGが、ビーム電流検出部58の出力や、ビデオ増幅器55からのCRT駆動画像信号にしたがって電子ビームを放射し、その電子ビームが、コイルである偏向ヨークDYが発生する磁界に応じて水平と垂直の方向を変えて(走査され)、CRT56の蛍光面に衝突することにより、画像が表示される。   The CRT 56 includes an electron gun EG, a deflection yoke DY, and the like. In the CRT 56, the electron gun EG emits an electron beam according to the output of the beam current detection unit 58 and the CRT drive image signal from the video amplifier 55, and the electron beam becomes a magnetic field generated by the deflection yoke DY which is a coil. Accordingly, the horizontal and vertical directions are changed (scanned) and collided with the phosphor screen of the CRT 56 to display an image.

また、CRT56では、VM駆動回路61からのVMコイル駆動信号に応じて、VMコイルが駆動され、これにより、電子ビームの偏向速度が部分的に変更され、これにより、例えば、CRT56に表示される画像のエッジの強調等がされる。   Further, in the CRT 56, the VM coil is driven in accordance with the VM coil drive signal from the VM drive circuit 61, whereby the deflection speed of the electron beam is partially changed, and thereby displayed on the CRT 56, for example. The edge of the image is enhanced.

図3からわかるように、CRT表示装置では、偏向速度を部分的に変えるVM処理、及び電子ビームの電流量を制限するABL処理(ABL制御)が画像信号が処理されるパス以外で行われ、CRT56に表示される画像の画質に影響を与える制御信号を作っている。   As can be seen from FIG. 3, in the CRT display device, VM processing for partially changing the deflection speed and ABL processing (ABL control) for limiting the amount of current of the electron beam are performed in a path other than the path where the image signal is processed, A control signal that affects the image quality of the image displayed on the CRT 56 is created.

これらのVM処理、及びABL処理による影響が現れた画像をFPDで表示するには、FPDは、CRTと駆動方法が全く異なるため、画像信号が処理されるパス上で、VM処理、及びABL処理に相当する処理を行う形をとる必要がある。   To display images affected by VM processing and ABL processing with FPD, FPD is completely different from CRT and driving method. Therefore, VM processing and ABL processing are performed on the path where image signals are processed. It is necessary to take the form corresponding to the process.

そこで、図2の画像信号処理装置においては、図2に示すような処理順で画像信号を変換することにより、FPDの駆動方法に適応し、かつ、CRT表示装置と同様の自然な表示を行うことを可能とする。   Therefore, in the image signal processing apparatus of FIG. 2, the image signal is converted in the processing order as shown in FIG. 2, thereby adapting to the FPD driving method and performing the same natural display as the CRT display apparatus. Make it possible.

すなわち、図2の画像信号処理装置において、明るさ調整コントラスト調整部31と、高画質化処理部32では、画像信号に対して、図1の明るさ調整コントラスト調整部11と、高画質化処理部12のそれぞれと同様の処理が施され、ABL処理部33、全画面明るさ平均レベル検出部36、及びピーク検出微分制御値検出部37に供給される。   That is, in the image signal processing apparatus of FIG. 2, the brightness adjustment contrast adjustment unit 31 and the image quality improvement processing unit 32 perform the image adjustment processing on the image signal with the brightness adjustment contrast adjustment unit 11 of FIG. The same processing as that of each of the units 12 is performed and supplied to the ABL processing unit 33, the full screen brightness average level detection unit 36, and the peak detection differential control value detection unit 37.

ABL処理部33は、LCDにおいてCRTと同様の明るさ特性を得るために、画像が一定以上の明るさ(輝度とその面積)になる場合に、高画質化処理部32からの画像信号のレベルを、ABL制御部38からの制御に従って制限するABLエミュレート処理を行う。   The ABL processing unit 33 obtains the same brightness characteristic as the CRT in the LCD, and the level of the image signal from the high image quality processing unit 32 when the image has a certain level of brightness (luminance and area). ABL emulation processing is performed to limit the above in accordance with control from the ABL control unit 38.

ここで、図2におけるABLエミュレート処理は、図3におけるABL処理をエミュレーションする処理である。   Here, the ABL emulation process in FIG. 2 is a process for emulating the ABL process in FIG.

すなわち、CRT表示装置で行われるABL処理は、CRTにおいて、電子ビーム(電流)が過大とならないよう一定以上の明るさ(輝度とその面積)になった場合に電流を制限する処理であるが、ABL処理部33は、図3におけるABL処理のエミュレーションを行う。   That is, the ABL process performed in the CRT display device is a process that limits the current when the brightness (luminance and its area) exceeds a certain level so that the electron beam (current) does not become excessive in the CRT. The ABL processing unit 33 performs emulation of the ABL processing in FIG.

図2では、ABL処理部33は、CRTにおいて電子ビームの電流を制限することにより、大面積で明るい画像を表示させようとした場合に実際の表示輝度を低く抑える処理(ABLエミュレート処理)を、画像信号の信号レベルを制限する処理として非線形演算処理により行う。   In FIG. 2, the ABL processing unit 33 performs a process (ABL emulation process) for limiting the actual display brightness when an attempt is made to display a bright image with a large area by limiting the current of the electron beam in the CRT. As a process for limiting the signal level of the image signal, a non-linear operation process is performed.

すなわち、図2において、全画面明るさ平均レベル検出部36は、高画質化処理部32からの画像信号に基づき、画面の明るさや平均レベルを検出し、ピーク検出微分制御値検出部37、及びABL制御部38に供給する。ABL制御部38は、全画面明るさ平均レベル検出部36からの画面の明るさや平均レベルの検出結果より画面の明るさとその面積を検出し、それによって画面上の明るさを制限するための制御信号を生成して、ABL処理部33に供給する。ABL処理部33は、ABL制御部38からの制御信号を元に高画質化処理部32からの画像信号に対し上記非線形演算を行うことでABL処理を実現(エミュレート)する。   That is, in FIG. 2, the full screen brightness average level detection unit 36 detects the screen brightness and average level based on the image signal from the image quality enhancement processing unit 32, and detects the peak detection differential control value detection unit 37, and This is supplied to the ABL control unit 38. The ABL control unit 38 detects the screen brightness and its area from the screen brightness and average level detection results from the full screen brightness average level detection unit 36, and thereby controls the brightness on the screen. A signal is generated and supplied to the ABL processing unit 33. The ABL processing unit 33 realizes (emulates) ABL processing by performing the above-described non-linear operation on the image signal from the image quality improvement processing unit 32 based on the control signal from the ABL control unit 38.

ABL処理部33でABL処理が施された画像信号は、VM処理部34に供給される。   The image signal subjected to ABL processing by the ABL processing unit 33 is supplied to the VM processing unit 34.

VM処理部34は、図3のCRT表示装置におけるVM処理と同等の処理を画像信号に対して行うための処理ブロックで、図3のCRT表示装置で行われるVM処理のエミュレーションを行う。   The VM processing unit 34 is a processing block for performing processing equivalent to the VM processing in the CRT display device of FIG. 3 on the image signal, and performs emulation of the VM processing performed in the CRT display device of FIG.

すなわち、図2において、ピーク検出微分制御値検出部37は、高画質化処理部32からの画像信号から、画像信号の部分的なピーク信号や、画像信号の微分により得られるエッジ信号を求めて、全画面明るさ平均レベル検出部36からの画面の明るさや平均レベルとともに、VM制御部39に供給する。VM制御部39は、ピーク検出微分制御値検出部37からの、画像信号の部分的なピーク信号や画像信号の微分により得られるエッジ信号、画面の明るさなどを元に、部分的に画像信号のレベルを変化させる、CRT表示装置におけるVMコイル駆動信号に相当するVM制御信号を生成し、VM処理部34に供給する。   That is, in FIG. 2, the peak detection differential control value detection unit 37 obtains a partial peak signal of the image signal and an edge signal obtained by differentiation of the image signal from the image signal from the image quality improvement processing unit 32. The full screen brightness average level detection unit 36 supplies the screen brightness and average level to the VM control unit 39. The VM control unit 39 partially outputs the image signal based on the partial peak signal of the image signal from the peak detection differentiation control value detection unit 37, the edge signal obtained by the differentiation of the image signal, the brightness of the screen, and the like. The VM control signal corresponding to the VM coil drive signal in the CRT display device is generated and supplied to the VM processing unit 34.

VM処理部34は、VM制御部39により生成されたVM制御信号により、部分的に、ABL処理部33からの画像信号のレベルを変化させる処理、すなわち、画像信号の部分的な補正、画像信号のエッジ部やピークの強調などの処理を行う。   The VM processing unit 34 partially changes the level of the image signal from the ABL processing unit 33 by the VM control signal generated by the VM control unit 39, that is, partial correction of the image signal, image signal Processes such as edge enhancement and peak enhancement.

ここで、図3のCRT表示装置では、CRT56において信号の立ち上がり時に輝度変化が不足するのを補うために、VM処理が行われるが、画像信号そのものに補正を掛けるのではなく、偏向ヨークDYにあるVMコイルを用い、CRT56特有の水平偏向の偏向速度(時間)を変化させることで結果として輝度を変化させている。   Here, in the CRT display device of FIG. 3, VM processing is performed to compensate for the lack of luminance change at the rise of the signal in the CRT 56. However, the correction is not applied to the image signal itself, but the deflection yoke DY is applied. The luminance is changed as a result by using a certain VM coil and changing the deflection speed (time) of the horizontal deflection peculiar to the CRT 56.

VM処理部34は、CRT表示装置で行われるVM処理によって生じる輝度変化分に相当する補正値を演算して、その補正値によって画像信号を補正する演算処理を行うことで、CRT表示装置で行われるVM処理のエミュレーションをする。   The VM processing unit 34 calculates a correction value corresponding to a luminance change caused by the VM processing performed in the CRT display device, and performs a calculation process for correcting the image signal using the correction value. Emulation of VM processing.

CRTγ処理部35は、LCDにおいて、従来のLCDパネルがパネル内部に持っていたCRTと同等のγ特性を得るための処理回路(変換回路)で行われていた処理を含むγ補正処理、及び色温度補償処理を行うため、各色信号(コンポーネント信号)のレベルを調整する処理を行う。   The CRT γ processing unit 35 includes a γ correction process including a process performed in a processing circuit (conversion circuit) for obtaining a γ characteristic equivalent to that of a CRT that a conventional LCD panel has in the panel, and a color. In order to perform temperature compensation processing, processing for adjusting the level of each color signal (component signal) is performed.

ここで、図2におけるCRTγ処理部35は、同一LCD画面上でCRTの特性だけでなくPDPやLEDディスプレイなど複数の表示特性を表現する際に必要となる電気光変換特性の補正を行う部分で、本実施の形態ではLCDの入力電圧−透過率特性をCRTの電気−輝度特性に合わせるために必要な処理を行う。   Here, the CRTγ processing unit 35 in FIG. 2 is a part that corrects not only the characteristics of the CRT on the same LCD screen but also the electro-optical conversion characteristics necessary for expressing a plurality of display characteristics such as PDP and LED display. In this embodiment, processing necessary for matching the input voltage-transmittance characteristics of the LCD with the electro-luminance characteristics of the CRT is performed.

すなわち、図2において、表示色温度補償制御部40は、LCDの表示画面を複数の表示エリアに区分して、各表示エリアに、複数の異なる表示特性を持った表示デバイスで表示されるであろう画像と同様の画質の画像を提示するシステムにおいて、CRTで表示されるであろう画像と同様の画質の画像を表示させる表示エリアの表示色温度をCRT用の色温度として表示させるための制御信号を、各色信号(コンポーネント信号)のバランスを調整する制御を行うために生成し、CRTγ処理部35に供給する。そして、CRTγ処理部35では、表示色温度補償制御部40からの制御信号に従い、VM処理部34からの画像信号の各色信号のバランスを調整する処理も行う。   That is, in FIG. 2, the display color temperature compensation control unit 40 divides the LCD display screen into a plurality of display areas, and each display area is displayed by a display device having a plurality of different display characteristics. Control to display the display color temperature of the display area that displays an image with the same image quality as the image that would be displayed on the CRT as the color temperature for the CRT in a system that presents an image with the same image quality as the wax image The signal is generated to perform control for adjusting the balance of each color signal (component signal), and is supplied to the CRTγ processing unit 35. The CRTγ processing unit 35 also performs a process of adjusting the balance of each color signal of the image signal from the VM processing unit 34 in accordance with the control signal from the display color temperature compensation control unit 40.

CRT、LCD、PDPではホワイトバランスや色温度、およびその対輝度変化がそれぞれ異なるため、図2の表示色温度補償制御部40が必要になる。   Since the CRT, LCD, and PDP have different white balance, color temperature, and change in luminance with respect to each other, the display color temperature compensation controller 40 shown in FIG. 2 is required.

CRTγ処理部35が表示色温度補償制御部40からの制御信号に従って行う処理には従来LCDなどフラットパネルの内部で処理されていた、各パネルの階調特性をCRTと同等になるように変換していた処理回路が行う処理を含み、表示パネルによる特性の違いを吸収する処理を行う。   For the processing performed by the CRTγ processing unit 35 in accordance with the control signal from the display color temperature compensation control unit 40, the gradation characteristics of each panel, which has been conventionally processed inside a flat panel such as an LCD, is converted to be equivalent to the CRT. Including the processing performed by the processing circuit, the processing for absorbing the difference in characteristics depending on the display panel is performed.

そして、CRTγ処理部35は、VM処理部34からの画像信号に対して、以上の処理を施した後、その処理後の画像信号を、図示せぬFPDとしてのLCDに供給して表示させる。   Then, the CRTγ processing unit 35 performs the above processing on the image signal from the VM processing unit 34, and then supplies the processed image signal to an LCD (not shown) as an FPD for display.

以上のように、図2の画像信号処理装置では、CRT表示装置において行われていた処理を画像信号処理に置き換えるだけではなく、処理手順(ABL処理部33の処理後に、VM処理部34の処理を行い、VM処理部34の処理後に、CRTγ処理部35の処理を行うという処理手順)も考慮することで、より正しくLCDの表示を、CRT表示装置で表示される画像の画質に近づけることを可能にする。したがって、図2の画像信号処理装置によれば、LCDにCRTと同等な表示特性にて画像を出力することが可能になる。   As described above, in the image signal processing apparatus of FIG. 2, not only the processing performed in the CRT display device is replaced with the image signal processing but also the processing procedure (the processing of the VM processing section 34 after the processing of the ABL processing section 33). The processing procedure of performing the processing of the CRTγ processing unit 35 after the processing of the VM processing unit 34 is also taken into consideration, so that the LCD display can be more accurately brought close to the image quality of the image displayed on the CRT display device. enable. Therefore, according to the image signal processing apparatus of FIG. 2, an image can be output to the LCD with display characteristics equivalent to those of a CRT.

さらに、図2の画像信号処理装置によれば、CRTそのものの特性違いによる表示特性をエミュレートすることが可能になり、色合いや質感の違いを同一LCDにて切り替えることが可能になる。例えば、EBU蛍光体と一般蛍光体の発色の違いを同一画面上で比べることで送出時の色調整や画質調整を正確に行う、などを容易に行うことが可能になる。   Further, according to the image signal processing apparatus of FIG. 2, it is possible to emulate display characteristics due to the difference in characteristics of the CRT itself, and it is possible to switch between different hues and textures on the same LCD. For example, it is possible to easily perform color adjustment and image quality adjustment at the time of transmission by comparing the difference in color development between the EBU phosphor and the general phosphor on the same screen.

また、図2の画像信号処理装置によれば、同様に、LCDとCRTの表示特性による違いを容易に確認することが可能である。   In addition, according to the image signal processing apparatus of FIG. 2, it is possible to easily confirm the difference due to the display characteristics of the LCD and the CRT.

さらに、図2の画像信号処理装置によれば、本来の意味での「好みの画質」で画像を表示することが可能になる。   Furthermore, according to the image signal processing apparatus of FIG. 2, it becomes possible to display an image with the “preferred image quality” in the original sense.

また、図2の画像信号処理装置によれば、処理の範囲を表示画面内で変える事により特性の異なる表示デバイス(例えば、蛍光体の異なるCRT、LCDとCRT、など)で表示される画像を同時に見ることが可能になるため、比較や調整といった用途での利用を容易にすることができる。   Further, according to the image signal processing apparatus of FIG. 2, by changing the processing range in the display screen, images displayed on display devices having different characteristics (for example, CRTs with different phosphors, LCDs and CRTs, etc.) Since it becomes possible to see at the same time, it can be easily used for purposes such as comparison and adjustment.

次に、図4のフローチャートを参照して、図2の画像信号処理装置による画像信号に対する処理の流れについて説明する。   Next, with reference to the flowchart of FIG. 4, the flow of processing for the image signal by the image signal processing apparatus of FIG. 2 will be described.

明るさ調整コントラスト調整部31に、画像信号が供給されると、ステップS11において、明るさ調整コントラスト調整部31は、そこに供給される画像信号の明るさ調整をし、さらに、コントラスト調整をして、高画質化処理部32に供給して、処理は、ステップS12に進む。   When an image signal is supplied to the brightness adjustment / contrast adjustment unit 31, in step S11, the brightness adjustment / contrast adjustment unit 31 adjusts the brightness of the image signal supplied thereto, and further adjusts the contrast. The image quality enhancement processing unit 32 is supplied, and the process proceeds to step S12.

ステップS12では、高画質化処理部32が、明るさ調整コントラスト調整部11からの画像信号に対して、画素数変換などを含む画像信号処理を行って、その画像信号処理後の画像信号を、ABL処理部33、全画面明るさ平均レベル検出部36、及びピーク検出微分制御値検出部37に供給して、処理は、ステップS13に進む。   In step S12, the image quality improvement processing unit 32 performs image signal processing including pixel number conversion on the image signal from the brightness adjustment contrast adjustment unit 11, and the image signal after the image signal processing is processed. The data is supplied to the ABL processing unit 33, the full screen brightness average level detection unit 36, and the peak detection differential control value detection unit 37, and the process proceeds to step S13.

ここで、全画面明るさ平均レベル検出部36は、高画質化処理部32からの画像信号に基づき、画面の明るさや平均レベルを検出し、ピーク検出微分制御値検出部37、及びABL制御部38に供給する。ABL制御部38は、全画面明るさ平均レベル検出部36からの画面の明るさや平均レベルの検出結果に基づき、画面上の明るさを制限するための制御信号を生成して、ABL処理部33に供給する。   Here, the full screen brightness average level detection unit 36 detects the screen brightness and average level based on the image signal from the image quality enhancement processing unit 32, and detects the peak detection differential control value detection unit 37 and the ABL control unit. 38. The ABL control unit 38 generates a control signal for limiting the brightness on the screen based on the screen brightness and the average level detection result from the full screen brightness average level detection unit 36, and the ABL processing unit 33. To supply.

また、ピーク検出微分制御値検出部37は、高画質化処理部32からの画像信号から、画像信号の部分的なピーク信号や、画像信号の微分により得られるエッジ信号を求めて、全画面明るさ平均レベル検出部36からの画面の明るさや平均レベルとともに、VM制御部39に供給する。VM制御部39は、ピーク検出微分制御値検出部37からの、画像信号の部分的なピーク信号や画像信号の微分により得られるエッジ信号、画面の明るさなどを元に、CRT表示装置におけるVMコイル駆動信号に相当するVM制御信号を生成し、VM処理部34に供給する。   Further, the peak detection differentiation control value detection unit 37 obtains a partial peak signal of the image signal or an edge signal obtained by differentiation of the image signal from the image signal from the image quality improvement processing unit 32 to obtain the full screen brightness. Along with the brightness and average level of the screen from the average level detection unit 36, it is supplied to the VM control unit 39. The VM control unit 39 uses the VM signal in the CRT display device based on the partial peak signal of the image signal from the peak detection differential control value detection unit 37, the edge signal obtained by the differentiation of the image signal, the brightness of the screen, and the like. A VM control signal corresponding to the coil drive signal is generated and supplied to the VM processing unit 34.

ステップS33では、ABL処理部33が、高画質化処理部32からの画像信号に対してABL処理をエミュレートする処理を適用する。   In step S <b> 33, the ABL processing unit 33 applies a process of emulating ABL processing to the image signal from the image quality improvement processing unit 32.

すなわち、ABL処理部33は、ABL制御部38からの制御に従って、高画質化処理部32からの画像信号のレベルを制限する等のABL処理をエミュレートする処理(ABLエミュレート処理)を行い、その結果得られる画像信号を、VM処理部34に供給する。   That is, the ABL processing unit 33 performs processing for emulating ABL processing (ABL emulation processing) such as limiting the level of the image signal from the image quality enhancement processing unit 32 according to control from the ABL control unit 38, The image signal obtained as a result is supplied to the VM processing unit 34.

そして、処理は、ステップS13からステップS14に進み、VM処理部34は、ABL処理部33からの画像信号に対してVM処理をエミュレートする処理を適用する。   Then, the process proceeds from step S13 to step S14, and the VM processing unit 34 applies a process of emulating the VM process to the image signal from the ABL processing unit 33.

すなわち、VM処理部34は、ステップS14において、VM制御部39から供給されるVM制御信号に従って、ABL処理部33からの画像信号の輝度を補正する等のVM処理をエミュレートする処理(VMエミュレート処理)を行い、その結果得られる画像信号を、CRTγ処理部35に供給して、処理は、ステップS15に進む。   That is, in step S14, the VM processing unit 34 emulates VM processing such as correcting the luminance of the image signal from the ABL processing unit 33 according to the VM control signal supplied from the VM control unit 39 (VM emulation). Rate processing), the image signal obtained as a result is supplied to the CRTγ processing unit 35, and the process proceeds to step S15.

ステップS15では、CRTγ処理部35は、VM処理部34からの画像信号に対してγ補正処理を施し、さらに、表示色温度補償制御部40からの制御信号に従い、VM処理部34からの画像信号の各色信号のバランスを調整する色温度補償処理を行う。そして、CRTγ処理部35は、色温度補償処理の結果得られる画像信号を、図示せぬFPDとしてのLCDに供給して表示させる。   In step S <b> 15, the CRTγ processing unit 35 performs γ correction processing on the image signal from the VM processing unit 34, and further, according to the control signal from the display color temperature compensation control unit 40, the image signal from the VM processing unit 34. Color temperature compensation processing for adjusting the balance of each color signal is performed. Then, the CRTγ processing unit 35 supplies an image signal obtained as a result of the color temperature compensation process to an LCD (not shown) as an FPD for display.

次に、図5は、図2のVM処理部34の構成例を示すブロック図である。   Next, FIG. 5 is a block diagram illustrating a configuration example of the VM processing unit 34 of FIG.

図5において、VM処理部34は、輝度補正部210及びEB処理部220から構成される。   In FIG. 5, the VM processing unit 34 includes a luminance correction unit 210 and an EB processing unit 220.

輝度補正部210は、ABL処理部33(図2)から供給される画像信号を対象として、CRT表示装置の電子ビームの水平偏向の偏向速度の変化が輝度に影響する影響分の補正を行う輝度補正処理を行い、その結果得られる画像信号を、EB処理部220に供給する。   The brightness correction unit 210 corrects the influence of the change in the deflection speed of the horizontal deflection of the electron beam of the CRT display device on the image signal supplied from the ABL processing unit 33 (FIG. 2). Correction processing is performed, and an image signal obtained as a result is supplied to the EB processing unit 220.

すなわち、輝度補正部210は、VM係数発生部211及び演算部212から構成される。   That is, the luminance correction unit 210 includes a VM coefficient generation unit 211 and a calculation unit 212.

VM係数発生部211には、VM制御部39(図2)から、VM制御信号が供給される。VM係数発生部211は、VM制御部39からのVM制御信号に従い、VM係数を発生し、演算部212に供給する。   The VM coefficient generator 211 is supplied with a VM control signal from the VM controller 39 (FIG. 2). The VM coefficient generation unit 211 generates a VM coefficient in accordance with the VM control signal from the VM control unit 39 and supplies the VM coefficient to the calculation unit 212.

演算部212には、VM係数発生部211からのVM係数が供給される他、ABL処理部33(図2)からの画像信号が供給される。   The arithmetic unit 212 is supplied with the VM coefficient from the VM coefficient generation unit 211 and the image signal from the ABL processing unit 33 (FIG. 2).

演算部212は、ABL処理部33(図2)からの画像信号に、VM係数発生部211からのVM係数を乗算することで、その画像信号について、CRT表示装置の電子ビームの水平偏向の偏向速度の変化が輝度に影響する影響分の補正を行い、その補正後の画像信号を、EB処理部220に供給する。   The calculation unit 212 multiplies the image signal from the ABL processing unit 33 (FIG. 2) by the VM coefficient from the VM coefficient generation unit 211, thereby deflecting the horizontal deflection of the electron beam of the CRT display device for the image signal. Correction for the influence of the change in speed on the luminance is performed, and the corrected image signal is supplied to the EB processing unit 220.

EB処理部220は、輝度補正部210からの画像信号(ABL処理部33で処理され、さらに、輝度補正部210で処理された画像信号)を対象として、CRT表示装置の電子ビームが広がってCRT表示装置の蛍光体に衝突することをエミュレートする処理(EB(Erectron Beam)エミュレート処理)を施し、CRTγ処理部35(図2)に供給する。   The EB processing unit 220 targets the image signal from the luminance correction unit 210 (the image signal processed by the ABL processing unit 33 and further processed by the luminance correction unit 210) as a result of the electron beam of the CRT display device being spread. Processing to emulate collision with the phosphor of the display device (EB (Erectron Beam) emulation processing) is performed and supplied to the CRTγ processing unit 35 (FIG. 2).

以上のように、VM処理部34で行われるVMエミュレート処理は、輝度補正部210で行われる輝度補正処理と、EB処理部220で行われるEBエミュレート処理とからなる。   As described above, the VM emulation processing performed by the VM processing unit 34 includes the luminance correction processing performed by the luminance correction unit 210 and the EB emulation processing performed by the EB processing unit 220.

図6は、図5のVM係数発生部211で発生するVM係数の例を示している。   FIG. 6 shows an example of VM coefficients generated by the VM coefficient generator 211 in FIG.

VM係数は、CRT表示装置において、水平偏向(水平方向の偏向)の偏向速度を、VMコイル駆動信号により、注目画素(ここでは、VM処理により輝度を強調する補正をする画素)の位置で遅くすることによって、等価的に、注目画素の輝度を増すVM処理をエミュレーションするために、注目画素を中心として水平方向に並ぶ複数の画素を、輝度の補正対象として、その輝度の補正対象の画素の画素値(輝度)に乗算される係数である。   VM coefficient slows the deflection speed of horizontal deflection (horizontal deflection) in the CRT display device at the position of the pixel of interest (here, the pixel that corrects the brightness by VM processing) by the VM coil drive signal. By equivalently, in order to emulate VM processing that increases the luminance of the target pixel, a plurality of pixels arranged in the horizontal direction around the target pixel are set as luminance correction targets. It is a coefficient that is multiplied by the pixel value (luminance).

VM係数発生部211では、図6に示すように、輝度の補正対象の画素のうちの、注目画素の画素値に乗算されるVM係数は、1以上の値とされ、他の画素に乗算されるVM係数は、演算部212でのゲインが1となるように、1以下の値とされる。   In the VM coefficient generation unit 211, as shown in FIG. 6, the VM coefficient multiplied by the pixel value of the target pixel among the pixels whose luminance is to be corrected is set to a value of 1 or more and is multiplied by other pixels. The VM coefficient is set to a value of 1 or less so that the gain in the calculation unit 212 is 1.

図7は、図5のVM係数発生部211で発生されるVM係数を求める方法を示している。   FIG. 7 shows a method for obtaining the VM coefficient generated by the VM coefficient generator 211 of FIG.

すなわち、図7Aは、CRT表示装置の偏向ヨークDY(図3)に印加される電圧(偏向電圧)の波形を示している。   That is, FIG. 7A shows the waveform of the voltage (deflection voltage) applied to the deflection yoke DY (FIG. 3) of the CRT display device.

偏向ヨークDY(図3)に対しては、図7Aに示すように、時間tの経過に対して、一定の傾きで変化する偏向電圧が、水平走査の周期で繰り返し印加される。   As shown in FIG. 7A, the deflection yoke DY (FIG. 3) is repeatedly applied with a deflection voltage that changes with a constant inclination with the elapse of time t in the horizontal scanning period.

図7Bは、CRT表示装置のVM駆動回路61(図3)で生成されるVMコイル駆動信号を示している。   FIG. 7B shows a VM coil drive signal generated by the VM drive circuit 61 (FIG. 3) of the CRT display device.

CRT表示装置では、偏向ヨークDY(図3)にあるVMコイルが、図7BのVMコイル駆動信号によって駆動され、そのVMコイルが発生する磁界によって、電子ビームの偏向速度が、図7Cに示すように、部分的に変更される。   In the CRT display device, the VM coil in the deflection yoke DY (FIG. 3) is driven by the VM coil drive signal of FIG. 7B, and the deflection speed of the electron beam is as shown in FIG. 7C by the magnetic field generated by the VM coil. Partially changed.

すなわち、図7Cは、図7BのVMコイル駆動信号によってVMコイルが磁界を発生する場合の、電子ビームの水平方向の位置の時間変化を示している。   That is, FIG. 7C shows the time change of the horizontal position of the electron beam when the VM coil generates a magnetic field by the VM coil drive signal of FIG. 7B.

電子ビームの水平方向の位置の時間変化(図7Cのグラフの傾き)、つまり、電子ビームの水平偏向の偏向速度は、VMコイルが磁界を発生することによって、その磁界が発生している区間等において一定ではなくなる(変化する)。   The time variation of the horizontal position of the electron beam (inclination of the graph of FIG. 7C), that is, the deflection speed of the horizontal deflection of the electron beam is the section where the magnetic field is generated by the VM coil generating the magnetic field, etc. Is not constant (changes).

図7Dは、図7Aの偏向電圧による電子ビームの水平方向の位置の時間変化から、図7Cの電子ビームの水平方向の位置の時間変化を減算した減算値の微分値を示している。   FIG. 7D shows a differential value of a subtraction value obtained by subtracting the time change of the horizontal position of the electron beam in FIG. 7C from the time change of the horizontal position of the electron beam due to the deflection voltage of FIG. 7A.

図7Aの偏向電圧のみによって、電子ビームの水平偏向が行われる場合を基準とすると、VMコイル駆動信号によってVMコイルが磁界を発生する場合には、CRT表示装置のCRT56(図3)の蛍光体に衝突する電子ビームの強度(量)、つまり、CRT56に表示される画像の輝度(明るさ)は、図7Dに示すように変化する。   When the horizontal deflection of the electron beam is performed only by the deflection voltage of FIG. 7A, the phosphor of the CRT 56 (FIG. 3) of the CRT display device when the VM coil generates a magnetic field by the VM coil drive signal. The intensity (amount) of the electron beam that collides with the light beam, that is, the luminance (brightness) of the image displayed on the CRT 56 changes as shown in FIG. 7D.

VM係数発生部211(図5)は、図7Dの微分値に相当する値を、VM係数として発生する。   The VM coefficient generator 211 (FIG. 5) generates a value corresponding to the differential value of FIG. 7D as a VM coefficient.

なお、VM係数の具体的な値や、VM係数との乗算をする画素の範囲(注目画素を中心として水平方向に並ぶ幾つの画素の画素値を、VM係数と乗算するか)、注目画素とする画素の画素値(レベル)等は、図2の画像信号処理装置が表示をエミュレートするCRT表示装置の仕様等に応じて決定される。   It should be noted that the specific value of the VM coefficient, the range of pixels to be multiplied with the VM coefficient (how many pixel values in the horizontal direction around the target pixel are multiplied by the VM coefficient), The pixel value (level) of the pixel to be determined is determined according to the specification of the CRT display device that emulates the display by the image signal processing device of FIG.

次に、図5のEB処理部220で行われるEBエミュレート処理について説明する。   Next, an EB emulation process performed by the EB processing unit 220 in FIG. 5 will be described.

EBエミュレート処理では、上述したように、CRT表示装置の電子ビームが広がってCRT表示装置のCRT56(図3)の蛍光体に衝突することをエミュレートする処理が行われる。   In the EB emulation process, as described above, a process of emulating that the electron beam of the CRT display device spreads and collides with the phosphor of the CRT 56 (FIG. 3) of the CRT display device is performed.

すなわち、いま、電子ビームを照射しようとする蛍光体に対応する画素(サブピクセル)を、注目画素とすると、電子ビームの強度が大である場合に、その電子ビームのスポットの形状が大となって、注目画素に対応する蛍光体だけでなく、その周辺の画素に対応する蛍光体にも衝突し、その周辺の画素の画素値に影響を与える。EBエミュレート処理では、その影響をエミュレートする処理が行われる。   That is, if a pixel (subpixel) corresponding to a phosphor to be irradiated with an electron beam is a pixel of interest, the spot shape of the electron beam becomes large when the intensity of the electron beam is large. Thus, not only the phosphor corresponding to the pixel of interest but also the phosphor corresponding to the surrounding pixels impacts the pixel values of the surrounding pixels. In the EB emulation process, a process for emulating the influence is performed.

図8は、電子ビームを照射する電子銃に与えられる電流(ビーム電流)と、そのビーム電流に対応して照射される電子ビームが、CRTの表示画面上に形成するスポットの径(スポットサイズ)との関係を示している。   FIG. 8 shows the current (beam current) applied to the electron gun that irradiates the electron beam and the diameter (spot size) of the spot formed on the display screen of the CRT by the electron beam irradiated corresponding to the beam current. Shows the relationship.

なお、図8では、2種類のCRTについての、ビーム電流とスポットサイズとの関係が示されている。   FIG. 8 shows the relationship between the beam current and the spot size for two types of CRTs.

ビーム電流とスポットサイズとの関係は、CRTの種類や最大輝度の設定などによって差があるものの、スポットサイズは、ビーム電流が大であるほど大となる。つまり、輝度が大であると、スポットサイズも大になる。   Although the relationship between the beam current and the spot size varies depending on the type of CRT and the setting of the maximum luminance, the spot size increases as the beam current increases. That is, if the luminance is large, the spot size is also large.

このようなビーム電流とスポットサイズとの関係は、例えば、特開2004- 39300号公報等に記載されている。   Such a relationship between the beam current and the spot size is described in, for example, Japanese Patent Application Laid-Open No. 2004-39300.

CRTの表示画面には、赤、緑、及び青の3色の蛍光体(蛍光物質)が塗布されており、その赤、緑、及び青の蛍光体に、赤、緑、及び青(用)の電子ビームが衝突することで、赤、緑、及び青の光が、それぞれ放出され、これにより、画像が表示される。   The CRT display screen is coated with red, green, and blue phosphors (fluorescent substances). The red, green, and blue phosphors are coated with red, green, and blue (for). When the electron beams collide with each other, red, green, and blue light are emitted, thereby displaying an image.

また、CRTには、赤、緑、及び青の3色の蛍光体に、赤、緑、及び青の電子ビームが照射されるように、電子ビームが通過する開口部が設けられた色選別機構が、表示画面に設けられている。   In addition, the CRT has a color selection mechanism in which an opening through which an electron beam passes is provided so that red, green and blue phosphors are irradiated with the red, green and blue electron beams. Is provided on the display screen.

図9は、色選別機構を示している。   FIG. 9 shows a color selection mechanism.

すなわち、図9Aは、色選別機構の1つであるシャドウマスクを示している。   That is, FIG. 9A shows a shadow mask which is one of color selection mechanisms.

シャドウマスクには、円形状の開口部としてのホールが設けられており、このホールを通過した電子ビームが蛍光体に照射される。   The shadow mask is provided with a hole as a circular opening, and an electron beam passing through the hole is irradiated to the phosphor.

なお、図9Aにおいて、模様を付していない丸印は、赤の蛍光体に電子ビームを照射するためのホールを、斜線を付した丸印は、緑の蛍光体に電子ビームを照射するためのホールを、黒塗りの丸印は、青の蛍光体に電子ビームを照射するためのホールを、それぞれ示している。   In FIG. 9A, a circle with no pattern indicates a hole for irradiating an electron beam to a red phosphor, and a circle with a hatched line irradiates an electron beam on a green phosphor. The black circles indicate the holes for irradiating the blue phosphor with the electron beam.

図9Bは、色選別機構の他の1つであるアパーチャーグリルを示している。   FIG. 9B shows an aperture grill which is another one of the color selection mechanisms.

アパーチャーグリルには、垂直方向に延びる開口部としてのスリットが設けられており、このスリットを通過した電子ビームが蛍光体に照射される。   The aperture grill is provided with a slit as an opening extending in the vertical direction, and the electron beam that has passed through the slit is irradiated onto the phosphor.

なお、図9Bにおいて、模様を付していない方形は、赤の蛍光体に電子ビームを照射するためのスリットを、斜線を付した方形は、緑の蛍光体に電子ビームを照射するためのスリットを、黒塗りの方形は、青の蛍光体に電子ビームを照射するためのスリットを、それぞれ示している。   In FIG. 9B, a square without a pattern is a slit for irradiating an electron beam to a red phosphor, and a rectangle with a diagonal line is a slit for irradiating an electron beam to a green phosphor. The black-painted squares indicate the slits for irradiating the blue phosphor with the electron beam.

図8で説明したように、電子ビームのスポットサイズは、輝度が大であるほど大になる。   As described with reference to FIG. 8, the spot size of the electron beam increases as the luminance increases.

図10は、輝度が中程度である場合に、色選別機構上に形成される電子ビームのスポットを、図11は、輝度が大である場合に、色選別機構上に形成される電子ビームのスポットを、それぞれ模式的に示している。   FIG. 10 shows a spot of an electron beam formed on the color selection mechanism when the luminance is medium, and FIG. 11 shows an electron beam spot formed on the color selection mechanism when the luminance is high. Each spot is schematically shown.

なお、図10A及び図11Aは、色選別機構がシャドウマスクである場合に、そのシャドウマスク上に形成される電子ビームのスポットを示しており、図10B及び図11Bは、色選別機構がアパーチャーグリルである場合に、そのアパーチャーグリル上に形成される電子ビームのスポットを示している。   10A and 11A show electron beam spots formed on the shadow mask when the color selection mechanism is a shadow mask, and FIGS. 10B and 11B show the aperture grille. , The electron beam spot formed on the aperture grille is shown.

輝度が大であるほど、電子ビーム(のスポット)の中心部分の強度が大となり、それに引きずられる形で、電子ビームの周辺部分の強度も大となって、色選別機構上に形成される電子ビームのスポットのスポットサイズが大となる。その結果、電子ビームが、注目画素(電子ビームを照射しようとする蛍光体に対応する画素)に対応する蛍光体だけでなく、注目画素の周囲の画素に対応する蛍光体にも照射される。   The higher the brightness, the greater the intensity of the central part of the electron beam (spot), and the intensity of the peripheral part of the electron beam is increased in accordance with the intensity of the electron beam. The spot size of the beam spot becomes large. As a result, the electron beam is applied not only to the phosphor corresponding to the pixel of interest (pixel corresponding to the phosphor to be irradiated with the electron beam) but also to the phosphor corresponding to pixels around the pixel of interest.

図12は、色選別機構としてアパーチャーグリルが採用されている場合の、電子ビームが照射される様子を示す断面図である。   FIG. 12 is a cross-sectional view showing a state in which an electron beam is irradiated when an aperture grill is employed as the color selection mechanism.

すなわち、図12Aは、ビーム電流が第1の電流値である場合の電子ビームが照射される様子を示しており、図12Bは、ビーム電流が第1の電流値より大の第2の電流値である場合の電子ビームが照射される様子を示している。   That is, FIG. 12A shows a state in which the electron beam is irradiated when the beam current has the first current value, and FIG. 12B shows a second current value in which the beam current is larger than the first current value. It shows how the electron beam is irradiated in the case of.

図12では、緑の蛍光体に対応する画素が注目画素となっており、ビーム電流が第1の電流値である場合の電子ビームは、図12Aに示すように、そのスポットサイズが、隣接するスリットどうしの間の範囲に収まっており、注目画素に対応する蛍光体にのみ照射され、かつ、それ以外の蛍光体に照射されないように遮断される。   In FIG. 12, the pixel corresponding to the green phosphor is the target pixel, and the electron beam when the beam current is the first current value is adjacent to the spot size as shown in FIG. 12A. It falls within the range between the slits, and only the phosphor corresponding to the target pixel is irradiated, and the other phosphors are blocked from being irradiated.

一方、ビーム電流が第2の電流値である場合の電子ビームは、図12Bに示すように、そのスポットサイズが、隣接するスリットどうしの間の範囲に収まらず、注目画素に対応する蛍光体だけでなく、他の蛍光体にも照射される。   On the other hand, the electron beam when the beam current is the second current value, as shown in FIG. 12B, the spot size does not fall within the range between adjacent slits, and only the phosphor corresponding to the pixel of interest. In addition, other phosphors are irradiated.

すなわち、ビーム電流が第2の電流値である場合の電子ビームのスポットサイズは、注目画素に対応する蛍光体のスリットの他、他のスリットをも含む大きさとなり、その結果、電子ビームが、他のスリットを通過し、注目画素に対応する蛍光体以外の蛍光体にも照射される。   That is, when the beam current is the second current value, the spot size of the electron beam has a size including other slits in addition to the slits of the phosphor corresponding to the target pixel. The light passes through another slit and is also irradiated to a phosphor other than the phosphor corresponding to the target pixel.

なお、図12Bに示したように、電子ビームが、注目画素に対応する蛍光体のスリット以外のスリットをも通過する場合のビーム電流は、電子ビームのスポットサイズと、アパーチャーグリルのスリットのスリット幅との関係で決まる。   As shown in FIG. 12B, the beam current when the electron beam passes through a slit other than the phosphor slit corresponding to the pixel of interest is the spot size of the electron beam and the slit width of the slit of the aperture grille. It depends on the relationship.

EBエミュレート処理では、以上のように、電子ビームが、注目画素に対応する蛍光体だけでなく、他の蛍光体にも照射されることで、画像が受ける影響が、画像信号に反映される。   In the EB emulation process, as described above, the electron beam is applied not only to the phosphor corresponding to the pixel of interest but also to other phosphors, and the influence on the image is reflected in the image signal. .

ここで、図13は、2次元正規分布(ガウス分布)で近似した電子ビームの強度の分布を示している。   Here, FIG. 13 shows an electron beam intensity distribution approximated by a two-dimensional normal distribution (Gaussian distribution).

図14は、図13の電子ビームのうちの、アパーチャーグリルのスリットを通過する電子ビームの強度の分布を示している。   FIG. 14 shows the intensity distribution of the electron beam passing through the slit of the aperture grille among the electron beams of FIG.

すなわち、図14Aは、注目画素に対応する蛍光体のスリットを通過する電子ビームと、そのスリットの左右に隣接するスリットを通過する電子ビームとの強度の分布を示している。   That is, FIG. 14A shows an intensity distribution of an electron beam that passes through the slit of the phosphor corresponding to the target pixel and an electron beam that passes through slits adjacent to the left and right of the slit.

電子ビームの大部分は、注目画素に対応する蛍光体のスリットを通過するが、電子ビームの残りの一部が、注目画素に対応する蛍光体のスリットの左に隣接する左スリットと、右に隣接する右スリットとを通過し、その通過した電子ビームによって、左スリットの蛍光体に対応する画素と、右スリットの蛍光体に対応する画素との表示が影響を受ける。   Most of the electron beam passes through the phosphor slit corresponding to the target pixel, but the remaining part of the electron beam passes to the left of the phosphor slit corresponding to the target pixel and to the right. The display passes through the adjacent right slit, and the display of the pixel corresponding to the phosphor of the left slit and the pixel corresponding to the phosphor of the right slit is affected by the electron beam that has passed therethrough.

なお、図14Bは、図14Aに示した電子ビームの強度の分布のうちの、注目画素に対応する蛍光体のスリットを通過する電子ビームの強度の分布を示しており、図14Cは、左スリット及び右スリットを通過する電子ビームの強度の分布を示している。   14B shows the intensity distribution of the electron beam that passes through the phosphor slit corresponding to the target pixel in the electron beam intensity distribution shown in FIG. 14A. FIG. 14C shows the left slit. And the intensity distribution of the electron beam passing through the right slit.

図15は、図13の場合よりも強度が大の電子ビームの強度の分布と、その電子ビームのうちの、アパーチャーグリルのスリットを通過する電子ビームの強度の分布とを示している。   FIG. 15 shows the distribution of the intensity of an electron beam having a higher intensity than that of FIG. 13 and the distribution of the intensity of the electron beam passing through the slit of the aperture grille.

すなわち、図15Aは、図13の場合よりも強度が大の電子ビームの強度の分布を示している。   That is, FIG. 15A shows the distribution of the intensity of an electron beam having a higher intensity than that in FIG.

図15Aの電子ビームは、図13の電子ビームよりもスポットサイズ(強度が所定値以上の範囲)が大となっている。   The electron beam of FIG. 15A has a larger spot size (intensity or more than a predetermined value) than the electron beam of FIG.

図15Bは、図15Aの電子ビームのうちの、アパーチャーグリルのスリットを通過する電子ビームの強度の分布を示している。   FIG. 15B shows the intensity distribution of the electron beam passing through the slit of the aperture grille among the electron beams of FIG. 15A.

図15Bでは、図14の場合に比較して、左スリット及び右スリットを通過する電子ビームの強度が大になっており、したがって、左スリットの蛍光体に対応する画素と、右スリットの蛍光体に対応する画素との表示には、より大きな影響がでる。   In FIG. 15B, compared with the case of FIG. 14, the intensity of the electron beam passing through the left slit and the right slit is large, and accordingly, the pixel corresponding to the phosphor of the left slit and the phosphor of the right slit This has a greater effect on the display with the pixels corresponding to.

なお、図15Cは、図15Bに示した電子ビームの強度の分布のうちの、注目画素に対応する蛍光体のスリットを通過する電子ビームの強度の分布を示しており、図15Dは、左スリット及び右スリットを通過する電子ビームの強度の分布を示している。   15C shows the intensity distribution of the electron beam passing through the phosphor slit corresponding to the target pixel in the electron beam intensity distribution shown in FIG. 15B, and FIG. 15D shows the left slit. And the intensity distribution of the electron beam passing through the right slit.

図16は、図13に示した電子ビームの強度の分布と、その電子ビームのうちの、シャドウマスクのスリットを通過する電子ビームの強度の分布とを示している。   FIG. 16 shows the electron beam intensity distribution shown in FIG. 13 and the electron beam intensity distribution of the electron beam passing through the slit of the shadow mask.

すなわち、図16Aは、図13と同一の電子ビームの強度の分布を示している。   That is, FIG. 16A shows the same electron beam intensity distribution as FIG.

図16Bは、図16Aの電子ビームのうちの、シャドウマスクのホールを通過する電子ビームの強度の分布を示している。   FIG. 16B shows the intensity distribution of the electron beam passing through the hole of the shadow mask among the electron beams of FIG. 16A.

すなわち、図16Bは、注目画素に対応する蛍光体のホールを通過する電子ビームと、そのホールの周辺のホール(周辺ホール)を通過する電子ビームとの強度の分布を示している。   That is, FIG. 16B shows an intensity distribution of an electron beam that passes through a hole of the phosphor corresponding to the target pixel and an electron beam that passes through a hole around the hole (peripheral hole).

図16Cは、図16Bに示した電子ビームの強度の分布のうちの、注目画素に対応する蛍光体のホールを通過する電子ビームの強度の分布を示しており、図16Dは、周辺ホールを通過する電子ビームの強度の分布を示している。   FIG. 16C shows the distribution of the intensity of the electron beam passing through the hole of the phosphor corresponding to the target pixel in the distribution of the intensity of the electron beam shown in FIG. 16B, and FIG. 16D passes through the peripheral hole. The electron beam intensity distribution is shown.

図17は、図16の場合よりも強度が大の電子ビームの強度の分布と、その電子ビームのうちの、シャドウマスクのホールを通過する電子ビームの強度の分布とを示している。   FIG. 17 shows the distribution of the intensity of an electron beam having a higher intensity than that of FIG. 16, and the distribution of the intensity of the electron beam that passes through the holes of the shadow mask.

すなわち、図17Aは、図16の場合よりも強度が大の電子ビームの強度の分布を示している。   That is, FIG. 17A shows the distribution of the intensity of the electron beam having a higher intensity than that in FIG.

図17Aの電子ビームは、図16Aの電子ビームよりもスポットサイズ(強度が所定値以上の範囲)が大となっている。   The electron beam in FIG. 17A has a larger spot size (intensity or greater than a predetermined value) than the electron beam in FIG. 16A.

図17Bは、図17Aの電子ビームのうちの、シャドウマスクのホールを通過する電子ビームの強度の分布を示している。   FIG. 17B shows the intensity distribution of the electron beam passing through the hole of the shadow mask among the electron beams of FIG. 17A.

図17Bでは、図16Bの場合に比較して、周辺ホールを通過する電子ビームの強度が大になっており、したがって、周辺ホールの蛍光体に対応する画素の表示には、図16Bの場合より大きな影響がでる。   In FIG. 17B, compared with the case of FIG. 16B, the intensity of the electron beam passing through the peripheral hole is larger. Therefore, the pixel corresponding to the phosphor in the peripheral hole is displayed more than in the case of FIG. 16B. It has a big impact.

図17Cは、図17Bに示した電子ビームの強度の分布のうちの、注目画素に対応する蛍光体のホールを通過する電子ビームの強度の分布を示しており、図17Dは、周辺ホールを通過する電子ビームの強度の分布を示している。   FIG. 17C shows the distribution of the intensity of the electron beam that passes through the hole of the phosphor corresponding to the target pixel in the distribution of the intensity of the electron beam shown in FIG. 17B, and FIG. The electron beam intensity distribution is shown.

なお、図13ないし図17では、電子ビームのスポットの拡がりを分かりやすくするため、電子ビームの強度を表す高さ方向のスケールを、位置を表すx方向及びy方向のスケールよりも圧縮してある。   In FIG. 13 to FIG. 17, the scale in the height direction representing the intensity of the electron beam is compressed more than the scales in the x and y directions representing the position in order to make it easy to understand the spread of the electron beam spot. .

ところで、1次元正規分布(1次元の正規分布)のある区間の面積は、1次元正規分布を表す式(1)の確率密度関数f(x)を、面積を求めようとする区間に亘って積分することで求めることができる。   By the way, the area of a certain section of the one-dimensional normal distribution (one-dimensional normal distribution) is calculated over the section in which the area of the probability density function f (x) of the expression (1) representing the one-dimensional normal distribution is to be obtained. It can be obtained by integrating.

Figure 2008233854
・・・(1)
Figure 2008233854
... (1)

ここで、式(1)において、μは、平均値を表し、σ2は、分散を表す。 Here, in Expression (1), μ represents an average value, and σ 2 represents dispersion.

上述したように、電子ビームの強度の分布を、2次元正規分布(2次元の正規分布)で近似する場合、ある範囲の電子ビームの強度は、2次元正規分布を表す式(2)の確率密度関数f(x,y)を、強度を求めようとする範囲に亘って積分することで求めることができる。   As described above, when the electron beam intensity distribution is approximated by a two-dimensional normal distribution (two-dimensional normal distribution), a certain range of electron beam intensities has a probability of the equation (2) representing the two-dimensional normal distribution. The density function f (x, y) can be obtained by integrating over the range for which the intensity is to be obtained.

Figure 2008233854
・・・(2)
Figure 2008233854
... (2)

ここで、式(2)において、μxは、x方向の平均値を表し、μyは、y方向の平均値を表す。また、σx 2は、x方向の分散を表し、σy 2は、x方向の分散を表す。ρxyは、x方向とy方向の相関係数(x方向とy方向の共分散を、x方向の標準偏差σxとy方向の標準偏差σyとの積で除算した値)を表す。 Here, in Expression (2), μ x represents an average value in the x direction, and μ y represents an average value in the y direction. Also, σ x 2 represents the variance in the x direction, and σ y 2 represents the variance in the x direction. ρ xy represents a correlation coefficient in the x direction and the y direction (a value obtained by dividing the covariance in the x direction and the y direction by the product of the standard deviation σ x in the x direction and the standard deviation σ y in the y direction).

平均値(平均ベクトル)(μxy)は、理想的には、電子ビームの中心の位置(x,y)を表す。いま、説明を簡単にするために、電子ビームの中心の位置(x,y)を、(0,0)(原点)とすると、平均値μx及びμyは0となる。 The average value (average vector) (μ x , μ y ) ideally represents the center position (x, y) of the electron beam. For simplicity of explanation, if the center position (x, y) of the electron beam is (0, 0) (origin), the average values μ x and μ y are zero.

また、CRT表示装置において、電子銃やカソード等の設計は、電子ビームのスポットが円形となるように行われることから、相関係数ρxyを0とする。 In the CRT display device, the electron gun, the cathode, and the like are designed so that the electron beam spot is circular, and therefore the correlation coefficient ρ xy is set to zero.

いま、色選別機構が、アパーチャーグリルであるとすると、平均値μx及びμy、並びに、相関係数ρxyを0とした式(2)の確率密度関数f(x,y)を、スリットの範囲で積分することにより、スリットを通過する電子ビームの強度(量)を求めることができる。 Assuming that the color selection mechanism is an aperture grille, the probability density function f (x, y) of the equation (2) with the average values μ x and μ y and the correlation coefficient ρ xy being 0 is defined as a slit. The intensity (amount) of the electron beam passing through the slit can be obtained by integrating within the range of.

すなわち、図18は、スリットを通過する電子ビームの強度を求める積分を説明する図である。   That is, FIG. 18 is a diagram for explaining the integration for obtaining the intensity of the electron beam passing through the slit.

図18Aは、水平方向であるx方向の積分の区間を示している。   FIG. 18A shows an integration interval in the x direction, which is the horizontal direction.

注目画素に対応する蛍光体のスリット(注目スリット)を通過する電子ビームの強度は、x方向については、アパーチャーグリルのスリットのスリット幅をSとすると、-S/2から+S/2の範囲に亘って、確率密度関数f(x,y)を積分することにより求めることができる。   The intensity of the electron beam that passes through the phosphor slit (target slit) corresponding to the target pixel is in the range of -S / 2 to + S / 2 in the x direction, where S is the slit width of the aperture grill slit. The probability density function f (x, y) can be obtained over a range of.

また、左スリットを通過する電子ビームの強度は、x方向については、その左スリットのスリット幅に亘って、確率密度関数f(x,y)を積分することにより求めることができ、右スリットを通過する電子ビームの強度は、x方向については、その右スリットのスリット幅に亘って、確率密度関数f(x,y)を積分することにより求めることができる。   The intensity of the electron beam passing through the left slit can be obtained by integrating the probability density function f (x, y) over the slit width of the left slit in the x direction. The intensity of the passing electron beam can be obtained by integrating the probability density function f (x, y) over the slit width of the right slit in the x direction.

図18A及び図18Cは、垂直方向であるy方向の積分の区間を示している。   18A and 18C show the integration interval in the y direction, which is the vertical direction.

注目スリットを通過する電子ビームの強度は、y方向については、図18Bに示すように、-∞から+∞の範囲に亘って、確率密度関数f(x,y)を積分することにより求めることができる。   As shown in FIG. 18B, the intensity of the electron beam passing through the slit of interest is obtained by integrating the probability density function f (x, y) over the range from −∞ to + ∞ in the y direction. Can do.

左スリット及び右スリットを通過する電子ビームの強度それぞれも、y方向については、図18Cに示すように、-∞から+∞の範囲に亘って、確率密度関数f(x,y)を積分することにより求めることができる。   For each of the intensities of the electron beams that pass through the left slit and the right slit, the probability density function f (x, y) is integrated over the range from −∞ to + ∞ in the y direction as shown in FIG. 18C. Can be obtained.

一方、電子ビーム全体の強度は、x方向及びy方向のいずれにも、-∞から+∞の範囲に亘って、確率密度関数f(x,y)を積分することにより求めることができ、いま、その値をP0とする。 On the other hand, the intensity of the entire electron beam can be obtained by integrating the probability density function f (x, y) over the range from -∞ to + ∞ in both the x and y directions. The value is P 0 .

また、注目スリットを通過する電子ビームの強度をP1と表すとともに、左スリット及び右スリットを通過する電子ビームの強度それぞれを、PL及びPRと表すこととする。 Further, the intensity of the electron beam passing through the target slit together represent a P 1, the respective intensities of the electron beams passing through the left and right slits, and is represented as P L and P R.

この場合、注目画素の表示には、電子ビーム全体の強度P0のうちの、強度P1だけが影響し、この注目画素の表示によって、電子ビーム全体の強度P0のうちの、強度PLが、左スリットの蛍光体に対応する画素(左画素)の表示に影響し、強度PRが、左スリットの蛍光体に対応する画素(右画素)の表示に影響する。 In this case, the display of the pixel of interest, of the intensity P 0 of the entire electron beam, only the intensity P 1 is affected by the display of the pixel of interest, the entire electron beam of the intensity P 0, the intensity P L but affect the display of the pixel (left pixel) corresponding to the phosphor of the left slit, the intensity P R affects the display of the pixel (right pixel) corresponding to the phosphor of the left slit.

すなわち、電子ビーム全体の強度P0を基準とすると、注目画素の表示には、電子ビームの強度のP1/P0が影響し、さらに、電子ビームの強度のPL/P0が左画素の表示に影響を与えるとともに、電子ビームの強度のPR/P0が右画素の表示に影響を与える。 That is, when the intensity P 0 of the entire electron beam is used as a reference, the display of the target pixel is affected by the electron beam intensity P 1 / P 0 , and the electron beam intensity P L / P 0 is the left pixel. And the electron beam intensity P R / P 0 affects the display of the right pixel.

したがって、注目画素の表示を基準とすると、注目画素の表示は、左画素の表示に、PL/P0/(P1/P0)だけ影響を与え、右画素の表示に、PR/P0/(P1/P0)だけ影響を与える。 Therefore, based on the display of the target pixel, the display of the target pixel affects the display of the left pixel by P L / P 0 / (P 1 / P 0 ), and the display of the right pixel includes P R / Only P 0 / (P 1 / P 0 ) is affected.

EBエミュレート処理では、左画素については、注目画素の表示の影響を反映するために、注目画素の表示の影響分PL/P0/(P1/P0)を、EBエミュレート処理に用いるEB係数として、左画素の画素値に乗算し、その結果得られる乗算値が、左画素の(元の)画素値に加算される。さらに、EBエミュレート処理では、左画素の表示に影響を与える、左画素の周囲の画素の表示の影響分をEB係数として、同様の処理が行われ、これにより、左画素の周囲の画素の表示時に電子ビームが広がって、左画素の蛍光体に衝突することによる影響を考慮した左画素の画素値が求められる。 In the EB emulation process, for the left pixel, in order to reflect the influence of the display of the target pixel, the influence of the display of the target pixel P L / P 0 / (P 1 / P 0 ) is used for the EB emulation process. As the EB coefficient to be used, the pixel value of the left pixel is multiplied, and the resultant multiplication value is added to the (original) pixel value of the left pixel. Further, in the EB emulation processing, the same processing is performed using the influence of the display of the pixels around the left pixel, which affects the display of the left pixel, as an EB coefficient. The pixel value of the left pixel is calculated in consideration of the influence of the electron beam spreading at the time of display and colliding with the phosphor of the left pixel.

右画素についても、同様に、右素の周囲の画素の表示時に電子ビームが広がって、右画素の蛍光体に衝突することによる影響を考慮した右画素の画素値が求められる。   Similarly, for the right pixel, the pixel value of the right pixel is determined in consideration of the influence of the electron beam spreading and colliding with the phosphor of the right pixel when displaying the pixels around the right element.

なお、色選別機構が、シャドウマスクである場合も、アパーチャーグリルの場合と同様にして、EBエミュレート処理に用いるEB係数を求めることができる。但し、シャドウマスクについては、アパーチャーグリルの場合に比較して、積分が複雑になる。シャドウマスクについては、上述の積分を用いるのではなく、シャドウマスクのホールの位置とホールの半径からモンテカルロ法などで、EB係数を求める方が容易である。   Even when the color selection mechanism is a shadow mask, the EB coefficient used for the EB emulation process can be obtained in the same manner as in the case of the aperture grill. However, the integration of the shadow mask is complicated compared to the case of the aperture grill. For the shadow mask, it is easier to obtain the EB coefficient by the Monte Carlo method or the like from the hole position and the hole radius of the shadow mask, instead of using the above-described integration.

以上のように、EB係数は、理論上は、計算によって求めることが可能であるが、図8に示したように、電子ビームのスポットサイズは、ビーム電流によって変化する。したがって、EB係数を求めるには、電子ビームの強度の分布を近似する式(2)の確率密度関数f(x,y)の分散σx 2及びσy 2を、ビーム電流の電流値ごとに変える必要がある。 As described above, the EB coefficient can theoretically be obtained by calculation, but as shown in FIG. 8, the spot size of the electron beam varies depending on the beam current. Therefore, in order to obtain the EB coefficient, the variances σ x 2 and σ y 2 of the probability density function f (x, y) in the equation (2) that approximates the electron beam intensity distribution are determined for each beam current value. Need to change.

また、上述の場合には、電子ビームが、色選別機構(アパーチャーグリル、及びシャドウマスク)に入射する角度が直角であることを、当然の前提としたが、実際には、電子ビームが色選別機構に入射する角度は、表示画面の中央から離れるほど浅くなる。   In the above case, it is assumed that the angle of incidence of the electron beam on the color selection mechanism (aperture grille and shadow mask) is a right angle. The angle incident on the mechanism becomes shallower as the distance from the center of the display screen increases.

すなわち、図19は、電子ビームが色選別機構としてのアパーチャーグリルに入射する様子を示している。   That is, FIG. 19 shows a state where an electron beam is incident on an aperture grill as a color selection mechanism.

図19Aは、表示画面の中央付近での、電子ビームがアパーチャーグリルに入射する様子を示している。   FIG. 19A shows a state where an electron beam is incident on the aperture grill near the center of the display screen.

図19Aに示すように、表示画面の中央付近では、電子ビームは、アパーチャーグリルに対して、垂直に入射する。   As shown in FIG. 19A, near the center of the display screen, the electron beam is perpendicularly incident on the aperture grille.

図19Bは、表示画面の中央から離れた位置での、電子ビームがアパーチャーグリルに入射する様子を示している   FIG. 19B shows a state in which the electron beam is incident on the aperture grill at a position away from the center of the display screen.

図19Bに示すように、表示画面の中央から離れた位置では、電子ビームは、垂直から傾いた角度で、アパーチャーグリルに入射する。   As shown in FIG. 19B, at a position away from the center of the display screen, the electron beam is incident on the aperture grill at an angle inclined from the vertical.

電子ビームが、図19Bに示したように、垂直から傾いた角度で、アパーチャーグリルに入射する場合、電子ビームの強度の分布は、式(2)の確率密度関数f(x,y)の形状から乖離するため、電子ビームがアパーチャーグリルに垂直に入射することを前提として、EB係数を求めたのでは、EB係数の精度が劣化する。   As shown in FIG. 19B, when the electron beam is incident on the aperture grill at an angle inclined from the vertical, the distribution of the intensity of the electron beam is the shape of the probability density function f (x, y) of the equation (2). Therefore, if the EB coefficient is calculated on the assumption that the electron beam is incident on the aperture grill perpendicularly, the accuracy of the EB coefficient is deteriorated.

以上から、EB係数は、計算のみによって求めるのではなく、実験も併用して求めることが望ましい。   From the above, it is desirable to obtain the EB coefficient not only by calculation but also by experiment.

次に、図20、及び図21を参照して、図5のEB処理部220で行われるEBエミュレート処理についてさらに説明する。   Next, the EB emulation process performed by the EB processing unit 220 in FIG. 5 will be further described with reference to FIG. 20 and FIG.

図20は、画素と、電子ビームの強度の分布とを示している。   FIG. 20 shows the pixels and the intensity distribution of the electron beam.

すなわち、図20Aは、画素Eを中心とする横×縦が3×3の9画素A,B,C,D,F,G,H、及びIを示している。   That is, FIG. 20A shows nine pixels A, B, C, D, F, G, H, and I having a horizontal × vertical of 3 × 3 with the pixel E as the center.

いま、図20Aにおいて、画素Eを注目画素として注目する。また、横方向をx方向とし、縦方向をy方向とするとともに、注目画素Eの位置(x,y)を基準として、他の画素AないしD及びFないしIの位置を表すこととする。   Now, in FIG. 20A, attention is focused on the pixel E as the target pixel. In addition, the horizontal direction is the x direction, the vertical direction is the y direction, and the positions of the other pixels A to D and F to I are represented on the basis of the position (x, y) of the target pixel E.

この場合、画素どうしの間隔を1とすると、画素Aの位置は(x-1,y-1)に、画素Bの位置は(x,y-1)に、画素Cの位置は(x+1,y-1)に、画素Dの位置は(x-1,y)に、画素Fの位置は(x+1,y)に、画素Gの位置は(x-1,y+1)に、画素Hの位置は(x,y+1)に、画素Iの位置は(x+1,y+1)に、それぞれなる。   In this case, if the interval between the pixels is 1, the position of the pixel A is (x-1, y-1), the position of the pixel B is (x, y-1), and the position of the pixel C is (x + 1, y-1), the position of pixel D is (x-1, y), the position of pixel F is (x + 1, y), and the position of pixel G is (x-1, y + 1) In addition, the position of the pixel H is (x, y + 1), and the position of the pixel I is (x + 1, y + 1).

ここで、画素Aを、その位置(x-1,y-1)をも用いて、画素A(x-1,y-1)ともいい、画素A(x-1,y-1)の画素値を、画素値Aともいう。他の画素BないしIについても同様とする。   Here, the pixel A is also referred to as a pixel A (x-1, y-1) using its position (x-1, y-1), and the pixel A (x-1, y-1) The value is also referred to as a pixel value A. The same applies to the other pixels B to I.

図20B及び図20Cは、CRT表示装置において、注目画素E(x,y)を表示するときの電子ビームの強度の分布を模式的に示している。   20B and 20C schematically show the electron beam intensity distribution when displaying the target pixel E (x, y) in the CRT display device.

すなわち、図20Bは、注目画素E(x,y)を表示するときの電子ビームの強度のx方向の分布を表し、図20Cは、注目画素E(x,y)を表示するときの電子ビームの強度のy方向の分布を表している。   That is, FIG. 20B shows the distribution in the x direction of the intensity of the electron beam when displaying the target pixel E (x, y), and FIG. 20C shows the electron beam when displaying the target pixel E (x, y). This represents the y-direction distribution of intensity.

注目画素E(x,y)の画素値Eが大であるほど、電子ビームは、図20B及び図20Cに示すように広がり、他の画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)の表示に影響を与える。   The larger the pixel value E of the target pixel E (x, y), the wider the electron beam as shown in FIGS. 20B and 20C, and the other pixels A (x−1, y−1) to D (x -1, y) and F (x + 1, y) through I (x + 1, y + 1) are affected.

このため、図5のEB処理部220は、注目画素E(x,y)を表示するときの電子ビームが、他の画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)の表示に影響を与える程度を表すEB係数を、他の画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)の画素値AないしD及びFないしIに乗算することにより、注目画素E(x,y)を表示するときの電子ビームが、他の画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)の表示に影響を与える影響分を求め、その影響分を考慮して、他の画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)の、EBエミュレート処理後の画素値を決定する。   For this reason, the EB processing unit 220 in FIG. 5 uses an electron beam for displaying the target pixel E (x, y) as the other pixels A (x−1, y−1) to D (x−1, y). ) And F (x + 1, y) to I (x + 1, y + 1) are expressed as EB coefficients representing the degree of influence on the display of other pixels A (x-1, y-1) to D ( x-1, y) and F (x + 1, y) to I (x + 1, y + 1) by multiplying the pixel values A to D and F to I by the pixel of interest E (x, y) When the electron beam is displayed, other pixels A (x-1, y-1) to D (x-1, y) and F (x + 1, y) to I (x + 1, y + 1) ) To determine the influence that affects the display of other pixels A (x-1, y-1) to D (x-1, y) and F (x + 1, y) ) To I (x + 1, y + 1) after EB emulation processing is determined.

図21は、注目画素E(x,y)を表示するときの電子ビームが、他の画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)の表示に影響を与える影響分(以下、適宜、EB影響分という)を求める回路の構成例を示している。   FIG. 21 shows that the electron beam when displaying the target pixel E (x, y) is other pixels A (x-1, y-1) to D (x-1, y) and F (x + 1, A configuration example of a circuit for obtaining an influence (hereinafter, appropriately referred to as EB influence) that affects the display of y) to I (x + 1, y + 1) is shown.

画素値Aは演算部242Aに、画素値Bは演算部242Bに、画素値Cは演算部242Cに、画素値Dは演算部242Dに、画素値EはEB係数発生部241に、画素値Fは演算部242Fに、画素値Gは演算部242Gに、画素値Hは演算部242Hに、画素値Iは演算部242Iに、それぞれ供給される。   The pixel value A is in the arithmetic unit 242A, the pixel value B is in the arithmetic unit 242B, the pixel value C is in the arithmetic unit 242C, the pixel value D is in the arithmetic unit 242D, the pixel value E is in the EB coefficient generating unit 241, and the pixel value F Is supplied to the calculation unit 242F, the pixel value G is supplied to the calculation unit 242G, the pixel value H is supplied to the calculation unit 242H, and the pixel value I is supplied to the calculation unit 242I.

EB係数発生部241は、画素値Eに基づいて、注目画素E(x,y)を表示するときの電子ビームが、他の画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)の表示に影響を与える程度を表すEB係数AEB,BEB,CEB,DEB,FEB,GEB,HEB、及びIEBを発生し、演算部242A,242B,242C,242D,242F,242G,242H、及び242Iに、それぞれ供給する。 Based on the pixel value E, the EB coefficient generation unit 241 generates an electron beam for displaying the target pixel E (x, y) from the other pixels A (x−1, y−1) to D (x−1). , y) and F (x + 1, y) to I (x + 1, y + 1), which represent the degree of influence on the display A EB , B EB , C EB , D EB , F EB , G EB , H EB , and I EB are generated and supplied to the calculation units 242A, 242B, 242C, 242D, 242F, 242G, 242H, and 242I, respectively.

演算部242Aないし242D、及び242Fないし242Iは、そこに供給される画素値AないしD、及びFないしIと、EB係数発生部241からのEB係数AEBないしDEB、及びFEBないしIEBとを、それぞれ乗算し、その結果得られる値A'ないしD'、及びF'ないしI'を、EB影響分として出力する。 The arithmetic units 242A through 242D and 242F through 242I are supplied with the pixel values A through D and F through I, and the EB coefficients A EB through D EB and F EB through I EB from the EB coefficient generator 241. And values A ′ to D ′ and F ′ to I ′ obtained as a result are output as EB influence components.

画素値Eは、そのまま出力され、他の画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)を表示するときの電子ビームそれぞれが、注目画素E(x,y)の表示に影響を与えるEB影響分と加算され、その加算値が、注目画素E(x,y)の、EBエミュレート処理後の画素値とされる。   Pixel value E is output as it is, and other pixels A (x-1, y-1) to D (x-1, y) and F (x + 1, y) to I (x + 1, y + 1). ) Is added to the EB influence that affects the display of the target pixel E (x, y), and the added value is the EB emulation of the target pixel E (x, y). The pixel value after processing is used.

図22は、図5のEB処理部220の構成例を示すブロック図である。   FIG. 22 is a block diagram illustrating a configuration example of the EB processing unit 220 in FIG.

図22において、EB処理部220は、EB機能部250から構成され、EB機能部250は、遅延部251ないし259、EB係数発生部260、及び積和演算部261から構成される。   In FIG. 22, the EB processing unit 220 includes an EB function unit 250, and the EB function unit 250 includes delay units 251 to 259, an EB coefficient generation unit 260, and a product-sum operation unit 261.

EB機能部250は、例えば、図20に示したように、画素E(x,y)を表示するときの電子ビームが、その画素E(x,y)に隣接する画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)の表示に影響を与えることとして、つまり、画素E(x,y)については、その画素E(x,y)に隣接する画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)それぞれからのEB影響分があるとして、画素E(x,y)の、EBエミュレート処理後の画素値を求める。   For example, as shown in FIG. 20, the EB function unit 250 generates a pixel A (x-1, y) adjacent to the pixel E (x, y) when the electron beam when displaying the pixel E (x, y) is displayed. y-1) to D (x-1, y) and F (x + 1, y) to I (x + 1, y + 1) as affecting the display, i.e. pixel E (x, y ) For pixels A (x-1, y-1) to D (x-1, y) and F (x + 1, y) to I (x + 1) adjacent to the pixel E (x, y). , y + 1), the pixel value after the EB emulation processing of the pixel E (x, y) is obtained on the assumption that there is an EB influence from each.

すなわち、EB機能部250には、輝度補正部210(図5)から画像信号が供給される。   That is, the image signal is supplied to the EB function unit 250 from the luminance correction unit 210 (FIG. 5).

EB機能部250では、輝度補正部210からの画像信号を構成する画素の画素値が、ラスタスキャン順に、遅延部251,253、及び258、EB係数発生部260、並びに積和演算部261に供給される。   In the EB function unit 250, the pixel values of the pixels constituting the image signal from the luminance correction unit 210 are supplied to the delay units 251, 253, and 258, the EB coefficient generation unit 260, and the product-sum operation unit 261 in the raster scan order. Is done.

遅延部251は、輝度補正部210からの画素値を1ライン(水平ライン)分だけ遅延して、遅延部252に供給する。遅延部252は、遅延部251からの画素値を1ライン分だけ遅延して、遅延部254、及び積和演算部261に供給する。   The delay unit 251 delays the pixel value from the luminance correction unit 210 by one line (horizontal line) and supplies the delayed pixel value to the delay unit 252. The delay unit 252 delays the pixel value from the delay unit 251 by one line and supplies it to the delay unit 254 and the product-sum operation unit 261.

遅延部254は、遅延部252からの画素値を1画素分だけ遅延して、遅延部255、及び積和演算部261に供給する。遅延部255は、遅延部254からの画素値を1画素分だけ遅延して、積和演算部261に供給する。   The delay unit 254 delays the pixel value from the delay unit 252 by one pixel, and supplies the delayed pixel value to the delay unit 255 and the product-sum operation unit 261. The delay unit 255 delays the pixel value from the delay unit 254 by one pixel and supplies it to the product-sum operation unit 261.

遅延部253は、輝度補正部210からの画素値を1ライン分だけ遅延して、遅延部256、及び積和演算部261に供給する。遅延部256は、遅延部253からの画素値を1画素分だけ遅延して、遅延部257、及び積和演算部261に供給する。遅延部257は、遅延部256からの画素値を1画素分だけ遅延して、積和演算部261に供給する。   The delay unit 253 delays the pixel value from the luminance correction unit 210 by one line and supplies the delayed pixel value to the delay unit 256 and the product-sum operation unit 261. The delay unit 256 delays the pixel value from the delay unit 253 by one pixel, and supplies the delayed pixel value to the delay unit 257 and the product-sum operation unit 261. The delay unit 257 delays the pixel value from the delay unit 256 by one pixel and supplies it to the product-sum operation unit 261.

遅延部258は、輝度補正部210からの画素値を1画素分だけ遅延して、遅延部259、及び積和演算部261に供給する。遅延部259は、遅延部258からの画素値を1画素分だけ遅延して、積和演算部261に供給する。   The delay unit 258 delays the pixel value from the luminance correction unit 210 by one pixel and supplies the delayed pixel value to the delay unit 259 and the product-sum operation unit 261. The delay unit 259 delays the pixel value from the delay unit 258 by one pixel and supplies it to the product-sum operation unit 261.

EB係数発生部260は、輝度補正部210からの画素値に基づき、その画素値が、隣接する画素値に与えるEB影響分を求めるための、上述したようなEB係数を発生し、積和演算部261に供給する。   Based on the pixel value from the luminance correction unit 210, the EB coefficient generation unit 260 generates the EB coefficient as described above for calculating the EB influence that the pixel value has on the adjacent pixel value, and performs the product-sum operation. To the unit 261.

積和演算部261は、輝度補正部210からの画素値と、遅延部252ないし255、及び257ないし259それぞれからの画素値との、合計で8つの画素値それぞれと、EB係数発生部260からのEB係数とを乗算することにより、その8つの画素値から、遅延部256で遅延された画素値が受けるEB影響分を求め、そのEB影響分を、遅延部256からの画素値に加算することで、遅延部256からの画素値について、EBエミュレート処理後の画素値を求めて出力する。   The product-sum operation unit 261 includes a total of eight pixel values including the pixel values from the luminance correction unit 210 and the pixel values from the delay units 252 to 255 and 257 to 259, and the EB coefficient generation unit 260. By multiplying the EB coefficient by the EB coefficient, the EB influence component affected by the pixel value delayed by the delay unit 256 is obtained from the eight pixel values, and the EB influence component is added to the pixel value from the delay unit 256. Thus, the pixel value after the EB emulation processing is obtained and output for the pixel value from the delay unit 256.

したがって、例えば、図20に示した画素値AないしIがラスタスキャン順で、EB機能部250に供給され、いま、画素値Iが、EB機能部250に供給されたとすると、遅延部255の出力は画素値Aに、遅延部254の出力は画素値Bに、遅延部252の出力は画素値Cに、遅延部257の出力は画素値Dに、遅延部256の出力は画素値Eに、遅延部253の出力は画素値Fに、遅延部259の出力は画素値Gに、遅延部258の出力は画素値Hに、それぞれなって、積和演算部261に供給される。   Therefore, for example, if the pixel values A to I shown in FIG. 20 are supplied to the EB function unit 250 in the raster scan order, and now the pixel value I is supplied to the EB function unit 250, the output of the delay unit 255 Is the pixel value A, the output of the delay unit 254 is the pixel value B, the output of the delay unit 252 is the pixel value C, the output of the delay unit 257 is the pixel value D, the output of the delay unit 256 is the pixel value E, The output of the delay unit 253 is supplied to the pixel value F, the output of the delay unit 259 is supplied to the pixel value G, and the output of the delay unit 258 is supplied to the pixel value H.

また、EB係数発生部260及び積和演算部261には、EB機能部250に供給された画素値Iが供給される。   Further, the pixel value I supplied to the EB function unit 250 is supplied to the EB coefficient generation unit 260 and the product-sum operation unit 261.

EB係数発生部260には、画素値Iが供給される前に、画素値AないしHが供給されているので、EB係数発生部260では、画素値AないしIのそれぞれが、隣接する画素値に影響するEB影響分を求めるためのEB係数が発生され、積和演算部261に供給されている。   Since the EB coefficient generation unit 260 is supplied with the pixel values A to H before the pixel value I is supplied, the EB coefficient generation unit 260 determines that each of the pixel values A to I is an adjacent pixel value. An EB coefficient for determining an EB influence component that affects the product is generated and supplied to the product-sum operation unit 261.

積和演算部261は、遅延部256からの画素値Eと、EB係数発生部260からの、画素値AないしD、及びFないしIのそれぞれが、画素値Eに影響するEB影響分を求めるためのEB係数それぞれとを乗算することにより、画素値AないしD、及びFないしIのそれぞれが、画素値Eに影響するEB影響分を求め、遅延部256からの画素値Eと加算して、その加算値を、遅延部256からの画素値Eについての、EBエミュレート処理後の画素値として出力する。   The product-sum operation unit 261 obtains an EB influence that the pixel value E from the delay unit 256 and the pixel values A to D and F to I from the EB coefficient generation unit 260 affect the pixel value E. The pixel values A to D and F to I are multiplied by the EB coefficients for obtaining the EB influences that affect the pixel value E, and added to the pixel value E from the delay unit 256. The added value is output as the pixel value after the EB emulation process for the pixel value E from the delay unit 256.

次に、図23は、図5のEB処理部220の他の構成例を示している。   Next, FIG. 23 shows another configuration example of the EB processing unit 220 in FIG.

なお、図中、図22の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   In the figure, portions corresponding to those in FIG. 22 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

すなわち、図23のEB処理部220は、EB機能部250を有する点で、図22の場合と共通し、セレクタ271及び272をさらに有する点で、図22の場合と相違している。   That is, the EB processing unit 220 of FIG. 23 is different from the case of FIG. 22 in that it has the EB function unit 250 and is common to the case of FIG. 22 and further includes selectors 271 and 272.

図23のEB処理部220では、輝度補正部210(図5)からの画像信号が、セレクタ271に供給される。   In the EB processing unit 220 in FIG. 23, the image signal from the luminance correction unit 210 (FIG. 5) is supplied to the selector 271.

また、セレクタ271には、セレクタ272からの画像信号も供給される。   The selector 271 is also supplied with the image signal from the selector 272.

セレクタ271は、輝度補正部210からの画像信号、又は、セレクタ272からの画像信号のうちの一方を選択し、EB機能部250に供給する。   The selector 271 selects one of the image signal from the luminance correction unit 210 or the image signal from the selector 272 and supplies the selected signal to the EB function unit 250.

セレクタ272には、EB機能部250からの、EBエミュレート処理後の画像信号が供給される。   The selector 272 is supplied with the image signal after the EB emulation processing from the EB function unit 250.

セレクタ272は、EB機能部250からの画像信号を、最終的なEBエミュレート処理後の画像信号として出力するか、又は、セレクタ271に供給する。   The selector 272 outputs the image signal from the EB function unit 250 as an image signal after final EB emulation processing or supplies the image signal to the selector 271.

以上のように構成されるEB処理部220では、セレクタ271は、まず、輝度補正部210からの画像信号を選択し、EB機能部250に供給する。   In the EB processing unit 220 configured as described above, the selector 271 first selects an image signal from the luminance correction unit 210 and supplies the image signal to the EB function unit 250.

EB機能部250は、セレクタ271からの画像信号に対して、EBエミュレート処理を施し、セレクタ272に供給する。   The EB function unit 250 performs EB emulation processing on the image signal from the selector 271 and supplies the image signal to the selector 272.

セレクタ272は、EB機能部250からの画像信号を、セレクタ271に供給する。   The selector 272 supplies the image signal from the EB function unit 250 to the selector 271.

セレクタ271は、セレクタ272からの画像信号を選択し、EB機能部250に供給する。   The selector 271 selects the image signal from the selector 272 and supplies it to the EB function unit 250.

以上のようにして、EB機能部250において、輝度補正部210からの画像信号に対して、所定の回数だけ、EBエミュレート処理が繰り返し施されると、セレクタ272は、EB機能部250からの画像信号を、最終的なEBエミュレート処理後の画像信号として出力する。   As described above, in the EB function unit 250, when the EB emulation processing is repeatedly performed a predetermined number of times on the image signal from the luminance correction unit 210, the selector 272 receives the signal from the EB function unit 250. The image signal is output as an image signal after final EB emulation processing.

以上のように、EBエミュレート処理は、再帰的に行うことができる。   As described above, the EB emulation process can be performed recursively.

なお、図22では、説明を簡単にするために、画素E(x,y)を表示するときの電子ビームが、その画素E(x,y)に隣接する画素A(x-1,y-1)ないしD(x-1,y)及びF(x+1,y)ないしI(x+1,y+1)の表示にしか影響を与えないこととしたが、画素E(x,y)を表示するときの電子ビームが表示に影響を与える画素の範囲は、電子ビームの強度の分布が異なるごとに異なる。   In FIG. 22, for simplicity of explanation, the electron beam when displaying the pixel E (x, y) is changed to the pixel A (x−1, y−) adjacent to the pixel E (x, y). 1) to D (x-1, y) and F (x + 1, y) to I (x + 1, y + 1) only affect the display, but the pixel E (x, y The pixel range in which the electron beam affects display is different for each electron beam intensity distribution.

次に、図24は、図2のCRTγ処理部35の色温度補償処理を行う部分の構成例を示している。   Next, FIG. 24 shows a configuration example of a portion that performs color temperature compensation processing of the CRTγ processing unit 35 of FIG.

図24において、制御部281には、表示色温度補償制御部40(図2)からの制御信号が供給され、レベルシフト部282には、VM処理部34(図2)からの画像信号としての色信号R(Red),G(Green),B(Blue)が供給される。   In FIG. 24, the control unit 281 is supplied with a control signal from the display color temperature compensation control unit 40 (FIG. 2), and the level shift unit 282 is supplied with an image signal from the VM processing unit 34 (FIG. 2). Color signals R (Red), G (Green), and B (Blue) are supplied.

制御部281は、表示色温度補償制御部40からの制御信号が表す色温度の設定値に基づき、レベルシフト部282とゲイン調整部283を制御する。   The control unit 281 controls the level shift unit 282 and the gain adjustment unit 283 based on the color temperature setting value represented by the control signal from the display color temperature compensation control unit 40.

レベルシフト部282は、VM処理部34からの色信号R,G,Bについて、制御部281からの制御に従ったレベルのシフト(加算)を行い(CRT表示装置においてはDCバイアス)、その結果得られる色信号R,G,Bを、ゲイン調整部283に供給する。   The level shift unit 282 performs level shift (addition) on the color signals R, G, and B from the VM processing unit 34 according to the control from the control unit 281 (DC bias in the CRT display device), and the result The obtained color signals R, G, B are supplied to the gain adjusting unit 283.

ゲイン調整部283は、レベルシフト部282からの色信号R,G,Bのゲインの調整を、制御部281からの制御に従って行い、その結果得られる色信号R,G,Bを、色温度補償処理後の色信号R,G,Bとして出力する。   The gain adjusting unit 283 adjusts the gains of the color signals R, G, and B from the level shift unit 282 according to the control from the control unit 281, and the resulting color signals R, G, and B are subjected to color temperature compensation. Output as processed color signals R, G, B.

なお、色温度補償処理の方法としては、その他、例えば、特開平08-163582号公報や、特開2002-232905号公報に記載されている方法を採用することができる。   In addition, as a method of color temperature compensation processing, for example, methods described in Japanese Patent Application Laid-Open No. 08-163582 and Japanese Patent Application Laid-Open No. 2002-232905 can be employed.

図25は、図2のVM処理部34の他の構成例を示している。   FIG. 25 illustrates another configuration example of the VM processing unit 34 in FIG.

なお、図中、図5のVM処理部34と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   In the figure, portions corresponding to those of the VM processing unit 34 in FIG. 5 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

すなわち、図25のVM処理部34は、輝度補正部210(図5)に代えて、輝度補正部310が設けられていることを除き、図5のVM処理部34と同様に構成されている。   That is, the VM processing unit 34 in FIG. 25 has the same configuration as the VM processing unit 34 in FIG. 5 except that a luminance correction unit 310 is provided instead of the luminance correction unit 210 (FIG. 5). .

図26は、図25の輝度補正部310の構成例を示している。   FIG. 26 illustrates a configuration example of the luminance correction unit 310 of FIG.

図26において、輝度補正部310は、遅延タイミング調整部311、微分回路312、スレッショルド処理部313、波形整形処理部314、及び乗算回路315から構成され、例えば、特開昭61-167280号公報(特公平05-84706号公報)や、国際公開第WO00/010324号パンフレット等に記載されている、CRT表示装置におけるVM処理(電子ビームの速度変調)のエミュレーションとしての輝度補正を行う。   26, the luminance correction unit 310 includes a delay timing adjustment unit 311, a differentiation circuit 312, a threshold processing unit 313, a waveform shaping processing unit 314, and a multiplication circuit 315, for example, Japanese Patent Laid-Open No. 61-167280 ( (Japanese Patent Publication No. 05-84706) and International Publication No. WO00 / 010324 pamphlet, etc., perform luminance correction as emulation of VM processing (electron beam velocity modulation) in a CRT display device.

すなわち、輝度補正部310には、ABL処理部33(図2)からの画像信号が供給され、その画像信号は、遅延タイミング調整部311、及び微分回路312に供給される。   That is, the image signal from the ABL processing unit 33 (FIG. 2) is supplied to the luminance correction unit 310, and the image signal is supplied to the delay timing adjustment unit 311 and the differentiation circuit 312.

遅延タイミング調整部311は、ABL処理部33からの画像信号を、微分回路312、スレッショルド処理部313、及び波形整形処理部314での処理に要する時間に対応する時間だけ遅延し、乗算回路315に供給する。   The delay timing adjustment unit 311 delays the image signal from the ABL processing unit 33 by a time corresponding to the time required for processing by the differentiation circuit 312, the threshold processing unit 313, and the waveform shaping processing unit 314, and sends it to the multiplication circuit 315. Supply.

一方、微分回路312は、ABL処理部33からの画像信号を1次微分することにより、その画像信号のエッジの部分を検出し、そのエッジの部分の微分値(1次微分の微分値)を、スレッショルド処理部313に供給する。   On the other hand, the differentiation circuit 312 first differentiates the image signal from the ABL processing unit 33 to detect an edge portion of the image signal, and obtains a differential value (differential value of the primary differentiation) of the edge portion. , And supplied to the threshold processing unit 313.

スレッショルド処理部313は、微分回路312からの微分値の絶対値を、所定の閾値と比較し、絶対値が所定の閾値より大の微分値だけを、波形整形処理部314に供給することで、微分値の絶対値が所定の閾値以下のエッジの部分に対して、輝度補正が行われることを制限する。   The threshold processing unit 313 compares the absolute value of the differential value from the differentiating circuit 312 with a predetermined threshold value, and supplies only the differential value whose absolute value is larger than the predetermined threshold value to the waveform shaping processing unit 314. The luminance correction is limited to the edge portion where the absolute value of the differential value is equal to or less than a predetermined threshold value.

波形整形処理部314は、スレッショルド処理部313からの微分値に基づき、エッジの部分の画素値に乗算することにより輝度補正を行うVM係数として、平均値が1.0となるVM係数を算出し、乗算回路315に供給する。   Based on the differential value from the threshold processing unit 313, the waveform shaping processing unit 314 calculates a VM coefficient having an average value of 1.0 as a VM coefficient for performing luminance correction by multiplying the pixel value of the edge portion. Supply to circuit 315.

乗算回路315は、遅延タイミング調整部311から供給される画像信号におけるエッジの部分の画素値と、波形整形処理部314から供給されるVM係数とを乗算することにより、そのエッジの部分の輝度補正を行って、EB処理部220(図25)に供給する。   The multiplication circuit 315 multiplies the pixel value of the edge portion in the image signal supplied from the delay timing adjustment unit 311 by the VM coefficient supplied from the waveform shaping processing unit 314, thereby correcting the luminance of the edge portion. Is supplied to the EB processing unit 220 (FIG. 25).

なお、波形整形処理部314で算出するVM係数は、エッジの部分の輝度補正の程度をユーザの好みに合致するように、例えば、ユーザの操作に応じて調整することが可能である。   Note that the VM coefficient calculated by the waveform shaping processing unit 314 can be adjusted according to the user's operation, for example, so that the brightness correction level of the edge portion matches the user's preference.

また、スレッショルド処理部313、及び波形整形処理部314は、それぞれ、VM制御部39(図2)から供給されるVM制御信号に従い、動作条件を設定する。   In addition, the threshold processing unit 313 and the waveform shaping processing unit 314 set operating conditions according to the VM control signal supplied from the VM control unit 39 (FIG. 2).

図27は、波形整形処理部314で算出されるVM係数と、そのVM係数を用いて輝度補正が行われる前後の画像信号との例を示している。   FIG. 27 shows an example of a VM coefficient calculated by the waveform shaping processing unit 314 and image signals before and after the luminance correction is performed using the VM coefficient.

すなわち、図27Aは、VM係数の第1の例を示している。   That is, FIG. 27A shows a first example of the VM coefficient.

図27Aでは、エッジ画素値(エッジを構成する、大の画素値と小の画素値とのうちの、大の画素値)に乗算されるVM係数が、1.1となっており、エッジ画素値の左と右に隣接する画素値それぞれに乗算されるVM係数が、いずれも、0.95になっている。   In FIG. 27A, the VM coefficient multiplied by the edge pixel value (the large pixel value of the large pixel value and the small pixel value constituting the edge) is 1.1, and the edge pixel value The VM coefficient multiplied by each of the pixel values adjacent to the left and right is 0.95.

図27Bは、VM係数の第2の例を示している。   FIG. 27B shows a second example of the VM coefficient.

図27Bでは、エッジ画素値に乗算されるVM係数が、1.2になっており、エッジ画素値の左と、そのさらに左に隣接する画素値それぞれに乗算されるVM係数、及び、エッジ画素値の右と、そのさらに右に隣接する画素値それぞれに乗算されるVM係数が、いずれも、0.95になっている。   In FIG. 27B, the VM coefficient multiplied by the edge pixel value is 1.2, and the VM coefficient multiplied by each of the pixel values adjacent to the left of the edge pixel value and further to the left, and the edge pixel value The VM coefficient multiplied by each pixel value adjacent to the right and further to the right is 0.95.

図27Cは、輝度補正がされる前の画像信号を示している。   FIG. 27C shows an image signal before luminance correction is performed.

図27Cでは、左から3番目の画素値と、4番目の画素値との間がエッジとなっており、したがって、左から4番目の画素値が、エッジ画素値になっている。   In FIG. 27C, an edge is between the third pixel value from the left and the fourth pixel value, and thus the fourth pixel value from the left is the edge pixel value.

図27Dは、図27Cの画像信号に対して、図27AのVM係数を用いて輝度補正を行って得られる画像信号を示している。   FIG. 27D shows an image signal obtained by performing luminance correction on the image signal of FIG. 27C using the VM coefficient of FIG. 27A.

図27Dの画像信号では、図27Cの元の画像信号と比較して、エッジ画素値である4番目の画素値が大になっているとともに、左から3番目の画素値と5番目の画素値が小になっており、その結果、エッジが強調されている。   In the image signal of FIG. 27D, the fourth pixel value, which is the edge pixel value, is larger than that of the original image signal of FIG. 27C, and the third pixel value and the fifth pixel value from the left. Is small, and as a result, the edges are emphasized.

図27Eは、図27Cの画像信号に対して、図27BのVM係数を用いて輝度補正を行って得られる画像信号を示している。   FIG. 27E shows an image signal obtained by performing luminance correction on the image signal of FIG. 27C using the VM coefficient of FIG. 27B.

図27Eの画像信号では、図27Cの元の画像信号と比較して、エッジ画素値である4番目の画素値が大になっているとともに、左から2番目、3番目、5番目、及び6番目の画素値が小になっており、その結果、エッジが、図27Dの場合より強調されている。   In the image signal of FIG. 27E, the fourth pixel value, which is the edge pixel value, is larger than the original image signal of FIG. 27C, and the second, third, fifth, and sixth from the left. The second pixel value is smaller, and as a result, the edge is emphasized than in the case of FIG. 27D.

なお、図27のVM係数は、一例にすぎない。また、図27では、左から右方向に見て、暗い画像から明るい画像に変化するエッジの部分を示したが、明るい画像から暗い画像に変化するエッジの部分についても、同様に、輝度補正が行われる。   Note that the VM coefficient in FIG. 27 is merely an example. In FIG. 27, the edge portion that changes from a dark image to a bright image when viewed from the left to the right is shown, but the luminance correction is similarly applied to the edge portion that changes from a bright image to a dark image. Done.

次に、図28は、図25の輝度補正部310の他の構成例を示している。   Next, FIG. 28 shows another configuration example of the luminance correction unit 310 of FIG.

図28において、輝度補正部310は、タップ選択部321、クラス分類部322、タップ係数記憶部326、及び予測部327から構成され、例えば、特開平07-95591号公報(特許第3271101号)等に記載のDRCを利用して、輝度補正を行う。   In FIG. 28, the luminance correction unit 310 includes a tap selection unit 321, a class classification unit 322, a tap coefficient storage unit 326, and a prediction unit 327. For example, Japanese Unexamined Patent Publication No. 07-95591 (Japanese Patent No. 3271101) The luminance correction is performed using the DRC described in 1.

ここで、DRCについて説明する。   Here, DRC will be described.

DRCは、第1の画像信号を第2の画像信号に変換(マッピング)する処理であり、第1と第2の画像データの定義によって様々な信号処理を行うことができる。   DRC is a process of converting (mapping) a first image signal into a second image signal, and various signal processes can be performed depending on the definition of the first and second image data.

即ち、例えば、第1の画像信号を低空間解像度の画像信号とするとともに、第2の画像信号を高空間解像度の画像信号とすれば、DRCは、空間解像度を向上させる空間解像度創造(向上)処理ということができる。   That is, for example, if the first image signal is an image signal with a low spatial resolution and the second image signal is an image signal with a high spatial resolution, DRC can create (improve) the spatial resolution to improve the spatial resolution. It can be called processing.

また、例えば、第1の画像信号を低S/N(Siginal/Noise)の画像信号とするとともに、第2の画像信号を高S/Nの画像信号とすれば、DRCは、ノイズを除去するノイズ除去処理ということができる。   Further, for example, if the first image signal is a low S / N (Siginal / Noise) image signal and the second image signal is a high S / N image signal, the DRC removes noise. This can be called noise removal processing.

さらに、例えば、第1の画像信号を所定の画素数(サイズ)の画像信号とするとともに、第2の画像信号を、第1の画像信号の画素数を多くまたは少なくした画像信号とすれば、DRCは、画像のリサイズ(拡大または縮小)を行うリサイズ処理ということができる。   Further, for example, if the first image signal is an image signal having a predetermined number of pixels (size) and the second image signal is an image signal in which the number of pixels of the first image signal is increased or decreased, DRC can be referred to as resizing processing for resizing (enlarging or reducing) an image.

また、例えば、第1の画像信号を低時間解像度の画像信号とするとともに、第2の画像信号を高時間解像度の画像信号とすれば、DRCは、時間解像度を向上させる時間解像度創造(向上)処理ということができる。   Also, for example, if the first image signal is a low time resolution image signal and the second image signal is a high time resolution image signal, DRC creates (improves) time resolution that improves time resolution. It can be called processing.

さらに、例えば、第1の画像信号を、MPEG(Moving Picture Experts Group)符号化などのブロック単位で符号化された画像信号を復号することによって得られる復号画像信号とするとともに、第2の画像信号を、符号化前の画像信号とすれば、DRCは、MPEG符号化および復号によって生じるブロック歪み等の各種の歪みを除去する歪み除去処理ということができる。   Further, for example, the first image signal is a decoded image signal obtained by decoding an image signal encoded in units of blocks such as MPEG (Moving Picture Experts Group) encoding, and the second image signal. Is an image signal before encoding, it can be said that DRC is a distortion removal process for removing various distortions such as block distortion caused by MPEG encoding and decoding.

なお、空間解像度創造処理において、低空間解像度の画像信号である第1の画像信号を、高空間解像度の画像信号である第2の画像信号に変換するにあたっては、第2の画像信号を、第1の画像信号と同一の画素数の画像信号とすることもできるし、第1の画像信号よりも画素数が多い画像信号とすることもできる。第2の画像信号を、第1の画像信号よりも画素数が多い画像信号とする場合、空間解像度創造処理は、空間解像度を向上させる処理であるとともに、画像サイズ(画素数)を拡大するリサイズ処理でもある。   In the spatial resolution creation process, when the first image signal, which is an image signal with low spatial resolution, is converted into the second image signal, which is an image signal with high spatial resolution, the second image signal is converted into the second image signal. An image signal having the same number of pixels as one image signal may be used, or an image signal having more pixels than the first image signal may be used. When the second image signal is an image signal having a larger number of pixels than the first image signal, the spatial resolution creation process is a process for improving the spatial resolution and resizing to increase the image size (number of pixels). It is also a process.

以上のように、DRCによれば、第1および第2の画像信号をどのように定義するかによって、様々な信号処理を実現することができる。   As described above, according to DRC, various signal processes can be realized depending on how the first and second image signals are defined.

DRCでは、第2の画像信号のうちの注目している注目画素を複数のクラスのうちのいずれかのクラスにクラス分類することにより得られるクラスのタップ係数と、注目画素に対して選択される第1の画像信号の複数の画素(の画素値)とを用いた予測演算により、注目画素の画素値(の予測値)が求められる。   In DRC, a target pixel of interest in the second image signal is selected for a class of tap coefficients and a target pixel obtained by classifying the target pixel into one of a plurality of classes. A pixel value (predicted value) of the target pixel is obtained by a prediction calculation using a plurality of pixels (pixel values thereof) of the first image signal.

図28において、ABL処理部33(図2)からVM処理部34の輝度補正部310に供給される画像信号は、第1の画像信号として、タップ選択部321に供給される。   In FIG. 28, the image signal supplied from the ABL processing unit 33 (FIG. 2) to the luminance correction unit 310 of the VM processing unit 34 is supplied to the tap selection unit 321 as the first image signal.

タップ選択部321は、ABL処理部33からの第1の画像信号の輝度補正を行って得られる画像信号を、第2の画像信号として、その第2の画像信号を構成する画素を、順次、注目画素とし、注目画素(の画素値)を予測するのに用いる第1の画像信号を構成する画素(の画素値)の幾つかを、予測タップとして選択する。   The tap selection unit 321 uses the image signal obtained by correcting the luminance of the first image signal from the ABL processing unit 33 as the second image signal, and sequentially configures the pixels constituting the second image signal. As the target pixel, some of the pixels (the pixel values) constituting the first image signal used for predicting the target pixel (the pixel value thereof) are selected as prediction taps.

具体的には、タップ選択部321は、注目画素の時空間の位置から空間的または時間的に近い位置にある第1の画像信号の複数の画素を、予測タップとして選択する。   Specifically, the tap selection unit 321 selects a plurality of pixels of the first image signal that are spatially or temporally close to the temporal and spatial positions of the target pixel as prediction taps.

さらに、タップ選択部321は、注目画素を、複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる第1の画像信号を構成する画素の幾つかを、クラスタップとして選択する。すなわち、タップ選択部321は、タップ選択部321が予測タップを選択するのと同様にして、クラスタップを選択する。   Furthermore, the tap selection unit 321 selects some of the pixels constituting the first image signal used for classifying the target pixel into any of a plurality of classes as class taps. . That is, the tap selection unit 321 selects a class tap in the same manner as the tap selection unit 321 selects a prediction tap.

なお、予測タップとクラスタップは、同一のタップ構造(注目画素に対する位置関係)を有するものであっても良いし、異なるタップ構造を有するものであっても良い。   Note that the prediction tap and the class tap may have the same tap structure (positional relationship with respect to the target pixel) or may have different tap structures.

タップ選択部321で得られた予測タップは、予測部327に供給され、タップ選択部321で得られたクラスタップは、クラス分類部322に供給される。   The prediction tap obtained by the tap selection unit 321 is supplied to the prediction unit 327, and the class tap obtained by the tap selection unit 321 is supplied to the class classification unit 322.

クラス分類部322は、クラス予測係数記憶部323、予測部324、及びクラス決定部325から構成され、タップ選択部321からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、タップ係数記憶部326に供給する。   The class classification unit 322 includes a class prediction coefficient storage unit 323, a prediction unit 324, and a class determination unit 325, classifies the target pixel based on the class tap from the tap selection unit 321, and sets the class as a result. The corresponding class code is supplied to the tap coefficient storage unit 326.

ここで、クラス分類部322によるクラス分類の詳細については、後述する。   Here, details of the class classification by the class classification unit 322 will be described later.

タップ係数記憶部326は、後述する学習によって求められたクラスごとのタップ係数を、VM係数として記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部322から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部322から供給されるクラスコードが表すクラスのタップ係数)を出力する。このタップ係数は、予測部327に供給される。   The tap coefficient storage unit 326 stores a tap coefficient for each class obtained by learning, which will be described later, as a VM coefficient, and further corresponds to the class code supplied from the class classification unit 322 among the stored tap coefficients. The tap coefficient (the tap coefficient of the class represented by the class code supplied from the class classification unit 322) stored in the address to be output is output. This tap coefficient is supplied to the prediction unit 327.

ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力データと乗算される係数に相当するものである。   Here, the tap coefficient corresponds to a coefficient that is multiplied with input data in a so-called tap in the digital filter.

予測部327は、タップ選択部321が出力する予測タップと、タップ係数記憶部326が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素の真値の予測値を求める所定の予測演算を行う。これにより、予測部327は、注目画素の画素値(の予測値)、すなわち、第2の画像信号を構成する画素の画素値、つまり、輝度補正後の画素値を求めて出力する。   The prediction unit 327 acquires the prediction tap output from the tap selection unit 321 and the tap coefficient output from the tap coefficient storage unit 326, and uses the prediction tap and the tap coefficient to predict the true value of the target pixel. Predetermined calculation for obtaining is performed. As a result, the prediction unit 327 calculates and outputs the pixel value (predicted value) of the pixel of interest, that is, the pixel value of the pixel constituting the second image signal, that is, the pixel value after luminance correction.

なお、クラス分類部322を構成するクラス予測係数記憶部323、及び予測部324、並びに、タップ係数記憶部326は、それぞれ、VM制御部39(図2)から供給されるVM制御信号に従い、動作条件の設定や必要な選択を行う。   Note that the class prediction coefficient storage unit 323, the prediction unit 324, and the tap coefficient storage unit 326 constituting the class classification unit 322 operate according to the VM control signal supplied from the VM control unit 39 (FIG. 2), respectively. Set conditions and make necessary selections.

次に、図28のタップ係数記憶部326に、VM係数として記憶されるクラスごとのタップ係数の学習について説明する。   Next, learning of tap coefficients for each class stored as VM coefficients in the tap coefficient storage unit 326 in FIG. 28 will be described.

DRCの所定の予測演算に用いられるタップ係数は、多数の画像信号を、学習用の画像信号として用いた学習によって求められる。   The tap coefficient used for the predetermined prediction calculation of DRC is obtained by learning using a large number of image signals as image signals for learning.

すなわち、例えば、いま、輝度補正前の画像信号を、第1の画像信号とするとともに、その第1の画像信号について輝度補正を行って得られる、輝度補正後の画像信号を、第2の画像信号として、DRCにおいて、第1の画像信号から予測タップを選択し、その予測タップとタップ係数を用いて、第2の画像信号の注目画素の画素値を、所定の予測演算によって求める(予測する)こととする。   That is, for example, the image signal before luminance correction is set as the first image signal, and the luminance-corrected image signal obtained by performing luminance correction on the first image signal is used as the second image. In DRC, a prediction tap is selected from the first image signal as a signal, and the pixel value of the target pixel of the second image signal is obtained (predicted) by using the prediction tap and the tap coefficient. )

所定の予測演算として、例えば、線形1次予測演算を採用することとすると、第2の画像信号の画素値yは、次の線形1次式によって求められることになる。   If, for example, a linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the second image signal is obtained by the following linear primary expression.

Figure 2008233854
・・・(3)
Figure 2008233854
... (3)

但し、式(3)において、xnは、第2の画像信号の注目画素yについての予測タップを構成する、第1の画像信号のn番目の画素(以下、適宜、補正前画素という)の画素値を表し、wnは、n番目の補正前画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(3)では、予測タップが、N個の補正前画素x1,x2,・・・,xNで構成されるものとしてある。 However, in Expression (3), x n is the nth pixel of the first image signal (hereinafter, appropriately referred to as a pre-correction pixel) that constitutes the prediction tap for the target pixel y of the second image signal. It represents a pixel value, w n denotes the n-th tap coefficient multiplied with the n-th pre-correction pixel (pixel value). In equation (3), the prediction tap is assumed to be composed of N pre-correction pixels x 1 , x 2 ,..., X N.

ここで、第2の画像信号の注目画素の画素値yは、式(3)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   Here, the pixel value y of the target pixel of the second image signal may be obtained by a higher-order expression of the second or higher order, instead of the linear first-order expression shown in the expression (3).

いま、第2の画像信号の第kサンプルの画素値の真値をykと表すとともに、式(3)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the k-th sample of the second image signal is expressed as y k and the predicted value of the true value y k obtained by the equation (3) is expressed as y k ′, the prediction error e k is expressed by the following equation.

Figure 2008233854
・・・(4)
Figure 2008233854
... (4)

いま、式(4)の予測値yk’は、式(3)にしたがって求められるため、式(4)のyk’を、式(3)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Expression (4) is obtained according to Expression (3), when y k ′ of Expression (4) is replaced according to Expression (3), the following expression is obtained.

Figure 2008233854
・・・(5)
Figure 2008233854
... (5)

但し、式(5)において、xn,kは、第2の画像信号の第kサンプルの画素についての予測タップを構成するn番目の補正前画素を表す。 However, in Expression (5), x n, k represents the n-th pre-correction pixel constituting the prediction tap for the pixel of the k-th sample of the second image signal.

式(5)(または式(4))の予測誤差ekを0とするタップ係数wnが、第2の画像信号の画素を予測するのに最適なものとなるが、すべての第2の画像信号の画素について、そのようなタップ係数wnを求めることは、一般には困難である。 Equation (5) prediction error e k tap coefficients w n to 0 (or formula (4)) is, is the optimal to predict the pixels of the second image signal, every second the pixels of the image signal, to determine such tap coefficients w n is generally difficult.

そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as the standard for indicating that the tap coefficient w n is optimal, for example, when adopting the method of least squares, optimal tap coefficient w n, the sum E of square errors expressed by the following formula It can be obtained by minimizing.

Figure 2008233854
・・・(6)
Figure 2008233854
... (6)

但し、式(6)において、Kは、第2の画像信号の画素ykと、その第2の画像信号の画素ykについての予測タップを構成する補正前画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの総数)を表す。 However, in Equation (6), K is the pixel y k of the second image signal and the uncorrected pixels x 1, k , x 2 that constitute the prediction tap for the pixel y k of the second image signal . This represents the number of samples (total number of learning samples) of k ,..., xN , k .

式(6)の自乗誤差の総和Eの最小値(極小値)は、式(7)に示すように、総和Eをタップ係数wnで偏微分したものを0とするwnによって与えられる。 The minimum value of the sum E of square errors of Equation (6) (minimum value), as shown in Equation (7), given a material obtained by partially differentiating the sum E with the tap coefficient w n by w n to 0.

Figure 2008233854
・・・(7)
Figure 2008233854
... (7)

そこで、上述の式(5)をタップ係数wnで偏微分すると、次式が得られる。 Therefore, when partial differentiation of above equation (5) by the tap coefficients w n, the following equation is obtained.

Figure 2008233854
・・・(8)
Figure 2008233854
... (8)

式(7)と(8)から、次式が得られる。   From the equations (7) and (8), the following equation is obtained.

Figure 2008233854
・・・(9)
Figure 2008233854
... (9)

式(9)のekに、式(5)を代入することにより、式(9)は、式(10)に示す正規方程式で表すことができる。 To e k of the formula (9), by substituting equation (5), equation (9) can be represented by normal equations shown in Equation (10).

Figure 2008233854
・・・(10)
Figure 2008233854
... (10)

式(10)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。 Normal equation of Equation (10), for example, by using a like sweeping-out method (Gauss-Jordan elimination method) can be solved for the tap coefficient w n.

式(10)の正規方程式を、クラスごとにたてて解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnを、クラスごとに求めることができる。 The normal equation of Equation (10), by solving for each class, the optimal tap coefficient (here, the tap coefficient that minimizes the sum E of square errors) to w n, can be found for each class .

以上のようにして、タップ係数wnを求める学習は、例えば、後述するコンピュータ(図31)によって行うことができる。 As described above, learning for determining the tap coefficient w n, for example, can be performed by computer (FIG. 31) described later.

次に、図29のフローチャートを参照して、コンピュータが行う、タップ係数wnを求める学習の処理(学習処理)について、説明する。 Next, a learning process (learning process) for obtaining the tap coefficient w n performed by the computer will be described with reference to the flowchart of FIG.

まず最初に、ステップS21において、コンピュータは、あらかじめ学習用に用意された学習用画像信号から、第2の画像信号に相当する教師データと、第1の画像信号に相当する生徒データを生成して、処理は、ステップS22に進む。   First, in step S21, the computer generates teacher data corresponding to the second image signal and student data corresponding to the first image signal from the learning image signal prepared in advance for learning. The process proceeds to step S22.

すなわち、コンピュータは、学習用画像信号から、タップ係数の学習の教師(真値)となる、第2の画像信号に相当する教師データとして、式(3)による予測演算としての写像の写像先の画素値、つまり、輝度補正後の画素値を生成する。   That is, the computer uses the learning image signal as teacher data corresponding to the second image signal to be a teacher (true value) for learning the tap coefficient, and the mapping destination of the mapping as a prediction calculation according to the expression (3). A pixel value, that is, a pixel value after luminance correction is generated.

さらに、コンピュータは、学習用画像信号から、タップ係数の学習の生徒となる、第1の画像信号に相当する生徒データとして、式(3)による予測演算としての写像による変換対象の画素値を生成する。ここでは、コンピュータは、例えば、学習用画像信号を、そのまま、第1の画像信号に相当する生徒データとする。   Further, the computer generates a pixel value to be converted by mapping as a prediction calculation according to Equation (3) as student data corresponding to the first image signal, which is a student of learning of tap coefficients, from the learning image signal. To do. Here, for example, the computer uses the learning image signal as it is as student data corresponding to the first image signal.

ステップS22では、コンピュータは、教師データのうち、まだ、注目画素としていないものを、注目画素として選択し、処理は、ステップS23に進む。ステップS23では、コンピュータは、図28のタップ選択部321と同様に、注目画素について、生徒データから予測タップとする複数の画素を選択するとともに、クラスタップとする複数の画素を選択して、処理は、ステップS24に進む。   In step S22, the computer selects one of the teacher data that has not yet been set as the target pixel as the target pixel, and the process proceeds to step S23. In step S23, as with the tap selection unit 321 in FIG. 28, the computer selects a plurality of pixels to be predicted taps from student data and selects a plurality of pixels to be class taps from the student data, and performs processing. Advances to step S24.

ステップS24では、コンピュータは、注目画素についてのクラスタップに基づき、注目画素のクラス分類を、図28のクラス分類部322と同様にして行い、注目画素のクラスに対応するクラスコードを得て、処理は、ステップS25に進む。   In step S24, the computer classifies the target pixel based on the class tap for the target pixel in the same manner as the class classification unit 322 in FIG. 28, obtains a class code corresponding to the class of the target pixel, and performs processing. Advances to step S25.

ステップS25では、コンピュータは、注目画素と、注目画素について選択された予測タップを構成する生徒データとを対象とした式(10)の足し込みを、注目画素のクラスについて行い、処理は、ステップS26に進む。   In step S25, the computer performs addition of Expression (10) for the target pixel and the student data constituting the prediction tap selected for the target pixel for the class of the target pixel, and the processing is performed in step S26. Proceed to

すなわち、コンピュータは、注目画素のクラスについて、予測タップ(生徒データ)xn,kを用い、式(10)の左辺の行列における生徒データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。 That is, the computer uses the prediction tap (student data) x n, k for the class of the pixel of interest, and multiplies (x n, k x n ′, k ) between the student data in the matrix on the left side of equation (10). , An operation corresponding to summation (Σ) is performed.

さらに、コンピュータは、注目画素のクラスについて、予測タップ(生徒データ)xn,kと教師データykを用い、式(10)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。 Further, the computer uses the prediction tap (student data) x n, k and the teacher data y k for the class of the pixel of interest , and uses the student data x n, k and the teacher data y k in the vector on the right side of Equation (10). An operation corresponding to multiplication (x n, k y k ) and summation (Σ) is performed.

すなわち、コンピュータは、注目画素のクラスにおいて、前回、注目画素とされた教師データについて求められた式(10)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(例えば、図31のRAM104)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(10)のサメーションで表される加算を行う)。 That is, in the class of the target pixel, the computer uses the left-side matrix component (Σx n, k x n ′, k ) and the right-side vector in Equation (10) obtained for the teacher data previously set as the target pixel. Component (Σx n, k y k ) is stored in its built-in memory (for example, RAM 104 in FIG. 31), and the matrix component (Σx n, k x n ′, k ) or vector component ( Σx n, k y k ), the corresponding component x n calculated for the teacher data newly set as the pixel of interest using the teacher data y k + 1 and the student data x n, k + 1 , k + 1 x n ′, k + 1 or x n, k + 1 y k + 1 is added (addition represented by the summation of equation (10) is performed).

ステップS26では、コンピュータが、まだ、注目画素としていない教師データがあるかどうかを判定する。ステップS26において、注目画素としていない教師データが、まだあると判定された場合、ステップS22に戻り、以下、同様の処理が繰り返される。   In step S <b> 26, the computer determines whether there is teacher data that has not yet been set as the pixel of interest. If it is determined in step S26 that there is still teacher data that is not the pixel of interest, the process returns to step S22, and the same processing is repeated thereafter.

また、ステップS26において、注目画素としていない教師データがないと判定された場合、処理は、ステップS27に進み、コンピュータは、いままでのステップS22乃至S26の処理によって得られたクラスごとの式(10)における左辺の行列と、右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、クラスごとに、タップ係数wnを求めて出力し、処理を終了する。 If it is determined in step S26 that there is no teacher data that is not a pixel of interest, the process proceeds to step S27, and the computer executes the formula (10) for each class obtained by the processes in steps S22 to S26 so far. By solving the normal equation for each class constituted by the matrix on the left side and the vector on the right side in), the tap coefficient w n is obtained and output for each class, and the process is terminated.

図28のタップ係数記憶部326には、以上のようにして求められたクラスごとのタップ係数wnが、VM係数として記憶されている。 The tap coefficient storage unit 326 of FIG. 28, the tap coefficient w n for each class determined as described above is stored as VM coefficients.

次に、図28のクラス分類部322によるクラス分類について説明する。   Next, class classification by the class classification unit 322 in FIG. 28 will be described.

クラス分類部322において、タップ選択部321からの、注目画素についてのクラスタップは、予測部324、及びクラス決定部325に供給される。   In the class classification unit 322, the class tap for the target pixel from the tap selection unit 321 is supplied to the prediction unit 324 and the class determination unit 325.

予測部324は、タップ選択部321からのクラスタップを構成する複数の画素のうちの1つの画素の画素値を、他の画素の画素値と、クラス予測係数記憶部323に記憶されたクラス予測係数とを用いて予測し、その予測値を、クラス決定部325に供給する。   The prediction unit 324 determines the pixel value of one of the plurality of pixels constituting the class tap from the tap selection unit 321, the pixel value of the other pixel, and the class prediction stored in the class prediction coefficient storage unit 323. The prediction is performed using the coefficient, and the predicted value is supplied to the class determination unit 325.

すなわち、クラス予測係数記憶部323は、クラスごとに、クラスタップを構成する複数の画素のうちの1つの画素の画素値を予測するのに用いられるクラス予測係数を記憶している。   That is, the class prediction coefficient storage unit 323 stores a class prediction coefficient used for predicting the pixel value of one pixel among a plurality of pixels constituting the class tap for each class.

具体的には、注目画素についてのクラスタップが、M+1個の画素の画素値から構成され、予測部324が、例えば、クラスタップを構成するM+1個の画素の画素値x1,x2,・・・,xM,xM+1のうちの、M+1番目の画素値xM+1を、予測対象として、他のM個の画素x1,x2,・・・,xMを用いて、予測対象であるM+1番目の画素値xM+1を予測することとすると、クラス予測係数記憶部323は、例えば、クラス#jについて、M個の画素x1,x2,・・・,xMそれぞれと乗算されるM個のクラス予測係数cj,1,cj,2,・・・,cj,Mを記憶している。 Specifically, the class tap for the pixel of interest is composed of pixel values of M + 1 pixels, and the prediction unit 324, for example, has pixel values x 1 , M + 1 of pixels constituting the class tap. Of M 2 ,..., x M , x M + 1 , the M + 1-th pixel value x M + 1 is used as a prediction target, and the other M pixels x 1 , x 2 ,. , x M is used to predict the M + 1-th pixel value x M + 1 to be predicted, the class prediction coefficient storage unit 323, for example, for the class #j, M pixels x 1 , x 2 ,..., x M are stored as M class prediction coefficients c j, 1 , c j, 2,.

この場合、予測部324は、例えば、式x'j,M+1=x1cj,1+x2cj,2+・・・+,xMcj,Mに従って、クラス#jについての、予測対象の画素値xM+1の予測値x'j,M+1を求める。 In this case, the prediction unit 324, for example, about class #j according to the formula x ′ j, M + 1 = x 1 c j, 1 + x 2 c j, 2 +... +, X M c j, M The prediction value x ′ j, M + 1 of the pixel value x M + 1 to be predicted is obtained.

例えば、いま、クラス分類によって、注目画素がJ個のクラス#1ないし#Jのうちのいずれかのクラスに分類されるとすると、予測部324は、クラス#1ないし#Jのそれぞれについて、予測値x'1,M+1ないしx'J,M+1を求め、クラス決定部325に供給する。 For example, if the target pixel is classified into any one of J classes # 1 to #J by class classification, the prediction unit 324 predicts each of classes # 1 to #J. Values x ′ 1, M + 1 to x ′ J, M + 1 are obtained and supplied to the class determining unit 325.

クラス決定部325は、予測部324からの予測値x'1,M+1ないしx'J,M+1それぞれを、タップ選択部321からの、注目画素についてのクラスタップの予測対象のM+1番目の画素値(真値)xM+1と比較し、予測値x'1,M+1ないしx'J,M+1のうちの、予測対象のM+1番目の画素値xM+1との予測誤差が最も小さい予測値x'j,M+1を求めるのに用いられたクラス予測係数cj,1,cj,2,・・・,cj,Mのクラス#jを、注目画素のクラスに決定し、そのクラス#jを表すクラスコードを、タップ係数記憶部326(図28)に供給する。 The class determination unit 325 uses the prediction values x ′ 1, M + 1 to x ′ J, M + 1 from the prediction unit 324 as the M + of the class tap prediction target for the target pixel from the tap selection unit 321, respectively. Compared with the first pixel value (true value) x M + 1 , the prediction target M + 1-th pixel value x M among the predicted values x ′ 1, M + 1 to x ′ J, M + 1 Class #j of class prediction coefficients c j, 1 , c j, 2 ,..., C j, M used to obtain the predicted value x ′ j, M + 1 with the smallest prediction error from +1 Is determined as the class of the pixel of interest, and a class code representing the class #j is supplied to the tap coefficient storage unit 326 (FIG. 28).

ここで、クラス予測係数記憶部323に記憶されるクラス予測係数cj,mは、学習によって求められる。 Here, the class prediction coefficient c j, m stored in the class prediction coefficient storage unit 323 is obtained by learning.

クラス予測係数cj,mを求める学習は、例えば、後述するコンピュータ(図31)によって行うことができる。 Learning to obtain the class prediction coefficient c j, m can be performed by, for example, a computer (FIG. 31) described later.

図30のフローチャートを参照して、コンピュータが行う、クラス予測係数cj,mを求める学習の処理(学習処理)について説明する。 A learning process (learning process) for obtaining the class prediction coefficient c j, m performed by the computer will be described with reference to the flowchart of FIG.

コンピュータは、ステップS31において、例えば、図29のステップS21と同様に、学習用画像信号から、第2の画像信号に相当する教師データと、第1の画像信号に相当する生徒データを生成する。さらに、コンピュータは、ステップS31において、教師データを、順次、注目画素として選択し、各注目画素について、図29のステップS23と同様に、生徒データからクラスタップとする複数の画素を選択して、処理は、ステップS32に進む。   In step S31, for example, similarly to step S21 in FIG. 29, the computer generates teacher data corresponding to the second image signal and student data corresponding to the first image signal from the learning image signal. Further, in step S31, the computer sequentially selects the teacher data as the pixel of interest, and for each pixel of interest, selects a plurality of pixels as class taps from the student data as in step S23 of FIG. 29. The process proceeds to step S32.

ステップS32では、コンピュータは、クラスを表す変数jを、1に初期化して、処理は、ステップS33に進む。   In step S32, the computer initializes a variable j representing the class to 1, and the process proceeds to step S33.

ステップS33では、コンピュータは、ステップS31で得たクラスタップのすべてを、学習用のクラスタップ(学習用クラスタップ)として選択して、処理は、ステップS34に進む。   In step S33, the computer selects all the class taps obtained in step S31 as learning class taps (learning class taps), and the process proceeds to step S34.

ステップS34では、コンピュータは、図29のタップ係数の学習の場合と同様に、式x'j,M+1=x1cj,1+x2cj,2+・・・+,xMcj,Mに従って求められる、クラス#jについての、予測対象の画素値xM+1の予測値x'j,M+1の、真値xM+1に対する予測誤差を最小にする正規方程式(式(10)に相当する正規方程式)を、学習用クラスタップを対象として生成し、処理は、ステップS35に進む。 In step S34, the computer, like the case of tap coefficient learning of FIG. 29, formula x ′ j, M + 1 = x 1 c j, 1 + x 2 c j, 2 +... +, X M c j, is determined according to M, for the class #j, normal equation which minimizes the prediction error pixel value x M + 1 predictive value x 'j of the prediction target, the M + 1, relative to the true value x M + 1 (Normal equation corresponding to Expression (10)) is generated for the learning class tap, and the process proceeds to Step S35.

ステップS35では、コンピュータは、ステップS34で得た正規方程式を解くことで、クラス#jについてのクラス予測係数cj,mを求め(m=1,2,・・・,M)、処理は、ステップS36に進む。 In step S35, the computer obtains a class prediction coefficient c j, m for class #j by solving the normal equation obtained in step S34 (m = 1, 2,..., M). Proceed to step S36.

ステップS36では、コンピュータは、変数jがクラスの総数Jに等しいかどうかを判定し、等しくないと判定した場合、処理は、ステップS37に進む。   In step S36, the computer determines whether or not the variable j is equal to the total number J of classes. If it is determined that the variable j is not equal, the process proceeds to step S37.

コンピュータは、ステップS37において、変数jを1だけインクリメントして、処理は、ステップS38に進み、ステップS35で得たクラス予測係数cj,mを用い、学習用クラスタップを対象として、予測対象の画素xM+1を予測したときの予測誤差を求めて、処理は、ステップS39に進む。 In step S37, the computer increments the variable j by 1, and the process proceeds to step S38, where the class prediction coefficient c j, m obtained in step S35 is used and the learning class tap is set as the target of the prediction target. A prediction error when the pixel x M + 1 is predicted is obtained, and the process proceeds to step S39.

ステップS39では、コンピュータは、学習用クラスタップの中から、ステップS38で求めた予測誤差が所定の閾値以上となるものを、新たな学習用クラスタップとして選択する。   In step S39, the computer selects a learning class tap whose prediction error obtained in step S38 is equal to or greater than a predetermined threshold value as a new learning class tap.

そして、処理は、ステップS39からステップS34に戻り、以下、上述した場合と同様にして、新たな学習用クラスタップを用いて、クラス#jについてのクラス予測係数cj,mが求められる。 Then, the process returns from step S39 to step S34, and the class prediction coefficient c j, m for class #j is obtained using a new learning class tap in the same manner as described above.

一方、ステップS36において、変数jがクラスの総数Jに等しいと判定された場合、すなわち、J個のクラス#1ないし#Jすべてについて、クラス予測係数c1,mないしcJ,mが求められた場合、処理は、終了する。 On the other hand, if it is determined in step S36 that the variable j is equal to the total number J of classes, that is, class prediction coefficients c 1, m to c J, m are obtained for all J classes # 1 to #J. If so, the process ends.

以上のように、図2の画像信号処理装置では、CRT表示装置が、電子ビームにより蛍光体を光らせることで表示をしていることに鑑み、電子ビームを偏向する際に行う処理、及び、電子ビームの物理的な形状とその変化による表示への影響を考慮した信号処理を行うので、LCD等を用いたFPD表示装置において、CRT表示装置で表示したのと同等の画質の画像を表示することが可能となる。   As described above, in the image signal processing apparatus of FIG. 2, in consideration of the fact that the CRT display device performs display by illuminating the phosphor with the electron beam, the processing performed when the electron beam is deflected, and the electron Since signal processing is performed in consideration of the influence of the physical shape of the beam and its changes on the display, an image with the same image quality as that displayed on a CRT display device must be displayed on an FPD display device using an LCD. Is possible.

さらに、図2の画像信号処理装置によれば、CRTそのものの特性違いによる表示特性をエミュレートすることが可能になり、輝度特性や質感の違いを同一LCDにて切り替えることが可能になる。例えば、業務用のCRTと一般用(一般向け)のCRTの発色特性の違いを同一画面上で比べることで送出時の色調整や画質調整を正確に行う、などを容易に行うことが可能になる。   Further, according to the image signal processing apparatus of FIG. 2, it is possible to emulate display characteristics due to the characteristic difference of the CRT itself, and it is possible to switch between luminance characteristics and texture differences on the same LCD. For example, it is possible to easily perform color adjustment and image quality adjustment at the time of transmission by comparing the difference in color development characteristics between CRT for business use and CRT for general use (general use) on the same screen. Become.

また、図2の画像信号処理装置によれば、同様に、LCDとCRTの表示特性による違いを容易に確認することが可能である。   In addition, according to the image signal processing apparatus of FIG. 2, it is possible to easily confirm the difference due to the display characteristics of the LCD and the CRT.

さらに、図2の画像信号処理装置によれば、本来の意味での「好みの画質」で画像を表示することが可能になる。   Furthermore, according to the image signal processing apparatus of FIG. 2, it becomes possible to display an image with the “preferred image quality” in the original sense.

また、図2の画像信号処理装置によれば、処理の範囲を表示画面内で変える事により特性の異なる表示デバイス(例えば、業務用と一般用のCRT、LCDとCRT、など)を同時に見ることが可能になるため、比較や調整といった用途での利用を容易にすることができる。   In addition, according to the image signal processing apparatus of FIG. 2, by simultaneously changing the processing range in the display screen, display devices having different characteristics (for example, CRT for business use and general use, LCD and CRT, etc.) can be viewed simultaneously. Therefore, it is possible to facilitate use in applications such as comparison and adjustment.

次に、上述した一連の処理のうちの少なくとも一部は、専用のハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。   Next, at least a part of the series of processes described above can be performed by dedicated hardware or can be performed by software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.

そこで、図31は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。   FIG. 31 shows an example of the configuration of an embodiment of a computer in which a program for executing the series of processes described above is installed.

プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。   The program can be recorded in advance on a hard disk 105 or a ROM 103 as a recording medium built in the computer.

あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体111に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。   Alternatively, the program is stored temporarily on a removable recording medium 111 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), a MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored permanently (recorded). Such a removable recording medium 111 can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部108で受信し、内蔵するハードディスク105にインストールすることができる。   In addition to installing the program on the computer from the removable recording medium 111 as described above, the program can be wirelessly transferred from the download site to the computer via an artificial satellite for digital satellite broadcasting, LAN (Local Area Network), The program can be transferred to a computer via a network such as the Internet, and the computer can receive the program transferred in this way by the communication unit 108 and install it in the built-in hard disk 105.

コンピュータは、CPU(Central Processing Unit)102を内蔵している。CPU102には、バス101を介して、入出力インタフェース110が接続されており、CPU102は、入出力インタフェース110を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部107が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、また、CPU102は、ハードディスク105に格納されているプログラム、衛星若しくはネットワークから転送され、通信部108で受信されてハードディスク105にインストールされたプログラム、またはドライブ109に装着されたリムーバブル記録媒体111から読み出されてハードディスク105にインストールされたプログラムを、RAM(Random Access Memory)104にロードして実行する。これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。   The computer includes a CPU (Central Processing Unit) 102. An input / output interface 110 is connected to the CPU 102 via the bus 101, and the CPU 102 operates an input unit 107 including a keyboard, a mouse, a microphone, and the like by the user via the input / output interface 110. When a command is input as a result, the program stored in a ROM (Read Only Memory) 103 is executed accordingly. Alternatively, the CPU 102 also transfers from a program stored in the hard disk 105, a program transferred from a satellite or a network, received by the communication unit 108 and installed in the hard disk 105, or a removable recording medium 111 attached to the drive 109. The program read and installed in the hard disk 105 is loaded into a RAM (Random Access Memory) 104 and executed. Thus, the CPU 102 performs processing according to the above-described flowchart or processing performed by the configuration of the above-described block diagram. Then, the CPU 102 outputs the processing result from the output unit 106 configured with an LCD (Liquid Crystal Display), a speaker, or the like, for example, via the input / output interface 110, or from the communication unit 108 as necessary. Transmission and further recording on the hard disk 105 are performed.

ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。   Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).

また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。   Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

従来のFPD表示装置の一例の構成を示すブロック図である。It is a block diagram which shows the structure of an example of the conventional FPD display apparatus. 本発明を適用したFPD表示装置が有する画像信号処理装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the image signal processing apparatus which the FPD display apparatus to which this invention is applied has. CRT表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a CRT display apparatus. 画像信号処理装置の処理を説明するフローチャートである。It is a flowchart explaining the process of an image signal processing apparatus. VM処理部34の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a VM processing unit 34. FIG. VM係数の例を示す図である。It is a figure which shows the example of VM coefficient. VM係数を求める方法を説明する図である。It is a figure explaining the method of calculating | requiring VM coefficient. ビーム電流とスポットサイズとの関係を示す図である。It is a figure which shows the relationship between beam current and spot size. 色識別機構を示す図である。It is a figure which shows a color identification mechanism. 電子ビームのスポットを示す図である。It is a figure which shows the spot of an electron beam. 電子ビームのスポットを示す図である。It is a figure which shows the spot of an electron beam. 色選別機構としてアパーチャーグリルが採用されている場合の、電子ビームが照射される様子を示す断面図である。It is sectional drawing which shows a mode that an electron beam is irradiated when an aperture grill is employ | adopted as a color selection mechanism. 2次元正規分布で近似した電子ビームの強度の分布を示す図である。It is a figure which shows distribution of the intensity | strength of the electron beam approximated by two-dimensional normal distribution. アパーチャーグリルのスリットを通過する電子ビームの強度の分布を示す図である。It is a figure which shows distribution of the intensity | strength of the electron beam which passes the slit of an aperture grille. 電子ビームの強度の分布と、その電子ビームのうちの、アパーチャーグリルのスリットを通過する電子ビームの強度の分布とを示す図である。It is a figure which shows the distribution of the intensity | strength of an electron beam, and the distribution of the intensity | strength of the electron beam which passes the slit of an aperture grill among the electron beams. 電子ビームの強度の分布と、その電子ビームのうちの、シャドウマスクのスリットを通過する電子ビームの強度の分布とを示す図である。It is a figure which shows the distribution of the intensity | strength of an electron beam, and the distribution of the intensity | strength of the electron beam which passes the slit of a shadow mask among the electron beams. 電子ビームの強度の分布と、その電子ビームのうちの、シャドウマスクのスリットを通過する電子ビームの強度の分布とを示す図である。It is a figure which shows the distribution of the intensity | strength of an electron beam, and the distribution of the intensity | strength of the electron beam which passes the slit of a shadow mask among the electron beams. スリットを通過する電子ビームの強度を求める積分を説明する図である。It is a figure explaining the integration which calculates | requires the intensity | strength of the electron beam which passes a slit. 電子ビームが色選別機構としてのアパーチャーグリルに入射する様子を示す図である。It is a figure which shows a mode that an electron beam injects into the aperture grill as a color selection mechanism. 画素と、電子ビームの強度の分布とを示す図である。It is a figure which shows a pixel and distribution of the intensity | strength of an electron beam. EB影響分を求める回路の構成例を示す図である。It is a figure which shows the structural example of the circuit which calculates | requires EB influence part. EB処理部220の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of an EB processing unit 220. FIG. EB処理部220の他の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating another configuration example of the EB processing unit 220. CRTγ処理部35の色温度補償処理を行う部分の構成例を示すブロック図である。4 is a block diagram illustrating a configuration example of a portion that performs color temperature compensation processing of a CRTγ processing unit 35. FIG. VM処理部34の他の構成例を示すブロック図である。10 is a block diagram illustrating another configuration example of the VM processing unit 34. FIG. 輝度補正部310の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a luminance correction unit 310. FIG. 輝度補正の処理を説明する図である。It is a figure explaining the process of brightness correction. 輝度補正部310の他の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating another configuration example of the luminance correction unit 310. VM係数としてのタップ係数を求める学習の処理を説明するフローチャートである。It is a flowchart explaining the learning process which calculates | requires the tap coefficient as a VM coefficient. クラス予測係数を求める学習の処理を説明するフローチャートである。It is a flowchart explaining the learning process which calculates | requires a class prediction coefficient. コンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one embodiment of a computer.

符号の説明Explanation of symbols

11 明るさ調整コントラスト調整部, 12 高画質化処理部, 13 γ補正部, 31 明るさ調整コントラスト調整部, 32 高画質化処理部, 33 ABL処理部, 34 VM処理部, 35 CRTγ処理部, 36 全画面明るさ平均レベル検出部, 37 ピーク検出微分制御値検出部, 38 ABL制御部, 39 VM制御部, 40 表示色温度補償制御部, 51 明るさ調整コントラスト調整部, 52 高画質化処理部, 53 ゲイン調整部, 54 γ補正部, 55 ビデオ増幅器, 56 CRT, 57 FBT, 58 ビーム電流検出部, 59 ABL制御部, 60 画像信号微分回路, 61 VM駆動回路, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体 210 輝度補正部, 211 VM係数発生部, 212 演算部, 220 EB処理部, 241 EB係数発生部, 242Aないし242D,242Fないし242I 演算部, 251ないし259 遅延部, 260 EB係数発生部, 261 積和演算部, 271,272 セレクタ, 281 制御部, 282 レベルシフト部, 283 ゲイン調整部, 310 輝度補正部, 311 遅延タイミング調整部, 312 微分回路, 313 スレッショルド処理部, 314 波形整形処理部, 315 乗算回路, 321 タップ選択部, 322 クラス分類部, 323 クラス予測係数記憶部, 324 予測部, 325 クラス決定部, 326 タップ係数記憶部, 327 予測部   DESCRIPTION OF SYMBOLS 11 Brightness adjustment contrast adjustment part, 12 High image quality improvement processing part, 13 γ correction part, 31 Brightness adjustment contrast adjustment part, 32 High image quality improvement processing part, 33 ABL processing part, 34 VM processing part, 35 CRTγ processing part, 36 full screen brightness average level detection unit, 37 peak detection differential control value detection unit, 38 ABL control unit, 39 VM control unit, 40 display color temperature compensation control unit, 51 brightness adjustment contrast adjustment unit, 52 image quality enhancement processing Unit, 53 gain adjustment unit, 54 gamma correction unit, 55 video amplifier, 56 CRT, 57 FBT, 58 beam current detection unit, 59 ABL control unit, 60 image signal differentiation circuit, 61 VM drive circuit, 101 bus, 102 CPU, 103 ROM, 104 RAM, 105 hard disk, 106 output unit, 107 input unit, 108 communication unit, 109 drive, 110 input / output interface, 111 removable recording medium, 210 luminance correction unit, 211 VM coefficient generation unit, 212 calculation unit, 220 EB processing unit, 241 EB coefficient generation unit, 242A to 242D, 242F to 242I calculation unit, 251 to 259 delay unit, 260 EB coefficient generation unit, 261 product-sum operation unit, 271 and 272 selector, 281 control unit, 282 level shift unit, 283 gain adjustment unit, 310 brightness correction unit, 311 delay timing adjustment unit, 312 differentiation circuit, 313 threshold processing unit, 314 waveform shaping processing unit, 315 multiplication circuit, 321 tap selection unit, 322 class classification unit, 323 class prediction coefficient storage unit, 324 prediction unit, 325 class determination unit, 326 data Flop coefficient storage unit, 327 prediction unit

Claims (5)

CRT(Cathode Ray Tube)以外の表示方式の表示装置で画像信号を表示したときに、CRT表示装置で表示された画像に見えるように前記画像信号を処理する画像信号処理装置において、
前記画像信号に対してABL(Automatic Beam current Limiter)処理をエミュレートする処理を適用するABL処理手段と、
前記ABL処理手段で処理された画像信号に対してVM(Velocity Modulation)処理をエミュレートする処理を適用するVM処理手段と、
前記VM処理手段で処理された画像信号に対してガンマ補正を行うガンマ補正手段と
を備えることを特徴とする画像信号処理装置。
In the image signal processing apparatus that processes the image signal so that the image is displayed on the CRT display device when the image signal is displayed on a display device other than the CRT (Cathode Ray Tube),
ABL processing means for applying processing for emulating ABL (Automatic Beam current Limiter) processing to the image signal;
VM processing means for applying processing for emulating VM (Velocity Modulation) processing on the image signal processed by the ABL processing means;
An image signal processing apparatus comprising: gamma correction means for performing gamma correction on the image signal processed by the VM processing means.
前記VM処理手段は、前記ABL処理手段で処理された画像信号を対象として、前記CRT表示装置の電子ビームの偏向速度の変化が輝度に影響する影響分の補正を行う輝度補正手段を有する
ことを特徴とする請求項1に記載の画像信号処理装置。
The VM processing unit includes a luminance correction unit that corrects the influence of the change in the deflection speed of the electron beam of the CRT display device on the luminance of the image signal processed by the ABL processing unit. The image signal processing apparatus according to claim 1, wherein:
前記VM処理手段は、前記ABL処理手段で処理された画像信号を対象として、前記CRT表示装置の電子ビームが広がって前記CRT表示装置の蛍光体に衝突することをエミュレートする処理を施すEB(Erectron Beam)処理手段を有する
ことを特徴とする請求項1に記載の画像信号処理装置。
The VM processing means performs EB (processing for emulating that the electron beam of the CRT display device spreads and collides with the phosphor of the CRT display device for the image signal processed by the ABL processing means. The image signal processing apparatus according to claim 1, further comprising an Erectron Beam) processing unit.
CRT(Cathode Ray Tube)以外の表示方式の表示装置で画像信号を表示したときに、CRT表示装置で表示された画像に見えるように前記画像信号を処理する画像信号処理装置の画像信号処理方法において、
前記画像信号に対してABL(Automatic Beam current Limiter)処理をエミュレートする処理を適用し、
前記ABL処理をエミュレートする処理がされた画像信号に対してVM(Velocity Modulation)処理をエミュレートする処理を適用し、
前記VM処理をエミュレートする処理がされた画像信号に対してガンマ補正を行う
ステップを含むことを特徴とする画像信号処理方法。
In an image signal processing method of an image signal processing apparatus that processes an image signal so that the image is displayed on a CRT display device when the image signal is displayed on a display device other than a CRT (Cathode Ray Tube) ,
Applying processing to emulate ABL (Automatic Beam current Limiter) processing for the image signal,
Applying the process of emulating VM (Velocity Modulation) processing to the image signal that has been processed to emulate the ABL processing,
An image signal processing method comprising a step of performing gamma correction on an image signal that has been processed to emulate the VM processing.
CRT(Cathode Ray Tube)以外の表示方式の表示装置で画像信号を表示したときに、CRT表示装置で表示された画像に見えるように前記画像信号を処理する画像信号処理装置として、コンピュータを機能させるプログラムにおいて、
前記画像信号に対してABL(Automatic Beam current Limiter)処理をエミュレートした処理を適用するABL処理手段と、
前記ABL処理手段で処理された画像信号に対してVM(Velocity Modulation)処理をエミュレートした処理を適用するVM処理手段と、
前記VM処理手段で処理された画像信号に対してガンマ補正を行うガンマ補正手段と
して、コンピュータを機能させるプログラム。
When an image signal is displayed on a display device other than a CRT (Cathode Ray Tube), the computer functions as an image signal processing device that processes the image signal so that the image is displayed on the CRT display device. In the program
ABL processing means for applying processing that emulates ABL (Automatic Beam current Limiter) processing to the image signal;
VM processing means for applying processing emulating VM (Velocity Modulation) processing on the image signal processed by the ABL processing means;
A program for causing a computer to function as gamma correction means for performing gamma correction on an image signal processed by the VM processing means.
JP2007261601A 2006-12-18 2007-10-05 Image signal processing apparatus, image signal processing method, and program Expired - Fee Related JP5110358B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2007261601A JP5110358B2 (en) 2007-02-23 2007-10-05 Image signal processing apparatus, image signal processing method, and program
TW096141892A TWI384437B (en) 2006-12-18 2007-11-06 An image signal processing device, an image signal processing method, and a computer program product
AU2007335487A AU2007335487B2 (en) 2006-12-18 2007-12-18 Image signal processing device, image signal processing method, and program
KR1020097012575A KR20090091177A (en) 2006-12-18 2007-12-18 Image signal processing device, image signal processing method, and program
BRPI0720400-0A BRPI0720400A2 (en) 2006-12-18 2007-12-18 IMAGE SIGNAL PROCESSING DEVICE FOR PROCESSING AN IMAGE SIGNAL, IMAGE SIGNAL PROCESSING METHOD, AND PROGRAM TO MAKE THE COMPUTER WORK AS AN IMAGE SIGNAL PROCESSING DEVICE
PCT/JP2007/074260 WO2008075658A1 (en) 2006-12-18 2007-12-18 Image signal processing device, image signal processing method, and program
CN2007800468541A CN101589418B (en) 2006-12-18 2007-12-18 Image signal processing device, and image signal processing method
US12/517,375 US20100033515A1 (en) 2006-12-18 2007-12-18 Image signal processing device, image signal processing method, and program
EP07850748A EP2093746A4 (en) 2006-12-18 2007-12-18 Image signal processing device, image signal processing method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007043162 2007-02-23
JP2007043162 2007-02-23
JP2007261601A JP5110358B2 (en) 2007-02-23 2007-10-05 Image signal processing apparatus, image signal processing method, and program

Publications (2)

Publication Number Publication Date
JP2008233854A true JP2008233854A (en) 2008-10-02
JP5110358B2 JP5110358B2 (en) 2012-12-26

Family

ID=39906661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007261601A Expired - Fee Related JP5110358B2 (en) 2006-12-18 2007-10-05 Image signal processing apparatus, image signal processing method, and program

Country Status (1)

Country Link
JP (1) JP5110358B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110157240A1 (en) * 2009-12-28 2011-06-30 Taewook Lee Liquid Crystal Display and Method for Compensating Color Temperature
KR20180062557A (en) * 2016-11-30 2018-06-11 엘지디스플레이 주식회사 Display Device and Data Compensating Method Thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250439A (en) * 1999-02-26 2000-09-14 Hitachi Ltd Image display device
JP2001296831A (en) * 2000-04-13 2001-10-26 Sharp Corp Picture reproducing method
JP2001306018A (en) * 2000-04-26 2001-11-02 Victor Co Of Japan Ltd Matrix-type display device
JP2002199248A (en) * 2000-12-27 2002-07-12 Sony Corp Image enhancement method and device
JP2007110327A (en) * 2005-10-12 2007-04-26 Sharp Corp Image display apparatus and image display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250439A (en) * 1999-02-26 2000-09-14 Hitachi Ltd Image display device
JP2001296831A (en) * 2000-04-13 2001-10-26 Sharp Corp Picture reproducing method
JP2001306018A (en) * 2000-04-26 2001-11-02 Victor Co Of Japan Ltd Matrix-type display device
JP2002199248A (en) * 2000-12-27 2002-07-12 Sony Corp Image enhancement method and device
JP2007110327A (en) * 2005-10-12 2007-04-26 Sharp Corp Image display apparatus and image display method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110157240A1 (en) * 2009-12-28 2011-06-30 Taewook Lee Liquid Crystal Display and Method for Compensating Color Temperature
US8884992B2 (en) * 2009-12-28 2014-11-11 Lg Display Co., Ltd. Liquid crystal display and method for compensating color temperature
KR20180062557A (en) * 2016-11-30 2018-06-11 엘지디스플레이 주식회사 Display Device and Data Compensating Method Thereof
KR102552005B1 (en) * 2016-11-30 2023-07-07 엘지디스플레이 주식회사 Display Device and Data Compensating Method Thereof

Also Published As

Publication number Publication date
JP5110358B2 (en) 2012-12-26

Similar Documents

Publication Publication Date Title
TWI385636B (en) Display control device, display control method, and program products
US8155474B2 (en) Method, medium, and system compensating shadow areas
TWI384437B (en) An image signal processing device, an image signal processing method, and a computer program product
US8068070B2 (en) Image display apparatus
CN102667904A (en) Method and system for backlight control using statistical attributes of image data blocks
JP5744586B2 (en) Liquid crystal display device and program used therefor
US20060208980A1 (en) Information processing apparatus, information processing method, storage medium, and program
JP5110358B2 (en) Image signal processing apparatus, image signal processing method, and program
JP2015014691A (en) Display controller
US20060214883A1 (en) Plasma display panel driving apparatus, signal processing method for plasma display panel and image display apparatus for plasma display panel
JP2010085515A (en) Display
CN101097707A (en) Integrated histogram auto adaptive contrast control(acc)
JP2018101151A (en) Display control device
JP6922953B2 (en) Display control device
US20240007756A1 (en) Systems, methods, and devices for image processing
JP2012073362A (en) Display device and control method thereof
JP2002319366A (en) Function for regulating automatically image for electron microscope or the like
JP2010091756A (en) Image processing method and image display device using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120926

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees