JP3425083B2 - Image display device and image evaluation device - Google Patents
Image display device and image evaluation deviceInfo
- Publication number
- JP3425083B2 JP3425083B2 JP21010598A JP21010598A JP3425083B2 JP 3425083 B2 JP3425083 B2 JP 3425083B2 JP 21010598 A JP21010598 A JP 21010598A JP 21010598 A JP21010598 A JP 21010598A JP 3425083 B2 JP3425083 B2 JP 3425083B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subfield
- pixel
- video signal
- image display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Liquid Crystal Display Device Control (AREA)
- Picture Signal Circuits (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Control Of Gas Discharge Display Tubes (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像の1TVフィ
ールドを、複数のサブフィールドに分割して表示するこ
とにより多階調表示を行うプラズマディスプレイパネル
などの表示パネルを用いた画像表示装置において、画質
向上に関する技術である。また、そのような動画像表示
装置における表示画像の評価を行う画像評価装置に関す
るものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display device using a display panel such as a plasma display panel for performing multi-gradation display by dividing one TV field of an image into a plurality of subfields and displaying the divided subfields. This is a technology related to image quality improvement. The present invention also relates to an image evaluation device that evaluates a display image in such a moving image display device.
【0002】[0002]
【従来の技術】プラズマディスプレイパネル(plasma d
isplay panel, 以下、単に「PDP」という)に代表さ
れる2値的に発光を行う表示パネルを用いた画像表示装
置は、例えば、アドレス表示期間分割サブフィールド方
式(address display period separated sub-field met
hod)と呼ばれる表示方法によって階調表示を実現す
る。この方式は、1TVフィールドを、PDP画面の1
ライン毎に点灯・非点灯データの書き込みを行うアドレ
ス期間と、所定の画素を一斉に発光させる放電維持期間
とからなる数個のサブフィールドに時間分割して画像表
示を行うものである。2. Description of the Related Art Plasma display panels (plasma d)
An image display device using a display panel that emits light in a binary manner represented by an isplay panel, hereinafter simply referred to as "PDP", is, for example, an address display period separated sub-field met.
The gradation display is realized by a display method called hod). In this system, 1 TV field is converted to 1 of PDP screen.
The image display is performed by time-division into several subfields each including an address period in which lighting / non-lighting data is written for each line, and a discharge sustaining period in which a predetermined pixel emits light all at once.
【0003】従来から、このように画像の1TVフィー
ルド分を、複数のサブフィールドの画像に分割して表示
し多階調表示を行う場合、動画像表示においていわゆる
疑似輪郭状の階調乱れが発生することが知られている。Conventionally, in the case of performing multi-gradation display by dividing one TV field of an image into a plurality of sub-field images for display in this way, so-called pseudo contour-like gradation disturbance occurs in moving image display. Is known to do.
【0004】図35,図36を用いてこの動画表示時の
疑似輪郭の発生を説明する。図35は、127と128
という近接した階調レベルを隣接した画素間で有する4
つの画素からなる画像パターンPA1が、PDP300
の画面を1TVフィールドで2画素相当、平行移動する
様子を表している。また、図36は、横軸は画面上での
各画素の相対的な位置を表し、又縦軸は便宜上1TVフ
ィールドに相当する時間のみを表している。更に画像パ
ターンPA1が平行移動する様子を観測者が追従した時
に観られる様子を示している。ここでは8ビット階調す
なわち256階調を、8つのサブフィールドの点灯・非
点灯の8ビットデータに変換し、当該8ビットデータに
基づいて該当する階調表示を行い、具体的には、1,
2,4,8,16,32,64,128という重み付け
にしてこの順(昇順)に1TVフィールドをサブフィー
ルド1〜8に時間分割した場合について説明する。階調
レベル127を表示するには、サブフィールド1〜サブ
フィールド7を点灯(図中の斜線部),サブフィールド
8を非点灯とすることにより当該階調レベルの表示を行
い、階調レベル128を表示するには、サブフィールド
1〜サブフィールド7を非点灯,サブフィールド8を点
灯(図中の斜線部)とすることにより当該階調レベルの
表示を行う。The generation of the pseudo contour when the moving image is displayed will be described with reference to FIGS. 35 and 36. FIG. 35 shows 127 and 128.
4 that have adjacent gradation levels between adjacent pixels
The image pattern PA1 including one pixel is the PDP 300.
2 shows a state in which the screen is translated by 2 pixels in one TV field. Further, in FIG. 36, the horizontal axis represents the relative position of each pixel on the screen, and the vertical axis represents only the time corresponding to one TV field for convenience. Further, it shows a state where the observer follows the movement of the image pattern PA1 in parallel. Here, 8-bit gradation, that is, 256 gradations, is converted into lighting / non-lighting 8-bit data of eight subfields, and a corresponding gradation display is performed based on the 8-bit data. ,
A case where one TV field is time-divided into subfields 1 to 8 in this order (ascending order) by weighting 2, 4, 8, 16, 32, 64, 128 will be described. In order to display the gradation level 127, the gradation level 128 is displayed by turning on the subfield 1 to the subfield 7 (hatched portion in the figure) and turning off the subfield 8. In order to display, the sub-fields 1 to 7 are turned off and the sub-field 8 is turned on (hatched portion in the figure) to display the gradation level.
【0005】静止画像を表示した場合、観測される画像
の1TVフィールドの平均輝度は図36のA−A’間の
点灯の時間積分で表わされ、正しく階調表示がなされ
る。これに対して動画像を表示した場合、視線の移動の
方向により網膜上には図36のB−B’間またはC−
C’間の点灯の時間積分が観測される。B−B’間では
各ビット(サブフィールド)を合成した値は約0にな
り、またC−C’間の各ビット(サブフィールド)の合
計は約255になる。このように、階調レベル127お
よび階調レベル128というような値の近い階調レベル
が隣接した画像パターンが移動するのを観測した場合、
レベル変化部分では図36に示すように観測される階調
レベルが画像の動きによって著しく乱れる。When a still image is displayed, the average brightness of one TV field of the observed image is represented by the time integration of lighting between AA 'in FIG. 36, and gradation display is performed correctly. On the other hand, when a moving image is displayed, depending on the direction of movement of the line of sight, the retina may be displayed on the retina between BB ′ and C− in FIG.
The time integration of lighting between C'is observed. The combined value of each bit (subfield) between BB 'is about 0, and the total of each bit (subfield) between CC' is about 255. In this way, when it is observed that the image patterns adjacent to each other are similar in gradation level such as the gradation level 127 and the gradation level 128,
In the level changing portion, the gradation level observed as shown in FIG. 36 is significantly disturbed by the movement of the image.
【0006】つまり各サブフィールドの輝度の時間方向
の積分で中間調を表現しようとしているため、動画像な
どで視線が移動した場合は、時間の経過とともに本来の
画素位置とは異なる位置の画像のそれぞれのビットの輝
度重みを積分することになり、中間調表示が大きく乱れ
ることになる。なお、この中間調の乱れは画像に偽の輪
郭が現れるように認識させるため、一般的に「動画疑似
輪郭」と呼ばれる。なお、このような動画表示における
疑似輪郭の発生のメカニズムについては、文献、199
7年5月1日発行,プラズマディスプレイのすべて,1
65頁〜177頁(工業調査会出版,内池 平樹・御子
柴 茂 共著)に詳しく説明されているところである。That is, since the halftone is expressed by the integration of the luminance of each subfield in the time direction, when the line of sight moves in a moving image or the like, an image at a position different from the original pixel position is displayed as time passes. Since the brightness weights of the respective bits are integrated, the halftone display is greatly disturbed. It should be noted that this disturbance of the halftone is recognized as a false contour appears in the image, and is therefore generally called "moving image pseudo contour". Note that the mechanism of generating the pseudo contour in such a moving image display is described in Reference 199.
Published on May 1, 7th, All about plasma display, 1
This is explained in detail on pages 65 to 177 (published by Kogyo Kenkyukai, published by Hiraki Uchiike and Shigeru Mikoshiba).
【0007】[0007]
【発明が解決しようとする課題】動画疑似輪郭を解消す
るため従来の画像表示装置において、上位の複数ビット
に対応する上記サブフィールド7及びサブフィールド8
の輝度重みを分割し、さらにこれらをフィールド内の前
半・後半とに分散して配置することによって動画像表示
における中間調表示乱れを軽減しようとする試みがなさ
れている。図37はこの従来の方法による動画疑似輪郭
の軽減方法におけるサブフィールド構成であり、10個
のサブフィールドを用いて8ビット階調レベルすなわち
256階調レベルを表示しようとするものである。各サ
ブフィールドの輝度重み付けは時間順に、48、48、
1、2、4、8、16、32、48、48となってい
る。つまり上記8つのサブフィールドにおける上位2ビ
ットサブフィールド7及びサブフィールド8の輝度重み
64、128を4つの輝度重みに分割((64+12
8)=192=48×4)して、これらを1TVフィー
ルド内の前半・後半に分散配置しており、上位ビットの
重みを小さくして中間調乱れの発生をできるだけ抑えよ
うとする技術である。この技術によれば上記した階調レ
ベル127及び128の境界部分では、階調の乱れはほ
とんど観測されず、その部分での動画疑似輪郭の発生は
抑えられるが、例えば図37に示した階調レベルが63
と64というように、輝度重みの大きなサブフィールド
(ここでは、サブフィールド9)が初めて点灯され、点
灯していた輝度重みが小さいサブフィールド(ここで
は、サブフィールド3,4,5,6及び8)を非点灯と
するような場合には、サブフィールドの点灯・非点灯の
分布が大きく変化するので、やはり境界部分では階調乱
れが観測される。つまり、点線矢印Ya方向で観測され
る階調レベルは約79であるのに対して、点線矢印Yb
で観測される階調レベルは約32になる。従って、この
ような階調の動画を表示した場合には、動画疑似輪郭の
発生は抑えられないことになる。In order to eliminate the false contour of a moving image, in the conventional image display device, the subfield 7 and the subfield 8 corresponding to a plurality of high-order bits.
An attempt has been made to reduce the disturbance of halftone display in moving image display by dividing the luminance weights of the above and further disposing them in the first half and the second half of the field. FIG. 37 shows a subfield structure in the moving image false contour reducing method according to the conventional method, which is intended to display an 8-bit gradation level, that is, 256 gradation levels by using 10 subfields. The luminance weighting of each subfield is 48, 48,
It is 1, 2, 4, 8, 16, 32, 48, 48. That is, the luminance weights 64 and 128 of the upper 2 bit subfield 7 and the subfield 8 in the above eight subfields are divided into four luminance weights ((64 + 12
8) = 192 = 48 × 4) and disperse these in the first and second halves of one TV field, and this is a technique for reducing the weight of upper bits to suppress the occurrence of intermediate tone disturbance as much as possible. . According to this technique, at the boundary between the gradation levels 127 and 128, almost no disturbance in gradation is observed, and the generation of a moving image pseudo contour is suppressed at that portion. For example, the gradation shown in FIG. Level 63
And 64, a subfield having a large luminance weight (here, subfield 9) is first lit, and a subfield having a small luminance weight being lit (here, subfields 3, 4, 5, 6, and 8). ) Is not illuminated, the distribution of illumination / non-illumination in the subfield changes greatly, so gradation disturbance is still observed at the boundary portion. That is, the gradation level observed in the direction of the dotted arrow Ya is about 79, whereas the gradation level of the dotted arrow Yb is
The gradation level observed at is about 32. Therefore, when a moving image with such a gradation is displayed, the generation of the moving image pseudo contour cannot be suppressed.
【0008】また、上述してきた動画疑似輪郭の評価方
法では、図37に示すような点線矢印上Ya又はYbに
存在するすべてのサブフィールドの輝度重みを加算し
て、観測される動画疑似輪郭として計算するため、画像
の動きが、評価する点線矢印上Ya又はYbで表される
方向からがわずかに変化しただけでもこの点線上から外
れるサブフィールドが存在したり、逆に点線上に新たに
入ってくるサブフィールドが生じたりする。この様子
は、図37の点線矢印Yc又はYdにて図示されてお
り、画像の動きの違いがわずかであっても、計算される
動画疑似輪郭の量が大きく異なることを意味している。
このように従来の評価方法では、点線上に存在するか外
れるかの二者択一でサブフィールドの輝度重みの加算の
有無を計算していたため、わずかな動きの差であっても
ときに動画疑似輪郭評価結果の画像は大きく異なること
があり、実際に観測者が目で見た画像を反映したものが
得られず、正確な評価になり得ないという課題を有して
いた。Further, in the above-described moving image pseudo contour evaluation method, luminance weights of all subfields existing on the dotted arrow Ya or Yb as shown in FIG. 37 are added to obtain an observed moving image pseudo contour. Because of the calculation, even if the motion of the image changes slightly from the direction indicated by Ya or Yb on the dotted arrow to be evaluated, there is a subfield that deviates from this dotted line, or conversely, it newly enters on the dotted line. There are subfields that come up. This state is shown by the dotted arrow Yc or Yd in FIG. 37, and means that the calculated amount of the moving image pseudo contour is significantly different even if the difference in the movement of the image is slight.
In this way, in the conventional evaluation method, the presence or absence of the addition of the luminance weights of the subfields is calculated by selecting whether it exists on the dotted line or deviates from the dotted line. The image of the pseudo contour evaluation result may be greatly different, and the image actually reflected by the observer cannot be obtained, so that the accurate evaluation cannot be performed.
【0009】また、想定する画像の動きも水平または垂
直のいずれか一方の動きのみであり、水平および垂直の
動きを同時に考慮したつまり斜め方向に移動した場合の
評価が困難という課題も有していた。Further, the assumed movement of the image is only one of the horizontal movement and the vertical movement, and there is a problem that it is difficult to evaluate when the horizontal movement and the vertical movement are taken into consideration at the same time, that is, when the movement is performed in an oblique direction. It was
【0010】次に、現在、テレビジョン画像表示装置と
してCRT表示装置が広く用いられている。CRT表示
装置は表示装置としての実績があり、製造コストも廉価
であるほか、輝度、コントラストなど、その他の表示性
能も高く評価されている。しかしながら、表示装置全体
の寸法や重量が大きく、壁掛けテレビなどの薄型ディス
プレイとしては、改善が望まれてきた。一方、薄型・軽
量表示装置としては、PDPや液晶ディスプレイの性能
が向上してきたため、これらの表示デバイスを用いた表
示装置が次第に着目されるようになってきている。液晶
ディスプレイは、現在、比較的小サイズの表示装置に向
くとされ、特にノート型コンピュータ用表示装置として
広く用いられている。ただし大画面化には未だ困難が伴
うこと、動画像を表示した場合の表示応答特性が不十分
で残像が発生するなどの問題点がある。一方、プラズマ
ディスプレイは大型化が比較的有望であるとの判断か
ら、将来の壁掛けテレビとして期待されている。Next, a CRT display device is now widely used as a television image display device. The CRT display device has a track record as a display device, is low in manufacturing cost, and is highly evaluated for other display performances such as brightness and contrast. However, the size and weight of the entire display device are large, and improvement has been desired as a thin display such as a wall-mounted television. On the other hand, as thin and lightweight display devices, the performance of PDPs and liquid crystal displays has been improved, and therefore display devices using these display devices are gradually receiving attention. Liquid crystal displays are currently considered to be suitable for relatively small-sized display devices, and are widely used particularly as display devices for notebook computers. However, there are problems in that it is still difficult to increase the screen size, and the display response characteristics when a moving image is displayed are insufficient to cause an afterimage. On the other hand, the plasma display is expected to be a wall-mounted television in the future because it is determined that the size of the plasma display is relatively promising.
【0011】なお、通常のCRT表示装置では、1本の
電子ビームが所定の画素に照射された場合、その画素の
みならず、周辺の画素が同時に相当程度発光するため
に、画像表示情報が拡散し、結果的に空間周波数特性が
劣化している。それに対し、PDPや液晶ディスプレイ
などのマトリクス型ディスプレイ装置では、表示画素毎
に個別の電極を有しているなどの理由で、個々の画素で
の画像表示情報と隣接画素の画像表示情報との独立性が
高く保たれているために、画像のキレがよく、くっきり
した表示ができるなどの高い評価もある。しかしなが
ら、液晶表示装置は前述のように、表示応答特性が不十
分で、動画像を表示した場合に残像が発生するなどの欠
点がある。PDPは液晶表示装置のような応答特性の遅
れがないため、総合的な高画質表示ができると期待され
ている。In a normal CRT display device, when one electron beam irradiates a predetermined pixel, not only the pixel but also peripheral pixels emit light to a considerable extent at the same time, so that the image display information is diffused. However, as a result, the spatial frequency characteristic is deteriorated. On the other hand, in a matrix type display device such as a PDP or a liquid crystal display, the image display information at each pixel and the image display information at an adjacent pixel are independent because each pixel has an individual electrode. Because of its high quality, the image is sharp and has a high reputation such as a clear display. However, as described above, the liquid crystal display device has a drawback that the display response characteristic is insufficient and an afterimage occurs when a moving image is displayed. PDPs are expected to be capable of comprehensive high-quality display because they do not have a delay in response characteristics as in liquid crystal display devices.
【0012】ところで従来のPDPを用いた画像表示装
置においては、PDP部分の他は、従来のCRT表示装
置を用いた場合と同様の信号源および信号処理を用いて
ディスプレイ装置を構成していため、入力映像信号に含
まれていたノイズのうち、特に2次元高域周波数成分の
ノイズは、従来のCRT表示装置では顕著でなかったも
のが特に画像が細かな静止画部分で目立つという課題が
新たに発生してきていた。By the way, in the conventional image display device using the PDP, the display device is configured using the same signal source and signal processing as in the case of using the conventional CRT display device, except for the PDP portion. Among the noises included in the input video signal, the noises of the two-dimensional high frequency components are not particularly noticeable in the conventional CRT display device, but there is a new problem that the image is conspicuous especially in the still image portion where the image is fine. It was happening.
【0013】そこで本発明は、まず、従来にもまして動
画疑似輪郭の発生を少なくすることが可能な画像表示装
置を提供することを第1の目的としている。Therefore, a first object of the present invention is to provide an image display device capable of reducing the occurrence of moving image pseudo contours more than ever before.
【0014】次に、画像の動く方向に拘らず実際に目に
みえる画像を反映した評価が可能な画像評価装置を提供
することを第2の目的としている。A second object of the present invention is to provide an image evaluation apparatus capable of evaluation that reflects an actually visible image regardless of the moving direction of the image.
【0015】また、入力映像信号のノイズ成分にあまり
影響されない良好な画像表示が行える画像表示装置を提
供することを第3の目的とする。A third object of the present invention is to provide an image display device capable of displaying an excellent image which is not significantly affected by the noise component of the input video signal.
【0016】[0016]
【課題を解決するための手段】第1の目的を達成するた
めに、輝度重みをW1、W2、...、WNに設定し、
そして、信号レベルを0、W1、W2、...、WNを
任意に組み合わせて表現可能な信号レベルの中から、動
き量(動き量とは、複数フレームの入力映像信号の時間
変動をいう。)に応じて所定の信号レベルを選択し表示
信号とする。これは、サブフィールドの輝度重み付けと
その配列を工夫する以外の構成で、動画疑似輪郭を解消
できる極めて有効な技術と言える。無論、同時にサブフ
ィールドの輝度重み付けとその配列を工夫すれば、疑似
輪郭解消の効果は一層顕著となる。In order to achieve the first object, the brightness weights W1, W2 ,. . . , WN,
Then, the signal levels are 0, W1, W2 ,. . . , WN can be expressed in any combination, and a predetermined signal level is selected according to the amount of motion (the amount of motion refers to the temporal variation of the input video signals of a plurality of frames), and the selected signal level is selected as the display signal. To do. This can be said to be an extremely effective technique for eliminating the false contour of a moving image with a configuration other than devising the weighting of the subfields and the arrangement thereof. Of course, if the subfield brightness weighting and its arrangement are devised at the same time, the effect of eliminating the pseudo contour becomes more remarkable.
【0017】ここで、入力信号の信号レベルと限定化に
よって表される表示信号の信号レベルとの差分を周辺の
画素に分配すれば、入力信号と表示信号とレベルの誤差
をほぼ相殺できる。Here, if the difference between the signal level of the input signal and the signal level of the display signal represented by the limitation is distributed to the peripheral pixels, the error between the level of the input signal and the level of the display signal can be almost cancelled.
【0018】更に以下のような画像表示装置を提供す
る。つまり、1TVフィールドを、それぞれ輝度重みを
持つN個のサブフィールドを時間順に配列したもので構
成し、サブフィールドについての初期化は、(N−1)
回以下の回数行う。そして、所定の入力映像信号の範囲
では入力映像信号の値に比例して発光するサブフィール
ドが時間方向前方或は後方に延伸していく点灯方法が可
能となり、上記疑似輪郭解消という第1の目的が達成さ
れる。Further, the following image display device is provided. In other words, one TV field is composed of N subfields each having a luminance weight arranged in time order, and the initialization for the subfield is (N-1).
Do the following times. Then, a lighting method in which a subfield that emits light in proportion to the value of the input video signal extends forward or backward in the time direction within a predetermined range of the input video signal becomes possible, which is the first object of eliminating the pseudo contour. Is achieved.
【0019】次に、第2の目的を達成するために、次の
ような画像評価装置を提供する。Next, in order to achieve the second object, the following image evaluation device is provided.
【0020】つまり、表示画面上の所定の画素に基準点
を設定し、画面上で単位時間内に移動する当該基準点を
経る経路を想定し、想定した単位時間内の経路近傍の画
素から発光される発光量に所定の演算を施した後積算し
て、前記基準点における観測画像とする装置である。That is, a reference point is set at a predetermined pixel on the display screen, a path passing through the reference point moving in a unit time on the screen is assumed, and light is emitted from a pixel near the path in the assumed unit time. This device is a device for making an observed image at the reference point by performing a predetermined calculation on the emitted light amount and then integrating the same.
【0021】これによれば、視線が通過する経路上の画
素1画素だけでなく、視線が通過する経路の近傍の複数
の画素からの発光についても所定の演算を施す等の考慮
を行っているため、想定した画像の動きがわずかに変化
しただけで、評価結果の画像が大きく変動してしまう、
という不安定さが解消され、実際に観測者がみる画像を
反映し安定した画像評価が可能になる。According to this, not only one pixel on the path through which the line of sight passes, but also the light emission from a plurality of pixels in the vicinity of the path through which the line of sight passes is taken into consideration. Therefore, even if the expected movement of the image changes slightly, the image of the evaluation result changes greatly.
The instability is eliminated, and the image actually viewed by the observer is reflected, enabling stable image evaluation.
【0022】また、第3の目的を達成するために、入力
信号の空間周波数成分のうち、高域成分の時間応答を抑
制して表示信号とする画像表示装置を提供する。Further, in order to achieve the third object, there is provided an image display device which suppresses a time response of a high frequency component of a spatial frequency component of an input signal to obtain a display signal.
【0023】[0023]
【発明の実施の形態】[実施の形態1]図1は、本実施
の形態に係る画像表示装置の構成を示すブロック図であ
る。DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] FIG. 1 is a block diagram showing a configuration of an image display device according to the present embodiment.
【0024】図1に示すように本実施の形態の画像表示
装置は、フィルタ部1と、γ(ガンマ)逆補正部2と、
AD変換部3と、誤差拡散部4と、動き量算出部5と、
第1符号化部6と、第2符号化部7と、表示制御部8
と、PDP9とから構成されている。As shown in FIG. 1, the image display device according to the present embodiment has a filter section 1, a γ (gamma) inverse correction section 2,
An AD conversion unit 3, an error diffusion unit 4, a motion amount calculation unit 5,
First encoding unit 6, second encoding unit 7, and display control unit 8
And PDP9.
【0025】PDP9は、電極がマトリックス状に配さ
れて例えば、(640画素/1ライン)×480個の画
素を備え、オンまたはオフというように2値的に発光を
行う表示装置である。そして、所定の発光回数を輝度重
みとして有する所定数(例えば、10個)のサブフィー
ルドの発光の合計で階調が表現されて、中間調表示を行
う。なお、本実施形態では説明を簡単に行うために、単
色により表示を行うPDPについて説明するが、R
(赤),G(緑),B(青)三色により画素を形成しカ
ラー表示を行うPDPにおいても、各色に対して同様に
適用することができる。The PDP 9 is a display device in which electrodes are arranged in a matrix and which has, for example, (640 pixels / line) × 480 pixels, and which performs binary light emission such as ON or OFF. Then, gradation is expressed by a total of a predetermined number (for example, 10) of subfields having a predetermined number of times of light emission as a luminance weight, and halftone display is performed. It should be noted that in the present embodiment, a PDP that displays in a single color will be described for the sake of simplicity.
The same can be applied to each color even in a PDP in which pixels are formed by three colors (red), G (green), and B (blue) to perform color display.
【0026】フィルタ部1について詳細は後述するが、
空間周波数の高域成分を除去する回路である。The filter unit 1 will be described in detail later, but
This is a circuit for removing high frequency components of spatial frequency.
【0027】γ逆補正部2は、ここで用いるアナログ映
像信号にはCRTに表示することを前提として元の映像
信号に対してγ(通常γ=2.2)特性がかかっている
ので、これを補正し表示信号ともとの入力信号とを直線
的(γ=1)な入出力関係にするための処理を行う回路
である。The γ inverse correction unit 2 has a γ (normally γ = 2.2) characteristic with respect to the original video signal on the assumption that the analog video signal used here is displayed on a CRT. For correcting the display signal and the original input signal to have a linear (γ = 1) input / output relationship.
【0028】AD変換部3は、アナログ映像信号をここ
では12ビット映像信号に変換する回路である。The AD converter 3 is a circuit for converting an analog video signal into a 12-bit video signal here.
【0029】図2は、第2符号化部7の構成を示すブロ
ック図である。FIG. 2 is a block diagram showing the configuration of the second encoding unit 7.
【0030】この図に示すように第2符号化部7は、サ
ブフィールド変換部71と、書込アドレス制御部72
と、フレームメモリ73a,73bとから構成されてい
る。As shown in this figure, the second encoding unit 7 includes a subfield conversion unit 71 and a write address control unit 72.
And frame memories 73a and 73b.
【0031】書込アドレス制御部72は、映像信号から
分離された水平同期信号、垂直同期信号に基づいてフレ
ームメモリ書込みアドレスを指定するアドレス指定信号
を生成するものである。The write address control section 72 generates an address designation signal for designating a frame memory write address based on the horizontal synchronizing signal and the vertical synchronizing signal separated from the video signal.
【0032】サブフィールド変換部71は、各画素に対
応するディジタル映像信号を、予め決められた所定の重
み付けを有するここでは10ビットのフィールド情報に
変換する回路である。なお、第2符号化部7には、第1
符号化部6で下位4ビットを切り捨てた信号(a’)が
符号化された8ビットのデジタル映像信号(b)が入力
される。The sub-field converter 71 is a circuit for converting the digital video signal corresponding to each pixel into 10-bit field information having a predetermined weighting. In addition, the second encoding unit 7
An 8-bit digital video signal (b) obtained by encoding the signal (a ′) in which the lower 4 bits are truncated by the encoding unit 6 is input.
【0033】フィールド情報とは、1TVフィールド内
の何れの時間帯つまり何れのサブフィールドを点灯・非
点灯させるのかという1ビットのサブフィールド情報の
集合である。ここでは、入力されるデジタル映像信号の
階調レベルに応じてサブフィールド変換部71に記憶さ
せてあるサブフィールド変換テーブル710を参照して
各画素に対応する8ビット映像信号が所定の数のサブフ
ィールドに分割される。1画素毎の分割処理は、図示し
ないPLL回路により発生された画素クロックに同期し
て行われる。このようにして生成された各画素に対応す
るフィールド情報は、書込アドレス制御部72からのア
ドレス指定信号により物理アドレスが指定されてフレー
ムメモリ73a,73bにライン毎、画素毎、フィール
ド毎、画面毎に書き込まれる。The field information is a set of 1-bit subfield information indicating which time zone in one TV field, that is, which subfield is turned on or off. Here, by referring to the subfield conversion table 710 stored in the subfield conversion unit 71 according to the gradation level of the input digital video signal, the 8-bit video signal corresponding to each pixel has a predetermined number of subfields. It is divided into fields. The division process for each pixel is performed in synchronization with a pixel clock generated by a PLL circuit (not shown). The field information corresponding to each pixel generated in this manner has a physical address specified by an address specification signal from the write address control unit 72 and is stored in the frame memories 73a and 73b line by line, pixel by pixel, field by field, and screen by screen. It is written every time.
【0034】サブフィールド変換テーブル710を、図
3(a)〜図6(a)に示す。これらに示すように、当
該サブフィールド変換テーブル710は、各映像信号を
時間順に1、2、4、7、13、23、33、43、5
5、74という単調に変化する輝度重みからなる10ビ
ットのサブフィールドSF1〜SF10のオン、オフ情
報に変換するための入力信号と変換後のサブフィールド
の組み合わせとの対応を示すもので、このテーブルの縦
の欄は、入力デジタル映像信号(a’)の値を示してお
り、横の欄は、当該入力映像信号を変換すべき10ビッ
トのフィールド情報を示している。なお、これらの図
で、「1」と記したサブフィールドは「オン(点灯)」
となり、その他のサブフィールドはそのフィールド期間
が「オフ(非点灯)」とされることを意味する(以下、
同様)。The subfield conversion table 710 is shown in FIGS. 3 (a) to 6 (a). As shown in these figures, the sub-field conversion table 710 shows that each video signal is time-sequentially arranged in the order of 1, 2, 4, 7, 13, 23, 33, 43, 5, 5.
This table shows the correspondence between the input signal for converting into the on / off information of the 10-bit subfields SF1 to SF10 having monotonically changing luminance weights of 5 and 74 and the combination of the converted subfields. The vertical column indicates the value of the input digital video signal (a ′), and the horizontal column indicates the 10-bit field information to which the input video signal should be converted. In these figures, the subfield marked "1" is "ON (lit)".
And other subfields mean that the field period is “off (non-lighting)” (hereinafter,
As well).
【0035】例えば、サブフィールド変換部71では、
値が27(図中*付記)のデジタル映像信号が入力され
ると、当該映像信号は、サブフィールド変換テーブル7
10の表に基づき、「0000011111」という1
0ビットデータに変換して出力する。なお、ここでのビ
ット表現は、サブフィールドの番号とビット表現におけ
る桁を対応させた表記にしている。ちなみに、この変換
後の10ビットデータを10進数で表記すると図中最右
欄に記載した値「31」といった値になる。For example, in the subfield converter 71,
When a digital video signal having a value of 27 (* in the figure) is input, the video signal is converted into the subfield conversion table 7
Based on the table of 10, 1 called "0000011111"
Converts to 0-bit data and outputs. Note that the bit representation here is represented by associating the subfield number with the digit in the bit representation. By the way, if the converted 10-bit data is expressed by a decimal number, a value such as the value “31” described in the rightmost column in the figure is obtained.
【0036】フレームメモリ73a,73bそれぞれ
は、図7に示すような内部構造をしている。つまり、フ
レームメモリ73aは、一の画面の前半分(1〜L(2
40ライン)に相当するフィールド情報を格納する第1
のメモリ領域73a1と、別の一の画面の前半分(1〜
L(240)ライン)に相当するフィールド情報を格納
する第2のメモリ領域73a2とを備える。フレームメ
モリ73bも、一の画面の後半分(L+1〜2L(48
0)ライン)に相当するフィールド情報を格納する第1
のメモリ領域73b1と、別の一の画面の後半分(L+
1〜2L(480)ライン)に相当するフィールド情報
を格納する第2のメモリ領域73b2とを備える。Each of the frame memories 73a and 73b has an internal structure as shown in FIG. That is, the frame memory 73a stores the front half (1 to L (2
First field field information equivalent to 40 lines)
Memory area 73a1 and the front half of another screen (1
And a second memory area 73a2 for storing field information corresponding to L (240) lines. The frame memory 73b also includes the rear half of one screen (L + 1 to 2L (48
0) First field storing field information corresponding to line)
Memory area 73b1 and the rear half of another screen (L +
A second memory area 73b2 for storing field information corresponding to 1 to 2 L (480 lines).
【0037】そして、第1のメモリ領域73a1(第1
のメモリ領域73b1)及び第2のメモリ領域73a2
(第2のメモリ領域73b2)のメモリ領域は、それぞ
れ10個のサブフィールドメモリSFM1〜SFM10
を備えている。この構成により1画面について前半分と
後半分とに分割して2画面分に相当する10ビットのサ
ブフィールドの組み合わせに関するフィールド情報が、
各サブフィールドの点灯・非点灯に関する情報としてサ
ブフィールドメモリSFM1〜SFM10に書き込まれ
る。本実施の形態では、サブフィールドメモリSFM1
〜SFM10は、1ビット入力で1ビット出力の半導体
メモリを用いてある。また、このフレームメモリ73
a,73bは、フィールド情報を書き込むと同時に、P
DP9への読み出しも同時に可能な2ポートフレームメ
モリである。Then, the first memory area 73a1 (first
Memory area 73b1) and the second memory area 73a2
The memory area of the (second memory area 73b2) includes 10 subfield memories SFM1 to SFM10.
Is equipped with. With this configuration, field information relating to a combination of 10-bit subfields corresponding to two screens divided into the first half and the second half for one screen is
It is written in the subfield memories SFM1 to SFM10 as information regarding lighting / non-lighting of each subfield. In the present embodiment, the subfield memory SFM1
~ SFM10 uses a semiconductor memory of 1-bit input and 1-bit output. In addition, this frame memory 73
a and 73b simultaneously write the field information and at the same time P
It is a 2-port frame memory that can read data to the DP 9 at the same time.
【0038】フレームメモリ73a,73bへのフィー
ルド情報の書き込みは、一の画面分の前半分のフィール
ド情報を第1のメモリ73a1へ、当該一の画面分の後
半分のフィールド情報を第1のメモリ73b1へ、そし
て、次の一画面分の前半分のフィールド情報を第2のメ
モリ領域73a2へ、当該別な一画面分の後半分のフィ
ールド情報を第2のメモリ領域73b2へというように
2つのフレームメモリ73a,73bの4つのメモリ領
域73a1,73b1,73a2又は73b2に対して交互
に行われる。そして、一のメモリ領域73a1,73b
1,73a2及び73b2へのフィールド情報の書き込み
は、サブフィールド変換部71から画素クロックに同期
して出力される10ビットデータを10のサブフィール
ドメモリSFM1〜10に1ビットずつに分配して書き
込むという方法で実行される。10ビットデータのどの
ビットをどのサブフィールドメモリSFM1〜10に格
納するかは予め定められている。To write field information in the frame memories 73a and 73b, the first half of the field information for one screen is stored in the first memory 73a1 and the second half of the field information for one screen is stored in the first memory. 73b1 and the field information of the first half of the next one screen to the second memory area 73a2, and the field information of the second half of the other one screen to the second memory area 73b2. The four memory areas 73a1, 73b1, 73a2 or 73b2 of the frame memories 73a, 73b are alternately performed. Then, one memory area 73a1, 73b
The writing of the field information to 1, 73a2 and 73b2 is said to be performed by dividing the 10-bit data output from the subfield converter 71 in synchronization with the pixel clock into the 10 subfield memories SFM1 to 10 and writing the divided bit by bit. Executed in a way. Which bit of the 10-bit data is to be stored in which subfield memory SFM1-10 is predetermined.
【0039】詳しくは、サブフィールド変換テーブル7
10のサブフィールド番号1〜10と、それと同一番号
のサブフィールドメモリSFM1〜10が論理的に対応
付けられていて、10ビットデータのビットがどのサブ
フィールド番号に相当するものであるかによって該当す
るサブフィールドメモリSFM1〜10に書き込まれる
のである。10ビットデータのサブフィールドメモリS
FM1〜10への書き込み位置は、書込アドレス制御部
72からのアドレス指定信号によって指示される。10
ビットデータに変換される前の画素信号の画面上での位
置と同一位置に書き込まれるのが一般的である。Specifically, the subfield conversion table 7
The 10 subfield numbers 1 to 10 are logically associated with the subfield memories SFM1 to SFM having the same numbers as the subfield numbers, and the subfield numbers correspond to which subfield number the bit of the 10-bit data corresponds to. It is written in the subfield memories SFM1 to SFM10. 10-bit data subfield memory S
The write position to the FMs 1 to 10 is designated by the address designation signal from the write address controller 72. 10
Generally, the pixel signal before being converted into bit data is written at the same position as the position on the screen.
【0040】上記表示制御部8は、図8に示すように表
示ライン制御部80と、アドレスドライバ81a,81
bと、ラインドライバ82とから構成されている。The display controller 8 includes a display line controller 80 and address drivers 81a and 81a as shown in FIG.
b and a line driver 82.
【0041】表示ライン制御部80は、フレームメモリ
73a,73bにPDP9に読み出すべきメモリ領域7
3a1,73b1,73a2若しくは73b2,ライン,サ
ブフィールドを指定し、又、PDP9の何れのラインを
走査するのかの指示を出すものである。The display line control unit 80 has a memory area 7 to be read by the PDP 9 in the frame memories 73a and 73b.
3a1, 73b1, 73a2 or 73b2, a line and a subfield are designated, and an instruction as to which line of the PDP 9 is to be scanned is issued.
【0042】この表示ライン制御部80の動作は第2符
号化部7におけるフレームメモリ73a,73bへの書
込動作と画面単位のオーダでは同期がとられている。即
ち、表示ライン制御部80は10ビットデータを書込中
のメモリ領域73a1,73b1(73a2,73b2)か
らは読み出しは行わず、既に書込完了したメモリ領域7
3a2,73b2(73a1,73b1)から読み出しを行
う。The operation of the display line control section 80 is synchronized with the writing operation to the frame memories 73a and 73b in the second encoding section 7 in the order of the screen unit. That is, the display line control unit 80 does not read from the memory areas 73a1 and 73b1 (73a2 and 73b2) in which 10-bit data is being written, but the memory area 7 that has already been written.
Reading is performed from 3a2, 73b2 (73a1, 73b1).
【0043】アドレスドライバ81aは、表示ライン制
御部80のメモリ領域指定、読出ライン指定及びサブフ
ィールド指定に基づいて1ビットづづシリアルに入力さ
れた1ラインに相当するサブフィールド情報を、1ライ
ン分の画素数に対応したビット(640ビット)をパラ
レルに、アドレスパルスに変換して画面前半分のライン
に出力するものである。アドレスドライバ81bは、ラ
インドライバ81aと同様に前記サブフィールド情報
を、アドレスパルスに変換して画面後半分のラインに出
力するものである。The address driver 81a outputs the subfield information corresponding to one line serially input bit by bit based on the memory area designation, the read line designation and the subfield designation of the display line control section 80. Bits (640 bits) corresponding to the number of pixels are converted into address pulses in parallel and output to the front half line of the screen. Similarly to the line driver 81a, the address driver 81b converts the subfield information into address pulses and outputs the address pulses to the lines corresponding to the second half of the screen.
【0044】ラインドライバ82は、サブフィールド情
報をPDP9の何れのラインに書き込むのか走査パルス
により指定するものである。The line driver 82 designates which line of the PDP 9 the subfield information is written to by a scanning pulse.
【0045】このような表示制御部8の構成により、次
のようにフレームメモリ73a,73bからPDP9へ
のフィールド情報の読み出しが行われる。フレームメモ
リ73a,73bに分割して書き込まれた1画面分のフ
ィールド情報の読み出しは、前半分と後半分とに相当す
るデータを同時に読み出すことにより行う。つまり、メ
モリ領域73a1,73b1から同時に画素毎にサブフィ
ールド情報がサブフィールドメモリSFM1,SFM
2,・・・,SF10から順次読み出されることにより
行われる。より具体的には、まず、メモリ領域73a
1,73b1双方のサブフィールドメモリSFM1から1
ライン目の各画素に相当するサブフィールド情報が1ビ
ットづつ順次読み出される。そして、ラインドライバ8
2によるライン指定を待って前半・後半画面のそれぞれ
の1ライン目に潜像を形成(アドレッシング)し、次い
で、同じサブフィールドメモリSFM1から前半・後半
画面の2ライン目の各画素に対応するサブフィールド情
報を読み出して同じようにアドレスドライバ81a,8
1bに順次シリアルに入力し、1ラインの画素数に相当
するビットここでは640ビットのサブフィールド情報
がパラレルにPDP9に出力されアドレッシングが行わ
れる。このような読み出し(書き込み)が画面分割した
分割領域におけるそれぞれの最終ラインまで終了すれ
ば、一斉に各画素が発光される。With the configuration of the display controller 8 as described above, field information is read from the frame memories 73a and 73b to the PDP 9 as follows. The reading of the field information for one screen that is divided and written in the frame memories 73a and 73b is performed by simultaneously reading the data corresponding to the first half and the second half. That is, the sub-field information SFM1 and SFM is obtained from the memory areas 73a1 and 73b1 at the same time for each pixel.
2, ..., SF10 are sequentially read out. More specifically, first, the memory area 73a
Subfield memories SFM1 to 1 of both 1 and 73b1
Subfield information corresponding to each pixel on the line is sequentially read bit by bit. And the line driver 8
After waiting for the line designation by 2, the latent image is formed (addressing) on the first line of each of the first and second half screens, and then the sub-field corresponding to each pixel of the second line of the first and second half screens from the same subfield memory SFM1. The field information is read and the address drivers 81a, 8a
Bits corresponding to the number of pixels in one line, 640 bits of subfield information in parallel, are output to PDP 9 in parallel for addressing. When such reading (writing) is completed up to the last line in each of the divided areas obtained by dividing the screen, the pixels are simultaneously emitted.
【0046】次のサブフィールドSF2の点灯・非点灯
に関するサブフィールド情報が上記同様に1ラインづづ
読み出されてアドレッシングが行われた後、次いで順次
サブフィールドSF10までこの動作を繰り返すと、1
画面分のフィールド情報の読み出し(書き込み)が終了
する。After the subfield information regarding lighting / non-lighting of the next subfield SF2 is read line by line in the same manner as described above and the addressing is performed, the operation is sequentially repeated until the subfield SF10.
The reading (writing) of the field information for the screen is completed.
【0047】このようなPDPの作動方式を図示すると
図9に示すようになる。この図9は、横軸は時間、縦軸
はPDPの横方向に延びる電極、すなわち走査・放電維
持電極の番号を示し、太斜線の部分で発光させる画素の
アドレスを指定し、網掛けをした部分で画素を発光させ
る。つまり、分割画面それぞれの1ライン目の走査・放
電維持電極上の全ての横方向画素に対し、サブフィール
ドSF1が始まるタイミングに合わせて縦方向に走るア
ドレス電極にアドレスパルスを印加することによりアド
レッシングを行う。走査・放電維持電極の1ライン目の
アドレッシングが終了したら、それ以降のラインに次々
と、同様な操作を繰り返す。分割画面において最後の走
査・放電維持電極のアドレッシングが終了したら、時刻
t1〜t2放電維持期間に移る。この期間では、重み付け
に比例した数の放電維持パルスが放電維持電極に印加さ
れるが、上記アドレス指定により発光の指示があった画
素のみ発光されるようになっている。そして、繰り返し
説明することになるが以上述べたようなサブフィールド
におけるアドレッシングと全画素の一斉点灯という動作
が繰り返されることにより、1TVフィールド分の階調
表示が完了する。なお、ここでは説明は省略したが上記
アドレッシングは、全画素の壁電荷を消去する初期化期
間を経た後に行われ、また、このように表示させる画素
へ予め情報を書込んだ後(アドレッシング)、発光させ
るという駆動方式は「メモリ駆動法」と呼ばれる。FIG. 9 shows the operation method of such a PDP. In FIG. 9, the horizontal axis represents time, and the vertical axis represents the number of electrodes extending in the horizontal direction of the PDP, that is, the numbers of scan / discharge sustaining electrodes. The shaded areas indicate the addresses of the pixels to be illuminated and are shaded. The pixels are made to emit light in the part. In other words, addressing is performed by applying an address pulse to the address electrodes running in the vertical direction at the timing when the subfield SF1 starts for all the horizontal pixels on the scan / discharge sustaining electrodes of the first line of each divided screen. To do. After the addressing of the first line of the scan / discharge sustaining electrodes is completed, the same operation is repeated for the subsequent lines. When the last scan / discharge sustaining electrode addressing is completed in the split screen, the time t1 to t2 discharge sustaining period starts. During this period, the number of discharge sustaining pulses proportional to the weighting is applied to the discharge sustaining electrodes, but only the pixels that have been instructed to emit light by the above address designation emit light. Then, as will be repeatedly described, the gradation display for one TV field is completed by repeating the operations of addressing in the subfield and simultaneous lighting of all pixels as described above. Although not described here, the addressing is performed after an initialization period for erasing the wall charges of all pixels, and after writing information in advance to the pixels to be displayed in this way (addressing), The driving method of emitting light is called a "memory driving method".
【0048】そして、上記読み出しと並行して別のメモ
リ領域に書き込まれた次の画面の前半分と後半分に相当
するフィールド情報を上記同様にして読み出すことによ
って動画の表示が行われる。Then, in parallel with the above-mentioned reading, the moving image is displayed by reading the field information corresponding to the first half and the second half of the next screen written in another memory area in the same manner as described above.
【0049】次に、第2符号化部7の符号化の特徴につ
いて説明する。Next, the encoding characteristics of the second encoder 7 will be described.
【0050】上記サブフィールド変換テーブル710に
おいて、サブフィールド数は、10であり、図3(a)
〜図6(a)に示したように、時間順に単調に増加する
1,2,3,4,7,13,23,33,43,55,
74という重み付けを施してあった。In the subfield conversion table 710, the number of subfields is 10, which is shown in FIG.
~ As shown in Fig. 6 (a), 1, 2, 3, 4, 7, 13, 23, 33, 43, 55, which increase monotonically with time,
It was weighted with 74.
【0051】このような重み付けによれば、重みが上位
のサブフィールドの輝度を、重みが下位のサブフィール
ドを複数を組み合わせることによって表現することがで
きる。これにより該当する階調表示を行うのにサブフィ
ールドの組み合わせが幾つか存在する場合があることに
なる。例えば、信号レベル127であれば(図中▲
印)、サブフィールドSF10,SF8,SF4,SF
2,SF1の組み合わせ若しくはサブフィールドSF
9,SF8,SF6,SF3,SF2又はサブフィール
ドSF9,SF7,SF6,SF5,SF2,SF1の
組み合わせが存在する。According to such weighting, the luminance of the subfield having a higher weight can be expressed by combining a plurality of subfields having a lower weight. As a result, there may be some combinations of subfields for performing the corresponding gradation display. For example, if the signal level is 127 (in the figure,
), Subfields SF10, SF8, SF4, SF
2, SF1 combination or subfield SF
There are combinations of 9, SF8, SF6, SF3, SF2 or subfields SF9, SF7, SF6, SF5, SF2, SF1.
【0052】そして、これらの複数の組み合わせの中
で、サブフィールド変換テーブル710はその内の一通
りの組合せで記述されている。即ち、デジタル映像信号
の値が127の場合にはサブフィールドSF9,SF
7,SF6,SF5,SF2,SF1の組合せが記述さ
れている。Of these plural combinations, the subfield conversion table 710 is described by one of the combinations. That is, when the value of the digital video signal is 127, the subfields SF9, SF
7, the combination of SF6, SF5, SF2 and SF1 is described.
【0053】このようにサブフィールド変換テーブル7
10に記述されているサブフィールドの組合せは、要約
すると、輝度重みが上位のサブフィールドの使用を極力
抑えた組合せであるということである。そして、このよ
うな組合せは低輝度(0〜22)を除く中輝度から高輝
度(23〜255)にかけて採用されていることが変換
テーブル710の内容から理解される。In this way, the subfield conversion table 7
In summary, the combination of subfields described in No. 10 is a combination in which use of subfields having higher luminance weights is suppressed as much as possible. Then, it is understood from the contents of the conversion table 710 that such a combination is adopted from medium brightness except low brightness (0 to 22) to high brightness (23 to 255).
【0054】また、信号レベルが27→28、50→5
1、83→84、126→127、181→182に変
化する箇所のサブフィールドの組合せを参照すれば理解
されるように次のような特徴もある。即ち、一階調レベ
ル低いレベル(27、50、83、126、181)ま
ではオフであった輝度重みの重いサブフィールドを、オ
ンにするレベルにおいては、そのオンにされた輝度重み
より1段低い輝度重みのサブフィールドはオフになるよ
うにしている。Further, the signal level is 27 → 28, 50 → 5
As will be understood by referring to the combination of subfields at the positions changing from 1, 83 → 84, 126 → 127, 181 → 182, the following features are also provided. That is, at the level at which a subfield having a large luminance weight that was off up to a level lower by one gradation level (27, 50, 83, 126, 181) is turned on, the subfield is one stage lower than the luminance weight turned on. Subfields with low luminance weights are turned off.
【0055】以上述べたような点灯パターンを選択する
ことにより、信号レベルが変化した場合に点灯パターン
が時間的に激しく変化することを抑制でき、動画疑似輪
郭の解消につながる。By selecting the lighting pattern as described above, it is possible to prevent the lighting pattern from changing drastically with time when the signal level changes, which leads to elimination of the pseudo contour of the moving image.
【0056】次に発明の特徴的な内容について詳細に説
明する。Next, the characteristic contents of the invention will be described in detail.
【0057】まず、フィルタ部1は、図10に示すよう
に、2次元高域通過フィルタ11と、2次元低域通過フ
ィルタ12と、時間応答低域通過フィルタであるテンポ
ラルLPF13と、加算部14とから構成されている。First, as shown in FIG. 10, the filter unit 1 includes a two-dimensional high-pass filter 11, a two-dimensional low-pass filter 12, a temporal LPF 13 which is a time response low-pass filter, and an adding unit 14. It consists of and.
【0058】2次元高域通過フィルタ11によって、画
像の細かな絵柄成分のみが取り出される。取り出された
細かな絵柄成分のうち、時間方向に変化の激しい成分
は、テンポラルLPF13によって抑制され加算部14
に出力される。The two-dimensional high-pass filter 11 extracts only the fine picture component of the image. Of the extracted fine pattern components, the components that change drastically in the time direction are suppressed by the temporal LPF 13 and added by the addition unit 14.
Is output to.
【0059】テンポラルLPF13と、2次元低域通過
フィルタ12の出力は、加算部14で合成され、結局入
力映像信号に含まれる画像成分のうち、細かな画像成分
が時間方向に激しく変化する部分のみ抑制されて以下表
示されることになる。従って、細かなパターンが短い周
期で変化する成分は表示されず、ノイズ成分が表示され
ることが防止できる。なお、通常の高精細画像表示に重
要な静止画像部分の高精細画像情報は保存されて表示さ
れる。したがって、静止画においては、精細画像情報を
損なうことなく、かつ動画表示においては、画像の大面
積の部分のように空間周波数の低い部分での応答特性を
損なうことなく、静止画および動画のいずれにおいても
ノイズの少ない良好な画像表示を行うことができる。The outputs of the temporal LPF 13 and the two-dimensional low-pass filter 12 are combined by the adder 14 and, finally, only the portion of the image components included in the input video signal where the fine image components drastically change in the time direction. It will be suppressed and displayed below. Therefore, the component in which the fine pattern changes in a short cycle is not displayed, and it is possible to prevent the noise component from being displayed. The high-definition image information of the still image portion, which is important for normal high-definition image display, is stored and displayed. Therefore, in a still image, fine image information is not impaired, and in moving image display, both a still image and a moving image are not impaired without impairing the response characteristics in a low spatial frequency portion such as a large area portion of the image. In this case, it is possible to display a good image with less noise.
【0060】第1符号化部6は、12ビットのデジタル
入力映像信号(信号(a’’))の下位4ビットを除去
して(信号(a’))8ビットの信号(b)に変換して
第1符号化部7に出力する回路であり、ここでは画像の
動き量が大きくなるほど階調表示特性を犠牲にし疑似輪
郭解消を優先した符号化を、図3(b)〜図6(b)に
示す変換テーブル60を参照して入力レベル(a’)を
所定のレベル(b)に変換する。なお、このように12
ビットの上位8ビットを用いて階調表示を行うのはみか
けの階調数を多くして表示するためである。The first encoder 6 removes the lower 4 bits of the 12-bit digital input video signal (signal (a '')) (signal (a ')) and converts it into an 8-bit signal (b). 3 (b) to FIG. 6 (refer to FIG. 3B to FIG. 6), in which the gradation display characteristics are sacrificed as the image motion amount increases and the pseudo contour elimination is prioritized. The input level (a ') is converted into a predetermined level (b) by referring to the conversion table 60 shown in b). It should be noted that 12
The gradation is displayed by using the upper 8 bits of the bits because the number of apparent gradations is increased.
【0061】この変換テーブル60は、当該画像の動き
量を表す後述する動き量算出部で生成された出力値mの
値に基づいて本来のレベル(a’)をそれに近い一のレ
ベルに変換(b)するための対応を示すテーブルであ
り、テーブルの左端縦の欄は、下位4ビットを除去した
入力デジタル映像信号(a’)の値を示しており、ま
た、「●」と記した縦の欄は、該当する動き量mにおけ
る入力信号に対し出力する信号値の組み合わせ、つまり
入力信号の符号化の態様を示している。なお、以下述べ
るように本画像表示装置では、現在入力されているフレ
ームをPDPに表示させるのに先行して動き量算出を行
う関係上、実際の入力映像信号よりも1フレーム相当遅
延させる必要性があるので、本実施の形態では少なくと
も2フレーム相当の映像信号を記憶できるだけの図示し
ないフレームメモリを備え、このフレームメモリからデ
ータを読み出して第1符号化部6での符号化処理を行
う。This conversion table 60 converts the original level (a ') into one level (a') close to the original level (a ') based on the value of the output value m generated by the motion amount calculation unit, which will be described later, which indicates the amount of motion of the image. b) is a table showing correspondences for performing, and the column on the left end of the table shows the value of the input digital video signal (a ′) from which the lower 4 bits are removed. The column of (2) indicates a combination of signal values to be output with respect to the input signal at the corresponding motion amount m, that is, a mode of encoding the input signal. As will be described below, in the present image display device, it is necessary to delay the current input frame by one frame from the actual input video signal in order to calculate the motion amount prior to displaying the currently input frame on the PDP. Therefore, in the present embodiment, a frame memory (not shown) that can store at least two frames of video signals is provided, and the data is read from this frame memory and the first encoding unit 6 performs the encoding process.
【0062】動き量算出部5は各1フレーム分の画像を
記憶するためのフレームメモリ51a,51bと、動き
量検出部52と、傾斜部検出部53と、動き量補正部5
4とから構成されている。The motion amount calculation unit 5 includes frame memories 51a and 51b for storing images for each one frame, a motion amount detection unit 52, an inclined portion detection unit 53, and a motion amount correction unit 5.
4 and.
【0063】動き量検出部52は、フレームメモリ51
a,51bから映像信号を読み出してこれから表示しよ
うするフレームと直前のフレーム、2フレーム分の映像
信号を画素毎に比較し差分値が所定値を超える場合に動
き(変動)があるとし、更にその差分値をここでは一例
として9段階に分け動きがないとの検出を含め合計10
段階に分けて「0000」〜「1001」の4ビットの
値を出力する。この前フレームからの変動値が大きいほ
ど当該画素の動き(変動)が激しいことを意味する。な
お、フレームメモリ51a(51b)に記憶される映像
データは、現在の1のフレームのディスプレイへの表示
が終われば随時、次の1フレームの映像データに更新さ
れる。The motion amount detecting section 52 includes a frame memory 51.
When a video signal is read from a and 51b, a frame to be displayed from immediately before, a previous frame, and a video signal for two frames are compared pixel by pixel, if the difference value exceeds a predetermined value, there is a movement (fluctuation). Here, the difference value is divided into 9 steps as an example, and the total is 10 including the detection that there is no movement.
A 4-bit value of "0000" to "1001" is output in stages. The larger the variation value from the previous frame, the more intense the movement (variation) of the pixel. The video data stored in the frame memory 51a (51b) is updated to the video data of the next one frame at any time after the display of the current one frame on the display is completed.
【0064】傾斜部検出部53は、フレームメモリ51
a(51b)から映像信号を読み出して同一フレームに
おけるエッジ部(信号レベルの変化の大きな画素領域)
以外で、レベルが単調に変化する画像領域である傾斜部
を検出する回路である。そして、傾斜部を検出すれば
「1」を、同じ値のビットを付加して4ビットにして、
又エッジ部やレベル変化がほとんどない平坦部を検出す
れば「0」を同じ値のビットを付加して4ビットにして
出力する。つまり、「1」であれば「1111」を、
「0」であれば「0000」を出力する。なお、この傾
斜部検出部53には、公知のエッジ検出フィルタを用い
て水平方向及び垂直方向の傾斜度を検出し、何れかの方
向において単調に変化していれば傾斜部とする。The inclined portion detecting portion 53 includes a frame memory 51.
The video signal is read from a (51b) and the edge portion in the same frame (pixel area where the signal level changes greatly)
Other than that, it is a circuit that detects an inclined portion that is an image area in which the level monotonously changes. Then, if an inclined portion is detected, "1" is added to the bits of the same value to make 4 bits,
If an edge part or a flat part with almost no level change is detected, "0" is added to the bit of the same value and output as 4 bits. In other words, if it is "1", then "1111"
If it is "0", "0000" is output. The slope detecting unit 53 uses a known edge detection filter to detect the inclination in the horizontal direction and the vertical direction, and if it is monotonically changing in any direction, the slope is detected.
【0065】動き量補正部は54、前記動き量検出部5
2からの出力と傾斜部検出部52からの出力を入力とし
て、最終的に当該画素の前フレームからの動き量を
「0」〜「9」の10段階に段階付けを行って段階に応
じた値mを第1符号化部6に出力する。具体的には、図
12に示すように、当該画素が動きがない(値「000
0」のとき)場合であれば、傾斜部検出部の検出結果如
何に関らず、動き量補正部は「0000」を出力する。
当該画素が動きのあるもので(値「0001」〜「10
01」のとき)、かつ、信号レベルが隣接画素間で単調
に変化する領域、即ち傾斜部に属するものであれば(値
「1111」のとき)、動き量に応じた9段階に出力さ
れる(値「0001」〜「1001」)。一方、動き量
検出部からの出力が動きが大きいことを示す値であって
も、傾斜部検出部52からの出力が隣接画素間で単調に
変化する領域に属するものでないことを示す場合には
(値「0000」のとき)、動き量mの出力値は「00
00」つまり、動きがないものとして出力する。これ
は、動きがあっても、エッジ部やレベル変化がほとんど
ない平坦部などの画像パターンによっては動画疑似輪郭
を引き起こさないので、この場合には第1符号化部6に
おいて階調数を優先した符号化を行うようにするためで
ある。なお、図3(b)〜図6(b)及び以下の説明で
は動き量mは2進数ではなく、簡略のために10進数で
記載する。The motion amount correction unit 54, the motion amount detection unit 5
The output from 2 and the output from the slope detection unit 52 are input, and finally, the amount of movement of the pixel from the previous frame is graded into 10 stages of "0" to "9", and the stage is adjusted according to the stage. The value m is output to the first encoding unit 6. Specifically, as shown in FIG. 12, the pixel does not move (value “000”).
In the case of “0”), the motion amount correction unit outputs “0000” regardless of the detection result of the inclined portion detection unit.
The pixel is in motion (values “0001” to “10
01 "), and if the signal level belongs to an area where the signal level monotonously changes between adjacent pixels, that is, a slope portion (when the value is" 1111 "), the signal is output in nine stages according to the amount of movement. (Values "0001" to "1001"). On the other hand, even if the output from the motion amount detecting unit is a value indicating that the motion is large, if it indicates that the output from the slope detecting unit 52 does not belong to a region that monotonically changes between adjacent pixels, (When the value is “0000”), the output value of the movement amount m is “00
00 ", that is, output as no motion. This does not cause a pseudo contour of a moving image depending on an image pattern such as an edge portion or a flat portion with almost no level change even if there is a motion. In this case, therefore, the first encoding unit 6 gives priority to the number of gradations. This is for encoding. Note that, in FIGS. 3B to 6B and the following description, the motion amount m is not a binary number, but is a decimal number for simplicity.
【0066】図11に戻り誤差拡散部4は、加算部41
と、誤差算出部42と、遅延部43a〜43dと、係数
部44a〜44dとから構成されている。Returning to FIG. 11, the error diffusion unit 4 includes the addition unit 41.
The error calculation unit 42, the delay units 43a to 43d, and the coefficient units 44a to 44d.
【0067】誤差算出部42は、第1符号化部6での符
号化の結果の出力レベル(b)と、12ビット入力レベ
ル(a’’)との差分(c)を算出する回路である。The error calculator 42 is a circuit for calculating the difference (c) between the output level (b) as a result of the encoding in the first encoder 6 and the 12-bit input level (a ″). .
【0068】遅延部43aは、1画素(1D)分当該差
分値(c)を遅延させて出力させるための回路、遅延部
43bは、(1ライン(1H)+1画素(1D))分当
該差分値を遅延させて出力させるための回路、遅延部4
3cは、1ライン(1H)分当該差分値を遅延させて出
力させるための回路及び遅延部43dは、(1ライン
(1H)−1画素(1D))分当該差分値を遅延させて
出力させるための回路である。The delay unit 43a delays the difference value (c) by one pixel (1D) and outputs it, and the delay unit 43b calculates the difference value (1 line (1H) +1 pixel (1D)). Circuit for delaying and outputting a value, delay unit 4
3c is a circuit for delaying and outputting the difference value for one line (1H), and the delay unit 43d delays and outputs the difference value for (1 line (1H) -1 pixel (1D)). It is a circuit for.
【0069】係数部44a〜44dは、差分値(c)に
所定の係数に相当する比率に分配する回路であり、分配
した値を最終的に加算部41において現在表示しようと
する画素の映像信号に加算して第1符号化部6に出力す
る。このような処理は、一般的に誤差拡散法と言われる
処理である。従って、前記第1符号化部6に入力される
入力信号(a’’)は、当該画素のもとの信号レベル
に、先に符号化処理により発生した近傍の画素の誤差が
加算された信号である。なお、この誤差拡散の処理は動
画であるか静止画であるかに関らず行われる。何故なら
第1符号化部6では、12ビットの入力映像信号の下位
4ビットを切り捨てるため、静止画であっても必ず4ビ
ットぶんの誤差が生じるからである。The coefficient parts 44a to 44d are circuits for distributing the difference value (c) to a ratio corresponding to a predetermined coefficient, and the distributed value is finally displayed in the adding part 41 as the video signal of the pixel currently displayed. And output to the first encoding unit 6. Such processing is generally called an error diffusion method. Therefore, the input signal (a ″) input to the first encoding unit 6 is a signal obtained by adding the error of the neighboring pixel generated by the encoding process to the original signal level of the pixel. Is. The error diffusion process is performed regardless of whether it is a moving image or a still image. This is because the first encoding unit 6 cuts off the lower 4 bits of the 12-bit input video signal, so that an error of 4 bits always occurs even in a still image.
【0070】次に、第1符号化部6及び誤差拡散部4で
の動作について具体的に説明する。Next, the operations of the first encoding unit 6 and the error diffusion unit 4 will be specifically described.
【0071】まず、図3(a)〜図6(a)と図3
(b)〜図6(b)とを見比べてみると分かるが、第1
符号化部6での符号化には、サブフィールドの非点灯か
ら点灯への変化の程度と動き量とに相関性がある。First, FIGS. 3A to 6A and FIG.
As can be seen by comparing (b) to FIG. 6 (b),
The coding in the coding unit 6 has a correlation between the degree of change from non-lighting to lighting of a subfield and the amount of movement.
【0072】具体的には、サブフィールドの組み合わせ
において点灯させるサブフィールドが非点灯から点灯へ
の変化がない、始めから連続的に点灯し疑似輪郭を最も
引き起こしにくいレベルの組み合わせ(「0」、
「1」、「3」、「7」、「14」、「27」、「5
0」、「83」、「126」、「181」、および「2
55」)を動きの最も激しい場合(m=「9」)に使用
する。次いで、1階調下位の表示では非点灯であったも
のが点灯に変化するサブフィールドの輝度重みに比例さ
せ、動きが小さくなるに従って、この非点灯から点灯へ
の変化が輝度重みの大きいサブフィールドで起こるよう
な、動きが激しければ疑似輪郭の要因となるようなレベ
ルを選択している。別な見方をすれば、動きが大きくな
るにつれて連続的に点灯する時間の長い信号レベルを選
択するということでもある。Specifically, in a combination of subfields, the subfields to be lighted have no change from non-lighting to lighting, are continuously lit from the beginning, and a combination of levels (“0”, which is most unlikely to cause pseudo contour).
"1", "3", "7", "14", "27", "5"
0 "," 83 "," 126 "," 181 ", and" 2 "
55 ") is used when the movement is the most intense (m =" 9 "). Then, in the display of one gradation lower, the non-illuminated subfield is proportional to the luminance weight of the subfield that changes to the illumination. The level is selected so that it causes a pseudo contour if the movement is intense, as occurs in. Another point of view is to select a signal level that has a long lighting time as the movement increases.
【0073】このような画像の動きの程度に応じた符号
化を行えば、動きの激しい場合には的確に疑似輪郭を解
消でき、一方、疑似輪郭発生の可能性が低い動きが小さ
い場合には、階調数を増やし静止画(m=「0」)で
は、最大の階調数で表現できる。If the encoding is performed according to the degree of movement of such an image, the pseudo contour can be accurately eliminated when the movement is vigorous, while on the other hand, when the movement is small in which pseudo contour is unlikely to occur, the movement is small. , The number of gradations is increased and still images (m = “0”) can be expressed with the maximum number of gradations.
【0074】詳しくは、入力信号がほとんど静止画のよ
うな部分では、動き量(m)の値は「0」となり、図3
(b)〜図6(b)の使用可能な符号化出力(b)は同
図●印で示すように、入力信号(a’)のうち、256
種類すべての符号を使用する。すなわち静止画の場合
は、
入力(a’)=符号化出力(b)
となり、256階調を用いて画像表示を行う。Specifically, in a portion where the input signal is almost a still image, the value of the motion amount (m) becomes "0", and the value shown in FIG.
The usable coded output (b) in (b) to (b) of FIG. 6 is 256 of the input signal (a ′) as shown by the ● mark in the figure.
Use signs of all kinds. That is, in the case of a still image, input (a ′) = encoded output (b), and image display is performed using 256 gradations.
【0075】これに対して、画像の動きが大きく(mの
値が大きく)なるにつれ、使用可能な符号化出力の組は
減少する。動き量(m)の値は最大で「9」の値をと
り、この最大「9」のとき、符号化出力(b)として使
用可能な符号の数は、上記したように「0」、「1」、
「3」、「7」、「14」、「27」、「50」、「8
3」、「126」、「181」、および「255」の1
1種類である。これは、重み付けをW1(1)、W2
(2)、W3(4)、W4(7)、W5(13)、W6
(23)、W7(33)、W8(43)、W9(5
5)、W10(74)とすると、「0」、「W1」、
「W1+W2」、「W1+W2+W3」、...、「W
1+W2+W3+...+W10」の(10+1)種類
の信号レベルに限定することを意味する。そして、動き
量が小さくなるにつれて、W1、W2、...、WNの
組み合わせの数を増やして、表現できる階調数を増加さ
せる。On the other hand, as the motion of the image increases (the value of m increases), the set of usable coded outputs decreases. The maximum value of the motion amount (m) is "9", and when the maximum value is "9", the number of codes that can be used as the encoded output (b) is "0" or "0" as described above. 1 ",
"3", "7", "14", "27", "50", "8"
1 of 3 ”,“ 126 ”,“ 181 ”, and“ 255 ”
There is one type. This assigns weights W1 (1), W2
(2), W3 (4), W4 (7), W5 (13), W6
(23), W7 (33), W8 (43), W9 (5
5) and W10 (74), "0", "W1",
“W1 + W2”, “W1 + W2 + W3” ,. . . , "W
1 + W2 + W3 +. . . This means that the signal level is limited to (10 + 1) types of signal level of “+ W10”. Then, as the amount of movement decreases, W1, W2 ,. . . , WN is increased to increase the number of gray levels that can be expressed.
【0076】なお、入力信号(a’)に対する限定すべ
き値は、当該(a’)に近いレベルを選択する。例え
ば、「m=9」の場合を例にとると、「1〜2」の範囲
の信号レベルであれば「1」に、「3〜6」の範囲の信
号レベルは「3」に、「7〜13」の範囲の信号レベル
は「7」に、「14〜26」の範囲の信号レベルは「1
4」に、「27〜49」の範囲の信号レベルは「27」
に、「50〜82」の範囲の信号レベルは「50」に、
「83〜125」の範囲の信号レベルは「83」に、
「126〜180」の範囲の信号レベルは「126」
に、「181〜254」の範囲の信号レベルは「18
1」に、「255」の信号レベルは「255」に、限定
する。As the value to be limited for the input signal (a '), a level close to the (a') is selected. For example, in the case of “m = 9”, the signal level in the range of “1 to 2” is set to “1”, the signal level in the range of “3 to 6” is set to “3”, The signal level in the range of 7 to 13 "is" 7 ", and the signal level in the range of" 14 to 26 "is" 1 ".
4 ”, the signal level in the range of“ 27 to 49 ”is“ 27 ”
And the signal level in the range of "50-82" is "50",
The signal level in the range of "83-125" is "83",
The signal level in the range of “126 to 180” is “126”
In addition, the signal level in the range of "181 to 254" is "18
The signal level of "1" and "255" is limited to "255".
【0077】従って、例えば11種類の発光について
は、入力レベルが増大するにつれ、出力レベルの点灯さ
れるサブフィールドパターンが順次延伸していくように
なるため(図3(b)〜図6(b)の太線枠部)、入力
信号の大きさと発光パターンの関係の相関性が保証され
る。つまり、低い信号レベルでオンであったサブフィー
ルドは消えることなくそのままオンを保つので、サブフ
ィールドの点灯パターンの分布を信号レベルと相関をも
った単調な関係とすることができ、信号レベルが大きく
なると発光パルスの分布がほぼ単純に広がることにな
る。したがって、このような限定的な発光パターンのみ
を用いて画像を表示した場合、いわゆる動画表示の場合
に特有の動画疑似輪郭をなくすことができるのである。Therefore, for 11 kinds of light emission, for example, as the input level increases, the illuminated subfield pattern of the output level gradually extends (FIGS. 3B to 6B). ), The correlation between the magnitude of the input signal and the light emission pattern is guaranteed. In other words, since the subfield that was on at a low signal level does not disappear and remains on as it is, the distribution of the lighting pattern of the subfield can have a monotonic relationship that correlates with the signal level, and the signal level can be large. Then, the distribution of the light emission pulse spreads almost simply. Therefore, when an image is displayed using only such a limited light emission pattern, it is possible to eliminate a moving image pseudo contour peculiar to so-called moving image display.
【0078】このようなサブフィールドの点灯パターン
の分布と信号レベルとの単調な相関関係は、動き量mの
値が「1」〜「8」それぞれの値の場合にも概成立する
関係性であるが、動き量が小さくなるに従って信号レベ
ルの選択数が多いぶん若干事情を異にするようになり、
近接したレベルでの点灯パターンが時間的にやや劇的に
変化するようになる。このように動き量が小さい場合に
は、信号レベルの選択数を多くしているのは、動き量が
小さいほど輝度重みが大きなサブフィールドで点灯・非
点灯の変化が生じても疑似輪郭の発生にあまり寄与しな
いためである。The monotonic correlation between the distribution of the lighting patterns of the subfields and the signal level is a relationship that is substantially established even when the value of the motion amount m is "1" to "8". However, as the amount of movement decreases, the number of signal level selections increases, so things change slightly.
Lighting patterns at close levels will change slightly dramatically with time. When the amount of motion is small, the number of signal level selections is increased because the smaller the amount of motion, the greater the weighting of the luminance. This is because it does not contribute much to
【0079】ところで、このままでは動きが最も激しい
場合を例にとるとたかだか11階調で画像表示すること
になり、自然画像を表示するには階調数が明らかに不足
であり、疑似輪郭は解消できても本来の画像の再現性に
欠ける。この不具合を解消するために、前記構成の誤差
拡散部4によって誤差拡散処理を行う。つまり、入力レ
ベル(a’’)と、限定された符号化出力(b)を与え
る入力レベルとの差を誤差信号(c)として周辺画素に
フィードバックして平均誤差を小さくなるようにする。
具体的には、図13に示すように、現在表示中の画素P
に対して、誤差信号(c)を求め、これを周辺4画素す
なわち図13のA、B、CおよびDに分配する。分配の
係数は例えば誤差の7/16を画素Aに、誤差の1/1
6を画素Bに、誤差の5/16を画素Cに、そして誤差
の3/16を画素Dに分配する。分配された誤差は本来
の映像信号に誤差分を加算し、改めて符号化する。これ
を繰り返すことで、新たに発生した誤差は次々と周辺画
素に分配されることになり、表示輝度の平均的な値が入
力の平均輝度とほぼ一致し、階調不足を補うことができ
る。By the way, in this case, if the movement is the most intense, an image is displayed with at most 11 gradations, and the number of gradations is obviously insufficient for displaying a natural image, and the pseudo contour is eliminated. Even if it is possible, the original image reproducibility is lacking. In order to eliminate this inconvenience, the error diffusion unit 4 having the above-mentioned configuration performs an error diffusion process. That is, the difference between the input level (a ″) and the input level that gives the limited encoded output (b) is fed back to the peripheral pixels as the error signal (c) to reduce the average error.
Specifically, as shown in FIG. 13, the pixel P currently being displayed is displayed.
, An error signal (c) is obtained, and this is distributed to four peripheral pixels, that is, A, B, C and D in FIG. The distribution coefficient is, for example, 7/16 of the error to the pixel A and 1/1 of the error.
Distribute 6 to pixel B, 5/16 of the error to pixel C, and 3/16 of the error to pixel D. The distributed error is encoded again by adding the error component to the original video signal. By repeating this, newly generated errors are distributed to the peripheral pixels one after another, and the average value of the display brightness almost matches the average brightness of the input, and the lack of gradation can be compensated.
【0080】なお、動きの激しい部分では周辺画素に拡
散される誤差は大きく、当該拡散させた誤差がノイズと
して目立ってしまうと思われるが、実際には動きが激し
い部分では被写体に追従して視線が移動しているため
に、このような誤差拡散処理に伴ういわゆる拡散ノイズ
があまり気にならずに画像表示を行うことができる。It should be noted that the error diffused to the peripheral pixels is large in a portion having a lot of movement, and it is considered that the diffused error becomes conspicuous as noise. Is moved, so that so-called diffusion noise associated with such error diffusion processing can be displayed without much concern.
【0081】一方、静止画と判定される画像部分では、
ほぼ上記したように256階調表示が可能な符号化出力
(b)を選択することができるため、前記拡散ノイズが
観測されることはない。また、前記誤差拡散の処理は1
2ビットの演算精度であり、これは静止画領域でも行わ
れるので、その領域におけるみかけの階調を256階調
以上に増加できるという効果も期待できる。On the other hand, in the image portion determined to be a still image,
Since the encoded output (b) capable of displaying 256 gradations can be selected almost as described above, the diffusion noise is not observed. Further, the error diffusion process is 1
Since the calculation precision is 2 bits and this is also performed in the still image area, the effect that the apparent gradation in that area can be increased to 256 gradations or more can be expected.
【0082】[実施の形態2]図14は、本実施の形態
における画像表示装置での構成図であり、実施の形態1
の欄で述べた画像表示装置との相違点について説明す
る。当該画像表示装置は、実施の形態1の構成要素フィ
ルタ部1と,γ逆補正部2と、AD変換部1と、表示制
御部8と、PDP9とに加えて、第3符号化部101
と、第4符号化部102とを備えている。図1に示した
実施例1の画像表示装置と同一符号の構成要素は、それ
ぞれ同一機能であることを示す。[Second Embodiment] FIG. 14 is a block diagram of an image display device according to the present embodiment.
Differences from the image display device described in the section will be described. The image display device has a third encoding unit 101 in addition to the component filter unit 1, the γ inverse correction unit 2, the AD conversion unit 1, the display control unit 8, and the PDP 9 according to the first embodiment.
And a fourth encoding unit 102. The components having the same reference numerals as those of the image display device of the first embodiment shown in FIG. 1 have the same function.
【0083】第3符号化部101は、12ビットの下位
4ビットを除去した8ビット信号を生成するだけのもの
であり、ここでは上記したような第1符号化部が行った
ような動き量に応じた符号化は行わない。The third encoding unit 101 is only for generating an 8-bit signal with the lower 4 bits of 12 bits removed, and here, the amount of motion as performed by the first encoding unit as described above is used. Is not encoded.
【0084】第4符号化部102は、図15に示すよう
に、第3符号化部101にて12ビットの下位4ビット
を除去した8ビットで表される信号レベルを19のサブ
フィールド(サブフィールドSF1〜サブフィールドS
F19)からなるフィールド情報に変換する回路であ
る。ここでのサブフィールドの輝度重み付けは、この図
15から分かるように時間順に、16,16,16,1
6,16,16,16,16,16,16,16,1
6,16,16,16,8,4,2,1、となってお
り、先頭に位置する「輝度重み=16」である15のサ
ブフィールドからなる第1のサブフィールド群と、それ
以後に位置する4サブフィールドからなる第2のサブフ
ィールド群に分類することができる。そして、第2のサ
ブフィールド群の各サブフィールドが有する輝度重みの
合計が、第1のサブフィールド群に属するサブフィール
ドが有する最大の輝度重み(16)を超えない値(1
5)で、第1のサブフィールド群に属するサブフィール
ドの輝度重みでは表現できない値(ここでは、1〜1
5)を第2のサブフィールド群を組み合わせて表現でき
るようになっている。これにより第1のサブフィールド
群による発光と第2のサブフィールド群による発光を組
み合わせて、入力信号の値の変化に対し、合計の輝度重
みを不連続なく全階調に渡っての表現を可能とする。As shown in FIG. 15, the fourth encoding unit 102 sets the signal level represented by 8 bits obtained by removing the lower 4 bits of 12 bits in the third encoding unit 101 into 19 subfields (subfields). Field SF1 to subfield S
F19) is a circuit for converting into field information. The luminance weighting of the sub-fields here is 16, 16, 16, 1 in the order of time as can be seen from FIG.
6,16,16,16,16,16,16,16,1
No. 6,16,16,16,8,4,2,1 and the first subfield group consisting of 15 subfields with “luminance weight = 16” located at the beginning, and thereafter It can be classified into a second subfield group consisting of four subfields located. The sum of the brightness weights of the subfields of the second subfield group does not exceed the maximum brightness weight (16) of the subfields of the first subfield group (1).
5), a value that cannot be expressed by the brightness weights of the subfields belonging to the first subfield group (here, 1 to 1).
5) can be expressed by combining the second subfield group. This makes it possible to combine the light emission of the first sub-field group and the light emission of the second sub-field group to express the total luminance weight over the whole gradation without discontinuity with respect to the change in the value of the input signal. And
【0085】各信号レベルは「●」で記したような点灯
パターンからなるフィールド情報に変換される。このよ
うに変換された19ビットのフィールド情報を表示制御
部8によって上記したように制御しながらPDP9の画
像表示を行う。なお、「16〜255」のレベルでは、
SF16〜SF19を組み合わせて1〜15のレベルの
表示を行うのであるが、この点灯パターンは簡略化のた
め省略している。Each signal level is converted into field information consisting of a lighting pattern as indicated by "●". The 19-bit field information thus converted is displayed on the PDP 9 while being controlled by the display controller 8 as described above. In addition, in the level of "16-255",
Although SF16 to SF19 are combined to display the levels of 1 to 15, this lighting pattern is omitted for simplification.
【0086】図16は、上記画像表示装置におけるPD
P9の発光方式を説明する図である。なお、ここでも上
記実施例1と同様に1画面を2分割して上下同時にアド
レッシングを行う手法によって駆動させる。図16に示
すように、1TVフィールドの間には、初期化期間R1
〜R5が設けられており、パネルの電荷状態を初期化す
る。この初期化は全画面一斉消去に相当する。この後、
アドレス期間(記号Aにて表記)を用いて、発光させる
画素にのみ選択的に電圧を印加していわゆる壁電荷を形
成する。実際の発光は、表示期間D1〜D19で行われ
る。なお、図中D1〜D19の記載に添記したカッコ内
の数値は、前記輝度重みを表している(以下、同様)。FIG. 16 shows a PD in the image display device.
It is a figure explaining the light emission system of P9. In this case as well, as in the first embodiment, one screen is divided into two and driven by a method of simultaneously addressing vertically. As shown in FIG. 16, during one TV field, the initialization period R1
~ R5 are provided to initialize the charge state of the panel. This initialization corresponds to clearing all screens at once. After this,
By using the address period (denoted by symbol A), a voltage is selectively applied only to pixels to emit light to form so-called wall charges. The actual light emission is performed in the display periods D1 to D19. In addition, the numerical value in the parentheses added to the description of D1 to D19 in the drawing represents the brightness weight (hereinafter, the same).
【0087】このようにここでは、消去に相当する初期
化がR1〜R5の5回しか行われない。つまり、サブフ
ィールドSF1〜サブフィールドSF15の第1のサブ
フィールド群の間では、サブフィールドSF1のアドレ
ス期間の前にだけ初期化期間R1が設けられており、サ
ブフィールドSF2〜SF15のアドレス期間の前には
初期化期間は設けられていない。従って、一旦発光が開
始された画素については、壁電荷が保持されたままとな
り、サブフィールドSF15終了後の初期化期間R2直
前まで引き続き発光することになる。一方、後方の輝度
重みが小さい4サブフィールドからなる第2のサブフィ
ールド群については、各アドレス期間に先行して初期化
期間R2〜R5が設けられており、従来の駆動と同様、
各サブフィールドの発光の開始および発光の停止をそれ
ぞれ独立に制御する。As described above, in this case, the initialization corresponding to the erasing is performed only 5 times of R1 to R5. That is, the initialization period R1 is provided only before the address period of the subfield SF1 between the first subfield group of the subfields SF1 to SF15, and before the address period of the subfields SF2 to SF15. Has no initialization period. Therefore, with respect to the pixel whose light emission has started once, the wall charge remains held, and light is continuously emitted until immediately before the initialization period R2 after the end of the subfield SF15. On the other hand, for the second sub-field group consisting of four sub-fields having a small luminance weight on the rear side, the initialization periods R2 to R5 are provided prior to each address period, like the conventional driving.
The start and stop of light emission of each subfield are independently controlled.
【0088】このような符号化及び駆動方法により、入
力信号の値が大きいほど先頭のサブフィールド位置で発
光が開始することになり、しかも入力信号の値が大にな
るにつれて発光するサブフィールドが前方に延伸してい
くような符号化となる(図15中矢印Y1)。つまり、
上記したように入力信号の大きさと発光パターンの関係
の相関性が保証されるため、いわゆる動画表示の場合に
特有の動画疑似輪郭をなくすことができる。With such an encoding and driving method, the larger the value of the input signal, the light emission starts at the head subfield position, and the subfield that emits light as the value of the input signal becomes forward. The encoding is such that the data is extended to (see arrow Y1 in FIG. 15). That is,
As described above, since the correlation between the magnitude of the input signal and the light emission pattern is guaranteed, it is possible to eliminate a moving image pseudo contour peculiar to so-called moving image display.
【0089】なお、輝度重みが小さいSF16〜SF1
9では、点灯・非点灯の分布がある程度不規則的に変化
しているが、輝度が小さいので動画疑似輪郭の発生への
影響は無視できるほど小さい。It should be noted that SF16 to SF1 having small luminance weights
In No. 9, the distribution of lighting / non-lighting changes irregularly to some extent, but since the luminance is small, the influence on the generation of the moving image pseudo contour is negligible.
【0090】また、本実施の形態によれば、全体のサブ
フィールド数が19であるにも関わらず、発光の停止の
制御に要する初期化期間が1TVフィールド期間で5回
のみであり、従来、初期化に要していた時間を大幅に短
縮することができる。従って、このように全体のサブフ
ィールド数を従来よりも増やすことができるのである。Further, according to the present embodiment, although the total number of subfields is 19, the initialization period required for controlling the stop of light emission is only 5 times in one TV field period, The time required for initialization can be greatly reduced. Therefore, the total number of subfields can be increased in this way as compared with the conventional case.
【0091】ここで、ライン数が480本のPDPを2
ライン同時駆動する場合を例にとると、一回の初期化期
間が300us、1ライン当たりのアドレス期間を2u
sとすれば、1TVフィールドの間の表示期間は、(1
/60)×1000000us−(300usx5+2
usx240x19)=6000usとなる。表示期間
での一回の発光パルスの周期を5usとすると6000
us/5us=1200回となり、十分な輝度を確保し
て発光させることが可能になる。Here, 2 PDPs with 480 lines are used.
Taking the case of line simultaneous driving as an example, one initialization period is 300 us, and an address period per line is 2 u.
If s, the display period for one TV field is (1
/ 60) × 1000000us- (300usx5 + 2
usx240x19) = 6000us. If the period of one light emission pulse in the display period is 5us, then 6000
It becomes us / 5us = 1200 times, and it becomes possible to emit light while ensuring sufficient brightness.
【0092】[実施の形態3]本実施の形態における多
階調表示可能な画像表示装置は、実施の形態2の画像表
示装置と駆動方法を異にする以外は同様の構成であるの
で、相違点につき説明する。[Third Embodiment] The image display device capable of multi-gradation display according to the present embodiment has the same structure as the image display device according to the second embodiment except that the driving method is different. I will explain the points.
【0093】第4符号化部102では、ここでも、8ビ
ット信号を19のサブフィールド(サブフィールドSF
1〜サブフィールドSF19)からなるフィールド情報
に変換する回路である。ここでのサブフィールドの輝度
重み付けは、この図17から分かるように時間順に、
1、2、4、8、16,16,16,16,16,1
6,16,16,16,16,16,16,16,1
6,16,となっており、先頭に位置する「輝度重み=
1,2,4,8」である4のサブフィールドからなる第
2のサブフィールド群と、それ以後に位置する輝度重み
「16」の15のサブフィールドからなる第1のサブフ
ィールド群に分類することができる。つまり、実施例2
の場合とは第1のサブフィールド群と第2のサブフィー
ルド群との配置が入れ代わっている。そして、各信号レ
ベルを「●」で記したような点灯パターンからなるフィ
ールド情報に変換する。なお、SF1〜SF4の点灯パ
ターンの記載は簡略化のため省略している。In the fourth encoding unit 102, the 8-bit signal is again used in 19 subfields (subfield SF
It is a circuit for converting into field information consisting of 1 to subfield SF19). The luminance weighting of the sub-fields here is, in order of time, as can be seen from FIG.
1,2,4,8,16,16,16,16,16,1
6,16,16,16,16,16,16,16,1
6 and 16, which are located at the beginning of "luminance weight =
It is classified into a second subfield group consisting of 4 subfields of 1, 2, 4, 8 "and a first subfield group consisting of 15 subfields of a luminance weight" 16 "located thereafter. be able to. That is, Example 2
The arrangement of the first subfield group and the second subfield group is interchanged with the case of. Then, each signal level is converted into field information composed of a lighting pattern as indicated by "●". The description of the lighting patterns of SF1 to SF4 is omitted for simplification.
【0094】図18は、上記画像表示装置におけるPD
P9の発光方式を説明する図である。この図18に示す
ように、1TVフィールドの間には、初期化期間R1〜
R5が設けられており、パネルの電荷状態を初期化す
る。この初期化のうちでR1〜R4で示す期間では面一
斉消去を行い、R5で示す期間では全画面一斉書込みを
行う。第2のサブフィールド群におけるアドレス期間
(Aで表記)においては、従来と同様に発光させる画素
にのみ選択的に電圧を印加していわゆる壁電荷を形成す
るが、第1のサブフィールド群におけるアドレス期間
(A)においては、消灯すべき画素に選択的に電圧を印
加して発光の必要のない画素部分に消灯のための情報を
書き込む。通常、表示させる画素にはアドレスパルスを
印加して電荷形成を行うが、ここではその逆で予め全画
素を表示させるものとして全画素にパルスを印加して電
荷形成しておき、表示させない画素について選択的に放
電させることで電荷を除去するという手法である。な
お、このようなアドレッシング方法については、特開平
6−186929号公報に詳細に記載されている。FIG. 18 shows the PD in the image display device.
It is a figure explaining the light emission system of P9. As shown in FIG. 18, during one TV field, the initialization period R1 to
R5 is provided to initialize the charge state of the panel. In this initialization, the area simultaneous erasing is performed during the period indicated by R1 to R4, and the entire screen simultaneous writing is performed during the period indicated by R5. In the address period (denoted by A) in the second subfield group, a voltage is selectively applied to only the pixels to emit light to form so-called wall charges as in the conventional case. In the period (A), a voltage is selectively applied to the pixels to be extinguished, and the information for extinguishing the pixels is written to the pixel portions that do not need to emit light. Normally, an address pulse is applied to the pixels to be displayed to form charges, but the reverse is the case where all the pixels are displayed in advance by applying a pulse to all the pixels to form the charges, and the pixels not to be displayed This is a method of removing charges by selectively discharging. Incidentally, such an addressing method is described in detail in JP-A-6-186929.
【0095】このように駆動させることによって、必要
な初期化期間については、画面全面消去のための初期化
が4回(R1,R2,R3,R4)と、全画面一斉書き
込みのための初期化が1回(R5)の合計で5回のみで
あり、従来、初期化に要していた時間を大幅に短縮する
ことにより、実施例2で述べたように入力信号の値が大
になるにつれて発光するサブフィールドが時間方向後方
に延伸していくような符号化となる(図17中矢印Y
2)。つまり、入力信号の大きさと発光パターンの関係
の相関性が保証されるため、動画疑似輪郭の発生を抑え
ることができる。By driving in this way, in the necessary initialization period, initialization for erasing the entire screen is performed four times (R1, R2, R3, R4) and initialization for simultaneous writing of the entire screen. Is only 5 times in total (R5), and by significantly shortening the time conventionally required for initialization, as the value of the input signal becomes large as described in the second embodiment. The encoding is such that the subfield that emits light extends backward in the time direction (arrow Y in FIG. 17).
2). That is, since the correlation between the magnitude of the input signal and the light emission pattern is guaranteed, it is possible to suppress the generation of the pseudo contour of the moving image.
【0096】[実施の形態4]以下本実施の形態に係る
画像評価装置について詳細に説明する。本実施の形態で
はパルス状の発光を伴う画像表示装置としてPDPなど
で用いられているサブフィールド駆動方法により表示さ
れる画像を想定して画像評価を行う。なお、本実施の形
態における画像評価装置は、詳しくは図示しないが、市
販のパソコンによって構成されるもので、一般的なコン
ピュータシステムのハードウェア構成、即ち、CPU、
メモリ(RAM,ROM)、キーボード、ハードディス
ク、表示モニタによって構成される。ハードディスク装
置内に本発明に固有の画像評価プログラムを格納し、そ
のプログラムをCPUが実行する点において一般的なコ
ンピュータシステムとは異なる。[Fourth Embodiment] An image evaluation apparatus according to the present embodiment will be described in detail below. In the present embodiment, image evaluation is performed on the assumption of an image displayed by a subfield driving method used in a PDP or the like as an image display device with pulsed light emission. Although not shown in detail, the image evaluation apparatus according to the present embodiment is composed of a commercially available personal computer, and the hardware configuration of a general computer system, that is, a CPU,
It is composed of a memory (RAM, ROM), a keyboard, a hard disk, and a display monitor. It differs from a general computer system in that an image evaluation program unique to the present invention is stored in a hard disk device, and the CPU executes the program.
【0097】図19は、PDPなどのようなパルス状の
発光を伴う画像表示装置の動画表示を行った場合の画質
の評価を、シミュレーションによって行う本実施の形態
に係る画像評価装置の機能を示す機能ブロック図であ
る。FIG. 19 shows the function of the image evaluation apparatus according to the present embodiment, which performs a simulation to evaluate the image quality when a moving image display of an image display apparatus with pulsed light emission such as a PDP is performed. It is a functional block diagram.
【0098】この図に示すように本画像評価装置は、1
TVフィールドを前記したように複数のサブフィールド
に分割する情報を設定するサブフィールド情報設定部2
01と、設定されたサブフィールド情報に基づき入力画
像の信号値を1ビットの時系列信号であるサブフィール
ド信号に変換するサブフィールド符号化部202と、前
記サブフィールド符号化部202により仮想的に表示さ
れる仮想映像上において一の画素を基準点と設定する基
準点設定部203と、入力された動きベクトル(ここで
は、単位時間当たりの特定画像の動き量及び方向を表す
ベクトル)から画面上の所定期間内の画像の動きを追う
視線の動きを想定する経路算出部204と、上記サブフ
ィールド情報設定部201で設定されたサブフィールド
の順序および輝度重みから各発光パルスの発生する時刻
を算出する発光パルス時刻算出部205と、各発光パル
スの発生時刻および算出した経路から発光パルスが印加
される時に視線がある位置、つまりパルス発光がある時
に画面上での視線の位置を算出する視線位置算出部20
6と、サブフィールド信号に変換された画像信号のうち
視線が通過する経路近傍の画素を視線位置算出部206
の出力に基づき選択する近傍画素選択部207と、近傍
画素選択部207により選択された経路近傍画素に対す
る演算係数を算出する近傍画素係数算出部208と、近
傍画素係数算出部208により求めた係数を近傍画素選
択部207によって選択した画素の発光量に乗じる処理
を行う係数乗算部209と、係数乗算部209で求めた
値を1TVフィールドに渡って積算する発光量積算部2
10とからなる。発光量積算部10にて求めた1TVフ
ィールド時間内の発光量の積算値を評価画像として出力
する。As shown in this figure, the image evaluation device is
A subfield information setting unit 2 for setting information for dividing the TV field into a plurality of subfields as described above.
01, a subfield coding unit 202 that converts a signal value of an input image into a subfield signal that is a 1-bit time series signal based on set subfield information, and virtually by the subfield coding unit 202. On the screen from the reference point setting unit 203 that sets one pixel as a reference point on the displayed virtual image, and the input motion vector (here, a vector indicating the amount and direction of movement of a specific image per unit time). The route calculation unit 204 that assumes the movement of the line of sight that follows the movement of the image within the predetermined period of time, and the time at which each light emission pulse is generated is calculated from the subfield order and the luminance weight set by the subfield information setting unit 201. The light emission pulse time calculation unit 205 that generates light and the line of sight when the light emission pulse is applied from the generation time of each light emission pulse and the calculated route. That position, that is line-of-sight position calculating unit 20 for calculating the position of the line of sight on the screen when there is a pulse emission
6 and pixels near the path through which the line of sight of the image signal converted into the subfield signal passes.
Based on the output of the neighboring pixel selecting unit 207, the neighboring pixel coefficient calculating unit 208 for calculating the calculation coefficient for the route neighboring pixel selected by the neighboring pixel selecting unit 207, the coefficient obtained by the neighboring pixel coefficient calculating unit 208 A coefficient multiplication unit 209 that performs a process of multiplying the light emission amount of the pixel selected by the neighboring pixel selection unit 207, and a light emission amount integration unit 2 that integrates the value obtained by the coefficient multiplication unit 209 over one TV field.
It consists of 10. The integrated value of the light emission amount within one TV field time obtained by the light emission amount integration unit 10 is output as an evaluation image.
【0099】前記サブフィールド情報設定部201は、
説明を簡略化するためにここでは、図20に示すように
各サブフィールドの輝度重みに応じて、例えば、第1サ
ブフィールドでは1回、第2サブフィールドでは2回、
第3サブフィールドでは4回、第4サブフィールドでは
8回、第5サブフィールドでは16回、第6サブフィー
ルドでは32回、第7サブフィールドでは64回、第8
サブフィールドでは128回と合計255回のパルス状
発光がなされるものとのサブフィールド情報を設定す
る。The subfield information setting unit 201
In order to simplify the description, here, for example, once in the first subfield and twice in the second subfield according to the luminance weight of each subfield, as shown in FIG.
4 times in the 3rd subfield, 8 times in the 4th subfield, 16 times in the 5th subfield, 32 times in the 6th subfield, 64 times in the 7th subfield, 8th
In the subfield, subfield information of 128 times and a total of 255 times of pulsed light emission is set.
【0100】サブフィールド符号化部202では、入力
映像信号を設定されたサブフィールド情報に基づく符号
化を行う。この符号化は、入力映像信号の信号レベルと
サブフィールドの組み合わせの対応を示した上記したよ
うなテーブル(図3(a)〜図6(a)に相当する表)
に則って行う。The subfield coding section 202 codes the input video signal based on the set subfield information. This encoding is performed by the table (corresponding to FIGS. 3A to 6A) showing the correspondence between the signal level of the input video signal and the combination of subfields.
According to.
【0101】図21は、本実施の形態の画像評価装置の
画像評価方法を視覚化した概念図であり、一つ一つの四
辺形が表示画面の1画素を表している。FIG. 21 is a conceptual diagram visualizing the image evaluation method of the image evaluation apparatus of this embodiment, in which each quadrangle represents one pixel on the display screen.
【0102】経路算出部204では、まず、基準点設定
部203で設定された画素位置(図中Pの四辺形で表さ
れる画素)を基点とし、この画素P上の所定の位置(こ
こでは、画素の左上の点P’)を原点としたX−Y座標
系を組む。そして、このX−Y座標系で表された動きベ
クトル(Vx,VY)から1TVフィールドにおける視線
の動く経路Kを想定する。図21では、1TVフィール
ド当たり右方に4画素、下方に3画素である例(画素P
から画素Qに到る経路)を示している。なお、ここで
は、画像の動きとそれを追う視線の動きとの間には強い
相関があるという前提に立ち、視線経路を画像の動きベ
クトルから算出している。In the route calculation unit 204, first, a pixel position (a pixel represented by a quadrangle P in the drawing) set by the reference point setting unit 203 is used as a base point, and a predetermined position on this pixel P (here , The upper left point P ′ of the pixel is the origin, and an XY coordinate system is formed. Then, from the motion vector (Vx, VY) represented by this XY coordinate system, a path K of the line of sight in one TV field is assumed. In FIG. 21, one TV field has four pixels on the right side and three pixels on the lower side (pixel P
From the pixel to the pixel Q). Note that, here, the line-of-sight path is calculated from the motion vector of the image on the assumption that there is a strong correlation between the motion of the image and the motion of the line of sight following the motion.
【0103】発光パルス時刻算出部205では、初期化
に要する時間、アドレッシングに要する時間、更には、
次のパルス発光までの時間等は既知であるからこれを基
に、それぞれのパルス発光が行われる時刻を算出する。
なお、画素Pの初期化開始の時点を基準時刻にして計時
し、1回のパルス発光が行われる時間は、1点に近似し
ている。In the light emission pulse time calculating section 205, the time required for initialization, the time required for addressing, and
Since the time until the next pulse emission is known, the time at which each pulse emission is performed is calculated based on this.
The time when the initialization of the pixel P is started is set as the reference time and one pulse emission is performed, and the time is approximate to one point.
【0104】視線位置算出部206では、発光パルス時
刻算出部205で求めた発光パルス時刻と単位時間当た
りの画像の動きを表す動きベクトル(Vx,VY)とから
パルス発光がある時の前記経路K上の視線位置を演算に
より求める。The line-of-sight position calculation unit 206 uses the light emission pulse time calculated by the light emission pulse time calculation unit 205 and the motion vector (Vx, VY) representing the motion of the image per unit time to generate the pulse K when there is pulse light emission. The upper line-of-sight position is calculated.
【0105】近傍画素選択部207では、前記視線位置
算出部206で求めた視線位置を含む所定の領域を想定
し、ここでは画像表示装置の1画素と同じ面積をもった
領域、例えば表示装置の表示画素と同一形状の四辺形領
域を想定し、この領域に属しパルス発光が行われる画素
を視線の画面位置における近傍画素として選択する。例
えば、図中座標Ki(x,y)で表される位置における
近傍画素としてはこれを角とした1画素相当の領域に含
まれる画素R1〜R4を選択する。The neighboring pixel selection unit 207 assumes a predetermined region including the line-of-sight position calculated by the line-of-sight position calculation unit 206, and here, a region having the same area as one pixel of the image display device, for example, the display device. A quadrilateral region having the same shape as the display pixel is assumed, and pixels belonging to this region and performing pulsed light emission are selected as neighboring pixels at the screen position of the line of sight. For example, the pixels R1 to R4 included in a region corresponding to one pixel with the corner being the corner are selected as the neighboring pixels at the position represented by the coordinates Ki (x, y) in the figure.
【0106】近傍画素係数算出部208では、前記四辺
形領域に含まれる各々の画素の面積比率を、近傍画素係
数として算出する。The neighboring pixel coefficient calculation unit 208 calculates the area ratio of each pixel included in the quadrilateral region as a neighboring pixel coefficient.
【0107】係数乗算部209では、近傍画素係数算出
部208により求めた係数を近傍画素選択部207によ
って選択した画素の発光量に重み付けとして乗じる処理
を行うのだが、1回のパルス発光により得られる発光量
に前記係数を乗じた値を近傍画素について加算した値を
図中座標Ki(x,y)で表される視線位置における評
価値を求める。In the coefficient multiplying unit 209, the coefficient calculated by the neighboring pixel coefficient calculating unit 208 is multiplied by the light emission amount of the pixel selected by the neighboring pixel selecting unit 207 as a weight, but it is obtained by one pulse light emission. The evaluation value at the line-of-sight position represented by the coordinates Ki (x, y) in the figure is obtained by adding the value obtained by multiplying the light emission amount by the coefficient for the neighboring pixels.
【0108】このような視線近傍の画素の発光をも考慮
した評価によれば、より実際に近い評価画像を得ること
が可能となる。つまり、静止画像に対する視力と比較し
動く物体に対する視力は低下するという、動画像に対す
る視力低下の現象(いわゆる動体視力の効果)を反映さ
せられるからである。According to the evaluation in consideration of the light emission of the pixels in the vicinity of the line of sight, it is possible to obtain an evaluation image that is closer to the actual condition. That is, it is possible to reflect a phenomenon in which the visual acuity of a moving object is lower than the visual acuity of a still image, that is, a phenomenon of visual acuity of a moving image (so-called dynamic visual acuity).
【0109】発光量積算部210では、このようにして
求めた評価値を経路終端画素Q’で表される位置まで積
算することによって、1TVフィールドにおける基準点
Pにおいて観測される発光量を求める。経路終端Q’と
は、経路終端の画素の左上角の位置である。そして、こ
の一の画素における評価が完了すると、前記基準点改め
て設定し、上記した同様の処理を行う。これを、前画素
について繰り返すことで1フレーム(1TVフィール
ド)分の評価画像を得る。The light emission amount integrating unit 210 obtains the light emission amount observed at the reference point P in one TV field by integrating the evaluation values thus obtained up to the position represented by the route end pixel Q '. The route end Q ′ is the position of the upper left corner of the pixel at the route end. Then, when the evaluation of this one pixel is completed, the reference point is set again and the same processing as described above is performed. By repeating this for the previous pixel, an evaluation image for one frame (1 TV field) is obtained.
【0110】次に、このような構成の画像評価装置の動
作の一例について図22〜図24に示すフローチャート
を基に説明する。Next, an example of the operation of the image evaluation apparatus having such a configuration will be described based on the flowcharts shown in FIGS.
【0111】まず、評価しようとする画像の入力がなさ
れるのを待ち、入力がなされれば(ステップS1でYe
s)、サブフィールドの点灯情報を作成しハードディス
クに格納する(ステップS2)。このサブフィールド点
灯情報は、図25に示すデータ構造で各画素と対応させ
てある(この図25は、データ構造を例示するものであ
る。)。同時に、各画素の動きベクトルMVも対応づけ
て格納される。この表でP(1,1)〜P(n,m)の添え字
は、実際に表示させる画面と対応させた評価画像の画素
位置を水平、垂直方向の位置で表わしたものである。な
お、サブフィールド点灯情報のソースは、予め評価者に
より設定され、上述した図3(a)〜図6(a)に相当
するテーブルとしてメモリ若しくはハードディスクに書
き込まれている。First, waiting for the input of the image to be evaluated, and if the input is made (Yes in step S1)
s), lighting information of the subfield is created and stored in the hard disk (step S2). This subfield lighting information is associated with each pixel in the data structure shown in FIG. 25 (this FIG. 25 exemplifies the data structure). At the same time, the motion vector MV of each pixel is also stored in association with each other. In this table, the subscripts P (1,1) to P (n, m) represent the pixel positions of the evaluation image corresponding to the screen to be actually displayed in the horizontal and vertical positions. The source of the subfield lighting information is set in advance by the evaluator and written in the memory or the hard disk as a table corresponding to the above-described FIG. 3A to FIG. 6A.
【0112】次に、評価しようとする画素を基準点(l
は、基準点の数を表す、l=1〜lmaxの数)として
設定する(ステップS3)。この設定は、評価者のキー
ボードから入力に基づき行われる。勿論予め全画素を基
準点として設定するようにしても構わない。Next, the pixel to be evaluated is set to the reference point (l
Is set as the number of reference points (the number of l = 1 to lmax) (step S3). This setting is performed based on the input from the evaluator's keyboard. Of course, all pixels may be set in advance as reference points.
【0113】そして、ステップS4でl=「1」に設定
し、以下の処理(ステップS5〜ステップS12)を基
準点毎に実行してゆくことになる。ステップS5で上記
したように基準点Pl(l=1)の左上角原点とするX
−Y座標系を組み(図21)、各画素の位置をこの座標
系に変換する。Then, in step S4, l = “1” is set, and the following processing (steps S5 to S12) is executed for each reference point. As described above in step S5, X, which is the origin of the upper left corner of the reference point Pl (l = 1), is set.
-Y coordinate system is set (FIG. 21), and the position of each pixel is converted into this coordinate system.
【0114】そして、画素Pl(l=1)の動きベクト
ルMVを読み出し、この動きベクトルMVから1TVフ
ィールド間の視線経路K及びこの経路終点Ql(l=
1,図21)を算出する(ステップS6)。Then, the motion vector MV of the pixel Pl (l = 1) is read out, and the line-of-sight path K between this motion vector MV and one TV field and this path end point Ql (l =
1, FIG. 21) is calculated (step S6).
【0115】こんどは、各パルス発光時刻ti(i=1,
2・・・,255)における視線位置Ki(図21)を
算出する(ステップS7)。At this time, each pulse emission time ti (i = 1, 1)
2 ..., 255) is calculated (step S7).
【0116】ステップS8でi=「1」に設定し(ステ
ップS8)、視線位置Ki(i=1)を中心とした1画
素分の評価領域を設定する(ステップS9)。In step S8, i = “1” is set (step S8), and an evaluation area for one pixel centered on the line-of-sight position Ki (i = 1) is set (step S9).
【0117】図26は、発光時刻tiとサブフィールド
SFとの対応を示したテーブルで、ハードディスクに格
納されている。FIG. 26 is a table showing the correspondence between the emission time ti and the subfield SF, which is stored in the hard disk.
【0118】ここで時刻ti(i=1)において、この領
域に入る画素は発光するのかどうかを図26及び図25
とを用いて判定する(ステップS10)。具体的には、
図26で当該時刻tiがどのサブフィールドSFに属す
るのか検索し、図25でこの検索したサブフィールドS
Fsは評価領域内の画素で点灯されるのかを調べる。点
灯されるのであれば、図25中に点灯(図中●で表記)
という情報が書き込まれている。なお、X−Y座標系で
表される画素の位置から平行移動した座標が原画像での
画素の位置となる。また、図26の内容は、1TVフィ
ールドをどのような輝度重みに分割するのかを表す新た
なサブフィールド点灯情報のソースが設定されるごとに
随時更新され、図25の内容は、設定されたサブフィー
ルド点灯情報のソースに基づき生成されるものであるの
で、サブフィールド点灯情報のソースが更新されるとこ
の内容も変更される。Here, at time ti (i = 1), it is determined whether or not the pixels in this area emit light.
And are used to make a determination (step S10). In particular,
In FIG. 26, the subfield SF to which the time ti belongs is searched, and the searched subfield S in FIG. 25 is searched.
It is checked whether Fs is turned on by a pixel in the evaluation area. If it is turned on, it is turned on in FIG. 25 (denoted by ● in the figure)
The information is written. It should be noted that the coordinates translated from the pixel position represented by the XY coordinate system are the pixel positions in the original image. Further, the contents of FIG. 26 are updated whenever a source of new subfield lighting information indicating what luminance weight is used to divide one TV field is set, and the contents of FIG. 25 are set. Since it is generated based on the source of the field lighting information, this content is also changed when the source of the subfield lighting information is updated.
【0119】そして、発光が行われるのであれば(ステ
ップS10でYES)、当該発光する画素の領域内面積比
率を全領域面積を1として各発光画素について算出する
(ステップS11)。次いで、1回のパルス発光で得ら
れる光量に当該面積比率を乗じたものを、加算して視線
位置Ki(i=1)における光量Ai(i=1)として算出
する(ステップS12)。なお、視線位置Ki(i=1)
における光量の算出における演算係数に領域内の面積比
率を用いると、領域の面積が1画素を超える場合で、実
際には領域内に1画素全部入っているような場合でもそ
の1画素の全光量が考慮されないことになる。しかし、
評価領域が大きくなるにつれて、より広い範囲での周辺
の画素の発光の影響を考慮することになり、評価精度が
落ちてくると思われる。従って、このように近傍画素の
演算係数を小さく設定して周辺の画素の発光の影響をよ
り少なくするよう処理することで、評価精度を評価領域
面積がより小さい場合と同程度に維持するという効果が
期待できる。If light emission is to be performed (YES in step S10), the area ratio in the area of the pixel to emit light is calculated for each light emitting pixel with the total area area being 1 (step S11). Next, the light amount obtained by one pulse emission is multiplied by the area ratio, and the result is added to calculate the light amount Ai (i = 1) at the line-of-sight position Ki (i = 1) (step S12). Note that the line-of-sight position Ki (i = 1)
When the area ratio in the region is used as the calculation coefficient in the calculation of the light amount in, when the area of the region exceeds 1 pixel and even if all the pixels in the region actually exist, the total light amount of the 1 pixel Will not be considered. But,
As the evaluation area becomes larger, it is considered that the influence of the light emission of the peripheral pixels in a wider range is taken into consideration, and the evaluation accuracy decreases. Therefore, by setting the calculation coefficient of the neighboring pixels to be small in this way and processing to reduce the influence of light emission of the peripheral pixels, the evaluation accuracy can be maintained at the same level as when the evaluation area area is smaller. Can be expected.
【0120】このような処理を時刻t1以降の発光時刻
発光時刻t2〜t255までインクリメントしながら(ステ
ップS14)行う(ステップS13でi=imax(25
5)かどうかで判断)。Such processing is performed while incrementing the light emission time from the time t1 to the light emission time t2 to t255 (step S14) (i = imax (25 in step S13).
5) Determined by whether or not).
【0121】一方、ステップS10でNOであれば、評
価領域内の画素は発光しないので当該視線位置Ki(i=
1)での光量の計算は行わず、インクリメントして(ス
テップS14)次の発光時刻t2について上記同様の処
理を行う。On the other hand, if NO in step S10, the pixels in the evaluation area do not emit light, so that the line-of-sight position Ki (i =
The light amount is not calculated in 1), but is incremented (step S14) and the same process as above is performed for the next light emission time t2.
【0122】このようにして求めた考量Aiを積算して
基準点Pl(l=1)における観測光量とする(ステッ
プS15)。設定した基準点全てについて観測光量を算
出したかどうかをl=lmaxかどうかで判断し(ステッ
プS16)、ステップS16でNoであれば、インクリ
メントし(ステップS17)、再度ステップS5に戻っ
て上記同様に観測光量を算出する。The consideration amount Ai thus obtained is integrated to obtain the observed light amount at the reference point Pl (l = 1) (step S15). It is determined whether or not the observed light amount has been calculated for all the set reference points based on whether l = 1lmax (step S16), and if No in step S16, it is incremented (step S17) and returns to step S5 again and the same as above. Calculate the observed light intensity.
【0123】全基準点について算出しておれば(ステッ
プS16でYES)、該当する画素の積算光量を、本来の
信号レベルと置き換えて合成した画像をコンピュータシ
ステムのディスプレイに表示する(ステップS18)。
表示結果を評価者が観察し、当該画像の良否を判定する
ことになる。If all reference points have been calculated (YES in step S16), the integrated light amount of the corresponding pixel is replaced with the original signal level, and the synthesized image is displayed on the display of the computer system (step S18).
The evaluator observes the display result and judges the quality of the image.
【0124】なお、上記動作では、ステップS2で全画
素について予めサブフィールド点灯情報を生成していた
が、この処理は、実際に各視線位置での光量を積算しよ
うとする際に行うこともできる。つまり、ステップS9
で評価領域を設定したらその領域に入る画素が判明し、
視線位置の光量に寄与する画素が決定される。この段階
で、当該画素のサブフィールド点灯情報を生成して該当
するサブフィールドが発光するのかを調べることもでき
る。In the above operation, the subfield lighting information is generated in advance for all the pixels in step S2, but this processing can also be performed when actually trying to integrate the light amount at each line-of-sight position. . That is, step S9
After setting the evaluation area with, the pixels that enter that area are found,
Pixels that contribute to the amount of light at the line-of-sight position are determined. At this stage, it is also possible to generate subfield lighting information of the pixel and check whether the corresponding subfield emits light.
【0125】以上述べたように、本実施の形態によれ
ば、視線が通過する経路上の画素1画素だけでなく、視
線が通過する経路の近傍の複数の画素からの発光につい
ても所定の演算を施す等の考慮を行っているため、想定
した画像の動きがわずかに変化しただけで、評価結果の
画像が大きく変動してしまうという不安定さが解消さ
れ、しかも視線の動きを水平、垂直および斜め方向等任
意に設定できるので、実際に観測者がみる画像を反映し
安定した画像評価が可能になる。As described above, according to the present embodiment, not only one pixel on the path through which the line of sight passes, but also a predetermined calculation is performed with respect to light emission from a plurality of pixels near the path through which the line of sight passes. Since inconsistencies such as subjecting the image to the evaluation are changed, the instability that the image of the evaluation result fluctuates significantly even if the image moves slightly is eliminated. Since it can be set arbitrarily, such as in the oblique direction, the image actually viewed by the observer can be reflected to enable stable image evaluation.
【0126】また、動きベクトルの大きさが0(零)の
ときは、元の画像と完全に一致することになり、静止画
では画質劣化が発生しないという評価が得られる。これ
は静止画を実際に観測した場合の画質と一致する。Further, when the magnitude of the motion vector is 0 (zero), it completely matches the original image, and it can be obtained that the image quality does not deteriorate in the still image. This matches the image quality when actually observing a still image.
【0127】更に、上記画像評価装置によれば、動画像
を観測する装置としてCCDカメラのような画素を有し
たカメラにて画面上の動画像を追従して撮影し得られる
画像と等価な画像を計算によって求めることができる。
しかし、CCDカメラにより画像評価を試みる場合、C
CDカメラを画像の動きに合わせて高速に繰り返し走査
しなければならないので、実際には再現よく評価を行う
のは困難である。その点、本実施の形態の画像評価装置
のシミュレーションによれば、再現よく信頼性の高い評
価を行うことができる。Further, according to the image evaluation apparatus, an image equivalent to an image obtained by following the moving image on the screen with a camera having pixels such as a CCD camera as a device for observing the moving image. Can be calculated.
However, when trying to evaluate the image with a CCD camera, C
Since the CD camera must be repeatedly scanned at high speed in accordance with the movement of the image, it is actually difficult to perform reproducible evaluation. In that respect, according to the simulation of the image evaluation apparatus of the present embodiment, it is possible to perform evaluation with good reproducibility and high reliability.
【0128】[その他の事項]
(1) 上記実施の形態1では動き量を10段階に検出
したがより単純には、静止画か動画か2値的にのみ検出
し、動画の場合に数種類の信号レベルに限定的に出力
し、静止画の場合には、入力信号をそのまま出力させる
こともできる。また、動き量を激しい・中程度・なしと
いった3段階に検出し、それに基づき符号化を上記した
ように工夫することもできる。[Other Matters] (1) In the first embodiment, the amount of motion is detected in 10 steps, but more simply, it detects only a still image or a moving image or only in a binary manner. The output can be limited to the signal level, and in the case of a still image, the input signal can be output as it is. It is also possible to detect the amount of motion in three stages such as vigorous / medium / absent, and devise the encoding as described above based on that.
【0129】また、上記10サブフィールドで、それぞ
れの輝度重みを、1、2、4、7、13、23、33、
43、55、74という構成にしたが、これに特に限定
されないのは言うまでもなく、例えば、それぞれの輝度
重みを、1:2:4:8:16:24:32:48:5
6:64にしてもよい。Further, in the above 10 sub-fields, the respective luminance weights are 1, 2, 4, 7, 13, 23, 33,
Although 43, 55, and 74 are used, it goes without saying that the brightness weights are not limited to this, and the brightness weights are set to 1: 2: 4: 8: 16: 24: 32: 48: 5.
It may be 6:64.
【0130】あるいは、サブフィールドを12個にし
て、1:2:4:8:12:16:24:28:32:
36:44:48という輝度重みの構成比にすることも
できる。また、サブフィールドを11個にして、それぞ
れの輝度重みを1:2:4:8:16:24:32:3
6:40:44:48にしてもよい。Alternatively, with 12 subfields, 1: 2: 4: 8: 12: 16: 24: 28: 32:
The composition ratio of the brightness weights may be 36:44:48. In addition, the number of subfields is 11, and the luminance weights of the subfields are 1: 2: 4: 8: 16: 24: 32: 3.
It may be 6: 40: 44: 48.
【0131】更には、サブフィールドを9個にして、そ
れぞれの輝度重みを1:2:4:8:16:32:4
8:64:80にしてもよい。Furthermore, the number of subfields is set to 9, and the luminance weights of the subfields are set to 1: 2: 4: 8: 16: 32: 4.
It may be 8:64:80.
【0132】また、従来から一般的で従来例でも指摘し
た疑似輪郭が発生しやすいそれぞれの輝度重みが1:
2:4:8:16:32:64:128の8個のサブフ
ィールドであってもかまわない。この場合に、動きが
「ある」、「なし」で限定する信号レベル数を変え、例
えば動きがある場合には図27に示すように、最左欄に
記した入力信号レベルを最右欄に記した信号レベルに限
定することで疑似輪郭の発生を抑え、動きがない場合に
は全階調数0〜255で表現する。ここで、動きの程度
を激しい、中程度、なしという3段階に分けて、動きが
激しいときには、図27のように信号レベルを限定し、
動きが小さくなるにつれて階調数を優先して図28、図
29と符号化することもできる。Further, the respective brightness weights which have been generally used in the past and are apt to generate the pseudo contour pointed out in the conventional example are 1:
It may be eight subfields of 2: 4: 8: 16: 32: 64: 128. In this case, the number of signal levels limited to “present” and “absent” is changed. For example, when there is movement, the input signal level described in the leftmost column is changed to the rightmost column as shown in FIG. Generation of pseudo contours is suppressed by limiting to the signal level described, and when there is no movement, it is represented by the total number of gradations 0 to 255. Here, the degree of movement is divided into three stages of intense, medium, and none, and when the movement is intense, the signal level is limited as shown in FIG.
It is also possible to give priority to the number of gradations as the motion becomes smaller and to encode as in FIGS.
【0133】尤も、サブフィールド数が多い方が、輝度
重みの変化を少なくでき、それによりサブフィールドの
点灯・非点灯の分布の変化もより少なくなるので、動画
疑似輪郭を抑制をする効果は、サブフィールド数が少な
い場合と比べて顕著であると思われる。However, the larger the number of subfields, the smaller the change in the luminance weight, and the smaller the change in the distribution of lighting / non-lighting of the subfields. Therefore, the effect of suppressing the moving image pseudo contour is It seems to be more remarkable than when the number of subfields is small.
【0134】なお、これら輝度重みの構成順序は降順で
あってもかまわない。この降順とした場合の図3(a)
〜図6(a)に相当する図表を図30〜図33に示し
た。The order of forming these luminance weights may be in descending order. FIG. 3A in the case of this descending order
~ Figures corresponding to Fig. 6 (a) are shown in Figs. 30 to 33.
【0135】(2) 実施の形態1におけるフィルタ部
1の構成は、上記した構成に限られず、図34に示すよ
うな構成でも構わない。(2) The configuration of the filter unit 1 in the first embodiment is not limited to the above-mentioned configuration, and may be the configuration shown in FIG.
【0136】図34示すようにフィルタ部1は、時間応
答高域通過フィルタであるテンポラルHPF301と、
時間応答低域通過フィルタであるテンポラルLPF30
2と、2次元低域通過フィルタ303と、加算部304
とから構成することもできる。As shown in FIG. 34, the filter unit 1 includes a temporal HPF 301 which is a time response high pass filter,
Temporal LPF30 which is a time response low pass filter
2, a two-dimensional low-pass filter 303, and an adder 304
It can also consist of
【0137】こような構成のフィルタ部を備えることに
よって、入力映像信号に含まれる画像成分のうち、テン
ポラルHPF301によって画像の時間的変化の激しい
画像成分のみが取り出される。取り出されたの画像の時
間的変化の激しい部分の成分のうち、空間周波数成分の
高い部分は2次元低域通過フィルタ303によって抑制
される。2次元低域通過フィルタ303と、テンポラル
LPF302の出力は加算部304によって合成され、
結局入力画像信号に含まれる画像成分のうち、時間方向
に激しく変化する部分でかつ空間的に細かな画像成分を
もつ成分が抑制されて表示されることになる。By including the filter section having such a configuration, among the image components included in the input video signal, only the image component whose temporal change of the image is drastic is taken out by the temporal HPF 301. The two-dimensional low-pass filter 303 suppresses a part having a high spatial frequency component among the components of the part of the extracted image which has a large temporal change. The outputs of the two-dimensional low-pass filter 303 and the temporal LPF 302 are combined by the adder 304,
Eventually, among the image components included in the input image signal, the components having a spatially fine image component in a portion that changes drastically in the time direction are suppressed and displayed.
【0138】したがって、上記同様に細かなパターンが
短い周期で変化する成分は表示されず、ノイズ成分が表
示されることが防止できる。また、このように処理する
ことによって、空間周波数の高域成分が維持されている
ので、動画像を表示する際に応答特性が劣化することも
なく、画像の細かな部分が表示されないなどの画質低下
を引き起こすこともない。Therefore, similarly to the above, the component in which the fine pattern changes in a short cycle is not displayed, and the noise component can be prevented from being displayed. Further, since the high frequency component of the spatial frequency is maintained by performing the processing as described above, the response characteristic does not deteriorate when displaying a moving image, and the image quality such as the detailed portion of the image is not displayed. It does not cause a decline.
【0139】(3) 実施の形態1において、動き量の
検出は、フレーム間の差分を一画素毎にとりその変動値
を検出することにより行ったが、これに限られず、この
他にも例えば、複数個の画素の集合からなる画像ブロッ
ク毎に平均的な変動値を算出することにより行ったり、
テンプレートと照合することによるいわゆるパターンマ
ッチングによる手法が考えられる。(3) In the first embodiment, the amount of motion is detected by taking the difference between frames for each pixel and detecting the variation value thereof. However, the present invention is not limited to this. By calculating the average variation value for each image block consisting of a set of multiple pixels,
A method by so-called pattern matching by matching with a template can be considered.
【0140】(4) 実施の形態2,3におけるサブフ
ィールドの輝度重みは上記構成に限られるものではな
く、「23,22,21,20,19,18,17,1
6,15,14,13,12,11,11,10,6,
4,2,1」となる先頭の14サブフィールドの輝度重
みを、緩やかに変化する相対的に大きな値(23,2
2,21,20,19,18,17,16,15,1
4,13,12,11,11)で構成した計19サブフ
ィールド(先頭の14サブフィールドの集合を第1のサ
ブフィールド群とし、それ以外のサブフィールドの集合
を第2のサブフィールド群とする。)と、或は「24,
24,24,24,24,24,24,24,24,1
6,10,6,4,2,1」となる先頭の10サブフィ
ールドの輝度重みを「24」及び「16」にて構成した
計15サブフィールド(先頭の10サブフィールドの集
合を第1のサブフィールド群とし、それ以外のサブフィ
ールドの集合を第2のサブフィールド群とする。)とす
ることもできる。なお、これらの場合にも詳しくは説明
しないが、第2のサブフィールド群の各サブフィールド
が有する輝度重みの合計が、第1のサブフィールド群に
属するサブフィールドが有する最大の輝度重みを超えな
い値で、第1のサブフィールド群に属するサブフィール
ドの輝度重みでは表現できない値を第2のサブフィール
ド群のサブフィールドを組み合わせて表現できるように
なっている。(4) The luminance weights of the sub-fields in the second and third embodiments are not limited to the above-mentioned configuration, but "23, 22, 21, 20, 19, 19, 18, 17, 1".
6,15,14,13,12,11,11,10,6
The luminance weights of the first 14 subfields of "4, 2, 1" are set to relatively large values (23, 2
2,21,20,19,18,17,16,15,1
A total of 19 subfields (4, 13, 12, 11, 11) (the first 14 subfields are set as the first subfield group, and the other subfields are set as the second subfield group). .) Or "24,
24, 24, 24, 24, 24, 24, 24, 24, 1
A total of 15 subfields in which the luminance weights of the top 10 subfields of "6,10,6,4,2,1" are "24" and "16" (the set of the top 10 subfields is the first A subfield group and a set of other subfields may be a second subfield group.). Although not described in detail in these cases, the sum of the brightness weights of the subfields of the second subfield group does not exceed the maximum brightness weight of the subfields belonging to the first subfield group. Values that cannot be expressed by the brightness weights of the subfields belonging to the first subfield group can be expressed by combining the subfields of the second subfield group.
【0141】また、第1のサブフィールド群を構成する
サブフィールド数よりも少ない回数の初期化を行うよう
にしさえすれば、そのぶん表示期間を増やし疑似輪郭の
発生を低減する効果は得ることができる。Further, if the initialization is performed a smaller number of times than the number of subfields forming the first subfield group, the effect of increasing the display period and reducing the occurrence of pseudo contours can be obtained. it can.
【0142】更に、第2のサブフィールド群のサブフィ
ールドの重みを細かく分割し、初期化回数を減らせば、
低輝度における画質の向上を図ることができる。Furthermore, if the weights of the subfields of the second subfield group are finely divided and the number of initializations is reduced,
It is possible to improve the image quality at low brightness.
【0143】(5) 実施の形態1〜3で入力アナログ
映像信号のγ逆補正を行ってからAD変換を行ったが、
これに限定されず、AD変換を行ってからγ逆補正を行
うこともできる。(5) In the first to third embodiments, the AD conversion is performed after the γ inverse correction of the input analog video signal is performed.
The present invention is not limited to this, and it is also possible to perform γ inverse correction after performing AD conversion.
【0144】(6) 実施の形態4の評価装置を用いる
ことにより、PDPに代表される画像表示装置の設計に
非常によい指針が供与され、サブフィールドの数、それ
ぞれの輝度重み等を決定することが容易になり、また、
できあがった画像表示装置も、疑似輪郭が従来のものに
比べて少ないものとなる。(6) By using the evaluation device of the fourth embodiment, a very good guideline is provided for the design of the image display device represented by the PDP, and the number of subfields, the respective brightness weights, etc. are determined. Easier and also
The resulting image display device also has fewer pseudo contours than the conventional one.
【0145】更に、画像評価装置が有する画像評価の機
能は、前述した各機能を実行するプログラムによって実
現し、これをフロッピーディスク,ICカード,ROM
カセット等の記録媒体に記録して譲渡,移転等すること
により、独立したコンピュータシステムで容易に実施す
ることができる。Further, the image evaluation function of the image evaluation apparatus is realized by a program for executing each of the above-mentioned functions, which is implemented by a floppy disk, an IC card, a ROM.
It can be easily implemented by an independent computer system by recording it on a recording medium such as a cassette and transferring or transferring it.
【0146】(7) 最後に、上記実施の形態1〜4の
技術は、DMD(デジタル マイクロミラー デバイ
ス)にも同様に適用できる。(7) Finally, the techniques of the above-described first to fourth embodiments can be similarly applied to a DMD (digital micromirror device).
【0147】[0147]
【発明の効果】以上述べて来たように本発明の、前記サ
ブフィールドの輝度重みをW1、W2、...、WNと
したときに、0、W1、W2、...、WNを任意に組
み合わせて表現可能な階調値の中から、入力映像信号の
動き量に応じて一の階調値を選択する選択手段と、選択
された一の階調値を表現するサブフィールドを点灯する
サブフィールド点灯手段とを備えた画像表示装置によれ
ば、上記した第1の目的が達成される。As described above, the brightness weights of the sub-fields of the present invention are W1, W2 ,. . . , WN, 0, W1, W2 ,. . . , WN that can be expressed in any combination, and a selection unit that selects one gradation value according to the amount of movement of the input video signal and a sub that expresses the selected one gradation value. According to the image display device provided with the subfield lighting means for lighting the field, the above-mentioned first object is achieved.
【0148】また、同目的は、入力映像信号を画素単位
で複数のサブフィールドのオン、オフ情報に変換する変
換手段と、表示画面上の各画素が発光セルで構成されて
いるディスプレイと、変換手段で変換されたオン、オフ
情報の1TVフィールド分をサブフィールド別に分配す
ると共に、サブフィールドを順次切り換えて、ディスプ
レイの各発光セルをオン、オフするものであって、サブ
フィールドを点灯させる前に行う初期化を(サブフィー
ルド数−1)以下の回数行う表示制御手段とを含み、前
記変換手段は、入力映像信号の各レベルに対応して前記
複数のサブフィールドのオン、オフ情報を記憶し、そし
て、このオン、オフ情報は、所定の入力映像信号の範囲
では入力映像信号の階調値に比例して発光するサブフィ
ールドが時間方向前方或は後方に延伸していくようなオ
ン、オフ情報である画像表示装置によっても達成され
る。Further, the same purpose is to convert the input video signal into ON / OFF information of a plurality of subfields in pixel units, a display in which each pixel on the display screen is composed of a light emitting cell, and a conversion unit. One TV field of ON / OFF information converted by the means is distributed for each subfield, and the subfields are sequentially switched to turn on / off each light emitting cell of the display. Before lighting the subfield, And a display control unit for performing the initialization for a number of times equal to or less than (the number of subfields-1), wherein the conversion unit stores ON / OFF information of the plurality of subfields corresponding to each level of the input video signal. In the range of a predetermined input video signal, the on / off information indicates that the subfield that emits light in proportion to the gradation value of the input video signal is in the time direction. Square or ON as will extend rearwardly, also achieved by the image display apparatus is off information.
【0149】更に第2の目的は、評価対象装置において
構築されるサブフィールドに関する情報を保持し、入力
されてくる映像信号を前記サブフィールド情報によって
変換し、各画素毎にどのサブフィールドを点灯させるの
かの点灯情報を作成するサブフィールド点灯情報作成手
段と、前記サブフィールド点灯情報により仮想的に表示
される仮想映像上において一の画素を基準点と設定する
基準点設定手段と、映像信号に関連して入力される動き
ベクトルに従って、前記基準点から単位時間に移動する
経路を想定する経路想定手段と、単位時間内の各瞬間瞬
間における移動位置周辺に存在する画素の発光量をサブ
フィールド点灯情報から求める発光量算出手段と、各移
動位置での発光量を単位時間の移動経路に渡って積算す
る積算手段と、積算値から対象装置の画像表示状態の評
価情報を得る評価手段とを含む画像評価装置によって達
成される。A second object is to hold information on subfields constructed in the device to be evaluated, convert an input video signal by the subfield information, and turn on which subfield for each pixel. Related to the video signal, a sub-field lighting information creating means for creating lighting information, a reference point setting means for setting one pixel as a reference point on a virtual image virtually displayed by the sub-field lighting information. According to the input motion vector, the route estimation means for assuming a route moving from the reference point in a unit time, and the light emission amount of the pixels existing around the movement position at each moment in the unit time as the subfield lighting information. The light emission amount calculating means obtained from the above, the light emitting amount at each moving position, the integrating means for integrating the light emitting amount over the moving route of the unit time, and the product It is achieved by the image evaluation apparatus including a evaluation means for obtaining evaluation information of the image display state of the target device from the value.
【0150】第3の目的は、入力映像信号の空間周波数
成分のうち、高域成分の時間応答を抑制する処理を行う
フィルタ手段と、ディスプレイとを備える画像表示装置
によって達成される。The third object is achieved by an image display device having a display and a filter means for suppressing the time response of the high frequency component of the spatial frequency component of the input video signal.
【図1】一の実施の形態に係る画像表示装置の構成を示
すブロック図である。FIG. 1 is a block diagram showing a configuration of an image display device according to an embodiment.
【図2】第2符号化部7の構成を示すブロック図であ
る。FIG. 2 is a block diagram showing a configuration of a second encoding unit 7.
【図3】前記画像表示装置における符号化の態様を示す
図表である。(a)は、第2符号化部の態様を示す図表
であり、(b)は、第1符号化部の態様を示す図表であ
る。FIG. 3 is a chart showing an aspect of encoding in the image display device. (A) is a chart which shows the aspect of a 2nd encoding part, (b) is a chart which shows the aspect of a 1st encoding part.
【図4】前記画像表示装置における符号化の態様を示す
図表である。(a)は、第2符号化部の態様を示す図表
であり、(b)は、第1符号化部の態様を示す図表であ
る。FIG. 4 is a chart showing an aspect of encoding in the image display device. (A) is a chart which shows the aspect of a 2nd encoding part, (b) is a chart which shows the aspect of a 1st encoding part.
【図5】前記画像表示装置における符号化の態様を示す
図表である。(a)は、第2符号化部の態様を示す図表
であり、(b)は、第1符号化部の態様を示す図表であ
る。FIG. 5 is a chart showing an encoding mode in the image display device. (A) is a chart which shows the aspect of a 2nd encoding part, (b) is a chart which shows the aspect of a 1st encoding part.
【図6】前記画像表示装置における符号化の態様を示す
図表である。(a)は、第2符号化部の態様を示す図表
であり、(b)は、第1符号化部の態様を示す図表であ
る。FIG. 6 is a chart showing an aspect of encoding in the image display device. (A) is a chart which shows the aspect of a 2nd encoding part, (b) is a chart which shows the aspect of a 1st encoding part.
【図7】前記画像表示装置の一のフレームメモリの構成
を示す図である。FIG. 7 is a diagram showing a configuration of a frame memory of the image display device.
【図8】前記画像表示装置の表示制御部の構成を示すブ
ロック図である。FIG. 8 is a block diagram showing a configuration of a display control unit of the image display device.
【図9】前記画像表示装置におけるPDPの発光方式を
説明する図である。FIG. 9 is a diagram illustrating a light emitting method of a PDP in the image display device.
【図10】前記画像表示装置のフィルタ部の構成を示す
ブロック図である。FIG. 10 is a block diagram showing a configuration of a filter unit of the image display device.
【図11】前記画像表示装置の誤差拡散部及び動き量算
出部の構成を示すブロック図である。FIG. 11 is a block diagram showing a configuration of an error diffusion unit and a motion amount calculation unit of the image display device.
【図12】前記画像表示装置の動き量算出部の出力信号
の生成について説明するための図表である。FIG. 12 is a chart for explaining generation of an output signal of a motion amount calculation unit of the image display device.
【図13】前記画像表示装置の誤差拡散の手法を説明す
るための模式図である。FIG. 13 is a schematic diagram for explaining a method of error diffusion of the image display device.
【図14】別な実施の形態の画像表示装置の構成を示す
ブロック図である。FIG. 14 is a block diagram showing a configuration of an image display device according to another embodiment.
【図15】前記画像表示装置の第4符号化部の符号化の
態様を示す図表である。FIG. 15 is a chart showing an encoding mode of a fourth encoding unit of the image display device.
【図16】前記画像表示装置におけるPDPの発光方式
を説明する図である。FIG. 16 is a diagram illustrating a light emitting method of a PDP in the image display device.
【図17】更に別な実施の形態の画像表示装置の前記第
4符号化部の符号化の態様を示す図表である。FIG. 17 is a table showing an encoding mode of the fourth encoding unit of the image display device of yet another embodiment.
【図18】前記画像表示装置におけるPDPの発光方式
を説明する図である。FIG. 18 is a diagram illustrating a light emitting method of a PDP in the image display device.
【図19】別な実施の形態の画像評価装置の機能を説明
するための機能ブロック図である。FIG. 19 is a functional block diagram for explaining the functions of the image evaluation apparatus of another embodiment.
【図20】前記画像評価装置でのシミュレーションに用
いる画像の発光パターンを例示する図である。FIG. 20 is a diagram illustrating a light emission pattern of an image used for simulation in the image evaluation apparatus.
【図21】前記画像評価装置での画像評価方法を説明す
るための模式図である。FIG. 21 is a schematic diagram for explaining an image evaluation method in the image evaluation apparatus.
【図22】前記画像評価装置の動作の一例を示すフロー
チャートである。FIG. 22 is a flowchart showing an example of the operation of the image evaluation apparatus.
【図23】前記画像評価装置の動作の一例を示すフロー
チャートである。FIG. 23 is a flowchart showing an example of the operation of the image evaluation apparatus.
【図24】前記画像評価装置の動作の一例を示すフロー
チャートである。FIG. 24 is a flowchart showing an example of the operation of the image evaluation apparatus.
【図25】画素と当該画素のサブフィールド情報を記憶
する際のデータ構造を示す図表である。FIG. 25 is a chart showing a data structure when a pixel and subfield information of the pixel are stored.
【図26】発光時刻とサブフィールドとの対応を示した
図表である。FIG. 26 is a chart showing correspondences between light emission times and subfields.
【図27】第1符号化部の別な態様を示す図表である。FIG. 27 is a chart showing another aspect of the first encoding unit.
【図28】第1符号化部の別な態様を示す図表である。FIG. 28 is a chart showing another aspect of the first encoding unit.
【図29】第1符号化部の別な態様を示す図表である。FIG. 29 is a chart showing another aspect of the first encoding unit.
【図30】図3(a)〜図6(a)に相当する第2符号
化部の符号化の態様を示す図表である。[Fig. 30] Fig. 30 is a table showing the encoding mode of the second encoding unit corresponding to Figs. 3 (a) to 6 (a).
【図31】図3(a)〜図6(a)に相当する第2符号
化部の符号化の態様を示す図表である。FIG. 31 is a chart showing an encoding mode of a second encoding unit corresponding to FIGS. 3 (a) to 6 (a).
【図32】図3(a)〜図6(a)に相当する第2符号
化部の符号化の態様を示す図表である。FIG. 32 is a chart showing an encoding mode of a second encoding unit corresponding to FIGS. 3 (a) to 6 (a).
【図33】図3(a)〜図6(a)に相当する第2符号
化部の符号化の態様を示す図表である。FIG. 33 is a chart showing an encoding mode of a second encoding unit corresponding to FIGS. 3A to 6A.
【図34】実施の形態1の変形例でフィルタ部の別な構
成を示すブロック図である。FIG. 34 is a block diagram showing another configuration of the filter unit in the modification of the first embodiment.
【図35】従来の画像表示装置を説明するための図であ
り、所定の画像パターンが、2画素相当平行移動する様
子を表す図である。FIG. 35 is a diagram for explaining the conventional image display device, and is a diagram showing a state in which a predetermined image pattern moves in parallel by two pixels.
【図36】上記画像パターンが平行移動する様子を観測
者が追従した時に観られる様子を示している。FIG. 36 shows a state where the observer follows the state where the image pattern moves in parallel, and is observed.
【図37】更に別な従来の画像表示装置を説明するため
の図であり、図36に相当する図である。FIG. 37 is a diagram for explaining still another conventional image display device, and a diagram corresponding to FIG. 36.
1 フィルタ部 2 γ逆補正部 3 AD変換部 4 誤差拡散部 5 動き量算出部 6 第1符号化部 7 第2符号化部 8 表示制御部 9 PDP 11 2次元高域通過フィルタ 12 2次元低域通過フィルタ 13 時間応答低域通過フィルタ13 14 加算部 41 加算部 42 誤差算出部 43a〜43d 遅延部 44a〜44d 係数部 51a,51b フレームメモリ 52 動き量検出部 53 傾斜部検出部 54 動き量補正部 60 変換テーブル 71 サブフィールド変換部 72 書込アドレス制御部 73a,73b フレームメモリ 80 表示ライン制御部 81a,81b アドレスドライバ 82 ラインドライバ 101 第3符号化部 102 第4符号化部 201 サブフィールド情報設定部 202 サブフィールド符号化部 203 基準点設定部 204 経路算出部 205 発光パルス時刻算出部 206 視線位置算出部 207 近傍画素選択部 208 近傍画素係数算出部 209 係数乗算部 210 発光量積算部 710 サブフィールド変換テーブル 1 Filter section 2 γ inverse correction unit 3 AD converter 4 Error diffusion section 5 Motion amount calculator 6 First Encoding Unit 7 Second encoding unit 8 Display control unit 9 PDP 11 Two-dimensional high-pass filter 12 Two-dimensional low-pass filter 13-hour response low-pass filter 13 14 Adder 41 Adder 42 Error calculator 43a to 43d delay unit 44a to 44d coefficient part 51a, 51b Frame memory 52 Motion Detection Unit 53 Slope detection unit 54 Motion amount correction unit 60 conversion table 71 Subfield converter 72 write address controller 73a, 73b frame memory 80 Display line controller 81a, 81b address driver 82 line driver 101 Third Encoding Unit 102 fourth encoding unit 201 Subfield information setting section 202 subfield coding unit 203 Reference point setting section 204 Route calculator 205 Emission pulse time calculation unit 206 Line-of-sight position calculation unit 207 Neighborhood pixel selection unit 208 neighborhood pixel coefficient calculation unit 209 coefficient multiplication unit 210 Light emission amount integration unit 710 Subfield conversion table
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G09G 3/28 G09G 5/00 510S 3/36 5/36 510M 5/00 H04N 5/205 510 5/66 A 5/36 510 101B H04N 5/205 17/04 Z 5/66 G06F 15/62 340Z 101 G09G 3/28 K 17/04 5/00 520J // G06T 7/20 G06F 15/70 410 (31)優先権主張番号 特願平9−333863 (32)優先日 平成9年12月4日(1997.12.4) (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平9−341116 (32)優先日 平成9年12月11日(1997.12.11) (33)優先権主張国 日本(JP) (56)参考文献 特開 平10−31455(JP,A) 特開 平10−39830(JP,A) 特開 平5−127612(JP,A) 特開 平7−302061(JP,A) 特開 平11−231831(JP,A) 特開 平11−296132(JP,A) (58)調査した分野(Int.Cl.7,DB名) G09G 3/20 660 G09G 3/20 641 G06T 13/00 G09G 3/28 G09G 3/36 G09G 5/36 510 H04N 5/205 H04N 5/66 101 H04N 17/04 G06T 7/20 ─────────────────────────────────────────────────── ─── Continued Front Page (51) Int.Cl. 7 Identification Code FI G09G 3/28 G09G 5/00 510S 3/36 5/36 510M 5/00 H04N 5/205 510 5/66 A 5/36 510 101B H04N 5/205 17/04 Z 5/66 G06F 15/62 340Z 101 G09G 3/28 K 17/04 5/00 520J // G06T 7/20 G06F 15/70 410 (31) Priority claim number Hei 9-333863 (32) Priority date December 4, 1997 (Dec. 4, 1997) (33) Priority claiming country Japan (JP) (31) Priority claim number Japanese Patent Application No. 9-341116 (32) Priority date December 11, 1997 (December 11, 1997) (33) Priority claiming country Japan (JP) (56) References JP-A-10-31455 (JP, A) JP-A-10-39830 ( JP, A) JP 5-127612 (JP, A) JP 7-302061 (JP, A) JP 11-231831 (JP, A) JP-A-11-296132 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G09G 3/20 660 G09G 3/20 641 G06T 13/00 G09G 3/28 G09G 3/36 G09G 5/36 510 H04N 5/205 H04N 5/66 101 H04N 17/04 G06T 7/20
Claims (6)
を持ったN個のサブフィールドを時間順に配列したもの
で構成し、所望のサブフィールドを点灯して1TVフィ
ールドの映像を多階調表示する画像表示装置であって、入力映像信号の動き量を検出する動き検出手段と、 前記動き検出手段が検出した入力映像信号の動き量の、
動きなし及び、動きありにおける2以上の段階に対応す
る複数の符号化出力の組の中から、 入力映像信号の動き量に応じて符号化出力の組みを選択
し、 選択された符号化出力の組の中から入力映像信号の階調
値に近い符号化出力を選択する表示信号符号化手段と、 選択された一の符号化出力に対応してサブフィールドの
点灯を制御するサブフィールド駆動手段とを備え、 前記表示信号符号化手段は、入力映像信号の動き量が大
きくなるに従って、輝度重みの大きいサブフィールドに
おける非点灯/点灯の変化を抑制するような符号化出力
の組みを選択する ことを特徴とする画像表示装置。1. An image display in which one TV field is configured by arranging N sub-fields each having a luminance weight in time order, and a desired sub-field is turned on to display an image of one TV field in multiple gradations. A device , comprising a motion detecting means for detecting a motion amount of an input video signal, and a motion amount of the input video signal detected by the motion detecting means,
Supports two or more stages of no motion and motion
Select a coded output set according to the amount of motion of the input video signal from multiple coded output sets
Then, the gradation of the input video signal is selected from the selected set of encoded outputs.
A display signal coding means for selecting a coded output close to the value and a subfield of the subfield corresponding to the selected one coded output.
And a subfield driving means for controlling lighting, wherein the display signal coding means has a large motion amount of the input video signal.
As the brightness increases,
Coded output that suppresses non-lighting / lighting changes in
Image display device characterized by selecting a combination of .
化出力からなる符号化出力の組みの選択を行うことを特
徴とする請求項1記載の画像表示装置。 2. The display signal encoding means increases the number of codes as the amount of motion of an input video signal decreases.
The image display apparatus according to claim 1, characterized in that the selection of the set of encoded output consisting of the output.
・・・≦WNとしたときに、「0」、「W1」、「W1
+W2」、「W1+W2+W3」、...、「W1+W
2+W3+...+WN」からなるN+1種類の符号化
出力からなる符号化出力の組みを選択することを特徴と
する請求項1又は2に記載の画像表示装置。 3. The display signal encoding means is W1 ≦ W2 ≦ when the input video signal has the largest motion amount.
... ≤ WN, "0", "W1", "W1"
+ W2 "," W1 + W2 + W3 ",. . . , "W1 + W
2 + W3 +. . . + WN " encoding of N + 1 types
The image display apparatus according to claim 1 or 2, characterized in that selecting a set of coding output and an output.
が最も大きいものは、表示信号の階調値が大きくなると
点灯するサブフィールドの分布が単純に広がる関係を満
たす符号化出力の組み合わせであることを特徴とする請
求項1記載の画像表示装置。 4. The one having the largest corresponding motion amount among the sets of coded outputs , when the gradation value of the display signal becomes large.
The image display apparatus according to claim 1 , wherein the image display apparatus is a combination of coded outputs that satisfies a relationship in which the distribution of illuminated subfields simply spreads .
れる階調値と異なるとき、その差分を周辺の画素に分散
する誤差拡散手段を含むことを特徴とする請求項1〜4
の何れかに記載の画像表示装置。5. The image display device according to claim 1, wherein a gradation value of an input video signal is used for display for one pixel .
When the gradation value is different, according to claim 1-4, characterized in that it comprises an error diffusion means for distributing the difference to neighboring pixels
The image display device according to any one of 1.
差階調値を算出する誤差算出部と、 前記算出した誤差階調値信号を周辺所定の画素に分散さ
せるべく遅延させる遅延部と、 分散すべき画素への配分する階調値を決定する係数部
と、 入力映像信号に前記係数部で得られた各画素へ分散する
階調値を加算する加算部とを含むことを特徴とする請求
項5記載の画像表示装置。 Wherein said error diffusion means, and around the error calculating unit for calculating an error tone value of the tone values used in the display and the gradation value of the input video signal, an error tone value signal the calculated A delay unit that delays to disperse to a predetermined pixel, a coefficient unit that determines a gradation value to be distributed to the pixels to be dispersed, and a gradation value that is distributed to each pixel obtained by the coefficient unit in the input video signal. The image display device according to claim 5 , further comprising: an addition unit that adds
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21010598A JP3425083B2 (en) | 1997-07-24 | 1998-07-24 | Image display device and image evaluation device |
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19814197 | 1997-07-24 | ||
JP9-198141 | 1997-07-24 | ||
JP20127397 | 1997-07-28 | ||
JP9-201273 | 1997-07-28 | ||
JP9-316768 | 1997-11-18 | ||
JP31676897 | 1997-11-18 | ||
JP33386397 | 1997-12-04 | ||
JP9-333863 | 1997-12-04 | ||
JP34111697 | 1997-12-11 | ||
JP9-341116 | 1997-12-11 | ||
JP21010598A JP3425083B2 (en) | 1997-07-24 | 1998-07-24 | Image display device and image evaluation device |
Related Child Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002245663A Division JP4048089B2 (en) | 1997-07-24 | 2002-08-26 | Image display device |
JP2002245665A Division JP3727619B2 (en) | 1997-07-24 | 2002-08-26 | Image display device |
JP2002245557A Division JP3990612B2 (en) | 1997-07-24 | 2002-08-26 | Image evaluation device |
JP2002245664A Division JP2003153130A (en) | 1997-07-24 | 2002-08-26 | Image display apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11231827A JPH11231827A (en) | 1999-08-27 |
JP3425083B2 true JP3425083B2 (en) | 2003-07-07 |
Family
ID=27553724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21010598A Expired - Fee Related JP3425083B2 (en) | 1997-07-24 | 1998-07-24 | Image display device and image evaluation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3425083B2 (en) |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100810064B1 (en) * | 1999-09-29 | 2008-03-05 | 톰슨 라이센싱 | Data processing method and apparatus for a display device |
KR100800272B1 (en) * | 1999-11-26 | 2008-02-05 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Method of and unit for processing images |
JP2002023692A (en) * | 2000-07-04 | 2002-01-23 | Matsushita Electric Ind Co Ltd | Display device and display method |
JP2002108278A (en) * | 2000-10-03 | 2002-04-10 | Matsushita Electric Ind Co Ltd | Plasma display device and driving method therefor |
JP2002229505A (en) | 2001-01-31 | 2002-08-16 | Nec Corp | Display device |
KR20040014663A (en) * | 2001-07-09 | 2004-02-14 | 마츠시타 덴끼 산교 가부시키가이샤 | Plasma display panel driving method and plasma display panel driver |
CN100399382C (en) * | 2001-09-07 | 2008-07-02 | 中华映管股份有限公司 | Method and device for eliminating dynamic quasi-contour of flat plasma display device |
EP1353314A1 (en) * | 2002-04-11 | 2003-10-15 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for processing video pictures to improve the greyscale resolution of a display device |
US7499062B2 (en) | 2002-10-11 | 2009-03-03 | Panasonic Corporation | Image display method and image display apparatus for displaying a gradation by a subfield method |
WO2005066926A1 (en) * | 2003-12-26 | 2005-07-21 | Matsushita Electric Industrial Co., Ltd. | Image displaying method and image display |
JP4649108B2 (en) | 2003-01-16 | 2011-03-09 | パナソニック株式会社 | Image display device and image display method |
CN100409279C (en) * | 2003-01-16 | 2008-08-06 | 松下电器产业株式会社 | Image display apparatus and image display method |
JP2005004044A (en) * | 2003-06-13 | 2005-01-06 | Matsushita Electric Ind Co Ltd | Method for driving plasma display panel |
KR100525737B1 (en) * | 2003-09-26 | 2005-11-03 | 엘지전자 주식회사 | Method and Apparatus of Driving Plasma Display Panel |
CN100376994C (en) * | 2003-09-29 | 2008-03-26 | 钰瀚科技股份有限公司 | Drive circuit for liquid crystal display and method therefor |
KR100589379B1 (en) | 2003-10-16 | 2006-06-13 | 삼성에스디아이 주식회사 | A driving apparatus of plasma display panel and a gray display method thereof |
KR100550984B1 (en) | 2003-11-28 | 2006-02-13 | 삼성에스디아이 주식회사 | A driving apparatus of plasma display panel, a method for processing pictures on plasma display panel and a plasma display panel |
EP1613098A1 (en) * | 2004-07-01 | 2006-01-04 | Deutsche Thomson-Brandt Gmbh | Method and device for texture based coding |
JP2006039172A (en) * | 2004-07-27 | 2006-02-09 | Pioneer Electronic Corp | Image signal processing circuit, plasma display device, and false contour reduction method |
JP4526357B2 (en) * | 2004-11-22 | 2010-08-18 | パナソニック株式会社 | Driving method of plasma display panel |
WO2006098328A1 (en) | 2005-03-15 | 2006-09-21 | Sharp Kabushiki Kaisha | Drive device of display device, and display device |
US8035589B2 (en) | 2005-03-15 | 2011-10-11 | Sharp Kabushiki Kaisha | Drive method of liquid crystal display device, driver of liquid crystal display device, program of method and storage medium thereof, and liquid crystal display device |
US7956876B2 (en) | 2005-03-15 | 2011-06-07 | Sharp Kabushiki Kaisha | Drive method of display device, drive unit of display device, program of the drive unit and storage medium thereof, and display device including the drive unit |
JP4629096B2 (en) * | 2005-03-18 | 2011-02-09 | シャープ株式会社 | Image display device, image display monitor, and television receiver |
EP2264690A1 (en) * | 2005-05-02 | 2010-12-22 | Semiconductor Energy Laboratory Co, Ltd. | Display device and gray scale driving method with subframes thereof |
JP5238142B2 (en) * | 2005-05-02 | 2013-07-17 | 株式会社半導体エネルギー研究所 | Driving method of display device |
JP5061439B2 (en) * | 2005-09-07 | 2012-10-31 | パナソニック株式会社 | Video signal processing apparatus and video signal processing method |
WO2007129362A1 (en) * | 2006-04-21 | 2007-11-15 | Fujitsu Hitachi Plasma Display Limited | Display apparatus and error spread method thereof |
JP4350110B2 (en) | 2006-08-23 | 2009-10-21 | 日立プラズマディスプレイ株式会社 | Gradation display processing method and plasma display device |
JP2008178075A (en) * | 2006-12-18 | 2008-07-31 | Sony Corp | Display control device, display control method, and program |
JP5029892B2 (en) * | 2007-02-23 | 2012-09-19 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2008209427A (en) * | 2007-02-23 | 2008-09-11 | Sony Corp | Image signal processor |
TWI394121B (en) | 2006-12-18 | 2013-04-21 | Sony Corp | An image processing apparatus, an image processing method, and a recording medium |
TW200834537A (en) * | 2006-12-18 | 2008-08-16 | Sony Corp | Dynamic image signal processing device |
JP2009115938A (en) * | 2007-11-05 | 2009-05-28 | Panasonic Corp | Plasma display device |
US20120281029A1 (en) * | 2010-01-19 | 2012-11-08 | Takahiko Origuchi | Method for driving plasma display device |
KR20130043224A (en) * | 2010-10-12 | 2013-04-29 | 파나소닉 주식회사 | Plasma display device drive method and plasma display device |
WO2012049839A1 (en) * | 2010-10-12 | 2012-04-19 | パナソニック株式会社 | Plasma display device drive method and plasma display device |
WO2012098888A1 (en) * | 2011-01-20 | 2012-07-26 | パナソニック株式会社 | Image display device and drive method for image display device |
WO2012098885A1 (en) * | 2011-01-20 | 2012-07-26 | パナソニック株式会社 | Image display device and drive method for image display device |
WO2012098884A1 (en) * | 2011-01-20 | 2012-07-26 | パナソニック株式会社 | Image display device and drive method for image display device |
CN115205205B (en) * | 2022-05-20 | 2023-09-22 | 苏州汉瑞森光电科技股份有限公司 | Intelligent evaluation method and system for display effect |
-
1998
- 1998-07-24 JP JP21010598A patent/JP3425083B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11231827A (en) | 1999-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3425083B2 (en) | Image display device and image evaluation device | |
KR100595077B1 (en) | Image display apparatus | |
JP2994632B1 (en) | Drive pulse control device for PDP display to prevent light emission center fluctuation | |
US20040263541A1 (en) | Display apparatus and display driving method for effectively eliminating the occurrence of a moving image false contour | |
KR20020097489A (en) | Apparatus and method for making a gray scale display with subframes | |
US20050248583A1 (en) | Dither processing circuit of display apparatus | |
JP4649108B2 (en) | Image display device and image display method | |
JP2001083926A (en) | Animation false contour compensating method, and image display device using it | |
JP3961171B2 (en) | Multi-tone processing circuit for display device | |
JPH09258688A (en) | Display device | |
KR100687558B1 (en) | Image display method and image display apparatus | |
JP4100122B2 (en) | Image display device | |
JP3990612B2 (en) | Image evaluation device | |
JP2000276101A (en) | Method of driving plasma display panel | |
WO2005066925A1 (en) | Image display apparatus | |
JP3727619B2 (en) | Image display device | |
JP4048089B2 (en) | Image display device | |
EP1732055B1 (en) | Display device | |
JP2003177696A (en) | Device and method for display | |
JP2003153130A (en) | Image display apparatus | |
JP2001042819A (en) | Method and device for gradation display | |
JPH09330057A (en) | Method for displaying gradation of gas discharging display panel and device for displaying gas discharge | |
KR100432667B1 (en) | Gray Scale Display Method for Plasma Display Panel and Apparatus thereof | |
JPH07140923A (en) | Driving circuit of display device | |
KR20050050888A (en) | A driving apparatus of plasma display panel, a method for processing pictures on plasma display panel and a plasma display panel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090502 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100502 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110502 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110502 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120502 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120502 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130502 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |