JP2003150103A - Image display apparatus - Google Patents

Image display apparatus

Info

Publication number
JP2003150103A
JP2003150103A JP2002245665A JP2002245665A JP2003150103A JP 2003150103 A JP2003150103 A JP 2003150103A JP 2002245665 A JP2002245665 A JP 2002245665A JP 2002245665 A JP2002245665 A JP 2002245665A JP 2003150103 A JP2003150103 A JP 2003150103A
Authority
JP
Japan
Prior art keywords
image
subfield
motion
display device
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002245665A
Other languages
Japanese (ja)
Other versions
JP3727619B2 (en
Inventor
Isao Kawahara
功 川原
Kunio Sekimoto
邦夫 関本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002245665A priority Critical patent/JP3727619B2/en
Publication of JP2003150103A publication Critical patent/JP2003150103A/en
Application granted granted Critical
Publication of JP3727619B2 publication Critical patent/JP3727619B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image display apparatus in which the occurrence of a moving image false edge can be suppressed rather than a conventional apparatus. SOLUTION: A motion amount calculating part 5 is composed of frame memories 51a and 51b for storing images for each of frames, a motion amount detecting part 52, a inclined part detecting part 53 and a motion amount correcting part 54. The motion of an image is detected by the motion amount calculating part 5 and corresponding to the degree of that motion, encoding is performed. Thus, when the motion is violent, the false edge can be accurately canceled. When the motion is small with low possibility of the occurrence of the false edge, on the other hand, the number of gradations is increased, and a still picture can be expressed with the maximum number of gradations.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像の1TVフィ
ールドを、複数のサブフィールドに分割して表示するこ
とにより多階調表示を行うプラズマディスプレイパネル
などの表示パネルを用いた画像表示装置において、画質
向上に関する技術である。また、そのような動画像表示
装置における表示画像の評価を行う画像評価装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display device using a display panel such as a plasma display panel for performing multi-gradation display by dividing one TV field of an image into a plurality of subfields and displaying the divided subfields. This is a technology related to image quality improvement. The present invention also relates to an image evaluation device that evaluates a display image in such a moving image display device.

【0002】[0002]

【従来の技術】プラズマディスプレイパネル(plasma d
isplay panel, 以下、単に「PDP」という)に代表さ
れる2値的に発光を行う表示パネルを用いた画像表示装
置は、例えば、アドレス表示期間分割サブフィールド方
式(address display period separated sub-field met
hod)と呼ばれる表示方法によって階調表示を実現す
る。この方式は、1TVフィールドを、PDP画面の1
ライン毎に点灯・非点灯データの書き込みを行うアドレ
ス期間と、所定の画素を一斉に発光させる放電維持期間
とからなる数個のサブフィールドに時間分割して画像表
示を行うものである。
2. Description of the Related Art Plasma display panels (plasma d)
An image display device using a display panel that emits light in a binary manner represented by an isplay panel, hereinafter simply referred to as "PDP", is, for example, an address display period separated sub-field met.
The gradation display is realized by a display method called hod). In this system, 1 TV field is converted to 1 of PDP screen.
The image display is performed by time-division into several subfields each including an address period in which lighting / non-lighting data is written for each line, and a discharge sustaining period in which a predetermined pixel emits light all at once.

【0003】従来から、このように画像の1TVフィー
ルド分を、複数のサブフィールドの画像に分割して表示
し多階調表示を行う場合、動画像表示においていわゆる
疑似輪郭状の階調乱れが発生することが知られている。
図35,図36を用いてこの動画表示時の疑似輪郭の発
生を説明する。図35は、127と128という近接し
た階調レベルを隣接した画素間で有する4つの画素から
なる画像パターンPA1が、PDP300の画面を1T
Vフィールドで2画素相当、平行移動する様子を表して
いる。また、図36は、横軸は画面上での各画素の相対
的な位置を表し、又縦軸は便宜上1TVフィールドに相
当する時間のみを表している。更に画像パターンPA1
が平行移動する様子を観測者が追従した時に観られる様
子を示している。ここでは8ビット階調すなわち256
階調を、8つのサブフィールドの点灯・非点灯の8ビッ
トデータに変換し、当該8ビットデータに基づいて該当
する階調表示を行い、具体的には、1,2,4,8,1
6,32,64,128という重み付けにしてこの順
(昇順)に1TVフィールドをサブフィールド1〜8に
時間分割した場合について説明する。階調レベル127
を表示するには、サブフィールド1〜サブフィールド7
を点灯(図中の斜線部),サブフィールド8を非点灯と
することにより当該階調レベルの表示を行い、階調レベ
ル128を表示するには、サブフィールド1〜サブフィ
ールド7を非点灯,サブフィールド8を点灯(図中の斜
線部)とすることにより当該階調レベルの表示を行う。
Conventionally, in the case of performing multi-gradation display by dividing one TV field of an image into a plurality of sub-field images for display in this way, so-called pseudo contour-like gradation disturbance occurs in moving image display. Is known to do.
The generation of the pseudo contour when the moving image is displayed will be described with reference to FIGS. In FIG. 35, an image pattern PA1 consisting of four pixels having adjacent gradation levels of 127 and 128 between adjacent pixels is displayed on the screen of the PDP 300 by 1T.
In the V field, two pixels are shown moving in parallel. Further, in FIG. 36, the horizontal axis represents the relative position of each pixel on the screen, and the vertical axis represents only the time corresponding to one TV field for convenience. Further image pattern PA1
It shows how the observer observes the parallel movement of. Here, 8-bit gradation, that is, 256
The gradation is converted into lighting / non-lighting 8-bit data of eight subfields, and the corresponding gradation display is performed based on the 8-bit data. Specifically, 1, 2, 4, 8, 1
A case will be described in which one TV field is time-divided into subfields 1 to 8 in this order (ascending order) by weighting 6, 32, 64, and 128. Gradation level 127
To display subfield 1 to subfield 7
Is displayed (the shaded area in the drawing) and the subfield 8 is not lit to display the gradation level. To display the gradation level 128, the subfields 1 to 7 are not lit, The gradation level is displayed by turning on the subfield 8 (hatched portion in the drawing).

【0004】静止画像を表示した場合、観測される画像
の1TVフィールドの平均輝度は図36のA−A'間の
点灯の時間積分で表わされ、正しく階調表示がなされ
る。これに対して動画像を表示した場合、視線の移動の
方向により網膜上には図36のB−B'間またはC−C'
間の点灯の時間積分が観測される。B−B'間では各ビ
ット(サブフィールド)を合成した値は約0になり、ま
たC−C'間の各ビット(サブフィールド)の合計は約
255になる。このように、階調レベル127および階
調レベル128というような値の近い階調レベルが隣接
した画像パターンが移動するのを観測した場合、レベル
変化部分では図36に示すように観測される階調レベル
が画像の動きによって著しく乱れる。
When a still image is displayed, the average luminance of one TV field of the observed image is represented by the time integration of lighting between AA 'in FIG. 36, and the gradation display is correctly performed. On the other hand, when a moving image is displayed, on the retina depending on the direction of movement of the line of sight, the space between BB ′ or CC ′ in FIG.
The time integration of lighting between is observed. The combined value of each bit (subfield) between BB 'is about 0, and the total of each bit (subfield) between CC' is about 255. In this way, when it is observed that the image patterns adjacent to each other have similar gradation levels such as the gradation level 127 and the gradation level 128, the level change portion is observed as shown in FIG. The tonal level is significantly disturbed by the movement of the image.

【0005】つまり各サブフィールドの輝度の時間方向
の積分で中間調を表現しようとしているため、動画像な
どで視線が移動した場合は、時間の経過とともに本来の
画素位置とは異なる位置の画像のそれぞれのビットの輝
度重みを積分することになり、中間調表示が大きく乱れ
ることになる。なお、この中間調の乱れは画像に偽の輪
郭が現れるように認識させるため、一般的に「動画疑似
輪郭」と呼ばれる。なお、このような動画表示における
疑似輪郭の発生のメカニズムについては、文献、199
7年5月1日発行,プラズマディスプレイのすべて,1
65頁〜177頁(工業調査会出版,内池 平樹・御子
柴 茂 共著)に詳しく説明されているところである。
In other words, since the halftone is expressed by integrating the luminance of each subfield in the time direction, when the line of sight moves in a moving image or the like, an image at a position different from the original pixel position is displayed as time passes. Since the brightness weights of the respective bits are integrated, the halftone display is greatly disturbed. It should be noted that this disturbance of the halftone is recognized as a false contour appears in the image, and is therefore generally called "moving image pseudo contour". Note that the mechanism of generating the pseudo contour in such a moving image display is described in Reference 199.
Published on May 1, 7th, All about plasma display, 1
This is explained in detail on pages 65 to 177 (published by Kogyo Kenkyukai, published by Hiraki Uchiike and Shigeru Mikoshiba).

【0006】[0006]

【発明が解決しようとする課題】動画疑似輪郭を解消す
るため従来の画像表示装置において、上位の複数ビット
に対応する上記サブフィールド7及びサブフィールド8
の輝度重みを分割し、さらにこれらをフィールド内の前
半・後半とに分散して配置することによって動画像表示
における中間調表示乱れを軽減しようとする試みがなさ
れている。図37はこの従来の方法による動画疑似輪郭
の軽減方法におけるサブフィールド構成であり、10個
のサブフィールドを用いて8ビット階調レベルすなわち
256階調レベルを表示しようとするものである。各サ
ブフィールドの輝度重み付けは時間順に、48、48、
1、2、4、8、16、32、48、48となってい
る。つまり上記8つのサブフィールドにおける上位2ビ
ットサブフィールド7及びサブフィールド8の輝度重み
64、128を4つの輝度重みに分割((64+12
8)=192=48×4)して、これらを1TVフィー
ルド内の前半・後半に分散配置しており、上位ビットの
重みを小さくして中間調乱れの発生をできるだけ抑えよ
うとする技術である。この技術によれば上記した階調レ
ベル127及び128の境界部分では、階調の乱れはほ
とんど観測されず、その部分での動画疑似輪郭の発生は
抑えられるが、例えば図37に示した階調レベルが63
と64というように、輝度重みの大きなサブフィールド
(ここでは、サブフィールド9)が初めて点灯され、点
灯していた輝度重みが小さいサブフィールド(ここで
は、サブフィールド3,4,5,6及び8)を非点灯と
するような場合には、サブフィールドの点灯・非点灯の
分布が大きく変化するので、やはり境界部分では階調乱
れが観測される。つまり、点線矢印Ya方向で観測され
る階調レベルは約79であるのに対して、点線矢印Yb
で観測される階調レベルは約32になる。従って、この
ような階調の動画を表示した場合には、動画疑似輪郭の
発生は抑えられないことになる。
In order to eliminate the false contour of a moving image, in the conventional image display device, the subfield 7 and the subfield 8 corresponding to a plurality of high-order bits.
An attempt has been made to reduce the disturbance of halftone display in moving image display by dividing the luminance weights of the above and further disposing them in the first half and the second half of the field. FIG. 37 shows a subfield structure in the moving image false contour reducing method according to the conventional method, which is intended to display an 8-bit gradation level, that is, 256 gradation levels by using 10 subfields. The luminance weighting of each subfield is 48, 48,
It is 1, 2, 4, 8, 16, 32, 48, 48. That is, the luminance weights 64 and 128 of the upper 2 bit subfield 7 and the subfield 8 in the above eight subfields are divided into four luminance weights ((64 + 12
8) = 192 = 48 × 4) and disperse these in the first and second halves of one TV field, and this is a technique for reducing the weight of upper bits to suppress the occurrence of intermediate tone disturbance as much as possible. . According to this technique, at the boundary between the gradation levels 127 and 128, almost no disturbance in gradation is observed, and the generation of a moving image pseudo contour is suppressed at that portion. For example, the gradation shown in FIG. Level 63
And 64, a subfield having a large luminance weight (here, subfield 9) is first lit, and a subfield having a small luminance weight being lit (here, subfields 3, 4, 5, 6, and 8). ) Is not illuminated, the distribution of illumination / non-illumination in the subfield changes greatly, so gradation disturbance is still observed at the boundary portion. That is, the gradation level observed in the direction of the dotted arrow Ya is about 79, whereas the gradation level of the dotted arrow Yb is
The gradation level observed at is about 32. Therefore, when a moving image with such a gradation is displayed, the generation of the moving image pseudo contour cannot be suppressed.

【0007】また、上述してきた動画疑似輪郭の評価方
法では、図37に示すような点線矢印上Ya又はYbに
存在するすべてのサブフィールドの輝度重みを加算し
て、観測される動画疑似輪郭として計算するため、画像
の動きが、評価する点線矢印上Ya又はYbで表される
方向からがわずかに変化しただけでもこの点線上から外
れるサブフィールドが存在したり、逆に点線上に新たに
入ってくるサブフィールドが生じたりする。この様子
は、図37の点線矢印Yc又はYdにて図示されてお
り、画像の動きの違いがわずかであっても、計算される
動画疑似輪郭の量が大きく異なることを意味している。
このように従来の評価方法では、点線上に存在するか外
れるかの二者択一でサブフィールドの輝度重みの加算の
有無を計算していたため、わずかな動きの差であっても
ときに動画疑似輪郭評価結果の画像は大きく異なること
があり、実際に観測者が目で見た画像を反映したものが
得られず、正確な評価になり得ないという課題を有して
いた。
Further, in the above-described moving image pseudo contour evaluation method, luminance weights of all subfields existing on the dotted arrow Ya or Yb as shown in FIG. 37 are added to obtain an observed moving image pseudo contour. Because of the calculation, even if the motion of the image changes slightly from the direction indicated by Ya or Yb on the dotted arrow to be evaluated, there is a subfield that deviates from this dotted line, or conversely, it newly enters on the dotted line. There are subfields that come up. This state is shown by the dotted arrow Yc or Yd in FIG. 37, and means that the calculated amount of the moving image pseudo contour is significantly different even if the difference in the movement of the image is slight.
In this way, in the conventional evaluation method, the presence or absence of the addition of the luminance weights of the subfields is calculated by selecting whether it exists on the dotted line or deviates from the dotted line. The image of the pseudo contour evaluation result may be greatly different, and the image actually reflected by the observer cannot be obtained, so that the accurate evaluation cannot be performed.

【0008】また、想定する画像の動きも水平または垂
直のいずれか一方の動きのみであり、水平および垂直の
動きを同時に考慮したつまり斜め方向に移動した場合の
評価が困難という課題も有していた。次に、現在、テレ
ビジョン画像表示装置としてCRT表示装置が広く用い
られている。CRT表示装置は表示装置としての実績が
あり、製造コストも廉価であるほか、輝度、コントラス
トなど、その他の表示性能も高く評価されている。しか
しながら、表示装置全体の寸法や重量が大きく、壁掛け
テレビなどの薄型ディスプレイとしては、改善が望まれ
てきた。一方、薄型・軽量表示装置としては、PDPや
液晶ディスプレイの性能が向上してきたため、これらの
表示デバイスを用いた表示装置が次第に着目されるよう
になってきている。液晶ディスプレイは、現在、比較的
小サイズの表示装置に向くとされ、特にノート型コンピ
ュータ用表示装置として広く用いられている。ただし大
画面化には未だ困難が伴うこと、動画像を表示した場合
の表示応答特性が不十分で残像が発生するなどの問題点
がある。一方、プラズマディスプレイは大型化が比較的
有望であるとの判断から、将来の壁掛けテレビとして期
待されている。
Further, the assumed motion of the image is only one of the horizontal and vertical motions, and there is a problem that it is difficult to evaluate when the horizontal and vertical motions are taken into consideration at the same time, that is, when the motion is performed in an oblique direction. It was Next, currently, a CRT display device is widely used as a television image display device. The CRT display device has a track record as a display device, is low in manufacturing cost, and is highly evaluated for other display performances such as brightness and contrast. However, the size and weight of the entire display device are large, and improvement has been desired as a thin display such as a wall-mounted television. On the other hand, as thin and lightweight display devices, the performance of PDPs and liquid crystal displays has been improved, and therefore display devices using these display devices are gradually receiving attention. Liquid crystal displays are currently considered to be suitable for relatively small-sized display devices, and are widely used particularly as display devices for notebook computers. However, there are problems in that it is still difficult to increase the screen size, and the display response characteristics when a moving image is displayed are insufficient to cause an afterimage. On the other hand, the plasma display is expected to be a wall-mounted television in the future because it is determined that the size of the plasma display is relatively promising.

【0009】なお、通常のCRT表示装置では、1本の
電子ビームが所定の画素に照射された場合、その画素の
みならず、周辺の画素が同時に相当程度発光するため
に、画像表示情報が拡散し、結果的に空間周波数特性が
劣化している。それに対し、PDPや液晶ディスプレイ
などのマトリクス型ディスプレイ装置では、表示画素毎
に個別の電極を有しているなどの理由で、個々の画素で
の画像表示情報と隣接画素の画像表示情報との独立性が
高く保たれているために、画像のキレがよく、くっきり
した表示ができるなどの高い評価もある。しかしなが
ら、液晶表示装置は前述のように、表示応答特性が不十
分で、動画像を表示した場合に残像が発生するなどの欠
点がある。PDPは液晶表示装置のような応答特性の遅
れがないため、総合的な高画質表示ができると期待され
ている。
In a normal CRT display device, when one electron beam irradiates a predetermined pixel, not only that pixel but also peripheral pixels simultaneously emit a considerable amount of light, so that image display information is diffused. However, as a result, the spatial frequency characteristic is deteriorated. On the other hand, in a matrix type display device such as a PDP or a liquid crystal display, the image display information at each pixel and the image display information at an adjacent pixel are independent because each pixel has an individual electrode. Because of its high quality, the image is sharp and has a high reputation such as a clear display. However, as described above, the liquid crystal display device has a drawback that the display response characteristic is insufficient and an afterimage occurs when a moving image is displayed. PDPs are expected to be capable of comprehensive high-quality display because they do not have a delay in response characteristics as in liquid crystal display devices.

【0010】ところで従来のPDPを用いた画像表示装
置においては、PDP部分の他は、従来のCRT表示装
置を用いた場合と同様の信号源および信号処理を用いて
ディスプレイ装置を構成していため、入力映像信号に含
まれていたノイズのうち、特に2次元高域周波数成分の
ノイズは、従来のCRT表示装置では顕著でなかったも
のが特に画像が細かな静止画部分で目立つという課題が
新たに発生してきていた。
By the way, in the conventional image display device using the PDP, the display device is configured using the same signal source and signal processing as in the case of using the conventional CRT display device, except for the PDP portion. Among the noises included in the input video signal, the noises of the two-dimensional high frequency components are not particularly noticeable in the conventional CRT display device, but there is a new problem that the image is conspicuous especially in the still image portion where the image is fine. It was happening.

【0011】そこで本発明は、まず、従来にもまして動
画疑似輪郭の発生を少なくすることが可能な画像表示装
置を提供することを第1の目的としている。次に、画像
の動く方向に拘らず実際に目にみえる画像を反映した評
価が可能な画像評価装置を提供することを第2の目的と
している。また、入力映像信号のノイズ成分にあまり影
響されない良好な画像表示が行える画像表示装置を提供
することを第3の目的とする。
Therefore, a first object of the present invention is to provide an image display device capable of reducing the occurrence of moving image pseudo contours more than ever before. A second object of the present invention is to provide an image evaluation apparatus capable of evaluation that reflects an actually visible image regardless of the moving direction of the image. A third object of the present invention is to provide an image display device capable of displaying an excellent image that is not significantly affected by the noise component of the input video signal.

【0012】[0012]

【課題を解決するための手段】第1の目的を達成するた
めに、輝度重みをW1、W2、...、WNに設定し、
そして、信号レベルを0、W1、W2、...、WNを
任意に組み合わせて表現可能な信号レベルの中から、動
き量(動き量とは、複数フレームの入力映像信号の時間
変動をいう。)に応じて所定の信号レベルを選択し表示
信号とする。
In order to achieve the first object, the brightness weights W1, W2 ,. . . , WN,
Then, the signal levels are 0, W1, W2 ,. . . , WN can be expressed in any combination, and a predetermined signal level is selected according to the amount of motion (the amount of motion refers to the temporal variation of the input video signals of a plurality of frames), and the selected signal level is selected as the display signal. To do.

【0013】これは、サブフィールドの輝度重み付けと
その配列を工夫する以外の構成で、動画疑似輪郭を解消
できる極めて有効な技術と言える。無論、同時にサブフ
ィールドの輝度重み付けとその配列を工夫すれば、疑似
輪郭解消の効果は一層顕著となる。ここで、入力信号の
信号レベルと限定化によって表される表示信号の信号レ
ベルとの差分を周辺の画素に分配すれば、入力信号と表
示信号とレベルの誤差をほぼ相殺できる。
This can be said to be a very effective technique for eliminating the pseudo contour of a moving image with a configuration other than devising the weighting of subfield luminance and its arrangement. Of course, if the subfield brightness weighting and its arrangement are devised at the same time, the effect of eliminating the pseudo contour becomes more remarkable. Here, if the difference between the signal level of the input signal and the signal level of the display signal represented by the limitation is distributed to the peripheral pixels, the error between the input signal and the display signal can be almost canceled.

【0014】更に以下のような画像表示装置を提供す
る。つまり、1TVフィールドを、それぞれ輝度重みを
持つN個のサブフィールドを時間順に配列したもので構
成し、サブフィールドについての初期化は、(N−1)
回以下の回数行う。そして、所定の入力映像信号の範囲
では入力映像信号の値に比例して発光するサブフィール
ドが時間方向前方或は後方に延伸していく点灯方法が可
能となり、上記疑似輪郭解消という第1の目的が達成さ
れる。
Further, the following image display device is provided. In other words, one TV field is composed of N subfields each having a luminance weight arranged in time order, and the initialization for the subfield is (N-1).
Do the following times. Then, a lighting method in which a subfield that emits light in proportion to the value of the input video signal extends forward or backward in the time direction within a predetermined range of the input video signal becomes possible, which is the first object of eliminating the pseudo contour. Is achieved.

【0015】次に、第2の目的を達成するために、次の
ような画像評価装置を提供する。つまり、表示画面上の
所定の画素に基準点を設定し、画面上で単位時間内に移
動する当該基準点を経る経路を想定し、想定した単位時
間内の経路近傍の画素から発光される発光量に所定の演
算を施した後積算して、前記基準点における観測画像と
する装置である。
Next, in order to achieve the second object, the following image evaluation device is provided. That is, a reference point is set at a predetermined pixel on the display screen, a route that passes through the reference point that moves within the unit time on the screen is assumed, and light emission from pixels near the route within the assumed unit time is assumed. This is an apparatus for obtaining an observed image at the reference point by performing a predetermined calculation on the quantity and then integrating the quantity.

【0016】これによれば、視線が通過する経路上の画
素1画素だけでなく、視線が通過する経路の近傍の複数
の画素からの発光についても所定の演算を施す等の考慮
を行っているため、想定した画像の動きがわずかに変化
しただけで、評価結果の画像が大きく変動してしまう、
という不安定さが解消され、実際に観測者がみる画像を
反映し安定した画像評価が可能になる。
According to this, not only one pixel on the path through which the line of sight passes, but also the light emission from a plurality of pixels in the vicinity of the path through which the line of sight passes is taken into consideration. Therefore, even if the expected movement of the image changes slightly, the image of the evaluation result changes greatly.
The instability is eliminated, and the image actually viewed by the observer is reflected, enabling stable image evaluation.

【0017】また、第3の目的を達成するために、入力
信号の空間周波数成分のうち、高域成分の時間応答を抑
制して表示信号とする画像表示装置を提供する。
Further, in order to achieve the third object, there is provided an image display device which suppresses a time response of a high frequency component of a spatial frequency component of an input signal to obtain a display signal.

【0018】[0018]

【発明の実施の形態】[実施の形態1]図1は、本実施
の形態に係る画像表示装置の構成を示すブロック図であ
る。図1に示すように本実施の形態の画像表示装置は、
フィルタ部1と、γ(ガンマ)逆補正部2と、AD変換
部3と、誤差拡散部4と、動き量算出部5と、第1符号
化部6と、第2符号化部7と、表示制御部8と、PDP
9とから構成されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] FIG. 1 is a block diagram showing a configuration of an image display device according to the present embodiment. As shown in FIG. 1, the image display device of the present embodiment is
A filter unit 1, a γ (gamma) inverse correction unit 2, an AD conversion unit 3, an error diffusion unit 4, a motion amount calculation unit 5, a first encoding unit 6, a second encoding unit 7, Display control unit 8 and PDP
It is composed of 9 and 9.

【0019】PDP9は、電極がマトリックス状に配さ
れて例えば、(640画素/1ライン)×480個の画
素を備え、オンまたはオフというように2値的に発光を
行う表示装置である。そして、所定の発光回数を輝度重
みとして有する所定数(例えば、10個)のサブフィー
ルドの発光の合計で階調が表現されて、中間調表示を行
う。なお、本実施形態では説明を簡単に行うために、単
色により表示を行うPDPについて説明するが、R
(赤),G(緑),B(青)三色により画素を形成しカ
ラー表示を行うPDPにおいても、各色に対して同様に
適用することができる。
The PDP 9 is a display device in which electrodes are arranged in a matrix and which has, for example, (640 pixels / 1 line) × 480 pixels and which emits light in a binary manner such as ON or OFF. Then, gradation is expressed by a total of a predetermined number (for example, 10) of subfields having a predetermined number of times of light emission as a luminance weight, and halftone display is performed. It should be noted that in the present embodiment, a PDP that displays in a single color will be described for the sake of simplicity.
The same can be applied to each color even in a PDP in which pixels are formed by three colors (red), G (green), and B (blue) to perform color display.

【0020】フィルタ部1について詳細は後述するが、
空間周波数の高域成分を除去する回路である。γ逆補正
部2は、ここで用いるアナログ映像信号にはCRTに表
示することを前提として元の映像信号に対してγ(通常
γ=2.2)特性がかかっているので、これを補正し表
示信号ともとの入力信号とを直線的(γ=1)な入出力
関係にするための処理を行う回路である。
The filter section 1 will be described in detail later,
This is a circuit for removing high frequency components of spatial frequency. The γ inverse correction unit 2 has a γ (normally γ = 2.2) characteristic applied to the original video signal on the assumption that the analog video signal used here is to be displayed on a CRT. It is a circuit that performs processing for making the display signal and the original input signal into a linear (γ = 1) input / output relationship.

【0021】AD変換部3は、アナログ映像信号をここ
では12ビット映像信号に変換する回路である。図2
は、第2符号化部7の構成を示すブロック図である。こ
の図に示すように第2符号化部7は、サブフィールド変
換部71と、書込アドレス制御部72と、フレームメモ
リ73a,73bとから構成されている。
The AD converter 3 is a circuit for converting an analog video signal into a 12-bit video signal here. Figure 2
FIG. 3 is a block diagram showing the configuration of the second encoding unit 7. As shown in this figure, the second encoding unit 7 is composed of a subfield conversion unit 71, a write address control unit 72, and frame memories 73a and 73b.

【0022】書込アドレス制御部72は、映像信号から
分離された水平同期信号、垂直同期信号に基づいてフレ
ームメモリ書込みアドレスを指定するアドレス指定信号
を生成するものである。サブフィールド変換部71は、
各画素に対応するディジタル映像信号を、予め決められ
た所定の重み付けを有するここでは10ビットのフィー
ルド情報に変換する回路である。なお、第2符号化部7
には、第1符号化部6で下位4ビットを切り捨てた信号
(a')が符号化された8ビットのデジタル映像信号
(b)が入力される。
The write address control section 72 generates an address designating signal designating a frame memory write address based on the horizontal synchronizing signal and the vertical synchronizing signal separated from the video signal. The subfield converter 71
This is a circuit for converting the digital video signal corresponding to each pixel into here 10-bit field information having a predetermined weighting. The second encoding unit 7
An 8-bit digital video signal (b) obtained by encoding the signal (a ′) in which the lower 4 bits are truncated by the first encoding unit 6 is input to the.

【0023】フィールド情報とは、1TVフィールド内
の何れの時間帯つまり何れのサブフィールドを点灯・非
点灯させるのかという1ビットのサブフィールド情報の
集合である。ここでは、入力されるデジタル映像信号の
階調レベルに応じてサブフィールド変換部71に記憶さ
せてあるサブフィールド変換テーブル710を参照して
各画素に対応する8ビット映像信号が所定の数のサブフ
ィールドに分割される。1画素毎の分割処理は、図示し
ないPLL回路により発生された画素クロックに同期し
て行われる。このようにして生成された各画素に対応す
るフィールド情報は、書込アドレス制御部72からのア
ドレス指定信号により物理アドレスが指定されてフレー
ムメモリ73a,73bにライン毎、画素毎、フィール
ド毎、画面毎に書き込まれる。
The field information is a set of 1-bit subfield information indicating which time zone in one TV field, that is, which subfield is to be turned on or off. Here, by referring to the subfield conversion table 710 stored in the subfield conversion unit 71 according to the gradation level of the input digital video signal, the 8-bit video signal corresponding to each pixel has a predetermined number of subfields. It is divided into fields. The division process for each pixel is performed in synchronization with a pixel clock generated by a PLL circuit (not shown). The field information corresponding to each pixel generated in this manner has a physical address specified by an address specification signal from the write address control unit 72 and is stored in the frame memories 73a and 73b line by line, pixel by pixel, field by field, and screen by screen. It is written every time.

【0024】サブフィールド変換テーブル710を、図
3(a)〜図6(a)に示す。これらに示すように、当
該サブフィールド変換テーブル710は、各映像信号を
時間順に1、2、4、7、13、23、33、43、5
5、74という単調に変化する輝度重みからなる10ビ
ットのサブフィールドSF1〜SF10のオン、オフ情
報に変換するための入力信号と変換後のサブフィールド
の組み合わせとの対応を示すもので、このテーブルの縦
の欄は、入力デジタル映像信号(a')の値を示してお
り、横の欄は、当該入力映像信号を変換すべき10ビッ
トのフィールド情報を示している。なお、これらの図
で、「1」と記したサブフィールドは「オン(点灯)」
となり、その他のサブフィールドはそのフィールド期間
が「オフ(非点灯)」とされることを意味する(以下、
同様)。
The subfield conversion table 710 is shown in FIGS. 3 (a) to 6 (a). As shown in these figures, the sub-field conversion table 710 shows that each video signal is time-sequentially arranged in the order of 1, 2, 4, 7, 13, 23, 33, 43, 5, 5.
This table shows the correspondence between the input signal for converting into the on / off information of the 10-bit subfields SF1 to SF10 having monotonically changing luminance weights of 5 and 74 and the combination of the converted subfields. The vertical column indicates the value of the input digital video signal (a ′), and the horizontal column indicates the 10-bit field information to which the input video signal should be converted. In these figures, the subfield marked "1" is "ON (lit)".
And other subfields mean that the field period is “off (non-lighting)” (hereinafter,
As well).

【0025】例えば、サブフィールド変換部71では、
値が27(図中*付記)のデジタル映像信号が入力され
ると、当該映像信号は、サブフィールド変換テーブル7
10の表に基づき、「0000011111」という1
0ビットデータに変換して出力する。なお、ここでのビ
ット表現は、サブフィールドの番号とビット表現におけ
る桁を対応させた表記にしている。ちなみに、この変換
後の10ビットデータを10進数で表記すると図中最右
欄に記載した値「31」といった値になる。
For example, in the subfield converter 71,
When a digital video signal having a value of 27 (* in the figure) is input, the video signal is converted into the subfield conversion table 7
Based on the table of 10, 1 called "0000011111"
Converts to 0-bit data and outputs. Note that the bit representation here is represented by associating the subfield number with the digit in the bit representation. By the way, if the converted 10-bit data is expressed by a decimal number, a value such as the value “31” described in the rightmost column in the figure is obtained.

【0026】フレームメモリ73a,73bそれぞれ
は、図7に示すような内部構造をしている。つまり、フ
レームメモリ73aは、一の画面の前半分(1〜L(2
40ライン)に相当するフィールド情報を格納する第1
のメモリ領域73a1と、別の一の画面の前半分(1〜
L(240)ライン)に相当するフィールド情報を格納
する第2のメモリ領域73a2とを備える。フレームメ
モリ73bも、一の画面の後半分(L+1〜2L(48
0)ライン)に相当するフィールド情報を格納する第1
のメモリ領域73b1と、別の一の画面の後半分(L+
1〜2L(480)ライン)に相当するフィールド情報
を格納する第2のメモリ領域73b2とを備える。
Each of the frame memories 73a and 73b has an internal structure as shown in FIG. That is, the frame memory 73a stores the front half (1 to L (2
First field field information equivalent to 40 lines)
Memory area 73a1 and the front half of another screen (1
And a second memory area 73a2 for storing field information corresponding to L (240) lines. The frame memory 73b also includes the rear half of one screen (L + 1 to 2L (48
0) First field storing field information corresponding to line)
Memory area 73b1 and the rear half of another screen (L +
A second memory area 73b2 for storing field information corresponding to 1 to 2 L (480 lines).

【0027】そして、第1のメモリ領域73a1(第1
のメモリ領域73b1)及び第2のメモリ領域73a2
(第2のメモリ領域73b2)のメモリ領域は、それぞ
れ10個のサブフィールドメモリSFM1〜SFM10
を備えている。この構成により1画面について前半分と
後半分とに分割して2画面分に相当する10ビットのサ
ブフィールドの組み合わせに関するフィールド情報が、
各サブフィールドの点灯・非点灯に関する情報としてサ
ブフィールドメモリSFM1〜SFM10に書き込まれ
る。本実施の形態では、サブフィールドメモリSFM1
〜SFM10は、1ビット入力で1ビット出力の半導体
メモリを用いてある。また、このフレームメモリ73
a,73bは、フィールド情報を書き込むと同時に、P
DP9への読み出しも同時に可能な2ポートフレームメ
モリである。
Then, the first memory area 73a1 (first
Memory area 73b1) and the second memory area 73a2
The memory area of the (second memory area 73b2) includes 10 subfield memories SFM1 to SFM10.
Is equipped with. With this configuration, field information relating to a combination of 10-bit subfields corresponding to two screens divided into the first half and the second half for one screen is
It is written in the subfield memories SFM1 to SFM10 as information regarding lighting / non-lighting of each subfield. In the present embodiment, the subfield memory SFM1
~ SFM10 uses a semiconductor memory of 1-bit input and 1-bit output. In addition, this frame memory 73
a and 73b simultaneously write the field information and at the same time P
It is a 2-port frame memory that can read data to the DP 9 at the same time.

【0028】フレームメモリ73a,73bへのフィー
ルド情報の書き込みは、一の画面分の前半分のフィール
ド情報を第1のメモリ73a1へ、当該一の画面分の後
半分のフィールド情報を第1のメモリ73b1へ、そし
て、次の一画面分の前半分のフィールド情報を第2のメ
モリ領域73a2へ、当該別な一画面分の後半分のフィ
ールド情報を第2のメモリ領域73b2へというように
2つのフレームメモリ73a,73bの4つのメモリ領
域73a1,73b1,73a2又は73b2に対して交互
に行われる。そして、一のメモリ領域73a1,73b
1,73a2及び73b2へのフィールド情報の書き込み
は、サブフィールド変換部71から画素クロックに同期
して出力される10ビットデータを10のサブフィール
ドメモリSFM1〜10に1ビットずつに分配して書き
込むという方法で実行される。10ビットデータのどの
ビットをどのサブフィールドメモリSFM1〜10に格
納するかは予め定められている。
To write field information to the frame memories 73a and 73b, the first half of the field information for one screen is stored in the first memory 73a1 and the second half of the field information for one screen is stored in the first memory. 73b1 and the field information of the first half of the next one screen to the second memory area 73a2, and the field information of the second half of the other one screen to the second memory area 73b2. The four memory areas 73a1, 73b1, 73a2 or 73b2 of the frame memories 73a, 73b are alternately performed. Then, one memory area 73a1, 73b
The writing of the field information to 1, 73a2 and 73b2 is said to be performed by dividing the 10-bit data output from the subfield converter 71 in synchronization with the pixel clock into the 10 subfield memories SFM1 to 10 and writing the divided bit by bit. Executed in a way. Which bit of the 10-bit data is to be stored in which subfield memory SFM1-10 is predetermined.

【0029】詳しくは、サブフィールド変換テーブル7
10のサブフィールド番号1〜10と、それと同一番号
のサブフィールドメモリSFM1〜10が論理的に対応
付けられていて、10ビットデータのビットがどのサブ
フィールド番号に相当するものであるかによって該当す
るサブフィールドメモリSFM1〜10に書き込まれる
のである。10ビットデータのサブフィールドメモリS
FM1〜10への書き込み位置は、書込アドレス制御部
72からのアドレス指定信号によって指示される。10
ビットデータに変換される前の画素信号の画面上での位
置と同一位置に書き込まれるのが一般的である。
Specifically, the subfield conversion table 7
The 10 subfield numbers 1 to 10 are logically associated with the subfield memories SFM1 to SFM having the same numbers as the subfield numbers, and the subfield numbers correspond to which subfield number the bit of the 10-bit data corresponds to. It is written in the subfield memories SFM1 to SFM10. 10-bit data subfield memory S
The write position to the FMs 1 to 10 is designated by the address designation signal from the write address controller 72. 10
Generally, the pixel signal before being converted into bit data is written at the same position as the position on the screen.

【0030】上記表示制御部8は、図8に示すように表
示ライン制御部80と、アドレスドライバ81a,81
bと、ラインドライバ82とから構成されている。表示
ライン制御部80は、フレームメモリ73a,73bに
PDP9に読み出すべきメモリ領域73a1,73b1,
73a2若しくは73b2,ライン,サブフィールドを指
定し、又、PDP9の何れのラインを走査するのかの指
示を出すものである。
The display controller 8 has a display line controller 80 and address drivers 81a and 81a as shown in FIG.
b and a line driver 82. The display line control unit 80 has memory areas 73a1, 73b1, and memory areas 73a1, 73b1, to be read by the PDP 9 in the frame memories 73a, 73b.
73a2 or 73b2, a line and a subfield are designated, and an instruction as to which line of the PDP 9 is to be scanned is issued.

【0031】この表示ライン制御部80の動作は第2符
号化部7におけるフレームメモリ73a,73bへの書
込動作と画面単位のオーダでは同期がとられている。即
ち、表示ライン制御部80は10ビットデータを書込中
のメモリ領域73a1,73b1(73a2,73b2)か
らは読み出しは行わず、既に書込完了したメモリ領域7
3a2,73b2(73a1,73b1)から読み出しを行
う。
The operation of the display line control unit 80 is synchronized with the writing operation to the frame memories 73a and 73b in the second encoding unit 7 in the order of the screen unit. That is, the display line control unit 80 does not read from the memory areas 73a1 and 73b1 (73a2 and 73b2) in which 10-bit data is being written, but the memory area 7 that has already been written.
Reading is performed from 3a2, 73b2 (73a1, 73b1).

【0032】アドレスドライバ81aは、表示ライン制
御部80のメモリ領域指定、読出ライン指定及びサブフ
ィールド指定に基づいて1ビットづづシリアルに入力さ
れた1ラインに相当するサブフィールド情報を、1ライ
ン分の画素数に対応したビット(640ビット)をパラ
レルに、アドレスパルスに変換して画面前半分のライン
に出力するものである。アドレスドライバ81bは、ラ
インドライバ81aと同様に前記サブフィールド情報
を、アドレスパルスに変換して画面後半分のラインに出
力するものである。
The address driver 81a outputs the subfield information corresponding to one line serially input bit by bit based on the memory area designation, the read line designation and the subfield designation of the display line control section 80. Bits (640 bits) corresponding to the number of pixels are converted into address pulses in parallel and output to the front half line of the screen. Similarly to the line driver 81a, the address driver 81b converts the subfield information into address pulses and outputs the address pulses to the lines corresponding to the second half of the screen.

【0033】ラインドライバ82は、サブフィールド情
報をPDP9の何れのラインに書き込むのか走査パルス
により指定するものである。このような表示制御部8の
構成により、次のようにフレームメモリ73a,73b
からPDP9へのフィールド情報の読み出しが行われ
る。フレームメモリ73a,73bに分割して書き込ま
れた1画面分のフィールド情報の読み出しは、前半分と
後半分とに相当するデータを同時に読み出すことにより
行う。つまり、メモリ領域73a1,73b1から同時に
画素毎にサブフィールド情報がサブフィールドメモリS
FM1,SFM2,・・・,SF10から順次読み出さ
れることにより行われる。より具体的には、まず、メモ
リ領域73a1,73b1双方のサブフィールドメモリS
FM1から1ライン目の各画素に相当するサブフィール
ド情報が1ビットづつ順次読み出される。そして、ライ
ンドライバ82によるライン指定を待って前半・後半画
面のそれぞれの1ライン目に潜像を形成(アドレッシン
グ)し、次いで、同じサブフィールドメモリSFM1か
ら前半・後半画面の2ライン目の各画素に対応するサブ
フィールド情報を読み出して同じようにアドレスドライ
バ81a,81bに順次シリアルに入力し、1ラインの
画素数に相当するビットここでは640ビットのサブフ
ィールド情報がパラレルにPDP9に出力されアドレッ
シングが行われる。このような読み出し(書き込み)が
画面分割した分割領域におけるそれぞれの最終ラインま
で終了すれば、一斉に各画素が発光される。
The line driver 82 specifies which line of the PDP 9 the subfield information is written to by a scanning pulse. With such a configuration of the display control unit 8, the frame memories 73a and 73b are as follows.
The field information is read from the PDP 9 to the PDP 9. The reading of the field information for one screen that is divided and written in the frame memories 73a and 73b is performed by simultaneously reading the data corresponding to the first half and the second half. That is, the sub-field information is stored in the sub-field memory S from the memory areas 73a1 and 73b1 at the same time for each pixel.
This is performed by sequentially reading from FM1, SFM2, ..., SF10. More specifically, first, the sub-field memories S in both the memory areas 73a1 and 73b1.
Subfield information corresponding to each pixel on the first line is sequentially read from FM1 bit by bit. Then, after waiting for the line designation by the line driver 82, a latent image is formed (addressing) on the first line of each of the first and second half screens, and then each pixel of the second line of the first and second half screens from the same subfield memory SFM1. The subfield information corresponding to is read out and sequentially serially input to the address drivers 81a and 81b in the same manner, and a bit corresponding to the number of pixels in one line. Here, 640 bits of subfield information are output in parallel to the PDP 9 and addressed. Done. When such reading (writing) is completed up to the last line in each of the divided areas obtained by dividing the screen, the pixels are simultaneously emitted.

【0034】次のサブフィールドSF2の点灯・非点灯
に関するサブフィールド情報が上記同様に1ラインづづ
読み出されてアドレッシングが行われた後、次いで順次
サブフィールドSF10までこの動作を繰り返すと、1
画面分のフィールド情報の読み出し(書き込み)が終了
する。このようなPDPの作動方式を図示すると図9に
示すようになる。この図9は、横軸は時間、縦軸はPD
Pの横方向に延びる電極、すなわち走査・放電維持電極
の番号を示し、太斜線の部分で発光させる画素のアドレ
スを指定し、網掛けをした部分で画素を発光させる。つ
まり、分割画面それぞれの1ライン目の走査・放電維持
電極上の全ての横方向画素に対し、サブフィールドSF
1が始まるタイミングに合わせて縦方向に走るアドレス
電極にアドレスパルスを印加することによりアドレッシ
ングを行う。走査・放電維持電極の1ライン目のアドレ
ッシングが終了したら、それ以降のラインに次々と、同
様な操作を繰り返す。分割画面において最後の走査・放
電維持電極のアドレッシングが終了したら、時刻t1〜
t2放電維持期間に移る。この期間では、重み付けに比
例した数の放電維持パルスが放電維持電極に印加される
が、上記アドレス指定により発光の指示があった画素の
み発光されるようになっている。そして、繰り返し説明
することになるが以上述べたようなサブフィールドにお
けるアドレッシングと全画素の一斉点灯という動作が繰
り返されることにより、1TVフィールド分の階調表示
が完了する。なお、ここでは説明は省略したが上記アド
レッシングは、全画素の壁電荷を消去する初期化期間を
経た後に行われ、また、このように表示させる画素へ予
め情報を書込んだ後(アドレッシング)、発光させると
いう駆動方式は「メモリ駆動法」と呼ばれる。
After the sub-field information regarding lighting / non-lighting of the next sub-field SF2 is read line by line in the same manner as described above and addressing is performed, when this operation is sequentially repeated until the sub-field SF10, 1
The reading (writing) of the field information for the screen is completed. FIG. 9 illustrates an operation method of such a PDP. In FIG. 9, the horizontal axis represents time and the vertical axis represents PD.
The number of the electrode extending in the lateral direction of P, that is, the number of the scanning / discharging sustaining electrode is shown, the address of the pixel to be made to emit light is designated by the thick shaded portion, and the pixel is made to emit light at the shaded portion. That is, for all the horizontal pixels on the scan / discharge sustaining electrodes of the first line of each divided screen, the subfield SF
Addressing is performed by applying address pulses to the address electrodes running in the vertical direction at the timing when 1 starts. After the addressing of the first line of the scan / discharge sustaining electrodes is completed, the same operation is repeated for the subsequent lines. After the addressing of the last scan / discharge sustaining electrode on the split screen is completed, time t1
The t2 discharge maintaining period starts. During this period, the number of discharge sustaining pulses proportional to the weighting is applied to the discharge sustaining electrodes, but only the pixels that have been instructed to emit light by the above address designation emit light. Then, as will be repeatedly described, the gradation display for one TV field is completed by repeating the operations of addressing in the subfield and simultaneous lighting of all pixels as described above. Although not described here, the addressing is performed after an initialization period for erasing the wall charges of all pixels, and after writing information in advance to the pixels to be displayed in this way (addressing), The driving method of emitting light is called a "memory driving method".

【0035】そして、上記読み出しと並行して別のメモ
リ領域に書き込まれた次の画面の前半分と後半分に相当
するフィールド情報を上記同様にして読み出すことによ
って動画の表示が行われる。次に、第2符号化部7の符
号化の特徴について説明する。上記サブフィールド変換
テーブル710において、サブフィールド数は、10で
あり、図3(a)〜図6(a)に示したように、時間順
に単調に増加する1,2,3,4,7,13,23,3
3,43,55,74という重み付けを施してあった。
Then, in parallel with the above-mentioned reading, the moving image is displayed by reading out the field information corresponding to the first half and the second half of the next screen written in another memory area in the same manner as described above. Next, the features of the encoding of the second encoding unit 7 will be described. In the sub-field conversion table 710, the number of sub-fields is 10, and as shown in FIGS. 3A to 6A, 1, 2, 3, 4, 7, monotonically increasing in time order. 13, 23, 3
The weighting of 3,43,55,74 was given.

【0036】このような重み付けによれば、重みが上位
のサブフィールドの輝度を、重みが下位のサブフィール
ドを複数を組み合わせることによって表現することがで
きる。これにより該当する階調表示を行うのにサブフィ
ールドの組み合わせが幾つか存在する場合があることに
なる。例えば、信号レベル127であれば(図中▲
印)、サブフィールドSF10,SF8,SF4,SF
2,SF1の組み合わせ若しくはサブフィールドSF
9,SF8,SF6,SF3,SF2又はサブフィール
ドSF9,SF7,SF6,SF5,SF2,SF1の
組み合わせが存在する。
According to such weighting, the brightness of the subfield having a higher weight can be expressed by combining a plurality of subfields having a lower weight. As a result, there may be some combinations of subfields for performing the corresponding gradation display. For example, if the signal level is 127 (in the figure,
), Subfields SF10, SF8, SF4, SF
2, SF1 combination or subfield SF
There are combinations of 9, SF8, SF6, SF3, SF2 or subfields SF9, SF7, SF6, SF5, SF2, SF1.

【0037】そして、これらの複数の組み合わせの中
で、サブフィールド変換テーブル710はその内の一通
りの組合せで記述されている。即ち、デジタル映像信号
の値が127の場合にはサブフィールドSF9,SF
7,SF6,SF5,SF2,SF1の組合せが記述さ
れている。このようにサブフィールド変換テーブル71
0に記述されているサブフィールドの組合せは、要約す
ると、輝度重みが上位のサブフィールドの使用を極力抑
えた組合せであるということである。そして、このよう
な組合せは低輝度(0〜22)を除く中輝度から高輝度
(23〜255)にかけて採用されていることが変換テ
ーブル710の内容から理解される。
Among these plural combinations, the subfield conversion table 710 is described by one of the combinations. That is, when the value of the digital video signal is 127, the subfields SF9, SF
7, the combination of SF6, SF5, SF2 and SF1 is described. In this way, the subfield conversion table 71
In summary, the combination of subfields described in 0 is a combination in which use of subfields having higher luminance weights is suppressed as much as possible. Then, it is understood from the contents of the conversion table 710 that such a combination is adopted from medium brightness except low brightness (0 to 22) to high brightness (23 to 255).

【0038】また、信号レベルが27→28、50→5
1、83→84、126→127、181→182に変
化する箇所のサブフィールドの組合せを参照すれば理解
されるように次のような特徴もある。即ち、一階調レベ
ル低いレベル(27、50、83、126、181)ま
ではオフであった輝度重みの重いサブフィールドを、オ
ンにするレベルにおいては、そのオンにされた輝度重み
より1段低い輝度重みのサブフィールドはオフになるよ
うにしている。
The signal level is 27 → 28, 50 → 5.
As will be understood by referring to the combination of subfields at the positions changing from 1, 83 → 84, 126 → 127, 181 → 182, the following features are also provided. That is, at the level at which a subfield having a large luminance weight that was off up to a level lower by one gradation level (27, 50, 83, 126, 181) is turned on, the subfield is one stage lower than the luminance weight turned on. Subfields with low luminance weights are turned off.

【0039】以上述べたような点灯パターンを選択する
ことにより、信号レベルが変化した場合に点灯パターン
が時間的に激しく変化することを抑制でき、動画疑似輪
郭の解消につながる。次に発明の特徴的な内容について
詳細に説明する。まず、フィルタ部1は、図10に示す
ように、2次元高域通過フィルタ11と、2次元低域通
過フィルタ12と、時間応答低域通過フィルタであるテ
ンポラルLPF13と、加算部14とから構成されてい
る。
By selecting the lighting pattern as described above, it is possible to prevent the lighting pattern from changing drastically with time when the signal level changes, and it is possible to eliminate the false contour of the moving image. Next, the characteristic contents of the invention will be described in detail. First, as shown in FIG. 10, the filter unit 1 includes a two-dimensional high-pass filter 11, a two-dimensional low-pass filter 12, a temporal LPF 13 that is a time response low-pass filter, and an addition unit 14. Has been done.

【0040】2次元高域通過フィルタ11によって、画
像の細かな絵柄成分のみが取り出される。取り出された
細かな絵柄成分のうち、時間方向に変化の激しい成分
は、テンポラルLPF13によって抑制され加算部14
に出力される。テンポラルLPF13と、2次元低域通
過フィルタ12の出力は、加算部14で合成され、結局
入力映像信号に含まれる画像成分のうち、細かな画像成
分が時間方向に激しく変化する部分のみ抑制されて以下
表示されることになる。従って、細かなパターンが短い
周期で変化する成分は表示されず、ノイズ成分が表示さ
れることが防止できる。なお、通常の高精細画像表示に
重要な静止画像部分の高精細画像情報は保存されて表示
される。したがって、静止画においては、精細画像情報
を損なうことなく、かつ動画表示においては、画像の大
面積の部分のように空間周波数の低い部分での応答特性
を損なうことなく、静止画および動画のいずれにおいて
もノイズの少ない良好な画像表示を行うことができる。
The two-dimensional high-pass filter 11 extracts only the fine picture component of the image. Of the extracted fine pattern components, the components that change drastically in the time direction are suppressed by the temporal LPF 13 and added by the addition unit 14.
Is output to. The outputs of the temporal LPF 13 and the two-dimensional low-pass filter 12 are combined by the adder 14, and finally, of the image components included in the input video signal, only a portion where a fine image component drastically changes in the time direction is suppressed. It will be displayed below. Therefore, the component in which the fine pattern changes in a short cycle is not displayed, and it is possible to prevent the noise component from being displayed. The high-definition image information of the still image portion, which is important for normal high-definition image display, is stored and displayed. Therefore, in a still image, fine image information is not impaired, and in moving image display, both a still image and a moving image are not impaired without impairing the response characteristics in a low spatial frequency portion such as a large area portion of the image. In this case, it is possible to display a good image with less noise.

【0041】第1符号化部6は、12ビットのデジタル
入力映像信号(信号(a''))の下位4ビットを除去し
て(信号(a'))8ビットの信号(b)に変換して第
1符号化部7に出力する回路であり、ここでは画像の動
き量が大きくなるほど階調表示特性を犠牲にし疑似輪郭
解消を優先した符号化を、図3(b)〜図6(b)に示
す変換テーブル60を参照して入力レベル(a')を所
定のレベル(b)に変換する。なお、このように12ビ
ットの上位8ビットを用いて階調表示を行うのはみかけ
の階調数を多くして表示するためである。
The first encoder 6 removes the lower 4 bits of the 12-bit digital input video signal (signal (a '')) (signal (a ')) and converts it to an 8-bit signal (b). 3 (b) to FIG. 6 (refer to FIG. 3B to FIG. 6), in which the gradation display characteristics are sacrificed as the image motion amount increases and the pseudo contour elimination is prioritized. The input level (a ') is converted into a predetermined level (b) by referring to the conversion table 60 shown in b). It should be noted that the reason why gradation display is performed using the higher 8 bits of 12 bits is to increase the number of apparent gradations.

【0042】この変換テーブル60は、当該画像の動き
量を表す後述する動き量算出部で生成された出力値mの
値に基づいて本来のレベル(a')をそれに近い一のレ
ベルに変換(b)するための対応を示すテーブルであ
り、テーブルの左端縦の欄は、下位4ビットを除去した
入力デジタル映像信号(a')の値を示しており、ま
た、「●」と記した縦の欄は、該当する動き量mにおけ
る入力信号に対し出力する信号値の組み合わせ、つまり
入力信号の符号化の態様を示している。なお、以下述べ
るように本画像表示装置では、現在入力されているフレ
ームをPDPに表示させるのに先行して動き量算出を行
う関係上、実際の入力映像信号よりも1フレーム相当遅
延させる必要性があるので、本実施の形態では少なくと
も2フレーム相当の映像信号を記憶できるだけの図示し
ないフレームメモリを備え、このフレームメモリからデ
ータを読み出して第1符号化部6での符号化処理を行
う。
The conversion table 60 converts the original level (a ') into one level close to it based on the value of the output value m generated by the motion amount calculation unit, which will be described later, which indicates the amount of motion of the image. b) is a table showing correspondences for performing, and the column on the left end of the table shows the value of the input digital video signal (a ′) from which the lower 4 bits are removed. The column of (2) indicates a combination of signal values to be output with respect to the input signal at the corresponding motion amount m, that is, a mode of encoding the input signal. As will be described below, in the present image display device, it is necessary to delay the current input frame by one frame from the actual input video signal in order to calculate the motion amount prior to displaying the currently input frame on the PDP. Therefore, in the present embodiment, a frame memory (not shown) that can store at least two frames of video signals is provided, and the data is read from this frame memory and the first encoding unit 6 performs the encoding process.

【0043】動き量算出部5は各1フレーム分の画像を
記憶するためのフレームメモリ51a,51bと、動き
量検出部52と、傾斜部検出部53と、動き量補正部5
4とから構成されている。動き量検出部52は、フレー
ムメモリ51a,51bから映像信号を読み出してこれ
から表示しようするフレームと直前のフレーム、2フレ
ーム分の映像信号を画素毎に比較し差分値が所定値を超
える場合に動き(変動)があるとし、更にその差分値を
ここでは一例として9段階に分け動きがないとの検出を
含め合計10段階に分けて「0000」〜「1001」
の4ビットの値を出力する。この前フレームからの変動
値が大きいほど当該画素の動き(変動)が激しいことを
意味する。なお、フレームメモリ51a(51b)に記
憶される映像データは、現在の1のフレームのディスプ
レイへの表示が終われば随時、次の1フレームの映像デ
ータに更新される。
The motion amount calculation unit 5 includes frame memories 51a and 51b for storing images for each one frame, a motion amount detection unit 52, an inclined portion detection unit 53, and a motion amount correction unit 5.
4 and. The motion amount detection unit 52 reads out the video signal from the frame memories 51a and 51b, compares the frame to be displayed with the previous frame, the video signals for the previous two frames for each pixel, and moves when the difference value exceeds a predetermined value. (Variation), and further, the difference value is divided into 9 steps here as an example, and is divided into 10 steps in total including detection that there is no movement, and “0000” to “1001”.
The 4-bit value of is output. The larger the variation value from the previous frame, the more intense the movement (variation) of the pixel. The video data stored in the frame memory 51a (51b) is updated to the video data of the next one frame at any time after the display of the current one frame on the display is completed.

【0044】傾斜部検出部53は、フレームメモリ51
a(51b)から映像信号を読み出して同一フレームに
おけるエッジ部(信号レベルの変化の大きな画素領域)
以外で、レベルが単調に変化する画像領域である傾斜部
を検出する回路である。そして、傾斜部を検出すれば
「1」を、同じ値のビットを付加して4ビットにして、
又エッジ部やレベル変化がほとんどない平坦部を検出す
れば「0」を同じ値のビットを付加して4ビットにして
出力する。つまり、「1」であれば「1111」を、
「0」であれば「0000」を出力する。なお、この傾
斜部検出部53には、公知のエッジ検出フィルタを用い
て水平方向及び垂直方向の傾斜度を検出し、何れかの方
向において単調に変化していれば傾斜部とする。
The inclined portion detecting portion 53 is provided in the frame memory 51.
The video signal is read from a (51b) and the edge portion in the same frame (pixel area where the signal level changes greatly)
Other than that, it is a circuit that detects an inclined portion that is an image area in which the level monotonously changes. Then, if an inclined portion is detected, "1" is added to the bits of the same value to make 4 bits,
If an edge part or a flat part with almost no level change is detected, "0" is added to the bit of the same value and output as 4 bits. In other words, if it is "1", then "1111"
If it is "0", "0000" is output. The slope detecting unit 53 uses a known edge detection filter to detect the inclination in the horizontal direction and the vertical direction, and if it is monotonically changing in any direction, the slope is detected.

【0045】動き量補正部は54、前記動き量検出部5
2からの出力と傾斜部検出部52からの出力を入力とし
て、最終的に当該画素の前フレームからの動き量を
「0」〜「9」の10段階に段階付けを行って段階に応
じた値mを第1符号化部6に出力する。具体的には、図
12に示すように、当該画素が動きがない(値「000
0」のとき)場合であれば、傾斜部検出部の検出結果如
何に関らず、動き量補正部は「0000」を出力する。
当該画素が動きのあるもので(値「0001」〜「10
01」のとき)、かつ、信号レベルが隣接画素間で単調
に変化する領域、即ち傾斜部に属するものであれば(値
「1111」のとき)、動き量に応じた9段階に出力さ
れる(値「0001」〜「1001」)。一方、動き量
検出部からの出力が動きが大きいことを示す値であって
も、傾斜部検出部52からの出力が隣接画素間で単調に
変化する領域に属するものでないことを示す場合には
(値「0000」のとき)、動き量mの出力値は「00
00」つまり、動きがないものとして出力する。これ
は、動きがあっても、エッジ部やレベル変化がほとんど
ない平坦部などの画像パターンによっては動画疑似輪郭
を引き起こさないので、この場合には第1符号化部6に
おいて階調数を優先した符号化を行うようにするためで
ある。なお、図3(b)〜図6(b)及び以下の説明で
は動き量mは2進数ではなく、簡略のために10進数で
記載する。
The motion amount correction unit 54, the motion amount detection unit 5
The output from 2 and the output from the slope detection unit 52 are input, and finally, the amount of movement of the pixel from the previous frame is graded into 10 stages of "0" to "9", and the stage is adjusted according to the stage. The value m is output to the first encoding unit 6. Specifically, as shown in FIG. 12, the pixel does not move (value “000”).
In the case of “0”), the motion amount correction unit outputs “0000” regardless of the detection result of the inclined portion detection unit.
The pixel is in motion (values “0001” to “10
01 "), and if the signal level belongs to an area where the signal level monotonously changes between adjacent pixels, that is, a slope portion (when the value is" 1111 "), the signal is output in nine stages according to the amount of movement. (Values "0001" to "1001"). On the other hand, even if the output from the motion amount detecting unit is a value indicating that the motion is large, if it indicates that the output from the slope detecting unit 52 does not belong to a region that monotonically changes between adjacent pixels, (When the value is “0000”), the output value of the movement amount m is “00
00 ", that is, output as no motion. This does not cause a pseudo contour of a moving image depending on an image pattern such as an edge portion or a flat portion with almost no level change even if there is a motion. In this case, therefore, the first encoding unit 6 gives priority to the number of gradations. This is for encoding. Note that, in FIGS. 3B to 6B and the following description, the motion amount m is not a binary number, but is a decimal number for simplicity.

【0046】図11に戻り誤差拡散部4は、加算部41
と、誤差算出部42と、遅延部43a〜43dと、係数
部44a〜44dとから構成されている。誤差算出部4
2は、第1符号化部6での符号化の結果の出力レベル
(b)と、12ビット入力レベル(a'')との差分
(c)を算出する回路である。遅延部43aは、1画素
(1D)分当該差分値(c)を遅延させて出力させるた
めの回路、遅延部43bは、(1ライン(1H)+1画
素(1D))分当該差分値を遅延させて出力させるため
の回路、遅延部43cは、1ライン(1H)分当該差分
値を遅延させて出力させるための回路及び遅延部43d
は、(1ライン(1H)−1画素(1D))分当該差分
値を遅延させて出力させるための回路である。
Returning to FIG. 11, the error diffusion unit 4 includes an addition unit 41.
The error calculation unit 42, the delay units 43a to 43d, and the coefficient units 44a to 44d. Error calculator 4
Reference numeral 2 is a circuit for calculating the difference (c) between the output level (b) as a result of the encoding in the first encoding unit 6 and the 12-bit input level (a ″). The delay unit 43a delays the difference value (c) by 1 pixel (1D) and outputs it, and the delay unit 43b delays the difference value by (1 line (1H) +1 pixel (1D)). The delay unit 43c for delaying and outputting the differential value is a circuit for delaying and outputting the difference value by one line (1H).
Is a circuit for delaying and outputting the difference value by (1 line (1H) -1 pixel (1D)).

【0047】係数部44a〜44dは、差分値(c)に
所定の係数に相当する比率に分配する回路であり、分配
した値を最終的に加算部41において現在表示しようと
する画素の映像信号に加算して第1符号化部6に出力す
る。このような処理は、一般的に誤差拡散法と言われる
処理である。従って、前記第1符号化部6に入力される
入力信号(a'')は、当該画素のもとの信号レベルに、
先に符号化処理により発生した近傍の画素の誤差が加算
された信号である。なお、この誤差拡散の処理は動画で
あるか静止画であるかに関らず行われる。何故なら第1
符号化部6では、12ビットの入力映像信号の下位4ビ
ットを切り捨てるため、静止画であっても必ず4ビット
ぶんの誤差が生じるからである。
The coefficient parts 44a to 44d are circuits that distribute the difference value (c) to a ratio corresponding to a predetermined coefficient, and the distributed value is finally displayed in the adding part 41 as the video signal of the pixel currently displayed. And output to the first encoding unit 6. Such processing is generally called an error diffusion method. Therefore, the input signal (a ″) input to the first encoding unit 6 has the original signal level of the pixel,
This is a signal to which the error of the neighboring pixels generated by the encoding process is added. The error diffusion process is performed regardless of whether it is a moving image or a still image. Because first
This is because the encoding unit 6 discards the lower 4 bits of the 12-bit input video signal, so that an error of 4 bits always occurs even for a still image.

【0048】次に、第1符号化部6及び誤差拡散部4で
の動作について具体的に説明する。まず、図3(a)〜
図6(a)と図3(b)〜図6(b)とを見比べてみる
と分かるが、第1符号化部6での符号化には、サブフィ
ールドの非点灯から点灯への変化の程度と動き量とに相
関性がある。具体的には、サブフィールドの組み合わせ
において点灯させるサブフィールドが非点灯から点灯へ
の変化がない、始めから連続的に点灯し疑似輪郭を最も
引き起こしにくいレベルの組み合わせ(「0」、
「1」、「3」、「7」、「14」、「27」、「5
0」、「83」、「126」、「181」、および「2
55」)を動きの最も激しい場合(m=「9」)に使用
する。次いで、1階調下位の表示では非点灯であったも
のが点灯に変化するサブフィールドの輝度重みに比例さ
せ、動きが小さくなるに従って、この非点灯から点灯へ
の変化が輝度重みの大きいサブフィールドで起こるよう
な、動きが激しければ疑似輪郭の要因となるようなレベ
ルを選択している。別な見方をすれば、動きが大きくな
るにつれて連続的に点灯する時間の長い信号レベルを選
択するということでもある。
Next, the operations of the first encoding unit 6 and the error diffusion unit 4 will be specifically described. First, FIG.
As can be seen by comparing FIG. 6A and FIGS. 3B and 6B, the first encoding unit 6 does not change the subfield from non-lighting to lighting. There is a correlation between the degree and the amount of movement. Specifically, in the combination of subfields, the subfields to be lit do not change from non-illuminated to lit, and a combination of levels (“0”, which is the most difficult to cause pseudo contours when continuously lit from the beginning (“0”,
"1", "3", "7", "14", "27", "5"
0 "," 83 "," 126 "," 181 ", and" 2 "
55 ") is used when the movement is the most intense (m =" 9 "). Then, in the display of one gradation lower, the non-illuminated subfield is proportional to the luminance weight of the subfield that changes to the illumination. The level is selected so that it causes a pseudo contour if the movement is intense, as occurs in. Another point of view is to select a signal level that has a long lighting time as the movement increases.

【0049】このような画像の動きの程度に応じた符号
化を行えば、動きの激しい場合には的確に疑似輪郭を解
消でき、一方、疑似輪郭発生の可能性が低い動きが小さ
い場合には、階調数を増やし静止画(m=「0」)で
は、最大の階調数で表現できる。詳しくは、入力信号が
ほとんど静止画のような部分では、動き量(m)の値は
「0」となり、図3(b)〜図6(b)の使用可能な符
号化出力(b)は同図●印で示すように、入力信号
(a')のうち、256種類すべての符号を使用する。
すなわち静止画の場合は、 入力(a')=符号化出力(b) となり、256階調を用いて画像表示を行う。
If encoding is performed according to the degree of movement of such an image, the pseudo contour can be accurately eliminated when the movement is vigorous, while on the other hand, when the movement is low and the pseudo contour is unlikely to occur, the movement is small. , The number of gradations is increased and still images (m = “0”) can be expressed with the maximum number of gradations. Specifically, in a portion where the input signal is almost a still image, the value of the motion amount (m) is “0”, and the usable encoded output (b) of FIGS. 3B to 6B is In the input signal (a '), all 256 types of codes are used, as indicated by the black circles in the figure.
That is, in the case of a still image, input (a ′) = encoded output (b), and image display is performed using 256 gradations.

【0050】これに対して、画像の動きが大きく(mの
値が大きく)なるにつれ、使用可能な符号化出力の組は
減少する。動き量(m)の値は最大で「9」の値をと
り、この最大「9」のとき、符号化出力(b)として使
用可能な符号の数は、上記したように「0」、「1」、
「3」、「7」、「14」、「27」、「50」、「8
3」、「126」、「181」、および「255」の1
1種類である。これは、重み付けをW1(1)、W2
(2)、W3(4)、W4(7)、W5(13)、W6
(23)、W7(33)、W8(43)、W9(5
5)、W10(74)とすると、「0」、「W1」、
「W1+W2」、「W1+W2+W3」、...、「W
1+W2+W3+...+W10」の(10+1)種類
の信号レベルに限定することを意味する。そして、動き
量が小さくなるにつれて、W1、W2、...、WNの
組み合わせの数を増やして、表現できる階調数を増加さ
せる。
On the other hand, as the motion of the image increases (the value of m increases), the set of usable coded outputs decreases. The maximum value of the motion amount (m) is "9", and when the maximum value is "9", the number of codes that can be used as the encoded output (b) is "0" or "0" as described above. 1 ",
"3", "7", "14", "27", "50", "8"
1 of 3 ”,“ 126 ”,“ 181 ”, and“ 255 ”
There is one type. This assigns weights W1 (1), W2
(2), W3 (4), W4 (7), W5 (13), W6
(23), W7 (33), W8 (43), W9 (5
5) and W10 (74), "0", "W1",
“W1 + W2”, “W1 + W2 + W3” ,. . . , "W
1 + W2 + W3 +. . . This means that the signal level is limited to (10 + 1) types of signal level of “+ W10”. Then, as the amount of movement decreases, W1, W2 ,. . . , WN is increased to increase the number of gray levels that can be expressed.

【0051】なお、入力信号(a')に対する限定すべ
き値は、当該(a')に近いレベルを選択する。例え
ば、「m=9」の場合を例にとると、「1〜2」の範囲
の信号レベルであれば「1」に、「3〜6」の範囲の信
号レベルは「3」に、「7〜13」の範囲の信号レベル
は「7」に、「14〜26」の範囲の信号レベルは「1
4」に、「27〜49」の範囲の信号レベルは「27」
に、「50〜82」の範囲の信号レベルは「50」に、
「83〜125」の範囲の信号レベルは「83」に、
「126〜180」の範囲の信号レベルは「126」
に、「181〜254」の範囲の信号レベルは「18
1」に、「255」の信号レベルは「255」に、限定
する。
As a value to be limited for the input signal (a '), a level close to that (a') is selected. For example, in the case of “m = 9”, the signal level in the range of “1 to 2” is set to “1”, the signal level in the range of “3 to 6” is set to “3”, The signal level in the range of 7 to 13 "is" 7 ", and the signal level in the range of" 14 to 26 "is" 1 ".
4 ”, the signal level in the range of“ 27 to 49 ”is“ 27 ”
And the signal level in the range of "50-82" is "50",
The signal level in the range of "83-125" is "83",
The signal level in the range of “126 to 180” is “126”
In addition, the signal level in the range of "181 to 254" is "18
The signal level of "1" and "255" is limited to "255".

【0052】従って、例えば11種類の発光について
は、入力レベルが増大するにつれ、出力レベルの点灯さ
れるサブフィールドパターンが順次延伸していくように
なるため(図3(b)〜図6(b)の太線枠部)、入力
信号の大きさと発光パターンの関係の相関性が保証され
る。つまり、低い信号レベルでオンであったサブフィー
ルドは消えることなくそのままオンを保つので、サブフ
ィールドの点灯パターンの分布を信号レベルと相関をも
った単調な関係とすることができ、信号レベルが大きく
なると発光パルスの分布がほぼ単純に広がることにな
る。したがって、このような限定的な発光パターンのみ
を用いて画像を表示した場合、いわゆる動画表示の場合
に特有の動画疑似輪郭をなくすことができるのである。
Therefore, for 11 kinds of light emission, for example, as the input level increases, the illuminated subfield pattern of the output level gradually extends (FIGS. 3B to 6B). ), The correlation between the magnitude of the input signal and the light emission pattern is guaranteed. In other words, since the subfield that was on at a low signal level does not disappear and remains on as it is, the distribution of the lighting pattern of the subfield can have a monotonic relationship that correlates with the signal level, and the signal level can be large. Then, the distribution of the light emission pulse spreads almost simply. Therefore, when an image is displayed using only such a limited light emission pattern, it is possible to eliminate a moving image pseudo contour peculiar to so-called moving image display.

【0053】このようなサブフィールドの点灯パターン
の分布と信号レベルとの単調な相関関係は、動き量mの
値が「1」〜「8」それぞれの値の場合にも概成立する
関係性であるが、動き量が小さくなるに従って信号レベ
ルの選択数が多いぶん若干事情を異にするようになり、
近接したレベルでの点灯パターンが時間的にやや劇的に
変化するようになる。このように動き量が小さい場合に
は、信号レベルの選択数を多くしているのは、動き量が
小さいほど輝度重みが大きなサブフィールドで点灯・非
点灯の変化が生じても疑似輪郭の発生にあまり寄与しな
いためである。
Such a monotonic correlation between the distribution of the lighting pattern of the subfield and the signal level is a relation that is substantially established even when the value of the motion amount m is "1" to "8". However, as the amount of movement decreases, the number of signal level selections increases, so things change slightly.
Lighting patterns at close levels will change slightly dramatically with time. When the amount of motion is small, the number of signal level selections is increased because the smaller the amount of motion, the greater the weighting of the luminance. This is because it does not contribute much to

【0054】ところで、このままでは動きが最も激しい
場合を例にとるとたかだか11階調で画像表示すること
になり、自然画像を表示するには階調数が明らかに不足
であり、疑似輪郭は解消できても本来の画像の再現性に
欠ける。この不具合を解消するために、前記構成の誤差
拡散部4によって誤差拡散処理を行う。つまり、入力レ
ベル(a'')と、限定された符号化出力(b)を与える
入力レベルとの差を誤差信号(c)として周辺画素にフ
ィードバックして平均誤差を小さくなるようにする。具
体的には、図13に示すように、現在表示中の画素Pに
対して、誤差信号(c)を求め、これを周辺4画素すな
わち図13のA、B、CおよびDに分配する。分配の係
数は例えば誤差の7/16を画素Aに、誤差の1/16
を画素Bに、誤差の5/16を画素Cに、そして誤差の
3/16を画素Dに分配する。分配された誤差は本来の
映像信号に誤差分を加算し、改めて符号化する。これを
繰り返すことで、新たに発生した誤差は次々と周辺画素
に分配されることになり、表示輝度の平均的な値が入力
の平均輝度とほぼ一致し、階調不足を補うことができ
る。
By the way, if the movement is the most intense as it is, the image is displayed with at most 11 gradations, and the number of gradations is obviously insufficient for displaying a natural image, and the pseudo contour is eliminated. Even if it is possible, the original image reproducibility is lacking. In order to eliminate this inconvenience, the error diffusion unit 4 having the above-mentioned configuration performs an error diffusion process. That is, the difference between the input level (a ″) and the input level that gives the limited encoded output (b) is fed back to the peripheral pixels as the error signal (c) to reduce the average error. Specifically, as shown in FIG. 13, an error signal (c) is obtained for the pixel P that is currently displayed, and the error signal (c) is distributed to the four surrounding pixels, that is, A, B, C, and D in FIG. The distribution coefficient is, for example, 7/16 of the error to the pixel A and 1/16 of the error.
To pixel B, 5/16 of the error to pixel C, and 3/16 of the error to pixel D. The distributed error is encoded again by adding the error component to the original video signal. By repeating this, newly generated errors are distributed to the peripheral pixels one after another, and the average value of the display brightness almost matches the average brightness of the input, and the lack of gradation can be compensated.

【0055】なお、動きの激しい部分では周辺画素に拡
散される誤差は大きく、当該拡散させた誤差がノイズと
して目立ってしまうと思われるが、実際には動きが激し
い部分では被写体に追従して視線が移動しているため
に、このような誤差拡散処理に伴ういわゆる拡散ノイズ
があまり気にならずに画像表示を行うことができる。一
方、静止画と判定される画像部分では、ほぼ上記したよ
うに256階調表示が可能な符号化出力(b)を選択す
ることができるため、前記拡散ノイズが観測されること
はない。また、前記誤差拡散の処理は12ビットの演算
精度であり、これは静止画領域でも行われるので、その
領域におけるみかけの階調を256階調以上に増加でき
るという効果も期待できる。 [実施の形態2]図14は、本実施の形態における画像
表示装置での構成図であり、実施の形態1の欄で述べた
画像表示装置との相違点について説明する。当該画像表
示装置は、実施の形態1の構成要素フィルタ部1と,γ
逆補正部2と、AD変換部1と、表示制御部8と、PD
P9とに加えて、第3符号化部101と、第4符号化部
102とを備えている。図1に示した実施例1の画像表
示装置と同一符号の構成要素は、それぞれ同一機能であ
ることを示す。
It should be noted that the error diffused to the peripheral pixels is large in a portion having a lot of movement, and the diffused error may be conspicuous as noise. Is moved, so that so-called diffusion noise associated with such error diffusion processing can be displayed without much concern. On the other hand, in the image portion determined to be a still image, since the encoded output (b) capable of displaying 256 gradations can be selected as described above, the diffusion noise is not observed. Further, since the error diffusion processing has a calculation accuracy of 12 bits and is performed even in the still image area, it is expected that the apparent gradation in that area can be increased to 256 or more. [Second Embodiment] FIG. 14 is a block diagram of an image display device according to the present embodiment. Differences from the image display device described in the first embodiment will be described. The image display device includes the component filter unit 1 of the first embodiment,
The inverse correction unit 2, the AD conversion unit 1, the display control unit 8, and the PD
In addition to P9, a third encoding unit 101 and a fourth encoding unit 102 are provided. The components having the same reference numerals as those of the image display device of the first embodiment shown in FIG. 1 have the same function.

【0056】第3符号化部101は、12ビットの下位
4ビットを除去した8ビット信号を生成するだけのもの
であり、ここでは上記したような第1符号化部が行った
ような動き量に応じた符号化は行わない。第4符号化部
102は、図15に示すように、第3符号化部101に
て12ビットの下位4ビットを除去した8ビットで表さ
れる信号レベルを19のサブフィールド(サブフィール
ドSF1〜サブフィールドSF19)からなるフィール
ド情報に変換する回路である。ここでのサブフィールド
の輝度重み付けは、この図15から分かるように時間順
に、16,16,16,16,16,16,16,1
6,16,16,16,16,16,16,16,8,
4,2,1、となっており、先頭に位置する「輝度重み
=16」である15のサブフィールドからなる第1のサ
ブフィールド群と、それ以後に位置する4サブフィール
ドからなる第2のサブフィールド群に分類することがで
きる。そして、第2のサブフィールド群の各サブフィー
ルドが有する輝度重みの合計が、第1のサブフィールド
群に属するサブフィールドが有する最大の輝度重み(1
6)を超えない値(15)で、第1のサブフィールド群
に属するサブフィールドの輝度重みでは表現できない値
(ここでは、1〜15)を第2のサブフィールド群を組
み合わせて表現できるようになっている。これにより第
1のサブフィールド群による発光と第2のサブフィール
ド群による発光を組み合わせて、入力信号の値の変化に
対し、合計の輝度重みを不連続なく全階調に渡っての表
現を可能とする。
The third encoding unit 101 is only for generating an 8-bit signal with the lower 4 bits of 12 bits removed, and here, the amount of motion as performed by the first encoding unit as described above is used. Is not encoded. As shown in FIG. 15, the fourth encoding unit 102 sets the signal level represented by 8 bits obtained by removing the lower 4 bits of 12 bits in the third encoding unit 101 into 19 subfields (subfields SF1 to SF1). This is a circuit for converting into field information consisting of subfield SF19). The luminance weighting of the subfields here is 16, 16, 16, 16, 16, 16, 16, 1 in the order of time, as can be seen from FIG.
6,16,16,16,16,16,16,16,8,
4, 2, 1, and the first subfield group consisting of 15 subfields with “luminance weight = 16” located at the beginning and the second subfield consisting of 4 subfields located thereafter. It can be classified into subfield groups. The sum of the brightness weights of the subfields of the second subfield group is the maximum brightness weight of the subfields belonging to the first subfield group (1
6) A value (15) not exceeding 6) that cannot be expressed by the luminance weights of the subfields belonging to the first subfield group (here, 1 to 15) can be expressed by combining the second subfield group. Has become. This makes it possible to combine the light emission of the first sub-field group and the light emission of the second sub-field group to express the total luminance weight over the whole gradation without discontinuity with respect to the change in the value of the input signal. And

【0057】各信号レベルは「●」で記したような点灯
パターンからなるフィールド情報に変換される。このよ
うに変換された19ビットのフィールド情報を表示制御
部8によって上記したように制御しながらPDP9の画
像表示を行う。なお、「16〜255」のレベルでは、
SF16〜SF19を組み合わせて1〜15のレベルの
表示を行うのであるが、この点灯パターンは簡略化のた
め省略している。
Each signal level is converted into field information consisting of a lighting pattern as indicated by "●". The 19-bit field information thus converted is displayed on the PDP 9 while being controlled by the display controller 8 as described above. In addition, in the level of "16-255",
Although SF16 to SF19 are combined to display the levels of 1 to 15, this lighting pattern is omitted for simplification.

【0058】図16は、上記画像表示装置におけるPD
P9の発光方式を説明する図である。なお、ここでも上
記実施例1と同様に1画面を2分割して上下同時にアド
レッシングを行う手法によって駆動させる。図16に示
すように、1TVフィールドの間には、初期化期間R1
〜R5が設けられており、パネルの電荷状態を初期化す
る。この初期化は全画面一斉消去に相当する。この後、
アドレス期間(記号Aにて表記)を用いて、発光させる
画素にのみ選択的に電圧を印加していわゆる壁電荷を形
成する。実際の発光は、表示期間D1〜D19で行われ
る。なお、図中D1〜D19の記載に添記したカッコ内
の数値は、前記輝度重みを表している(以下、同様)。
FIG. 16 shows a PD in the image display device.
It is a figure explaining the light emission system of P9. In this case as well, as in the first embodiment, one screen is divided into two and driven by a method of simultaneously addressing vertically. As shown in FIG. 16, during one TV field, the initialization period R1
~ R5 are provided to initialize the charge state of the panel. This initialization corresponds to clearing all screens at once. After this,
By using the address period (denoted by symbol A), a voltage is selectively applied only to pixels to emit light to form so-called wall charges. The actual light emission is performed in the display periods D1 to D19. In addition, the numerical value in the parentheses added to the description of D1 to D19 in the drawing represents the brightness weight (hereinafter, the same).

【0059】このようにここでは、消去に相当する初期
化がR1〜R5の5回しか行われない。つまり、サブフ
ィールドSF1〜サブフィールドSF15の第1のサブ
フィールド群の間では、サブフィールドSF1のアドレ
ス期間の前にだけ初期化期間R1が設けられており、サ
ブフィールドSF2〜SF15のアドレス期間の前には
初期化期間は設けられていない。従って、一旦発光が開
始された画素については、壁電荷が保持されたままとな
り、サブフィールドSF15終了後の初期化期間R2直
前まで引き続き発光することになる。一方、後方の輝度
重みが小さい4サブフィールドからなる第2のサブフィ
ールド群については、各アドレス期間に先行して初期化
期間R2〜R5が設けられており、従来の駆動と同様、
各サブフィールドの発光の開始および発光の停止をそれ
ぞれ独立に制御する。
As described above, in this case, the initialization corresponding to the erasing is performed only 5 times of R1 to R5. That is, the initialization period R1 is provided only before the address period of the subfield SF1 between the first subfield group of the subfields SF1 to SF15, and before the address period of the subfields SF2 to SF15. Has no initialization period. Therefore, with respect to the pixel whose light emission has started once, the wall charge remains held, and light is continuously emitted until immediately before the initialization period R2 after the end of the subfield SF15. On the other hand, for the second sub-field group consisting of four sub-fields having a small luminance weight on the rear side, the initialization periods R2 to R5 are provided prior to each address period, like the conventional driving.
The start and stop of light emission of each subfield are independently controlled.

【0060】このような符号化及び駆動方法により、入
力信号の値が大きいほど先頭のサブフィールド位置で発
光が開始することになり、しかも入力信号の値が大にな
るにつれて発光するサブフィールドが前方に延伸してい
くような符号化となる(図15中矢印Y1)。つまり、
上記したように入力信号の大きさと発光パターンの関係
の相関性が保証されるため、いわゆる動画表示の場合に
特有の動画疑似輪郭をなくすことができる。
With such an encoding and driving method, as the value of the input signal increases, light emission starts at the leading subfield position, and the subfield that emits light as the value of the input signal increases. The encoding is such that the data is extended to (see arrow Y1 in FIG. 15). That is,
As described above, since the correlation between the magnitude of the input signal and the light emission pattern is guaranteed, it is possible to eliminate a moving image pseudo contour peculiar to so-called moving image display.

【0061】なお、輝度重みが小さいSF16〜SF1
9では、点灯・非点灯の分布がある程度不規則的に変化
しているが、輝度が小さいので動画疑似輪郭の発生への
影響は無視できるほど小さい。また、本実施の形態によ
れば、全体のサブフィールド数が19であるにも関わら
ず、発光の停止の制御に要する初期化期間が1TVフィ
ールド期間で5回のみであり、従来、初期化に要してい
た時間を大幅に短縮することができる。従って、このよ
うに全体のサブフィールド数を従来よりも増やすことが
できるのである。
It should be noted that SF16 to SF1 having a small luminance weight
In No. 9, the distribution of lighting / non-lighting changes irregularly to some extent, but since the luminance is small, the influence on the generation of the moving image pseudo contour is negligible. Further, according to the present embodiment, although the total number of subfields is 19, the initialization period required to control the stop of the light emission is only 5 times in one TV field period, which is conventionally required for initialization. The time required can be greatly reduced. Therefore, the total number of subfields can be increased in this way as compared with the conventional case.

【0062】ここで、ライン数が480本のPDPを2
ライン同時駆動する場合を例にとると、一回の初期化期
間が300us、1ライン当たりのアドレス期間を2u
sとすれば、1TVフィールドの間の表示期間は、(1
/60)×1000000us−(300usx5+2
usx240x19)=6000usとなる。表示期間
での一回の発光パルスの周期を5usとすると6000
us/5us=1200回となり、十分な輝度を確保し
て発光させることが可能になる。
Here, 2 PDPs with 480 lines are used.
Taking the case of line simultaneous driving as an example, one initialization period is 300 us, and an address period per line is 2 u.
If s, the display period for one TV field is (1
/ 60) × 1000000us- (300usx5 + 2
usx240x19) = 6000us. If the period of one light emission pulse in the display period is 5us, then 6000
It becomes us / 5us = 1200 times, and it becomes possible to emit light while ensuring sufficient brightness.

【0063】[実施の形態3]本実施の形態における多
階調表示可能な画像表示装置は、実施の形態2の画像表
示装置と駆動方法を異にする以外は同様の構成であるの
で、相違点につき説明する。第4符号化部102では、
ここでも、8ビット信号を19のサブフィールド(サブ
フィールドSF1〜サブフィールドSF19)からなる
フィールド情報に変換する回路である。ここでのサブフ
ィールドの輝度重み付けは、この図17から分かるよう
に時間順に、1、2、4、8、16,16,16,1
6,16,16,16,16,16,16,16,1
6,16,16,16,となっており、先頭に位置する
「輝度重み=1,2,4,8」である4のサブフィール
ドからなる第2のサブフィールド群と、それ以後に位置
する輝度重み「16」の15のサブフィールドからなる
第1のサブフィールド群に分類することができる。つま
り、実施例2の場合とは第1のサブフィールド群と第2
のサブフィールド群との配置が入れ代わっている。そし
て、各信号レベルを「●」で記したような点灯パターン
からなるフィールド情報に変換する。なお、SF1〜S
F4の点灯パターンの記載は簡略化のため省略してい
る。
[Third Embodiment] The image display device capable of multi-gradation display according to the present embodiment has the same configuration as that of the image display device according to the second embodiment except that the driving method is different. I will explain the points. In the fourth encoding unit 102,
Here again, it is a circuit for converting an 8-bit signal into field information consisting of 19 subfields (subfield SF1 to subfield SF19). The luminance weighting of the sub-fields here is 1, 2, 4, 8, 16, 16, 16, 1 in the order of time as can be seen from FIG.
6,16,16,16,16,16,16,16,1
6,16,16,16, and the second subfield group consisting of four subfields with "luminance weight = 1,2,4,8" located at the beginning, and the subsequent subfield groups. It can be classified into a first sub-field group consisting of 15 sub-fields of luminance weight “16”. That is, the second subfield group and the second subfield group are different from those in the second embodiment.
The placement of the subfield groups in is replaced. Then, each signal level is converted into field information composed of a lighting pattern as indicated by "●". Note that SF1 to S
The description of the lighting pattern of F4 is omitted for simplification.

【0064】図18は、上記画像表示装置におけるPD
P9の発光方式を説明する図である。この図18に示す
ように、1TVフィールドの間には、初期化期間R1〜
R5が設けられており、パネルの電荷状態を初期化す
る。この初期化のうちでR1〜R4で示す期間では面一
斉消去を行い、R5で示す期間では全画面一斉書込みを
行う。第2のサブフィールド群におけるアドレス期間
(Aで表記)においては、従来と同様に発光させる画素
にのみ選択的に電圧を印加していわゆる壁電荷を形成す
るが、第1のサブフィールド群におけるアドレス期間
(A)においては、消灯すべき画素に選択的に電圧を印
加して発光の必要のない画素部分に消灯のための情報を
書き込む。通常、表示させる画素にはアドレスパルスを
印加して電荷形成を行うが、ここではその逆で予め全画
素を表示させるものとして全画素にパルスを印加して電
荷形成しておき、表示させない画素について選択的に放
電させることで電荷を除去するという手法である。な
お、このようなアドレッシング方法については、特開平
6−186929号公報に詳細に記載されている。
FIG. 18 shows the PD in the image display device.
It is a figure explaining the light emission system of P9. As shown in FIG. 18, during one TV field, the initialization period R1 to
R5 is provided to initialize the charge state of the panel. In this initialization, the area simultaneous erasing is performed during the period indicated by R1 to R4, and the entire screen simultaneous writing is performed during the period indicated by R5. In the address period (denoted by A) in the second subfield group, a voltage is selectively applied to only the pixels to emit light to form so-called wall charges as in the conventional case. In the period (A), a voltage is selectively applied to the pixels to be extinguished, and the information for extinguishing the pixels is written to the pixel portions that do not need to emit light. Normally, an address pulse is applied to the pixels to be displayed to form charges, but the reverse is the case where all the pixels are displayed in advance by applying a pulse to all the pixels to form the charges, and the pixels not to be displayed This is a method of removing charges by selectively discharging. Incidentally, such an addressing method is described in detail in JP-A-6-186929.

【0065】このように駆動させることによって、必要
な初期化期間については、画面全面消去のための初期化
が4回(R1,R2,R3,R4)と、全画面一斉書き
込みのための初期化が1回(R5)の合計で5回のみで
あり、従来、初期化に要していた時間を大幅に短縮する
ことにより、実施例2で述べたように入力信号の値が大
になるにつれて発光するサブフィールドが時間方向後方
に延伸していくような符号化となる(図17中矢印Y
2)。つまり、入力信号の大きさと発光パターンの関係
の相関性が保証されるため、動画疑似輪郭の発生を抑え
ることができる。
By driving in this way, in the necessary initialization period, the initialization for erasing the entire screen is performed four times (R1, R2, R3, R4) and the initialization for simultaneous writing of the entire screen. Is only 5 times in total (R5), and by significantly shortening the time conventionally required for initialization, as the value of the input signal becomes large as described in the second embodiment. The encoding is such that the subfield that emits light extends backward in the time direction (arrow Y in FIG. 17).
2). That is, since the correlation between the magnitude of the input signal and the light emission pattern is guaranteed, it is possible to suppress the generation of the pseudo contour of the moving image.

【0066】[実施の形態4]以下本実施の形態に係る
画像評価装置について詳細に説明する。本実施の形態で
はパルス状の発光を伴う画像表示装置としてPDPなど
で用いられているサブフィールド駆動方法により表示さ
れる画像を想定して画像評価を行う。なお、本実施の形
態における画像評価装置は、詳しくは図示しないが、市
販のパソコンによって構成されるもので、一般的なコン
ピュータシステムのハードウェア構成、即ち、CPU、
メモリ(RAM,ROM)、キーボード、ハードディス
ク、表示モニタによって構成される。ハードディスク装
置内に本発明に固有の画像評価プログラムを格納し、そ
のプログラムをCPUが実行する点において一般的なコ
ンピュータシステムとは異なる。
[Fourth Embodiment] An image evaluation apparatus according to the present embodiment will be described in detail below. In the present embodiment, image evaluation is performed on the assumption of an image displayed by a subfield driving method used in a PDP or the like as an image display device with pulsed light emission. Although not shown in detail, the image evaluation apparatus according to the present embodiment is composed of a commercially available personal computer, and the hardware configuration of a general computer system, that is, a CPU,
It is composed of a memory (RAM, ROM), a keyboard, a hard disk, and a display monitor. It differs from a general computer system in that an image evaluation program unique to the present invention is stored in a hard disk device, and the CPU executes the program.

【0067】図19は、PDPなどのようなパルス状の
発光を伴う画像表示装置の動画表示を行った場合の画質
の評価を、シミュレーションによって行う本実施の形態
に係る画像評価装置の機能を示す機能ブロック図であ
る。この図に示すように本画像評価装置は、1TVフィ
ールドを前記したように複数のサブフィールドに分割す
る情報を設定するサブフィールド情報設定部201と、
設定されたサブフィールド情報に基づき入力画像の信号
値を1ビットの時系列信号であるサブフィールド信号に
変換するサブフィールド符号化部202と、前記サブフ
ィールド符号化部202により仮想的に表示される仮想
映像上において一の画素を基準点と設定する基準点設定
部203と、入力された動きベクトル(ここでは、単位
時間当たりの特定画像の動き量及び方向を表すベクト
ル)から画面上の所定期間内の画像の動きを追う視線の
動きを想定する経路算出部204と、上記サブフィール
ド情報設定部201で設定されたサブフィールドの順序
および輝度重みから各発光パルスの発生する時刻を算出
する発光パルス時刻算出部205と、各発光パルスの発
生時刻および算出した経路から発光パルスが印加される
時に視線がある位置、つまりパルス発光がある時に画面
上での視線の位置を算出する視線位置算出部206と、
サブフィールド信号に変換された画像信号のうち視線が
通過する経路近傍の画素を視線位置算出部206の出力
に基づき選択する近傍画素選択部207と、近傍画素選
択部207により選択された経路近傍画素に対する演算
係数を算出する近傍画素係数算出部208と、近傍画素
係数算出部208により求めた係数を近傍画素選択部2
07によって選択した画素の発光量に乗じる処理を行う
係数乗算部209と、係数乗算部209で求めた値を1
TVフィールドに渡って積算する発光量積算部210と
からなる。発光量積算部10にて求めた1TVフィール
ド時間内の発光量の積算値を評価画像として出力する。
FIG. 19 shows the function of the image evaluation apparatus according to the present embodiment, which performs a simulation to evaluate the image quality when a moving image is displayed on an image display apparatus with pulsed light emission such as a PDP. It is a functional block diagram. As shown in this figure, the image evaluation apparatus includes a subfield information setting unit 201 that sets information for dividing one TV field into a plurality of subfields as described above.
A subfield coding unit 202 that converts a signal value of an input image into a subfield signal that is a 1-bit time series signal based on the set subfield information, and is virtually displayed by the subfield coding unit 202. A reference point setting unit 203 that sets one pixel as a reference point on the virtual image, and a predetermined period on the screen based on the input motion vector (here, a vector that represents the motion amount and direction of the specific image per unit time). A path calculation unit 204 that assumes the movement of the line of sight that follows the movement of the image inside, and a light emission pulse that calculates the time at which each light emission pulse is generated from the subfield order and the luminance weight set by the subfield information setting unit 201. The time calculation unit 205 and the position at which the line of sight is present when the light emission pulse is applied from the generation time of each light emission pulse and the calculated route That the gaze position calculating unit 206 for calculating the position of the line of sight on the screen when there is a pulse emission,
A neighboring pixel selection unit 207 that selects a pixel in the vicinity of a route through which the line of sight passes in the image signal converted into the subfield signal based on the output of the gaze position calculation unit 206, and a route neighboring pixel selected by the neighboring pixel selection unit 207. And a coefficient obtained by the neighboring pixel coefficient calculating unit 208, the neighboring pixel selecting unit 2
The value obtained by the coefficient multiplying unit 209 and the coefficient multiplying unit 209 that performs processing for multiplying the light emission amount of the pixel selected by 07 is set to 1
And a light emission amount integrating unit 210 that integrates over the TV field. The integrated value of the light emission amount within one TV field time obtained by the light emission amount integration unit 10 is output as an evaluation image.

【0068】前記サブフィールド情報設定部201は、
説明を簡略化するためにここでは、図20に示すように
各サブフィールドの輝度重みに応じて、例えば、第1サ
ブフィールドでは1回、第2サブフィールドでは2回、
第3サブフィールドでは4回、第4サブフィールドでは
8回、第5サブフィールドでは16回、第6サブフィー
ルドでは32回、第7サブフィールドでは64回、第8
サブフィールドでは128回と合計255回のパルス状
発光がなされるものとのサブフィールド情報を設定す
る。
The subfield information setting section 201
In order to simplify the description, here, for example, once in the first subfield and twice in the second subfield according to the luminance weight of each subfield, as shown in FIG.
4 times in the 3rd subfield, 8 times in the 4th subfield, 16 times in the 5th subfield, 32 times in the 6th subfield, 64 times in the 7th subfield, 8th
In the subfield, subfield information of 128 times and a total of 255 times of pulsed light emission is set.

【0069】サブフィールド符号化部202では、入力
映像信号を設定されたサブフィールド情報に基づく符号
化を行う。この符号化は、入力映像信号の信号レベルと
サブフィールドの組み合わせの対応を示した上記したよ
うなテーブル(図3(a)〜図6(a)に相当する表)
に則って行う。図21は、本実施の形態の画像評価装置
の画像評価方法を視覚化した概念図であり、一つ一つの
四辺形が表示画面の1画素を表している。
The subfield coding unit 202 codes the input video signal based on the set subfield information. This encoding is performed by the table (corresponding to FIGS. 3A to 6A) showing the correspondence between the signal level of the input video signal and the combination of subfields.
According to. FIG. 21 is a conceptual diagram visualizing the image evaluation method of the image evaluation apparatus of the present embodiment, where each quadrangle represents one pixel on the display screen.

【0070】経路算出部204では、まず、基準点設定
部203で設定された画素位置(図中Pの四辺形で表さ
れる画素)を基点とし、この画素P上の所定の位置(こ
こでは、画素の左上の点P')を原点としたX−Y座標
系を組む。そして、このX−Y座標系で表された動きベ
クトル(Vx,VY)から1TVフィールドにおける視線
の動く経路Kを想定する。図21では、1TVフィール
ド当たり右方に4画素、下方に3画素である例(画素P
から画素Qに到る経路)を示している。なお、ここで
は、画像の動きとそれを追う視線の動きとの間には強い
相関があるという前提に立ち、視線経路を画像の動きベ
クトルから算出している。
In the route calculation unit 204, first, a pixel position (pixel represented by a quadrangle P in the drawing) set by the reference point setting unit 203 is used as a base point, and a predetermined position on this pixel P (here, it is here). , The upper left point P ′ of the pixel is the origin, and an XY coordinate system is formed. Then, from the motion vector (Vx, VY) represented by this XY coordinate system, a path K of the line of sight in one TV field is assumed. In FIG. 21, one TV field has four pixels on the right side and three pixels on the lower side (pixel P
From the pixel to the pixel Q). Note that, here, the line-of-sight path is calculated from the motion vector of the image on the assumption that there is a strong correlation between the motion of the image and the motion of the line of sight following the motion.

【0071】発光パルス時刻算出部205では、初期化
に要する時間、アドレッシングに要する時間、更には、
次のパルス発光までの時間等は既知であるからこれを基
に、それぞれのパルス発光が行われる時刻を算出する。
なお、画素Pの初期化開始の時点を基準時刻にして計時
し、1回のパルス発光が行われる時間は、1点に近似し
ている。
In the light emission pulse time calculation unit 205, the time required for initialization, the time required for addressing, and
Since the time until the next pulse emission is known, the time at which each pulse emission is performed is calculated based on this.
The time when the initialization of the pixel P is started is set as the reference time and one pulse emission is performed, and the time is approximate to one point.

【0072】視線位置算出部206では、発光パルス時
刻算出部205で求めた発光パルス時刻と単位時間当た
りの画像の動きを表す動きベクトル(Vx,VY)とから
パルス発光がある時の前記経路K上の視線位置を演算に
より求める。近傍画素選択部207では、前記視線位置
算出部206で求めた視線位置を含む所定の領域を想定
し、ここでは画像表示装置の1画素と同じ面積をもった
領域、例えば表示装置の表示画素と同一形状の四辺形領
域を想定し、この領域に属しパルス発光が行われる画素
を視線の画面位置における近傍画素として選択する。例
えば、図中座標Ki(x,y)で表される位置における
近傍画素としてはこれを角とした1画素相当の領域に含
まれる画素R1〜R4を選択する。
In the line-of-sight position calculating unit 206, the route K when there is pulse light emission from the light emitting pulse time obtained by the light emitting pulse time calculating unit 205 and the motion vector (Vx, VY) representing the motion of the image per unit time The upper line-of-sight position is calculated. The neighboring pixel selection unit 207 assumes a predetermined area including the line-of-sight position calculated by the line-of-sight position calculation unit 206, and here, an area having the same area as one pixel of the image display device, for example, a display pixel of the display device is used. A quadrilateral region having the same shape is assumed, and pixels belonging to this region and emitting pulsed light are selected as neighboring pixels at the screen position of the line of sight. For example, the pixels R1 to R4 included in a region corresponding to one pixel with the corner being the corner are selected as the neighboring pixels at the position represented by the coordinates Ki (x, y) in the figure.

【0073】近傍画素係数算出部208では、前記四辺
形領域に含まれる各々の画素の面積比率を、近傍画素係
数として算出する。係数乗算部209では、近傍画素係
数算出部208により求めた係数を近傍画素選択部20
7によって選択した画素の発光量に重み付けとして乗じ
る処理を行うのだが、1回のパルス発光により得られる
発光量に前記係数を乗じた値を近傍画素について加算し
た値を図中座標Ki(x,y)で表される視線位置にお
ける評価値を求める。
The neighboring pixel coefficient calculation unit 208 calculates the area ratio of each pixel included in the quadrilateral region as a neighboring pixel coefficient. In the coefficient multiplying unit 209, the coefficient calculated by the neighboring pixel coefficient calculating unit 208 is used as the neighboring pixel selecting unit 20.
Although the process of multiplying the light emission amount of the pixel selected by 7 as a weighting is performed, the value obtained by adding the value obtained by multiplying the above-mentioned coefficient to the light emission amount obtained by one pulse light emission for neighboring pixels is added to the coordinates Ki (x, The evaluation value at the line-of-sight position represented by y) is obtained.

【0074】このような視線近傍の画素の発光をも考慮
した評価によれば、より実際に近い評価画像を得ること
が可能となる。つまり、静止画像に対する視力と比較し
動く物体に対する視力は低下するという、動画像に対す
る視力低下の現象(いわゆる動体視力の効果)を反映さ
せられるからである。発光量積算部210では、このよ
うにして求めた評価値を経路終端画素Q'で表される位
置まで積算することによって、1TVフィールドにおけ
る基準点Pにおいて観測される発光量を求める。経路終
端Q'とは、経路終端の画素の左上角の位置である。そ
して、この一の画素における評価が完了すると、前記基
準点改めて設定し、上記した同様の処理を行う。これ
を、前画素について繰り返すことで1フレーム(1TV
フィールド)分の評価画像を得る。
According to the evaluation taking into consideration the light emission of the pixels near the line of sight as described above, it is possible to obtain an evaluation image that is more realistic. That is, it is possible to reflect a phenomenon in which the visual acuity of a moving object is lower than the visual acuity of a still image, that is, a phenomenon of visual acuity of a moving image (so-called dynamic visual acuity). The light emission amount integrating unit 210 obtains the light emission amount observed at the reference point P in one TV field by integrating the evaluation values thus obtained up to the position represented by the route end pixel Q ′. The route end Q ′ is the position of the upper left corner of the pixel at the route end. Then, when the evaluation of this one pixel is completed, the reference point is set again and the same processing as described above is performed. By repeating this for the previous pixel, one frame (1 TV
Obtain evaluation images for (fields).

【0075】次に、このような構成の画像評価装置の動
作の一例について図22〜図24に示すフローチャート
を基に説明する。まず、評価しようとする画像の入力が
なされるのを待ち、入力がなされれば(ステップS1で
Yes)、サブフィールドの点灯情報を作成しハードデ
ィスクに格納する(ステップS2)。このサブフィール
ド点灯情報は、図25に示すデータ構造で各画素と対応
させてある(この図25は、データ構造を例示するもの
である。)。同時に、各画素の動きベクトルMVも対応
づけて格納される。この表でP(1,1)〜P(n,m)の添え
字は、実際に表示させる画面と対応させた評価画像の画
素位置を水平、垂直方向の位置で表わしたものである。
なお、サブフィールド点灯情報のソースは、予め評価者
により設定され、上述した図3(a)〜図6(a)に相
当するテーブルとしてメモリ若しくはハードディスクに
書き込まれている。
Next, an example of the operation of the image evaluation apparatus having such a configuration will be described with reference to the flowcharts shown in FIGS. First, waiting for the input of the image to be evaluated, if the input is made (Yes in step S1), the lighting information of the subfield is created and stored in the hard disk (step S2). This subfield lighting information is associated with each pixel in the data structure shown in FIG. 25 (this FIG. 25 exemplifies the data structure). At the same time, the motion vector MV of each pixel is also stored in association with each other. In this table, the subscripts P (1,1) to P (n, m) represent the pixel positions of the evaluation image corresponding to the screen to be actually displayed in the horizontal and vertical positions.
The source of the subfield lighting information is set in advance by the evaluator and written in the memory or the hard disk as a table corresponding to the above-described FIG. 3A to FIG. 6A.

【0076】次に、評価しようとする画素を基準点(l
は、基準点の数を表す、l=1〜lmaxの数)として
設定する(ステップS3)。この設定は、評価者のキー
ボードから入力に基づき行われる。勿論予め全画素を基
準点として設定するようにしても構わない。そして、ス
テップS4でl=「1」に設定し、以下の処理(ステッ
プS5〜ステップS12)を基準点毎に実行してゆくこ
とになる。ステップS5で上記したように基準点Pl
(l=1)の左上角原点とするX−Y座標系を組み(図
21)、各画素の位置をこの座標系に変換する。
Next, the pixel to be evaluated is set to the reference point (l
Is set as the number of reference points (the number of l = 1 to lmax) (step S3). This setting is performed based on the input from the evaluator's keyboard. Of course, all pixels may be set in advance as reference points. Then, in step S4, l = “1” is set, and the following processing (steps S5 to S12) is executed for each reference point. As described above in step S5, the reference point Pl
An XY coordinate system with the upper left corner origin of (l = 1) is set (FIG. 21), and the position of each pixel is converted to this coordinate system.

【0077】そして、画素Pl(l=1)の動きベクト
ルMVを読み出し、この動きベクトルMVから1TVフ
ィールド間の視線経路K及びこの経路終点Ql(l=
1,図21)を算出する(ステップS6)。こんどは、
各パルス発光時刻ti(i=1,2・・・,255)にお
ける視線位置Ki(図21)を算出する(ステップS
7)。
Then, the motion vector MV of the pixel Pl (l = 1) is read out, and the line-of-sight path K between this motion vector MV and one TV field and this path end point Ql (l =
1, FIG. 21) is calculated (step S6). Next time,
The line-of-sight position Ki (FIG. 21) at each pulse emission time ti (i = 1, 2, ..., 255) is calculated (step S).
7).

【0078】ステップS8でi=「1」に設定し(ステ
ップS8)、視線位置Ki(i=1)を中心とした1画
素分の評価領域を設定する(ステップS9)。図26
は、発光時刻tiとサブフィールドSFとの対応を示し
たテーブルで、ハードディスクに格納されている。ここ
で時刻ti(i=1)において、この領域に入る画素は発
光するのかどうかを図26及び図25とを用いて判定す
る(ステップS10)。具体的には、図26で当該時刻
tiがどのサブフィールドSFに属するのか検索し、図
25でこの検索したサブフィールドSFsは評価領域内
の画素で点灯されるのかを調べる。点灯されるのであれ
ば、図25中に点灯(図中●で表記)という情報が書き
込まれている。なお、X−Y座標系で表される画素の位
置から平行移動した座標が原画像での画素の位置とな
る。また、図26の内容は、1TVフィールドをどのよ
うな輝度重みに分割するのかを表す新たなサブフィール
ド点灯情報のソースが設定されるごとに随時更新され、
図25の内容は、設定されたサブフィールド点灯情報の
ソースに基づき生成されるものであるので、サブフィー
ルド点灯情報のソースが更新されるとこの内容も変更さ
れる。
In step S8, i = “1” is set (step S8), and an evaluation area for one pixel centered on the line-of-sight position Ki (i = 1) is set (step S9). FIG. 26
Is a table showing the correspondence between the light emission time ti and the subfield SF, and is stored in the hard disk. Here, at time ti (i = 1), it is determined using FIG. 26 and FIG. 25 whether or not the pixels in this area emit light (step S10). Specifically, the subfield SF to which the time ti belongs is searched in FIG. 26, and it is checked in FIG. 25 whether the searched subfield SFs is turned on by a pixel in the evaluation area. If it is turned on, the information of turning on (denoted by ● in the figure) is written in FIG. It should be noted that the coordinates translated from the pixel position represented by the XY coordinate system are the pixel positions in the original image. In addition, the content of FIG. 26 is updated at any time whenever a source of new subfield lighting information indicating what luminance weight is used to divide one TV field is set,
Since the contents of FIG. 25 are generated based on the set source of the subfield lighting information, the contents are also changed when the source of the subfield lighting information is updated.

【0079】そして、発光が行われるのであれば(ステ
ップS10でYES)、当該発光する画素の領域内面積比
率を全領域面積を1として各発光画素について算出する
(ステップS11)。次いで、1回のパルス発光で得ら
れる光量に当該面積比率を乗じたものを、加算して視線
位置Ki(i=1)における光量Ai(i=1)として算出
する(ステップS12)。なお、視線位置Ki(i=1)
における光量の算出における演算係数に領域内の面積比
率を用いると、領域の面積が1画素を超える場合で、実
際には領域内に1画素全部入っているような場合でもそ
の1画素の全光量が考慮されないことになる。しかし、
評価領域が大きくなるにつれて、より広い範囲での周辺
の画素の発光の影響を考慮することになり、評価精度が
落ちてくると思われる。従って、このように近傍画素の
演算係数を小さく設定して周辺の画素の発光の影響をよ
り少なくするよう処理することで、評価精度を評価領域
面積がより小さい場合と同程度に維持するという効果が
期待できる。
If light emission is to be performed (YES in step S10), the area ratio in the area of the light emitting pixel is calculated for each light emitting pixel with the total area area being 1 (step S11). Next, the light amount obtained by one pulse emission is multiplied by the area ratio, and the result is added to calculate the light amount Ai (i = 1) at the line-of-sight position Ki (i = 1) (step S12). Note that the line-of-sight position Ki (i = 1)
When the area ratio in the region is used as the calculation coefficient in the calculation of the light amount in, when the area of the region exceeds 1 pixel and even if all the pixels in the region actually exist, the total light amount of the 1 pixel Will not be considered. But,
As the evaluation area becomes larger, it is considered that the influence of the light emission of the peripheral pixels in a wider range is taken into consideration, and the evaluation accuracy decreases. Therefore, by setting the calculation coefficient of the neighboring pixels to be small in this way and processing to reduce the influence of light emission of the peripheral pixels, the evaluation accuracy can be maintained at the same level as when the evaluation area area is smaller. Can be expected.

【0080】このような処理を時刻t1以降の発光時刻
発光時刻t2〜t255までインクリメントしながら(ステ
ップS14)行う(ステップS13でi=imax(25
5)かどうかで判断)。一方、ステップS10でNOで
あれば、評価領域内の画素は発光しないので当該視線位
置Ki(i=1)での光量の計算は行わず、インクリメン
トして(ステップS14)次の発光時刻t2について上
記同様の処理を行う。
Such processing is performed while incrementing the light emission time after the time t1 from the light emission time t2 to t255 (step S14) (i = imax (25 in step S13).
5) Determined by whether or not). On the other hand, if NO in step S10, the pixels in the evaluation area do not emit light, and therefore the light amount at the line-of-sight position Ki (i = 1) is not calculated, but incremented (step S14) for the next emission time t2. The same processing as above is performed.

【0081】このようにして求めた考量Aiを積算して
基準点Pl(l=1)における観測光量とする(ステッ
プS15)。設定した基準点全てについて観測光量を算
出したかどうかをl=lmaxかどうかで判断し(ステッ
プS16)、ステップS16でNoであれば、インクリ
メントし(ステップS17)、再度ステップS5に戻っ
て上記同様に観測光量を算出する。
The consideration amount Ai thus obtained is integrated to obtain the observed light amount at the reference point Pl (l = 1) (step S15). It is determined whether or not the observed light amount has been calculated for all the set reference points based on whether l = 1lmax (step S16), and if No in step S16, it is incremented (step S17) and returns to step S5 again and the same as above. Calculate the observed light intensity.

【0082】全基準点について算出しておれば(ステッ
プS16でYES)、該当する画素の積算光量を、本来の
信号レベルと置き換えて合成した画像をコンピュータシ
ステムのディスプレイに表示する(ステップS18)。
表示結果を評価者が観察し、当該画像の良否を判定する
ことになる。なお、上記動作では、ステップS2で全画
素について予めサブフィールド点灯情報を生成していた
が、この処理は、実際に各視線位置での光量を積算しよ
うとする際に行うこともできる。つまり、ステップS9
で評価領域を設定したらその領域に入る画素が判明し、
視線位置の光量に寄与する画素が決定される。この段階
で、当該画素のサブフィールド点灯情報を生成して該当
するサブフィールドが発光するのかを調べることもでき
る。
If all reference points have been calculated (YES in step S16), the integrated light amount of the corresponding pixel is replaced with the original signal level, and the synthesized image is displayed on the display of the computer system (step S18).
The evaluator observes the display result and judges the quality of the image. In the above operation, the subfield lighting information is generated in advance for all pixels in step S2, but this process can be performed when actually trying to integrate the light amount at each line-of-sight position. That is, step S9
After setting the evaluation area with, the pixels that enter that area are found,
Pixels that contribute to the amount of light at the line-of-sight position are determined. At this stage, it is also possible to generate subfield lighting information of the pixel and check whether the corresponding subfield emits light.

【0083】以上述べたように、本実施の形態によれ
ば、視線が通過する経路上の画素1画素だけでなく、視
線が通過する経路の近傍の複数の画素からの発光につい
ても所定の演算を施す等の考慮を行っているため、想定
した画像の動きがわずかに変化しただけで、評価結果の
画像が大きく変動してしまうという不安定さが解消さ
れ、しかも視線の動きを水平、垂直および斜め方向等任
意に設定できるので、実際に観測者がみる画像を反映し
安定した画像評価が可能になる。
As described above, according to the present embodiment, not only one pixel on the path through which the line of sight passes, but also a predetermined calculation is performed with respect to light emission from a plurality of pixels near the path through which the line of sight passes. Since inconsistencies such as subjecting the image to the evaluation are changed, the instability that the image of the evaluation result fluctuates significantly even if the image moves slightly is eliminated. Since it can be set arbitrarily, such as in the oblique direction, the image actually viewed by the observer can be reflected to enable stable image evaluation.

【0084】また、動きベクトルの大きさが0(零)の
ときは、元の画像と完全に一致することになり、静止画
では画質劣化が発生しないという評価が得られる。これ
は静止画を実際に観測した場合の画質と一致する。更
に、上記画像評価装置によれば、動画像を観測する装置
としてCCDカメラのような画素を有したカメラにて画
面上の動画像を追従して撮影し得られる画像と等価な画
像を計算によって求めることができる。しかし、CCD
カメラにより画像評価を試みる場合、CCDカメラを画
像の動きに合わせて高速に繰り返し走査しなければなら
ないので、実際には再現よく評価を行うのは困難であ
る。その点、本実施の形態の画像評価装置のシミュレー
ションによれば、再現よく信頼性の高い評価を行うこと
ができる。 [その他の事項] (1) 上記実施の形態1では動き量を10段階に検出
したがより単純には、静止画か動画か2値的にのみ検出
し、動画の場合に数種類の信号レベルに限定的に出力
し、静止画の場合には、入力信号をそのまま出力させる
こともできる。また、動き量を激しい・中程度・なしと
いった3段階に検出し、それに基づき符号化を上記した
ように工夫することもできる。
Further, when the magnitude of the motion vector is 0 (zero), it completely coincides with the original image, and it is evaluated that the image quality does not deteriorate in the still image. This matches the image quality when actually observing a still image. Further, according to the image evaluation device, an image equivalent to the image obtained by following the moving image on the screen with a camera having pixels such as a CCD camera as a device for observing the moving image is calculated. You can ask. But CCD
When trying to evaluate an image with a camera, it is actually difficult to perform reproducible evaluation because the CCD camera must be repeatedly scanned at high speed according to the movement of the image. In that respect, according to the simulation of the image evaluation apparatus of the present embodiment, it is possible to perform evaluation with good reproducibility and high reliability. [Other Matters] (1) In the first embodiment, the amount of motion is detected in 10 steps, but more simply, it is detected only as a still image or a moving image in a binary manner, and in the case of a moving image, there are several signal levels. The output is limited, and in the case of a still image, the input signal can be output as it is. It is also possible to detect the amount of motion in three stages such as vigorous / medium / absent, and devise the encoding as described above based on that.

【0085】また、上記10サブフィールドで、それぞ
れの輝度重みを、1、2、4、7、13、23、33、
43、55、74という構成にしたが、これに特に限定
されないのは言うまでもなく、例えば、それぞれの輝度
重みを、1:2:4:8:16:24:32:48:5
6:64にしてもよい。あるいは、サブフィールドを1
2個にして、1:2:4:8:12:16:24:2
8:32:36:44:48という輝度重みの構成比に
することもできる。また、サブフィールドを11個にし
て、それぞれの輝度重みを1:2:4:8:16:2
4:32:36:40:44:48にしてもよい。
Also, in the above 10 subfields, the respective brightness weights are 1, 2, 4, 7, 13, 23, 33,
Although 43, 55, and 74 are used, it goes without saying that the brightness weights are not limited to this, and the brightness weights are set to 1: 2: 4: 8: 16: 24: 32: 48: 5.
It may be 6:64. Or 1 for subfield
Two: 1: 2: 4: 8: 12: 16: 24: 2
The composition ratio of the luminance weights may be 8: 32: 36: 44: 48. In addition, the number of subfields is 11, and the luminance weights of the subfields are 1: 2: 4: 8: 16: 2.
It may be 4: 32: 36: 40: 44: 48.

【0086】更には、サブフィールドを9個にして、そ
れぞれの輝度重みを1:2:4:8:16:32:4
8:64:80にしてもよい。また、従来から一般的で
従来例でも指摘した疑似輪郭が発生しやすいそれぞれの
輝度重みが1:2:4:8:16:32:64:128
の8個のサブフィールドであってもかまわない。この場
合に、動きが「ある」、「なし」で限定する信号レベル
数を変え、例えば動きがある場合には図27に示すよう
に、最左欄に記した入力信号レベルを最右欄に記した信
号レベルに限定することで疑似輪郭の発生を抑え、動き
がない場合には全階調数0〜255で表現する。ここ
で、動きの程度を激しい、中程度、なしという3段階に
分けて、動きが激しいときには、図27のように信号レ
ベルを限定し、動きが小さくなるにつれて階調数を優先
して図28、図29と符号化することもできる。
Furthermore, the number of subfields is set to 9, and the luminance weights of the subfields are set to 1: 2: 4: 8: 16: 32: 4.
It may be 8:64:80. In addition, the brightness weights which have been generally used in the past and are likely to generate the pseudo contour pointed out in the conventional example are 1: 2: 4: 8: 16: 32: 64: 128.
8 subfields may be used. In this case, the number of signal levels limited to “present” and “absent” is changed. For example, when there is movement, the input signal level described in the leftmost column is changed to the rightmost column as shown in FIG. Generation of pseudo contours is suppressed by limiting to the signal level described, and when there is no movement, it is represented by the total number of gradations 0 to 255. Here, the degree of movement is divided into three stages of intense, medium, and none. When the movement is heavy, the signal level is limited as shown in FIG. 27, and the number of gradations is prioritized as the movement becomes smaller. , FIG. 29 can also be used for encoding.

【0087】尤も、サブフィールド数が多い方が、輝度
重みの変化を少なくでき、それによりサブフィールドの
点灯・非点灯の分布の変化もより少なくなるので、動画
疑似輪郭を抑制をする効果は、サブフィールド数が少な
い場合と比べて顕著であると思われる。なお、これら輝
度重みの構成順序は降順であってもかまわない。この降
順とした場合の図3(a)〜図6(a)に相当する図表
を図30〜図33に示した。
However, the larger the number of subfields, the smaller the change in the luminance weight, and the smaller the change in the distribution of lighting / non-lighting of the subfields. Therefore, the effect of suppressing the pseudo contour of the moving image is It seems to be more remarkable than when the number of subfields is small. Note that the order of configuring these luminance weights may be descending. FIGS. 30 to 33 show diagrams corresponding to FIGS. 3A to 6A in the descending order.

【0088】(2) 実施の形態1におけるフィルタ部
1の構成は、上記した構成に限られず、図34に示すよ
うな構成でも構わない。図34示すようにフィルタ部1
は、時間応答高域通過フィルタであるテンポラルHPF
301と、時間応答低域通過フィルタであるテンポラル
LPF302と、2次元低域通過フィルタ303と、加
算部304とから構成することもできる。
(2) The configuration of the filter unit 1 in the first embodiment is not limited to the above-mentioned configuration, and may be the configuration shown in FIG. As shown in FIG. 34, the filter unit 1
Is a temporal HPF which is a time response high pass filter.
301, a temporal LPF 302 that is a time response low pass filter, a two-dimensional low pass filter 303, and an addition unit 304.

【0089】こような構成のフィルタ部を備えることに
よって、入力映像信号に含まれる画像成分のうち、テン
ポラルHPF301によって画像の時間的変化の激しい
画像成分のみが取り出される。取り出されたの画像の時
間的変化の激しい部分の成分のうち、空間周波数成分の
高い部分は2次元低域通過フィルタ303によって抑制
される。2次元低域通過フィルタ303と、テンポラル
LPF302の出力は加算部304によって合成され、
結局入力画像信号に含まれる画像成分のうち、時間方向
に激しく変化する部分でかつ空間的に細かな画像成分を
もつ成分が抑制されて表示されることになる。
By providing the filter unit having such a configuration, among the image components included in the input video signal, only the image component whose image temporally changes drastically is extracted by the temporal HPF 301. The two-dimensional low-pass filter 303 suppresses a part having a high spatial frequency component among the components of the part of the extracted image which has a large temporal change. The outputs of the two-dimensional low-pass filter 303 and the temporal LPF 302 are combined by the adder 304,
Eventually, among the image components included in the input image signal, the components having a spatially fine image component in a portion that changes drastically in the time direction are suppressed and displayed.

【0090】したがって、上記同様に細かなパターンが
短い周期で変化する成分は表示されず、ノイズ成分が表
示されることが防止できる。また、このように処理する
ことによって、空間周波数の高域成分が維持されている
ので、動画像を表示する際に応答特性が劣化することも
なく、画像の細かな部分が表示されないなどの画質低下
を引き起こすこともない。 (3) 実施の形態1において、動き量の検出は、フレ
ーム間の差分を一画素毎にとりその変動値を検出するこ
とにより行ったが、これに限られず、この他にも例え
ば、複数個の画素の集合からなる画像ブロック毎に平均
的な変動値を算出することにより行ったり、テンプレー
トと照合することによるいわゆるパターンマッチングに
よる手法が考えられる。 (4) 実施の形態2,3におけるサブフィールドの輝
度重みは上記構成に限られるものではなく、「23,2
2,21,20,19,18,17,16,15,1
4,13,12,11,11,10,6,4,2,1」
となる先頭の14サブフィールドの輝度重みを、緩やか
に変化する相対的に大きな値(23,22,21,2
0,19,18,17,16,15,14,13,1
2,11,11)で構成した計19サブフィールド(先
頭の14サブフィールドの集合を第1のサブフィールド
群とし、それ以外のサブフィールドの集合を第2のサブ
フィールド群とする。)と、或は「24,24,24,
24,24,24,24,24,24,16,10,
6,4,2,1」となる先頭の10サブフィールドの輝
度重みを「24」及び「16」にて構成した計15サブ
フィールド(先頭の10サブフィールドの集合を第1の
サブフィールド群とし、それ以外のサブフィールドの集
合を第2のサブフィールド群とする。)とすることもで
きる。
Therefore, similarly to the above, a component in which a fine pattern changes in a short cycle is not displayed, and a noise component can be prevented from being displayed. Further, since the high frequency component of the spatial frequency is maintained by performing the processing as described above, the response characteristic does not deteriorate when displaying a moving image, and the image quality such as the detailed portion of the image is not displayed. It does not cause a decline. (3) In the first embodiment, the amount of motion is detected by taking the difference between frames for each pixel and detecting the variation value. However, the present invention is not limited to this. A so-called pattern matching method may be considered, which is performed by calculating an average variation value for each image block including a set of pixels, or by matching with a template. (4) The luminance weights of the sub-fields in the second and third embodiments are not limited to the above-mentioned configuration, and “23, 2
2,21,20,19,18,17,16,15,1
4,13,12,11,11,10,6,4,2,1 "
The luminance weights of the top 14 subfields are set to relatively large values (23, 22, 21, 2) that gradually change.
0, 19, 18, 17, 16, 15, 14, 13, 1
2, 11 and 11), a total of 19 subfields (the first 14 subfield sets are the first subfield group, and the other subfield sets are the second subfield group). Or "24, 24, 24,
24, 24, 24, 24, 24, 24, 16, 10,
A total of 15 subfields in which the luminance weights of the top 10 subfields of "6, 4, 2, 1" are configured by "24" and "16" (the set of the top 10 subfields is referred to as a first subfield group). , And the other set of subfields is the second subfield group.).

【0091】なお、これらの場合にも詳しくは説明しな
いが、第2のサブフィールド群の各サブフィールドが有
する輝度重みの合計が、第1のサブフィールド群に属す
るサブフィールドが有する最大の輝度重みを超えない値
で、第1のサブフィールド群に属するサブフィールドの
輝度重みでは表現できない値を第2のサブフィールド群
のサブフィールドを組み合わせて表現できるようになっ
ている。
Although not described in detail in these cases, the sum of the brightness weights of the subfields of the second subfield group is the maximum brightness weight of the subfields belonging to the first subfield group. A value that does not exceed the value that cannot be expressed by the brightness weights of the subfields belonging to the first subfield group can be expressed by combining the subfields of the second subfield group.

【0092】また、第1のサブフィールド群を構成する
サブフィールド数よりも少ない回数の初期化を行うよう
にしさえすれば、そのぶん表示期間を増やし疑似輪郭の
発生を低減する効果は得ることができる。更に、第2の
サブフィールド群のサブフィールドの重みを細かく分割
し、初期化回数を減らせば、低輝度における画質の向上
を図ることができる。 (5) 実施の形態1〜3で入力アナログ映像信号のγ
逆補正を行ってからAD変換を行ったが、これに限定さ
れず、AD変換を行ってからγ逆補正を行うこともでき
る。 (6) 実施の形態4の評価装置を用いることにより、
PDPに代表される画像表示装置の設計に非常によい指
針が供与され、サブフィールドの数、それぞれの輝度重
み等を決定することが容易になり、また、できあがった
画像表示装置も、疑似輪郭が従来のものに比べて少ない
ものとなる。
Further, if the initialization is performed a smaller number of times than the number of subfields forming the first subfield group, the effect of increasing the display period and reducing the occurrence of pseudo contours can be obtained. it can. Furthermore, if the weights of the subfields of the second subfield group are finely divided and the number of initializations is reduced, the image quality at low luminance can be improved. (5) γ of the input analog video signal in the first to third embodiments
Although the AD conversion is performed after performing the inverse correction, the present invention is not limited to this, and the γ inverse correction may be performed after performing the AD conversion. (6) By using the evaluation device of the fourth embodiment,
A very good guideline is provided for designing an image display device typified by a PDP, which makes it easy to determine the number of subfields, each luminance weight, and the like, and the finished image display device also has a pseudo contour. It is less than the conventional one.

【0093】更に、画像評価装置が有する画像評価の機
能は、前述した各機能を実行するプログラムによって実
現し、これをフレキシブルディスク,ICカード,RO
Mカセット等の記録媒体に記録して譲渡,移転等するこ
とにより、独立したコンピュータシステムで容易に実施
することができる。 (7) 最後に、上記実施の形態1〜4の技術は、DM
D(デジタル マイクロミラー デバイス)にも同様に
適用できる。
Further, the image evaluation function of the image evaluation apparatus is realized by a program that executes each of the above-mentioned functions, and this is implemented by a flexible disk, an IC card, an RO.
It can be easily implemented by an independent computer system by recording it on a recording medium such as an M cassette and transferring or transferring it. (7) Finally, the techniques of the first to fourth embodiments are DM
The same applies to D (digital micromirror device).

【0094】[0094]

【発明の効果】以上述べて来たように本発明の、前記サ
ブフィールドの輝度重みをW1、W2、...、WNと
したときに、0、W1、W2、...、WNを任意に組
み合わせて表現可能な階調値の中から、入力映像信号の
動き量に応じて一の階調値を選択する選択手段と、選択
された一の階調値を表現するサブフィールドを点灯する
サブフィールド点灯手段とを備えた画像表示装置によれ
ば、上記した第1の目的が達成される。
As described above, the brightness weights of the sub-fields of the present invention are W1, W2 ,. . . , WN, 0, W1, W2 ,. . . , WN that can be expressed in any combination, and a selection unit that selects one gradation value according to the amount of movement of the input video signal and a sub that expresses the selected one gradation value. According to the image display device provided with the subfield lighting means for lighting the field, the above-mentioned first object is achieved.

【0095】また、同目的は、入力映像信号を画素単位
で複数のサブフィールドのオン、オフ情報に変換する変
換手段と、表示画面上の各画素が発光セルで構成されて
いるディスプレイと、変換手段で変換されたオン、オフ
情報の1TVフィールド分をサブフィールド別に分配す
ると共に、サブフィールドを順次切り換えて、ディスプ
レイの各発光セルをオン、オフするものであって、サブ
フィールドを点灯させる前に行う初期化を(サブフィー
ルド数−1)以下の回数行う表示制御手段とを含み、前
記変換手段は、入力映像信号の各レベルに対応して前記
複数のサブフィールドのオン、オフ情報を記憶し、そし
て、このオン、オフ情報は、所定の入力映像信号の範囲
では入力映像信号の階調値に比例して発光するサブフィ
ールドが時間方向前方或は後方に延伸していくようなオ
ン、オフ情報である画像表示装置によっても達成され
る。
Further, the same purpose is to convert an input video signal into ON / OFF information of a plurality of subfields in pixel units, a display in which each pixel on the display screen is composed of a light emitting cell, and One TV field of ON / OFF information converted by the means is distributed for each subfield, and the subfields are sequentially switched to turn on / off each light emitting cell of the display. Before lighting the subfield, And a display control unit for performing the initialization for a number of times equal to or less than (the number of subfields-1), wherein the conversion unit stores ON / OFF information of the plurality of subfields corresponding to each level of the input video signal. In the range of a predetermined input video signal, the on / off information indicates that the subfield that emits light in proportion to the gradation value of the input video signal is in the time direction. Square or ON as will extend rearwardly, also achieved by the image display apparatus is off information.

【0096】更に第2の目的は、評価対象装置において
構築されるサブフィールドに関する情報を保持し、入力
されてくる映像信号を前記サブフィールド情報によって
変換し、各画素毎にどのサブフィールドを点灯させるの
かの点灯情報を作成するサブフィールド点灯情報作成手
段と、前記サブフィールド点灯情報により仮想的に表示
される仮想映像上において一の画素を基準点と設定する
基準点設定手段と、映像信号に関連して入力される動き
ベクトルに従って、前記基準点から単位時間に移動する
経路を想定する経路想定手段と、単位時間内の各瞬間瞬
間における移動位置周辺に存在する画素の発光量をサブ
フィールド点灯情報から求める発光量算出手段と、各移
動位置での発光量を単位時間の移動経路に渡って積算す
る積算手段と、積算値から対象装置の画像表示状態の評
価情報を得る評価手段とを含む画像評価装置によって達
成される。
A second object is to hold information about subfields constructed in the device to be evaluated, convert an input video signal by the subfield information, and turn on which subfield for each pixel. Related to the video signal, a sub-field lighting information creating means for creating lighting information, a reference point setting means for setting one pixel as a reference point on a virtual image virtually displayed by the sub-field lighting information. According to the input motion vector, the route estimation means for assuming a route moving from the reference point in a unit time, and the light emission amount of the pixels existing around the movement position at each moment in the unit time as the subfield lighting information. The light emission amount calculating means obtained from the above, the light emitting amount at each moving position, the integrating means for integrating the light emitting amount over the moving route of the unit time, It is achieved by the image evaluation apparatus including a evaluation means for obtaining evaluation information of the image display state of the target device from the value.

【0097】第3の目的は、入力映像信号の空間周波数
成分のうち、高域成分の時間応答を抑制する処理を行う
フィルタ手段と、ディスプレイとを備える画像表示装置
によって達成される。
The third object is achieved by an image display device having a display and a filter means for suppressing the time response of the high frequency component of the spatial frequency component of the input video signal.

【図面の簡単な説明】[Brief description of drawings]

【図1】一の実施の形態に係る画像表示装置の構成を示
すブロック図である。
FIG. 1 is a block diagram showing a configuration of an image display device according to an embodiment.

【図2】第2符号化部7の構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing a configuration of a second encoding unit 7.

【図3】前記画像表示装置における符号化の態様を示す
図表である。(a)は、第2符号化部の態様を示す図表
であり、(b)は、第1符号化部の態様を示す図表であ
る。
FIG. 3 is a chart showing an aspect of encoding in the image display device. (A) is a chart which shows the aspect of a 2nd encoding part, (b) is a chart which shows the aspect of a 1st encoding part.

【図4】前記画像表示装置における符号化の態様を示す
図表である。(a)は、第2符号化部の態様を示す図表
であり、(b)は、第1符号化部の態様を示す図表であ
る。
FIG. 4 is a chart showing an aspect of encoding in the image display device. (A) is a chart which shows the aspect of a 2nd encoding part, (b) is a chart which shows the aspect of a 1st encoding part.

【図5】前記画像表示装置における符号化の態様を示す
図表である。(a)は、第2符号化部の態様を示す図表
であり、(b)は、第1符号化部の態様を示す図表であ
る。
FIG. 5 is a chart showing an encoding mode in the image display device. (A) is a chart which shows the aspect of a 2nd encoding part, (b) is a chart which shows the aspect of a 1st encoding part.

【図6】前記画像表示装置における符号化の態様を示す
図表である。(a)は、第2符号化部の態様を示す図表
であり、(b)は、第1符号化部の態様を示す図表であ
る。
FIG. 6 is a chart showing an aspect of encoding in the image display device. (A) is a chart which shows the aspect of a 2nd encoding part, (b) is a chart which shows the aspect of a 1st encoding part.

【図7】前記画像表示装置の一のフレームメモリの構成
を示す図である。
FIG. 7 is a diagram showing a configuration of a frame memory of the image display device.

【図8】前記画像表示装置の表示制御部の構成を示すブ
ロック図である。
FIG. 8 is a block diagram showing a configuration of a display control unit of the image display device.

【図9】前記画像表示装置におけるPDPの発光方式を
説明する図である。
FIG. 9 is a diagram illustrating a light emitting method of a PDP in the image display device.

【図10】前記画像表示装置のフィルタ部の構成を示す
ブロック図である。
FIG. 10 is a block diagram showing a configuration of a filter unit of the image display device.

【図11】前記画像表示装置の誤差拡散部及び動き量算
出部の構成を示すブロック図である。
FIG. 11 is a block diagram showing a configuration of an error diffusion unit and a motion amount calculation unit of the image display device.

【図12】前記画像表示装置の動き量算出部の出力信号
の生成について説明するための図表である。
FIG. 12 is a chart for explaining generation of an output signal of a motion amount calculation unit of the image display device.

【図13】前記画像表示装置の誤差拡散の手法を説明す
るための模式図である。
FIG. 13 is a schematic diagram for explaining a method of error diffusion of the image display device.

【図14】別な実施の形態の画像表示装置の構成を示す
ブロック図である。
FIG. 14 is a block diagram showing a configuration of an image display device according to another embodiment.

【図15】前記画像表示装置の第4符号化部の符号化の
態様を示す図表である。
FIG. 15 is a chart showing an encoding mode of a fourth encoding unit of the image display device.

【図16】前記画像表示装置におけるPDPの発光方式
を説明する図である。
FIG. 16 is a diagram illustrating a light emitting method of a PDP in the image display device.

【図17】更に別な実施の形態の画像表示装置の前記第
4符号化部の符号化の態様を示す図表である。
FIG. 17 is a table showing an encoding mode of the fourth encoding unit of the image display device of yet another embodiment.

【図18】前記画像表示装置におけるPDPの発光方式
を説明する図である。
FIG. 18 is a diagram illustrating a light emitting method of a PDP in the image display device.

【図19】別な実施の形態の画像評価装置の機能を説明
するための機能ブロック図である。
FIG. 19 is a functional block diagram for explaining the functions of the image evaluation apparatus of another embodiment.

【図20】前記画像評価装置でのシミュレーションに用
いる画像の発光パターンを例示する図である。
FIG. 20 is a diagram illustrating a light emission pattern of an image used for simulation in the image evaluation apparatus.

【図21】前記画像評価装置での画像評価方法を説明す
るための模式図である。
FIG. 21 is a schematic diagram for explaining an image evaluation method in the image evaluation apparatus.

【図22】前記画像評価装置の動作の一例を示すフロー
チャートである。
FIG. 22 is a flowchart showing an example of the operation of the image evaluation apparatus.

【図23】前記画像評価装置の動作の一例を示すフロー
チャートである。
FIG. 23 is a flowchart showing an example of the operation of the image evaluation apparatus.

【図24】前記画像評価装置の動作の一例を示すフロー
チャートである。
FIG. 24 is a flowchart showing an example of the operation of the image evaluation apparatus.

【図25】画素と当該画素のサブフィールド情報を記憶
する際のデータ構造を示す図表である。
FIG. 25 is a chart showing a data structure when a pixel and subfield information of the pixel are stored.

【図26】発光時刻とサブフィールドとの対応を示した
図表である。
FIG. 26 is a chart showing correspondences between light emission times and subfields.

【図27】第1符号化部の別な態様を示す図表である。FIG. 27 is a chart showing another aspect of the first encoding unit.

【図28】第1符号化部の別な態様を示す図表である。FIG. 28 is a chart showing another aspect of the first encoding unit.

【図29】第1符号化部の別な態様を示す図表である。FIG. 29 is a chart showing another aspect of the first encoding unit.

【図30】図3(a)〜図6(a)に相当する第2符号
化部の符号化の態様を示す図表である。
[Fig. 30] Fig. 30 is a table showing the encoding mode of the second encoding unit corresponding to Figs. 3 (a) to 6 (a).

【図31】図3(a)〜図6(a)に相当する第2符号
化部の符号化の態様を示す図表である。
FIG. 31 is a chart showing an encoding mode of a second encoding unit corresponding to FIGS. 3 (a) to 6 (a).

【図32】図3(a)〜図6(a)に相当する第2符号
化部の符号化の態様を示す図表である。
FIG. 32 is a chart showing an encoding mode of a second encoding unit corresponding to FIGS. 3 (a) to 6 (a).

【図33】図3(a)〜図6(a)に相当する第2符号
化部の符号化の態様を示す図表である。
FIG. 33 is a chart showing an encoding mode of a second encoding unit corresponding to FIGS. 3A to 6A.

【図34】実施の形態1の変形例でフィルタ部の別な構
成を示すブロック図である。
FIG. 34 is a block diagram showing another configuration of the filter unit in the modification of the first embodiment.

【図35】従来の画像表示装置を説明するための図であ
り、所定の画像パターンが、2画素相当平行移動する様
子を表す図である。
FIG. 35 is a diagram for explaining the conventional image display device, and is a diagram showing a state in which a predetermined image pattern moves in parallel by two pixels.

【図36】上記画像パターンが平行移動する様子を観測
者が追従した時に観られる様子を示している。
FIG. 36 shows a state where the observer follows the state where the image pattern moves in parallel, and is observed.

【図37】更に別な従来の画像表示装置を説明するため
の図であり、図36に相当する図である。
FIG. 37 is a diagram for explaining still another conventional image display device, and a diagram corresponding to FIG. 36.

【符号の説明】[Explanation of symbols]

1 フィルタ部 2 γ逆補正部 3 AD変換部 4 誤差拡散部 5 動き量算出部 6 第1符号化部 7 第2符号化部 8 表示制御部 9 PDP 11 2次元高域通過フィルタ 12 2次元低域通過フィルタ 13 時間応答低域通過フィルタ13 14 加算部 41 加算部 42 誤差算出部 43a〜43d 遅延部 44a〜44d 係数部 51a,51b フレームメモリ 52 動き量検出部 53 傾斜部検出部 54 動き量補正部 60 変換テーブル 71 サブフィールド変換部 72 書込アドレス制御部 73a,73b フレームメモリ 80 表示ライン制御部 81a,81b アドレスドライバ 82 ラインドライバ 101 第3符号化部 102 第4符号化部 201 サブフィールド情報設定部 202 サブフィールド符号化部 203 基準点設定部 204 経路算出部 205 発光パルス時刻算出部 206 視線位置算出部 207 近傍画素選択部 208 近傍画素係数算出部 209 係数乗算部 210 発光量積算部 710 サブフィールド変換テーブル 1 Filter section 2 γ inverse correction unit 3 AD converter 4 Error diffusion section 5 Motion amount calculator 6 First Encoding Unit 7 Second encoding unit 8 Display control unit 9 PDP 11 Two-dimensional high-pass filter 12 Two-dimensional low-pass filter 13-hour response low-pass filter 13 14 Adder 41 Adder 42 Error calculator 43a to 43d delay unit 44a to 44d coefficient part 51a, 51b Frame memory 52 Motion Detection Unit 53 Slope detection unit 54 Motion amount correction unit 60 conversion table 71 Subfield converter 72 write address controller 73a, 73b frame memory 80 Display line controller 81a, 81b address driver 82 line driver 101 Third Encoding Unit 102 fourth encoding unit 201 Subfield information setting section 202 subfield coding unit 203 Reference point setting section 204 Route calculator 205 Emission pulse time calculation unit 206 Line-of-sight position calculation unit 207 Neighborhood pixel selection unit 208 neighborhood pixel coefficient calculation unit 209 coefficient multiplication unit 210 Light emission amount integration unit 710 Subfield conversion table

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G09G 3/20 G09G 3/20 641R 642A 642 660W 660 H04N 5/66 101B H04N 5/66 101 G09G 3/28 H (31)優先権主張番号 特願平9−333863 (32)優先日 平成9年12月4日(1997.12.4) (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平9−341116 (32)優先日 平成9年12月11日(1997.12.11) (33)優先権主張国 日本(JP) Fターム(参考) 5C058 AA11 BA07 BA33 BB13 BB14 BB25 5C080 AA05 BB05 CC03 DD02 DD05 DD12 DD13 DD15 EE19 EE29 FF12 GG08 GG12 HH02 HH05 JJ01 JJ02 JJ03 JJ04 JJ05 JJ07 KK42 ─────────────────────────────────────────────────── ─── Continued Front Page (51) Int.Cl. 7 Identification Code FI Theme Coat (Reference) G09G 3/20 G09G 3/20 641R 642A 642 660W 660 H04N 5/66 101B H04N 5/66 101 G09G 3/28 H (31) Priority claim number Japanese Patent Application No. 9-333863 (32) Priority date December 4, 1997 (Dec. 4, 1997) (33) Priority claim country Japan (JP) (31) Priority claim Number Japanese Patent Application No. 9-341116 (32) Priority date December 11, 1997 (December 11, 1997) (33) Priority claiming country Japan (JP) F-term (reference) 5C058 AA11 BA07 BA33 BB13 BB14 BB25 5C080 AA05 BB05 CC03 DD02 DD05 DD12 DD13 DD15 EE19 EE29 FF12 GG08 GG12 HH02 HH05 JJ01 JJ02 JJ03 JJ04 JJ05 JJ07 KK42

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 1TVフィールドを、それぞれ輝度重み
を持ったN個のサブフィールドを時間順に配列したもの
で構成し、所望のサブフィールドを点灯して1TVフィ
ールドの映像を多階調表示する画像表示装置であって、 入力映像信号の動き量を検出する動き検出手段と,前記
動き検出手段が検出した入力映像信号の動き量の,動き
なし及び動きありにおける2以上の段階に対応する複数
の符号化出力の組の中から,入力映像信号の動き量に応
じて符号化出力の組みを選択し,選択された符号化出力
の組の中から入力映像信号の階調値に近い符号化出力を
選択する表示信号符号化手段と,選択された一の符号化
出力に対応してサブフィールドの点灯を制御するサブフ
ィールド駆動手段とを備え,前記表示信号符号化手段は
入力映像信号の動き量が大きくなるに従って,輝度重み
の大きいサブフィールドにおける非点灯/点灯の変化を
抑制するような符号化出力の組みを選択し,前記動き量
検出手段は、これから表示しようとするフレームと前フ
レームとの同一画素における差分をとり、その差分値に
応じて動き量を,動きなし及び動きありにおける2以上
の段階に段階付けて検出する動き量検出部と、連続する
画像領域で階調値が単調に変化する領域を検出する傾斜
部検出部と、動き量検出部で検出した動き量を、傾斜部
検出部での検出結果を基に補正する動き量補正部とを備
えたことを特徴とする画像表示装置。
1. An image display in which one TV field is configured by arranging N sub-fields each having a luminance weight in time order, and a desired sub-field is turned on to display an image of one TV field in multiple gradations. An apparatus, comprising: a motion detecting means for detecting a motion amount of an input video signal; and a plurality of codes corresponding to two or more stages of a motion amount of the input video signal detected by the motion detecting means: no motion and no motion. The coded output set is selected from the coded output set according to the motion amount of the input video signal, and the coded output close to the gradation value of the input video signal is selected from the selected coded output set. The display signal coding means for selecting and the sub-field driving means for controlling lighting of the sub-field corresponding to the selected one coded output are provided, and the display signal coding means is for moving the input video signal. As the amount increases, a set of coded outputs that suppresses non-lighting / lighting changes in a subfield having a large luminance weight is selected, and the motion amount detecting means selects a frame to be displayed and a previous frame. Of the same pixel, and a motion amount detection unit that detects the motion amount by grading the motion amount according to the difference value in two or more stages, that is, no motion and motion, and the gradation value is monotonic in the continuous image area. And a motion amount correction unit that corrects the motion amount detected by the motion amount detection unit based on the detection result of the tilt portion detection unit. Image display device.
【請求項2】 前記表示信号符号化手段は、入力映像信
号の動き量が小さくなるに従って多くの符号化出力から
なる符号化出力の組みの選択を行うことを特徴とする請
求項1記載の画像表示装置。
2. The image according to claim 1, wherein the display signal coding means selects a set of coded outputs consisting of more coded outputs as the amount of motion of the input video signal becomes smaller. Display device.
【請求項3】 前記表示信号符号化手段は、入力映像信
号の動き量が最も大きい場合、W1≦W2≦・・・≦W
Nとしたときに、「0」、「W1」、「W1+W2」、
「W1+W2+W3」、...、「W1+W2+W3
+...+WN」からなるN+1種類の符号化出力から
なる符号化出力の組みを選択することを特徴とする請求
項1又は2に記載の画像表示装置。
3. The display signal encoding means is W1 ≦ W2 ≦ ... ≦ W when the amount of movement of the input video signal is the largest.
When set to N, "0", "W1", "W1 + W2",
“W1 + W2 + W3” ,. . . , "W1 + W2 + W3
+. . . 3. The image display device according to claim 1, wherein a set of coded outputs composed of N + 1 types of coded outputs of "+ WN" is selected.
【請求項4】 符号化出力の組みのうち対応する動き量
が最も大きいものは、表示信号の階調値が大きくなると
点灯するサブフィールドの分布が単純に広がる関係を満
たす符号化出力の組み合わせであることを特徴とする請
求項1記載の画像表示装置。
4. A combination of the coded outputs having the largest corresponding motion amount is a combination of the coded outputs that satisfies the relationship that the distribution of subfields that light up when the gradation value of the display signal becomes large simply expands. The image display device according to claim 1, wherein the image display device is provided.
【請求項5】 前記画像表示装置は、一の画素に関して
入力映像信号の階調値が表示に用いられる階調値となる
とき、その差分を周辺の画素に分散する誤差拡散手段を
含むことを特徴とする請求項1〜4の何れかに記載の画
像表示装置。
5. The image display device includes an error diffusion unit that disperses a difference between peripheral pixels when a gradation value of an input video signal becomes a gradation value used for display for one pixel. The image display device according to claim 1, wherein the image display device is a display device.
【請求項6】 前記誤差拡散手段は、入力映像信号の階
調値と表示に用いられる階調値との誤差階調値を算出す
る誤差算出部と、 前記算出した誤差階調値信号を周辺所定の画素に分散さ
せるべく遅延させる遅延部と、 分散すべき画素への配分する階調値を決定する係数部
と、 入力映像信号に前記係数部で得られた各画素へ分散する
階調値を加算する加算部とを含むことを特徴とする請求
項5記載の画像表示装置。
6. The error diffusing means calculates an error gradation value between the gradation value of the input video signal and the gradation value used for display, and an error calculating section for calculating the error gradation value signal around the error gradation value signal. A delay unit that delays to disperse to a predetermined pixel, a coefficient unit that determines a gradation value to be distributed to the pixels to be dispersed, and a gradation value that is distributed to each pixel obtained by the coefficient unit in the input video signal. The image display device according to claim 5, further comprising: an addition unit that adds
JP2002245665A 1997-07-24 2002-08-26 Image display device Expired - Lifetime JP3727619B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002245665A JP3727619B2 (en) 1997-07-24 2002-08-26 Image display device

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
JP19814197 1997-07-24
JP9-198141 1997-07-24
JP9-201273 1997-07-28
JP20127397 1997-07-28
JP9-316768 1997-11-18
JP31676897 1997-11-18
JP33386397 1997-12-04
JP9-333863 1997-12-04
JP34111697 1997-12-11
JP9-341116 1997-12-11
JP2002245665A JP3727619B2 (en) 1997-07-24 2002-08-26 Image display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP21010598A Division JP3425083B2 (en) 1997-07-24 1998-07-24 Image display device and image evaluation device

Publications (2)

Publication Number Publication Date
JP2003150103A true JP2003150103A (en) 2003-05-23
JP3727619B2 JP3727619B2 (en) 2005-12-14

Family

ID=27553728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002245665A Expired - Lifetime JP3727619B2 (en) 1997-07-24 2002-08-26 Image display device

Country Status (1)

Country Link
JP (1) JP3727619B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101607431B1 (en) 2015-03-27 2016-03-29 김홍석 Method and apparatus for real-time image processing using motion recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101607431B1 (en) 2015-03-27 2016-03-29 김홍석 Method and apparatus for real-time image processing using motion recognition

Also Published As

Publication number Publication date
JP3727619B2 (en) 2005-12-14

Similar Documents

Publication Publication Date Title
JP3425083B2 (en) Image display device and image evaluation device
KR100595077B1 (en) Image display apparatus
US7420576B2 (en) Display apparatus and display driving method for effectively eliminating the occurrence of a moving image false contour
KR100488839B1 (en) Apparatus and method for making a gray scale display with subframes
US20050248583A1 (en) Dither processing circuit of display apparatus
KR100734646B1 (en) Image display apparatus and image display method
WO2000019400A1 (en) Plasma display panel drive pulse controller for preventing fluctuation in subframe location
JP2001083926A (en) Animation false contour compensating method, and image display device using it
JP3961171B2 (en) Multi-tone processing circuit for display device
JP2000352954A (en) Method for processing video image in order to display on display device and device therefor
KR100687558B1 (en) Image display method and image display apparatus
US8228316B2 (en) Video signal processing apparatus and video signal processing method
JP3990612B2 (en) Image evaluation device
JP3727619B2 (en) Image display device
JP2004126457A (en) Picture display device
JP2000098960A (en) Animation image display device
JP4048089B2 (en) Image display device
EP1732055B1 (en) Display device
JP2003153130A (en) Image display apparatus
JP2003177696A (en) Device and method for display
JP2001042819A (en) Method and device for gradation display
KR100578917B1 (en) A driving apparatus of plasma display panel, a method for processing pictures on plasma display panel and a plasma display panel
JPH09330057A (en) Method for displaying gradation of gas discharging display panel and device for displaying gas discharge
JP2003114643A (en) Gradation display method for plasma display panel and its device
JP4052142B2 (en) Image display device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050928

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091007

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091007

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101007

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111007

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121007

Year of fee payment: 7