JP5855896B2 - Display device using subfield driving method, display method, and program - Google Patents

Display device using subfield driving method, display method, and program Download PDF

Info

Publication number
JP5855896B2
JP5855896B2 JP2011228879A JP2011228879A JP5855896B2 JP 5855896 B2 JP5855896 B2 JP 5855896B2 JP 2011228879 A JP2011228879 A JP 2011228879A JP 2011228879 A JP2011228879 A JP 2011228879A JP 5855896 B2 JP5855896 B2 JP 5855896B2
Authority
JP
Japan
Prior art keywords
bits
image
display
frame
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011228879A
Other languages
Japanese (ja)
Other versions
JP2013088609A (en
Inventor
芳邦 平野
芳邦 平野
武順 薄井
武順 薄井
啓二 石井
啓二 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2011228879A priority Critical patent/JP5855896B2/en
Publication of JP2013088609A publication Critical patent/JP2013088609A/en
Application granted granted Critical
Publication of JP5855896B2 publication Critical patent/JP5855896B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Control Of Gas Discharge Display Tubes (AREA)

Description

本発明は、プラズマディスプレイパネル等のマトリクス型表示装置に用いる技術に関し、特に、画像データを表示するフィールドを複数のサブフィールドに分割し、これらの複数のサブフィールドを足し合わせて階調表示するサブフィールド駆動法を用いた表示装置、表示方法及びプログラムに関する。   The present invention relates to a technique used for a matrix type display device such as a plasma display panel, and more particularly to a sub-field that divides a field for displaying image data into a plurality of sub-fields and adds the plurality of sub-fields to display a gradation. The present invention relates to a display device using a field driving method, a display method, and a program.

映像処理技術の発展に伴い、表示装置の画質性能に対する要求は高まっている。特に、動画質に課題があるとされていた液晶表示装置の駆動方法に関する技術進展は目覚しく、倍速駆動または黒挿入の技術によって、その動画質は飛躍的に改善された。一方、もともと動画質に優れるプラズマディスプレイ(以下、PDPという。)においても、階調表現を改善する等の目的で、さらに高いフレーム周波数での表示技術に関する研究及び開発が行なわれている。   With the development of video processing technology, the demand for image quality performance of display devices is increasing. In particular, the technical progress related to the driving method of the liquid crystal display device, which has been considered to have a problem with the moving image quality, is remarkable, and the moving image quality has been dramatically improved by the double speed driving or black insertion technology. On the other hand, research and development on display technology at a higher frame frequency are also being performed for the purpose of improving gradation expression in a plasma display (hereinafter referred to as PDP) that is excellent in moving image quality.

ところで、PDP等で用いられる階調表示手法として、サブフィールド駆動法(以下、SF駆動法という。)が知られている(例えば、特許文献1を参照)。このSF駆動法は、1フレームの映像表示期間を示すフィールドを複数の区間(サブフィールド、以下、SFという。)に時間的に分割し、分割したそれぞれのSFの表示時間に重み付けをすることで輝度(発光重み)を割り振り、発光させるSFの組み合わせにてこれらのSFを足し合わせ(時間積分し)画素値を表現し、画像表示するものである。具体的には、行方向及び列方向に配列した複数の画素を備えた表示装置において、画像データをビット毎のデータに変換し、画素を選択するアドレス期間と、選択した画素をビットの重みに応じた時間分発光させる表示期間とからなるSFにより、画像データに従って階調表示を行うものである。これにより、人の眼に映る画像の時間的な積分作用によって、階調表示を実現することができる。例えば、1フィールドを8つのSFに分割し、1,2,4,8,16,32,64,128の重み付けを各SFに持たせ、これらのSFを足し合わせることにより、256階調の画像表示を行う。   Incidentally, a subfield driving method (hereinafter referred to as SF driving method) is known as a gradation display method used in PDP or the like (see, for example, Patent Document 1). In this SF driving method, a field indicating a video display period of one frame is temporally divided into a plurality of sections (subfields, hereinafter referred to as SF), and the display time of each divided SF is weighted. Luminance (emission weight) is allocated, and these SFs are added (time-integrated) with the combination of SFs to emit light to express pixel values and display an image. Specifically, in a display device including a plurality of pixels arranged in a row direction and a column direction, image data is converted into data for each bit, an address period for selecting a pixel, and the selected pixel as a bit weight. The gradation display is performed according to the image data by the SF including the display period in which light is emitted for the corresponding time. As a result, gradation display can be realized by temporal integration of an image reflected in the human eye. For example, one field is divided into 8 SFs, and weights of 1, 2, 4, 8, 16, 32, 64, and 128 are given to the respective SFs, and these SFs are added together so that an image of 256 gradations is added. Display.

特許第3259253号公報Japanese Patent No. 3259253

しかしながら、このSF駆動法では、フレーム周波数に上限が存在する。これは、1フレームあたりのSF数をN、1つのSFを表示するために必要な時間幅をT、フレーム周波数をf[Hz]とすると、模式的にN≦1/(fT)と表すことができ、2の階乗に対応するユニークな発光重みを持つSFの組を用いた場合に表現できる階調数が、2のN乗となるからである。   However, this SF driving method has an upper limit on the frame frequency. This is schematically expressed as N ≦ 1 / (fT), where N is the number of SFs per frame, T is the time width required to display one SF, and f is the frame frequency. This is because the number of gradations that can be expressed when using a set of SFs having unique emission weights corresponding to the factorial of 2 is the Nth power of 2.

例えば、1フレームを128,64,32,16,8,4,2,1の発光重みを持つ8つのSFに分割し、各SFの発光の有無によって256階調の画像表示を行う場合を想定する。この場合、各SFに与えられる時間を変えずにフレーム周波数を2倍に上げるには、1フレームを分割するSF数を半分の4にまで下げる必要がある。フレーム周波数を上げると、SF数が減少して階調数が少なくなるから、フレーム周波数の上昇は、SF数の減少すなわち階調性低下の原因となる。   For example, it is assumed that one frame is divided into eight SFs having emission weights of 128, 64, 32, 16, 8, 4, 2, and 1, and 256 gradation image display is performed depending on whether or not each SF emits light. To do. In this case, in order to double the frame frequency without changing the time given to each SF, it is necessary to reduce the number of SFs for dividing one frame to 4 which is a half. When the frame frequency is increased, the number of SFs is decreased and the number of gradations is decreased. Therefore, an increase in the frame frequency causes a decrease in the number of SFs, that is, a decrease in gradation.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、動画質に関わる高輝度成分のフレーム周波数を維持または上げながら、階調性を向上させることが可能なSF駆動法を用いた表示装置、表示方法及びプログラムを提供することにある。   Accordingly, the present invention has been made to solve the above-described problems, and an object of the present invention is to perform SF driving capable of improving the gradation while maintaining or increasing the frame frequency of the high luminance component related to the moving image quality. It is to provide a display device, a display method, and a program using the method.

前記目的を達成するために、本発明による表示装置は、行方向及び列方向に配列した複数の画素を備え、入力映像の画像データを所定ビット数のビットデータに変換し、前記画素を選択するアドレス期間と、前記選択した画素を前記ビットデータの重みに応じた時間分発光させる表示期間とからなるサブフィールドの処理により、前記入力映像から表示映像を生成して階調表示を行う表示装置において、nを自然数として、前記入力映像における連続する、フレーム番号(2n−1)の第1フレーム及びフレーム番号2nの第2フレームのそれぞれの画像データに基づいて、所定数の上位ビットを抽出する上位ビット処理部と、前記入力映像における連続する前記第1及び第2フレームの画像データを合算する下位ビット処理部と、前記下位ビット処理部により合算された画像データから前記上位ビット処理部により抽出された上位ビットを含む画像データを減算して得られた画像データから、第1の所定位置及び第2の所定位置の下位ビットを抽出し、前記上位ビット処理部により第1フレームから抽出された所定数の上位ビットと前記第1の所定位置の下位ビットとを合成すると共に、前記上位ビット処理部により第2フレームから抽出された所定数の上位ビットと前記第2の所定位置の下位ビットとを合成し、前記合成した連続する2つのフレームの画像データを表示映像として出力する合成部と、を備えたことを特徴とする。 In order to achieve the above object, a display device according to the present invention includes a plurality of pixels arranged in a row direction and a column direction, converts image data of an input video into bit data of a predetermined number of bits, and selects the pixels. In a display device that generates a display image from the input image and performs gradation display by processing of a subfield including an address period and a display period in which the selected pixel emits light for a time corresponding to the weight of the bit data , N is a natural number, and a predetermined number of upper bits are extracted based on the respective image data of the first frame of frame number (2n-1) and the second frame of frame number 2n in the input video. a bit processing unit, and a lower bit processor for summing the image data of the first and second frames successive in the input image, the lower Lower order bits of the first predetermined position and the second predetermined position from the image data obtained by subtracting the image data including the upper bits extracted by the upper bit processing unit from the image data added by the bit processing unit And a predetermined number of upper bits extracted from the first frame by the upper bit processing unit and the lower bits at the first predetermined position are combined and extracted from the second frame by the upper bit processing unit. And a combining unit that combines the predetermined number of upper bits and the lower bits of the second predetermined position and outputs the combined image data of two consecutive frames as a display image. .

また、本発明による表示装置は、前記合成部が、前記入力映像の第1フレームに基づいて抽出された上位ビットを、前記表示映像の第1フレームの上位ビットに割り振り、前記入力映像の第2フレームに基づいて抽出された上位ビットを、前記表示映像の第2フレームの上位ビットに割り振る、ことを特徴とする。   Further, in the display device according to the present invention, the combining unit allocates the upper bits extracted based on the first frame of the input video to the upper bits of the first frame of the display video, and the second of the input video. The high-order bits extracted based on the frame are allocated to the high-order bits of the second frame of the display image.

また、本発明による表示装置は、前記上位ビット処理部が、前記入力映像における連続する前記第1及び第2フレームのそれぞれの画像データから、前記所定数の上位ビットを直接抽出する上位抽出部、を備えたことを特徴とする。 The display device according to the present invention, the upper bit processing unit, from each of the image data of the first and second frames successive in the input image, the higher extraction unit for extracting upper bits of the predetermined number directly, It is provided with.

また、本発明による表示装置は、前記下位ビット処理部が、前記入力映像における連続する前記第1及び第2フレームの画像データを合算し、メタフレーム画像データを生成する合算部と、前記上位ビット処理部により第1フレームから抽出された上位ビットと第2フレームから抽出された上位ビットとを加算し、加算画像データを生成する加算部と、前記合算部により生成されたメタフレーム画像データと、前記加算部により生成された加算画像データとを用いて減算を行い、表示エラー画像データを生成する減算部と、を備えたことを特徴とする。 The display device according to the present invention, the lower bit processing unit, summing the image data of the first and second frames successive in the input image, and a summing unit configured to generate a metadata frame image data, the upper bits An addition unit that adds the upper bits extracted from the first frame and the upper bits extracted from the second frame by the processing unit to generate added image data; and the metaframe image data generated by the summing unit; A subtracting unit that performs subtraction using the added image data generated by the adding unit to generate display error image data.

さらに、本発明による表示方法は、行方向及び列方向に配列した複数の画素を備えた表示装置により、入力映像の画像データを所定ビット数のビットデータに変換し、前記画素を選択するアドレス期間と、前記選択した画素を前記ビットデータの重みに応じた時間分発光させる表示期間とからなるサブフィールドの処理にて、前記入力映像から表示映像を生成して階調表示を行う表示方法において、nを自然数として、前記入力映像における連続する、フレーム番号(2n−1)の第1フレーム及びフレーム番号2nの第2フレームのそれぞれの画像データに基づいて、所定数の上位ビットを抽出する第1のステップと、前記入力映像における連続する前記第1及び第2フレームの画像データを合算する第2のステップと、前記第2のステップにより合算した画像データから前記第1のステップにより抽出した上位ビットを含む画像データを減算して得られた画像データから、第1の所定位置及び第2の所定位置の下位ビットを抽出する第3のステップと、前記第1のステップにより第1フレームから抽出した所定数の上位ビットと前記第3のステップにより抽出した第1の所定位置の下位ビットとを合成する第4のステップと、前記第1のステップにより第2フレームから抽出した所定数の上位ビットと前記第3のステップにより抽出した第2の所定位置の下位ビットとを合成する第5のステップと、前記第4のステップ及び第5のステップにより合成した連続する2つのフレームの画像データを表示映像として出力する第6のステップと、を有することを特徴とする。 Further, according to the display method of the present invention, an address period in which image data of an input video is converted into bit data having a predetermined number of bits by a display device including a plurality of pixels arranged in a row direction and a column direction, and the pixels are selected. In a display method for generating a display image from the input image and performing gradation display in processing of a subfield consisting of a display period in which the selected pixel emits light for a time corresponding to the weight of the bit data, A first number for extracting a predetermined number of higher-order bits based on respective image data of the first frame of frame number (2n-1) and the second frame of frame number 2n in the input video , where n is a natural number . a step of a second step of summing the image data of the first and second frames successive in the input image, the second step Extracting the lower-order bits of the first predetermined position and the second predetermined position from the image data obtained by subtracting the image data including the upper bits extracted in the first step from the image data added by the first step. And a fourth step of combining the predetermined number of upper bits extracted from the first frame by the first step and the lower bits at the first predetermined position extracted by the third step; A fifth step of combining the predetermined number of upper bits extracted from the second frame by the first step and the lower bits of the second predetermined position extracted by the third step; the fourth step; And a sixth step of outputting the image data of two consecutive frames synthesized by the step 5 as a display video.

さらに、本発明による表示プログラムは、コンピュータを前記表示装置として機能させることを特徴とする。   Furthermore, a display program according to the present invention causes a computer to function as the display device.

以上のように、本発明によれば、動画質に関わる高輝度成分のフレーム周波数を維持または上げながら、階調性を向上させることができる。   As described above, according to the present invention, it is possible to improve gradation while maintaining or increasing the frame frequency of a high luminance component related to moving image quality.

本発明の実施形態による表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display apparatus by embodiment of this invention. 表示装置における画像データのフローを示す図である。It is a figure which shows the flow of the image data in a display apparatus. 表示装置により出力される表示映像の画像を説明する図である。It is a figure explaining the image of the display image output by a display apparatus. 従来の表示装置における画像データのフローを示す図である。It is a figure which shows the flow of the image data in the conventional display apparatus. 従来の表示装置により出力される表示映像の画像を説明する図である。It is a figure explaining the image of the display image output by the conventional display apparatus. シミュレーション結果を説明する図である。It is a figure explaining a simulation result.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明の実施形態は、高輝度成分である輝度重みの大きいSFの表示映像については、所定の階調数よりも大きい画像データを生成し、入力映像と同じフレーム周波数で扱い、低輝度成分である輝度重みの小さいSFの表示映像については、所定の階調数よりも大きい画像データを生成し、入力映像よりも低いフレーム周波数で扱うことを特徴とする。ここで、人間の視覚追従は、高輝度成分の映像に対して早く、低輝度成分に対して遅いという特性がある。したがって、高輝度成分のSFを高いフレーム周波数で表示することにより、動画質の改善効果が期待される。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. The embodiment of the present invention generates image data larger than a predetermined number of gradations for a display image of SF with a large luminance weight, which is a high luminance component, and treats it with the same frame frequency as the input video. For an SF display image having a small luminance weight, image data larger than a predetermined number of gradations is generated and handled at a frame frequency lower than that of the input image. Here, human visual follow-up has a characteristic that it is fast for an image with a high luminance component and slow for a low luminance component. Therefore, an effect of improving the moving image quality is expected by displaying the SF of the high luminance component at a high frame frequency.

また、本発明の実施形態では、時間的に隣接する2個の入力映像のフレームを平均化した画像(以下、メタフレームという。)をSFに分割し、所定の低輝度成分である輝度重みの小さいSFを決定する。表示映像における輝度重みの小さいSFは、隣接するフレームにおいて異なる重みを持つものとし、例えば、最初のフレームが64,32,8,1の重みに対応する4ビットのSFにて構成され、次のフレームが64,32,4,2の重みに対応する4ビットのSFにて構成される場合、各フレームにおいて輝度重みの小さい下位のSFである8及び1の重みに対応するビットのSF、並びに4及び2の重みに対応するビットのSFに対してはメタフレームのSF値を与える。この結果、両フレーム(最初のフレームと次のフレームと)を合算(加算)した値は、両フレームをそれぞれ4ビットで表現した場合に比べ、メタフレームに近い値を取ることになる。このように、本発明の実施形態では、メタフレームにおける低輝度成分(通常よりも低いフレーム周波数で画像を見た場合の実際の低輝度成分)を、隣接する表示映像のフレームに分配するようにしたから、静止画の階調再現性を向上させることができる。したがって、動画質に関わる高輝度成分のフレーム周波数を維持しながら、階調性を向上させることができる。   In the embodiment of the present invention, an image obtained by averaging two temporally adjacent input video frames (hereinafter referred to as a metaframe) is divided into SFs, and luminance weights that are predetermined low luminance components are divided. Determine a small SF. The SF with a small luminance weight in the display video is assumed to have different weights in adjacent frames. For example, the first frame is composed of 4-bit SFs corresponding to the weights of 64, 32, 8, and 1, and the following If the frame is composed of 4-bit SFs corresponding to the weights of 64, 32, 4 and 2, the SFs of bits corresponding to the weights of 8 and 1, which are lower-order SFs having a small luminance weight in each frame, and For the SF of bits corresponding to the weights of 4 and 2, the SF value of the metaframe is given. As a result, the value obtained by adding (adding) both frames (the first frame and the next frame) takes a value closer to the metaframe than when both frames are represented by 4 bits. As described above, in the embodiment of the present invention, the low-luminance component in the metaframe (the actual low-luminance component when the image is viewed at a frame frequency lower than normal) is distributed to the adjacent display video frames. Therefore, the gradation reproducibility of a still image can be improved. Therefore, it is possible to improve the gradation while maintaining the frame frequency of the high luminance component related to the moving image quality.

〔表示装置〕
まず、本発明の実施形態による表示装置について説明する。図1は、表示装置の構成を示すブロック図であり、図2は、表示装置における画像データのフローを示す図である。図1及び図2の実施形態では、横480画素、縦260画素、1画素あたりの階調数256(8ビット)の静止画を1フレームとする。表示装置1は、1秒あたり120フレーム(すなわち120fps)の動画像を入力映像の8ビット画像F(N)として入力し、5つのSFに分割した表示映像の画像D(N)を出力するものとする。また、表示装置1は、1秒あたり600のSFを出力することが可能であり、したがって、120fpsの映像であれば1フレームあたり5つのSFを割り当てることができる。8ビット画像F(N)は、フレーム番号Nの画素値を示す。
[Display device]
First, a display device according to an embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of a display device, and FIG. 2 is a diagram illustrating a flow of image data in the display device. In the embodiment shown in FIGS. 1 and 2, a still image having a horizontal size of 480 pixels, a vertical size of 260 pixels, and 256 gradations per pixel (8 bits) is defined as one frame. The display device 1 inputs a moving image of 120 frames per second (that is, 120 fps) as an 8-bit image F i (N) of an input video, and outputs a display video image D (N) divided into five SFs. Shall. In addition, the display device 1 can output 600 SFs per second. Therefore, if the video is 120 fps, 5 SFs can be allocated per frame. The 8-bit image F i (N) indicates the pixel value of frame number N.

図1を参照して、この表示装置1は、減色部10−1,10−2、上位抽出部11−1,11−2、平均化部(合算部)12、減色部13、加算部14、減算部15及び合成部16−1,16−2を備えている。減色部10−1,10−2及び上位抽出部11−1,11−2により上位ビット処理部が構成され、平均化部12、減色部13、加算部14及び減算部15により下位ビット処理部が構成される。表示装置1は、入力映像における2フレームの8ビット画像F(N),F(N+1)を入力し、表示映像を構成する5つのSFのうち上位3ビットのSFが、階調数32(5ビット)よりも大きい階調数64(6ビット)及び120fpsのデータにて構成され、下位2ビットのSFが、入力映像を平均化したデータであって、階調数32(5ビット)よりも大きい階調数128(7ビット)及び60fpsのデータにて構成された2フレームの画像D(N),D(N+1)を表示映像として出力する。表示装置1は、8ビット画像F (N),F (N+1)の処理の後、入力映像における2フレームの8ビット画像F (N+2),F (N+3)を入力し、2フレームの画像D(N+2),D(N+3)を生成し表示映像として出力する。 Referring to FIG. 1, this display device 1 includes color reduction units 10-1 and 10-2, upper extraction units 11-1 and 11-2, an averaging unit (summing unit) 12, a color reduction unit 13, and an addition unit 14. The subtracting unit 15 and the combining units 16-1 and 16-2 are provided. The color reduction units 10-1 and 10-2 and the high-level extraction units 11-1 and 11-2 constitute a high-order bit processing unit, and the averaging unit 12, the color reduction unit 13, the addition unit 14, and the subtraction unit 15 constitute a low-order bit processing unit. Is configured. The display device 1 receives two frames of 8-bit images F i (N) and F i (N + 1) in the input video, and the upper 3 bits of the SFs constituting the display video have a gradation number of 32. It is composed of data of gradation number 64 (6 bits) and 120 fps larger than (5 bits), and the lower 2 bits SF are data obtained by averaging the input video, and the gradation number 32 (5 bits) Two frames of images D (N) and D (N + 1) composed of data having a larger gradation number 128 (7 bits) and 60 fps are output as display images. After processing the 8-bit images F i (N) and F i (N + 1), the display device 1 inputs the two frames of the 8-bit images F i (N + 2) and F i (N + 3) in the input video, and inputs 2 frames. Images D (N + 2) and D (N + 3) are generated and output as display images.

減色部10−1は、入力映像の8ビット画像F(N)を入力し、減色処理により8ビットの画像データを6ビットの画像データに変換し、6ビット画像F(N)を生成して上位抽出部11−1に出力する。6ビット画像F(N)の構成は、図2のd1のようになる。図2のd1において、「1,2,4,8,16,32」は、6ビット画像F(N)における各ビットの重みを示し、6ビット画像F(N)の階調数は64(6ビット)である。尚、6ビット画像F(N)を生成する減色処理には、例えば、誤差拡散を行いながら下位ビットを削除するSteavenson&Archeのディザリングアルゴリズムが用いられる。この減色処理は既知であるから、ここでは説明を省略する。本発明では、減色処理を、Steavenson&Archeのディザリングアルゴリズムによる処理に限定するものではない。 The color reduction unit 10-1 receives an 8-bit image F i (N) of the input video, converts the 8-bit image data into 6-bit image data by color reduction processing, and generates a 6-bit image F 6 (N). And output to the upper extraction unit 11-1. The configuration of the 6-bit image F 6 (N) is as shown by d1 in FIG. In d1 of FIG. 2, "1,2,4,8,16,32" indicates the weight of each bit in the 6-bit image F 6 (N), the number of gradations of the 6-bit image F 6 (N) is 64 (6 bits). Note that, for the color reduction processing that generates the 6-bit image F 6 (N), for example, a steavenson & Arche dithering algorithm that deletes lower bits while performing error diffusion is used. Since this color reduction process is known, description thereof is omitted here. In the present invention, the color reduction processing is not limited to the processing by the steavenson & Arche dithering algorithm.

上位抽出部11−1は、減色部10−1から6ビット画像F(N)を入力し、高輝度成分に相当する所定の上位3ビットを抽出し、ダミー(0)の下位2ビットと抽出した上位3ビットとを合成した合計5ビットにより構成される上位ビット画像F(N)を生成し、上位ビット画像F(N)を加算部14及び合成部16−1に出力する。この上位ビット画像F(N)における上位3ビットのデータは、当該表示装置1により生成される表示映像の画像D(N)の高輝度成分に割り振られる。上位ビット画像F(N)の構成は、図2のd2のようになる。図2のd2に示すように、上位ビット画像F(N)は、5ビットにより構成された120fpsのデータであり、上位3ビットが6ビット画像F(N)の上位3ビットと同じである。また、上位ビット画像F(N)の階調数は32(5ビット)である。 The high-order extraction unit 11-1 receives the 6-bit image F 6 (N) from the color reduction unit 10-1, extracts the predetermined high-order 3 bits corresponding to the high luminance component, and the low-order 2 bits of the dummy (0) An upper bit image F 3 (N) composed of a total of 5 bits obtained by combining the extracted upper 3 bits is generated, and the upper bit image F 3 (N) is output to the adding unit 14 and the combining unit 16-1. The upper 3 bits of data in the upper bit image F 3 (N) are allocated to the high luminance component of the display video image D (N) generated by the display device 1. The configuration of the upper bit image F 3 (N) is as shown by d2 in FIG. As shown in d2 of FIG. 2, the upper bit image F 3 (N) is 120 fps data composed of 5 bits, and the upper 3 bits are the same as the upper 3 bits of the 6-bit image F 6 (N). is there. The number of gradations of the upper bit image F 3 (N) is 32 (5 bits).

減色部10−2は、減色部10−1と同様の処理を行い、入力映像の8ビット画像F(N+1)を入力し、減色処理により8ビットの画像データを6ビットの画像データに変換し、6ビット画像F(N+1)を生成して上位抽出部11−2に出力する。6ビット画像F(N+1)の構成は、図2のd3のようになる。図2のd3において、「1,2,4,8,16,32」は、6ビット画像F(N+1)における各ビットの重みを示し、6ビット画像F(N+1)の階調数は64(6ビット)である。 The color reduction unit 10-2 performs the same processing as the color reduction unit 10-1, inputs an 8-bit image F i (N + 1) of the input video, and converts 8-bit image data into 6-bit image data by color reduction processing. Then, a 6-bit image F 6 (N + 1) is generated and output to the upper extraction unit 11-2. The configuration of the 6-bit image F 6 (N + 1) is as shown by d3 in FIG. In d3 in FIG. 2, "1,2,4,8,16,32" indicates the weight of each bit in the 6-bit image F 6 (N + 1), the number of gradations of the 6-bit image F 6 (N + 1) is 64 (6 bits).

上位抽出部11−2は、上位抽出部11−1と同様の処理を行い、減色部10−2から6ビット画像F(N+1)を入力し、高輝度成分に相当する所定の上位3ビットを抽出し、ダミー(0)の下位2ビットと抽出した上位3ビットとを合成した合計5ビットにより構成される上位ビット画像F(N+1)を生成し、上位ビット画像F(N+1)を加算部14及び合成部16−2に出力する。この上位ビット画像F(N+1)における上位3ビットのデータは、当該表示装置1により生成される表示映像の画像D(N+1)の高輝度成分に割り振られる。上位ビット画像F(N+1)の構成は、図2のd4のようになる。図2のd4に示すように、上位ビット画像F(N+1)は、5ビットにより構成された120fpsのデータであり、上位3ビットが6ビット画像F(N+1)の上位3ビットと同じである。また、上位ビット画像F(N+1)の階調数は32(5ビット)である。 The upper extraction unit 11-2 performs the same processing as the upper extraction unit 11-1, inputs the 6-bit image F 6 (N + 1) from the color reduction unit 10-2, and performs predetermined upper 3 bits corresponding to the high luminance component. extracting, generating a dummy (0) high-order 3 bits and the upper bits image F 3 constituted by synthesized a total of 5 bits and the extracted low order 2 bits of the (N + 1), the upper bit image F 3 a (N + 1) The data is output to the adding unit 14 and the combining unit 16-2. The data of the upper 3 bits in the upper bit image F 3 (N + 1) is allocated to the high luminance component of the image D (N + 1) of the display video generated by the display device 1. The configuration of the upper bit image F 3 (N + 1) is as shown by d4 in FIG. As shown in d4 of FIG. 2, the upper bit image F 3 (N + 1) is 120 fps data composed of 5 bits, and the upper 3 bits are the same as the upper 3 bits of the 6-bit image F 6 (N + 1). is there. The upper bit image F 3 (N + 1) has a gradation number of 32 (5 bits).

加算部14は、上位抽出部11−1から上位ビット画像F(N)を入力すると共に、上位抽出部11−2から上位ビット画像F(N+1)を入力し、上位ビット画像F(N)と上位ビット画像F(N+1)とを合算(加算)し、2フレームの平均画像F(N+1/2)を生成し、2フレームの平均画像F(N+1/2)を減算部15に出力する。2フレームの平均画像F(N+1/2)の構成は、図2のd6のようになる。図2のd6に示すように、2フレームの平均画像F(N+1/2)は、7ビットにより構成された60fpsのデータであり、上位4ビットが上位ビット画像F(N)の上位3ビットと上位ビット画像F(N+1)の上位3ビットとの加算結果であり、下位3ビットがダミービットである。また、2フレームの平均画像F(N+1/2)の階調数は127(7ビット)である。 The addition unit 14 receives the upper bit image F 3 (N) from the upper extraction unit 11-1 and also receives the upper bit image F 3 (N + 1) from the upper extraction unit 11-2, and receives the upper bit image F 3 ( N) and the upper bit image F 3 (N + 1) are added (added) to generate an average image F b (N + 1/2) of two frames, and a subtraction unit for the average image F b (N + 1/2) of two frames 15 is output. The structure of the average image F b (N + 1/2) of two frames is as shown by d6 in FIG. As shown in d6 of FIG. 2, the average image F b (N + 1/2) of 2 frames is 60 fps data composed of 7 bits, and the upper 4 bits are the upper 3 of the upper bit image F 3 (N). This is the result of adding the bit and the upper 3 bits of the upper bit image F 3 (N + 1), and the lower 3 bits are dummy bits. Further, the number of gradations of the average image F b (N + 1/2) of two frames is 127 (7 bits).

平均化部12は、入力映像の8ビット画像F(N),F(N+1)を入力し、これらの画像を平均化し、平均化画像を生成して減色部13に出力する。具体的には、平均化部12は、8ビット画像F(N),F(N+1)の画素値を合算(加算)して2で除算し、平均化画像を生成する。 The averaging unit 12 inputs 8-bit images F i (N) and F i (N + 1) of the input video, averages these images, generates an averaged image, and outputs the averaged image to the color reduction unit 13. Specifically, the averaging unit 12 adds (adds) the pixel values of the 8-bit images F i (N) and F i (N + 1) and divides by 2 to generate an averaged image.

減色部13は、平均化部12から平均化画像を入力し、減色処理により8ビットの平均化画像の画像データを7ビットの画像データに変換し、7ビット画像のメタフレームF(N+1/2)を生成して減算部15に出力する。7ビット画像のメタフレームF(N+1/2)の構成は、図2のd5のようになる。図2のd5において、「1,2,4,8,16,32,64」は、7ビット画像のメタフレームF(N+1/2)における各ビットの重みを示す。メタフレームF(N+1/2)は、7ビットにより構成された60fps相当のデータであり、その階調数は128(7ビット)である。尚、減色部13による7ビット画像への減色処理は、減色部10−1,10−2による6ビット画像への減色処理と同様である。 The color reduction unit 13 receives the averaged image from the averaging unit 12, converts the image data of the 8-bit averaged image into 7-bit image data by the color reduction process, and generates a metaframe F m (N + 1 / N) of the 7-bit image. 2) is generated and output to the subtraction unit 15. The configuration of the meta frame F m (N + 1/2) of the 7-bit image is as indicated by d5 in FIG. In d5 of FIG. 2, “1, 2, 4, 8, 16, 32, 64” indicates the weight of each bit in the metaframe F m (N + 1/2) of the 7-bit image. The meta frame F m (N + 1/2) is data equivalent to 60 fps composed of 7 bits, and the number of gradations is 128 (7 bits). The color reduction processing for the 7-bit image by the color reduction unit 13 is the same as the color reduction processing for the 6-bit image by the color reduction units 10-1 and 10-2.

減算部15は、減色部13からメタフレームF(N+1/2)を入力すると共に、加算部14から2フレームの平均画像F(N+1/2)を入力し、メタフレームF(N+1/2)の画素値から2フレームの平均画像F(N+1/2)の画素値を減算し、表示エラーD(N+1/2)を生成して合成部16−1,16−2に出力する。ここで、メタフレームF(N+1/2)、2フレームの平均画像F(N+1/2)及び表示エラーD(N+1/2)は、7ビットにより構成された60fpsのデータであり、その階調数は128(7ビット)である。この表示エラーD(N+1/2)における下位4ビットのデータの一部は、当該表示装置1により生成される表示映像の画像D(N),画像D(N+1)の低輝度成分にそれぞれ割り振られる。表示エラーD(N+1/2)の構成は、図2のd7のようになる。図2のd7において、「1,2,4,8,16,32,64」は、7ビット画像の表示エラーD(N+1/2)における各ビットの重みを示す。尚、減算部15により生成される表示エラーD(N+1/2)には上位ビット成分は存在しない。表示エラーD(N+1/2)は、メタフレームF(N+1/2)から2フレームの平均画像F(N+1/2)を減算した結果だからである。本例では、「16,32,64」の重みを有するビット成分にはデータが存在しないことになる。 The subtraction unit 15 receives the metaframe F m (N + 1/2) from the color reduction unit 13 and the average image F b (N + 1/2) of two frames from the addition unit 14, and receives the metaframe F m (N + 1/1/2). The pixel value of the average image F b (N + 1/2) of two frames is subtracted from the pixel value of 2) to generate a display error D m (N + 1/2) and output it to the combining units 16-1 and 16-2. . Here, the meta frame F m (N + 1/2), the average image F b (N + 1/2) of two frames, and the display error D m (N + 1/2) are data of 60 fps composed of 7 bits, The number of gradations is 128 (7 bits). Part of the lower 4 bits of the display error D m (N + 1/2) is allocated to the low-luminance components of the display video images D (N) and D (N + 1) generated by the display device 1, respectively. It is. The configuration of the display error D m (N + 1/2) is as shown by d7 in FIG. In d7 of FIG. 2, “1, 2, 4, 8, 16, 32, 64” indicates the weight of each bit in the display error D m (N + 1/2) of the 7-bit image. The display error D m (N + 1/2) generated by the subtracting unit 15 has no upper bit component. This is because the display error D m (N + 1/2) is a result of subtracting the average image F b (N + 1/2) of two frames from the meta frame F m (N + 1/2). In this example, there is no data in the bit component having the weight of “16, 32, 64”.

減算部15により生成される表示エラーD(N+1/2)は、60fpsにて更新される場合の理想的な画像(60fpsで画像を見た場合の実際の画像)である現時点のメタフレームF(N+1/2)と、120fpsにて更新される上位ビット画像F(N),F(N+1)を60fpsにて更新される画像に変換した2フレームの平均画像F(N+1/2)との間の現時点における誤差といえる。 The display error D m (N + 1/2) generated by the subtracting unit 15 is the current metaframe F that is an ideal image when updated at 60 fps (an actual image when viewing the image at 60 fps). m (N + 1/2) and the higher-order bit images F 3 (N) and F 3 (N + 1) updated at 120 fps are converted into an image updated at 60 fps, and the two-frame average image F b (N + 1/2) It can be said that the current error between

合成部16−1は、上位抽出部11−1から上位ビット画像F(N)を入力すると共に、減算部15から表示エラーD(N+1/2)を入力し、上位ビット画像F(N)を構成する5ビットのうちの上位3ビットをそのまま上位3ビットとし、表示エラーD(N+1/2)を構成する7ビットのうちの最下位(1番目)のビット及び4番目のビットを下位2ビットとして合成し、表示映像の画像D(N)を生成して出力する。表示映像の画像D(N)の構成は、図2のd8のようになる。図2のd8において、「1,8,8,16,32」は、5ビット画像である表示映像の画像D(N)における各ビットの重みを示す。表示映像の画像D(N)の階調数は32(5ビット)であるが、上位3ビットが階調数64(6ビット)を実現するデータであって120fpsにて更新され、下位2ビットが階調数128(7ビット)を実現するデータであって60fpsにて更新される。 The synthesizing unit 16-1 receives the upper bit image F 3 (N) from the upper extracting unit 11-1, and also receives the display error D m (N + 1/2) from the subtracting unit 15, and receives the upper bit image F 3 ( The upper 3 bits of the 5 bits constituting N) are used as the upper 3 bits as they are, and the least significant (first) bit and the fourth bit of the 7 bits constituting the display error D m (N + 1/2) Are combined as lower 2 bits to generate and output a display video image D (N). The configuration of the display video image D (N) is as shown by d8 in FIG. In d8 of FIG. 2, “1, 8, 8, 16, 32” indicates the weight of each bit in the image D (N) of the display video that is a 5-bit image. The number of gradations of the display video image D (N) is 32 (5 bits), but the upper 3 bits are data that realizes the gradation number 64 (6 bits) and are updated at 120 fps, and the lower 2 bits. Is data that realizes the number of gradations 128 (7 bits) and is updated at 60 fps.

合成部16−2は、合成部16−1と同様の処理を行い、上位抽出部11−2から上位ビット画像F(N+1)を入力すると共に、減算部15から表示エラーD(N+1/2)を入力し、上位ビット画像F(N+1)を構成する5ビットのうちの上位3ビットをそのまま上位3ビットとし、表示エラーD(N+1/2)を構成する7ビットのうちの2番目のビット及び3番目のビットを下位2ビットとして合成し、表示映像の画像D(N+1)を生成して出力する。表示映像の画像D(N+1)の構成は、図2のd9のようになる。図2のd9において、「2,4,8,16,32」は、5ビット画像である表示映像の画像D(N+1)における各ビットの重みを示す。表示映像の画像D(N+1)の階調数は32(5ビット)であるが、上位3ビットが階調数64(6ビット)を実現するデータであって120fpsにて更新され、下位2ビットが階調数128(7ビット)を実現するデータであって60fpsにて更新される。 The synthesizing unit 16-2 performs the same processing as the synthesizing unit 16-1, inputs the upper bit image F 3 (N + 1) from the upper extracting unit 11-2, and displays the display error D m (N + 1 / N) from the subtracting unit 15. 2), the upper 3 bits of the 5 bits constituting the upper bit image F 3 (N + 1) are directly used as the upper 3 bits, and 2 of the 7 bits constituting the display error D m (N + 1/2). The first bit and the third bit are combined as the lower 2 bits, and a display video image D (N + 1) is generated and output. The configuration of the display video image D (N + 1) is as shown by d9 in FIG. In d9 of FIG. 2, “2, 4, 8, 16, 32” indicates the weight of each bit in the image D (N + 1) of the display video that is a 5-bit image. The number of gradations of the display video image D (N + 1) is 32 (5 bits), but the upper 3 bits are data that realizes the gradation number 64 (6 bits) and are updated at 120 fps, and the lower 2 bits. Is data that realizes the number of gradations 128 (7 bits) and is updated at 60 fps.

尚、図1に示した表示装置1は、減色部10−1,10−2を備えていなくてもよい。この場合、上位抽出部11−1,11−2は、入力映像の8ビット画像F(N),F(N+1)を入力し、高輝度成分に相当する所定の上位3ビットを抽出し、ダミー(0)の下位2ビットと抽出した上位3ビットとを合成した合計5ビットにより構成される上位ビット画像F(N),F(N+1)を生成する。つまり、減色部10−1,10−2は、必要に応じて作動する再サンプリング処理部である。例えば、ユーザの設定に応じて、減色部10−1,10−2は作動したりしなかったりする。 The display device 1 shown in FIG. 1 may not include the color reduction units 10-1 and 10-2. In this case, the upper extraction units 11-1 and 11-2 receive the 8-bit images F i (N) and F i (N + 1) of the input video, and extract predetermined upper 3 bits corresponding to the high luminance component. Then, upper bit images F 3 (N) and F 3 (N + 1) composed of a total of 5 bits obtained by combining the lower 2 bits of the dummy (0) and the extracted upper 3 bits are generated. That is, the color reduction units 10-1 and 10-2 are resampling processing units that operate as necessary. For example, the color reduction units 10-1 and 10-2 may or may not operate according to user settings.

また、表示装置1は、減色部13を備えていなくてもよい。この場合、加算部14は、上位ビット画像F(N)と上位ビット画像F(N+1)とを合算(加算)し、加算画像を生成し、加算画像を減算部15に出力する。減算部15は、平均化部12から平均化画像であるメタフレームを入力すると共に、加算部14から加算画像を入力し、メタフレームの画素値から加算画像の画素値を減算し、表示エラーD(N+1/2)を生成する。このように、表示装置1は、減色部10−1,10−2,13を、必ずしも備える必要はない。つまり、減色部13は、必要に応じて作動する再サンプリング処理部である。例えば、ユーザの設定に応じて、減色部13は作動したりしなかったりする。 Further, the display device 1 may not include the color reduction unit 13. In this case, the adding unit 14 adds (adds) the upper bit image F 3 (N) and the upper bit image F 3 (N + 1), generates an added image, and outputs the added image to the subtracting unit 15. The subtracting unit 15 receives the metaframe that is the averaged image from the averaging unit 12, and also receives the added image from the adding unit 14, subtracts the pixel value of the added image from the pixel value of the metaframe, and displays a display error D. m (N + 1/2) is generated. As described above, the display device 1 does not necessarily include the color reduction units 10-1, 10-2, and 13. That is, the color reduction unit 13 is a resampling processing unit that operates as necessary. For example, the color reduction unit 13 may or may not operate depending on user settings.

〔表示装置の効果〕
次に、図1に示した表示装置1の効果について説明する。図4は、従来の表示装置における画像データのフローを示す図であり、図5は、従来の表示装置により出力される表示映像の画像を説明する図である。従来の表示装置においても、図1に示した表示装置1と同様に、横480画素、縦260画素、1画素あたりの階調数256(8ビット)の静止画を1フレームとし、表示装置は、120fpsの動画像を入力映像の8ビット画像F(N)として入力し、5つのSFに分割した表示映像の画像D(N)を出力するものとする。8ビット画像F(N)は、フレーム番号Nの画素値を示す。
[Effect of display device]
Next, effects of the display device 1 shown in FIG. 1 will be described. FIG. 4 is a diagram illustrating a flow of image data in a conventional display device, and FIG. 5 is a diagram for explaining an image of a display video output by the conventional display device. Also in the conventional display device, similarly to the display device 1 shown in FIG. 1, a still image having a horizontal size of 480 pixels, a vertical size of 260 pixels, and a gradation number of 256 (8 bits) per pixel is defined as one frame. , A moving image of 120 fps is input as an 8-bit image F r (N) of the input video, and a display video image D (N) divided into five SFs is output. The 8-bit image F r (N) indicates the pixel value of frame number N.

図4を参照して、従来の表示装置は、入力映像の8ビット画像F(N)を入力し、減色処理により8ビットの画像データを5ビットの画像データに変換し、5ビット画像F(N)を生成する。そして、5ビット画像F(N)を表示映像の画像D(N)として出力する。また、従来の表示装置は、入力映像の8ビット画像F(N+1)を入力し、減色処理により8ビットの画像データを5ビットの画像データに変換し、5ビット画像F(N+1)を生成する。そして、5ビット画像F(N+1)を表示映像の画像D(N+1)として出力する。尚、5ビット画像F(N),F(N+1)を生成する減色処理には、図1に示した減色部10−1,10−2,13による減色処理と同様に、例えば、誤差拡散を行いながら下位ビットを削除するSteavenson&Archeのディザリングアルゴリズムが用いられる。 Referring to FIG. 4, the conventional display device inputs an 8-bit image F r (N) of an input video, converts 8-bit image data into 5-bit image data by color reduction processing, and converts the 5-bit image F 5 (N) is generated. Then, the 5-bit image F 5 (N) is output as the display video image D (N). In addition, the conventional display device inputs an 8-bit image F r (N + 1) of an input video, converts 8-bit image data into 5-bit image data by color reduction processing, and converts the 5-bit image F 5 (N + 1). Generate. Then, the 5-bit image F 5 (N + 1) is output as a display video image D (N + 1). In the color reduction processing for generating the 5-bit images F 5 (N) and F 5 (N + 1), for example, as in the color reduction processing by the color reduction units 10-1, 10-2, and 13 shown in FIG. Steavenson &Arche's dithering algorithm is used to remove the lower bits while spreading.

図5を参照して、図4に示した従来の表示装置により生成される表示映像の画像D(N)は、入力映像の第1フレームの8ビット画像F(N)を5ビットの画像に変換した5ビット画像F(N)であり、表示映像の画像D(N+1)は、入力映像の第2フレームの8ビット画像F(N+1)を5ビットの画像に変換した5ビット画像F(N+1)である。これらの表示映像の画像D(N),D(N+1)は、いずれも120fpsの画像であり、階調数はそれぞれ32(5ビット)である。 Referring to FIG. 5, an image D (N) of a display video generated by the conventional display device shown in FIG. 4 is an 8-bit image F r (N) of the first frame of the input video. Is a 5-bit image F 5 (N) converted into a 5-bit image obtained by converting an 8-bit image F r (N + 1) of the second frame of the input video into a 5-bit image. F 5 (N + 1). These display video images D (N) and D (N + 1) are both 120 fps images, and the number of gradations is 32 (5 bits).

一般に、人間の脳は、静止画をある周波数で切り替えて表示したものを動画として認識する。しかし、画素の明滅があまりにも速い場合には、その明滅を捉えることができず、輝度の積算値(合算値)が脳に伝えられることになり、時間方向の分解能にも限界がある。これが、人間の眼に映る画像の時間的な積分作用である。この分解能の限界は、注視している画像の部分の面積、位置、明るさ等に依存し、通常、周辺に比べて輝度の高い部分で55Hz程度、輝度の低い部分で12Hz程度であることが実験的に得られている。このような眼の積分作用により、人間の脳では、例えば120fpsにてそれぞれ更新される2フレームの画像は、60fpsにて更新される1フレームの画像として認識されることになる。したがって、図5において、第1フレームにおける表示映像の画像D(N)と第2フレームにおける表示映像の画像D(N+1)とを合算した場合の表示映像の画像は、60fpsの画像となり、階調数は64(6ビット)となる。   Generally, the human brain recognizes a still image displayed by switching at a certain frequency as a moving image. However, if the blinking of the pixel is too fast, the blinking cannot be detected, and the integrated luminance value (summed value) is transmitted to the brain, and the resolution in the time direction is limited. This is the temporal integration action of the image reflected in the human eye. The limit of the resolution depends on the area, position, brightness, etc. of the portion of the image being watched, and is usually about 55 Hz in a portion having a higher luminance than the periphery and about 12 Hz in a portion having a lower luminance. Obtained experimentally. By such an eye integration action, in the human brain, for example, two frames of images updated at 120 fps are recognized as one frame of images updated at 60 fps. Therefore, in FIG. 5, the display video image when the display video image D (N) in the first frame and the display video image D (N + 1) in the second frame are summed is an image of 60 fps. The number is 64 (6 bits).

しかしながら、あるフレーム周波数にて輝度が変化したときに、人間の眼がそれを捉えると、その輝度変化はフリッカー等になって、画質妨害要因となることがあり得る。特に、動きの速い場面を含む映像等では、フレーム周波数が低い場合に偽の映像を表示することになる。このような不具合は、フレーム周波数を高くして階調数を大きくすることにより解消することができ、動画質を改善することができる。そこで、図1に示した本発明の実施形態による表示装置1では、後述するように、第1フレームにおける表示映像の画像D(N)と第2フレームにおける表示映像の画像D(N+1)とを合算した場合の表示映像の画像は60fpsの画像となるが、その階調数は、従来の階調数64(6ビット)よりも大きい128(7ビット)相当となる。つまり、階調数を大きくすることにより、フリッカー等の画質妨害要因を排除し、偽の映像表示を回避することができる。   However, when the luminance changes at a certain frame frequency and the human eye catches it, the luminance change becomes flicker or the like, which may cause image quality interference. In particular, a fake video is displayed when the frame frequency is low in a video including a fast-moving scene. Such a problem can be solved by increasing the frame frequency and increasing the number of gradations, thereby improving the moving image quality. Therefore, in the display device 1 according to the embodiment of the present invention shown in FIG. 1, as described later, a display video image D (N) in the first frame and a display video image D (N + 1) in the second frame are displayed. The image of the display video when combined is an image of 60 fps, but the number of gradations is equivalent to 128 (7 bits), which is larger than the conventional number of gradations 64 (6 bits). That is, by increasing the number of gradations, it is possible to eliminate image quality interference factors such as flicker and avoid false image display.

図3は、図1に示した表示装置1により出力される表示映像の画像D(N),D(N+1)を説明する図である。図3に示すように、表示映像の画像D(N)における上位3ビットのSFは、入力映像の第1フレームの8ビット画像F(N)を6ビットの画像に変換して抽出したデータにより構成され、下位2ビットは、入力映像の第1,第2フレームの8ビット画像F(N),F(N+1)に基づいた平均データにより構成される。同様に、表示映像の画像D(N+1)における上位3ビットのSFは、入力映像の第2フレームの8ビット画像F(N+1)を6ビットの画像に変換して抽出したデータにより構成され、下位2ビットは、入力映像の第1,第2フレームの8ビット画像F(N),F(N+1)に基づいた平均データにより構成される。ここで、図1を参照して、図3に示した表示映像の画像D(N)における上位3ビットのデータは、減色部10−1、上位抽出部11−1及び合成部16−1により生成され、その下位2ビットのデータは、平均化部12、減色部13、減算部15及び合成部16−1により生成される。同様に、図3に示した表示映像の画像D(N+1)における上位3ビットのデータは、減色部10−2、上位抽出部11−2及び合成部16−2により生成され、その下位2ビットのデータは、平均化部12、減色部13、減算部15及び合成部16−2により生成される。 FIG. 3 is a diagram for explaining the images D (N) and D (N + 1) of the display video output by the display device 1 shown in FIG. As shown in FIG. 3, the upper 3 bits SF in the image D (N) of the display video is data obtained by converting the 8-bit image F i (N) of the first frame of the input video into a 6-bit image. The lower 2 bits are composed of average data based on 8-bit images F i (N) and F i (N + 1) of the first and second frames of the input video. Similarly, the upper 3 bits SF in the image D (N + 1) of the display video is constituted by data extracted by converting the 8-bit image F i (N + 1) of the second frame of the input video into a 6-bit image, The lower 2 bits are composed of average data based on 8-bit images F i (N) and F i (N + 1) of the first and second frames of the input video. Here, referring to FIG. 1, the upper 3 bits of data in the image D (N) of the display image shown in FIG. 3 is obtained by the color reduction unit 10-1, the upper extraction unit 11-1, and the synthesis unit 16-1. The lower two bits of data are generated by the averaging unit 12, the color reduction unit 13, the subtraction unit 15, and the synthesis unit 16-1. Similarly, the upper 3 bits of data D (N + 1) of the display video shown in FIG. 3 are generated by the color reduction unit 10-2, the upper extraction unit 11-2, and the synthesis unit 16-2, and the lower 2 bits thereof. Is generated by the averaging unit 12, the color reduction unit 13, the subtraction unit 15, and the synthesis unit 16-2.

つまり、表示映像の画像D(N),D(N+1)における上位3ビットのSFは、図4及び図5に示した従来の階調数32(5ビット)よりも大きい階調数64(6ビット)を実現し、120fpsにて更新され、下位2ビットのSFは、図4及び図5に示した従来の階調数32(5ビット)よりも大きい階調数128(7ビット)を実現し、60fpsにて更新される。したがって、第1フレームにおける表示映像の画像D(N)と第2フレームにおける表示映像の画像D(N+1)とを合算した場合の表示映像の画像は、60fpsの画像となるが、階調数は従来の64(6ビット)ではなく、128(7ビット)相当となる。また、表示映像の画像D(N),D(N+1)における低輝度成分である下位2ビットは、第1フレーム及び第2フレームの画像F(N),F(N+1)の平均値のビットと一致する。 That is, the upper 3 bits SF in the displayed video images D (N) and D (N + 1) have a gradation number 64 (6) larger than the conventional gradation number 32 (5 bits) shown in FIGS. Bit) and updated at 120 fps, the lower 2 bits SF realizes a gradation number 128 (7 bits) larger than the conventional gradation number 32 (5 bits) shown in FIGS. And updated at 60 fps. Therefore, when the display video image D (N) in the first frame and the display video image D (N + 1) in the second frame are added together, the display video image is an image of 60 fps, but the number of gradations is This is equivalent to 128 (7 bits) instead of the conventional 64 (6 bits). The lower 2 bits, which are low luminance components in the displayed video images D (N) and D (N + 1), are the average values of the images F i (N) and F i (N + 1) of the first frame and the second frame. Matches the bit.

以上のように、本発明の実施形態による表示装置1では、入力映像と同じフレーム周波数にて表示映像を出力する場合であっても、従来の表示装置による階調数64(6ビット)よりも大きい階調数128(7ビット)を実現することができる。これにより、動画質に関わる高輝度成分のフレーム周波数を維持しながら、階調性を向上させることができる。また、平均化部12及び減色部13により生成される7ビット画像のメタフレームF(N+1/2)は、60fpsにて更新される場合の実際の画像(60fpsで見た場合の画像)そのものであり、表示映像の画像D(N),D(N+1)における低輝度成分である下位2ビットがこの7ビット画像のメタフレームF(N+1/2)に基づいて生成される。これにより、低輝度成分において階調再現性を向上させることができる。さらに、高いフレーム周波数にて表示映像を出力する場合においても、高階調化と静止画再現性の向上が見込まれる。つまり、動画質に支配的な影響を与える高輝度成分のフレーム周波数を保ち、かつ階調性低下の抑制効果が見込まれる。また、高階調化に伴って、必要なSFの数を削減することができ、結果として、削減可能なSFに相当する時間を、偽輪郭対策、高輝度化等の他の処理に転用することが可能となる。 As described above, in the display device 1 according to the embodiment of the present invention, even when the display image is output at the same frame frequency as the input image, the number of gradations is 64 (6 bits) compared with the conventional display device. A large number of gradations 128 (7 bits) can be realized. As a result, the gradation can be improved while maintaining the frame frequency of the high luminance component related to the moving image quality. Further, the meta frame F m (N + 1/2) of the 7-bit image generated by the averaging unit 12 and the color reduction unit 13 is an actual image when updated at 60 fps (an image viewed at 60 fps) itself. The lower 2 bits, which are low-luminance components in the displayed video images D (N) and D (N + 1), are generated based on the metaframe F m (N + 1/2) of the 7-bit image. Thereby, the gradation reproducibility can be improved in the low luminance component. Further, even when a display image is output at a high frame frequency, it is expected that the gradation is increased and the still image reproducibility is improved. That is, it is possible to maintain the frame frequency of the high luminance component that has a dominant influence on the moving image quality and to suppress the gradation deterioration. In addition, the number of necessary SFs can be reduced with the increase in gradation, and as a result, the time corresponding to the reducible SFs can be diverted to other processes such as countermeasures for false contours and higher luminance. Is possible.

〔シミュレーション結果〕
次に、従来の表示装置及び本発明の実施形態による表示装置1を用いた場合のコンピュータによるシミュレーション結果について説明する。図6は、シミュレーション結果を説明する図であり、入力映像の画像と、従来の表示装置及び本発明の実施形態による表示装置1により生成された表示映像の画像との間における低輝度成分の画像の誤差を示す割合(誤差率)を示している。誤差率は、以下の式により算出したものである。

Figure 0005855896
ここで、画素数は1フレームあたりの画素数を示し、フレーム数は全フレーム数(120)を示す。 〔simulation result〕
Next, a simulation result by a computer when the conventional display device and the display device 1 according to the embodiment of the present invention are used will be described. FIG. 6 is a diagram for explaining a simulation result, and an image of a low luminance component between an input video image and a display video image generated by the conventional display device and the display device 1 according to the embodiment of the present invention. The ratio (error rate) indicating the error is shown. The error rate is calculated by the following equation.
Figure 0005855896
Here, the number of pixels indicates the number of pixels per frame, and the number of frames indicates the total number of frames (120).

図6から、3種類のサンプル1〜3における全ての動画像において、本発明の実施形態による表示装置1を用いた場合の誤差率は、従来の表示装置を用いた場合の誤差率よりも低下していることがわかる。したがって、本発明の実施形態による表示装置1によれば、低輝度成分において静止画再現性を向上させることができる。   From FIG. 6, in all the moving images in the three types of samples 1 to 3, the error rate when the display device 1 according to the embodiment of the present invention is used is lower than the error rate when the conventional display device is used. You can see that Therefore, according to the display device 1 according to the embodiment of the present invention, still image reproducibility can be improved in a low luminance component.

以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、前記実施形態では、表示映像の画像におけるSF数を5としたが、本発明はSF数を5に限定するものではない。また、前記実施形態では、図1及び図2に示したように、合成部16−1が、表示エラーD(N+1/2)を構成する7ビットのうちの最下位(1番目)のビット及び4番目のビットを下位2ビットとして表示映像の画像D(N)を生成し、合成部16−2が、表示エラーD(N+1/2)を構成する7ビットのうちの2番目のビット及び3番目のビットを下位2ビットとして表示映像の画像D(N+1)を生成するようにした。本発明は、表示エラーD(N+1/2)を構成する7ビットのうちの下位4ビットについて、合成部16−1,16−2により生成される表示映像の画像D(N),D(N+1)の下位2ビットに割り当てるそれぞれのビットを限定するものではなく、表示エラーD(N+1/2)の同じ重みのビットを、表示映像の画像D(N),D(N+1)に割り当てないようにすればよい。例えば、合成部16−1が、表示エラーD(N+1/2)を構成する7ビットのうちの最下位(1番目)のビット及び3番目のビットを、表示映像の画像D(N)の下位2ビットとし、合成部16−2が、表示エラーD(N+1/2)を構成する7ビットのうちの2番目のビット及び4番目のビットを、表示映像の画像D(N+1)の下位2ビットとするようにしてもよい。 The present invention has been described with reference to the embodiment. However, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the technical idea thereof. For example, in the above embodiment, the number of SFs in the image of the display video is set to 5, but the present invention is not limited to 5 SFs. In the embodiment, as shown in FIGS. 1 and 2, the combining unit 16-1 has the least significant (first) bit among the 7 bits constituting the display error D m (N + 1/2). And the fourth bit as the lower 2 bits to generate a display video image D (N), and the combining unit 16-2 uses the second bit among the 7 bits constituting the display error D m (N + 1/2). And the image D (N + 1) of the display video is generated with the third bit as the lower 2 bits. In the present invention, for the lower 4 bits of the 7 bits constituting the display error D m (N + 1/2), the display video images D (N), D ( The bits assigned to the lower 2 bits of N + 1) are not limited, and the bits having the same weight of the display error D m (N + 1/2) are not assigned to the images D (N) and D (N + 1) of the display video. What should I do? For example, the synthesizing unit 16-1 uses the least significant (first) bit and the third bit of the seven bits constituting the display error D m (N + 1/2) as the display video image D (N). The lower 2 bits are used, and the combining unit 16-2 uses the second bit and the fourth bit among the 7 bits constituting the display error D m (N + 1/2) as the lower bits of the display video image D (N + 1). Two bits may be used.

尚、本発明の実施形態による表示装置1のハードウェア構成としては、通常のコンピュータを使用することができる。表示装置1は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。表示装置1に備えた減色部10−1,10−2、上位抽出部11−1,11−2、平均化部12、減色部13、加算部14、減算部15及び合成部16−1,16−2の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。   Note that a normal computer can be used as the hardware configuration of the display device 1 according to the embodiment of the present invention. The display device 1 is configured by a computer including a volatile storage medium such as a CPU and a RAM, a non-volatile storage medium such as a ROM, an interface, and the like. Color reduction units 10-1 and 10-2, upper extraction units 11-1 and 11-2, an averaging unit 12, a color reduction unit 13, an addition unit 14, a subtraction unit 15, and a synthesis unit 16-1 included in the display device 1. Each of the functions 16-2 is realized by causing the CPU to execute a program describing these functions. These programs can also be stored and distributed in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

1 表示装置
10,13 減色部
11 上位抽出部
12 平均化部
14 加算部
15 減算部
16 合成部
DESCRIPTION OF SYMBOLS 1 Display apparatus 10 and 13 Color reduction part 11 Upper rank extraction part 12 Averaging part 14 Addition part 15 Subtraction part 16 Composition part

Claims (6)

行方向及び列方向に配列した複数の画素を備え、入力映像の画像データを所定ビット数のビットデータに変換し、前記画素を選択するアドレス期間と、前記選択した画素を前記ビットデータの重みに応じた時間分発光させる表示期間とからなるサブフィールドの処理により、前記入力映像から表示映像を生成して階調表示を行う表示装置において、
nを自然数として、前記入力映像における連続する、フレーム番号(2n−1)の第1フレーム及びフレーム番号2nの第2フレームのそれぞれの画像データに基づいて、所定数の上位ビットを抽出する上位ビット処理部と、
前記入力映像における連続する前記第1及び第2フレームの画像データを合算する下位ビット処理部と、
前記下位ビット処理部により合算された画像データから前記上位ビット処理部により抽出された上位ビットを含む画像データを減算して得られた画像データから、第1の所定位置及び第2の所定位置の下位ビットを抽出し、前記上位ビット処理部により第1フレームから抽出された所定数の上位ビットと前記第1の所定位置の下位ビットとを合成すると共に、前記上位ビット処理部により第2フレームから抽出された所定数の上位ビットと前記第2の所定位置の下位ビットとを合成し、前記合成した連続する2つのフレームの画像データを表示映像として出力する合成部と、
を備えたことを特徴とする表示装置。
A plurality of pixels arranged in a row direction and a column direction, converting image data of an input video into bit data of a predetermined number of bits, an address period for selecting the pixels, and the selected pixels as weights of the bit data In a display device that generates a display image from the input image and performs gradation display by processing of a subfield including a display period that emits light for a corresponding time,
A high-order bit for extracting a predetermined number of high-order bits based on respective image data of the first frame of frame number (2n-1) and the second frame of frame number 2n in the input video , where n is a natural number A processing unit;
And a lower bit processor for summing the image data of the first and second frames successive in the input image,
The first predetermined position and the second predetermined position are obtained from the image data obtained by subtracting the image data including the upper bits extracted by the upper bit processing unit from the image data added by the lower bit processing unit. The lower bits are extracted, and a predetermined number of upper bits extracted from the first frame by the upper bit processing unit and the lower bits at the first predetermined position are combined, and the upper bit processing unit extracts the lower bits from the second frame. A combining unit that combines the extracted predetermined number of upper bits and the lower bits of the second predetermined position and outputs the combined image data of two consecutive frames as a display image;
A display device comprising:
請求項1に記載の表示装置において、
前記合成部は、前記入力映像の第1フレームに基づいて抽出された上位ビットを、前記表示映像の第1フレームの上位ビットに割り振り、前記入力映像の第2フレームに基づいて抽出された上位ビットを、前記表示映像の第2フレームの上位ビットに割り振る、ことを特徴とする表示装置。
The display device according to claim 1,
The synthesizing unit allocates the upper bits extracted based on the first frame of the input video to the upper bits of the first frame of the display video, and extracts the upper bits extracted based on the second frame of the input video Is assigned to the upper bits of the second frame of the display video.
請求項1または2に記載の表示装置において、
前記上位ビット処理部は、
前記入力映像における連続する前記第1及び第2フレームのそれぞれの画像データから、前記所定数の上位ビットを直接抽出する上位抽出部、
を備えたことを特徴とする表示装置。
The display device according to claim 1 or 2,
The upper bit processor is
From each of the image data of the first and second frames successive in the input image, the higher extraction unit for extracting upper bits of the predetermined number directly,
A display device comprising:
請求項1から3までのいずれか一項に記載の表示装置において、
前記下位ビット処理部は、
前記入力映像における連続する前記第1及び第2フレームの画像データを合算し、メタフレーム画像データを生成する合算部と、
前記上位ビット処理部により第1フレームから抽出された上位ビットと第2フレームから抽出された上位ビットとを加算し、加算画像データを生成する加算部と、
前記合算部により生成されたメタフレーム画像データと、前記加算部により生成された加算画像データとを用いて減算を行い、表示エラー画像データを生成する減算部と、
を備えたことを特徴とする表示装置。
In the display device according to any one of claims 1 to 3,
The lower bit processing unit
Summing the image data of the first and second frames successive in the input image, and a summing unit configured to generate a metadata frame image data,
An addition unit that adds the upper bits extracted from the first frame and the upper bits extracted from the second frame by the upper bit processing unit, and generates added image data;
A subtraction unit that performs subtraction using the metaframe image data generated by the summation unit and the addition image data generated by the addition unit, and generates display error image data;
A display device comprising:
行方向及び列方向に配列した複数の画素を備えた表示装置により、入力映像の画像データを所定ビット数のビットデータに変換し、前記画素を選択するアドレス期間と、前記選択した画素を前記ビットデータの重みに応じた時間分発光させる表示期間とからなるサブフィールドの処理にて、前記入力映像から表示映像を生成して階調表示を行う表示方法において、
nを自然数として、前記入力映像における連続する、フレーム番号(2n−1)の第1フレーム及びフレーム番号2nの第2フレームのそれぞれの画像データに基づいて、所定数の上位ビットを抽出する第1のステップと、
前記入力映像における連続する前記第1及び第2フレームの画像データを合算する第2のステップと、
前記第2のステップにより合算した画像データから前記第1のステップにより抽出した上位ビットを含む画像データを減算して得られた画像データから、第1の所定位置及び第2の所定位置の下位ビットを抽出する第3のステップと、
前記第1のステップにより第1フレームから抽出した所定数の上位ビットと前記第3のステップにより抽出した第1の所定位置の下位ビットとを合成する第4のステップと、
前記第1のステップにより第2フレームから抽出した所定数の上位ビットと前記第3のステップにより抽出した第2の所定位置の下位ビットとを合成する第5のステップと、
前記第4のステップ及び第5のステップにより合成した連続する2つのフレームの画像データを表示映像として出力する第6のステップと、
を有することを特徴とする表示方法。
By a display device having a plurality of pixels arranged in a row direction and a column direction, image data of an input video is converted into bit data of a predetermined number of bits, an address period for selecting the pixels, and the selected pixels as the bits In a display method of generating a display image from the input image and performing gradation display in the processing of a subfield consisting of a display period that emits light for a time corresponding to the weight of data,
A first number for extracting a predetermined number of higher-order bits based on respective image data of the first frame of frame number (2n-1) and the second frame of frame number 2n in the input video , where n is a natural number . And the steps
A second step of summing the image data of the first and second frames successive in the input image,
The lower-order bits of the first predetermined position and the second predetermined position from the image data obtained by subtracting the image data including the upper bits extracted in the first step from the image data added in the second step A third step of extracting
A fourth step of combining the predetermined number of upper bits extracted from the first frame by the first step and the lower bits at the first predetermined position extracted by the third step;
A fifth step of combining the predetermined number of upper bits extracted from the second frame in the first step and the lower bits in the second predetermined position extracted in the third step;
A sixth step of outputting image data of two consecutive frames synthesized by the fourth step and the fifth step as a display video;
A display method characterized by comprising:
コンピュータを、請求項1から4までのいずれか一項に記載の表示装置として機能させるための表示プログラム。   A display program for causing a computer to function as the display device according to any one of claims 1 to 4.
JP2011228879A 2011-10-18 2011-10-18 Display device using subfield driving method, display method, and program Expired - Fee Related JP5855896B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011228879A JP5855896B2 (en) 2011-10-18 2011-10-18 Display device using subfield driving method, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011228879A JP5855896B2 (en) 2011-10-18 2011-10-18 Display device using subfield driving method, display method, and program

Publications (2)

Publication Number Publication Date
JP2013088609A JP2013088609A (en) 2013-05-13
JP5855896B2 true JP5855896B2 (en) 2016-02-09

Family

ID=48532576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011228879A Expired - Fee Related JP5855896B2 (en) 2011-10-18 2011-10-18 Display device using subfield driving method, display method, and program

Country Status (1)

Country Link
JP (1) JP5855896B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372026B1 (en) 2015-05-29 2022-03-11 삼성디스플레이 주식회사 Display apparatus and electronic system including the same
KR102024654B1 (en) * 2017-05-10 2019-09-25 주식회사 라온텍 Display apparatus and method for driving digital pixel of the same

Also Published As

Publication number Publication date
JP2013088609A (en) 2013-05-13

Similar Documents

Publication Publication Date Title
JP4101147B2 (en) Method and apparatus for pseudo contour reduction in pulse number modulation digital display panel
EP1300823A1 (en) Display device, and display method
JP2005024690A (en) Display unit and driving method of display
JP2000056726A (en) Display device and multi-gradation circuit
JP2004004606A (en) Display method and display device using subfield method
JP2001222254A (en) Improvement in dynamic low level resolution for digital display device and reduction in animation supurious profile
JP3250995B2 (en) Display device and method
WO2008062578A1 (en) Image display apparatus
JP2005024717A (en) Display device and method for driving display
US20070222712A1 (en) Image Display Apparatus and Method of Driving the Same
KR100472483B1 (en) Method for reducing a false contour and apparatus therefor
JPH09330058A (en) Display device
JP4991066B2 (en) Method and apparatus for processing video images
JP2004126591A (en) Method and device for driving plasma display panel
JP5676874B2 (en) Image processing apparatus, control method therefor, and program
JP2008051833A (en) Multi-gradation display device
JP2005346068A (en) Display device and method for controlling the same
JP5855896B2 (en) Display device using subfield driving method, display method, and program
JP2002123211A (en) Method and device for treating video image
KR100825355B1 (en) Image display apparatus and method for driving the same
JPH09258688A (en) Display device
JP2000148068A (en) Circuit and method for processing video signal of matrix type display device
EP1583062A1 (en) Image display apparatus
JP3460601B2 (en) Video signal processing circuit and video signal processing method for matrix type display device
JP2008139646A (en) Multi-level display method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151210

R150 Certificate of patent or registration of utility model

Ref document number: 5855896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees