JP4552400B2 - Image display device, image display method, and image display program - Google Patents

Image display device, image display method, and image display program Download PDF

Info

Publication number
JP4552400B2
JP4552400B2 JP2003289083A JP2003289083A JP4552400B2 JP 4552400 B2 JP4552400 B2 JP 4552400B2 JP 2003289083 A JP2003289083 A JP 2003289083A JP 2003289083 A JP2003289083 A JP 2003289083A JP 4552400 B2 JP4552400 B2 JP 4552400B2
Authority
JP
Japan
Prior art keywords
image data
image
component
data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003289083A
Other languages
Japanese (ja)
Other versions
JP2005055824A (en
Inventor
孝 胡桃澤
正紀 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003289083A priority Critical patent/JP4552400B2/en
Publication of JP2005055824A publication Critical patent/JP2005055824A/en
Application granted granted Critical
Publication of JP4552400B2 publication Critical patent/JP4552400B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、液晶表示パネルその他の画像表示部を備える画像表示装置において、表示すべき画像データのデータ量を削減して画像表示部に転送する手法に関する。   The present invention relates to a method for reducing the amount of image data to be displayed and transferring the image data to an image display unit in an image display device including a liquid crystal display panel or other image display unit.

近年では、携帯電話やPDA(Personal Digital Assistant)などの携帯端末装置に搭載する表示装置の大画面サイズ化、高解像度化が進んでおり、従来より画素数の多い高解像度の画像データをより大きな画面上に表示することが可能となっている。   In recent years, display devices mounted on mobile terminal devices such as mobile phones and PDAs (Personal Digital Assistants) have become larger in screen size and higher resolution, and higher resolution image data with a larger number of pixels than in the past has become larger. It can be displayed on the screen.

しかし、そのような大画面表示又は高解像度表示に対応する高解像度画像データはそのデータ量が多い。表示装置へのデータ転送においては、データ線(データライン)数を増やせばクロック数を減らせるが、その分消費電力が大きくなるという欠点がある。   However, the high resolution image data corresponding to such a large screen display or high resolution display has a large amount of data. In data transfer to a display device, if the number of data lines (data lines) is increased, the number of clocks can be reduced, but there is a disadvantage that the power consumption increases accordingly.

また、半導体回路である液晶ドライバICは、その性質上動作クロック数の上限がある。例えば、データ線数が1本の場合で、解像度が176×208画素であるQCIF(Quarter Common Intermediate Format)に従って1画素当りRGB各6ビット、計18ビットの動画データを毎秒60フレーム転送するためには、39.5MHz(176×208×18×60)のドットクロックが必要である。一方、データ線数が3本である場合は、ドットクロックは上記の場合の1/3の13.2MHzとなる。この程度ならば、現状の半導体プロセスで製作される液晶ドライバICの内蔵回路、とくにRAMの読み書きスピードが十分対応可能である。   Further, a liquid crystal driver IC which is a semiconductor circuit has an upper limit on the number of operating clocks due to its nature. For example, when the number of data lines is 1, in order to transfer 60 frames per second of video data of 6 bits each for RGB, 6 bits for each RGB according to QCIF (Quarter Common Intermediate Format) with a resolution of 176 × 208 pixels Requires a dot clock of 39.5 MHz (176 × 208 × 18 × 60). On the other hand, when the number of data lines is 3, the dot clock is 13.2 MHz which is 1/3 of the above case. At this level, the read / write speed of the built-in circuit of the liquid crystal driver IC manufactured by the current semiconductor process, particularly the RAM, can be sufficiently handled.

しかし、解像度が352×416画素にもなるCIF(Common Intermediate Format)になると、上述したものと同様に1画素当りRGB各6ビット、計18ビットの動画データを毎秒60フレーム転送するためには、ドットクロックは158.1MHz必要になる。この場合、データ線数を3本にしてもドットクロックは52.7MHzにもなり、現状のRAMの読み書きスピードでは対応不能になる。また、さらに高画質な24ビット(フルカラー:RGB各8ビット)の画像データを転送する場合にはドットクロックは210MHzとなり、データ線数を3本にしても70.3MHzにもなる。よって、現在の液晶ドライバICの能力では対応できない。   However, when the CIF (Common Intermediate Format) with a resolution of 352 × 416 pixels is used, in order to transfer moving picture data of 6 bits for each of RGB, that is, 18 bits for each pixel, a total of 18 frames per second, as described above, A dot clock of 158.1 MHz is required. In this case, even if the number of data lines is three, the dot clock becomes 52.7 MHz, which cannot be handled by the current RAM read / write speed. Further, when transferring high-quality 24-bit (full color: RGB each 8 bits) image data, the dot clock is 210 MHz, and even if the number of data lines is three, it becomes 70.3 MHz. Therefore, the current capability of the liquid crystal driver IC cannot cope.

また、上述のように、データ線数を増やすことによってドットクロックを低減することは理論的には可能であるが、携帯端末装置は実装面積に限度があり、液晶ドライバICの信号入出力部は小さなコネクタや小さな接点にならざるを得ない。よって、データ線数を増加することは、携帯端末装置を携帯する際の衝撃や温度変化などによりコネクタの信頼性低下に繋がる可能性がある。つまり、データ線数の増大には限界がある。   In addition, as described above, it is theoretically possible to reduce the dot clock by increasing the number of data lines, but the portable terminal device has a limited mounting area, and the signal input / output unit of the liquid crystal driver IC is It must be a small connector or small contact. Therefore, increasing the number of data lines may lead to a decrease in the reliability of the connector due to impact or temperature change when carrying the mobile terminal device. That is, there is a limit to the increase in the number of data lines.

このような問題に対処する手段として、表示装置に送る画像データのデータ量を削減するという方法がある。この方法の1つとして、転送する画像データを減色処理してデータ量を減らすというものが特許文献1にて報告されている。具体的には、減色処理に誤差拡散法を用い、下位ビットについては演算を省略するという方法が記載されている。その他にも、複数枚の画像を縮小し、合成してデータ量を削減した画像データを送信するという技術が、特許文献2に記載されている。   As a means for coping with such a problem, there is a method of reducing the amount of image data sent to the display device. As one of the methods, Patent Document 1 reports that the amount of data is reduced by performing color reduction processing on image data to be transferred. Specifically, a method is described in which an error diffusion method is used for the color reduction processing and the calculation is omitted for the lower bits. In addition, Japanese Patent Application Laid-Open No. 2005-228561 describes a technique of transmitting image data in which a plurality of images are reduced and combined to reduce the data amount.

しかしながら、上述のデータ削減方法は、主に不可逆的な画像変換を用いたものであるので、変換前の画像とまったく同じものは表示されない。つまり、表示画像の画質の低下が生じてしまう。また、表示する際に、画像を補間する処理を行った場合にも、余分な処理時間がかかってしまう。しかも、その補間処理による画質改善にも限度がある。   However, since the above-described data reduction method mainly uses irreversible image conversion, the same image as that before conversion is not displayed. That is, the image quality of the display image is degraded. Also, when processing for interpolating an image is performed at the time of display, extra processing time is required. Moreover, there is a limit to image quality improvement by the interpolation processing.

特開平9−101771号公報Japanese Patent Laid-Open No. 9-101771

特開2003−18401号公報Japanese Patent Laid-Open No. 2003-18401

本発明は、上記のような問題を解決するためになされたもので、その目的とするところは、液晶表示パネルその他の画像表示部を備える画像表示装置において、表示すべき画像データを、色空間の特性を考慮に入れてデータ量を削減して画像表示装置に転送し、画像表示装置にて元のイメージに近い画像を復元して表示することができる画像表示装置、画像表示方法及び画像表示プログラムを提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide image data to be displayed in a color space in an image display device including a liquid crystal display panel and other image display units. Display device, image display method, and image display capable of reducing the amount of data in consideration of the characteristics of the image, transferring the image to the image display device, and restoring and displaying an image close to the original image on the image display device To provide a program.

本発明の1つの観点では、画像処理部及び画像表示部を備える画像表示装置は、表示すべきRGB形式の画像データを取得する画像データ取得手段と、取得したRGB形式の画像データをYUV形式の画像データに変換するYUV変換手段と、YUVにより得られたY成分の画像データと、U/V成分の画像データに、データ量を削減するための別々の画像処理を行う画像処理手段と、別々の画像処理が行われた画像データを前記画像表示部へ転送する転送手段と、を備え、前期画像表示部は、転送された前記Y成分の画像データと前記U/V成分の画像データを表示する。   In one aspect of the present invention, an image display device including an image processing unit and an image display unit includes an image data acquisition unit that acquires image data in RGB format to be displayed, and the acquired RGB image data in YUV format. YUV converting means for converting to image data, Y component image data obtained by YUV, and U / V component image data, image processing means for performing separate image processing for reducing the data amount, and separately Transfer means for transferring the image data subjected to the image processing to the image display section, and the previous image display section displays the transferred Y component image data and the U / V component image data. To do.

上記の画像表示装置は、例えば画像表示部として液晶表示パネルを備える携帯電話、携帯型端末などの各種端末装置とすることができる。画像データ取得手段は、例えば外部のサーバその他から画像データを取得する。この画像データは、静止画データと動画データの両方を含む。取得された画像データは、RGB形式からYUV形式のデータに変換される。そして、色空間の特性を考慮に入れてデータ量を削減する画像処理を行うために、Y成分(輝度成分)と、U/V成分(色差成分であり、U成分及びV成分を指す)に分割されて別々の処理が行われる。そうしてデータ量が削減された画像データが、画像処理部から画像表示部へ転送され、表示される。このように、画像処理部内で色空間の特性を考慮に入れてデータ量を削減する画像処理を行ってから画像表示部へ画像データを転送するので、データ転送処理の負担を軽減し、転送を高速化することができる。   The image display device described above can be various terminal devices such as a mobile phone and a portable terminal that include a liquid crystal display panel as an image display unit, for example. The image data acquisition unit acquires image data from an external server or the like, for example. This image data includes both still image data and moving image data. The acquired image data is converted from RGB format to YUV format data. In order to perform image processing that reduces the amount of data in consideration of the characteristics of the color space, a Y component (luminance component) and a U / V component (which are color difference components and indicate the U component and the V component). Divided and processed separately. The image data with the reduced data amount is transferred from the image processing unit to the image display unit and displayed. In this way, image processing is performed to reduce the amount of data in consideration of the characteristics of the color space in the image processing unit, and then the image data is transferred to the image display unit. The speed can be increased.

本発明の同様の観点では、画像表示部を備える画像表示装置において実行される画像表示方法は、表示すべきRGB形式の画像データを取得する画像データ取得工程と、取得したRGB形式の画像データをYUV形式の画像データに変換するYUV変換工程と、YUV変換により得られたY成分の画像データと、U/V成分の画像データに、データ量を削減する別々の画像処理を行う画像処理工程と、別々の画像処理が行われた画像データを前記画像処理部から前記画像表示部へ転送する転送工程と、転送された前記Y成分及び前記U/V成分の画像データを前記画像表示部に表示する表示工程と、を備える。   In a similar aspect of the present invention, an image display method executed in an image display apparatus including an image display unit includes an image data acquisition step of acquiring RGB format image data to be displayed, and the acquired RGB format image data. A YUV conversion step for converting into image data in YUV format, a Y component image data obtained by YUV conversion, and an image processing step for performing separate image processing to reduce the amount of data to U / V component image data; A transfer step of transferring image data subjected to separate image processing from the image processing unit to the image display unit, and displaying the transferred image data of the Y component and the U / V component on the image display unit And a display process.

本発明の同様の観点では、画像表示プログラムは、画像処理部及び画像表示部を備える画像表示装置において実行されることにより、表示すべきRGB形式の画像データを取得する画像データ取得手段、取得したRGB形式の画像データをYUV形式の画像データに変換するYUV変換手段、YUV変換により得られたY成分の画像データと、U/V成分の画像データに、データ量を削減するための別々の画像処理を行う画像処理手段、別々の画像処理が行われた画像データを前記画像表示部へ転送する転送手段として前記画像処理部を機能させ、転送された前記Y成分及び前記U/V成分の画像データを表示する表示手段として前記画像表示部を機能させる。   In a similar aspect of the present invention, an image display program is executed in an image display device including an image processing unit and an image display unit, thereby acquiring image data acquisition means for acquiring image data in RGB format to be displayed. YUV conversion means for converting image data in RGB format into image data in YUV format, Y component image data obtained by YUV conversion, and U / V component image data, separate images for reducing the data amount The image processing unit functions as a transfer unit that transfers image data that has undergone separate image processing to the image display unit, and the transferred Y component and U / V component images The image display unit is caused to function as display means for displaying data.

これら画像表示方法及び画像表示プログラムによっても、上記の画像表示装置と同様に色空間の特性を考慮に入れてデータ量を削減した画像データを画像表示部に転送することが可能となる。   Also with these image display methods and image display programs, it is possible to transfer image data with a reduced data amount to the image display unit in consideration of the characteristics of the color space, as in the case of the image display device described above.

上記の画像表示装置の一態様では、前記画像処理手段は、前記Y成分の画像データを減色処理する減色処理手段と、前記U/V成分の画像データを量子化処理する第1の量子化処理手段と、減色処理された前記Y成分の画像データと量子化処理された前記U/V成分の画像データをそれぞれ符号化処理する符号化処理手段と、を備える。   In one aspect of the image display device, the image processing unit includes a color reduction processing unit that performs a color reduction process on the Y component image data, and a first quantization process that performs a quantization process on the U / V component image data. Means, and encoding processing means for encoding each of the Y component image data subjected to the color reduction processing and the U / V component image data subjected to the quantization processing.

Y成分とU/V成分に分割された画像データについては、Y成分にはデータ量を削減する減色処理を行い、U/V成分には第1の量子化処理を行う。ここでは、視認特性において色のY成分とU/V成分は、判別能力に違いがあるので、別々に処理を行っている。これにより、データ量を削減しても、違和感のない画像を表示することができる。次に、このような処理が行われた画像データには、符号化処理が行われる。この符号化処理は可逆変換であるので、後に変換前のデータに戻すことができ、表示される画像の質を落とすことなく、さらにデータ量を削減することができる。   For image data divided into a Y component and a U / V component, the Y component is subjected to a color reduction process for reducing the data amount, and the U / V component is subjected to a first quantization process. Here, the Y component and the U / V component of the color in the visual recognition characteristics have different discrimination capabilities, and are thus processed separately. Thereby, even if the amount of data is reduced, an image without a sense of incongruity can be displayed. Next, an encoding process is performed on the image data subjected to such a process. Since this encoding process is a reversible conversion, the data before conversion can be restored later, and the data amount can be further reduced without degrading the quality of the displayed image.

上記の画像表示装置の他の一態様では、前記減色処理手段は、前記画像データに対してディザ処理を行う。ディザ処理は、取得した画像データに対して元のイメージに近いままデータ量を削減する処理を行うことができる。   In another aspect of the image display device, the color reduction processing unit performs dither processing on the image data. In the dither process, the acquired image data can be processed to reduce the data amount while remaining close to the original image.

上記の画像表示装置の他の一態様では、前記減色処理手段は、前記画像データに対して誤差拡散処理を行う。誤算拡散処理は、取得した画像データに対して前記のディザ法よりも元のイメージに近いまま、データ量を削減する処理を行うことができる。   In another aspect of the image display device, the color reduction processing unit performs error diffusion processing on the image data. The miscalculation diffusion processing can perform processing for reducing the amount of data with respect to the acquired image data while remaining closer to the original image than the dither method.

上記の画像表示装置の他の一態様では、前記第1の量子化処理手段は、階調値が所定値より小さい画像データには量子化ステップを大きくし、階調値が前記所定値より大きい画像データには量子化ステップを小さくして量子化処理を行う。こうしたのは、視認性において、高彩度の色は低彩度の色に比べて判別能力が低いためである。これにより、画像データ量を削減しても、違和感のない画像を表示することができる。   In another aspect of the image display device, the first quantization processing unit increases a quantization step for image data having a gradation value smaller than a predetermined value, and the gradation value is larger than the predetermined value. The image data is quantized by reducing the quantization step. This is because, in visibility, a high saturation color has a lower discrimination ability than a low saturation color. Thereby, even if the amount of image data is reduced, it is possible to display an image without a sense of incongruity.

上記の画像表示装置の他の一態様では、前記符号化処理手段は、前記Y成分の画像データに対してハフマン符号化処理する。このハフマン符号化処理も可逆変換であるため、復号して変換前のデータに戻すことができるので、表示画像の質を落とすことはない。   In another aspect of the image display device, the encoding processing unit performs Huffman encoding processing on the Y component image data. Since the Huffman encoding process is also lossless conversion, it can be decoded and returned to the data before conversion, so that the quality of the display image is not deteriorated.

上記の画像表示装置の他の一態様では、前記符号化処理手段は、前記U/V成分の画像データに対して、階調値の最大値と最小値の間の画像データのみを符号化する。画像の所定の範囲において、U/V成分の階調値のダイナミックレンジは比較的小さいため、階調値の最大値と最小値から定まる範囲、即ち有効階調範囲はY成分と比較すると小さい。よって、有効階調範囲内の画像データのみを符号化することにより、さらにデータ量を削減することができる。さらに、この符号化処理は可逆変換であるため、変換前のデータに復元することができので、高画質の画像を表示することができる。   In another aspect of the image display device, the encoding processing unit encodes only the image data between the maximum value and the minimum value of the gradation value for the U / V component image data. . Since the dynamic range of the gradation value of the U / V component is relatively small in the predetermined range of the image, the range determined from the maximum value and the minimum value of the gradation value, that is, the effective gradation range is small compared to the Y component. Therefore, the amount of data can be further reduced by encoding only the image data within the effective gradation range. Further, since this encoding process is a reversible conversion, it can be restored to the data before the conversion, so that a high-quality image can be displayed.

上記の画像表示装置の他の一態様では、符号化処理後の前記U/V成分の画像データが所定ビット数以下であれば、さらにハフマン符号化処理を行う。これにより、さらに転送するデータ量を削減することができる。   In another aspect of the above image display device, if the image data of the U / V component after the encoding process is equal to or less than a predetermined number of bits, the Huffman encoding process is further performed. Thereby, the amount of data to be transferred can be further reduced.

上記の画像表示装置の他の一態様では、前記画像表示部は、符号化処理された前記Y成分の画像データと前記U/V成分の画像データを復号化処理する復号化処理手段と、復号化処理された前記U/V成分の画像データを量子化処理する第2の量子化処理手段と、復号化処理された前記Y成分の画像データ及び前記第2の量子化手段により量子化処理された前記U/V成分の画像データを表示する表示手段と、を備える。画像表示部では、主に符号化されたデータを復号化する処理が行われる。こうして、元の画像に近いイメージの高画質の画像を表示することができる。   In another aspect of the image display device, the image display unit includes a decoding processing unit configured to decode the encoded Y component image data and the U / V component image data; The second quantization processing means for quantizing the U / V component image data subjected to the quantization processing, the Y component image data subjected to the decoding processing, and the second quantization means for quantization processing. Display means for displaying the image data of the U / V component. In the image display unit, processing for decoding mainly encoded data is performed. In this way, a high-quality image close to the original image can be displayed.

上記の画像表示装置の一態様では、前記第2の量子化処理手段は、前記第1の量子化手段の量子化特性の逆特性により量子化を行う。これにより、元のイメージに近い画像に戻すことができる。   In one aspect of the image display device, the second quantization processing unit performs quantization by using a reverse characteristic of the quantization characteristic of the first quantization unit. Thereby, it is possible to return to an image close to the original image.

上記の画像表示装置の他の一態様では、前記符号化処理手段は、前記画像データのブロック単位で符号化を行い、前記復号化処理手段は前記符号化処理手段と並行して、前記符号化手段にて以前行われたブロックに対応する画像データに対して復号化を行う。これにより、効率よく符号化処理と復号化処理を行うことができる。   In another aspect of the image display device, the encoding processing unit performs encoding in block units of the image data, and the decoding processing unit performs the encoding in parallel with the encoding processing unit. The image data corresponding to the block previously performed by the means is decoded. Thereby, an encoding process and a decoding process can be performed efficiently.

以下、図面を参照して本発明の好適な実施の形態について説明する。   Preferred embodiments of the present invention will be described below with reference to the drawings.

[携帯端末装置の構成]
図1に、本発明の実施形態に係る携帯端末装置の概略構成を示す。図1において、携帯端末装置210は、例えば携帯電話やPDAなどの端末装置である。携帯端末装置210は、表示装置212と、送受信部214と、CPU216と、入力部218と、プログラムROM220と、RAM224とを備える。また、表示装置212は、ドライバ226と表示パネル227などから構成されている。
[Configuration of mobile terminal device]
FIG. 1 shows a schematic configuration of a mobile terminal device according to an embodiment of the present invention. In FIG. 1, a mobile terminal device 210 is a terminal device such as a mobile phone or a PDA. The portable terminal device 210 includes a display device 212, a transmission / reception unit 214, a CPU 216, an input unit 218, a program ROM 220, and a RAM 224. The display device 212 includes a driver 226, a display panel 227, and the like.

送受信部214は、外部から画像データなどのコンテンツを受信する。以下では、主に、画像データを受信した場合の携帯端末装置210でのデータ処理について説明する。画像データの受信は、例えば利用者が携帯端末装置210を操作してコンテンツ提供サービスを行うサーバ装置などに接続し、所望の画像データをダウンロードする指示を入力することにより行われる。受信される画像データは、動画データと静止画データとを含む。ここでは、例えば1画素当りRGB24ビットの画像データ(各色8ビット)が受信されるものとする。なお、送受信部214が受信した画像データS11はCPU216などに供給され、さらに、RAM224に保存することができる。   The transmission / reception unit 214 receives content such as image data from the outside. Hereinafter, data processing in the mobile terminal device 210 when image data is received will be mainly described. The image data is received, for example, when the user operates the portable terminal device 210 to connect to a server device that provides a content providing service and inputs an instruction to download desired image data. The received image data includes moving image data and still image data. Here, it is assumed that, for example, RGB 24-bit image data (8 bits for each color) is received per pixel. The image data S11 received by the transmission / reception unit 214 is supplied to the CPU 216 and the like, and can be further stored in the RAM 224.

入力部218は、携帯電話であれば各種の操作ボタンなど、PDAであればタッチペンなどによる接触を検出するタブレットなどにより構成することができ、ユーザが各種の指示、選択を行う際に使用される。入力部218に対して入力された指示、選択などは、電気信号に変換されてCPU216へ送られる。   The input unit 218 can be composed of various operation buttons for a mobile phone, a tablet that detects contact with a touch pen for a PDA, and the like, and is used when a user performs various instructions and selections. . An instruction, selection, or the like input to the input unit 218 is converted into an electrical signal and sent to the CPU 216.

プログラムROM220は、携帯端末装置210の各種機能を実行するための各種プログラムを記憶し、特に本実施形態では送受信部214から送られてきた画像データに対してデータ量を削減するような画像処理を行うための画像処理プログラムなどを記憶している。本実施形態に係る画像処理プログラムについては、以下で詳しく説明する。   The program ROM 220 stores various programs for executing various functions of the mobile terminal device 210. In particular, in the present embodiment, image processing is performed to reduce the data amount for the image data transmitted from the transmission / reception unit 214. An image processing program to be executed is stored. The image processing program according to the present embodiment will be described in detail below.

RAM224は、画像処理プログラム等のプログラムに従って画像データを変換する際などに作業用メモリとして使用される。また、前述のように、送受信部214が受信した外部からの画像データ、又は、携帯端末装置210に備え付けられた図示しないカメラなどから取得した画像データを必要に応じて保存することもできる。   The RAM 224 is used as a working memory when converting image data according to a program such as an image processing program. Further, as described above, image data from the outside received by the transmission / reception unit 214 or image data acquired from a camera (not shown) provided in the mobile terminal device 210 can be stored as necessary.

次に、CPU216での画像処理について述べる。まず初めに、本実施形態に係る画像処理の概要について簡単に説明する。CPU216では、表示装置212に転送するデータ量を削減することを目的として画像処理を行う。まず、CPU216では、取得したRGB形式のデータをYUV形式のデータに変換し(YUV変換とも呼ぶ。)、後の処理ではYUV形式のデータに対して画像処理を行う。本実施形態においては、画像データのY成分(輝度成分)と、U/V成分(色差成分、U成分及びV成分を指す)に関して別々の処理を行う。こうするのは、色の輝度成分と色差成分において、画像特性及び視認知特性の面で差異があるからである。具体的に説明すると、まず、画像自体の特性として、ある画像をブロック単位(例えば、4×4画素)で抽出したとき、色差の階調値のダイナミックレンジが小さいという特徴がある。一方、輝度の階調値のダイナミックレンジには、このような傾向は見られない。さらに、人間による色差の視認知特性においても、低彩度の色は判別能力が高く、高彩度の色は判別能力が低いという特徴がある。しかしながら、輝度の視認知特性においては、輝度のレベルにより判別能力が変わるというような傾向はあまり見られない。以上のように、色の輝度成分と色差成分では特徴に違いがある。そのため、本実施形態では色空間の成分に合った別々の方法で、表示装置212に転送するデータ量を削減するための画像処理を行っている。   Next, image processing by the CPU 216 will be described. First, an outline of image processing according to the present embodiment will be briefly described. The CPU 216 performs image processing for the purpose of reducing the amount of data transferred to the display device 212. First, the CPU 216 converts the acquired RGB format data into YUV format data (also referred to as YUV conversion), and performs image processing on the YUV format data in subsequent processing. In the present embodiment, separate processing is performed on the Y component (luminance component) and U / V component (pointing to the color difference component, U component, and V component) of the image data. This is because there is a difference between the luminance component and the color difference component of the color in terms of image characteristics and visual recognition characteristics. Specifically, as a characteristic of the image itself, when an image is extracted in block units (for example, 4 × 4 pixels), the dynamic range of the color difference gradation value is small. On the other hand, such a tendency is not observed in the dynamic range of the luminance gradation value. Further, the visual recognition characteristics of color differences by humans are characterized in that low chroma colors have high discrimination ability and high chroma colors have low discrimination ability. However, in the visual recognition characteristic of luminance, there is not so much tendency that the discrimination ability changes depending on the luminance level. As described above, there is a difference in characteristics between the color luminance component and the color difference component. For this reason, in the present embodiment, image processing for reducing the amount of data transferred to the display device 212 is performed by different methods that match the components of the color space.

以下で、上述の点に注目して行う画像処理を適用した、本実施形態に係るCPU216について具体的に説明する。CPU216は、プログラムROM220内に記憶されている各種プログラムを実行することにより、携帯端末装置210の各種機能を実行する。具体的には、CPU216は、RGB→YUV変換部230、重み付け量子化処理部232、頻度分布算出部234、最大/最小値表生成部236、符号化処理部238、さらに、減色処理部240、頻度算出部242、ハフマン符号化処理部244を備えている。   Hereinafter, the CPU 216 according to the present embodiment, to which the image processing performed paying attention to the above-described points is applied, will be specifically described. The CPU 216 executes various functions of the mobile terminal device 210 by executing various programs stored in the program ROM 220. Specifically, the CPU 216 includes an RGB → YUV conversion unit 230, a weighted quantization processing unit 232, a frequency distribution calculation unit 234, a maximum / minimum value table generation unit 236, an encoding processing unit 238, and a color reduction processing unit 240. A frequency calculation unit 242 and a Huffman encoding processing unit 244 are provided.

まず、RGB→YUV変換部230では、送受信装部214などから入力されたRGB形式の画像データS11を受け取り、このRGB形式のデータをYUV形式のデータに変換する。このYUV形式に変換されたデータはRGB→YUV変換部230から出力される際にY成分と、U/V成分に分割される。Y成分(輝度成分)は減色処理部240に入力され、U成分(青の色差成分)とV成分(赤の色差成分)は重み付け量子化処理部232に入力され、別々の処理が行われていく。   First, the RGB → YUV conversion unit 230 receives RGB format image data S11 input from the transmission / reception unit 214 and converts the RGB format data into YUV format data. The data converted into the YUV format is divided into a Y component and a U / V component when output from the RGB → YUV conversion unit 230. The Y component (luminance component) is input to the color reduction processing unit 240, and the U component (blue color difference component) and the V component (red color difference component) are input to the weighted quantization processing unit 232, and are subjected to separate processing. Go.

まず、U成分とV成分のデータは、重み付け量子化処理部232にて量子化処理が行われる。具体的には、視認性を考慮して、色差の階調値に応じた量子化処理が行われる。これにより、表示装置212に転送する画像データ量を削減することができる。さらに、視認性を考慮してデータ量を削減しているので、表示される画像に違和感を生じさせない。なお、本実施形態に係る重み付け量子化処理については、詳細は後述する。この重み付け量子化処理がされたデータは、頻度分布算出部234及び符号化処理部238に入力される。   First, the weighted quantization processing unit 232 performs quantization processing on U component and V component data. Specifically, in consideration of visibility, a quantization process according to the tone value of the color difference is performed. Thereby, the amount of image data transferred to the display device 212 can be reduced. Furthermore, since the amount of data is reduced in consideration of visibility, the displayed image does not feel uncomfortable. Details of the weighted quantization processing according to the present embodiment will be described later. The data subjected to the weighted quantization process is input to the frequency distribution calculation unit 234 and the encoding processing unit 238.

上述のように重み付け量子化処理されたU成分とV成分のデータは、次に、頻度分布算出部234、最大/最小値表生成部236及び符号化処理部238にて符号化の処理が行われる。まず、頻度分布算出部234では、重み付け量子化処理部232から受け取った画像データに対して、階調値の頻度(=出現率)を算出する。次に、最大/最小値表生成部236では、頻度分布算出部234にて算出された頻度に基づき、画像の階調値の最大値と最小値を決定し、最大値/最小値表を作成する。次に、符号化処理部238では、最大/最小値表生成部236にて決定された階調値の最大値と最小値に基づいて、重み付け量子化処理部232より入力されるデータに符号化処理を行う。具体的には、上記の最大値と最小値から定まる範囲内で、画像データが表現されるような変換処理が行われる。つまり、画像データが有しない階調値(すなわち、最小値以下の領域及び最大値以上の領域)に関してはカットするというものである。これにより、前述の重み付け量子化処理に加えて、さらに表示装置212に転送する画像データのデータ量を削減することができる。以上の符号化処理は、先に述べたように画像をブロック単位で抽出したとき、色差の階調のダイナミックレンジが比較的狭いために、データ量削減の効果を発揮することができる。なお、符号化処理部238にて得られた符号化データS13と、復号するために必要な最大/最小値表生成部236にて算出された最大値と最小値のデータS12は、表示装置212内の復号化処理部240に入力される。   The U component and V component data subjected to the weighted quantization processing as described above are then subjected to encoding processing by the frequency distribution calculation unit 234, the maximum / minimum value table generation unit 236, and the encoding processing unit 238. Is called. First, the frequency distribution calculation unit 234 calculates the frequency (= appearance rate) of gradation values for the image data received from the weighted quantization processing unit 232. Next, the maximum / minimum value table generation unit 236 determines the maximum and minimum values of the gradation values of the image based on the frequency calculated by the frequency distribution calculation unit 234, and creates a maximum / minimum value table. To do. Next, the encoding processing unit 238 encodes the data input from the weighted quantization processing unit 232 based on the maximum value and the minimum value of the gradation values determined by the maximum / minimum value table generation unit 236. Process. Specifically, a conversion process is performed so that image data is expressed within a range determined from the maximum value and the minimum value. In other words, the gradation values that the image data does not have (that is, the area below the minimum value and the area above the maximum value) are cut. Thereby, in addition to the above-described weighted quantization processing, the amount of image data transferred to the display device 212 can be further reduced. The encoding process described above can exhibit the effect of reducing the amount of data when the image is extracted in units of blocks as described above, because the dynamic range of the color difference gradation is relatively narrow. The encoded data S13 obtained by the encoding processing unit 238 and the maximum and minimum value data S12 calculated by the maximum / minimum value table generation unit 236 necessary for decoding are represented by the display device 212. Is input to the decryption processing unit 240.

一方、RGB→YUV変換部230から出力された画像データのY成分は、減色処理部240にて、減色処理が行われる。ここでは、取得した画像データに対して元のイメージに近いまま画像の階調値を削減する処理を行う。これにより、表示装置212に転送する画像データのデータ量を削減することができる。この減色処理については、後に詳細に説明する。   On the other hand, the Y component of the image data output from the RGB → YUV conversion unit 230 is subjected to color reduction processing by the color reduction processing unit 240. Here, the acquired image data is processed to reduce the gradation value of the image while remaining close to the original image. Thereby, the data amount of the image data transferred to the display device 212 can be reduced. This color reduction process will be described in detail later.

減色処理されたY成分のデータは、頻度算出部242及びハフマン符号化処理部244にてハフマン符号化処理が行われる。まず、頻度算出部242では、減色処理部240より入力された画像データに対して、階調値の頻度を算出する。次に、ハフマン符号化処理部244では、頻度算出部242にて算出された頻度に基づき、階調値とハフマン符合との対応関係を決定し、減色処理部240より供給される画像データのY成分をハフマン符号化する。なお、ハフマン符号化処理部244から出力される符号化された画像データS14及びハフマン符号化方法を規定するデータであって復号に必要なデータは、ハフマン復号化処理部254に入力される。以上の処理により、前述の減色処理と同様に、表示装置212に転送する画像データのデータ量を削減することができる。このハフマン符号化処理は可逆変換処理であり、実質的に画像データを削減していない。つまり、後に逆変換である復号処理を行って、減色処理のみが行われた画像を表示することができる。なお、上述の頻度算出部240及びハフマン符号化処理部244にて実行される本実施形態に係るハフマン符号化処理については、詳細は後述する。   The Y component data subjected to the color reduction processing is subjected to Huffman coding processing by the frequency calculation unit 242 and the Huffman coding processing unit 244. First, the frequency calculation unit 242 calculates the frequency of gradation values for the image data input from the color reduction processing unit 240. Next, the Huffman encoding processing unit 244 determines the correspondence between the gradation value and the Huffman code based on the frequency calculated by the frequency calculation unit 242, and determines the Y of the image data supplied from the color reduction processing unit 240. The component is Huffman encoded. The encoded image data S14 output from the Huffman encoding processing unit 244 and data defining the Huffman encoding method and necessary for decoding are input to the Huffman decoding processing unit 254. With the above processing, the amount of image data transferred to the display device 212 can be reduced, as in the above-described color reduction processing. This Huffman encoding process is a reversible conversion process and does not substantially reduce image data. That is, it is possible to display an image that has been subjected only to the color reduction process by performing a decoding process that is an inverse transformation later. The details of the Huffman coding processing according to the present embodiment, which is executed by the frequency calculation unit 240 and the Huffman coding processing unit 244 described above, will be described later.

このようにCPU216では、データ量を削減する画像処理が行われる。これにより、表示装置212への画像データのデータ転送速度を速くすることができ、低消費電力も実現できる。また、CPU216では、データをY成分、U/V成分に分け、それぞれの特性に合った方法で画像処理が行われる。これにより、データ量が削減されたものの、元の画像からかけ離れていない違和感のない画像を表示することができる。なお、CPU216は、これら以外に各種のプログラムを実行することにより携帯端末装置210の各種機能を実現するが、それらは本発明とは直接の関連を有しないので、説明を省略する。   Thus, the CPU 216 performs image processing for reducing the data amount. Thereby, the data transfer speed of the image data to the display device 212 can be increased, and low power consumption can be realized. Further, the CPU 216 divides the data into a Y component and a U / V component, and performs image processing by a method suitable for each characteristic. Thereby, although the amount of data is reduced, it is possible to display an uncomfortable image that is not far from the original image. In addition, the CPU 216 implements various functions of the mobile terminal device 210 by executing various programs other than these, but since these are not directly related to the present invention, description thereof will be omitted.

次に、本実施形態に係る表示装置212について説明する。表示装置212は、例えばLCD(Liquid Crystal Display:液晶表示装置)などの軽量、薄型の表示装置であり、液晶の表示パネル227や半導体であるドライバ226などから構成されている。また、表示装置212はCPU216から受け取った画像データに対する画像処理部として機能する。表示装置212は、画像処理部として復号化処理部250、均等量子化処理部252及びハフマン符号化処理部を備える。なお、これらの画像処理部は、例えば表示装置内のプロセッサが所定の画像処理プログラムを実行することにより実現することができ、ドライバ226の内部に設けることもできる。   Next, the display device 212 according to the present embodiment will be described. The display device 212 is a lightweight and thin display device such as an LCD (Liquid Crystal Display), and includes a liquid crystal display panel 227, a driver 226 which is a semiconductor, and the like. Further, the display device 212 functions as an image processing unit for image data received from the CPU 216. The display device 212 includes a decoding processing unit 250, an equal quantization processing unit 252, and a Huffman coding processing unit as an image processing unit. Note that these image processing units can be realized by, for example, a processor in the display device executing a predetermined image processing program, and can also be provided inside the driver 226.

表示装置212へは、CPU216にて色成分ごとに別々に処理された画像データが入力される。Y成分のデータは、ハフマン復号化処理部254に入力され、U/V成分は復号化処理部250に入力される。   Image data processed separately for each color component by the CPU 216 is input to the display device 212. The Y component data is input to the Huffman decoding processing unit 254, and the U / V component is input to the decoding processing unit 250.

まず、表示装置212でのU成分及びV成分の画像データへの画像処理について説明する。復号化処理部240には、CPU216内の符号化処理部238にて符号化された画像データS13と、最大/最小値表生成部236にて算出された最大値と最小値のデータS12が入力される。ここでは、最大値と最小値のデータS12に基づいて、符号化された画像データS13の復号が行われる。これにより、データ量削減のために符号化された画像データS13は、符号化前の画像データに戻される。次に、均等量子化処理部252では、復号化処理部250より入力されるデータに逆量子化処理を行う。先に述べた重み付け量子化処理部232にて階調値によって量子化量を変えるという処理を行ったので、均等量子化処理部252では、この逆変換を行い、重み付け量子化前の状態のデータに復元する。これによって、少ない階調値で表現されていたデータを、より大きなレンジで表現するように調整される。以上の処理が行われたデータは、ドライバ226に入力される。   First, image processing for U component and V component image data in the display device 212 will be described. The decoding processing unit 240 receives the image data S13 encoded by the encoding processing unit 238 in the CPU 216 and the maximum value and minimum value data S12 calculated by the maximum / minimum value table generation unit 236. Is done. Here, the encoded image data S13 is decoded based on the maximum value and minimum value data S12. Thereby, the image data S13 encoded for reducing the data amount is returned to the image data before encoding. Next, the equal quantization processing unit 252 performs inverse quantization processing on the data input from the decoding processing unit 250. Since the weighting quantization processing unit 232 described above performs the process of changing the quantization amount according to the gradation value, the equalization quantization processing unit 252 performs this inverse transformation, and the state data before weighting quantization. Restore to. As a result, adjustment is performed so that data expressed with a small gradation value is expressed with a larger range. Data subjected to the above processing is input to the driver 226.

一方、Y成分の画像データは、ハフマン復号化処理部254にて処理が行われる。ハフマン復号化処理部254では、ハフマン符号化処理部244より入力されるハフマン符号化された画像データS14を、ハフマン符号化方法を規定したデータ(例えば、元のデータと符号化されたデータの対応表)に基づき復号する。これにより、復号化される前の減色処理のみ行われた画像に変換される。以上の処理が行われたデータは、ドライバ226に入力される。   On the other hand, the Y component image data is processed by the Huffman decoding processing unit 254. The Huffman decoding processing unit 254 converts the Huffman-encoded image data S14 input from the Huffman encoding processing unit 244 into data defining a Huffman encoding method (for example, correspondence between original data and encoded data). Table). As a result, the image is converted into an image that has undergone only the color reduction process before being decoded. Data subjected to the above processing is input to the driver 226.

以上のようにY成分、U/V成分に対して別々に復号化などの処理が行われた画像データは、ドライバ226にて統合される。このときに、YUV形式のデータをRGB形式のデータに変換することができる。なお、このYUV→RGB変換は、ドライバ226内で行っても良いし、ドライバ226に入力する前に別個の処理部を設けて行っても良い。こうしてドライバ226で処理された画像データは表示パネル227に供給されて、表示パネル227の表示エリア内に表示される。なお、表示装置212は、例えば横方向と縦方向の画素数が上述したような352×416画素(CIFサイズ)などの高解像度で表示することができる。   As described above, the image data that has been subjected to processing such as decoding separately for the Y component and the U / V component is integrated by the driver 226. At this time, YUV format data can be converted into RGB format data. The YUV → RGB conversion may be performed in the driver 226 or may be performed by providing a separate processing unit before input to the driver 226. The image data thus processed by the driver 226 is supplied to the display panel 227 and displayed in the display area of the display panel 227. Note that the display device 212 can display at a high resolution such as 352 × 416 pixels (CIF size) as described above, for example, in which the number of pixels in the horizontal and vertical directions is as described above.

このように、本実施形態では、CPU216内でデータ量を削減する処理が行われたので、表示装置212への画像データのデータ転送速度を速くすることができ、低消費電力も実現できる。また、色の成分(Y成分、U/V成分)の特性に合った方法で画像処理をしたので、違和感のない画像を表示することができる。さらに、可逆変換である符号化処理にてデータ量を削減しているので、復号して元のイメージに近い高画質の画像を表示することができる。   As described above, in the present embodiment, the processing for reducing the amount of data is performed in the CPU 216, so that the data transfer rate of the image data to the display device 212 can be increased, and low power consumption can be realized. In addition, since the image processing is performed by a method that matches the characteristics of the color components (Y component, U / V component), it is possible to display an image with no sense of incongruity. Furthermore, since the amount of data is reduced by the encoding process that is reversible conversion, it is possible to decode and display a high-quality image close to the original image.

[CPUでの画像処理]
ここでは、CPU216にて行われる本実施形態に係る画像処理について詳細に説明する。まず、その処理の概要について述べる。CPU216では、表示装置212に転送する画像データ量を削減することと、表示装置212に表示される画像の質を落とさないようにすること(すなわち、表示画像に違和感を生じさせないこと)、に重点を置いて処理を行っている。具体的には、本実施形態の画像処理は、色の輝度成分及び色差成分の特性を考慮して行う画像処理と、可逆変換を用いてデータ量を削減する画像処理と、から構成されている。こうしたのは、まず、色空間を成す輝度成分(Y成分)と色差成分(U/V成分)に関して、画像特性及び視認知特性の面で差異があるからである。そのため、輝度成分と色差成分を分けて別々の画像処理を行うという方法を採用している。これにより、色差成分は輝度成分よりも多くのデータ量を削減できる。すなわち、効率よくデータ量を削減することができる。さらに、こうして輝度成分と色差成分を分けたデータに対して、可逆変換を用いた画像処理にてデータ量を削減する方法を採用している。こうしたのは、逆変換で変換前のデータに戻すことができるので、表示される画像の質を落とすことがないからである。
[Image processing on CPU]
Here, the image processing according to the present embodiment performed by the CPU 216 will be described in detail. First, an outline of the processing will be described. The CPU 216 focuses on reducing the amount of image data to be transferred to the display device 212 and preventing the quality of the image displayed on the display device 212 from being deteriorated (that is, making the display image not strange). To process. Specifically, the image processing of the present embodiment includes image processing performed in consideration of the characteristics of color luminance components and color difference components, and image processing that reduces the amount of data using reversible transformation. . This is because first, there is a difference in image characteristics and visual recognition characteristics regarding the luminance component (Y component) and the color difference component (U / V component) forming the color space. Therefore, a method is adopted in which the luminance component and the color difference component are separately performed and different image processing is performed. As a result, the chrominance component can reduce a larger amount of data than the luminance component. That is, the data amount can be efficiently reduced. Further, a method of reducing the data amount by image processing using reversible conversion is adopted for the data obtained by dividing the luminance component and the color difference component in this way. This is because the quality of the displayed image is not deteriorated because the data before conversion can be restored by inverse conversion.

本実施形態に係る画像処理を具体的に挙げると、Y成分に対しては減色処理及びハフマン符号化処理を行い、U/V成分には重み付け量子化処理及び最大値/最小値に基づいた符号化処理を行う。上記の減色処理と重み付け量子化処理は不可逆変換であるのに対して、ハフマン符号化処理と最大値/最小値に基づいた符号化処理は可逆変換である。すなわち、画像特性及び視認特性を考慮に入れ、不可逆変換によってある程度データ量を削減し、さらにこのデータに対して可逆変換を行い、表示装置212転送するデータ量を少なくするという方法を用いている。以上のようなCPU216での処理により、効果的に画像のデータ量を削減できる。さらに、元のイメージに近い、違和感のない高画質の画像を表示することができる。   Specifically, the image processing according to the present embodiment performs a color reduction process and a Huffman encoding process for the Y component, and a weighting quantization process and a code based on the maximum value / minimum value for the U / V component. Process. While the above color reduction processing and weighted quantization processing are irreversible transformations, the Huffman coding processing and the coding processing based on the maximum value / minimum value are reversible transformations. That is, taking into consideration image characteristics and visual recognition characteristics, a method is used in which the amount of data is reduced to some extent by irreversible conversion, and further, lossless conversion is performed on this data to reduce the amount of data transferred to the display device 212. The processing by the CPU 216 as described above can effectively reduce the amount of image data. Furthermore, it is possible to display a high-quality image that is close to the original image and that does not feel uncomfortable.

(RGB→YUV変換)
まず初めに、CPU216内のRGB→YUV変換部230にて、送受信部214などより供給されたRGB形式の画像データを以下の式に従ってYUV形式に変換する。ここで、RGB形式において、R、G、BはそれぞれRed(赤)、Green(緑)、Blue(青)という光の三原色の階調値を指している。一方、YUV形式において、Yは輝度、UとVはそれぞれ青の色差(Cb)、赤の色差(Cr)を表している。なお、下式はRGB→YUV変換に用いられる一般的な式である。
(RGB → YUV conversion)
First, the RGB → YUV conversion unit 230 in the CPU 216 converts the RGB format image data supplied from the transmission / reception unit 214 or the like into the YUV format according to the following equation. Here, in the RGB format, R, G, and B indicate the gradation values of the three primary colors of light of Red (red), Green (green), and Blue (blue), respectively. On the other hand, in the YUV format, Y represents luminance, and U and V represent blue color difference (Cb) and red color difference (Cr), respectively. The following equation is a general equation used for RGB → YUV conversion.

Y= 0.299R+0.587G+0.114B
U=−0.169R−0.331G+0.500B+128
V= 0.500R−0.419G−0.081B+128
本実施形態では、このRGB→YUV変換において同時に、入力された各色8ビットのRGB形式のデータを、Y、U、Vそれぞれが7ビットとなるようにデータ量を削減する。つまり、256階調で色を表されたデータを、半分の128階調のデータに落とす処理を行う。
Y = 0.299R + 0.587G + 0.114B
U = −0.169R−0.331G + 0.500B + 128
V = 0.500R-0.419G-0.081B + 128
In the present embodiment, simultaneously with the RGB → YUV conversion, the data amount of the input 8-bit RGB data of each color is reduced so that Y, U, and V each have 7 bits. That is, a process of dropping data representing colors with 256 gradations into half 128-gradation data is performed.

(U成分、V成分の処理)
以下では、画像データのU/V成分(色差成分)の画像処理を説明する。
(Processing of U component and V component)
Hereinafter, image processing of U / V components (color difference components) of image data will be described.

(1)重み付け量子化処理
まず、本実施形態に係る重み付け量子化処理について説明する。一般的な量子化処理では、入力されたデータの階調値に対する出力階調値の範囲、すなわち量子化ステップを同一とする。
(1) Weighted quantization processing First, the weighted quantization processing according to the present embodiment will be described. In a general quantization process, the range of output gradation values relative to the gradation value of input data, that is, the quantization step is made the same.

本実施形態においては、入力されるデータの階調値によって、量子化ステップを変える方法を採用している。具体的に、図2を用いて説明する。図2において、横軸は重み付け量子化処理前のデータの階調値(入力階調値)を示してある。ここでは、色差の階調値を取ってあるので、左にいくほど低彩度になり、右にいくほど高彩度になる。また、縦軸には重み付け量子化処理後の階調値(出力階調値)を示してある。なお、処理前のU/Vのデータは、例えば128階調(7ビット)であり、処理後には64階調(6ビット)にすることができる。本実施形態においては、低彩度側と高彩度側で、量子化ステップを変えている。低彩度側では量子化ステップを大きくし、高彩度側では量子化ステップを小さくしている。つまり、量子化特性に処理に重み付けを施すことにより、低彩度のデータは細かく表現され、高彩度のデータは粗く表現されることとなる。   In this embodiment, a method of changing the quantization step according to the gradation value of input data is adopted. This will be specifically described with reference to FIG. In FIG. 2, the horizontal axis indicates the gradation value (input gradation value) of the data before the weighted quantization process. Here, since the gradation value of the color difference is taken, the saturation becomes lower as it goes to the left, and the higher saturation becomes as it goes to the right. The vertical axis indicates the gradation value (output gradation value) after the weighted quantization process. The U / V data before processing is, for example, 128 gradations (7 bits), and can be converted to 64 gradations (6 bits) after processing. In the present embodiment, the quantization step is changed between the low saturation side and the high saturation side. The quantization step is increased on the low saturation side, and the quantization step is decreased on the high saturation side. That is, by applying weighting to the quantization characteristics, low saturation data is expressed finely, and high saturation data is expressed coarsely.

上記のように128階調(7ビット)のU/Vデータを、重み付け量子化処理により64階調(6ビット)に変換する場合には、例えば処理後の階調値b1=48と設定する。具体的には、図2示すように、入力階調値が0〜63を低彩度、64〜127を高彩度とする。入力階調値0〜63に対しては出力階調値0〜47の48階調を割り当て、入力階調値64〜127に対しては出力階調値48〜63の16階調を割り当てている。即ち入力階調値=64である点を境にして上記の幅を変えている。入力階調値が64よりも低彩度側に位置する階調値a2は、重み付け量子化処理により出力階調値b2に変換される。一方、入力階調値が63よりも高彩度側に位置する入力階調値a3は、重み付け量子化処理により出力階調値b3に変換される。このように、低彩度の階調値を細かく量子化し、高彩度の階調値を粗く量子化して、全体では128階調(7ビット)のU/Vデータを64階調(6ビット)に圧縮することができる。   As described above, when converting U / V data of 128 gradations (7 bits) into 64 gradations (6 bits) by weighted quantization processing, for example, the processed gradation value b1 = 48 is set. . Specifically, as shown in FIG. 2, an input gradation value of 0 to 63 is set to low saturation, and 64 to 127 is set to high saturation. 48 gradations of output gradation values 0 to 47 are assigned to input gradation values 0 to 63, and 16 gradations of output gradation values 48 to 63 are assigned to input gradation values 64 to 127. Yes. That is, the width is changed at the point where the input gradation value = 64. A gradation value a2 whose input gradation value is located on the lower saturation side than 64 is converted into an output gradation value b2 by weighted quantization processing. On the other hand, the input tone value a3 whose input tone value is located on the higher saturation side than 63 is converted into the output tone value b3 by weighted quantization processing. In this way, the gradation values of low saturation are finely quantized and the gradation values of high saturation are coarsely quantized, so that the U / V data of 128 gradations (7 bits) as a whole becomes 64 gradations (6 bits). Can be compressed.

以上のように、本実施形態においては、彩度の大小によって量子化ステップを変える重み付け量子化の処理を採用している。こうしたのは、色差の視認知特性において、低彩度の色に比べて、高彩度の色は判別能力が低いという特徴があるからである。このような重み付け量子化処理により、表示装置212に転送するデータを削減でき、尚且つ、違和感のない画像を表示することができる。   As described above, in the present embodiment, the weighted quantization process is used in which the quantization step is changed depending on the saturation level. This is because the high-saturation color has a lower discrimination ability than the low-saturation color in the visual recognition characteristic of the color difference. By such weighted quantization processing, data transferred to the display device 212 can be reduced, and an image without a sense of incongruity can be displayed.

(2)符号化処理
次に、本実施形態に係る符号化処理について、図3を用いて説明する。本実施形態においては、符号化処理を図3(a)に示すように、画像のブロック単位に処理を行っていく。例えば、4行分(4ライン分)のデータを1ブロックとして一回の処理を行い、このブロックの処理が終われば、次のブロックの処理を行っていくことができる。まず、このブロック内のデータにおいて、階調値の頻度(=出現率)を算出する。この処理は、上述したように頻度分布算出部234が行うことができる。なお、この頻度算出の処理は、上述した重み付け量子化処理の際に、同時に行っても良い。こうして算出した頻度を縦軸にとり、横軸に階調値をとってヒストグラムを作成すると、例えば図3(b)のようになる。
(2) Encoding process Next, the encoding process which concerns on this embodiment is demonstrated using FIG. In the present embodiment, the encoding process is performed in units of image blocks as shown in FIG. For example, four rows (four lines) of data are processed once as one block, and when the processing of this block is completed, the next block can be processed. First, in the data in this block, the frequency (= appearance rate) of gradation values is calculated. This processing can be performed by the frequency distribution calculation unit 234 as described above. This frequency calculation process may be performed simultaneously with the above-described weighted quantization process. When the calculated frequency is plotted on the vertical axis and the gradation value is plotted on the horizontal axis, a histogram is created, for example, as shown in FIG.

このヒストグラム(以下、「頻度ヒストグラム」とも呼ぶ。)に基づき、最大/最小値表生成部236では、1ブロックでの階調値の最大値と最小値を決定する。なお、図3(b)の例では、64階調(重み付け量子化処理部232にて6ビットのデータにされている)を有するデータに対して処理を行うものを示している。以上より決定された最大値と最小値に基づいて、符号化処理部238にて画像データが圧縮される。符号化処理部238では、画像データが最大値と最小値から定まる範囲内のみで表現されるように符号化を行う。   Based on this histogram (hereinafter also referred to as “frequency histogram”), the maximum / minimum value table generation unit 236 determines the maximum value and the minimum value of gradation values in one block. In the example of FIG. 3B, the processing is performed on data having 64 gradations (which is converted to 6-bit data by the weighted quantization processing unit 232). Based on the maximum value and the minimum value determined as described above, the image processing unit 238 compresses the image data. The encoding processing unit 238 performs encoding so that the image data is expressed only within a range determined from the maximum value and the minimum value.

例えば、階調値の最小値が15で最大値が40である6ビットの画像データがあれば、変換により階調値15を0に変換し、階調値40を25に変換することによって(すなわち、階調値全体を15階調分シフトさせる)、5ビットのデータにすることができる。以上の符号化の処理により、データ量を削減することができる。   For example, if there is 6-bit image data having a minimum gradation value of 15 and a maximum value of 40, the gradation value 15 is converted to 0 by conversion, and the gradation value 40 is converted to 25 ( That is, the entire gradation value is shifted by 15 gradations), and the data can be made into 5 bits. The amount of data can be reduced by the above encoding process.

即ち、最小値と最大値とにより規定される範囲(つまり、階調値が存在する範囲、以下「有効階調範囲」とも呼ぶ。)が32階調分以上であれば6ビットのデータとなるが、有効階調範囲が32階調分以下であれば5ビットのデータで表現することができる。また、有効階調範囲が16階調分以下であれば、4ビットのデータで表現することができる。   That is, if the range defined by the minimum value and the maximum value (that is, a range where gradation values exist, hereinafter also referred to as “effective gradation range”) is 32 gradations or more, 6-bit data is obtained. However, if the effective gradation range is 32 gradations or less, it can be expressed by 5-bit data. If the effective gradation range is 16 gradations or less, it can be expressed by 4-bit data.

このような符号化の処理は、上述したように、画像をブロック単位で抽出したとき、一般的に色差成分に関しては階調値のダイナミックレンジが狭いという特徴があるため、データ量削減の効果がある。また、この変換は可逆変換であるため、データを欠損させていないので、復号により元に戻すことができる。よって、逆変換により高画質の画像を表示することができる。   As described above, such an encoding process is characterized in that, when an image is extracted in units of blocks, the dynamic range of gradation values is generally narrow with respect to color difference components, so that the effect of reducing the amount of data is achieved. is there. In addition, since this conversion is a reversible conversion, data is not lost, and can be restored by decoding. Therefore, a high-quality image can be displayed by inverse conversion.

以上のようにCPU216での処理によりデータ量が削減されたU/V成分の画像データは、表示装置212に供給される。具体的には、符号化処理部238にて符号化されたデータS13と、最大値と最小値のデータS12は、表示装置212内の復号化処理部250に転送される。なお、CPU216から表示装置212へは、画像データやその他関連するデータは、データバスとシリアルバスを用いて転送することができる。データ量が多い符号化データS13は、データバスを経由して転送される。一方、最大値と最小値のデータ12などは、このデータバスを用い、符号化データS13に時分割多重などして転送しても良いし、データ量が小さいためCLK信号やSDA信号などを送信する際に用いられるシリアルバスを経由して転送しても良い。   As described above, the U / V component image data whose data amount has been reduced by the processing of the CPU 216 is supplied to the display device 212. Specifically, the data S13 encoded by the encoding processing unit 238 and the maximum value and minimum value data S12 are transferred to the decoding processing unit 250 in the display device 212. Note that image data and other related data can be transferred from the CPU 216 to the display device 212 using a data bus and a serial bus. The encoded data S13 having a large amount of data is transferred via the data bus. On the other hand, the maximum value 12 and the minimum value data 12 may be transferred to the encoded data S13 by time division multiplexing using this data bus, or the CLK signal or the SDA signal is transmitted because the data amount is small. The data may be transferred via a serial bus used when performing the above.

(Y成分の処理)
以下では、画像データのY成分(輝度成分)に関する画像処理について説明する。画像のY成分においては、U/V成分に見られたような画像特性及び視認特性はないので、重み付け量子化処理や最大値/最小値に基づく符号化処理は行わない。Y成分に対する画像処理としては、データ量をむやみに削減し過ぎると(狭い階調値で表現する)画質の低下を招くので、できるだけ元のイメージから離れないような方法で変換処理を行う。
(Processing of Y component)
Hereinafter, image processing relating to the Y component (luminance component) of the image data will be described. In the Y component of the image, there is no image characteristic and visual recognition characteristic as seen in the U / V component, and therefore the weighted quantization process and the encoding process based on the maximum value / minimum value are not performed. As the image processing for the Y component, if the data amount is excessively reduced (expressed by a narrow gradation value), the image quality is deteriorated. Therefore, the conversion processing is performed by a method that does not depart from the original image as much as possible.

(1)減色処理
まず初めに、本実施形態に係るY成分に行う減色処理について説明する。本実施形態では、減色処理としてディザ法又は誤差拡散法を用いている。この2つの処理は、取得した画像データに対して元のイメージに近いままデータ量を削減することができる処理である。つまり、ビットスライスなどの処理とは異なり、元のイメージを模擬した違和感のない画像を生成することができる。
(1) Color Reduction Process First, the color reduction process performed on the Y component according to the present embodiment will be described. In this embodiment, a dither method or an error diffusion method is used as the color reduction processing. These two processes are processes that can reduce the amount of data with respect to the acquired image data while remaining close to the original image. That is, unlike processing such as bit slicing, an uncomfortable image simulating the original image can be generated.

まず、図4を用いて、ディザ法について説明する。ディザ法の処理は、例えば送受信部214が受信した元の画像データを、縦4画素×横4画素のブロックに分割し、分割した各ブロックごとに処理を行う。具体例を示すと、図4(a)は、元の画像データ中から任意に選んだ1つのブロックで、各数値はそれぞれの画素の階調値を表している。図4(b)はディザ行列の1つの例で、0から15までの階調値を表す数字が書かれており、この行列は元の画像データと比較するために用いられる(即ち、数字は閾値としての意味を持つ)。具体的に行う作業は、受信した画像データとディザ行例の対応する画素の数値を比較し、ディザ行列の数字よりも大きければ15(白)、小さければ0(黒)とする。その結果、図4(c)に示すような画像が得られる。   First, the dither method will be described with reference to FIG. In the dithering process, for example, the original image data received by the transmission / reception unit 214 is divided into blocks of 4 pixels in the vertical direction and 4 pixels in the horizontal direction, and the process is performed for each divided block. As a specific example, FIG. 4A shows one block arbitrarily selected from the original image data, and each numerical value represents a gradation value of each pixel. FIG. 4B is an example of a dither matrix, in which numbers representing gradation values from 0 to 15 are written, and this matrix is used for comparison with the original image data (ie, the numbers are Meaning as a threshold). Specifically, the received image data is compared with the numerical value of the corresponding pixel in the dither row example, and is set to 15 (white) if it is larger than the number in the dither matrix, and 0 (black) if it is smaller. As a result, an image as shown in FIG. 4C is obtained.

このように、上記の4×4画素のディザ行列を使用してディザ処理を行うことにより、0〜15までの階調値を白又は黒の1階調で表現することができる。よって、元の画像データの16階調値を1/16に減らすこと、即ち階調値を4ビット分減らすことができることになる。   In this way, by performing the dither process using the above 4 × 4 pixel dither matrix, the gradation values from 0 to 15 can be expressed by one gradation of white or black. Therefore, the 16 gradation values of the original image data can be reduced to 1/16, that is, the gradation values can be reduced by 4 bits.

本実施形態では、上述のディザ法を用いて、Y成分の画像データに減色処理を施すことができる。ここでは、処理すべき画像データが例えば1画素当り7ビットのデータであるとし、これに対してディザ処理を行うものとする。上記の例では、ディザ法による変換で階調値を2値化したが、ディザ法で画像データを多値で表現することもできる。最も簡単な方法として、黒と白の中間のレベルが表現できる3値のディザ法について、図4(d)を用いて説明する。この場合、与えられた画像データ中の一つの画素において、その輝度の1/2(例えば256階調のデータであれば、127となる。)を考え、0から127の間に存在する階調値の画素に対しては、0か127かを前述の2値のディザ法を用いて決定し、さらに127から255までの間に存在する階調値の画素は、ディザ法を用いて127か255かを決定する。これにより、0から255の階調値を持つ画像データを、0、127及び255の3値で表現することができる。本実施形態では、多値のディザ法を用いて、Y成分のデータ量を削減することができる。   In the present embodiment, it is possible to perform color reduction processing on the image data of the Y component using the above-described dither method. Here, it is assumed that the image data to be processed is, for example, 7-bit data per pixel, and dither processing is performed on this. In the above example, the gradation value is binarized by conversion by the dither method, but the image data can also be expressed by multiple values by the dither method. As the simplest method, a ternary dither method capable of expressing an intermediate level between black and white will be described with reference to FIG. In this case, considering a half of the luminance of one pixel in given image data (for example, 127 for 256 gradation data), the gradation existing between 0 and 127 is considered. For the value pixel, 0 or 127 is determined using the above-described binary dither method, and the gradation value pixel existing between 127 and 255 is determined using the dither method. 255 is determined. Thus, image data having gradation values from 0 to 255 can be expressed by three values of 0, 127, and 255. In the present embodiment, the data amount of the Y component can be reduced by using a multi-value dither method.

次に、図5を用いて、誤差拡散法を説明する。最も単純な誤差拡散法では、注目している画素において2値化した際に生じる誤差を、全てその右のピクセルへ割り振る処理を行う。その処理の一例を図5に示す。図5(a)の上段は、減色処理がされていない元の画像データであり、各数値はそれぞれの画素の階調値を表している。まず、図5(a)の左に位置する階調値が200である画像データを2値化すると、127(256階調の半値に当たる)よりも大きいので、階調値255(白)になる。このとき、元の画像とは階調値55(=255−200)の誤差が生じる。この誤差を図5(b)において、階調値が160である中央に位置する画像データに分配し、その画素値から55を減算して階調値105となったデータに対して、さらに2値化処理を行う。これにより、階調値0(黒)に変換される。このときも、同様に階調値にして −105(=0−(160−55))の誤差が生じる。この誤差を図5(c)において、階調値が180である画素に分配し、2値化すると階調値255(黒)に変換される。このように次々に誤差を隣の画素に分配していくことで、2値画像による擬似的な階調パターンを作成することができる。ここでは誤差を全て右の画素に分散させているが、誤差を割り振るピクセル数を増やし(例えば、右、右下、下に割り振る。)、又はその割り振る位置によってその比率を変化させることもできる。これにより、処理に要する計算量は増大するが、原画像をより正確に模擬した画像を作成することできる。   Next, the error diffusion method will be described with reference to FIG. In the simplest error diffusion method, a process of allocating all errors that occur when binarization is performed in a pixel of interest to the right pixel. An example of the processing is shown in FIG. The upper part of FIG. 5A is original image data that has not been subjected to color reduction processing, and each numerical value represents the gradation value of each pixel. First, when the image data with the gradation value of 200 located on the left in FIG. 5A is binarized, it is larger than 127 (corresponding to a half value of 256 gradations), so the gradation value becomes 255 (white). . At this time, an error of a gradation value 55 (= 255-200) occurs with respect to the original image. In FIG. 5B, this error is distributed to the image data located in the center where the gradation value is 160, and 55 is subtracted from the pixel value to obtain the gradation value 105. Perform value processing. As a result, the tone value is converted to 0 (black). At this time as well, an error of −105 (= 0− (160−55)) occurs similarly in the gradation value. In FIG. 5C, this error is distributed to pixels having a gradation value of 180 and binarized to be converted to a gradation value of 255 (black). In this manner, by sequentially distributing errors to adjacent pixels, a pseudo gradation pattern based on a binary image can be created. Here, all errors are distributed to the right pixel, but the number of pixels to which the error is allocated can be increased (for example, allocated to the right, lower right, and lower), or the ratio can be changed depending on the allocation position. Thereby, although the amount of calculation required for processing increases, it is possible to create an image that more accurately simulates the original image.

上記の誤差拡散法の例では、変換により階調値を2値化するものを示したが、本実施形態では、誤差拡散法で画像データを多値で表現し、Y成分のデータ量を削減することができる。   In the above example of the error diffusion method, the gradation value is binarized by conversion. However, in this embodiment, the image data is expressed in multiple values by the error diffusion method, and the data amount of the Y component is reduced. can do.

以下では、ディザ法の処理によって作成された画像と誤差拡散法によって作成された画像について、それぞれの特徴を説明する。前述のディザ法では、本来なら一繋がりの画像として処理すべきところを分割してしまったり、逆に分けて処理した方がよい画像をくっ付けてしまうという処理が行われる可能性がある。これにより、不自然な規則的模様が現われることがある。しかし、誤差拡散法では、各画素の階調値を元に、誤差を算出してから、その埋め合わせを近傍に割り振るので、全体として見たときには平均的に元の画像との誤差が少ない画像になっている。このため、ディザ法の処理により生じる不自然な規則的模様が現われることはない。ただし、誤差拡散法では、ディザ法のように決まった処理をパッチワークで繰り返すものではないので、計算に時間がかかってしまう。以上のことから、例えば、動画像のように、画像の質よりも処理速度の速さが要求される場合はディザ処理を用い、静止画像のように、処理速度よりも画質が要求される場合には誤差拡散法を用いることが好ましい。   Below, the characteristics of the image created by the dither method and the image created by the error diffusion method will be described. In the above-described dither method, there is a possibility that a portion that should be processed as a single continuous image is divided or an image that should be processed separately is attached. As a result, an unnatural regular pattern may appear. However, in the error diffusion method, an error is calculated based on the gradation value of each pixel, and then the offset is allocated to the vicinity. Therefore, when viewed as a whole, the image has an average error from the original image. It has become. For this reason, the unnatural regular pattern which arises by the process of a dither method does not appear. However, since the error diffusion method does not repeat the fixed processing like the dither method by patchwork, it takes time to calculate. From the above, for example, when speed of processing speed is required rather than image quality, such as moving images, dither processing is used, and when image quality is required rather than processing speed, such as still images It is preferable to use an error diffusion method.

このようにCPU216にて減色処理を行うことにより、表示装置212に転送する画像データ量が削減される。減色処理にてデータ量を削減したが、ビットスライスなどの処理とは異なり、元の画像を模擬する処理がなされているので、表示する画像に対して違和感を生じさせない。   As described above, the CPU 216 performs the color reduction process, whereby the amount of image data transferred to the display device 212 is reduced. Although the data amount is reduced by the color reduction processing, unlike the processing such as bit slicing, the processing for simulating the original image is performed, so that the displayed image does not feel strange.

(2)ハフマン符号化処理
以下では、CPU216内にて行われる本実施形態に係るハフマン符号化処理について説明する。一般的に、ハフマン符号化処理は、取得したデータに対して、よく発生するデータに対しては短い符号を割り当て、発生しにくいデータに対しては長い符号を割り当てるという符号化を行う処理である。つまり、元のデータを可変長にするというものである。この処理により、元のデータのデータ量を削減することができる。
(2) Huffman Coding Process Hereinafter, the Huffman coding process according to the present embodiment performed in the CPU 216 will be described. In general, the Huffman coding process is a process of assigning a short code to data that occurs frequently and a long code to data that is difficult to generate. . That is, the original data is made variable. By this processing, the data amount of the original data can be reduced.

その具体例について、図6を用いて説明する。図6(a)は、処理すべき元のデータで、「aabbccccddddeeeeeeeeffff」という記号から成る文字列である。次に図6(b)に示すように、この入力された記号の頻度を算出して頻度表を作成する。図6(b)において、左列には入力された記号、右列にはその頻度(出現率とも呼ぶ)を示す。次に、このように算出された頻度表に基づいてハフマン木が生成される。ハフマン木は、図6(c)に示すように、葉10、枝11、内部節点12及び根13から構成される。以下で、ハフマン木の作成手順について説明する。まず、各記号に対する葉10を作り、それぞれの葉10に記号とその頻度を書いておく。次に、頻度が最も小さい2枚の葉10について内部節点12を1つ作り、その内部節点12と2枚の葉10を枝11で結ぶ。そして枝11の一方には「0」、他方には「1」のラベルを付加する。この内部節点12に2枚の葉10の頻度の和を書き、この内部節点12を新たな葉10と考える。内部節点10より下の枝11と葉10をないものと考え、上述の手順を繰り返す。葉10(又は、内部節点12)が1枚になったところでハフマン木が完成する。   A specific example will be described with reference to FIG. FIG. 6A shows the original data to be processed, which is a character string composed of the symbol “aabbccccddddeeeeeeeeffff”. Next, as shown in FIG. 6B, the frequency of the input symbol is calculated to create a frequency table. In FIG. 6B, the left column shows the input symbols, and the right column shows the frequency (also referred to as the appearance rate). Next, a Huffman tree is generated based on the frequency table thus calculated. As shown in FIG. 6C, the Huffman tree is composed of leaves 10, branches 11, internal nodes 12, and roots 13. Hereinafter, a procedure for creating a Huffman tree will be described. First, a leaf 10 is created for each symbol, and the symbol and its frequency are written on each leaf 10. Next, one internal node 12 is created for the two leaves 10 with the lowest frequency, and the internal node 12 and the two leaves 10 are connected by the branch 11. A label “0” is added to one of the branches 11 and a label “1” is added to the other. The sum of the frequencies of the two leaves 10 is written in this internal node 12, and this internal node 12 is considered as a new leaf 10. Considering that there are no branches 11 and leaves 10 below the internal node 10, the above procedure is repeated. The Huffman tree is completed when the leaf 10 (or the internal node 12) becomes one sheet.

以上の処理により、図6(d)に示すように、元のデータはハフマン符号に変換される。すなわち、aは「1110」、bは「1111」cは「100」、dは「101」、eは「0」、fは「110」と表された符号表を作成することができる。この符号化されたデータ又はハフマン木に基づいて、元のデータは「1110 1110 1111 1111 100 100 100 100 101 101 101 101 0 0 0 0 0 0 0 0 110 110 110 110」と符号化することができる。   Through the above processing, the original data is converted into a Huffman code as shown in FIG. That is, it is possible to create a code table in which a is “1110”, b is “1111”, c is “100”, d is “101”, e is “0”, and f is “110”. Based on this encoded data or Huffman tree, the original data can be encoded as “1110 1110 1111 1111 100 100 100 100 100 101 101 101 101 0 0 0 0 0 0 0 0 0 110 110 110 110 110”. .

以下で、本実施形態において具体的に行われるハフマン符号化処理について説明する。まず、上述したように減色処理部230にて減色処理された画像に対して、頻度算出部240にて頻度表が算出される。このとき、本実施形態においては、図3(a)に示したようにブロック単位でハフマン符号化処理を行う。例えば画像の4行を1ブロックとして扱い、1つのブロックの符号化が終了すれば、次のブロックに移って処理を行うことができる。つまり、頻度算出部240では、前述の最大値と最小値による符号化処理で説明したように、画像データの1ブロック分のデータに対して頻度ヒストグラムを作成していく。なお、頻度表算出の処理は、前述した減色処理の際に同時に行っても良い。このように算出された頻度表に基づいて、ハフマン符号化処理部244では、図6(c)に示したハフマン木を作成する。そして、このハフマン木に基づいて、画像データをハフマン符号化する。こうして符号化された画像データS14は、表示装置212内のハフマン復号化処理部254に供給される。このとき、ハフマン木のデータ又は、符号と元のデータの対応関係を示す表(すなわち、図6(d)に示した表)は符号化されたデータを復号するのに必要であり、ハフマン符号化方法を示すデータS16として表示装置212へ転送される。   Hereinafter, the Huffman encoding process specifically performed in the present embodiment will be described. First, a frequency table is calculated by the frequency calculation unit 240 for the image subjected to the color reduction processing by the color reduction processing unit 230 as described above. At this time, in the present embodiment, as shown in FIG. 3A, the Huffman encoding process is performed in units of blocks. For example, if four rows of an image are handled as one block and the encoding of one block is completed, the process can be performed by moving to the next block. That is, the frequency calculation unit 240 creates a frequency histogram for data of one block of image data as described in the encoding process using the maximum value and the minimum value. The frequency table calculation process may be performed simultaneously with the above-described color reduction process. Based on the frequency table calculated in this way, the Huffman encoding processing unit 244 creates the Huffman tree shown in FIG. Then, Huffman coding is performed on the image data based on the Huffman tree. The encoded image data S14 is supplied to the Huffman decoding processing unit 254 in the display device 212. At this time, the Huffman tree data or the table indicating the correspondence between the code and the original data (that is, the table shown in FIG. 6D) is necessary for decoding the encoded data. Is transferred to the display device 212 as data S16 indicating the conversion method.

以上のCPU216内においてのハフマン符号化処理により、表示装置212に転送するデータ量が削減される。このデータ削減量は画像に依存するが、実験的には入力されるデータ量の約1/2程度に削減することができることがわかっている。このハフマン符号化処理では、符号化によりデータ量を削減しており、画像データ自体を欠損させていないため、復号して表示される画像の質は落ちることはない。   The amount of data transferred to the display device 212 is reduced by the Huffman encoding process in the CPU 216 described above. Although this data reduction amount depends on the image, it has been experimentally found that it can be reduced to about ½ of the input data amount. In this Huffman encoding process, the amount of data is reduced by encoding, and the image data itself is not lost, so that the quality of the decoded and displayed image does not deteriorate.

なお、先に述べたようにCPU216から表示装置212へ画像データやその他関連するデータは、データバスとシリアルバスを用いて転送することができる。符号化されたデータは、データバスを用いて転送することができる。また、ハフマン符号化方法を示すデータS16は、データ量が少ないのでシリアルバスを経由して転送することができる。   Note that as described above, image data and other related data can be transferred from the CPU 216 to the display device 212 using a data bus and a serial bus. The encoded data can be transferred using a data bus. Further, the data S16 indicating the Huffman encoding method can be transferred via the serial bus because the data amount is small.

[表示装置での画像処理]
以下では、表示装置212で行われる画像処理について説明する。前述したようにCPU216からY成分とU/V成分のデータが別々に転送されてくるので、表示装置212においても異なる画像処理が行われる。表示装置212では、主にCPU216にて符号化されたデータを復号する画像処理が行われる。復号化処理は、Y成分とU/V成分のそれぞれに対して行われる。この復号処理は、主にCPU216にて行われた可逆的な処理に対する逆変換である。これにより、転送されてきたデータ量から想定されるよりも、元のイメージに近い高画質な画像を表示することができる。
[Image processing on display devices]
Hereinafter, image processing performed by the display device 212 will be described. As described above, since the Y component data and the U / V component data are separately transferred from the CPU 216, different image processing is also performed in the display device 212. In the display device 212, image processing for decoding data encoded mainly by the CPU 216 is performed. Decoding processing is performed for each of the Y component and the U / V component. This decoding process is an inverse transformation to a reversible process mainly performed by the CPU 216. Thereby, it is possible to display a high-quality image closer to the original image than expected from the amount of transferred data.

(U成分、V成分の処理)
ここでは、画像データのU/V成分の画像処理を説明する。CPU216にて処理されたU/V成分のデータは、まず、復号化処理部250に入力される。このとき、復号化処理部250には、符号化された画像データS13と最大値と最小値のデータS12が入力される。復号化処理部250では、最大値と最小値のデータS12に基づき、符号化された画像データS13を復号する。具体的には、符号化されたデータの階調値それぞれに、例えば階調値の最小値を加算する処理が行われる。例えば、符号化された5ビットのデータがあり、階調値の最小値が15で最大値が40であるデータが送られてくれば、5ビットで表された階調値それぞれに15を加算する処理を行う。すなわち、6ビットの元の画像データに戻される。
(Processing of U component and V component)
Here, the image processing of the U / V component of the image data will be described. The U / V component data processed by the CPU 216 is first input to the decoding processing unit 250. At this time, the encoded image data S13 and the maximum value and minimum value data S12 are input to the decoding processing unit 250. The decoding processing unit 250 decodes the encoded image data S13 based on the maximum value and minimum value data S12. Specifically, for example, a process of adding the minimum value of the gradation value to each of the gradation values of the encoded data is performed. For example, if there is encoded 5-bit data and data with a minimum gradation value of 15 and a maximum value of 40 is sent, 15 is added to each gradation value represented by 5 bits. Perform the process. That is, the original image data of 6 bits is restored.

なお、本実施形態においては、上述したようにCPU216ではブロック単位で処理を行うので、CPU216にて行う符号化処理と、表示装置212にて行う復号化処理を並列して行うことができる。具体的に、図7を用いて説明する。図7(a)に示すように、CPU216では、処理が画像の上から下に向かってなされており、ある時刻において図示する位置の画像データに対して符号化処理を行っているものとする。このとき、その処理を行っているブロックよりも上段の画像(符号化処理が完了している画像)は、既に表示装置212に転送されている。一方、表示装置212では、図7(b)に示すように、上記の時刻においてCPU216で符号化している画像よりも上段のデータに対して復号化処理を行うことができる。これにより、CPU216にて行う符号化処理と、表示装置212にて行う復号化処理を効率よく行うことができる。   In the present embodiment, as described above, since the CPU 216 performs processing in units of blocks, the encoding processing performed by the CPU 216 and the decoding processing performed by the display device 212 can be performed in parallel. This will be specifically described with reference to FIG. As shown in FIG. 7A, it is assumed that the CPU 216 performs processing from the top to the bottom of the image and performs encoding processing on the image data at the position shown in the figure at a certain time. At this time, the image above the block on which the process is being performed (the image for which the encoding process has been completed) has already been transferred to the display device 212. On the other hand, as shown in FIG. 7B, the display device 212 can perform the decoding process on the data above the image encoded by the CPU 216 at the above time. Thereby, the encoding process performed by CPU216 and the decoding process performed by the display apparatus 212 can be performed efficiently.

以上のように復号化処理部250にて復号処理された画像データは、均等量子化処理部252に送られる。   The image data decoded by the decoding processing unit 250 as described above is sent to the equal quantization processing unit 252.

次に、均等量子化処理部252での処理について、図8を用いて説明する。図8において、縦軸に処理前のデータの階調値を示してあり、横軸に処理後のデータの階調値を示してある。上述したCPU216での重み付け量子化処理では、階調値によって(すなわち彩度の大小に応じて)量子化量を変えるという方法を採用した。図2に示すように、低彩度の領域は細かく量子化し、高彩度の領域は粗く量子化することとした。図2の例では、量子化前のU/Vデータは128階調(7ビット)であり、入力階調値0〜127を有している。これを、入力階調値64を境にして、入力階調値0〜63を出力階調値0〜47に割り当て、入力階調値64〜127を出力階調値48〜63に割り当てている。   Next, processing in the equal quantization processing unit 252 will be described with reference to FIG. In FIG. 8, the vertical axis represents the gradation value of the data before processing, and the horizontal axis represents the gradation value of the data after processing. In the weighted quantization processing by the CPU 216 described above, a method of changing the quantization amount according to the gradation value (that is, depending on the magnitude of the saturation) is adopted. As shown in FIG. 2, the low-saturation region is finely quantized, and the high-saturation region is coarsely quantized. In the example of FIG. 2, the U / V data before quantization has 128 gradations (7 bits) and has input gradation values of 0 to 127. With the input gradation value 64 as the boundary, the input gradation values 0 to 63 are assigned to the output gradation values 0 to 47, and the input gradation values 64 to 127 are assigned to the output gradation values 48 to 63. .

一方、表示装置212の均等量子化処理部252においては、この逆変換を行う。つまり、図8に示すように、図2に示す重み付け量子化特性の逆特性により、64階調(6ビット)のU/Vデータを128階調(7ビット)のU/Vデータに変換する。これにより、重み付け量子化前の状態のU/Vデータを復元することができる。   On the other hand, the inverse quantization is performed in the uniform quantization processing unit 252 of the display device 212. That is, as shown in FIG. 8, the 64 gradation (6 bits) U / V data is converted into 128 gradation (7 bits) U / V data by the inverse characteristic of the weighted quantization characteristic shown in FIG. . Thereby, U / V data in a state before weighted quantization can be restored.

このように、復号化処理部250及び均等量子化処理部252にて処理されたU/V成分のデータは、ドライバ226に供給される。   In this way, the U / V component data processed by the decoding processing unit 250 and the equal quantization processing unit 252 is supplied to the driver 226.

(Y成分の処理)
次に、画像データのY成分の画像処理を説明する。CPU216にて処理されたY成分のデータは、ハフマン復号化処理部254に入力される。このとき、ハフマン復号化処理部230には、ハフマン符号化された画像データS14と、ハフマン木のデータ又は符号と元のデータの対応関係を示す表などのハフマン符号化方法を規定するデータS16が入力され、これらに基づいて復号処理が行われる。具体的な復号方法について、図6(c)を参照して説明する。例えば、「101」という符号が送られてきた場合、まず、根13からビットが「1」である右の枝11をたどる。次に、ビット「0」である左の枝11をたどる。そして、ビット「1」である右の枝11をたどると、「d」を表す葉10に到達する。これにより、「101」と符号化されたデータが「d」という記号であると識別される。以上の手順で、符号化されたデータが復号される。なお、このハフマン復号化処理も先に述べたもの(図7で示した処理)と同様に、CPU216にてブロック単位でハフマン符号化処理を行うことができるので、このCPU212での処理と並列して行うことができる。
(Processing of Y component)
Next, image processing of the Y component of the image data will be described. The Y component data processed by the CPU 216 is input to the Huffman decoding processing unit 254. At this time, the Huffman decoding processing unit 230 includes Huffman-encoded image data S14 and data S16 that defines a Huffman encoding method such as a table indicating the correspondence between Huffman tree data or code and the original data. Based on these, a decoding process is performed. A specific decoding method will be described with reference to FIG. For example, when a code “101” is sent, the right branch 11 having a bit “1” is first traced from the root 13. Next, the left branch 11 which is bit “0” is traced. Then, when the right branch 11 having the bit “1” is traced, the leaf 10 representing “d” is reached. Thereby, the data encoded as “101” is identified as the symbol “d”. The encoded data is decoded by the above procedure. Note that the Huffman decoding process can also be performed in block units by the CPU 216 in the same manner as described above (the process shown in FIG. 7). Can be done.

このようにハフマン復号化処理部254にて復号されたY成分のデータは、ドライバ226に供給される。そして、ドライバ226にてY成分のデータと、先に述べたU/V成分のデータが統合される。このときに、YUV形式のデータをRGB形式のデータに変換することができる。このYUV→RGB変換は、ドライバ226の入力前に行っても良い。こうしてドライバ226で処理された画像データは表示パネル227に供給されて、表示パネル227の表示エリア内に表示される。   The Y component data decoded by the Huffman decoding processing unit 254 in this way is supplied to the driver 226. The driver 226 integrates the Y component data and the U / V component data described above. At this time, YUV format data can be converted into RGB format data. This YUV → RGB conversion may be performed before the input of the driver 226. The image data thus processed by the driver 226 is supplied to the display panel 227 and displayed in the display area of the display panel 227.

[変形例]
以下で、本発明の変形例について説明する。上述してきた実施形態において、CPU216では、U/V成分のデータに対し階調値の最大値/最小値に基づき符号化した。1つの変形例においては、このとき、データ量が4ビット以下になれば、ハフマン符号化処理をさらに行う。4ビット以下のデータであれば、ハフマン符号化処理において計算時間とメモリをそれほど要しないからである。このハフマン符号化処理を加えることにより、U/Vデータについてさらにデータ量を削減することができる。また、ハフマン符号化処理は可逆変換であるので復元して処理前の画像に戻すことができるため、表示される画像の画質を落とすことはない。
[Modification]
Below, the modification of this invention is demonstrated. In the embodiment described above, the CPU 216 encodes the U / V component data based on the maximum value / minimum value of the gradation values. In one modification, if the data amount is 4 bits or less at this time, the Huffman encoding process is further performed. This is because data of 4 bits or less does not require much calculation time and memory in the Huffman encoding process. By adding this Huffman encoding process, the data amount can be further reduced for U / V data. Also, since the Huffman encoding process is a reversible conversion, it can be restored and returned to the image before the process, so the image quality of the displayed image is not degraded.

また、他の変形例では、CPU216のRGB→YUV変換部230にてYUV4:2:0でサンプリングを行い、このデータに対して先に述べた実施例と同様のCPU216での処理を行っても良い。これは、U/V成分のデータには、ディザ法による画像処理を行わないため、表示される画像にモアレ干渉などが生じないためである。これにより、さらにデータ量を削減したものを表示装置212に転送することができる。ただし、この場合は画像の質はYUV4:4:4にてサンプリングしたデータよりも落ちてしまうため、画質よりも処理速度が要求される動画像を表示する際に行うことが好ましい。   In another modified example, the RGB → YUV conversion unit 230 of the CPU 216 performs sampling at YUV 4: 2: 0, and this data may be processed by the CPU 216 similar to the above-described embodiment. good. This is because the U / V component data is not subjected to image processing by the dither method, so that moire interference does not occur in the displayed image. As a result, data with a further reduced amount of data can be transferred to the display device 212. However, in this case, since the quality of the image is lower than the data sampled at YUV 4: 4: 4, it is preferably performed when displaying a moving image that requires a higher processing speed than the image quality.

本発明に係る画像処理を適用した携帯端末装置の概略構成を示す。1 shows a schematic configuration of a mobile terminal device to which image processing according to the present invention is applied. 重み付け量子化処理を説明するための図である。It is a figure for demonstrating a weighting quantization process. 画像に対して、階調値の最大値/最小値に基づいて行う処理の具体例を示した図である。It is the figure which showed the specific example of the process performed based on the maximum value / minimum value of a gradation value with respect to an image. ディザ法を説明するための図である。It is a figure for demonstrating the dither method. 誤差拡散法を説明するための図である。It is a figure for demonstrating an error diffusion method. ハフマン符号化処理を説明するための図である。It is a figure for demonstrating a Huffman encoding process. CPUでの画像処理と表示装置での画像処理との関係を示した図である。It is the figure which showed the relationship between the image processing in CPU, and the image processing in a display apparatus. 均等量子化処理を説明するための図である。It is a figure for demonstrating a uniform quantization process.

符号の説明Explanation of symbols

210 携帯端末装置、 212 表示装置、 214 送受信部、 216 CPU、 218 入力部、 220 プログラムROM、 224 RAM、 226 ドライバ、 227 表示パネル、 230 RGB→YUV変換部、 232 重み付け量子化処理部、 234 頻度分布算出部、 236 最大/最小値表生成部、 238 符号化処理部、 240 減色処理部、 242 頻度算出部、 244 ハフマン符号化処理部、 250 復号化処理部、 252 均等量子化処理回路、 254 ハフマン復号化処理部   210 portable terminal device, 212 display device, 214 transmission / reception unit, 216 CPU, 218 input unit, 220 program ROM, 224 RAM, 226 driver, 227 display panel, 230 RGB → YUV conversion unit, 232 weighted quantization processing unit, 234 frequency Distribution calculation unit, 236 maximum / minimum value table generation unit, 238 encoding processing unit, 240 color reduction processing unit, 242 frequency calculation unit, 244 Huffman encoding processing unit, 250 decoding processing unit, 252 equal quantization processing circuit, 254 Huffman decoding processor

Claims (9)

画像処理部及び画像表示部を備える画像表示装置において、
前記画像処理部は、
表示すべきRGB形式の画像データを取得する画像データ取得手段と、
取得したRGB形式の画像データをYUV形式の画像データに変換するYUV変換手段と、
YUV変換により得られたY成分の画像データとU/V成分の画像データに、データを削減するための別々の画像処理を行う画像処理手段と、
別々の画像処理が行われた画像データを前記画像表示部へ転送する転送手段と、を備え、
前記画像処理手段は、
前記Y成分の画像データのみを減色処理する減色処理手段と、
前記U/V成分の画像データのみを、該画像データの階調値が所定値より小さい画像データには量子化ステップを大きくし、階調値が前記所定値より大きい画像データには量子化ステップを小さくして量子化を行い、量子化処理する量子化処理手段と、
減色処理された前記Y成分の画像データに対してハフマン符号化処理を行うと共に、量子化処理された前記U/V成分の画像データのみに対して、階調値の最大値と最小値との間の画像データのみを符号化する符号化処理手段と、を備え、
前記画像表示部は、転送された前記Y成分及び前記U/V成分の画像データを表示することを特徴とする画像表示装置。
In an image display device including an image processing unit and an image display unit,
The image processing unit
Image data acquisition means for acquiring image data in RGB format to be displayed;
YUV conversion means for converting the acquired RGB format image data into YUV format image data;
Image processing means for performing separate image processing for reducing data on Y component image data and U / V component image data obtained by YUV conversion;
Transfer means for transferring image data subjected to separate image processing to the image display unit,
The image processing means includes
Color reduction processing means for performing color reduction processing only on the Y component image data;
Only the image data of the U / V component is increased in a quantization step for image data whose gradation value is smaller than a predetermined value, and is quantized for image data whose gradation value is larger than the predetermined value. A quantization processing means for performing quantization with a smaller value and performing a quantization process;
A Huffman encoding process is performed on the Y-component image data subjected to the color reduction process, and a maximum value and a minimum value of a gradation value are applied only to the quantized U / V component image data. Encoding processing means for encoding only the image data between,
The image display unit displays the transferred image data of the Y component and the U / V component.
前記減色処理手段は、前記Y成分の画像データに対してディザ処理を行うことを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the color reduction processing unit performs dither processing on the image data of the Y component. 前記減色処理手段は、前記Y成分の画像データに対して誤差拡散処理を行うことを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the color reduction processing unit performs error diffusion processing on the image data of the Y component. 前記符号化処理手段は、符号化処理後の前記U/V成分の画像データが所定ビット数以下であれば、さらにハフマン符号化処理を行うことを特徴とする請求項1に記載の画像表示装置。   2. The image display device according to claim 1, wherein if the image data of the U / V component after the encoding process is equal to or less than a predetermined number of bits, the encoding processing unit further performs a Huffman encoding process. . 前記画像表示部は、
符号化処理された前記Y成分の画像データと前記U/V成分の画像データを復号化処理する復号化処理手段と、
復号化処理された前記U/V成分の画像データを量子化処理する第2の量子化処理手段と、
復号化処理された前記Y成分の画像データ及び前記第2の量子化処理手段により量子化処理された前記U/V成分の画像データを表示する表示手段と、を備えることを特徴とする請求項1に記載の画像表示装置。
The image display unit
Decoding processing means for decoding the encoded Y component image data and the U / V component image data;
Second quantization processing means for performing quantization processing on the decoded U / V component image data;
And a display means for displaying the decoded Y component image data and the U / V component image data quantized by the second quantization processing means. 2. The image display device according to 1.
前記第2の量子化処理手段は、前記画像処理手段の量子化処理手段の量子化特性の逆特性により量子化を行うことを特徴とする請求項5に記載の画像表示装置。   The image display apparatus according to claim 5, wherein the second quantization processing unit performs quantization based on a reverse characteristic of a quantization characteristic of the quantization processing unit of the image processing unit. 前記符号化処理手段は、前記画像データのブロック単位で符号化を行い、
前記復号化処理手段は、前記符号化処理手段と並行して、前記符号化手段にて以前行われたブロックに対応する画像データに対して復号化を行うことを特徴とする請求項5に記載の画像表示装置。
The encoding processing means performs encoding in units of blocks of the image data,
6. The decoding processing unit performs decoding on image data corresponding to a block previously performed by the encoding unit in parallel with the encoding processing unit. Image display device.
画像処理部及び画像表示部を備える画像表示装置において実行される画像表示方法において、
表示すべきRGB形式の画像データを取得する画像データ取得工程と、
取得したRGB形式の画像データをYUV形式の画像データに変換するYUV変換工程と、
YUV変換により得られたY成分の画像データと、U/V成分の画像データに、データ量を削減するための別々の画像処理を行う画像処理工程と、
別々の画像処理が行われた画像データを前記画像処理部から前記画像表示部へ転送する転送工程と、
転送された前記Y成分及び前記U/V成分の画像データを前記画像表示部に表示する表示工程と、を備え、
前記画像処理工程は、
前記Y成分の画像データのみを減色処理する減色処理工程と、
前記U/V成分の画像データのみを、該画像データの階調値が所定値より小さい画像データには量子化ステップを大きくし、階調値が前記所定値より大きい画像データには量子化ステップを小さくして量子化を行い、量子化処理する量子化処理工程と、
減色処理された前記Y成分の画像データに対してハフマン符号化処理を行うと共に、量子化処理された前記U/V成分の画像データのみに対して階調値の最大値と最小値の間の画像データのみを符号化する符号化処理工程と、を備えることを特徴とする画像表示方法。
In an image display method executed in an image display device including an image processing unit and an image display unit,
An image data acquisition step of acquiring RGB format image data to be displayed;
A YUV conversion step of converting the acquired RGB format image data into YUV format image data;
An image processing step of performing separate image processing for reducing the amount of data on the Y component image data obtained by YUV conversion and the U / V component image data;
A transfer step of transferring image data subjected to separate image processing from the image processing unit to the image display unit;
Displaying the transferred image data of the Y component and the U / V component on the image display unit, and
The image processing step includes
A color reduction processing step for performing color reduction processing only on the image data of the Y component;
Only the image data of the U / V component is increased in a quantization step for image data whose gradation value is smaller than a predetermined value, and is quantized for image data whose gradation value is larger than the predetermined value. A quantization processing step for performing quantization by performing a small quantization,
A Huffman encoding process is performed on the Y-component image data subjected to the color reduction process, and a gradation value between the maximum value and the minimum value is only applied to the quantized U / V component image data. An image display method comprising: an encoding process step for encoding only image data.
画像処理部及び画像表示部を備える画像表示装置において実行されることにより、
表示すべきRGB形式の画像データを取得する画像データ取得手段、
取得したRGB形式の画像データをYUV形式の画像データに変換するYUV変換手段、
YUV変換により得られたY成分の画像データと、U/V成分の画像データに、データ量を削減するための別々の画像処理を行う画像処理手段、
別々の画像処理が行われた画像データを前記画像表示部へ転送する転送手段として前記画像処理部を機能させ、
前記画像処理手段を、
前記Y成分の画像データのみを減色処理する減色処理手段と、
前記U/V成分の画像データのみを、該画像データの階調値が所定値より小さい画像データには量子化ステップを大きくし、階調値が前記所定値より大きい画像データには量子化ステップを小さくして量子化を行い、量子化処理する量子化処理手段と、
減色処理された前記Y成分の画像データに対してハフマン符号化処理を行うと共に、量子化処理された前記U/V成分の画像データのみに対して階調値の最大値と最小値の間の画像データのみを符号化する符号化処理手段として機能させ、
転送された前記Y成分及び前記U/V成分の画像データを表示する表示手段として前記画像表示部を機能させることを特徴とする画像表示プログラム。
By being executed in an image display device including an image processing unit and an image display unit,
Image data acquisition means for acquiring image data in RGB format to be displayed;
YUV conversion means for converting the acquired RGB format image data into YUV format image data;
Image processing means for performing separate image processing for reducing the amount of data on the Y component image data obtained by YUV conversion and the U / V component image data;
Causing the image processing unit to function as transfer means for transferring image data that has undergone separate image processing to the image display unit;
The image processing means;
Color reduction processing means for performing color reduction processing only on the Y component image data;
Only the image data of the U / V component is increased in a quantization step for image data whose gradation value is smaller than a predetermined value, and is quantized for image data whose gradation value is larger than the predetermined value. A quantization processing means for performing quantization with a smaller value and performing a quantization process;
A Huffman encoding process is performed on the Y-component image data subjected to the color reduction process, and a gradation value between the maximum value and the minimum value is only applied to the quantized U / V component image data. It functions as an encoding processing means for encoding only image data,
An image display program that causes the image display unit to function as display means for displaying the transferred image data of the Y component and the U / V component.
JP2003289083A 2003-08-07 2003-08-07 Image display device, image display method, and image display program Expired - Fee Related JP4552400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003289083A JP4552400B2 (en) 2003-08-07 2003-08-07 Image display device, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003289083A JP4552400B2 (en) 2003-08-07 2003-08-07 Image display device, image display method, and image display program

Publications (2)

Publication Number Publication Date
JP2005055824A JP2005055824A (en) 2005-03-03
JP4552400B2 true JP4552400B2 (en) 2010-09-29

Family

ID=34367530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003289083A Expired - Fee Related JP4552400B2 (en) 2003-08-07 2003-08-07 Image display device, image display method, and image display program

Country Status (1)

Country Link
JP (1) JP4552400B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108439A (en) * 2005-10-13 2007-04-26 Renesas Technology Corp Display driving circuit
JP2007181052A (en) * 2005-12-28 2007-07-12 Seiko Epson Corp Image output system
JP5082240B2 (en) * 2005-12-28 2012-11-28 セイコーエプソン株式会社 Image control IC
JP2007178850A (en) * 2005-12-28 2007-07-12 Seiko Epson Corp Image output driver ic
US7471442B2 (en) * 2006-06-15 2008-12-30 Qualcomm Mems Technologies, Inc. Method and apparatus for low range bit depth enhancements for MEMS display architectures
JP2007184977A (en) * 2007-03-19 2007-07-19 Seiko Epson Corp Picture output system
JP4838769B2 (en) * 2007-07-10 2011-12-14 キヤノン株式会社 Image processing apparatus, image processing method, and ink jet recording apparatus
US10594901B2 (en) * 2017-11-17 2020-03-17 Ati Technologies Ulc Game engine application direct to video encoder rendering

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306054A (en) * 2000-04-24 2001-11-02 Mitsubishi Electric Corp Display device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0831129B2 (en) * 1986-05-30 1996-03-27 キヤノン株式会社 Image processing device
JPH04342291A (en) * 1991-05-20 1992-11-27 Toshiba Corp Picture display device
JPH05227442A (en) * 1992-02-14 1993-09-03 Ricoh Co Ltd Color facsimile equipment
CA2094523C (en) * 1992-07-30 1999-05-25 Ephraim Feig Digital image processor for color image transmission
CA2094524A1 (en) * 1992-07-30 1994-01-31 Ephraim Feig Digital image processor for color image compression
JPH0750838A (en) * 1993-07-29 1995-02-21 Canon Inc Motion picture coder
JPH0723313A (en) * 1993-06-30 1995-01-24 Sony Corp Supporting device with speaker
JPH08205144A (en) * 1995-01-20 1996-08-09 Canon Inc Image encoding device
JP3523719B2 (en) * 1995-04-04 2004-04-26 三菱電機株式会社 Image encoding device and image decoding device
JP2861890B2 (en) * 1995-09-28 1999-02-24 日本電気株式会社 Color image display

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306054A (en) * 2000-04-24 2001-11-02 Mitsubishi Electric Corp Display device

Also Published As

Publication number Publication date
JP2005055824A (en) 2005-03-03

Similar Documents

Publication Publication Date Title
EP1434195B1 (en) Image processing apparatus, image transmission apparatus, image reception apparatus, and image processing method
KR100880039B1 (en) Method and system for achieving coding gains in wavelet-based image codecs
US7668383B2 (en) Image processing, compressing, decompressing, transmitting, sending and receiving devices and methods, programs thereof and displaying device
CN106937113B (en) Image compression method and device based on mixed chroma sampling rate
JP4100782B2 (en) Error diffusion value processing method
US7808510B2 (en) Image processing apparatus, image transmission apparatus, display, image processing method, and image transmission method
JP2003162272A5 (en)
JP2010004514A (en) Image encoding device, image encoding method, and image encoding system
CN101142821A (en) New compression format and apparatus using the new compression format for temporarily storing image data in a frame memory
US6765695B2 (en) Color processing architecture and algorithms for color laser printers
EP2204773B1 (en) Process and apparatus for blending images
US7038814B2 (en) Fast digital image dithering method that maintains a substantially constant value of luminance
JP4552400B2 (en) Image display device, image display method, and image display program
US20110002553A1 (en) Compressive coding device and decoding device
US20190132600A1 (en) Method and apparatus for encoding/decoding a scalar integer into a parameter representative of a pivot points of a piece-wise linear function
US7840223B2 (en) Portable telephone, image converter, control method and program
JP2005055825A (en) Image display device, image display method and image display program
JP2002190956A (en) Image encoding equipment and image decoding equipment
KR100518849B1 (en) Image coding and decoding method
JP2003264830A (en) Image encoder and image decoder
CN114693818A (en) Compression method suitable for digital ortho image data
JP3716855B2 (en) Image processing apparatus and image processing method
JP2004361497A (en) Image display device, image display method, and image display program
JP5159226B2 (en) Image data processing system
KR20070111111A (en) Method of compressing and decompressing image and equipment thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060323

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100119

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100119

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees