JP2011118000A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2011118000A
JP2011118000A JP2009272863A JP2009272863A JP2011118000A JP 2011118000 A JP2011118000 A JP 2011118000A JP 2009272863 A JP2009272863 A JP 2009272863A JP 2009272863 A JP2009272863 A JP 2009272863A JP 2011118000 A JP2011118000 A JP 2011118000A
Authority
JP
Japan
Prior art keywords
pixel
image
luminance
pixels
reduced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009272863A
Other languages
Japanese (ja)
Inventor
Toshio Tanaka
寿夫 田中
Daisuke Yamamoto
大輔 山本
Shinji Hosokawa
晋志 細川
Sonoe Mori
園恵 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2009272863A priority Critical patent/JP2011118000A/en
Publication of JP2011118000A publication Critical patent/JP2011118000A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve image quality of a reduced image by suppressing image quality deterioration caused when an image is reduced to the utmost. <P>SOLUTION: The image processing apparatus is constituted such that, when a plurality of object pixels extracted from an original image being an object to be reduced containing pixels including a prescribed number of subpixels are made to correspond to one reduced pixel corresponding to the plurality of object pixels on the reduced image being a destination of reduction, thereby generating the reduced image from the original image, pixel groups which continue in the same direction as an arraying direction of the subpixels and include at least the plurality of object pixels are selected from the original image, luminance data as many as the subpixels included in the one reduced pixel are generated on the basis of a relative position between the pixels included in the pixel group and the luminance data of the pixels included in the pixel group, and the generated luminance data are set as the luminance data for the subpixels in the reduced pixel, and then the reduced image to which the luminance data are set is displayed on a prescribed display part. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置および画像処理方法に関し、特に、画像を縮小した場合に生じる画質劣化を極力抑えることによって縮小画像の画質を改善することができる画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method that can improve the image quality of a reduced image by suppressing image quality degradation that occurs when an image is reduced.

従来、元画像から縮小画像を生成する画像縮小方式として、元画像から縮小率に応じた数の画素(ピクセル)を間引き、残されたピクセルによって縮小画像を生成する方式が知られている。   Conventionally, as an image reduction method for generating a reduced image from an original image, a method is known in which a number of pixels (pixels) corresponding to a reduction rate are thinned out from the original image and a reduced image is generated using the remaining pixels.

このように元画像からピクセルを間引いて縮小画像を生成する際、元画像では滑らかな斜め線として表示されていた線が縮小画像中ではピクセルの間引きによってギザギザの斜め線として表示されることがある。   When a reduced image is generated by thinning out pixels from the original image in this way, a line that was displayed as a smooth diagonal line in the original image may be displayed as a jagged diagonal line in the reduced image by thinning out the pixel. .

このため、近年、元画像からピクセルを間引くのではなく、元画像中の複数のピクセルを構成する画像データから縮小画像の1ピクセル分の画像データを生成することで画像を縮小する画像処理が用いられるようになってきている。   Therefore, in recent years, image processing has been used in which an image is reduced by generating image data for one pixel of a reduced image from image data constituting a plurality of pixels in the original image, instead of thinning out pixels from the original image. It is getting to be.

たとえば、特許文献1には、元画像中の隣り合う2ピクセル分の画像データから縮小画像の1ピクセル分の画像データを生成して画像を縮小する技術が開示されている。   For example, Patent Document 1 discloses a technique for generating image data for one pixel of a reduced image from image data for two adjacent pixels in an original image and reducing the image.

特開2007−93832号公報JP 2007-93832 A

しかしながら、従来の一般的な画像処理では、縮小対象として元画像から選択した隣り合う2つの対象ピクセルから縮小画像の1ピクセルにおける各RGB値を決定する場合、各対象ピクセルの輝度データに基づき、たとえば、各対象ピクセルの輝度の平均値を算出することで1種類の輝度データを生成していた。   However, in the conventional general image processing, when each RGB value in one pixel of the reduced image is determined from two adjacent target pixels selected from the original image as the reduction target, based on the luminance data of each target pixel, for example, One type of luminance data is generated by calculating the average value of the luminance of each target pixel.

そして、従来の画像処理では、算出した1種類の輝度データを、所定のRGBのマトリックス変換式へ代入することによって、縮小画像の1ピクセルにおける各RGB値を決定していた。   In the conventional image processing, each RGB value in one pixel of the reduced image is determined by substituting the calculated one type of luminance data into a predetermined RGB matrix conversion formula.

このため、従来の画像処理では、元画像から選択した各対象ピクセルの輝度に差異があった場合、画像の縮小によって輝度間の差異が平滑化されてしまうため、縮小画像では元画像における各対象ピクセルの輝度の差異を再現することができず画質の劣化を招くおそれがある。   For this reason, in the conventional image processing, if there is a difference in the brightness of each target pixel selected from the original image, the difference between the brightness is smoothed by the reduction of the image. The difference in luminance of the pixels cannot be reproduced, and there is a possibility that the image quality is deteriorated.

このことから、画像を縮小した場合に生じる画質劣化を極力抑えることによって縮小画像の画質を改善することができる画像処理装置および画像処理方法をいかにして実現するかが大きな課題となっている。   For this reason, how to realize an image processing apparatus and an image processing method capable of improving the image quality of a reduced image by minimizing image quality degradation that occurs when the image is reduced is a major issue.

本発明は、上述した従来技術による問題点を解消するためになされたものであって、画像を縮小した場合に生じる画質劣化を極力抑えることによって縮小画像の画質を改善することができる画像処理装置および画像処理方法を提供することを目的とする。   The present invention has been made to solve the above-described problems caused by the prior art, and is an image processing apparatus capable of improving the image quality of a reduced image by minimizing image quality degradation caused when the image is reduced. It is another object of the present invention to provide an image processing method.

上述した課題を解決し、目的を達成するために、本発明は、所定数のサブピクセルを含んだ画素からなる画像を処理する画像処理装置であって、縮小対象となる元画像から抽出した複数の対象画素と、縮小先となる縮小画像上で当該複数の対象画素に対応する1つの縮小画素とを対応付けることで、前記元画像から前記縮小画像を生成する縮小画像生成手段と、前記サブピクセルの配列方向と同方向に連続しており前記複数の対象画素を少なくとも含んだ画素群を前記元画像から選択し、当該画素群に含まれる画素間の相対位置および当該画素群に含まれる各画素の輝度データに基づき、前記所定数と同数の輝度データを生成する生成手段と、前記生成手段によって生成された各輝度データを、前記縮小画素における各サブピクセルの輝度データとして設定する輝度データ設定手段と、前記輝度データ設定手段によって前記輝度データが設定された縮小画像を所定の表示部へ表示させる表示制御手段とを備えた画像処理装置および同装置による画像処理方法を提供することとした。   In order to solve the above-described problems and achieve the object, the present invention is an image processing apparatus for processing an image including pixels including a predetermined number of subpixels, and a plurality of images extracted from an original image to be reduced A reduced image generating means for generating the reduced image from the original image by associating the target pixel with one reduced pixel corresponding to the plurality of target pixels on the reduced image to be reduced, and the subpixel A pixel group that is continuous in the same direction as the array direction and includes at least the plurality of target pixels is selected from the original image, and a relative position between pixels included in the pixel group and each pixel included in the pixel group are selected. Generation means for generating the same number of luminance data as the predetermined number, and each luminance data generated by the generation means is converted into luminance data of each sub-pixel in the reduced pixel. An image processing apparatus comprising: brightness data setting means for setting as a data; and display control means for displaying a reduced image in which the brightness data is set by the brightness data setting means on a predetermined display unit, and an image processing method using the same It was decided to provide.

本発明によれば、縮小対象として元画像から選択した複数の対象画素の輝度データに基づき、画素間の相対位置および当該画素群に含まれる各画素の輝度データに基づき、縮小画素に含まれるサブピクセル数と同数の輝度データを生成し、生成した各輝度データを、縮小画素における各サブピクセルの輝度データとして設定することにより、縮小対象となる元画像から抽出した複数の対象画素の輝度の違いを縮小画素中の各サブピクセルの輝度の違いによって再現することができる。したがって、画像を縮小した場合に生じる画質劣化を極力抑えることによって縮小画像の画質を改善することができるという効果を奏する。   According to the present invention, based on the luminance data of a plurality of target pixels selected from the original image as the reduction target, based on the relative position between the pixels and the luminance data of each pixel included in the pixel group, Create the same number of luminance data as the number of pixels, and set the generated luminance data as the luminance data of each sub-pixel in the reduced pixel, so that the difference in luminance of multiple target pixels extracted from the original image to be reduced Can be reproduced by the difference in luminance of each sub-pixel in the reduced pixel. Therefore, the image quality of the reduced image can be improved by minimizing image quality degradation that occurs when the image is reduced.

図1は、従来における画像処理手法の概要を示す図である。FIG. 1 is a diagram showing an outline of a conventional image processing method. 図2は、本発明に係る画像処理手法の概要を示す図である。FIG. 2 is a diagram showing an outline of the image processing method according to the present invention. 図3は、本実施例に係る車載装置の構成を示すブロック図である。FIG. 3 is a block diagram illustrating the configuration of the in-vehicle device according to the present embodiment. 図4は、本実施例に係る表示装置の構成を示すブロック図である。FIG. 4 is a block diagram illustrating the configuration of the display device according to the present embodiment. 図5は、本実施例に係るピクセル制御部の構成を示すブロック図である。FIG. 5 is a block diagram illustrating the configuration of the pixel control unit according to the present embodiment. 図6は、本実施例における輝度データ生成部による輝度データの生成手順その1を示す図である。FIG. 6 is a diagram showing a first generation procedure of luminance data by the luminance data generation unit in the present embodiment. 図7は、本実施例における輝度データ生成部による輝度データの生成手順その2を示す図である。FIG. 7 is a diagram showing a second generation procedure of luminance data by the luminance data generation unit in the present embodiment. 図8は、エッジ領域や前述の縦線に発生する色付きの発生原因および色付きの低減方法を示す図である。FIG. 8 is a diagram showing a cause of coloring that occurs in the edge region and the vertical line, and a method for reducing coloring. 図9は、縮小ピクセルとして選択したサブピクセルの配列順序による色付きの発生原因および色付きの低減方法を示す図である。FIG. 9 is a diagram illustrating a cause of coloring and a method for reducing coloring depending on the arrangement order of sub-pixels selected as reduced pixels. 図10は、サブピクセル制御部が備える前処理部の処理手順を示すフローチャートである。FIG. 10 is a flowchart illustrating a processing procedure of the preprocessing unit included in the subpixel control unit. 図11は、サブピクセル制御部が備える後処理部の処理手順を示すフローチャートである。FIG. 11 is a flowchart illustrating a processing procedure of a post-processing unit included in the sub-pixel control unit.

以下に添付図面を参照して、本発明に係る画像処理装置および画像処理方法の実施例を詳細に説明する。   Exemplary embodiments of an image processing apparatus and an image processing method according to the present invention will be described below in detail with reference to the accompanying drawings.

まず、実施例の詳細な説明に先立って、本発明に係る画像処理手法の概要について、従来における画像処理手法と対比して説明する。図1は、従来における画像処理手法の概要を示す図であり、図2は、本発明における画像処理手法の概要を示す図である。   First, prior to detailed description of the embodiments, an outline of an image processing method according to the present invention will be described in comparison with a conventional image processing method. FIG. 1 is a diagram showing an overview of a conventional image processing method, and FIG. 2 is a diagram showing an overview of an image processing method according to the present invention.

なお、以下では、VGA(800×480)サイズの元画像をEGA(400×240)サイズのディスプレイに縮小して表示する場合の画像処理手順を例に挙げて説明する。   In the following description, an image processing procedure when an original image of VGA (800 × 480) size is reduced and displayed on a display of EGA (400 × 240) size will be described as an example.

元画像や縮小画像を表示する表示装置は、R(赤)、G(緑)、B(青)という3原色の各単色に対応する3つのサブピクセルがRGBの順に配列されて構成された1画素(ピクセル)をマトリックス状に複数配列して構成されているとする。   A display device that displays an original image or a reduced image is configured by arranging three subpixels corresponding to each of the three primary colors R (red), G (green), and B (blue) in the order of RGB 1 It is assumed that a plurality of pixels (pixels) are arranged in a matrix.

以下、1ピクセルを構成する3つのサブピクセルが配列されている配列方向を水平方向とし、水平方向と直交する方向を垂直方向として説明する。   Hereinafter, the arrangement direction in which the three sub-pixels constituting one pixel are arranged will be described as a horizontal direction, and the direction orthogonal to the horizontal direction will be described as a vertical direction.

従来、VGA(800×480)サイズの元画像をEGA(400×240)サイズのディスプレイに縮小して表示する場合には、元画像を垂直方向および水平方向についてそれぞれ1/2倍に縮小する画像処理が行われている。   Conventionally, when a VGA (800 × 480) size original image is reduced and displayed on an EGA (400 × 240) size display, the original image is reduced by a factor of 1/2 in the vertical and horizontal directions. Processing is in progress.

そして、元画像を水平方向について1/2倍に縮小する場合、従来の画像処理手法では、図1(A)に示すように、縮小対象のピクセルとして水平方向で隣り合う2つの対象ピクセルP0、P1を元画像から選択する。ここでは、対象ピクセルP0の輝度を示す輝度データがY0、対象ピクセルP1の輝度を示す輝度データがY1であるものとする。   When the original image is reduced by a factor of 1/2 in the horizontal direction, in the conventional image processing method, as shown in FIG. 1A, two target pixels P0 adjacent in the horizontal direction as pixels to be reduced, P1 is selected from the original image. Here, it is assumed that the luminance data indicating the luminance of the target pixel P0 is Y0 and the luminance data indicating the luminance of the target pixel P1 is Y1.

続いて、従来の画像処理手法では、対象ピクセルP0、P1の各輝度データY0、Y1に基づき、たとえば、対象ピクセルP0、P1の輝度の平均値を算出することで1種類の輝度データY01を生成していた。   Subsequently, in the conventional image processing method, one type of luminance data Y01 is generated, for example, by calculating an average value of luminances of the target pixels P0 and P1 based on the luminance data Y0 and Y1 of the target pixels P0 and P1. Was.

その後、従来の画像処理手法では、算出した1種類の輝度データY01を縮小画像の1ピクセル(以下、「縮小ピクセルP01」という。)の輝度データとして設定していた。   Thereafter, in the conventional image processing method, the calculated one type of luminance data Y01 is set as luminance data of one pixel of the reduced image (hereinafter referred to as “reduced pixel P01”).

具体的には、元画像の各輝度データY0およびY1から算出した1種類の輝度データY01を、図1(B)に示すRGBのマトリックス変換式へ代入することによって、縮小ピクセルP01における各RGB値を決定していた。   Specifically, each RGB value in the reduced pixel P01 is substituted by substituting one type of luminance data Y01 calculated from the luminance data Y0 and Y1 of the original image into the RGB matrix conversion equation shown in FIG. Had decided.

このため、従来の画像処理手順では、2つの対象ピクセルP0、P1の輝度の間に違いがある場合であっても、縮小ピクセルP01を構成する各サブピクセルの輝度は全て同じ輝度となる。   For this reason, in the conventional image processing procedure, even if there is a difference between the luminances of the two target pixels P0 and P1, the luminances of the sub-pixels constituting the reduced pixel P01 are all the same.

したがって、従来の画像処理手法では、縮小前の2ピクセルP0とP1との間に輝度の差異がある場合であっても、かかる差異が縮小ピクセルP01には反映されない。したがって、縮小画像の画質劣化を招くおそれがある。   Therefore, in the conventional image processing method, even if there is a difference in luminance between the two pixels P0 and P1 before reduction, such difference is not reflected in the reduction pixel P01. Therefore, there is a risk of degrading the image quality of the reduced image.

そこで、本発明では、図2(A)に示すように、元画像から選択した複数(ここでは2つ)の対象ピクセルP0、P1の輝度データY0、Y1に基づき、対象ピクセルP0、P1の輝度の違いに応じて輝度の異なる3種類の輝度データYr、YgおよびYrを生成することとした。そして、生成した各輝度データ(Yr、YgおよびYr)を、縮小ピクセルP01を構成する3つのサブピクセルの各輝度データとしてそれぞれ設定することとした。   Therefore, in the present invention, as shown in FIG. 2A, the luminance of the target pixels P0 and P1 is based on the luminance data Y0 and Y1 of a plurality of (here two) target pixels P0 and P1 selected from the original image. According to the difference, three types of luminance data Yr, Yg, and Yr having different luminances are generated. Then, the generated luminance data (Yr, Yg, and Yr) are set as the luminance data of the three sub-pixels constituting the reduced pixel P01.

具体的には、本発明では、対象ピクセルP0、P1と同一水平直線上に配列された複数のピクセルの中から、少なくとも対象ピクセルP0、P1を含む複数のピクセルを選択し、選択した複数のピクセルの各配列位置および各輝度データに基づき、水平方向に並ぶ3つの仮想ピクセル(図2(A)中に破線で示すピクセル)の輝度値をそれぞれ決定する。   Specifically, in the present invention, a plurality of pixels including at least the target pixels P0 and P1 are selected from the plurality of pixels arranged on the same horizontal line as the target pixels P0 and P1, and the selected plurality of pixels is selected. The luminance values of three virtual pixels (pixels indicated by broken lines in FIG. 2A) arranged in the horizontal direction are determined based on each array position and each luminance data.

ここで、3つの仮想ピクセルのうちの真ん中に位置する仮想ピクセル(以下、「中ピクセル」という。)は、ピクセルの中心が対象ピクセルP0、P1間の中点(同図の「X0」参照)に存在すると仮定する。また、他の2つの仮想ピクセルは、対象ピクセルP0、P1間の中点から等距離に存在すると仮定する。   Here, the virtual pixel located in the middle of the three virtual pixels (hereinafter referred to as “middle pixel”) is the midpoint between the target pixels P0 and P1 at the center of the pixel (see “X0” in the figure). Assume that Further, it is assumed that the other two virtual pixels are equidistant from the midpoint between the target pixels P0 and P1.

そして、本発明では、対象ピクセル(たとえば、P0およびP1)と、各仮想ピクセルとの仮想的な位置関係に基づき、各仮想ピクセルの輝度データを決定する。   In the present invention, luminance data of each virtual pixel is determined based on a virtual positional relationship between the target pixel (for example, P0 and P1) and each virtual pixel.

なお、図2(A)では、説明を容易にするために、3つの仮想ピクセルを図示しているが、実際の画像処理においては3つの仮想ピクセルを生成せずに、後に詳述する所定の補間処理によって3つの仮想ピクセルにそれぞれ対応する輝度データを算出する。   In FIG. 2A, three virtual pixels are shown for ease of explanation. However, in actual image processing, three virtual pixels are not generated, and a predetermined number described in detail later is used. Luminance data corresponding to each of the three virtual pixels is calculated by interpolation processing.

つづいて、本発明では、中ピクセルの輝度を示す輝度データYg、中ピクセルよりも対象ピクセルP0側の仮想ピクセルの輝度データYr、中ピクセルよりも対象ピクセルP1側の仮想ピクセルの輝度データYbを、それぞれ算出する。   Subsequently, in the present invention, luminance data Yg indicating the luminance of the middle pixel, luminance data Yr of the virtual pixel closer to the target pixel P0 than the middle pixel, luminance data Yb of the virtual pixel closer to the target pixel P1 than the middle pixel, Calculate each.

そして、本発明では、図2(B)に示すように、RGBのマトリックス変換式に対し、先に算出した3種類の輝度データYr、Yg、Yrをそれぞれ代入することで、縮小ピクセルP01における各RGB値を決定する。   In the present invention, as shown in FIG. 2B, each of the three types of luminance data Yr, Yg, and Yr calculated above is substituted into the RGB matrix conversion formula, so that each pixel in the reduced pixel P01 Determine RGB values.

このため、本発明では、縮小ピクセルP01中でRに対応するサブピクセルの輝度に、対象ピクセルP0の輝度が強く反映され、Gに対応するサブピクセルの輝度に、対象ピクセルP0、P1の輝度が均等に反映され、Bに対応するサブピクセルの輝度に、対象ピクセルP1の輝度が強く反映されることになる。   Therefore, in the present invention, the luminance of the target pixel P0 is strongly reflected in the luminance of the subpixel corresponding to R in the reduced pixel P01, and the luminance of the target pixels P0 and P1 is reflected in the luminance of the subpixel corresponding to G. The luminance of the target pixel P1 is strongly reflected in the luminance of the sub-pixel corresponding to B.

このように、本発明では、対象ピクセルP0、P1の輝度の違いに応じて縮小ピクセルP01を構成する3つのサブピクセルの各輝度をそれぞれ個別に調整することができる。したがって、縮小ピクセルP01を構成する各サブピクセルの輝度の違いによって、対象ピクセルP0、P1の輝度の違いを再現することができる。   As described above, in the present invention, the luminances of the three sub-pixels constituting the reduced pixel P01 can be individually adjusted according to the luminance difference between the target pixels P0 and P1. Therefore, the difference in luminance between the target pixels P0 and P1 can be reproduced by the difference in luminance between the sub-pixels constituting the reduced pixel P01.

これにより、本発明によれば、微妙なグラデーションが含まれている元画像を縮小する場合に、従来の画像処理手順に比べ高い再現性で元画像の微妙なグラデーションを再現した縮小画像を生成することができる。したがって、画像縮小による画質の劣化を抑制して縮小画像の画質を改善することができる。   As a result, according to the present invention, when an original image that includes a subtle gradation is reduced, a reduced image that reproduces the subtle gradation of the original image with higher reproducibility than the conventional image processing procedure is generated. be able to. Therefore, it is possible to improve the image quality of the reduced image by suppressing the deterioration of the image quality due to the image reduction.

以下では、図2を用いて説明した画像処理手法を適用した画像処理装置についての実施例を詳細に説明する。なお、以下に示す実施例では、ナビゲーション機能やテレビ機能あるいはDVD(Digital Versatile Disc)機能などの複数の機能が一体化した車載装置に搭載される表示装置を画像処理装置の一例として用いて説明する。ただし、本発明にかかる画像処理装置は、画像を表示する様々な装置に対して適用することができる。   Below, the Example about the image processing apparatus to which the image processing method demonstrated using FIG. 2 is applied is described in detail. In the following embodiments, a display device mounted on an in-vehicle device in which a plurality of functions such as a navigation function, a TV function, or a DVD (Digital Versatile Disc) function are integrated will be described as an example of an image processing apparatus. . However, the image processing apparatus according to the present invention can be applied to various apparatuses that display images.

また、以下に示す実施例では、VGA(800×480)サイズの元画像を1/2に縮小してEGA(400×240)サイズのディスプレイに表示する場合について説明するが、元画像の縮小率はこれに限ったものではない。   In the embodiment described below, a case where an original image of VGA (800 × 480) size is reduced by half and displayed on a display of EGA (400 × 240) size will be described. Is not limited to this.

図3は、本実施例に係る車載装置の構成を示すブロック図である。なお、同図には、車載装置1の特徴を説明するために必要な構成要素のみを示しており、一般的な構成要素についての記載を省略している。   FIG. 3 is a block diagram illustrating the configuration of the in-vehicle device according to the present embodiment. In the figure, only components necessary for explaining the characteristics of the in-vehicle device 1 are shown, and descriptions of general components are omitted.

同図に示すように、本実施例に係る車載装置1は、ナビゲーションエンジン11と、TV(Television)チューナ12と、DVDデッキ13と、リアカメラ14と、オーディオマイコン15と、描画部16と、映像切替部17と、表示装置18とを備えている。   As shown in the figure, the in-vehicle device 1 according to the present embodiment includes a navigation engine 11, a TV (Television) tuner 12, a DVD deck 13, a rear camera 14, an audio microcomputer 15, a drawing unit 16, A video switching unit 17 and a display device 18 are provided.

ナビゲーションエンジン11は、車両の誘導や経路探索といった各種のカーナビゲーション機能を司るデバイスである。たとえば、ナビゲーションエンジン11は、地図情報や自車両の位置情報あるいはVICS(Vehicle Information and Communication System)情報等を用いてナビ画像を生成し、生成したナビ画像の画像データを描画部16へ出力する。TVチューナ12は、アンテナからアナログTV放送波やデジタルTV放送波を受信し、受信した放送波に含まれる画像データを映像切替部17へ出力する。   The navigation engine 11 is a device that manages various car navigation functions such as vehicle guidance and route search. For example, the navigation engine 11 generates a navigation image using map information, position information of the host vehicle, VICS (Vehicle Information and Communication System) information, and the like, and outputs image data of the generated navigation image to the drawing unit 16. The TV tuner 12 receives an analog TV broadcast wave or a digital TV broadcast wave from the antenna, and outputs image data included in the received broadcast wave to the video switching unit 17.

DVDデッキ13は、DVDの再生装置であり、DVDから読み取った画像データを映像切替部17へ出力する。リアカメラ14は、車両後方に設置されるカメラであり、車両後方を撮像した画像データを映像切替部17へ出力する。オーディオマイコン15は、ナビゲーションエンジン11からの指示に応じたガイド用の音声、TVチューナ12あるいはDVDデッキ13から入力される音声を出力させるデバイスである。特に、オーディオマイコン15は、ボリューム設定値の変更を受け付けた場合に、現在のボリューム設定値を示す画像(以下、「ボリューム表示画像」と記載する)を生成して、表示装置18へ出力する。   The DVD deck 13 is a DVD playback device and outputs image data read from the DVD to the video switching unit 17. The rear camera 14 is a camera installed behind the vehicle, and outputs image data obtained by imaging the rear of the vehicle to the video switching unit 17. The audio microcomputer 15 is a device that outputs a guide voice according to an instruction from the navigation engine 11 and a voice input from the TV tuner 12 or the DVD deck 13. In particular, when the change of the volume setting value is received, the audio microcomputer 15 generates an image indicating the current volume setting value (hereinafter referred to as “volume display image”) and outputs the image to the display device 18.

描画部16は、ナビゲーションエンジン11から入力されたナビ画像に対して、メニュー画面やボタンといったGUI(Graphical User Interface)画像を合成した合成画像(以下、「合成ナビ画像」と記載する)の画像データを表示装置18へ出力する描画デバイスである。映像切替部17は、表示装置18からの指示に応じて、TVチューナ12、DVDデッキ13あるいはリアカメラ14から入力される画像データの中から1つの画像データを選択し、選択した画像データを表示装置18へ出力するデバイスである。   The drawing unit 16 is image data of a composite image (hereinafter referred to as “combined navigation image”) obtained by combining a navigation image input from the navigation engine 11 with a GUI (Graphical User Interface) image such as a menu screen or a button. Is a drawing device that outputs to the display device 18. The video switching unit 17 selects one image data from the image data input from the TV tuner 12, the DVD deck 13, or the rear camera 14 according to an instruction from the display device 18, and displays the selected image data. It is a device that outputs to the device 18.

表示装置18は、描画部16から入力される合成ナビ画像の画像データ、映像切替部17から入力される画像データ、オーディオマイコン15から入力されるボリューム表示画像の画像データを表示する装置である。   The display device 18 is a device that displays the image data of the composite navigation image input from the drawing unit 16, the image data input from the video switching unit 17, and the image data of the volume display image input from the audio microcomputer 15.

次に、図3に示した表示装置18の構成について図4を用いて詳細に説明する。図4は、本実施例に係る表示装置18の構成を示すブロック図である。なお、同図には、表示装置18の特徴を説明するために必要な構成要素のみを示しており、一般的な構成要素についての記載を省略している。   Next, the configuration of the display device 18 shown in FIG. 3 will be described in detail with reference to FIG. FIG. 4 is a block diagram illustrating the configuration of the display device 18 according to the present embodiment. In the figure, only components necessary for explaining the characteristics of the display device 18 are shown, and descriptions of general components are omitted.

同図に示すように、表示装置18は、電源81と、TFT(Thin Film Transistor)パネル82と、マイコン処理部83と、LVDS(Low Voltage Differential Signaling)レシーバ84と、縮小画像生成部85と、階調処理部86と、ピクセル制御部87と、タイミング制御部88と、メモリ89とを備える。電源81は、TFTパネル82に対して電力を供給するデバイスである。TFTパネル82は、各種の画像を表示する表示デバイスである。   As shown in the figure, the display device 18 includes a power source 81, a TFT (Thin Film Transistor) panel 82, a microcomputer processing unit 83, an LVDS (Low Voltage Differential Signaling) receiver 84, a reduced image generation unit 85, A gradation processing unit 86, a pixel control unit 87, a timing control unit 88, and a memory 89 are provided. The power supply 81 is a device that supplies power to the TFT panel 82. The TFT panel 82 is a display device that displays various images.

マイコン処理部83は、表示装置18全体を制御する制御部である。また、マイコン処理部83は、ユーザからの操作等に応じて、描画部16から入力される画像データ、映像切替部17から入力される画像データ、オーディオマイコン15から入力される画像データの中から1つの画像データを選択して、LVDSレシーバ84へ入力させる。   The microcomputer processing unit 83 is a control unit that controls the entire display device 18. The microcomputer processing unit 83 also selects from among image data input from the drawing unit 16, image data input from the video switching unit 17, and image data input from the audio microcomputer 15 in accordance with a user operation or the like. One image data is selected and input to the LVDS receiver 84.

また、マイコン処理部83は、ユーザからの操作等に応じて、映像切替部17に対して映像切替を指示したりもする。なお、マイコン処理部83としては、たとえば、CPU(Central Processing Unit)や、CPUおよびメモリを搭載した集積回路等を用いることができる。   Further, the microcomputer processing unit 83 instructs the video switching unit 17 to switch the video in accordance with an operation from the user. As the microcomputer processing unit 83, for example, a CPU (Central Processing Unit), an integrated circuit equipped with a CPU and a memory, or the like can be used.

LVDSレシーバ84は、大容量の画像データを高速で伝送させることができる画像インタフェースである。かかるLVDSレシーバ84は、画像データが入力されると、入力された画像データを縮小画像生成部85へ出力する。   The LVDS receiver 84 is an image interface that can transmit a large amount of image data at high speed. When image data is input, the LVDS receiver 84 outputs the input image data to the reduced image generation unit 85.

縮小画像生成部85は、LVDSレシーバ84から入力された画像データのサイズがTFTパネル82の表示サイズよりも大きい場合に、かかる画像データ(元画像)のサイズをTFTパネル82の表示サイズに縮小する処理を行う処理部である。   The reduced image generation unit 85 reduces the size of the image data (original image) to the display size of the TFT panel 82 when the size of the image data input from the LVDS receiver 84 is larger than the display size of the TFT panel 82. A processing unit that performs processing.

たとえば、縮小画像生成部85は、VGA(800×480)サイズの元画像をEGA(400×240)サイズに縮小する場合、元画像をまず垂直方向で1/2倍にする縮小処理を行い、その後、垂直方向に1/2倍された元画像を水平方向で1/2倍にする縮小処理を行う。なお、ここでは図示を省略しているが、縮小画像生成部85は、ピクセル制御部87と接続されている。   For example, when reducing the VGA (800 × 480) size original image to the EGA (400 × 240) size, the reduced image generation unit 85 first performs a reduction process of halving the original image in the vertical direction, Thereafter, a reduction process is performed in which the original image that has been halved in the vertical direction is halved in the horizontal direction. Although not shown here, the reduced image generation unit 85 is connected to the pixel control unit 87.

そして、本実施例に係る縮小画像生成部85は、元画像を水平方向で1/2倍に縮小すする場合、後述するピクセル制御部87から入力されるピクセル制御データに基づいて縮小ピクセルP01を構成する3つのサブピクセルの各輝度を個別に調整することで画質劣化を抑制した縮小画像を生成し、生成した縮小画像をメモリ89へ記憶する。   When the reduced image generating unit 85 according to the present embodiment reduces the original image by a factor of 1/2 in the horizontal direction, the reduced image generation unit 85 determines the reduced pixel P01 based on pixel control data input from the pixel control unit 87 described later. A reduced image in which image quality deterioration is suppressed is generated by individually adjusting the luminances of the three sub-pixels constituting the image, and the generated reduced image is stored in the memory 89.

階調処理部86は、メモリ89に記憶された縮小画像を取り出し、取り出した縮小画像に対して階調変換を行う処理部である。具体的には、階調処理部86は、画像データの階調情報を8ビットから6ビットへ変換する。   The gradation processing unit 86 is a processing unit that extracts the reduced image stored in the memory 89 and performs gradation conversion on the extracted reduced image. Specifically, the gradation processing unit 86 converts the gradation information of the image data from 8 bits to 6 bits.

ピクセル制御部87は、縮小画像に対してピクセル制御を行う処理部である。たとえば、ピクセル制御部87は、縮小画像の各ピクセルについてR、G、Bの配分を決定する。   The pixel control unit 87 is a processing unit that performs pixel control on the reduced image. For example, the pixel control unit 87 determines the distribution of R, G, and B for each pixel of the reduced image.

また、ピクセル制御部87は、縮小画像を表示させる場合に、縮小ピクセルP01として使用する3つのサブピクセルの組合せをRGB、GBR、BRGの中から選択することにより、縮小画像の水平方向における見かけ上の解像度を3倍にするサブピクセルレンダリングを行う。   In addition, when displaying the reduced image, the pixel control unit 87 selects the combination of three subpixels to be used as the reduced pixel P01 from among RGB, GBR, and BRG, so that the reduced image appears in the horizontal direction. Sub-pixel rendering is performed to triple the resolution of.

特に、本実施例におけるピクセル制御部87は、元画像から生成される縮小ピクセルP01を構成する3つのサブピクセルの輝度をそれぞれ個別に調整することで、縮小画像の画質劣化を抑制するピクセル制御を行う。なお、ピクセル制御部87の具体的な構成および動作については、図5〜11を用いて後述する。   In particular, the pixel control unit 87 in the present embodiment performs pixel control that suppresses deterioration of the image quality of the reduced image by individually adjusting the luminances of the three sub-pixels constituting the reduced pixel P01 generated from the original image. Do. A specific configuration and operation of the pixel control unit 87 will be described later with reference to FIGS.

タイミング制御部88は、縮小画像生成部85によって生成された縮小画像のフレーム周波数を決定する処理部である。そして、タイミング制御部88は、決定したフレーム周波数を用いて各縮小画像をTFTパネル82へ順次表示させる。本実施例では、タイミング制御部88がサブピクセル単位で輝度が調整された縮小画像を所定の表示手段であるTFTパネル82へ表示させる表示制御手段として機能する。   The timing control unit 88 is a processing unit that determines the frame frequency of the reduced image generated by the reduced image generation unit 85. Then, the timing control unit 88 sequentially displays each reduced image on the TFT panel 82 using the determined frame frequency. In this embodiment, the timing control unit 88 functions as a display control unit that displays a reduced image whose luminance is adjusted in units of subpixels on the TFT panel 82 as a predetermined display unit.

メモリ89は、縮小画像生成部85によって生成された縮小画像を記憶する記憶デバイスである。なお、メモリ89としては、たとえば、SDRAM(Synchronous Dynamic Random Access Memory)といった揮発性記憶素子を用いることができる。   The memory 89 is a storage device that stores the reduced image generated by the reduced image generation unit 85. As the memory 89, for example, a volatile memory element such as SDRAM (Synchronous Dynamic Random Access Memory) can be used.

次に、本実施例に係るピクセル制御部87の構成について図5を用いて具体的に説明する。図5は、本実施例に係るピクセル制御部87の構成を示すブロック図である。なお、同図には、ピクセル制御部87の特徴を説明するために必要な構成要素のみを示しており、一般的な構成要素についての記載を省略している。   Next, the configuration of the pixel control unit 87 according to the present embodiment will be specifically described with reference to FIG. FIG. 5 is a block diagram illustrating the configuration of the pixel control unit 87 according to the present embodiment. In the figure, only components necessary for explaining the features of the pixel control unit 87 are shown, and descriptions of general components are omitted.

図5に示すように、ピクセル制御部87は、前処理部71と後処理部72とを備えている。前処理部71は、縮小画像生成部85によって生成された縮小ピクセルP01を構成する3つのサブピクセルの輝度をサブピクセル単位で個別に調整するピクセル制御を行う処理部である。   As shown in FIG. 5, the pixel control unit 87 includes a preprocessing unit 71 and a postprocessing unit 72. The pre-processing unit 71 is a processing unit that performs pixel control that individually adjusts the luminance of the three sub-pixels included in the reduced pixel P01 generated by the reduced image generation unit 85 in units of sub-pixels.

そして、前処理部71は、輝度データ生成部71aと輝度データ設定部71bとを備えている。輝度データ生成部71aは、縮小画像生成部85から垂直方向(縦)について1/2倍された元画像の画像データを取得し、取得した画像データに基づいて縮小ピクセルP01における各サブピクセルの輝度データを生成する処理部である。   The preprocessing unit 71 includes a luminance data generation unit 71a and a luminance data setting unit 71b. The luminance data generation unit 71a acquires image data of the original image that has been halved in the vertical direction (vertical) from the reduced image generation unit 85, and the luminance of each subpixel in the reduced pixel P01 based on the acquired image data A processing unit that generates data.

また、輝度データ設定部71bは、輝度データ生成部71aによって生成されたサブピクセル毎の輝度データをピクセル制御データとして縮小画像生成部85へ出力することによって、縮小ピクセルP01における各サブピクセルの輝度を設定する処理部である。   Also, the luminance data setting unit 71b outputs the luminance data for each subpixel generated by the luminance data generation unit 71a as pixel control data to the reduced image generation unit 85, thereby setting the luminance of each subpixel in the reduced pixel P01. A processing unit to be set.

ここで、図6および図7を参照して、輝度データ生成部71aによる輝度データの生成手順その1およびその2について説明する。図6および図7は、本実施例における輝度データ生成部71aによる輝度データの生成手順その1およびその2を示す図である。   Here, with reference to FIG. 6 and FIG. 7, the luminance data generation procedure No. 1 and No. 2 by the luminance data generation unit 71a will be described. FIG. 6 and FIG. 7 are diagrams showing a luminance data generation procedure No. 1 and No. 2 by the luminance data generation unit 71a in the present embodiment.

ここでは、元画像を水平方向について1/2倍に縮小する場合を例に挙げて説明する。図6に示すように、輝度データ生成部71aは、元画像の画像データを取得すると、元画像の水平1ラインを構成するピクセル列から縮小対象として、水平方向に隣り合う2つの対象ピクセルP0、P1を選択する。   Here, a case where the original image is reduced by a factor of 1/2 in the horizontal direction will be described as an example. As illustrated in FIG. 6, when the luminance data generation unit 71a acquires the image data of the original image, the two target pixels P0 that are adjacent in the horizontal direction as a reduction target from the pixel column that forms one horizontal line of the original image, Select P1.

そして、輝度データ生成部71aは、対象ピクセルP0、P1と同一の水平ラインに配列されている複数のピクセルの中で少なくとも対象ピクセルP0、P1を含む所定数のピクセルの輝度データを用いて、対象ピクセルP0、P1から生成する縮小ピクセルP01を構成する3つのサブピクセルの各輝度データを生成する。   The luminance data generation unit 71a uses the luminance data of a predetermined number of pixels including at least the target pixels P0 and P1 among a plurality of pixels arranged on the same horizontal line as the target pixels P0 and P1, Luminance data for each of the three sub-pixels constituting the reduced pixel P01 generated from the pixels P0 and P1 is generated.

具体的には、輝度データ生成部71aは、P−3〜P2までの6ピクセルの各輝度データを用いて、ピクセルP−1および対象ピクセルP0の境界線である垂直線X1上に中心をもつ仮想サブピクセルを生成する。   Specifically, the luminance data generation unit 71a has a center on a vertical line X1 that is a boundary line between the pixel P-1 and the target pixel P0 using the luminance data of 6 pixels from P-3 to P2. Generate virtual subpixels.

また、輝度データ生成部71aは、P−2〜P3までの6ピクセルの各輝度データを用いて、対象ピクセルP0およびP1の境界線である垂直線X0上に中心をもつ仮想サブピクセルを生成する。   In addition, the luminance data generation unit 71a generates a virtual subpixel having a center on the vertical line X0 that is a boundary line between the target pixels P0 and P1, using the luminance data of 6 pixels from P-2 to P3. .

また、輝度データ生成部71aは、P−1〜P4までの6ピクセルの各輝度データを用いて、対象ピクセルP1およびピクセルP2の境界線である垂直線X2上に中心をもつ仮想サブピクセルを生成する。ここで、3つの仮想サブピクセルは、水平方向に等距離間隔で存在すると仮定する。   In addition, the luminance data generation unit 71a generates a virtual sub-pixel having a center on the vertical line X2 that is a boundary line between the target pixel P1 and the pixel P2, using the luminance data of 6 pixels from P-1 to P4. To do. Here, it is assumed that the three virtual sub-pixels are present at equidistant intervals in the horizontal direction.

そして、輝度データ生成部71aは、垂直線X1からP−3〜P2までの6ピクセルの中でRに対応する各サブピクセルまでの距離と、P−3〜P2までの6ピクセルの各輝度データとを用いて、垂直線X1上に中心をもつ仮想ピクセルの輝度データYrを算出する。   Then, the luminance data generation unit 71a includes the distances to the sub-pixels corresponding to R among the six pixels from the vertical line X1 to P-3 to P2, and the luminance data of the six pixels from P-3 to P2. Are used to calculate the luminance data Yr of the virtual pixel centered on the vertical line X1.

また、輝度データ生成部71aは、垂直線X0からP−2〜P3までの6ピクセルの中でGに対応する各サブピクセルまでの距離と、P−2〜P3までの6ピクセルの各輝度データとを用いて、垂直線X0上に中心をもつ仮想ピクセルの輝度データYgを算出する。   Also, the luminance data generation unit 71a includes the distance to each sub-pixel corresponding to G among the six pixels from the vertical line X0 to P-2 to P3, and the luminance data of the six pixels from P-2 to P3. Are used to calculate the luminance data Yg of the virtual pixel centered on the vertical line X0.

また、輝度データ生成部71aは、垂直線X2からP−1〜P4までの6ピクセルの中でBに対応する各サブピクセルまでの距離と、P−1〜P4までの6ピクセルの各輝度データとを用いて、垂直線X2上に中心をもつ仮想ピクセルの輝度データYbを算出する。   In addition, the luminance data generation unit 71a includes the distance to each subpixel corresponding to B among the six pixels from the vertical line X2 to P-1 to P4, and the luminance data of the six pixels from P-1 to P4. Are used to calculate the luminance data Yb of the virtual pixel centered on the vertical line X2.

そして、輝度データ設定部71bは、輝度データ生成部71aによって算出された3種類の輝度データYr、Yg、Ybをピクセル制御データとして縮小画像生成部85へ出力することにより、縮小ピクセルP01の構成要素である各サブピクセルの輝度データをサブピクセル単位で設定する。   Then, the luminance data setting unit 71b outputs the three types of luminance data Yr, Yg, and Yb calculated by the luminance data generation unit 71a to the reduced image generation unit 85 as pixel control data, thereby constituting the components of the reduced pixel P01. The luminance data of each subpixel is set in subpixel units.

これにより、縮小ピクセルP01中でRに対応するサブピクセルの輝度データとして輝度データYrが設定され、縮小ピクセルP01中でGに対応するサブピクセルの輝度データとして輝度データYgが設定され、縮小ピクセルP01中でBに対応するサブピクセルの輝度データとして輝度データYbが設定される。   Thereby, the luminance data Yr is set as the luminance data of the sub-pixel corresponding to R in the reduced pixel P01, and the luminance data Yg is set as the luminance data of the sub-pixel corresponding to G in the reduced pixel P01. Among them, luminance data Yb is set as the luminance data of the sub-pixel corresponding to B.

なお、本実施例では、対象ピクセルP0、P1を含む6ピクセルの各輝度データを用いて、3種類の輝度データYr、Yg、Ybを算出する場合を例に挙げて説明したが、少なくとも対象ピクセルP0、P1を含む任意の数のピクセルの輝度データを用いて、3種類の輝度データYr、Yg、Ybを算出してもよい。   In the present embodiment, the case where three types of luminance data Yr, Yg, and Yb are calculated using the luminance data of 6 pixels including the target pixels P0 and P1 has been described as an example. Three types of luminance data Yr, Yg, Yb may be calculated using luminance data of an arbitrary number of pixels including P0 and P1.

また、本実施例では、3種類の輝度データYr、Yg、Ybを算出するために、選択する6ピクセル群を8ピクセルP−3〜P4の中で1ピクセルずつスライドさせて選択する場合を例に挙げたが、選択する6ピクセル群のスライド量は1ピクセルずつに限定するものではない。   Further, in the present embodiment, in order to calculate three types of luminance data Yr, Yg, Yb, a case where the selected 6 pixel group is selected by sliding one pixel at a time among the 8 pixels P-3 to P4 is exemplified. As mentioned above, the slide amount of the 6-pixel group to be selected is not limited to one pixel at a time.

また、本実施例では、下記のLanczos3関数を用いた補間処理によって、縮小ピクセルP01へ設定する3種類の輝度データYr、Yg、Ybを算出する。
Lanczos3(X)=sinc(πX)×sinc(πX/3),−3<X<3
=0,X≧3,X≦−3
In this embodiment, three types of luminance data Yr, Yg, and Yb to be set for the reduced pixel P01 are calculated by an interpolation process using the following Lanczos3 function.
Lanczos3 (X) = sinc (πX) × sinc (πX / 3), −3 <X <3
= 0, X ≧ 3, X ≦ −3

ここで、図7を参照して、Lanczos3関数を用いた補間処理によって、縮小ピクセルP01へ設定する3種類の輝度データYr、Yg、Ybを算出する手順について説明する。上記Lanczos3関数は、図7(A)に示すように、Xが0の場合にLanczos3(X)の値が最大値をとり、Xが3に近付くにつれてLanczos3(X)の値が0に収束する性質を持っている。   Here, with reference to FIG. 7, a procedure for calculating three types of luminance data Yr, Yg, and Yb to be set for the reduced pixel P01 by an interpolation process using the Lanczos3 function will be described. As shown in FIG. 7A, the Lanczos3 function takes the maximum value of Lanczos3 (X) when X is 0, and the value of Lanczos3 (X) converges to 0 as X approaches 3. Have nature.

本実施例では、かかるLanczos3関数の性質を利用して、縮小ピクセルP01の各サブピクセルへ設定する3種類の輝度データYr、Yg、Yb、すなわち、3つの仮想ピクセルの輝度データを算出している。   In the present embodiment, by using the property of the Lanczos3 function, three types of luminance data Yr, Yg, Yb to be set for each subpixel of the reduced pixel P01, that is, luminance data of three virtual pixels are calculated. .

具体的には、図7の(B)に示すように、図6に示す垂直線X1上に中心をもつ仮想ピクセルの輝度データYrを算出する場合、横軸Xの原点(Xが0となる点)を垂直線X1と一致させる。そして、縦軸は、輝度データYrの算出に用いるピクセルの輝度に乗ずる係数とする。   Specifically, as shown in FIG. 7B, when calculating the luminance data Yr of the virtual pixel centered on the vertical line X1 shown in FIG. 6, the origin of the horizontal axis X (X is 0). The point) is aligned with the vertical line X1. The vertical axis is a coefficient by which the luminance of the pixel used for calculation of the luminance data Yr is multiplied.

ここで、Xの値は、各対象ピクセルの幅で正規化した値とする。すなわち、Xが1あるいは−1の点は、垂直線X1からの距離が、かかる幅と一致する点である。つまり、図7(B)に示すグラフ上の各点は、ピクセルP−3〜P2の中でRに対応する各サブピクセルに対応している。たとえば、図7(B)に示すグラフ上で垂直線X1までの距離が最も近い点は、対象ピクセルP0中でRに対応するサブピクセルに対応している。   Here, the value of X is a value normalized by the width of each target pixel. That is, a point where X is 1 or -1 is a point where the distance from the vertical line X1 matches the width. That is, each point on the graph shown in FIG. 7B corresponds to each subpixel corresponding to R among the pixels P-3 to P2. For example, the point having the shortest distance to the vertical line X1 on the graph shown in FIG. 7B corresponds to the sub-pixel corresponding to R in the target pixel P0.

そして、輝度データ生成部71aは、ピクセルP−3〜P2までの6ピクセルの各輝度と、図7(B)に示すグラフ上の各点の縦軸に対応する係数とを用いて輝度データYrを算出する。   Then, the luminance data generation unit 71a uses the luminances of the six pixels from the pixels P-3 to P2 and the coefficient corresponding to the vertical axis of each point on the graph shown in FIG. Is calculated.

つまり、輝度データ生成部71aは、ピクセルP−3〜P2の各輝度に対し、各ピクセルP−3〜P2の中でRに対応する各サブピクセルから垂直線X1までの距離に応じた係数を乗じ、各乗算結果を加算することで輝度データYrを算出する。   That is, the luminance data generation unit 71a calculates a coefficient corresponding to the distance from each subpixel corresponding to R to the vertical line X1 in each pixel P-3 to P2, for each luminance of the pixels P-3 to P2. The luminance data Yr is calculated by multiplying and adding each multiplication result.

すなわち、本実施例に係る輝度データ生成部71aは、輝度データYrを算出する場合に、参照する各ピクセルの位置を考慮しているのではなく、参照する各ピクセルの中でRに対応する各サブピクセルの位置を考慮している。したがって、輝度データYrは、ピクセルP−3〜P2の中でRに対応する各サブピクセルの位置における輝度変化を反映した輝度データとなる。   That is, the luminance data generation unit 71a according to the present embodiment does not consider the position of each pixel to be referred to when calculating the luminance data Yr, but each R corresponding to R in each pixel to be referred to. Considers the position of sub-pixels. Accordingly, the luminance data Yr is luminance data reflecting the luminance change at the position of each sub-pixel corresponding to R among the pixels P-3 to P2.

また、図7の(C)に示すように、図6に示す垂直線X0上に中心をもつ仮想ピクセルの輝度データYgを算出する場合、横軸Xの原点(Xが0となる点)を垂直線X0と一致させる。そして、縦軸は、輝度データYgの算出に用いるピクセルの輝度に乗ずる係数とする。   Further, as shown in FIG. 7C, when calculating the luminance data Yg of the virtual pixel centered on the vertical line X0 shown in FIG. 6, the origin of the horizontal axis X (the point where X becomes 0) is set. Match with the vertical line X0. The vertical axis is a coefficient by which the luminance of the pixel used for calculation of the luminance data Yg is multiplied.

ここで、Xの値は、各対象ピクセルの幅で正規化した値とする。すなわち、Xが1あるいは−1の点は、垂直線X0からの距離が、かかる幅と一致する点である。つまり、図7(C)に示すグラフ上の各点は、ピクセルP−2〜P3の中でGに対応する各サブピクセルに対応している。たとえば、図7(C)に示すグラフ上で垂直線X0までの距離が最も近い2点のうち、X<0の領域に存在する点は、対象ピクセルP0中でGに対応するサブピクセルに対応し、X>0の領域に存在する点は、対象ピクセルP1中でGに対応するサブピクセルに対応している。   Here, the value of X is a value normalized by the width of each target pixel. That is, a point where X is 1 or -1 is a point where the distance from the vertical line X0 matches the width. That is, each point on the graph shown in FIG. 7C corresponds to each subpixel corresponding to G among the pixels P-2 to P3. For example, among the two points closest to the vertical line X0 on the graph shown in FIG. 7C, a point existing in the region of X <0 corresponds to a subpixel corresponding to G in the target pixel P0. The points existing in the region of X> 0 correspond to the subpixels corresponding to G in the target pixel P1.

そして、輝度データ生成部71aは、ピクセルP−2〜P3までの6ピクセルの各輝度と、図7(C)に示すグラフ上の各点の縦軸に対応する係数とを用いて輝度データYgを算出する。   Then, the luminance data generation unit 71a uses the luminance of each of the six pixels from the pixels P-2 to P3 and the coefficient corresponding to the vertical axis of each point on the graph shown in FIG. Is calculated.

つまり、輝度データ生成部71aは、ピクセルP−2〜P3の各輝度に対し、各ピクセルP−2〜P3の中でGに対応する各サブピクセルから垂直線X0までの距離に応じた係数を乗じ、各乗算結果を加算することで輝度データYgを算出する。   That is, the luminance data generation unit 71a calculates a coefficient corresponding to the distance from each subpixel corresponding to G to the vertical line X0 in each pixel P-2 to P3 for each luminance of the pixels P-2 to P3. The luminance data Yg is calculated by multiplying and adding each multiplication result.

すなわち、本実施例に係る輝度データ生成部71aは、輝度データYgを算出する場合に、参照する各ピクセルの位置を考慮しているのではなく、参照する各ピクセルの中でGに対応する各サブピクセルの位置を考慮している。したがって、輝度データYgは、ピクセルP−2〜P3の中でRに対応する各サブピクセルの位置における輝度変化を反映した輝度データとなる。   That is, the luminance data generation unit 71a according to the present embodiment does not consider the position of each pixel to be referred to when calculating the luminance data Yg, but each G corresponding to G in each pixel to be referred to. Considers the position of sub-pixels. Accordingly, the luminance data Yg is luminance data reflecting the luminance change at the position of each sub-pixel corresponding to R among the pixels P-2 to P3.

また、図7の(D)に示すように、図6に示す垂直線X2上に中心をもつ仮想ピクセルの輝度データYbを算出する場合、横軸Xの原点(Xが0となる点)を垂直線X2と一致させる。そして、縦軸は、輝度データYbの算出に用いるピクセルの輝度に乗ずる係数とする。   Further, as shown in FIG. 7D, when calculating the luminance data Yb of the virtual pixel centered on the vertical line X2 shown in FIG. 6, the origin of the horizontal axis X (the point where X becomes 0) is set. Match with the vertical line X2. The vertical axis is a coefficient by which the luminance of the pixel used for calculation of the luminance data Yb is multiplied.

ここで、Xの値は、各対象ピクセルの幅で正規化した値とする。すなわち、Xが1あるいは−1の点は、垂直線X2からの距離が、かかる幅と一致する点である。つまり、図7(D)に示すグラフ上の各点は、ピクセルP−1〜P4の中でBに対応する各サブピクセルに対応している。たとえば、図7(D)に示すグラフ上で垂直線X2までの距離が最も近い点は、対象ピクセルP1中でBに対応するサブピクセルに対応している。   Here, the value of X is a value normalized by the width of each target pixel. That is, a point where X is 1 or -1 is a point where the distance from the vertical line X2 matches the width. That is, each point on the graph shown in FIG. 7D corresponds to each subpixel corresponding to B among the pixels P-1 to P4. For example, the point having the shortest distance to the vertical line X2 on the graph shown in FIG. 7D corresponds to the sub-pixel corresponding to B in the target pixel P1.

そして、輝度データ生成部71aは、ピクセルP−1〜P4までの6ピクセルの各輝度と、図7(D)に示すグラフ上の各点の縦軸に対応する係数とを用いて輝度データYbを算出する。   Then, the luminance data generation unit 71a uses the luminance of each of the six pixels from pixels P-1 to P4 and the coefficient corresponding to the vertical axis of each point on the graph shown in FIG. Is calculated.

つまり、輝度データ生成部71aは、ピクセルP−1〜P4の各輝度に対し、各ピクセルP−1〜P4の中でBに対応する各サブピクセルから垂直線X2までの距離に応じた係数を乗じ、各乗算結果を加算することで輝度データYbを算出する。   That is, the luminance data generation unit 71a calculates a coefficient corresponding to the distance from each subpixel corresponding to B to the vertical line X2 among the pixels P-1 to P4 for each luminance of the pixels P-1 to P4. The luminance data Yb is calculated by multiplying and adding each multiplication result.

すなわち、本実施例に係る輝度データ生成部71aは、輝度データYbを算出する場合に、参照する各ピクセルの位置を考慮しているのではなく、参照する各ピクセルの中でBに対応する各サブピクセルの位置を考慮している。したがって、輝度データYbは、ピクセルP−1〜P4の中でBに対応する各サブピクセルの位置における輝度変化を反映した輝度データとなる。   That is, the luminance data generation unit 71a according to the present embodiment does not consider the position of each pixel to be referred to when calculating the luminance data Yb, but each pixel corresponding to B in each pixel to be referred to. Considers the position of sub-pixels. Accordingly, the luminance data Yb is luminance data reflecting the luminance change at the position of each sub-pixel corresponding to B among the pixels P-1 to P4.

図5の説明に戻り、後処理部72について説明する。後処理部72は、縮小ピクセルP01を構成する3つのサブピクセルの輝度をサブピクセル単位で個別に調整することが原因で、縮小画像中に色付きとよばれる画質劣化が発生する可能性がある場合に、色付きの発生を低減するピクセル制御を行う処理部である。   Returning to the description of FIG. 5, the post-processing unit 72 will be described. When the post-processing unit 72 adjusts the luminance of the three sub-pixels constituting the reduced pixel P01 individually in units of sub-pixels, there is a possibility that image quality deterioration called coloring may occur in the reduced image. In addition, the processing unit performs pixel control for reducing occurrence of coloring.

そして、後処理部72は、赤色低減部72aと黄色低減部72bとエッジ補正部72cと縦線補正部72dとを備えている。   The post-processing unit 72 includes a red reduction unit 72a, a yellow reduction unit 72b, an edge correction unit 72c, and a vertical line correction unit 72d.

赤色低減部72aは、縮小画像で本来白が表示される位置に赤色の色付きが発生する恐れのあるピクセルを検出し、検出したピクセルを構成する所定のサブピクセルの輝度を個別に調整することで赤色の発色を低減し白として表示させる処理部である。   The red reduction unit 72a detects pixels that may be colored red at a position where white is originally displayed in the reduced image, and individually adjusts the luminance of predetermined sub-pixels constituting the detected pixels. It is a processing unit that reduces red color and displays it as white.

黄色低減部72bは、縮小画像で本来白が表示される位置に黄色の色付きが発生する恐れのあるピクセルを検出し、検出したピクセルを構成する所定のサブピクセルの輝度を個別に調整することで黄色の発色を低減し白として表示させる処理部である。   The yellow reduction unit 72b detects pixels that may be colored yellow at a position where white is originally displayed in the reduced image, and individually adjusts the luminance of predetermined sub-pixels constituting the detected pixels. It is a processing unit that reduces yellow color development and displays it as white.

エッジ補正部72cは、縮小画像で明暗の境界に存在する2ピクセルをエッジ領域として検出し、検出したエッジ領域における輝度の低い側のピクセルを構成するサブピクセルの輝度を調整するためのピクセル制御データを縮小画像生成部85へ出力する処理部である。つまり、エッジ補正部72cは、エッジ領域に発生する色付きに起因したコントラストの低下を抑制する処理部である。   The edge correction unit 72c detects two pixels existing at a light / dark boundary in the reduced image as edge regions, and pixel control data for adjusting the luminance of the sub-pixels constituting the lower luminance pixels in the detected edge region Is a processing unit that outputs to the reduced image generation unit 85. In other words, the edge correction unit 72c is a processing unit that suppresses a decrease in contrast due to coloring that occurs in the edge region.

縦線補正部72dは、縮小画像で暗い色合いの背景画像中に存在する明るい色合いの細い垂直線(縦線)を検出し、検出した縦線を構成するピクセルの各サブピクセルの輝度をサブピクセル単位で調整するためのピクセル制御データを縮小画像生成部85へ出力する処理部である。つまり、縦線補正部72dは、縦線に発生する色付きを低減する処理部である。   The vertical line correction unit 72d detects a thin vertical line (vertical line) with a light shade that exists in a background image with a dark shade in the reduced image, and sets the luminance of each subpixel of the pixels constituting the detected vertical line as a subpixel. This is a processing unit that outputs pixel control data for adjustment in units to the reduced image generation unit 85. That is, the vertical line correction unit 72d is a processing unit that reduces coloring that occurs in the vertical line.

ここで、図8および図9を参照して、色付きの発生原因および色付きの低減方法について説明する。図8は、エッジ領域や前述の縦線に発生する色付きの発生原因および色付きの低減方法を示す図であり、図9は、縮小ピクセルP01として選択したサブピクセルの配列順序による色付きの発生原因および色付きの低減方法を示す図である。   Here, with reference to FIG. 8 and FIG. 9, a cause of coloring and a method for reducing coloring will be described. FIG. 8 is a diagram showing a cause of coloring that occurs in the edge region and the vertical line and a method for reducing coloring, and FIG. 9 shows a cause of coloring caused by the arrangement order of the subpixels selected as the reduced pixels P01. It is a figure which shows the reduction method with coloring.

ここでは、まず、図8を参照して、エッジ領域や前述の縦線に発生する色付きの発生原因および色付きの低減方法について説明した後、図9を参照して、縮小ピクセルP01として選択したサブピクセルの配列順序による色付きの発生原因および色付きの低減方法について説明する。   Here, referring to FIG. 8, first, the cause of the coloring that occurs in the edge region and the vertical line and the method for reducing the coloring will be described, and then the sub pixel selected as the reduced pixel P01 will be described with reference to FIG. The cause of coloring and the method for reducing coloring according to the pixel arrangement order will be described.

図8(A)に示すように、たとえば、黒の背景中に1ピクセルで白を表示させる縮小画像の場合、白を表示させるピクセルの各サブピクセルに対し、サブピクセル単位の輝度調整を行わなければ、白を表示させるRGBに対応したサブピクセルの輝度は全て最大となる。   As shown in FIG. 8A, for example, in the case of a reduced image in which white is displayed with one pixel on a black background, luminance adjustment in units of subpixels must be performed for each subpixel of the pixel displaying white. For example, the luminance of all subpixels corresponding to RGB for displaying white is maximized.

一方、白に対応するピクセルの背景を構成する黒に対応するピクセルの輝度を考慮して、白に対応するピクセルの輝度をサブピクセル単位で調整した場合、図8(B)に示すように、背景に近い側のサブピクセルの輝度が低下することとなる。   On the other hand, in consideration of the luminance of the pixel corresponding to black constituting the background of the pixel corresponding to white, when the luminance of the pixel corresponding to white is adjusted in sub-pixel units, as shown in FIG. The luminance of the subpixel on the side close to the background will decrease.

図8(B)に示す例では、RGBのうち背景に近いBに対応するサブピクセルおよびGに対応するサブピクセルの輝度がRに対応するサブピクセルに対して低くなっていることがわかる。   In the example shown in FIG. 8B, it can be seen that the luminance of the sub-pixel corresponding to B close to the background and the sub-pixel corresponding to G in RGB is lower than the sub-pixel corresponding to R.

このように、Rに比べてGおよびBに対応するサブピクセルの輝度が低下すると、縮小画像では、本来白であるべきピクセルが人の目には赤みがかかって見える色付きが発生する。このような色付きは、たとえば、黒の背景の中で白を表示する1つのピクセルが1または2個垂直方向に連続して出現する場合、人間の目には色付きとして認識されない。しかし、白を表示する1ピクセルが多数個、垂直方向に連続して出現して縦線を形成する場合には、人の目に色付きとして認識される。   As described above, when the luminance of the sub-pixels corresponding to G and B is lower than that of R, in the reduced image, coloring that appears to be reddish to the human eye for pixels that should originally be white occurs. Such coloring is not recognized as coloring by human eyes when, for example, one or two pixels displaying white in a black background appear continuously in the vertical direction. However, when a large number of pixels that display white appear continuously in the vertical direction to form vertical lines, they are recognized as colored by human eyes.

このため、本実施例の縦線補正部72dは、縮小画像中で所定の下限値を下回る輝度の背景画像中に、所定の上限値を上回る輝度のピクセルが所定数(たとえば3ピクセル)以上垂直方向に連続して出現する縦線を検出する。   For this reason, the vertical line correction unit 72d of the present embodiment has a predetermined number (for example, 3 pixels) or more of pixels having a luminance higher than the predetermined upper limit in the background image of the luminance lower than the predetermined lower limit in the reduced image. Detect vertical lines that appear continuously in the direction.

そして、縦線補正部72dは、検出した縦線を構成するピクセルの構成要素である3つのサブピクセルの中で、輝度が最大のサブピクセルの輝度へ近づけるように他のサブピクセルの輝度を上昇させる処理を行う。   Then, the vertical line correction unit 72d increases the brightness of the other sub-pixels so as to approach the brightness of the sub-pixel having the maximum brightness among the three sub-pixels that are constituent elements of the pixels constituting the detected vertical line. To perform the process.

具体的には、図8(C)に示すように、縦線補正部72dは、縦線を構成するピクセルの構成要素である3つのサブピクセルのうち、輝度が最大のRに対応するサブピクセルの輝度へ近づけるようにGに対応するサブピクセルの輝度およびBに対応するサブピクセルの輝度を上昇させる。これにより、縦線部分で色付きが発生することを抑制することができる。   Specifically, as illustrated in FIG. 8C, the vertical line correction unit 72d includes a sub-pixel corresponding to R having the maximum luminance among the three sub-pixels that are constituent elements of the pixel configuring the vertical line. The luminance of the sub-pixel corresponding to G and the luminance of the sub-pixel corresponding to B are increased so as to approach the luminance of. Thereby, it can suppress that coloring arises in a vertical line part.

また、サブピクセル単位で輝度調整を行うことによる色付きは、縮小画像で明暗の境目となるエッジ領域でも発生するおそれがある。すなわち、エッジ領域では、エッジを構成する水平方向に隣り合う2ピクセルに設定する輝度の差が所定範囲を超える場合、各サブピクセル単位で輝度の調整を行うと、輝度が高い側のピクセルで前述の縦線と同様に色付きが発生する。   Further, coloring by performing luminance adjustment in units of sub-pixels may occur in an edge region that is a boundary between light and dark in a reduced image. That is, in the edge region, when the difference in luminance set in two pixels adjacent to the horizontal direction constituting the edge exceeds a predetermined range, when the luminance is adjusted in units of sub-pixels, the pixel having the higher luminance is described above. As with the vertical lines, coloring occurs.

このため、本実施例のエッジ補正部72cは、隣り合うピクセルに設定された輝度の差が所定範囲を超えるエッジ領域を検出した場合に、エッジ領域中で輝度が高い側のピクセルを構成するサブピクセルに対し、上記縦線補正部72dと同様の方法で色付きの低減処理を行う。   For this reason, when the edge correction unit 72c according to the present embodiment detects an edge region where the difference in luminance set between adjacent pixels exceeds a predetermined range, the edge correction unit 72c configures a pixel on the higher luminance side in the edge region. Color reduction processing is performed on the pixels in the same manner as the vertical line correction unit 72d.

具体的には、エッジ補正部72cは、エッジ領域における輝度の高い側のピクセルを構成する3つのサブピクセルの中で、輝度が最大のサブピクセルの輝度へ近づけるように他のサブピクセルの輝度を上昇させる処理を行う。   Specifically, the edge correction unit 72c adjusts the luminance values of the other subpixels so as to approach the luminance value of the subpixel having the highest luminance among the three subpixels constituting the higher luminance side pixel in the edge region. Process to raise.

また、本実施例に係る表示装置では、サブピクセルレンダリングを行うため縮小画像をTFTパネル82で表示させる場合に、1ピクセルとして使用する3つのサブピクセルの組合せとして、図9に示すように、RGB、GBR、BRGという3種類の組合せがある。   Further, in the display device according to the present embodiment, when a reduced image is displayed on the TFT panel 82 for performing sub-pixel rendering, as a combination of three sub-pixels used as one pixel, as shown in FIG. There are three types of combinations, GBR and BRG.

ここで、ピクセルを構成する3つのサブピクセル間には、ギャップと呼ばれる物理的な間隔が存在する。各サブピクセル間の間隔のうち、GB間の間隔およびRG間の間隔は色付きの原因とはなりにくいが、BR間の間隔は色付きの原因となる可能性が高い。   Here, a physical interval called a gap exists between the three sub-pixels constituting the pixel. Of the intervals between sub-pixels, the intervals between GB and RG are unlikely to cause coloring, but the intervals between BRs are likely to cause coloring.

具体的には、RGBの順で配列されているサブピクセルを1つのピクセルとして白を表示させる場合、人の目には問題なく白として認識される。   More specifically, when white is displayed with subpixels arranged in the order of RGB as one pixel, it is recognized as white by human eyes without any problem.

一方、GBRの順でサブピクセルが配列されている領域を1つのピクセルとして白を表示させた場合、BRに対応するサブピクセル間に間隔が存在することによって人の目にはGBの混合色であるシアンとRとが個々に視認されるため、白が赤みがかって認識される。   On the other hand, when white is displayed with an area where subpixels are arranged in the order of GBR as one pixel, there is a gap between the subpixels corresponding to BR, so that the human eye has a mixed color of GB. Since certain cyan and R are visually recognized individually, white is recognized as reddish.

このようなサブピクセル間の間隔に起因した色付きは、斜め方向から縮小画像を視認する場合に顕著に現れる。したがって、車両に搭載される表示装置のように斜め方向から視認されることが予想される表示装置へ映像データを出力する表示装置では、サブピクセル間の間隔に起因した色付きを低減する必要がある。   Such coloring due to the interval between the sub-pixels is noticeable when the reduced image is viewed from an oblique direction. Therefore, in a display device that outputs video data to a display device that is expected to be viewed from an oblique direction, such as a display device mounted on a vehicle, it is necessary to reduce coloring due to the interval between subpixels. .

このため、本実施例に係る赤色低減部72aは、1つのピクセルを構成するサブピクセルとしてGBRの順で配列されたサブピクセルが選択され、選択されたサブピクセルに対して所定の上限値を上回る輝度が設定されていた場合、Rに対応するサブピクセルの輝度をBRに対応するサブピクセル間の間隔が長いほど低減させる処理を行う。   For this reason, the red reduction unit 72a according to the present embodiment selects subpixels arranged in the order of GBR as subpixels constituting one pixel, and exceeds a predetermined upper limit for the selected subpixel. When the luminance is set, a process of reducing the luminance of the sub-pixel corresponding to R as the interval between the sub-pixels corresponding to BR is longer is performed.

これにより、GBRの順で配列されたサブピクセルを1つのピクセルとして選択して白を表示する場合に、色付きが発生することを抑制することができる。   Thereby, when sub-pixels arranged in the order of GBR are selected as one pixel and white is displayed, occurrence of coloring can be suppressed.

一方、BRGの順で配列されているサブピクセルを1つのピクセルとして白を表示させた場合、BRに対応するサブピクセル間に間隔が存在することによって、人の目にはBとRGの混合色である黄色とが個々に視認されるため、白が黄色みがかって認識される。   On the other hand, when white is displayed with the subpixels arranged in the BRG order as one pixel, a mixed color of B and RG is present in the human eye due to the presence of a space between the subpixels corresponding to BR. Since yellow, which is, is visually recognized individually, white is recognized as yellowish.

このため、本実施例に係る黄色低減部72bは、1つのピクセルを構成するサブピクセルとしてBRGの順で配列されたサブピクセルが選択され、選択されたサブピクセルに対して所定の上限値を上回る輝度が設定されていた場合、Rに対応するサブピクセルおよびGに対応するサブピクセルの輝度を、BRに対応するサブピクセル間の間隔が長いほど低減させる処理を行う。   For this reason, the yellow reduction unit 72b according to the present embodiment selects the subpixels arranged in the BRG order as the subpixels constituting one pixel, and exceeds a predetermined upper limit value with respect to the selected subpixels. When the luminance is set, the luminance of the sub-pixel corresponding to R and the sub-pixel corresponding to G is reduced as the interval between the sub-pixels corresponding to BR is longer.

これにより、BRGの順で配列されたサブピクセルを1つのピクセルとして選択して白を表示する場合に、色付きが発生することを抑制することができる。   Thereby, when sub-pixels arranged in the order of BRG are selected as one pixel and white is displayed, occurrence of coloring can be suppressed.

次に、図10および図11を参照して、本実施例に係る表示装置の具体的動作について説明する。なお、同図では、表示装置が実行する処理のうち、ピクセル制御部87が実行するサブピクセル制御に関する処理手順のみを示す。図10は、サブピクセル制御部87が備える前処理部71の処理手順を示すフローチャートであり、図11は、サブピクセル制御部87が備える後処理部72の処理手順を示すフローチャートである。   Next, a specific operation of the display device according to the present embodiment will be described with reference to FIGS. In the drawing, only the processing procedure related to sub-pixel control executed by the pixel control unit 87 among the processing executed by the display device is shown. FIG. 10 is a flowchart showing a processing procedure of the pre-processing unit 71 included in the subpixel control unit 87, and FIG. 11 is a flowchart showing a processing procedure of the post-processing unit 72 included in the subpixel control unit 87.

図10に示すように、前処理部71は、縮小画像生成部85から垂直方向(縦)で1/2倍に縮小された画像データを取得すると(ステップS101)、縮小対象として水平方向に配列された複数のピクセル(対象ピクセルP0、P1)を選択し、選択した対象ピクセルP0、P1を含む複数のピクセルの輝度データから縮小ピクセルP01を構成する3種類のサブピクセル用の各輝度データを生成する(ステップS102)。   As illustrated in FIG. 10, when the preprocessing unit 71 acquires image data reduced by a factor of 1/2 in the vertical direction (vertical) from the reduced image generation unit 85 (step S101), the preprocessing unit 71 arranges the image data in the horizontal direction as reduction targets. The selected plurality of pixels (target pixels P0 and P1) are selected, and the brightness data for the three types of sub-pixels constituting the reduced pixel P01 are generated from the brightness data of the plurality of pixels including the selected target pixels P0 and P1. (Step S102).

続いて、前処理部71は、生成した3種類の輝度データをピクセル制御データとして縮小画像生成部85へ出力することで、ステップS102で生成した3種類の輝度データを縮小ピクセルP01を構成する各サブピクセル用の輝度データを設定し(ステップS103)、処理を終了する。   Subsequently, the preprocessing unit 71 outputs the generated three types of luminance data as pixel control data to the reduced image generation unit 85, whereby the three types of luminance data generated in step S102 constitute each reduced pixel P01. The luminance data for the subpixel is set (step S103), and the process is terminated.

そして、前処理部71は、縮小画像生成部85から取得した全てのピクセルを対象ピクセルP0、P1として選択し、選択した対象ピクセルP0、P1から生成される縮小画像を構成する全縮小ピクセルP01のサブピクセルについて輝度データの設定が完了するまでステップS101〜S103の処理を繰り返し実行する。   Then, the preprocessing unit 71 selects all the pixels acquired from the reduced image generation unit 85 as the target pixels P0 and P1, and selects all the reduced pixels P01 that constitute the reduced image generated from the selected target pixels P0 and P1. The processes in steps S101 to S103 are repeatedly executed until the setting of luminance data for the subpixel is completed.

一方、後処理部72は、図11に示すように、縮小画像生成部85から縮小画像の画像データ(縮小画像データ)を取得すると、所定の上限値を上回る輝度が設定されているピクセルを構成するサブピクセルの配列(配置)がGBRであるか否かを判定する(ステップS201)。   On the other hand, as illustrated in FIG. 11, when the post-processing unit 72 acquires the image data (reduced image data) of the reduced image from the reduced image generation unit 85, the post-processing unit 72 configures pixels in which luminance exceeding a predetermined upper limit value is set. It is determined whether or not the arrangement (arrangement) of subpixels to be performed is GBR (step S201).

そして、後処理部72は、サブピクセルの配列がGBRであると判定した場合(ステップS201:Yes)、BRに対応するサブピクセル間の間隔が長いほど、Rに対応するサブピクセルの輝度を低減し(ステップS202)、処理をステップS203へ移す。   If the post-processing unit 72 determines that the arrangement of sub-pixels is GBR (step S201: Yes), the longer the interval between sub-pixels corresponding to BR, the lower the luminance of the sub-pixel corresponding to R. (Step S202), and the process proceeds to Step S203.

また、後処理部72は、サブピクセルの配列がGBRでないと判定した場合(ステップS201:No)、所定の上限値を上回る輝度が設定されているピクセルを構成するサブピクセルの配列がBRGであるか否かを判定する(ステップS205)。   Further, when the post-processing unit 72 determines that the sub-pixel arrangement is not GBR (step S201: No), the sub-pixel arrangement constituting the pixel in which the luminance exceeding the predetermined upper limit value is set is BRG. Whether or not (step S205).

そして、後処理部72は、サブピクセルの配列がBRGであると判定した場合(ステップS205:Yes)、BRに対応するサブピクセル間の間隔が長いほど、RおよびGに対応する各サブピクセルの輝度を低減し(ステップS206)、処理をステップS203へ移す。   When the post-processing unit 72 determines that the arrangement of the sub-pixels is BRG (step S205: Yes), the longer the interval between the sub-pixels corresponding to BR, the longer the interval between the sub-pixels corresponding to R and G. The brightness is reduced (step S206), and the process proceeds to step S203.

また、後処理部72は、サブピクセルの配列がBRGでないと判定した場合(ステップS205:No)、処理をステップS203へ移す。ステップS203において後処理部72は、縮小画像中にエッジが存在するか否かを判定する。   If the post-processing unit 72 determines that the sub-pixel arrangement is not BRG (step S205: No), the post-processing unit 72 moves the process to step S203. In step S203, the post-processing unit 72 determines whether an edge exists in the reduced image.

そして、後処理部72は、エッジが存在すると判定した場合(ステップS203:Yes)、エッジにおける輝度が高い側のピクセルについて、R、G、Bのうち、輝度が最も高いサブピクセルを基準として、他のサブピクセルの輝度を基準に近づけるように上昇させる処理を行って(ステップS204)処理を終了する。   Then, when the post-processing unit 72 determines that an edge exists (step S203: Yes), with respect to the pixel having the higher luminance at the edge, the sub-pixel having the highest luminance among R, G, and B is used as a reference. A process for increasing the brightness of the other sub-pixels so as to approach the reference is performed (step S204), and the process ends.

また、後処理部72は、エッジが存在しないと判定した場合(ステップS203:No)、縮小画像中で輝度が所定の下限値を下回る背景中に、輝度が所定の上限値を上回る1ピクセル(以下、「白点」という。)が垂直方向に所定個数(たとえば、3ピクセル)以上連続して存在するか否かを判定する(ステップS207)。   Further, when the post-processing unit 72 determines that no edge exists (step S203: No), one pixel whose luminance exceeds a predetermined upper limit value in the background in which the luminance is lower than the predetermined lower limit value in the reduced image ( Hereinafter, it is determined whether a predetermined number (for example, 3 pixels) or more are continuously present in the vertical direction (referred to as “white dots”) (step S207).

そして、後処理部72は、白点が縦に3ピクセル以上連続して存在していると判定した場合(ステップS207:Yes)、白点を構成するピクセルについて、R、G、Bのうち、輝度が最も高いサブピクセルを基準として、他のサブピクセルの輝度を基準に近づけるように上昇させる処理を行って(ステップS204)処理を終了する。また、後処理部72は、白点が縦に3ピクセル以上連続して存在していないと判定した場合(ステップS207:No)、処理を終了する。   Then, when the post-processing unit 72 determines that the white spot is present continuously three or more pixels vertically (step S207: Yes), for the pixels constituting the white spot, among R, G, and B, With the subpixel having the highest luminance as a reference, processing is performed to increase the luminance of other subpixels closer to the reference (step S204), and the processing is terminated. Further, when the post-processing unit 72 determines that the white spots do not exist continuously for three or more pixels vertically (step S207: No), the processing ends.

上述したように、本実施例に係る表示装置では、たとえば、元画像から縮小対象として複数の対象ピクセルP0、P1を選択し、対象ピクセルP0、P1を含む水平方向に配列された複数のピクセルの輝度データに基づき、縮小ピクセルP01を構成する各サブピクセルの輝度データとして、対象ピクセルP0、P1の輝度の違いを反映した3種類の輝度データを生成して設定する。   As described above, in the display device according to the present embodiment, for example, a plurality of target pixels P0 and P1 are selected as reduction targets from the original image, and a plurality of pixels arranged in the horizontal direction including the target pixels P0 and P1 are selected. Based on the luminance data, three types of luminance data reflecting the difference in luminance between the target pixels P0 and P1 are generated and set as the luminance data of each sub-pixel constituting the reduced pixel P01.

このため、縮小ピクセルP01を各サブピクセルの輝度の違いによって、対象ピクセルP0、P1の輝度の違いを再現することができる。しがたって、本実施例に係る表示装置によれば、元画像中に存在する微妙な色彩の変化(グラデーション)を従来の画像処理技術にくらべ高い再現性で再現することができる。   Therefore, the reduced pixel P01 can reproduce the difference in luminance between the target pixels P0 and P1 depending on the difference in luminance between the sub-pixels. Therefore, according to the display device according to the present embodiment, it is possible to reproduce a subtle color change (gradation) existing in the original image with higher reproducibility than the conventional image processing technique.

また、本実施例に係る表示装置では、縮小ピクセルP01の各サブピクセルの輝度をサブピクセル単位で調整したことにより、縮小画像中に色付きが発生する恐れがある場合に、ピクセル制御部87が備える後処理部72が実行するピクセル制御によって色付きの発生を未然に防止することができる。   In the display device according to the present embodiment, the pixel control unit 87 is provided when there is a possibility that coloring may occur in the reduced image by adjusting the luminance of each subpixel of the reduced pixel P01 in units of subpixels. Occurrence of coloring can be prevented in advance by the pixel control executed by the post-processing unit 72.

また、本実施例では、2つの対象ピクセルP0、P1から1つの縮小ピクセルP01を生成する場合を例に挙げて説明したが、本発明は、任意の数の対象ピクセルP0、P1から1つの縮小ピクセルP01を生成する場合にも適用することができる。   In this embodiment, the case where one reduced pixel P01 is generated from the two target pixels P0 and P1 has been described as an example. However, the present invention can reduce one reduced pixel from any number of target pixels P0 and P1. The present invention can also be applied to the case where the pixel P01 is generated.

たとえば、3つの対象ピクセルから1つの縮小ピクセルP01を生成する場合、3つの対象ピクセルの各輝度データのそれぞれを縮小ピクセルP01を構成する各サブピクセルの輝度データとして設定する。   For example, when one reduced pixel P01 is generated from three target pixels, each luminance data of the three target pixels is set as luminance data of each sub-pixel constituting the reduced pixel P01.

また、4つの対象ピクセルから1つの縮小ピクセルP01を生成する場合、4つの対象ピクセルから各対象ピクセルの輝度の違いを反映した3つの仮想ピクセルを生成し、生成した3つの仮想ピクセルの3種類の輝度データを縮小ピクセルP01を構成する各サブピクセルの輝度データとして設定する。   When one reduced pixel P01 is generated from the four target pixels, three virtual pixels reflecting the difference in luminance of each target pixel are generated from the four target pixels, and three types of the generated three virtual pixels are generated. Luminance data is set as luminance data of each sub-pixel constituting the reduced pixel P01.

つまり、本発明は、少なくとも対象ピクセルを含む水平方向に配列された複数のピクセルの輝度データから、縮小ピクセル中のサブピクセル数と同数の輝度データを最終的に生成し、生成した輝度データを縮小ピクセルの各サブピクセルの輝度データとして設定することで、縮小画像の画質劣化を抑制することができる。   That is, the present invention finally generates the same number of luminance data as the number of sub-pixels in the reduced pixel from the luminance data of a plurality of pixels arranged in the horizontal direction including at least the target pixel, and reduces the generated luminance data. By setting the luminance data of each sub-pixel of the pixel, it is possible to suppress the image quality deterioration of the reduced image.

なお、本実施例では、縮小ピクセルを構成するサブピクセル数が3の場合を例に挙げて説明したが、縮小ピクセルを構成するサブピクセル数は3に限定するものではい。   In this embodiment, the case where the number of subpixels constituting the reduced pixel is 3 has been described as an example. However, the number of subpixels constituting the reduced pixel is not limited to 3.

以上のように、本発明に係る画像処理装置および画像処理方法は、画像を縮小した場合に生じる画質劣化を極力抑えることによって縮小画像の画質を改善したい場合に有用であり、特に、車載装置に表示される縮小画像の画質を改善したい場合に適している。   As described above, the image processing apparatus and the image processing method according to the present invention are useful when it is desired to improve the image quality of a reduced image by minimizing image quality degradation that occurs when the image is reduced. This is suitable when you want to improve the quality of the displayed reduced image.

1 車載装置
11 ナビゲーションエンジン
12 TVチューナ
13 DVDデッキ
14 リアカメラ
15 オーディオマイコン
16 描画部
17 映像切替部
18 表示装置
71 前処理部
72 後処理部
71a 輝度データ生成部
71b 輝度データ設定部
72a 赤色低減部
72b 黄色低減部
72c エッジ補正部
72d 縦線補正部
81 電源
82 TFTパネル
83 マイコン処理部
84 LVDSレシーバ
85 縮小画像生成部
86 階調処理部
87 ピクセル制御部
88 タイミング制御部
89 メモリ
P01 縮小ピクセル
P0、P1 対象ピクセル
DESCRIPTION OF SYMBOLS 1 In-vehicle apparatus 11 Navigation engine 12 TV tuner 13 DVD deck 14 Rear camera 15 Audio microcomputer 16 Drawing part 17 Image | video switching part 18 Display apparatus 71 Pre-processing part 72 Post-processing part 71a Luminance data generation part 71b Luminance data setting part 72a Red reduction part 72b Yellow reduction unit 72c Edge correction unit 72d Vertical line correction unit 81 Power supply 82 TFT panel 83 Microcomputer processing unit 84 LVDS receiver 85 Reduced image generation unit 86 Gradation processing unit 87 Pixel control unit 88 Timing control unit 89 Memory P01 Reduced pixel P0, P1 target pixel

Claims (4)

所定数のサブピクセルを含んだ画素からなる画像を処理する画像処理装置であって、
縮小対象となる元画像から抽出した複数の対象画素と、縮小先となる縮小画像上で当該複数の対象画素に対応する1つの縮小画素とを対応付けることで、前記元画像から前記縮小画像を生成する縮小画像生成手段と、
前記サブピクセルの配列方向と同方向に連続しており前記複数の対象画素を少なくとも含んだ画素群を前記元画像から選択し、当該画素群に含まれる画素間の相対位置および当該画素群に含まれる各画素の輝度データに基づき、前記所定数と同数の輝度データを生成する生成手段と、
前記生成手段によって生成された各輝度データを、前記縮小画素における各サブピクセルの輝度データとして設定する輝度データ設定手段と、
前記輝度データ設定手段によって前記輝度データが設定された縮小画像を所定の表示部へ表示させる表示制御手段と
を備えたことを特徴とする画像処理装置。
An image processing apparatus for processing an image composed of pixels including a predetermined number of subpixels,
The reduced image is generated from the original image by associating a plurality of target pixels extracted from the original image to be reduced with one reduced pixel corresponding to the plurality of target pixels on the reduced image to be reduced Reduced image generation means for
A pixel group that is continuous in the same direction as the sub-pixel arrangement direction and includes at least the plurality of target pixels is selected from the original image, and is included in the relative position between the pixels included in the pixel group and the pixel group. Generating means for generating the same number of luminance data based on the luminance data of each pixel,
Brightness data setting means for setting each brightness data generated by the generating means as brightness data of each sub-pixel in the reduced pixel;
An image processing apparatus comprising: a display control unit that displays a reduced image in which the luminance data is set by the luminance data setting unit on a predetermined display unit.
前記縮小画像生成手段により生成された前記縮小画像中に、前記配列方向で隣り合う画素間の輝度の差が所定範囲を超えるエッジ領域を検出するエッジ領域検出手段と、
前記エッジ領域検出手段により検出された前記エッジ領域中で輝度が高い方の画素を構成する前記サブピクセルのうち、最も輝度の高い前記サブピクセルの輝度を基準として、前記輝度が高い方の画素の中で前記最も輝度が高いサブピクセル以外の前記サブピクセルの輝度を前記基準へ近づけるように上昇させるエッジ補正手段と
を備えたことを特徴とする請求項1に記載の画像処理装置。
An edge region detection unit that detects an edge region in which the difference in luminance between adjacent pixels in the arrangement direction exceeds a predetermined range in the reduced image generated by the reduced image generation unit;
Among the sub-pixels constituting the higher-luminance pixel in the edge region detected by the edge region detection means, the luminance of the pixel with the higher luminance is determined with reference to the luminance of the sub-pixel with the highest luminance. The image processing apparatus according to claim 1, further comprising an edge correction unit configured to increase the luminance of the sub-pixels other than the sub-pixel having the highest luminance among the sub-pixels so as to approach the reference.
前記縮小画像生成手段により生成された前記縮小画像中で、輝度が所定の下限値を下回る背景画像中に輝度が所定の上限値を上回る画素が存在し、且つ該画素が前記配列方向と直交する方向で所定数以上連続して存在する縦線領域を検出する縦線領域検出手段と、
前記縦線領域検出手段により検出された前記縦線領域中で、輝度が前記所定の上限値を上回る画素の中で最も輝度の高い前記サブピクセルの輝度を基準として、前記輝度が高い方の画素の中で前記最も輝度が高いサブピクセル以外の前記サブピクセルの輝度を前記基準へ近づけるように上昇させる縦線補正手段と
を備えたことを特徴とする請求項1または請求項2に記載の画像処理装置。
In the reduced image generated by the reduced image generating means, there is a pixel whose luminance exceeds a predetermined upper limit in the background image whose luminance is lower than a predetermined lower limit, and the pixel is orthogonal to the arrangement direction. A vertical line area detecting means for detecting a vertical line area continuously present in a predetermined number or more in the direction;
In the vertical line area detected by the vertical line area detection means, the pixel having the higher luminance with reference to the luminance of the sub-pixel having the highest luminance among the pixels whose luminance exceeds the predetermined upper limit value 3. The image according to claim 1, further comprising a vertical line correction unit configured to increase the luminance of the sub-pixels other than the sub-pixel having the highest luminance among the sub-pixels so as to approach the reference. 4. Processing equipment.
所定数のサブピクセルを含んだ画素からなる画像を処理する画像処理方法であって、
縮小対象となる元画像から抽出した複数の対象画素と、縮小先となる縮小画像上で当該複数の対象画素に対応する1つの縮小画素とを対応付けることで、前記元画像から前記縮小画像を生成する縮小画像生成工程と、
前記サブピクセルの配列方向と同方向に連続しており前記複数の対象画素を少なくとも含んだ画素群を前記元画像から選択し、当該画素群に含まれる画素間の相対位置および当該画素群に含まれる各画素の輝度データに基づき、前記所定数と同数の輝度データを生成する生成工程と、
前記生成工程によって生成された各輝度データを、前記縮小画素における各サブピクセルの輝度データとして設定する輝度データ設定工程と、
前記輝度データ設定工程によって前記輝度データが設定された縮小画像を所定の表示部へ表示させる表示制御工程と
を含むことを特徴とする画像処理方法。
An image processing method for processing an image composed of pixels including a predetermined number of subpixels,
The reduced image is generated from the original image by associating a plurality of target pixels extracted from the original image to be reduced with one reduced pixel corresponding to the plurality of target pixels on the reduced image to be reduced A reduced image generation step,
A pixel group that is continuous in the same direction as the sub-pixel arrangement direction and includes at least the plurality of target pixels is selected from the original image, and is included in the relative position between the pixels included in the pixel group and the pixel group. Generating the same number of luminance data as the predetermined number based on the luminance data of each pixel,
A luminance data setting step for setting each luminance data generated by the generating step as luminance data of each sub-pixel in the reduced pixel;
A display control step of displaying a reduced image in which the luminance data is set by the luminance data setting step on a predetermined display unit.
JP2009272863A 2009-11-30 2009-11-30 Image processing apparatus and image processing method Withdrawn JP2011118000A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009272863A JP2011118000A (en) 2009-11-30 2009-11-30 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009272863A JP2011118000A (en) 2009-11-30 2009-11-30 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2011118000A true JP2011118000A (en) 2011-06-16

Family

ID=44283452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009272863A Withdrawn JP2011118000A (en) 2009-11-30 2009-11-30 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2011118000A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013014817A1 (en) * 2011-07-27 2013-01-31 パナソニック株式会社 Image processing device, image processing method, and image display device
KR20130105145A (en) * 2012-03-16 2013-09-25 삼성디스플레이 주식회사 Data rendering method, data rendering device, and display comprising the data rendering device
WO2014087963A1 (en) * 2012-12-05 2014-06-12 シャープ株式会社 Multi-primary color display device
KR20150009117A (en) * 2013-07-15 2015-01-26 삼성디스플레이 주식회사 Display device, data processing apparatus and method thereof
JP2016075868A (en) * 2014-10-09 2016-05-12 Nltテクノロジー株式会社 Pixel array, electro-option device, electrical apparatus, and pixel rendering method
US9583054B2 (en) 2012-11-14 2017-02-28 Sharp Kabushiki Kaisha Multi-primary color display device
JP2020518022A (en) * 2017-04-28 2020-06-18 武漢華星光電技術有限公司Wuhan China Star Optoelectronics Technology Co.,Ltd Driving method and driving device for display panel
US11475822B2 (en) 2017-01-12 2022-10-18 Synaptics Incorporated System and method for subpixel rendering and display driver

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013014817A1 (en) * 2011-07-27 2013-01-31 パナソニック株式会社 Image processing device, image processing method, and image display device
US9437161B2 (en) 2011-07-27 2016-09-06 Panasonic Intellectual Property Management Co., Ltd. Image processing device for correcting an image to be displayed on a display by detecting dark sub-pixels between two bright sub-pixels
KR20130105145A (en) * 2012-03-16 2013-09-25 삼성디스플레이 주식회사 Data rendering method, data rendering device, and display comprising the data rendering device
KR102025876B1 (en) * 2012-03-16 2019-09-27 삼성디스플레이 주식회사 Data rendering method, data rendering device, and display comprising the data rendering device
US9583054B2 (en) 2012-11-14 2017-02-28 Sharp Kabushiki Kaisha Multi-primary color display device
WO2014087963A1 (en) * 2012-12-05 2014-06-12 シャープ株式会社 Multi-primary color display device
KR20150009117A (en) * 2013-07-15 2015-01-26 삼성디스플레이 주식회사 Display device, data processing apparatus and method thereof
KR102118576B1 (en) * 2013-07-15 2020-06-04 삼성디스플레이 주식회사 Display device, data processing apparatus and method thereof
JP2016075868A (en) * 2014-10-09 2016-05-12 Nltテクノロジー株式会社 Pixel array, electro-option device, electrical apparatus, and pixel rendering method
US11475822B2 (en) 2017-01-12 2022-10-18 Synaptics Incorporated System and method for subpixel rendering and display driver
JP2020518022A (en) * 2017-04-28 2020-06-18 武漢華星光電技術有限公司Wuhan China Star Optoelectronics Technology Co.,Ltd Driving method and driving device for display panel

Similar Documents

Publication Publication Date Title
JP2011118000A (en) Image processing apparatus and image processing method
TWI476753B (en) A method of processing image data for display on a display device, which comprising a multi-primary image display panel
KR101929001B1 (en) Method of compensating stain, method of driving display panel having the method of compensating stain and display apparatus for performing the method of driving display panel
WO2014038517A1 (en) Multiple-primary color display device
JP5312698B2 (en) Image processing apparatus, image display apparatus, image processing method, and image processing program
US20040233217A1 (en) Adaptive pixel-based blending method and system
US10593273B2 (en) Image display apparatus capable of improving sharpness of an edge area
US10002591B2 (en) Display device and image rendering method thereof
US20160307487A1 (en) Display device and electronic apparatus
EP3012830B1 (en) Image up-scale unit and method
US20170155895A1 (en) Generation of drive values for a display
JP2007086577A (en) Image processor, image processing method, image processing program, and image display device
CN110718178B (en) Display panel and image display apparatus including the same
JP2007219792A (en) Image processing device and its method, program, and recording medium
US9734772B2 (en) Display device
CN103578441A (en) Image processing device, display device, and image processing method
JP2010054729A (en) Liquid crystal display device and color processing method
US20070109314A1 (en) Adaptive pixel-based blending method and system
JP2014090266A (en) Image display device and control method for the same
KR20210138372A (en) Display Driving Device and Driving Method
US20200082786A1 (en) Display panel, and image display apparatus including the same
JP6080241B2 (en) Image processing device
US20230093744A1 (en) Method for reducing gamut mapping luminance loss
JP6873965B2 (en) Liquid crystal display device and video signal processing method
JP5356104B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130205