JP2015215450A - Image processor, image display device, image processing method and computer program - Google Patents

Image processor, image display device, image processing method and computer program Download PDF

Info

Publication number
JP2015215450A
JP2015215450A JP2014097712A JP2014097712A JP2015215450A JP 2015215450 A JP2015215450 A JP 2015215450A JP 2014097712 A JP2014097712 A JP 2014097712A JP 2014097712 A JP2014097712 A JP 2014097712A JP 2015215450 A JP2015215450 A JP 2015215450A
Authority
JP
Japan
Prior art keywords
data
rgb
high frequency
frequency detection
detection signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014097712A
Other languages
Japanese (ja)
Other versions
JP6323152B2 (en
Inventor
聡 山中
Satoshi Yamanaka
聡 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2014097712A priority Critical patent/JP6323152B2/en
Publication of JP2015215450A publication Critical patent/JP2015215450A/en
Application granted granted Critical
Publication of JP6323152B2 publication Critical patent/JP6323152B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate an image in an image display part in which elements obtained by putting RGB called 3in1 in one package and monochrome LEDs, such as white are arranged in a zigzag manner.SOLUTION: An image processor for generating an image in an image display part obtained by arranging light emitting elements including primary colors of RGB and monochrome light emitting elements in a grid shape includes a frequency detection part for outputting a high frequency detection signal from input image data, a luminance calculation part for calculating luminance data from RGB data included in the input image data, an RGBW conversion part for generating RGB data and white data from the RGB data, a monochrome data generation part for generating data to be displayed in a monochrome light emitting element on the basis of the high frequency detection signal, the luminance data and the white data, and a data for 3in1 generation part for generating data to be displayed in a light emitting element including primary colors of RGB on the basis of the high frequency detection signal, the RGB data included in the input image data and the RGB data outputted by the RGBW conversion part.

Description

この発明は、LEDなどの発光素子を平面状に配置して構成される画像表示装置に用いる画像処理装置に関するものである。   The present invention relates to an image processing apparatus used in an image display apparatus configured by arranging light emitting elements such as LEDs in a planar shape.

球技場などで使用される大型の画像表示装置は、LEDなどの発光素子を平面状に配置して画面を構成している。近年、民生テレビと同様に大型の画像表示装置でも高解像度化がすすんでいる。また、近年、3in1と呼ばれるR(赤色)、G(緑色)及びB(青色)を一つのパッケージに入れたLED素子が画像表示装置に用いられる。3in1のLEDは、R、G及びBからなる3個のLED素子を1個のLED素子に置き換えることが可能なため、消費電力の点で有利である。ただし、LED素子1個あたりのコストが大きいため、画像表示装置の表示面のすべてに3in1のLEDを用いるのではなく、3in1のLEDと白色などの単色のLEDを千鳥状に配置する。単色のLEDは安価なため、画質劣化を最小限に抑制しつつコスト削減をしている(特許文献1参照)。なお、「千鳥状に配置」とは、異なる2つのものを順番に列を入れかえて2列に配置することである。「順番に列を入れかえて2列に配置する」ということは、ジグザグに配置することである。   A large image display device used in a ball game field or the like has a screen configured by arranging light emitting elements such as LEDs in a planar shape. In recent years, high resolution has been promoted in large image display devices as well as consumer televisions. In recent years, an LED element called R (red), G (green), and B (blue) called 3 in 1 is used in an image display device. The 3-in-1 LED is advantageous in terms of power consumption because the three LED elements composed of R, G, and B can be replaced with one LED element. However, since the cost per LED element is large, instead of using 3 in 1 LEDs for the entire display surface of the image display device, 3 in 1 LEDs and white or other single color LEDs are arranged in a staggered manner. Since monochromatic LEDs are inexpensive, costs are reduced while minimizing image quality degradation (see Patent Document 1). Note that “arranged in a zigzag” means that two different things are arranged in two rows by sequentially changing the rows. “Replace the rows in order and place them in two rows” means to arrange them in a zigzag manner.

特開2012−173466号公報(段落0012〜0013、図1)JP 2012-173466 A (paragraphs 0012 to 0013, FIG. 1)

特許文献1では3in1のLEDと白色のLEDとで信号を表示する方法を記載しているが、入力信号がR(赤色)、G(緑色)及びB(青色)からなるRGBデータであれば、白色のLEDが配置された画素に対応する白色のLED用のデータを算出する必要がある。例えば、RGBデータのそれぞれを加重平均することにより算出した輝度データを白色のLED用のデータとして用いることが考えられる。しかしながら、このような算出方法から白色のLED用のデータを用いた場合、また、白色のLEDが配置されたことにより色再現性が劣化するという問題がある。   Patent Document 1 describes a method of displaying a signal with a 3-in-1 LED and a white LED. However, if the input signal is RGB data composed of R (red), G (green), and B (blue), It is necessary to calculate data for a white LED corresponding to a pixel in which the white LED is arranged. For example, it is conceivable to use luminance data calculated by weighted averaging of each of RGB data as data for white LEDs. However, when data for white LEDs is used from such a calculation method, there is a problem that color reproducibility deteriorates due to the arrangement of white LEDs.

RGBの原色を有する発光素子と単色の発光素子とを格子状に配列して構成した画像表示部に表示する画像を生成する画像処理装置において、入力画像データから着目した画素位置の周辺の空間周波数を検出して高周波数検出信号を出力する高周波数検出部と、前記入力画像データに含まれる第一のRGBデータから輝度データを算出する輝度算出部と、前記第一のRGBデータから第二のRGBデータ及び白色データを生成するRGBW変換部と、前記着目した画素位置について前記高周波数検出信号の前記空間周波数が高いことを示す場合は、前記着目した画素位置における前記輝度データの合成割合を前記着目した画素位置における前記白色データの合成割合に対して大きくして合成した単色用データを生成する単色用データ生成部と、前記高周波数検出信号の前記空間周波数が低いことを示す場合に、前記RGBの原色を有する発光素子に表示するデータにおける前記第二のRGBデータの合成割合を前記第一のRGBデータの合成割合に対して大きくする3in1用データ生成部とを備えることを特徴とする     In an image processing apparatus for generating an image to be displayed on an image display unit configured by arranging light emitting elements having RGB primary colors and single color light emitting elements in a grid pattern, a spatial frequency around a pixel position of interest from input image data A high frequency detection unit that detects a high frequency detection signal and outputs a high frequency detection signal, a luminance calculation unit that calculates luminance data from first RGB data included in the input image data, and a second from the first RGB data When the RGBW conversion unit that generates RGB data and white data indicates that the spatial frequency of the high-frequency detection signal is high for the pixel position of interest, the composition ratio of the luminance data at the pixel position of interest is expressed as A single color data generation unit for generating single color data that is combined with the white data at the pixel position of interest; When the high frequency detection signal indicates that the spatial frequency is low, the composition ratio of the second RGB data in the data displayed on the light emitting element having the RGB primary colors is changed to the composition ratio of the first RGB data. And a data generation unit for 3 in 1 that is larger than the data generation unit.

本発明に係る画像処理装置は、着目した画素位置の周辺の空間周波数が高い場合に、輝度データを適用することで空間周波数の高い映像を表示することができる。また、着目した画素位置の周辺の空間周波数が低い場合に、彩度の高いデータを適用することで色再現性の良い映像を表示することができる。   The image processing apparatus according to the present invention can display an image with a high spatial frequency by applying luminance data when the spatial frequency around the pixel position of interest is high. In addition, when the spatial frequency around the pixel position of interest is low, an image with good color reproducibility can be displayed by applying data with high saturation.

本発明に係る実施の形態1の画像表示装置5の構成を示す図である。It is a figure which shows the structure of the image display apparatus 5 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の画像表示部3を説明するための図である。It is a figure for demonstrating the image display part 3 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の入力画像データDIを説明するための図である。It is a figure for demonstrating the input image data DI of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の高周波数検出部11の構成を示す図である。It is a figure which shows the structure of the high frequency detection part 11 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の第一の畳み込み演算部111の動作を説明するための図である。It is a figure for demonstrating operation | movement of the 1st convolution operation part 111 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の第二の畳み込み演算部112の動作を説明するための図である。It is a figure for demonstrating operation | movement of the 2nd convolution operation part 112 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の二次元の畳み込みパターンの一例を示す図である。It is a figure which shows an example of the two-dimensional convolution pattern of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の二次元の畳み込みパターンの一例を示す図である。It is a figure which shows an example of the two-dimensional convolution pattern of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の二次元の畳み込みパターンの一例を示す図である。It is a figure which shows an example of the two-dimensional convolution pattern of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1のRGBW変換部13の構成を示す図である。It is a figure which shows the structure of the RGBW conversion part 13 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の彩度調整値算出部132の構成を示す図である。It is a figure which shows the structure of the saturation adjustment value calculation part 132 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1のRGBW変換部13の効果を説明するための図である。It is a figure for demonstrating the effect of the RGBW conversion part 13 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の単色用データ生成部14及び3in1用データ生成部15の動作を説明するための図である。It is a figure for demonstrating operation | movement of the data generation part 14 for single colors and the data generation part 15 for 3in1 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態1の画像表示部3の表示画面の一例を示すための図である。It is a figure for showing an example of the display screen of the image display part 3 of Embodiment 1 which concerns on this invention. 本発明に係る実施の形態2の画像表示装置の機能の一部をコンピュータプログラムで実現する場合の構成を示す図である。It is a figure which shows the structure in the case of implement | achieving a part of function of the image display apparatus of Embodiment 2 which concerns on this invention with a computer program. 本発明に係る実施の形態2の演算装置4による処理手順の一例を概略的に示すフローチャートである。It is a flowchart which shows roughly an example of the process sequence by the arithmetic unit 4 of Embodiment 2 which concerns on this invention.

実施の形態1.
図1は、本発明に係る実施の形態1の画像表示装置の構成を示す図である。図1に示されているように、本発明に係る実施の形態1の画像処理装置1は、高周波数検出部11、輝度算出部12、RGBW変換部13、単色用データ生成部14及び3in1用データ生成部15を備える。画像表示装置5は、画像処理装置1の他に画像制御部2及び画像表示部3を備える。画像表示装置5は、入力画像データDIが入力される。入力画像データDIは、赤色の入力画像データRI、緑色の入力画像データGI及び青色の入力画像データBIを有する。画像処理装置1は、入力画像データDIが入力される。画像処理装置1は、画像データD14及び画像データD15を画像制御部2に出力する。画像データD15は、赤色の画像データRI、緑色の画像データGI及び青色の画像データBIを有する。画像制御部2は、画像データ2を画像表示部3に出力する。
Embodiment 1 FIG.
FIG. 1 is a diagram showing a configuration of an image display apparatus according to Embodiment 1 of the present invention. As shown in FIG. 1, the image processing apparatus 1 according to the first embodiment of the present invention includes a high frequency detection unit 11, a luminance calculation unit 12, an RGBW conversion unit 13, a single color data generation unit 14, and a 3 in 1 use. A data generation unit 15 is provided. The image display device 5 includes an image control unit 2 and an image display unit 3 in addition to the image processing device 1. The image display device 5 receives input image data DI. The input image data DI includes red input image data RI, green input image data GI, and blue input image data BI. The image processing apparatus 1 receives input image data DI. The image processing apparatus 1 outputs the image data D14 and the image data D15 to the image control unit 2. The image data D15 includes red image data RI, green image data GI, and blue image data BI. The image control unit 2 outputs the image data 2 to the image display unit 3.

高周波数検出部11は、入力画像データDIが入力される。入力画像データDIは、赤色の入力画像データRI、緑色の入力画像データGI及び青色の入力画像データBIを有する。また、高周波数検出部11は、高周波数検出信号D11を単色用データ生成部14及び3in1用データ生成部15に出力する。輝度算出部12は、入力画像データDIが入力される。また、輝度算出部12は、輝度データW12を単色用データ生成部14に出力する。RGBW変換部13は、入力画像データDIが入力される。また、RGBW変換部13は、画像データD13を出力する。画像データD13は、赤色の画像データR13、緑色の画像データG13、青色の画像データB13及び白色の画像データW13を有する。単色用データ生成部14は、高周波数検出信号D11、輝度データW12及び白色の画像データW13が入力される。また、単色用データ生成部14は、画像データD14を出力する。3in1用データ生成部15は、入力画像データDI、高周波数検出信号D11、赤色の画像データR13、緑色の画像データG13及び青色の画像データB13が入力される。また、3in1用データ生成部15は、画像データD15を出力する。   The high frequency detection unit 11 receives input image data DI. The input image data DI includes red input image data RI, green input image data GI, and blue input image data BI. Further, the high frequency detection unit 11 outputs the high frequency detection signal D11 to the single color data generation unit 14 and the 3in1 data generation unit 15. The luminance calculation unit 12 receives input image data DI. Further, the luminance calculation unit 12 outputs the luminance data W12 to the single color data generation unit 14. The RGBW converter 13 receives input image data DI. The RGBW converter 13 outputs image data D13. The image data D13 includes red image data R13, green image data G13, blue image data B13, and white image data W13. The monochromatic data generation unit 14 receives the high frequency detection signal D11, the luminance data W12, and the white image data W13. Further, the monochrome data generation unit 14 outputs the image data D14. The 3-in-1 data generation unit 15 receives input image data DI, a high frequency detection signal D11, red image data R13, green image data G13, and blue image data B13. The 3in1 data generation unit 15 outputs image data D15.

図2は、画像表示部3を説明するための図である。画像表示部3は、多数の発光素子を平面状に且つ格子状に配列して構成された表示画面31を有する。なお、「格子状」とは、複数の縦の線と横の線とが交差している状態を示すものである。表示画面31は、3in1発光素子32及び単色発光素子33を有する。発光素子は、X軸と、またX軸に直交するY軸とに沿って配列される。X軸方向は、画像表示部における水平方向である。Y軸方向は、画像表示部における垂直方向である。3in1発光素子32は、赤色、緑色及び青色の発光体が一つのパッケージに収納されている。単色発光素子33は、白色などの単色の発光体が一つのパッケージに収納されている。表示画面31には、3in1発光素子32と単色発光素子33とが格子状の配列中に千鳥状に配置される。   FIG. 2 is a diagram for explaining the image display unit 3. The image display unit 3 includes a display screen 31 configured by arranging a large number of light emitting elements in a planar shape and a lattice shape. Note that the “lattice” indicates a state in which a plurality of vertical lines and horizontal lines intersect each other. The display screen 31 includes a 3 in 1 light emitting element 32 and a single color light emitting element 33. The light emitting elements are arranged along the X axis and the Y axis orthogonal to the X axis. The X-axis direction is a horizontal direction in the image display unit. The Y-axis direction is a vertical direction in the image display unit. In the 3-in-1 light-emitting element 32, red, green, and blue light emitters are housed in one package. In the monochromatic light emitting element 33, a monochromatic light emitter such as white is accommodated in one package. On the display screen 31, the 3-in-1 light-emitting elements 32 and the monochromatic light-emitting elements 33 are arranged in a staggered pattern in a grid-like arrangement.

図3は、入力画像データDIを説明するための図である。入力画像データDIは、画素毎に赤色(R)、緑色(G)、青色(B)のデータを含む。入力画像データDIは、赤色の入力画像データRI、緑色の入力画像データGI及び青色の入力画像データBIを有する。入力画像データDIは、X軸と、またX軸に直交するY軸とに沿って配列される。図3で示したような入力画像データDIを図2の表示画面31に表示するためには、単色発光素子の位置については赤色、緑色及び青色の入力画像データから白色の画像データに変換する必要がある。   FIG. 3 is a diagram for explaining the input image data DI. The input image data DI includes red (R), green (G), and blue (B) data for each pixel. The input image data DI includes red input image data RI, green input image data GI, and blue input image data BI. The input image data DI is arranged along the X axis and the Y axis orthogonal to the X axis. In order to display the input image data DI as shown in FIG. 3 on the display screen 31 of FIG. 2, it is necessary to convert the red, green, and blue input image data into white image data for the positions of the monochromatic light emitting elements. There is.

高周波数検出部11は、入力画像データDIの画素毎に空間周波数を検出し、その結果を高周波数検出信号D11として出力する。高周波数検出信号D11は、単色用データ生成部14及び3in1用データ生成部15に入力される。「空間周波数」とは、空間的な周期をもつ構造の性質であり、ここでいう空間は、表示画面の2次元平面を言う。   The high frequency detector 11 detects the spatial frequency for each pixel of the input image data DI, and outputs the result as a high frequency detection signal D11. The high frequency detection signal D11 is input to the monochrome data generation unit 14 and the 3in1 data generation unit 15. “Spatial frequency” is a property of a structure having a spatial period, and the space here refers to a two-dimensional plane of a display screen.

図4は、高周波数検出部11の構成を示す図である。高周波数検出部11は、第一の畳み込み演算部111、第二の畳み込み演算部112及び高周波数算出部113を備える。高周波数検出部11は、入力画像データDIが入力される。入力画像データDIは、赤色の入力画像データRI、緑色の入力画像データGI及び青色の入力画像データBIを有する。また、高周波数検出部11は、高周波数検出信号D11を出力する。第一の畳み込み演算部111は、入力画像データDIが入力される。また、第一の畳み込み演算部111は、第一の畳み込みデータD111を高周波数算出部113に出力する。第一の畳み込みデータD111は、赤色の第一の畳み込みデータR111、緑色の第一の畳み込みデータG111及び青色の第一の畳み込みデータB111を有する。第二の畳み込み演算部112は、入力画像データDIが入力される。また、第二の畳み込み演算部112は、第二の畳み込みデータD112を高周波数算出部113に出力する。第二の畳み込みデータD112は、赤色の第二の畳み込みデータR112、緑色の第二の畳み込みデータG112及び青色の第二の畳み込みデータB112を有する。高周波数算出部113は、第一の畳み込みデータD111及び第二の畳み込みデータD112が入力される。また、高周波数算出部113は、高周波数検出信号D11を出力する。   FIG. 4 is a diagram illustrating a configuration of the high frequency detection unit 11. The high frequency detector 11 includes a first convolution calculator 111, a second convolution calculator 112, and a high frequency calculator 113. The high frequency detection unit 11 receives input image data DI. The input image data DI includes red input image data RI, green input image data GI, and blue input image data BI. Moreover, the high frequency detection part 11 outputs the high frequency detection signal D11. The first convolution operation unit 111 receives input image data DI. In addition, the first convolution operation unit 111 outputs the first convolution data D111 to the high frequency calculation unit 113. The first convolution data D111 includes red first convolution data R111, green first convolution data G111, and blue first convolution data B111. The second convolution operation unit 112 receives input image data DI. Further, the second convolution operation unit 112 outputs the second convolution data D112 to the high frequency calculation unit 113. The second convolution data D112 includes red second convolution data R112, green second convolution data G112, and blue second convolution data B112. The high frequency calculation unit 113 receives the first convolution data D111 and the second convolution data D112. Further, the high frequency calculation unit 113 outputs a high frequency detection signal D11.

図5は、第一の畳み込み演算部111の動作を説明するための図である。画素毎に図5に示した水平方向畳み込みパターンデータを入力画像データDIに畳み込むことで第一の畳み込みデータD111を生成する。例えば、水平方向の座標値がiとし、垂直方向の座標値がjとして、入力画像データDIは水平方向に以下のように並ぶこととする。

RI(i−1、j)=255、GI(i−1、j)=255、BI(i−1、j)=255、
RI(i、j) =0、 GI(i、j) =255、BI(i、j) =255、
RI(i+1、j)=255、GI(i+1、j)=0、 BI(i+1、j)=255、
RI(i+2、j)=0、 GI(i+2、j)=0、 BI(i+2、j)=255

この場合、着目画素(i、j)に対して水平方向に畳み込みパターンデータを畳み込んだ畳み込みデータR111,G111,B111は、以下の値となる。

R111(i、j)=RI(i−1、j)×1+RI(i、j)×(−1)+RI(i+1、j)×1+RI(i+2、j)×(−1)
=255−0+255−0=510 (1)

G111(i、j)=GI(i−1、j)×1+GI(i、j)×(−1)+GI(i+1、j)×1+GI(i+2、j)×(−1)
=255−255+0−0=0 (2)

B111(i、j)=BI(i−1、j)×1+BI(i、j)×(−1)+BI(i+1、j)×1+BI(i+2、j)×(−1)
=255−255+255−255=0 (3)

このように、着目画素(i、j)の周辺のRIが上述のように画素単位で変化しているデータであれば、RIに対する第一の畳み込みデータR111は大きい値となる。一方、着目画素(i、j)の周辺のGIが上述のように1画素単位で変化することのないデータであれば、GIに対する第一の畳み込みデータG111は小さい値となる。同じように、着目画素(i、j)の周辺のBIが上述のように画素単位で変化のないデータであれば、BIに対する第一の畳み込みデータB111は小さい値となる。
FIG. 5 is a diagram for explaining the operation of the first convolution operation unit 111. The first convolution data D111 is generated by convolving the horizontal convolution pattern data shown in FIG. 5 with the input image data DI for each pixel. For example, the horizontal coordinate value is i, the vertical coordinate value is j, and the input image data DI is arranged in the horizontal direction as follows.

RI (i-1, j) = 255, GI (i-1, j) = 255, BI (i-1, j) = 255,
RI (i, j) = 0, GI (i, j) = 255, BI (i, j) = 255,
RI (i + 1, j) = 255, GI (i + 1, j) = 0, BI (i + 1, j) = 255,
RI (i + 2, j) = 0, GI (i + 2, j) = 0, BI (i + 2, j) = 255

In this case, the convolution data R111, G111, and B111 obtained by convolving the convolution pattern data in the horizontal direction with respect to the pixel of interest (i, j) have the following values.

R111 (i, j) = RI (i-1, j) × 1 + RI (i, j) × (−1) + RI (i + 1, j) × 1 + RI (i + 2, j) × (−1)
= 255-0 + 255-0 = 510 (1)

G111 (i, j) = GI (i-1, j) × 1 + GI (i, j) × (−1) + GI (i + 1, j) × 1 + GI (i + 2, j) × (−1)
= 255-255 + 0-0 = 0 (2)

B111 (i, j) = BI (i−1, j) × 1 + BI (i, j) × (−1) + BI (i + 1, j) × 1 + BI (i + 2, j) × (−1)
= 255-255 + 255-255 = 0 (3)

Thus, if the RI around the pixel of interest (i, j) is data changing in units of pixels as described above, the first convolution data R111 for the RI is a large value. On the other hand, if the GI around the pixel of interest (i, j) is data that does not change in units of one pixel as described above, the first convolution data G111 for the GI is a small value. Similarly, if the BI around the pixel of interest (i, j) is data that does not change in pixel units as described above, the first convolution data B111 for the BI is a small value.

図6は、第二の畳み込み演算部112の動作を説明するための図である。画素毎に図6に示した垂直方向畳み込みパターンデータを入力画像データDIに畳み込むことで第二の畳み込みデータD112を生成する。例えば、水平方向の座標値がiとし、垂直方向の座標値がjとして、入力画像データDIは垂直方向に以下のように並ぶとする。

RI(i、j−1)=255、GI(i、j−1)=255、BI(i、j−1)=255、
RI(i、j) =0、 GI(i、j) =255、BI(i、j) =255、
RI(i、j+1)=255、GI(i、j+1)=0、 BI(i、j+1)=255、
RI(i、j+2)=0、 GI(i、j+2)=0、 BI(i、j+2)=255

この場合、着目画素(i、j)に対して垂直方向に畳み込みパターンデータを畳み込んだ畳み込みデータR112,G112,B112は以下の値となる。

R112(i、j)=RI(i、j−1)×1−RI(i、j)×(−1)+RI(i、j+1)×1−RI(i、j+2)×(−1)
=255−0+255−0=510 (4)

G112(i、j)=GI(i、j−1)×1−GI(i、j)×(−1)+GI(i、j+1)×1−GI(i、j+2)×(−1)
=255−255+0−0=0 (5)


B112(i、j)=BI(i、j−1)×1−BI(i、j)×(−1)+BI(i、j+1)×1−BI(i、j+2)×(−1)
=255−255+255−255=0 (6)


このように、着目画素(i、j)の周辺のRIが上述のように画素単位で変化しているデータであれば、RIに対する第二の畳み込みデータR112は大きい値となる。一方、着目画素(i、j)の周辺のGIが上述のように1画素単位で変化することのないデータであれば、GIに対する第二の畳み込みデータG112は小さい値となる。同じように、着目画素(i、j)の周辺のBIが上述のように画素単位で変化のないデータであれば、BIに対する第二の畳み込みデータB112は小さい値となる。
FIG. 6 is a diagram for explaining the operation of the second convolution operation unit 112. The second convolution data D112 is generated by convolving the vertical convolution pattern data shown in FIG. 6 with the input image data DI for each pixel. For example, it is assumed that the horizontal coordinate value is i, the vertical coordinate value is j, and the input image data DI is arranged in the vertical direction as follows.

RI (i, j-1) = 255, GI (i, j-1) = 255, BI (i, j-1) = 255,
RI (i, j) = 0, GI (i, j) = 255, BI (i, j) = 255,
RI (i, j + 1) = 255, GI (i, j + 1) = 0, BI (i, j + 1) = 255,
RI (i, j + 2) = 0, GI (i, j + 2) = 0, BI (i, j + 2) = 255

In this case, the convolution data R112, G112, and B112 obtained by convolving the convolution pattern data in the vertical direction with respect to the pixel of interest (i, j) have the following values.

R112 (i, j) = RI (i, j-1) * 1-RI (i, j) * (-1) + RI (i, j + 1) * 1-RI (i, j + 2) * (-1)
= 255-0 + 255-0 = 510 (4)

G112 (i, j) = GI (i, j-1) * 1-GI (i, j) * (-1) + GI (i, j + 1) * 1-GI (i, j + 2) * (-1)
= 255-255 + 0-0 = 0 (5)


B112 (i, j) = BI (i, j-1) * 1-BI (i, j) * (-1) + BI (i, j + 1) * 1-BI (i, j + 2) * (-1)
= 255-255 + 255-255 = 0 (6)


In this way, if the RI around the pixel of interest (i, j) is data changing in units of pixels as described above, the second convolution data R112 for the RI has a large value. On the other hand, if the GI around the pixel of interest (i, j) is data that does not change in units of one pixel as described above, the second convolution data G112 for the GI has a small value. Similarly, if the BI around the pixel of interest (i, j) is data that does not change in pixel units as described above, the second convolution data B112 for the BI is a small value.

高周波数算出部113は、第一の畳み込みデータD111と第二の畳み込みデータD112とを加重平均する。高周波数算出部113は、加重平均した信号を高周波数検出信号D11として出力する。また、第一の畳み込みデータD111は、第一の畳み込み赤色データR111、第一の畳み込み緑色データG111及び第一の青色データB111で以下のように構成される。

D111(i,j)=kr・R111(i,j)+kg・G111(i,j)
+kb・B111(i,j) (7)

赤色の係数kr、緑色の係数kg及び青色の係数kbの比は、輝度の算出式に基づいて、kr:kg:kb=0.299:0.587:0.144となる。第二の畳み込みデータD112は、第一の畳み込み赤色データR112、第一の畳み込み緑色データG112及び第一の青色データB112で以下のように構成される。

D112(i,j)=kr・R112(i,j)+kg・G112(i,j)
+kb・B112(i,j) (8)

赤色の係数kr、緑色の係数kg及び青色の係数kbの比は、上記と同様に、kr:kg:kb=0.299:0.587:0.144となる。ただし、赤色、緑色及び青色の係数の比は、上記に限るものではない。また、畳み込み演算は、入力画像データDIから予め輝度を算出して演算を行っても良い。畳み込みパターンデータは、4個として説明したが、回路規模が大きくなることを許容するならば、これより多くしてもよい。
The high frequency calculation unit 113 performs a weighted average of the first convolution data D111 and the second convolution data D112. The high frequency calculation unit 113 outputs a weighted average signal as a high frequency detection signal D11. The first convolution data D111 includes the first convolution red data R111, the first convolution green data G111, and the first blue data B111 as follows.

D111 (i, j) = kr · R111 (i, j) + kg · G111 (i, j)
+ Kb · B111 (i, j) (7)

The ratio of the red coefficient kr, the green coefficient kg, and the blue coefficient kb is kr: kg: kb = 0.299: 0.587: 0.144 based on the luminance calculation formula. The second convolution data D112 includes the first convolution red data R112, the first convolution green data G112, and the first blue data B112 as follows.

D112 (i, j) = kr · R112 (i, j) + kg · G112 (i, j)
+ Kb · B112 (i, j) (8)

The ratio of the red coefficient kr, the green coefficient kg, and the blue coefficient kb is kr: kg: kb = 0.299: 0.587: 0.144, as described above. However, the ratio of the red, green, and blue coefficients is not limited to the above. Further, the convolution calculation may be performed by calculating the luminance in advance from the input image data DI. Although the convolution pattern data has been described as four, it may be more than this if the circuit scale is allowed to increase.

高周波数検出部11は、水平方向及び垂直方向の高周波数のパターンを畳み込み、その結果を加算することにより着目画素の周辺が高周波数かどうかを検出することができる。高周波数かどうかを検出すること、つまり空間周波数が高いことを検出することにより、輝度データW12と白色データW13との合成割合を変更する。空間周波数が高い場合に輝度データW12の割合を多くすることによって、輝度の解像度に対して敏感で、色の解像度に対しては比較的敏感ではない視覚特性に対応した処理を行うことができる。   The high frequency detection unit 11 can detect whether the periphery of the pixel of interest has a high frequency by convolving the high frequency patterns in the horizontal direction and the vertical direction and adding the results. By detecting whether the frequency is high, that is, by detecting that the spatial frequency is high, the synthesis ratio of the luminance data W12 and the white data W13 is changed. By increasing the ratio of the luminance data W12 when the spatial frequency is high, it is possible to perform processing corresponding to visual characteristics that are sensitive to luminance resolution and relatively insensitive to color resolution.

図4〜図6では、1次元の畳み込みパターンデータを使って画素毎の高周波数を検出する方法を説明したが、図7〜図9に示すような2次元のパターンを使ってもよい。図4〜図6では第一の畳み込み演算部111で水平方向畳み込みパターンデータを使用し、第二の畳み込み演算部112で垂直方向畳み込みパターンデータを使用した。これに対し、第一の畳み込み演算部111で図7に示した縦縞畳み込みパターンデータを使用し、第二の畳み込み演算部112で図8に示した横縞畳み込みパターンデータを使用し、さらに第三の畳み込み演算部を図9で示した千鳥畳み込みパターンデータを使用する。また、図5〜図9では1画素で変化する画像を検出するパターンを説明したが、パターンの幅を広げ2画素以上のパターンを使用してもよい。   4 to 6, the method for detecting the high frequency for each pixel using the one-dimensional convolution pattern data has been described. However, a two-dimensional pattern as shown in FIGS. 7 to 9 may be used. 4 to 6, the first convolution calculation unit 111 uses horizontal direction convolution pattern data, and the second convolution calculation unit 112 uses vertical direction convolution pattern data. On the other hand, the first convolution calculation unit 111 uses the vertical stripe convolution pattern data shown in FIG. 7, the second convolution calculation unit 112 uses the horizontal stripe convolution pattern data shown in FIG. The convolution operation unit uses the staggered convolution pattern data shown in FIG. 5 to 9, the pattern for detecting an image that changes with one pixel has been described. However, the pattern width may be widened and a pattern with two or more pixels may be used.

輝度算出部12は、入力画像データDIを構成する赤色データRI、緑色データGI及び青色データBIを加重加算し輝度データW12を算出する。輝度の算出方法の一例を式(9)に示す。   The luminance calculation unit 12 calculates the luminance data W12 by weighted addition of the red data RI, the green data GI, and the blue data BI constituting the input image data DI. An example of a luminance calculation method is shown in Equation (9).

Figure 2015215450
Figure 2015215450

RGBW変換部13は、入力画像データDIを構成する3色の赤色データRI、緑色データGI及び青色データBIを赤色データR13、緑色データG13、青色データB13及び白色データW13の4色で構成される画像データD13に変換する。   The RGBW conversion section 13 is composed of three colors of red data RI, green data GI and blue data BI constituting the input image data DI in four colors of red data R13, green data G13, blue data B13 and white data W13. Conversion to image data D13.

図10は、RGBW変換部13の構成を示す図である。RGBW変換部13は、画素値比較部131、彩度調整値算出部132、三色画素値算出部133及び白色画素値算出部134を備える。RGBW変換部13は、入力画像データDIが入力される。入力画像データDIは、赤色の入力画像データRI、緑色の入力画像データGI及び青色の入力画像データBIを有する。また、RGBW変換部13は、画像データD13を出力する。画素値比較部131は、入力画像データDIが入力される。また、画素値比較部131は、比較結果Yimaxを彩度調整値算出部132及び三色画素値算出部133に出力する。さらに、画素値比較部131は、比較結果Yiminを彩度調整値算出部132及び白色画素値算出部134に出力する。彩度調整値算出部132は、比較結果Yimax及び比較結果Yiminが入力される。また、彩度調整値算出部132は、彩度調整値Xを出力する。三色画素値算出部133は、入力画像データDI、比較結果Yimax及び彩度調整値Xが入力される。また、三色画素値算出部133は、赤色の画像データR13、緑色の画像データG13及び青色の画像データB13を出力する。白色画素値算出部134は、比較結果Yiminが入力される。また、白色画素値算出部134は、白色の画像データW13を出力する。画像データD13は、赤色の画像データR13、緑色の画像データG13、青色の画像データB13及び白色の画像データW13を有する。   FIG. 10 is a diagram illustrating a configuration of the RGBW conversion unit 13. The RGBW conversion unit 13 includes a pixel value comparison unit 131, a saturation adjustment value calculation unit 132, a three-color pixel value calculation unit 133, and a white pixel value calculation unit 134. The RGBW converter 13 receives input image data DI. The input image data DI includes red input image data RI, green input image data GI, and blue input image data BI. The RGBW converter 13 outputs image data D13. The pixel value comparison unit 131 receives input image data DI. Further, the pixel value comparison unit 131 outputs the comparison result Yimax to the saturation adjustment value calculation unit 132 and the three-color pixel value calculation unit 133. Further, the pixel value comparison unit 131 outputs the comparison result Yimin to the saturation adjustment value calculation unit 132 and the white pixel value calculation unit 134. The saturation adjustment value calculation unit 132 receives the comparison result Yimax and the comparison result Yimin. Further, the saturation adjustment value calculation unit 132 outputs the saturation adjustment value X. The three-color pixel value calculation unit 133 receives the input image data DI, the comparison result Yimax, and the saturation adjustment value X. Further, the three-color pixel value calculation unit 133 outputs red image data R13, green image data G13, and blue image data B13. The white pixel value calculation unit 134 receives the comparison result Yimin. In addition, the white pixel value calculation unit 134 outputs white image data W13. The image data D13 includes red image data R13, green image data G13, blue image data B13, and white image data W13.

画素値比較部131は、入力画像データDIを入力とする。画素値比較部131は、入力画像データDIの各画素について入力画像データDIを構成する赤色データRI、緑色データGI及び青色データBIを比較する。画素値比較部131は、比較したデータの最大値(画素毎の最大値)である比較結果Yimaxと比較したデータの最小値(画素毎の最小値)である比較結果Yiminとを出力する。   The pixel value comparison unit 131 receives input image data DI. The pixel value comparison unit 131 compares the red data RI, the green data GI, and the blue data BI constituting the input image data DI for each pixel of the input image data DI. The pixel value comparison unit 131 outputs a comparison result Yimax that is a maximum value (maximum value for each pixel) of the compared data and a comparison result Yimin that is a minimum value (minimum value for each pixel) of the compared data.

彩度調整値算出部132は、画素値比較部131が出力する比較結果Yimax及び比較結果Yiminを入力とする。彩度調整値算出部132は、最大値である比較結果Yimaxと最小値である比較結果Yiminとを変数とする関数g(Yimax、Yimin)によって画素毎の彩度調整値Xを算出する。関数g(Yimax、Yimin)は、予め定められている。彩度調整値算出部132は、彩度調整値Xを三色画素値算出部133に出力する。   The saturation adjustment value calculation unit 132 receives the comparison result Yimax and the comparison result Yimin output from the pixel value comparison unit 131. The saturation adjustment value calculation unit 132 calculates the saturation adjustment value X for each pixel using a function g (Yimax, Yimin) having the comparison result Yimax as the maximum value and the comparison result Yimin as the minimum value as variables. The function g (Yimax, Yimin) is determined in advance. The saturation adjustment value calculation unit 132 outputs the saturation adjustment value X to the three-color pixel value calculation unit 133.

図11は、彩度調整値算出部132の構成を示す図である。彩度調整値算出部132は、上限値算出部1321、暫定値算出部1322及び決定部1323を備える。彩度調整値算出部132は、比較結果Yimax及び比較結果Yiminが入力される。また、彩度調整値算出部132は、彩度調整値Xを出力する。上限値算出部1321は、比較結果Yimax及び比較結果Yiminが入力される。また、上限値算出部1321は、上限値Lを決定部1323に出力する。暫定値算出部1322は、比較結果Yiminが入力される。また、暫定値算出部1322は、暫定値Xtを決定部1323に出力する。決定部1323は、上限値L及び暫定値Xtが入力される。また、決定部1323は、彩度調整値Xを出力する。   FIG. 11 is a diagram illustrating a configuration of the saturation adjustment value calculation unit 132. The saturation adjustment value calculation unit 132 includes an upper limit value calculation unit 1321, a provisional value calculation unit 1322, and a determination unit 1323. The saturation adjustment value calculation unit 132 receives the comparison result Yimax and the comparison result Yimin. Further, the saturation adjustment value calculation unit 132 outputs the saturation adjustment value X. The upper limit calculator 1321 receives the comparison result Yimax and the comparison result Yimin. Further, the upper limit calculation unit 1321 outputs the upper limit L to the determination unit 1323. The provisional value calculation unit 1322 receives the comparison result Yimin. The provisional value calculation unit 1322 outputs the provisional value Xt to the determination unit 1323. The determination unit 1323 receives the upper limit value L and the provisional value Xt. The determination unit 1323 outputs the saturation adjustment value X.

上限値算出部1321は、画素値比較部131が出力する比較結果Yimax及び比較結果Yiminを入力とし、式(10)の演算を行って上限値Lを求める。   The upper limit calculation unit 1321 receives the comparison result Yimax and the comparison result Yimin output from the pixel value comparison unit 131, calculates the upper limit L by performing the calculation of Expression (10).

Figure 2015215450
Figure 2015215450

暫定値算出部1322は、比較結果Yiminを変数とする予め定められた関数gt(Yimin)により、式(11)のように暫定値Xtを求める。   The provisional value calculation unit 1322 obtains the provisional value Xt as shown in Expression (11) using a predetermined function gt (Yimin) having the comparison result Yimin as a variable.

Figure 2015215450
Figure 2015215450

決定部1323は、上限値Lと暫定値Xtとを比較し、小さい方の値を彩度調整値Xとして出力する。即ち、彩度調整値Xは、上限値L以下に制限される。なお、比較結果Yimaxと比較結果Yiminとが等しい場合、数1の分母が0となるため、計算機上で上限値Lを求めることができない。そこでこの場合には、上限値Lは無限大と考え、無条件に暫定値Xtを彩度調整値Xとして出力する。   The determination unit 1323 compares the upper limit value L with the provisional value Xt, and outputs the smaller value as the saturation adjustment value X. That is, the saturation adjustment value X is limited to the upper limit value L or less. When the comparison result Yimax is equal to the comparison result Yimin, the denominator of Equation 1 is 0, so the upper limit L cannot be obtained on the computer. Therefore, in this case, the upper limit value L is considered to be infinite, and the provisional value Xt is output as the saturation adjustment value X unconditionally.

以上をまとめると、彩度調整値算出部132において彩度調整値Xを求める処理は、比較結果Yimax及び比較結果Yiminを変数とする関数g(Yimax、Yimin)を用いて式(12)のように表す。   Summarizing the above, the process of obtaining the saturation adjustment value X in the saturation adjustment value calculation unit 132 is expressed by Expression (12) using the function g (Yimax, Yimin) having the comparison result Yimax and the comparison result Yimin as variables. Expressed in

Figure 2015215450
Figure 2015215450

三色画素値算出部133は、入力画像データDI、比較結果Yimax及び彩度調整値Xとを入力とする。比較結果Yimaxは、画素値比較部131に出力される。彩度調整値Xは、彩度調整値算出部132に出力される。また、三色画素値算出部133は、式(13)〜(15)で与えられる演算を行う。さらに三色画素値算出部133は、演算により画像データD13を求め、出力する。   The three-color pixel value calculation unit 133 receives the input image data DI, the comparison result Yimax, and the saturation adjustment value X as inputs. The comparison result Yimax is output to the pixel value comparison unit 131. The saturation adjustment value X is output to the saturation adjustment value calculation unit 132. In addition, the three-color pixel value calculation unit 133 performs calculations given by the equations (13) to (15). Further, the three-color pixel value calculation unit 133 obtains and outputs the image data D13 by calculation.

Figure 2015215450

Figure 2015215450

Figure 2015215450
Figure 2015215450

Figure 2015215450

Figure 2015215450

白色画素値算出部134は、画素値比較部131が出力する比較結果Yiminを入力とする。また、白色画素値算出部134は、比較結果Yiminを変数とする、予め定められた関数f(Yimin)により、白色画素データW13を求める。さらに、白色画素値算出部134は、白色画素データW13を出力する。なお、白色画素データW13は8ビットのデジタルデータであるため、関数f(Yimin)は0から255の値をとる必要がある。   The white pixel value calculation unit 134 receives the comparison result Yimin output from the pixel value comparison unit 131. Further, the white pixel value calculation unit 134 obtains the white pixel data W13 by using a predetermined function f (Yimin) using the comparison result Yimin as a variable. Further, the white pixel value calculation unit 134 outputs white pixel data W13. Since the white pixel data W13 is 8-bit digital data, the function f (Yimin) needs to take a value from 0 to 255.

ここで、説明を分かりやすくするために、暫定値Xtを求める関数gt(Yimin)を、式(16)で表すように、係数が1.2で定数項を持たない一次関数と仮定して以降の説明を行う。   Here, in order to make the explanation easy to understand, it is assumed that the function gt (Yimin) for obtaining the provisional value Xt is a linear function having a coefficient of 1.2 and no constant term as expressed by the equation (16). Will be explained.

Figure 2015215450
Figure 2015215450

式(16)に式(12)を適用すると式(17)が得られる。   When Expression (12) is applied to Expression (16), Expression (17) is obtained.

Figure 2015215450
Figure 2015215450

入力画像データDIの彩度SIは、下記の式(18)のように表される。   The saturation SI of the input image data DI is expressed by the following equation (18).

Figure 2015215450
Figure 2015215450

従って、彩度SIを使って式(17)を書き換えると式(19)のようになる。   Therefore, when equation (17) is rewritten using saturation SI, equation (19) is obtained.

Figure 2015215450
Figure 2015215450

次に、白色データW13を求める関数f(Yimin)を式(20)で示すように係数が1.1で定数項を持たない一次関数(ただし、上限値255にする)であると仮定する。   Next, it is assumed that the function f (Yimin) for obtaining the white data W13 is a linear function having a coefficient of 1.1 and no constant term as shown by the equation (20) (however, the upper limit value is 255).

Figure 2015215450
Figure 2015215450

式(19)の右辺、及び式(20)の右辺は、いずれもYiminに対し係数を乗算する式となっていることから、関数g(Yimax、Yimin)と関数f(Yimin)との大小関係はこの係数部分の大小によって定まる。   Since the right side of the equation (19) and the right side of the equation (20) are both equations for multiplying Yimin by a coefficient, the magnitude relationship between the function g (Yimax, Yimin) and the function f (Yimin). Is determined by the size of this coefficient part.

図12において、関数g(Yimax、Yimin)の係数を示したグラフが実線CG1である。関数f(Yimin)の係数を示したグラフが実線CF1である。実線CG1は、彩度の逆数(1/SI)が1.0から1.2までの区間で破線CG0により示した係数値=1/SIのグラフと一致する。また、実線CG1は、彩度の逆数(1/SI)が1.2以上の区間で係数値が1.2に固定される。実線CF1は、横軸である彩度の逆数(1/SI)の値によらず1.1に固定される。なお、関数f(Yimin)の上限値255にクリップされる区間では、関数f(Yimin)の係数は実質1.1よりも小さい値をとる。この区間はYiminが255/1.1=231.818より大きい値をとる場合であり、このときの彩度SIの最大値は、Yimax=255、Yimin=232の時にSI=23/255となることから1/SIは255/23≒11.08より大きい値となる。   In FIG. 12, a graph showing the coefficient of the function g (Yimax, Yimin) is a solid line CG1. A graph showing the coefficient of the function f (Yimin) is a solid line CF1. The solid line CG1 matches the graph of coefficient value = 1 / SI indicated by the broken line CG0 in the interval where the reciprocal of saturation (1 / SI) is 1.0 to 1.2. The solid line CG1 has a coefficient value fixed at 1.2 in a section where the reciprocal of saturation (1 / SI) is 1.2 or more. The solid line CF1 is fixed at 1.1 regardless of the value of the reciprocal of saturation (1 / SI) on the horizontal axis. In the section clipped to the upper limit value 255 of the function f (Yimin), the coefficient of the function f (Yimin) takes a value substantially smaller than 1.1. This interval is a case where Yimin takes a value larger than 255 / 1.1 = 2231.818. The maximum value of saturation SI at this time is SI = 23/255 when Yimax = 255 and Yimin = 232. Therefore, 1 / SI is larger than 255 / 23≈11.08.

RGBW変換部13の出力データD13の彩度S13は、下記の式(21)により求められる。Y13maxは、赤色データR13、緑色データG13及び青色データB13の最大値である。Y13minは、赤色データR13、緑色データG13及び青色データB13の最小値である。   The saturation S13 of the output data D13 of the RGBW conversion unit 13 is obtained by the following equation (21). Y13max is the maximum value of red data R13, green data G13, and blue data B13. Y13min is the minimum value of red data R13, green data G13, and blue data B13.

Figure 2015215450
Figure 2015215450

Y13maxは、下記に示す式(22)によって求められる。Y13minは、下記に示す式(23)によって求める。   Y13max is obtained by the following equation (22). Y13min is obtained by the following equation (23).

Figure 2015215450
Figure 2015215450

式(22)及び式(23)により式(21)で表わされる彩度S13は、式(24)のように変換することができる。 The saturation S13 represented by the equation (21) by the equations (22) and (23) can be converted as the equation (24).

Figure 2015215450
Figure 2015215450

図12のグラフを用いて、信号変換後の彩度S13について説明する。図3の横軸である彩度の逆数(1/SI)が1.0〜1.1の区間Saにおいて、関数g(Yimax、Yimin)の係数は、関数f(Yimin)の係数よりも小さい値となっている。このことから、区間Saでは彩度調整値Xは、白色データW13よりも小さい値となる。その結果、式(24)の関係からRGBW変換部13の出力である画像データD13における彩度S13は、入力画像データDIの彩度SIに比べて小さい。   The saturation S13 after signal conversion will be described using the graph of FIG. In the section Sa where the reciprocal of saturation (1 / SI), which is the horizontal axis in FIG. 3, is 1.0 to 1.1, the coefficient of the function g (Yimax, Yimin) is smaller than the coefficient of the function f (Yimin). It is a value. For this reason, in the section Sa, the saturation adjustment value X is smaller than the white data W13. As a result, the saturation S13 in the image data D13 that is the output of the RGBW conversion unit 13 is smaller than the saturation SI of the input image data DI due to the relationship of Expression (24).

一方、図12の横軸である彩度の逆数(1/SI)が1.1を越える区間Sbでの関数g(Yimax、Yimin)の係数は、関数f(Yimin)の係数よりも大きい値となる。このことから、区間Sbでの彩度調整値Xは、白色の画像データW13よりも大きい値となる。その結果、RGBW変換部13の出力である画像データD13の彩度SOは、入力画像データDIの彩度SIに比べて大きい。   On the other hand, the coefficient of the function g (Yimax, Yimin) in the section Sb where the reciprocal of saturation (1 / SI) on the horizontal axis in FIG. 12 exceeds 1.1 is larger than the coefficient of the function f (Yimin). It becomes. For this reason, the saturation adjustment value X in the section Sb is larger than the white image data W13. As a result, the saturation SO of the image data D13 that is the output of the RGBW converter 13 is larger than the saturation SI of the input image data DI.

入力画像データDIの色相HIは、式(25)で求める。   The hue HI of the input image data DI is obtained by Expression (25).

Figure 2015215450
Figure 2015215450

RGBW変換部13の出力データD13の色相H13は、式(26)で求める。色相H13は、入力画像データDIの色相と変わらない。   The hue H13 of the output data D13 of the RGBW conversion unit 13 is obtained by Expression (26). The hue H13 is not different from the hue of the input image data DI.

Figure 2015215450
Figure 2015215450

入力画像データDIの明度VIは、式(27)で求める。   The brightness VI of the input image data DI is obtained by Expression (27).

Figure 2015215450
Figure 2015215450

RGBW変換部13の出力データD13の明度V13は、式(28)で求められる。明度V13は、入力画像データDIの明度に対して(W13/255)分上昇する。   The brightness V13 of the output data D13 of the RGBW conversion unit 13 is obtained by Expression (28). The brightness V13 increases by (W13 / 255) with respect to the brightness of the input image data DI.

Figure 2015215450
Figure 2015215450

このようにRGBW変換部13の出力データD13の色相は、入力画像データDIと変わらず、明度が上昇し、彩度は彩度調整値Xを白色データW13より大きくすることで入力画像データより彩度を高くすることができる。   Thus, the hue of the output data D13 of the RGBW conversion unit 13 is the same as that of the input image data DI, the brightness increases, and the saturation is higher than that of the input image data by making the saturation adjustment value X larger than the white data W13. The degree can be increased.

単色用データ生成部14は、高周波数検出信号D11が大きい場合に輝度データW12を出力する。また、単色用データ生成部14は、高周波数検出信号D11が小さい場合に白色データW13を出力する。   The monochrome data generation unit 14 outputs the luminance data W12 when the high frequency detection signal D11 is large. Further, the monochrome data generation unit 14 outputs white data W13 when the high frequency detection signal D11 is small.

3in1用データ生成部15は、単色用データ生成部14と同様に高周波数検出信号D11が大きい場合に入力画像データDIを出力する。また、3in1用データ生成部15は、高周波数検出信号D11が小さい場合にRGBW変換部13が生成する赤色の画像データR13、緑色の画像データG13及び青色の画像データB13を出力する。   The 3-in-1 data generation unit 15 outputs the input image data DI when the high-frequency detection signal D11 is large, like the single-color data generation unit 14. The 3-in-1 data generation unit 15 outputs red image data R13, green image data G13, and blue image data B13 generated by the RGBW conversion unit 13 when the high frequency detection signal D11 is small.

図13は、単色用データ生成部14及び3in1用データ生成部15の動作を説明するための図である。図13において、横軸は高周波数検出信号D11である。図13において、縦軸は輝度データW12と白色データW13との合成割合である。単色用データ生成部14は、高周波数検出信号D11が閾値Taより小さい場合、白色データW13を出力する。単色用データ生成部14は、高周波数検出信号D11が閾値Tbより大きい場合、輝度データW12を出力する。単色用データ生成部14は、高周波数検出信号D11が閾値TaとTbとの間にある場合、輝度データW12と白色データW13とを加重平均して出力する。3in1用データ生成部15も単色用データ生成部14と同様である。3in1用データ生成部15は、高周波数検出信号D11が閾値Taより小さい場合、赤色の画像データR13、緑色の画像データG13及び青色の画像データB13を出力する。また、3in1用データ生成部15は、高周波数検出信号D11が閾値Tbより大きい場合、入力画像データDIを出力する。また、3in1用データ生成部15は、高周波数検出信号D11が閾値TaとTbの間にある場合、入力画像データDIと赤色データR13、緑色データG13又は青色データB13を色毎に加重平均して出力する。なお、合成割合をkとすると、画像データD14は、式(29)で求められる。

D14=W12×k + W13×(1−k) (29)

閾値Ta及びTbについては、3in1発光素子31の色再現範囲や単色発光素子の発光強度または発光素子間の距離等により表示部31の画質が決まるため、表示部31の特性に応じて決めることが望ましい。しかしながら、表示部31の特性だけでなく表示部31の周辺の照度によっても閾値Ta及びTbを変えてもよい。すなわち、周辺照度が高い場合、表示部31の反射光が大きくなり表示部31が白っぽくなってしまう。その場合、閾値Ta及びTbを高く設定することで周辺照度が高くても色の濃い表示を行うことができる。
FIG. 13 is a diagram for explaining the operation of the monochrome data generation unit 14 and the 3in1 data generation unit 15. In FIG. 13, the horizontal axis represents the high frequency detection signal D11. In FIG. 13, the vertical axis represents the composition ratio of the luminance data W12 and the white data W13. The single color data generation unit 14 outputs white data W13 when the high frequency detection signal D11 is smaller than the threshold Ta. The monochromatic data generation unit 14 outputs luminance data W12 when the high frequency detection signal D11 is larger than the threshold value Tb. When the high frequency detection signal D11 is between the threshold values Ta and Tb, the monochrome data generation unit 14 performs weighted averaging of the luminance data W12 and the white data W13 and outputs the result. The 3in1 data generation unit 15 is the same as the single color data generation unit 14. When the high frequency detection signal D11 is smaller than the threshold Ta, the 3in1 data generation unit 15 outputs red image data R13, green image data G13, and blue image data B13. Further, the 3in1 data generation unit 15 outputs the input image data DI when the high frequency detection signal D11 is larger than the threshold value Tb. In addition, when the high frequency detection signal D11 is between the threshold values Ta and Tb, the 3in1 data generation unit 15 performs weighted averaging of the input image data DI and the red data R13, the green data G13, or the blue data B13 for each color. Output. When the composition ratio is k, the image data D14 is obtained by the equation (29).

D14 = W12 × k + W13 × (1-k) (29)

The threshold values Ta and Tb are determined according to the characteristics of the display unit 31 because the image quality of the display unit 31 is determined by the color reproduction range of the 3-in-1 light-emitting element 31, the emission intensity of the single-color light-emitting element, the distance between the light-emitting elements, or the like. desirable. However, the threshold values Ta and Tb may be changed not only by the characteristics of the display unit 31 but also by the illuminance around the display unit 31. That is, when the peripheral illuminance is high, the reflected light of the display unit 31 becomes large and the display unit 31 becomes whitish. In that case, by setting the threshold values Ta and Tb high, it is possible to perform dark color display even if the peripheral illuminance is high.

画像制御部2は、図2で示した表示画面に配置されている発光素子の種類に応じてデータを選択する。つまり、画像制御部2は、3in1発光素子32の位置で3in1用データ生成部15が出力する画像データD15を選択する。そして、画像制御部2は、単色発光素子33の位置で単色用データ生成部14が出力する画像データD14を出力する。   The image control unit 2 selects data according to the type of light emitting elements arranged on the display screen shown in FIG. That is, the image control unit 2 selects the image data D15 output from the 3in1 data generation unit 15 at the position of the 3in1 light emitting element 32. Then, the image control unit 2 outputs the image data D14 output from the monochrome data generation unit 14 at the position of the monochrome light emitting element 33.

また、図2では、3in1発光素子32と単色発光素子33とが千鳥状に配置されている表示画面を示したが、図2の画面より更に多くの3in1発光素子32を単色発光素子33に置き換えた図14のような表示画面でもよい。図14は、x方向の奇数番目の列にある全ての3in1発光素子32を単色発光素子33に置き換えた例である。   2 shows a display screen in which the 3-in-1 light-emitting elements 32 and the single-color light-emitting elements 33 are arranged in a staggered manner. However, more 3-in-1 light-emitting elements 32 than the screen in FIG. A display screen as shown in FIG. FIG. 14 shows an example in which all the 3-in-1 light-emitting elements 32 in the odd-numbered columns in the x direction are replaced with monochromatic light-emitting elements 33.

本発明に係る画像処理装置は、空間周波数の高い領域を検出し、空間周波数の高い領域には輝度データを適用することで空間周波数の高い映像を表示することができる。また、空間周波数の低い領域には彩度の高いデータを適用することで色再現性の良い映像を表示することができる。   The image processing apparatus according to the present invention can display an image having a high spatial frequency by detecting a region having a high spatial frequency and applying luminance data to the region having a high spatial frequency. In addition, an image with good color reproducibility can be displayed by applying data with high saturation to an area with a low spatial frequency.

実施の形態2.
次に、本発明に係る実施の形態2について説明する。上記画像表示装置の機能の一部は、ハードウェア構成で実現されても良いし、あるいは、CPU(central processing unit)を含むマイクロプロセッサにより実行されるコンピュータプログラムで実現されてもよい。当該機能の一部がコンピュータプログラムで実現される場合には、マイクロプロセッサは、コンピュータから読み取り可能な記憶媒体から当該コンピュータプログラムをロードし実行することによって当該機能の一部を実現することができる。
Embodiment 2. FIG.
Next, a second embodiment according to the present invention will be described. A part of the functions of the image display device may be realized by a hardware configuration, or may be realized by a computer program executed by a microprocessor including a CPU (central processing unit). When a part of the function is realized by a computer program, the microprocessor can realize a part of the function by loading and executing the computer program from a computer-readable storage medium.

図15は、上記画像表示装置の機能の一部をコンピュータプログラムで実現する場合の構成を示す図である。図15に示すように、この画像表示装置5は、画像表示部3及び演算装置4を有する。演算装置4は、CPUを含むプロセッサ41、画像制御部2、RAM(random access memory)42、不揮発性メモリ43、大容量記憶媒体44及びバス45を備えている。プロセッサ41、画像制御部2、RAM42、不揮発性メモリ43及び大容量記憶媒体44は、バス45に接続している。画像制御部2は、画像データD2を画像表示部3に出力する。不揮発性メモリ43としては、たとえば、フラッシュメモリを使用することができる。また、大容量記憶媒体44としては、たとえば、ハードディスク(磁気ディスク)や光ディスクを使用することが可能である。     FIG. 15 is a diagram showing a configuration when a part of the functions of the image display device is realized by a computer program. As shown in FIG. 15, the image display device 5 includes an image display unit 3 and a calculation device 4. The arithmetic device 4 includes a processor 41 including a CPU, an image control unit 2, a RAM (Random Access Memory) 42, a nonvolatile memory 43, a large-capacity storage medium 44, and a bus 45. The processor 41, the image control unit 2, the RAM 42, the nonvolatile memory 43, and the mass storage medium 44 are connected to the bus 45. The image control unit 2 outputs the image data D2 to the image display unit 3. As the non-volatile memory 43, for example, a flash memory can be used. Further, as the large-capacity storage medium 44, for example, a hard disk (magnetic disk) or an optical disk can be used.

画像制御部2は、図1の画像制御部3と同じ機能を有し、プロセッサ41からバス45を介して転送された画像データD14及びD15に基づいて画像データD2を生成し、この画像データD2を表示信号として画像表示部3に供給する。   The image control unit 2 has the same function as the image control unit 3 in FIG. 1, generates image data D2 based on the image data D14 and D15 transferred from the processor 41 via the bus 45, and this image data D2 Is supplied to the image display unit 3 as a display signal.

プロセッサ41は、不揮発性メモリ43または大容量記憶媒体44からコンピュータプログラムをロードし実行することによって上記画像処理装置1の機能を実現する。図16は、実施の形態2の演算装置4による処理手順の一例を概略的に示すフローチャートである。   The processor 41 implements the functions of the image processing apparatus 1 by loading and executing a computer program from the nonvolatile memory 43 or the large-capacity storage medium 44. FIG. 16 is a flowchart schematically illustrating an example of a processing procedure performed by the arithmetic device 4 according to the second embodiment.

図16に示されるように、プロセッサ41は、まず、高周波数検出処理を実行する(ステップS11)。その後、プロセッサ41は、輝度算出処理を実行する(S12)。その後、プロセッサ41は、RGBW変換処理を実行する(S13)。その後、プロセッサ41は、単色用データ生成処理を実行する(S14)。その後、プロセッサ41は、3in1用データ生成処理を実行する(S15)。最後に、画像制御部2は、プロセッサ51から転送された画像データD2に基づいて、画像表示部4の画素配列に合わせた表示画像信号D2を生成する(ステップS2)。   As shown in FIG. 16, the processor 41 first executes a high frequency detection process (step S11). Thereafter, the processor 41 executes a luminance calculation process (S12). Thereafter, the processor 41 executes RGBW conversion processing (S13). Thereafter, the processor 41 executes a single color data generation process (S14). After that, the processor 41 executes 3in1 data generation processing (S15). Finally, the image control unit 2 generates a display image signal D2 that matches the pixel arrangement of the image display unit 4 based on the image data D2 transferred from the processor 51 (step S2).

なお、上述の各実施の形態においては、3in1発光素子を用いて説明したが、赤色、緑色及び青色の発光体を有していれば、一つのパッケージの中に必ずしも収納されている必要はない。また、上述の各実施の形態においては、「水平」又は「垂直」などの部品間の位置関係もしくは部品の形状を示す用語を用いている場合がある。これらは、製造上の公差や組立て上のばらつきなどを考慮した範囲を含むことを表している。このため、請求の範囲に部品間の位置関係もしくは部品の形状を示す記載をした場合には、製造上の公差又は組立て上のばらつき等を考慮した範囲を含むことを示している。   In each of the above-described embodiments, the description has been given using the 3-in-1 light-emitting element. However, as long as the red, green, and blue light-emitting elements are included, it is not always necessary to be housed in one package. . Further, in each of the above-described embodiments, there may be used a term indicating a positional relationship between parts or a part shape such as “horizontal” or “vertical”. These represent that a range that takes into account manufacturing tolerances and assembly variations is included. For this reason, when the description showing the positional relationship between the parts or the shape of the part is included in the claims, it indicates that the range including a manufacturing tolerance or an assembly variation is taken into consideration.

また、以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。   Moreover, although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments.

1 画像処理装置
2 画像制御部
3 画像表示部
4 演算装置
5 画像表示装置
11 高周波数検出部
12 輝度算出部
13 RGBW変換部
14 単色用データ生成部
15 3in1用データ生成部
31 表示画面
32 3in1発光素子
33 単色発光素子
111 第一の畳み込み演算部
112 第二の畳み込み演算部
113 高周波数算出部
131 画素値比較部
132 彩度調整値算出部
133 三色画素値算出部
134 白色画素値算出部
1321 上限値算出部
1322 暫定値算出部
1323 決定部
4 演算装置
41 プロセッサ
42 RAM
43 不揮発性メモリ
44 大容量記憶媒体
45 バス
DI 入力画像データ
RI 赤色の入力画像データ
GI 緑色の入力画像データ
BI 青色の入力画像データ
D11 高周波数検出信号
W12 輝度データ
R13 赤色の画像データ
G13 緑色の画像データ
B13 青色の画像データ
W13 白色の画像データ
D13 画像データ
D14 画像データ
D15 画像データ
D2 画像データ
D111 畳み込みデータ
R111 畳み込みデータ
G111 畳み込みデータ
B111 畳み込みデータ
D112 畳み込みデータ
R112 畳み込みデータ
G112 畳み込みデータ
B112 畳み込みデータ
Yimax 比較結果
Yimin 比較結果
X 彩度調整値
L 上限値
Xt 暫定値
gt 関数
SI,SO 彩度
S13 彩度
H13 色相
Ta,Tb 閾値
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Image control part 3 Image display part 4 Arithmetic apparatus 5 Image display apparatus 11 High frequency detection part 12 Luminance calculation part 13 RGBW conversion part 14 Monochromatic data generation part 15 3 in 1 data generation part 31 Display screen 32 3 in 1 light emission Element 33 Monochromatic light emitting element 111 First convolution operation unit 112 Second convolution operation unit 113 High frequency calculation unit 131 Pixel value comparison unit 132 Saturation adjustment value calculation unit 133 Three-color pixel value calculation unit 134 White pixel value calculation unit 1321 Upper limit calculation unit 1322 provisional value calculation unit 1323 determination unit 4 arithmetic device 41 processor 42 RAM
43 Nonvolatile memory 44 Mass storage medium 45 Bus DI Input image data RI Red input image data GI Green input image data BI Blue input image data D11 High frequency detection signal W12 Luminance data R13 Red image data G13 Green image Data B13 Blue image data W13 White image data D13 Image data D14 Image data D15 Image data D2 Image data D111 Convolution data R111 Convolution data G111 Convolution data B111 Convolution data D112 Convolution data R112 Convolution data G112 Convolution data B112 Y Convolution data B112 Y Convolution data B112 Y Yimin comparison result X Saturation adjustment value L Upper limit value Xt Provisional value gt Function SI, SO Saturation S13 Saturation H13 Hue Ta, Tb Threshold

Claims (10)

RGBの原色を有する発光素子と単色の発光素子とを格子状に配列して構成した画像表示部に表示する画像を生成する画像処理装置において、
入力画像データから着目した画素位置の周辺の空間周波数を検出して高周波数検出信号を出力する高周波数検出部と、
前記入力画像データに含まれる第一のRGBデータから輝度データを算出する輝度算出部と、
前記第一のRGBデータから第二のRGBデータ及び白色データを生成するRGBW変換部と、
前記着目した画素位置について前記高周波数検出信号の前記空間周波数が高いことを示す場合は、前記着目した画素位置における前記輝度データの合成割合を前記着目した画素位置における前記白色データの合成割合に対して大きくして合成した単色用データを生成する単色用データ生成部と、
前記高周波数検出信号の前記空間周波数が低いことを示す場合に、前記RGBの原色を有する発光素子に表示するデータにおける前記第二のRGBデータの合成割合を前記第一のRGBデータの合成割合に対して大きくする3in1用データ生成部と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that generates an image to be displayed on an image display unit configured by arranging light emitting elements having primary colors of RGB and single color light emitting elements in a grid pattern
A high frequency detection unit that detects a spatial frequency around a pixel position of interest from input image data and outputs a high frequency detection signal;
A luminance calculating unit for calculating luminance data from first RGB data included in the input image data;
An RGBW converter that generates second RGB data and white data from the first RGB data;
When the spatial frequency of the high-frequency detection signal is high for the pixel position of interest, the composition ratio of the luminance data at the pixel position of interest is compared with the composition ratio of the white data at the pixel position of interest. A single color data generation unit for generating single color data synthesized by enlarging,
When the high frequency detection signal indicates that the spatial frequency is low, the composition ratio of the second RGB data in the data displayed on the light emitting element having the RGB primary colors is changed to the composition ratio of the first RGB data. An image processing apparatus comprising a 3-in-1 data generation unit that is larger than the 3-in-1 data generation unit.
前記高周波数検出部は、
予め定められた複数のパターンを前記入力画像データにそれぞれ畳み込んで畳み込みデータを生成する複数の畳み込み演算部と、
前記複数の畳み込みデータを加重平均して前記高周波数検出信号を生成する高周波数算出部と
を備えることを特徴とする請求項1に記載の画像処理装置。
The high frequency detector is
A plurality of convolution operation units that respectively convolve a plurality of predetermined patterns with the input image data to generate convolution data;
The image processing apparatus according to claim 1, further comprising: a high frequency calculation unit configured to generate the high frequency detection signal by weighted averaging the plurality of convolution data.
前記RGBW変換部は、
前記入力画像データに基づいて各画素のRGBデータの最大値及び最小値を生成する画素値比較部と、
前記RGBデータの最大値及び最小値に基づいて彩度調整値を生成する彩度調整値算出部と、
前記入力画像データと前記RGBデータとの最大値、及び前記入力画像データと前記RGBデータとの最小値に基づいて彩度を調整したRGBデータを生成する三色画素値算出部と、
前記RGBデータの最小値に基づいて白色データを生成する白色画素値算出部と
を備えることを特徴とする請求項1に記載の画像処理装置。
The RGBW converter is
A pixel value comparison unit that generates a maximum value and a minimum value of RGB data of each pixel based on the input image data;
A saturation adjustment value calculation unit that generates a saturation adjustment value based on the maximum value and the minimum value of the RGB data;
A three-color pixel value calculation unit that generates RGB data in which saturation is adjusted based on a maximum value of the input image data and the RGB data, and a minimum value of the input image data and the RGB data;
The image processing apparatus according to claim 1, further comprising a white pixel value calculation unit that generates white data based on a minimum value of the RGB data.
前記単色用データ生成部は、前記高周波数検出信号が第一の閾値より小さい場合、前記白色データを出力し、前記高周波数検出信号が第二の閾値より大きい場合、前記輝度データを出力し、前記高周波数検出信号が前記第一の閾値と前記第二の閾値との間にある場合、前記輝度データと前記白色データとを加重平均して出力する
ことを特徴とする請求項1に記載の画像処理装置。
The monochrome data generation unit outputs the white data when the high frequency detection signal is smaller than a first threshold, and outputs the luminance data when the high frequency detection signal is larger than a second threshold. The weighted average of the luminance data and the white data is output when the high frequency detection signal is between the first threshold and the second threshold. Image processing device.
前記3in1用データ生成部は、前記高周波数検出信号が前記第一の閾値より小さい場合、前記第二のRGBデータを出力し、前記高周波数検出信号が前記第二の閾値より大きい場合、前記第一のRGBデータを出力し、前記高周波数検出信号が前記第一の閾値と前記第二の閾値との間にある場合、前記第一のRGBデータと前記第二のRGBデータとを加重平均して出力する
ことを特徴とする請求項1に記載の画像処理装置。
The 3in1 data generation unit outputs the second RGB data when the high frequency detection signal is smaller than the first threshold value, and outputs the second RGB data when the high frequency detection signal is larger than the second threshold value. If the high frequency detection signal is between the first threshold value and the second threshold value, the weighted average of the first RGB data and the second RGB data is output. The image processing apparatus according to claim 1, wherein the image processing apparatus outputs the image.
前記第一の閾値及び前記第二の閾値は、周辺照度が高い場合に高い値で設定されることを特徴とする請求項4又は請求項5のいずれか1項に記載の画像処理装置。   6. The image processing apparatus according to claim 4, wherein the first threshold value and the second threshold value are set to high values when ambient illuminance is high. 前記彩度調整値算出部は、
前記RGBデータの最大値及び最小値に基づいて前記彩度調整値の上限値を生成する上限値算出部と、
前記RGBデータの最小値に基づいて彩度調整値の暫定値を生成する暫定値算出部と、
前記上限値と前記暫定値とに基づいて彩度調整値を生成する決定部と
を備えることを特徴とする請求項3に記載の画像処理装置。
The saturation adjustment value calculation unit
An upper limit calculation unit that generates an upper limit of the saturation adjustment value based on the maximum value and the minimum value of the RGB data;
A provisional value calculation unit that generates a provisional value of the saturation adjustment value based on the minimum value of the RGB data;
The image processing apparatus according to claim 3, further comprising a determination unit that generates a saturation adjustment value based on the upper limit value and the provisional value.
請求項1に記載の画像処理装置を備え、
前記R、G及びBを一つのパッケージに入れた発光素子に対応するデータと単色の発光素子とに対応するデータを選択する画像制御部と、
前記R、G及びBを一つのパッケージに入れた発光素子と単色の発光素子とを格子状に配列して構成した画像表示部と
をさらに備えることを特徴とする画像表示装置。
An image processing apparatus according to claim 1,
An image controller for selecting data corresponding to light emitting elements in which R, G, and B are contained in one package and data corresponding to light emitting elements of a single color;
An image display apparatus, further comprising: an image display unit configured by arranging light emitting elements in which R, G, and B are contained in one package and monochromatic light emitting elements in a grid pattern.
R、G及びBを一つのパッケージに入れた発光素子と単色の発光素子とを格子状に配列して構成した画像表示部に表示する画像を生成する画像処理方法において、
入力画像データから着目した画素位置の周辺の空間周波数を検出して高周波数検出信号を出力する高周波数検出ステップと、
前記入力画像データに含まれる第一のRGBデータから輝度データを算出する輝度算出ステップと、
前記第一のRGBデータから第二のRGBデータ及び白色データを生成するRGBW変換処理ステップと、
前記着目した画素位置について前記高周波数検出信号の前記空間周波数が高いことを示す場合は、前記着目した画素位置における前記輝度データの合成割合を前記着目した画素位置における前記白色データの合成割合に対して大きくして合成した単色用データを生成する単色用データ生成処理ステップと、
前記高周波数検出信号の前記空間周波数が低いことを示す場合に、前記RGBの原色を有する発光素子に表示するデータにおける前記第二のRGBデータの合成割合を前記第一のRGBデータの合成割合に対して大きくする3in1用データ生成処理ステップと
を備えることを特徴とする画像処理方法。
In an image processing method for generating an image to be displayed on an image display unit configured by arranging light emitting elements in which R, G, and B are contained in one package and monochromatic light emitting elements in a grid pattern,
A high frequency detection step for detecting a spatial frequency around the pixel position of interest from input image data and outputting a high frequency detection signal;
A luminance calculating step of calculating luminance data from the first RGB data included in the input image data;
RGBW conversion processing step for generating second RGB data and white data from the first RGB data;
When the spatial frequency of the high-frequency detection signal is high for the pixel position of interest, the composition ratio of the luminance data at the pixel position of interest is compared with the composition ratio of the white data at the pixel position of interest. A monochrome data generation processing step for generating monochromatic data synthesized by enlarging and
When the high frequency detection signal indicates that the spatial frequency is low, the composition ratio of the second RGB data in the data displayed on the light emitting element having the RGB primary colors is changed to the composition ratio of the first RGB data. An image processing method comprising: a 3in1 data generation processing step that is increased with respect to the data.
R、G及びBを一つのパッケージに入れた発光素子と単色の発光素子とを格子状に配列して構成した画像表示部に表示する画像を生成する画像処理をプロセッサに実行させるコンピュータプログラムにおいて、
前記コンピュータプログラムは前記プロセッサによりコンピュータ読み取り可能な記憶媒体から読み出されて実行されるものであり、
前記画像処理は、
入力画像データから周波数の高い領域を検出して高周波数検出信号を出力する高周波数検出処理と、
前記入力画像データに含まれる第一のRGBデータから輝度データを算出する輝度算出処理と、
前記第一のRGBデータから第二のRGBデータ及び白色データを生成するRGBW変換処理と、
前記着目した画素位置について前記高周波数検出信号の前記空間周波数が高いことを示す場合は、前記着目した画素位置における前記輝度データの合成割合を前記着目した画素位置における前記白色データの合成割合に対して大きくして合成した単色用データを生成する単色用データ生成処理と、
前記高周波数検出信号の前記空間周波数が低いことを示す場合に、前記RGBの原色を有する発光素子に表示するデータにおける前記第二のRGBデータの合成割合を前記第一のRGBデータの合成割合に対して大きくする3in1用データ生成処理と
を含むことを特徴とするコンピュータプログラム。
In a computer program for causing a processor to execute image processing for generating an image to be displayed on an image display unit configured by arranging a light emitting element in which R, G, and B are contained in one package and a single color light emitting element in a grid pattern,
The computer program is read from a computer-readable storage medium by the processor and executed.
The image processing is
High frequency detection processing that detects a high frequency area from input image data and outputs a high frequency detection signal;
Luminance calculation processing for calculating luminance data from first RGB data included in the input image data;
RGBW conversion processing for generating second RGB data and white data from the first RGB data;
When the spatial frequency of the high-frequency detection signal is high for the pixel position of interest, the composition ratio of the luminance data at the pixel position of interest is compared with the composition ratio of the white data at the pixel position of interest. A single color data generation process for generating a single color data which is enlarged and combined,
When the high frequency detection signal indicates that the spatial frequency is low, the composition ratio of the second RGB data in the data displayed on the light emitting element having the RGB primary colors is changed to the composition ratio of the first RGB data. A computer program comprising: 3in1 data generation processing which is increased with respect to the data.
JP2014097712A 2014-05-09 2014-05-09 Image processing apparatus, image display apparatus, image processing method, and computer program Active JP6323152B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014097712A JP6323152B2 (en) 2014-05-09 2014-05-09 Image processing apparatus, image display apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014097712A JP6323152B2 (en) 2014-05-09 2014-05-09 Image processing apparatus, image display apparatus, image processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2015215450A true JP2015215450A (en) 2015-12-03
JP6323152B2 JP6323152B2 (en) 2018-05-16

Family

ID=54752398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014097712A Active JP6323152B2 (en) 2014-05-09 2014-05-09 Image processing apparatus, image display apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP6323152B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107250506A (en) * 2015-02-27 2017-10-13 三菱重工业株式会社 The starter of engine, startup method, the ship for possessing starter

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220039429A (en) 2020-09-22 2022-03-29 삼성전자주식회사 Color decomposition method and demosaicing method based on deep learning using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002107821A (en) * 2000-09-29 2002-04-10 Hitachi Ltd Color display device
US20080297448A1 (en) * 2004-06-14 2008-12-04 Seiichi Mizukoshi Oled Display Apparatus
JP2012173466A (en) * 2011-02-21 2012-09-10 Mitsubishi Electric Corp Image displaying device
WO2012137819A1 (en) * 2011-04-08 2012-10-11 シャープ株式会社 Display device and display method
JP2013257476A (en) * 2012-06-14 2013-12-26 Sony Corp Display, image processing unit, and display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002107821A (en) * 2000-09-29 2002-04-10 Hitachi Ltd Color display device
US20080297448A1 (en) * 2004-06-14 2008-12-04 Seiichi Mizukoshi Oled Display Apparatus
JP2012173466A (en) * 2011-02-21 2012-09-10 Mitsubishi Electric Corp Image displaying device
WO2012137819A1 (en) * 2011-04-08 2012-10-11 シャープ株式会社 Display device and display method
JP2013257476A (en) * 2012-06-14 2013-12-26 Sony Corp Display, image processing unit, and display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107250506A (en) * 2015-02-27 2017-10-13 三菱重工业株式会社 The starter of engine, startup method, the ship for possessing starter

Also Published As

Publication number Publication date
JP6323152B2 (en) 2018-05-16

Similar Documents

Publication Publication Date Title
JP5966658B2 (en) Display device, image processing device, and display method
JP5924147B2 (en) Display device, image processing device, and display method
TWI498872B (en) Method and apparatus for converting rgb data signals to rgbw data signals in an oled display
JP6222939B2 (en) Unevenness correction apparatus and control method thereof
US9947258B2 (en) Image processing method and image processing apparatus
KR20070036720A (en) Display image correcting device, image display device, and display image correcting method
JPWO2014024577A1 (en) Color signal processing circuit, color signal processing method, display device, and electronic apparatus
KR20150112754A (en) Conversion between color spaces
JP2017046045A5 (en) Display device, display device control method, image processing device, program, and recording medium
JP2016133640A5 (en)
WO2020191698A1 (en) Display panel, and control method and apparatus therefor
JP2018508797A (en) Data acquisition module and method, data processing unit, driver and display device
WO2012108095A1 (en) Light-emission control device, light-emission control method, light emitting device, image display device, program, and recording medium
JP4883932B2 (en) Display device
US11170690B2 (en) Pixel leakage and internal resistance compensation systems and methods
US20170010845A1 (en) Light control device, display device, multiscreen display system, light control method, and program
KR100714723B1 (en) Device and method of compensating for the differences in persistence of the phosphors in a display panel and a display apparatus including the device
KR102606209B1 (en) Defocus blur removal and depth estimation using dual-pixel image data
JP6617432B2 (en) Image processing apparatus and program
JP6323152B2 (en) Image processing apparatus, image display apparatus, image processing method, and computer program
TW201335889A (en) Method for processing edges in an image and image processing apparatus
JP6265710B2 (en) Image processing apparatus, computer program, and image processing method
WO2014141884A1 (en) Image processing device and liquid crystal display device
US10181205B2 (en) Image processing method and image processing apparatus
JP6361375B2 (en) Image processing apparatus, image processing method, and image display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R151 Written notification of patent or utility model registration

Ref document number: 6323152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250