WO2010116522A1 - 画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置 - Google Patents

画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置 Download PDF

Info

Publication number
WO2010116522A1
WO2010116522A1 PCT/JP2009/057338 JP2009057338W WO2010116522A1 WO 2010116522 A1 WO2010116522 A1 WO 2010116522A1 JP 2009057338 W JP2009057338 W JP 2009057338W WO 2010116522 A1 WO2010116522 A1 WO 2010116522A1
Authority
WO
WIPO (PCT)
Prior art keywords
gain
luminance
brightness
image processing
region
Prior art date
Application number
PCT/JP2009/057338
Other languages
English (en)
French (fr)
Inventor
昌勝 藤本
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2009/057338 priority Critical patent/WO2010116522A1/ja
Publication of WO2010116522A1 publication Critical patent/WO2010116522A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • G06T5/92

Definitions

  • the present invention relates to an image processing device, a method thereof, a program thereof, a recording medium on which the program is recorded, and a display device.
  • Patent Document 1 describes a method for performing color fog correction, range correction, tone correction, saturation correction, and edge enhancement correction.
  • tone correction is to adjust brightness and contrast, and divides the input image into a plurality of areas, and based on the average value and standard deviation of the average brightness calculated for each area, The estimated part is specified.
  • Patent Document 1 can specify a dark part, but it is difficult to specify an object existing in the dark part. That is, even if the brightness of the dark part is simply increased to emphasize the specified dark part, the brightness of the entire dark part increases, and the brightness of the object existing in the dark part cannot be emphasized. An example of the problem is that it cannot be displayed properly.
  • An object of the present invention is to provide an image processing apparatus, a method thereof, and a program thereof capable of emphasizing an object existing in a dark part of an image and performing image processing with higher accuracy.
  • An image processing apparatus of the present invention is an image processing apparatus that processes an input image composed of a plurality of pixels to generate an output image, and includes an area dividing unit that divides the input image into a plurality of areas, Object recognition means for recognizing a pixel that is equal to or less than a first target threshold value having a luminance or brightness of a region as a target pixel, and whether or not the variation of the luminance or brightness of the target pixel in each region is greater than a predetermined state And a gain determining unit for determining a gain corresponding to each luminance or lightness for pixels in the target region, with the region having the luminance or brightness variation larger than a predetermined state as a target region. And output image generation means for generating the output image in which the luminance or brightness of the pixel is corrected in accordance with the determined gain. That.
  • a display device includes the above-described image processing device and a display unit that displays an output image generated by the image processing device.
  • the image processing method of the present invention is an image processing method for generating an output image by processing an input image composed of a plurality of pixels by a calculation means, wherein the calculation means converts the input image into a plurality of regions.
  • a target region recognition step for recognizing the region larger than the state as a target region, a gain determination step for determining a gain corresponding to each luminance or lightness for the pixels of the target region, and the luminance or lightness of the pixels
  • the image processing program of the present invention is characterized by causing an arithmetic means to execute the above-described image processing method.
  • the recording medium of the present invention is characterized in that the above-described image processing program is recorded so as to be readable by an arithmetic means.
  • FIG. 1 is a block diagram showing a schematic configuration of an image display device according to an embodiment of the present invention.
  • the block diagram which shows the outline of the image processing apparatus of the said one Embodiment.
  • the graph which shows the relationship between the area
  • the graph which shows the gain characteristic in the one embodiment.
  • the graph which shows the input-output characteristic in the said embodiment.
  • Explanatory drawing which shows the filtering process in the said embodiment. 4 is a flowchart showing the operation of the image processing apparatus in the embodiment.
  • the image display device 1 is a device that converts the luminance of the input image data into a luminance corresponding to the display device 30 and displays it on the display area 31 of the display device 30.
  • the image display device 1 includes a data acquisition unit 11, an image processing device 20 as a calculation unit, and a display device 30.
  • the image display device 1 may include a storage unit, for example, and may be configured to store various data in a readable manner, or may include an input operation unit such as a keyboard, a controller, a mouse, an operation button, or an operation knob. Good.
  • the data acquisition unit 11 acquires input image data by a predetermined data acquisition unit.
  • the data acquisition unit 11 receives, for example, a broadcast wave from an antenna (not shown) and acquires input image data from the broadcast wave, and input image data distributed on a network, for example, via a communication line (not shown).
  • a communication unit that acquires the image data for example, a drive device that can read input image data recorded on a recording medium such as various optical disks such as CD, DVD, and MD, a magneto-optical disk, and a magnetic disk. Then, the data acquisition unit 11 outputs the acquired input image data to the image processing device 20.
  • the image processing device 20 is connected to the data acquisition unit 11 and the display device 30.
  • the image processing apparatus 20 causes the data acquisition unit 11 to acquire input image data in accordance with an input signal input from an input operation unit (not shown), and performs a predetermined correction process on the input image data. And output to the display device 30 as output image data.
  • the image processing apparatus 20 includes an area dividing unit 21, a level determining unit 22, a statistical calculating unit 23, a gain determining unit 24, a time constant processing unit 25, and a dynamic program.
  • a processing unit 26, a filtering processing unit 27, a multiplication processing unit 28, and the like are provided.
  • the level determination means 22 functions as an object recognition means of the present invention
  • the statistical calculation means 23 functions as a variation determination means of the present invention
  • the gain determination means 24 and the dynamic processing means 26 serve as gain determination means of the present invention
  • the multiplication processing means 28 functions as the output image generation means of the present invention.
  • the area dividing means 21 recognizes input image data and divides it into a plurality of areas.
  • the input image data is preferably divided into a larger number of areas. For example, one area is divided into a plurality of areas of 8 ⁇ 8 pixels.
  • the level determination unit 22 performs processing for excluding high luminance noise and high luminance objects for each divided area. Specifically, a pixel whose luminance exceeds a predetermined value that is not a calculation target at the time of calculation by a target luminance average calculation unit 232 and a difference absolute value average calculation unit 233 described later is specified and excluded. This predetermined value is possible appropriately adjusted, the first threshold value S 1 of the luminance. Incidentally, the first threshold value S 1 is the first target threshold value in the present invention.
  • the statistical calculation means 23 performs a statistical calculation on each divided area.
  • the statistical calculation unit 23 includes an intra-region luminance average calculation unit 231, a target luminance average calculation unit 232, and an absolute difference average calculation unit 233.
  • the intra-region luminance average calculating means 231 calculates, for each region, an regional luminance average obtained by averaging the luminance levels of all the pixels in the region.
  • the target luminance average calculating unit 232 averages the luminance levels of pixels (hereinafter, also referred to as target pixels) excluding the pixels excluded by the level determining unit 22 in each region as the target luminance average of each region. calculate.
  • the difference absolute value average calculating means 233 calculates the absolute value of the difference between the luminance level of each target pixel in each region and the above-described target luminance average, and calculates the average of these absolute values as the difference between the regions. Calculated as the absolute value average of. Thereby, the dispersion
  • the gain determining unit 24 determines the gain of each region based on the region luminance average and the absolute value average of the differences.
  • FIG. 3 shows a graph showing the relationship between the area luminance average and the absolute difference average.
  • the vertical axis represents the area luminance average
  • the horizontal axis represents the absolute difference average. From this graph, it can be determined whether or not an object exists in the dark part. Specifically, the dark portion in the input image data is a place where the area brightness average is low, that is, the area brightness average is a predetermined value or less, and thus the area having the area brightness average equal to or less than the predetermined value is targeted.
  • the predetermined value as the second threshold value S 2 of the luminance, and a second target threshold value in the present invention uniform luminance in the input image data indicates that the average absolute value of the differences is zero. That is, when there is a change in luminance, the average absolute value of the differences is greater than zero.
  • the determination of whether there is an object in the dark area as shown in FIG. 3, the lower limit value L (L> 0) of the absolute value average area brightness average second threshold S 2 or less and that the difference between at over P It is determined by whether or not it is included.
  • the lower limit value L of the average of absolute values of the second threshold value S 2 and the difference between the area brightness average may be appropriately adjusted depending on the brightness of the image data to be input image data and output.
  • the gain determining means 24 sets the gain to 1.5 times in a region where the region luminance average and the absolute value average of the difference correspond to the range P in FIG. That is, the gain is increased for an area where the luminance is low (a dark part) and an object exists (there is light and shade), and the gain is not adjusted for an area where the luminance is low and the object does not exist (uniform).
  • the gain in the region corresponding to the range P in FIG. 3 is not particularly limited as long as it is 1 or more, and can be adjusted as appropriate.
  • the time constant processing means 25 performs time constant processing when applying a moving image.
  • a moving image is a display in which a plurality of input images are continuously displayed, and one input image is called a frame.
  • the gain of each region changes for each frame, and flickering occurs due to the light and dark movement.
  • the gain of each region is stored in a storage means (not shown), the frame difference of the gain of each region is obtained, and a few percent of this frame difference is applied as a new change amount, and the gain gradually increases. To change.
  • the dynamic processing means 26 adjusts the gain of each pixel in each area.
  • the amount of change in the luminance level increases as the luminance of the pixels increases. Since the change amount of the luminance level is smaller as the luminance pixel is, there is a possibility that almost no luminance change can be confirmed in the low luminance portion.
  • the gain is weakened as the pixel has a higher luminance level.
  • FIG. 4 and the following equation show the gain characteristics of a linear function that makes the gain approach one time as the luminance level increases.
  • FIG. 4 is a graph showing the relationship between the luminance level and gain of each pixel.
  • G is the gain of each region determined by the gain determining unit 24, S is the first threshold value S 1.
  • S is the first threshold value S 1.
  • the optimum gain corresponding to the luminance level of each pixel is determined using FIG. 4 and the above equation.
  • FIG. 5 shows input / output characteristics to which the gain characteristics shown in FIG. 4 are applied.
  • the input-output characteristic having a convex shape above, since the slope inclination becomes smaller with increasing luminance in the positive range, the low luminance in the first threshold value S 1 following luminance levels The larger the change is, the larger the amount of gain change, and the higher the luminance, the smaller the amount of gain change.
  • the filtering processing unit 27 eliminates block-like luminance unevenness that occurs in units of regions. Since the gain determining unit 24 determines the gain for each region, the boundary between the regions arranged in a block shape may become clear. As an effect of blurring the boundary between the regions, for example, low-pass filter processing is performed. Specifically, description will be made using four pixels arranged in a horizontal row shown in FIG. These pixels are G1, G2, G3, and G4, and the gains of G1 and G2 are set to 1 times, and the gains of G3 and G4 are set to 1.3 times. That is, the boundary between the regions is between G2 and G3. In this case, the boundary between the G2 and G3 pixels becomes clear.
  • the average value 1.1 of G2 and the gains of G1 and G3 adjacent to G2 is set as the gain of G2.
  • an average value 1.2 of G3 and the gains of G2 and G4 adjacent to G3 is set as the gain of G3.
  • the gains of G1 to G4 are sequentially set to 1.0, 1.1, 1.2, and 1.3, and the gain difference between the regions is reduced.
  • the multiplication processing unit 28 corrects the luminance of each pixel of the input image data by multiplying the gain adjusted by the gain determination unit 24, the time constant processing unit 25, the dynamic processing unit 26, and the filtering processing unit 27. To generate output image data.
  • the display device 30 controls the display area 31 to display the output image data input from the image processing device 20 as image data.
  • various display panels such as a plasma display panel (PDP), a liquid crystal panel, and an organic EL panel, and various electronic discharges such as FED (Field-Emission Display) and CRT (Cathode-Ray Tube) are used.
  • Various display devices such as a display can be used.
  • step S101 when input image data is input from the data acquisition unit 11 to the image processing device 20 of the image display device 1, the area dividing unit 21 of the image processing device 20 recognizes this input image data, and 8 ⁇
  • the eight pixels are divided into a plurality of regions (step S101), and the level determination means 22 measures the luminance level of all the pixels in each region (step S102).
  • the luminance of each pixel of the input image at this stage is shown in FIG.
  • the input image is divided into four regions (A, B, C, D), and the luminance of each pixel in each region is shown.
  • step S103 the process proceeds to step S103 and step S106.
  • step S103 the level determining means 22 determines whether the brightness of each pixel is the first threshold value S 1 or less.
  • the first threshold value S 1 is 80.
  • the process proceeds to step S105.
  • step S105 the target luminance average calculation means 232 calculates the average value of the luminance of the target pixel in step S104 and sets it as the target luminance average of each region (see FIG. 10).
  • the difference absolute value average calculating means 233 calculates the absolute value of the difference between the input luminance (see FIG. 8) and the target luminance average (see FIG. 10) for each target pixel in each region (see FIG. 11). reference). Then, an average value of absolute values of differences between all target pixels in each region is calculated and set as an average of absolute values of differences between the regions (see FIG. 12).
  • the in-region luminance average calculating means 231 calculates the average value of the luminance of all the pixels in the region for each region, and sets the average of the region luminance in each region (see FIG. 13).
  • step S109 the gain determining unit 24 sets the gain of the corresponding region to 1 or more, for example, 1.5 times.
  • the gain determination unit 24 sets the gain of the corresponding region to 1 time.
  • FIG. 14 shows the gain determined for each region of the input image in this way.
  • the gain is set to 1.0.
  • Regions C and D have a region brightness average equal to or smaller than the second threshold value S 2 (100) and an absolute difference average equal to or greater than the lower limit L (8) (see FIG. 12). 5 times.
  • the time constant processing means 25 performs time constant processing when the input image data is a moving image, and adjusts the amount of gain change between frames (step S111).
  • the dynamic processing means 26 adjusts the gain of each pixel in each region based on the gain characteristic of FIG. 4 (step S112). Specifically, on the basis of the luminance of the input image shown in FIG. 8, the gain is adjusted as shown in FIG. 15 by decreasing the gain as the pixel has a higher luminance level and increasing the gain as the pixel has a lower luminance level. .
  • the filtering processing means 27 performs a filtering process for reducing the gain difference between the pixels (step S113). Specifically, as shown in FIG. 15, when the gain adjusted in step S112 has a difference between adjacent pixels, the filtering process is performed by the above-described method, and the adjacent pixels as shown in FIG. Reduce the gain difference.
  • the multiplication processing unit 28 multiplies the input image data by the gain adjusted by the gain determination unit 24, the time constant processing unit 25, the dynamic processing unit 26, and the filtering processing unit 27 for the input image data, and outputs the output image data.
  • Generate step S114. Specifically, the luminance of each pixel of the input image shown in FIG. 8 is multiplied by the gain of each pixel shown in FIG. 16 to generate output image data in which the luminance of each pixel is corrected (see FIG. 17). ).
  • FIG. 18 is an image in which the corrected output image data is displayed in the display area 31.
  • FIG. 19 is an image in which input image data is displayed in the display area 31.
  • a substantially lower half of the input image is a dark part 50, and the dark part 50 includes a sandy beach part 51, a boat part 52, and a shadow part 53.
  • the boat part 52 and the shadow part 53 are objects included in the dark part.
  • the boundaries among the sand beach portion 51, the boat portion 52, and the shadow portion 53 are unclear, but in FIG. 18, these boundaries are clear.
  • the image processing apparatus 20 can provide the following operational effects.
  • the input image data is divided into a plurality of areas, and the statistical calculation processing is performed on each area by the statistical calculation means 23.
  • the level determination unit 22 specifies the target pixel by excluding the high luminance level noise and the high luminance level object existing in the divided area, and the target luminance average calculation unit 232 sets the target luminance average of the target pixel.
  • the difference absolute value average calculation means 233 calculates the absolute value average of the difference between the luminance of each pixel and the target luminance average.
  • the gain determination unit 24, the area luminance average may be a second threshold S 2 or less, and the absolute value average is lower limit L (L> 0) or more regions of the difference, and 1.5 times the gain did.
  • It area luminance average is the second threshold S 2 or less indicates that the area is dark portion, is there are different objects luminance absolute value average difference is the lower limit value L (L> 0) or It shows that. Therefore, the gain of the area where the object exists in the dark part can be increased, and the gain of the area where the object is not a dark part or where the object does not exist is not changed. As a result, in the image output to the display area 31 of the display device 30, the dark part contrast can be enhanced, and the dark part object can be easily seen.
  • the time constant processing means 25 performs time constant processing on the gain of each region determined by the gain determination means 24 when the input image data is a moving image. For this reason, when the gain of each region is different for each frame, flicker caused by a change in brightness can be prevented, and a high-quality moving image can be output.
  • the dynamic processing means 26 sets the gain for each pixel in the region according to the luminance level of each pixel in the region (see FIG. 4). There are pixels of various luminance levels in the region, and the higher the luminance, the brighter the gain. Therefore, by setting a gain according to the luminance level of each pixel, an image with more appropriate luminance can be output. Further, in the dynamic process unit 26, a luminance threshold S of pixels to adjust the gain, since the first threshold value S 1 used in the level determination means 22, the pixels which are excluded by the level judgment means 22 is outside the corrected . Therefore, since correction is not performed on the high-luminance object, more appropriate image quality correction can be performed only on the dark part.
  • the filtering processing means 27 performs a process of reducing the gain difference when there is a gain difference between the regions. For this reason, it is possible to prevent the occurrence of block-like luminance unevenness in units of regions and output high-quality images.
  • each pixel shows the input / output characteristics of the S-shaped curve shown in FIG. That is, the output level of a pixel having a luminance smaller than the reference value M is suppressed, and the output level of a pixel having a luminance higher than the reference value M is increased.
  • a gain corresponding to the gain characteristics shown in FIG. 21 and the following equation is set for each pixel.
  • a reference value M is determined, and at a luminance level smaller than the reference value M, a quadratic curve indicating the relationship between luminance and gain becomes a downwardly convex parabola (gain is less than 1). Is a parabola (gain is 1 or more) with a convex quadratic curve indicating the relationship between luminance and gain.
  • G is the gain of each region determined by the gain determining unit 24, S is the first threshold value S 1.
  • M is a reference value that is an S-shaped inflection point. In the second embodiment, the reference value M is set as the target luminance average. The reference value M is not limited to this, and can be adjusted as appropriate in order to obtain a desired contrast.
  • the contrast can be enhanced in the output image by setting the gain to less than 1 at a luminance level lower than the reference value M and setting the gain to 1 or more at a luminance level higher than the reference value M.
  • the reference value M as the target luminance average, a pixel having a luminance level less than 1 and a pixel having a luminance level of 1 or more are halved, and a sharper and clearer image can be output. .
  • the present invention is not limited to the above-described embodiment, and includes the following modifications as long as the object of the present invention can be achieved.
  • the dark part object is clearly displayed by adjusting the luminance.
  • the present invention is not limited to this as long as it shows brightness.
  • the brightness can be adjusted by adjusting the brightness in the same manner as described above.
  • the gain determining unit 24 uniformly sets a gain of 1.5 to the area belonging to the hatched portion P in the graph showing the relationship between the target luminance average and the difference absolute value average in FIG.
  • a gain corresponding to the position of the shaded portion P may be set. For example, in FIG. 3, in a region located in the first vicinity of the threshold S 1 of the hatched portion P to set the gain of 1.3. Thereby, the brightness can be finely adjusted.
  • the average of the absolute values of the differences between the regions is used to determine the presence / absence of the dark space object, but the present invention is not limited to this.
  • a process for calculating a standard deviation or a variance instead of an absolute average of differences can be used.
  • these processes are effective in a system in which the absolute value process is complicated and the square process is suitable.
  • the statistical calculation means 23 determines the presence / absence of the dark part object based on the average absolute value of the difference between the area luminance average and the luminance of each pixel.
  • the present invention is not limited to this.
  • a histogram frequency distribution
  • the number of gradations of this histogram In the histogram of the dark portion (first threshold value S 1 or less), if the number of gradations is beyond a certain a region where the dark part object exists. According to this, since the complicated calculation is unnecessary, it is possible to determine the presence or absence of the dark part object with a simple process.
  • the noise removal filter is inserted before the processing of the area dividing means 21 and removes noise components included in the input image data.
  • the noise removal filter may be a smoothing filter such as a low-pass filter. According to this, it is possible to prevent erroneous detection when the presence / absence of the dark part object is determined, and it is possible to suppress noise expansion.
  • time constant processing means 25 and the filtering processing means 27 may be omitted.
  • each function described above is constructed as a program, but it may be configured by hardware such as a circuit board or an element such as one IC (Integrated Circuit), and can be used in any form. Note that, by using a configuration that allows reading from a program or a separate recording medium, as described above, handling is easy, and usage can be easily expanded.
  • a scene change detecting means for detecting a scene change may be provided.
  • the time constant processing unit 25 does not perform the time constant processing described above. Thereby, since the filtering process can be performed only in an appropriate area of an appropriate frame, a higher quality moving image can be displayed.
  • the input image data is divided into a plurality of areas, and the statistical calculation process is performed on each area by the statistical calculation means 23.
  • the level determination means 22 specifies the target pixel (target pixel) by excluding the high brightness level noise and the high brightness level object existing in the divided area, and the target brightness average calculation means 232 Is calculated as an average of the target brightness, and an average difference average calculating unit 233 calculates an average of the absolute values of the differences between the input brightness of each pixel and the average of the target brightness (absolute difference average).
  • the intra-region luminance average calculation means 231 calculates an average region luminance obtained by averaging the luminance levels of all the pixels in the region.
  • the gain determination unit 24, the area luminance average may be a second threshold S 2 or less, and the absolute value average is lower limit L (L> 0) or more regions of the difference, and 1.5 times the gain did. It area luminance average is the second threshold S 2 or less indicates that the area is dark portion, is there are different objects luminance absolute value average difference is the lower limit value L (L> 0) or It shows that. Therefore, the gain of the area where the object exists in the dark part can be increased, and the gain of the area where the object is not a dark part or where the object does not exist is not changed. As a result, in the image output to the display area 31 of the display device 30, the dark part contrast can be enhanced, and the dark part object can be easily seen.
  • the present invention can be used as an image processing device, a method thereof, a program thereof, a recording medium recording the program, and a display device.

Abstract

 画像処理装置20は、各種プログラムとして、図2に示すように、領域分割手段21と、レベル判定手段22と、統計演算手段23と、ゲイン決定手段24と、時定数処理手段25と、ダイナミック処理手段26と、フィルタリング処理手段27と、乗算処理手段28と、などを備えている。領域分割手段21は、入力画像データを認識し複数の領域に分割する。統計演算手段23は、分割された各領域について統計演算を実施する。統計演算手段23は、領域内輝度平均算出手段231と、対象輝度平均算出手段232と、差の絶対値平均算出手段233と、を備えている。ゲイン決定手段24は、統計演算手段23で算出された演算結果に基づいて各領域のゲインを決定する。ダイナミック処理手段26は、各領域内の各画素のゲインを決定する。

Description

画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置
 本発明は、画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置に関する。
 従来、画像や映像に対して様々な補正を施すことにより画質の改善が行われている(例えば、特許文献1参照)。
 この特許文献1に記載のものは、色カブリ補正、レンジ補正、トーン補正、彩度補正および輪郭強調補正を行う方法が記載されている。これらのうち、トーン補正は、明るさやコントラストを調整するもので、入力画像を複数の領域に分割し、各々の領域について計算された平均明度の平均値および標準偏差に基づいて、逆光による暗部と推定される部分等を特定している。
特開2003-69846号公報
 しかしながら、特許文献1に記載のような構成は、暗部を特定することはできるものの、その暗部の中に存在するオブジェクトを特定することは困難である。すなわち、特定された暗部を強調するために単純に暗部の輝度を上げても、暗部全体の輝度が上がってしまい、暗部の中に存在するオブジェクトの明暗を強調することはできず、このオブジェクトを適切に表示できないという問題が一例として挙げられる。
 本発明の目的は、画像の暗部の中に存在するオブジェクトを強調することができるとともにより精度の高い画像処理を行う画像処理装置、その方法、およびそのプログラムを提供することを一つの目的とする。
 本発明の画像処理装置は、複数の画素から構成される入力画像を処理して出力画像を生成する画像処理装置であって、前記入力画像を複数の領域に分割する領域分割手段と、前記各領域の輝度または明度が所定値である第1の対象閾値以下の画素を対象画素として認識する対象認識手段と、前記各領域における前記対象画素の輝度または明度のばらつきが所定状態より大きいか否かを判断するばらつき判定手段と、前記輝度または前記明度のばらつきが所定状態より大きい前記領域を対象領域とし、前記対象領域の画素に対してそれぞれの輝度または明度に応じたゲインを決定するゲイン決定手段と、前記画素の輝度または明度を前記決定したゲインに応じて補正した前記出力画像を生成する出力画像生成手段と、を具備したことを特徴とする。
 本発明の表示装置は、前述の画像処理装置と、この画像処理装置で生成された出力画像を表示する表示部と、を具備したことを特徴とする。
 本発明の画像処理方法は、演算手段により、複数の画素から構成される入力画像を処理して出力画像を生成する画像処理方法であって、前記演算手段は、前記入力画像を複数の領域に分割し、前記各領域の輝度または明度が所定値である第1の対象閾値以下の画素を対象画素として認識する対象画素認識工程と、前記各領域における前記対象画素の輝度または明度のばらつきが所定状態より大きい前記領域を対象領域と認識する対象領域認識工程と、前記対象領域の画素に対してそれぞれの輝度または明度に応じたゲインを決定するゲイン決定工程と、前記画素の輝度または明度を前記決定したゲインに応じて補正した前記出力画像を生成する出力画像生成工程と、を有することを特徴とする。
 本発明の画像処理プログラムは、前述の画像処理方法を演算手段に実行させることを特徴とする。
 本発明の記録媒体は、前述の画像処理プログラムが演算手段にて読取可能に記録されたことを特徴とする。
本発明に係る一実施形態の画像表示装置の概略構成を示すブロック図。 前記一実施形態の画像処理装置の概略を示すブロック図。 前記一実施形態における領域輝度平均と差の絶対値平均の関係を示すグラフ。 前記一実施形態におけるゲイン特性を示すグラフ。 前記一実施形態における入出力特性を示すグラフ。 前記一実施形態におけるフィルタリング処理を示す説明図。 前記一実施形態における画像処理装置の動作を示すフローチャート。 前記一実施形態において入力画像の各画素の輝度レベルを示す図。 前記一実施形態において各対象画素の輝度レベルを示す図。 前記一実施形態において各領域における各対象画素の輝度平均を示す図。 前記一実施形態において各対象画素の輝度レベルと対象輝度平均との差の絶対値を示す図。 前記一実施形態において各領域の差の絶対値平均を示す図。 前記一実施形態において各領域の領域輝度平均を示す図。 前記一実施形態において各領域に決定されたゲインを示す図。 前記一実施形態においてダイナミック処理後の各画素のゲインを示す図。 前記一実施形態においてフィルタリング処理後の各画素のゲインを示す図。 前記一実施形態において出力画像の各画素の輝度レベルを示す図。 前記一実施形態における入力画像データを補正して表示装置に出力させた模式図。 前記一実施形態における入力画像データを表示装置に出力させた模式図。 本発明の他の実施形態において、ゲイン特性を示すグラフ。 本発明の他の実施形態において、入出力特性を示すグラフ。
〔第1実施形態〕
 以下、本発明の第1実施形態を図面に基づいて説明する。
 本発明では、輝度または明度を用いることができるが、第1実施形態では輝度を例示し、輝度を所定の状態に設定した画像を表示装置で表示させる画像表示装置を例示して説明する。
 [画像表示装置の構成]
 まず、画像表示装置の構成について説明する。
 図1に示すように、画像表示装置1は、入力画像データの輝度を表示装置30に応じた輝度に変換して、表示装置30の表示領域31に表示させる装置である。そして、この画像表示装置1は、データ取得部11と、演算手段としての画像処理装置20と、表示装置30と、を備えている。また、画像表示装置1は、例えば記憶部を備え、各種データを読み出し可能に記憶できる構成などとしてもよいし、キーボード、コントローラ、マウス、操作ボタン、操作つまみなどの入力操作部を備えていてもよい。
 データ取得部11は、所定のデータ取得手段により入力画像データを取得する。このデータ取得部11としては、例えば、図示しないアンテナから放送波を受信し、この放送波から入力画像データを取得するチューナ、図示しない通信回線を介して、例えばネットワーク上で配信される入力画像データを取得する通信部、例えばCD、DVD、MDなどの各種光ディスク、光磁気ディスク、磁気ディスクなどの記録媒体に記録された入力画像データを読み込み可能なドライブ装置などが例示できる。
 そして、データ取得部11は、取得した入力画像データを画像処理装置20に出力する。
 画像処理装置20は、データ取得部11および表示装置30に接続されている。この画像処理装置20は、例えば図示しない入力操作部から入力される入力信号に応じて、データ取得部11にて入力画像データを取得させ、この入力画像データに対して所定の補正処理を実施して出力画像データとして表示装置30に出力する。この画像処理装置20は、各種プログラムとして、図2に示すように、領域分割手段21と、レベル判定手段22と、統計演算手段23と、ゲイン決定手段24と、時定数処理手段25と、ダイナミック処理手段26と、フィルタリング処理手段27と、乗算処理手段28と、などを備えている。
 ここで、レベル判定手段22は本発明の対象認識手段として機能し、統計演算手段23は本発明のばらつき判定手段として機能し、ゲイン決定手段24およびダイナミック処理手段26は本発明のゲイン決定手段として機能し、乗算処理手段28は本発明の出力画像生成手段として機能する。
 領域分割手段21は、入力画像データを認識し複数の領域に分割する。入力画像データはより多数の領域に分割されることが好ましく、例えば、1つの領域を8×8画素として複数の領域に分割する。
 レベル判定手段22は、分割された各領域について高輝度のノイズや高輝度のオブジェクトを除外する処理を行う。具体的には、後述の対象輝度平均算出手段232および差の絶対値平均算出手段233の演算時に演算対象外となる、輝度が所定値を超える画素を特定し、これを除外する。この所定値は適宜調整可能であり、輝度の第1閾値Sとする。なお、この第1閾値Sは本発明における第1の対象閾値である。
 統計演算手段23は、分割された各領域について統計演算を実施する。統計演算手段23は、領域内輝度平均算出手段231と、対象輝度平均算出手段232と、差の絶対値平均算出手段233と、を備えている。
 領域内輝度平均算出手段231は、各領域について、領域内の全画素の輝度レベルを平均した領域輝度平均を算出する。
 対象輝度平均算出手段232は、各領域においてレベル判定手段22によって除外された画素を除く画素(以降、対象画素と言うこともある)の輝度レベルを平均したものを、各領域の対象輝度平均として算出する。
 差の絶対値平均算出手段233は、各領域における各対象画素の輝度レベルと前述の対象輝度平均との差の絶対値をそれぞれ算出し、これらの絶対値を平均したものを、各領域の差の絶対値平均として算出する。これにより、各対象画素の輝度のばらつきを判定することができる。
 ゲイン決定手段24は、領域輝度平均および差の絶対値平均に基づいて各領域のゲインを決定する。
 ここで、領域輝度平均と差の絶対値平均との関係を示すグラフを図3に示す。図3には、縦軸に領域輝度平均、横軸に差の絶対値平均が示されている。このグラフにより、暗部にオブジェクトが存在するか否かを判定することができる。具体的には、入力画像データにおける暗部とは領域輝度平均が低いところ、つまり領域輝度平均が所定値以下であるところであるので、この所定値以下の領域輝度平均を有する領域が対象となる。なお、この所定値を輝度の第2閾値Sとし、本発明における第2の対象閾値とする。また、入力画像データにおいて一様な輝度は差の絶対値平均が0であることを示す。すなわち、輝度に変化がある場合は差の絶対値平均が0より大きくなる。したがって、暗部にオブジェクトがあるか否かの判定は、図3に示すように、領域輝度平均が第2閾値S以下かつ差の絶対値平均の下限値L(L>0)以上の範囲Pに含まれるか否かによって判定する。なお、領域輝度平均の第2閾値Sおよび差の絶対値平均の下限値Lは、入力画像データや出力したい画像データの明度に応じて適宜調整可能である。
 ゲイン決定手段24は、領域輝度平均および差の絶対値平均が図3の範囲Pに該当する領域はゲインを1.5倍とし、範囲Pに該当しない領域はゲインを1倍とする。すなわち、輝度が低く(暗部であり)オブジェクトが存在する(濃淡がある)領域についてはゲインを上げ、輝度が低くオブジェクトが存在しない(一様である)領域についてはゲインを調整しない。なお、図3の範囲Pに該当する領域のゲインは1倍以上であれば特に限定されず、適宜調整することができる。
 時定数処理手段25は、動画を適用する際に時定数処理を実施する。動画は、複数の入力画像が連続して表示されるものであり、1枚の入力画像はフレームと呼ばれる。各領域のゲインをフレーム毎に決定すると各領域のゲインがフレームごとに変わるため、明暗の動きによりちらつき(フリッカ)が発生する。これを防止するために、例えば、各領域のゲインを図示しない記憶手段に記憶させ、各領域のゲインのフレーム差分を求め、このフレーム差分の数%を新たな変化量として適用し、ゲインが徐々に変化するようにする。
 ダイナミック処理手段26は、各領域内の各画素のゲインを調整する。すなわち、領域内には様々なレベルの輝度が存在し、これらの輝度に同一のゲインをかけると、高輝度の画素ほど輝度レベルの変化量が大きくなるため高輝度の部分はさらに明るくなり、低輝度の画素ほど輝度レベルの変化量が小さいため低輝度の部分では輝度の変化がほとんど確認できない可能性がある。領域内の入力画像データの各画素の輝度レベルと、ゲイン決定手段24で決定された各領域のゲインと、に基づき、輝度レベルが高い画素ほどゲインを弱くする。例えば、輝度レベルが高いほどゲインを1倍に近づけるような一次関数のゲイン特性を図4および下記式に示す。図4は、各画素の輝度レベルとゲインとの関係を示すグラフである。
Figure JPOXMLDOC01-appb-M000001
 上記式中、Gはゲイン決定手段24で決定された各領域のゲイン、Sは第1閾値Sである。
 図4および上記式を用いて、各画素の輝度レベルに応じた最適なゲインを決定する。
 ここで、図4に示すゲイン特性を適用した入出力特性を図5に示す。図5に示されるように、上に凸の形状を有する入出力特性は、傾きが正の範囲では輝度の上昇にともなって傾きが小さくなるため、第1閾値S以下の輝度レベルにおいて低輝度であるほどゲインの変化量が大きく、高輝度であるほどゲインの変化量が小さい。
 フィルタリング処理手段27は、画素ごとに決定されたゲインで入力画像を補正した場合、領域単位で発生するブロック状の輝度のムラを解消する。ゲイン決定手段24で領域ごとのゲインが決定されるため、ブロック状に配列された領域間の境目が明瞭となる場合がある。この領域間の境目をぼかす効果として、例えばローパスフィルタ処理を行う。具体的に、図6に示す横一列に配列された4つの画素を用いて説明する。これらの各画素はG1、G2、G3、G4であり、G1およびG2のゲインは1倍、G3およびG4のゲインは1.3倍とされている。すなわち、G2とG3の間が領域間の境目である。この場合、G2およびG3の画素の境目が明瞭となる。したがって、まず、G2のゲインを調整するために、G2と、G2に隣接するG1およびG3のゲインとの平均値1.1をG2のゲインとする。次に、G3のゲインを調整するために、G3と、G3に隣接するG2およびG4のゲインとの平均値1.2をG3のゲインとする。このように、G1~G4のゲインを順に1.0、1.1、1.2、1.3とし、領域間のゲインの差を小さくする。
 乗算処理手段28は、入力画像データの各画素の輝度に対して、ゲイン決定手段24、時定数処理手段25、ダイナミック処理手段26、フィルタリング処理手段27で調整されたゲインを乗算することにより補正して出力画像データを生成する。
 表示装置30は、画像処理装置20から入力された出力画像データを画像データとして表示領域31に表示させる制御をする。なお、表示領域31としては、例えばプラズマディスプレイパネル(PDP)、液晶パネル、有機ELパネルなどの各種表示パネル、FED(Field Emission Display)やCRT(Cathode-Ray Tube)などの各種電子放電を利用したディスプレイなど、各種表示デバイスを利用できる。
[画像処理装置の動作]
 次に、画像処理装置20の動作について説明する。図7に示すフローチャートに従い、図8~図17に示す実施例に基づいて説明する。
 図7において、画像表示装置1の画像処理装置20にデータ取得部11から入力画像データが入力されると、画像処理装置20の領域分割手段21は、この入力画像データを認識して、8×8画素を1つの領域とする複数の領域に分割し(ステップS101)、レベル判定手段22は各領域内の全画素の輝度レベルを測定する(ステップS102)。この段階における入力画像の各画素の輝度を図8に示す。図8では、入力画像は4つの領域(A、B、C、D)に分割され、各領域内の各画素の輝度が示されている。
 次に、ステップS103およびステップS106へ進む。
 ステップS103では、レベル判定手段22は各画素の輝度が第1閾値S以下であるか否かを判定する。本実施形態では、第1閾値Sは80である。そして、輝度が第1閾値Sを超える輝度を有する画素を除外して、第1閾値S以下の画素を対象画素とする(ステップS104)。すなわち、図9に示すように、数値の記載されている画素が対象画素となる。
 そして、ステップS105へ進む。
 ステップS105では、対象輝度平均算出手段232が、ステップS104における対象画素の輝度の平均値を算出して各領域の対象輝度平均とする(図10参照)。そして、差の絶対値平均算出手段233は、各領域の各対象画素について、入力時の輝度(図8参照)と対象輝度平均(図10参照)との差の絶対値を算出する(図11参照)。そして、各領域内の全対象画素の差の絶対値の平均値を算出し、各領域の差の絶対値平均とする(図12参照)。
 ステップS106では、領域内輝度平均算出手段231が各領域について領域内の全画素の輝度の平均値を算出して、各領域の領域輝度平均とする(図13参照)。
 次に、ゲイン決定手段24は、各領域について、暗部オブジェクトが存在するか否かを判定する(ステップS108)。具体的には、領域輝度平均が第2閾値S以下であり(本実施形態では、第2閾値S=100)、かつ、差の絶対値平均が下限値L(L>0、本実施形態ではL=8とする)以上である領域(図3の範囲Pに該当する領域)は、暗部オブジェクトが存在すると判定してステップS109へ進む。一方、領域輝度平均が第2閾値Sを超える、または、差の絶対値平均が下限値L(L>0)未満である領域(図3の範囲P以外に該当する領域)は暗部オブジェクトが存在しないと判定してステップS110へ進む。
 ステップS109では、ゲイン決定手段24は、該当する領域のゲインを1倍以上、例えば1.5倍に設定する。
 ステップS110では、ゲイン決定手段24は、該当する領域のゲインを1倍に設定する。
 このようにして入力画像の各領域について決定されたゲインを図14に示す。図13において領域AおよびBは領域輝度平均が第2閾値S(100)を超えているため、ゲインを1.0倍とする。また、領域CおよびDは領域輝度平均が第2閾値S(100)以下であり、かつ差の絶対値平均が下限値L(8)以上であるため(図12参照)、ゲインを1.5倍とする。
 この後、時定数処理手段25は、入力画像データが動画である場合に時定数処理を実施し、フレーム間のゲインの変化量を調整する(ステップS111)。
 次に、ダイナミック処理手段26は、図4のゲイン特性に基づいて、各領域内の各画素のゲインを調整する(ステップS112)。具体的には、図8に示す入力画像の輝度に基づいて、輝度レベルが高い画素ほどゲインを弱く、輝度レベルが低い画素ほどゲインを強くすることにより、図15に示すようにゲインを調整する。
 次に、フィルタリング処理手段27は、各画素間のゲインの差を小さくするためのフィルタリング処理を行う(ステップS113)。具体的には、図15に示すように、ステップS112で調整されたゲインが隣接する画素間で差がある場合は、上述の方法によりフィルタリング処理を行い、図16に示すように隣接する画素間のゲインの差を小さくする。
 乗算処理手段28は、入力画像データに対して、ゲイン決定手段24、時定数処理手段25、ダイナミック処理手段26およびフィルタリング処理手段27で調整されたゲインを入力画像データに乗算して出力画像データを生成する(ステップS114)。具体的には、図8に示す入力画像の各画素の輝度に、図16に示す各画素のゲインを乗算することにより、各画素の輝度が補正された出力画像データを生成する(図17参照)。
 ここで、別の画像データを用いて、補正前後の画像データを比較する。図18は、補正後の出力画像データが表示領域31に表示された画像である。図19は、入力画像データが表示領域31に表示された画像である。図18および図19では、入力画像の略下半分が暗部50となっており、暗部50に砂浜部51およびボート部52および影部53が含まれている。ここでは、ボート部52および影部53が暗部に含まれるオブジェクトである。図19では、砂浜部51とボート部52と影部53との境界が不明確であるが、図18では、これらの境界が明確となっている。
[第1実施形態の作用効果]
 上述したように、画像処理装置20では、以下のような作用効果を奏することができる。
 (1)上述の実施形態では、入力画像データを複数の領域に分割し、統計演算手段23により各領域について統計演算処理を行った。まず、レベル判定手段22が、分割された領域内に存在する高輝度レベルのノイズや高輝度レベルのオブジェクトを除外して対象画素を特定し、対象輝度平均算出手段232は対象画素の対象輝度平均を算出し、差の絶対値平均算出手段233は各画素の輝度と対象輝度平均との差の絶対値平均を算出した。そして、ゲイン決定手段24は、領域輝度平均が第2閾値S以下であり、かつ、差の絶対値平均が下限値L(L>0)以上である領域について、ゲインを1.5倍とした。
 領域輝度平均が第2閾値S以下であることはその領域が暗部であることを示し、差の絶対値平均が下限値L(L>0)以上であることは輝度の異なるオブジェクトが存在することを示す。したがって、暗部にオブジェクトが存在する領域のゲインを高くすることができ、暗部でないまたはオブジェクトが存在しない領域のゲインは変更しない。その結果、表示装置30の表示領域31に出力された画像では、暗部のコントラストを強調することができ、暗部のオブジェクトを見やすくすることができる。
 (2)時定数処理手段25は、入力画像データが動画である場合に、ゲイン決定手段24で決定された各領域のゲインに対して時定数処理を行った。
 このため、各領域のゲインがフレーム毎に異なる場合に、明暗の変化により発生するちらつき(フリッカ)を防止することができ、高画質の動画を出力することができる。
 (3)ダイナミック処理手段26は、領域内の各画素の輝度レベルに応じて、領域内の各画素に対するゲインを設定した(図4参照)。領域内には様々な輝度レベルの画素が存在し、高輝度であるほどゲインを上げるとより明るくなる。したがって、各画素の輝度レベルに応じたゲインを設定することにより、より適切な輝度の画像を出力することができる。
 また、ダイナミック処理手段26において、ゲインを調整する画素の輝度閾値Sを、レベル判定手段22で用いた第1閾値Sとしたので、レベル判定手段22で除外された画素は補正対象外となる。したがって、高輝度オブジェクトには補正を施さないので、暗部に対してのみ、より適切な画質補正を行うことができる。
 (4)フィルタリング処理手段27は、領域間にゲインの差がある場合に、ゲインの差を小さくする処理を行うこととした。
 このため、領域単位でのブロック状の輝度ムラの発生を防止することができ、高画質の画像を出力することができる。
〔第2実施形態〕
 次に、本発明の第2実施形態について説明する。第2実施形態では、ダイナミック処理手段26の動作が異なるのみであるので、第1実施形態と同一または同様の構成については、説明を省略する。
 ダイナミック処理手段26は、各画素が、図20に示すS字曲線の入出力特性を示すように補正を行う。すなわち、基準値Mより小さい輝度の画素の出力レベルは抑えられ、基準値Mより大きい輝度の画素の出力レベルはより大きくなる。このようなS字曲線の入出力特性を示すためには、図21および以下の式に示すゲイン特性に応じたゲインを各画素に設定する。すなわち、基準値Mを定め、基準値Mより小さい輝度レベルにおいては輝度とゲインとの関係を示す2次曲線が下に凸の放物線(ゲインは1未満)となり、基準値Mより大きい輝度レベルにおいては輝度とゲインとの関係を示す2次曲線が上に凸の放物線(ゲインは1以上)となる。
Figure JPOXMLDOC01-appb-M000002
 上記式中、Gはゲイン決定手段24で決定された各領域のゲイン、Sは第1閾値Sである。MはS字の変曲点となる基準値であり、第2実施形態では、基準値Mを対象輝度平均とする。なお、基準値Mはこれに限られず、所望のコントラストを得るために適宜調整することができる。
 このような第2実施形態によれば、前記第1実施形態と同様の作用効果を奏することができる上、次のような効果がある。
 基準値Mより低い輝度レベルではゲインを1未満とし、基準値M以上の輝度レベルではゲインを1以上とすることにより、出力画像においてコントラストを強調することができる。特に、基準値Mを対象輝度平均とすることで、ゲインが1未満の輝度レベルを有する画素と1以上の輝度レベルを有する画素とが半々となり、よりシャープで鮮明な画像を出力することができる。
〔実施形態の変形〕
 なお、本発明は、上述した一実施形態に限定されるものではなく、本発明の目的を達成できる範囲で以下に示される変形をも含むものである。
 例えば、上記実施形態では、輝度を調整することにより暗部のオブジェクトを明確に表示することとしたが、明るさを示すものであればこれに限られない。例えば、明度を用いて上記と同様に調整することにより明るさを調整することもできる。
 また、上記実施形態では、ゲイン決定手段24は、図3の対象輝度平均と差の絶対値平均の関係を示すグラフにおいて斜線部Pに属する領域には一様に1.5というゲインを設定したが、斜線部Pの位置に応じたゲインを設定するようにしてもよい。例えば、図3において、斜線部Pのうち第1閾値S付近に位置する領域には1.3のゲインを設定する。これにより、輝度の微調整を行うことができる。
 そして、上記実施形態では、暗部オブジェクトの存在の有無を判定するために、各領域の差の絶対値平均を用いたが、これに限られない。例えば、差の絶対値平均の代わりに標準偏差または分散を計算する処理を用いることができる。これらにおいても、輝度のばらつきを算出することができ、これにより暗部におけるオブジェクトの存在の有無を判定することができる。また、これらの処理は、絶対値処理が煩雑で二乗処理が適しているシステムにおいて有効である。
 また、上記実施形態では、統計演算手段23で領域輝度平均と各画素の輝度との差の絶対値の平均に基づいて暗部オブジェクトの存在の有無を判定しているが、これに限られない。例えば、分割された各領域の明るさを示すヒストグラム(度数分布)を取得し、このヒストグラムの階調数に応じて判定する。ヒストグラムの暗部(第1閾値S以下)において、階調数がある程度以上ある場合は暗部オブジェクトが存在する領域とする。これによれば、複雑な計算が不必要であるので簡単な処理で暗部オブジェクトの有無を判定することができる。
 上記実施形態において、さらにノイズ除去フィルタを有する構成としてもよい。ノイズ除去フィルタは、領域分割手段21の処理の前に挿入され、入力画像データに含まれるノイズ成分を除去する。なお、ノイズ除去フィルタは、ローパスフィルタ等の平滑化フィルタを使用してもよい。これによれば、暗部オブジェクトの存在の有無の判定をする際の誤検出を防止することができ、ノイズの伸長を抑制することができる。
 また、上記実施形態において、時定数処理手段25およびフィルタリング処理手段27を備えない構成としてもよい。
 また、上述した各機能をプログラムとして構築したが、例えば回路基板などのハードウェアあるいは1つのIC(Integrated Circuit)などの素子にて構成するなどしてもよく、いずれの形態としても利用できる。なお、プログラムや別途記録媒体から読み取らせる構成とすることにより、上述したように取扱が容易で、利用の拡大が容易に図れる。
 また、上記実施形態において、入力画像データが動画である場合に、シーンチェンジしたことを検出するシーンチェンジ検出手段を備えていてもよい。このような構成では、シーンチェンジ検出手段によりフレーム間のシーンチェンジが検出されると、時定数処理手段25は前述の時定数処理を実施しない。これにより、適切なフレームの適切な領域にのみフィルタリング処理を行うことができるので、より高画質な動画を表示させることができる。
 その他、本発明の実施の際の具体的な構造および手順は、本発明の目的を達成できる範囲で他の構造などに適宜変更できる。
〔実施形態の効果〕
 上述の実施形態では、入力画像データを複数の領域に分割し、統計演算手段23により各領域について統計演算処理を行った。レベル判定手段22が、分割された領域内に存在する高輝度レベルのノイズや高輝度レベルのオブジェクトを除外して対象となる画素(対象画素)を特定し、対象輝度平均算出手段232は対象画素の輝度の平均を対象輝度平均として算出し、差の絶対値平均算出手段233は各画素の入力時の輝度と対象輝度平均との差の絶対値の平均(差の絶対値平均)を算出した。また、領域内輝度平均算出手段231は、各領域について、領域内の全画素の輝度レベルを平均した領域輝度平均を算出した。そして、ゲイン決定手段24は、領域輝度平均が第2閾値S以下であり、かつ、差の絶対値平均が下限値L(L>0)以上である領域について、ゲインを1.5倍とした。
 領域輝度平均が第2閾値S以下であることはその領域が暗部であることを示し、差の絶対値平均が下限値L(L>0)以上であることは輝度の異なるオブジェクトが存在することを示す。したがって、暗部にオブジェクトが存在する領域のゲインを強くすることができ、暗部でないまたはオブジェクトが存在しない領域のゲインは変更しない。その結果、表示装置30の表示領域31に出力された画像では、暗部のコントラストを強調することができ、暗部のオブジェクトを見やすくすることができる。
 本発明は、画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置として利用できる。
  1…画像表示装置
 11…データ取得部
 20…演算手段としての画像処理装置
 21…領域分割手段
 22…対象認識手段としてのレベル判定手段
 23…ばらつき判定手段としての統計演算手段
231…領域内輝度平均算出手段
232…対象輝度平均算出手段
233…差の絶対値平均算出手段
 24…ばらつき判定手段およびゲイン決定手段としての領域ゲイン決定手段
 25…時定数処理手段
 26…ゲイン決定手段としてのダイナミック処理手段
 27…フィルタリング処理手段
 28…出力画像生成手段としての乗算処理手段
 30…表示装置
 31…表示領域
 

Claims (13)

  1.  複数の画素から構成される入力画像を処理して出力画像を生成する画像処理装置であって、
     前記入力画像を複数の領域に分割する領域分割手段と、
     前記各領域の輝度または明度が所定値である第1の対象閾値以下の画素を対象画素として認識する対象認識手段と、
     前記各領域における前記対象画素の輝度または明度のばらつきが所定状態より大きいか否かを判断するばらつき判定手段と、
     前記輝度または前記明度のばらつきが所定状態より大きい前記領域を対象領域とし、前記対象領域の画素に対してそれぞれの輝度または明度に応じたゲインを決定するゲイン決定手段と、
     前記画素の輝度または明度を前記決定したゲインに応じて補正した前記出力画像を生成する出力画像生成手段と、
     を具備したことを特徴とする画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     前記ゲイン決定手段は、前記各領域の輝度または明度の平均値が第2の対象閾値を超える場合、前記ゲインを1に設定する
     ことを特徴とする画像処理装置。
  3.  請求項1または請求項2に記載の画像処理装置において、
     連続して入力される複数の入力画像により動画が構成されていると判断した場合、連続する入力画像における前記決定されたゲインに対して時定数処理を実施する時定数処理手段をさらに備え、
     前記出力画像生成手段は、前記対象領域の画素の輝度または明度を前記時定数処理されたゲインに応じて補正した前記出力画像を生成する
     ことを特徴とする画像処理装置。
  4.  請求項3に記載の画像処理装置において、
     連続して入力される複数の入力画像により動画が構成されていると判断した場合、前記入力画像間でシーンチェンジが生じたことを検出するシーンチェンジ検出手段をさらに備え、
     前記時定数処理手段は、前記シーンチェンジが生じた場合、前記時定数処理を行わない
     ことを特徴とする画像処理装置。
  5.  請求項1から請求項4のいずれかに記載の画像処理装置において、
     隣接して配置された複数の画素のそれぞれのゲインに対してフィルタリング処理を実施し、隣接する画素のゲインを緩やかに変化させるフィルタリング処理手段をさらに備え、
     前記出力画像生成手段は、前記対象領域の画素の輝度または明度を前記フィルタリング処理されたゲインに応じて補正した前記出力画像を生成する
     ことを特徴とする画像処理装置。
  6.  請求項1から請求項5のいずれかに記載の画像処理装置において、
     前記ゲイン決定手段は、前記対象画素の輝度または明度が高いほど前記ゲインを小さい値に決定する
     ことを特徴とする画像処理装置。
  7.  請求項1から請求項5のいずれかに記載の画像処理装置において、
     前記領域ゲイン決定手段は、
     前記輝度または前記明度が基準値M(0<M<第1の対象閾値)より小さい画素のゲインを1未満に設定し、
     前記輝度または前記明度が基準値M以上である画素のゲインを1以上に設定する
     ことを特徴とする画像処理装置。
  8.  請求項7に記載の画像処理装置において、
     前記基準値Mは、前記対象画素の輝度の平均値である
     ことを特徴とする画像処理装置。
  9.  請求項1から請求項8のいずれかに記載の画像処理装置と、
     この画像処理装置で生成された出力画像を表示する表示部と、
     を具備したことを特徴とする表示装置。
  10.  演算手段により、複数の画素から構成される入力画像を処理して出力画像を生成する画像処理方法であって、
     前記演算手段は、
     前記入力画像を複数の領域に分割し、前記各領域の輝度または明度が所定値である第1の対象閾値以下の画素を対象画素として認識する対象画素認識工程と、
     前記各領域における前記対象画素の輝度または明度のばらつきが所定状態より大きい前記領域を対象領域と認識する対象領域認識工程と、
     前記対象領域の画素に対してそれぞれの輝度または明度に応じたゲインを決定するゲイン決定工程と、
     前記画素の輝度または明度を前記決定したゲインに応じて補正した前記出力画像を生成する出力画像生成工程と、を有する
     ことを特徴とする画像処理方法。
  11.  請求項10に記載の画像処理方法を演算手段に実行させる
     ことを特徴とする画像処理プログラム。
  12.  演算手段を請求項1から請求項8のいずれかに記載の画像処理装置として機能させる
     ことを特徴とする画像処理プログラム。
  13.  請求項11または請求項12に記載の画像処理プログラムが演算手段にて読取可能に記録された
     ことを特徴とする画像処理プログラムを記録した記録媒体。
     
PCT/JP2009/057338 2009-04-10 2009-04-10 画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置 WO2010116522A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/057338 WO2010116522A1 (ja) 2009-04-10 2009-04-10 画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/057338 WO2010116522A1 (ja) 2009-04-10 2009-04-10 画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置

Publications (1)

Publication Number Publication Date
WO2010116522A1 true WO2010116522A1 (ja) 2010-10-14

Family

ID=42935830

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/057338 WO2010116522A1 (ja) 2009-04-10 2009-04-10 画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置

Country Status (1)

Country Link
WO (1) WO2010116522A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543581A (zh) * 2018-11-15 2019-03-29 北京旷视科技有限公司 图像处理方法、图像处理装置以及非易失性存储介质
JP2022520264A (ja) * 2019-05-05 2022-03-29 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像輝度の調整方法及び装置、電子機器及びコンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2559000B2 (ja) * 1992-09-04 1996-11-27 松下電器産業株式会社 逆光検出装置と自動レベル制御装置
JP2003069846A (ja) * 2001-08-27 2003-03-07 Fujitsu Ltd 画像処理プログラム
JP2004235956A (ja) * 2003-01-30 2004-08-19 Sony Corp 撮像装置
JP3949684B2 (ja) * 2004-04-30 2007-07-25 三菱電機株式会社 階調補正装置、階調補正用プログラム、携帯端末機器及びパーソナルコンピュータ
JP4011073B2 (ja) * 2005-05-27 2007-11-21 三菱電機株式会社 階調補正装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2559000B2 (ja) * 1992-09-04 1996-11-27 松下電器産業株式会社 逆光検出装置と自動レベル制御装置
JP2003069846A (ja) * 2001-08-27 2003-03-07 Fujitsu Ltd 画像処理プログラム
JP2004235956A (ja) * 2003-01-30 2004-08-19 Sony Corp 撮像装置
JP3949684B2 (ja) * 2004-04-30 2007-07-25 三菱電機株式会社 階調補正装置、階調補正用プログラム、携帯端末機器及びパーソナルコンピュータ
JP4011073B2 (ja) * 2005-05-27 2007-11-21 三菱電機株式会社 階調補正装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543581A (zh) * 2018-11-15 2019-03-29 北京旷视科技有限公司 图像处理方法、图像处理装置以及非易失性存储介质
JP2022520264A (ja) * 2019-05-05 2022-03-29 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像輝度の調整方法及び装置、電子機器及びコンピュータプログラム
JP7226893B2 (ja) 2019-05-05 2023-02-21 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像輝度の調整方法及び装置、電子機器及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
JP4221434B2 (ja) 輪郭補正方法、画像処理装置及び表示装置
US20090304274A1 (en) Image Processing Apparatus and Image Display Apparatus
US8165419B2 (en) Histogram stretching apparatus and histogram stretching method for enhancing contrast of image
US8339518B2 (en) Video signal processing method and apparatus using histogram
US7719619B2 (en) Image processing apparatus
JP5314271B2 (ja) 映像の鮮明度向上のための装置および方法
JP6548517B2 (ja) 画像処理装置および画像処理方法
US8670079B2 (en) Video display device
US20120106867A1 (en) Image processing apparatus and image processing method
JP2011030191A (ja) 画像処理装置及びその制御方法
JP5648849B2 (ja) 画像処理装置、画像処理方法
JP2006270417A (ja) 映像信号処理方法及び映像信号処理装置
US8165421B2 (en) Method and apparatus for image processing by using stored image
US20170154412A1 (en) Image processing apparatus, image processing method, and storage medium
JP2007036844A (ja) 映像信号処理装置及び同装置を備えた表示装置
US20110085086A1 (en) Method for adaptive noise reduction and apparatus thereof
WO2010116522A1 (ja) 画像処理装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および表示装置
JP2008033592A (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2008258925A (ja) ガンマ補正回路及びガンマ補正方法
JP6131474B2 (ja) 映像処理装置
US9754362B2 (en) Image processing apparatus, image processing method, and program
JP5110161B2 (ja) 画像補正装置、画像補正プログラムおよび画像補正方法
US7773824B2 (en) Signal processing device and method, recording medium, and program
WO2010067456A1 (ja) 映像処理装置、映像表示装置、映像処理方法、そのプログラムおよびそのプログラムを記録した記録媒体
TWI491266B (zh) 降低圖框內像素之雜訊的方法與裝置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09843031

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09843031

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP