WO2013121600A1 - 映像表示装置およびテレビ受信装置 - Google Patents

映像表示装置およびテレビ受信装置 Download PDF

Info

Publication number
WO2013121600A1
WO2013121600A1 PCT/JP2012/067598 JP2012067598W WO2013121600A1 WO 2013121600 A1 WO2013121600 A1 WO 2013121600A1 JP 2012067598 W JP2012067598 W JP 2012067598W WO 2013121600 A1 WO2013121600 A1 WO 2013121600A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance
black
unit
video signal
amount
Prior art date
Application number
PCT/JP2012/067598
Other languages
English (en)
French (fr)
Inventor
藤根 俊之
洋二 白谷
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US14/375,048 priority Critical patent/US9319620B2/en
Priority to CN201280069934.XA priority patent/CN104115215B/zh
Publication of WO2013121600A1 publication Critical patent/WO2013121600A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/342Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines
    • G09G3/3426Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines the different display panel areas being distributed in two dimensions, e.g. matrix
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • G09G2320/0646Modulation of illumination source brightness and image signal correlated to each other
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/16Circuitry for reinsertion of dc and slowly varying components of signal; Circuitry for preservation of black or white level
    • H04N5/165Circuitry for reinsertion of dc and slowly varying components of signal; Circuitry for preservation of black or white level to maintain the black level constant

Definitions

  • the present invention relates to a video display device and a television receiver, and more particularly to a video display device and a television receiver provided with a video signal and a luminance stretch function of a backlight light source in order to improve the image quality of the displayed video.
  • HDR high dynamic range imaging
  • the emission color and the object color can be detected and separated by the emission detection function, and only the emission color on the screen can be brightened by the signal processing and the emission luminance control of the backlight.
  • a portion that emits light relatively brightly is detected from the luminance distribution of the video, and the light emitting portion is consciously stretched to make the light emitting portion on the screen more prominent. The effect of improving the image quality can be obtained.
  • Patent Document 1 discloses a display device aiming to make a screen appear brighter without increasing power consumption and without causing a video to fail.
  • This display device sets a light emission luminance level for reference for setting the light emission luminance level of the backlight light source from the image feature quantity such as APL. Then, a gain for maintaining visual luminance is set in conjunction with the reference light emission luminance level, and a tone curve is generated based on the gain.
  • a geometric average value is obtained, a gain is calculated based on the geometric average value, and a correction tone curve is generated based on the calculated gain.
  • the toe curve for correction is used to correct the tone curve linked to the reference light emission luminance level and apply it to the video signal.
  • the HDR by detecting a light emitting portion that is brightly shining on the screen and stretching the display luminance of the light emitting portion, the contrast is improved for the human eye, and the brightness It is possible to provide a high-quality display image.
  • the quality may be deteriorated depending on the video. For example, in the case of a dark screen with many areas corresponding to black, if the screen brightness is uniformly increased by signal processing and backlight brightness stretch by HDR, so-called black floating occurs in the black display area, and the contrast is felt. It may be damaged and the video quality may deteriorate.
  • the video display device disclosed in Patent Literature 1 generates a tone curve generated in conjunction with a light emission luminance level set using APL or the like based on a geometric average value that is a video feature amount that is close to a human sensory amount.
  • the tone curve is corrected to make the screen appear brighter, but it does not detect the light emitting part and stretch the brightness at that time, but makes the light emitting part in the screen particularly prominent and bright, At this time, there is no disclosure of the idea of controlling the degree of luminance stretch in accordance with the state of the video to prevent a drop in video quality such as black float.
  • the present invention has been made in view of the above circumstances, and by detecting the light emitting portion of the video signal and stretching the display luminance of the light emitting portion to display it, the brightness can be further enhanced.
  • a video display device and a television receiver capable of always displaying high-quality video by performing display with higher contrast and controlling the luminance stretch according to the black display state of the video at this time. For the purpose.
  • a first technical means of the present invention includes a display unit that displays an input video signal, a light source that illuminates the display unit, a display unit, and a control unit that controls the light source.
  • the control unit generates a histogram in which the number of pixels is integrated with respect to a predetermined feature amount of the input video signal, detects an upper region of the predetermined range of the histogram as a light emitting unit, and detects the input video Based on an index related to brightness calculated based on a predetermined condition from the signal, the luminance of the light source is stretched and increased, and the luminance of the video signal of the non-light emitting unit excluding the light emitting unit is decreased,
  • a video display device that enhances display luminance of a light emitting unit, the video display device including a black detection unit that detects a black display amount from the input video signal based on a predetermined black detection condition,
  • the control unit According to the amount of black display detected by the black detection unit, in which is characterized by switching
  • the control unit divides an image based on an input video signal into a plurality of regions, and determines each region based on a gradation value of the video signal in the divided region.
  • the lighting curve of the light source corresponding to is changed, and the control curve is an average lighting rate obtained by averaging the lighting rates corresponding to all regions and a luminance stretch indicated by the maximum luminance that can be taken on the screen of the display unit.
  • a control curve defining a relationship with a quantity wherein the control unit uses the average lighting rate as an index related to the brightness, and determines the luminance of the light source based on the maximum luminance determined according to the average lighting rate. It is characterized by stretching.
  • the control curve is a control curve in which the luminance stretch amount decreases as the black display amount detected by the black detection unit decreases. It is what.
  • the control curve counts the number of pixels by weighting the brightness of each pixel with respect to an image in a predetermined range including the detected light emitting area. Is a control curve that defines the relationship between the score obtained by the above and the luminance stretch amount, wherein the control unit uses the score as an index related to the brightness, and according to the score calculated from the input video signal It is characterized by stretching the luminance of the light source.
  • control curve is a control curve in which the luminance stretch amount decreases as the amount of black display detected by the black detection unit decreases. Is.
  • the control unit performs video processing for converting and outputting an input gradation of an input video signal, and an input gradation and an output gradation.
  • the input / output characteristics that determine the relationship between the light-emitting part and the non-light-emitting part have a threshold value that is determined in a non-light-emitting part region having a lower gradation than the boundary between the light-emitting part and the non-light-emitting part.
  • the luminance stretch amount are determined in advance, and a gain that lowers the output gradation with respect to the input gradation of the input video signal is determined according to the luminance stretch amount, so that the region has a gradation lower than the threshold value. And applying the determined gain to the image processing, and moving the threshold to a higher gradation side as the amount of black display detected by the black detection unit decreases in the image processing. It is.
  • the control unit reduces, by the video processing, an increase in display luminance of the display unit due to a luminance stretch of the light source in a predetermined region where the feature amount is low. It is characterized by making it.
  • the ninth technical means is a television receiver provided with a video display device according to any one of the first to eighth technical means.
  • the light emitting portion of the video signal is detected, and the display brightness of the light emitting portion is stretched to be displayed so as to be displayed, thereby increasing the brightness and displaying with high contrast.
  • the luminance stretch according to the black display state of the video at this time it is possible to provide a video display device and a television receiver that can always express high-quality video.
  • FIG. 10 is a diagram illustrating a state in which screen luminance is enhanced by processing of the area active control / luminance stretch unit 14. It is a figure explaining other embodiment of the video display apparatus concerning this invention. An example of a Y histogram generated from a luminance signal Y of an input video signal is shown.
  • FIG. 1 is a diagram for explaining an embodiment of a video display device according to the present invention, and shows a configuration of a main part of the video display device.
  • the video display device is configured to display an image by performing image processing on an input video signal, and can be applied to a television receiver or the like.
  • the video signal separated from the broadcast signal and the video signal input from the external device are input to the signal processing unit 11 and the area active control / luminance stretch unit 14.
  • the tone mapping generated by the mapping unit 13 of the signal processing unit 11 is applied to the video signal to the area active control / luminance stretch unit 14 and then input to the area active control / luminance stretch unit 14.
  • the light emission detection unit 12 of the signal processing unit 11 generates a histogram for each frame based on the feature amount of the input video signal, and detects a light emitting part.
  • the light emitting portion is obtained from the average value and standard deviation of the histogram, and is detected as a relative value for each histogram.
  • the black detection unit 19 of the signal processing unit 11 detects an amount (number of pixels) corresponding to black display from the input video signal according to a predetermined condition.
  • the amount corresponding to black display will be simply referred to as black amount, and the detection processing corresponding to black display will be described as black detection processing.
  • the black detector 19 detects the amount of black for each frame from the input video signal by a predetermined calculation process. Then, based on the relationship between the predetermined black amount and the luminance enhancement ratio of the backlight, the luminance enhancement ratio corresponding to the detected black amount is determined.
  • the determined luminance enhancement ratio is output to the area active control / luminance stretch unit 14.
  • the brightness enhancement ratio of the present embodiment is used to limit and adjust the brightness stretch amount of the backlight determined according to the average lighting rate of the backlight according to the amount of black display.
  • the mapping unit 13 generates tone mapping using the information on the light emission part detected by the light emission detection unit 12 and the Max luminance output from the area active control / luminance stretch unit 14, and applies it to the input video signal. To do.
  • the Max luminance indicates the maximum luminance desired to be displayed on the screen and corresponds to the luminance stretch amount of the backlight.
  • the area active control / luminance stretch unit 14 divides an image of the video signal into predetermined areas according to the input video signal, and extracts the maximum gradation value of the video signal for each divided area. Then, the lighting rate of the backlight unit 16 is calculated based on the maximum gradation value. The lighting rate is determined for each area of the backlight unit 16 corresponding to the divided area of the video. Moreover, the backlight part 16 is comprised by several LED, and brightness
  • the lighting rate for each area of the backlight unit 16 is determined based on a predetermined arithmetic expression, but is basically maintained without reducing the luminance of the LED in an area having a bright maximum gradation value of high gradation. Then, an operation is performed to reduce the luminance of the LED in a dark area with low gradation. Then, the area active control / luminance stretch unit 14 calculates the overall average lighting rate of the backlight unit 16 from the lighting rate of each region, and according to the average lighting rate, the area of the backlight unit 16 is calculated by a predetermined arithmetic expression. Calculate brightness stretch amount. As a result, the maximum luminance value (Max luminance) that can be taken in the area in the screen is obtained. With respect to the Max luminance obtained here, the Max luminance is adjusted based on the black detection result by the black detection unit 19 and is output to the mapping unit 13 of the signal processing unit 11.
  • the area active control / luminance stretch unit 14 returns the Max luminance adjusted according to the detection result of the black amount to the signal processing unit 11 to reduce the luminance corresponding to the luminance stretch of the backlight unit 16.
  • the luminance stretch is applied to the entire backlight unit 16, and the luminance reduction due to the video signal processing is performed on the portion regarded as not emitting light except the light emitting unit.
  • the screen brightness of only the light emitting portion can be increased, video can be expressed with high contrast, and the image quality can be improved.
  • the area active control / luminance stretch unit 14 outputs control data for controlling the backlight unit 16 to the backlight control unit 15, and the backlight control unit 15 selects the LEDs of the backlight unit 16 based on the data.
  • the emission luminance is controlled for each divided area.
  • luminance of LED of the backlight part 16 is performed by PWM (Pulse Width Modulation) control, it can be controlled so that it may become a desired value by current control or these combination.
  • the area active control / luminance stretch unit 14 outputs control data for controlling the display unit 18 to the display control unit 17, and the display control unit 17 controls the display of the display unit 18 based on the data. .
  • the display unit 18 is a liquid crystal panel that is illuminated by the LED of the backlight unit 16 and displays an image.
  • control unit of the present invention controls the backlight unit 16 and the display unit 18, and includes a signal processing unit 11, an area active control / luminance stretch unit 14, a backlight control unit 15, and
  • the display control unit 17 corresponds.
  • the television receiver has means for selecting and demodulating a broadcast signal received by an antenna, decoding it, and generating a reproduction video signal.
  • the signal is appropriately subjected to predetermined image processing and input as the input video signal of FIG. Thereby, the received broadcast signal can be displayed on the display unit 18.
  • the present invention can be configured as a display device and a television receiver including the display device.
  • the area active control / luminance stretch unit 14 divides the video into a plurality of predetermined areas (areas), and controls the emission luminance of the LEDs corresponding to the divided areas for each area.
  • 2 to 3 are diagrams for explaining the light emission area control processing in the area active control / luminance stretch unit 14.
  • Area active control applied to the present embodiment divides an image into a plurality of predetermined areas (areas), and controls the light emission luminance of the LED corresponding to the divided areas for each area.
  • the area active control / luminance stretch unit 14 divides one frame of video into a plurality of predetermined areas based on the input video signal, and extracts the maximum gradation value of the video signal for each of the divided areas. To do. For example, an image as shown in FIG. 2A is divided into a plurality of predetermined areas. Here, the maximum gradation value of the video signal in each region is extracted. In another example, other statistical values such as the average gradation value of the video signal may be used instead of the maximum gradation value. Hereinafter, an example in which the maximum gradation value is extracted will be described.
  • the area active control / brightness stretch unit 14 determines the lighting rate of the LED for each area according to the extracted maximum gradation value.
  • FIG. 2B shows the lighting rate of the LEDs in each region at this time. In a bright portion where the gradation of the video signal is high, a bright display is performed by increasing the lighting rate of the LED. The process at this time will be described more specifically.
  • FIG. 3 shows an example of a state when the maximum gradation value of each divided area of one frame is extracted.
  • the screen of one frame is divided into eight areas (areas ⁇ 1> to ⁇ 8>) for the sake of simplicity.
  • FIG. 3A shows the lighting rate of each region (regions ⁇ 1> to ⁇ 8>)
  • FIG. 3B shows the lighting rate of each region and the average lighting rate of the entire screen.
  • the lighting rate of the backlight LED in each region is calculated from the maximum gradation value in each region.
  • the lighting rate can be indicated by, for example, the LED drive duty. In this case, the lighting rate Max is 100%.
  • the luminance of the backlight is lowered by lowering the lighting rate in a dark region where the maximum gradation value is low.
  • the gradation value of the video is represented by 8-bit data of 0-255
  • the lighting rate of the backlight is determined in the range of 10 to 90% for each region.
  • This lighting rate calculation method shows an example. Basically, a bright high gradation region does not decrease the backlight luminance, and the backlight luminance is decreased in advance in a low gradation dark region.
  • the lighting rate of each area is calculated according to the determined arithmetic expression. Then, the backlight lighting rate for each region calculated from the maximum gradation value of the video signal is averaged to calculate the average lighting rate of the backlight in one frame.
  • the average lighting rate is the level of the average lighting rate shown in FIG.
  • the average lighting rate is an example of an index related to brightness according to the present invention.
  • FIG. 4 is a diagram for explaining the average lighting rate determination process more specifically.
  • the luminance of the backlight is lowered by lowering the lighting rate in a dark region where the maximum gradation value is low.
  • the actual lighting rate of each region is determined so as to accurately display the gradation to be displayed and to make the LED duty as low as possible.
  • the duty temporary lighting rate
  • the gradation of the display unit 18 here, the LCD panel
  • the gradation value of the video is expressed by 8-bit data of 0 to 255
  • the gradation values of a plurality of pixels in one area in FIG. 3A are shown in FIG.
  • the case indicated by will be described.
  • the maximum gradation value is 128.
  • the area active control / luminance stretch unit 14 determines the lighting rate in this way, and calculates the gradation value for each pixel in the display unit 18 in consideration of the lighting rate for the region including the pixel. .
  • the gradation value to be displayed is 96
  • 96 / (128/255) 192
  • the pixel may be expressed using the gradation value 192.
  • FIG. 4C shows the result of calculating the gradation value for display for each pixel in FIG.
  • the actual luminance of the backlight unit 16 is further stretched and enhanced based on the value of the Max luminance determined according to the average lighting rate.
  • the original reference luminance is, for example, such luminance that the screen luminance is 550 (cd / m 2 ) at the maximum gradation value.
  • the reference luminance can be appropriately determined without being limited to this example.
  • FIG. 5 is a diagram for explaining a processing example of the area active control / luminance stretch unit 14.
  • the area active control / luminance stretch unit 14 calculates the average lighting rate of the entire screen from the lighting rate determined according to the maximum gradation value of each region. The average lighting rate of the entire screen increases as the number of areas with high lighting rates increases. Then, the maximum luminance value (Max luminance) that can be taken is determined based on the relationship shown in FIG.
  • the horizontal axis represents the backlight lighting rate (window size), and the vertical axis represents the screen luminance (cd / m 2 ) at the Max luminance.
  • the average lighting rate can be expressed as a ratio between a lighting region (window region) with a lighting rate of 100% and a light-off region with a lighting rate of 0%.
  • the lighting rate is zero when there is no lighting region, the lighting rate increases as the window of the lighting region increases, and the lighting rate becomes 100% with full lighting.
  • the Max luminance when the backlight is fully lit is, for example, 550 (cd / m 2 ). Then, the Max luminance is increased as the average lighting rate decreases. At this time, a pixel having a gradation value of 255 gradations (in the case of 8-bit representation) has the highest screen brightness in the screen, and the maximum possible screen brightness (Max brightness). Therefore, it can be seen that even with the same average lighting rate, the screen luminance does not increase up to the Max luminance depending on the gradation value of the pixel.
  • the value of Max luminance is the largest, and the maximum screen luminance at this time is 1500 (cd / m 2 ). That is, at P1, the maximum possible screen brightness is stretched to 1500 (cd / m 2 ) compared to 550 (cd / m 2 ) when all the lights are on. P1 is set at a position where the average lighting rate is relatively low. In other words, the brightness of the backlight is stretched to a maximum of 1500 (cd / m 2 ) when the screen is a dark screen as a whole with a low average lighting rate and a high gradation peak in part. Also, the reason for the lower stretch of backlight brightness is the higher the average lighting rate, the less bright the screen is because it may feel dazzling if the backlight brightness is excessively high on an originally bright screen. It is for doing so.
  • the Max luminance value is gradually decreased.
  • the range with a low average lighting rate corresponds to a dark screen image. Instead of stretching the backlight brightness to increase the screen brightness, the backlight brightness is reduced to improve the contrast, and black Keep the display quality by suppressing floating.
  • the area active control / luminance stretch unit 14 stretches the luminance of the backlight according to the curve of FIG. 5 and outputs the control signal to the backlight control unit 15.
  • the average lighting rate changes according to the maximum gradation value detected for each divided region of the video, and the state of the luminance stretch changes according to the average lighting rate.
  • the video signal input to the area active control / luminance stretch unit 14 is applied with tone mapping generated by signal processing by the signal processing unit 11 described below, and the low gradation region is gain-down and input.
  • the brightness of the backlight is stretched in the low-tone non-light-emitting area, and the brightness is reduced by the video signal.
  • the screen brightness is enhanced only in the light-emitting area, and the brightness is increased. It has become.
  • the area active control / luminance stretch unit 14 uses the average lighting rate of the backlight according to the curve of FIG. 5 and the Max luminance value obtained from the black detection result output from the black detection unit 19 to the mapping unit 13 of the signal processing unit 11. Output to.
  • the mapping unit 13 performs tone mapping using the Max luminance output from the area active control / luminance stretch unit 14.
  • the signal processing unit 11 will be described.
  • the light emission detection unit 12 of the signal processing unit 11 detects a light emitting part from the video signal.
  • FIG. 6 shows an example of a Y histogram generated from the luminance signal Y.
  • the light emission detector 12 adds up the number of pixels for each luminance gradation for each frame of the input video signal to generate a Y histogram.
  • the horizontal axis represents the gradation value of luminance Y, and the vertical axis represents the number of pixels (frequency) integrated for each gradation value.
  • the luminance Y is one of the feature quantities of the video for creating the histogram, and other examples of the feature quantities will be described later.
  • it is assumed that a light emitting portion is detected for luminance Y.
  • an average value (Ave) and a standard deviation ( ⁇ ) are calculated from the Y histogram, and two threshold values Th are calculated using these.
  • the second threshold value Th2 defines a light emission boundary, and processing is performed assuming that pixels having the threshold value Th2 or more in the Y histogram are light emitting portions.
  • the first threshold Th1 is set to suppress a sense of incongruity such as gradation in an area smaller than Th2.
  • Th1 Ave + M ⁇ Expression (2)
  • M is a predetermined constant, and M ⁇ N. Further, the value of M changes according to the detection result of the black amount by the black detection unit 19.
  • the values of the first and second threshold values Th1 and Th2 detected by the light emission detection unit 12 are output to the mapping unit 13 and used to generate tone mapping.
  • FIG. 7 is a diagram illustrating an example of tone mapping generated by the mapping unit 13.
  • the horizontal axis is the input gradation of the luminance value of the video
  • the vertical axis is the output gradation.
  • the pixels detected by the light emission detector 12 that are equal to or greater than the second threshold Th2 are portions that emit light in the video, and the gain is reduced by applying a compression gain except for the portions that emit light.
  • Th2 which is the light emission boundary
  • Tone mapping is performed by setting the gain G2.
  • the mapping unit 13 receives the Max luminance value from the area active control / luminance stretch unit 14. As described above, the Max luminance indicates the maximum luminance determined from the average lighting rate of the backlight and the black detection amount output from the black detection unit 19, and is input as, for example, the value of the backlight duty.
  • the output gradation of the first threshold Th1 lowered by the first gain G1 and the output gradation of the first threshold Th1 are connected by a straight line.
  • G2 (Th2-G1 ⁇ Th1) / (Th2-Th1) (4)
  • tone mapping as shown in FIG. 7 is obtained.
  • a predetermined range for example, connecting portion ⁇ ⁇ ( ⁇ is a predetermined value)
  • the tone mapping generated by the mapping unit 13 is applied to the input video signal, and the video signal in which the output of the low gradation portion is suppressed based on the luminance stretch amount of the backlight is input to the area active control / luminance stretch unit 14.
  • FIG. 8 is a diagram for explaining the Max luminance output by the area active control / luminance stretch unit 14.
  • the area active control / luminance stretch unit 14 receives the video signal to which the tone mapping generated by the mapping unit 13 is applied, performs area active control based on the video signal, and determines Max luminance based on the average lighting rate. .
  • the Max luminance control curve changes in accordance with the black detection result from the black detection unit 19, but black detection is not considered here for the sake of explanation.
  • the frame determined based on the above average lighting rate is N frame.
  • the value of the Max luminance of the N frame is output to the mapping unit 13 of the signal processing unit 11.
  • the mapping unit 13 generates tone mapping as shown in FIG. 7 using the inputted Max luminance of the N frame and applies it to the video signal of the N + 1 frame.
  • Max luminance based on the area active average lighting rate is fed back and used for tone mapping of the next frame.
  • the mapping unit 13 applies a gain (first gain G1) for reducing the video output for an area smaller than the first threshold Th1, based on the Max luminance determined in N frames.
  • the second gain G2 that linearly connects Th1 and Th2 is applied to the region between Th1 and Th2, and the video output between Th1 and Th2 is reduced.
  • the Max luminance control curve corresponding to the average lighting rate as shown in FIG. 5 is changed according to the detection result of the black amount in the black detection unit 19. Any of the following processing examples can be applied to the black detection processing.
  • FIG. 9 is a diagram for explaining an example of black detection processing in the black detection unit, and is a diagram illustrating an example of a luminance histogram of a video signal.
  • the black detection unit 19 uses the luminance as the feature amount of the video signal, and generates a histogram of luminance Y by integrating the number of pixels for each luminance gradation for each frame of the input video signal.
  • other feature amounts can be used as the feature amount of the video signal instead of the luminance signal, examples of other feature amounts will be described later, and an example using a luminance histogram is shown here.
  • the black detection unit 19 sets a fourth threshold Th4 indicating a black region for this histogram. Pixels in the luminance area below the fourth threshold Th4 are treated as pixels that perform black display (pixels corresponding to black). Therefore, for example, in the case of 256 gradation expression, an area from 0 gradation to several gradations near 0 gradation can be defined as an area corresponding to black. Then, the black detection unit 19 counts the number of pixels in the luminance area equal to or lower than the fourth threshold Th4, and determines a black display score (black detection score) according to the count result. The black detection score is determined according to the counted number of pixels, where Max is when all the pixels in the frame are included in the black region, and 0 when there is no single pixel in the black region.
  • FIG. 10 is a diagram showing a setting example of the relationship between the black detection score and the enhancement ratio.
  • the black detection unit 19 a relationship as shown in FIG. 10 is determined in advance.
  • the enhancement ratio is determined according to the black detection score obtained from the histogram of FIG.
  • the enhancement ratio is maintained at 100%.
  • the black display area is small, there is little influence of black floating, and there is no need to limit the luminance enhancement amount determined according to the amount of light emission, so emphasis is placed on the brightness of bright parts due to luminance enhancement with the enhancement ratio as 100% To do.
  • the enhancement ratio is decreased as the black detection score increases, that is, the amount of black increases.
  • the luminance enhancement amount determined according to the amount of light emission is limited to suppress black floating.
  • the enhancement ratio is set to 0 because there are many black display areas in the screen.
  • FIG. 11 is a diagram for explaining another example of the black detection process in the black detection unit.
  • a Y histogram is generated in the same manner as in the black detection process 1, but a histogram based on another feature amount may be used.
  • a histogram generated by the light emission detection unit 12 may be used if it can be used.
  • the black detection unit 19 detects the amount of black for each frame from the generated Y histogram, and at this time, a parameter obtained by adding a weight to black is set as a black detection score.
  • count [i] is the frequency (number of pixels) of the i-th feature amount (luminance, Max RGB, CMI, etc.) of the histogram.
  • W [i] is the i-th weight, and a function for determining the weight can be arbitrarily set.
  • FIG. 11 shows a setting example of the weighting function W [i]. Basically, the smaller the feature amount of the histogram (the closer to black), the greater the weight. Then, a black detection score based on a function weighted to black is calculated by multiplying the integrated value of the number of pixels for each feature amount (luminance gradation) by a weight.
  • a geometric average value GAve that is an index of the average luminance of the video signal that matches human visual characteristics is used.
  • Gave is not the average of signal luminance, but is the average luminance value calculated as the average luminance of the liquid crystal panel as a value that matches the visual characteristics. Specifically, Gave. Is represented by the following formula (7).
  • is a very small value that prevents log0.
  • Ylum indicates the panel luminance of each pixel and has a value of 0 to 1.0.
  • Ylum can be expressed by (signal luminance / MAX luminance) ⁇ ⁇ .
  • N and pixels represent the total number of pixels.
  • the equation (6) is obtained by raising the logarithmic average of the luminance values of the pixels of the image, in other words, the geometric mean value.
  • FIG. 12 is a diagram showing a response curve with respect to the luminance of a human photoreceptor cell.
  • the response curve of the human photoreceptor depends on the logarithmic luminance value (luminance (log cd / m 2 ). This is generally the Michaelis-Menten equation ( Mickeyis-Menten-Equation).
  • Gave is the power of the logarithmic average of the luminance values of the pixels as described above. Therefore, it can be said that Gave is a numerical value of the eye response to the image (that is, how bright it looks). That is, Gave is close to a human sensory amount, and this value is used as a feature amount to determine an enhancement ratio according to Gave.
  • GAve is calculated by performing the following processing.
  • S1 Normalization is performed for each pixel of the histogram, and the panel luminance value is calculated by multiplying by ⁇ . The minimum luminance value and the panel luminance value are added, and the value of log 10 is obtained.
  • S2 The result of log10 is added for all pixels.
  • S3 The average exp of the result of addition is taken.
  • FIG. 13 is a diagram showing a setting example of the relationship between the geometric average value and the enhancement ratio.
  • the black detection unit 19 a relationship as shown in FIG. 13 is determined in advance.
  • the enhancement ratio is determined according to the geometric average value for each frame calculated from the input video signal.
  • the enhancement ratio is set to 0%. That is, as the black display increases, the black float becomes more conspicuous. Therefore, the brightness enhancement amount determined according to the geometric average value close to the human sensory amount is suppressed to 0% to suppress the black float.
  • the enhancement ratio is increased as the geometric average value increases, that is, the amount of black decreases.
  • the luminance enhancement amount ratio is increased as the geometric average increases.
  • the black display area is extremely small in the screen, so the enhancement ratio is set to 100%, and emphasis is placed on the brightness of bright areas due to luminance enhancement. To emphasize.
  • the area active control / luminance stretch unit 14 inputs the video signal to which the tone mapping generated by the mapping unit 13 is applied, performs area active control based on the video signal, and based on the average lighting rate Max brightness is determined. At this time, the area active control / luminance stretch unit 14 varies the Max luminance control curve according to the detection result of the black amount in the black detection unit 19, and the larger the black detection amount, the higher the average lighting rate and the Max. The relationship with luminance is made a gentle curve so that Max luminance is suppressed.
  • the mapping unit 13 shifts the first threshold th1 to a higher feature amount such as luminance according to the detection result of the black amount in the black detection unit 19, and thereby the dark region is obtained by video signal processing.
  • the gradation is lowered to obtain a contrast feeling.
  • FIG. 14 is a diagram for explaining the Max luminance that is changed according to the black detection result.
  • the area active control / luminance stretch unit 14 calculates the average lighting rate of the entire screen from the lighting rate determined according to the maximum gradation value of each region. The average lighting rate of the entire screen increases as the number of areas with high lighting rates increases. Then, the maximum luminance value (Max luminance) that can be taken is determined based on the relationship shown in FIG.
  • the setting of the Max luminance in FIG. 14 is changed according to the detection result of the black amount of the video by the black detection unit 19.
  • the black detection unit 19 outputs an enhancement ratio according to a black detection score or a geometric average value according to a black detection method.
  • a region where the enhancement ratio is high is a region where the amount of black is relatively small.
  • the relationship between the enhancement ratio and the Max luminance control curve is determined in advance, and the Max luminance control curve is changed in accordance with the enhancement ratio output from the black detector 19.
  • control curve R1 For example, as shown in FIG. 14, four levels of Max luminance control curves are prepared, and in the case of a predetermined range with the highest enhancement ratio, control is performed with the control curve R1, and control is performed in stages as the enhancement ratio decreases. Change in the order of curves R2, R3, R4.
  • the control curve R4 is a case of an image with the lowest enhancement ratio and darkness (high black detection score or high geometric average value). As a result, in the case of an image with many black areas and a high black detection score or geometric average value, the luminance stretch of the backlight is suppressed to prevent deterioration in quality due to black floating.
  • control curve is set to four stages, but the control curve is not limited to four stages, and control can be performed in two or more stages. Further, the control curve may be generated each time so as to change steplessly according to the enhancement ratio.
  • FIG. 15 is a diagram for explaining the first threshold value that is changed according to the detection result of the black amount.
  • the light emission detection unit 12 generates a Y histogram by integrating the number of pixels for each luminance gradation for each frame of the input video signal. Then, an average value (Ave) and a standard deviation ( ⁇ ) are calculated from the Y histogram, and a second threshold value Th2 for defining a light emission boundary and a first threshold value for suppressing a sense of incongruity such as gradation in an area smaller than Th2.
  • the position of the first threshold Th1 in FIG. 15 is changed according to the detection result of the black amount of the video by the black detection unit 19.
  • the black detection unit 19 outputs an enhancement ratio according to a black detection score or a geometric average value according to a black detection method.
  • a region where the enhancement ratio is high is a region where the amount of black is relatively small.
  • a relationship between the enhancement ratio and the position of the first threshold Th1 is determined in advance, and the position of the first threshold Th1 is changed according to the enhancement ratio output from the black detection unit 19.
  • the position of the first threshold Th1 may be set in advance in a plurality of stages according to the enhancement ratio, or the position of the first threshold Th1 may be set in a stepless manner according to the enhancement ratio. You may make it do.
  • the value of M is increased as the enhancement ratio is decreased, and the first threshold Th1 is shifted to the high luminance side.
  • the position of the first threshold Th1 is shifted to the high luminance side.
  • FIG. 16 is a diagram illustrating an example of tone mapping according to black detection.
  • the mapping unit 13 sets the first gain G4 for an area smaller than the first threshold Th1, and sets the second gain G5 so as to linearly connect Th1 and Th2, thereby toning the tone.
  • Perform mapping At this time, tone mapping is performed according to the position of the first threshold Th1 determined according to the detection result of the black amount of the video by the black detection unit 19.
  • the first threshold Th1 is shifted to the higher luminance side, thereby suppressing the gradation of the lower luminance region to be lower in a wider range. By doing so, it is possible to obtain an image quality that emphasizes a sense of contrast.
  • the Max luminance and the first threshold value not the enhancement ratio output from the black detection unit 19 as described above, but the amount of the black detection score detected by the black detection unit 19 or the geometrical value.
  • the Max luminance and the position of the first threshold Th1 may be set. Since the black detection score and the geometric average value are one index indicating the degree of the black area of the video as it is, for example, as the amount of black increases according to these values, the Max brightness is suppressed and the black floating is suppressed. In addition to preventing, it is possible to control the first threshold Th1 to be shifted to the high luminance side so that the contrast feeling is emphasized.
  • FIG. 17 is a diagram illustrating a state in which the screen luminance is enhanced by the processing of the area active control / luminance stretch unit 14.
  • the horizontal axis is the gradation value of the input video signal
  • the vertical axis is the screen brightness (cd / m 2 ) of the display unit 18.
  • T2 and T3 correspond to the positions of the gradation values of the first and second threshold values Th1 and Th2 used in the light emission detection unit 12, respectively.
  • the signal processing for reducing the output gradation of the video signal according to the luminance stretch amount of the backlight is not performed in the region of the second threshold Th2 or more detected by the light emission detection unit 12.
  • the input video signal is enhanced and displayed with a ⁇ curve according to the Max luminance determined by the area active control.
  • the Max luminance is 1500 (cd / m 2 )
  • the screen luminance is 1500 (cd / m 2 ) when the input video signal has the highest gradation value (255).
  • the Max luminance in this case is the Max luminance determined according to the average lighting rate determined based on the video signal and the detection result of the black amount by the black detection process.
  • the first gain G1 is applied to the video signal so as to reduce the screen luminance component that increases due to the luminance stretch of the backlight. Therefore, the screen is displayed with a ⁇ curve based on the reference luminance. This is because the output value of the video signal is suppressed in a range smaller than the threshold Th1 (corresponding to T2) corresponding to the luminance stretch by the mapping unit 13 in accordance with the Max luminance determined by the area active control / luminance stretch unit 14. From T2 to T3, the screen luminance changes according to the tone mapping of Th2 to Th1.
  • the curve based on the reference luminance indicates that the maximum luminance value screen luminance becomes the reference luminance when the backlight luminance is not stretched (for example, the maximum luminance value screen luminance is 550 cd / m 2 ).
  • the curve based on the Max luminance is a ⁇ curve in which the screen luminance of the maximum gradation value becomes the Max luminance determined by the area active control / luminance stretch unit 14.
  • the screen brightness is controlled with the reference brightness.
  • the range where the input video signal is greater than or equal to T3 is a range that is considered to emit light, the video signal is maintained without being suppressed while the backlight is stretched by luminance stretching. Thereby, the screen brightness is enhanced, and a high-quality image display with a more lustrous feeling can be performed.
  • the difference in the screen luminance direction between the curve based on the reference luminance of T1 to T2 and the curve based on the Max luminance of T3 to T4. Becomes smaller. That is, as the Max luminance determined according to the amount of black detected by the black detection unit becomes smaller, the curves from T3 to T4 shift to the lower luminance side. Also, since the position of T2 corresponds to the position of the first threshold th1 that changes according to the amount of black detection, the position of T2 also shifts to the high gradation side of the input signal when the black detection amount increases, and the contrast is increased.
  • the display is focused on feeling. Note that the ⁇ curves from T1 to T2 do not need to match the reference luminance, and can be set by appropriately adjusting the gain G4 as long as it has a difference from the enhancement region of the light emitting portion. .
  • FIG. 18 is a diagram for explaining another embodiment of the video display apparatus according to the present invention.
  • the second embodiment has the same configuration as that of the first embodiment, but unlike the first embodiment, the value of the Max luminance used when performing tone mapping is changed to an area active control / luminance stretch unit.
  • the luminance stretch amount is determined based on the detection results of the light emission detection unit 12 and the black detection unit 19 without being determined in 14, and tone mapping is executed based on the determined luminance stretch amount. Therefore, the mapping unit 13 of the signal processing unit 11 does not need to output the Max luminance value by luminance stretching from the area active control / luminance stretching unit 14 as in the first embodiment.
  • the black detection unit 19 detects an amount corresponding to black display from the input video signal according to a predetermined condition.
  • any one of the black detection processes 1 to 3 described in the first embodiment can be applied as the black detection process performed by the black detection unit 19.
  • the black detection unit 19 outputs an enhancement ratio according to the black detection score or the geometric average value.
  • a region where the enhancement ratio is high is a region where the amount of black is relatively small.
  • the detection result by the black detection unit 19 is input to the light emission detection unit 12 and the mapping unit 13.
  • FIG. 19 shows an example of a Y histogram generated from the luminance signal Y of the input video signal.
  • the light emission detection unit 12 uses the luminance as the video feature amount, and generates a Y histogram by integrating the number of pixels for each luminance gradation of each pixel of the input video signal. Then, an average value (Ave) and a standard deviation ( ⁇ ) are calculated from the Y histogram, and two threshold values Th1 and Th2 are calculated using these values.
  • the second threshold value Th2 defines a light emission boundary, and in the Y histogram, pixels that are equal to or higher than the threshold value Th2 are regarded as light emitting portions.
  • the feature amount of the video other feature amounts described later can be used, but here, luminance is used.
  • a third threshold Th3 is further set.
  • the third threshold value Th3 is between Th1 and Th2, and is provided for detecting the state of the pixel in the light emitting portion.
  • FIG. 20 is a diagram illustrating a calculation example of the luminance stretch amount according to the pixel equal to or greater than the third threshold Th3.
  • the horizontal axis represents the score of the pixel value equal to or greater than the threshold Th3, and the vertical axis represents the luminance stretch amount according to the score.
  • the score corresponds to an example of an index related to the brightness of the present invention.
  • the score is defined as [ratio of pixels greater than or equal to a certain threshold] ⁇ [distance from threshold (luminance difference)], and counts the number of pixels having a gradation value larger than the third threshold Th3, and the threshold Th3
  • the degree of brightness is indicated by weighting and calculating the distance from the distance, for example, calculated by the following equation (8).
  • count [i] is a count of the number of pixels for the gradation value i.
  • i 2 ⁇ (Thresh3) 2 indicates a distance (brightness difference) with respect to the luminance as shown in FIG. 19, and a distance from the threshold value in the lightness L * may be adopted instead.
  • This square represents the luminance, and is actually the square of 2.2. That is, when the digital code value is i, the luminance is i 2.2 . At that time, the lightness L * is (i 2.2 ) 1 / 3 ⁇ i.
  • the total number of pixels refers to a value obtained by counting all the numbers of pixels, not limited to i> Th3.
  • the score increases when there are many high gradation pixels apart from Th3 in the light emitting portion. Even if the number of pixels equal to or greater than Th3 is constant, the score increases as the number of pixels with high gradation increases.
  • the luminance stretch amount is set high, and a high gradation shining image is stretched to a higher luminance to increase the brightness.
  • the maximum screen luminance that can be obtained after luminance stretching is set to 1500 (cd / m 2 ) in a portion where the score is higher than a certain level.
  • the luminance stretch amount is set to be smaller as the score is smaller.
  • the light emission detection unit 12 changes the control curve shown in FIG. 21 according to the detection result of the black amount in the black detection unit 19.
  • This luminance stretch amount is the same concept as the Max luminance of the first embodiment, and is indicated by, for example, a backlight duty value.
  • FIG. 21 is a diagram for explaining a setting example of a control curve for the luminance stretch amount to be changed according to the black detection result.
  • the light emission detection unit 12 determines the luminance stretch amount according to the score of the pixel value equal to or greater than the threshold Th3.
  • the control curve that defines the relationship between the score and the luminance stretch amount at this time is used as the black detection unit 19. It changes according to the detection result outputted from. Specifically, the relationship between the enhancement ratio output as a detection result from the black detection unit 19 and the control curve is determined in advance, and the control curve is changed according to the enhancement ratio output from the black detection unit 19. .
  • control curve U1 For example, as shown in FIG. 21, four stages of brightness stretch control curves are prepared, and in the case of a predetermined range with the highest enhancement ratio, control is performed with the control curve U1, and control is performed in stages as the enhancement ratio decreases. Change in the order of curves U2, U3, U4.
  • the control curve U4 is the case of a video with the lowest enhancement ratio and darkness (high black detection score or high geometric average value). As a result, in the case of an image having many black areas and a high black detection score or geometric average value, the luminance stretch of the backlight is suppressed to prevent the deterioration of the quality due to black floating.
  • control curve is set to four stages, but the control curve is not limited to four stages, and control can be performed in two or more stages. Further, the control curve may be generated each time so as to change steplessly according to the enhancement ratio.
  • the light emission detection unit 12 changes the position of the first threshold Th1 in the Y histogram according to the detection result of the black detection unit 19 by the same processing as in the first embodiment.
  • the first threshold Th ⁇ b> 1 is shifted to the higher luminance side as the enhancement ratio due to black detection becomes lower.
  • the position of the first threshold Th1 is shifted to the high luminance side.
  • the luminance stretch amount and the first threshold value not the enhancement ratio output from the black detection unit 19 as described above, but the amount of the black detection score detected by the black detection unit 19 or the geometric average Depending on the value, the luminance stretch amount and the position of the first threshold Th1 may be set.
  • the black detection score and the geometric average value are one index that represents the degree of the black area of the video as it is, so for example, as the amount of black increases according to these values,
  • the first threshold value T1 can be shifted to the high luminance side and control can be performed so as to emphasize the sense of contrast.
  • the luminance stretch amount determined according to the values of the first and second threshold values Th1 and Th2 output from the light emission detection unit 12 and the score of the pixel equal to or greater than Th3 is output to the mapping unit 13 and used for generation of tone mapping. Is done.
  • the toe mapping process in the mapping unit 13 is the same as in the first embodiment. That is, as shown in FIG. 15, the first gain G4 is set for an area smaller than the first threshold Th1 set by the light emission detector 12, and the second gain is set so as to linearly connect Th1 and Th2. Set the gain G5.
  • the luminance stretch amount determined according to the detection result of the black amount by the light emission detection unit 12 is used, and the luminance is reduced by video signal processing according to the luminance stretch amount of the backlight.
  • the obtained tone mapping is applied to the input video signal and input to the area active control / luminance stretch unit 14.
  • the area active control / luminance stretch unit 14 Processing in the area active control / luminance stretch unit 14 is the same as that in the first embodiment. However, the area active control / luminance stretch unit 14 does not need to determine the Max luminance from the average lighting rate of the backlight and output it to the signal processing unit 11 as in the first embodiment, and conversely, the light emission of the signal processing unit 11 Based on the luminance stretch amount output from the detection unit 12, the luminance of the LED of the backlight unit 16 is stretched.
  • the area active control / luminance stretch unit 14 divides the video into a plurality of predetermined areas (areas), extracts the maximum gradation value of the video signal for each of the divided areas, and according to the extracted maximum gradation value.
  • the LED lighting rate for each area is determined. For example, in a dark region where the maximum gradation value is low, the lighting rate is lowered to lower the backlight luminance. In this state, the input power of the entire backlight is increased in accordance with the luminance stretch amount output from the light emission detection unit 12, and the entire luminance of the backlight is increased. As a result, the bright image that is emitted becomes brighter and more radiant.
  • the luminance corresponding to the luminance stretch is reduced by the video signal processing in the non-light-emitting portion, as a result, the luminance of only the light-emitting portion is increased on the screen, and a high-contrast high-quality image is displayed. be able to.
  • the relationship between the input video signal and the screen luminance is the same as that in FIG. 17 shown in the first embodiment.
  • FIG. 22 is a view for explaining still another embodiment of the video display apparatus according to the present invention.
  • the third embodiment has the same configuration as the second embodiment and performs the same operation as the second embodiment.
  • the luminance stretch unit 20 performs area active control. Without performing, the luminance of the backlight unit 16 is stretched based on the luminance stretch amount output from the light emission detection unit 12 of the signal processing unit 11.
  • the luminance stretch unit 20 inputs the video signal to which the tone mapping generated by the mapping unit 13 is applied, and outputs control data for displaying the video signal to the display control unit 17. At this time, processing by area active control is not performed. On the other hand, the entire backlight unit 16 is stretched uniformly based on the luminance stretch amount output from the light emission detection unit 12.
  • the bright image that is emitted becomes brighter and more radiant.
  • the luminance corresponding to the luminance stretch is reduced by the video signal processing in the non-light emitting part, as a result, the luminance of the light emitting part is increased on the screen, and high contrast and high quality images are displayed. Can do. Since the operation of the other components in the third embodiment is the same as that of the second embodiment, repeated description is omitted.
  • the luminance Y is used as the feature amount of the video in the light emission detection processing in the light emission detection unit 12 and the black detection processing (black detection processing 1 and 2) in the black detection unit 19, and a luminance histogram is obtained.
  • the light emitting part and the amount of black were detected from the generated light.
  • a feature value for generating a histogram for example, CMI (Color Mode Index) or MaxRGB can be used in addition to luminance.
  • CMI is an index indicating how bright the color of interest is.
  • the CMI is different from the luminance, and indicates the brightness in consideration of the color information.
  • CMI is L * / L * modeboundary ⁇ 100 (9) Defined by
  • L * is the lightness of the color of interest
  • L * modeboundary is the lightness of the boundary that appears to emit light with the same chromaticity as the color of interest.
  • L * modeboundary ⁇ lightness of the brightest color (the brightest color of the object color).
  • the broadcast video signal is standardized based on the BT.709 standard and transmitted. Accordingly, the RGB data of the broadcast video signal is first converted into tristimulus value XYZ data using a conversion matrix for BT.709. Then, the brightness L * is calculated from Y using a conversion formula. It is assumed that the color L * of interest is at position C1 in FIG. Next, the chromaticity is calculated from the converted XYZ, and the L * (L * modeboundary) of the brightest color having the same chromaticity as the target color is examined from the already known brightest color data. The position on FIG. 23 is C2.
  • the CMI is calculated using the above equation (9).
  • CMI is indicated by the ratio of L * of the target pixel and L * (L * modeboundary) of the brightest color of the chromaticity.
  • the CMI is obtained for each pixel of the video signal by the above method. Since it is a standardized broadcast signal, all the pixels have a CMI ranging from 0 to 100. Then, for one frame image, a CMI histogram is created with the horizontal axis as CMI and the vertical axis as frequency. Here, the average value Ave. and the standard deviation ⁇ are calculated, and each threshold value is set to detect the light emitting portion.
  • the feature amount is data (MaxRGB) having the maximum gradation value among RGB data.
  • the fact that two colors have the same chromaticity is synonymous with the fact that the ratio of RGB does not change. That is, the process of calculating the brightest color of the same chromaticity in the CMI is a process of obtaining a combination of RGB when the gradation of the RGB data becomes the maximum when the RGB data is multiplied by a certain value without changing the ratio.
  • a pixel having gradation RGB data as shown in FIG. 24B For example, a pixel having gradation RGB data as shown in FIG.
  • the color when any of RGB is first saturated is the brightest color with the same chromaticity as the original pixel.
  • the gradation of the target pixel of the first saturated color in this case R
  • the gradation of the brightest color R is r2, r1 / r2 ⁇ 100 (10)
  • a value similar to CMI can be obtained.
  • the color that first saturates when it is multiplied by a certain value to RGB is the color having the maximum gradation among the RGB of the pixel of interest.
  • a value is calculated by the above formula (10) for each pixel to create a histogram.
  • An average value Ave. and a standard deviation ⁇ are calculated from this histogram, and each threshold value is set to detect a light emitting portion, or to detect a black amount.
  • the histogram at this time may be obtained by integrating the RGB maximum gradation values of the pixels without converting them into values of 0 to 100 according to Equation 10.
  • SYMBOLS 11 Signal processing part, 12 ... Light emission detection part, 13 ... Mapping part, 14 ... Area active control / luminance stretch part, 15 ... Backlight control part, 16 ... Backlight part, 17 ... Display control part, 18 ... Display part , 19: black detection unit, 20: luminance stretch unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Liquid Crystal (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

 映像信号の発光している部分を検出し、発光部分の表示輝度をエンハンスして際立たせて表示させ、このときに映像の黒表示の状態に応じて輝度ストレッチ量を制御することにより、輝き感を増して映像品位を向上させる。 発光検出部(12)は、入力映像信号の所定の特徴量に対して、画素数を積算したヒストグラムを生成し、そのヒストグラムの所定範囲の上位領域を発光部として検出する。エリアアクティブ制御・輝度ストレッチ部(14)は、入力映像信号から所定の条件に基づき算出した明るさに関連する指標に基づいて、バックライト部(16)の輝度をストレッチして増大させ、発光部を除く非発光部の映像信号の輝度を低下させる。このとき、エリアアクティブ制御・輝度ストレッチ部(14)は、黒検出部(19)により検出した黒表示の量に従って、明るさに関連する指標とストレッチ量との関係を定める制御カーブを切り換える。

Description

映像表示装置およびテレビ受信装置
 本発明は、映像表示装置およびテレビ受信装置に関し、より詳細には、表示映像の画質を向上させるために映像信号とバックライト光源の輝度ストレッチ機能を備えた映像表示装置およびテレビ受信装置に関する。
 近年、テレビ受像機の表示技術に関して、自然界に存在するものを忠実に再現して表示するHDR(high dynamic range imaging)に係る技術が盛んに研究されている。HDRの目的の一つとして、例えば、画面内の花火やネオンといった発光色部分を忠実に再現して、輝き感を出すことがある。
 この場合、発光色と物体色とを発光検出機能によって検出して分離し、信号処理とバックライトの発光輝度制御とによって画面上の発光色のみを明るくすることができる。ここでは、様々に変化する映像において、映像の輝度の分布から相対的に明るく発光している部分を検出し、その発光部分を意識的にストレッチすることにより、画面上で発光した部分をより際だたせて画質を向上させる効果が得られる。
 従来の技術として、例えば特許文献1には、消費電力を増大させることなく、かつ映像を破綻させることなく、画面がさらに明るく見えるようにすることを目的とした表示装置が開示されている。この表示装置は、APLなどの映像特徴量からバックライト光源の発光輝度レベルを設定するための参照用の発光輝度レベルを設定する。そして参照用の発光輝度レベルに連動させて視覚上の輝度を保つためのゲインを設定し、そのゲインに基づいてトーンカーブを生成する。一方、映像のヒストグラムに基づいて生成した映像について、ジオメトリック平均値を求め、そのジオメトリック平均値に基づいてゲインを計算し、計算したゲインに基づいて補正用のトーンカーブを生成する。そしてこの補正用のトーカーブにより、上記の参照用の発光輝度レベルに連動するトーンカーブを補正して、映像信号に適用する。
特開平2010-271480号公報
 上記のように、HDRの技術においては、画面の中で明るく輝いている発光部分を検出し、その発光部分の表示輝度をストレッチすることで、人間の目にはコントラスト感が向上し、輝き感が増して高品位の表示映像を提供することができる。
 しかしながら、映像の状態に係わりなく一定の条件でHDRを動作させると、映像によってはその品位が低下する場合もある。例えば、黒に相当する領域が多く暗い画面のような場合、HDRによって信号処理とバックライトの輝度ストレッチによって一律に画面輝度を増大させると、黒の表示領域に所謂黒浮きが生じ、コントラスト感が損なわれて映像品位が低下する場合がある。
 特許文献1の映像表示装置は、APL等を用いて設定した発光輝度レベルに連動させて生成したトーンカーブを、人間の感覚的な量に近い映像特徴量であるジオメトリック平均値に基づいて生成したトーンカーブで補正することにより、画面をさらに明るく見えるようにしているが、発光部分を検出してそのときの輝度をストレッチするものではなく、画面内の発光部分を特に際だたせて明るくし、このときに、映像の状態に応じて輝度ストレッチの程度を制御することで、黒浮きなどの映像品位の低下を防ぐとの思想は開示していない。
 本発明は、上述のごとき実情に鑑みてなされたものであり、映像信号の発光している部分を検出し、発光部分の表示輝度をストレッチして際出せて表示させることにより、輝き感をより増して高いコントラストで表示を行い、このときに映像の黒表示の状態に応じて輝度ストレッチを制御することで、常に高品位の映像表現を行うようにした映像表示装置およびテレビ受信装置を提供することを目的とする。
 上述の課題を解決するために、本発明の第1の技術手段は、入力映像信号を表示する表示部と、該表示部を照明する光源と、該表示部および該光源を制御する制御部とを有し、 該制御部は、前記入力映像信号の所定の特徴量に対して、画素数を積算したヒストグラムを生成し、該ヒストグラムの所定範囲の上位領域を発光部として検出し、前記入力映像信号から所定の条件に基づき算出した明るさに関連する指標に基づいて、前記光源の輝度をストレッチして増大させ、前記発光部を除く非発光部の映像信号の輝度を低下させることにより、前記発光部の表示輝度をエンハンスする映像表示装置であって、該映像表示装置は、前記入力映像信号から、所定の黒検出条件に基づいて黒表示の量を検出する黒検出部を有し、前記制御部は、前記黒検出部により検出した黒表示の量に従って、前記明るさに関連する指標と前記光源の輝度をストレッチさせる輝度ストレッチ量との関係を定める制御カーブを切り換えることを特徴としたものである。
 第2の技術手段は、第1の技術手段において、前記制御部が、入力映像信号による画像を複数の領域に分割し、前記分割した領域の映像信号の階調値に基づいて、前記領域ごとに対応する前記光源の点灯率を変化させ、前記制御カーブは、全ての領域に相当する前記点灯率を平均した平均点灯率と、前記表示部の画面上で取り得る最大輝度によって示される輝度ストレッチ量との関係を定める制御カーブであって、前記制御部は、前記明るさに関連する指標として前記平均点灯率を用い、該平均点灯率に従って定まる前記最大輝度に基づいて、前記光源の輝度をストレッチすることを特徴としたものである。
 第3の技術手段は、第1または2の技術手段において、前記制御カーブが、前記黒検出部により検出した黒表示の量が少なくなるほど、前記輝度ストレッチ量が小さくなる制御カーブであることを特徴としたものである。
 第4の技術手段は、第1の技術手段において、前記制御カーブが、前記検出した発光部の領域を含む所定範囲の映像について、画素毎の明るさに重みを付けて画素数をカウントすることにより得られるスコアと、前記輝度ストレッチ量との関係を定める制御カーブであって、前記制御部は、前記明るさに関連する指標として前記スコアを用い、前記入力映像信号から計算した前記スコアに従って前記光源の輝度をストレッチすることを特徴としたものである。
 第5の技術手段は、第4の技術手段において、前記制御カーブが、前記黒検出部により検出した黒表示の量が少なくなるほど、前記輝度ストレッチ量が小さくなる制御カーブであることを特徴としたものである。
 第6の技術手段は、第2~5のいずれか1の技術手段において、前記制御部が、入力映像信号の入力階調を変換して出力する映像処理を行い、入力階調と出力階調との関係を定める入出力特性は、前記発光部と前記非発光部との境界より低階調の非発光部の領域に定めた閾値を有し、前記制御部は、映像信号に適用するゲインと前記輝度ストレッチ量との関係を予め定めておき、前記輝度ストレッチ量に従って、入力映像信号の入力階調に対して出力階調が低下するゲインを決定して、前記閾値より低階調の領域に前記決定したゲインを適用して前記映像処理を行い、該映像処理において、前記黒検出部により検出した黒表示の量が少なくなるほど、前記閾値を高階調側に移動させることを特徴としたものである。
 第7の技術手段は、第1~6のいずれか1の技術手段において、前記制御部は、前記ヒストグラムの平均値をA、標準偏差をσとするとき、thresh=A+Nσ(Nは定数)以上の画素を前記発光部とすることを特徴としたものである。
 第8の技術手段は、第6の技術手段において、前記制御部が、前記特徴量が低い所定領域において、前記光源の輝度のストレッチによる表示部の表示輝度の増加分を、前記映像処理により低減させることを特徴としたものである。
 第9の技術手段は、第1~8のいずれか1の技術手段による映像表示装置を備えたテレビ受信装置である。
 本発明の映像表示装置によれば、映像信号の発光している部分を検出し、発光部分の表示輝度をストレッチして際出せて表示させることにより、輝き感をより増して高いコントラストで表示を行い、このときに映像の黒表示の状態に応じて輝度ストレッチを制御することで、常に高品位の映像表現を行うようにした映像表示装置およびテレビ受信装置を提供することができる。
本発明に係る映像表示装置の一実施形態を説明する図で、映像表示装置の要部の構成を示すものである。 エリアアクティブ制御・輝度ストレッチ部における発光領域の制御処理を説明する図である。 エリアアクティブ制御・輝度ストレッチ部における発光領域の制御処理を説明する他の図である。 平均点灯率の決定処理を具体的に説明する図である。 エリアアクティブ制御・輝度ストレッチ部の処理例を説明するための図である。 輝度信号Yから生成したYヒストグラムの例を示す図である。 マッピング部が生成するトーンマッピングの一例を示す図である。 エリアアクティブ制御・輝度ストレッチ部で出力するMax輝度について説明するための図である。 黒検出部における黒検出処理例を説明するための図で、映像信号の輝度ヒストグラムの一例を示す図である。 黒検出スコアとエンハンス割合との関係の設定例を示す図である。 黒検出部における黒検出処理の他の例を説明するための図である。 人間の視細胞の輝度に対する応答曲線を示す図である。 ジオメトリック平均値とエンハンス割合との関係の設定例を示す図である。 黒検出結果に応じて変化させるMax輝度について説明するための図である。 黒の量の検出結果に応じて変化させる第1の閾値について説明する図である。 黒検出に応じたトーンマッピングの例を説明する図である。 、エリアアクティブ制御・輝度ストレッチ部14の処理により、画面輝度がエンハンスされる状態を示す図である。 本発明に係る映像表示装置の他の実施形態を説明する図である。 入力映像信号の輝度信号Yから生成したYヒストグラムの例を示すものである。 第3の閾値Th3以上の画素に応じた輝度ストレッチ量の計算例を示す図である。 黒検出結果に応じて変化させる輝度ストレッチ量の制御カーブの設定例を説明するための図である。 本発明に係る映像表示装置の更に他の実施形態を説明する図である。 映像表示装置で表示すべき放送映像信号からCMIを計算する手法を説明するための図である。 特徴量として使用するRGBの最大階調値について説明するための図である。
(実施形態1)
 図1は、本発明に係る映像表示装置の一実施形態を説明する図で、映像表示装置の要部の構成を示すものである。映像表示装置は、入力映像信号に画像処理を行って映像表示する構成を有するもので、テレビ受信装置等に適用することができる。
 放送信号から分離した映像信号や外部機器から入力した映像信号は、信号処理部11およびエリアアクティブ制御・輝度ストレッチ部14に入力する。このとき、エリアアクティブ制御・輝度ストレッチ部14への映像信号は、信号処理部11のマッピング部13で生成されたトーンマッピングが適用され、その後エリアアクティブ制御・輝度ストレッチ部14に入力する。
 信号処理部11の発光検出部12では、入力映像信号の特徴量に基づくフレームごとのヒストグラムを生成し、発光している部分を検出する。発光している部分は、ヒストグラムの平均値と標準偏差とにより求められるもので、ヒストグラムごとの相対的な値として検出される。
 信号処理部11の黒検出部19では、予め定めた条件に従って、入力映像信号から黒表示に相当する量(画素数)を検出する。以下、黒表示に相当する量を単に黒の量とし、黒表示に相当する量の検出処理を黒検出処理として説明する。
 黒検出部19では、入力映像信号から所定の演算処理によりフレーム毎に黒の量を検出する。そして、予め定められた黒の量とバックライトの輝度エンハンス割合との関係に基づいて、検出した黒の量に応じた輝度エンハンス割合を決定する。決定した輝度エンハンス割合は、エリアアクティブ制御・輝度ストレッチ部14に出力する。本実施形態の輝度エンハンス割合とは、バックライトの平均点灯率に応じて定められるバックライトの輝度ストレッチ量を黒表示の量に応じて制限し調整するために用いるものである。
 マッピング部13は、発光検出部12で検出された発光部分の情報と、エリアアクティブ制御・輝度ストレッチ部14から出力されたMax輝度とを使用して、トーンマッピングを生成し、入力映像信号に適用する。Max輝度は、画面上で表示させたい最大輝度を示すものでバックライトの輝度ストレッチ量に相当するものである。
 エリアアクティブ制御・輝度ストレッチ部14は、入力された映像信号に従って、映像信号による画像を所定領域に分割し、分割領域ごとに映像信号の最大階調値を抽出する。そして最大階調値に基づきバックライト部16の点灯率を計算する。点灯率は、映像の分割領域に対応したバックライト部16の領域ごとに定められる。また、バックライト部16は、複数のLEDにより構成され、領域ごとに輝度の制御が可能となっている。
 バックライト部16の領域ごとの点灯率は、予め定められた演算式に基づき決定されるが、基本的に高階調の明るい最大階調値を有する領域では、LEDの輝度を低下させることなく維持し、低階調の暗い領域においてLEDの輝度を低下させるような演算を行う。
 そして、エリアアクティブ制御・輝度ストレッチ部14は、各領域の点灯率からバックライト部16の全体の平均点灯率を計算し、その平均点灯率に応じて、所定の演算式によりバックライト部16の輝度ストレッチ量を計算する。これにより、画面内の領域で取り得る最大輝度値(Max輝度)が得られる。ここで得られたMax輝度に対して、黒検出部19による黒の検出結果に基づいてMax輝度が調整され、信号処理部11のマッピング部13に出力される。
 そして、エリアアクティブ制御・輝度ストレッチ部14では、黒の量の検出結果に応じて調整したMax輝度を信号処理部11に戻して、バックライト部16の輝度ストレッチ分に相当する輝度を低下させる。このときに、輝度ストレッチはバックライト部16の全体に与えられ、映像信号処理による輝度低下は、発光部を除く発光していないとみなす部分に対して行われる。これにより、発光している部分のみの画面輝度を増大させ、高いコントラストで映像表現を行うことができ、画質を向上させることができる。
 エリアアクティブ制御・輝度ストレッチ部14は、バックライト部16を制御するための制御データをバックライト制御部15に出力し、バックライト制御部15は、そのデータに基づいてバックライト部16のLEDの発光輝度を分割領域ごとに制御する。バックライト部16のLEDの輝度は、PWM(Pulse Width Modulation)制御で行われるが、電流制御もしくはこれらの組み合わせによって所望の値となるように制御することができる。
 また、エリアアクティブ制御・輝度ストレッチ部14は、表示部18を制御するための制御データを表示制御部17に出力し、表示制御部17は、そのデータに基づいて表示部18の表示を制御する。表示部18は、バックライト部16のLEDにより照明されて画像を表示する液晶パネルが用いられる。
 なお、本実施形態においては、本発明の制御部はバックライト部16と表示部18を制御するものであり、信号処理部11,エリアアクティブ制御・輝度ストレッチ部14、バックライト制御部15、及び表示制御部17が該当する。
 上記の表示装置をテレビ受信装置として構成する場合、テレビ受信装置は、アンテナで受信した放送信号を選局して復調し、復号して再生用映像信号を生成する手段を有し、再生用映像信号に適宜所定の画像処理を施して、図1の入力映像信号として入力させる。これにより、受信した放送信号を表示部18に表示させることができる。本発明は、表示装置、およびその表示装置を備えるテレビ受信装置として構成することができる。
 以下に上記の構成を有する本実施形態の各部の処理例をより具体的に説明する。
 エリアアクティブ制御・輝度ストレッチ部14では、映像を所定の複数の領域(エリア)に分割し、その分割した領域に対応するLEDの発光輝度を領域毎に制御する。図2~図3は、エリアアクティブ制御・輝度ストレッチ部14における発光領域の制御処理を説明する図である。本実施形態に適用されるエリアアクティブ制御は、映像を所定の複数の領域(エリア)に分割し、その分割した領域に対応するLEDの発光輝度を領域毎に制御するものである。
 ここでは、エリアアクティブ制御・輝度ストレッチ部14は、入力映像信号に基づいて、1フレームの映像を予め定められた複数の領域に分割し、その分割領域ごとに映像信号の最大階調値を抽出する。例えば図2(A)に示すような映像を予め定められた複数の領域に分割する。ここでは、各領域の映像信号の最大階調値が抽出される。他の例では、最大階調値ではなく映像信号の階調平均値などの他の統計値を用いてもよい。以下、最大階調値を抽出した例により説明する。
 エリアアクティブ制御・輝度ストレッチ部14は、抽出した最大階調値に応じて領域毎のLEDの点灯率を決定する。このときの各領域のLEDの点灯率の様子を図2(B)に示す。映像信号の階調が高く明るい部分では、LEDの点灯率を上げて明るい表示を行わせる。このときの処理を更に具体的に説明する。
 1フレームの各分割領域の最大階調値を抽出したときの様子の一例を図3に示す。図3では、説明を簡単にするため、1フレームの画面を8つの領域(領域〈1〉~〈8〉)に分割したものとする。図3(A)に各領域(領域〈1〉~〈8〉)の点灯率を示し、図3(B)に各領域の点灯率と画面全体の平均点灯率とを示す。ここでは、それぞれの領域における最大階調値から、その領域のバックライトのLEDの点灯率を計算する。点灯率は、例えばLEDの駆動dutyによって示すことができる。この場合、点灯率Maxは100%である。
 各領域のLEDの点灯率の決定においては、最大階調値が低く暗い領域については、点灯率を下げてバックライトの輝度を低下させる。一例として、映像の階調値が0-255の8ビットデータで表現される場合、最大階調値が128の場合には、バックライトを(1/(255/128))2.2=0.217倍(21.7%)に低下させる。
 図3の例では、それぞれの領域についてバックライトの点灯率が10~90%の範囲で決定されている。この点灯率計算方法はその一例を示すものであるが、基本的には明るい高階調の領域はバックライト輝度を下げることなく、低階調の暗い領域についてバックライトの輝度を低下させるように予め定めた演算式に従って各領域の点灯率を計算する。
 そして映像信号の最大階調値から計算した領域ごとのバックライトの点灯率を平均して、1フレームにおけるバックライトの平均点灯率を計算する。この例では、平均点灯率は、図3(B)に示す平均点灯率のレベルとなる。平均点灯率は、本発明による明るさに関連する指標の一例である。
 図4は、平均点灯率の決定処理をさらに具体的に説明する図である。上記のように各領域のLEDの点灯率の決定においては、最大階調値が低く暗い領域については、点灯率を下げてバックライトの輝度を低下させる。ここで各領域の実際の点灯率は、表示したい階調を正確に表示し、かつLED dutyをできるだけ低くするように決定する。各領域においてLED dutyをできるだけ低くしたいが、表示したい階調をつぶしたりせずに正確に表示する必要があるため、領域内の最大階調が表示でき、なおかつできるだけLED dutyを低くするようなLED duty(仮の点灯率)を設定し、それをもとに表示部18(ここではLCDパネル)の階調を設定する。
 一例として、映像の階調値が0-255の8ビットデータで表現される場合で、かつ図3(A)のうちの1つの領域内の複数の画素の階調値が図4(A)で示される場合について説明する。ここでは1つの領域に9つの画素が対応しているものとする。図4(A)で示す画素群では、最大階調値が128であり、その場合には図4(B)で示すように、その領域のバックライトの点灯率を(1/(255/128))2.2=0.217倍(21.7%)に低下させる。
 そして一例として、エリアアクティブ制御・輝度ストレッチ部14は、このように点灯率を決めると共に、表示部18における画素ごとの階調値を、その画素が含まれる領域について点灯率を考慮して計算する。例えば、表示したい階調値が96の場合、96/(128/255)=192であるため、階調値192を用いて画素を表現すればよい。同様にして、図4(A)の各画素に対して表示させる際の階調値を計算した結果を、図4(C)に示す。
 実際のバックライト部16の輝度は、平均点灯率に応じて決まるMax輝度の値に基づいてさらにストレッチされ増強される。元となる基準輝度は、例えば、最大階調値のときに画面輝度が550(cd/m2)となるような輝度である。基準輝度は、この例に限ることなく適宜定めることができる。
 図5は、エリアアクティブ制御・輝度ストレッチ部14の処理例を説明するための図である。上記のようにエリアアクティブ制御・輝度ストレッチ部14は、各領域の最大階調値に応じて決まる点灯率から、画面全体の平均点灯率を計算する。点灯率が高い領域が多くなれば画面全体の平均点灯率は高くなる。そして、図5のような関係で、取り得る輝度の最大値(Max輝度)を決定する。横軸は、バックライトの点灯率(ウィンドウサイズ)で、縦軸はMax輝度における画面輝度(cd/m2)を示している。平均点灯率は、点灯率100%の点灯領域(ウィンドウ領域)と点灯率0%の消灯領域との比として表すことができる。点灯領域がない状態では点灯率はゼロであり、点灯領域のウィンドウが大きくなるに従って点灯率は増大し、全点灯では点灯率は100%になる。
 図5において、バックライトが全点灯(平均点灯率100%)のときのMax輝度を例えば、550(cd/m2)とする。そして、平均点灯率が下がっていくに従って、Max輝度を増大させる。このときに、階調値が255階調(8ビット表現の場合)の画素が、画面内で最も画面輝度が高くなり、取り得る最大の画面輝度(Max輝度)になる。従って、同じ平均点灯率であっても、画素の階調値によってはMax輝度まで画面輝度がUPしないことがわかる。
 平均点灯率がQ1のときに、Max輝度の値は最も大きくなり、このときの最大の画面輝度は1500(cd/m2)となる。つまりP1のときには、取り得る最大の画面輝度は、全点灯時の550(cd/m2)に比較して1500(cd/m2)までストレッチされることになる。P1は、比較的平均点灯率が低い位置に設定されている。つまり全体に暗い画面で平均点灯率が低く、かつ一部に高階調のピークがあるような画面のときに、最高で1500(cd/m2)になるまでバックライトの輝度がストレッチされる。また、高い平均点灯率のときほど、バックライトの輝度のストレッチの程度が小さい理由としては、もともと明るい画面ではバックライトの輝度を過度に行うと却って眩しく感じることがあるため、ストレッチの程度を抑えるようにするためである。
 Max輝度が最大の平均点灯率Q1から平均点灯率0(全黒)までは、Max輝度の値を徐々に低下させる。平均点灯率が低い範囲は、暗い画面の映像に相当するものであり、バックライトの輝度をストレッチして画面輝度をUPするよりも、逆にバックライトの輝度を抑えてコントラストを向上させ、黒浮きを抑えて表示品位を保つようにする。
 エリアアクティブ制御・輝度ストレッチ部14は、図5の曲線に従って、バックライトの輝度をストレッチし、その制御信号をバックライト制御部15に出力する。ここでは上記のように映像の分割領域ごとに検出される最大階調値に応じて平均点灯率が変化し、その平均点灯率に応じて輝度ストレッチの状態が変化する。
 エリアアクティブ制御・輝度ストレッチ部14に入力する映像信号は、以下に説明する信号処理部11による信号処理により生成されたトーンマッピングが適用され、低階調領域がゲインダウンされて入力する。これにより、低階調の非発光領域ではバックライトの輝度がストレッチされた分、映像信号によって輝度が低減され、結果として発光している領域のみで画面輝度がエンハンスされ、輝き感が増すようになっている。
 エリアアクティブ制御・輝度ストレッチ部14は、図5の曲線に従ってバックライトの平均点灯率、および黒検出部19から出力された黒検出結果から求めたMax輝度の値を信号処理部11のマッピング部13に出力する。マッピング部13では、エリアアクティブ制御・輝度ストレッチ部14から出力されたMax輝度を使用して、トーンマッピングを行う。
 信号処理部11について説明する。
 信号処理部11の発光検出部12では、映像信号から発光している部分を検出する。図6は、輝度信号Yから生成したYヒストグラムの例を示すものである。発光検出部12では、入力した映像信号のフレームごとに、輝度階調ごとの画素数を積算してYヒストグラムを生成する。横軸は輝度Yの階調値で、縦軸は階調値毎に積算した画素数(頻度)を示している。輝度Yは、ヒストグラムを作成する映像の特徴量の一つであり、特徴量の他の例については後述する。ここでは、輝度Yについて発光部分を検出するものとする。
 Yヒストグラムが生成されると、そのYヒストグラムから平均値(Ave)、標準偏差(σ)を計算し、これらを用いて2つの閾値Thを計算する。
 第2の閾値Th2は、発光境界を定めるものであり、Yヒストグラムにおいてこの閾値Th2以上の画素は、発光している部分であるものとみなして処理を行う。
 第2の閾値Th2は、
  Th2 = Ave+Nσ    ・・・式(1)
とする。Nは所定の定数である。
 また、第1の閾値Th1は、Th2より小さい領域の階調性などの違和感を抑えるために設定されるもので、
 Th1 = Ave+Mσ     ・・・式(2)
とする。Mは所定の定数であり、M<Nである。また、Mの値は黒検出部19による黒の量の検出結果に応じて変化するものである。
 発光検出部12が検出した第1及び第2の閾値Th1,Th2の値は、マッピング部13に出力され、トーンマッピングの生成に使用される。
 図7は、マッピング部13が生成するトーンマッピングの一例を示す図である。横軸は映像の輝度値の入力階調で、縦軸は出力階調である。発光検出部12で検出された第2の閾値Th2以上の画素については、映像の中で発光している部分であり、発光している部分を除いて圧縮ゲインを適用してゲインダウンする。このときに、発光境界であるTh2より小さい領域に一律に一定の圧縮ゲインを適用して出力階調を抑えると、階調性に違和感が生じる。従って、発光検出部12にて第1の閾値Th1を設定して検出し、Th1より小さい領域に対して第1のゲインG1を設定し、Th1とTh2の間を線形で結ぶように第2のゲインG2を設定してトーンマッピングを行う。
 ゲインの設定方法について説明する。
 マッピング部13には、エリアアクティブ制御・輝度ストレッチ部14からMax輝度の値が入力される。Max輝度は、上述したように、バックライトの平均点灯率、および黒検出部19から出力される黒検出量から定められる最大輝度を示すもので、例えば、バックライトデューティの値として入力される。
 第1のゲインG1は、第1の閾値Th1より小さい領域に適用されるもので、
  G1=(Ls/Lm)1/γ     ・・・式(3)
 により設定される。Lsは、基準輝度(バックライト輝度をストレッチしないときの基準輝度;一例として最大の画面輝度が550cd/m2となるときの輝度)であり、Lmは、エリアアクティブ制御・輝度ストレッチ部14から出力されたMax輝度である。従って、第1の閾値Th1より小さい領域に適用される第1のゲインG1は、バックライトの輝度ストレッチにより増加する画面輝度分を低減させるように、映像信号の出力階調を低下させる。
 第2の閾値Th2以上のトーンマッピングは、f(x)=xとする。つまり、入力階調=出力階調とし、出力階調を低下させる処理は行わない。第1の閾値Th1~第2の閾値Th2までの間は、第1のゲインG1によって低下させた第1の閾値Th1の出力階調と、第1の閾値Th1の出力階調とを直線で結ぶように設定する。
 つまり、
 G2=(Th2-G1・Th1)/(Th2-Th1)  ・・・式(4)
によって第2のゲインG2を決定する。
 上記の処理により、図7に示すようなトーンマッピングを得る。このときに、Th1、Th2の接続部分については、所定の範囲(例えば接続部分±Δ(Δは所定値))を2次関数でスムージングするとよい。
 マッピング部13が生成したトーンマッピングは入力映像信号に適用され、バックライトの輝度ストレッチ量に基づき低階調部分の出力が抑えられた映像信号がエリアアクティブ制御・輝度ストレッチ部14に入力される。
 図8は、エリアアクティブ制御・輝度ストレッチ部14で出力するMax輝度について説明するための図である。
 エリアアクティブ制御・輝度ストレッチ部14は、マッピング部13で生成したトーンマッピングを適用した映像信号を入力し、その映像信号に基づいてエリアアクティブ制御を行って、平均点灯率に基づくMax輝度を決定する。このとき、黒検出部19からの黒検出結果に応じてMax輝度の制御カーブが変化するが、ここでは説明のために黒検出は考慮しない。
 上記の平均点灯率に基づき決定したフレームをNフレームとする。NフレームのMax輝度の値は、信号処理部11のマッピング部13に出力される。マッピング部13では、入力したNフレームのMax輝度を使用して図7に示すようなトーンマッピングを生成し、N+1フレームの映像信号に適用する。
 こうして、エリアアクティブの平均点灯率に基づくMax輝度をフィードバックして、次のフレームのトーンマッピングに使用する。マッピング部13は、Nフレームで決定されたMax輝度に基づいて、第1の閾値Th1より小さい領域について映像出力を低下させるゲイン(第1のゲインG1)を適用する。Th1とTh2の間の領域についてTh1とTh2の間を線形で結ぶ第2のゲインG2を適用してTh1とTh2の間の映像出力を低下させる。
 Nフレームで映像出力を低下させるゲインが適用されているため、平均点灯率がQ1以上の高点灯率の領域において、N+1のフレームでは、領域ごとの最大階調値が低下して点灯率が下がる傾向となり、これにより、N+1のフレームでは、Max輝度が上がる傾向となる。これにより、さらにバックライトの輝度ストレッチ量が大きくなって、画面の輝き感が増す傾向となる。ただし、この傾向はQ1より低点灯率の領域では見られず、逆の傾向となる。
 次に信号処理部11の黒検出部19の検出処理について説明する。本発明に係る実施形態では、上記図5に示すごとくの平均点灯率に応じたMax輝度の制御カーブを、黒検出部19における黒の量の検出結果に応じて変化させる。黒検出処理は以下の処理例のいずれかを適用することができる。
(黒検出処理1)
 図9は、黒検出部における黒検出処理例を説明するための図で、映像信号の輝度ヒストグラムの一例を示す図である。本例では、黒検出部19では、映像信号の特徴量として輝度を用い、入力した映像信号のフレームごとに、輝度階調ごとの画素数を積算して輝度Yのヒストグラムを生成する。映像信号の特徴量として輝度信号ではなく他の特徴量を用いることもできるが、他の特徴量の例については後述し、ここでは輝度ヒストグラムを用いた例を示す。
 黒検出部19では、このヒストグラムに対して、黒領域であること示す第4の閾値Th4を設定する。第4の閾値Th4以下の輝度領域の画素は、黒表示を行う画素(黒に相当する画素)と規定して扱う。従って、例えば、256階調表現の場合、0階調から0階調付近の数階調までの領域を黒に相当する領域として規定することができる。
 そして黒検出部19では、第4の閾値Th4以下の輝度領域の画素数をカウントし、カウント結果に応じて黒表示のスコア(黒検出スコア)を決定する。黒検出スコアは、フレーム内の全ての画素が黒領域に含まれるときをMaxとし、黒領域に一つの画素もないときを0として、そのカウントされた画素数に応じて決定する。
 図10は、黒検出スコアとエンハンス割合との関係の設定例を示す図である。黒検出部19では、図10に示すような関係を予め定めておく。そして、図9のヒストグラムから得られた黒検出スコアに従って、エンハンス割合を決定する。ここでは、黒検出スコアが比較的低く黒表示が少ない領域S0~S1では、エンハンス割合は100%に維持する。つまり、黒表示の領域が小さいため黒浮きの影響が少なく、発光量に応じて定められる輝度エンハンス量を制限する必要がないため、エンハンス割合を100%として輝度エンハンスによる明るい部分の輝き感を重視する。
 また黒検出スコアが中程度の領域S1~S2では、黒検出スコアの増大、つまり黒の量の増大に応じてエンハンス割合を低くしていく。黒表示が増えると黒浮きが目立ちやすくなるため、発光量に応じて定められる輝度エンハンス量を制限して、黒浮きを抑えるようにする。そして黒検出スコアが高い領域S2~S3(スコア=Max)では、画面内に黒表示の領域が極めて多いため、エンハンス割合を0にする。これにより発光量に応じた輝度エンハンスをなくし、標準的な輝度でバックライトを点灯させるようにする。
(黒検出処理2)
 図11は、黒検出部における黒検出処理の他の例を説明するための図である。本例の処理では、上記黒検出処理1と同様にYヒストグラムを生成するが、他の特徴量によるヒストグラムを用いてもよい。また、Yヒストグラムとしては、発光検出部12で生成したヒストグラムが利用できればこれを用いるものであってもよい。
 そして黒検出部19では、生成したYヒストグラムからフレームごとの黒の量を検出するが、このときに、黒に重み(weight)を付けたパラメータを黒検出スコアとする。
 ここで黒検出スコアは、
 SCORE(黒検出スコア)=(Σcount[i]×W[i])/Σcount[i]                              ・・・式(5)
によって計算する。ここでcount[i]は、ヒストグラムのi番目の特徴量(輝度、Max RGB、CMIなど)の頻度(画素数)である。またW[i]はi番目の重み(weight)であり、重みを定める関数は任意に設定できる。
 図11では、重み付けの関数W[i]の設定例を示している。基本的にヒストグラムの特徴量が小さい程(黒に近いほど)重みを大きくする。そして、特徴量(輝度階調)ごとの画素数の積算値に重みを乗算することで、黒に重み付けされた関数に基づく黒検出スコアを算出する。
 黒検出スコアとエンハンス割合との関係は、上記図10と同じ関係を定めることができる。つまり、黒検出スコアが比較的低く黒表示が少ない領域S0~S1では、エンハンス割合は100%とし、黒検出スコアが中程度の領域S1~S2では、黒検出スコアの増大、つまり黒の量の増大に応じてエンハンス割合を低くしていく。そして黒検出スコアが高い領域S2~S3(スコア=Max)では、画面内に黒表示の領域が極めて多いため、エンハンス割合を0にする。これにより発光量に応じた輝度エンハンスをなくし、標準的な輝度でバックライトを点灯させるようにする。
(黒検出処理3)
 黒検出部19における黒検出の更に他の処理例においては、人間の視覚特性に合致した映像信号の平均輝度の指標であるジオメトリック平均値GAve(Geometric Average)を使用する。GAveは、信号輝度の平均ではなく、液晶パネルの輝度の平均を視覚特性に合致した値として算出した輝度平均値である。具体的には、GAve.は、以下の式(7)で表される。
Figure JPOXMLDOC01-appb-M000001
 上記式(6)において、δはlog0となるのを防ぐ微少な値である。例えばδは、人が知覚できる最小輝度を示す値で、例えばδ=0.00001とすることができる。また、Ylumは、各画素のパネル輝度を示すもので、0-1.0の値となる。Ylumは、(信号輝度/MAX輝度)^γで表すことができる。また、n、pixelsは、全画素数を示している。このように、式(6)は、画像の画素の輝度値の対数の平均を累乗したものであり、言い換えれば相乗平均の値を示している。
 図12は、人間の視細胞の輝度に対する応答曲線を示す図である。図12に示すように、人間の視細胞の応答曲線は、対数を取った輝度の値(luminance(log cd/m2)に依存している。これは一般的には、ミカエリスメンテンの式(Mickaelis-Menten Equation)と呼ばれている。
 GAveは、上記のように画素の輝度値の対数の平均を累乗したものであり、従って、GAveは、画像に対する目の反応(つまりどのくらい明るく見えるのか)を数値化したものであるといえる。つまり、GAveは、人間の感覚的な量に近いといえ、この値を特徴量として使用して、GAveに応じたエンハンス割合を決定する。
 本例において入力映像信号は、黒検出部19に入力されるとまずGAveが計算される。ここでは、上記式(6)に従って、以下の処理を行ってGAveが計算される。
 (S1)ヒストグラムの各画素毎に正規化を行ってγ乗して、パネル輝度値を算出し、最小輝度値とパネル輝度値とを加算してその値のlog10の値をとる。
 (S2)log10の結果を全ての画素について加算する。
 (S3)加算した結果の平均のexpをとる。
 図13は、ジオメトリック平均値とエンハンス割合との関係の設定例を示す図である。黒検出部19では、図13に示すような関係を予め定めておく。そして、入力映像信号から計算したフレームごとのジオメトリック平均値に従って、エンハンス割合を決定する。ここでは、ジオメトリック平均値が比較的低く黒表示が少ない領域P0~P1では、エンハンス割合は0%とする。つまり、黒表示が増えると黒浮きが目立ちやすくなるため、人間の感覚的な量に近いジオメトリック平均値に応じて定められる輝度エンハンス量を0%に抑えて、黒浮きを抑えるようにする。
 またジオメトリック平均値が中程度の領域P1~P2では、ジオメトリック平均値の増大、つまり黒の量の減少に応じてエンハンス割合を高くしていく。黒表示が減少すると黒浮きの影響が少なくなるため、ジオメトリック平均の増大に応じて輝度エンハンス量割合を高くしていく。そしてジオメトリック平均値が高い領域P2~P3(ジオメトリック平均値=Max)では、画面内に黒表示の領域が極めて少ないため、エンハンス割合を100%にし、輝度エンハンスによる明るい部分の輝き感を重視して強調させる。
(黒検出に基づくバックライトの輝度制御例)
 上記のように、エリアアクティブ制御・輝度ストレッチ部14は、マッピング部13で生成したトーンマッピングを適用した映像信号を入力し、その映像信号に基づいてエリアアクティブ制御を行って、平均点灯率に基づくMax輝度を決定する。このときに、エリアアクティブ制御・輝度ストレッチ部14では、黒検出部19における黒の量の検出結果に応じて、Max輝度の制御カーブを異ならせ、黒検出量が多い程、平均点灯率とMax輝度との関係を緩やかなカーブにして、Max輝度を抑えるようにする。また、同時にマッピング部13では、黒検出部19における黒の量の検出結果に応じて、第1の閾値th1を輝度等の特徴量が高い側にシフトさせ、これにより映像信号処理により暗い領域の階調をより低く沈めてコントラスト感が得られるようにしている。
 図14は、黒検出結果に応じて変化させるMax輝度について説明するための図である。
 上述したようにエリアアクティブ制御・輝度ストレッチ部14は、各領域の最大階調値に応じて決まる点灯率から、画面全体の平均点灯率を計算する。点灯率が高い領域が多くなれば画面全体の平均点灯率は高くなる。そして、図14のような関係で、取り得る輝度の最大値(Max輝度)を決定する。
 このときに、黒検出部19による映像の黒の量の検出結果に応じて、図14のMax輝度の設定を変化させる。例えば、黒検出部19からは、黒検出の方法に応じて、黒検出スコアもしくはジオメトリック平均値に従うエンハンス割合が出力されてくる。エンハンス割合が高い領域は、相対的に黒の量が少ない領域である。ここでエンハンス割合とMax輝度の制御カーブとの関係を予め定めておき、黒検出部19から出力されるエンハンス割合に応じてMax輝度の制御カーブを変更する。
 例えば、図14に示すように、Max輝度の制御カーブを4段階用意し、最もエンハンス割合が高い所定範囲の場合には、制御カーブR1で制御し、エンハンス割合が低くなるに従って、段階的に制御カーブR2,R3,R4の順序で変更する。制御カーブR4は、最もエンハンス割合が低く暗い(黒検出スコアが高い、もしくはジオメトリック平均値が高い)映像の場合となる。これにより、黒の領域が多く黒検出スコアやジオメトリック平均値が高くなる映像の場合には、バックライトの輝度ストレッチを抑えて黒浮きによる品位低下を防ぐようにする。
 なお、図14の例では、制御カーブを4段階に設定したが、4段階に限ることなく2段階以上の複数段階で制御することができる。また、エンハンス割合に応じて無段階で変化するように制御カーブをその都度生成するようにしてもよい。
 図15は、黒の量の検出結果に応じて変化させる第1の閾値について説明する図である。上記のように、発光検出部12では、入力した映像信号のフレームごとに、輝度階調ごとの画素数を積算してYヒストグラムを生成する。そしてそのYヒストグラムから平均値(Ave)、標準偏差(σ)を計算し、発光境界を定める第2の閾値Th2と、Th2より小さい領域の階調性などの違和感を抑えるための第1の閾値Th1(Th1=Ave+Mσ)とを設定する。
 このときに、黒検出部19による映像の黒の量の検出結果に応じて、図15の第1の閾値Th1の位置を変化させる。例えば、黒検出部19からは、黒検出の方法に応じて、黒検出スコアもしくはジオメトリック平均値に従うエンハンス割合が出力されてくる。エンハンス割合が高い領域は、相対的に黒の量が少ない領域である。ここでエンハンス割合と第1の閾値Th1の位置との関係を予め定めておき、黒検出部19から出力されるエンハンス割合に応じて第1の閾値Th1の位置を変更する。具体的には、Th1=Ave+Mσの“M”の値を変更して、Th1の位置をヒストグラムの輝度方向に変化させる。このときに、エンハンス割合に応じて予め複数段階で第1の閾値Th1の位置を設定してもよく、あるいは、エンハンス割合に応じて無段階で変化するように第1の閾値Th1の位置を設定するようにしてもよい。
 例えば、図15に示すように、エンハンス割合が低くなる程、Mの値を大きくして、第1の閾値Th1を高輝度側にシフトさせる。これにより、黒の領域が多く黒検出スコアやジオメトリック平均値が高くなる映像の場合には、第1の閾値Th1の位置が高輝度側シフトする。
 図16は、黒検出に応じたトーンマッピングの例を説明する図である。上記のようにマッピング部13では、第1の閾値Th1より小さい領域に対して第1のゲインG4を設定し、Th1とTh2の間を線形で結ぶように第2のゲインG5を設定してトーンマッピングを行う。このときに、黒検出部19による映像の黒の量の検出結果に応じて決定した第1の閾値Th1の位置に従ってトーンマッピングを行う。この場合、図16に示すように、黒の領域が多くエンハンス割合が低くなる程、第1の閾値Th1が高輝度側にシフトし、これにより低輝度領域の階調をより広い範囲で低く抑えられることで、よりコントラスト感を重視した画質とすることができる。
 また、Max輝度と第1の閾値の他の設定例として、上記のように黒検出部19から出力されたエンハンス割合ではなく、黒検出部19により検出された黒検出スコアの量、もしくはジオメトリック平均値に応じて、Max輝度および第1の閾値Th1の位置を設定するものであってもよい。黒検出スコアおよびジオメトリック平均値は、そのままで映像の黒領域の程度を表す一つの指標となるため、これらの値に応じて例えば黒の量が多くなるに従って、Max輝度を抑えて黒浮きを防ぐとともに、第1の閾値Th1を高輝度側にシフトさせてコントラスト感を重視するように制御することができる。
 図17は、エリアアクティブ制御・輝度ストレッチ部14の処理により、画面輝度がエンハンスされる状態を示す図である。横軸は入力映像信号の階調値で、縦軸は表示部18の画面輝度(cd/m2)である。
 T2、T3は、発光検出部12で使用した第1及び第2閾値Th1,Th2の階調値の位置にそれぞれ相当する。上記のように発光検出部12で検出した第2の閾値Th2以上の領域では、バックライトの輝度ストレッチ量に応じて映像信号の出力階調を低下させる信号処理が行われていない。この結果、T3~T4では、入力映像信号は、エリアアクティブ制御により決定されたMax輝度に従うγカーブでエンハンスされて表示される。例えば、Max輝度が1500(cd/m2)である場合、入力映像信号が最高階調値(255)であるとき、画面輝度は1500(cd/m2)なる。この場合のMax輝度は、映像信号に基づき決定された平均点灯率と、黒検出処理による黒の量の検出結果に応じて決定されたMax輝度である。
 一方、T1~T2までの入力階調値の場合には、上記のように、バックライトの輝度ストレッチにより増加する画面輝度分を低減させるように第1のゲインG1が映像信号に適用されているため、基準輝度に基づくγカーブで画面表示される。エリアアクティブ制御・輝度ストレッチ部14で決定されたMax輝度に従って、マッピング部13で輝度ストレッチ分に対応して、閾値Th1(T2に相当)より小さい範囲で映像信号の出力値を抑えたからである。T2~T3は、Th2~Th1のトーンマッピングに応じて画面輝度が遷移する。
 Max輝度が大きくなると、T1~T2の基準輝度に基づく曲線と、T3~T4のMax輝度に基づく曲線との画面輝度方向の差が大きくなる。基準輝度に基づく曲線は、前述のように、最大階調値の画面輝度が、バックライト輝度をストレッチしないときの基準輝度(一例として最大階調値の画面輝度が550cd/m2)となるγ曲線であり、Max輝度に基づく曲線は、最大階調値の画面輝度が、エリアアクティブ制御・輝度ストレッチ部14で決定されたMax輝度となるγ曲線である。
 こうして、入力映像信号が0階調(T1)からT2までの間では、基準輝度で画面輝度を制御する。階調が低く暗い映像の場合には、輝度を上げて表示させるとコントラストの低下や黒浮き等の品低下が生じるため、バックライトの輝度ストレッチ分だけ映像信号処理により輝度を抑えて画面輝度が上がらないようにする。
 また入力映像信号がT3以上の範囲は、発光しているとみなしている範囲であるので、輝度ストレッチによりバックライトをストレッチした状態で、映像信号を抑えることなく維持する。これにより、画面輝度がエンハンスされ、より輝き感のある高品位の画像表示を行うことができる。
 この場合、黒検出部19による黒の検出量が多くなってMax輝度が抑えられると、T1~T2の基準輝度に基づく曲線と、T3~T4のMax輝度に基づく曲線との画面輝度方向の差が小さくなる。つまり黒検出部で検出された黒の量に応じて決まるMax輝度が小さくなるに従って、T3~T4のカーブが低輝度側にシフトしていく。また、T2の位置は、黒検出の量に応じて変化する第1の閾値th1の位置に相当するため、黒の検出量が多くなるとT2の位置も入力信号の高階調側にシフトし、コントラス感が重視された表示となる。なお、T1~T2までのγカーブは、基準輝度に一致させる必要はなく、発光部分のエンハンス領域との差を持たせるレベルのものであれば、ゲインG4を適宜調整して設定することができる。
(実施形態2)
 図18は、本発明に係る映像表示装置の他の実施形態を説明する図である。
 第2の実施形態は、第1の実施形態と同様の構成を有しているが、第1の実施形態と異なり、トーンマッピングを行う際に用いるMax輝度の値をエリアアクティブ制御・輝度ストレッチ部14で決定することなく、発光検出部12および黒検出部19の検出結果に基づき輝度ストレッチ量を決定し、その決定した輝度ストレッチ量に基づいてトーンマッピングを実行する。従って、信号処理部11のマッピング部13では、実施形態1のように、輝度ストレッチによるMax輝度値をエリアアクティブ制御・輝度ストレッチ部14から出力させる必要はない。
 黒検出部19は、予め定めた条件に従って、入力映像信号から黒表示に相当する量を検出する。本実施形態において、黒検出部19が行う黒検出処理としては、実施形態1で説明した黒検出処理1~3のいずれかを適用することができる。この黒検出処理により、黒検出部19からは、黒検出スコアもしくはジオメトリック平均値に応じたエンハンス割合が出力されてくる。エンハンス割合が高い領域は、相対的に黒の量が少ない領域である。黒検出部19による検出結果は、発光検出部12およびマッピング部13に入力される。
 図19は、入力映像信号の輝度信号Yから生成したYヒストグラムの例を示すものである。実施形態1と同様に、発光検出部12では、映像の特徴量として輝度を用い、入力した映像信号のフレームごとに、画素の輝度階調ごとの画素数を積算してYヒストグラムを生成する。そしてそのYヒストグラムから平均値(Ave)、標準偏差(σ)を計算し、これらを用いて2つの閾値Th1、Th2を計算する。実施形態1と同様に、第2の閾値Th2は、発光境界を定めるものであり、Yヒストグラムにおいてこの閾値Th2以上の画素は、発光している部分であるものとみなすものである。映像の特徴量としては、後述する他の特徴量を用いることができるが、ここでは輝度を用いるものとする。
 本実施形態では、実施形態1の第1の閾値Th1および第2の閾値Th2に加えて、さらに第3の閾値Th3を設定する。第3の閾値Th3は、Th1とTh2の間にあり、発光部分の画素の状態を検出するために設けられる。
 閾値Th3は、Th2と同じ値でもよいが、Th2以上の発光部分にマージンを持たせて広めにとり、処理を行いやすくするために設けられている。
 従って、
 Th3=Ave+Qσ(M<Q≦N)    ・・・式(7)
 となる。
 図20は、第3の閾値Th3以上の画素に応じた輝度ストレッチ量の計算例を示す図である。横軸は閾値Th3以上の画素値のスコア、縦軸はスコアに応じた輝度ストレッチ量を示している。スコアは本発明の明るさに関連する指標の一例に相当する。
 スコアは、[ある閾値以上の画素の割合]×[閾値からの距離(輝度の差)]と定義し、第3の閾値Th3より大きな階調値を持つ画素の画素数をカウントし、閾値Th3からの距離に重み付けをして算出することにより明るさの度合いを示すもので、例えば、下式(8)によって計算される。
Figure JPOXMLDOC01-appb-M000002
 式(8)において、count[i]は、階調値iについての画素数のカウントである。また、i2-(Thresh3)2は、図19で示したような輝度についての距離(輝度の差)を指し、代わりに、明度Lにおける閾値からの距離を採用してもよい。なお、この2乗は輝度を表すものであり、実際には2.2乗となる。つまり、デジタルのコード値がiの場合、輝度はi2.2となる。そのとき、明度Lは(i2.21/3≒iとなる。実際の映像表示装置で検証した結果、輝度での閾値からの差が明度での閾値からの差などより効果的であった。また、式(8)において、全画素数とはi>Th3に限らず全ての画素数をカウントした値を指す。スコアとしてこのような計算値を採用すると、発光部分のうちTh3から離れた高階調の画素が多い場合にはスコアが高くなる。また、Th3以上の画素数が一定であっても、階調が高い画素が多い方がスコアは高くなる。
 そしてスコアが一定以上に高いレベルでは、輝度ストレッチ量を高く設定し、高階調の輝いている映像をより高輝度にストレッチして輝き感を増す。この例では、スコアが一定以上の高い部分では、輝度ストレッチ後に取りうる最大の画面輝度が1500(cd/m2)となるように設定する。また、スコアが低い場合には、スコアが小さくなるほど輝度ストレッチ量が小さくなるように設定する。そして発光検出部12では、黒検出部19における黒の量の検出結果に応じて、図21に示す制御カーブを変化させる。この輝度ストレッチ量は、第1の実施形態のMax輝度と同じ概念であり、例えば、バックライトデューティの値によって示されるものである。
 図21は、黒検出結果に応じて変化させる輝度ストレッチ量の制御カーブの設定例を説明するための図である。上記のように発光検出部12では、閾値Th3以上の画素値のスコアに応じて輝度ストレッチ量を決定するが、このときのスコアと輝度ストレッチ量との関係を定める制御カーブを、黒検出部19から出力された検出結果に応じて変化させる。具体的には、黒検出部19から検出結果として出力されてくるエンハンス割合と、制御カーブとの関係を予め定めておき、黒検出部19から出力されるエンハンス割合に応じて制御カーブを変更する。
 例えば、図21に示すように、輝度ストレッチの制御カーブを4段階用意し、最もエンハンス割合が高い所定範囲の場合には、制御カーブU1で制御し、エンハンス割合が低くなるに従って、段階的に制御カーブU2,U3,U4の順序で変更する。制御カーブU4は、最もエンハンス割合が低く暗い(黒検出スコアが高い、もしくはジオメトリック平均値が高い)映像の場合となる。これにより、黒の領域が多く、黒検出スコアやジオメトリック平均値が高くなる映像の場合には、バックライトの輝度ストレッチを抑えて黒浮きによる品位低下を防ぐようにする。
 なお、図21の例では、制御カーブを4段階に設定したが、4段階に限ることなく2段階以上の複数段階で制御することができる。また、エンハンス割合に応じて無段階で変化するように制御カーブをその都度生成するようにしてもよい。
 次に発光検出部12では、実施形態1と同様の処理により、黒検出部19の検出結果に応じてYヒストグラムにおける第1の閾値Th1の位置を変更する。例えば、実施形態1で説明したように、図15のヒストグラムにおいて、黒検出によるエンハンス割合が低くなる程、第1の閾値Th1を高輝度側にシフトさせる。これにより、黒の領域が多く黒検出スコアやジオメトリック平均値が高くなる映像の場合には、第1の閾値Th1の位置が高輝度側シフトする。
 輝度ストレッチ量と第1の閾値の他の設定例として、上記のように黒検出部19から出力されたエンハンス割合ではなく、黒検出部19により検出された黒検出スコアの量、もしくはジオメトリック平均値に応じて、輝度ストレッチ量および第1の閾値Th1の位置を設定するものであってもよい。黒検出スコアおよびジオメトリック平均値は、そのままで映像の黒領域の程度を表す一つの指標となるため、これらの値に応じて例えば黒の量が多くなるに従って、輝度ストレッチ量を抑えて黒浮きを防ぐとともに、第1の閾値T1を高輝度側にシフトさせてコントラスト感を重視するように制御することができる。
 発光検出部12から出力された第1及び第2の閾値Th1,Th2の値、及びTh3以上の画素のスコアに従って決定される輝度ストレッチ量は、マッピング部13に出力され、トーンマッピングの生成に使用される。
 マッピング部13におけるトーマッピングの処理は、第1の実施形態と同様である。つまり図15に示すように、発光検出部12にて設定した第1の閾値Th1より小さい領域に対して第1のゲインG4を設定し、Th1とTh2の間を線形で結ぶように第2のゲインG5を設定する。このときに、ゲインG4の設定に際して、発光検出部12による黒の量の検出結果に応じて決定された輝度ストレッチ量を使用し、バックライトの輝度ストレッチ量に応じて映像信号処理により輝度を低下させる。得られたトーンマッピングは、入力映像信号に適用され、エリアアクティブ制御・輝度ストレッチ部14に入力する。
 エリアアクティブ制御・輝度ストレッチ部14における処理は、実施形態1と同様である。ただし、エリアアクティブ制御・輝度ストレッチ部14では、実施形態1のようにバックライトの平均点灯率からMax輝度を決定し、信号処理部11に出力する必要はなく、逆に信号処理部11の発光検出部12から出力された輝度ストレッチ量に基づいてバックライト部16のLEDの輝度をストレッチする。
 つまり、エリアアクティブ制御・輝度ストレッチ部14では、映像を所定の複数の領域(エリア)に分割し、その分割領域ごとに映像信号の最大階調値を抽出し、抽出した最大階調値に応じて領域毎のLEDの点灯率を決定する。例えば最大階調値が低く暗い領域については、点灯率を下げてバックライトの輝度を低下させる。そして、この状態で、発光検出部12から出力された輝度ストレッチ量に応じてバックライト全体の投入電力を増大させて、バックライトの輝度全体をUPする。これにより、発光している明るい映像はより明るくなって輝き感が増す。また、非発光部分は、映像信号処理により輝度ストレッチに相当する輝度が低減されているため、結果として、画面上では発光部分のみの輝度が高くなって、高コントラストの品位の高い映像を表示することができる。入力映像信号と画面輝度との関係は、第1の実施形態に示す図17と同様になる。
(実施形態3)
 図22は、本発明に係る映像表示装置の更に他の実施形態を説明する図である。
 第3の実施形態は、第2の実施形態と同様の構成を有し、第2の実施形態と同様の動作を行うが、第2の実施形態と異なり、輝度ストレッチ部20ではエリアアクティブ制御を行うことなく、信号処理部11の発光検出部12から出力された輝度ストレッチ量に基づいて、バックライト部16の輝度をストレッチする。
 つまり輝度ストレッチ部20では、マッピング部13により生成されたトーンマッピングが適用された映像信号を入力し、その映像信号を表示する制御データを表示制御部17に出力する。このときにエリアアクティブ制御による処理は行わない。一方、発光検出部12から出力された輝度ストレッチ量に基づいてバックライト部16全体を一律にストレッチする。
 これにより、発光している明るい映像はより明るくなって輝き感が増す。また、非発光部分は、映像信号処理により輝度ストレッチに相当する輝度が低減されているため、結果として、画面上では発光部分の輝度が高くなって、高コントラストの品位の高い映像を表示することができる。
 第3の実施形態における他の構成部分の動作については、第2の実施形態と同様であるため、繰り返しの説明は省略する。
(他の特徴量)
 上記の各例では、発光検出部12における発光部の検出処理、および黒検出部19における黒検出処理(黒検出処理1,2)における映像の特徴量として輝度Yを使用し、輝度のヒストグラムを生成してその中から発光部、及び黒の量を検出していた。ヒストグラムを生成する特徴量としては、輝度の他、例えばCMI(Color Mode Index)、もしくは、MaxRGBを用いることができる。
 CMIは、注目する色がどの程度明るいかを示す指標である。ここではCMIは輝度とは異なり、色の情報も加味された明るさを示している。CMIは、
  L*/L*modeboundary×100  ・・・式(9)
により定義される。
 上記L*は相対的な色の明るさの指標で、L*=100のときに、物体色として最も明るい白色の明度となる。上記式(9)において、L*は注目している色の明度であり、L*modeboundaryは、注目している色と同じ色度で発光して見える境界の明度である。ここでL*modeboundary≒最明色(物体色で最も明るい色)の明度となることがわかっている。CMI=100となる色の明度を発光色境界とよび、CMI=100を超えると発光していると定義する。
 映像表示装置で表示すべき放送映像信号からCMIを計算する手法を図23を参照して説明する。放送映像信号はBT.709規格に基づいて規格化されて送信される。従ってまず放送映像信号のRGBデータをBT.709用の変換行列を用いて3刺激値XYZのデータに変換する。そしてYから変換式を用いて明度L*を計算する。注目する色のL*が図24の位置C1にあったものとする。次に変換したXYZから色度を計算し、既に知られている最明色のデータから、注目する色と同じ色度の最明色のL*(L*modeboundary)を調べる。図23上の位置はC2である。
 これらの値から、上記式(9)を用いてCMIを計算する。CMIは、注目画素のL*とその色度の最明色のL*(L*modeboundary)との比で示される。
 上記のような手法で映像信号の画素ごとにCMIを求める。規格化された放送信号であるため全ての画素は、CMIが0~100の範囲のいずれかをとる。そして1フレーム映像に対して、横軸をCMIとし、縦軸を頻度としてCMIヒストグラムを作成する。ここで平均値Ave.と標準偏差σとを算出し、各閾値を設定して発光部分を検出する。
 また、他の例では、特徴量は、RGBデータのうちの最大階調値をもつデータ(MaxRGB)である。RGBの組み合わせにおいて、2つの色が同じ色度であることは、RGBの比が変化しないことと同義である。つまりCMIにおいて同じ色度の最明色を演算する処理は、RGBデータの比率を変えずに一定倍したときに、RGBデータの階調が最も大きくなるときのRGBの組み合わせを得る処理になる。
 例えば、図24(A)に示すような階調のRGBデータをもつ画素を注目画素とする。注目画素のRGBデータに一定の数を乗算したとき、図24(B)に示すようにRGBのいずれかが最初に飽和したときの色が、元画素と同じ色度で最も明るい色である。そして最初に飽和した色(この場合R)の注目画素の階調をr1、最明色のRの階調をr2とするとき、
 r1/r2×100   ・・・式(10)
 によってCMIに類似した値を得ることができる。RGBに一定倍したときに最初に飽和する色は、注目画素のRGBのうち最大の階調をもつ色になる。
 そして画素毎に上記のような式(10)による値を算出してヒストグラムを作成する。このヒストグラムから平均値Ave.と標準偏差σを計算し、各閾値を設定して発光部分を検出し、もしくは黒の量を検出することができる。このときのヒストグラムは、式10に従って0~100の値に変換することなく、画素のRGBの最大階調値を積算するものであってもよい。
11…信号処理部、12…発光検出部、13…マッピング部、14…エリアアクティブ制御・輝度ストレッチ部、15…バックライト制御部、16…バックライト部、17…表示制御部、18…表示部、19…黒検出部、20…輝度ストレッチ部。

Claims (9)

  1.  入力映像信号を表示する表示部と、該表示部を照明する光源と、該表示部および該光源を制御する制御部とを有し、
     該制御部は、前記入力映像信号の所定の特徴量に対して、画素数を積算したヒストグラムを生成し、該ヒストグラムの所定範囲の上位領域を発光部として検出し、
     前記入力映像信号から所定の条件に基づき算出した明るさに関連する指標に基づいて、前記光源の輝度をストレッチして増大させ、前記発光部を除く非発光部の映像信号の輝度を低下させることにより、前記発光部の表示輝度をエンハンスする映像表示装置であって、
     該映像表示装置は、前記入力映像信号から、所定の黒検出条件に基づいて黒表示の量を検出する黒検出部を有し、
     前記制御部は、前記黒検出部により検出した黒表示の量に従って、前記明るさに関連する指標と前記光源の輝度をストレッチさせる輝度ストレッチ量との関係を定める制御カーブを切り換えることを特徴とする映像表示装置。
  2.  請求項1に記載の映像表示装置において、
     前記制御部は、入力映像信号による画像を複数の領域に分割し、該分割した領域の映像信号の階調値に基づいて、前記領域ごとに対応する前記光源の点灯率を変化させ、
     前記制御カーブは、全ての領域に相当する前記点灯率を平均した平均点灯率と、前記表示部の画面上で取り得る最大輝度によって示される輝度ストレッチ量との関係を定める制御カーブであって、
     前記制御部は、前記明るさに関連する指標として前記平均点灯率を用い、該平均点灯率に従って定まる前記最大輝度に基づいて、前記光源の輝度をストレッチすることを特徴とする映像表示装置。
  3.  請求項1または2に記載の映像表示装置において、
     前記制御カーブは、前記黒検出部により検出した黒表示の量が少なくなるほど、前記輝度ストレッチ量が小さくなる制御カーブであることを特徴とする映像表示装置。
  4.  請求項1に記載の映像表装置において、
     前記制御カーブは、前記検出した発光部の領域を含む所定範囲の映像について、画素毎の明るさに重みを付けて画素数をカウントすることにより得られるスコアと、前記輝度ストレッチ量との関係を定める制御カーブであって、
     前記制御部は、前記明るさに関連する指標として前記スコアを用い、前記入力映像信号から計算した前記スコアに従って前記光源の輝度をストレッチすることを特徴とする映像表示装置。
  5.  請求項4に記載の映像表示装置において、
     前記制御カーブは、前記黒検出部により検出した黒表示の量が少なくなるほど、前記輝度ストレッチ量が小さくなる制御カーブであることを特徴とする映像表示装置。
  6.  請求項2~5のいずれか1に記載の映像表示装置において、
     前記制御部は、入力映像信号の入力階調を変換して出力する映像処理を行い、
     入力階調と出力階調との関係を定める入出力特性は、前記発光部と前記非発光部との境界より低階調の非発光部の領域に定めた閾値を有し、
     前記制御部は、映像信号に適用するゲインと前記輝度ストレッチ量との関係を予め定めておき、前記輝度ストレッチ量に従って、入力映像信号の入力階調に対して出力階調が低下するゲインを決定して、前記閾値より低階調の領域に前記決定したゲインを適用して前記映像処理を行い、該映像処理において、前記黒検出部により検出した黒表示の量が少なくなるほど、前記閾値を高階調側に移動させることを特徴とする映像表示装置。
  7.  請求項1~6のいずれか1に記載の映像表示装置において、
     前記制御部は、前記ヒストグラムの平均値をA、標準偏差をσとするとき、
      thresh=A+Nσ(Nは定数)
     以上の画素を前記発光部とすることを特徴とする映像表示装置。
  8.  請求項6に記載の映像表示装置において、前記制御部は、前記特徴量が低い所定領域において、前記光源の輝度のストレッチによる表示部の表示輝度の増加分を、前記映像処理により低減させることを特徴とする映像表示装置。
  9.  請求項1~8のいずれか1に記載の映像表示装置を備えたテレビ受信装置。
PCT/JP2012/067598 2012-02-15 2012-07-10 映像表示装置およびテレビ受信装置 WO2013121600A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/375,048 US9319620B2 (en) 2012-02-15 2012-07-10 Video display device and television receiving device including luminance stretching
CN201280069934.XA CN104115215B (zh) 2012-02-15 2012-07-10 视频显示装置及电视接收装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012030381A JP5197858B1 (ja) 2012-02-15 2012-02-15 映像表示装置およびテレビ受信装置
JP2012-030381 2012-02-15

Publications (1)

Publication Number Publication Date
WO2013121600A1 true WO2013121600A1 (ja) 2013-08-22

Family

ID=48534026

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/067598 WO2013121600A1 (ja) 2012-02-15 2012-07-10 映像表示装置およびテレビ受信装置

Country Status (4)

Country Link
US (1) US9319620B2 (ja)
JP (1) JP5197858B1 (ja)
CN (1) CN104115215B (ja)
WO (1) WO2013121600A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6167324B2 (ja) * 2012-07-25 2017-07-26 株式会社Joled 表示装置、画像処理装置、および画像処理方法
JP2016075826A (ja) * 2014-10-07 2016-05-12 株式会社リコー 画像投射装置、画像投射方法およびプログラム
CN114339036A (zh) * 2017-03-30 2022-04-12 株式会社尼康 摄像元件及摄像装置
CN107293265B (zh) * 2017-06-12 2020-08-28 深圳Tcl新技术有限公司 显示屏画面调整方法、显示终端及可读存储介质
US10659745B2 (en) * 2017-09-13 2020-05-19 Panasonic Intellectual Property Management Co., Ltd. Video display device and video display method
CN107948554B (zh) * 2017-11-30 2021-07-06 深圳Tcl新技术有限公司 显示画面的对比度调节方法、显示器和可读存储介质
EP4083984A4 (en) * 2019-12-24 2023-06-07 Panasonic Intellectual Property Management Co., Ltd. CONTROL DEVICE AND CONTROL METHOD
JP7471832B2 (ja) * 2020-01-23 2024-04-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR102375369B1 (ko) * 2020-11-26 2022-03-18 엘지전자 주식회사 톤 매핑 장치 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258669A (ja) * 2001-11-02 2004-09-16 Sharp Corp 液晶表示装置及び表示制御方法
JP2004325628A (ja) * 2003-04-23 2004-11-18 Seiko Epson Corp 表示装置、及びその画像処理方法
JP2007322901A (ja) * 2006-06-02 2007-12-13 Sony Corp 表示装置及びその駆動方法
JP2009063694A (ja) * 2007-09-05 2009-03-26 Seiko Epson Corp 画像処理装置、画像表示装置、画像処理方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5515113A (en) * 1994-02-28 1996-05-07 Matsushita Electric Industrial Co., Ltd. Automatic black stretch control for a television receiver
KR100415510B1 (ko) 2001-03-15 2004-01-16 삼성전자주식회사 적응형 휘도 증대 기능을 갖는 액정 표시 장치 및 이의구동 방법
JP2002202767A (ja) 2000-10-25 2002-07-19 Samsung Electronics Co Ltd 液晶表示装置とその駆動装置及びその方法
JP3844430B2 (ja) * 2001-06-26 2006-11-15 三菱電機株式会社 映像信号処理装置および映像信号処理方法
JP3583122B2 (ja) * 2001-11-02 2004-10-27 シャープ株式会社 画像表示装置及び表示制御方法
JP4167423B2 (ja) * 2001-11-30 2008-10-15 株式会社東芝 映像信号処理装置及び映像信号処理方法
JP3998636B2 (ja) * 2003-12-26 2007-10-31 株式会社東芝 映像処理装置
JP4617989B2 (ja) * 2005-04-28 2011-01-26 株式会社日立製作所 映像処理装置
KR100707270B1 (ko) * 2005-08-17 2007-04-16 삼성전자주식회사 Rgb값을 이용한 영상 콘트라스트 개선 방법 및 장치
CN100583214C (zh) * 2006-12-31 2010-01-20 深圳Tcl工业研究院有限公司 液晶电视背光控制系统及方法
CN101911175B (zh) * 2008-01-30 2012-12-12 夏普株式会社 视频显示装置
JP2010130399A (ja) * 2008-11-28 2010-06-10 Sony Corp 画像処理装置、画像処理方法および画像処理プログラム
JP4818351B2 (ja) * 2008-12-25 2011-11-16 株式会社東芝 画像処理装置及び画像表示装置
US20100278423A1 (en) * 2009-04-30 2010-11-04 Yuji Itoh Methods and systems for contrast enhancement
US8537175B1 (en) * 2009-05-07 2013-09-17 Google Inc. Video enhancement for large scale applications
JP2010271480A (ja) 2009-05-20 2010-12-02 Sharp Corp 表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258669A (ja) * 2001-11-02 2004-09-16 Sharp Corp 液晶表示装置及び表示制御方法
JP2004325628A (ja) * 2003-04-23 2004-11-18 Seiko Epson Corp 表示装置、及びその画像処理方法
JP2007322901A (ja) * 2006-06-02 2007-12-13 Sony Corp 表示装置及びその駆動方法
JP2009063694A (ja) * 2007-09-05 2009-03-26 Seiko Epson Corp 画像処理装置、画像表示装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP5197858B1 (ja) 2013-05-15
US20150009411A1 (en) 2015-01-08
US9319620B2 (en) 2016-04-19
CN104115215A (zh) 2014-10-22
CN104115215B (zh) 2016-10-26
JP2013167719A (ja) 2013-08-29

Similar Documents

Publication Publication Date Title
JP5085792B1 (ja) 映像表示装置およびテレビ受信装置
JP5197858B1 (ja) 映像表示装置およびテレビ受信装置
JP5085793B1 (ja) 映像表示装置およびテレビ受信装置
JP5165802B1 (ja) 映像表示装置およびテレビ受信装置
JP4991949B1 (ja) 映像表示装置およびテレビ受信装置
JP5284444B2 (ja) 映像表示装置およびテレビ受信装置
WO2014002712A1 (ja) 画像表示装置
JP2010271480A (ja) 表示装置
JP2011128325A (ja) 表示装置
JP5174982B1 (ja) 映像表示装置およびテレビ受信装置
JP5092057B1 (ja) 映像表示装置およびテレビ受信装置
JP5249703B2 (ja) 表示装置
JP5143959B1 (ja) 映像表示装置およびテレビ受信装置
JP5303062B2 (ja) 映像表示装置およびテレビ受信装置
JP2011128182A (ja) 表示装置
JP5330552B2 (ja) 映像表示装置およびテレビ受信装置
JP5244251B1 (ja) 映像表示装置およびテレビ受信装置
JP2013167876A (ja) 映像表示装置およびテレビ受信装置
JP2017046254A (ja) 映像表示装置およびテレビ受信装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12868728

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 14375048

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12868728

Country of ref document: EP

Kind code of ref document: A1