WO2013114645A1 - 映像表示装置およびテレビ受信装置 - Google Patents

映像表示装置およびテレビ受信装置 Download PDF

Info

Publication number
WO2013114645A1
WO2013114645A1 PCT/JP2012/068271 JP2012068271W WO2013114645A1 WO 2013114645 A1 WO2013114645 A1 WO 2013114645A1 JP 2012068271 W JP2012068271 W JP 2012068271W WO 2013114645 A1 WO2013114645 A1 WO 2013114645A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance
video signal
unit
display
brightness
Prior art date
Application number
PCT/JP2012/068271
Other languages
English (en)
French (fr)
Inventor
藤根 俊之
洋二 白谷
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201280068863.1A priority Critical patent/CN104094342B/zh
Priority to US14/373,367 priority patent/US9350961B2/en
Publication of WO2013114645A1 publication Critical patent/WO2013114645A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/342Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines
    • G09G3/3426Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines the different display panel areas being distributed in two dimensions, e.g. matrix
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/30Picture reproducers using solid-state colour display devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0613The adjustment depending on the type of the information to be displayed
    • G09G2320/062Adjustment of illumination source parameters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • G09G2320/064Adjustment of display parameters for control of overall brightness by time modulation of the brightness of the illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • G09G2320/0646Modulation of illumination source brightness and image signal correlated to each other
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • G09G2320/0653Controlling or limiting the speed of brightness adjustment of the illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Definitions

  • the present invention relates to a video display apparatus and a television receiving apparatus, and more particularly to a video display apparatus and a television receiving apparatus having an enhancement function for improving the quality of a display video.
  • a liquid crystal display device including a liquid crystal panel that modulates light source light according to a video signal and a backlight light source for illuminating the liquid crystal panel
  • display is performed by controlling the emission luminance of the backlight light source according to the input video signal.
  • Techniques for improving the quality of video are known.
  • Patent Document 1 calculates an average luminance level (Average Picture Level: hereinafter referred to as “APL”) in one frame as a feature amount of an input video signal, and adjusts the emission luminance of a backlight light source according to the APL.
  • a liquid crystal display device is disclosed.
  • the light emission luminance is simply adjusted according to the APL, in the case of multi-screen display in which both the dark image and the bright image are displayed, the light emission luminance corresponds to an intermediate APL between the APL of the dark image and the APL of the bright image. It becomes a thing, and a feeling of brightness and contrast become unnatural.
  • the television image is displayed when the emission brightness control of the backlight source of the entire two screens is performed according to the APL of the television image.
  • the screen on which the image of the personal computer is displayed becomes inappropriate light emission luminance, and the brightness and contrast become unnatural.
  • Patent Document 1 adjusts the light emission luminance of the backlight light source according to the APL, but when performing multi-screen display, the liquid crystal display stops the adjustment processing of the light emission luminance according to the APL of the input video signal.
  • An apparatus is disclosed.
  • Patent Document 2 when performing two-screen display, the contrast adjustment and the light source luminance adjustment are performed on the control target screen, and the image of the image to cancel the light source luminance adjustment effect on the non control target screen.
  • an image display apparatus which properly improves the visual contrast without incongruity on both screens by correcting the amplitude of a signal.
  • the brightness of the light source is stretched and increased, and a relatively bright part (light emitting part) is detected from the distribution of the video brightness and the light emitting part is removed. If the display brightness of the light emitting part is consciously enhanced by lowering the brightness of the video signal of the non-light emitting part, the sense of contrast is improved for the human eye and the brightness is perceived to be increased.
  • the effect of being able to provide a high quality display image with improved image quality by making the light emission part more pronounced can be obtained, but it is difficult to obtain such an effect only by using APL.
  • the present invention has been made in view of the above-described actual situation, and it stretches and increases the luminance of a light source, detects a light emitting portion of an image from a video signal, and removes a non-light emitting portion excluding the light emitting portion.
  • multi-screen display is performed while enabling video expression with enhanced feeling of brilliance and contrast by enhancing the display luminance of the light emitting part and reducing and displaying the luminance of the light emission part by lowering the luminance of the video signal.
  • a first technical means of the present invention comprises a display unit for displaying an input video signal, a light source for illuminating the display unit, and a control unit for controlling the display unit and the light source.
  • the image display apparatus according to claim 1 wherein the luminance of the light source is stretched and increased based on the input video signal, and the number of pixels is integrated with respect to a predetermined feature amount related to the brightness of the input video signal.
  • a histogram is generated, and a high-order region of a predetermined range of the histogram is detected as a light emitting portion, and luminance of a video signal of a non-light emitting portion excluding the light emitting portion is reduced in the input video signal.
  • a control unit for controlling a light emission part enhancement process for enhancing the display brightness of the light emission part; and a display unit for the second input video signal together with the first input video signal as the input video signal And a display instruction detecting unit for detecting whether there is an instruction to display, the control unit, in accordance with a detection result of the display instruction detecting unit, and switches the control of the light emitting portion enhancement processing.
  • the control unit divides the image according to the input video signal into a plurality of areas, and the gray level of the video signal of the divided area which is the divided area. Based on the value, the lighting rate of the area of the light source corresponding to the divided area is changed, and the average lighting rate obtained by averaging the lighting rates of the areas of the light source for a plurality of areas of the light source is determined. It is characterized in that the luminance of the light source is stretched based on the maximum display luminance that can be obtained on the screen of the display unit, which is associated in advance.
  • a third technical means of the present invention is the first technical means, wherein the control unit weights the brightness of each pixel for the image in a predetermined range including the area of the detected light emitting part and calculates the number of pixels.
  • a score indicating the degree of brightness is calculated by counting, and the luminance of the light source is stretched according to the score.
  • a fourth technical means of the present invention is any one of the first to third technical means, wherein the control unit has an instruction to display the second input video signal together with the first input video signal. The light emission part enhancement process is stopped when it is detected.
  • a fifth technical means of the present invention is any one of the first to third technical means, wherein the control unit has an instruction to display the second input video signal together with the first input video signal. Is detected, the light emission part enhancement process is performed on the first input video signal based on the setting of the first control characteristic, and the second control characteristic is set based on the setting of the second control characteristic. The light emission part enhancement process is performed on the input video signal of
  • a sixth technical means of the present invention is, in the fifth technical means, a genre for detecting a first video genre of the first input video signal and a second video genre of the second input video signal.
  • the apparatus further comprises a detection unit, wherein the setting of the first control characteristic is determined based on the first image genre, and the setting of the second control characteristic is determined based on the second image genre. It features.
  • the above pixel is a light emitting portion.
  • the eighth technical means of the present invention is any one of the first to seventh technical means, wherein the control unit increases the display brightness of the display unit by stretching the brightness of the light source in the non-light emitting portion. It is characterized in that the minute is reduced by the decrease of the luminance of the input video signal.
  • a ninth technical means of the present invention is a television receiver comprising the video display device of any one of the first to eighth technical means.
  • the luminance of the light source is stretched and increased based on the input video signal, and the light emitting portion of the video is detected from the video signal, and the video of the non-light emitting portion excluding the light emitting portion
  • the display luminance of the light-emitting portion is enhanced (light-emitting portion enhancement processing) to be displayed prominently.
  • it is detected whether or not there is an instruction to display the second input video signal on the display unit together with the first input video signal, and the control of the light emission part enhancement processing is switched according to the detection result.
  • the screen display it is possible to prevent the lightness and contrast from becoming unnatural by stopping the light emission part enhancement process or the like.
  • FIG. 6 illustrates an example of a histogram generated from a luminance signal of an input video signal. It is a figure which shows the example of a setting of the brightness
  • FIG. 1 is a view for explaining an embodiment of a video display device according to the present invention, and shows an example of the configuration of the main part of the video display device.
  • the video display device performs image processing on an input video signal to display a video.
  • the video display device constitutes a television receiver or the like.
  • the video display device illustrated in FIG. 1 includes a signal processing unit 1, an area active control / brightness stretching unit 4, a backlight control unit 5, a backlight unit 6, a display control unit 7, a display unit 8, a video combining unit 9, and a tuner. 10a and 10b, decoders 11a and 11b, a remote control signal processor 12, and a screen setting unit 13.
  • the signal processing unit 1 includes a light emission detection unit 2 and a mapping unit 3.
  • the screen setting unit 13 further includes a display instruction detection unit 13a.
  • the control unit of the present invention controls the backlight unit 6 and the display unit 8, and as an example of the control unit, the signal processing unit 1, the area active control / brightness stretching unit 4, the backlight control unit 5 , And the display control unit 7.
  • the tuners 10a and 10b receive the broadcast signal designated by the user among the broadcast signals received by the antenna A, and output the received broadcast signal to the decoders 11a and 11b.
  • This video display apparatus has a single screen display for displaying only a video signal of one program and a dual screen display for displaying video signals of two programs (a first input video signal and a second input video signal). In the case of one-screen display, only one tuner 10a is used, and in the case of two-screen display, two tuners 10a and 10b are used.
  • this video display device can perform data broadcast display that displays a video signal (second input video signal) of data broadcasting together with a video signal (first input video signal) of a program. Only one tuner 10a is used.
  • the decoders 11a and 11b decode the broadcast signal input by the tuners 10a and 10b, extract a video signal of a program or a video signal of data broadcast from the broadcast signal, and output the extracted video signal to the video synthesis unit 9 Do.
  • the remote control signal processing unit 12 includes a remote control light receiving unit (not shown), analyzes the remote control signal received from the remote control R, information indicating whether or not to perform dual screen display for displaying video signals of two programs, and Information indicating whether or not to perform two-screen display for displaying a video signal and a video signal of data broadcasting, information of a received program designated by the user, and the like are acquired. Then, the remote control signal processing unit 12 outputs the acquired information to the screen setting unit 13.
  • the screen setting unit 13 includes a display instruction detection unit 13a.
  • the display instruction detection unit 13a receives, from the user, an instruction to display video signals of two programs by receiving from the remote control signal processing unit 12 information indicating that two-screen display to display video signals of two programs is performed. Detect what happened.
  • the screen setting unit 13 When the screen setting unit 13 detects that there is an instruction, it causes both of the tuners 10a and 10b to function and causes the video synthesis unit 9 to transmit the video signal of the program to each of the decoder units 11a and 11b. Give an instruction to output. Furthermore, the screen setting unit 13 outputs, to the signal processing unit 1 and the area active control / brightness stretching unit 4, a signal indicating that the two-screen display is to be performed.
  • the display instruction detection unit 13a receives the video signal of the program and the data broadcast by receiving from the remote control signal processing unit 12 information indicating that the two-screen display for displaying the video signal of the program and the video signal of the data broadcast is performed. It is detected that the user has issued an instruction to display the video signal.
  • the screen setting unit 13 When the screen setting unit 13 detects that the instruction has been made, the screen setting unit 13 causes only the tuner 10a to function, and causes the decoder unit 11a to transmit the video signal of the program and the video signal of the data broadcast to the video combining unit 9. Give an instruction to output. Furthermore, the screen setting unit 13 outputs, to the signal processing unit 1 and the area active control / brightness stretching unit 4, a signal indicating that the two-screen display is to be performed.
  • the screen setting unit 13 When there is no instruction to display video signals of two programs, or an instruction to display video signals of programs and video signals of data broadcasting, the screen setting unit 13 causes only the tuner 10a to function and the decoder unit 11a. Then, the video synthesis unit 9 is instructed to output the video signal of the program. Furthermore, the screen setting unit 13 outputs, to the signal processing unit 1 and the area active control / brightness stretching unit 4, a signal indicating that single screen display for displaying only the video signal of one program is to be performed.
  • the video combining unit 9 combines the video signals of the two programs output by the decoders 11a and 11b when the two-screen display for displaying the video signals of the two programs is executed, and a video obtained as a result of the combining The signal is output to the area active control and luminance stretch unit 4.
  • the video synthesis unit 9 synthesizes the video signal of the program output by the decoder unit 11a and the video signal of the data broadcast.
  • the image signal obtained as a result of the composition is output to the area active control and luminance stretch unit 4.
  • the video combining unit 9 does not combine the video signal of the program output by the decoder unit 11a with another video signal, and the area is active. Output to the control and luminance stretch unit 4.
  • the video signal of the program output by the decoder unit 11a is applied with tone mapping based on the information of tone mapping generated by the mapping unit 3 of the signal processing unit 1 , Area active control and luminance stretch unit 4.
  • the area active control / brightness stretching unit 4 divides the image of the video signal into predetermined areas in accordance with the input video signal, and extracts the maximum gradation value of the video signal for each divided area. Then, the lighting rate of the backlight unit 6 is calculated based on the extracted value. The lighting rate is determined for each area of the backlight unit 6 corresponding to the divided area of the image, and the lighting rate referred to here is actually changed as described later, so it can be said that it is a temporary value. .
  • the backlight unit 6 is an example of a light source for illuminating the display unit 8 and is configured of a plurality of LEDs, and can control the brightness for each area.
  • the lighting rate for each area of the backlight unit 6 is determined based on a predetermined arithmetic expression, but basically the luminance of the LED is maintained without reduction in the area having a bright maximum gradation value of high gradation In a region having a dark maximum tone value of low tone, an operation is performed to reduce the brightness of the LED.
  • the lighting rate may be calculated from other feature quantities related to the brightness of the input video signal, such as the average tone value instead of the maximum tone value, and the lighting rate may be calculated from the average tone value.
  • the brightness of the LED is maintained without decreasing in the region having a bright average tone value of high tone, and the operation such as reducing the brightness of the LED in a region having a dark average tone value of low tone Should be done.
  • the area active control / brightness stretch unit 4 calculates the average lighting rate of the entire backlight unit 6 from the lighting rates of the respective regions, and the backlight unit 6 is calculated according to a predetermined arithmetic expression according to the average lighting rate.
  • the luminance stretch amount calculates the stretch amount of the maximum light emission luminance (hereinafter referred to as the luminance stretch amount).
  • the reference luminance which is the source of the stretching is, for example, luminance such that the screen luminance is 550 (cd / m 2 ) at the maximum gradation value.
  • the luminance of this reference can be determined appropriately without being limited to this example.
  • the maximum screen brightness after stretching at the maximum tone value which can be taken in the entire area in the screen, is referred to as “Max brightness”.
  • the Max luminance is determined according to the average lighting rate as illustrated in the graph of FIG. It can be said that it is a value.
  • FIG. 2 is a diagram for explaining a processing example in the area active control / brightness stretching unit 4 and shows the relationship of Max brightness (cd / m 2 ) to the average lighting rate (window size) of the backlight unit 6. An example of a graph is shown.
  • the Max luminance is smaller than the reference luminance (550 cd / m 2 in this example), which means that the luminance stretch amount is negative. It shows.
  • the integral value obtained by integrating the graph of Max luminance in FIG. 2 over all the average lighting rates is the reference brightness. Since it is larger than the integral value integrated over all the average lighting rates, it can be said that the maximum light emission luminance and the maximum screen luminance (that is, the maximum display luminance) are enhanced by "stretching" in the whole.
  • the area active control / brightness stretching unit 4 changes the lighting rate (temporary lighting rate) for each of the above-described areas so that the maximum emission brightness is stretched by the brightness stretch amount calculated according to the average lighting rate.
  • Such control of the lighting rate for each divided area including the calculation of the lighting rate for each divided area and the change of the lighting rate according to the average lighting rate (calculation of the lighting rate after stretching) is called area active control .
  • the image by the input video signal is divided into a plurality of areas, and the lighting ratio of the area of the light source corresponding to the divided area is changed based on the gradation value of the video signal of the divided area.
  • the average lighting rate obtained by averaging the lighting rates of the light source area for the area of the light source is determined, and based on the maximum display luminance (Max luminance) obtainable on the screen of the display unit 8 previously associated with the average lighting It is preferable to stretch the luminance. Therefore, the area active control / brightness stretching unit 4 outputs Max brightness determined according to the average lighting rate to the mapping unit 3 of the signal processing unit 1 for feedback.
  • the light emission detection unit 2 of the signal processing unit 1 sets the pixel value for each frame based on a predetermined feature amount related to the brightness of the video signal of the program output by the video synthesis unit 9 when single screen display is performed.
  • a histogram which is used to detect a light emitting part. The portion emitting light is determined by the average value and the standard deviation of the histogram, and is detected as a relative value for each histogram. That is, the light emission detection unit 2 generates a histogram in which the number of pixels is integrated for a predetermined feature amount related to the brightness of the video signal, and detects the upper region of the predetermined range of the histogram as the light emission portion. This process will be described in detail later.
  • the mapping unit 3 determines the information of the light emission part detected for the frame f N + 1 by the light emission detection unit 2 and the Nth signal output from the area active control and luminance stretch unit using the Max luminance of the frame f N, generates information tone mapping for the frame f N + 1, and outputs the information to the multiplier to apply to the frame f N + 1 of the video signal.
  • the information of the tone mapping is generated so as to lower the luminance equivalent to the luminance stretch of the backlight unit 6 with respect to the portion (non-light emitting portion) which is regarded as not emitting light in the frame fN + 1 .
  • the multiplier is used to apply the tone mapping to the video signal for each pixel value of the frame f N + 1 of the video signal, by multiplying the gain coefficient indicated by the tone mapping for the frame f N + 1, the resulting
  • the obtained video signal is output to the area active control and luminance stretch unit 4.
  • the area active control / brightness stretching unit 4 outputs control data for controlling the backlight unit 6 to the backlight control unit 5, and the backlight control unit 5 outputs the control data of the backlight unit 6 based on the data.
  • the light emission luminance of the LED is controlled for each divided area.
  • the control data is data for controlling the backlight unit 6 such that the lighting rate after stretching for each area described above is obtained.
  • the lighting rate for each region is calculated based on the above-described predetermined arithmetic expression, and can be obtained by changing it by stretching.
  • the luminance of the LED of the backlight unit 6 is controlled by PWM (Pulse Width Modulation) control, but can be controlled to a desired value by current control or a combination of these.
  • the area active control / brightness stretching unit 4 outputs display control data for controlling the display unit 8 to the display control unit 7, and the display control unit 7 displays the display of the display unit 8 based on the display control data.
  • Control. Display control data when displaying the frame f N + 1 of the video signal, the video signal after the application of the tone mapping obtained by feeding back the Max luminance of the frame f N to the frame f N + 1, the video indicated by the video signal It is data that controls the display unit 8 to be displayed.
  • the display unit 8 uses a liquid crystal panel which is illuminated by the LED of the backlight unit 6 and displays an image.
  • the backlight brightness is stretched according to the average lighting rate to increase the brightness of the LED of the backlight unit 6, and the information of the brightness stretch (the above-mentioned Max brightness) Is returned to the signal processing unit 1 to lower the luminance equivalent to the luminance stretch of the backlight unit 6 with respect to the video signal.
  • the luminance stretch is performed on the entire backlight unit 6, and the reduction in luminance due to the video signal processing occurs in a portion (non-light emitting portion) which is regarded as not emitting light except the light emitting portion.
  • the backlight brightness is stretched to increase the brightness of the LED of the backlight unit 6, and the brightness of the non-light emitting portion of the video signal is decreased.
  • the display luminance is enhanced (hereinafter, light emission part enhancement processing).
  • the area active control / brightness stretching unit 4 increases the display brightness of the display unit 8 due to the stretching of the brightness of the light source in the non-light emitting portion (that is, the predetermined region where the predetermined feature amount is low). It is preferable to reduce by reducing the
  • the main object of the present invention is to perform the light emission part enhancement processing on the input video signal to enhance the brilliance and contrast while making the brilliance and contrast unnatural when displaying multiple screens. It is to be able to prevent that.
  • the video display device includes a display instruction detection unit 13a, a signal processing unit 1, which is an example of a control unit of the present invention, an area active control / brightness stretching unit 4, a backlight control unit 5, and a display control. And 7 are provided.
  • the display instruction detection unit 13a determines whether or not the user has issued an instruction to perform two-screen display for displaying video signals of two programs, or displays a video signal of a program and a video signal of data broadcasting. It is detected whether or not there is a user instruction to execute the two-screen display. Then, the signal processing unit 1 and the area active control / brightness stretching unit 4 execute the light emission part enhancement process when it is not detected that there is a two screen display execution instruction, and it is detected that the execution instruction is performed. If so, the light emission part enhancement processing is stopped.
  • the luminance of the light source is stretched and increased, and a histogram is generated by integrating the number of pixels for a predetermined feature amount related to the brightness of the input video signal. , And detects the upper area of the predetermined range of the histogram as the light emitting part, and enhances the display luminance of the light emitting part by decreasing the luminance of the video signal of the non-light emitting part excluding the light emitting part in the input video signal. .
  • FIG. 3 is a diagram showing an example of two-screen display performed by the video display device.
  • images 20a and 20b of two programs are shown.
  • the video 20a is a dark video
  • the video 20b is a bright video.
  • the signal processing unit 1 and the area active control / brightness stretching unit 4 perform the light emission part enhancement process when the display instruction detection unit 13a detects that the user has issued an instruction to display video signals of two programs. Stop.
  • FIG. 3B shows a video 21 a of a program and a video 21 b of data broadcasting.
  • the user gazes at the characters. Therefore, as a result of executing the light emission part enhancement process as described above, when the image 21b of the data broadcast becomes excessively bright, the image quality is deteriorated and the user feels glare.
  • the display instruction detection unit 13 a detects that the user has issued an instruction to display the video signal of the program and the video signal of the data broadcast. If so, the light emission part enhancement processing is stopped.
  • the signal processing unit 1 stops the processing in the light emission detection unit 2, and the mapping unit 3 performs, for example, tone mapping with default setting (an input / output corresponds to one to one as an example). Output the tone curve etc. to the multiplier.
  • the area active control / brightness stretch unit 4 stops the processing relating to the area active control and the brightness stretch, and transmits control data for controlling the backlight unit 6 to the backlight control unit 5 for the input video signal. While outputting, display control data for controlling the display unit 8 is output to the display control unit 7. For example, data of default settings can be used as these control data and display control data.
  • the area active control divides the video into a plurality of predetermined areas and controls the light emission luminance of the LED for each divided area, even when the light emission partial enhancement process is stopped.
  • the area active control may be performed. For example, as shown in FIG. 4C described later, the maximum gradation value of the video signal is extracted for each divided area, and the lighting ratio (drive duty) of the LED for each area is determined according to the extracted maximum gradation value. decide. In this case, since the luminance stretching is not performed, the process of stretching the backlight luminance in accordance with the Max luminance obtained from the average lighting rate is stopped. And in connection with this, the process which feeds back the information (Max brightness
  • FIG. 4 is a diagram for explaining an example of calculation processing of the average lighting rate in the area active control / brightness stretching unit 4, and FIG. 5 illustrates the average lighting rate of the backlight of FIG. 4 and the gradation value of the pixels.
  • FIG. 4 is a diagram for explaining an example of calculation processing of the average lighting rate in the area active control / brightness stretching unit 4, and FIG. 5 illustrates the average lighting rate of the backlight of FIG. 4 and the gradation value of the pixels.
  • the area active control applied to the embodiment of the present invention divides an image into a plurality of predetermined areas, and controls the emission brightness of the LED corresponding to the divided areas for each area.
  • the area active control / brightness stretching unit 4 divides the image of one frame into a plurality of predetermined areas (the above areas), and the LEDs corresponding to the divided areas are The light emission luminance is controlled for each divided area.
  • the area active control / luminance stretch unit 4 divides the image area of the entire screen into 12 vertically and 12 horizontally as shown in FIG. 4B. Divide into 144 divided areas. Further, it is assumed that at least one LED is disposed in each area as the backlight unit 6.
  • the area active control / luminance stretch unit 4 extracts the maximum gradation value of the video signal for each area, and determines the temporary lighting rate of the LED for each area according to the extracted maximum gradation value.
  • the maximum tone value instead of the maximum tone value, another brightness related feature value such as the tone average value of the video signal may be used. A statistical value is used as this feature quantity.
  • FIG. 4B the lighting ratio of the LED is illustrated in gray scale for each region, and for example, in the image in FIG. As shown in B), the lighting rate is increased to be bright. The process at this time will be described more specifically.
  • FIG. 4C shows an example of extracting the maximum gradation value from each divided area of one frame and an example of the lighting rate corresponding to the maximum gradation value. Further, FIG. 4D shows the lighting rate of each region and the average lighting rate of the entire screen.
  • FIGS. 4C and 4D an example in which the screen of one frame is divided into eight areas (areas No. 1 to 8) is described for simplification of the description, but as shown in FIG. 4B. It can be divided into many areas and processed, and can be divided up into the same number of areas as the number of provided LEDs.
  • the lighting rate of the temporary LED of the backlight in the area is calculated from the maximum gradation value in the area.
  • the provisional lighting rate can be indicated, for example, by the drive duty of the LED (hereinafter, LED duty).
  • LED duty the drive duty of the LED
  • the maximum value of the lighting rate is 100%.
  • the brightness of the LED is controlled to a desired value by PWM and / or current control, but in the following description, an example in which only PWM control is adopted for simplification of the description I have listed. If the duty in the PWM control exceeds 100% by the later-described stretch processing, current control can be shared.
  • the lighting rate is lowered to lower the luminance of the backlight in the dark area where the maximum gradation value is low.
  • the actual lighting rate of each area is determined so as to accurately display the gradation to be displayed and to reduce the LED duty as much as possible.
  • it is desirable to reduce the LED duty in each area as much as possible it is necessary to accurately display the gradation to be displayed without collapsing, so that the maximum gradation in the area can be displayed, and the LED duty as low as possible.
  • the duty temporary lighting rate
  • the gradation of the display unit 8 here, the LCD panel
  • the gradation value of the image is expressed by 8-bit data of 0 to 255, and the gradation values of a plurality of pixels in one area in FIG. The case indicated by) will be described.
  • the maximum gradation value is 128.
  • the area active control / brightness stretching unit 4 determines the temporary lighting rate in this manner, and considers the gradation value for each pixel in the display unit 8 in consideration of the temporary lighting rate for the region including the pixel. Calculation can be done.
  • FIG. 5C shows the result of calculating the gradation value when displaying each pixel in FIG. 5A.
  • the display control unit 7 may control the display of the display unit 8 with the display control data of the gradation value shown in FIG. 5C for the pixel group shown in FIG. 5A.
  • the lighting ratio of the backlight is determined in the range of 10 to 90% as indicated by percentage with respect to the maximum gradation value of each area indicated by gray scale.
  • FIG. 4D is a graph in which the percentages in FIG. 4C are arranged by area.
  • This lighting rate calculation method is an example of such a method, but basically the bright high gradation area does not lower the backlight luminance, and the backlight luminance is lowered in advance for the low gradation dark area.
  • the provisional lighting rate of each area is calculated according to the determined arithmetic expression.
  • the area active control / brightness stretching unit 4 averages the temporary lighting rate of the backlight for each area calculated from the maximum tone value of the video signal, and calculates the average lighting rate of the backlight unit 6 in one frame. calculate.
  • the calculated average lighting rate of the entire screen naturally becomes higher as the number of areas with high lighting rates in each area increases.
  • the average lighting rate is as shown by a solid line in FIG. 4D, and the actual value is about 53%.
  • the actual luminance of the backlight unit 6 is determined based on the average lighting rate, based on the obtainable maximum emission luminance value (maximum emission luminance corresponding to the above Max luminance), that is, based on the above luminance stretch amount , It is strengthened by stretching the temporary lighting rate of each area.
  • the Max luminance is the maximum value of screen luminance that can be obtained, and is determined based on the relationship as shown in FIG. 2, for example.
  • the horizontal axis in the graph of FIG. 2 is the average lighting rate (window size) of the backlight, but this average lighting rate is the lighting area of 100% lighting area (window area) and the lighting off area of 0% lighting rate It can be expressed as a ratio. When there is no lighting area, the average lighting rate is zero, and as the window of the lighting area is larger, the average lighting rate is increased, and when all the lighting is performed, the average lighting rate is 100%.
  • the Max luminance when the backlight is fully lit is, for example, 550 (cd / m 2 ), which is used as a reference luminance before stretching.
  • the Max luminance is increased as the average lighting rate decreases from 100%.
  • the pixel having the gradation value of 255 gradation has the highest screen luminance in the screen, and becomes the maximum possible screen luminance (Max luminance). From this, it can be understood that the screen luminance does not increase up to the Max luminance depending on the gradation value of the pixel even with the same average lighting rate.
  • the average lighting rate is P
  • the value of Max luminance is the largest, and the maximum screen luminance at this time is 1500 (cd / m 2 ). That is, in the case of P, the maximum possible screen brightness is stretched to 1500 (cd / m 2 ) as compared to 550 (cd / m 2 ) at the time of full lighting.
  • P is set to a position where the average lighting rate is relatively low. That is, in the case of a screen in which the overall lighting rate is low on the whole screen and the average lighting rate is low and the peak of high gradation is partially present, the luminance of the backlight is stretched up to 1500 (cd / m 2 ) at maximum.
  • the range where the average lighting rate is low corresponds to an image of a dark screen, and the contrast is improved by suppressing the brightness of the backlight rather than stretching the brightness of the backlight to increase the screen brightness. It is preferable to suppress the blackout and maintain the display quality. Therefore, in the example of FIG. 2, the setting for suppressing blackout at such a low average lighting rate is adopted, and the value of Max luminance is gradually decreased from the average lighting rate P to the average lighting rate 0 (all black). I am doing it.
  • the area active control / brightness stretch unit 4 stretches the brightness of the backlight according to the curve of FIG. 2 and outputs the control signal to the backlight control unit 5.
  • the average lighting rate changes according to the maximum gradation value detected for each divided area of the video as described above, and the state of the luminance stretch changes according to the average lighting rate.
  • Tone mapping is applied to the video signal input to the area active control / brightness stretching unit 4 using tone mapping information generated by signal processing by the signal processing unit 1 described below, and the low gradation region has gain Will be down.
  • the brightness of the backlight is reduced by the stretching of the luminance of the backlight, and the luminance is reduced due to the gain reduction of the video signal.
  • the screen luminance is enhanced only in the area emitting light. It is increasing.
  • the area active control / brightness stretching unit 4 outputs the value of Max brightness obtained from the average lighting rate of the backlight according to the curve of FIG. 2 to the mapping unit 3 of the signal processing unit 1. Then, the mapping unit 3 performs tone mapping using the Max luminance output from the area active control and luminance stretching unit 4.
  • FIG. 6 is a diagram showing an example of the Y histogram generated from the luminance signal Y of the input video signal.
  • the light emission detection unit 2 integrates the number of pixels for each luminance gradation for each frame of the input video signal to generate a Y histogram.
  • the horizontal axis represents the tone value of luminance Y
  • the vertical axis represents the number of pixels (frequency) integrated for each tone value.
  • the luminance Y is an example of a feature of an image for creating a histogram for detecting a light emitting part, and other examples of the feature will be described later.
  • the second threshold value Th2 defines a light emission boundary, and in the Y histogram, processing is performed on the assumption that pixels greater than or equal to this threshold value Th2 are light emitting parts.
  • the second threshold Th2 can be expressed by the following expression (1), where N is a predetermined constant and ⁇ is a standard deviation. That is, the light emission detection unit 2 detects a pixel of Th2 or more of the following expression (1) as a light emission part.
  • Th2 Ave + N ⁇ formula (1)
  • the first threshold Th1 is set to suppress discomfort such as tonality of a region smaller than Th2, and M is expressed by the following equation (2) as a predetermined constant satisfying M ⁇ N.
  • Can. Th1 Ave + M ⁇ equation (2)
  • the values of the first and second threshold values Th1 and Th2 detected by the light emission detection unit 2 are output to the mapping unit 3 and used to generate tone mapping.
  • FIG. 7 is a diagram showing an example of tone mapping generated by the mapping unit 3.
  • the horizontal axis is the input tone of the luminance value of the image
  • the vertical axis is the output tone.
  • the pixels having the second threshold Th2 or more detected by the light emission detection unit 2 are portions emitting light in the image, and the gain is reduced by applying the compression gain except for the portions emitting light.
  • the light emission detection unit 2 sets and detects the first threshold Th1, and sets the first gain G1 for a region smaller than Th1, and connects the Th1 and the Th2 linearly. Tone mapping is performed by setting the gain G2.
  • Max luminance indicates the maximum screen luminance determined from the average lighting rate of the backlight, and the value of Max luminance corresponds to, for example, the corresponding backlight duty (LED duty) indicating the maximum light emission luminance. Values can be used.
  • the first gain G1 is applied to a region smaller than the first threshold Th1, and is set by the following equation (3).
  • G1 (Ls / Lm) 1 / ⁇ formula (3)
  • Ls is the reference luminance (reference luminance when the backlight luminance is not stretched; as an example, the luminance when the maximum screen luminance is 550 cd / m 2 )
  • Lm is the area active control / luminance stretch portion It is Max luminance outputted from 4. Therefore, the first gain G1 applied to the area smaller than the first threshold Th1 lowers the output gradation of the video signal so as to reduce the screen luminance which increases due to the luminance stretch of the backlight.
  • a straight line connects the output gradation of the first threshold Th1 lowered by the first gain G1 and the output gradation of the first threshold Th1.
  • the tone mapping generated by the mapping unit 3 is applied to the video signal output by the video synthesis unit 9, and the video signal in which the output of the low gradation portion is suppressed based on the luminance stretch amount of the backlight is It is input to the luminance stretch unit 4.
  • FIG. 8 is a diagram for explaining the Max luminance of the frames f N and f N + 1 output by the area active control / luminance stretch unit 4.
  • the graph shown in FIG. 8 is the same as the graph shown in FIG.
  • the area active control / brightness stretching unit 4 receives the video signal to which the tone mapping generated by the mapping unit 3 is applied, performs area active control based on the video signal, and Max based on the average lighting rate It also determines the brightness.
  • the frame of this time is the frame f N.
  • the value of Max luminance frame f N is output to the mapping portion 3.
  • the mapping unit 3, using the Max luminance of the frame f N input generates information tone mapping as shown in FIG. 7, it is applied to the frame f N + 1 of the video signal.
  • Max luminance based on the average lighting rate of area active control is fed back and used for tone mapping of the next frame.
  • Mapping unit 3 based on the Max luminance determined by the frame f N, as described in FIG. 7, applying a gain (first gain G1) to reduce the video output for the first threshold value Th1 smaller area Do.
  • a second gain G2 linearly connecting Th1 and Th2 is applied to the region between Th1 and Th2 to reduce the video output between Th1 and Th2.
  • the average lighting rate is not less than the high lighting rate region P, the gain to reduce the video output of the non-light emitting portion in the frame f N is applied, the frame f N + 1, the maximum per area
  • the gradation value tends to decrease and the lighting rate tends to decrease
  • the Max luminance tends to increase.
  • the frame fN + 1 the luminance stretch amount of the backlight is further increased, and the brightness of the screen tends to be increased.
  • this tendency is not seen in the area of the lighting rate lower than P, but is the opposite tendency.
  • FIG. 9 is a diagram showing a state in which the screen brightness is enhanced by the processing of the area active control / brightness stretching unit 4.
  • the horizontal axis is the gradation value of the input video signal
  • the vertical axis is the screen brightness (cd / m 2 ) of the display unit 8
  • S2 and S3 are the first and the second used in the light emission detection unit 2, respectively. It corresponds to the position of the gradation value of the second threshold values Th1 and Th2.
  • the input video signal is enhanced and displayed with a ⁇ curve in accordance with the Max luminance determined by the area active control.
  • S4 indicates the screen luminance when the input video signal has the highest gradation value (255). For example, when the Max luminance is 1500 (cd / m 2 ), the screen luminance at the highest gradation is 1500 (cd) / M 2 ).
  • the first gain G1 is applied to the video signal so as to reduce the screen luminance component which increases due to the luminance stretch of the backlight. Therefore, the screen is displayed with a ⁇ curve based on the reference luminance. This is because the output value of the video signal is suppressed in the range smaller than the threshold Th1 (corresponding to S2) corresponding to the luminance stretch in accordance with the Max luminance determined by the area active control / luminance stretch unit 4 in accordance with the Max luminance.
  • the screen brightness changes according to the tone mapping of Th1 to Th2.
  • the curve based on the reference luminance is the reference luminance when the screen luminance at the maximum gradation value does not stretch the backlight luminance (for example, the screen luminance at the maximum gradation value is 550 cd / m 2 ).
  • the curve is a curve, and the curve based on the Max luminance is a ⁇ curve in which the screen luminance of the maximum gradation value is the Max luminance determined by the area active control / luminance stretch unit 4.
  • the screen luminance is controlled with the reference luminance in the range from 0 gradation (S1) to S2 of the input video signal.
  • S1 0 gradation
  • S2 the reference luminance
  • the luminance is suppressed by the video signal processing by the luminance stretch of the backlight to make the screen luminance Do not go up.
  • the range where the input video signal is S3 or more is the range considered to be emitting light
  • the video signal is maintained without being suppressed while the backlight is stretched by the luminance stretch.
  • the screen brightness is enhanced, and a high-quality image display with more brilliance can be performed.
  • the ⁇ curve from S1 to S2 does not have to match the reference luminance, and the gain G1 can be appropriately adjusted and set as long as it has a level that gives a difference from the enhancement region of the light emitting part .
  • FIG. 10 is a view for explaining another embodiment (second embodiment) of the video display device according to the present invention, and shows another example of the configuration of the main part of the video display device.
  • the video display apparatus of the second embodiment has the same configuration as the video display apparatus of the first embodiment, unlike the video display apparatus of the first embodiment, the value of Max luminance used when performing tone mapping is an area
  • the light emission detection unit 2 determines the amount of luminance stretch based on the detection result of the light emission portion without determining by the active control and luminance stretch unit 4, and the mapping unit 3 executes tone mapping based on the determined amount of luminance stretch Do. Therefore, the mapping unit 3 does not need to acquire the Max luminance value by the luminance stretch from the area active control / luminance stretch unit 4 as in the first embodiment.
  • the light emission detection unit 2 may only detect the light emission part, and the mapping unit 3 may be configured to calculate the luminance stretch amount from the detection result of the light emission part.
  • FIG. 11 shows an example of the Y histogram generated from the luminance signal Y of the video signal.
  • This video signal is output by the video combining unit 9.
  • the signal processing unit 1 stops the processing in the light emission detection unit 2, the processing described below is executed only on the video signal in one-screen display. .
  • the light emission detection unit 2 integrates the number of pixels for each luminance gradation of the pixels for each frame of the input video signal to generate a Y histogram. Then, the average value (Ave) and the standard deviation ( ⁇ ) are calculated from the Y histogram, and two threshold values Th1 and Th2 are calculated using these. As in the first embodiment, the second threshold value Th2 defines a light emission boundary, and pixels in the Y histogram that are equal to or greater than the threshold value Th2 are considered to be light emitting parts.
  • a third threshold Th3 is further set.
  • the third threshold value Th3 is between Th1 and Th2, and is provided to detect the state of the pixel of the light emitting part.
  • the threshold value Th3 may be the same value as Th2, the threshold value Th3 is provided in order to facilitate processing by providing a margin for the light emission portion of Th2 or more and broadening it. Therefore, Th3 is expressed by the following equation (4).
  • Th3 Ave + Q ⁇ (M ⁇ Q ⁇ N) Formula (4)
  • FIG. 12 is a diagram showing an example of setting of the luminance stretch in accordance with the pixels having the third threshold value Th3 or more.
  • the horizontal axis indicates the score of pixel values equal to or larger than the threshold Th3, and the vertical axis indicates the luminance stretch amount according to the score.
  • the score is defined as [proportion of pixels whose luminance is larger than a certain threshold] ⁇ [distance from threshold (difference in luminance)], and counts the number of pixels of pixels having a gradation value larger than the third threshold Th3. It indicates the degree of brightness obtained by calculating by weighting the distance from the threshold value Th3. For example, it is calculated by the following equation (5).
  • count [i] is a value obtained by counting the number of pixels for each gradation value i.
  • i 2- (Th 3) 2 indicates the distance (difference in luminance) with respect to the luminance as shown in FIG. 11, and instead, the distance from the threshold in the lightness L * may be adopted.
  • this square represents luminance, and in practice, it is 2.2. That is, when the digital code value is i, the luminance is i 2.2 . At that time, the lightness L * becomes (i 2.2 ) 1/3 ii. As a result of verification with an actual video display device, the difference from the threshold in luminance was more effective than the difference from the threshold in lightness.
  • the total number of pixels refers to a value obtained by counting the total number of pixels, not limited to i> Th3. If such a calculated value is adopted as the score, the score becomes high when there are many high gradation pixels far from Th3 in the light emitting portion. Further, even if the number of pixels larger than Th3 is constant, the score becomes higher as the number of pixels with high gradation is larger.
  • the luminance stretch amount is set high, and the video with high gradation is stretched to higher luminance to increase the feeling of brilliance.
  • the maximum screen brightness that can be obtained after the brightness stretch is set to be 1500 (cd / m 2 ).
  • the brightness stretch amount is set to be smaller as the score is smaller.
  • the luminance stretch amount is the one described in the first embodiment, and is indicated by, for example, the value of the backlight duty similarly to the Max luminance.
  • the luminance stretch amount determined according to the values of the first and second threshold values Th1 and Th2 detected by the light emission detection unit 2 and the score of the pixels of Th3 or more is output to the mapping unit 3 to generate tone mapping information. used.
  • the process of toe mapping in the mapping unit 3 is the same as that of the first embodiment. That is, as shown in FIG. 6, the first gain G1 is set for a region smaller than Th1 detected by the light emission detection unit 2, and the second gain G2 is set so as to linearly connect Th1 and Th2. Do. At this time, when setting the gain G1, the mapping unit 3 uses the luminance stretch amount detected by the light emission detection unit 2 and reduces the luminance by video signal processing according to the luminance stretch amount of the backlight. The obtained tone mapping is applied to the video signal output by the video synthesis unit 9, and then the video signal is output to the area active control and luminance stretching unit 4.
  • the processing in the area active control and luminance stretch unit 4 is the same as that of the first embodiment. However, the area active control / brightness stretching unit 4 determines the Max brightness from the average lighting rate of the backlight as in the first embodiment, and there is no need to output to the signal processing unit 1. Conversely, the light emission of the signal processing unit 1 The luminance of the LED of the backlight unit 6 is stretched based on the luminance stretch amount detected by the detection unit 2.
  • the video is divided into a plurality of predetermined areas, and the maximum gradation value of the video signal is extracted for each of the divided areas, according to the extracted maximum gradation value.
  • the luminance equivalent to the luminance stretch is reduced by the video signal processing in the non-light emitting part, as a result, the luminance of only the light emitting part becomes high on the screen, and a high contrast quality video is displayed. be able to.
  • the relationship between the input video signal and the screen luminance is similar to that shown in FIG. 9 shown in the first embodiment.
  • the light emission detection unit 2 weights the brightness of each pixel and counts the number of pixels in a predetermined range (the range of Th3 or more in the above example) including the area of the detected light emission part.
  • the score indicating the degree of the brightness is calculated by the above, the luminance stretch amount is determined according to the score, and the area active control / luminance stretch unit 4 is made to stretch by the luminance stretch amount. Therefore, the luminance stretch amount is output to the area active control / luminance stretch unit 4 and the mapping unit 3.
  • the area active control / brightness stretch unit 4 stretches the brightness according to the brightness stretch amount.
  • the mapping unit 3 changes the gain curve in accordance with the luminance stretch amount, and reduces the stretched luminance by the video signal processing.
  • the signal processing unit 1 and the area active control / brightness stretching unit 4 execute or stop the light emission part enhancement process according to the detection result of the display instruction detection unit 13a.
  • the signal processing unit 1 and the area active control / brightness stretching unit 4 stop the light emission part enhancement processing and perform one-screen display when the display instruction detection unit 13a detects that two-screen display is performed. Is detected by the display instruction detection unit 13a, the light emission part enhancement process is executed.
  • the configuration of the display instruction detection unit 13a according to the present invention is the same as that of the first embodiment, and thus the detailed description is omitted.
  • the signal processing unit 1 stops the processing in the light emission detection unit 2, so the luminance stretch amount (N) is not calculated and the mapping unit 3 and the area active control / luminance stretch unit 4 The luminance stretch amount (N) is not output.
  • the mapping unit 3 outputs, for example, tone mapping in a default setting (as an example, a tone curve whose input and output correspond to one to one) to the multiplier.
  • the area active control / brightness stretch unit 4 stops the processing relating to the area active control and the brightness stretch, and transmits control data for controlling the backlight unit 6 to the backlight control unit 5 for the input video signal. While outputting, display control data for controlling the display unit 8 is output to the display control unit 7. For example, data of default settings can be used as these control data and display control data.
  • the above-mentioned area active control may be performed as in the first embodiment. For example, as shown in FIG. 4C described above, the maximum gradation value of the video signal is extracted for each divided area, and the lighting ratio (drive duty) of the LED for each area is determined according to the extracted maximum gradation value. decide. In this case, since the luminance stretching is not performed, the process of stretching the backlight luminance in accordance with the Max luminance obtained from the average lighting rate is stopped.
  • FIG. 13 is a view for explaining another embodiment (third embodiment) of the video display device according to the present invention, and shows still another configuration example of the main part of the video display device.
  • the video display device of the third embodiment has the same configuration as the video display device of the second embodiment and performs the same operation as that of the second embodiment, but unlike the video display device of the second embodiment, area active control and luminance Instead of the stretch unit 4, a brightness stretch unit 4a not performing area active control is provided.
  • the luminance stretch unit 4 a uses the luminance stretch amount output from the mapping unit 3 of the signal processing unit 1 to stretch the luminance of the backlight unit 6.
  • the luminance stretching unit 4a receives the video signal to which the tone mapping is applied using the information of the tone mapping generated by the mapping unit 3, and outputs the display control data for displaying the video signal to the display control unit 7. . At this time, processing by area active control is not performed. On the other hand, the luminance stretch unit 4 a uniformly stretches the entire backlight unit 6 using the luminance stretch amount output from the light emission detection unit 2.
  • the bright image emitting light is brighter and the brightness is enhanced.
  • the luminance equivalent to the luminance stretch is reduced by the video signal processing in the non-light emitting part, as a result, the luminance of the light emitting part becomes high on the screen to display a high contrast high quality video. Can.
  • the signal processing unit 1 and the luminance stretching unit 4a execute or stop the light emission part enhancement processing according to the determination result of the display instruction detection unit 13a.
  • the signal processing unit 1 and the luminance stretch unit 4a stop the light emission part enhancement processing when the display instruction detection unit 13a detects that the two-screen display is performed, and perform the one-screen display detection When it is detected by the unit 13a, the light emission part enhancement process is executed.
  • the configuration of the display instruction detection unit 13a according to the present invention is the same as in the first and second embodiments, and thus the detailed description is omitted.
  • the signal processing unit 1 stops the processing in the light emission detection unit 2, so that the luminance stretch amount (N) is not calculated, and the luminance stretch amount (N) is calculated in the mapping unit 3 and the luminance stretch unit 4a. N) will not be output.
  • the mapping unit 3 outputs, for example, tone mapping in a default setting (as an example, a tone curve whose input and output correspond to one to one) to the multiplier.
  • the luminance stretch unit 4a stops the processing related to the luminance stretch, and outputs control data for controlling the backlight unit 6 to the backlight control unit 5 with respect to the input video signal.
  • Display control data for control is output to the display control unit 7.
  • data of default settings can be used as these control data and display control data.
  • a brightness stretch unit 4 a not performing area active control may be provided as in the third embodiment.
  • Max luminance is obtained from the average lighting rate (however, in this example, the temporary lighting rate itself is the temporary average lighting rate of the entire screen) in the luminance stretch unit 4a, , And feedback of the Max luminance to the mapping unit 3.
  • FIG. 14 is a view for explaining another embodiment (fourth embodiment) of the video display device according to the present invention, and shows another configuration example of the main part of the video display device.
  • the genre detection unit 13b when it is detected that the instruction to display the second input video signal together with the first input video signal is received from the user by the display instruction detection unit 13a, the genre detection unit 13b performs the first operation.
  • a first input video signal genre and a second input video signal genre, and the area active control / brightness stretching unit 4 is determined according to the information of the first input video signal genre
  • the light emission part enhancement process is performed on the first input video signal based on the setting of the control characteristic, and the second control characteristic is determined based on the information on the genre of the second input video signal.
  • a light emission part enhancement process is performed on the two input video signals.
  • the first input video signal and the second input video signal are video signals of two programs when the two-screen display of video signals of two programs is performed, and the programs When the two-screen display of the video signal of and the video signal of the data broadcast is performed, the video signal of the program and the video signal of the data broadcast are displayed.
  • this process will be described in detail.
  • the genre information of the broadcast program is, for example, included as a genre code in part of electronic program information (EPG information) transmitted superimposed on a broadcast signal of digital broadcast. Then, the broadcast signal is received by the tuners 10a and 10b and decoded by the decoders 11a and 11b. Then, a genre code is extracted as genre information from the broadcast signal.
  • EPG information electronic program information
  • a genre code as genre information is defined by a standard of digital terrestrial broadcasting. For example, “news / news”, “sports”, “information / wide show”, “drama”, “music”, “variety”, “movie”, “animation / special effects”, “documentary / culture”, “theatre / The genres of "performance”, “hobby / education” and “other” are defined in advance as major categories.
  • middle classes are defined for each major class.
  • middle classes For example, in the “Sports” broad category, “Sports News”, “Baseball”, “Soccer”, “Golf”, “Other Ball Games”, “Sumoi ⁇ Martial Arts”, “Olympic / International Games”, “Marathon ⁇ Athletics and swimming, “motor sports”, “marine winter sports”, “horse racing and public competitions” and “others” are defined as middle classes.
  • middle classes are defined as middle classes.
  • the video display device illustrated in FIG. 14 includes signal processing units 1a, 1b, and 1c.
  • the signal processing units 1a and 1b are processing units for processing the video signal of the program obtained by the decoding processing by the decoders 11a and 11b, respectively, and the signal processing unit 1c is for the data broadcast obtained by the decoding processing by the decoder 11a.
  • the signal processing units 1a, 1b, and 1c include light emission detection units 2a, 2b, and 2c, and mapping units 3a, 3b, and 3c, respectively.
  • the light emission detection units 2a and 2b detect the light emission part of the video signal of the program subjected to the decoding process by the decoder units 11a and 11b.
  • the light emission detection unit 2c detects a light emission part of the video signal of the data broadcast that has been subjected to the decoding process by the decoder unit 11a.
  • the mapping units 3a and 3b use a first threshold value Th1 instead of the tone mapping (dotted line in FIG. 15) shown in FIG.
  • the tone mapping (thick solid line in FIG. 15) set to a larger value is applied to the video signal. This can further enhance the contrast of the image.
  • control characteristics of Max luminance and tone mapping are set for other genre information and data broadcasting, and using these, the mapping units 3a and 3b perform tone mapping according to the genre information, and the mapping unit 3c performs tone mapping according to data broadcasting. This makes it possible to perform optimal display for each input video signal.
  • the genre detection unit 13 b acquires genre information of a video signal of a program from the decoders 11 a and 11 b. Then, the genre detection unit 13 b outputs the acquired genre information to the signal processing units 1 a and 1 b and the area active control / brightness stretch unit 4. In addition, when the display detection unit 13a detects that the genre detection unit 13b instructs to execute the two-screen display of the video signal of the program and the video signal of the data broadcast, the video signal of the data broadcast is transmitted to the signal processing unit 1c. Notify that is input. The signal processing unit 1c is activated when the notification is received, and performs signal processing according to the control characteristic set for the video signal of the data broadcast.
  • the video synthesis unit 9 synthesizes the video signals of two programs to which tone mapping is applied, and the video signals obtained as a result of the synthesis are subjected to area active control and luminance Output to the stretch unit 4. Even when the video signal of the program and the video signal of the data broadcast are displayed on two screens, the video combining unit 9 combines the video signal of the program to which the tone mapping is applied and the video signal of the data broadcast, and the obtained result is obtained. The obtained video signal is output to the area active control and luminance stretch unit 4. When the video signal of one program is displayed on one screen, the video combining unit 9 controls the area active control as it is without combining the video signal of one program to which tone mapping is applied with the other video signal. Output to the luminance stretch unit 4.
  • the area active control / brightness stretch unit 4 executes a light emission part enhancement process according to the genre of the input video signal. For example, when the genre information is "movie", the area active control / brightness stretching unit 4 substitutes the graph (the dotted line in FIG. 16) of the control characteristic of Max brightness shown in FIG. 2 as shown in FIG.
  • the control characteristic graph (solid line in FIG. 16) is used in which the value of Max luminance is suppressed in a region where the average lighting ratio is medium and the average lighting ratio P at which the value of Max luminance is maximum is set to a slightly lower position. .
  • the average lighting rate and the Max luminance are calculated for each video signal. That is, from the lighting rate of each area of the backlight corresponding to one video signal, the average lighting rate for that video signal is calculated, and the Max luminance is determined from the average lighting rate, and the back corresponding to the other video signal From the lighting rate of each area of the light, the average lighting rate for the video signal is calculated, and the Max luminance is determined from the average lighting rate.
  • the other configuration of the video display device shown in FIG. 14 is the same as the configuration described with reference to FIG. 1 in the first embodiment, so the description will be omitted.
  • FIG. 17 is a view for explaining another embodiment (embodiment 5) of the video display device according to the present invention, and shows another configuration example of the main part of the video display device.
  • the video display apparatus of the fifth embodiment has the same configuration as the video display apparatus of the fourth embodiment, but unlike the video display apparatus of the fourth embodiment, the value of Max luminance used when performing tone mapping is an area
  • the light emission detection units 2a, 2b, and 2c determine the luminance stretch amount based on the detection result of the light emission portion without determining by the active control and luminance stretch unit 4, and the mapping unit 3a, 3b, and 3c determine the luminance stretch amount Perform tone mapping based on.
  • mapping units 3a, 3b, and 3c as in the fourth embodiment, it is not necessary to acquire the Max luminance value by the luminance stretch from the area active control and luminance stretch unit 4.
  • the light emission detection units 2a, 2b and 2c may only detect the light emission part, and the mapping units 3a, 3b and 3c may be configured to calculate the luminance stretch amount from the detection result of the light emission part.
  • the above tone mapping is performed as follows.
  • the light emission detection units 2a, 2b, and 2c respectively accumulate the number of pixels for each luminance gradation of the pixels for each frame of the video signal of the input program or the video signal of the data broadcast, as shown in FIG. Generate a histogram.
  • the light emission detection units 2a, 2b, and 2c calculate an average value (Ave) and a standard deviation ( ⁇ ) from the Y histogram, and use them to calculate two threshold values Th1 and Th2. Further, the light emission detection units 2a, 2b, and 2c respectively set a third threshold value Th3. Th3 is calculated, for example, by the equation (4) shown in the second embodiment.
  • the light emission detection units 2a, 2b, and 2c count the number of pixels having a gradation value equal to or higher than the third threshold Th3 and weight the distance from the threshold Th3.
  • the score which shows the degree of the brightness obtained by calculating is calculated by Formula (5).
  • the luminance stretch amount is set high, and the image with high gradation and high brightness is stretched to higher luminance to increase the feeling of brilliance.
  • the maximum screen brightness that can be obtained after the brightness stretch is set to be 1500 (cd / m 2 ).
  • the brightness stretch amount is set to be smaller as the score is smaller.
  • the first and second threshold values Th1 and Th2 values detected by the light emission detection units 2a, 2b and 2c, respectively, and the luminance stretch amount determined according to the score of pixels of Th3 or more are output to the mapping units 3a, 3b and 3c And used to generate tone mapping information.
  • the process of toe mapping in the mapping units 3a, 3b and 3c is the same as that of the fourth embodiment. That is, as shown in FIG. 15, the first gain G1 is set for a region smaller than Th1 detected by the light emission detection units 2a, 2b, and 2c, and the second Th2 is linearly connected between Th1 and Th2. Set the gain G2. At this time, when setting the gain G1, the mapping units 3a, 3b, and 3c use the luminance stretch amount detected by the light emission detection units 2a, 2b, and 2c, and perform video signal processing according to the luminance stretch amount of the backlight. Reduce
  • the obtained tone mapping is applied to the video signal of the program output from the decoders 11a and 11b or the video signal of the data broadcast. Specifically, when the two-screen display of video signals of two programs is performed, tone mapping is applied to each of the video signals of the two programs output by the decoder units 11a and 11b. In addition, when the two-screen display of the video signal of the program and the video signal of the data broadcast is performed, tone mapping is applied to each of the video signal of the program output by the decoder unit 11a and the video signal of the data broadcast. . When one screen display of the video signal of the program is performed, tone mapping is applied to the video signal of the program output by the decoder unit 11a.
  • the video synthesis unit 9 synthesizes video signals of two programs to which tone mapping is applied, and the video signal obtained as a result of the synthesis is an area Output to the active control and luminance stretch unit 4.
  • the video combining unit 9 executes display of a video signal of a program and data broadcast display for displaying a video signal of data broadcasting
  • the video combining unit 9 combines a video signal of a program to which tone mapping is applied and a video signal of data broadcast. Then, the video signal obtained as a result of the composition is output to the area active control and luminance stretch unit 4.
  • the video synthesis unit 9 displays the video signal of the program on one screen, the area active control / brightness is performed without synthesizing the video signal of one program to which tone mapping is applied with another video signal. Output to the stretch unit 4.
  • the processing in the area active control and luminance stretch unit 4 is the same as that of the fourth embodiment.
  • the area active control / brightness stretching unit 4 determines the Max brightness from the average lighting rate of the backlight as in the fourth embodiment, and there is no need to output it to the signal processing units 1a, 1b and 1c.
  • the luminance of the LED of the backlight unit 6 is stretched based on the luminance stretch amount detected by the light emission detection units 2a, 2b and 2c of the units 1a, 1b and 1c.
  • the video is divided into a plurality of predetermined areas, and the maximum gradation value of the video signal is extracted for each of the divided areas, according to the extracted maximum gradation value.
  • the luminance equivalent to the luminance stretch is reduced by the video signal processing in the non-light emitting part, as a result, the luminance of only the light emitting part becomes high on the screen, and a high contrast quality video is displayed. be able to.
  • the relationship between the input video signal and the screen luminance is similar to that shown in FIG. 9 shown in the first embodiment.
  • the brightness of each pixel is weighted for the image in a predetermined range (the range of Th3 or more in the above example) including the detected light emission area
  • a predetermined range the range of Th3 or more in the above example
  • the amount of luminance stretch is determined according to the score, and the area active control / luminance stretch unit 4 is made to be stretched by the amount of luminance stretch. Therefore, the brightness stretch amount is output to the area active control / brightness stretch unit 4 and the mapping units 3a, 3b and 3c.
  • the area active control / brightness stretch unit 4 stretches the brightness according to the brightness stretch amount.
  • the mapping units 3a, 3b, and 3c change the gain curve in accordance with the amount of luminance stretch, and reduce the stretched luminance by the video signal processing.
  • the signal processing units 1a, 1b, and 1c and the area active control / brightness stretching unit 4 use the display instruction detection unit 13a to generate the second input video signal together with the first input video signal.
  • the light emission part enhancement process is performed on the first input video signal based on the setting of the first control characteristic, and based on the setting of the second control characteristic.
  • a light emission part enhancement process is performed on the second input video signal.
  • the first input video signal and the second input video signal are video signals of two programs when the two-screen display of video signals of two programs is performed, and the programs When the two-screen display of the video signal of and the video signal of the data broadcast is performed, the video signal of the program and the video signal of the data broadcast are displayed.
  • mapping units 3a, 3b, and 3c use the method described with reference to FIG. 15 in the fourth embodiment, and tone the respective video signals according to the genre of the video signal detected by the genre detection unit 13b. Perform mapping. Further, the area active control / brightness stretching unit 4 is applied to each video signal according to the genre of the video signal detected by the genre detection unit 13b by the method described with reference to FIG. 16 in the fourth embodiment. The brightness of the backlight unit 6 is adjusted.
  • the other configuration of the video display device shown in FIG. 17 is the same as the configuration described with reference to FIG. 14 in the fourth embodiment, so the description will be omitted.
  • FIG. 18 is a view for explaining another embodiment (embodiment 6) of the video display device according to the present invention, and shows another configuration example of the main part of the video display device.
  • an area instead of the area active control / brightness stretch unit 4 is an area A luminance stretch unit 4a not performing active control is provided.
  • the luminance stretch unit 4a stretches the luminance of the backlight unit 6 using the amount of luminance stretch output from the mapping units 3a, 3b and 3c of the signal processing units 1a, 1b and 1c.
  • the luminance stretch unit 4 a receives the video signal output from the video synthesis unit 9 and outputs display control data for displaying the video signal to the display control unit 7. At this time, processing by area active control is not performed.
  • the luminance stretch unit 4a stretches the backlight unit 6 on the display screen of the video signal corresponding to each luminance stretch amount using the luminance stretch amount output from the light emission detection units 2a, 2b, and 2c.
  • the bright image emitting light is brighter and the brightness is enhanced.
  • the luminance equivalent to the luminance stretch is reduced by the video signal processing in the non-light emitting part, as a result, the luminance of the light emitting part becomes high on the screen to display a high contrast high quality video. Can.
  • the signal processing units 1a, 1b, and 1c and the area active control / brightness stretching unit 4 use the display instruction detection unit 13a to generate the second input video signal together with the first input video signal.
  • the light emission part enhancement process is performed on the first input video signal based on the setting of the first control characteristic, and based on the setting of the second control characteristic.
  • the light emission part enhancement process is performed on the second input video signal.
  • the first input video signal and the second input video signal are video signals of two programs when the two-screen display of video signals of two programs is performed, and the programs When the two-screen display of the video signal of and the video signal of the data broadcast is performed, the video signal of the program and the video signal of the data broadcast are displayed.
  • mapping units 3a, 3b, and 3c use the method described with reference to FIG. 15 in the fourth embodiment, and tone the respective video signals according to the genre of the video signal detected by the genre detection unit 13b. Perform mapping.
  • the luminance stretch unit 4 a performs the backlight unit 6 according to the genre of the video signal detected by the genre detection unit 13 b for each video signal by the method described with reference to FIG. 16 in the fourth embodiment. Adjust the brightness of
  • the other configuration of the video display device shown in FIG. 18 is the same as the configuration described with reference to FIG. 14 in the fourth embodiment, so the description will be omitted.
  • a brightness stretch unit 4 a that does not execute area active control may be provided instead of the area active control / brightness stretch unit 4 of FIG. 14, a brightness stretch unit 4 a that does not execute area active control may be provided.
  • Max luminance is obtained from the average lighting rate (however, in this example, the temporary lighting rate itself is the temporary average lighting rate of the entire screen) in the luminance stretch unit 4a, And the Max luminance may be fed back to the mapping units 3a, 3b and 3c.
  • the luminance Y is used as the feature amount of the image, the luminance histogram is generated, and the light emission part is detected It was However, as the feature amount for generating the histogram, for example, the highest gradation value (Max RGB) among the gradation values of the CMI (Color Mode Index) or the RGB image signals constituting one pixel other than luminance is used. Can be used.
  • CMI is an index indicating how bright the color of interest is.
  • CMI is different from luminance, and indicates brightness including color information.
  • CMI is defined by the following equation (6). (L * / L * modeboundary) ⁇ 100 (6)
  • L * is the lightness of the color of interest
  • L * modeboundary is the lightness of the boundary that appears to emit light at the same chromaticity as the color of interest.
  • L * modeboundary ⁇ the lightness of the brightest color (the brightest color of the object colors).
  • a method of calculating the CMI from the broadcast video signal to be displayed by the video display device will be described with reference to FIG.
  • the broadcast video signal is standardized and transmitted based on the BT.709 standard. Therefore, first, RGB data of the broadcast video signal is converted into data of tristimulus values XYZ using a conversion matrix for BT.709. Then, the lightness L * is calculated from Y using a conversion formula. It is assumed that L * of the color of interest is at position PL1 in FIG. Next, the chromaticity is calculated from the converted XYZ, and the L * (L * modeboundary) of the brightest color having the same chromaticity as the color of interest is examined from the already known brightest color data. The position on FIG. 19 is PL2.
  • CMI is calculated using the above equation (6).
  • CMI is shown by the ratio of L * of the pixel of interest to L * (L * modeboundary) of the lightest color of its chromaticity.
  • the CMI is determined for each pixel of the video signal by the method as described above. Because of the standardized broadcast signal, all pixels have CMI in any of the range of 0 to 100. Then, with respect to one frame video, a CMI histogram is created with the horizontal axis as CMI and the vertical axis as frequency. Here, the average value Ave. and the standard deviation ⁇ are calculated, and each threshold is set to detect the light emitting part.
  • Max RGB is data having the maximum gradation value of RGB data.
  • that two colors are the same chromaticity is synonymous with the fact that the ratio of RGB does not change. That is, the process of calculating the brightest color of the same chromaticity in CMI is a process of obtaining a combination of RGB when the gradation of RGB data is the largest when the ratio of RGB data is constant and multiplied.
  • a pixel having RGB data of gradation as shown in FIG. 20A is set as a target pixel.
  • RGB data of the pixel of interest is multiplied by a fixed number, as shown in FIG. 20B
  • the color when one of RGB is first saturated is the brightest color with the same chromaticity as the original pixel.
  • the gradation of the target pixel of the first saturated color in this case R
  • the gradation of the brightest R is r2
  • a value similar to CMI can be obtained by the following equation (7) .
  • the color that saturates first when it is multiplied by a certain amount into RGB is the color with the largest gradation among RGB of the pixel of interest. (R1 / r2) ⁇ 100 (7)
  • the value according to the equation (7) as described above is calculated for each pixel to create a histogram.
  • the average value Ave and the standard deviation ⁇ can be calculated from this histogram, and each threshold can be set to detect the light emitting part.
  • 1, 1a, 1b, 1c signal processing unit, 2, 2a, 2b, 2c: light emission detection unit, 3, 3a, 3b, 3c: mapping unit, 4: area active control / brightness stretch unit, 4a: brightness stretch unit 5 backlight control unit 6 backlight unit 7 display control unit 8 display unit 9 video combining unit 10a, 10b tuner 11a 11b decoder 12 remote control signal processing unit 13: Screen setting unit, 13a: display instruction detection unit, 13b: genre detection unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

映像信号に対して輝き感およびコントラスト感を高めた映像表現を可能としつつ、複数画面表示が行われる場合に輝き感およびコントラスト感が不自然なものとなることを防止する。映像表示装置は、表示部(8)およびバックライト部(6)を制御する制御部(信号処理部(1)、エリアアクティブ制御・輝度ストレッチ部(4))、第1および第2の入力映像信号の表示指示を検出する表示指示検出部(13a)を備える。制御部は、バックライト部(6)の輝度をストレッチして増大させるとともに、上記検出結果に応じて、発光部分エンハンス処理を制御する。発光部分エンハンス処理では、入力映像信号の明るさに関連する所定の特徴量に対し、画素数を積算したヒストグラムを生成し、ヒストグラムの所定範囲の上位領域を発光部分として検出し、入力映像信号のうち発光部分を除く非発光部分の映像信号の輝度を低下させて、発光部分の表示輝度をエンハンスする。

Description

映像表示装置およびテレビ受信装置
 本発明は、映像表示装置およびテレビ受信装置に関し、より詳細には、表示映像の画質を向上させるためのエンハンス機能を備えた映像表示装置およびテレビ受信装置に関する。
 映像信号に従って光源光を変調する液晶パネルと、その液晶パネルを照明するためのバックライト光源を備えた液晶表示装置において、入力映像信号に応じてバックライト光源の発光輝度を制御することにより、表示映像の品位を改善するようにする技術が知られている。
 例えば、特許文献1には、入力映像信号の特徴量として1フレームにおける平均輝度レベル(Average Picture Level:以下「APL」という)を算出し、そのAPLに応じてバックライト光源の発光輝度を調整する液晶表示装置が開示されている。
 しかし、単にAPLに応じて発光輝度を調整すると、暗い映像と明るい映像とを両方表示する多画面表示の場合、発光輝度が、暗い映像のAPLと明るい映像のAPLの中間的なAPLに応じたものとなってしまい、輝き感およびコントラスト感が不自然になってしまう。
 また、パーソナルコンピュータの映像とテレビジョン映像とが2画面表示される場合、テレビジョン映像のAPLに応じて、2画面全体のバックライト光源の発光輝度制御を行うと、テレビジョン映像が表示される画面は適切に発光輝度が制御されるが、パーソナルコンピュータの映像が表示される画面は不適切な発光輝度となり、輝き感およびコントラスト感が不自然なものとなってしまう。
 そのため、特許文献1には、APLに応じてバックライト光源の発光輝度の調整を行うが、多画面表示を行う場合は、入力映像信号のAPLに応じた発光輝度の調整処理を停止する液晶表示装置が開示されている。
 また、特許文献2には、2画面表示を行う場合に、制御対象画面に対してはコントラスト調整および光源輝度調整を行い、制御対象外画面に対しては光源輝度調整効果をキャンセルするように映像信号の振幅を補正することにより、双方の画面に違和感なく、適切に視覚的なコントラスト感を改善する画像表示装置が開示されている。
特開2007-241250号公報 特開2002-55664号公報
 上述した特許文献1の従来技術では、1フレームにおけるAPLを算出し、そのAPLに応じてバックライト光源の発光輝度を調整しているが、さまざまな映像に対してAPLのみに基づいて一律に発光輝度の調整を行っても、常に高コントラストの高画質な映像が得られるとは限らないという問題がある。
 また、特許文献2の従来技術では、制御対象画面の光源輝度調整に依存して、制御対象外画面の映像信号の振幅が補正されるため、特許文献1の従来技術と同様に、制御対象外画面について常に高コントラストの高画質な映像が得られるとは限らないという問題がある。
 様々に変化する映像において表示輝度をエンハンスする場合、光源の輝度をストレッチして増大させるとともに、映像の輝度の分布から相対的に明るく輝いている部分(発光部分)を検出し、発光部分を除く非発光部分の映像信号の輝度を低下させることにより、発光部分の表示輝度を意識的にエンハンスすれば、人間の目にはコントラスト感が向上して輝き感が増して視認されるため、画面上で発光した部分をより際立たせて画質を向上させた高品位の表示映像を提供できるといった効果が得られるが、単にAPLを用いただけではこのような効果を得ることは難しい。
 本発明は、上述のような実状に鑑みてなされたものであり、光源の輝度をストレッチして増大させるとともに、映像信号から映像の発光している部分を検出し、発光部分を除く非発光部分の映像信号の輝度を低下させることにより、発光部分の表示輝度をエンハンスして際立たせて表示させることで、輝き感およびコントラスト感を高めた映像表現を可能としつつ、複数画面表示が行われる場合に、輝き感およびコントラスト感が不自然なものとなることを防止できるようにした映像表示装置およびテレビ受信装置を提供することを目的とする。
 上記課題を解決する為に、本発明の第1の技術手段は、入力映像信号を表示する表示部と、該表示部を照明する光源と、該表示部および該光源を制御する制御部とを備えた映像表示装置であって、前記入力映像信号に基づいて前記光源の輝度をストレッチして増大させるとともに、前記入力映像信号の明るさに関連する所定の特徴量に対して画素数を積算したヒストグラムを生成し、該ヒストグラムの所定範囲の上位領域を発光部分として検出し、前記入力映像信号のうち前記発光部分を除く非発光部分の映像信号の輝度を低下させることにより、前記入力映像信号の発光部分の表示輝度をエンハンスする発光部分エンハンス処理を制御する制御部と、前記入力映像信号として第1の入力映像信号とともに第2の入力映像信号を前記表示部に表示する指示があったか否かを検出する表示指示検出部とを備え、前記制御部は、前記表示指示検出部の検出結果に応じて、前記発光部分エンハンス処理の制御を切り替えることを特徴とする。
 本発明の第2の技術手段は、第1の技術手段において、前記制御部は、前記入力映像信号による画像を複数の領域に分割し、該分割した領域である分割領域の映像信号の階調値に基づいて、該分割領域に対応する前記光源の領域の点灯率を変化させ、前記光源の複数の領域について前記光源の領域の点灯率を平均した平均点灯率を求め、該平均点灯率に予め関係付けられた前記表示部の画面上で取り得る最大表示輝度に基づいて、前記光源の輝度をストレッチすることを特徴とする。
 本発明の第3の技術手段は、第1の技術手段において、前記制御部は、前記検出した発光部分の領域を含む所定範囲の映像について、画素ごとの明るさに重みを付けて画素数をカウントすることにより明るさの度合いを示すスコアを計算し、該スコアに応じて前記光源の輝度をストレッチすることを特徴とする。
 本発明の第4の技術手段は、第1~第3のいずれか1の技術手段において、前記制御部は、前記第1の入力映像信号とともに前記第2の入力映像信号を表示する指示があったことが検出された場合に、前記発光部分エンハンス処理を中止することを特徴とする。
 本発明の第5の技術手段は、第1~第3のいずれか1の技術手段において、前記制御部は、前記第1の入力映像信号とともに前記第2の入力映像信号を表示する指示があったことが検出された場合に、第1の制御特性の設定に基づいて前記第1の入力映像信号に対する前記発光部分エンハンス処理を実行するとともに、第2の制御特性の設定に基づいて前記第2の入力映像信号に対する前記発光部分エンハンス処理を実行することを特徴とする。
 本発明の第6の技術手段は、第5の技術手段において、前記第1の入力映像信号の第1の映像ジャンル、および、前記第2の入力映像信号の第2の映像ジャンルを検出するジャンル検出部をさらに備え、前記第1の制御特性の設定は前記第1の映像ジャンルに基づいて決定され、前記第2の制御特性の設定は前記第2の映像ジャンルに基づいて決定されることを特徴とする。
 本発明の第7の技術手段は、第1~第6のいずれか1の技術手段において、前記制御部は、前記ヒストグラムの平均値をA、標準偏差をσとするとき、
  thresh=A+Nσ(Nは定数)
以上の画素を発光部分とすることを特徴とする。
 本発明の第8の技術手段は、第1~第7のいずれか1の技術手段において、前記制御部は、前記非発光部分において、前記光源の輝度のストレッチによる前記表示部の表示輝度の増加分を、前記入力映像信号の輝度の低下により低減させることを特徴とする。
 本発明の第9の技術手段は、第1~第8のいずれか1の技術手段の映像表示装置を備えたテレビ受信装置である。
 本発明の映像表示装置によれば、入力映像信号に基づいて光源の輝度をストレッチして増大させるとともに、映像信号から映像の発光している部分を検出し、発光部分を除く非発光部分の映像信号の輝度を低下させることにより、発光部分の表示輝度をエンハンス(発光部分エンハンス処理)して際立たせて表示させる。これにより、輝き感およびコントラスト感を高めた映像表現を行うことが可能となる。さらに、第1の入力映像信号とともに第2の入力映像信号を表示部に表示する指示があったか否かを検出し、その検出結果に応じて、発光部分エンハンス処理の制御を切り替えるため、例えば、複数画面表示が行われる場合は、発光部分エンハンス処理を停止するなどして、輝き感およびコントラスト感が不自然なものとなることを防止することができる。
本発明に係る映像表示装置の一実施形態を説明するための図で、映像表示装置の要部の構成例を示すものである。 図1の映像表示装置のエリアアクティブ制御・輝度ストレッチ部における処理例を説明するための図である。 図1の映像表示装置により実行される2画面表示の例を示す図である。 図1の映像表示装置のエリアアクティブ制御・輝度ストレッチ部における平均点灯率の算出処理例を説明するための図である。 図4のバックライトの平均点灯率と画素の階調値を説明するための図である。 入力映像信号の輝度信号Yから生成したYヒストグラムの例を示す図である。 図1の映像表示装置のマッピング部が生成するトーンマッピングの例を示す図である。 図1の映像表示装置のエリアアクティブ制御・輝度ストレッチ部で出力するMax輝度について説明するための図である。 図1の映像表示装置のエリアアクティブ制御・輝度ストレッチ部の処理により、画面輝度がエンハンスされる状態を示す図である。 本発明に係る映像表示装置の他の実施形態を説明するための図で、映像表示装置の要部の他の構成例を示すものである。 入力映像信号の輝度信号から生成したヒストグラムの例を示すものである。 第3の閾値以上の画素に応じた輝度ストレッチの設定例を示す図である。 本発明に係る映像表示装置の他の実施形態を説明するための図で、映像表示装置の要部の他の構成例を示すものである。 本発明に係る映像表示装置の他の実施形態を説明するための図で、映像表示装置の要部の他の構成例を示すものである。 図14の映像表示装置のマッピング部が生成するトーンマッピングの例を示す図である。 図14の映像表示装置のエリアアクティブ制御・輝度ストレッチ部における処理例を説明するための図である。 本発明に係る映像表示装置の他の実施形態を説明するための図で、映像表示装置の要部の他の構成例を示すものである。 本発明に係る映像表示装置の他の実施形態を説明するための図で、映像表示装置の要部の他の構成例を示すものである。 映像表示装置で表示すべき放送映像信号からCMIを計算する手法を説明する図である。 RGBデータをもつ画素における最明色を説明する図である。
(実施形態1)
 図1は、本発明に係る映像表示装置の一実施形態を説明するための図で、映像表示装置の要部の構成例を示すものである。映像表示装置は、入力映像信号に画像処理を施して映像表示するもので、例えば、映像表示装置は、テレビ受信装置等を構成する。
 図1で例示する映像表示装置は、信号処理部1、エリアアクティブ制御・輝度ストレッチ部4、バックライト制御部5、バックライト部6、表示制御部7、表示部8、映像合成部9、チューナ10a、10b、デコーダ部11a、11b、リモコン信号処理部12、および画面設定部13を備える。
 ここで、信号処理部1は、発光検出部2、マッピング部3を備える。また、画面設定部13は、表示指示検出部13aを備える。なお、本発明の制御部は、バックライト部6と表示部8を制御するものであり、制御部の例としては、信号処理部1、エリアアクティブ制御・輝度ストレッチ部4、バックライト制御部5、および表示制御部7が挙げられる。
 チューナ10a、10bは、アンテナAにより受信された放送信号のうち、ユーザにより指定された放送信号を受信し、受信した放送信号をデコーダ部11a、11bに出力する。この映像表示装置は、1つの番組の映像信号のみを表示する1画面表示と、2つの番組の映像信号(第1の入力映像信号および第2の入力映像信号)を表示する2画面表示とを切り換えることができ、1画面表示の場合は、一方のチューナ10aのみが用いられ、2画面表示の場合は、2つのチューナ10a、10bが用いられる。
 また、この映像表示装置は、番組の映像信号(第1の入力映像信号)とともにデータ放送の映像信号(第2の入力映像信号)を表示するデータ放送表示を行うことができ、この場合も、一方のチューナ10aのみが用いられる。
 デコーダ部11a、11bは、チューナ10a、10bにより入力された放送信号をデコードし、放送信号から番組の映像信号やデータ放送の映像信号などを抽出し、抽出した映像信号を映像合成部9に出力する。
 リモコン信号処理部12は、図示しないリモコン受光部を備え、リモコンRから受信したリモコン信号を解析し、2つの番組の映像信号を表示する2画面表示を行うか否かを示す情報や、番組の映像信号とデータ放送の映像信号を表示する2画面表示を行うか否かを示す情報、ユーザにより指定された受信番組の情報などを取得する。そして、リモコン信号処理部12は、画面設定部13に対して、取得した情報を出力する。
 画面設定部13は、表示指示検出部13aを備える。表示指示検出部13aは、リモコン信号処理部12から2つの番組の映像信号を表示する2画面表示を行うことを示す情報を受信することにより、2つの番組の映像信号を表示する指示がユーザからあったことを検出する。
 そして、画面設定部13は、その指示があったことを検出した場合、チューナ10a、10bの両方を機能させるとともに、それぞれのデコーダ部11a、11bに対して映像合成部9に番組の映像信号を出力するように指示をする。さらに、画面設定部13は、信号処理部1、エリアアクティブ制御・輝度ストレッチ部4に対して、2画面表示が実行されることを示す信号を出力する。
 また、表示指示検出部13aは、リモコン信号処理部12から番組の映像信号とデータ放送の映像信号を表示する2画面表示を行うことを示す情報を受信することにより、番組の映像信号とデータ放送の映像信号を表示する指示がユーザからあったことを検出する。
 そして、画面設定部13は、その指示があったことを検出した場合、チューナ10aのみを機能させるとともに、デコーダ部11aに対して映像合成部9に番組の映像信号とデータ放送の映像信号とを出力するように指示をする。さらに、画面設定部13は、信号処理部1、エリアアクティブ制御・輝度ストレッチ部4に対して、2画面表示が実行されることを示す信号を出力する。
 2つの番組の映像信号を表示する指示、または、番組の映像信号とデータ放送の映像信号を表示する指示がない場合、画面設定部13は、チューナ10aのみを機能させるとともに、デコーダ部11aに対して映像合成部9に番組の映像信号を出力するように指示をする。さらに、画面設定部13は、信号処理部1、エリアアクティブ制御・輝度ストレッチ部4に対して、1つの番組の映像信号のみを表示する1画面表示が実行されることを示す信号を出力する。
 映像合成部9は、2つの番組の映像信号を表示する2画面表示が実行される場合、デコーダ部11a、11bにより出力された2つの番組の映像信号を合成し、合成の結果得られた映像信号をエリアアクティブ制御・輝度ストレッチ部4に出力する。
 また、映像合成部9は、番組の映像信号とデータ放送の映像信号を表示する2画面表示が実行される場合、デコーダ部11aにより出力された番組の映像信号とデータ放送の映像信号を合成し、合成の結果得られた映像信号をエリアアクティブ制御・輝度ストレッチ部4に出力する。
 また、映像合成部9は、1つの番組の映像信号を表示する1画面表示がなされる場合、デコーダ部11aにより出力された番組の映像信号を、他の映像信号と合成することなく、エリアアクティブ制御・輝度ストレッチ部4に出力する。
 一画面表示が実行される場合は、デコーダ部11aにより出力された番組の映像信号は、信号処理部1のマッピング部3で生成されたトーンマッピングの情報に基づいて、トーンマッピングが適用された後、エリアアクティブ制御・輝度ストレッチ部4に入力される。
 エリアアクティブ制御・輝度ストレッチ部4は、入力された映像信号に従って、映像信号による画像を所定領域に分割し、分割領域ごとに映像信号の最大階調値を抽出する。そしてその抽出した値に基づきバックライト部6の点灯率を計算する。点灯率は、映像の分割領域に対応したバックライト部6の領域ごとに定められるもので、ここで言う点灯率とは後述するように実際には変更されるため、仮の値であると言える。
 また、バックライト部6は、表示部8を照明するための光源の一例であり、複数のLEDにより構成され、領域ごとに輝度の制御が可能となっている。バックライト部6の領域ごとの点灯率は、予め定められた演算式に基づき決定されるが、基本的に高階調の明るい最大階調値を有する領域では、LEDの輝度は低下することなく維持され、低階調の暗い最大階調値を有する領域では、LEDの輝度を低下させるような演算が行われる。
 なお、最大階調値の代わりに平均階調値など、入力映像信号の明るさに関連する他の特徴量から点灯率を計算してもよく、平均階調値から点灯率を計算する場合には、高階調の明るい平均階調値を有する領域では、LEDの輝度は低下することなく維持され、低階調の暗い平均階調値を有する領域では、LEDの輝度を低下させるような演算などが行われるようにすればよい。
 そして、エリアアクティブ制御・輝度ストレッチ部4は、各領域の点灯率からバックライト部6の全体の平均点灯率を計算し、その平均点灯率に応じて、所定の演算式により、バックライト部6の最大発光輝度のストレッチ量(以下、輝度ストレッチ量)を計算する。バックライト部6の最大発光輝度(LEDの最大発光輝度)をこの輝度ストレッチ量だけストレッチすることで、画面内の全領域で取り得る最大の画面輝度を、基準輝度から所定量だけストレッチすることができる。このストレッチする元となる基準輝度は、例えば最大階調値のときに画面輝度が550(cd/m)となるような輝度である。この基準の輝度は、この例に限ることなく適宜定めることができる。
 以下、画面内の全領域で取り得る、最大階調値のときのストレッチ後の最大の画面輝度を、「Max輝度」と呼ぶ。上述のように輝度ストレッチ量は平均点灯率により決まる値であり、Max輝度は輝度ストレッチ量により決まる値であるため、図2のグラフで例示するように、Max輝度は平均点灯率に応じて決まる値と言える。なお、図2は、エリアアクティブ制御・輝度ストレッチ部4における処理例を説明するための図で、バックライト部6の平均点灯率(ウィンドウサイズ)に対するMax輝度(cd/m)の関係を示すグラフの一例を示している。
 なお、図2のグラフでは、平均点灯率が小さな範囲において、Max輝度が基準輝度(この例では550cd/m)より小さくなっており、このことは輝度ストレッチ量がマイナスとなっていることを示している。この例のように、平均点灯率によっては輝度ストレッチ量がマイナスとなる場面があったとしても、図2のMax輝度のグラフを全ての平均点灯率に亘って積分した積分値は、基準輝度を全ての平均点灯率に亘って積分した積分値より大きいことから、全体的に見れば最大発光輝度や最大画面輝度(つまり最大表示輝度)が「ストレッチ」により増強されていると言える。
 エリアアクティブ制御・輝度ストレッチ部4は、平均点灯率に応じて計算した輝度ストレッチ量だけ最大発光輝度がストレッチするように、上記した領域ごとの点灯率(仮の点灯率)を変更する。このような、分割領域ごとの点灯率の計算および平均点灯率に応じた点灯率の変更(ストレッチ後の点灯率の計算)を含む一連の分割領域ごとの点灯率の制御をエリアアクティブ制御と呼ぶ。
 このように、入力映像信号による画像を複数の領域に分割し、その分割領域の映像信号の階調値に基づいて、その分割領域に対応する光源の領域の点灯率を変化させ、光源の全ての領域について光源の領域の点灯率を平均した平均点灯率を求め、その平均点灯率に予め関係付けられた表示部8の画面上で取り得る最大表示輝度(Max輝度)に基づいて、光源の輝度をストレッチすることが好ましい。そのため、エリアアクティブ制御・輝度ストレッチ部4は、平均点灯率に応じて決まるMax輝度を、フィードバックのために信号処理部1のマッピング部3に出力する。
 信号処理部1の発光検出部2では、1画面表示が行われる場合に、映像合成部9により出力された番組の映像信号の明るさに関係する所定の特徴量に基づき、フレームごとに画素値を積算したヒストグラムを生成し、そのヒストグラムを用いて発光している部分を検出する。発光している部分は、ヒストグラムの平均値と標準偏差とにより求められるもので、ヒストグラムごとの相対的な値として検出される。すなわち、発光検出部2は、映像信号の明るさに関連する所定の特徴量に対して、画素数を積算したヒストグラムを生成し、そのヒストグラムの所定範囲の上位領域を発光部分として検出する。この処理については、後に詳しく説明する。
 映像信号のN+1番目のフレームfN+1について説明すると、マッピング部3は、発光検出部2でフレームfN+1について検出された発光部分の情報と、エリアアクティブ制御・輝度ストレッチ部4から出力されたN番目のフレームfのMax輝度とを使用して、フレームfN+1用のトーンマッピングの情報を生成し、その情報を映像信号のフレームfN+1に適用するために乗算器に出力する。
 このトーンマッピングの情報は、フレームfN+1における発光していないとみなす部分(非発光部分)に対して、バックライト部6の輝度ストレッチ分に相当する輝度を低下させるように生成される。この乗算器は、トーンマッピングを映像信号に適用するためのものであり、フレームfN+1の映像信号の各画素値に対し、フレームfN+1用のトーンマッピングが示すゲイン係数を乗算し、その結果得られた映像信号をエリアアクティブ制御・輝度ストレッチ部4に出力する。
 また、エリアアクティブ制御・輝度ストレッチ部4は、バックライト部6を制御するための制御データをバックライト制御部5に出力し、バックライト制御部5は、そのデータに基づいてバックライト部6のLEDの発光輝度を分割領域ごとに制御する。この制御データは、上記した領域ごとのストレッチ後の点灯率になるように、バックライト部6を制御するデータである。
 映像信号のフレームfN+1を表示させる際のバックライト部6への制御データは、フレームfのMax輝度をフィードバックして得たトーンマッピングを適用したフレームfN+1の映像信号について、バックライト部6の領域ごとの点灯率を上記予め定められた演算式に基づき計算した後、ストレッチにより変更することで、得ることができる。バックライト部6のLEDの輝度は、PWM(Pulse Width Modulation)制御で行われるが、電流制御もしくはこれらの組み合わせによって所望の値となるように制御することもできる。
 さらに、エリアアクティブ制御・輝度ストレッチ部4は、表示部8を制御するための表示制御データを表示制御部7に出力し、表示制御部7は、その表示制御データに基づいて表示部8の表示を制御する。映像信号のフレームfN+1を表示させる際の表示制御データは、フレームfのMax輝度をフィードバックして得たトーンマッピングをフレームfN+1に適用した後の映像信号について、その映像信号が示す映像を表示するように、表示部8を制御するデータである。表示部8は、バックライト部6のLEDにより照明されて画像を表示する液晶パネルが用いられる。
 このように、エリアアクティブ制御・輝度ストレッチ部4では、平均点灯率に応じてバックライト輝度をストレッチしてバックライト部6のLEDの輝度を増大させ、この輝度ストレッチの情報(上記のMax輝度)を信号処理部1に戻して、映像信号に対してバックライト部6の輝度ストレッチ分に相当する輝度を低下させる。輝度ストレッチはバックライト部6の全体に対して行われ、映像信号処理による輝度低下は、発光部分を除く発光していないとみなす部分(非発光部分)に生じる。
 つまり、エリアアクティブ制御・輝度ストレッチ部4では、バックライト輝度をストレッチしてバックライト部6のLEDの輝度を増大させ、映像信号のうち非発光部分の輝度を低下させる、といった処理により発光部分の表示輝度をエンハンスする(以下、発光部分エンハンス処理)。このような映像信号処理とバックライトの輝度制御処理とによって、発光している部分のみの画面輝度を増大させ、高いコントラストで映像表現を行うことができ、画質を向上させることができる。
 映像信号のうち非発光部分の輝度を低下させる処理では、非発光部分に対してバックライト部6の輝度ストレッチ分に相当する輝度を低下させることが、非発光部分の画面輝度をある程度保つ上で好ましい。すなわち、エリアアクティブ制御・輝度ストレッチ部4は、非発光部分(つまり、所定の特徴量が低い所定領域)において、光源の輝度のストレッチによる表示部8の表示輝度の増加分を、映像信号の輝度の低下により低減させることが好ましい。
 本発明の主たる目的は、入力映像信号に対して発光部分エンハンス処理を行い、輝き感およびコントラスト感を高めつつ、複数画面表示が行われる場合に、輝き感およびコントラスト感が不自然なものとなることを防止できるようにすることにある。このための構成として、映像表示装置は、表示指示検出部13aと、本発明の制御部の一例である信号処理部1、エリアアクティブ制御・輝度ストレッチ部4、バックライト制御部5、および表示制御部7とを備える。
 上述したように、表示指示検出部13aは、2つの番組の映像信号を表示する2画面表示の実行指示がユーザからあったか否か、または、番組の映像信号とデータ放送の映像信号とを表示する2画面表示の実行指示がユーザからあったか否かを検出する。そして、信号処理部1およびエリアアクティブ制御・輝度ストレッチ部4は、2画面表示の実行指示があったことが検出されない場合に発光部分エンハンス処理を実行し、その実行指示があったことが検出された場合に発光部分エンハンス処理を停止する。
 なお、発光部分エンハンス処理とは、上述したように、光源の輝度をストレッチして増大させるとともに、入力映像信号の明るさに関連する所定の特徴量に対して、画素数を積算したヒストグラムを生成し、ヒストグラムの所定範囲の上位領域を発光部分として検出し、入力映像信号のうち発光部分を除く非発光部分の映像信号の輝度を低下させることにより、発光部分の表示輝度をエンハンスするものである。
 図3は、映像表示装置により実行される2画面表示の例を示す図である。図3(A)には、2つの番組の映像20a、20bが示されている。映像20aは暗い映像であり、映像20bは明るい映像である。仮にこのような2画面表示に対して、上述したような発光部分エンハンス処理を実行したとすると、暗い映像20aの点灯率と明るい映像20bの点灯率とが平均化された平均点灯率を用いて発光部分エンハンス処理が実行されるので、それぞれの映像20a、20bに適した発光輝度が設定されなくなる場合がある。そこで、信号処理部1およびエリアアクティブ制御・輝度ストレッチ部4は、表示指示検出部13aにより2つの番組の映像信号を表示する指示がユーザからあったことが検出された場合に、発光部分エンハンス処理を停止する。
 また、図3(B)には、番組の映像21aとデータ放送の映像21bとが示されている。このような2画面表示がなされた場合、ユーザは文字を注視することになる。そのため、上述したような発光部分エンハンス処理を実行した結果、データ放送の映像21bの部分が過度に明るくなると、画質が劣化し、ユーザが眩しさを感じる。これを防止するため、信号処理部1およびエリアアクティブ制御・輝度ストレッチ部4は、表示指示検出部13aにより番組の映像信号とデータ放送の映像信号を表示する指示がユーザからあったことが検出された場合に、発光部分エンハンス処理を停止する。
 発光部分エンハンス処理を停止する場合、信号処理部1は、発光検出部2での処理を停止させ、マッピング部3は、例えば、デフォルト設定のトーンマッピング(一例として入出力が1対1に対応したトーンカーブなど)を乗算器に出力する。また、エリアアクティブ制御・輝度ストレッチ部4は、エリアアクティブ制御、輝度ストレッチに係る処理を停止し、入力映像信号に対して、バックライト部6を制御するための制御データをバックライト制御部5に出力すると共に、表示部8を制御するための表示制御データを表示制御部7に出力する。これらの制御データおよび表示制御データとしては、例えば、デフォルト設定のデータを用いることができる。
 なお、上記のエリアアクティブ制御は、映像を所定の複数の領域(エリア)に分割し、分割領域ごとにLEDの発光輝度を制御するものであるが、発光部分エンハンス処理を停止させた場合でも、このエリアアクティブ制御については実行してもよい。例えば、後述の図4(C)に示すように、分割領域毎に映像信号の最大階調値を抽出し、抽出した最大階調値に応じて領域毎のLEDの点灯率(駆動duty)を決定する。この場合、輝度ストレッチは行わないため、平均点灯率から求めたMax輝度に応じてバックライト輝度をストレッチする処理は停止される。そして、これに伴い、輝度ストレッチの情報(Max輝度)をエリアアクティブ制御・輝度ストレッチ部4から信号処理部1にフィードバックする処理も停止される。
 以下に上記の構成を有する本実施形態の各部の処理例をより具体的に説明する。
 図4は、エリアアクティブ制御・輝度ストレッチ部4における平均点灯率の算出処理例を説明するための図であり、図5は、図4のバックライトの平均点灯率と画素の階調値を説明するための図である。
 本発明の実施形態に適用されるエリアアクティブ制御は、映像を所定の複数の領域(エリア)に分割し、その分割した領域に対応するLEDの発光輝度を領域ごとに制御するものである。ここでは、エリアアクティブ制御・輝度ストレッチ部4が、入力映像信号に基づいて、1フレームの映像を予め定められた複数の領域(上記のエリア)に分割し、その分割した領域に対応するLEDの発光輝度をその分割領域ごとに制御する。
 まず、エリアアクティブ制御・輝度ストレッチ部4は、図4(A)に例示するような映像について、図4(B)に示すように全画面の映像領域を縦方向に12分割、横方向に12分割してなる144個の領域に分割する。また、バックライト部6として各領域につき少なくとも1つのLEDが配設されているものとする。
 そして、エリアアクティブ制御・輝度ストレッチ部4は、各領域について、映像信号の最大階調値を抽出し、抽出した最大階調値に応じて領域ごとのLEDの仮の点灯率を決定する。上述したように、最大階調値の代わりに、映像信号の階調平均値などの他の明るさに関する特徴量を用いてもよい。この特徴量としては統計値が用いられる。以下、最大階調値を抽出した例により説明する。図4(B)では、各領域について、LEDの点灯率をグレイスケールで図示しており、例えば図4(A)の映像のうち花火があるような階調が高く明るい部分では、図4(B)に示すように、点灯率を上げて明るくなるようにしている。このときの処理を更に具体的に説明する。
 1フレームの各分割領域から最大階調値を抽出したときの様子およびその最大階調値に対応した点灯率の一例を図4(C)に示す。また、図4(D)に各領域の点灯率と画面全体の平均点灯率とを示す。図4(C),(D)では、説明を簡単にするため、1フレームの画面を8つの領域(エリアNo.1~8)に分割した例を挙げるが、図4(B)のようにより多くの領域に分割して処理することもでき、最大では設けたLEDの数と同じ数の領域に分割して処理できる。
 まず、エリアNo.1~8の領域のそれぞれについて、領域内の最大階調値からその領域のバックライトの仮のLEDの点灯率を計算する。仮の点灯率は、例えばLEDの駆動duty(以下、LED duty)によって示すことができる。この場合、点灯率の最大値は100%である。なお、上述したように、LEDの輝度はPWMおよび/または電流制御によって所望の値となるように制御されるが、以下の説明では、説明の簡略化のためにPWM制御のみを採用した例を挙げている。後述のストレッチ処理によりPWM制御におけるデューティが100%を超える場合は、電流制御を兼用することができる。
 各領域のLEDの仮の点灯率の決定においては、最大階調値が低く暗い領域については、点灯率を下げてバックライトの輝度を低下させる。各領域の実際の点灯率は、表示したい階調を正確に表示し、かつLED dutyをできるだけ低くするように決定する。各領域においてLED dutyをできるだけ低くしたいが、表示したい階調をつぶしたりせずに正確に表示する必要があるため、領域内の最大階調が表示でき、なおかつできるだけLED dutyを低くするようなLED duty(仮の点灯率)を設定し、それをもとに表示部8(ここではLCDパネル)の階調を設定する。
 一例として、映像の階調値が0-255の8ビットデータで表現される場合で、かつ、図4(C)のうちの1つのエリア内の複数の画素の階調値が図5(A)で示される場合について説明する。図5(A)で示す画素群では、最大階調値が128であり、この場合には、図5(B)で示すように、そのエリアでのバックライトの点灯率を(1/(255/128))2.2=0.217倍(21.7%)に低下させる。そして、エリアアクティブ制御・輝度ストレッチ部4は、このように仮の点灯率を決めるとともに、表示部8における画素ごとの階調値を、その画素が含まれる領域についての仮の点灯率を考慮して計算すればよい。例えば、表示したい階調値が96の場合、96/(128/255)=192であるため、階調値192を用いて画素を表現すればよい。同様にして、図5(A)の各画素に対して表示させる際の階調値を計算した結果を、図5(C)に示す。
 なお、本発明では、仮の点灯率から求めた平均点灯率に基づき輝度ストレッチを行うため、実際の点灯率は上述の場合に21.7%のままではないが、その輝度ストレッチ分(正しくは前フレームでの輝度ストレッチ分)をマッピング部3によるトーンマッピングで既に反映させ、その結果が上記表示したい階調値(「96」で例示)である。よって、表示制御部7は、図5(A)で示す画素群については、図5(C)で示す階調値の表示制御データで、表示部8を表示制御すればよい。
 図4(C)の例では、グレイスケールで示した各領域の最大階調値に対して、パーセンテージで示したようにバックライトの点灯率が10~90%の範囲で決定されている。なお、図4(C)のパーセンテージをエリア別に並べたグラフが図4(D)である。この点灯率計算方法はその一例を示すものであるが、基本的には明るい高階調の領域はバックライト輝度を下げることなく、低階調の暗い領域についてバックライトの輝度を低下させるように予め定めた演算式に従って各領域の仮の点灯率を計算する。
 つぎに、エリアアクティブ制御・輝度ストレッチ部4は、映像信号の最大階調値から計算した領域ごとのバックライトの仮の点灯率を平均して、1フレームにおけるバックライト部6の平均点灯率を計算する。計算された画面全体の平均点灯率は、各領域において点灯率が高い領域が多くなれば当然高くなる。この例では、平均点灯率は、図4(D)に実線で示したようなレベルとなり、実際の値は約53%となる。
 実際のバックライト部6の輝度は、平均点灯率に応じて決まる、出し得る最大発光輝度の値(上記したMax輝度に対応する最大発光輝度)に基づいて、つまり上記の輝度ストレッチ量に基づいて、各領域の仮の点灯率をストレッチすることで増強される。
 このMax輝度は、取り得る画面輝度の最大値であり、例えば図2のような関係に基づき決定される。図2のグラフにおける横軸は、バックライトの平均点灯率(ウィンドウサイズ)であるが、この平均点灯率は、点灯率100%の点灯領域(ウィンドウ領域)と点灯率0%の消灯領域との比として表すことができる。点灯領域がない状態では平均点灯率はゼロであり、点灯領域のウィンドウが大きくなるに従って平均点灯率は増大し、全点灯では平均点灯率は100%になる。
 図2では、バックライトが全点灯(平均点灯率100%)のときのMax輝度を例えば、550(cd/m)とし、これをストレッチ前の基準輝度とする。そして本実施形態では、平均点灯率が100%から下がっていくに従って、Max輝度を増大させる。なお、8ビット表現の場合、階調値が255階調の画素が画面内で最も画面輝度が高くなり、取り得る最大の画面輝度(Max輝度)になる。このことから、同じ平均点灯率であっても、画素の階調値によってはMax輝度まで画面輝度が上がらないことがわかる。
 図2では、平均点灯率がPのときに、Max輝度の値は最も大きくなり、このときの最大の画面輝度は1500(cd/m)となる。つまりPのときには、取り得る最大の画面輝度は、全点灯時の550(cd/m)に比較して1500(cd/m)までストレッチされることになる。Pは、比較的平均点灯率が低い位置に設定されている。つまり全体に暗い画面で平均点灯率が低く、かつ一部に高階調のピークがあるような画面のときに、最高で1500(cd/m)になるまでバックライトの輝度がストレッチされる。 
 また、高い平均点灯率のときほど、バックライトの輝度のストレッチの程度が小さい理由は、もともと明るい画面ではバックライトの輝度を過度に行うと却って眩しく感じることがあるため、ストレッチの程度を抑えるようにするためである。
 また、平均点灯率が低い範囲は、暗い画面の映像に相当するものであり、バックライトの輝度をストレッチして画面輝度を上げるよりも、逆にバックライトの輝度を抑えてコントラストを向上させ、黒浮きを抑えて表示品位を保つことが好ましい。よって、図2の例では、このような低平均点灯率における黒浮き抑制のための設定を採用し、平均点灯率Pから平均点灯率0(全黒)まではMax輝度の値を徐々に低下させている。
 エリアアクティブ制御・輝度ストレッチ部4は、図2の曲線に従って、バックライトの輝度をストレッチし、その制御信号をバックライト制御部5に出力する。ここでは上記のように映像の分割領域ごとに検出される最大階調値に応じて平均点灯率が変化し、その平均点灯率に応じて輝度ストレッチの状態が変化する。
 エリアアクティブ制御・輝度ストレッチ部4に入力される映像信号は、以下に説明する信号処理部1による信号処理により生成されたトーンマッピングの情報を用いてトーンマッピングが適用され、低階調領域がゲインダウンされる。これにより、低階調の非発光領域ではバックライトの輝度がストレッチされた分、映像信号のゲインダウンによって輝度が低減され、結果として発光している領域のみで画面輝度がエンハンスされ、輝き感が増すようになっている。
 エリアアクティブ制御・輝度ストレッチ部4は、図2の曲線に従ってバックライトの平均点灯率から求めたMax輝度の値を、信号処理部1のマッピング部3に出力する。そして、エリアアクティブ制御・輝度ストレッチ部4から出力されたMax輝度を使用して、マッピング部3はトーンマッピングを行う。
 つぎに、信号処理部1について説明する。
 信号処理部1の発光検出部2では、発光している部分を映像信号から検出する。図6は、入力映像信号の輝度信号Yから生成したYヒストグラムの例を示す図である。発光検出部2では、入力した映像信号のフレームごとに、輝度階調ごとの画素数を積算してYヒストグラムを生成する。横軸は輝度Yの階調値で、縦軸は階調値ごとに積算した画素数(頻度)を示している。ここでは、輝度Yについて発光部分を検出するものとする。輝度Yは、発光部分を検出するためのヒストグラムを作成する映像の特徴量の一例であり、特徴量の他の例については後述する。
 Yヒストグラムが生成されると、そのYヒストグラムから平均値(Ave)、標準偏差(σ)を計算し、これらを用いて2つの閾値Thを計算する。
 第2の閾値Th2は、発光境界を定めるものであり、Yヒストグラムにおいてこの閾値Th2以上の画素は、発光している部分であるものとみなして処理を行う。第2の閾値Th2は、Nを所定の定数、σを標準偏差として、下式(1)で表すことができる。つまり、発光検出部2では、下式(1)のTh2以上の画素を発光部分として検出する。
   Th2 = Ave+Nσ     ・・・式(1)
 また、第1の閾値Th1は、Th2より小さい領域の階調性などの違和感を抑えるために設定されるもので、MをM<Nを満たす所定の定数として、下式(2)で表すことができる。
   Th1 = Ave+Mσ     ・・・式(2)
 発光検出部2が検出した第1および第2の閾値Th1,Th2の値は、マッピング部3に出力され、トーンマッピングの生成に使用される。
 図7は、マッピング部3が生成するトーンマッピングの一例を示す図である。図7において、横軸は映像の輝度値の入力階調で、縦軸は出力階調である。発光検出部2で検出された第2の閾値Th2以上の画素については、映像の中で発光している部分であり、発光している部分を除いて圧縮ゲインを適用してゲインダウンする。このときに、発光境界であるTh2より小さい領域に一律に一定の圧縮ゲインを適用して出力階調を抑えると、階調性に違和感が生じる。従って、発光検出部2にて第1の閾値Th1を設定して検出し、Th1より小さい領域に対して第1のゲインG1を設定し、Th1とTh2の間を線形で結ぶように第2のゲインG2を設定してトーンマッピングを行う。
 つぎに、ゲインの設定方法について説明する。
 マッピング部3には、エリアアクティブ制御・輝度ストレッチ部4からMax輝度の値が入力される。Max輝度は、上述したように、バックライトの平均点灯率から定められる最大画面輝度を示すもので、Max輝度の値として、例えばそれに対応する、最大発光輝度を示すバックライトデューティ(LED duty)の値を用いることができる。
 第1のゲインG1は、第1の閾値Th1より小さい領域に適用されるもので、下式(3)により設定される。
   G1=(Ls/Lm)1/γ     ・・・式(3)
 ここで、Lsは、基準輝度(バックライト輝度をストレッチしないときの基準輝度;一例として最大の画面輝度が550cd/mとなるときの輝度)であり、Lmは、エリアアクティブ制御・輝度ストレッチ部4から出力されたMax輝度である。従って、第1の閾値Th1より小さい領域に適用される第1のゲインG1は、バックライトの輝度ストレッチにより増加する画面輝度分を低減させるように、映像信号の出力階調を低下させる。
 第2の閾値Th2以上のトーンマッピングは、f(x)=xとする。つまり、入力階調=出力階調とし、出力階調を低下させる処理は行わない。第1の閾値Th1~第2の閾値Th2までの間は、第1のゲインG1によって低下させた第1の閾値Th1の出力階調と、第1の閾値Th1の出力階調とを直線で結ぶように設定する。つまり、G2=(Th2-G1・Th1)/(Th2-Th1)によって第2のゲインG2を決定する。
 上記の処理により、図7に示すようなトーンマッピングを得る。このときに、Th1、Th2の接続部分については、所定の範囲(例えば接続部分±Δ(Δは所定値))を2次関数でスムージングするとよい。
 マッピング部3が生成したトーンマッピングは、映像合成部9により出力された映像信号に適用され、バックライトの輝度ストレッチ量に基づき低階調部分の出力が抑えられた映像信号が、エリアアクティブ制御・輝度ストレッチ部4に入力される。
 図8は、エリアアクティブ制御・輝度ストレッチ部4で出力するフレームf,fN+1のMax輝度について説明するための図である。なお、図8で示すグラフは、図2で示したグラフと同じである。
 エリアアクティブ制御・輝度ストレッチ部4は、上述したように、マッピング部3で生成したトーンマッピングを適用した映像信号を入力し、その映像信号に基づいてエリアアクティブ制御を行い、平均点灯率に基づくMax輝度の決定も行う。このときのフレームをフレームfとする。フレームfのMax輝度の値は、マッピング部3に出力される。マッピング部3では、入力したフレームfのMax輝度を使用して図7に示すようなトーンマッピングの情報を生成し、フレームfN+1の映像信号に適用する。
 こうして、本実施形態では、エリアアクティブ制御の平均点灯率に基づくMax輝度をフィードバックして、次のフレームのトーンマッピングに使用する。マッピング部3は、フレームfで決定されたMax輝度に基づいて、図7で説明したように、第1の閾値Th1より小さい領域について映像出力を低下させるゲイン(第1のゲインG1)を適用する。Th1とTh2の間の領域についてTh1とTh2の間を線形で結ぶ第2のゲインG2を適用してTh1とTh2の間の映像出力を低下させる。
 図8の例では、平均点灯率がP以上の高点灯率の領域において、フレームfで非発光部分の映像出力を低下させるゲインが適用されているため、フレームfN+1では、領域ごとの最大階調値が低下して点灯率が下がる傾向となり、フレームfN+1では、Max輝度が上がる傾向となる。これにより、フレームfN+1ではさらにバックライトの輝度ストレッチ量が大きくなって、画面の輝き感が増す傾向となる。ただし、この傾向はPより低点灯率の領域では見られず、逆の傾向となる。
 図9は、エリアアクティブ制御・輝度ストレッチ部4の処理により、画面輝度がエンハンスされる状態を示す図である。図9において、横軸は入力映像信号の階調値で、縦軸は表示部8の画面輝度(cd/m)であり、S2,S3は、それぞれ発光検出部2で使用した第1および第2閾値Th1,Th2の階調値の位置に相当する。
 上記のように発光検出部2で検出した第2の閾値Th2以上の領域では、バックライトの輝度ストレッチ量に応じて映像信号の出力階調を低下させる信号処理が行われていない。この結果、S3~S4では、入力映像信号は、エリアアクティブ制御により決定されたMax輝度に従うγカーブでエンハンスされて表示される。S4は入力映像信号が最高階調値(255)であるときの画面輝度を示しており、例えばMax輝度が1500(cd/m)である場合、最高階調での画面輝度は1500(cd/m)となる。
 一方、S1~S2までの入力階調値の場合には、上記のように、バックライトの輝度ストレッチにより増加する画面輝度分を低減させるように第1のゲインG1が映像信号に適用されているため、基準輝度に基づくγカーブで画面表示される。エリアアクティブ制御・輝度ストレッチ部4で決定されたMax輝度に従って、マッピング部3で輝度ストレッチ分に対応して、閾値Th1(S2に相当)より小さい範囲で映像信号の出力値を抑えたからである。S2~S3は、Th1~Th2のトーンマッピングに応じて画面輝度が遷移する。
 Max輝度が大きくなると、S1~S2の基準輝度に基づく曲線と、S3~S4のMax輝度に基づく曲線との画面輝度方向の差が大きくなる。基準輝度に基づく曲線は、前述のように、最大階調値の画面輝度が、バックライト輝度をストレッチしないときの基準輝度(一例として最大階調値の画面輝度が550cd/m)となるγカーブであり、Max輝度に基づく曲線は、最大階調値の画面輝度が、エリアアクティブ制御・輝度ストレッチ部4で決定されたMax輝度となるγカーブである。
 こうして、入力映像信号が0階調(S1)からS2までの間では、基準輝度で画面輝度を制御する。階調が低く暗い映像の場合には、輝度を上げて表示させるとコントラストの低下や黒浮き等の品位低下が生じるため、バックライトの輝度ストレッチ分だけ映像信号処理により輝度を抑えて画面輝度が上がらないようにする。
 また、入力映像信号がS3以上の範囲は、発光しているとみなしている範囲であるので、輝度ストレッチによりバックライトをストレッチした状態で、映像信号を抑えることなく維持する。これにより、画面輝度がエンハンスされ、より輝き感のある高品位の画像表示を行うことができる。なお、S1~S2までのγカーブは、基準輝度に一致させる必要はなく、発光部分のエンハンス領域との差を持たせるレベルのものであれば、ゲインG1を適宜調整して設定することができる。
 (実施形態2)
 図10は、本発明に係る映像表示装置の他の実施形態(実施形態2)を説明するための図で、映像表示装置の要部の他の構成例を示すものである。
 実施形態2の映像表示装置は、実施形態1の映像表示装置と同様の構成を有しているが、実施形態1の映像表示装置と異なり、トーンマッピングを行う際に用いるMax輝度の値をエリアアクティブ制御・輝度ストレッチ部4で決定することなく、発光検出部2が発光部分の検出結果に基づき輝度ストレッチ量を決定し、マッピング部3がその決定された輝度ストレッチ量に基づいてトーンマッピングを実行する。従って、マッピング部3では、実施形態1のように、輝度ストレッチによるMax輝度値をエリアアクティブ制御・輝度ストレッチ部4から取得する必要はない。無論、発光検出部2が発光部分の検出のみを行い、マッピング部3が、発光部分の検出結果から輝度ストレッチ量を計算するように構成してもよい。
 図11は、映像信号の輝度信号Yから生成したYヒストグラムの例を示すものである。この映像信号は、映像合成部9により出力されたものである。なお、2画面表示の場合、実施形態1と同様に、信号処理部1は、発光検出部2での処理を停止させるので、1画面表示における映像信号にのみ以下に説明する処理が実行される。
 実施形態1と同様に、発光検出部2では、入力した映像信号のフレームごとに、画素の輝度階調ごとの画素数を積算してYヒストグラムを生成する。そしてそのYヒストグラムから平均値(Ave)、標準偏差(σ)を計算し、これらを用いて2つの閾値Th1,Th2を計算する。実施形態1と同様に、第2の閾値Th2は、発光境界を定めるものであり、Yヒストグラムにおいてこの閾値Th2以上の画素は、発光している部分であるものとみなすものである。
 本実施形態では、さらに第3の閾値Th3を設定する。第3の閾値Th3は、Th1とTh2の間にあり、発光部分の画素の状態を検出するために設けられる。閾値Th3は、Th2と同じ値でもよいが、Th2以上の発光部分にマージンを持たせて広めにとり、処理を行いやすくするために設けられている。従って、Th3は下式(4)のようになる。
   Th3 = Ave+Qσ(M<Q≦N)     ・・・式(4)
 図12は、第3の閾値Th3以上の画素に応じた輝度ストレッチの設定例を示す図である。横軸は閾値Th3以上の画素値のスコア、縦軸はスコアに応じた輝度ストレッチ量を示している。
 スコアは、[輝度がある閾値より大きい画素の割合]×[閾値からの距離(輝度の差)]と定義し、第3の閾値Th3より大きい階調値を持つ画素の画素数をカウントし、閾値Th3からの距離に重み付けをして算出することにより得られた明るさの度合いを示すもので、例えば、下式(5)により計算される。
Figure JPOXMLDOC01-appb-M000001
 式(5)において、count[i]は、階調値iごとに画素数をカウントした値である。また、i-(Th3)は、図11で示したような輝度についての距離(輝度の差)を指し、代わりに、明度Lにおける閾値からの距離を採用してもよい。なお、この2乗は輝度を表すものであり、実際には2.2乗となる。つまり、デジタルのコード値がiの場合、輝度はi2.2となる。そのとき、明度Lは(i2.21/3≒iとなる。実際の映像表示装置で検証した結果、輝度での閾値からの差が明度での閾値からの差などより効果的であった。また、式(5)において、全画素数とはi>Th3に限らず全ての画素数をカウントした値を指す。スコアとしてこのような計算値を採用すると、発光部分のうちTh3から離れた高階調の画素が多い場合にはスコアが高くなる。また、Th3より大きな画素数が一定であっても、階調が高い画素が多い方がスコアは高くなる。
 そして、スコアが一定以上に高いレベルでは、輝度ストレッチ量を高く設定し、高階調の輝いている映像をより高輝度にストレッチして輝き感を増す。この例では、スコアが一定以上の高い部分では、輝度ストレッチ後に取りうる最大の画面輝度が1500(cd/m)となるように設定する。また、スコアが低い場合には、スコアが小さくなるほど輝度ストレッチ量が小さくなるように設定する。
 輝度ストレッチ量は、実施形態1で説明したものであって、Max輝度と同様に例えばバックライトデューティの値によって示されるものである。発光検出部2が検出した第1および第2の閾値Th1,Th2の値、およびTh3以上の画素のスコアに従って決定される輝度ストレッチ量は、マッピング部3に出力され、トーンマッピングの情報の生成に使用される。
 マッピング部3におけるトーマッピングの処理は、実施形態1と同様である。つまり図6に示すように、発光検出部2にて検出したTh1より小さい領域に対して第1のゲインG1を設定し、Th1とTh2の間を線形で結ぶように第2のゲインG2を設定する。このとき、マッピング部3は、ゲインG1の設定に際して、発光検出部2で検出した輝度ストレッチ量を使用し、バックライトの輝度ストレッチ量に応じて映像信号処理により輝度を低下させる。
 得られたトーンマッピングは、映像合成部9により出力された映像信号に適用され、その後その映像信号は、エリアアクティブ制御・輝度ストレッチ部4に出力される。
 エリアアクティブ制御・輝度ストレッチ部4における処理は、実施形態1と同様である。ただし、エリアアクティブ制御・輝度ストレッチ部4は、実施形態1のようにバックライトの平均点灯率からMax輝度を決定し、信号処理部1に出力する必要はなく、逆に信号処理部1の発光検出部2で検出された輝度ストレッチ量に基づいてバックライト部6のLEDの輝度をストレッチする。
 つまり、エリアアクティブ制御・輝度ストレッチ部4では、映像を所定の複数の領域(エリア)に分割し、その分割領域ごとに映像信号の最大階調値を抽出し、抽出した最大階調値に応じて領域ごとのLEDの点灯率を決定する。例えば最大階調値が低く暗い領域については、点灯率を下げてバックライトの輝度を低下させる。そして、この状態で輝度ストレッチ量に応じてバックライト全体の投入電力を増大させて、バックライトの輝度全体をUPする。これにより、発光している明るい映像はより明るくなって輝き感が増す。また、非発光部分は、映像信号処理により輝度ストレッチに相当する輝度が低減されているため、結果として、画面上では発光部分のみの輝度が高くなって、高コントラストの品位の高い映像を表示することができる。入力映像信号と画面輝度との関係は、実施形態1に示す図9と同様になる。
 このように、発光検出部2では、検出した発光部分の領域を含む所定範囲(上述の例ではTh3以上の範囲)の映像について、画素ごとの明るさに重みを付けて画素数をカウントすることにより明るさの度合いを示すスコアを計算し、そのスコアに応じて輝度ストレッチ量を決め、エリアアクティブ制御・輝度ストレッチ部4でその輝度ストレッチ量でストレッチされるようにする。そのため、輝度ストレッチ量はエリアアクティブ制御・輝度ストレッチ部4とマッピング部3に出力される。エリアアクティブ制御・輝度ストレッチ部4は、輝度ストレッチ量に応じて輝度をストレッチする。マッピング部3は、輝度ストレッチ量に応じてゲインカーブを変えるなどして、ストレッチした輝度を映像信号処理により低下させる。
 そして、信号処理部1およびエリアアクティブ制御・輝度ストレッチ部4は、発光部分エンハンス処理を、表示指示検出部13aの検出結果に応じて、実行または停止する。例えば、信号処理部1およびエリアアクティブ制御・輝度ストレッチ部4は、2画面表示を行うことが表示指示検出部13aにより検出された場合に、発光部分エンハンス処理を停止し、1画面表示を行うことが表示指示検出部13aにより検出された場合に、発光部分エンハンス処理を実行する。本発明に係る表示指示検出部13aの構成は実施形態1と同様であるため、詳しい説明を省略する。
 発光部分エンハンス処理を停止する場合、信号処理部1は発光検出部2での処理を停止させるため、輝度ストレッチ量(N)は算出されず、マッピング部3およびエリアアクティブ制御・輝度ストレッチ部4に輝度ストレッチ量(N)が出力されることはない。
 この場合、マッピング部3は、例えば、デフォルト設定のトーンマッピング(一例として入出力が1対1に対応したトーンカーブなど)を乗算器に出力する。また、エリアアクティブ制御・輝度ストレッチ部4は、エリアアクティブ制御、輝度ストレッチに係る処理を停止し、入力映像信号に対して、バックライト部6を制御するための制御データをバックライト制御部5に出力すると共に、表示部8を制御するための表示制御データを表示制御部7に出力する。これらの制御データおよび表示制御データとしては、例えば、デフォルト設定のデータを用いることができる。
 なお、上記のエリアアクティブ制御については実施形態1と同様に実行してもよい。例えば、前述の図4(C)に示すように、分割領域毎に映像信号の最大階調値を抽出し、抽出した最大階調値に応じて領域毎のLEDの点灯率(駆動duty)を決定する。この場合、輝度ストレッチは行わないため、平均点灯率から求めたMax輝度に応じてバックライト輝度をストレッチする処理は中止される。
 (実施形態3)
 図13は、本発明に係る映像表示装置の他の実施形態(実施形態3)を説明するための図で、映像表示装置の要部の更に他の構成例を示すものである。
 実施形態3の映像表示装置は、実施形態2の映像表示装置と同様の構成を有し、実施形態2と同様の動作を行うが、実施形態2の映像表示装置と異なり、エリアアクティブ制御・輝度ストレッチ部4の代わりに、エリアアクティブ制御を行わない輝度ストレッチ部4aを備える。この輝度ストレッチ部4aでは、信号処理部1のマッピング部3から出力された輝度ストレッチ量を用いて、バックライト部6の輝度をストレッチする。
 つまり輝度ストレッチ部4aは、マッピング部3により生成されたトーンマッピングの情報を用いてトーンマッピングが適用された映像信号を入力し、その映像信号を表示する表示制御データを表示制御部7に出力する。このときにエリアアクティブ制御による処理は行わない。一方、輝度ストレッチ部4aは、発光検出部2から出力された輝度ストレッチ量を用いてバックライト部6全体を一律にストレッチする。
 これにより、発光している明るい映像はより明るくなって輝き感が増す。また、非発光部分は、映像信号処理により輝度ストレッチに相当する輝度が低減されているため、結果として、画面上では発光部分の輝度が高くなって、高コントラストの品位の高い映像を表示することができる。
 そして、信号処理部1および輝度ストレッチ部4aは、発光部分エンハンス処理を、表示指示検出部13aの判定結果に応じて、実行または停止する。例えば、信号処理部1および輝度ストレッチ部4aは、2画面表示を行うことが表示指示検出部13aにより検出された場合に、発光部分エンハンス処理を停止し、1画面表示を行うことが表示指示検出部13aにより検出された場合に、発光部分エンハンス処理を実行する。本発明に係る表示指示検出部13aの構成は実施形態1、2と同様であるため、詳しい説明を省略する。
 発光部分エンハンス処理を停止する場合、信号処理部1は発光検出部2での処理を停止させるため、輝度ストレッチ量(N)は算出されず、マッピング部3および輝度ストレッチ部4aに輝度ストレッチ量(N)が出力されることはない。
 この場合、マッピング部3は、例えば、デフォルト設定のトーンマッピング(一例として入出力が1対1に対応したトーンカーブなど)を乗算器に出力する。また、輝度ストレッチ部4aは、輝度ストレッチに係る処理を停止し、入力映像信号に対して、バックライト部6を制御するための制御データをバックライト制御部5に出力すると共に、表示部8を制御するための表示制御データを表示制御部7に出力する。これらの制御データおよび表示制御データとしては、例えば、デフォルト設定のデータを用いることができる。
 なお、前述の実施形態1において、図1のエリアアクティブ制御・輝度ストレッチ部4の代わりに、実施形態3と同様にエリアアクティブ制御を実行しない輝度ストレッチ部4aを設けるようにしてもよい。そのような構成の場合、輝度ストレッチ部4aで平均点灯率(ただし、この例では仮の点灯率自体が画面全体の仮の平均点灯率である)からMax輝度を求め、それに基づきLEDの発光輝度を上げると共に、そのMax輝度をマッピング部3にフィードバックすればよい。
(実施形態4)
 図14は、本発明に係る映像表示装置の他の実施形態(実施形態4)を説明するための図で、映像表示装置の要部の他の構成例を示すものである。
 実施形態4では、表示指示検出部13aにより第1の入力映像信号とともに、第2の入力映像信号を表示する指示がユーザからあったことが検出された場合に、ジャンル検出部13bが、第1の入力映像信号のジャンル、および、第2の入力映像信号のジャンルを検出し、エリアアクティブ制御・輝度ストレッチ部4が、第1の入力映像信号のジャンルの情報に応じて決定された第1の制御特性の設定に基づいて第1の入力映像信号に対する発光部分エンハンス処理を実行するとともに、第2の入力映像信号のジャンルの情報に応じて決定された第2の制御特性の設定に基づいて第2の入力映像信号に対する発光部分エンハンス処理を実行する。
 ここで、第1の入力映像信号、および、第2の入力映像信号とは、2つの番組の映像信号の2画面表示が行われる場合には、それらの2つの番組の映像信号であり、番組の映像信号とデータ放送の映像信号の2画面表示が行われる場合には、その番組の映像信号とデータ放送の映像信号である。以下、この処理について詳しく説明する。
 放送番組のジャンル情報は、例えば、デジタル放送の放送信号に重畳して送信されてくる電子番組情報(EPG情報)の一部にジャンルコードとして含まれている。そして、その放送信号がチューナ10a、10bにより受信され、デコーダ11a、11bでデコード処理される。そして、この放送信号の中からジャンル情報としてジャンルコードが抽出される。
 ジャンル情報としてのジャンルコードは、地上デジタル放送の規格により定められている。例えば、「ニュース/報道」、「スポーツ」、「情報/ワイドショー」、「ドラマ」、「音楽」、「バラエティ」、「映画」、「アニメ/特撮」、「ドキュメンタリー/教養」、「演劇/公演」、「趣味/教育」、「その他」のジャンルが予め大分類として規定される。
 また、大分類ごとに複数の中分類が規定されている。例えば、「スポーツ」の大分類においては、「スポーツニュース」、「野球」、「サッカー」、「ゴルフ」、「その他の球技」、「相撲・格闘技」、「オリンピック・国際大会」、「マラソン・陸上・水泳」、「モータースポーツ」、「マリン・ウィンタースポーツ」、「競馬・公営競技」、「その他」が中分類として規定されている。また「映画」の大分類には、「洋画」、「邦画」、「アニメ」などが中分類として規定されている。
 図14で例示する映像表示装置は、信号処理部1a、1b、1cを備える。信号処理部1a、1bは、それぞれデコーダ11a、11bによるデコード処理により得られた番組の映像信号を処理する処理部であり、信号処理部1cは、デコーダ11aによるデコード処理により得られたデータ放送の映像信号を処理する処理部である。
 そして、信号処理部1a、1b、1cは、それぞれ発光検出部2a、2b、2c、および、マッピング部3a、3b、3cを備える。発光検出部2a、2bは、実施形態1で説明したようにして、デコーダ部11a、11bによりデコード処理がなされた番組の映像信号に対し、発光部分の検出を行う。発光検出部2cは、デコーダ部11aによりデコード処理がなされたデータ放送の映像信号に対し、発光部分の検出を行う。
 マッピング部3a、3bは、例えばジャンル情報が「映画」である場合、図15に一例を示すように、図7に示したトーンマッピング(図15の点線)の代わりに、第1の閾値Th1がより大きな値に設定されたトーンマッピング(図15の太い実線)を映像信号に適用する。これにより、映像のコントラストをより高めることができる。
 他のジャンル情報やデータ放送についても同様に、Max輝度の制御特性、トーンマッピングが設定されており、それらを用いて、マッピング部3a、3bは、ジャンル情報に応じたトーンマッピングを行い、マッピング部3cは、データ放送に応じたトーンマッピングを行う。これにより、入力映像信号ごとに最適な表示を行うことが可能となる。
 ジャンル検出部13bは、デコーダ部11a、11bから番組の映像信号のジャンルの情報を取得する。そして、ジャンル検出部13bは、取得したジャンルの情報を信号処理部1a、1b、エリアアクティブ制御・輝度ストレッチ部4に出力する。また、ジャンル検出部13bは、番組の映像信号とデータ放送の映像信号の2画面表示の実行指示があったことを表示検出部13aが検出した場合に、信号処理部1cにデータ放送の映像信号が入力されることを通知する。信号処理部1cは、この通知を受けた場合に起動され、データ放送の映像信号用に設定された制御特性に応じて信号処理がなされる。
 映像合成部9は、2つの番組の映像信号が2画面表示される場合、トーンマッピングが適用された2つの番組の映像信号を合成し、合成の結果得られた映像信号をエリアアクティブ制御・輝度ストレッチ部4に出力する。番組の映像信号とデータ放送の映像信号が2画面表示される場合も、映像合成部9は、トーンマッピングが適用された番組の映像信号とデータ放送の映像信号を合成し、合成の結果得られた映像信号をエリアアクティブ制御・輝度ストレッチ部4に出力する。1つの番組の映像信号が1画面表示される場合は、映像合成部9は、トーンマッピングが適用された1つの番組の映像信号を、他の映像信号と合成することなく、そのままエリアアクティブ制御・輝度ストレッチ部4に出力する。
 エリアアクティブ制御・輝度ストレッチ部4は、入力映像信号のジャンルに応じた発光部分エンハンス処理を実行する。例えば、エリアアクティブ制御・輝度ストレッチ部4は、ジャンル情報が「映画」である場合、図16に示すように、図2に示したMax輝度の制御特性のグラフ(図16の点線)の代わりに、平均点灯率が中程度の領域においてMax輝度の値が抑制され、Max輝度の値が最大となる平均点灯率Pがやや低い位置に設定された制御特性のグラフ(図16の実線)を用いる。これにより、ユーザが映画をじっくり見る際の眩しさを抑制しつつ、比較的小面積の明るい部分の輝きを重視して、映像を表示することができる。
 なお、2画面表示が行われる場合、平均点灯率およびMax輝度は、映像信号ごとに算出される。すなわち、一方の映像信号に対応するバックライトの各領域の点灯率から、その映像信号に対する平均点灯率を算出するとともに、その平均点灯率からMax輝度を決定し、他方の映像信号に対応するバックライトの各領域の点灯率から、その映像信号に対する平均点灯率を算出するとともに、その平均点灯率からMax輝度を決定する。
 なお、図14に示した映像表示装置の他の構成は、実施形態1において図1を用いて説明した構成と同様であるので説明を省略する。
(実施形態5)
 図17は、本発明に係る映像表示装置の他の実施形態(実施形態5)を説明するための図で、映像表示装置の要部の他の構成例を示すものである。
 実施形態5の映像表示装置は、実施形態4の映像表示装置と同様の構成を有しているが、実施形態4の映像表示装置と異なり、トーンマッピングを行う際に用いるMax輝度の値をエリアアクティブ制御・輝度ストレッチ部4で決定することなく、発光検出部2a、2b、2cが発光部分の検出結果に基づき輝度ストレッチ量を決定し、マッピング部3a、3b、3cが決定された輝度ストレッチ量に基づいてトーンマッピングを実行する。
 従って、マッピング部3a、3b、3cでは、実施形態4のように、輝度ストレッチによるMax輝度値をエリアアクティブ制御・輝度ストレッチ部4から取得する必要はない。無論、発光検出部2a、2b、2cが発光部分の検出のみを行い、マッピング部3a、3b、3cが、発光部分の検出結果から輝度ストレッチ量を計算するように構成してもよい。
 上記トーンマッピングは、以下のようにして行われる。発光検出部2a、2b、2cはそれぞれ、入力した番組の映像信号またはデータ放送の映像信号のフレームごとに、画素の輝度階調ごとの画素数を積算して、図11に示したようなYヒストグラムを生成する。
 そして、発光検出部2a、2b、2cは、そのYヒストグラムから平均値(Ave)、標準偏差(σ)を計算し、これらを用いて2つの閾値Th1,Th2を計算する。さらに発光検出部2a、2b、2cは、第3の閾値Th3をそれぞれ設定する。Th3は、例えば、実施形態2に示した式(4)により算出される。
 また、発光検出部2a、2b、2cは、例えば、実施形態2で説明したように、第3の閾値Th3以上の階調値を持つ画素の画素数をカウントし、閾値Th3からの距離に重み付けをして算出することにより得られた明るさの度合いを示すスコアを式(5)により算出する。
 スコアが一定以上に高いレベルでは、図12に一例を示したように、輝度ストレッチ量を高く設定し、高階調の輝いている映像をより高輝度にストレッチして輝き感を増す。この例では、スコアが一定以上の高い部分では、輝度ストレッチ後に取りうる最大の画面輝度が1500(cd/m)となるように設定する。また、スコアが低い場合には、スコアが小さくなるほど輝度ストレッチ量が小さくなるように設定する。
 発光検出部2a、2b、2cがそれぞれ検出した第1および第2の閾値Th1,Th2の値、およびTh3以上の画素のスコアに従って決定される輝度ストレッチ量は、マッピング部3a、3b、3cに出力され、トーンマッピングの情報の生成に使用される。
 マッピング部3a、3b、3cにおけるトーマッピングの処理は、実施形態4と同様である。つまり図15に示すように、発光検出部2a、2b、2cにて検出したTh1より小さい領域に対して第1のゲインG1を設定し、Th1とTh2の間を線形で結ぶように第2のゲインG2を設定する。このとき、マッピング部3a、3b、3cは、ゲインG1の設定に際して、発光検出部2a、2b、2cで検出した輝度ストレッチ量を使用し、バックライトの輝度ストレッチ量に応じて映像信号処理により輝度を低下させる。
 得られたトーンマッピングは、デコーダ部11a、11bにより出力された番組の映像信号またはデータ放送の映像信号に適用される。具体的には、2つの番組の映像信号の2画面表示が行われる場合、デコーダ部11a、11bにより出力された2つの番組の映像信号のそれぞれに対して、トーンマッピングが適用される。また、番組の映像信号とデータ放送の映像信号の2画面表示が行われる場合、デコーダ部11aにより出力された番組の映像信号とデータ放送の映像信号のそれぞれに対して、トーンマッピングが適用される。番組の映像信号の1画面表示が行われる場合、デコーダ部11aにより出力された番組の映像信号に対して、トーンマッピングが適用される。
 映像合成部9は、2つの番組の映像信号を表示する2画面表示が実行される場合、トーンマッピングが適用された2つの番組の映像信号を合成し、合成の結果得られた映像信号をエリアアクティブ制御・輝度ストレッチ部4に出力する。また、映像合成部9は、番組の映像信号の表示とデータ放送の映像信号を表示するデータ放送表示が実行される場合、トーンマッピングが適用された番組の映像信号とデータ放送の映像信号を合成し、合成の結果得られた映像信号をエリアアクティブ制御・輝度ストレッチ部4に出力する。また、映像合成部9は、番組の映像信号の1画面表示がなされる場合、トーンマッピングが適用された1つの番組の映像信号を、他の映像信号と合成することなく、エリアアクティブ制御・輝度ストレッチ部4に出力する。
 エリアアクティブ制御・輝度ストレッチ部4における処理は、実施形態4と同様である。ただし、エリアアクティブ制御・輝度ストレッチ部4は、実施形態4のようにバックライトの平均点灯率からMax輝度を決定し、信号処理部1a、1b、1cに出力する必要はなく、逆に信号処理部1a、1b、1cの発光検出部2a、2b、2cで検出された輝度ストレッチ量に基づいてバックライト部6のLEDの輝度をストレッチする。
 つまり、エリアアクティブ制御・輝度ストレッチ部4では、映像を所定の複数の領域(エリア)に分割し、その分割領域ごとに映像信号の最大階調値を抽出し、抽出した最大階調値に応じて領域ごとのLEDの点灯率を決定する。例えば最大階調値が低く暗い領域については、点灯率を下げてバックライトの輝度を低下させる。そして、この状態で輝度ストレッチ量に応じてバックライト全体の投入電力を増大させて、バックライトの輝度全体をUPする。これにより、発光している明るい映像はより明るくなって輝き感が増す。また、非発光部分は、映像信号処理により輝度ストレッチに相当する輝度が低減されているため、結果として、画面上では発光部分のみの輝度が高くなって、高コントラストの品位の高い映像を表示することができる。入力映像信号と画面輝度との関係は、実施形態1に示す図9と同様になる。
 このように、発光検出部2a、2b、2cでは、検出した発光部分の領域を含む所定範囲(上述の例ではTh3以上の範囲)の映像について、画素ごとの明るさに重みを付けて画素数をカウントすることにより明るさの度合いを示すスコアを計算し、そのスコアに応じて輝度ストレッチ量を決め、エリアアクティブ制御・輝度ストレッチ部4でその輝度ストレッチ量でストレッチされるようにする。そのため、輝度ストレッチ量はエリアアクティブ制御・輝度ストレッチ部4とマッピング部3a、3b、3cに出力される。エリアアクティブ制御・輝度ストレッチ部4は、輝度ストレッチ量に応じて輝度をストレッチする。マッピング部3a、3b、3cは、輝度ストレッチ量に応じてゲインカーブを変えるなどして、ストレッチした輝度を映像信号処理により低下させる。
 そして、実施形態4で説明したように、信号処理部1a、1b、1cおよびエリアアクティブ制御・輝度ストレッチ部4は、表示指示検出部13aにより、第1の入力映像信号とともに第2の入力映像信号を表示する指示があったことが検出された場合に、第1の制御特性の設定に基づいて第1の入力映像信号に対する発光部分エンハンス処理を実行するとともに、第2の制御特性の設定に基づいて第2の入力映像信号に対する発光部分エンハンス処理を実行する。
 ここで、第1の入力映像信号、および、第2の入力映像信号とは、2つの番組の映像信号の2画面表示が行われる場合には、それらの2つの番組の映像信号であり、番組の映像信号とデータ放送の映像信号の2画面表示が行われる場合には、その番組の映像信号とデータ放送の映像信号である。
 例えば、マッピング部3a、3b、3cは、実施形態4において図15を用いて説明したような方法で、それぞれの映像信号に対し、ジャンル検出部13bにより検出された映像信号のジャンルに応じてトーンマッピングを行う。また、エリアアクティブ制御・輝度ストレッチ部4は、実施形態4において図16を用いて説明したような方法で、それぞれの映像信号に対し、ジャンル検出部13bにより検出された映像信号のジャンルに応じてバックライト部6の輝度を調整する。
 図17に示した映像表示装置の他の構成は、実施形態4において図14を用いて説明した構成と同様であるので説明を省略する。
(実施形態6)
 図18は、本発明に係る映像表示装置の他の実施形態(実施形態6)を説明するための図で、映像表示装置の要部の他の構成例を示すものである。
 実施形態6の映像表示装置は、実施形態5の映像表示装置と同様の構成を有しているが、実施形態5の映像表示装置と異なり、エリアアクティブ制御・輝度ストレッチ部4の代わりに、エリアアクティブ制御を行わない輝度ストレッチ部4aを備える。この輝度ストレッチ部4aでは、信号処理部1a、1b、1cのマッピング部3a、3b、3cから出力された輝度ストレッチ量を用いて、バックライト部6の輝度をストレッチする。
 つまり、輝度ストレッチ部4aは、映像合成部9により出力された映像信号を入力し、その映像信号を表示する表示制御データを表示制御部7に出力する。このとき、エリアアクティブ制御による処理は行わない。一方で、輝度ストレッチ部4aは、発光検出部2a、2b、2cから出力された輝度ストレッチ量を用いて、各輝度ストレッチ量に対応する映像信号の表示画面に対するバックライト部6をそれぞれストレッチする。
 これにより、発光している明るい映像はより明るくなって輝き感が増す。また、非発光部分は、映像信号処理により輝度ストレッチに相当する輝度が低減されているため、結果として、画面上では発光部分の輝度が高くなって、高コントラストの品位の高い映像を表示することができる。
 そして、実施形態4で説明したように、信号処理部1a、1b、1cおよびエリアアクティブ制御・輝度ストレッチ部4は、表示指示検出部13aにより、第1の入力映像信号とともに第2の入力映像信号を表示する指示があったことが検出された場合に、第1の制御特性の設定に基づいて第1の入力映像信号に対する発光部分エンハンス処理を実行するとともに、第2の制御特性の設定に基づいて第2の入力映像信号に対する前記発光部分エンハンス処理を実行する。
 ここで、第1の入力映像信号、および、第2の入力映像信号とは、2つの番組の映像信号の2画面表示が行われる場合には、それらの2つの番組の映像信号であり、番組の映像信号とデータ放送の映像信号の2画面表示が行われる場合には、その番組の映像信号とデータ放送の映像信号である。
 例えば、マッピング部3a、3b、3cは、実施形態4において図15を用いて説明したような方法で、それぞれの映像信号に対し、ジャンル検出部13bにより検出された映像信号のジャンルに応じてトーンマッピングを行う。また、輝度ストレッチ部4aは、実施形態4において図16を用いて説明したような方法で、それぞれの映像信号に対し、ジャンル検出部13bにより検出された映像信号のジャンルに応じてバックライト部6の輝度を調整する。
 図18に示した映像表示装置の他の構成は、実施形態4において図14を用いて説明した構成と同様であるので説明を省略する。
 なお、前述の実施形態4において、図14のエリアアクティブ制御・輝度ストレッチ部4の代わりに、同様にエリアアクティブ制御を実行しない輝度ストレッチ部4aを設けるようにしてもよい。そのような構成の場合、輝度ストレッチ部4aで平均点灯率(ただし、この例では仮の点灯率自体が画面全体の仮の平均点灯率である)からMax輝度を求め、それに基づきLEDの発光輝度を上げると共に、そのMax輝度をマッピング部3a、3b、3cにフィードバックすればよい。
 (他の特徴量)
 上記の各例では、発光検出部2、2a、2b、2cにおける発光部分の検出処理において、映像の特徴量として輝度Yを使用し、輝度のヒストグラムを生成してその中から発光部分を検出していた。しかし、ヒストグラムを生成する特徴量として、輝度の他、例えばCMI(Color Mode Index)、もしくは、1つの画素を構成するRGBの映像信号の階調値のうち最も高い階調値(Max RGBとする)を用いることができる。
 CMIは、注目する色がどの程度明るいかを示す指標である。ここではCMIは輝度とは異なり、色の情報も加味された明るさを示している。CMIは、下式(6)により定義される。
   (L/Lmodeboundary)×100 ・・・式(6)
 上記Lは相対的な色の明るさの指標で、L=100のときに、物体色として最も明るい白色の明度となる。上記式(6)において、Lは注目している色の明度であり、Lmodeboundaryは、注目している色と同じ色度で発光して見える境界の明度である。ここでLmodeboundary≒最明色(物体色で最も明るい色)の明度となることがわかっている。CMI=100となる色の明度を発光色境界とよび、CMI=100を超えると発光していると定義する。
 映像表示装置で表示すべき放送映像信号からCMIを計算する手法を図19を参照して説明する。放送映像信号はBT.709規格に基づいて規格化されて送信される。従ってまず放送映像信号のRGBデータをBT.709用の変換行列を用いて3刺激値XYZのデータに変換する。そしてYから変換式を用いて明度L*を計算する。注目する色のLが図19の位置PL1にあったものとする。次に変換したXYZから色度を計算し、既に知られている最明色のデータから、注目する色と同じ色度の最明色のL(Lmodeboundary)を調べる。図19上の位置はPL2である。
 これらの値から、上記式(6)を用いてCMIを計算する。CMIは、注目画素のLとその色度の最明色のL(Lmodeboundary)との比で示される。
 上記のような手法で映像信号の画素ごとにCMIを求める。規格化された放送信号であるため全ての画素は、CMIが0~100の範囲のいずれかをとる。そして1フレーム映像に対して、横軸をCMIとし、縦軸を頻度としてCMIヒストグラムを作成する。ここで平均値Ave.と標準偏差σとを算出し、各閾値を設定して発光部分を検出する。
 Max RGBは、RGBデータのうちの最大階調値をもつデータである。RGBの組み合わせにおいて、2つの色が同じ色度であることは、RGBの比が変化しないことと同義である。つまりCMIにおいて同じ色度の最明色を演算する処理は、RGBデータの比率を変えずに一定倍したときに、RGBデータの階調が最も大きくなるときのRGBの組み合わせを得る処理になる。
 例えば、図20(A)に示すような階調のRGBデータをもつ画素を注目画素とする。注目画素のRGBデータに一定の数を乗算したとき、図20(B)に示すようにRGBのいずれかが最初に飽和したときの色が、元画素と同じ色度で最も明るい色である。そして最初に飽和した色(この場合R)の注目画素の階調をr1、最明色のRの階調をr2とするとき、下式(7)によってCMIに類似した値を得ることができる。RGBに一定倍したときに最初に飽和する色は、注目画素のRGBのうち最大の階調をもつ色になる。
   (r1/r2)×100   ・・・式(7)
 そして画素ごとに上記のような式(7)による値を算出してヒストグラムを作成する。このヒストグラムから平均値Aveと標準偏差σを計算し、各閾値を設定して発光部分を検出することができる。
1,1a,1b,1c…信号処理部、2,2a,2b,2c…発光検出部、3,3a,3b,3c…マッピング部、4…エリアアクティブ制御・輝度ストレッチ部、4a…輝度ストレッチ部、5…バックライト制御部、6…バックライト部、7…表示制御部、8…表示部、9…映像合成部、10a,10b…チューナ、11a,11b…デコーダ、12…リモコン信号処理部、13…画面設定部、13a…表示指示検出部、13b…ジャンル検出部。

Claims (9)

  1.  入力映像信号を表示する表示部と、該表示部を照明する光源と、該表示部および該光源を制御する制御部とを備えた映像表示装置であって、
     前記入力映像信号に基づいて前記光源の輝度をストレッチして増大させるとともに、前記入力映像信号の明るさに関連する所定の特徴量に対して画素数を積算したヒストグラムを生成し、該ヒストグラムの所定範囲の上位領域を発光部分として検出し、前記入力映像信号のうち前記発光部分を除く非発光部分の映像信号の輝度を低下させることにより、前記入力映像信号の発光部分の表示輝度をエンハンスする発光部分エンハンス処理を制御する制御部と、
     前記入力映像信号として第1の入力映像信号とともに第2の入力映像信号を前記表示部に表示する指示があったか否かを検出する表示指示検出部とを備え、
     前記制御部は、前記表示指示検出部の検出結果に応じて、前記発光部分エンハンス処理の制御を切り替えることを特徴とする映像表示装置。
  2.  請求項1に記載の映像表示装置において、
     前記制御部は、前記入力映像信号による画像を複数の領域に分割し、該分割した領域である分割領域の映像信号の階調値に基づいて、該分割領域に対応する前記光源の領域の点灯率を変化させ、
     前記光源の複数の領域について前記光源の領域の点灯率を平均した平均点灯率を求め、
     該平均点灯率に予め関係付けられた前記表示部の画面上で取り得る最大表示輝度に基づいて、前記光源の輝度をストレッチすることを特徴とする映像表示装置。
  3.  請求項1に記載の映像表示装置において、
     前記制御部は、前記検出した発光部分の領域を含む所定範囲の映像について、画素ごとの明るさに重みを付けて画素数をカウントすることにより明るさの度合いを示すスコアを計算し、該スコアに応じて前記光源の輝度をストレッチすることを特徴とする映像表示装置。
  4.  請求項1~3のいずれか1項に記載の映像表示装置において、
     前記制御部は、前記第1の入力映像信号とともに前記第2の入力映像信号を表示する指示があったことが検出された場合に、前記発光部分エンハンス処理を中止することを特徴とする映像表示装置。
  5.  請求項1~3のいずれか1項に記載の映像表示装置において、
     前記制御部は、前記第1の入力映像信号とともに前記第2の入力映像信号を表示する指示があったことが検出された場合に、第1の制御特性の設定に基づいて前記第1の入力映像信号に対する前記発光部分エンハンス処理を実行するとともに、第2の制御特性の設定に基づいて前記第2の入力映像信号に対する前記発光部分エンハンス処理を実行することを特徴とする映像表示装置。
  6.  請求項5に記載の映像表示装置において、
     前記第1の入力映像信号の第1の映像ジャンル、および、前記第2の入力映像信号の第2の映像ジャンルを検出するジャンル検出部をさらに備え、前記第1の制御特性の設定は前記第1の映像ジャンルに基づいて決定され、前記第2の制御特性の設定は前記第2の映像ジャンルに基づいて決定されることを特徴とする映像表示装置。
  7.  請求項1~6のいずれか1項に記載の映像表示装置において、
     前記制御部は、前記ヒストグラムの平均値をA、標準偏差をσとするとき、
      thresh=A+Nσ(Nは定数)
    以上の画素を発光部分とすることを特徴とする映像表示装置。
  8.  請求項1~7のいずれか1項に記載の映像表示装置において、
     前記制御部は、前記非発光部分において、前記光源の輝度のストレッチによる前記表示部の表示輝度の増加分を、前記入力映像信号の輝度の低下により低減させることを特徴とする映像表示装置。
  9.  請求項1~8のいずれか1項に記載の映像表示装置を備えたテレビ受信装置。
PCT/JP2012/068271 2012-02-03 2012-07-19 映像表示装置およびテレビ受信装置 WO2013114645A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201280068863.1A CN104094342B (zh) 2012-02-03 2012-07-19 影像显示装置及电视接收装置
US14/373,367 US9350961B2 (en) 2012-02-03 2012-07-19 Video display device and television receiving device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-021442 2012-02-03
JP2012021442A JP5221780B1 (ja) 2012-02-03 2012-02-03 映像表示装置およびテレビ受信装置

Publications (1)

Publication Number Publication Date
WO2013114645A1 true WO2013114645A1 (ja) 2013-08-08

Family

ID=48778757

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/068271 WO2013114645A1 (ja) 2012-02-03 2012-07-19 映像表示装置およびテレビ受信装置

Country Status (4)

Country Link
US (1) US9350961B2 (ja)
JP (1) JP5221780B1 (ja)
CN (1) CN104094342B (ja)
WO (1) WO2013114645A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161092A (ja) * 2013-03-05 2013-08-19 Sharp Corp 映像表示装置およびテレビ受信装置
CN104240666B (zh) * 2014-09-17 2016-08-17 深圳市华星光电技术有限公司 一种视频处理方法及装置
US9920641B2 (en) 2015-02-23 2018-03-20 United Technologies Corporation Gas turbine engine mid-turbine frame configuration
CN113259749A (zh) * 2015-08-06 2021-08-13 麦克赛尔株式会社 广播接收装置
US10810950B2 (en) * 2016-12-14 2020-10-20 Sharp Kabushiki Kaisha Light source control device, display device, and image processing device
US11004363B2 (en) * 2019-03-05 2021-05-11 Innolux Corporation Stretchable display device and method of controlling stretchable display device
CN110400544A (zh) * 2019-08-05 2019-11-01 业成科技(成都)有限公司 讯号处理方法及显示装置
KR102375369B1 (ko) * 2020-11-26 2022-03-18 엘지전자 주식회사 톤 매핑 장치 및 그 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140483A (ja) * 2005-10-18 2007-06-07 Sharp Corp 液晶表示装置
JP2007241250A (ja) * 2006-02-08 2007-09-20 Sharp Corp 液晶表示装置
JP2009063694A (ja) * 2007-09-05 2009-03-26 Seiko Epson Corp 画像処理装置、画像表示装置、画像処理方法及びプログラム
JP2010130399A (ja) * 2008-11-28 2010-06-10 Sony Corp 画像処理装置、画像処理方法および画像処理プログラム
JP4991949B1 (ja) * 2011-04-07 2012-08-08 シャープ株式会社 映像表示装置およびテレビ受信装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1135140A (zh) * 1995-02-27 1996-11-06 松下电器产业株式会社 用于多重图像显示的补偿电压发生装置及其视频显示装置
US5969767A (en) * 1995-09-08 1999-10-19 Matsushita Electric Industrial Co., Ltd. Multipicture video signal display apparatus with modified picture indication
US6263502B1 (en) * 1997-03-18 2001-07-17 Thomson Licensing S.A. System and method for automatic audio and video control settings for television programs
KR19980076752A (ko) * 1997-04-14 1998-11-16 윤종용 화면 및 음향을 자동으로 전환하기 위한 방송 신호 수신 방법 및 수신 장치
US6809776B1 (en) * 1997-04-23 2004-10-26 Thomson Licensing S.A. Control of video level by region and content of information displayed
US6067126A (en) * 1998-01-05 2000-05-23 Intel Corporation Method and apparatus for editing a video recording with audio selections
US6481011B1 (en) * 1998-06-16 2002-11-12 Prevue Networks, Inc. Program guide system with user designated color coding
JP3215399B1 (ja) 1999-05-10 2001-10-02 松下電器産業株式会社 画像表示装置および画像表示方法
US6556253B1 (en) * 1999-10-26 2003-04-29 Thomson Licensing S.A. Multi-window picture adjustment arrangement for a video display
JP4978760B2 (ja) * 2000-08-23 2012-07-18 ソニー株式会社 画像処理方法および画像処理装置
KR100415510B1 (ko) * 2001-03-15 2004-01-16 삼성전자주식회사 적응형 휘도 증대 기능을 갖는 액정 표시 장치 및 이의구동 방법
JP3987296B2 (ja) * 2001-03-21 2007-10-03 株式会社ソニー・コンピュータエンタテインメント 情報処理方法、情報処理プログラムを情報処理装置に実行させる媒体、プログラム実行装置、情報処理プログラム
JP3583122B2 (ja) * 2001-11-02 2004-10-27 シャープ株式会社 画像表示装置及び表示制御方法
JP4167423B2 (ja) * 2001-11-30 2008-10-15 株式会社東芝 映像信号処理装置及び映像信号処理方法
JP2003177727A (ja) * 2001-12-13 2003-06-27 Nec Viewtechnology Ltd 画像表示装置および光量調節方法
JP3998636B2 (ja) * 2003-12-26 2007-10-31 株式会社東芝 映像処理装置
US7643095B2 (en) * 2004-05-28 2010-01-05 Sharp Kabushiki Kaisha Image display device, image display method, and television receiver
KR20060084599A (ko) * 2005-01-20 2006-07-25 엘지전자 주식회사 영상표시기기의 문자 표시장치 및 방법
JP4617989B2 (ja) * 2005-04-28 2011-01-26 株式会社日立製作所 映像処理装置
US7352410B2 (en) * 2005-05-31 2008-04-01 Kolorific, Inc. Method and system for automatic brightness and contrast adjustment of a video source
JP2007228167A (ja) * 2006-02-22 2007-09-06 Funai Electric Co Ltd パネル型映像表示装置および液晶テレビジョン
US7639893B2 (en) * 2006-05-17 2009-12-29 Xerox Corporation Histogram adjustment for high dynamic range image mapping
TW200805016A (en) * 2006-07-11 2008-01-16 Teco Elec & Machinery Co Ltd A method and system for adjusting audio/video effect and mode in DTV
WO2009096329A1 (ja) * 2008-01-30 2009-08-06 Sharp Kabushiki Kaisha 映像表示装置
US9330630B2 (en) * 2008-08-30 2016-05-03 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with rate change control
JP4837009B2 (ja) * 2008-09-12 2011-12-14 ミツミ電機株式会社 液晶表示装置
JP4818351B2 (ja) 2008-12-25 2011-11-16 株式会社東芝 画像処理装置及び画像表示装置
US20100278423A1 (en) 2009-04-30 2010-11-04 Yuji Itoh Methods and systems for contrast enhancement
JP5089783B2 (ja) * 2010-04-30 2012-12-05 キヤノン株式会社 画像処理装置及びその制御方法
JP2013003238A (ja) * 2011-06-14 2013-01-07 Sony Corp 映像信号処理回路、映像信号処理方法、表示装置、及び、電子機器
JP5284444B2 (ja) * 2011-11-11 2013-09-11 シャープ株式会社 映像表示装置およびテレビ受信装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140483A (ja) * 2005-10-18 2007-06-07 Sharp Corp 液晶表示装置
JP2007241250A (ja) * 2006-02-08 2007-09-20 Sharp Corp 液晶表示装置
JP2009063694A (ja) * 2007-09-05 2009-03-26 Seiko Epson Corp 画像処理装置、画像表示装置、画像処理方法及びプログラム
JP2010130399A (ja) * 2008-11-28 2010-06-10 Sony Corp 画像処理装置、画像処理方法および画像処理プログラム
JP4991949B1 (ja) * 2011-04-07 2012-08-08 シャープ株式会社 映像表示装置およびテレビ受信装置

Also Published As

Publication number Publication date
US20150009418A1 (en) 2015-01-08
JP2013160867A (ja) 2013-08-19
CN104094342A (zh) 2014-10-08
CN104094342B (zh) 2016-09-07
JP5221780B1 (ja) 2013-06-26
US9350961B2 (en) 2016-05-24

Similar Documents

Publication Publication Date Title
WO2013114645A1 (ja) 映像表示装置およびテレビ受信装置
TWI317232B (en) Liquid crystal display apparatus
JP5085793B1 (ja) 映像表示装置およびテレビ受信装置
US9495921B2 (en) Video display device and television receiving device with luminance stretching
JP4991949B1 (ja) 映像表示装置およびテレビ受信装置
WO2007046320A1 (ja) 液晶表示装置
JP5197858B1 (ja) 映像表示装置およびテレビ受信装置
US8964124B2 (en) Video display device that stretches a video signal and a signal of the light source and television receiving device
WO2013121601A1 (ja) 映像表示装置およびテレビ受信装置
JP2007049693A (ja) 液晶表示装置
JP5092057B1 (ja) 映像表示装置およびテレビ受信装置
JP5143959B1 (ja) 映像表示装置およびテレビ受信装置
JP2007049692A (ja) 液晶表示装置
JP2013161092A (ja) 映像表示装置およびテレビ受信装置
JP5174982B1 (ja) 映像表示装置およびテレビ受信装置
JP5303062B2 (ja) 映像表示装置およびテレビ受信装置
JP5330552B2 (ja) 映像表示装置およびテレビ受信装置
JP5244251B1 (ja) 映像表示装置およびテレビ受信装置
JP6532103B2 (ja) 映像表示装置およびテレビ受信装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12867190

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14373367

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12867190

Country of ref document: EP

Kind code of ref document: A1