WO2017057926A1 - 디스플레이 장치 및 이의 제어 방법 - Google Patents

디스플레이 장치 및 이의 제어 방법 Download PDF

Info

Publication number
WO2017057926A1
WO2017057926A1 PCT/KR2016/010919 KR2016010919W WO2017057926A1 WO 2017057926 A1 WO2017057926 A1 WO 2017057926A1 KR 2016010919 W KR2016010919 W KR 2016010919W WO 2017057926 A1 WO2017057926 A1 WO 2017057926A1
Authority
WO
WIPO (PCT)
Prior art keywords
roi
information
foreground
background
pixel
Prior art date
Application number
PCT/KR2016/010919
Other languages
English (en)
French (fr)
Inventor
임태규
강우석
한승훈
문영수
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US15/754,714 priority Critical patent/US10542242B2/en
Priority to KR1020177036206A priority patent/KR101985880B1/ko
Priority to CN201680055996.3A priority patent/CN108141576B/zh
Priority to EP16852072.4A priority patent/EP3343913B1/en
Publication of WO2017057926A1 publication Critical patent/WO2017057926A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • G06T5/92
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/9305Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Definitions

  • the present disclosure relates to a display apparatus and a control method thereof, and more particularly, to a display apparatus and a control method thereof that perform HDR processing on a specific region using metadata of received image data.
  • the range of brightness is very wide.
  • the brightness ranges from very dark scenes such as the night sky to very bright scenes such as sunlight.
  • it often involves a wide dynamic range from very dark to very bright parts of a scene.
  • the current display device has a dynamic range that the human visual system can feel while viewing the natural environment due to the limitation of the maximum brightness that can be expressed and the expressive power of the input signal transmitted to the display device. Or it is difficult to actually express the corresponding brightness ratio.
  • the dynamic range of an image generating device such as a camera is narrower than the dynamic range that the display device can express.
  • the present disclosure has been made to solve the above-described problem, and an object of the present disclosure is to analyze a metadata of received image data and perform HDR processing on a region of interest by using foreground and background information of the region of interest. It is to provide a control method thereof.
  • a control method of a display apparatus for processing and displaying an image signal includes: receiving image data; Separating the received image data into an image signal and metadata; And acquiring information about the ROI by using the metadata, and performing high dynamic range (HDR) processing on the ROI by using the obtained information about the ROI.
  • HDR high dynamic range
  • the information on the ROI may include coordinates corresponding to the ROI, color range information on the foreground and background included in the ROI.
  • the information about the pixel includes information indicating which of the plurality of pixels belongs to a first group corresponding to a background, a second group corresponding to a foreground, and a third group corresponding to a mixture of the foreground and the background. can do.
  • At least one of tone or saturation may be adjusted by performing at least one of tone mapping or saturation mapping with respect to the plurality of pixels.
  • the coordinates corresponding to the ROI may be coordinates of a preset shape including the main object of the image data.
  • the coordinates corresponding to the ROI may be coordinates of a shape in which a preset shape including the main object of the image data is enlarged at a preset ratio.
  • the color range information may include information on at least one of maxRGB, red (R), green (G), and blue (B).
  • a display device for processing and displaying an image signal
  • the image receiving unit configured to receive the image data
  • a decoder configured to separate the received video data into a video signal and metadata
  • an image processor configured to acquire information on the ROI by using the metadata and to perform HDR processing on the ROI by using the obtained ROI.
  • the information on the ROI may include coordinates corresponding to the ROI, color range information on the foreground and background included in the ROI.
  • the image processor may be further configured to determine information on a plurality of pixels included in the ROI by using color range information of the foreground and background included in the ROI, and according to the information on the plurality of pixels.
  • the plurality of pixel values included in the ROI may be adjusted.
  • the information about the pixel includes information indicating which of the plurality of pixels belongs to a first group corresponding to a background, a second group corresponding to a foreground, and a third group corresponding to a mixture of the foreground and the background. can do.
  • the image processor may adjust at least one of tone or saturation by performing at least one of tone mapping or saturation mapping on the plurality of pixels.
  • the coordinates corresponding to the ROI may be coordinates of a preset shape including the main object of the image data.
  • the coordinates corresponding to the ROI may be coordinates of a shape in which a preset shape including the main object of the image data is enlarged at a preset ratio.
  • the color range information may include information on at least one of maxRGB, red (R), green (G), and blue (B).
  • a display apparatus for displaying an image on which an HDR process is performed on a region of interest and a control method thereof may be provided.
  • FIG. 1 is a block diagram schematically illustrating a configuration of a display apparatus according to an embodiment of the present disclosure
  • FIG. 2 is a block diagram schematically illustrating a configuration of an image processor included in a display apparatus according to an exemplary embodiment.
  • FIG. 3 is a block diagram schematically illustrating a configuration of an ROI information acquisition unit included in an image processing unit, according to an exemplary embodiment.
  • 4 to 9 are diagrams for describing various embodiments of performing HDR processing on an ROI by using ROI information of a display apparatus, according to various embodiments of the present disclosure.
  • FIG. 10 is a flowchart illustrating a method of controlling a display apparatus according to an exemplary embodiment.
  • first and second terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
  • the terms “comprise” or “have” are intended to designate that there exists a feature, number, step, operation, component, part, or a combination thereof described in the specification. Or other features or numbers, steps, operations, components, parts or combinations thereof in any way should not be excluded in advance.
  • the module or unit performs at least one function or operation, and may be implemented in hardware or software, or in a combination of hardware and software.
  • the plurality of modules or the units may be integrated into at least one module except for the modules or units that need to be implemented with specific hardware, and may be implemented as at least one processor.
  • the user input may include at least one of a touch input, a bending input, a voice input, a button input, and a multimodal input, but is not limited thereto.
  • HDR processing of an image signal according to the present disclosure may be expressed to correspond to an intention of clearly expressing a specific object by a user when generating image data, image capturing environment information, and specifications of a display apparatus. It may mean additional image information.
  • the ROI may be an area including a main object.
  • the foreground may be an area corresponding to the main object in the ROI, and the background may be an area not corresponding to the main object in the ROI.
  • FIG. 1 is a diagram illustrating a configuration of a display apparatus 100 according to an exemplary embodiment.
  • the display apparatus 100 includes an image receiver 110, a decoder 120, and an image processor 130.
  • the display apparatus 100 according to an embodiment of the present disclosure may be implemented with various electronic devices such as a smart TV, a desktop PC, a smart phone, a tablet PC, a notebook PC, a set top box, and the like.
  • the image receiver 110 may receive image data from an external device.
  • the image receiver 110 may receive a coded image packet or a bit stream from an external device.
  • the image receiving unit 110 wirelessly receives a radio frequency (RF) signal transmitted from a broadcast station, composite video, component video, super video video, SCRAT, HDMI, SMPTE standards It is also possible to receive image data by wire or the like.
  • the image receiver 110 may access a web server and receive a data packet of web content.
  • the image receiver 110 may receive a 2D video signal including metadata or a 3D video signal including metadata.
  • the decoder 120 may decode the received image data to separate the image signal from the metadata.
  • the decoder 120 may parse metadata included in the received image data to extract metadata.
  • the decoder 120 may separate the metadata of the entire region and the metadata of the ROI from the extracted metadata.
  • the metadata about the entire region and the metadata about the region of interest extracted by the decoder 120 may include HDR information.
  • the HDR information may be input when generating image data, but is not limited thereto and may be received through a wired or wireless network.
  • the region of interest may be designated by the user as a specific region including the main object.
  • the image processor 130 may obtain information about the ROI by using metadata extracted by the decoder 120.
  • the image processor 130 may perform HDR processing on the ROI by using the acquired information on the ROI.
  • the image processor 130 may obtain information about the ROI by using metadata extracted by the decoder 120.
  • the information on the ROI may include coordinates corresponding to the ROI, color range information on the foreground included in the ROI, and color range information on the background.
  • the coordinates corresponding to the ROI may be coordinates of a preset shape including the main object or coordinates of a shape in which the preset shape including the main object is enlarged at a preset ratio.
  • the coordinate corresponding to the ROI may be [(Xmin, Ymax), (Xmax, Ymin)] to indicate a bounding box including the main object, or the bounding box including the main object.
  • the color range information of the foreground and the background included in the ROI may include information on at least one of maxRGB, red (R), green (G), and blue (B).
  • the color range information of the foreground and the background included in the ROI may be information about a hue saturation value (HSV) and a Yb scyr (Ycbcr) range.
  • the image processor 130 may determine the information on the plurality of pixels included in the ROI by using the color range information of the foreground and the background included in the ROI. In particular, the image processor 130 may determine whether the plurality of pixels included in the ROI correspond to the background, the foreground, or a mixed region of the background and the foreground by using color range information of the foreground and the background included in the ROI. It can be determined whether or not correspondence.
  • the image processor 130 may adjust the plurality of pixel values included in the ROI based on the information on the plurality of pixels.
  • the image processor 130 performs at least one of tone mapping or saturation mapping with respect to the plurality of pixels included in the ROI based on the information on the plurality of pixels.
  • At least one of tone or saturation may be adjusted.
  • the tone mapping may be a non-linear mapping of a luma value of an input pixel to a luma value of an output pixel.
  • the chroma mapping may be a non-linear mapping from the sharpness value of the input pixel to the sharpness value of the output pixel.
  • Tone mapping and saturation mapping may be performed to match the received image data with display device specifications, viewing conditions and user preferences, and global tone / saturation mapping means that processing is applied to all pixels, Local tone / saturation mapping means that the processing is applied to some pixels, particularly those that correspond to the region of interest.
  • the image processor 130 includes an ROI information acquirer 131 and an HDR processor 133.
  • the ROI information acquirer 131 may obtain information about the ROI.
  • the ROI information acquirer 131 may acquire color range information of coordinates corresponding to the ROI, foreground included in the ROI, and background using metadata extracted by the decoder 120.
  • the HDR processor 133 may perform HDR processing on the ROI using metadata about the ROI.
  • the HDR processor 133 may acquire HDR information by using metadata extracted by the decoder 120 and store the HDR information in a storage unit (not shown).
  • the HDR processor 133 may generate the HDR image using the HDR information obtained by using the metadata for the image signal as the rendering information.
  • the HDR image rendering information may include minimum and maximum brightness information per scene or frame, color specification information including color gamut and color temperature of an image, and transfer parameters including CE (constrast enhancement) control parameters as essential HDR information.
  • the HDR image rendering information may include at least one of histogram information indicating minimum, highest, and most frequent pixel value information, sharpness information indicating boundary region intensity information of an image, and scene or frame correlation information as selective HDR information. It may include.
  • the HDR processor 133 may generate HDR backlight information by using the HDR image. In addition, the HDR processor 133 may adjust the HDR image using the HDR backlight information. In addition, the HDR processor 133 may display the adjusted HDR image through an image output unit (not shown).
  • the HDR processing unit 133 may adjust the HDR backlight information generated by using the HDR information stored in the storage unit (not shown) or obtained by using the metadata extracted by the decoder 120 as the backlight dimming information.
  • the backlight dimming information may include backlight peak information including backlight unit luminance mapping parameters for each scene or frame as essential HDR information.
  • the backlight dimming information may optionally further include scene information and backlight characteristic information including scene or frame timeline environment information.
  • the HDR processor 133 may determine the backlight luminance for the optimal dynamic range representation of the display apparatus 100 with respect to the HDR image. For example, the backlight luminance of the corresponding region may be adjusted such that the luminance of the black region and the peak region of the displayed image is the maximum / minimum luminance by using the maximum / minimum luminance value and the histogram information. That is, the HDR processor 133 may generate a luminance control signal (dimming signal) of the backlight according to the luminance information. When the backlight luminance is determined, the HDR processor 133 may calculate the final output image.
  • the backlight luminance control signal dimming signal
  • the HDR processor 133 includes a pixel information determiner 133-1 and a pixel value adjuster 133-2.
  • the pixel information determiner 133-1 may determine information about pixels of an area corresponding to the ROI.
  • the pixel information determiner 133-1 uses the color range information of the foreground and the background included in the ROI acquired by the ROI acquirer 131 to display each pixel of the region corresponding to the ROI. It may be determined whether it corresponds to a region of the background and a mixed region of the foreground and the background.
  • the pixel information determination unit 133-1 may display the color range information of the mixed area of the foreground and the background. It can be judged as 80 to 115.
  • the pixel information determination unit 133-1 may determine which of the pixels corresponds to a foreground, a background, or a mixed area of the foreground and the background according to the pixel value of each pixel included in the ROI. For example, if the pixel value of the first pixel included in the ROI is 25, the pixel information determination unit 133-1 may determine that the first pixel is a pixel corresponding to the foreground.
  • the pixel information determiner 133-1 may determine that the second pixel is a pixel corresponding to a mixed area of the foreground and the background. If the pixel value of the third pixel included in the ROI is 200, the pixel information determination unit 133-1 may determine that the third pixel is a pixel corresponding to the background.
  • the color range information may be at least one range information of R, G, B, and maxRGB.
  • the pixel value controller 133-2 may adjust each pixel value based on the pixel information determined by the pixel information determiner 133-1. Specifically, the pixel value adjusting unit 133-2 uses at least one of tone mapping or saturation mapping using different parameters for each pixel corresponding to the foreground, a pixel corresponding to the background, and a pixel corresponding to a mixed area of the foreground and the background. You can adjust pixel values by doing one. For example, the pixel value adjusting unit 133-2 performs at least one of tone mapping or saturation mapping on a pixel corresponding to the foreground by using a specific parameter, and global tone mapping or saturation on a pixel corresponding to the background. At least one of the mappings may be performed.
  • FIG. 4 illustrates an image packet or a bit stream received from an external device through the image receiver 110.
  • the video packet or bitstream may include metadata 410.
  • the metadata 410 may include global metadata 420 including information about the entire region and ROI metadata 430 including information about the ROI.
  • the ROI metadata 430 may include information 431 about coordinates representing the ROI, color range information 433 of the ROI, and mapping information 435.
  • color range information, mapping information, and the like may be included.
  • the region of interest may have various shapes, as shown in FIGS. 5A to 5D, according to various embodiments of the present disclosure.
  • the ROI may be an area including the main object.
  • the ROI 520 may have a rectangular shape including the object 510.
  • Coordinates representing the ROI 520 may be [(Xmin, Ymin), (Xmax, Ymax) ⁇ .
  • the ROI 540 may have a circular shape including the object 530.
  • the coordinates representing the ROI 540 may be [(x, y), r].
  • the ROI 560 may have an ellipse shape including the object 550.
  • coordinates representing the ROI 560 may be [(x, y), a, b].
  • the ROI 580 may have a rhombus shape including the object 570.
  • coordinates representing the ROI 580 may be [(x1, y1), (x2, y2), (x3, y3), (x4, y4)].
  • the ROIs 520, 540, 560, and 580 may be designated as a minimum area including the main objects 510, 530, 550, 570 according to the shape of the main objects 510, 530, 550, 570 by the user when generating image data.
  • the HDR processor 133 may acquire color range information of the foreground 610, the background 620, and the mixed region of the foreground 610 and the background 620 based on metadata about the ROI.
  • the HDR processor 133 may acquire the color range 630 information of the foreground 610 and the color range 640 information of the background 620 based on metadata information of the ROI.
  • the HDR processor 133 may obtain a range 650 in which the color range 630 of the foreground 610 and the color range 640 of the background 620 overlap with the range information of the mixed region of the foreground and the background. have.
  • the HDR processor 133 may determine that the first pixel corresponds to the foreground.
  • the HDR processor 133 may determine that the second pixel corresponds to the background.
  • the HDR processor 133 may determine that the third pixel corresponds to the mixed area of the foreground and the background. It can be judged that.
  • the HDR processor 133 determines which area of the foreground, background, and mixed area of the foreground and the background. At least one of tone mapping or saturation mapping may be performed using different parameters depending on whether the pixel corresponds to a pixel.
  • the HDR processor 133 may perform at least one of tone mapping or saturation mapping according to whether each pixel corresponds to a foreground, a background, or a mixed region of the foreground and the background based on the information about the pixel. .
  • the HDR processor 133 may calculate a parameter value of the foreground, the background, or a mixed region of the foreground and the background using color range information included in the metadata.
  • the HDR processing unit 133 may be the color range [Lm (in), Um (in)] 710 of the foreground and the color range [Lm (in) of the background based on the color range information included in the metadata.
  • Um (in)] 720 may be determined to be the region [Lm (out), Um (in)] 730 overlapped with each other as a mixed region of the foreground and the background.
  • FIG. 7A illustrates that the foreground, the background, or the mixed region of the foreground and the background is determined by using color range information included in the metadata, the foreground, the background, or the mixed region of the foreground and the background is determined by using the luminance range information. You may.
  • the color range information may be range information of each of R (red), G (green), and B (blue), maxRGB range information, and two of R (red), G (green), B (blue), and maxRGB. It may be based on more than one range information.
  • the HDR processor 133 may calculate parameter values differently according to regions corresponding to each pixel.
  • the foreground area 760 may have a foreground parameter value 795 of 1 and a background parameter value 790 of 0 in the foreground.
  • the foreground parameter value 795 may be 0 and the background parameter value 790 may be 1.
  • the foreground parameter value 795 and the background parameter value 790 may have a variable value according to the luminance value, and the tone mapping or the saturation mapping may be performed. In this case, both the foreground parameter value 795 and the background parameter value 790 may affect.
  • FIG. 7B the foreground area 760 may have a foreground parameter value 795 of 1 and a background parameter value 790 of 0 in the foreground.
  • the foreground parameter value 795 may be 0 and the background parameter value 790 may be 1.
  • the foreground parameter value 795 and the background parameter value 790 may have a variable value according to the luminance value, and the tone mapping or the saturation mapping
  • the foreground parameter value 795 and the background parameter value 790 are linearly changed according to the luminance value in the area 770 corresponding to the mixed area of the foreground and the background.
  • this is only an example. It can change nonlinearly.
  • FIG. 8 is a diagram for describing a method of performing tone mapping based on parameter values calculated in FIGS. 7A and 7B, according to an exemplary embodiment.
  • the HDR processing unit 133 may perform tone mapping by using an equation such as Equation (1).
  • Is the tone mapping value of i pixels Is the foreground parameter value, Is the background parameter value. That is, when the tone mapping value is calculated by substituting the foreground parameter and the background parameter value calculated in FIG. 7B, the foreground area 830 matches the tone 810 of the foreground, and the background area 840 uses the background tone ( 820). In addition, it can be seen that in the mixed region 850 of the foreground and the background, a new tone mapping value is calculated based on the foreground parameter value and the background parameter value.
  • FIG. 9 is a diagram for describing a method of performing saturation mapping based on parameter values calculated in FIGS. 7A and 7B according to one embodiment of the present disclosure.
  • Is the saturation mapping value of i pixels Is the foreground parameter value, Is the background parameter value. That is, when the foreground parameter and the background parameter value calculated in FIG. 7B are substituted to calculate the saturation mapping value, the foreground area 930 matches the tone value 910 of the foreground and the background area 940 matches the tone value of the background ( 920). In addition, it can be seen that in the mixed region 950 of the foreground and the background, a new saturation mapping value is calculated based on the foreground parameter value and the background parameter value.
  • the HDR processor 133 may generate a higher quality image by performing tone mapping and chroma mapping by dividing the foreground, the background, and the mixed region of the foreground and the background.
  • the display apparatus 100 receives image data from the outside (S1010).
  • the display apparatus 100 separates the received image data into image signals and metadata.
  • the display apparatus 100 may parse the message included in the received image data to extract metadata.
  • the display apparatus 100 may separate metadata of the entire region and metadata of the ROI from the extracted metadata.
  • the display apparatus 100 obtains information on an ROI using metadata.
  • the display apparatus 100 uses the foreground, background, and color range information of a mixed area of the foreground and the background included in the ROI included in the metadata, so that the pixels included in the ROI may be separated from the foreground, the background, and the foreground. It may be determined which area of the mixed area of the background is the pixel.
  • the display apparatus 100 performs HDR processing on the ROI by using the acquired information on the ROI.
  • the display apparatus 100 may determine a parameter corresponding to the foreground, a parameter corresponding to the background, and a foreground according to whether the pixel included in the ROI corresponds to a pixel corresponding to the foreground, the background, and a mixed area of the foreground and the background.
  • HDR processing may be performed on the ROI by performing at least one of tone mapping or chroma mapping using a parameter corresponding to the mixed region of the background.
  • the above-described method can be written as a program that can be executed in a computer, it can be implemented in a general-purpose digital computer to operate the program using a computer-readable recording medium.
  • the structure of the data used in the above-described method can be recorded on the computer-readable recording medium through various means.
  • the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, a DVD, etc.).

Abstract

영상 신호를 처리하여 디스플레이하는 디스플레이 장치 및 이의 제어 방법이 제공된다. 본 디스플레이 장치의 제어 방법은 영상 데이터를 수신하고, 수신된 영상 데이터를 영상 신호와 메타데이터로 분리하며, 메타데이터를 이용하여 관심 영역에 대한 정보를 획득하고, 상기 획득된 관심 영역에 대한 정보를 이용하여 상기 관심 영역에 대한 HDR(high dynamic range) 처리를 수행한다.

Description

디스플레이 장치 및 이의 제어 방법
본 개시는 디스플레이 장치 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는 수신된 영상 데이터의 메타데이터를 이용하여 특정 영역에 대하여 HDR 처리를 수행하는 디스플레이 장치 및 이의 제어 방법에 관한 것이다.
실제 자연환경에서는 밝기의 범위가 매우 넓다. 예를 들면, 밤하늘과 같은 매우 어두운 장면부터 태양광과 같은 아주 밝은 장면까지 밝기의 범위가 매우 넓다. 특히, 한 장면에서 매우 어두운 부분부터 매우 밝은 부분까지의 넓은 다이나믹 레인지(dynamic range)를 포함하는 경우도 많다.
하지만, 현재 일반적인 디스플레이 장치는 자신이 표현할 수 있는 최대 밝기의 제한 및 디스플레이 장치로 전송되어 오는 입력 신호의 표현력의 제약 때문에 인간의 시각 시스템(Human Visual System)이 실제 자연환경을 보면서 느낄 수 있는 다이나믹 레인지 혹은 그에 상응하는 밝기 비율을 실제적으로 표현하기는 힘들다. 또는, 디스플레이 장치가 표현할 수 있는 다이나믹 레인지보다 카메라 등과 같은 영상 생성 장치의 다이나믹 레인지가 좁은 경우도 존재한다.
영상 생성 장치와 디스플레이 장치가 표현할 수 있는 다이나믹 레인지가 상이한 경우, 화질 왜곡이 발생하는 문제점이 있을 수 있다. 그리고, 화질 왜곡을 최소화하기 위하여 톤 맵핑(tone mapping), 채도 맵핑(saturation mapping) 등과 같은 다양한 맵핑을 수행하기 위해 높은 cost를 발생해야하는 문제점도 있을 수 있다.
따라서, 화질 왜곡 및 구현 cost를 최소화하기 위한 처리 기술 및 HDR 효과 향상을 위한 기술의 필요성이 대두되고 있다.
본 개시는 상술한 문제점을 해결하기 위해 안출된 것으로, 본 개시의 목적은 수신된 영상 데이터의 메타데이터를 분석하여 관심 영역의 전경 및 배경 정보를 이용함으로써 관심 영역의 HDR 처리를 수행하는 디스플레이 장치 및 이의 제어 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 개시의 일 실시 예에 따른, 영상 신호를 처리하여 디스플레이하는 디스플레이 장치의 제어 방법은, 영상 데이터를 수신하는 단계; 상기 수신된 영상 데이터를 영상 신호와 메타데이터로 분리하는 단계; 및 상기 메타데이터를 이용하여 관심 영역에 대한 정보를 획득하고, 상기 획득된 관심 영역에 대한 정보를 이용하여 상기 관심 영역에 대한 HDR(high dynamic range) 처리를 수행하는 단계;를 포함한다.
그리고, 상기 관심 영역에 대한 정보는 상기 관심 영역에 대응되는 좌표, 상기 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지(color range) 정보를 포함할 수 있다.
또한, 상기 HDR 처리를 수행하는 단계는,
상기 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 이용하여 상기 관심 영역에 포함된 복수의 픽셀에 대한 정보를 판단하는 단계; 및
상기 복수의 픽셀에 대한 정보에 따라 상기 관심 영역에 포함된 복수의 픽셀값을 조절하는 단계;를 포함할 수 있다.
그리고, 상기 픽셀에 대한 정보는 상기 복수의 픽셀이 배경에 대응되는 제1 그룹, 전경에 대응되는 제2 그룹 및 전경과 배경의 혼합에 대응되는 제3 그룹 중 어느 그룹에 속하는지 나타내는 정보를 포함할 수 있다.
또한, 상기 복수의 픽셀값을 조절하는 단계는, 상기 복수의 픽셀에 대하여 톤 맵핑(tone mapping) 또는 채도 맵핑(saturation mapping) 중 적어도 하나를 수행하여 톤 또는 채도 중 적어도 하나를 조절할 수 있다.
그리고, 상기 관심 영역에 대응되는 좌표는 상기 영상 데이터의 메인 오브젝트를 포함하는 기 설정된 모양에 대한 좌표일 수 있다.
또한, 상기 관심 영역에 대응되는 좌표는 상기 영상 데이터의 메인 오브젝트를 포함하는 기 설정된 모양을 기 설정된 비율로 확대한 모양에 대한 좌표일 수 있다.
그리고, 상기 컬러 레인지 정보는 maxRGB, 적색(R), 녹색(G) 및 청색(B) 중 적어도 하나의 범위에 대한 정보를 포함할 수 있다.
한편, 상기 목적을 달성하기 위한 본 개시의 일 실시 예에 따른, 영상 신호를 처리하여 디스플레이하는 디스플레이 장치는, 영상 데이터를 수신하도록 구성된 영상수신부; 상기 수신된 영상 데이터를 영상 신호와 메타데이터로 분리하도록 구성된 디코더; 및 상기 메타데이터를 이용하여 관심 영역에 대한 정보를 획득하고, 상기 획득된 관심 영역에 대한 정보를 이용하여 상기 관심 영역에 대한 HDR 처리를 수행하도록 구성된 영상 처리부;를 포함한다.
그리고, 상기 관심 영역에 대한 정보는 상기 관심 영역에 대응되는 좌표, 상기 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 포함할 수 있다.
또한, 상기 영상처리부는, 상기 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 이용하여 상기 관심 영역에 포함된 복수의 픽셀에 대한 정보를 판단하고, 상기 복수의 픽셀에 대한 정보에 따라 상기 관심 영역에 포함된 복수의 픽셀값을 조절할 수 있다.
그리고, 상기 픽셀에 대한 정보는 상기 복수의 픽셀이 배경에 대응되는 제1 그룹, 전경에 대응되는 제2 그룹 및 전경과 배경의 혼합에 대응되는 제3 그룹 중 어느 그룹에 속하는지 나타내는 정보를 포함할 수 있다.
또한, 상기 영상처리부는, 상기 복수의 픽셀에 대하여 톤 맵핑 또는 채도 맵핑 중 적어도 하나를 수행하여 톤 또는 채도 중 적어도 하나를 조절할 수 있다.
그리고, 상기 관심 영역에 대응되는 좌표는 상기 영상 데이터의 메인 오브젝트를 포함하는 기 설정된 모양에 대한 좌표일 수 있다.
또한, 상기 관심 영역에 대응되는 좌표는 상기 영상 데이터의 메인 오브젝트를 포함하는 기 설정된 모양을 기 설정된 비율로 확대한 모양에 대한 좌표일 수 있다.
그리고, 상기 컬러 레인지 정보는 maxRGB, 적색(R), 녹색(G) 및 청색(B) 중 적어도 하나의 범위에 대한 정보를 포함할 수 있다.
상술한 바와 같이, 본 개시의 다양한 실시 예에 따라, 관심 영역에 대한 HDR 처리가 수행된 영상을 디스플레이하는 디스플레이 장치 및 이의 제어 방법을 제공할 수 있다.
도 1은 본 개시의 일 실시 예에 따른, 디스플레이 장치의 구성을 간략히 도시한 블럭도,
도 2는 본 개시의 일 실시 예에 따른, 디스플레이 장치에 포함된 영상처리부의 구성을 간략히 도시한 블럭도,
도 3은 본 개시의 일 실시 예에 따른, 영상처리부에 포함된 관심 영역 정보 획득부의 구성을 간략히 도시한 블럭도,
도 4 내지 도 9는 본 개시의 다양한 실시 예에 따른, 디스플레이 장치의 관심 영역 정보를 이용하여 관심 영역에 대한 HDR 처리를 수행하는 다양한 실시 예들을 설명하기 위한 도면들, 그리고,
도 10은 본 개시의 일 실시 예에 따른, 디스플레이 장치를 제어하는 방법을 설명하기 위한 흐름도이다.
본 개시의 실시 예에서 사용되는 용어에 대해 간략히 설명하고, 본 실시 예들에 대해 구체적으로 설명하기로 한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시 예들의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 실시 예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시 예들의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시의 실시 예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 개시의 실시 예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
또한, 본 개시의 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 본 개시의 실시 예에서, ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의‘모듈’ 혹은 복수의‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.
또한, 본 개시의 실시 예에서, 사용자 입력은, 터치 입력, 벤딩 입력, 음성 입력, 버튼 입력 및 다중(multimodal) 입력 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 본 개시에 따른 영상 신호의 HDR(high dynamic range) 처리는 영상 데이터를 생성할 때 사용자에 의해 특정 오브젝트를 선명하게 표현하기 위한 의도, 영상 촬영 환경 정보 및 디스플레이 장치의 사양에 대응되도록 표현되기 위한 영상 부가 정보를 의미할 수 있다.
또한, 본 개시의 실시 예에서, 관심 영역은, 메인 오브젝트를 포함하는 영역일 수 있다. 그리고, 전경은, 관심 영역 중 메인 오브젝트에 해당하는 영역일 수 있고, 배경은, 관심 영역 중 메인 오브젝트에 해당하지 않는 영역일 수 있다.
이하에서는 도면을 참조하여 본 개시에 대해 설명하기로 한다. 도 1은 본 개시의 일 실시 예에 따른, 디스플레이 장치(100)의 구성을 나타내는 도면이다. 도 1에 도시된 바와 같이, 디스플레이 장치(100)는 영상수신부(110), 디코더(120) 및 영상처리부(130)를 포함한다. 한편, 본 개시의 일 실시 예에 따른, 디스플레이 장치(100)는 스마트 TV, 데스크탑 PC, 스마트 폰, 태블릿 PC, 노트북 PC, 셋탑박스 등과 같은 다양한 전자 장치로 구현될 수 있다.
영상수신부(110)는 외부 장치로부터 영상 데이터를 수신할 수 있다. 구체적으로, 영상수신부(110)는 외부 장치로부터 코딩된 영상 패킷(packet) 또는 비트스트림(bit stream)을 수신할 수 있다. 또한, 영상 수신부(110)는 방송국으로부터 송출되는 RF(radio frequency) 신호를 무선으로 수신하거나, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오비디오(super video), SCRAT, HDMI, SMPTE 규격 등에 의한 영상 데이터를 유선으로 수신할 수도 있다. 또는, 영상수신부(110)는 웹 서버에 접속하여 웹 컨텐츠의 데이터 패킷을 수신할 수도 있다. 경우에 따라서, 영상수신부(110)는 메타데이터를 포함하는 2차원 영상신호 또는 메타데이터를 포함하는 3차원 영상신호를 수신할 수 있다.
디코더(120)는 수신한 영상 데이터를 디코딩하여 영상 신호와 메타데이터를 분리할 수 있다. 구체적으로, 영상수신부(110)를 통해 메타데이터를 포함하는 영상 데이터를 수신하면, 디코더(120)는 수신한 영상 데이터에 포함된 메시지를 파싱(parsing)하여 메타데이터를 추출할 수 있다. 그리고, 디코더(120)는 추출한 메타데이터로부터 전체 영역에 대한 메타데이터와 관심 영역에 대한 메타데이터를 분리할 수 있다. 디코더(120)에서 추출된 전체 영역에 대한 메타데이터와 관심 영역에 대한 메타데이터는 HDR 정보를 포함할 수 있다. 이때, HDR 정보는 영상 데이터 생성 시 입력될 수 있으나, 이에 한정되지 않고 유무선 네트워크를 통해 수신될 수도 있다. 또한, 관심 영역이란 메인 오브젝트를 포함하는 특정 영역으로 사용자에 의해 지정될 수 있다.
영상처리부(130)는 디코더(120)를 통해 추출된 메타데이터를 이용하여 관심 영역에 대한 정보를 획득할 수 있다. 그리고, 영상처리부(130)는 획득된 관심 영역에 대한 정보를 이용하여 관심 영역에 대한 HDR 처리를 수행할 수 있다.
구체적으로, 영상처리부(130)는 디코더(120)를 통해 추출된 메타데이터를 이용하여 관심 영역에 대한 정보를 획득할 수 있다. 이때, 관심 영역에 대한 정보는 관심 영역에 해당하는 영역을 나타내기 위하여 관심 영역에 대응되는 좌표, 관심 영역에 포함된 전경에 대한 컬러 레인지(color range) 정보 및 배경에 대한 컬러 레인지 정보를 포함할 수 있다. 구체적으로, 관심 영역에 대응되는 좌표는 메인 오브젝트를 포함하는 기 설정된 모양에 대한 좌표일 수도 있고, 메인 오브젝트를 포함하는 기 설정된 모양을 기 설정된 비율로 확대한 모양에 대한 좌표일 수도 있다. 예를 들어, 관심 영역에 대응되는 좌표는 메인 오브젝트를 포함하는 바운딩 박스(bounding box)를 나타내기 위한 [(Xmin,Ymax),(Xmax,Ymin)]일 수도 있고, 메인 오브젝트를 포함하는 바운딩 박스를 가로와 세로 각각 10%씩 확대한 모양에 대응되는 좌표일 수도 있다. 또한, 관심 영역에 포함된 전경과 배경에 대한 컬러 레인지 정보는 maxRGB, 적색(R), 녹색(G) 및 청색(B) 중 적어도 하나의 범위에 대한 정보를 포함할 수 있다. 또한, 관심 영역에 포함된 전경과 배경에 대한 컬러 레인지 정보는 HSV(hue saturation value), 와이시비시아르(Ycbcr) 범위에 대한 정보일 수도 있다.
그리고, 영상처리부(130)는 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 이용하여 관심 영역에 포함된 복수의 픽셀에 대한 정보를 판단할 수 있다. 특히, 영상처리부(130)는 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 이용하여 관심 영역에 포함된 복수의 픽셀이 배경에 대응되는지, 전경에 대응되는지, 배경과 전경의 혼합 영역에 대응되는지 여부를 판단할 수 있다.
그리고, 영상처리부(130)는 복수의 픽셀에 대한 정보를 바탕으로 관심 영역에 포함된 복수의 픽셀값을 조절할 수 있다. 특히, 영상처리부(130)는 복수의 픽셀에 대한 정보를 바탕으로 관심 영역에 포함된 복수의 픽셀에 대하여 톤 맵핑(tone mapping) 또는 채도 맵핑(saturation mapping) 중 적어도 하나를 수행하여 복수의 픽셀의 톤 또는 채도 중 적어도 하나를 조절할 수 있다. 이때, 톤 맵핑은 입력 픽셀의 루마(luma) 값에 대한 출력 픽셀의 루마 값으로의 비선형 맵핑일 수 있다. 그리고, 채도 맵핑은 입력 픽셀의 선명도 값에 대한 출력 픽셀의 선명도 값으로의 비선형 맵핑일 수 있다. 톤 맵핑 및 채도 맵핑은 수신된 영상 데이터를 디스플레이 장치 사양, 시청 조건 및 사용자의 선호 특성들과 매칭하기 위해 수행될 수 있으며, 글로벌 톤/채도 맵핑은 모든 픽셀들에 처리가 적용되는 것을 뜻하고, 로컬 톤/채도 맵핑은 일부 픽셀 특히, 관심 영역에 해당하는 픽셀에 처리가 적용되는 것을 뜻한다.
도 2는 본 개시의 일 실시 예에 따른, 디스플레이 장치(100)에 포함된 영상처리부(130)의 구성을 간략히 도시한 블럭도이다. 도 2에 도시된 바와 같이, 영상처리부(130)는 관심 영역 정보 획득부(131) 및 HDR 처리부(133)를 포함한다.
관심 영역 정보 획득부(131)는 관심 영역에 대한 정보를 획득할 수 있다. 구체적으로, 관심 영역 정보 획득부(131)는 디코더(120)에서 추출된 메타데이터를 이용하여 관심 영역에 대응되는 좌표, 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 획득할 수 있다.
HDR 처리부(133)는 관심영역에 대한 메타데이터를 이용하여 관심 영역의 HDR 처리를 수행할 수 있다. 구체적으로, HDR 처리부(133)는 디코더(120)에서 추출된 메타데이터를 이용하여 HDR 정보를 획득하고, 저장부(미도시)에 저장할 수 있다. 그리고, HDR 처리부(133)는 영상 신호에 대해 메타데이터를 이용하여 얻은 HDR 정보를 랜더링 정보로 이용하여 HDR 영상을 생성할 수 있다. HDR 영상 랜더링 정보는 필수 HDR 정보로서 장면 또는 프레임별 최소 및 최대 밝기 정보, 영상의 컬러 색역 및 색온도를 포함하는 컬러 스펙 정보 및 CE(constrast enhancement) 제어 파라미터를 포함하는 트랜스퍼 파라미터를 포함할 수 있다. 또한, HDR 영상 랜더링 정보는 선택 HDR 정보로서 최저, 최고, 최빈 화소값 정보를 나타내는 히스토그램 정보, 영상의 경계 영역 강도 정보를 나타내는 샤프니스(sharpness) 정보, 장면 또는 프레임간 상관관계 정보 중 적어도 하나를 선택적으로 포함할 수 있다.
그리고, HDR 처리부(133)는 HDR 영상을 이용하여 HDR 백라이트 정보를 생성할 수 있다. 그리고, HDR 처리부(133)는 HDR 백라이트 정보를 이용하여 HDR 영상을 조정할 수 있다. 그리고, HDR 처리부(133)는 조정된 HDR 영상을 영상 출력부(미도시)를 통해 디스플레이할 수 있다.
그리고, HDR 처리부(133)는 저장부(미도시)에 저장되거나 디코더(120)에서 추출된 메타데이터를 이용하여 획득된 HDR 정보를 백라이트 디밍(diming) 정보로 이용하여 생성된 HDR 백라이트 정보를 조정할 수 있다. 이때, 백라이트 디밍 정보는 필수 HDR 정보로서 장면 또는 프레임별 백라이트 유닛 휘도 맵핑 파리미터를 포함하는 백라이트 피크 정보를 포함할 수 있다. 또한, 백라이트 디밍 정보는 장면 또는 프레임 타임 라인 주변환경정보를 포함하는 장면정보 및 백라이트 특성 정보를 선택적으로 더 포함할 수도 있다.
그리고, HDR 처리부(133)는 HDR 영상에 대하여 디스플레이 장치(100)의 최적 다이내믹 레인지 표현을 위한 백라이트 휘도를 판단할 수 있다. 예를 들어, 최대/최소 휘도 값과 히스토그램 정보를 이용하여 표시되는 영상의 블랙 영역과 피크 영역의 휘도를 최대/최소의 휘도가 되도록 해당 영역의 백라이트 휘도를 조절할 수 있다. 즉, HDR 처리부(133)는 휘도 정보에 따라 백라이트의 휘도 제어신호(디밍신호)를 생성할 수 있다. 백라이트 휘도가 결정되면, HDR 처리부(133)는 최종 출력 영상을 계산할 수 있다.
도 3에 도시된 바와 같이, HDR 처리부(133)는 픽셀 정보 판단부(133-1) 및 픽셀 값 조절부(133-2)를 포함한다.
픽셀 정보 판단부(133-1)는 관심 영역에 해당하는 영역의 픽셀의 정보를 판단할 수 있다. 구체적으로, 픽셀 정보 판단부(133-1)는 관심 영역 획득부(131)에서 획득된 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 이용하여 관심 영역에 대응하는 영역의 픽셀 각각이 전경, 배경 및 전경과 배경의 혼합 영역 중 어느 영역에 해당하는지 여부를 판단할 수 있다.
예를 들어, 전경에 대한 컬러 레인지 정보가 0 ~ 115 이고, 배경에 대한 컬러 레인지 정보가 80 ~ 255 라면, 픽셀 정보 판단부(133-1)는 전경과 배경의 혼합 영역에 대한 컬러 레인지 정보가 80 ~ 115 라고 판단할 수 있다. 그리고, 픽셀 정보 판단부(133-1)는 관심 영역에 포함된 픽셀 각각의 픽셀 값에 따라 픽셀 각각이 전경, 배경, 전경과 배경의 혼합 영역 중 어느 영역에 해당하는지 판단할 수 있다. 예를 들어, 관심 영역에 포함된 제1 픽셀의 픽셀 값이 25 라면, 픽셀 정보 판단부(133-1)는 제1 픽셀이 전경에 해당하는 픽셀이라고 판단할 수 있다. 그리고, 관심 영역에 포함된 제2 픽셀의 픽셀 값이 100 이라면, 픽셀 정보 판단부(133-1)는 제2 픽셀이 전경과 배경의 혼합 영역에 해당하는 픽셀이라고 판단할 수 있다. 그리고, 관심 영역에 포함된 제3 픽셀의 픽셀 값이 200 이라면, 픽셀 정보 판단부(133-1)는 제3 픽셀이 배경에 해당하는 픽셀이라고 판단할 수 있다. 한편, 컬러 레인지 정보는 R, G, B, maxRGB 중 적어도 하나 이상의 레인지 정보일 수 있다.
픽셀 값 조절부(133-2)는 픽셀 정보 판단부(133-1)에서 판단된 픽셀 정보를 바탕으로 각각의 픽셀 값을 조절할 수 있다. 구체적으로, 픽셀 값 조절부(133-2)는 전경에 해당하는 픽셀, 배경에 해당하는 픽셀, 전경과 배경의 혼합 영역에 해당하는 픽셀 각각에 대하여 상이한 파라미터를 이용하여 톤 맵핑 또는 채도 맵핑 중 적어도 하나를 수행하여 픽셀 값을 조절할 수 있다. 예를 들어, 픽셀 값 조절부(133-2)는 전경에 해당하는 픽셀에 대하여 특정 파라미터를 이용하여 톤 맵핑 또는 채도 맵핑 중 적어도 하나를 수행하고, 배경에 해당하는 픽셀에 대하여 글로벌 톤 맵핑 또는 채도 맵핑 중 적어도 하나를 수행할 수 있다.
본 개시의 일 실시 예에 따르면, 도 4는 영상수신부(110)를 통해 외부 장치로부터 수신된 영상 패킷(packet) 또는 비트스트림(bit stream)을 도시한다. 영상 패킷 또는 비트스트림은 메타데이터(410)를 포함할 수 있다. 그리고, 메타데이터(410)는 전체 영역에 대한 정보를 포함하는 글로벌 메타 데이터(420), 관심 영역에 대한 정보를 포함하는 관심 영역 메타데이터(430)를 포함할 수 있다. 그리고, 관심 영역 메타데이터(430)는 관심 영역을 나타내는 좌표에 대한 정보(431), 관심 영역의 컬러 레인지 정보(433) 및 맵핑 정보(435)를 포함할 수 있다. 한편, 도 4에서는 글로벌 메타 데이터(420)의 상세한 정보에 대하여는 도시하지 않았지만 컬러 레인지 정보, 맵핑 정보 등을 포함할 수 있다.
관심 영역은 본 개시의 다양한 실시 예에 따라 도 5a 내지 도 5d에 도시된 바와 같이, 다양한 형상일 수 있다. 관심 영역은 메인 오브젝트를 포함하는 영역일 수 있다. 예를 들어, 도 5a에 도시된 바와 같이, 관심 영역(520)은 오브젝트(510)를 포함하는 직사각형 형상일 수 있다. 그리고, 관심 영역(520)을 나타내는 좌표는 [(Xmin,Ymin), (Xmax,Ymax)}일 수 있다.
또는, 도 5b에 도시된 바와 같이, 관심 영역(540)은 오브젝트(530)를 포함하는 원 형상일 수 있다. 관심 영역(540)이 원 형상인 경우, 관심 영역(540)을 나타내는 좌표는 [(x,y), r]일 수 있다.
또는, 도 5c에 도시된 바와 같이, 관심 영역(560)은 오브젝트(550)를 포함하는 타원 형상일 수 있다. 관심 영역(560)이 타원 형상인 경우, 관심 영역(560)을 나타내는 좌표는 [(x,y), a, b]일 수 있다.
또는, 도 5d에 도시된 바와 같이, 관심 영역(580)은 오브젝트(570)를 포함하는 마름모 형상일 수 있다. 관심 영역(580)이 마름모 형상인 경우, 관심 영역(580)을 나타내는 좌표는 [(x1,y1),(x2,y2),(x3,y3),(x4,y4)]일 수 있다.
살펴본 바와 같이, 관심 영역(520,540,560,580)은 영상 데이터 생성시 사용자에 의해 메인 오브젝트(510,530,550,570)의 모양에 따라 메인 오브젝트(510,530,550,570)를 포함하는 최소한의 영역으로 지정될 수 있다.
이하에서는 도 6a 및 도 6b를 참조하여 픽셀에 대한 정보를 획득하는 방법에 대하여 설명한다.
우선, HDR 처리부(133)는 관심 영역에 대한 메타데이터를 바탕으로 전경(610), 배경(620) 및 전경(610)과 배경(620)의 혼합 영역에 대한 컬러 레인지 정보를 획득할 수 있다. 구체적으로, HDR 처리부(133)는 관심 영역에 대한 메타데이터 정보를 바탕으로 전경(610)의 컬러 레인지(630) 정보와 배경(620)의 컬러 레인지(640) 정보를 획득할 수 있다. 그리고, HDR 처리부(133)는 전경(610)의 컬러 레인지(630)와 배경(620)의 컬러 레인지(640)가 중첩된 레인지(650)를 전경과 배경의 혼합 영역의 레인지 정보로 획득할 수 있다.
그리고, 관심 영역에 포함된 제1 픽셀의 픽셀 값이 전경의 컬러 레인지(635)에 해당하는 경우, HDR 처리부(133)는 제1 픽셀이 전경에 해당하는 것으로 판단할 수 있다. 그리고, 관심 영역에 포함된 제2 픽셀의 픽셀 값이 배경의 컬러 레인지(645)에 해당하는 경우, HDR 처리부(133)는 제2 픽셀이 배경에 해당하는 것으로 판단할 수 있다. 그리고, 관심 영역에 포함된 제3 픽셀의 픽셀 값이 전경과 배경의 혼합 영역의 컬러 레인지(650)에 해당하는 경우, HDR 처리부(133)는 제3 픽셀이 전경과 배경의 혼합 영역에 해당하는 것으로 판단할 수 있다.
관심 영역에 해당하는 픽셀이 전경, 배경, 전경과 배경의 혼합 영역 중 어느 영역에 해당하는 픽셀인지 여부를 판단된 경우, HDR 처리부(133)는 전경, 배경, 전경과 배경의 혼합 영역 중 어느 영역에 해당하는 픽셀인지 여부에 따라 상이한 파라미터를 이용하여 톤 맵핑 또는 채도 맵핑 중 적어도 어느 하나를 수행할 수 있다.
이하에서는, 도 7a 내지 도 9를 참조하여 관심 영역에 대한 톤 맵핑과 채도 맵핑을 수행하는 실시 예에 대하여 설명한다.
우선, HDR 처리부(133)는 픽셀에 대한 정보를 바탕으로 각각의 픽셀이 전경, 배경 또는 전경과 배경의 혼합 영역 중 어느 영역에 해당하는지에 따라 톤 맵핑 또는 채도 맵핑 중 적어도 하나를 수행할 수 있다. 구체적으로, 도 7a에 도시된 바와 같이, HDR 처리부(133)는 메타데이터에 포함된 컬러 레인지 정보를 이용하여 전경, 배경 또는 전경과 배경의 혼합 영역의 파리미터 값을 산출할 수 있다. 예를 들어, HDR 처리부(133)는 메타데이터에 포함된 컬러 레인지 정보를 바탕으로 전경의 컬러 레인지 [Lm(in), Um(in)](710)와 배경에 대한 컬러 레인지 [Lm(in), Um(in)](720)에 중복 포함되는 영역 [Lm(out), Um(in)](730)을 전경과 배경의 혼합 영역이라고 판단할 수 있다. 도 7a 에서는 메타데이터에 포함된 컬러 레인지 정보를 이용하여 전경, 배경 또는 전경과 배경의 혼합 영역을 판단하는 것으로 설명하였지만, 휘도 레인지 정보 등을 이용하여 전경, 배경 또는 전경과 배경의 혼합 영역을 판단할 수도 있다. 또한, 컬러 레인지 정보는 R(red), G(green), B(blue) 각각의 레인지 정보, maxRGB 레인지 정보일 수도 있고, R(red), G(green), B(blue), maxRGB 중 두 개 이상의 레인지 정보를 바탕으로 할 수도 있다.
그리고, HDR 처리부(133)는 각각의 픽셀이 해당하는 영역에 따라 파라미터 값을 상이하게 산출할 수 있다. 예를 들어, 도 7b에 도시된 바와 같이, 전경에 해당하는 영역(760)은 전경 파라미터 값(795)이 1, 배경 파라미터 값(790)이 0 일수 있다. 그리고, 배경에 해당하는 영역(780)은 전경 파라미터 값(795)이 0, 배경 파라미터 값(790)이 1 일 수 있다. 그리고, 전경과 배경의 혼합 영역에 해당하는 영역(770)은 휘도 값에 따라 전경 파라미터 값(795) 및 배경 파라미터 값(790)이 가변의 값을 가질 수 있으며, 톤 맵핑 또는 채도 맵핑을 수행할 경우, 전경 파라미터 값(795)과 배경 파라미터 값(790)이 모두 영향을 미칠 수 있다. 도 7b에서는 전경과 배경의 혼합 영역에 해당하는 영역(770)은 휘도 값에 따라 전경 파라미터 값(795) 및 배경 파라미터 값(790)이 선형적으로 변하는 것으로 설명하였으나, 이는 일 실시 예에 불과할 뿐 비선형적으로 변할 수 있다.
도 8은 본 개시의 일 실시 예에 따른, 도 7a 및 도 7b에서 산출된 파라미터 값을 바탕으로 톤 맵핑을 수행하는 방법을 설명하기 위한 도면이다. 구체적으로, HDR 처리부(133)는 수학식 1과 같은 식을 이용하여 톤 맵핑을 수행할 수 있다.
(수학식 1)
Figure PCTKR2016010919-appb-I000001
이때,
Figure PCTKR2016010919-appb-I000002
는 i 픽셀의 톤 맵핑 값이며,
Figure PCTKR2016010919-appb-I000003
는 전경 파라미터 값,
Figure PCTKR2016010919-appb-I000004
는 배경 파라미터 값이다. 즉, 도 7b에서 산출된 전경 파라미터 및 배경 파라미터 값을 대입하여 톤 맵핑 값을 산출하면, 전경 영역(830)에서는 전경의 톤(810) 값과 일치하고, 배경 영역(840)에서는 배경의 톤(820)값과 일치함을 알 수있다. 또한, 전경과 배경의 혼합 영역(850)에서는 전경 파라미터 값과 배경 파라미터 값에 의해 새로운 톤 맵핑 값이 산출됨을 알 수 있다.
도 9는 본 개시의 일 실시 예에 따른, 도 7a 및 도 7b에서 산출된 파라미터 값을 바탕으로 채도 맵핑을 수행하는 방법을 설명하기 위한 도면이다.
(수학식2)
Figure PCTKR2016010919-appb-I000005
이때,
Figure PCTKR2016010919-appb-I000006
는 i 픽셀의 채도 맵핑 값이며,
Figure PCTKR2016010919-appb-I000007
는 전경 파라미터 값,
Figure PCTKR2016010919-appb-I000008
는 배경 파라미터 값이다. 즉, 도 7b에서 산출된 전경 파라미터 및 배경 파라미터 값을 대입하여 채도 맵핑 값을 산출하면, 전경 영역(930)에서는 전경의 톤(910) 값과 일치하고, 배경 영역(940)에서는 배경의 톤(920)값과 일치함을 알 수있다. 또한, 전경과 배경의 혼합 영역(950)에서는 전경 파라미터 값과 배경 파라미터 값에 의해 새로운 채도 맵핑 값이 산출됨을 알 수 있다.
HDR 처리부(133)는 살펴본 바와 같은 방법으로 전경, 배경 및 전경과 배경의 혼합 영역을 구분하여 톤 맵핑 및 채도 맵핑을 수행함으로써 보다 고화질의 영상을 생성할 수 있게 된다.
이하에서는 도 10을 참조하여 본 개시의 일 실시 예에 따른, 디스플레이 장치(100)의 제어 방법을 설명하기로 한다.
우선, 디스플레이 장치(100)는 외부로부터 영상 데이터를 수신한다(S1010).
그리고, 디스플레이 장치(100)는 수신된 영상 데이터를 영상 신호와 메타데이터로 분리한다(S1020). 구체적으로, 메타데이터를 포함하는 영상 데이터를 수신하면, 디스플레이 장치(100)는 수신한 영상 데이터에 포함된 메시지를 파싱하여 메타데이터를 추출할 수 있다. 그리고, 디스플레이 장치(100)는 추출한 메타데이터로부터 전체 영역에 대한 메타데이터와 관심 영역에 대한 메타데이터를 분리할 수 있다.
그리고, 디스플레이 장치(100)는 메타데이터를 이용하여 관심 영역에 대한 정보를 획득한다(S1030). 구체적으로, 디스플레이 장치(100)는 메타데이터에 포함된 관심 영역에 포함된 전경, 배경 및 전경과 배경의 혼합 영역에 대한 컬러 레인지 정보를 이용하여 관심 영역에 포함된 픽셀이 전경, 배경 및 전경과 배경의 혼합 영역 중 어느 영역에 해당하는 픽셀인지를 판단할 수 있다.
그리고, 디스플레이 장치(100)는 획득된 관심 영역에 대한 정보를 이용하여 관심 영역에 대한 HDR 처리를 수행한다(S1040). 구체적으로, 디스플레이 장치(100)는 관심 영역에 포함된 픽셀이 전경, 배경 및 전경과 배경의 혼합 영역 중 어느 영역에 해당하는 픽셀인지에 따라 전경에 대응되는 파라미터, 배경에 대응되는 파라미터, 전경과 배경의 혼합 영역에 대응되는 파라미터를 이용하여 톤 맵핑 또는 채도 맵핑 중 적어도 하나를 수행함으로써 관심 영역에 대한 HDR 처리를 수행할 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (15)

  1. 영상 신호를 처리하여 디스플레이하는 디스플레이 장치의 제어 방법에 있어서,
    영상 데이터를 수신하는 단계;
    상기 수신된 영상 데이터를 영상 신호와 메타데이터로 분리하는 단계; 및
    상기 메타데이터를 이용하여 관심 영역에 대한 정보를 획득하고, 상기 획득된 관심 영역에 대한 정보를 이용하여 상기 관심 영역에 대한 HDR(high dynamic range) 처리를 수행하는 단계;를 포함하는 디스플레이 장치의 제어 방법.
  2. 제1항에 있어서,
    상기 관심 영역에 대한 정보는 상기 관심 영역에 대응되는 좌표, 상기 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지(color range) 정보를 포함하는 것을 특징으로 하는 디스플레이 장치의 제어 방법.
  3. 제2항에 있어서,
    상기 HDR 처리를 수행하는 단계는,
    상기 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 이용하여 상기 관심 영역에 포함된 복수의 픽셀에 대한 정보를 판단하는 단계; 및
    상기 복수의 픽셀에 대한 정보에 따라 상기 관심 영역에 포함된 복수의 픽셀값을 조절하는 단계;를 포함하는 것을 특징으로 하는 디스플레이 장치의 제어 방법.
  4. 제3항에 있어서,
    상기 픽셀에 대한 정보는 상기 복수의 픽셀이 배경에 대응되는 제1 그룹, 전경에 대응되는 제2 그룹 및 전경과 배경의 혼합에 대응되는 제3 그룹 중 어느 그룹에 속하는지 나타내는 정보를 포함하는 것을 특징으로 하는 디스플레이 장치의 제어 방법.
  5. 제3항에 있어서,
    상기 복수의 픽셀값을 조절하는 단계는,
    상기 복수의 픽셀에 대하여 톤 맵핑(tone mapping) 또는 채도 맵핑(saturation mapping) 중 적어도 하나를 수행하여 톤 또는 채도 중 적어도 하나를 조절하는 것을 특징으로 하는 디스플레이 장치의 제어 방법.
  6. 제2항에 있어서,
    상기 관심 영역에 대응되는 좌표는 상기 영상 데이터의 메인 오브젝트를 포함하는 기 설정된 모양에 대한 좌표인 것을 특징으로 하는 디스플레이 장치의 제어 방법.
  7. 제2항에 있어서,
    상기 관심 영역에 대응되는 좌표는 상기 영상 데이터의 메인 오브젝트를 포함하는 기 설정된 모양을 기 설정된 비율로 확대한 모양에 대한 좌표인 것을 특징으로 하는 디스플레이 장치의 제어 방법.
  8. 제2항에 있어서,
    상기 컬러 레인지 정보는 maxRGB, 적색(R), 녹색(G) 및 청색(B) 중 적어도 하나의 범위에 대한 정보를 포함하는 것을 특징으로 하는 디스플레이 장치의 제어 방법.
  9. 영상 신호를 처리하여 디스플레이하는 디스플레이 장치에 있어서,
    영상 데이터를 수신하도록 구성된 영상수신부;
    상기 수신된 영상 데이터를 영상 신호와 메타데이터로 분리하도록 구성된 디코더; 및
    상기 메타데이터를 이용하여 관심 영역에 대한 정보를 획득하고, 상기 획득된 관심 영역에 대한 정보를 이용하여 상기 관심 영역에 대한 HDR 처리를 수행하도록 구성된 영상 처리부;를 포함하는 디스플레이 장치.
  10. 제9항에 있어서,
    상기 관심 영역에 대한 정보는 상기 관심 영역에 대응되는 좌표, 상기 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 포함하는 것을 특징으로 하는 디스플레이 장치.
  11. 제10항에 있어서,
    상기 영상처리부는,
    상기 관심 영역에 포함된 전경 및 배경에 대한 컬러 레인지 정보를 이용하여 상기 관심 영역에 포함된 복수의 픽셀에 대한 정보를 판단하고, 상기 복수의 픽셀에 대한 정보에 따라 상기 관심 영역에 포함된 복수의 픽셀값을 조절하는 것을 특징으로 하는 디스플레이 장치.
  12. 제11항에 있어서,
    상기 픽셀에 대한 정보는 상기 복수의 픽셀이 배경에 대응되는 제1 그룹, 전경에 대응되는 제2 그룹 및 전경과 배경의 혼합에 대응되는 제3 그룹 중 어느 그룹에 속하는지 나타내는 정보를 포함하는 것을 특징으로 하는 디스플레이 장치.
  13. 제11항에 있어서,
    상기 영상처리부는,
    상기 복수의 픽셀에 대하여 톤 맵핑 또는 채도 맵핑 중 적어도 하나를 수행하여 톤 또는 채도 중 적어도 하나를 조절하는 것을 특징으로 하는 디스플레이 장치.
  14. 제10항에 있어서,
    상기 관심 영역에 대응되는 좌표는 상기 영상 데이터의 메인 오브젝트를 포함하는 기 설정된 모양에 대한 좌표인 것을 특징으로 하는 디스플레이 장치.
  15. 제10항에 있어서,
    상기 관심 영역에 대응되는 좌표는 상기 영상 데이터의 메인 오브젝트를 포함하는 기 설정된 모양을 기 설정된 비율로 확대한 모양에 대한 좌표인 것을 특징으로 하는 디스플레이 장치.
PCT/KR2016/010919 2015-09-30 2016-09-29 디스플레이 장치 및 이의 제어 방법 WO2017057926A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/754,714 US10542242B2 (en) 2015-09-30 2016-09-29 Display device and method for controlling same
KR1020177036206A KR101985880B1 (ko) 2015-09-30 2016-09-29 디스플레이 장치 및 이의 제어 방법
CN201680055996.3A CN108141576B (zh) 2015-09-30 2016-09-29 显示装置及其控制方法
EP16852072.4A EP3343913B1 (en) 2015-09-30 2016-09-29 Display device and method for controlling same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562234955P 2015-09-30 2015-09-30
US62/234,955 2015-09-30

Publications (1)

Publication Number Publication Date
WO2017057926A1 true WO2017057926A1 (ko) 2017-04-06

Family

ID=58427350

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/010919 WO2017057926A1 (ko) 2015-09-30 2016-09-29 디스플레이 장치 및 이의 제어 방법

Country Status (5)

Country Link
US (1) US10542242B2 (ko)
EP (1) EP3343913B1 (ko)
KR (1) KR101985880B1 (ko)
CN (1) CN108141576B (ko)
WO (1) WO2017057926A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754742A (zh) * 2017-11-06 2019-05-14 三星显示有限公司 显示驱动器集成电路和包括其的显示装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102380164B1 (ko) * 2018-09-19 2022-03-29 돌비 레버러토리즈 라이쎈싱 코오포레이션 게이밍 및/또는 sdr+ 콘텐츠에 대한 자동 디스플레이 관리 메타데이터 생성
CN109036334B (zh) 2018-09-26 2021-05-14 惠科股份有限公司 显示装置的亮度控制方法及装置
WO2023182973A1 (en) * 2022-03-21 2023-09-28 Hewlett-Packard Development Company, L.P. User selected display panel adjustment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060104508A1 (en) * 2004-11-16 2006-05-18 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
KR20100039664A (ko) * 2008-10-08 2010-04-16 한국과학기술원 영역 특성을 고려한 영상 보정 장치 및 그 방법
US8248494B2 (en) * 2008-05-20 2012-08-21 Ricoh Company, Ltd. Image dynamic range compression method, apparatus, and digital camera
KR101520069B1 (ko) * 2008-12-26 2015-05-21 삼성전자 주식회사 관심 영역 기반 영상 처리 장치 및 방법
KR101537182B1 (ko) * 2011-04-18 2015-07-16 퀄컴 인코포레이티드 높은 다이나믹 레인지 이미지들을 이용한 화이트 밸런스 최적화

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW492255B (en) 1998-03-30 2002-06-21 Sarnoff Corp Region-based information compaction as for digital images
US6560285B1 (en) 1998-03-30 2003-05-06 Sarnoff Corporation Region-based information compaction as for digital images
JP4674408B2 (ja) 2001-04-10 2011-04-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
GB2382940A (en) * 2001-11-27 2003-06-11 Nokia Corp Encoding objects and background blocks
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US9692964B2 (en) * 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7492375B2 (en) * 2003-11-14 2009-02-17 Microsoft Corporation High dynamic range image viewing on low dynamic range displays
JP2010252128A (ja) 2009-04-17 2010-11-04 Panasonic Corp メタデータ処理装置、映像処理装置及び映像処理システム
US8675010B2 (en) 2010-04-02 2014-03-18 Electronics And Telecommunications Research Institute Method and apparatus for providing metadata for sensory effect, computer readable record medium on which metadata for sensory effect is recorded, method and apparatus for representating sensory effect
CN103210418B (zh) 2010-11-23 2016-08-17 杜比实验室特许公司 高动态范围图像的内容元数据增强
KR20120119173A (ko) 2011-04-20 2012-10-30 삼성전자주식회사 3d 영상처리장치 및 그 입체감 조정방법
US9420302B2 (en) 2012-01-24 2016-08-16 Dolby Laboratories Licensing Corporation Weighted multi-band cross color channel predictor
EP2880624B1 (en) * 2012-03-26 2019-05-08 Koninklijke Philips N.V. Brightness region-based apparatuses and methods for hdr image encoding and decoding
RU2652465C2 (ru) * 2012-07-13 2018-04-26 Конинклейке Филипс Н.В. Усовершенствованные способы и устройства для кодирования и декодирования hdr изображений
KR102176398B1 (ko) 2013-06-28 2020-11-09 삼성전자주식회사 영상처리장치 및 영상처리방법
US9538155B2 (en) 2013-12-04 2017-01-03 Dolby Laboratories Licensing Corporation Decoding and display of high dynamic range video
WO2015126144A1 (ko) 2014-02-18 2015-08-27 엘지전자 주식회사 파노라마 서비스를 위한 방송 신호 송수신 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060104508A1 (en) * 2004-11-16 2006-05-18 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
US8248494B2 (en) * 2008-05-20 2012-08-21 Ricoh Company, Ltd. Image dynamic range compression method, apparatus, and digital camera
KR20100039664A (ko) * 2008-10-08 2010-04-16 한국과학기술원 영역 특성을 고려한 영상 보정 장치 및 그 방법
KR101520069B1 (ko) * 2008-12-26 2015-05-21 삼성전자 주식회사 관심 영역 기반 영상 처리 장치 및 방법
KR101537182B1 (ko) * 2011-04-18 2015-07-16 퀄컴 인코포레이티드 높은 다이나믹 레인지 이미지들을 이용한 화이트 밸런스 최적화

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3343913A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754742A (zh) * 2017-11-06 2019-05-14 三星显示有限公司 显示驱动器集成电路和包括其的显示装置
US11837191B2 (en) 2017-11-06 2023-12-05 Samsung Display Co., Ltd. Display driver integrated circuit and display device including the same
CN109754742B (zh) * 2017-11-06 2024-02-06 三星显示有限公司 显示驱动器集成电路和包括其的显示装置

Also Published As

Publication number Publication date
EP3343913B1 (en) 2022-05-25
EP3343913A1 (en) 2018-07-04
US10542242B2 (en) 2020-01-21
KR20180000729A (ko) 2018-01-03
CN108141576B (zh) 2020-09-04
EP3343913A4 (en) 2018-09-26
KR101985880B1 (ko) 2019-09-03
US20180262727A1 (en) 2018-09-13
CN108141576A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
WO2017057926A1 (ko) 디스플레이 장치 및 이의 제어 방법
CN110691277A (zh) 视频信号的处理方法及装置
WO2019027252A1 (en) ADAPTIVE MAPPING OF DYNAMIC RANGE OF TONES WITH OVERLAY INDICATION
EP3235245B1 (en) Method and device of converting a high-dynamic-range version of a picture to a standard-dynamic-range version of said picture
CN114866809B (zh) 视频转换方法、装置、设备、存储介质及程序产品
CN106027886B (zh) 一种全景视频实现同步帧的方法及系统
WO2016195428A1 (ko) 영상 데이터의 제어 방법 및 장치
US8139079B2 (en) Color gamut component analysis apparatus, method of analyzing color gamut component, and color gamut component analysis program
CN113132696A (zh) 图像色调映射方法、装置、电子设备和存储介质
US7688334B2 (en) Method and system for video format transformation in a mobile terminal having a video display
EP3994657A1 (en) Image processing method and electronic device supporting the same
US8130317B2 (en) Method and system for performing interleaved to planar transformation operations in a mobile terminal having a video display
WO2019088476A1 (en) Image processing apparatus, method for processing image and computer-readable recording medium
CN110930932B (zh) 显示屏校正方法及系统
WO2020166923A1 (en) Color gamut mapping in the cie 1931 color space
CN107295255B (zh) 拍摄模式的确定方法、装置及终端
CN113727085A (zh) 一种白平衡处理方法和电子设备
WO2020171565A1 (en) Electronic device for processing image and image processing method thereof
WO2017074076A1 (ko) 전자 장치에서 콘텐츠의 명암비 제어 장치 및 방법
WO2016086493A1 (zh) 一种智能移动终端的浸入式视频呈现方法
CN113099191B (zh) 一种图像处理方法及装置
WO2018043916A1 (en) Display device and method for displaying image
CN110808002A (zh) 屏幕的显示补偿方法、装置及电子设备
WO2019013443A1 (ko) 디스플레이장치 및 그 제어방법
CN109862419B (zh) 一种智能数字激光电视交互方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16852072

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20177036206

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15754714

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2016852072

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE