WO2016076497A1 - 메타 데이터에 기초하여 영상을 디스플레이하는 방법 및 디바이스, 그에 따른 기록매체 - Google Patents

메타 데이터에 기초하여 영상을 디스플레이하는 방법 및 디바이스, 그에 따른 기록매체 Download PDF

Info

Publication number
WO2016076497A1
WO2016076497A1 PCT/KR2015/005490 KR2015005490W WO2016076497A1 WO 2016076497 A1 WO2016076497 A1 WO 2016076497A1 KR 2015005490 W KR2015005490 W KR 2015005490W WO 2016076497 A1 WO2016076497 A1 WO 2016076497A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
metadata
color
gamut
correcting
Prior art date
Application number
PCT/KR2015/005490
Other languages
English (en)
French (fr)
Inventor
민병석
김동현
한승훈
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US15/526,603 priority Critical patent/US10277783B2/en
Priority to KR1020177012959A priority patent/KR101927968B1/ko
Priority to CN201580071638.7A priority patent/CN107113411A/zh
Priority to EP15858627.1A priority patent/EP3211892A4/en
Publication of WO2016076497A1 publication Critical patent/WO2016076497A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6058Reduction of colour to a range of reproducible colours, e.g. to ink- reproducible colour gamut
    • H04N1/6063Reduction of colour to a range of reproducible colours, e.g. to ink- reproducible colour gamut dependent on the contents of the image to be reproduced
    • H04N1/6066Reduction of colour to a range of reproducible colours, e.g. to ink- reproducible colour gamut dependent on the contents of the image to be reproduced dependent on the gamut of the image to be reproduced
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • H04N1/6052Matching two or more picture signal generators or two or more picture reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6058Reduction of colour to a range of reproducible colours, e.g. to ink- reproducible colour gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6077Colour balance, e.g. colour cast correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3256Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document colour related metadata, e.g. colour, ICC profiles
    • H04N2201/3259Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document colour related metadata, e.g. colour, ICC profiles relating to the image, page or document, e.g. intended colours

Definitions

  • the present invention relates to a method and a device for displaying an image based on metadata. Also, the present invention relates to a method and a device for generating metadata for displaying an image. The present invention also relates to a recording medium on which meta data for displaying an image is recorded.
  • Display devices capable of displaying an image may have different colors gamuts, which are colors capable of expressing colors, for example, colors, depending on a panel or performance of the display device.
  • the input image is appropriately converted so that the gamut of each other can be matched, thereby improving color reproducibility.
  • the gamut of the input image is narrower than the gamut of the display apparatus, it is necessary to appropriately correct the input image in order to improve the color reproducibility of the image displayed on the display apparatus.
  • the present invention relates to a method and device for correcting and displaying an image based on metadata.
  • the display device may correct and display the narrow gamut image so that the color of the wide gamut image may be expressed using metadata.
  • FIG. 1 is a block diagram illustrating an internal structure of a device for generating metadata according to an embodiment.
  • FIG. 2 is a flowchart illustrating a method of generating metadata according to an embodiment.
  • FIG. 3 is a flowchart illustrating a method of generating metadata based on a tone mapping correction function, according to an exemplary embodiment.
  • FIG. 4 is a graph illustrating an example of correcting a tone mapping correction function, according to an exemplary embodiment.
  • FIG. 5 is a flowchart illustrating a method of generating metadata based on a saturation gray level mapping function according to an exemplary embodiment.
  • FIG. 6 is an exemplary diagram illustrating an example of color gamuts of a wide color gamut and a narrow color gamut image according to an exemplary embodiment.
  • FIG. 7 is a block diagram illustrating an internal configuration of a display apparatus displaying an image based on metadata according to an embodiment.
  • FIG. 8 is a flowchart illustrating a method of displaying a narrow color gamut image based on metadata according to an embodiment.
  • FIG. 9 is a block diagram illustrating an internal configuration of a device for generating metadata according to an embodiment.
  • FIG. 10 is a block diagram illustrating an internal configuration of a display apparatus 1000 that displays an image based on metadata according to an embodiment.
  • a method of generating metadata comprising: obtaining a first image and a second image having different color gamuts; Obtaining at least one of information about a white point and information about a gamut of the second image; Correcting the first image based on the obtained information; Generating the metadata based on a corresponding relationship between the corrected first image and the color information of the second image.
  • correcting the first image may include converting the color coordinates of the white point of the first image based on the color coordinates of the white point of the second image; Correcting the first image based on the color coordinates of the white point of the converted first image.
  • correcting the first image may include correcting the first image based on the color coordinates of the white point of the converted first image, and then mapping the color gamut of the first image to the color gamut of the second image. Doing; And correcting the first image based on the color gamut of the mapped first image.
  • the generating of the metadata may include acquiring luminance values of at least one pixel of the first image; Obtaining a luminance value of a pixel of a second image corresponding to the pixel; Generating the metadata based on the luminance value of the pixel of the second image corresponding to the luminance value of each pixel of the first image.
  • the generating of the metadata based on the luminance value may include the luminance value of the second image corresponding to the luminance value of the first image based on the obtained luminance values of the first image and the second image.
  • the generating of the metadata may include obtaining a saturation value of at least one pixel of the first image; Obtaining a chroma value of a pixel of a second image corresponding to the pixel; Generating the metadata based on the chroma value of the pixel of the second image corresponding to the chroma value of each pixel of the first image.
  • generating the metadata may include obtaining a function indicating a saturation value of the second image corresponding to the saturation value of the first image for at least one hue; Based on the function, generating the metadata.
  • the acquiring of the first image and the second image includes scaling or cropping the first image and the second image to match the first image and the second image.
  • a method of displaying a first image based on metadata comprising: obtaining the first image and metadata; Obtaining at least one of information about a white point and information about a color gamut for a second image having a color gamut different from the first image; Correcting the first image based on the obtained information; Correcting the corrected first image based on the metadata; And displaying the corrected first image based on the metadata.
  • correcting the first image may include converting color coordinates of a white point of the first image based on color coordinates of a white point of the second image; Correcting the first image based on the color coordinates of the white point of the converted first image.
  • correcting the first image may include correcting the first image based on a color coordinate of a white point of the converted first image, and then adjusting the first image to a color gamut of the second image. Mapping a color gamut of the first image; And correcting the first image based on the color gamut of the mapped first image.
  • correcting the first image based on the metadata includes correcting the first image by converting a luminance value of at least one pixel of the first image based on the metadata. do.
  • correcting the first image may include obtaining a luminance value of the second image corresponding to the luminance value of at least one pixel of the first image based on the metadata, Based on the step of converting the luminance value of the at least one pixel.
  • correcting the first image may include obtaining a saturation value of at least one pixel of the first image; Correcting the first image by converting a saturation value of the at least one pixel based on the metadata.
  • the correcting of the first image may be performed based on graph information indicating a saturation value of the second image corresponding to the saturation value of the first image for each of at least one hue. Converting the saturation value.
  • a device for generating metadata at least one of a first image and a second image having different color gamuts, and information about a white point and color gamut for the second image may be obtained.
  • a device for displaying a first image based on metadata comprising: at least one of information about a white point and information about a color gamut for a second image having a color gamut different from the first image;
  • a receiver which acquires a first image and metadata;
  • a controller configured to correct the first image based on the obtained information, and correct the first image based on the corrected first image based on the metadata;
  • the display unit may display a first image corrected based on the metadata.
  • part refers to a hardware component, such as software, FPGA or ASIC, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • 'image' as used throughout this specification describes not only the term 'image' itself, but also describes various forms of video image information that may be known in the art as 'frame', 'field', and 'slice'. Can be used as a generic term.
  • the 'image' that may be processed may include not only a picture or a video, but also some or a whole screen that can be displayed on a display device.
  • a "image” is described for the sake of convenience, but the "image” described below may include not only a picture or a video, which is originally meant, but also a screen that can be displayed such as a user interface or a web page.
  • the white point of the image may mean a color coordinate of white displayed on the image.
  • the brightness of the image may be changed.
  • the gamma value represents a range of gray scale expressions representing the contrast of the image, and the adjustment of the gamma value may change the contrast of the image.
  • Gamut refers to a color space that can be displayed on an image in the entire light region.
  • color gamut information may vary depending on which color system is displayed among RGB (red, green, blue) or CMYK (cyan, magenta, yellow, black).
  • an image may be divided into a wide gamut image and a narrow gamut image.
  • a wide color gamut image is a wide color gamut, and has a color system of Digital Cinema Package (DCP), Digital Cinema Initiatives (DCI), and Adobe RGB, which are used for digital cinema, and are composed of high light intensity and wide color gamut. It may include a ring high dynamic range (HDR) image.
  • the narrow color gamut image is an image having a narrow gamut and may include an image having a color system of 709 color levels and sRGB.
  • Color schemes of an image according to an embodiment may include YUV (YCbCr), Lab, and Hus saturation value (HSV), and the like, and may include various color schemes.
  • FIG. 1 is a block diagram illustrating an internal structure of a device for generating metadata according to an embodiment.
  • the device 100 generating the meta data 180 may generate the meta data 180 based on a corresponding relationship between color information of a wide color gamut image and a narrow color gamut image having different color gamuts.
  • the wide color gamut image and the narrow color gamut image may be input to the device 100 to generate metadata.
  • the display device for displaying an image may display the narrow color gamut image to be close to the color of the wide color gamut image using the meta data 180.
  • the display device for displaying an image may display the wide gamut image using the metadata 180 to be close to the color of the narrow color gamut image.
  • the display apparatus may correct and display the image by using metadata.
  • the display device may correct the input narrow color gamut to express colors of a wider color gamut in the input image by using metadata.
  • the display device when the display device is provided with a display panel capable of expressing a narrower gamut than the gamut of the displayed image, the display device may correct and display the image by using metadata.
  • the display device may correct the input wide gamut image so that a color of a narrower gamut may be expressed in the input image using metadata.
  • the display apparatus will be described based on a method of correcting a narrow color gamut image using metadata.
  • Meta data may be generated by comparing color information of a narrow color gamut image and a wide color gamut image.
  • the display device may correct the narrow color gamut image to express the color of the wide color gamut image in the narrow color gamut image based on the metadata.
  • the display device may correct the wide gamut image to express the color of the narrow gamut image in the wide gamut image based on the metadata.
  • Meta data used when correcting a narrow color gamut image and a wide color gamut image may include the same data.
  • the device 100 generating the meta data may convert the narrow color gamut to the white point and color gamut information of the wide color gamut image. Correction can be made based on this.
  • the device 100 may first correct the white point of the image.
  • the device 100 may first correct colors that may be distorted as the gamuts are different by mapping the colors included in the gamut of the narrow gamut image based on the gamut of the wide gamut image. Thereafter, the device 100 may generate metadata by obtaining a correspondence relationship between the corrected narrow color gamut image and the wide color gamut image.
  • the device 100 may be a server device for generating metadata corresponding to an image.
  • the device 100 generating the meta data 180 may include a comparison area corrector 105, a white point correction and gamut mapping unit 120, a tone mapping unit 160, and a saturation mapping unit 170. ) May be included.
  • the comparison area corrector 105 may correct the image to match each other when the resolution of the narrow color gamut and the wide gamut image or the matching image area are different from each other.
  • the comparison area corrector 105 may crop the two images so that the two images may include the same content at the same position when the narrow color gamut and the partial gamut of the wide gamut image do not match each other.
  • the comparison region corrector 105 may crop the two images by extracting the feature points for each predetermined region of the image, and cutting or moving the images so that the feature points of the two images are at the same location.
  • the comparison area correction unit 105 may perform scaling such that the two contents have the same resolution by using the horizontal and vertical values of the cropped image.
  • the white point correction and gamut mapping unit 120, the tone mapping unit 160, and the saturation mapping unit 170 generate metadata by using the narrow color gamut and the wide gamut image corrected by the comparison area corrector 105. To do this.
  • the white point correction and gamut mapping unit 120 may correct the white point of the narrow gamut image based on the white point color coordinate 110 information of the wide gamut image.
  • the device 100 may first correct the white point of the image since the result of the gamut mapping, tone mapping, and saturation mapping of the narrow color gamut image to be performed later may vary according to the white point.
  • the white point correction and gamut mapping unit 120 may correct the narrow color gamut image such that the white point of the narrow gamut image is the same as the white point of the wide gamut image.
  • the white point correction and gamut mapping unit 120 converts the color coordinates of the white point of the narrow gamut image into the color coordinates of the white point of the wide gamut image, and corrects the narrow color gamut image according to the color coordinates of the converted white point.
  • the color of the narrow gamut image may be entirely changed according to the converted white point of the narrow gamut image.
  • the white point correction and gamut mapping unit 120 may bypass the correcting the narrow color gamut image.
  • the white point correction and gamut mapping unit 120 may map the gamut of the narrow gamut image to the gamut of the wide gamut image based on gamma information and gamut information of the wide gamut image and the narrow gamut image. have. That is, the white point correction and gamut mapping unit 120 may map color information belonging to the gamut of the narrow gamut image based on the gamut of the wide gamut image.
  • the original color may be distorted and displayed because the color coordinates corresponding to the color are moved to another location as the color gamut is displayed based on the wide gamut. .
  • the white point correction and gamut mapping unit 120 may map the color coordinates of each color based on the wide gamut so that the color of the narrow gamut image is not distorted. Thus, by performing gamut mapping, it may be prevented that a color different from the original color may be displayed due to the gamut difference. Since the gamut information may be determined according to the position on the gamut of the primary color, for example, the gamut information may include color coordinate (x, y) values of the primary colors R, G, and B colors.
  • the white point correction and gamut mapping unit 120 may perform inverse gamma correction so that the narrow gamut image has a color before gamma correction before gamut mapping.
  • the white point correction and gamut mapping unit 120 may inverse gamma correct the narrow color gamut image so that the narrow color gamut image has an original color based on gamma information applied to the narrow color gamut image.
  • the white point correction and gamut mapping unit 120 may map the gamut of the narrow gamut image to the inverse gamma corrected narrow gamut image based on the gamut information of the wide gamut image.
  • the color of the narrow gamut image may be displayed differently from the original color as the gamut is different. For example, in the case of the primary colors R, G, and B colors, even though the color coordinates of the wide color image and the narrow color image are different from each other, the color information is the same as the information representing the R, G, and B colors, respectively. Because it can be displayed.
  • the white point correction and gamut mapping unit 120 may correct color information of the narrow gamut image so that the narrow gamut image may be displayed without being distorted in the display device in which the color of the wide gamut may be expressed.
  • the white point correction and gamut mapping unit 120 may correct color information of the narrow gamut image based on the gamut of the wide gamut image.
  • the color coordinates of the narrow gamut image before the gamut mapping may be located in the color gamut of the wide gamut image, unlike the color coordinates of the actual color, and thus the original color is distorted. Can be displayed.
  • color coordinates of respective pixels of the narrow color gamut image corrected as the color gamut is mapped by the white point correction and gamut mapping unit 120 are displayed. It may be located within the color gamut of the image. Accordingly, the color of the corrected narrow gamut image may be represented in the display device without being distorted.
  • the white point correction and gamut mapping unit 120 may gamma-correct the corrected color gamut image as the gamut is mapped to maintain the gamma value of the color gamut image.
  • the gamma value that may be applied to the narrow color gamut image may be a gamma value that was applied before inverse gamma correction to the narrow color gamut image.
  • the white point color coordinate 110, the gamma information 130, and the gamut information 150 are already determined according to the image type of the wide gamut image and the narrow gamut image, for example, whether it is an Adobe RGB, DCI, 709, or sRGB image. It can be a value.
  • the white point correction and gamut mapping unit 120 may perform at least one of white point correction and gamut mapping using at least one of the white point color coordinate 110, gamma information 130, and gamut information 150.
  • the tone mapping unit 160 may generate the meta data 180 by comparing the luminance value of the pixel of the wide gamut image with the luminance value of the corresponding pixel of the narrow gamut image.
  • the tone mapping unit 160 may convert an RGB value of each pixel of the wide gamut and narrow gamut images into a Y value representing brightness information.
  • the Y value may be obtained by multiplying the R, G, and B values by a weight for converting the luminance values into luminance values as in Equation 1.
  • the weight values w1, w2, and w3 may be determined as various values according to a method of obtaining luminance values.
  • the Y value may be determined as a maximum value among R, G, and B as shown in Equation 2.
  • the tone mapping unit 160 may obtain a tone mapping correction function representing the luminance value of the wide color gamut image with respect to the luminance value of the narrow color gamut by matching the luminance values of each pixel of the wide color gamut and the narrow color gamut image. Luminance values of pixels of a wide color gamut and a narrow color gamut existing at the same position may correspond to each other.
  • the tone mapping unit 160 may correct the tone mapping correction function so that the luminance value of one wide color gamut image may be mapped to the luminance value of one narrow color gamut image.
  • the tone mapping unit 160 performs linear regression on the tone mapping correction function to map an average value or a median value of a plurality of values to a single value to which a plurality of values are mapped.
  • the tone mapping correction function can be corrected as much as possible.
  • the tone mapping unit 160 may generate the value of each point of the corrected tone mapping correction function as the metadata 180.
  • the tone mapping unit 160 may generate the metadata 180 in which values for 64 points among the luminance values located in the tone mapping correction function are expressed as a look up table (LUT).
  • the value for each point includes both the luminance value of the narrow color gamut image and the luminance value of the corresponding wide color gamut image, or includes a gain which is a value obtained by dividing the luminance value of the narrow color gamut image by the luminance value of the wide color gamut image. can do.
  • the tone mapping unit 160 may correct the luminance value of each pixel of the narrow gamut image to the luminance value of the wide gamut image according to the corrected tone mapping correction function.
  • the chroma mapping unit 170 may generate the meta data 180 by comparing the chroma value of the pixel of the wide gamut image with the chroma value of the corresponding pixel of the narrow gamut image.
  • the saturation mapping unit 170 may generate the meta data 180 so that the color of the narrow gamut image may be converted according to the color of the wide gamut image of the corresponding region.
  • the meta data 180 may include a mapping function for each saturation gradation generated by comparing the saturation values of the wide color gamut and the narrow color gamut image.
  • the saturation mapping unit 170 may generate a mapping function for each saturation gradation for each of a plurality of colors by comparing the saturation of the wide color gamut image with the saturation of the narrow color gamut image for each pixel. As in the case of the tone mapping function described above, the saturation mapping unit 170 obtains saturation values of pixels corresponding to the wide color gamut and the narrow color gamut image, respectively, and the saturation value of the wide color gamut for the saturation value of the narrow color gamut image. For example, a mapping function for each saturation gradation for each hue may be generated.
  • the saturation mapping unit 170 is a mapping function for each saturation gradation for each of six colors, R (red), G (green), B (blue), C (cyan), M (magenta), and Y (yellow). Can be generated.
  • the saturation mapping unit 170 may determine which color of the six colors the saturation value of the narrow color gamut image belongs to, and generate a mapping function for each saturation gray level using the saturation value of the corresponding wide gamut image.
  • Obtaining a mapping function for each saturation gradation for each color takes into account that a difference in the position and size of the color gamut of a narrow color gamut and a wide color gamut image may vary for each color. For example, when the position of the color B of the primary colors is similar, such as the color gamut of the 709 image and the color gamut of the DCI image, and the difference between the position and the area of the color gamut in the B color is similar, the saturation value of the 709 image Can be controlled relatively less. On the other hand, in the R or G colors, since the difference between the position and the area of the color gamut is large, the adjustment of the saturation value for the 709 image may be relatively large.
  • the mapping function for each saturation gray level may include a value mapped to have the same color coordinate in the color gamut of the color gamut image according to the master gamut and the narrow gamut image.
  • This will be referred to as mastering a wide color gamut and a narrow color gamut image according to a clipping method.
  • the aforementioned mastering may refer to a process in which an image is edited and produced by an image producer.
  • the mapping function for each saturation gray level may include a value mapped so that the color inside the color gamut of the narrow gamut image is proportionally extended to the color gamut of the wide gamut image. This will be referred to as mastering a wide color gamut and a narrow color gamut image according to a compression scheme.
  • the chroma mapping unit 170 may generate, as the metadata 180, the value of each point of the function for each color saturation gray level.
  • the saturation mapping unit 170 may generate metadata 180 in which values for 48 points located in the saturation gradation grayscale function are expressed in the form of a look up table (LUT).
  • LUT look up table
  • the value for each point includes both the saturation value of the narrow color gamut image and the saturation value of the corresponding wide color gamut image, or is the gain value of the saturation value of the wide color gamut image relative to the saturation value of the narrow color gamut image.
  • the value may include a value obtained by dividing the saturation value of the narrow color gamut image.
  • the metadata 180 may include a saturation value or a gain value (a saturation of a wide gamut image) of a wide color gamut image or a narrow color gamut image for a point located in a wide gamut region except for a narrow color gamut region. Value of the saturation value of the narrow color gamut image).
  • the metadata 180 may include one gain value (saturation value of the narrow color gamut image relative to the saturation value of the wide color gamut image) or a gain value applied to each section. .
  • the gain value of the metadata 180 (the saturation value of the narrow color image versus the saturation value of the wide color image) may be determined by further considering the brightness value of each pixel. For example, when the brightness value of the pixel belongs to an area that is too bright or too dark, it may be determined that the gain value for the saturation value corresponding to the pixel becomes small.
  • the metadata may be generated by the device 100 as described above, but is not limited thereto and may be generated based on a signal input by a user.
  • a tone mapping correction function, a saturation gray level mapping function, a lookup table, and the like of the metadata may be generated based on a signal input by the user.
  • narrow color gamut image and wide gamut image are concepts that may correspond to the first image and the second image, which will be described below.
  • FIG. 2 is a flowchart illustrating a method of generating metadata according to an embodiment.
  • the device 100 generating metadata may obtain a first image and a second image having different color gamuts.
  • the first image and the second image may include images having the same contents but different colors of gamuts that may be expressed in the display apparatus.
  • the device 100 may perform the above cropping and scaling so that the resolution and content of the first image and the second image are the same.
  • the device 100 may obtain at least one of white point information and gamut information of the second image.
  • the device 100 may correct the first image based on at least one of the white point information and the gamut information acquired in operation S203.
  • the device 100 may correct the first image by converting the color coordinates of the white point of the first image based on the color coordinates of the white point of the second image.
  • the device 100 may correct the first image by mapping the color gamut of the first image based on the color gamut of the second image. Since the result of gamut mapping may vary according to the white point, gamut mapping for the first image may be performed after correcting the first image by converting the color coordinates of the white point.
  • the device 100 may perform gamut mapping after inverse gamma correction on the first image so that gamut mapping may be performed on the original color, and gamma correction on the first image after gamut mapping.
  • the device 100 may generate metadata based on a corresponding relationship between the first image corrected in operation S205 and color information of the second image. For example, the device 100 may generate metadata including information about luminance values and chroma values of pixels corresponding to the corrected first image and the second image.
  • the device 100 may obtain a tone mapping correction function indicating a luminance value of the second image corresponding to the luminance value of the first image, and generate metadata based on the tone mapping correction function.
  • the device 100 may obtain a mapping function for each saturation gradation representing a saturation value of the second image corresponding to the saturation value of the first image, and generate metadata based on the mapping function for each saturation gradation have.
  • FIG. 3 is a flowchart illustrating a method of generating metadata based on a tone mapping correction function, according to an exemplary embodiment.
  • the device 100 may obtain a luminance value of each pixel of the first image.
  • the device 100 may obtain a luminance value from a R, G, and B value of the pixel by using a predetermined equation.
  • the device 100 may obtain luminance values of pixels of the second image corresponding to each pixel of the first image.
  • the device 100 may obtain the luminance value of the pixel by using a predetermined equation from the R, G, and B values of the pixel as in step S301.
  • the device 100 may obtain a tone mapping correction function indicating a luminance value of the second image corresponding to the luminance values of the first image acquired in operations S301 to S303.
  • the device 100 performs a tone mapping correction function such that the tone mapping correction function has a linear function so that the luminance value of one second image may correspond to the luminance value of one first image. You can correct it.
  • the device 100 may describe one value that may represent the luminance values of the plurality of second images.
  • the tone mapping correction function may be corrected to correspond to the luminance value of the first image.
  • One value that may represent the luminance values of the plurality of second images may be determined as an average value or a median value of the plurality of luminance values.
  • the device 100 may generate metadata based on the tone mapping correction function corrected in operation S307.
  • the metadata may include a value representing the corrected tone mapping correction function.
  • the device 100 may generate metadata 180 in which values for 64 points positioned in the corrected tone mapping correction function are expressed in the form of a look up table (LUT).
  • the value for each point may include both the luminance value of the first image and the luminance value of the corresponding second image, or may include a gain value of the luminance value of the second image with respect to the luminance value of the first image.
  • the device 100 may also correct the first image based on the tone mapping correction function corrected in operation S307. For example, the device 100 may correct the first image by converting each luminance value of the first image into a luminance value of the corresponding second image based on the corrected tone mapping correction function. The device 100 may obtain a mapping function for each saturation gray level using the first image corrected based on the tone mapping correction function corrected in a later step, and generate metadata based on the mapping function for each saturation gray level.
  • FIG. 4 is a graph illustrating an example of correcting a tone mapping correction function, according to an exemplary embodiment.
  • the luminance value of the second image corresponding to the luminance value of the first image is There are many. Therefore, when the first image is corrected based on the tone mapping correction function, it is difficult to accurately correct the number of corresponding values.
  • the device 100 may correct the tone mapping correction function such that the luminance value of one second image may be mapped to the luminance value of one first image as shown in the graph 420.
  • the device 100 determines a representative value among the luminance values of the plurality of second images corresponding to the luminance values of one first image, and corrects the tone mapping so that only one determined representative value corresponds to the above-mentioned luminance value of the first image. You can calibrate the function.
  • the device 100 may correct the tone mapping correction function by determining a representative value among the luminance values of the second image for every 64 points located in the tone mapping correction function.
  • FIG. 5 is a flowchart illustrating a method of generating metadata based on a saturation gray level mapping function according to an exemplary embodiment.
  • the device 100 may obtain a chroma value of each pixel of the first image.
  • the device 100 may obtain a color difference signal excluding a luminance signal from an RGB value, and obtain a chroma value from the color difference signal.
  • the saturation value is not limited to the example described above but may be obtained in various ways.
  • the device 100 may obtain a chroma value of a pixel of the second image corresponding to each pixel of the first image.
  • the device 100 may obtain the chroma value of the pixel of the second image in the same manner as in operation S501.
  • the device 100 In operation S505, the device 100 generates, according to hue, a saturation gray level mapping function that represents a saturation value of the second image corresponding to the saturation value of the first image, based on the saturation values obtained in steps S501 and S502. can do.
  • the device 100 generates a mapping function for each saturation gradation for each of six colors, R (red), G (green), B (blue), C (cyan), M (magenta), and Y (yellow). can do.
  • the device 100 may generate metadata based on the mapping function for each color saturation gray level generated in operation S505.
  • the device 100 may generate metadata in different ways according to the difference between the mastered first image and the second image.
  • the device 100 may generate metadata so that the gain value is one.
  • the device 100 for the saturation value of the first image that does not belong to the gamut of the first image among the saturation values of the first image, but falls within the gamut of the second image, the device 100 saturates the first image at the saturation value of the second image. Meta data including a gain value divided by a value may be generated.
  • the device 100 when the first image and the second image are mastered according to the compression scheme, the device 100 generates meta data by obtaining a gain value obtained by dividing the saturation value of the first image by the gain value. can do.
  • FIG. 6 is an exemplary diagram illustrating an example of color gamuts of a wide color gamut and a narrow color gamut image according to an exemplary embodiment.
  • a color gamut of a DCI image belonging to a relatively wide color gamut image and a color gamut of an sRGB image belonging to a relatively narrow color gamut image are illustrated.
  • the color gamut of the DCI image is wider than that of the sRGB image, and particularly, the color gamut difference in the G color is large.
  • the mapping function for each saturation gray level may be generated for each of six colors. Since the color coordinates representing the primary colors are different for each color gamut, colors displayed on the color gamut may be different even if the color information of the pixels is the same. Accordingly, the device 100 may correct the narrow color gamut image to be expressed as the color of the wide color gamut image based on the metadata.
  • a saturation gray level mapping function may be generated for the saturation values from O to G1 601 and the saturation values from O to G2 602 shown in FIG. 6.
  • the saturation gradation mapping function may represent saturation values from O to G1 of a wide color gamut image corresponding to saturation values from O to G2 of a narrow color gamut image.
  • O indicates the point where the saturation value is the lowest
  • G1 and G2 indicate the point where the primary color with the highest saturation value is located in each color gamut.
  • the O point may vary depending on the color gamut of each image.
  • the color gamut of the narrow color gamut image and the O point in the color gamut of the wide color gamut image may be the same.
  • the point O in FIG. 6 is shown to be the same as the point O in the narrow color gamut and the color gamut, but the present invention is not limited thereto, and the point O in the narrow color gamut and the wide color gamut may exist at different positions.
  • the mapping function by saturation gradation is performed from O of the wide gamut image corresponding to the saturation values from Y to Y2, C2, B2 (604), M2, and R2.
  • the saturation values up to Y1, C1, B1 604, M1, and R1 603 may be represented.
  • the saturation values of the plurality of wide color gamut images corresponding to the saturation values of one narrow color gamut image may exist.
  • the device 100 determines a representative value based on the saturation values of the plurality of wide color gamut images corresponding to the saturation values of one narrow color gamut image, and determines the representative value as a value corresponding to the saturation values of one narrow color gamut image. Can be.
  • the device 100 may finally generate a mapping function for each color saturation gradation in which one saturation value of the wide color gamut image corresponding to each chroma value of the narrow color gamut image exists.
  • FIG. 7 is a block diagram illustrating an internal configuration of a display apparatus 700 that displays an image based on metadata according to an exemplary embodiment.
  • the display apparatus 700 displaying an image based on metadata may display the color of the narrow color gamut image as the color of the wide gamut image based on the metadata.
  • the metadata may include information about a correspondence relationship between color information between a narrow color gamut image and a wide color gamut image.
  • the display apparatus 700 may be a device having a display panel that can express colors of a wide gamut image.
  • the display apparatus 700 may include a white point correction and gamut mapping unit 720, a tone mapping unit 760, a chroma mapping unit 770, and a display unit 790.
  • the white point correction and gamut mapping unit 720 may correspond to the white point correction and gamut mapping unit 120 of FIG. 1.
  • the white point correction and gamut mapping unit 720 may correct the narrow color gamut image in the same manner as the white point correction and gamut mapping unit 120 of FIG. 1.
  • the white point correction and gamut mapping unit 720 may correct the white point of the narrow gamut image based on the white point color coordinate 710 information of the wide gamut image.
  • the white point correction and gamut mapping unit 720 is a narrow color gamut image based on the white point color coordinate 710 information of the wide gamut image, like the white point correction unit 120 of the device 100 generating the above-described metadata. You can correct the white point of.
  • the white point color coordinate 710, gamma information 730 and gamut information 750 are already determined according to the image type of the wide gamut image and the narrow gamut image, for example, whether it is an Adobe RGB, DCI image, 709 or sRGB image. It can be a value.
  • the white point correction and gamut mapping unit 720 may bypass the correction of the narrow gamut image.
  • the white point correction and gamut mapping unit 720 may map the gamut of the narrow gamut image to the gamut of the wide gamut image based on gamma information 730 and gamut information 750 of the wide gamut image and the narrow gamut image.
  • the white point correction and gamut mapping unit 720 like the white point correction and gamut mapping unit 120 of the device 100 generating the above-described meta data, gamma information 730 and gamut of a wide gamut image and a narrow gamut image. Based on the information 750, the color gamut of the narrow color gamut image may be mapped to the color gamut of the wide gamut image to correct the narrow color gamut image.
  • the white point correction and gamut mapping unit 720 may perform at least one of white point correction and gamut mapping using at least one of the white point color coordinate 710, the gamma information 730, and the gamut information 750.
  • the display apparatus 700 may perform the chromatographic mapping of the white point correction.
  • the display apparatus 700 may perform white point correction after chroma mapping of the image by the chroma mapping unit 770.
  • the tone mapping unit 760 may correct the color of the narrow color gamut image by correcting the luminance value of each pixel of the narrow color gamut image based on the metadata 780.
  • the metadata 780 may correspond to the metadata 180 generated by the device 100 of FIG. 1.
  • the metadata 780 may include information about luminance values of a wide color gamut image corresponding to luminance values of a narrow color gamut image generated based on a tone mapping correction function.
  • the metadata 780 may include a gain value for the luminance value of the narrow color gamut image, which is a value obtained by dividing the luminance value of the wide color gamut image by the luminance value of the wide color gamut image.
  • the tone mapping unit 760 may correct the luminance value of the narrow color image by using a value obtained by multiplying each luminance value of the narrow color image by the gain value included in the metadata 780.
  • the chroma mapping unit 770 may correct the color of the color gamut image by correcting the saturation value of each pixel of the color gamut image based on the metadata 780.
  • the metadata 780 may correspond to the metadata 180 generated by the device 100 of FIG. 1.
  • the metadata 780 may include information about a saturation value of a wide color gamut image corresponding to a saturation value of a narrow color gamut image generated based on a color-by-color saturation gradation mapping function.
  • the metadata 780 may include a gain value for the saturation value of the narrow color gamut image, which is a value obtained by dividing the saturation value of the wide color gamut image by the saturation value of the wide gamut image.
  • the tone mapping unit 760 may correct the saturation value of the narrow color gamut image by using a value obtained by multiplying each saturation value of the narrow color gamut image by a gain value included in the meta data 780.
  • the display 790 may display the narrow color gamut image corrected by the chroma mapping unit 770 and the tone mapping unit 760.
  • the display unit 790 may include a display panel capable of expressing colors of a wide color gamut, and display a narrow color gamut image corrected to express colors of a wide color gamut.
  • the display apparatus 700 may correct and display the narrow gamut image so that the narrow gamut image may express the color of the wide gamut based on the metadata 780.
  • the display apparatus 700 may correct the narrow color gamut to express the color of the wide gamut by using the narrow color gamut image and the metadata 780 having a smaller data size than the wide gamut image. Accordingly, the display apparatus 700 may display a narrow color gamut image capable of expressing colors of the wide color gamut by using data having a size smaller than that of the wide color gamut image.
  • FIG. 8 is a flowchart illustrating a method of displaying a narrow color gamut image based on metadata according to an embodiment.
  • the display apparatus 700 may acquire a first image and metadata.
  • the display apparatus 700 may obtain metadata for correcting color information of the first image.
  • the display apparatus 700 may acquire at least one of white point information and color gamut information on a second image having a color gamut different from that of the first image.
  • the display apparatus 700 may correct the first image based on at least one of the white point information and the gamut information acquired in operation S803.
  • Correction of the first image based on the white point information may be performed after performing step S807.
  • the display apparatus 700 may correct the first image based on the first image and the metadata corrected in operation S803.
  • the display apparatus 700 may correct the first image by converting the luminance value of the first image into the luminance value of the corresponding second image based on the information about the tone mapping correction function of the metadata.
  • the display apparatus 700 may correct the first image by converting the saturation value of the first image into the saturation value of the corresponding second image, based on the information about the mapping function for each color saturation gradation of the metadata. have.
  • the display apparatus 700 may display the first image corrected in operation S807.
  • the display apparatus 700 may include a display panel capable of expressing colors existing in a relatively wide gamut, and display a first image corrected to express a wide gamut color.
  • the display apparatus 700 may display the narrow color gamut image so that the color of the wide color gamut image is expressed based on the narrow color gamut image data and the metadata without the wide color gamut image data.
  • the display apparatus 700 corrects and displays an image based on metadata, but is not limited thereto and may display an image corrected by an external device.
  • the display apparatus 700 may receive a narrow color gamut image corrected to express a color of a wide color gamut image or a wide color gamut image corrected to express a color of a narrow color gamut image based on metadata by an external device.
  • the display apparatus 700 may display the received image.
  • the display apparatus 700 may display the received image by correcting the white point.
  • FIG. 9 is a block diagram illustrating an internal configuration of a device for generating metadata according to an embodiment.
  • the device 900 may be a server device for generating metadata corresponding to the image.
  • the device 900 may include a receiver 930 and a controller 970.
  • the receiver 930 may acquire at least one of a first image and a second image having different color gamuts, information about a white point of the second image, and information about color gamuts.
  • the information about the white point and the information about the color gamut may be fixed values that may be determined according to the image type. Therefore, the receiver 930 may obtain information about the white point and information about the color gamut using the type information of the first image and the second image.
  • the controller 970 may correct the first image based on the obtained information, and generate metadata based on a correspondence relationship between the corrected first image and the color information of the second image.
  • the controller 970 may generate the metadata by obtaining the luminance value and the saturation value of the second image corresponding to the luminance value and the saturation value of the corrected first image.
  • the controller 970 is a tone mapping correction function indicating a luminance value of the second image corresponding to the luminance value of the first image, and a saturation gradation for each color representing the saturation value of the second image corresponding to the saturation value of the first image. Metadata can be generated by obtaining a mapping function.
  • FIG. 10 is a block diagram illustrating an internal configuration of a display apparatus displaying an image based on metadata according to an embodiment.
  • the display apparatus 100 may be a device having a display panel that can be manipulated by a user.
  • a smart television (television), an ultra high definition (UHD) TV, a monitor, a personal computer (PC), and a notebook computer may be used.
  • a computer, a mobile phone, a tablet PC, a navigation terminal, a smart phone, a personal digital assistant (PDA), a portable multimedia player (PMP), and a digital broadcasting receiver may be included.
  • the display apparatus 1000 may include a receiver 1030, a controller 1070, and a display 1010.
  • the receiver 1030 may acquire at least one of information about a white point and color gamut of a second image, first image, and metadata.
  • the information about the white point and the color gamut for the second image may be obtained according to the image type of the second image, for example, image type information such as an Adobe RGB image or a DCI image.
  • image type information such as an Adobe RGB image or a DCI image.
  • the information about the white point and the color gamut according to the image type may be a fixed value. Therefore, the receiver 1030 may obtain information about a white point and color gamut according to each image type.
  • the controller 1070 may correct the first image based on at least one of white point information and color gamut information acquired by the receiver 1030.
  • the controller 1070 may correct the color of the first image based on the corrected first image based on metadata.
  • the metadata may include information about a correspondence relationship between luminance values and chroma values of the first image and the second image.
  • the controller 1070 may correct the luminance value and the saturation value of the first image based on the metadata.
  • the display 1010 may display the first image corrected by the controller 1070.
  • the first image may be corrected by the controller 1070 to be expressed as the color of the second image.
  • the display 1010 may include a display panel in which the first image may represent not only the color gamut but also the color gamut of the second image.
  • the display device may correct and display the narrow gamut image so that the color of the wide gamut image may be expressed using metadata.
  • the method according to some embodiments may be embodied in the form of program instructions that may be executed by various computer means and recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

서로 다른 색역을 가지는 제1 영상 및 제2 영상을 획득하고, 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나를 획득하고, 획득된 정보에 기초하여, 제1 영상을 보정하고, 보정된 제1 영상 및 제2 영상의 색상 정보의 대응 관계에 기초하여, 메타 데이터를 생성하는, 메타 데이터를 생성하는 방법이 개시된다.

Description

메타 데이터에 기초하여 영상을 디스플레이하는 방법 및 디바이스, 그에 따른 기록매체
본 발명은 메타 데이터에 기초하여 영상을 디스플레이하는 방법 및 디바이스에 대한 것이다. 또한, 영상을 디스플레이하기 위한 메타 데이터를 생성하는 방법 및 디바이스에 대한 것이다. 또한, 영상을 디스플레이하기 위한 메타 데이터가 기록된 기록 매체에 대한 것이다.
영상을 디스플레이할 수 있는 디스플레이 장치들은 디스플레이 장치의 패널이나 성능에 따라서, 색을 표현할 수 있는 능력, 예를 들면, 색상을 재현할 수 있는 범위인 색역(color gamut)이 서로 상이할 수 있다.
따라서, 입력되는 영상의 색상 정보와 입력된 영상의 색상을 재현하는 디스플레이 장치 간에 색역이 상이한 경우, 서로의 색역이 매칭될 수 있도록 입력되는 영상이 적절하게 변환됨으로써, 색 재현력이 향상될 수 있다.
예를 들면, 입력되는 영상의 색역이 디스플레이 장치의 색역보다 좁은 경우, 디스플레이 장치에서 표시되는 영상의 색 재현력을 향상시키기 위하여 입력 영상을 적절히 보정하는 것이 필요하다.
입력된 영상의 색역이 디스플레이의 색역과 다른 경우, 메타 데이터에 기초하여 영상을 보정하여 디스플레이하는 방법 및 디바이스에 관한 것이다.
일 실시 예에 의하면, 디스플레이 장치는 메타 데이터를 이용하여 협색역 영상을 광색역 영상의 색상이 표현될 수 있도록 보정하여 디스플레이할 수 있다.
도 1은 일 실시 예에 의한 메타 데이터를 생성하는 디바이스의 내부 구조를 도시한 블록도이다.
도 2는 일 실시 예에 의한 메타 데이터를 생성하는 방법을 나타낸 순서도이다.
도 3은 일 실시 예에 의한 톤 매핑 보정 함수에 기초하여 메타 데이터를 생성하는 방법을 나타낸 순서도이다.
도 4는 일 실시 예에 의한 톤 매핑 보정함수를 보정하는 일 예를 나타낸 그래프이다.
도 5는 일 실시 예에 의한 채도 계조별 매핑 함수에 기초하여 메타 데이터를 생성하는 방법을 나타낸 순서도이다.
도 6은 일 실시 예에 의한 광색역 영상 및 협색역 영상의 색역의 일 예를 나타낸 예시 도면이다.
도 7은 일 실시 예에 의한 메타 데이터에 기초하여 영상을 디스플레이하는 디스플레이 장치의 내부 구성을 나타낸 블록도이다.
도 8은 일 실시 예에 의한 메타 데이터에 기초하여 협색역 영상을 디스플레이하는 방법을 나타낸 순서도이다.
도 9는 일 실시 예에 의한 메타 데이터를 생성하는 디바이스의 내부 구성을 나타낸 블록도이다.
도 10은 일 실시 예에 의한 메타 데이터에 기초하여 영상을 디스플레이 하는 디스플레이 장치(1000)의 내부 구성을 나타낸 블록도이다.
일 실시 예에 의한 메타 데이터를 생성하는 방법에 있어서, 서로 다른 색역을 가지는 제1 영상 및 제2 영상을 획득하는 단계; 상기 제2 영상에 대한 화이트 포인트(white point)에 관한 정보 및 색역(gamut)에 관한 정보 중 적어도 하나를 획득하는 단계; 상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하는 단계; 상기 보정된 제1 영상 및 상기 제2 영상의 색상 정보의 대응 관계에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함한다.
더하여, 상기 제1 영상을 보정하는 단계는 상기 제1 영상의 화이트 포인트의 색좌표를 상기 제2 영상의 화이트 포인트의 색좌표에 기초하여 변환하는 단계; 상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정하는 단계를 포함한다.
더하여, 상기 제1 영상을 보정하는 단계는 상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정한 후, 상기 제2 영상의 색역에 상기 제1 영상의 색역을 매핑하는 단계; 및 상기 매핑된 제1 영상의 색역에 기초하여 상기 제1 영상을 보정하는 단계를 포함한다.
더하여, 상기 메타 데이터를 생성하는 단계는 상기 제1 영상의 적어도 하나의 픽셀의 휘도 값을 획득하는 단계; 상기 픽셀과 대응되는 제2 영상의 픽셀의 휘도 값을 획득하는 단계; 상기 제1 영상의 각 픽셀의 휘도값과 대응되는 제2 영상의 픽셀의 휘도 값에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함한다.
더하여, 상기 휘도 값에 기초하여, 메타 데이터를 생성하는 단계는 상기 획득된 제1 영상 및 제2 영상의 휘도 값에 기초하여, 상기 제1 영상의 휘도 값과 대응되는 상기 제2 영상의 휘도 값을 나타내는 함수를 획득하는 단계; 상기 획득된 함수가 선형 함수의 형태를 가지도록 상기 함수를 보정하는 단계; 상기 보정된 함수에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함한다.
더하여, 상기 메타 데이터를 생성하는 단계는, 상기 제1 영상의 적어도 하나의 픽셀의 채도 값을 획득하는 단계; 상기 픽셀과 대응되는 제2 영상의 픽셀의 채도 값을 획득하는 단계; 상기 제1 영상의 각 픽셀의 채도값과 대응되는 제2 영상의 픽셀의 채도 값에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함한다.
더하여, 상기 채도 값에 기초하여, 메타 데이터를 생성하는 단계는 적어도 하나의 색상(hue) 별로 상기 제1 영상의 채도 값과 대응되는 상기 제2 영상의 채도 값을 나타내는 함수를 획득하는 단계; 상기 함수에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함한다.
더하여, 상기 제1 영상 및 제2 영상을 획득하는 단계는 상기 제1 영상 및 제2 영상을 스케일링하거나 크로핑하여, 상기 제1 영상 및 제2 영상을 매칭시키는 단계를 포함한다.
일 실시 예에 의한 제1 영상을 메타 데이터에 기초하여 디스플레이하는 방법에 있어서, 상기 제1 영상 및 메타 데이터를 획득하는 단계; 상기 제1 영상과 다른 색역을 가지는 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나를 획득하는 단계; 상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하는 단계; 상기 메타 데이터에 기초하여, 상기 보정된 제1 영상을 보정하는 단계; 및 상기 메타 데이터에 기초하여 보정된 제1 영상을 디스플레이하는 단계를 포함한다.
더하여, 상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하는 단계는 상기 제1 영상의 화이트 포인트의 색좌표를 상기 제2 영상의 화이트 포인트의 색좌표에 기초하여 변환하는 단계; 상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정하는 단계를 포함한다.
더하여, 상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하는 단계는 상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정한 후, 상기 제2 영상의 색역에 상기 제1 영상의 색역을 매핑하는 단계; 및 상기 매핑된 제1 영상의 색역에 기초하여, 상기 제1 영상을 보정하는 단계를 포함한다.
더하여, 상기 메타 데이터에 기초하여, 상기 제1 영상을 보정하는 단계는 상기 제1 영상의 적어도 하나의 픽셀의 휘도 값을 상기 메타 데이터에 기초하여 변환함으로써, 상기 제1 영상을 보정하는 단계를 포함한다.
더하여, 상기 제1 영상을 보정하는 단계는 상기 메타 데이터에 기초하여, 상기 제1 영상의 적어도 하나의 픽셀의 휘도 값과 대응되는 상기 제2 영상의 휘도 값을 획득하고, 상기 획득된 휘도 값에 기초하여, 상기 적어도 하나의 픽셀의 휘도 값을 변환하는 단계를 포함한다.
더하여, 상기 메타 데이터에 기초하여, 상기 제1 영상을 보정하는 단계는 상기 제1 영상의 적어도 하나의 픽셀의 채도 값을 획득하는 단계; 상기 메타 데이터에 기초하여, 상기 적어도 하나의 픽셀의 채도 값을 변환함으로써, 상기 제1 영상을 보정하는 단계를 포함한다.
더하여, 상기 제1 영상을 보정하는 단계는 적어도 하나의 색상(hue) 별로 상기 제1 영상의 채도 값과 대응되는 상기 제2 영상의 채도 값을 나타내는 그래프 정보에 기초하여, 상기 적어도 하나의 픽셀의 채도 값을 변환하는 단계를 포함한다.
일 실시 예에 의한 제1 영상을 보정하기 위한 메타 데이터가 기록된 기록매체에 있어서, 상기 메타 데이터는 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나에 기초하여 보정된 제1 영상의 휘도 값과 대응되는 상기 제2 영상의 휘도 값에 관한 정보; 및 상기 보정된 제1 영상의 채도 값과 대응되는 상기 제2 영상의 채도 값에 관한 정보를 포함한다.
일 실시 예에 의한 메타 데이터를 생성하는 디바이스에 있어서, 서로 다른 색역을 가지는 제1 영상 및 제2 영상과, 상기 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나를 획득하는 수신부; 상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하고, 상기 보정된 제1 영상 및 상기 제2 영상의 색상 정보의 대응 관계에 기초하여, 상기 메타 데이터를 생성하는 제어부를 포함한다.
일 실시 예에 의한 제1 영상을 메타 데이터에 기초하여 디스플레이하는 디바이스에 있어서, 상기 제1 영상과 다른 색역을 가지는 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나와, 상기 제1 영상 및 메타 데이터를 획득하는 수신부; 상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하고, 상기 보정된 제1 영상을 상기 메타 데이터에 기초하여, 상기 제1 영상을 보정하는 제어부; 상기 메타 데이터에 기초하여 보정된 제1 영상을 디스플레이하는 디스플레이부를 포함한다.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.
첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 본 발명은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
본 명세서 전반에 걸쳐 사용되는 '영상'이라는 용어는 '영상'이라는 용어 자체뿐만 아니라, '프레임', '필드', 및 '슬라이스'로서 관련 분야에서 알려질 수 있는 비디오 이미지 정보의 다양한 형태들을 설명하기 위한 포괄적인 용어로서 사용될 수 있다.
일 실시 예에 있어서 처리될 수 있는 '영상'은 사진이나 동영상뿐만 아니라, 디스플레이 장치에서 디스플레이될 수 있는 일부 또는 전체 화면을 포함할 수 있다. 본 명세서에서는 편의상 '영상'으로 통일하여 기재하였으나, 이하 설명되는 '영상'은 원래 의미인 사진이나 동영상뿐만 아니라 사용자 인터페이스나 웹 페이지와 같은 디스플레이될 수 있는 화면 자체도 포함할 수 있다.
영상의 화이트 포인트란 영상에서 표시되는 흰색의 색 좌표를 의미할 수 있다. 화이트 포인트가 변경되면, 영상의 밝기가 달라질 수 있다.
감마 값(gamma value)은 영상의 명암을 표현하는 계조(gray scale) 표현의 범위를 나타내며, 감마 값의 조정은 영상의 콘트라스트를 변화시킬 수 있다.
색역(gamut)은 전체 빛의 영역에서 영상에 표시될 수 있는 색 공간 영역을 의미한다. 예를 들면 영상이 RGB(red, green, blue) 또는 CMYK(cyan, magenta, yellow, black) 중 어느 색상 체계에 따라 표시되었는지에 따라서 색역 정보가 달라질 수 있다. 색역 정보에 따라서, 영상은 광색역(wide gamut) 영상 및 협색역(narrow gamut) 영상으로 구분될 수 있다. 예를 들면, 광색역 영상은 넓은 색역을 가지는 영상으로, 디지털 시네마에 사용되는 DCP(Digital Cinema Package), DCI(Digital Cinema Initiatives), Adobe RGB의 색상 체계를 가지는 영상, 고광량 및 광색역으로 마스터링된 HDR(high dynamic range) 영상을 포함할 수 있다. 협색역 영상은 좁은 색역을 가지는 영상으로, 709 컬러 레벨, sRGB의 색상 체계를 가지는 영상을 포함할 수 있다.
일 실시 예에 의한 영상의 색상 체계는 YUV(YCbCr), Lab, HSV(Hue saturation value) 등을 포함할 수 있으며, 이에 한하지 않고 다양한 방식의 색상 체계를 포함할 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다.
도 1은 일 실시 예에 의한 메타 데이터를 생성하는 디바이스의 내부 구조를 도시한 블록도이다.
일 실시 예에 의한 메타 데이터(180)를 생성하는 디바이스(100)는 색역이 서로 다른 광색역 영상과 협색역 영상의 색상 정보의 대응 관계에 기초하여 메타 데이터(180)를 생성할 수 있다. 광색역 영상과 협색역 영상은 메타 데이터 생성을 위해 디바이스(100)에 입력될 수 있다.
영상을 디스플레이하는 디스플레이 장치는 메타 데이터(180)를 이용하여 광색역 영상의 색상에 가깝도록 협색역 영상을 디스플레이할 수 있다. 또한, 영상을 디스플레이하는 디스플레이 장치는 메타 데이터(180)를 이용하여 협색역 영상의 색상에 가깝도록 광색역 영상을 디스플레이할 수 있다.
디스플레이 장치가 디스플레이하는 영상의 색역보다 넓은 색역을 표현할 수 있는 디스플레이 패널을 구비하고 있는 경우, 디스플레이 장치는 메타 데이터를 이용하여, 영상을 보정하여 디스플레이할 수 있다. 디스플레이 장치는 메타 데이터를 이용하여 입력된 영상에서 보다 넓은 색역의 색상까지 표현될 수 있도록 입력된 협색역 영상을 보정할 수 있다.
반면, 디스플레이 장치가 디스플레이하는 영상의 색역보다 좁은 색역을 표현할 수 있는 디스플레이 패널을 구비하고 있는 경우, 디스플레이 장치는 메타 데이터를 이용하여, 영상을 보정하여 디스플레이할 수 있다. 디스플레이 장치는 메타 데이터를 이용하여 입력된 영상에서 보다 좁은 색역의 색상이 표현될 수 있도록 입력된 광색역 영상을 보정할 수 있다.
이하에서는 디스플레이 장치가 메타 데이터를 이용하여 협색역 영상을 보정하는 방법을 기준으로 설명하기로 한다.
메타 데이터는 협색역 영상과 광색역 영상의 색상 정보를 비교함으로써 생성될 수 있다. 디스플레이 장치는 메타 데이터에 기초하여 협색역 영상에서 광색역 영상의 색상을 표현할 수 있도록 협색역 영상을 보정할 수 있다. 또한, 디스플레이 장치는 메타 데이터에 기초하여 광색역 영상에서 협색역 영상의 색상을 표현할 수 있도록 광색역 영상을 보정할 수 있다. 협색역 영상 및 광색역 영상을 보정할 때 이용되는 메타 데이터는 동일한 데이터를 포함할 수 있다.
일 실시 예에 의하면, 메타 데이터를 생성하는 디바이스(100)는 협색역 영상과 광색역 영상의 색상 정보를 비교하여 메타 데이터를 생성하기 전에, 협색역 영상을 광색역 영상의 화이트 포인트 및 색역 정보에 기초하여 보정할 수 있다. 영상의 화이트 포인트가 변환되면, 영상의 색상이 변할 수 있으므로, 디바이스(100)는 영상의 화이트 포인트를 먼저 보정할 수 있다.
또한, 디바이스(100)는 협색역 영상의 색역에 포함된 색상들을 광색역 영상의 색역을 기준으로 매핑시킴으로써, 색역이 서로 다름에 따라 왜곡될 수 있는 색상을 먼저 보정할 수 있다. 이후, 디바이스(100)는 보정된 협색역 영상과 광색역 영상의 휘도 값 및 채도 값간의 대응 관계를 구함으로써 메타 데이터를 생성할 수 있다.
디바이스(100)는 영상과 대응되는 메타 데이터를 생성하기 위한 서버 장치일 수 있다.
도 1을 참조하면, 메타 데이터(180)를 생성하는 디바이스(100)는 비교 영역 보정부(105), 화이트 포인트 보정 및 색역 매핑부(120), 톤 매핑부(160) 및 채도 매핑부(170)를 포함할 수 있다.
비교 영역 보정부(105)는 협색역 영상과 광색역 영상의 해상도 또는 매칭되는 영상 영역이 서로 다른 경우, 영상이 서로 매칭되도록 보정할 수 있다. 비교 영역 보정부(105)는 협색역 영상과 광색역 영상의 일부 영역이 서로 매칭되지 않는 경우, 두 영상이 같은 위치에서 동일한 컨텐츠를 포함할 수 있도록 두 영상을 크로핑(cropping)할 수 있다. 예를 들면, 비교 영역 보정부(105)는 영상의 소정 영역 별로 각각 특징점을 추출하고, 두 영상의 특징점이 동일한 위치에 존재하도록 영상을 자르거나 이동시킴으로써 두 영상을 크로핑할 수 있다. 그리고, 비교 영역 보정부(105)는 크로핑된 영상의 가로 세로 값을 이용하여, 두 컨텐츠가 동일한 해상도가 되도록 스케일링을 수행할 수 있다.
비교 영역 보정부(105)에 의해 보정된 협색역 영상과 광색역 영상을 이용하여 화이트 포인트 보정 및 색역 매핑부(120), 톤 매핑부(160) 및 채도 매핑부(170)는 메타 데이터를 생성하기 위한 작업을 수행할 수 있다.
화이트 포인트 보정 및 색역 매핑부(120)는 광색역 영상의 화이트 포인트 색좌표(110) 정보에 기초하여, 협색역 영상의 화이트 포인트를 보정할 수 있다. 디바이스(100)는 화이트 포인트에 따라 이후 수행될 협색역 영상의 색역 매핑, 톤 매핑, 채도 매핑의 결과가 달라질 수 있으므로, 가장 먼저 영상의 화이트 포인트의 보정을 수행할 수 있다.
화이트 포인트 보정및 색역 매핑부(120)는 협색역 영상의 화이트 포인트가 광색역 영상의 화이트 포인트와 동일하게 되도록 협색역 영상을 보정할 수 있다. 예를 들면, 화이트 포인트 보정 및 색역 매핑부(120)는 협색역 영상의 화이트 포인트의 색좌표를 광색역 영상의 화이트 포인트의 색좌표로 변환하고, 변환된 화이트 포인트의 색좌표에 따라 협색역 영상을 보정할 수 있다. 협색역 영상의 변환된 화이트 포인트에 따라서 협색역 영상의 색상이 전체적으로 바뀔 수 있다.
협색역 영상의 화이트 포인트와 광색역 영상의 화이트 포인트가 동일한 경우, 화이트 포인트 보정 및 색역 매핑부(120)는 협색역 영상을 보정하지 않고 바이패스(bypass)할 수 있다.
또한, 화이트 포인트 보정 및 색역 매핑부(120)는 광색역 영상 및 협색역 영상의 감마(gamma) 정보 및 색역(gamut) 정보에 기초하여 협색역 영상의 색역을 광색역 영상의 색역과 매핑할 수 있다. 즉, 화이트 포인트 보정 및 색역 매핑부(120)는 협색역 영상의 색역에 속한 색상 정보를 광색역 영상의 색역을 기준으로 매핑할 수 있다. 색역 매핑 전에는, 협색역 영상이 광색역 영상을 표현할 수 있는 장치에서 디스플레이되는 경우, 광색역을 기준으로 디스플레이됨에 따라서, 색상과 대응되는 색좌표가 다른 위치로 이동되므로 원래 색상이 왜곡되어 디스플레이될 수 있다.
화이트 포인트 보정 및 색역 매핑부(120)는 협색역 영상의 색상이 왜곡되지 않도록, 광색역을 기준으로 각 색상의 색좌표를 매핑할 수 있다. 따라서, 색역 매핑이 수행됨으로써 색역 차이로 인하여 원래 색상과는 다른 색상으로 디스플레이될 수 있는 점이 방지될 수 있다. 색역 정보는 원색(primary color)의 색역 상 위치에 따라서 결정될 수 있으므로, 예를 들면, 원색인 R, G, B 색상의 색좌표(x, y) 값을 포함할 수 있다.
감마 값에 따라, 입력 영상에 대한 출력 영상의 선형 정도가 결정되며, 감마 값이 클수록 영상이 어두워진다. 따라서, 화이트 포인트 보정 및 색역 매핑부(120)는 색역 매핑 전에 협색역 영상이 감마 보정 전 색상을 가지도록 역 감마 보정을 할 수 있다.
화이트 포인트 보정 및 색역 매핑부(120)는 협색역 영상에 적용된 감마 정보에 기초하여, 협색역 영상이 원래 색상을 가지도록 협색역 영상을 역 감마 보정할 수 있다.
화이트 포인트 보정 및 색역 매핑부(120)는 역 감마 보정된 협색역 영상에 대해 광색역 영상의 색역 정보에 기초하여, 협색역 영상의 색역을 매핑할 수 있다. 매핑 전 협색역 영상이 광색역의 색상이 표현될 수 있는 디스플레이 장치에서 표시되는 경우, 색역이 서로 다름에 따라 협색역 영상의 색상이 원래 색상과는 다르게 표시될 수 있다. 예를 들어, 원색(primary color)인 R, G, B 색상의 경우, 광색역 영상과 협색역 영상에서의 색좌표가 서로 다름에도, 색상 정보는 각각 R, G, B 색상을 나타내는 정보로 동일하게 표시될 수 있기 때문이다. 따라서, 화이트 포인트 보정 및 색역 매핑부(120)는 협색역 영상이 광색역의 색상이 표현될 수 있는 디스플레이 장치에서 왜곡되지 않고 표시될 수 있도록 협색역 영상의 색상 정보를 보정할 수 있다. 화이트 포인트 보정 및 색역 매핑부(120)는 협색역 영상의 색상 정보를 광색역 영상의 색역을 기준으로 보정할 수 있다.
광색역이 표현될 수 있는 디스플레이 장치에서 협색역 영상이 표시될 때, 색역 매핑 전 협색역 영상의 색좌표들은 실제 색상의 색좌표와는 달리 광색역 영상의 색역에 위치할 수 있어, 원래 색상이 왜곡되어 표시될 수 있다. 그러나, 광색역이 표현될 수 있는 디스플레이 장치에서 협색역 영상이 표시될 때, 화이트 포인트 보정 및 색역 매핑부(120)에 의해 색역이 매핑됨에 따라 보정된 협색역 영상의 각 픽셀들의 색좌표들은 협색역 영상의 색역 내에 위치할 수 있다. 따라서, 보정된 협색역 영상의 색상은 왜곡되지 않고 디스플레이 장치에서 표현될 수 있다.
화이트 포인트 보정 및 색역 매핑부(120)는 색역이 매핑됨에 따라 보정된 협색역 영상에 다시 감마 보정하여, 협색역 영상이 가지고 있던 감마 값을 유지하도록 할 수 있다. 협색역 영상에 적용될 수 있는 감마 값은 협색역 영상에 역감마 보정되기 전 적용되었던 감마 값일 수 있다.
화이트 포인트 색좌표(110), 감마 정보(130) 및 색역 정보(150)는 광색역 영상 및 협색역 영상의 영상 타입, 예를 들면, Adobe RGB, DCI 영상인지 709, sRGB 영상인지에 따라 이미 결정되어 있는 값일 수 있다.
화이트 포인트 보정 및 색역 매핑부(120)는 화이트 포인트 색좌표(110), 감마 정보(130) 및 색역 정보(150) 중 적어도 하나를 이용하여 화이트 포인트 보정 및 색역 매핑 중 적어도 하나를 수행할 수 있다.
톤 매핑부(160)는 광색역 영상의 픽셀의 휘도 값과 협색역 영상의 대응되는 픽셀의 휘도 값을 비교하여, 메타 데이터(180)를 생성할 수 있다.
톤 매핑부(160)는 광색역 및 협색역 영상의 각 픽셀의 RGB 값을 밝기 정보를 나타내는 Y 값으로 변환할 수 있다. Y 값은 수학식 1과 같이 R, G, B 값에 휘도 값으로 변환하기 위한 가중치를 곱하여 구할 수 있다.
수학식 1
Figure PCTKR2015005490-appb-M000001
가중치 값들인 w1, w2, w3는 휘도 값을 구하는 방법에 따라 다양한 값으로 결정될 수 있다. 예를 들면, Y 값은 Y = 0.299R + 0.587G + 0.114B 에 따라 결정될 수 있다.
수학식 2
Figure PCTKR2015005490-appb-M000002
또 다른 예로, Y 값은 수학식 2와 같이 R, G, B 중 최대 값으로 결정될 수도 있다.
톤 매핑부(160)는 광색역 및 협색역 영상의 각 픽셀의 휘도 값을 대응시켜, 협색역 영상의 휘도 값에 대한 광색역 영상의 휘도 값을 나타내는 톤 매핑 보정 함수를 구할 수 있다. 동일한 위치에 존재하는 광색역 및 협색역 영상의 픽셀들의 휘도 값이 서로 대응될 수 있다.
톤 매핑 보정 함수에서, 협색역 영상의 동일한 휘도 값에 대하여, 광색역 영상의 다수의 휘도 값이 매칭되거나, 광색역 영상의 동일한 휘도 값에 대하여 협색역 영상의 다수의 휘도 값이 매칭될 수 있다. 메타 데이터(180)를 이용하여 영상을 디스플레이할 때, 하나의 값에 대해 다수의 값이 매칭된 톤 매핑 보정 함수로는, 협색역 영상을 명확히 보정하기 어렵다. 따라서, 톤 매핑부(160)는 하나의 협색역 영상의 휘도 값에 대해 하나의 광색역 영상의 휘도 값이 매핑될 수 있도록 톤 매핑 보정 함수를 보정할 수 있다. 예를 들면, 톤 매핑부(160)는 톤 매핑 보정 함수에 대하여 리니어 리그레션(linear regression)을 수행하여, 다수의 값이 매핑되는 하나의 값에 대해 다수의 값의 평균값 또는 중간값 등이 매핑되도록 톤 매핑 보정 함수를 보정할 수 있다.
톤 매핑부(160)는 보정된 톤 매핑 보정 함수의 각 포인트의 값을 메타 데이터(180)로 생성할 수 있다. 예를 들면, 톤 매핑부(160)는 톤 매핑 보정 함수에 위치한 휘도 값 중 64개의 포인트에 대한 값이 룩업 테이블(LUT;look up table)로 표현된 메타 데이터(180)를 생성할 수 있다. 각 포인트에 대한 값은, 협색역 영상의 휘도 값과, 대응되는 광색역 영상의 휘도 값을 모두 포함하거나, 광색역 영상의 휘도 값에서 협색역 영상의 휘도 값을 나눈 값인 게인(gain)을 포함할 수 있다.
또한, 톤 매핑부(160)는 보정된 톤 매핑 보정 함수에 따라서, 협색역 영상의 각 픽셀의 휘도 값을 광색역 영상의 휘도 값으로 보정할 수 있다.
채도 매핑부(170)는 광색역 영상의 픽셀의 채도 값과 협색역 영상의 대응되는 픽셀의 채도 값을 비교하여, 메타 데이터(180)를 생성할 수 있다. 톤 매핑부(160)에 의해 보정된 협색역 영상은 광색역 영상을 표시할 수 있는 디스플레이 장치에 표시되었을 때, 여전히 협색역 내부의 색상만 표현될 수 있다. 따라서, 협색역 영상의 색상이 대응되는 영역의 광색역 영상의 색상에 따라 변환될 수 있도록, 채도 매핑부(170)는 메타 데이터(180)를 생성할 수 있다. 메타 데이터(180)는 광색역 영상과 협색역 영상의 채도 값을 비교함에 따라 생성된 색상(hue) 별 채도 계조별 매핑 함수를 포함할 수 있다.
채도 매핑부(170)는 광색역 영상의 채도와 협색역 영상의 채도를 각 픽셀 별로 비교하여, 다수의 색상(hue) 별로 채도 계조별 매핑 함수를 생성할 수 있다. 상술된 톤 매핑 함수의 경우와 동일하게, 채도 매핑부(170)는 광색역 영상과 협색역 영상의 대응되는 픽셀들의 채도 값을 각각 구하고, 협색역 영상의 채도 값에 대한 광색역 영상의 채도 값을 나타내는, 각 색상(hue) 별 채도 계조별 매핑 함수를 생성할 수 있다. 예를 들면, 채도 매핑부(170)는 6개의 색상, R(red), G(green), B(blue), C(cyan), M(magenta), Y(yellow) 별로 채도 계조 별 매핑 함수를 생성할 수 있다. 채도 매핑부(170)는 협색역 영상의 채도 값이 6개의 색상 중 어느 색상에 속하는지 판단하고, 대응되는 광색역 영상의 채도값을 이용하여 색상 별로 채도 계조별 매핑 함수를 생성할 수 있다.
채도 계조 별 매핑 함수를 각 색상 별로 얻는 것은, 협색역 영상 및 광색역 영상의 색역의 위치 및 크기의 차이가 각 색상 별로 달라질 수 있는 점을 고려한 것이다. 예를 들어, 709 영상의 색역과 DCI 영상의 색역과 같이 원색(primary color) 중 B 색상의 위치가 비슷하여, B 색상에서의 색역의 위치 및 영역의 차이가 비슷한 경우, 709 영상에 대한 채도 값의 조절이 상대적으로 적을 수 있다. 반면, R 또는 G 색상에서는 색역의 위치 및 영역의 차이가 크므로, 709 영상에 대한 채도 값의 조절이 상대적으로 클 수 있다.
채도 계조별 매핑함수는 마스터링된 광색역 및 협색역 영상에 따라서, 협색역 영상의 색역 내부의 색은 광색역 영상의 색역에서도 동일한 색좌표를 가지도록 매핑된 값을 포함할 수 있다. 이를 클리핑(clipping) 방식에 따라 광색역 영상 및 협색역 영상이 마스터링된 것으로 지칭하기로 한다. 상술된 마스터링이란, 영상 제작자에 의하여 영상이 편집, 제작되는 과정을 의미할 수 있다.
또는, 채도 계조별 매핑함수는 협색역 영상의 색역 내부의 색이 광색역 영상의 색역으로 비례하여 확장되도록 매핑된 값을 포함할 수 있다. 이를 컴프레션(compression) 방식에 따라 광색역 영상 및 협색역 영상이 마스터링된 것으로 지칭하기로 한다.
채도 매핑부(170)는 상술한 톤 매핑부(160)와 같이 색상별 채도 계조별 함수의 각 포인트의 값을 메타 데이터(180)로 생성할 수 있다. 예를 들면, 채도 매핑부(170)는 색상별 채도 계조별 함수에 위치한 48개의 포인트에 대한 값이 룩업 테이블(LUT;look up table)의 형태로 표현된 메타 데이터(180)를 생성할 수 있다. 각 포인트에 대한 값은, 협색역 영상의 채도 값과, 대응되는 광색역 영상의 채도 값을 모두 포함하거나, 협색역 영상의 채도 값 대비 광색역 영상의 채도 값의 게인 값인, 광색역 영상의 채도 값에서 협색역 영상의 채도 값을 나눈 값을 포함할 수 있다.
클리핑 방식으로 마스터링된 광색역 영상인 경우, 메타 데이터(180)는 협색역 영역을 제외한 광색역 영역에 위치한 포인트에 대한 광색역 영상이나 협색역 영상의 채도 값 또는 게인 값(광색역 영상의 채도 값 대비 협색역 영상의 채도 값)을 포함할 수 있다.
컴프레션 방식으로 마스터링된 광색역 영상인 경우, 메타 데이터(180)는 하나의 게인 값(광색역 영상의 채도 값 대비 협색역 영상의 채도 값) 또는 각 구간별로 적용되는 게인 값을 포함할 수 있다.
또한, 메타 데이터(180)의 게인 값(광색역 영상의 채도 값 대비 협색역 영상의 채도 값)은 각 픽셀의 밝기 값을 더 고려하여 결정될 수 있다. 예를 들면, 픽셀의 밝기 값이 너무 밝거나 너무 어두운 영역에 속하는 경우, 픽셀과 대응되는 채도 값에 대한 게인 값이 작아지도록 결정될 수 있다.
일 실시 예에 의한, 메타 데이터는 상술한 바와 같이 디바이스(100)에 의하여 생성될 수 있으나, 이에 한하지 않고, 사용자에 의해 입력된 신호에 기초하여 생성될 수도 있다. 예를 들면, 사용자에 의해 입력된 신호에 기초하여 메타 데이터의 톤 매핑 보정 함수, 채도 계조별 매핑 함수 및 룩업 테이블 등이 생성될 수 있다.
이하 도 2 내지 도 7을 참조하여, 메타 데이터를 생성하는 방법에 대하여 더 자세히 설명하기로 한다. 상술된 협색역 영상과 광색역 영상은 이하에서 설명될 제1 영상 및 제2 영상과 각각 대응될 수 있는 개념이다.
도 2는 일 실시 예에 의한 메타 데이터를 생성하는 방법을 나타낸 순서도이다.
도 2를 참조하면, 단계 S201에서, 메타 데이터를 생성하는 디바이스(100)는 서로 다른 색역을 가지는 제1 영상 및 제2 영상을 획득할 수 있다. 제1 영상 및 제2 영상은 동일한 내용의 컨텐츠를 포함하되 디스플레이 장치에서 표현될 수 있는 색역이 서로 다른 영상일 수 있다.
더하여, 디바이스(100)는 제1 영상 및 제2 영상의 해상도 및 컨텐츠가 동일하도록 상술된 크로핑 및 스케일링을 수행할 수 있다.
단계 S203에서, 디바이스(100)는 제2 영상에 대한 화이트 포인트 정보 및 색역(gamut) 정보 중 적어도 하나를 획득할 수 있다. 그리고, 단계 S205에서, 디바이스(100)는 단계 S203에서 획득한 화이트 포인트 정보 및 색역 정보 중 적어도 하나에 기초하여 제1 영상을 보정할 수 있다.
디바이스(100)는 제2 영상의 화이트 포인트의 색좌표를 기준으로 제1 영상의 화이트 포인트의 색좌표를 변환함으로써 제1 영상을 보정할 수 있다. 또한, 디바이스(100)는 제2 영상의 색역을 기준으로, 제1 영상의 색역을 매핑하여, 제1 영상을 보정할 수 있다. 화이트 포인트에 따라 색역 매핑의 결과가 달라질 수 있으므로, 제1 영상에 대한 색역 매핑은, 화이트 포인트의 색좌표를 변환함으로써 제1 영상을 보정한 이후 수행될 수 있다.
디바이스(100)는 원래 색상에 대하여 색역 매핑이 수행될 수 있도록, 제1 영상을 역 감마 보정한 후 색역 매핑을 수행하고, 색역 매핑 후 제1 영상에 다시 감마 보정할 수 있다.
단계 S207에서, 디바이스(100)는 단계 S205에서 보정된 제1 영상과, 제2 영상의 색상 정보의 대응 관계에 기초하여 메타 데이터를 생성할 수 있다. 예를 들면, 디바이스(100)는 보정된 제1 영상과 제2 영상간 대응되는 픽셀의 휘도 값 및 채도 값에 관한 정보를 포함하는 메타 데이터를 생성할 수 있다.
디바이스(100)는 제1 영상의 휘도 값과 대응되는 제2 영상의 휘도 값을 나타내는 톤 매핑 보정 함수를 구하고, 톤 매핑 보정 함수에 기초하여 메타 데이터를 생성할 수 있다.
또한, 디바이스(100)는 제1 영상의 채도 값과 대응되는 제2 영상의 채도 값을 나타내는 색상 별 채도 계조별 매핑 함수를 구하고, 색상 별 채도 계조별 매핑 함수에 기초하여 메타 데이터를 생성할 수 있다.
도 3은 일 실시 예에 의한 톤 매핑 보정 함수에 기초하여 메타 데이터를 생성하는 방법을 나타낸 순서도이다.
도 3을 참조하면, 단계 S301에서, 디바이스(100)는 제1 영상의 각 픽셀에 대한 휘도 값을 획득할 수 있다. 디바이스(100)는 픽셀의 R, G, B 값으로부터 소정 수식을 이용하여 휘도 값을 획득할 수 있다.
단계 S303에서, 디바이스(100)는 제1 영상의 각 픽셀과 대응되는 제2 영상의 픽셀의 휘도 값을 획득할 수 있다. 디바이스(100)는 단계 S301에서와 동일하게 픽셀의 R, G, B 값으로부터 소정 수식을 이용하여 픽셀의 휘도 값을 획득할 수 있다.
단계 S305에서, 디바이스(100)는 단계 S301 내지 S303에서 획득한 제1 영상의 휘도 값과 대응되는 제2 영상의 휘도 값을 나타내는 톤 매핑 보정 함수를 구할 수 있다.
톤 매핑 보정 함수에서, 제1 영상의 동일한 휘도 값에 대응되는 제2 영상의 휘도 값이 다수 개 존재할 수 있다. 따라서, 단계 S307에서, 디바이스(100)는 하나의 제1 영상의 휘도 값에 하나의 제2 영상의 휘도 값이 대응될 수 있도록 톤 매핑 보정 함수가 선형 함수의 형태를 가지도록 톤 매핑 보정 함수를 보정할 수 있다. 예를 들면, 디바이스(100)는 하나의 제1 영상의 휘도 값에 복수 개의 제2 영상의 휘도 값이 대응되는 경우, 복수 개의 제2 영상의 휘도 값을 대표할 수 있는 하나의 값을 상술된 제1 영상의 휘도 값과 대응되도록 톤 매핑 보정 함수를 보정할 수 있다. 복수 개의 제2 영상의 휘도 값을 대표할 수 있는 하나의 값은 복수 개의 휘도 값의 평균값 또는 중간값으로 결정될 수 있다.
단계 S309에서, 디바이스(100)는 단계 S307에서 보정된 톤 매핑 보정 함수에 기초하여 메타 데이터를 생성할 수 있다. 메타 데이터는 보정된 톤 매핑 보정 함수를 나타내는 값을 포함할 수 있다. 예를 들면, 디바이스(100)는 보정된 톤 매핑 보정 함수에 위치한 64개의 포인트에 대한 값이 룩업 테이블(LUT;look up table)의 형태로 표현된 메타 데이터(180)를 생성할 수 있다. 각 포인트에 대한 값은, 제1 영상의 휘도 값과, 대응되는 제2 영상의 휘도 값을 모두 포함하거나, 제1 영상의 휘도 값 대비 제2 영상의 휘도 값의 게인 값을 포함할 수 있다.
단계 S311에서, 디바이스(100)는 또한, 단계 S307에서 보정된 톤 매핑 보정 함수에 기초하여 제1 영상을 보정할 수 있다. 예를 들면, 디바이스(100)는 보정된 톤 매핑 보정함수에 기초하여, 제1 영상의 각 휘도 값을 대응되는 제2 영상의 휘도 값으로 변환함으로써 제1 영상을 보정할 수 있다. 디바이스(100)는 이후 단계에서 보정된 톤 매핑 보정함수에 기초하여 보정된 제1 영상을 이용하여 채도 계조별 매핑 함수를 구하고, 채도 계조별 매핑 함수에 기초하여 메타 데이터를 생성할 수 있다.
도 4는 일 실시 예에 의한 톤 매핑 보정함수를 보정하는 일 예를 나타낸 그래프이다.
410을 참조하면, x 축을 제1 영상의 휘도 값, y축을 제2 영상의 휘도값으로 둔 보정전 톤 매핑 보정 함수에서, 하나의 제1 영상의 휘도 값과 대응되는 제2 영상의 휘도 값이 다수개 존재한다. 따라서, 제1 영상을 톤 매핑 보정 함수에 기초하여 보정하는 경우, 대응되는 값이 다수개 존재함에 따라 정확하게 보정하기 어렵다.
따라서, 디바이스(100)는 420에 도시된 그래프와 같이 하나의 제1 영상의 휘도 값에 대하여 하나의 제2 영상의 휘도 값이 매핑될 수 있도록 톤 매핑 보정함수를 보정할 수 있다. 디바이스(100)는 하나의 제1 영상의 휘도 값과 대응되는 다수 개의 제2 영상의 휘도 값 중 대표 값을 결정하여, 결정된 하나의 대표 값만 상술된 제1 영상의 휘도 값과 대응되도록 톤 매핑 보정함수를 보정할 수 있다. 예를 들면, 디바이스(100)는 톤 매핑 보정함수에 위치한 64개의 포인트 마다 제2 영상의 휘도 값 중 대표 값을 결정하여 톤 매핑 보정함수를 보정할 수 있다.
도 5는 일 실시 예에 의한 채도 계조별 매핑 함수에 기초하여 메타 데이터를 생성하는 방법을 나타낸 순서도이다.
도 5를 참조하면, 단계 S501에서, 디바이스(100)는 제1 영상의 각 픽셀의 채도 값을 획득할 수 있다. 예를 들면, 디바이스(100)는 RGB 값으로부터 휘도 신호를 제외한 색차 신호를 획득하고, 색차 신호로부터 채도 값을 획득할 수 있다. 채도 값은 상술된 예에 한하지 않고 다양한 방법으로 획득될 수 있다.
단계 S503에서, 디바이스(100)는 제1 영상의 각 픽셀과 대응되는 제2 영상의 픽셀의 채도 값을 획득할 수 있다. 디바이스(100)는 단계 S501에서와 동일한 방법으로 제2 영상의 픽셀의 채도 값을 획득할 수 있다.
단계 S505에서, 디바이스(100)는 단계 S501 및 S502에서 획득된 채도 값에 기초하여 제1 영상의 채도 값과 대응되는 제2 영상의 채도 값을 나타내는 채도 계조별 매핑 함수를 색상(hue)별로 생성할 수 있다. 예를 들면, 디바이스(100)는 6개의 색상, R(red), G(green), B(blue), C(cyan), M(magenta), Y(yellow) 별로 채도 계조 별 매핑 함수를 생성할 수 있다.
단계 S507에서, 디바이스(100)는 단계 S505에서 생성된 색상별 채도 계조별 매핑 함수에 기초하여 메타 데이터를 생성할 수 있다. 디바이스(100)는 마스터링된 제1 영상 및 제2 영상의 차이에 따라서 각각 다른 방법으로 메타 데이터를 생성할 수 있다.
디바이스(100)는 제1 영상 및 제2 영상이 클리핑 방식에 따라 마스터링된 것으로 판단된 경우, 제1 영상의 채도값 중 제1 영상의 색역 내에 속하는 값은 제2 영상의 채도값과 동일한 값을 가질 수 있다. 따라서, 디바이스(100)는 게인 값이 1이 되도록 메타 데이터를 생성할 수 있다. 반면, 제1 영상의 채도값 중 제1 영상의 색역 내에 속하지 않으나 제2 영상의 색역 내에 속하는 제1 영상의 채도값에 대하여는, 디바이스(100)는 제2 영상의 채도값에서 제1 영상의 채도값을 나눈 값인 게인값을 포함하는 메타 데이터를 생성할 수 있다.
더하여, 디바이스(100)는 제1 영상 및 제2 영상이 컴프레션 방식에 따라 마스터링된 경우, 제2 영상의 채도값에서 제1 영상의 채도값을 나눈 값을 게인 값으로 구함으로써 메타 데이터를 생성할 수 있다.
도 6은 일 실시 예에 의한 광색역 영상 및 협색역 영상의 색역의 일 예를 나타낸 예시 도면이다.
도 6을 참조하면, 상대적으로 광색역 영상에 속하는 DCI 영상의 색역 및 상대적으로 협색역 영상에 속하는 sRGB 영상의 색역이 도시되어 있다. DCI 영상의 색역이 sRGB 영상의 색역보다 넓고, 특히 G 색상에서의 색역 차이가 크다.
상술한 바와 같이 채도 계조별 매핑 함수는 6개의 색상 별로 생성될 수 있다. 각 색역에 따라 원색을 나타내는 색좌표가 서로 다르기 때문에, 픽셀의 색상 정보가 동일하더라도 색역에 따라 디스플레이되는 색상이 서로 다를 수 있다. 따라서, 디바이스(100)는 메타 데이터에 기초하여, 협색역 영상을 디스플레이할 때 광색역 영상의 색상과 같이 표현될 수 있도록 협색역 영상을 보정할 수 있다.
G 색상에 대하여, 도 6에 도시된 O부터 G1(601)까지의 채도 값 및 O부터 G2(602)까지의 채도 값에 대해 채도 계조별 매핑 함수가 생성될 수 있다. 채도 계조별 매핑 함수는 협색역 영상의 O부터 G2까지의 채도 값과 대응되는 광색역 영상의 O부터 G1까지의 채도 값을 나타낼 수 있다. O은 채도 값이 가장 낮은 점을 나타내고, G1, G2는 각 색역에서 채도 값이 가장 높은 원색이 위치한 점을 나타낸다. O점은 각 영상의 색역에 따라 달라질 수 있다. 일 실시 예에 따라, 협색역 영상의 화이트 포인트가 광색역 영상의 화이트 포인트로 변환되는 경우, 협색역 영상의 색역과 광색역 영상의 색역에서의 O점은 서로 동일할 수 있다. 도 6에 도시된 O점은 협색역에서의 O점과 광색역에서의 O점이 동일한 것으로 도시되었으나 이에 한하지 않고 협색역 및 광색역에서의 O 점은 서로 다른 위치에 존재할 수 있다.
Y, C, B, M, R 색상도 마찬가지로, 채도 계조별 매핑 함수는 협색역 영상의 O부터 Y2, C2, B2(604), M2, R2까지의 채도 값과 대응되는 광색역 영상의 O부터 Y1, C1, B1(604), M1, R1(603)까지의 채도 값을 나타낼 수 있다.
톤 매핑 함수를 보정하는 방법과 마찬가지로 색상별 채도 계조별 매핑 함수의 경우에도, 하나의 협색역 영상의 채도값과 대응되는 다수개의 광색역 영상의 채도값이 존재할 수 있다. 디바이스(100)는 하나의 협색역 영상의 채도 값과 대응되는 다수개의 광색역 영상의 채도 값에 기초하여 대표 값을 결정하고, 대표값을 하나의 협색역 영상의 채도 값과 대응되는 값으로 결정할 수 있다. 디바이스(100)는 협색역 영상의 각 채도 값과 대응되는 광색역 영상의 채도값이 하나씩 존재하는 색상별 채도 계조별 매핑 함수를 최종적으로 생성할 수 있다.
이하 도 7 내지 도 9를 참조하여, 메타 데이터에 기초하여 영상을 디스플레이하는 방법에 관하여 더 자세히 설명하기로 한다.
도 7은 일 실시 예에 의한 메타 데이터에 기초하여 영상을 디스플레이하는 디스플레이 장치(700)의 내부 구성을 나타낸 블록도이다.
일 실시 예에 의한 메타 데이터에 기초하여 영상을 디스플레이하는 디스플레이 장치(700)는 메타 데이터에 기초하여 협색역 영상의 색상을 광색역 영상의 색상과 같이 디스플레이 할 수 있다. 메타 데이터는 협색역 영상과 광색역 영상 간 색상 정보의 대응 관계에 관한 정보를 포함할 수 있다. 디스플레이 장치(700)는 광색역 영상의 색상을 표현할 수 있는 디스플레이 패널을 구비하고 있는 장치일 수 있다.
도 7을 참조하면, 디스플레이 장치(700)는 화이트 포인트 보정 및 색역 매핑부(720), 톤 매핑부(760), 채도 매핑부(770) 및 디스플레이부(790)를 포함할 수 있다. 화이트 포인트 보정 및 색역 매핑부(720)는 도 1의 화이트 포인트 보정 및 색역 매핑부(120)와 대응될 수 있다. 화이트 포인트 보정 및 색역 매핑부(720)는 도 1의 화이트 포인트 보정 및 색역 매핑부(120) 와 동일한 방법으로 협색역 영상을 보정할 수 있다.
화이트 포인트 보정 및 색역 매핑부(720)는 광색역 영상의 화이트 포인트 색좌표(710) 정보에 기초하여, 협색역 영상의 화이트 포인트를 보정할 수 있다. 화이트 포인트 보정 및 색역 매핑부(720)는 상술한 메타 데이터를 생성하는 디바이스(100)의 화이트 포인트 보정부(120)와 같이 광색역 영상의 화이트 포인트 색좌표(710) 정보에 기초하여, 협색역 영상의 화이트 포인트를 보정할 수 있다.
화이트 포인트 색좌표(710), 감마 정보(730) 및 색역 정보(750)는 광색역 영상 및 협색역 영상의 영상 타입, 예를 들면, Adobe RGB, DCI 영상인지 709, sRGB 영상인지에 따라 이미 결정되어 있는 값일 수 있다.
협색역 영상의 화이트 포인트와 광색역 영상의 화이트 포인트가 동일한 경우, 화이트 포인트 보정 및 색역 매핑부(720)는 협색역 영상을 보정하지 않고 바이패스(bypass)할 수 있다.
화이트 포인트 보정 및 색역 매핑부(720)는 광색역 영상 및 협색역 영상의 감마 정보(730) 및 색역 정보(750)에 기초하여 협색역 영상의 색역을 광색역 영상의 색역과 매핑할 수 있다. 화이트 포인트 보정 및 색역 매핑부(720)는 상술한 메타 데이터를 생성하는 디바이스(100)의 화이트 포인트 보정 및 색역 매핑부(120)와 같이 광색역 영상 및 협색역 영상의 감마 정보(730) 및 색역 정보(750)에 기초하여, 협색역 영상의 색역을 광색역 영상의 색역과 매핑하여 협색역 영상을 보정할 수 있다.
화이트 포인트 보정 및 색역 매핑부(720)는 화이트 포인트 색좌표(710), 감마 정보(730) 및 색역 정보(750) 중 적어도 하나를 이용하여 화이트 포인트 보정 및 색역 매핑 중 적어도 하나를 수행할 수 있다.
상술한 실시예에 한하지 않고, 디스플레이 장치(700)는 화이트 포인트의 보정을 채도 매핑한 후에 수행할 수도 있다. 디스플레이 장치(700)는 채도 매핑부(770)에 의한 영상의 채도 매핑 후, 화이트 포인트 보정을 수행할 수 있다.
톤 매핑부(760)는 메타 데이터(780)에 기초하여, 협색역 영상의 각 픽셀들의 휘도 값을 보정함으로써 협색역 영상의 색상을 보정할 수 있다. 메타 데이터(780)는 도 1의 디바이스(100)에 의해 생성된 메타 데이터(180)와 대응될 수 있다. 메타 데이터(780)는 톤 매핑 보정 함수에 기초하여 생성된, 협색역 영상의 휘도 값과 대응되는 광색역 영상의 휘도 값에 관한 정보를 포함할 수 있다. 예를 들면, 메타 데이터(780)는 광색역 영상의 휘도 값에 협색역 영상의 휘도 값을 나눈 값인 협색역 영상의 휘도 값에 대한 게인 값을 포함할 수 있다. 톤 매핑부(760)는 협색역 영상의 각 휘도 값에 메타 데이터(780)에 포함된 게인 값을 곱한 값을 이용하여 협색역 영상의 휘도 값을 보정할 수 있다.
채도 매핑부(770)는 메타 데이터(780)에 기초하여, 협색역 영상의 각 픽셀들의 채도 값을 보정함으로써 협색역 영상의 색상을 보정할 수 있다. 메타 데이터(780)는 도 1의 디바이스(100)에 의해 생성된 메타 데이터(180)와 대응될 수 있다. 메타 데이터(780)는 색상별 채도 계조별 매핑 함수에 기초하여 생성된, 협색역 영상의 채도 값과 대응되는 광색역 영상의 채도 값에 관한 정보를 포함할 수 있다. 예를 들면, 메타 데이터(780)는 광색역 영상의 채도 값에 협색역 영상의 채도 값을 나눈 값인 협색역 영상의 채도 값에 대한 게인 값을 포함할 수 있다. 톤 매핑부(760)는 협색역 영상의 각 채도 값에 메타 데이터(780)에 포함된 게인 값을 곱한 값을 이용하여 협색역 영상의 채도 값을 보정할 수 있다.
디스플레이부(790)는 채도 매핑부(770) 및 톤 매핑부(760)에 의해 보정된 협색역 영상을 디스플레이할 수 있다. 디스플레이부(790)는 광색역의 색상을 표현할 수 있는 디스플레이 패널을 구비하여, 광색역의 색상을 표현할 수 있도록 보정된 협색역 영상을 디스플레이할 수 있다.
일 실시 예에 의한 디스플레이 장치(700)는 메타 데이터(780)에 기초하여 협색역 영상이 광색역의 색상을 표현할 수 있도록 협색역 영상을 보정하여 디스플레이할 수 있다. 디스플레이 장치(700)는 광색역 영상보다 데이터 크기가 상대적으로 작은 협색역 영상과 메타 데이터(780)를 이용하여 협색역 영상이 광색역의 색상을 표현할 수 있도록 보정할 수 있다. 따라서, 디스플레이 장치(700)는 광색역 영상의 데이터보다 상대적으로 작은 크기의 데이터를 이용하여, 광색역의 색상을 표현할 수 있는 협색역 영상을 디스플레이할 수 있다.
도 8은 일 실시 예에 의한 메타 데이터에 기초하여 협색역 영상을 디스플레이하는 방법을 나타낸 순서도이다.
도 8을 참조하면, 단계 S801에서, 디스플레이 장치(700)는 제1 영상 및 메타 데이터를 획득할 수 있다. 디스플레이 장치(700)는 제1 영상의 색상 정보를 보정하기 위한 메타 데이터를 획득할 수 있다.
단계 S803에서, 디스플레이 장치(700)는 제1 영상과 다른 색역을 가지는 제2 영상에 대한 화이트 포인트 정보 및 색역에 관한 정보 중 적어도 하나를 획득할 수 있다. 그리고, 단계 S805에서, 디스플레이 장치(700)는 단계 S803에서 획득한 화이트 포인트 정보 및 색역 정보 중 적어도 하나에 기초하여 제1 영상을 보정할 수 있다.
화이트 포인트 정보에 기초한 제1 영상의 보정은 단계 S807 수행 이후 수행될 수도 있다.
단계 S807에서, 디스플레이 장치(700)는 단계 S803에서 보정된 제1 영상 및 메타 데이터에 기초하여 제1 영상을 보정할 수 있다. 디스플레이 장치(700)는 메타 데이터의 톤 매핑 보정 함수에 관한 정보에 기초하여, 제1 영상의 휘도 값을 대응되는 제2 영상의 휘도 값으로 변환함으로써 제1 영상을 보정할 수 있다. 또한, 디스플레이 장치(700)는 메타 데이터의 색상별 채도 계조별 매핑 함수에 관한 정보에 기초하여, 제1 영상의 채도 값을 대응되는 제2 영상의 채도 값으로 변환함으로써 제1 영상을 보정할 수 있다.
단계 S809에서, 디스플레이 장치(700)는 단계 S807에서 보정된 제1 영상을 디스플레이할 수 있다. 디스플레이 장치(700)는 비교적 넓은 색역에 존재하는 색상을 표현할 수 있는 디스플레이 패널을 구비하여, 광색역 색상을 표현할 수 있도록 보정된 제1 영상을 디스플레이할 수 있다.
일 실시 예에 의하면, 디스플레이 장치(700)는 광색역 영상 데이터 없이도, 협색역 영상 데이터와 메타 데이터에 기초하여, 광색역 영상의 색상이 표현되도록 협색역 영상을 디스플레이할 수 있다.
상술된 실시예에서, 디스플레이 장치(700)는 메타 데이터에 기초하여 영상을 보정하여 디스플레이하고 있으나, 이에 한하지 않고, 외부 장치에 의해 보정된 영상을 디스플레이할 수 있다. 디스플레이 장치(700)는 외부 장치에 의해 메타 데이터에 기초하여 광색역 영상의 색상이 표현되도록 보정된 협색역 영상, 또는 협색역 영상의 색상이 표현되도록 보정된 광색역 영상을 수신할 수 있다. 디스플레이 장치(700)는 수신된 영상을 디스플레이할 수 있다. 디스플레이 장치(700)는 수신된 영상의 화이트 포인트 보정이 필요한 경우, 수신된 영상을 화이트 포인트 보정하여 디스플레이할 수 있다.
도 9는 일 실시 예에 의한 메타 데이터를 생성하는 디바이스의 내부 구성을 나타낸 블록도이다.
디바이스(900)는 영상과 대응되는 메타 데이터를 생성하기 위한 서버 장치일 수 있다.
디바이스(900)는 수신부(930) 및 제어부(970)를 포함할 수 있다.
수신부(930)는 서로 다른 색역을 가지는 제1 영상 및 제2 영상과, 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나를 획득할 수 있다.
화이트 포인트에 관한 정보 및 색역에 관한 정보는 영상 타입에 따라서 결정될 수 있는 고정된 값일 수 있다. 따라서, 수신부(930)는 제1 영상 및 제2 영상의 타입 정보를 이용하여 화이트 포인트에 관한 정보 및 색역에 관한 정보를 획득할 수 있다.
제어부(970)는 획득된 정보에 기초하여, 제1 영상을 보정하고, 보정된 제1 영상 및 제2 영상의 색상 정보의 대응관계에 기초하여, 메타 데이터를 생성할 수 있다. 제어부(970)는 보정된 제1 영상의 휘도 값 및 채도 값과 대응되는 제2 영상의 휘도 값 및 채도 값을 구하여, 메타 데이터를 생성할 수 있다.
제어부(970)는 제1 영상의 휘도 값과 대응되는 제2 영상의 휘도 값을 나타내는 톤 매핑 보정 함수와, 제1 영상의 채도 값과 대응되는 제2 영상의 채도 값을 나타내는 색상별 채도 계조별 매핑 함수를 구하여, 메타 데이터를 생성할 수 있다.
도 10은 일 실시 예에 의한 메타 데이터에 기초하여 영상을 디스플레이 하는 디스플레이 장치의 내부 구성을 나타낸 블록도이다.
디스플레이 장치(100)는 사용자에 의해 조작될 수 있는 디스플레이 패널을 구비한 장치일 수 있으며, 예를 들면, 스마트 TV(television), UHD(ultra high definition) TV, 모니터, PC(Personal Computer), 노트북 컴퓨터, 휴대폰(mobile phone), 태블릿 PC, 내비게이션(navigation) 단말기, 스마트폰(smart phone), PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 및 디지털방송 수신기를 포함할 수 있다.
디스플레이 장치(1000)는 수신부(1030), 제어부(1070) 및 디스플레이부(1010)를 포함할 수 있다.
수신부(1030)는 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나와, 제1 영상 및 메타 데이터를 획득할 수 있다. 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보는 제2 영상의 영상 타입, 예를 들면, Adobe RGB 영상, DCI 영상 등의 영상 타입 정보에 따라 획득될 수 있다. 영상 타입에 따른 화이트 포인트에 관한 정보 및 색역에 관한 정보는 고정된 값일 수 있다. 따라서, 수신부(1030)는 각 영상 타입에 따라 화이트 포인트 및 색역에 관한 정보를 획득할 수 있다.
제어부(1070)는 수신부(1030)에 의해 획득된 화이트 포인트 및 색역에 관한 정보 중 적어도 하나에 기초하여, 제1 영상을 보정할 수 있다. 그리고, 제어부(1070)는 보정된 제1 영상을 메타 데이터에 기초하여, 제1 영상의 색상을 보정할 수 있다. 메타 데이터는 제1 영상과 제2 영상의 휘도 값 및 채도 값의 대응 관계에 관한 정보를 포함할 수 있다. 제어부(1070)는 메타 데이터에 기초하여 제1 영상의 휘도 값 및 채도 값을 보정할 수 있다.
디스플레이부(1010)는 제어부(1070)에 의해 보정된 제1 영상을 디스플레이할 수 있다. 제어부(1070)에 의해 제1 영상은 제2 영상의 색상과 같이 표현될 수 있도록 보정될 수 있다. 디스플레이부(1010)는 제1 영상이 색역뿐만 아니라 제2 영상의 색역을 표현할 수 있는 디스플레이 패널을 구비할 수 있다.
일 실시 예에 의하면, 디스플레이 장치는 메타 데이터를 이용하여 협색역 영상을 광색역 영상의 색상이 표현될 수 있도록 보정하여 디스플레이할 수 있다.
일부 실시 예에 의한 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 디바이스가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
비록 상기 설명이 다양한 실시예들에 적용되는 본 발명의 신규한 특징들에 초점을 맞추어 설명되었지만, 본 기술 분야에 숙달된 기술을 가진 사람은 본 발명의 범위를 벗어나지 않으면서도 상기 설명된 디바이스 및 방법의 형태 및 세부 사항에서 다양한 삭제, 대체, 및 변경이 가능함을 이해할 것이다. 따라서, 본 발명의 범위는 상기 설명에서보다는 첨부된 특허청구범위에 의해 정의된다. 특허청구범위의 균등 범위 안의 모든 변형은 본 발명의 범위에 포섭된다.

Claims (24)

  1. 메타 데이터를 생성하는 방법에 있어서,
    서로 다른 색역(gamut)을 가지는 제1 영상 및 제2 영상을 획득하는 단계;
    상기 제2 영상에 대한 화이트 포인트(white point)에 관한 정보 및 색역에 관한 정보 중 적어도 하나를 획득하는 단계;
    상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하는 단계;
    상기 보정된 제1 영상 및 상기 제2 영상의 색상 정보의 대응 관계에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함하는, 방법.
  2. 제1항에 있어서, 상기 제1 영상을 보정하는 단계는
    상기 제1 영상의 화이트 포인트의 색좌표를 상기 제2 영상의 화이트 포인트의 색좌표에 기초하여 변환하는 단계;
    상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정하는 단계를 포함하는, 방법.
  3. 제2항에 있어서, 상기 제1 영상을 보정하는 단계는
    상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정한 후, 상기 제2 영상의 색역에 상기 제1 영상의 색역을 매핑하는 단계; 및
    상기 매핑된 제1 영상의 색역에 기초하여 상기 제1 영상을 보정하는 단계를 포함하는, 방법.
  4. 제1항에 있어서, 상기 메타 데이터를 생성하는 단계는
    상기 제1 영상의 적어도 하나의 픽셀의 휘도 값을 획득하는 단계;
    상기 픽셀과 대응되는 제2 영상의 픽셀의 휘도 값을 획득하는 단계;
    상기 제1 영상의 각 픽셀의 휘도값과 대응되는 제2 영상의 픽셀의 휘도 값에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함하는, 방법.
  5. 제4항에 있어서, 상기 휘도 값에 기초하여, 메타 데이터를 생성하는 단계는
    상기 획득된 제1 영상 및 제2 영상의 휘도 값에 기초하여, 상기 제1 영상의 휘도 값과 대응되는 상기 제2 영상의 휘도 값을 나타내는 함수를 획득하는 단계;
    상기 획득된 함수가 선형 함수의 형태를 가지도록 상기 함수를 보정하는 단계;
    상기 보정된 함수에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함하는, 방법.
  6. 제1항에 있어서, 상기 메타 데이터를 생성하는 단계는,
    상기 제1 영상의 적어도 하나의 픽셀의 채도 값을 획득하는 단계;
    상기 픽셀과 대응되는 제2 영상의 픽셀의 채도 값을 획득하는 단계;
    상기 제1 영상의 각 픽셀의 채도값과 대응되는 제2 영상의 픽셀의 채도 값에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함하는, 방법.
  7. 제6항에 있어서, 상기 채도 값에 기초하여, 메타 데이터를 생성하는 단계는
    적어도 하나의 색상(hue) 별로 상기 제1 영상의 채도 값과 대응되는 상기 제2 영상의 채도 값을 나타내는 함수를 획득하는 단계;
    상기 함수에 기초하여, 상기 메타 데이터를 생성하는 단계를 포함하는, 방법.
  8. 제1항에 있어서, 상기 제1 영상 및 제2 영상을 획득하는 단계는
    상기 제1 영상 및 제2 영상을 스케일링하거나 크로핑하여, 상기 제1 영상 및 제2 영상을 매칭시키는 단계를 포함하는, 방법.
  9. 제1 영상을 메타 데이터에 기초하여 디스플레이하는 방법에 있어서,
    상기 제1 영상 및 메타 데이터를 획득하는 단계;
    상기 제1 영상과 다른 색역을 가지는 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나를 획득하는 단계;
    상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하는 단계;
    상기 메타 데이터에 기초하여, 상기 보정된 제1 영상을 보정하는 단계; 및
    상기 메타 데이터에 기초하여 보정된 제1 영상을 디스플레이하는 단계를 포함하는, 방법.
  10. 제9항에 있어서, 상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하는 단계는
    상기 제1 영상의 화이트 포인트의 색좌표를 상기 제2 영상의 화이트 포인트의 색좌표에 기초하여 변환하는 단계;
    상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정하는 단계를 포함하는, 방법.
  11. 제10항에 있어서, 상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하는 단계는
    상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정한 후, 상기 제2 영상의 색역에 상기 제1 영상의 색역을 매핑하는 단계; 및
    상기 매핑된 제1 영상의 색역에 기초하여, 상기 제1 영상을 보정하는 단계를 포함하는, 방법.
  12. 제9항에 있어서, 상기 메타 데이터에 기초하여, 상기 제1 영상을 보정하는 단계는
    상기 제1 영상의 적어도 하나의 픽셀의 휘도 값을 상기 메타 데이터에 기초하여 변환함으로써, 상기 제1 영상을 보정하는 단계를 포함하는, 방법.
  13. 제12항에 있어서, 상기 제1 영상을 보정하는 단계는
    상기 메타 데이터에 기초하여, 상기 제1 영상의 적어도 하나의 픽셀의 휘도 값과 대응되는 상기 제2 영상의 휘도 값을 획득하고, 상기 획득된 휘도 값에 기초하여, 상기 적어도 하나의 픽셀의 휘도 값을 변환하는 단계를 포함하는, 방법.
  14. 제9항에 있어서, 상기 메타 데이터에 기초하여, 상기 제1 영상을 보정하는 단계는
    상기 제1 영상의 적어도 하나의 픽셀의 채도 값을 획득하는 단계;
    상기 메타 데이터에 기초하여, 상기 적어도 하나의 픽셀의 채도 값을 변환함으로써, 상기 제1 영상을 보정하는 단계를 포함하는, 방법.
  15. 제14항에 있어서, 상기 제1 영상을 보정하는 단계는
    적어도 하나의 색상(hue) 별로 상기 제1 영상의 채도 값과 대응되는 상기 제2 영상의 채도 값을 나타내는 함수에 기초하여, 상기 적어도 하나의 픽셀의 채도 값을 변환하는 단계를 포함하는, 방법.
  16. 제1 영상을 보정하기 위한 메타 데이터가 기록된 기록매체에 있어서, 상기 메타 데이터는
    제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나에 기초하여 보정된 제1 영상의 휘도 값과 대응되는 상기 제2 영상의 휘도 값에 관한 정보; 및
    상기 보정된 제1 영상의 채도 값과 대응되는 상기 제2 영상의 채도 값에 관한 정보를 포함하는, 메타 데이터가 기록된 기록매체.
  17. 메타 데이터를 생성하는 디바이스에 있어서,
    서로 다른 색역을 가지는 제1 영상 및 제2 영상과, 상기 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나를 획득하는 수신부;
    상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하고, 상기 보정된 제1 영상 및 상기 제2 영상의 색상 정보의 대응 관계에 기초하여, 상기 메타 데이터를 생성하는 제어부를 포함하는, 디바이스.
  18. 제1 영상을 메타 데이터에 기초하여 디스플레이하는 디바이스에 있어서,
    상기 제1 영상과 다른 색역을 가지는 제2 영상에 대한 화이트 포인트에 관한 정보 및 색역에 관한 정보 중 적어도 하나와, 상기 제1 영상 및 메타 데이터를 획득하는 수신부;
    상기 획득된 정보에 기초하여, 상기 제1 영상을 보정하고, 상기 보정된 제1 영상을 상기 메타 데이터에 기초하여, 상기 제1 영상을 보정하는 제어부;
    상기 메타 데이터에 기초하여 보정된 제1 영상을 디스플레이하는 디스플레이부를 포함하는, 디바이스.
  19. 제18항에 있어서, 상기 제어부는
    상기 제1 영상의 화이트 포인트의 색좌표를 상기 제2 영상의 화이트 포인트의 색좌표에 기초하여 변환하고, 상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정하는, 디바이스.
  20. 제19항에 있어서, 상기 제어부는
    상기 변환된 제1 영상의 화이트 포인트의 색좌표에 기초하여, 상기 제1 영상을 보정한 후, 상기 제2 영상의 색역에 상기 제1 영상의 색역을 매핑함으로써, 상기 제1 영상을 보정하는, 디바이스.
  21. 제18항에 있어서, 상기 제어부는
    상기 제1 영상의 적어도 하나의 픽셀의 휘도 값을 획득하고, 상기 메타 데이터에 기초하여, 상기 적어도 하나의 픽셀의 휘도 값을 변환함으로써, 상기 제1 영상을 보정하는, 디바이스.
  22. 제18항에 있어서, 상기 제어부는
    상기 제1 영상의 적어도 하나의 픽셀의 채도 값을 획득하고, 상기 메타 데이터에 기초하여, 상기 적어도 하나의 픽셀의 채도 값을 변환함으로써, 상기 제1 영상을 보정하는, 디바이스.
  23. 제1항 내지 제15항 중 어느 한 항에 있어서, 상기 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
  24. 제1항 내지 제15항 중 어느 한 항에 있어서, 하드웨어와 결합되어 상기 방법을 실행시키는 컴퓨터 프로그램.
PCT/KR2015/005490 2014-11-14 2015-06-01 메타 데이터에 기초하여 영상을 디스플레이하는 방법 및 디바이스, 그에 따른 기록매체 WO2016076497A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/526,603 US10277783B2 (en) 2014-11-14 2015-06-01 Method and device for image display based on metadata, and recording medium therefor
KR1020177012959A KR101927968B1 (ko) 2014-11-14 2015-06-01 메타 데이터에 기초하여 영상을 디스플레이하는 방법 및 디바이스, 그에 따른 기록매체
CN201580071638.7A CN107113411A (zh) 2014-11-14 2015-06-01 一种基于元数据的图像显示方法和设备及其记录介质
EP15858627.1A EP3211892A4 (en) 2014-11-14 2015-06-01 Method and device for image display based on metadata, and recording medium therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462079812P 2014-11-14 2014-11-14
US62/079,812 2014-11-14

Publications (1)

Publication Number Publication Date
WO2016076497A1 true WO2016076497A1 (ko) 2016-05-19

Family

ID=55954553

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005490 WO2016076497A1 (ko) 2014-11-14 2015-06-01 메타 데이터에 기초하여 영상을 디스플레이하는 방법 및 디바이스, 그에 따른 기록매체

Country Status (5)

Country Link
US (1) US10277783B2 (ko)
EP (1) EP3211892A4 (ko)
KR (1) KR101927968B1 (ko)
CN (1) CN107113411A (ko)
WO (1) WO2016076497A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2929313T3 (es) * 2013-10-10 2022-11-28 Dolby Laboratories Licensing Corp Visualización de contenido DCI y otro en un proyector de rango dinámico mejorado
KR20180104761A (ko) * 2016-02-12 2018-09-21 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 가상 원색들을 사용한 수술 디스플레이 기술들의 매칭
EP3379281A1 (en) * 2017-03-20 2018-09-26 Koninklijke Philips N.V. Image segmentation using reference gray scale values
US10755392B2 (en) * 2017-07-13 2020-08-25 Mediatek Inc. High-dynamic-range video tone mapping
US11252401B2 (en) * 2017-08-07 2022-02-15 Dolby Laboratories Licensing Corporation Optically communicating display metadata
US11095861B2 (en) * 2019-01-31 2021-08-17 Coretronic Corporation Projector and method for projecting image light beam
US10986320B2 (en) * 2019-01-31 2021-04-20 Coretronic Corporation Projector and method for projecting image light beam
CN111836029B (zh) * 2019-04-18 2022-03-15 福州瑞芯微电子股份有限公司 一种基于色域映射的白平衡调整方法、系统及白平衡终端
KR20220030615A (ko) * 2020-09-03 2022-03-11 삼성전자주식회사 전자장치 및 그 제어방법
KR102566794B1 (ko) * 2021-05-17 2023-08-14 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846989A (ja) * 1994-07-29 1996-02-16 Toppan Printing Co Ltd 色変換方法及びその装置
KR20070105214A (ko) * 2006-04-25 2007-10-30 삼성전자주식회사 메타정보를 이용하여 색역을 자동 변환하여 디스플레이하는시스템 및 그 방법
KR20080106547A (ko) * 2006-03-23 2008-12-08 톰슨 라이센싱 다운링크 데이터 채널용 컬러 메타데이터
KR20110111251A (ko) * 2010-04-02 2011-10-10 한국전자통신연구원 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치
KR20140129377A (ko) * 2011-03-15 2014-11-06 돌비 레버러토리즈 라이쎈싱 코오포레이션 이미지 데이터 변환을 위한 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177465B1 (en) * 1999-07-16 2007-02-13 Fuji Photo Film Co., Ltd. Method of compressing/extending color reproducing space, color reproducing method and color reproducing apparatus
JP3775666B2 (ja) 2002-03-18 2006-05-17 セイコーエプソン株式会社 画像表示装置
WO2004091796A2 (en) * 2003-04-11 2004-10-28 Stockhausen, Inc. A reduced-emissions fossil-fuel-fired system
KR20050120958A (ko) 2004-06-21 2005-12-26 삼성전자주식회사 확장된 색재현 범위를 갖는 색재현 장치를 위한 색신호처리방법 및 그 처리장치
US7784013B2 (en) * 2007-01-03 2010-08-24 PDF Acquisition Corp Method for the definition of a library of application-domain-specific logic cells
CN101641949B (zh) 2007-04-03 2012-02-01 汤姆逊许可公司 用于色彩校正具有不同色域的显示器的方法和系统
US8340409B2 (en) * 2009-03-31 2012-12-25 Konica Minolta Laboratory U.S.A., Inc. Systems and methods for outlining image differences
EP2580913A4 (en) * 2010-06-08 2017-06-07 Dolby Laboratories Licensing Corporation Tone and gamut mapping methods and apparatus
CN102044230A (zh) * 2010-12-31 2011-05-04 昆山龙腾光电有限公司 液晶显示装置及其色域转换方法及色域转换电路
WO2012142285A2 (en) * 2011-04-12 2012-10-18 Dolby Laboratories Licensing Corporation Quality assessment for images that have extended dynamic ranges or wide color gamuts
WO2012142506A1 (en) 2011-04-14 2012-10-18 Dolby Laboratories Licensing Corporation Image prediction based on primary color grading model
CN102209179B (zh) * 2011-05-31 2012-10-31 武汉大学 一种基于图像色域的自适应色域匹配方法
KR20130076132A (ko) 2011-12-28 2013-07-08 삼성전자주식회사 디스플레이 장치 및 영상 표시 방법
ES2770426T3 (es) * 2013-02-21 2020-07-01 Koninklijke Philips Nv Métodos y dispositivos de codificación y decodificación de imágenes HDR mejorados
US10540920B2 (en) 2013-02-21 2020-01-21 Dolby Laboratories Licensing Corporation Display management for high dynamic range video

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846989A (ja) * 1994-07-29 1996-02-16 Toppan Printing Co Ltd 色変換方法及びその装置
KR20080106547A (ko) * 2006-03-23 2008-12-08 톰슨 라이센싱 다운링크 데이터 채널용 컬러 메타데이터
KR20070105214A (ko) * 2006-04-25 2007-10-30 삼성전자주식회사 메타정보를 이용하여 색역을 자동 변환하여 디스플레이하는시스템 및 그 방법
KR20110111251A (ko) * 2010-04-02 2011-10-10 한국전자통신연구원 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치
KR20140129377A (ko) * 2011-03-15 2014-11-06 돌비 레버러토리즈 라이쎈싱 코오포레이션 이미지 데이터 변환을 위한 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3211892A4 *

Also Published As

Publication number Publication date
KR20170074909A (ko) 2017-06-30
US10277783B2 (en) 2019-04-30
CN107113411A (zh) 2017-08-29
US20170324887A1 (en) 2017-11-09
EP3211892A1 (en) 2017-08-30
KR101927968B1 (ko) 2018-12-11
EP3211892A4 (en) 2017-11-29

Similar Documents

Publication Publication Date Title
WO2016076497A1 (ko) 메타 데이터에 기초하여 영상을 디스플레이하는 방법 및 디바이스, 그에 따른 기록매체
WO2016133293A1 (ko) 메타데이터 기반 영상 처리 방법 및 장치
WO2014148829A1 (en) Method and apparatus for processing an image based on detected information
WO2017030311A1 (ko) 이미지 변환을 수행하는 전자 장치 및 이의 방법
WO2016195301A1 (en) Display system for enhancing visibility and methods thereof
US8228438B2 (en) Image processing method capable of improving the display quality of image frames
WO2015141925A1 (en) Photographing apparatus, method of controlling the same, and computer-readable recording medium
WO2015102203A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
WO2019098778A1 (en) Display apparatus, method for controlling the same and image providing apparatus
WO2021020670A1 (en) Electronic device and control method thereof
WO2020027519A1 (ko) 영상 처리 장치 및 그 동작방법
WO2017061691A1 (ko) 디스플레이장치 및 그 제어방법
WO2020197018A1 (en) Image processing apparatus and image processing method thereof
WO2019022387A1 (en) DISPLAY APPARATUS AND METHOD OF CONTROLLING THE SAME
WO2015122604A1 (en) Solid-state image sensor, electronic device, and auto focusing method
WO2016129796A1 (ko) 컬러 테이블 생성 장치, 카메라 영상 보정/제어 장치 및 그 방법
WO2021194036A1 (en) Method and system for customizing camera parameters
WO2019088481A1 (ko) 전자 장치 및 그의 영상 보정 방법
WO2023153723A1 (ko) 개용 표시 장치 및 이의 구동 방법
TW201128627A (en) Method for adjusting the color of image
WO2021167372A2 (ko) 디스플레이 장치 및 그 제어 방법
WO2022034953A1 (ko) 전자 장치, 디스플레이 장치 및 그 제어 방법
WO2020196934A1 (ko) 이미지 센서 및 그 제어 방법
WO2015115866A1 (ko) 이미지의 색상 신호를 보간하는 방법 및 장치
WO2021085672A1 (ko) 디스플레이 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15858627

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15526603

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015858627

Country of ref document: EP