WO2020054927A1 - 전자 장치 및 그 제어 방법 - Google Patents

전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
WO2020054927A1
WO2020054927A1 PCT/KR2019/001589 KR2019001589W WO2020054927A1 WO 2020054927 A1 WO2020054927 A1 WO 2020054927A1 KR 2019001589 W KR2019001589 W KR 2019001589W WO 2020054927 A1 WO2020054927 A1 WO 2020054927A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance
histogram
input image
obtaining
value
Prior art date
Application number
PCT/KR2019/001589
Other languages
English (en)
French (fr)
Inventor
정영훈
응우옌호앙남
이철
김요섭
문영수
보반투
임재문
Original Assignee
삼성전자주식회사
부경대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 부경대학교 산학협력단 filed Critical 삼성전자주식회사
Priority to CN201980060071.1A priority Critical patent/CN112740319B/zh
Priority to EP19859815.3A priority patent/EP3813057A4/en
Priority to US17/275,820 priority patent/US11410283B2/en
Publication of WO2020054927A1 publication Critical patent/WO2020054927A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0264Details of driving circuits
    • G09G2310/027Details of drivers for data electrodes, the drivers handling digital grey scale data, e.g. use of D/A converters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Definitions

  • the present invention relates to an electronic device and a control method thereof, and more particularly, to an electronic device and a control method for outputting an output by adjusting the gradation and luminance of an input image.
  • a conventional electronic device in which high luminance output is limited is output by adjusting the image to low luminance without considering the characteristics of the image and the cognitive response of the human visual system (HVS). Accordingly, the width of the dynamic range of the output image is narrowed, and distortion according to human vision of the image occurs.
  • HVS human visual system
  • the present disclosure is in accordance with the above-described needs, and an object of the present disclosure is to provide an electronic device for adjusting the gradation and luminance of an image in consideration of a cognitive response of a human vision and characteristics of an image, and a control method thereof.
  • the electronic device includes first human visual system (HVS) recognition information and second maximum output according to a luminance difference between adjacent pixels based on the first maximum output luminance.
  • HVS human visual system
  • a first histogram of a difference in gradation between adjacent pixels of an input image is obtained based on a storage in which second HVS recognition information according to a luminance difference between adjacent pixels based on luminance is stored and the first maximum output luminance, and the second A second histogram of grayscale differences between adjacent pixels of the input image is obtained based on a maximum output luminance, and a third histogram of luminance difference between adjacent pixels of the input image is obtained based on the first HVS recognition information, , Obtain a fourth histogram of luminance differences between adjacent pixels of the input image based on the second HVS recognition information, and obtain the first and 3 Based on the difference between the first value obtained based on the histogram information and the second value obtained based on the second and fourth histogram, the luminance value for the input image
  • the processor acquires a guide image by applying a guide tone mapping curve according to the second maximum output luminance to the input image, obtains a fifth histogram of grayscale differences between adjacent pixels of the guide image, and the A luminance value for the input image corresponding to the second maximum output luminance may be obtained based on a difference between a first value and a second value and a difference between the second and fifth histograms.
  • the processor may obtain a luminance value for the input image by applying a weight proportional to a gradation value of each pixel of the input image to a difference between the second and fifth histograms.
  • the processor may obtain a plurality of second histograms of grayscale differences between adjacent pixels of the input image based on the second maximum output luminance, and the plurality of second histograms based on the second HVS recognition information.
  • a luminance value can be obtained.
  • the processor acquires a plurality of images by applying a plurality of tone mapping curves to the input image, and acquires the plurality of second histograms based on a gradation difference between adjacent pixels included in the plurality of images, A tone mapping curve corresponding to the selected second histogram among the plurality of tone mapping curves may be identified, and the identified tone mapping curve may be applied to the input image to obtain a luminance value for the input image.
  • the storage stores mapping information for a grayscale value and a corresponding luminance value of the image
  • the processor based on the mapping information, a luminance value corresponding to a grayscale value for each pixel included in the input image
  • the third and fourth histograms may be obtained based on the obtained luminance values.
  • the processor scales the input image to different sizes to obtain a plurality of scaling images, and acquires a plurality of histograms of grayscale differences between adjacent pixels of the plurality of scaling images based on the first maximum output luminance. Then, after applying different weights to the plurality of histograms, the first histogram may be obtained by summing the plurality of histograms to which the weights have been applied.
  • the processor applies a weighting matrix to the second histogram to obtain a sixth histogram, and the difference between the first and second values, the difference between the second and fifth histograms, and the sixth histogram.
  • a luminance value for the input image corresponding to the second maximum output luminance is obtained, and the weighting matrix may be a diagonal matrix applying 1 to diagonal elements.
  • the processor may obtain a luminance value for the input image based on the following equation.
  • H 1k is a first histogram
  • H 500 is a second histogram
  • H g is the fifth histogram
  • H 500 D is the sixth histogram
  • D is a weighting matrix
  • is a first weight
  • is a second weight.
  • the luminance between adjacent pixels based on the first human visual system (HVS) recognition information and the second maximum output luminance according to the luminance difference between adjacent pixels based on the first maximum output luminance includes obtaining a first histogram of grayscale differences between adjacent pixels of an input image based on the first maximum output luminance, and the second maximum output luminance Acquiring a second histogram for grayscale differences between adjacent pixels of the input image based on the first step, acquiring a third histogram for luminance difference between adjacent pixels of the input image based on the first HVS recognition information, Obtaining a fourth histogram of luminance differences between adjacent pixels of the input image based on the second HVS recognition information and the first and first 3 Based on the difference between the first value obtained based on the histogram information and the second value obtained based on the second and fourth histogram, the luminance value for the input image corresponding to the second maximum output luminance
  • control method may include obtaining a guide image by applying a guide tone mapping curve according to the second maximum output luminance to the input image, and obtaining a fifth histogram of grayscale differences between adjacent pixels of the guide image. Including, the step of obtaining the luminance value for the input image, the difference corresponding to the second maximum output luminance based on the difference between the first value and the second value, and the second and fifth histogram A luminance value for an input image can be obtained.
  • acquiring the second histogram may include acquiring a plurality of second histograms of grayscale differences between adjacent pixels of the input image based on the second maximum output luminance.
  • the obtaining of a luminance value may include obtaining a plurality of second values based on a product between a plurality of elements included in each of the plurality of second histograms and a plurality of elements included in a corresponding fourth histogram, and the plurality of values. Selecting one of the plurality of second histograms based on each of the second values of and the difference between the first values, and a luminance value for the input image based on a fourth histogram corresponding to the selected second histogram It may include the step of obtaining.
  • the obtaining of the second histogram may include obtaining a plurality of images by applying a plurality of tone mapping curves to the input image, and based on a difference in gradation between adjacent pixels included in the plurality of images.
  • Acquiring a second histogram, and obtaining a luminance value for the input image comprises: identifying a tone mapping curve corresponding to the selected second histogram among the plurality of tone mapping curves and the identified And obtaining a luminance value for the input image by applying a tone mapping curve to the input image.
  • the step of obtaining the third histogram may include a luminance value corresponding to a plurality of gradation values for each pixel included in the input image based on the gradation value of the image stored in the electronic device and mapping information for the corresponding luminance value.
  • obtaining the third histogram based on the first HVS recognition information and the acquired luminance value, and obtaining the fourth histogram comprises: inputting the input based on the mapping information.
  • the method may include obtaining a luminance value corresponding to a plurality of gradation values for each pixel included in an image, and obtaining the fourth histogram based on the second HVS recognition information and the obtained luminance value.
  • the obtaining of the first histogram may include obtaining a plurality of scaling images by scaling the input image to different sizes, and difference in gray levels between adjacent pixels of the plurality of scaling images based on the first maximum output luminance.
  • the method may include acquiring a plurality of histograms, and applying different weights to the plurality of histograms, and then summing the plurality of histograms to which the weights are applied to obtain the first histogram.
  • control method includes obtaining a sixth histogram by applying a weighting matrix to the second histogram, and obtaining a luminance value for the input image comprises: a difference between the first value and the second value , A difference between the second and fifth histograms, and a luminance value for the input image corresponding to the second maximum output luminance based on the sixth histogram, wherein the weight matrix is applied to elements in diagonal directions. It may be a diagonal matrix to which 1 is applied.
  • the luminance value for the input image may be obtained based on the following equation.
  • H 1k is a first histogram
  • H 500 is a second histogram
  • H g is the fifth histogram
  • H 500 D is the sixth histogram
  • D is a weighting matrix
  • is a first weight
  • is a second weight.
  • the operation includes: a first maximum Obtaining a first histogram of grayscale differences between adjacent pixels of an input image based on output luminance, and obtaining a second histogram of grayscale differences between adjacent pixels of the input image based on second maximum output luminance, Obtaining a third histogram of the luminance difference between adjacent pixels of the input image based on first human visual system (HVS) recognition information according to the luminance difference between adjacent pixels based on the first maximum output luminance; The input zero based on the second HVS recognition information according to the difference in luminance between adjacent pixels based on the second maximum output luminance.
  • HVS human visual system
  • an electronic device that minimizes a difference in visual sensation, distortion, and the like of an input image compared to an input image by adjusting the gradation and luminance of an image in consideration of a cognitive response of a human vision and characteristics of an image And it is to provide a control method.
  • FIG. 1 is a diagram for describing an electronic device according to an embodiment of the present disclosure.
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a block diagram illustrating a detailed configuration of the electronic device shown in FIG. 2.
  • FIG. 4 is a view for explaining a first histogram according to an embodiment of the present disclosure.
  • 5 is a graph for describing mapping information for grayscale values and luminance values according to an embodiment of the present disclosure.
  • FIGS 6 and 7 are diagrams for explaining human visual system (HVS) recognition information according to an embodiment of the present disclosure.
  • HVS human visual system
  • FIGS. 8 and 9 are diagrams for explaining a difference in luminance between adjacent pixels according to an embodiment of the present disclosure.
  • FIG. 10 is a view for explaining a guide tone mapping curve according to an embodiment of the present disclosure.
  • FIG. 11 is a view for explaining a weight according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram for describing a weighting matrix according to an embodiment of the present disclosure.
  • FIG. 13 is a view for explaining a luminance value for an input image according to an embodiment of the present disclosure.
  • FIG. 14 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
  • first and second may be used to describe various components, but the components should not be limited by terms. The terms are used only to distinguish one component from other components.
  • module or “unit” performs at least one function or operation, and may be implemented by hardware or software, or a combination of hardware and software.
  • a plurality of “modules” or a plurality of “parts” are integrated into at least one module except for “modules” or “parts” that need to be implemented with specific hardware to be implemented with at least one processor (not shown). Can be.
  • FIG. 1 is a diagram for describing an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 may be implemented as a display device (for example, a TV).
  • the present invention is not limited thereto, and may be implemented as various types of electronic devices that perform image processing.
  • the electronic device 100 may provide various types of content to external devices equipped with a display, such as a Blu-ray player, a digital versatile disc (DVD) player, a streaming content output device, and a set-top box. It can be implemented as a source device.
  • the electronic device 100 may output an image on its own by performing image processing according to various embodiments of the present disclosure, or may provide an image to an external device equipped with a display.
  • the electronic device 100 may be implemented as a device having a display function such as a TV, a smart phone, a tablet PC, a PMP, a PDA, a notebook PC, a smart watch, a head mounted display (HMD), or a NED (Near Eye Display).
  • the electronic device 100 includes a liquid crystal display (LCD), organic light-emitting diode (OLED), liquid crystal on silicon (LCoS), digital light processing (DLP), micro LED, and quantum dot to provide a display function ) May be implemented to have various types of displays.
  • LCD liquid crystal display
  • OLED organic light-emitting diode
  • LCDoS liquid crystal on silicon
  • DLP digital light processing
  • micro LED micro LED
  • quantum dot quantum dot to provide a display function
  • the electronic device 100 may output an image within output luminance of a display provided in the electronic device 100.
  • the electronic device 100 may output an image with a luminance of 200 to 700 nits.
  • the present disclosure is not limited thereto, and according to the display provided in the electronic device 100, the electronic device 100 may output an image with a brightness of up to 500 nits or up to 1,000 nits.
  • the maximum output luminance of the display provided in the electronic device 100 is 1,000 nits
  • the electronic device 100 identifies the luminance value of 0 to 1,000 nits corresponding to the pixel value of the input image, and identifies The input image can be output as the luminance value.
  • the electronic device 100 identifies the luminance value of 0 to 500 nits corresponding to the pixel value of the input image, and uses the identified luminance value.
  • the input image can be output.
  • the luminance of the output image is 0 to 1,000 nits
  • the luminance of the output image is 0 to 500 nits
  • the luminance of the output image Is 0 to 500 nits.
  • the luminance of the first output image 10 when the maximum output luminance of the electronic device 100 ′ is 1,000 nits, the luminance of the first output image 10 may be 0 to 1,000 nits.
  • the luminance of the second output image 20 may be 0 to 500 nits.
  • the input images are the same, the brightness of the first and second output images 10 and 20 may be different from each other according to the maximum output luminance of the electronic device 100.
  • the second output image 20 may be provided relatively dark compared to the first output image 10. Also, the width of the dynamic range of the second output image 20 may be narrower than that of the first output image 10.
  • an input image is output considering only the maximum output luminance of an electronic device without considering cognitive information according to a human visual system (HVS) or characteristics of an image.
  • the electronic device adjusts the luminance of the output image within the maximum output luminance of the electronic device by applying a pre-stored static tone mapping curve to the input image.
  • the electronic device 100 may perform image processing on an input image in consideration of cognitive information according to HVS and characteristics of the image, in addition to the maximum output luminance of the electronic device 100.
  • the luminance of the output image can be adjusted by adjusting a dynamic tone mapping cuff that is not fixed to the input image.
  • the first output image 10 and the electronic device 100 having a maximum output luminance of 500 nits
  • heterogeneity, difference, degree of deterioration, and degree of distortion according to the human visual system (HVS) between the second output images 20 may be minimized.
  • HVS human visual system
  • the luminance values of 1,000 nits, 500 nits, etc., referred to as the maximum output luminance of the electronic device 100 are only examples, and are not limited thereto.
  • the monitor may output a brightness of up to 400 nits
  • the smartphone may output a brightness up to 700 nits
  • the digital signage may output a brightness up to 2000 nits.
  • the maximum luminance that the electronic device 100 can output is not limited to any one and may vary.
  • the electronic device 100 may be capable of outputting an image with a brightness of 1,000 nits or more and 0.05 nits or less.
  • the maximum luminance that the electronic device 100 can output is 500 nits.
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 includes a storage 110 and a processor 120.
  • the storage 110 stores various data such as an operating system (O / S) software module for driving the electronic device 100 and various multimedia contents.
  • O / S operating system
  • the storage 110 is implemented as an internal memory such as a ROM (eg, electrically erasable programmable read-only memory (EEPROM)) or RAM included in the processor 120, or the processor 120 It may be implemented as a separate memory.
  • the storage 110 may be implemented in the form of a memory embedded in the electronic device 100 according to a data storage purpose, or may be implemented in a form of a memory that is detachable to the electronic device 100.
  • data for driving the electronic device 100 is stored in a memory embedded in the electronic device 100, and data for an extension function of the electronic device 100 is detachable to the electronic device 100. Can be stored in memory as much as possible.
  • the memory embedded in the electronic device 100 is implemented in the form of a flash memory, a non-volatile memory, a volatile memory, a hard disk drive (HDD) or a solid state drive (SSD), and the sound output device
  • a memory that is detachable to the 100 it may be implemented in the form of a memory card (eg, micro SD card, USB memory, etc.), an external memory (eg, USB memory) connectable to a USB port, or the like.
  • the storage 110 has a human visual system (HVS) according to a luminance value based on the concept of JND (JND).
  • HVS human visual system
  • JND JND
  • Cognitive information may be stored.
  • JND may be a concept that means a minimum difference capable of discriminating the difference between two stimuli.
  • the HVS recognition information according to the luminance value quantifies whether the difference between the first and second luminance causes a stimulus over the threshold of the human optic nerve, and the amount of stimulation change of the human optic nerve corresponding to the difference between the first and second luminance. It can be one piece of information.
  • HVS recognition information according to a luminance difference between adjacent pixels based on a specific luminance may be stored.
  • the HVS recognition information according to the difference in luminance between adjacent pixels is information obtained by quantifying the cognitive stimulation amount (or response amount, response amount) of the human optic nerve corresponding to the difference between the luminance of a pixel and the luminance of a pixel adjacent to the pixel. You can. For example, if the luminance of the pixel is 100 nits and the luminance of the pixel adjacent to the pixel is 500 nits, the amount of stimulation of the human optic nerve corresponding to the difference between 100 nits and 500 nits may be quantified and included in the HVS recognition information.
  • the storage 110 stores first HVS recognition information according to luminance differences between adjacent pixels based on the first maximum output luminance and second HVS recognition information according to luminance differences between adjacent pixels based on the second maximum output luminance. It may be.
  • the first maximum output luminance may be 1,000 nits and the second maximum output luminance may be 500 nits.
  • the storage 110 may store HVS recognition information according to a luminance difference between adjacent pixels based on 1,000 nits and HVS recognition information according to a luminance difference between adjacent pixels based on 500 nits.
  • 1,000nit and 500nit are not necessarily limited to this as an example.
  • the storage 110 may store HVS recognition information based on 2000 nits and HVS recognition information based on 1,000 nits.
  • the HVS recognition information according to the luminance value may be pre-stored in the storage 110.
  • the electronic device 100 may receive HVS recognition information from a server (not shown) and store it in the storage 110.
  • the HVS recognition information pre-stored in the storage 110 may be updated and updated.
  • mapping information for grayscale values and corresponding luminance values of an image may be stored.
  • an 8-bit input image may have a gradation value of 0 to 255.
  • the electronic device 100 may identify a luminance value corresponding to the grayscale value of the input image based on the mapping information, and output the input image with the identified luminance value.
  • the electronic device 100 may output a pixel of 255 gradation value among the plurality of pixels of the input image at a luminance of 500 nits based on the mapping information.
  • an input image of 10 bits may have a gradation value of 0 to 1023.
  • the electronic device 100 may identify a luminance value corresponding to a gradation value of the input image based on the mapping information, and output the input image with the identified luminance value.
  • the electronic device 100 may output a pixel having a 1023 gradation value among a plurality of pixels of an input image with a luminance of 500 nits based on mapping information.
  • mapping information will be given in FIG. 5.
  • the gradation values of each of the plurality of pixels included in the input image may be expressed as pixel values, brightness values, brightness codes, etc., but will be referred to as gradation values for convenience of description.
  • the processor 120 may be implemented as a digital signal processor (DSP), a microprocessor, or a time controller (TCON) that processes digital signals, but is not limited thereto.
  • DSP digital signal processor
  • MCU micro controller unit
  • MPU micro processing unit
  • AP application processor
  • CP communication processor
  • ARM processor ARM processor
  • the processor 120 may include one or more of the above, or may be defined by a corresponding term.
  • the processor 120 may be implemented with a system on chip (SoC), a large scale integration (LSI) with an embedded processing algorithm, or an FPGA ( Field Programmable gate array).
  • SoC system on chip
  • LSI large scale integration
  • FPGA Field Programmable gate array
  • the processor 120 may obtain a first histogram of grayscale differences between adjacent pixels of the input image based on the first maximum output luminance.
  • the first maximum output luminance is assumed to be 1,000 nits.
  • the input image may be an image based on 1,000 nits.
  • grayscale values of the input image may be mapped to luminance values of 0 to 1,000 nits.
  • the input image may be output with a luminance of 0 to 1,000 nits.
  • the output image may have a dynamic range of up to 0 to 1,000 nits wide.
  • the processor 120 may obtain a first histogram of a gradation difference between a pixel of an input image and a pixel adjacent to the pixel.
  • the first histogram may be a 2D histogram.
  • the X-axis of the 2D histogram may be a grayscale value of a pixel
  • the Y-axis may be a grayscale value of a pixel adjacent to a corresponding pixel.
  • the processor 120 obtains a gradation difference between pixels located at (x, y) of the input image and pixels located at (x + 1, y) adjacent to the pixel. You can.
  • the processor 120 may obtain a first histogram based on a gradation difference between adjacent pixels of 8,294,400 pixels in the input image.
  • the processor 120 may obtain a gradation difference between a pixel located at (x, y) of the input image and a pixel located at (x, y + 1) adjacent to the pixel, and based on the gradation difference You can also get a histogram.
  • the processor 120 may obtain a second histogram of grayscale differences between adjacent pixels of the input image based on the second maximum output luminance.
  • the maximum output luminance of the electronic device 100 may be the second maximum output luminance.
  • the maximum output luminance and the second maximum output luminance of the electronic device 100 may be 500 nits.
  • the processor 120 may obtain an image for outputting an input image within 500 nits, which is the maximum output luminance of the electronic device 100.
  • an image obtained to output an input image within 500 nits, which is the maximum output luminance of the electronic device 100, and an input image corresponding to the second maximum output luminance will be collectively referred to as an image based on 500 nits.
  • the processor 120 may obtain a gradation difference between a pixel located at (x, y) of an image based on 500 nits and a pixel located at (x + 1, y) adjacent to the pixel. For example, if the resolution of the input image is 3840 x 2160, a second histogram may be obtained based on a gradation difference between adjacent pixels of 8,294,400 pixels in an image based on 500 nits.
  • the processor 120 may obtain a gradation difference between a pixel located at (x, y) of an image based on 500 nits and a pixel located at (x, y + 1) adjacent to the pixel, and based on the gradation difference A second histogram may be obtained.
  • the processor 120 may obtain a third histogram of the luminance difference between adjacent pixels of the input image based on the first HVS recognition information.
  • the processor 120 is based on the first HVS recognition information based on 1,000 nits stored in the storage 110, a pixel located at (x, y) of the input image and (x + 1) adjacent to the pixel. , y) to obtain luminance differences between pixels. Subsequently, the processor 120 may obtain a third histogram based on the difference in luminance between adjacent pixels of each of the plurality of pixels in the input image.
  • the processor 120 may obtain a third histogram based on a difference in luminance between a pixel located at (x, y) of the input image and a pixel located at (x, y + 1) adjacent to the pixel.
  • the processor 120 may obtain a fourth histogram of the luminance difference between adjacent pixels of the input image based on the second HVS recognition information.
  • the processor 120 is based on the second HVS recognition information based on 500 nits stored in the storage 110, a pixel located at (x, y) of an image based on 500 nits, and (x +) adjacent to the pixel. A luminance difference between pixels located at 1 and y) may be obtained. Subsequently, the processor 120 may obtain a fourth histogram based on a difference in luminance between adjacent pixels of a plurality of pixels in the image based on 500 nits.
  • the processor 120 may obtain a fourth histogram based on a difference in luminance between a pixel located at (x, y) of an image based on 500 nits and a pixel located at (x, y + 1) adjacent to the pixel. .
  • the processor 120 may obtain a first value based on the first and third histogram information, and a second value based on the second and fourth histogram. Subsequently, a luminance value for the input image corresponding to the second maximum output luminance may be obtained based on the difference between the first value and the second value. For example, the processor 120 may obtain a luminance value for an input image corresponding to the second maximum output luminance based on Equation 1 below.
  • H 1k is a first histogram
  • H 500 is a second histogram
  • Is the fourth histogram Is the first value
  • means inter-element multiplication.
  • the processor 120 may obtain a plurality of second histograms of gradation differences between adjacent pixels of the input image based on the second maximum output luminance.
  • the processor 120 obtains a plurality of images by applying a plurality of tone mapping curves (TMC) to the input image, and based on the difference in gradation between adjacent pixels included in the plurality of images. 2 You can obtain a histogram.
  • TMC tone mapping curves
  • each of the plurality of images may be an image based on 500 nits.
  • the processor 120 may acquire a plurality of images by applying a plurality of tone mapping curves to the input image.
  • the tone mapping curve may be a curve that adjusts a gradation value for each pixel included in the input image to another gradation.
  • it may be a curve for adjusting the luminance value of each pixel included in the input image to another luminance.
  • the present invention is not limited thereto, and various types of equations and graphs that can adjust the gradation of pixels in the input image to other gradations may be used as the gradation adjustment curve.
  • the processor 120 may acquire a plurality of fourth histograms corresponding to a plurality of second histograms based on the second HVS recognition information. For example, the processor 120 may acquire second and fourth histograms corresponding to an image based on 500 nits. Subsequently, the processor 120 may obtain a second value based on a product between a plurality of elements included in each of the second and fourth histograms.
  • the processor 120 may obtain a plurality of second values based on a product between a plurality of elements included in each of the plurality of second histograms and a plurality of elements included in the corresponding fourth histogram. Subsequently, one of the plurality of second histograms may be selected based on each of the plurality of second values and the difference value between the first values.
  • H 1k is a first histogram
  • H 500 is a second histogram
  • Is the fourth histogram Is the first value
  • means inter-element multiplication.
  • the processor 120 may identify second and fourth histograms, each of which has a minimum difference value between each of the plurality of second values and the first value.
  • a second histogram that minimizes a difference between each of the plurality of second values and the first value among the plurality of second histograms may be selected.
  • the processor 120 may obtain a luminance value for the input image based on the fourth histogram corresponding to the selected second histogram. For example, the processor 120 identifies a tone mapping curve corresponding to the selected second histogram among a plurality of tone mapping curves applied to the input image, and applies the identified tone mapping curve to the input image to thereby obtain a luminance value for the input image. Can be obtained. For example, the processor 120 may apply the identified tone mapping curve to the input image to obtain an image based on 500 nits and output the acquired image.
  • the processor 120 may output an image having a minimum sense of heterogeneity, difference, deterioration, and distortion according to HVS compared to an input image based on 1,000 nits among a plurality of images based on 500 nits. For example, the processor 120 may identify an image that minimizes a difference between a first value and a second value among a plurality of images based on Equation 2, and output the identified image.
  • a tone mapping curve that minimizes a difference between a first value and a second value among a plurality of tone mapping curves based on Equation 2 may be identified, and the identified tone mapping curve applied to the input image may be applied to the input image. It can be output by adjusting the luminance for.
  • FIG. 3 is a block diagram illustrating a detailed configuration of the electronic device shown in FIG. 2.
  • the electronic device 100 includes a storage 110, a processor 120, a display 130, a content receiving unit 140, a communication unit 150, a remote control receiving unit 160 and an input unit 170.
  • a storage 110 a storage 110
  • a processor 120 a display 130
  • a content receiving unit 140 a display 130
  • a communication unit 150 a remote control receiving unit 160
  • an input unit 170 an input unit 170.
  • FIG. 3 detailed descriptions of components that overlap with those shown in FIG. 2 will be omitted.
  • the processor 120 controls the overall operation of the electronic device 100 using various programs stored in the storage 110.
  • the processor 120 includes a RAM, a ROM, a graphic processing unit, a main CPU, first to n interfaces, and a bus. At this time, RAM, ROM, graphics processing unit, main CPU, first to n interfaces, etc. may be connected to each other through a bus.
  • a set of instructions for booting the system is stored in the ROM.
  • the main CPU copies the O / S stored in the storage 110 to RAM according to the command stored in the ROM, and executes the O / S to boot the system.
  • the main CPU copies various application programs stored in the storage 110 to RAM and executes various operations by executing the application programs copied to RAM.
  • the graphic processing unit generates a screen including various objects such as icons, images, and text using the calculation unit and the rendering unit.
  • the calculation unit calculates attribute values such as coordinate values, shapes, sizes, colors, etc. to be displayed according to the layout of the screen using the control command received from the communication unit 150.
  • the main CPU accesses the storage 110 to boot using the O / S stored in the storage 110.
  • the main CPU performs various operations using various programs, contents, data, etc. stored in the storage 110.
  • the first to n interfaces are connected to the various components described above.
  • One of the interfaces may be a network interface connected to an external device through a network.
  • the display 130 may provide various content screens that can be provided through the electronic device 100.
  • the content screen may include various content such as images, videos, text, and music, an application execution screen including various content, a GUI (Graphic User Interface) screen, and the like.
  • GUI Graphic User Interface
  • the display 130 has various types of displays, such as a liquid crystal display, an organic light-emitting diode (LCoS), liquid crystal on silicon (LCoS), and digital light processing (DLP), as described above. Can be implemented as In addition, the display 130 may be implemented with a transparent material and implemented with a transparent display that displays information.
  • LCD organic light-emitting diode
  • LCD liquid crystal on silicon
  • DLP digital light processing
  • the display 130 may be implemented in the form of a touch screen that forms a mutual layer structure with the touchpad, and in this case, the display 130 may be used as a user interface in addition to an output device.
  • the display 130 may have a maximum luminance that can be output according to the control of the processor 120, the performance of the display 130, and the like.
  • the display 130 may be capable of outputting luminance of up to 500 nits.
  • the display 130 may be capable of outputting a luminance of up to 1,000 nits.
  • the first maximum output luminance is assumed to be 1,000 nits
  • the second maximum output luminance is assumed to be 500 nits
  • the case where the maximum luminance that the electronic device 100 can output is 500 nits.
  • this is only an example and is not necessarily limited thereto.
  • the electronic device 100 may adjust and output the input image to a luminance of 0 to 500 nits under the control of the processor 120. .
  • the processor 120 may adjust and output gradation, luminance, and the like for each pixel of the image according to various embodiments of the present disclosure.
  • the image receiving unit 140 may be implemented as a tuner that receives broadcast images, but is not limited thereto, and may be implemented as various types of communication modules capable of receiving various external images such as a Wi-Fi module, a USB module, and an HDMI module.
  • the image may be stored in the storage 110, in which case, the electronic device 100 may adjust and output the gradation and output luminance of each image of the image stored in the storage 110 according to various embodiments of the present disclosure. Of course it can.
  • the communication unit 150 may transmit / receive an image.
  • the communication unit 150 is AP-based Wi-Fi (Wi-Fi, Wireless LAN network), Bluetooth (Bluetooth), Zigbee (Zigbee), wired / wireless LAN (Local Area Network), WAN, Ethernet, IEEE 1394, HDMI External devices (e.g., source devices), external storage media (e.g., USB), external servers (e.g., via USB, MHL, AES / EBU, Optical, Coaxial, etc.)
  • an audio signal may be input through a streaming or download method from a web hard).
  • the communication unit 150 may receive first and second HVS recognition information, and mapping information for grayscale values and corresponding luminance values of an image from an external server (not shown).
  • the display apparatus 100 may receive information from an external server and store the information in the storage 110, and of course, may update the pre-stored information based on the information received from the external server.
  • the electronic device 100 may obtain a weight, a weighting matrix, and the like used to select one of the plurality of second histograms from the server.
  • the electronic device 100 may obtain a weight, a weighting matrix, and the like used to select any one of a plurality of tone mapping curves from a server.
  • the remote control signal receiving unit 160 is a component for receiving a remote control signal transmitted from the remote control.
  • the remote control signal receiving unit 170 may be implemented in a form including a light receiving unit for receiving an IR (Infra Red) signal, and receives a remote control signal by performing communication according to a wireless communication protocol such as Bluetooth or Wi-Fi. It may be implemented as.
  • the input unit 170 may be implemented with various buttons provided on the main body of the display device 100.
  • the user may input various user commands such as a turn on / turn off command, a channel conversion command, a volume adjustment command, a menu confirmation command, etc. through the input unit 180.
  • FIG. 4 is a view for explaining a first histogram according to an embodiment of the present disclosure.
  • the electronic device 100 may obtain a plurality of scaling images 10-1, ... 10-N by scaling the input image to different sizes. For example, the electronic device may sequentially down-scale the input images to obtain first to N-th scaling images 10-1, ... 10-N.
  • the electronic device 100 may obtain a plurality of histograms of grayscale differences between adjacent pixels of the plurality of scaling images 10-1, ... 10-N, based on the first maximum output luminance. For example, the electronic device 100 may obtain a 2D histogram corresponding to each of the first to Nth scaling images 10-1,... 10-N.
  • the electronic device 100 may scale an input image based on a first scale factor (K 1 ) and obtain a first scaling image 10-1. Subsequently, the electronic device 100 displays a 2D histogram of the first scaling image 10-1 ( ).
  • the electronic device 100 may scale the input image based on the second scale factor K 2 and obtain the second scaling image 10-2. Subsequently, the electronic device 100 displays a 2D histogram of the second scaling image 10-2 ( ).
  • the electronic device 100 may scale the input image based on the Nth scale factor K N and obtain the Nth scaling image 10 -N. Subsequently, the electronic device 100 displays a 2D histogram of the N-th scaling image 10-N ( ).
  • the electronic device 100 includes a plurality of histograms ( , , ..., ) After applying different weights ( ⁇ 1 , ⁇ 2 , ..., ⁇ N ), and then apply multiple weighted histograms ( , , ..., ) To sum the first histogram ( ).
  • the electronic device 100 may include a first histogram (based on Equation 3 below) ).
  • ⁇ i is the weight for the i-th scaling image
  • the 2D histogram represents the frequency of grayscale differences between two adjacent pixels in the image.
  • the (m, n) -th element h x (m, n) means a frequency in which a gray level value of a pixel in an image is m and a gray level value of a pixel adjacent to a corresponding pixel is n.
  • the electronic device 100 may obtain a first value based on the first histogram and the third histogram information.
  • the electronic device 100 may have a first value (based on Equation 1 or 2). ).
  • H 1k is the first histogram information
  • 5 is a graph for describing mapping information for grayscale values and luminance values according to an embodiment of the present disclosure.
  • the electronic device 100 may include mapping information on a gradation value of an image and a corresponding luminance value.
  • the electronic device 100 may identify a luminance value corresponding to a gradation value for each pixel of the image based on the mapping information. Subsequently, the electronic device 100 may output an image according to the identified luminance value.
  • the electronic device 100 may convert a gradation value into a luminance value based on the mapping information.
  • mapping information for a grayscale value and a corresponding luminance value of an image may be an electro-optical transfer function (EOTF).
  • the electronic device 100 may include an EOTF according to the ST.2084 standard.
  • the present disclosure is not limited thereto, and the electronic device 100 may include various types of lookup tables (LUTs), functions, graphs, and the like, which represent a gradation value and a luminance value corresponding to the gradation value.
  • the electronic device 100 may include an EOTF according to the BT.1886 standard.
  • the electronic device 100 may obtain a luminance value corresponding to a plurality of gradation values for each pixel included in an input image based on mapping information. For example, the electronic device 100 may obtain a luminance value of 0 to 1000 nits.
  • the electronic device 100 may identify a gradation value for each pixel and a corresponding luminance value of an image based on 500 nits obtained from an input image based on mapping information. For example, the electronic device 100 may obtain a luminance value of 0 to 500 nits.
  • the electronic device 100 may acquire a plurality of images by applying a plurality of tone mapping curves to the input image.
  • each of the plurality of images may be an image based on 500 nits.
  • the electronic device 100 may obtain luminance values of each of the plurality of images based on the mapping information. For example, the electronic device 100 may identify a gradation value for each pixel of a first image among a plurality of images and a corresponding luminance value. Also, the electronic device 100 may identify a gradation value for each pixel of a second image among a plurality of images and a corresponding luminance value.
  • the electronic device 100 may identify the maximum output luminance based on the average picture level (hereinafter referred to as APL) of the input image.
  • APL may be an average grayscale value of the input image. The higher the APL, the relatively bright the image, and the lower the relatively dark image.
  • the maximum output luminance may be limited according to the brightness of the input image.
  • the electronic device 100 may limit the maximum output luminance according to the APL of the input image. For example, the electronic device 100 may output a gradation value of 1023 levels in the input image with a luminance of 100 nits to 500 nits according to the APL of the input image.
  • the luminance of each grayscale value of the image having a high APL is lower than that of the grayscale value of a relatively low APL image. You can.
  • FIGS 6 and 7 are diagrams for explaining human visual system (HVS) recognition information according to an embodiment of the present disclosure.
  • HVS human visual system
  • the electronic device 100 recognizes a human visual system (HVS) according to a luminance value based on the concept of a Just-noticeable Difference (JND). Information may be stored.
  • HVS human visual system
  • JND Just-noticeable Difference
  • the X-axis of the graph shown in FIG. 6 is a luminance value
  • the Y-axis is a numerical value of a cognitive response (or cognitive stimulus) of human vision.
  • the graph shows that the cognitive response of the human vision changes rapidly at a low luminance of 0 nits to 200 nits, and the cognitive response of the human tasting slowly changes at a high luminance of 200 nits to 1,000 nits. It shows that the human optic nerve responds sensitively at relatively low luminance.
  • the electronic device 100 determines a luminance value of a pixel located at (x, y) of the input image 10 based on mapping information (eg, a graph illustrated in FIG. 5). (L (x, y)) can be obtained. Subsequently, the electronic device 100 may obtain a luminance value (L (x + 1, y)) of a pixel located at (x + 1, y) adjacent to the corresponding pixel. Subsequently, the electronic device 100 based on the HVS recognition information (for example, the graph shown in FIG. 6), the HVS recognition response amount according to the luminance difference between adjacent pixels ( ).
  • mapping information eg, a graph illustrated in FIG. 5
  • (L (x, y)) can be obtained.
  • the electronic device 100 may obtain a luminance value (L (x + 1, y)) of a pixel located at (x + 1, y) adjacent to the corresponding pixel.
  • the electronic device 100 based on the HVS recognition information (for example, the graph shown
  • the electronic device 100 may obtain a luminance value (L ′ (x, y)) of a pixel located at (x, y) of an image based on 500 nits based on mapping information. have. Subsequently, the electronic device 100 may obtain a luminance value (L ′ (x + 1, y)) of a pixel located at (x + 1, y) adjacent to the corresponding pixel. Subsequently, the electronic device 100 based on the HVS recognition information (for example, the graph shown in FIG. 6), the HVS recognition response amount according to the luminance difference between adjacent pixels ( ).
  • the HVS recognition information for example, the graph shown in FIG. 6
  • the electronic device 100 may acquire a plurality of images by applying a plurality of tone mapping curves to the input image 10.
  • each of the plurality of images may be an image based on 500 nits.
  • the electronic device 100 may obtain luminance values of each of the plurality of images based on the mapping information.
  • the electronic device 100 may detect the amount of HVS cognitive reaction of each of the plurality of images ).
  • FIGS. 8 and 9 are diagrams for explaining a difference in luminance between adjacent pixels according to an embodiment of the present disclosure.
  • the first human visual system (HVS) recognition information according to the difference in luminance between adjacent pixels based on the first maximum output luminance may be in the form of a 2D histogram.
  • the X-axis is a grayscale value of a pixel
  • the Y-axis is a grayscale value of a pixel adjacent to a corresponding pixel.
  • (M, n) th element on 2D histogram (m, n) means a response amount of HVS recognition according to a luminance difference between adjacent pixels when a gray level value of a pixel in an image is m and a gray level value of a pixel adjacent to a corresponding pixel is n.
  • the luminance value corresponding to the gradation value 200 of the input image 10 is 1.77
  • the luminance value corresponding to the gradation value 800 of the input image 10 is 798 based on the mapping information.
  • a grayscale value of a pixel is 0 to 1023 based on a first maximum output luminance (eg, 1,000 nits), and a grayscale value of a pixel adjacent to a corresponding pixel is 0 to 1023 days It is a 2D histogram modeling the amount of HVS cognitive response according to the luminance difference between adjacent pixels assuming the time.
  • the electronic device 100 may obtain a third histogram of the luminance difference between adjacent pixels of the input image 10 based on the first HVS recognition information.
  • the second HVS recognition information illustrated in FIG. 9 is a 2D histogram modeling the amount of HVS recognition response according to a luminance difference between adjacent pixels based on the second maximum output luminance (eg, 500 nits).
  • the luminance value corresponding to the gradation value 200 of the image 20 based on 500 nits is 1.48 based on the mapping information
  • the luminance value corresponding to the gradation value 800 of the image 20 based on 500 nits is 481.
  • the second HVS recognition information illustrated in FIG. 9 is when a gradation value of a pixel is 0 to 1023 based on a second maximum output luminance (eg, 500 nits), and a gradation value of a pixel adjacent to the pixel is 0 to 1023 Is a 2D histogram modeling the amount of HVS cognitive response according to the difference in luminance between adjacent pixels.
  • a second maximum output luminance eg, 500 nits
  • the electronic device 100 may obtain a fourth histogram of the luminance difference between adjacent pixels of the image 20 based on 500 nits based on the second HVS recognition information.
  • FIG. 10 is a view for explaining a guide tone mapping curve according to an embodiment of the present disclosure.
  • the electronic device 100 may obtain a guide image by applying a guide tone mapping curve to the input image, and may obtain a fifth histogram of grayscale differences between adjacent pixels of the guide image.
  • the guide tone mapping curve may be any one of a plurality of tone mapping curves that output an input image with a luminance of 0 to 500 nits.
  • a guide tone mapping curve according to an embodiment of the present disclosure outputs luminance of 0 to 500 nits as it is among luminance values corresponding to grayscale values of pixels of an input image, and luminance of 500 nits to 1,000 nits is 500 nits It may be a curve that is output by adjusting with. However, it is not limited thereto.
  • the guide tone mapping curve may be a curve that linearly maps a luminance value corresponding to a gradation value of an input image of 0 to 1,000 nits to a luminance value of 0 to 500 nits.
  • the electronic device 100 may obtain a fifth histogram of grayscale differences between adjacent pixels of the guide image obtained by applying a guide tone mapping curve to the input image.
  • the electronic device 100 may obtain a difference in gradation between pixels located at (x, y) of the guide image obtained by adjusting the gradation of the input image and pixels located at (x + 1, y) adjacent to the corresponding pixel. It is also possible to obtain a fifth histogram based on the gradation difference.
  • the input image whose gradation is adjusted according to the guide tone mapping curve may be output with a luminance of 0 to 500 nits.
  • the electronic device 100 may obtain a luminance value for an input image corresponding to the second maximum output luminance based on the difference between the second and fifth histograms based on Equation 4 below.
  • H 500 is a second histogram
  • H g is a fifth histogram
  • W is a weight.
  • the electronic device 100 may identify a tone mapping curve that minimizes a difference between the second and fifth histograms among a plurality of tone mapping curves, and applies the identified tone mapping curve to the input image By doing so, a luminance value for an input image corresponding to the second maximum output luminance can be obtained. For example, the electronic device 100 obtains a difference between the second and fifth histograms based on a guide tone mapping curve that is one of a plurality of tone mapping curves, and the electronic device 100 is different from the guide tone mapping curve among the plurality of tone mapping curves. The difference between the second and fifth histograms can be obtained based on different tone mapping curves. The electronic device 100 may identify a tone mapping curve corresponding to a relatively small difference among them. Meanwhile, Equation 4 may be an equation related to maintaining luminance of the input image.
  • the electronic device 100 may apply a weight to a difference between the second and fifth histograms.
  • the weight may be inversely proportional to the gradation value of each pixel of the input image.
  • the human visual sensation responds more sensitively at low luminance than at relatively high luminance.
  • the amount of HVS cognitive response according to the luminance change is greater at 0 to 150 nit, which is lower than the amount of HVS cognitive response due to the luminance change at 500 to 1000 nits, which is high luminance.
  • the electronic device 100 may obtain a weight inversely proportional to the gradation value of each pixel of the input image in order to maintain low gradation and low luminance of the input image.
  • the electronic device 100 may obtain a weight based on Equation (5).
  • i denotes a gradation value of a pixel
  • j denotes a gradation value of a pixel adjacent to the corresponding pixel.
  • FIG. 11 is a view for explaining a weight according to an embodiment of the present disclosure.
  • a weighted histogram as shown in FIG. 11 can be obtained.
  • the X axis of the weight is the gradation value of the pixel
  • the Y axis is the gradation value of the pixel adjacent to the pixel.
  • the electronic device 100 Since the human visual sense responds more sensitively at a lower luminance than at a relatively high luminance, if both the grayscale value of a pixel and a grayscale value of a pixel located adjacent to the pixel are relatively low grayscale, the electronic device 100 has a high weight (eg For example, a weight close to 1023) may be applied. As another example, if the gradation value of a pixel and the gradation value of a pixel located adjacent to the pixel are both relatively high gradations, the electronic device 100 may apply a small weight (eg, a weight close to 0).
  • a weight close to 0 eg. a weight close to 0
  • the input image has a luminance value of 0 to 1000 nits according to the HDR10 standard, and the input image is assumed to have a gradation value of 0 to 1023 as 10 bits.
  • the input image may have a luminance value of 0 to 500 nits, and may have a gradation value of 0 to 255 as 8 bits.
  • the electronic device 100 may obtain the weight W based on 255-max (i, j).
  • the electronic device 100 may obtain a luminance value for an input image corresponding to the second maximum output luminance based on Equation 6 below.
  • ⁇ (0 ⁇ ⁇ ⁇ 1) may mean a first weight indicating importance. For example, if the HVS cognitive response should be relatively emphasized rather than maintaining the luminance of the input image, ⁇ may be close to 1. As another example, if the luminance maintenance of the input image should be relatively emphasized rather than the HVS cognitive response, ⁇ may be close to zero.
  • FIG. 12 is a diagram for describing a weighting matrix according to an embodiment of the present disclosure.
  • the electronic device 100 may obtain a sixth histogram by applying a weight matrix to the second histogram.
  • the electronic device may obtain a sixth histogram based on Equation 7 below to prevent the tone mapping curve from rapidly changing according to the characteristics of the input image.
  • H 500 denotes a second histogram
  • D denotes a weighting matrix
  • the weight matrix may be a diagonal matrix in which 1 is applied to diagonal elements.
  • the weight matrix may be a double diagonal matrix in which 1 is applied to elements in a diagonal direction, -1 is applied to elements positioned adjacent to the element, and 0 is applied to the remaining elements.
  • the electronic device 100 may prevent the tone mapping curve from rapidly changing by applying a weighting matrix to the second histogram.
  • the weight matrix illustrated in FIG. 12 is an example and is not necessarily limited thereto.
  • the weight matrix may be a triple diagonal matrix.
  • various types of matrices can be set as weight matrices according to the purpose of the manufacturer and characteristics of the image.
  • FIG. 13 is a view for explaining a luminance value for an input image according to an embodiment of the present disclosure.
  • the electronic device 100 may obtain a luminance value for an input image corresponding to the second maximum output luminance based on Equation 8 below.
  • H 1k is a first histogram
  • H 500 is a second histogram
  • H g is the fifth histogram
  • H 500 D is the sixth histogram
  • D is a weighting matrix
  • is a first weight
  • is a second weight.
  • the electronic device 100 minimizes the sum of the difference between the first and second values, the difference between the second and fifth histograms, and the sum of the sixth histogram among the plurality of second histograms based on Equation (8).
  • the second histogram can be selected.
  • a fourth histogram corresponding to the second histogram may be identified.
  • the electronic device 100 may identify a tone mapping curve corresponding to the selected second histogram among the plurality of tone mapping curves, and apply the identified tone mapping curve to the input image to adjust the luminance of the input image.
  • the input image with the adjusted luminance may be output with a luminance of 0 to 500 nits.
  • the input image in which the luminance is adjusted may mean an image based on 500 nits.
  • the electronic device 100 may maintain the dynamic range width and the like as much as possible, and may output the input image with a luminance of 0 to 500 nits while minimizing the degree of deterioration according to the recognition time.
  • FIG. 14 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
  • the luminance between adjacent pixels based on the first human visual system (HVS) recognition information and the second maximum output luminance according to the luminance difference between adjacent pixels based on the first maximum output luminance In the control method of the electronic device in which the second HVS recognition information according to the difference is stored, first, a first histogram of grayscale differences between adjacent pixels of the input image is obtained based on the first maximum output luminance (S1410).
  • a third histogram of the luminance difference between adjacent pixels of the input image is obtained based on the first HVS recognition information (S1430).
  • a fourth histogram of the luminance difference between adjacent pixels of the input image is obtained based on the second HVS recognition information (S1440).
  • control method includes the steps of acquiring a guide image by applying a guide tone mapping curve according to a second maximum output luminance to an input image, and a fifth for grayscale differences between adjacent pixels of the guide image.
  • a step of obtaining a histogram, and step S1450 of obtaining a luminance value for the input image is based on the difference between the first value and the second value, and the second maximum output luminance based on the difference between the second and fifth histograms.
  • a luminance value for a corresponding input image can be obtained.
  • a luminance value for the input image may be obtained by applying a weight proportional to a gradation value of each pixel of the input image to a difference between the second and fifth histograms. have.
  • the step S1420 of acquiring the second histogram includes obtaining a plurality of second histograms of grayscale differences between adjacent pixels of the input image based on the second maximum output luminance, and obtaining the luminance values for the input image.
  • the obtaining of S1450 may include obtaining a plurality of second values based on a product between a plurality of elements included in each of the plurality of second histograms and a plurality of elements included in a corresponding fourth histogram, and a plurality of second values.
  • the method may include selecting one of a plurality of second histograms based on the difference value between each and the first value, and obtaining a luminance value for the input image based on the fourth histogram corresponding to the selected second histogram. have.
  • the step S1420 of acquiring the second histogram is a step of acquiring a plurality of images by applying a plurality of tone mapping curves to the input image and a plurality of second histograms based on a difference in gray levels between adjacent pixels included in the plurality of images. And obtaining a luminance value for the input image, identifying a tone mapping curve corresponding to a selected second histogram among the plurality of tone mapping curves and inputting the identified tone mapping curve. And obtaining a luminance value for the input image.
  • step S1430 of acquiring a third histogram a luminance value corresponding to a plurality of gradation values for each pixel included in the input image is obtained based on the gradation value of the image stored in the electronic device and mapping information for the corresponding luminance value. And obtaining a third histogram based on the first HVS recognition information and the obtained luminance value, and step S1440 obtaining a fourth histogram comprises a plurality of pixels included in the input image based on the mapping information.
  • the method may include obtaining a luminance value corresponding to each grayscale value, and obtaining a fourth histogram based on the second HVS recognition information and the obtained luminance value.
  • the step S1410 of acquiring the first histogram may include obtaining a plurality of scaling images by scaling the input image to different sizes, and a plurality of grayscale differences between adjacent pixels of the plurality of scaling images based on the first maximum output luminance.
  • the method may include obtaining a histogram of, and applying different weights to the plurality of histograms, and then adding a plurality of weighted histograms to obtain a first histogram.
  • control method includes the step of obtaining a sixth histogram by applying a weighting matrix to the second histogram, and step S1450 of obtaining a luminance value for the input image is the first value.
  • a luminance value for an input image corresponding to the second maximum output luminance based on the difference between the second value, the difference between the second and fifth histograms, and the sixth histogram, and the weighting matrix includes diagonal elements. It may be a diagonal matrix applying 1 to.
  • step S1450 of obtaining a luminance value for the input image may obtain a luminance value for the input image based on the following equation.
  • H 1k is a first histogram
  • H 500 is a second histogram
  • H g is the fifth histogram
  • H 500 D is the sixth histogram
  • D is a weighting matrix
  • is a first weight
  • is a second weight.
  • embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof.
  • the embodiments described herein may be implemented by the processor itself.
  • embodiments such as procedures and functions described herein may be implemented as separate software modules. Each of the software modules can perform one or more functions and operations described herein.
  • computer instructions for performing a processing operation according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium.
  • Computer instructions stored in the non-transitory computer-readable medium may cause a specific device to perform a processing operation according to various embodiments described above when executed by a processor.
  • the non-transitory computer-readable medium means a medium that stores data semi-permanently and that can be read by a device, rather than a medium that stores data for a short time, such as registers, caches, and memory.
  • Specific examples of non-transitory computer-readable media may include CDs, DVDs, hard disks, Blu-ray disks, USBs, memory cards, and ROMs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는, 제1 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제1 HVS(Human visual system) 인지 정보 및 제2 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제2 HVS 인지 정보가 저장된 스토리지 및 제1 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제1 히스토그램을 획득하고, 제2 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제2 히스토그램을 획득하고, 제1 HVS 인지 정보에 기초하여 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제3 히스토그램을 획득하고, 제2 HVS 인지 정보에 기초하여 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제4 히스토그램을 획득하고, 제1 및 제3 히스토그램 정보에 기초하여 획득된 제1 값 및, 제2 및 제4 히스토그램에 기초하여 획득된 제2 값 간 차이에 기초하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득하는 프로세서를 포함한다.

Description

전자 장치 및 그 제어 방법
본 발명은 전자 장치 및 그 제어 방법에 관한 것으로, 보다 상세하게는 입력 영상의 계조, 휘도를 조정하여 출력하는 전자 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자기기가 개발 및 보급되고 있다. 특히, 가장 많이 사용되고 있는 모바일 장치, TV와 같은 디스플레이 장치는 최근 수년 간 급속도로 발전하고 있다.
최근 1,000nit 이상의 고휘도, 고광량 출력이 가능한 전자 장치가 개발 및 보급되고 있으며, 이러한 전자 장치는 영상의 왜곡을 최소화하고 폭 넓은 다이내믹 레인지로 출력할 수 있다.
다만, 고휘도 출력이 제한되는 종래의 전자 장치는 영상의 특성, 인간 시각(HVS, Human visual system)의 인지 반응에 대한 고려 없이 영상을 저휘도로 조정하여 출력하였다. 이에 따라, 출력 영상의 다이내믹 레인지의 폭이 좁아지며, 영상에 대한 인간 시각에 따른 왜곡 등이 발생하였다.
고휘도 출력이 제한되는 전자 장치에서도 영상의 특성 및 인간 시각의 인지 반응 등을 고려하여 입력 영상의 계조 또는 휘도를 조정하는 모델에 대한 요구가 있었다.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은 인간 시각의 인지 반응, 영상의 특성 등을 고려하여 영상의 계조, 휘도를 조정하는 전자 장치 및 그 제어 방법을 제공함에 있다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 전자 장치는, 제1 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제1 HVS(Human visual system) 인지 정보 및 제2 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제2 HVS 인지 정보가 저장된 스토리지 및 상기 제1 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제1 히스토그램을 획득하고, 상기 제2 최대 출력 휘도에 기초하여 상기 입력 영상의 인접 픽셀 간 계조 차이에 대한 제2 히스토그램을 획득하고, 상기 제1 HVS 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제3 히스토그램을 획득하고, 상기 제2 HVS 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제4 히스토그램을 획득하고, 상기 제1 및 제3 히스토그램 정보에 기초하여 획득된 제1 값 및, 상기 제2 및 제4 히스토그램에 기초하여 획득된 제2 값 간 차이에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하는 프로세서를 포함한다.
여기서, 상기 프로세서는, 상기 입력 영상에 상기 제2 최대 출력 휘도에 따른 가이드 톤 맵핑 커브를 적용하여 가이드 영상을 획득하고, 상기 가이드 영상의 인접 픽셀 간 계조 차이에 대한 제5 히스토그램을 획득하고, 상기 제1 값 및 제2 값 간 차이 및, 상기 제2 및 제5 히스토그램 간 차이에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득할 수 있다.
여기서, 상기 프로세서는, 상기 입력 영상의 각 픽셀의 계조 값에 반 비례하는 가중치를 상기 제2 및 제5 히스토그램 간 차이에 적용하여 상기 입력 영상에 대한 휘도 값을 획득할 수 있다.
또한, 상기 프로세서는, 상기 제2 최대 출력 휘도에 기초하여 상기 입력 영상의 인접 픽셀 간 계조 차이에 대한 복수의 제2 히스토그램을 획득하고, 상기 제2 HVS 인지 정보에 기초하여 상기 복수의 제2 히스토그램에 대응되는 복수의 제4 히스토그램을 획득하고, 상기 복수의 제2 히스토그램 각각에 포함된 복수의 원소 및 대응되는 제4 히스토그램에 포함된 복수의 원소 간 곱에 기초하여 복수의 제2 값을 획득하고, 상기 복수의 제2 값 각각 및 상기 제1 값 간 차이 값에 기초하여 상기 복수의 제2 히스토그램 중 하나를 선택하고, 상기 선택된 제2 히스토그램에 대응되는 제4 히스토그램에 기초하여 상기 입력 영상에 대한 휘도 값을 획득할 수 있다.
여기서, 상기 프로세서는, 상기 입력 영상에 복수의 톤 맵핑 커브를 적용하여 복수의 영상을 획득하고, 상기 복수의 영상에 포함된 인접 픽셀 간 계조 차이에 기초하여 상기 복수의 제2 히스토그램을 획득하며, 상기 복수의 톤 맵핑 커브 중 상기 선택된 제2 히스토그램에 대응되는 톤 맵핑 커브를 식별하고, 상기 식별된 톤 맵핑 커브를 상기 입력 영상에 적용하여 상기 입력 영상에 대한 휘도 값을 획득할 수 있다.
또한, 상기 스토리지는, 영상의 계조 값 및 대응되는 휘도 값에 대한 맵핑 정보를 저장하며, 상기 프로세서는, 상기 맵핑 정보에 기초하여 상기 입력 영상에 포함된 복수의 픽셀 별 계조 값에 대응되는 휘도 값을 획득하고, 획득된 휘도 값에 기초하여 상기 제3 및 제4 히스토그램을 획득할 수 있다.
또한, 상기 프로세서는, 상기 입력 영상에 상이한 크기로 스케일링하여 복수의 스케일링 영상을 획득하고, 상기 제1 최대 출력 휘도에 기초하여 상기 복수의 스케일링 영상의 인접 픽셀 간 계조 차이에 대한 복수의 히스토그램을 획득하고, 상기 복수의 히스토그램에 상이한 가중치를 적용한 후, 상기 가중치가 적용된 상기 복수의 히스토그램을 합산하여 상기 제1 히스토그램을 획득할 수 있다.
또한, 상기 프로세서는, 상기 제2 히스토그램에 가중치 행렬을 적용하여 제6 히스토그램을 획득하고, 상기 제1 값 및 제2 값 간 차이, 상기 제2 및 제5 히스토그램 간 차이, 및 상기 제6 히스토그램에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하며, 상기 가중치 행렬은, 대각선 방향의 원소들에 1을 적용하는 대각 행렬일 수 있다.
여기서, 상기 프로세서는, 하기 수학식에 기초하여 상기 입력 영상에 대한 휘도 값을 획득할 수 있다.
Figure PCTKR2019001589-appb-I000001
여기서, H1k는 제1 히스토그램, H500은 제2 히스토그램,
Figure PCTKR2019001589-appb-I000002
는 제3 히스토그램,
Figure PCTKR2019001589-appb-I000003
은 제4 히스토그램, Hg는 제5 히스토그램, H500D는 제6 히스토그램,
Figure PCTKR2019001589-appb-I000004
는 제1 값,
Figure PCTKR2019001589-appb-I000005
는 제2 값, D는 가중치 행렬, α는 제1 가중치, β는 제2 가중치를 의미함.
한편, 본 개시의 일 실시 예에 따르면 제1 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제1 HVS(Human visual system) 인지 정보 및 제2 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제2 HVS 인지 정보가 저장된 전자 장치의 제어 방법은, 상기 제1 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제1 히스토그램을 획득하는 단계, 상기 제2 최대 출력 휘도에 기초하여 상기 입력 영상의 인접 픽셀 간 계조 차이에 대한 제2 히스토그램을 획득하는 단계, 상기 제1 HVS 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제3 히스토그램을 획득하는 단계, 상기 제2 HVS 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제4 히스토그램을 획득하는 단계 및 상기 제1 및 제3 히스토그램 정보에 기초하여 획득된 제1 값 및, 상기 제2 및 제4 히스토그램에 기초하여 획득된 제2 값 간 차이에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하는 단계를 포함한다.
여기서, 제어 방법은 상기 입력 영상에 상기 제2 최대 출력 휘도에 따른 가이드 톤 맵핑 커브를 적용하여 가이드 영상을 획득하는 단계, 상기 가이드 영상의 인접 픽셀 간 계조 차이에 대한 제5 히스토그램을 획득하는 단계를 포함하고, 상기 입력 영상에 대한 휘도 값을 획득하는 단계는, 상기 제1 값 및 제2 값 간 차이 및, 상기 제2 및 제5 히스토그램 간 차이에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득할 수 있다.
여기서, 상기 입력 영상에 대한 휘도 값을 획득하는 단계는, 상기 입력 영상의 각 픽셀의 계조 값에 반 비례하는 가중치를 상기 제2 및 제5 히스토그램 간 차이에 적용하여 상기 입력 영상에 대한 휘도 값을 획득할 수 있다.
또한, 상기 제2 히스토그램을 획득하는 단계는, 상기 제2 최대 출력 휘도에 기초하여 상기 입력 영상의 인접 픽셀 간 계조 차이에 대한 복수의 제2 히스토그램을 획득하는 단계를 포함하고, 상기 입력 영상에 대한 휘도 값을 획득하는 단계는, 상기 복수의 제2 히스토그램 각각에 포함된 복수의 원소 및 대응되는 제4 히스토그램에 포함된 복수의 원소 간 곱에 기초하여 복수의 제2 값을 획득하는 단계, 상기 복수의 제2 값 각각 및 상기 제1 값 간 차이 값에 기초하여 상기 복수의 제2 히스토그램 중 하나를 선택하는 단계 및 상기 선택된 제2 히스토그램에 대응되는 제4 히스토그램에 기초하여 상기 입력 영상에 대한 휘도 값을 획득하는 단계를 포함할 수 있다.
여기서, 상기 제2 히스토그램을 획득하는 단계는, 상기 입력 영상에 복수의 톤 맵핑 커브를 적용하여 복수의 영상을 획득하는 단계 및 상기 복수의 영상에 포함된 인접 픽셀 간 계조 차이에 기초하여 상기 복수의 제2 히스토그램을 획득하는 단계를 포함하고, 상기 입력 영상에 대한 휘도 값을 획득하는 단계는, 상기 복수의 톤 맵핑 커브 중 상기 선택된 제2 히스토그램에 대응되는 톤 맵핑 커브를 식별하는 단계 및 상기 식별된 톤 맵핑 커브를 상기 입력 영상에 적용하여 상기 입력 영상에 대한 휘도 값을 획득하는 단계를 포함할 수 있다.
또한, 상기 제3 히스토그램을 획득하는 단계는, 상기 전자 장치에 저장된 영상의 계조 값 및 대응되는 휘도 값에 대한 맵핑 정보에 기초하여 상기 입력 영상에 포함된 복수의 픽셀 별 계조 값에 대응되는 휘도 값을 획득하는 단계 및 상기 제1 HVS 인지 정보 및 상기 획득된 휘도 값에 기초하여 상기 제3 히스토그램을 획득하는 단계를 포함하고, 상기 제4 히스토그램을 획득하는 단계는, 상기 맵핑 정보에 기초하여 상기 입력 영상에 포함된 복수의 픽셀 별 계조 값에 대응되는 휘도 값을 획득하는 단계 및 상기 제2 HVS 인지 정보 및 상기 획득된 휘도 값에 기초하여 상기 제4 히스토그램을 획득하는 단계를 포함할 수 있다.
또한, 상기 제1 히스토그램을 획득하는 단계는, 상기 입력 영상에 상이한 크기로 스케일링하여 복수의 스케일링 영상을 획득하는 단계, 상기 제1 최대 출력 휘도에 기초하여 상기 복수의 스케일링 영상의 인접 픽셀 간 계조 차이에 대한 복수의 히스토그램을 획득하는 단계 및 상기 복수의 히스토그램에 상이한 가중치를 적용한 후, 상기 가중치가 적용된 상기 복수의 히스토그램을 합산하여 상기 제1 히스토그램을 획득하는 단계를 포함할 수 있다.
또한, 제어 방법은, 상기 제2 히스토그램에 가중치 행렬을 적용하여 제6 히스토그램을 획득하는 단계를 포함하고, 상기 입력 영상에 대한 휘도 값을 획득하는 단계는, 상기 제1 값 및 제2 값 간 차이, 상기 제2 및 제5 히스토그램 간 차이, 및 상기 제6 히스토그램에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하고, 상기 가중치 행렬은, 대각선 방향의 원소들에 1을 적용하는 대각 행렬일 수 있다.
여기서, 상기 입력 영상에 대한 휘도 값을 획득하는 단계는, 하기 수학식에 기초하여 상기 입력 영상에 대한 휘도 값을 획득할 수 있다.
Figure PCTKR2019001589-appb-I000006
여기서, H1k는 제1 히스토그램, H500은 제2 히스토그램,
Figure PCTKR2019001589-appb-I000007
는 제3 히스토그램,
Figure PCTKR2019001589-appb-I000008
은 제4 히스토그램, Hg는 제5 히스토그램, H500D는 제6 히스토그램,
Figure PCTKR2019001589-appb-I000009
는 제1 값,
Figure PCTKR2019001589-appb-I000010
는 제2 값, D는 가중치 행렬, α는 제1 가중치, β는 제2 가중치를 의미함.
한편, 본 개시의 일 실시 예에 따르면, 전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 상기 동작은, 제1 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제1 히스토그램을 획득하는 단계, 제2 최대 출력 휘도에 기초하여 상기 입력 영상의 인접 픽셀 간 계조 차이에 대한 제2 히스토그램을 획득하는 단계, 상기 제1 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제1 HVS(Human visual system) 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제3 히스토그램을 획득하는 단계, 상기 제2 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제2 HVS 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제4 히스토그램을 획득하는 단계 및 상기 제1 및 제3 히스토그램 정보에 기초하여 획득된 제1 값 및, 상기 제2 및 제4 히스토그램에 기초하여 획득된 제2 값 간 차이에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하는 단계를 포함한다.
본 개시는 다양한 실시 예들에 따르면, 인간 시각의 인지 반응, 영상의 특성 등을 고려하여 영상의 계조, 휘도를 조정함으로써 입력 영상 대비 출력 영상에 대한 시각적 감각의 차이, 왜곡 정도 등을 최소화시키는 전자 장치 및 그 제어 방법을 제공함에 있다.
도 1은 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 3은 도 2에 도시된 전자 장치의 세부 구성을 나타내는 블럭도이다.
도 4는 본 개시의 일 실시 예에 따른 제1 히스토그램을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 계조 값 및 휘도 값에 대한 맵핑 정보를 설명하기 위한 그래프이다.
도 6 및 도 7은 본 개시의 일 실시 예에 따른 HVS(Human visual system) 인지 정보를 설명하기 위한 도면이다.
도 8 및 도 9는 본 개시의 일 실시 예에 따른 인접 픽셀 간 휘도 차이를 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 가이드 톤 맵핑 커브를 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시 예에 따른 가중치를 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시 예에 따른 가중치 행렬을 설명하기 위한 도면이다.
도 13은 본 개시의 일 실시 예에 따른 입력 영상에 대한 휘도 값을 설명하기 위한 도면이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
-
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. 
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.
도 1에 도시된 바와 같이 전자 장치(100)는 디스플레이 장치(예를 들어, TV)로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며 영상 처리를 수행하는 다양한 종류의 전자 장치로 구현 가능하다. 예를 들어, 전자 장치(100)는 블루레이 플레이어(Blu Ray Player), DVD(Digital Versatile Disc) 플레이어, 스트리밍 컨텐츠 출력 장치, 셋탑 박스 등과 같이 디스플레이가 구비된 외부 장치로 컨텐츠를 제공하는 다양한 유형의 소스 장치로 구현될 수 있다. 전자 장치(100)는 본 개시의 다양한 실시 예에 따른 영상 처리를 수행하여 자체적으로 영상을 출력할 수도 있고, 디스플레이가 구비된 외부 장치로 영상을 제공할 수도 있다.
전자 장치(100)는 TV, 스마트폰, 태블릿 PC, PMP, PDA, 노트북 PC, 스마트 워치, HMD(Head mounted Display), NED(Near Eye Display) 등과 같이 디스플레이 기능을 갖춘 장치로 구현될 수도 있다. 전자 장치(100)는 디스플레이 기능을 제공하기 위해 LCD(liquid crystal display), OLED(organic light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing), Micro LED, QD(quantum dot) 등과 같은 다양한 형태의 디스플레이를 구비하도록 구현될 수 있다. 이하에서는 설명의 편의를 위해 전자 장치(100)가 디스플레이 장치로 구현되는 경우를 상정하여 설명하도록 한다.
전자 장치(100)는 전자 장치(100)에 구비된 디스플레이의 출력 가능 휘도 내에서 영상을 출력할 수 있다. 예를 들어, 전자 장치(100)는 200 내지 700nit의 휘도로 영상을 출력할 수 있다. 다만, 이에 한정되는 것은 아니며 전자 장치(100)에 구비된 디스플레이에 따라 전자 장치(100)는 최대 500nit 또는 최대 1,000nit의 휘도로 영상을 출력할 수 있다. 예를 들어, 전자 장치(100)에 구비된 디스플레이의 최대 출력 가능 휘도가 1,000nit이면, 전자 장치(100)는 입력 영상의 픽셀 값에 대응되는 0 내지 1,000nit의 휘도 값을 식별하고, 식별된 휘도 값으로 입력 영상을 출력할 수 있다. 다른 예로, 전자 장치(100)에 구비된 디스플레이의 최대 출력 가능 휘도가 500nit이면, 전자 장치(100)는 입력 영상의 픽셀 값에 대응되는 0 내지 500nit의 휘도 값을 식별하고, 식별된 휘도 값으로 입력 영상을 출력할 수 있다.
전자 장치(100)에 구비된 디스플레이의 최대 출력 가능 휘도가 1,000nit이면 출력 영상의 휘도는 0 내지 1,000nit이고, 전자 장치(100)에 구비된 디스플레이의 최대 출력 가능 휘도가 500nit이면 출력 영상의 휘도는 0 내지 500nit이다.
도 1의 (a)를 참조하면, 전자 장치(100’)의 최대 출력 가능 휘도가 1,000nit이면, 제1 출력 영상(10)의 휘도는 0 내지 1,000nit일 수 있다. 도 1의 (b)를 참조하면, 전자 장치(100)의 최대 출력 가능 휘도가 500nit이면, 제2 출력 영상(20)의 휘도는 0 내지 500nit일 수 있다. 입력 영상이 동일함에도, 전자 장치(100)의 최대 출력 가능 휘도에 따라 제1 및 제2 출력 영상(10, 20)의 휘도는 서로 다른 범위일 수 있다. 제2 출력 영상(20)은 제1 출력 영상(10) 대비 상대적으로 어둡게 제공될 수 있다. 또한, 제2 출력 영상(20)은 제1 출력 영상(10) 대비 다이내믹 레인지(Dynamic Range)의 폭이 좁아질 수 있다.
종래에는, 인간의 시각(HVS, Human visual system)에 따른 인지 정보, 영상의 특성 등을 고려하지 않고 전자 장치의 최대 출력 가능 휘도만을 고려하여 입력 영상을 출력하였다. 일 예로, 전자 장치는 입력 영상에 기 저장된 고정된(static) 톤 맵핑 커브를 적용하여 출력 영상의 휘도를 전자 장치의 최대 출력 가능 휘도 내로 조정하였다.
본 개시의 다양한 실시 예에 따른 전자 장치(100)는 전자 장치(100)의 최대 출력 가능 휘도 외에 HVS에 따른 인지 정보, 영상의 특성 등을 고려하여 입력 영상에 영상 처리를 수행할 수 있다. 또한, 고정적이지 않은 다이내믹한 톤 맵핑 커프를 입력 영상에 조정하여 출력 영상의 휘도를 조정할 수 있다.
본 개시의 다양한 실시 예에 따르면 최대 출력 가능 휘도가 1,000nit인 전자 장치(100’)에서 입력 영상을 출력하는 경우의 제1 출력 영상(10)과 최대 출력 가능 휘도가 500nit인 전자 장치(100)에서 입력 영상을 출력하는 경우의 제2 출력 영상(20) 간 인간 시각(HVS, Human visual system)에 따른 이질감, 차이, 열화 정도, 왜곡 정도 등을 최소화할 수 있다. 인간 시각(HVS), 인간 시각 인지 정보 등에 대한 자세한 설명은 후술하도록 한다.
한편, 전자 장치(100)의 최대 출력 가능 휘도로 언급된 1,000nit, 500nit 등의 휘도 값은 일 예시에 불과하며, 반드시 이에 한정되는 것은 아니다. 예를 들어, 모니터는 최대 400nit의 휘도 출력이 가능하고, 스마트폰은 최대 700nit의 휘도 출력이 가능하고, 디지털 사이니지는 최대 2000nit의 휘도 출력이 가능할 수도 있다. 전자 장치(100)가 출력 가능한 최대 휘도는 어느 하나에 제한되지 않으며 다양할 수 있음은 물론이다. 예를 들어, 전자 장치(100)는 1,000nit이상, 0.05nit이하의 휘도로 영상 출력이 가능할 수도 있음은 물론이다. 이하에서는, 설명의 편의를 위해 전자 장치(100)가 출력 가능한 최대 휘도가 500nit인 경우를 상정하여 설명하도록 한다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 2에 따르면, 전자 장치(100)는 스토리지(110) 및 프로세서(120)를 포함한다.
스토리지(110)는 전자 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 각종 멀티미디어 컨텐츠와 같은 다양한 데이터를 저장한다.
스토리지(110)는 프로세서(120)에 포함된 롬(ROM)(예를 들어, EEPROM(electrically erasable programmable read-only memory)), 램(RAM) 등의 내부 메모리로 구현되거나, 프로세서(120)와 별도의 메모리로 구현될 수도 있다. 이 경우, 스토리지(110)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)의 구동을 위한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 전자 장치(100)에 임베디드된 메모리의 경우 플래시 메모리(flash memory), 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등과 같은 형태로 구현되고, 음향 출력 장치(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, micro SD 카드, USB 메모리 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
특히, 본 개시의 일 실시 예에 따른 스토리지(110)에는 최소가지차이(JND, Just-noticeable difference, 이하, JND) 개념에 기초한 휘도 값에 따른 인간 시각(HVS, Human visual system, 이하, HVS) 인지 정보가 저장되어 있을 수 있다. 여기서, JND는 두 자극의 차이를 변별할 수 있는 최소한의 차이를 의미하는 개념일 수 있다. 일 예로, 휘도 값에 따른 HVS 인지 정보는 제1 및 제2 휘도 간 차이가 인간 시신경에 역치 이상의 자극을 일으키는지 여부, 제1 및 제2 휘도 간 차이에 대응되는 인간 시신경의 자극 변화량 등을 수치화한 정보일 수 있다.
일 실시 예에 따른 스토리지(110)에는 특정 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 HVS 인지 정보가 저장되어 있을 수 있다. 여기서, 인접 픽셀 간 휘도 차이에 따른 HVS 인지 정보는, 픽셀의 휘도 및 해당 픽셀에 인접한 픽셀의 휘도 간 차이에 대응되는 인간 시신경의 인지 자극량(또는, 응답량, 반응량)을 수치화한 정보일 수 있다. 예를 들어, 픽셀의 휘도가 100nit이고, 해당 픽셀에 인접한 픽셀의 휘도가 500nit이면, 100nit와 500nit 간 차이에 대응되는 인간 시신경의 자극 변화량이 수치화되어 HVS 인지 정보에 포함되어 있을 수 있다.
스토리지(110)에는 제1 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제1 HVS 인지 정보 및 제2 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제2 HVS 인지 정보가 저장되어 있을 수 있다. 일 예로, 제1 최대 출력 휘도는 1,000nit이고, 제2 최대 출력 휘도는 500nit 일 수 있다.
스토리지(110)에는 1,000nit를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 HVS 인지 정보 및 500nit를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 HVS 인지 정보가 저장되어 있을 수 있다. 여기서, 1,000nit 및 500nit는 일 예로서 반드시 이에 한정되는 것은 아니다. 예를 들어, 스토리지(110)에는 2000nit를 기준으로 하는 HVS 인지 정보 및 1,000nit를 기준으로 하는 HVS 인지 정보가 저장되어 있을 수도 있음은 물론이다.
일 실시 예에 따라 휘도 값에 따른 HVS 인지 정보는 스토리지(110)에 기 저장되어 있을 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)는 HVS 인지 정보를 서버(미도시)로부터 수신하여 스토리지(110)에 저장할 수도 있음은 물론이다. 또한, 스토리지(110)에 기 저장된 HVS 인지 정보가 갱신, 업데이트될 수도 있음은 물론이다.
본 개시의 일 실시 예에 따른 스토리지(110)에는 영상의 계조 값 및 대응되는 휘도 값에 대한 맵핑 정보가 저장되어 있을 수 있다. 예를 들어, 8 bit의 입력 영상은 0 내지 255의 계조 값을 가질 수 있다. 전자 장치(100)는 입력 영상을 출력함에 있어서, 맵핑 정보에 기초하여 입력 영상의 계조 값에 대응되는 휘도 값을 식별하고, 식별된 휘도 값으로 입력 영상을 출력할 수 있다. 일 예로, 전자 장치(100)는 맵핑 정보에 기초하여 입력 영상의 복수의 픽셀 중 255 계조 값의 픽셀을 500nit의 휘도로 출력할 수 있다.
다른 예로, 10 bit의 입력 영상은 0 내지 1023의 계조 값을 가질 수 있다. 전자 장치(100)는 10 bit의 입력 영상을 출력함에 있어서, 맵핑 정보에 기초하여 입력 영상의 계조 값에 대응되는 휘도 값을 식별하고, 식별된 휘도 값으로 입력 영상을 출력할 수 있다. 일 예로, 전자 장치(100)는 맵핑 정보에 기초하여 입력 영상의 복수의 픽셀 중 1023 계조 값의 픽셀을 500nit의 휘도로 출력할 수 있다. 맵핑 정보에 대한 구체적인 설명은 도 5에서 하도록 한다.
한편, 입력 영상에 포함된 복수의 픽셀 각각의 계조 값은 픽셀 값, 밝기 값, 밝기 코드 등으로 표현할 수도 있으나, 이하에서는 설명의 편의를 위해 계조 값으로 통칭한다.
프로세서(120)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(120)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
특히, 본 개시의 일 실시 예에 따른 프로세서(120)는 제1 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제1 히스토그램을 획득할 수 있다. 이하에서는 설명의 편의상 제1 최대 출력 휘도를 1,000nit로 상정하도록 한다.
일 실시 예에 따라 입력 영상은 1,000nit에 기초한 영상일 수 있다. 예를 들어, 입력 영상의 계조 값들은 0 내지 1,000nit의 휘도 값과 맵핑될 수 있다. 전자 장치(100)의 최대 출력 가능 휘도가 1,000nit이면, 입력 영상은 0 내지 1,000nit의 휘도로 출력될 수 있다. 출력 영상은 최대 0 내지 1,000nit 폭의 다이내믹 레인지를 가질 수 있다.
일 실시 예에 따라, 프로세서(120)는 입력 영상의 픽셀 및 해당 픽셀에 인접한 픽셀 간 계조 차이에 대한 제1 히스토그램을 획득할 수 있다. 여기서, 제1 히스토그램은 2D 히스토그램일 수 있다. 2D 히스토그램의 X 축은 픽셀의 계조 값이고, Y 축은 해당 픽셀에 인접한 픽셀의 계조 값일 수 있다.
일 예로, 입력 영상의 해상도가 3840 x 2160이면, 프로세서(120)는 입력 영상의 (x, y)에 위치한 픽셀 및 해당 픽셀에 인접한 (x+1, y)에 위치한 픽셀 간 계조 차이를 획득할 수 있다. 프로세서(120)는 입력 영상 내 8,294,400 개의 픽셀 각각의 인접 픽셀 간 계조 차이에 기초하여 제1 히스토그램을 획득할 수 있다.
다른 예로, 프로세서(120)는 입력 영상의 (x, y)에 위치한 픽셀 및 해당 픽셀에 인접한 (x, y+1)에 위치한 픽셀 간 계조 차이를 획득할 수 있고, 계조 차이에 기초하여 제1 히스토그램을 획득할 수도 있다.
본 개시의 일 실시 예에 따른 프로세서(120)는 제2 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제2 히스토그램을 획득할 수 있다. 일 실시 예에 따라 전자 장치(100)의 최대 출력 가능 휘도가 제2 최대 출력 휘도일 수 있다. 예를 들어, 전자 장치(100)의 최대 출력 가능 휘도 및 제2 최대 출력 휘도는 500nit일 수 있다. 프로세서(120)는 입력 영상을 전자 장치(100)의 최대 출력 가능 휘도인 500nit 내에서 출력하기 위한 영상을 획득할 수 있다. 이하에서는 설명의 편의를 위해 입력 영상을 전자 장치(100)의 최대 출력 가능 휘도인 500nit 내에서 출력하기 위해 획득된 영상, 제2 최대 출력 휘도에 대응되는 입력 영상을 500nit에 기초한 영상으로 통칭한다.
일 예로, 프로세서(120)는 500nit에 기초한 영상의 (x, y)에 위치한 픽셀 및 해당 픽셀에 인접한 (x+1, y)에 위치한 픽셀 간 계조 차이를 획득할 수 있다. 예를 들어, 입력 영상의 해상도가 3840 x 2160이면, 500nit에 기초한 영상 내 8,294,400 개의 픽셀 각각의 인접 픽셀 간 계조 차이에 기초하여 제2 히스토그램을 획득할 수 있다.
다른 예로, 프로세서(120)는 500nit에 기초한 영상의 (x, y)에 위치한 픽셀 및 해당 픽셀에 인접한 (x, y+1)에 위치한 픽셀 간 계조 차이를 획득할 수 있고, 계조 차이에 기초하여 제2 히스토그램을 획득할 수도 있다.
본 개시의 일 실시 예에 따른 프로세서(120)는 제1 HVS 인지 정보에 기초하여 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제3 히스토그램을 획득할 수 있다.
일 실시 예에 따른 프로세서(120)는 스토리지(110)에 저장된 1,000nit를 기준으로 하는 제1 HVS 인지 정보에 기초하여 입력 영상의 (x, y)에 위치한 픽셀 및 해당 픽셀에 인접한 (x+1, y)에 위치한 픽셀 간 휘도 차이를 획득할 수 있다. 이어서, 프로세서(120)는 입력 영상 내 복수의 픽셀 각각의 인접 픽셀 간 휘도 차이에 기초하여 제3 히스토그램을 획득할 수 있다.
다른 예로, 프로세서(120)는 입력 영상의 (x, y)에 위치한 픽셀 및 해당 픽셀에 인접한 (x, y+1)에 위치한 픽셀 간 휘도 차이에 기초하여 제3 히스토그램을 획득할 수도 있다.
본 개시의 일 실시 예에 따른 프로세서(120)는 제2 HVS 인지 정보에 기초하여 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제4 히스토그램을 획득할 수 있다.
일 실시 예에 따른 프로세서(120)는 스토리지(110)에 저장된 500nit를 기준으로 하는 제2 HVS 인지 정보에 기초하여 500nit에 기초한 영상의 (x, y)에 위치한 픽셀 및 해당 픽셀에 인접한 (x+1, y)에 위치한 픽셀 간 휘도 차이를 획득할 수 있다. 이어서, 프로세서(120)는 500nit에 기초한 영상 내 복수의 픽셀 각각의 인접 픽셀 간 휘도 차이에 기초하여 제4 히스토그램을 획득할 수 있다.
다른 예로, 프로세서(120)는 500nit에 기초한 영상의 (x, y)에 위치한 픽셀 및 해당 픽셀에 인접한 (x, y+1)에 위치한 픽셀 간 휘도 차이에 기초하여 제4 히스토그램을 획득할 수 있다.
본 개시의 일 실시 예에 따른 프로세서(120)는 제1 및 제3 히스토그램 정보에 기초하여 제1 값을 획득하고, 제2 및 제4 히스토그램에 기초하여 제2 값을 획득할 수 있다. 이어서, 제1 값 및 제2 값 간 차이에 기초하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득할 수 있다. 예를 들어, 프로세서(120)는 하기 수학식 1에 기초하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득할 수 있다.
Figure PCTKR2019001589-appb-M000001
여기서, H1k는 제1 히스토그램, H500은 제2 히스토그램,
Figure PCTKR2019001589-appb-I000011
는 제3 히스토그램,
Figure PCTKR2019001589-appb-I000012
은 제4 히스토그램,
Figure PCTKR2019001589-appb-I000013
는 제1 값,
Figure PCTKR2019001589-appb-I000014
는 제2 값, ⊙는 원소 간 곱 연산을 의미한다.
본 개시의 일 실시 예에 따른 프로세서(120)는 제2 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 복수의 제2 히스토그램을 획득할 수 있다.
일 예로, 프로세서(120)는 입력 영상에 복수의 톤 맵핑 커브(TMC, Tone Mapping Curve)를 적용하여 복수의 영상을 획득하고, 복수의 영상에 포함된 인접 픽셀 간 계조 차이에 기초하여 복수의 제2 히스토그램을 획득할 수 있다. 여기서, 복수의 영상 각각은 500nit에 기초한 영상일 수 있다.
한편, 본 개시의 일 실시 예에 따른 프로세서(120)는 입력 영상에 복수의 톤 맵핑 커브를 적용함에 따른 복수의 영상을 획득할 수 있다. 여기서, 톤 맵핑 커브는 입력 영상에 포함된 픽셀 별 계조 값을 다른 계조로 조정하는 커브일 수 있다. 다른 예로, 입력 영상에 포함된 픽셀 별 휘도 값를 다른 휘도로 조정하는 커브일 수도 있다. 다만, 이에 한정되는 것은 아니며 입력 영상 내 픽셀의 계조를 다른 계조로 조정할 수 있는 다양한 유형의 수학식, 그래프가 계조 조정 커브로 이용될 수 있다.
본 개시의 일 실시 예에 따른 프로세서(120)는 제2 HVS 인지 정보에 기초하여 복수의 제2 히스토그램에 대응되는 복수의 제4 히스토그램을 획득할 수 있다. 일 예로, 프로세서(120)는 500nit에 기초한 영상에 대응되는 제2 및 제4 히스토그램을 획득할 수 있다. 이어서, 프로세서(120)는 제2 히스토그램 및 제4 히스토그램 각각에 포함된 복수의 원소 간 곱에 기초하여 제2 값을 획득할 수 있다.
프로세서(120)는 복수의 제2 히스토그램 각각에 포함된 복수의 원소 및 대응되는 제4 히스토그램에 포함된 복수의 원소 간 곱에 기초하여 복수의 제2 값을 획득할 수 있다. 이어서, 복수의 제2 값 각각 및 상기 제1 값 간 차이 값에 기초하여 복수의 제2 히스토그램 중 하나를 선택할 수 있다.
Figure PCTKR2019001589-appb-M000002
여기서, H1k는 제1 히스토그램, H500은 제2 히스토그램,
Figure PCTKR2019001589-appb-I000015
는 제3 히스토그램,
Figure PCTKR2019001589-appb-I000016
은 제4 히스토그램,
Figure PCTKR2019001589-appb-I000017
는 제1 값,
Figure PCTKR2019001589-appb-I000018
는 제2 값, ⊙는 원소 간 곱 연산을 의미한다.
예를 들어, 프로세서(120)는 복수의 제2 값 각각 및 상기 제1 값 간 차이 값이 최소인 제2 및 제4 히스토그램을 식별할 수 있다. 다른 예로, 복수의 제2 히스토그램 중 복수의 제2 값 각각 및 상기 제1 값 간 차이 값을 최소화시키는 제2 히스토그램을 선택할 수 있다.
이어서, 프로세서(120)는 선택된 제2 히스토그램에 대응되는 제4 히스토그램에 기초하여 입력 영상에 대한 휘도 값을 획득할 수 있다. 예를 들어, 프로세서(120)는 입력 영상에 적용된 복수의 톤 맵핑 커브 중 선택된 제2 히스토그램에 대응되는 톤 맵핑 커브를 식별하고, 식별된 톤 맵핑 커브를 입력 영상에 적용하여 입력 영상에 대한 휘도 값을 획득할 수 있다. 일 예로, 프로세서(120)는 식별된 톤 맵핑 커브를 입력 영상에 적용하여 500nit에 기초한 영상을 획득하고, 획득된 영상을 출력할 수 있다.
일 실시 예에 따라 프로세서(120)는 500nit에 기초한 복수의 영상 중 1,000nit에 기초한 입력 영상 대비 HVS에 따른 이질감, 차이, 열화 정도, 왜곡 정도가 최소인 영상을 출력할 수 있다. 예를 들어, 프로세서(120)는 수학식 2에 기초하여 복수의 영상 중 제1 값 및 제2 값 간 차이를 최소화시키는 영상을 식별할 수 있고, 식별된 영상을 출력할 수 있다.
다른 예로, 수학식 2에 기초하여 복수의 톤 맵핑 커브 중 제1 값 및 제2 값 간 차이를 최소화시키는 톤 맵핑 커브를 식별할 수 있고, 입력 영상에 식별된 톤 맵핑 커브를 적용하여 입력 영상에 대한 휘도를 조정하여 출력할 수 있다.
도 3은 도 2에 도시된 전자 장치의 세부 구성을 나타내는 블럭도이다.
도 3에 따르면, 전자 장치(100)는 스토리지(110), 프로세서(120), 디스플레이(130), 컨텐츠 수신부(140), 통신부(150), 리모콘 수신부(160) 및 입력부(170)를 포함한다. 도 3에 도시된 구성 중 도 2에 도시된 구성과 중복되는 구성에 대해서는 자세한 설명을 생략하도록 한다.
프로세서(120)는 스토리지(110)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어한다.
프로세서(120)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스, 버스를 포함한다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.
ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 스토리지(110)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 스토리지(110) 에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부는 연산부 및 렌더링부를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부는 통신부(150)로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다.
메인 CPU는 스토리지(110)에 액세스하여, 스토리지(110)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 스토리지(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
디스플레이(130)는 전자 장치(100)을 통해 제공 가능한 다양한 컨텐츠 화면을 제공할 수 있다. 여기서, 컨텐츠 화면은 이미지, 동영상, 텍스트, 음악 등과 같은 다양한 컨텐츠, 다양한 컨텐츠를 포함하는 어플리케이션 실행 화면, GUI(Graphic User Interface) 화면 등을 포함할 수 있다.
한편, 디스플레이(130)는 상술한 바와 같이 액정 디스플레이(liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 또한, 디스플레이(130)는 투명한 재질로 구현되어 정보를 디스플레이하는 투명 디스플레이로 구현되는 것도 가능하다.
한편, 디스플레이(130)는 터치패드와 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수 있으며, 이 경우, 디스플레이(130)은 출력 장치 이외에 사용자 인터페이스로 사용될 수 있게 된다.
한편, 본 개시의 일 실시 예에 따른 디스플레이(130)는 프로세서(120)의 제어, 디스플레이(130)의 성능 등에 따라 출력 가능한 최대 휘도가 있을 수 있다. 예를 들어, 디스플레이(130)는 최대 500nit의 휘도 출력이 가능할 수 있다. 다른 예로, 디스플레이(130)는 최대 1,000nit의 휘도 출력이 가능할 수 있다. 본 개시에서는 설명의 편의를 위해 제1 최대 출력 휘도를 1,000nit로 상정하고, 제2 최대 출력 휘도를 500nit로 상정하였으며, 전자 장치(100)가 출력 가능한 최대 휘도가 500nit인 경우를 상정하였다. 다만, 이는 일 실시 예에 불과할 뿐 반드시 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(100)가 출력 가능한 최대 휘도가 1,000nit 임에도 전자 장치(100)는 프로세서(120)의 제어에 따라 입력 영상을 0 내지 500nit의 휘도로 조정하여 출력할 수도 있음은 물론이다. 디스플레이(130)의 성능 등에 따라 전자 장치(100)의 출력 가능한 최대 휘도에 관계 없이 프로세서(120)는 본 개시의 다양한 실시 예에 따라 영상의 픽셀 별 계조, 휘도 등을 조정하여 출력할 수 있다.
영상 수신부(140)는 방송 영상을 수신하는 튜너로 구현될 수 있으나, 이에 한정되는 것은 아니며 와이파이 모듈, USB 모듈, HDMI 모듈 등 다양한 외부 영상을 수신할 수 있는 다양한 형태의 통신 모듈로 구현될 수 있다. 또한, 영상은 스토리지(110)에 저장되어 있을 수 있으며, 이 경우 전자 장치(100)는 스토리지(110)에 저장된 영상의 픽셀 별 계조, 출력 휘도를 본 개시의 다양한 실시 예에 따라 조정하여 출력할 수 있음은 물론이다.
통신부(150)는 영상을 송/수신할 수 있다. 예를 들어 통신부(150)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN, 이더넷, IEEE 1394, HDMI, USB, MHL, AES/EBU, 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB), 외부 서버(예를 들어 웹 하드) 등으로부터 스트리밍 또는 다운로드 방식으로 음향 신호를 입력받을 수 있다.
또한, 통신부(150)는 제1 및 제2 HVS 인지 정보, 및 영상의 계조 값 및 대응되는 휘도 값에 대한 맵핑 정보를 외부 서버(미도시)로부터 수신할 수도 있다. 일 예로, 디스플레이 장치(100)는 외부 서버로부터 정보를 수신하여 스토리지(110)에 저장할 수 있으며, 기 저장된 정보를 외부 서버로부터 수신된 정보에 기초하여 업데이트할 수도 있음은 물론이다. 또한, 전자 장치(100)는 복수의 제2 히스토그램 중 어느 하나를 선택하기 위해 이용되는 가중치, 가중치 행렬 등을 서버로부터 획득할 수도 있다. 다른 예로, 전자 장치(100)는 복수의 톤 맵핑 커브 중 어느 하나를 선택하기 위해 이용되는 가중치, 가중치 행렬 등을 서버로부터 획득할 수도 있다.
리모콘 신호 수신부(160)는 리모콘으로부터 전송되는 리모콘 신호를 수신하기 위한 구성이다. 리모콘 신호 수신부(170)는 IR(Infra Red) 신호를 입력받기 위한 수광부를 포함하는 형태로 구현될 수도 있고, 리모콘과 블루투스나 와이파이와 같은 무선 통신 프로토콜에 따라 통신을 수행하여 리모콘 신호를 수신하는 형태로 구현될 수도 있다.
입력부(170)는 디스플레이 장치(100)의 본체에 구비된 각종 버튼으로 구현될 수 있다. 사용자는 입력부(180)를 통해서 턴 온/턴 오프 명령, 채널 변환 명령, 음량 조절 명령, 메뉴 확인 명령 등과 같은 다양한 사용자 명령을 입력할 수 있다.
도 4는 본 개시의 일 실시 예에 따른 제1 히스토그램을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 입력 영상에 상이한 크기로 스케일링하여 복수의 스케일링 영상(10-1, … 10-N)을 획득할 수 있다. 일 예로, 전자 장치는 입력 영상을 순차적으로 다운 스케일링하여 제1 내지 제N 스케일링 영상(10-1, … 10-N)을 획득할 수 있다.
이어서, 전자 장치(100)는 제1 최대 출력 휘도에 기초하여 복수의 스케일링 영상(10-1, … 10-N)의 인접 픽셀 간 계조 차이에 대한 복수의 히스토그램을 획득할 수 있다. 예를 들어, 전자 장치(100)는 제1 내지 제N 스케일링 영상(10-1, … 10-N) 각각에 대응되는 2D 히스토그램을 획득할 수 있다.
예를 들어, 전자 장치(100)는 제1 스케일 팩터(scale factor, K1)에 기초하여 입력 영상을 스케일링하고, 제1 스케일링 영상(10-1)을 획득할 수 있다. 이어서, 전자 장치(100)는 제1 스케일링 영상(10-1)의 2D 히스토그램(
Figure PCTKR2019001589-appb-I000019
)을 획득할 수 있다.
또한, 전자 장치(100)는 제2 스케일 팩터(K2)에 기초하여 입력 영상을 스케일링하고, 제2 스케일링 영상(10-2)을 획득할 수 있다. 이어서, 전자 장치(100)는 제2 스케일링 영상(10-2)의 2D 히스토그램(
Figure PCTKR2019001589-appb-I000020
)을 획득할 수 있다.
전자 장치(100)는 제N 스케일 팩터(KN)에 기초하여 입력 영상을 스케일링하고, 제N 스케일링 영상(10-N)을 획득할 수 있다. 이어서, 전자 장치(100)는 제N 스케일링 영상(10-N)의 2D 히스토그램(
Figure PCTKR2019001589-appb-I000021
)을 획득할 수 있다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 복수의 히스토그램(
Figure PCTKR2019001589-appb-I000022
,
Figure PCTKR2019001589-appb-I000023
, ...,
Figure PCTKR2019001589-appb-I000024
)에 상이한 가중치(ω1, ω2, ... , ωN)를 적용한 후, 가중치가 적용된 복수의 히스토그램(
Figure PCTKR2019001589-appb-I000025
,
Figure PCTKR2019001589-appb-I000026
, ...,
Figure PCTKR2019001589-appb-I000027
)을 합산하여 제1 히스토그램(
Figure PCTKR2019001589-appb-I000028
)을 획득할 수 있다.
일 실시 예에 따른 전자 장치(100)는 하기의 수학식 3에 기초하여 제1 히스토그램(
Figure PCTKR2019001589-appb-I000029
)를 획득할 수 있다.
Figure PCTKR2019001589-appb-M000003
여기서, ωi는 제i 스케일링 영상에 대한 가중치,
Figure PCTKR2019001589-appb-I000030
는 입력 영상에 제i 스케일 팩터(Ki)를 적용한 제i 스케일링 영상(10-i)에 대한 2D 히스토그램을 의미한다.
여기서, 2D 히스토그램은 영상 내에서 서로 인접한 두 픽셀 간의 계조 차이의 빈도를 나타낸다. 일 예로, 영상 X = {x(i,j)│1 ≤ i ≤ H,1 ≤ j ≤ W}에 대한 2D 히스토그램은 Hx = {hx(m,n)|1 ≤ m ≤ K, 1 ≤ n ≤ K}로 나타낼 수 있다. 2D 히스토그램 상 (m, n)번째 원소 hx(m, n)는 영상 내 픽셀의 계조 값이 m 이고, 해당 픽셀에 인접한 픽셀의 계조 값이 n 인 빈도를 의미한다.
전자 장치(100)는 제1 히스토그램 및 제3 히스토그램 정보에 기초하여 제1 값을 획득할 수 있다. 예를 들어, 전자 장치(100)는 수학식 1 또는 2에 기초하여 제1 값(
Figure PCTKR2019001589-appb-I000031
)을 획득할 수 있다. 여기서, H1k는 제1 히스토그램 정보,
Figure PCTKR2019001589-appb-I000032
는 제3 히스토그램 정보를 의미할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 계조 값 및 휘도 값에 대한 맵핑 정보를 설명하기 위한 그래프이다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 영상의 계조 값 및 대응되는 휘도 값에 대한 맵핑 정보를 포함할 수 있다. 전자 장치(100)는 영상을 출력함에 있어서, 맵핑 정보에 기초하여 영상의 픽셀 별 계조 값에 대응되는 휘도 값을 식별할 수 있다. 이어서, 전자 장치(100)는 식별된 휘도 값에 따라 영상을 출력할 수 있다. 전자 장치(100)는 맵핑 정보에 기초하여 계조 값을 휘도 값으로 변환할 수 있다.
도 5를 참조하면, 영상의 계조 값 및 대응되는 휘도 값에 대한 맵핑 정보는 전광변환함수(EOTF, Electro-Optical Transfer Function, 이하, EOTF)일 수 있다. 예를 들어, 전자 장치(100)는 ST.2084 표준에 따른 EOTF를 포함할 수 있다. 다만, 이에 한정되는 것은 아니며 전자 장치(100)는 계조 값 및 해당 계조 값에 대응되는 휘도 값을 나타내는 다양한 유형의 LUT(lookup table), 함수, 그래프 등을 포함할 수 있다. 예를 들어, 전자 장치(100)는 BT.1886 표준에 따른 EOTF를 포함할 수도 있음은 물론이다. 또한, 업데이트 등을 통해 새로운 표준에 따른 EOTF를 수신 및 저장할 수도 있다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 맵핑 정보에 기초하여 입력 영상에 포함된 복수의 픽셀 별 계조 값에 대응되는 휘도 값을 획득할 수 있다. 일 예로, 전자 장치(100)는 0 내지 1000nit의 휘도 값을 획득할 수 있다.
또한, 일 실시 예에 따른 전자 장치(100)는 맵핑 정보에 기초하여 입력 영상으로부터 획득된 500nit에 기초한 영상의 픽셀 별 계조 값 및 대응되는 휘도 값을 식별할 수 있다. 일 예로, 전자 장치(100)는 0 내지 500nit의 휘도 값을 획득할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치(100)는 입력 영상에 복수의 톤 맵핑 커브를 적용함에 따른 복수의 영상을 획득할 수 있다. 여기서, 복수의 영상 각각은 500nit에 기초한 영상일 수 있다. 이어서, 전자 장치(100)는 맵핑 정보에 기초하여 복수의 영상 각각의 휘도 값을 획득할 수 있다. 일 예로, 전자 장치(100)는 복수의 영상 중 제1 영상의 픽셀 별 계조 값 및 대응되는 휘도 값을 식별할 수 있다. 또한, 전자 장치(100)는 복수의 영상 중 제2 영상의 픽셀 별 계조 값 및 대응되는 휘도 값을 식별할 수 있다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 입력 영상의 평균 화상 레벨(Average Picture Level, 이하, APL)에 기초하여 최대 출력 휘도를 식별할 수 있다. 여기서, APL은 입력 영상의 평균 계조 값일 수 있다. APL이 높을수록 상대적으로 밝은 영상, 낮을수록 상대적으로 어두운 영상일 수 있다. 일 예로, 전자 장치(100)가 최대 소비 전력(또는, 평균 소비 전력) 이내에서 입력 영상을 출력하기 위해, 입력 영상의 밝기에 따라 최대 출력 휘도가 제한될 수 있다. 전자 장치(100)는 입력 영상의 APL에 따라 최대 출력 휘도를 제한할 수 있다. 일 예로, 전자 장치(100)는 입력 영상 내 1023 레벨의 계조 값을 입력 영상의 APL에 따라 100nit 내지 500nit의 휘도로 출력할 수 있다.
전자 장치(100)가 영상을 최대 소비 전력(또는, 평균 소비 전력) 이내에서 출력하기 위해, APL이 높은 영상의 계조 값 별 휘도를 APL이 상대적으로 낮은 영상의 계조 값 별 휘도에 비해 낮게 제한할 수 있다.
도 6 및 도 7은 본 개시의 일 실시 예에 따른 HVS(Human visual system) 인지 정보를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 전자 장치(100) 는 최소가지차이(JND, Just-noticeable difference, 이하, JND) 개념에 기초한 휘도 값에 따른 인간 시각(HVS, Human visual system, 이하, HVS) 인지 정보가 저장되어 있을 수 있다.
도 6에 도시된 그래프의 X 축은 휘도 값이고, Y 축은 인간 시각의 인지 반응(또는, 인지 자극)을 수치화한 것이다. 그래프는 0nit 내지 200nit의 저휘도에서 인간 시각의 인지 반응이 급격하게 변화하고, 200nit 내지 1,000nit의 고휘도에서 인간 시식의 인지 반응이 완만하게 변화하는 것을 나타내고 있다. 상대적으로 저휘도에서 인간 시신경이 민감하게 반응함을 나타내고 있다.
도 7의 (a)를 참조하면, 전자 장치(100)는 맵핑 정보(예를 들어, 도 5에 도시된 그래프)에 기초하여 입력 영상(10)의 (x, y)에 위치한 픽셀의 휘도 값(L(x, y))을 획득할 수 있다. 이어서, 전자 장치(100)는 해당 픽셀에 인접한 (x+1, y)에 위치한 픽셀의 휘도 값(L(x+1, y))을 획득할 수 있다. 이어서, 전자 장치(100)는 HVS 인지 정보(예를 들어, 도 6에 도시된 그래프)에 기초하여 인접 픽셀 간 휘도 차이에 따른 HVS 인지 반응량(
Figure PCTKR2019001589-appb-I000033
)을 획득할 수 있다.
도 7의 (b)를 참조하면, 전자 장치(100)는 맵핑 정보에 기초하여 500nit에 기초한 영상의 (x, y)에 위치한 픽셀의 휘도 값(L’(x, y))을 획득할 수 있다. 이어서, 전자 장치(100)는 해당 픽셀에 인접한 (x+1, y)에 위치한 픽셀의 휘도 값(L’(x+1, y))을 획득할 수 있다. 이어서, 전자 장치(100)는 HVS 인지 정보(예를 들어, 도 6에 도시된 그래프)에 기초하여 인접 픽셀 간 휘도 차이에 따른 HVS 인지 반응량(
Figure PCTKR2019001589-appb-I000034
)을 획득할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치(100)는 입력 영상(10)에 복수의 톤 맵핑 커브를 적용함에 따른 복수의 영상을 획득할 수 있다. 여기서, 복수의 영상 각각은 500nit에 기초한 영상일 수 있다. 이어서, 전자 장치(100)는 맵핑 정보에 기초하여 복수의 영상 각각의 휘도 값을 획득할 수 있다. 또한, 전자 장치(100)는 복수의 영상 각각의 HVS 인지 반응량(
Figure PCTKR2019001589-appb-I000035
)을 획득할 수 있다.
도 8 및 도 9는 본 개시의 일 실시 예에 따른 인접 픽셀 간 휘도 차이를 설명하기 위한 도면이다.
일 실시 예에 따른 제1 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제1 HVS(Human visual system) 인지 정보는 2D 히스토그램 형태일 수 있다.
도 8을 참조하면, X 축은 픽셀의 계조 값이고, Y 축은 해당 픽셀에 인접한 픽셀의 계조 값이다. 2D 히스토그램 상 (m, n)번째 원소
Figure PCTKR2019001589-appb-I000036
(m, n)는 영상 내 픽셀의 계조 값이 m 이고, 해당 픽셀에 인접한 픽셀의 계조 값이 n 이면, 인접 픽셀 간 휘도 차이에 따른 HVS 인지 반응량을 의미한다. 예를 들어, 맵핑 정보에 기초하여 입력 영상(10)의 계조 값 200에 대응되는 휘도 값은 1.77이고, 입력 영상(10)의 계조 값 800에 대응되는 휘도 값은 798인 경우를 상정할 수 있다. 전자 장치(100)는 HVS 인지 정보(예를 들어, 도 6에 도시된 그래프)에 기초하여 휘도 값 1.77과 휘도 값 798 간 차이에 따른 HVS 인지 반응량 965(
Figure PCTKR2019001589-appb-I000037
(200,800) = 965)를 획득할 수 있다.
도 8에 도시된 제1 HVS 인지 정보는 제1 최대 출력 휘도(예를 들어, 1,000nit) 를 기준으로 픽셀의 계조 값이 0 내지 1023이고, 해당 픽셀에 인접한 픽셀의 계조 값이 0 내지 1023일 때를 상정하여 인접 픽셀 간 휘도 차이에 따른 HVS 인지 반응량을 모델링한 2D 히스토그램이다.
일 예로, 픽셀의 계조 값과 해당 픽셀에 인접한 픽셀의 계조 값이 동일하면, 휘도 차이가 0이고, HVS 인지 반응량은 0(예를 들어,
Figure PCTKR2019001589-appb-I000038
(300,300) = 0)일 수 있다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 제1 HVS 인지 정보에 기초하여 입력 영상(10)의 인접 픽셀 간 휘도 차이에 대한 제3 히스토그램을 획득할 수 있다.
도 9에 도시된 제2 HVS 인지 정보는 제2 최대 출력 휘도(예를 들어, 500nit)를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 HVS 인지 반응량을 모델링한 2D 히스토그램이다.
도 9를 참조하면, 맵핑 정보에 기초하여 500nit에 기초한 영상(20)의 계조 값 200에 대응되는 휘도 값은 1.48이고, 500nit에 기초한 영상(20)의 계조 값 800에 대응되는 휘도 값은 481인 경우를 상정할 수 있다. 전자 장치(100)는 HVS 인지 정보(예를 들어, 도 6에 도시된 그래프)에 기초하여 휘도 값 1.48과 휘도 값 481 간 차이에 따른 HVS 인지 반응량 862(
Figure PCTKR2019001589-appb-I000039
(200,800) = 862)를 획득할 수 있다.
도 9에 도시된 제2 HVS 인지 정보는 제2 최대 출력 휘도(예를 들어, 500nit) 를 기준으로 픽셀의 계조 값이 0 내지 1023이고, 해당 픽셀에 인접한 픽셀의 계조 값이 0 내지 1023일 때를 상정하여 인접 픽셀 간 휘도 차이에 따른 HVS 인지 반응량을 모델링한 2D 히스토그램이다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 제2 HVS 인지 정보에 기초하여 500nit에 기초한 영상(20)의 인접 픽셀 간 휘도 차이에 대한 제4 히스토그램을 획득할 수 있다.
도 10은 본 개시의 일 실시 예에 따른 가이드 톤 맵핑 커브를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 입력 영상에 가이드 톤 맵핑 커브를 적용하여 가이드 영상을 획득하고, 가이드 영상의 인접 픽셀 간 계조 차이에 대한 제5 히스토그램을 획득할 수 있다.
일 예로, 가이드 톤 맵핑 커브는 입력 영상을 0 내지 500nit의 휘도로 출력하는 복수의 톤 맵핑 커브 중 어느 하나일 수 있다. 도 10을 참조하면, 본 개시의 일 실시 예에 따른 가이드 톤 맵핑 커브는 입력 영상의 픽셀 별 계조 값에 대응되는 휘도 값 중 0 내지 500nit의 휘도는 그대로 출력하고, 500nit 내지 1,000nit의 휘도는 500nit로 조정하여 출력하는 커브일 수 있다. 다만, 이에 한정되는 것은 아니다. 예를 들어, 가이드 톤 맵핑 커브는 0 내지 1,000nit의 입력 영상의 계조 값에 대응되는 휘도 값을 0 내지 500nit 휘도 값으로 선형적으로 맵핑시키는 커브일 수도 있다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 입력 영상에 가이드 톤 맵핑 커브를 적용하여 획득된 가이드 영상의 인접 픽셀 간 계조 차이에 대한 제5 히스토그램을 획득할 수 있다.
일 예로, 전자 장치(100)는 입력 영상의 계조를 조정하여 획득된 가이드 영상의 (x, y)에 위치한 픽셀 및 해당 픽셀에 인접한 (x+1, y)에 위치한 픽셀 간 계조 차이를 획득할 수 있고, 계조 차이에 기초하여 제5 히스토그램을 획득할 수도 있다. 가이드 톤 맵핑 커브에 따라 계조가 조정된 입력 영상은 0 내지 500nit의 휘도로 출력될 수 있다.
일 실시 예에 따른 전자 장치(100)는 하기의 수학식 4에 기초하여 제2 및 제5 히스토그램 간 차이에 기초하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득할 수 있다.
Figure PCTKR2019001589-appb-M000004
여기서, H500는 제2 히스토그램, Hg는 제5 히스토그램, W는 가중치를 의미한다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 복수의 톤 맵핑 커브 중 제2 및 제5 히스토그램 간 차이를 최소화하는 톤 맵핑 커브를 식별할 수 있고, 식별된 톤 맵핑 커브를 입력 영상에 적용하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득할 수 있다. 예를 들어, 전자 장치(100)는 복수의 톤 맵핑 커브 중 어느 하나인 가이드 톤 맵핑 커브에 기초하여 제2 및 제5 히스토그램 간 차이를 획득하고, 복수의 톤 맵핑 커브 중 가이드 톤 맵핑 커브와는 상이한 톤 맵핑 커브에 기초하여 제2 및 제5 히스토그램 간 차이를 획득할 수 있다. 전자 장치(100)는 이 중에서 상대적으로 작은 차이에 대응되는 톤 맵핑 커브를 식별할 수 있다. 한편, 수학식 4는 입력 영상의 휘도 유지와 관련된 식일 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치(100)는 제2 및 제5 히스토그램 간 차이에 가중치를 적용할 수 있다. 여기서, 가중치는 입력 영상의 각 픽셀의 계조 값에 반비례할 수 있다.
HVS 인지 정보에 따르면, 인간의 시각적 감각은 상대적으로 고휘도 보다 저휘도에서 민감하게 반응한다. 예를 들어, 고휘도인 500 내지 1000nit에서 휘도 변화에 따른 HVS 인지 반응량보다 저휘도인 0 내지 150nit에서 휘도 변화에 따른 HVS 인지 반응량이 크다. 본 개시의 일 실시 예에 따른 전자 장치(100)는 입력 영상의 저계조, 저휘도를 최대한 유지하기 위해 입력 영상의 각 픽셀의 계조 값에 반비례하는 가중치를 획득할 수 있다. 일 예로, 전자 장치(100)는 수학식 5에 기초하여 가중치를 획득할 수 있다.
Figure PCTKR2019001589-appb-M000005
여기서, i는 픽셀의 계조 값, j는 해당 픽셀에 인접한 픽셀의 계조 값을 의미한다.
도 11은 본 개시의 일 실시 예에 따른 가중치를 설명하기 위한 도면이다.
수학식 5에 기초하여 도 11에 도시된 바와 같은 가중치 히스토그램을 획득할 수 있다. 가중치의 X 축은 픽셀의 계조 값이고, Y 축은 해당 픽셀에 인접한 픽셀의 계조 값이다.
인간의 시각적 감각은 상대적으로 고휘도 보다 저휘도에서 민감하게 반응하므로, 픽셀의 계조 값 및 해당 픽셀에 인접하게 위치한 픽셀의 계조 값이 모두 상대적으로 저계조이면, 전자 장치(100)는 높은 가중치(예를 들어, 1023에 근접한 가중치)를 적용할 수 있다. 다른 예로, 픽셀의 계조 값 및 해당 픽셀에 인접하게 위치한 픽셀의 계조 값이 모두 상대적으로 고계조이면, 전자 장치(100)는 작은 가중치(예를 들어, 0에 근접한 가중치)를 적용할 수 있다.
한편, 본 개시의 다양한 실시 예는 HDR10 규격에 따라 입력 영상이 0 내지 1000nit의 휘도 값을 가지는 것으로 상정하였고, 입력 영상이 10bit로서 0 내지 1023의 계조 값을 가지는 것으로 상정하였다. 다만, 이는 일 실시 예로서 이에 한정되는 것은 아니다. 예를 들어, 입력 영상은 0 내지 500nit의 휘도 값을 가질 수 있고, 8bit로서 0 내지 255의 계조 값을 가질 수도 있다. 이 경우, 전자 장치(100)는 가중치 W를 255 - max(i, j)에 기초하여 획득할 수도 있음은 물론이다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 하기의 수학식 6에 기초하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득할 수 있다.
Figure PCTKR2019001589-appb-M000006
여기서, α (0≤ α ≤1)는 중요도를 나타내는 제1 가중치를 의미할 수 있다. 예를 들어, HVS 인지 반응이 입력 영상의 휘도 유지보다 상대적으로 강조되어야 한다면, α는 1에 근접할 수 있다. 다른 예로, 입력 영상의 휘도 유지가 HVS 인지 반응보다 상대적으로 강조되어야 한다면, α는 0에 근접할 수 있다.
도 12는 본 개시의 일 실시 예에 따른 가중치 행렬을 설명하기 위한 도면이다.
본 개시의 일 실시 일 실시 예에 따른 전자 장치(100)는 제2 히스토그램에 가중치 행렬을 적용하여 제6 히스토그램을 획득할 수 있다.
일 실시 예에 따라 입력 영상의 특성에 따라 톤 맵핑 커브가 급격하게 변하는 것을 방지하기 위해 전자 장치는 하기의 수학식 7에 기초하여 제6 히스토그램을 획득할 수 있다.
Figure PCTKR2019001589-appb-M000007
여기서, H500은 제2 히스토그램, D는 가중치 행렬을 의미한다.
도 12를 참조하면, 가중치 행렬은 대각선 방향의 원소들에 1을 적용하는 대각 행렬일 수 있다. 일 예로, 가중치 행렬은 대각선 방향의 원소에 1을 적용하고, 해당 원소에 인접하게 위치한 원소에 -1을 적용하고, 나머지 원소에 0을 적용하는 2중 대각 행렬일 수 있다.
전자 장치(100)는 제2 히스토그램에 가중치 행렬을 적용하여 톤 맵핑 커브가 급격히 변경되는 것을 방지할 수 있다. 한편, 도 12에 도시된 가중치 행렬은 일 예시로 반드시 이에 한정되는 것은 아니다. 예를 들어, 가중치 행렬은 3중 대각 행렬일 수도 있다. 제조사의 목적, 영상의 특성 등에 따라 다양한 형태의 행렬을 가중치 행렬로 설정할 수 있음은 물론이다.
도 13은 본 개시의 일 실시 예에 따른 입력 영상에 대한 휘도 값을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 하기의 수학식 8에 기초하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득할 수 있다.
Figure PCTKR2019001589-appb-M000008
여기서, H1k는 제1 히스토그램, H500은 제2 히스토그램,
Figure PCTKR2019001589-appb-I000040
는 제3 히스토그램,
Figure PCTKR2019001589-appb-I000041
은 제4 히스토그램, Hg는 제5 히스토그램, H500D는 제6 히스토그램,
Figure PCTKR2019001589-appb-I000042
는 제1 값,
Figure PCTKR2019001589-appb-I000043
는 제2 값, D는 가중치 행렬, α는 제1 가중치, β는 제2 가중치를 의미한다.
일 실시 예에 따라 전자 장치(100)는 수학식 8에 기초하여 복수의 제2 히스토그램 중에서 제1 값 및 제2 값 간 차이, 제2 및 제5 히스토그램 간 차이, 및 제6 히스토그램의 합을 최소화시키는 제2 히스토그램을 선택할 수 있다. 이어서, 제2 히스토그램에 대응되는 제4 히스토그램을 식별할 수 있다. 전자 장치(100)는 복수의 톤 맵핑 커브 중 선택된 제2 히스토그램에 대응되는 톤 맵핑 커브를 식별하고, 식별된 톤 맵핑 커브를 입력 영상에 적용하여 입력 영상의 휘도를 조정할 수 있다. 여기서, 휘도가 조정된 입력 영상은 0 내지 500nit의 휘도로 출력될 수 있다. 휘도가 조정된 입력 영상은 500nit에 기초한 영상을 의미할 수 있다.
도 13의 (a)는 입력 영상을 최대 출력 가능 휘도가 1000nit인 전자 장치를 통해 출력하는 경우를 상정한 것이고, (b)는 입력 영상을 최대 출력 가능 휘도가 500nit인 전자 장치를 통해 출력하는 경우를 상정한 것이다. 종래에는 선형적 톤 맵핑 커브 또는 고정된 톤 맵핑 커브만을 적용하여 최대 출력 휘도를 1000nit에서 500nit로 조정하였다. 따라서, 인간 시각(HVS, Human visual system)에 따른 이질감, 차이, 열화 정도, 왜곡 정도 높았다. 본 개시의 일 실시 예에 따른 전자 장치(100)는 다이내믹 레인지 폭 등을 최대한 유지하고, 인지 시각에 따른 열화 정도를 최소화하면서도 입력 영상을 0 내지 500nit의 휘도로 출력할 수 있다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
한편, 본 개시의 일 실시 예에 따르면 제1 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제1 HVS(Human visual system) 인지 정보 및 제2 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제2 HVS 인지 정보가 저장된 전자 장치의 제어 방법은, 먼저, 제1 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제1 히스토그램을 획득한다(S1410).
이어서, 제2 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제2 히스토그램을 획득한다(S1420).
이어서, 제1 HVS 인지 정보에 기초하여 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제3 히스토그램을 획득한다(S1430).
이어서, 제2 HVS 인지 정보에 기초하여 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제4 히스토그램을 획득한다(S1440).
이어서, 제1 및 제3 히스토그램 정보에 기초하여 획득된 제1 값 및, 제2 및 제4 히스토그램에 기초하여 획득된 제2 값 간 차이에 기초하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득한다(S1450).
여기서, 본 개시의 일 실시 예에 따른 제어 방법은 입력 영상에 제2 최대 출력 휘도에 따른 가이드 톤 맵핑 커브를 적용하여 가이드 영상을 획득하는 단계, 및 가이드 영상의 인접 픽셀 간 계조 차이에 대한 제5 히스토그램을 획득하는 단계를 포함하고, 입력 영상에 대한 휘도 값을 획득하는 S1450 단계는, 제1 값 및 제2 값 간 차이 및, 제2 및 제5 히스토그램 간 차이에 기초하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득할 수 있다.
여기서, 입력 영상에 대한 휘도 값을 획득하는 S1450 단계는, 입력 영상의 각 픽셀의 계조 값에 반 비례하는 가중치를 제2 및 제5 히스토그램 간 차이에 적용하여 입력 영상에 대한 휘도 값을 획득할 수 있다.
또한, 제2 히스토그램을 획득하는 S1420 단계는, 제2 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 복수의 제2 히스토그램을 획득하는 단계를 포함하고, 입력 영상에 대한 휘도 값을 획득하는 S1450 단계는, 복수의 제2 히스토그램 각각에 포함된 복수의 원소 및 대응되는 제4 히스토그램에 포함된 복수의 원소 간 곱에 기초하여 복수의 제2 값을 획득하는 단계, 복수의 제2 값 각각 및 제1 값 간 차이 값에 기초하여 복수의 제2 히스토그램 중 하나를 선택하는 단계 및 선택된 제2 히스토그램에 대응되는 제4 히스토그램에 기초하여 입력 영상에 대한 휘도 값을 획득하는 단계를 포함할 수 있다.
여기서, 제2 히스토그램을 획득하는 S1420 단계는, 입력 영상에 복수의 톤 맵핑 커브를 적용하여 복수의 영상을 획득하는 단계 및 복수의 영상에 포함된 인접 픽셀 간 계조 차이에 기초하여 복수의 제2 히스토그램을 획득하는 단계를 포함하고, 입력 영상에 대한 휘도 값을 획득하는 S1450 단계는, 복수의 톤 맵핑 커브 중 선택된 제2 히스토그램에 대응되는 톤 맵핑 커브를 식별하는 단계 및 식별된 톤 맵핑 커브를 입력 영상에 적용하여 입력 영상에 대한 휘도 값을 획득하는 단계를 포함할 수 있다.
또한, 제3 히스토그램을 획득하는 S1430 단계는, 전자 장치에 저장된 영상의 계조 값 및 대응되는 휘도 값에 대한 맵핑 정보에 기초하여 입력 영상에 포함된 복수의 픽셀 별 계조 값에 대응되는 휘도 값을 획득하는 단계 및 제1 HVS 인지 정보 및 획득된 휘도 값에 기초하여 제3 히스토그램을 획득하는 단계를 포함하고, 제4 히스토그램을 획득하는 S1440 단계는, 맵핑 정보에 기초하여 입력 영상에 포함된 복수의 픽셀 별 계조 값에 대응되는 휘도 값을 획득하는 단계 및 제2 HVS 인지 정보 및 획득된 휘도 값에 기초하여 제4 히스토그램을 획득하는 단계를 포함할 수 있다.
또한, 제1 히스토그램을 획득하는 S1410 단계는, 입력 영상에 상이한 크기로 스케일링하여 복수의 스케일링 영상을 획득하는 단계, 제1 최대 출력 휘도에 기초하여 복수의 스케일링 영상의 인접 픽셀 간 계조 차이에 대한 복수의 히스토그램을 획득하는 단계 및 복수의 히스토그램에 상이한 가중치를 적용한 후, 가중치가 적용된 복수의 히스토그램을 합산하여 제1 히스토그램을 획득하는 단계를 포함할 수 있다.
또한, 본 개시의 일 실시 예에 따른 제어 방법은, 제2 히스토그램에 가중치 행렬을 적용하여 제6 히스토그램을 획득하는 단계를 포함하고, 입력 영상에 대한 휘도 값을 획득하는 S1450 단계는, 제1 값 및 제2 값 간 차이, 제2 및 제5 히스토그램 간 차이, 및 제6 히스토그램에 기초하여 제2 최대 출력 휘도에 대응되는 입력 영상에 대한 휘도 값을 획득하고, 가중치 행렬은, 대각선 방향의 원소들에 1을 적용하는 대각 행렬일 수 있다.
여기서, 입력 영상에 대한 휘도 값을 획득하는 S1450 단계는, 하기 수학식에 기초하여 입력 영상에 대한 휘도 값을 획득할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 설치 가능한 어플리케이션 형태로 구현될 수 있다.
Figure PCTKR2019001589-appb-I000044
여기서, H1k는 제1 히스토그램, H500은 제2 히스토그램,
Figure PCTKR2019001589-appb-I000045
는 제3 히스토그램,
Figure PCTKR2019001589-appb-I000046
은 제4 히스토그램, Hg는 제5 히스토그램, H500D는 제6 히스토그램,
Figure PCTKR2019001589-appb-I000047
는 제1 값,
Figure PCTKR2019001589-appb-I000048
는 제2 값, D는 가중치 행렬, α는 제1 가중치, β는 제2 가중치를 의미한다.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들은 전자 에 구비된 임베디드 서버, 또는 전자 장치의 외부 서버를 통해 수행되는 것도 가능하다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 처리 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 처리 동작을 특정 기기가 수행하도록 할 수 있다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (15)

  1. 제1 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제1 HVS(Human visual system) 인지 정보 및 제2 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제2 HVS 인지 정보가 저장된 스토리지; 및
    상기 제1 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제1 히스토그램을 획득하고,
    상기 제2 최대 출력 휘도에 기초하여 상기 입력 영상의 인접 픽셀 간 계조 차이에 대한 제2 히스토그램을 획득하고,
    상기 제1 HVS 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제3 히스토그램을 획득하고,
    상기 제2 HVS 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제4 히스토그램을 획득하고,
    상기 제1 및 제3 히스토그램 정보에 기초하여 획득된 제1 값 및, 상기 제2 및 제4 히스토그램에 기초하여 획득된 제2 값 간 차이에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하는 프로세서;를 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 입력 영상에 상기 제2 최대 출력 휘도에 따른 가이드 톤 맵핑 커브를 적용하여 가이드 영상을 획득하고,
    상기 가이드 영상의 인접 픽셀 간 계조 차이에 대한 제5 히스토그램을 획득하고,
    상기 제1 값 및 제2 값 간 차이 및, 상기 제2 및 제5 히스토그램 간 차이에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하는, 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 입력 영상의 각 픽셀의 계조 값에 반 비례하는 가중치를 상기 제2 및 제5 히스토그램 간 차이에 적용하여 상기 입력 영상에 대한 휘도 값을 획득하는, 전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 제2 최대 출력 휘도에 기초하여 상기 입력 영상의 인접 픽셀 간 계조 차이에 대한 복수의 제2 히스토그램을 획득하고,
    상기 제2 HVS 인지 정보에 기초하여 상기 복수의 제2 히스토그램에 대응되는 복수의 제4 히스토그램을 획득하고,
    상기 복수의 제2 히스토그램 각각에 포함된 복수의 원소 및 대응되는 제4 히스토그램에 포함된 복수의 원소 간 곱에 기초하여 복수의 제2 값을 획득하고,
    상기 복수의 제2 값 각각 및 상기 제1 값 간 차이 값에 기초하여 상기 복수의 제2 히스토그램 중 하나를 선택하고, 상기 선택된 제2 히스토그램에 대응되는 제4 히스토그램에 기초하여 상기 입력 영상에 대한 휘도 값을 획득하는, 전자 장치.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 입력 영상에 복수의 톤 맵핑 커브를 적용하여 복수의 영상을 획득하고, 상기 복수의 영상에 포함된 인접 픽셀 간 계조 차이에 기초하여 상기 복수의 제2 히스토그램을 획득하며,
    상기 복수의 톤 맵핑 커브 중 상기 선택된 제2 히스토그램에 대응되는 톤 맵핑 커브를 식별하고, 상기 식별된 톤 맵핑 커브를 상기 입력 영상에 적용하여 상기 입력 영상에 대한 휘도 값을 획득하는, 전자 장치.
  6. 제1항에 있어서,
    상기 스토리지는,
    영상의 계조 값 및 대응되는 휘도 값에 대한 맵핑 정보를 저장하며,
    상기 프로세서는,
    상기 맵핑 정보에 기초하여 상기 입력 영상에 포함된 복수의 픽셀 별 계조 값에 대응되는 휘도 값을 획득하고, 획득된 휘도 값에 기초하여 상기 제3 및 제4 히스토그램을 획득하는, 전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 입력 영상에 상이한 크기로 스케일링하여 복수의 스케일링 영상을 획득하고,
    상기 제1 최대 출력 휘도에 기초하여 상기 복수의 스케일링 영상의 인접 픽셀 간 계조 차이에 대한 복수의 히스토그램을 획득하고,
    상기 복수의 히스토그램에 상이한 가중치를 적용한 후, 상기 가중치가 적용된 상기 복수의 히스토그램을 합산하여 상기 제1 히스토그램을 획득하는, 전자 장치.
  8. 제2항에 있어서,
    상기 프로세서는,
    상기 제2 히스토그램에 가중치 행렬을 적용하여 제6 히스토그램을 획득하고, 상기 제1 값 및 제2 값 간 차이, 상기 제2 및 제5 히스토그램 간 차이, 및 상기 제6 히스토그램에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하며,
    상기 가중치 행렬은,
    대각선 방향의 원소들에 1을 적용하는 대각 행렬인, 전자 장치.
  9. 제8항에 있어서,
    상기 프로세서는,
    하기 수학식에 기초하여 상기 입력 영상에 대한 휘도 값을 획득하는, 디스플레이 장치.
    Figure PCTKR2019001589-appb-I000049
    여기서, H1k는 제1 히스토그램, H500은 제2 히스토그램,
    Figure PCTKR2019001589-appb-I000050
    는 제3 히스토그램,
    Figure PCTKR2019001589-appb-I000051
    은 제4 히스토그램, Hg는 제5 히스토그램, H500D는 제6 히스토그램,
    Figure PCTKR2019001589-appb-I000052
    는 제1 값,
    Figure PCTKR2019001589-appb-I000053
    는 제2 값, D는 가중치 행렬, α는 제1 가중치, β는 제2 가중치를 의미함.
  10. 제1 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제1 HVS(Human visual system) 인지 정보 및 제2 최대 출력 휘도를 기준으로 하는 인접 픽셀 간 휘도 차이에 따른 제2 HVS 인지 정보가 저장된 전자 장치의 제어 방법에 있어서,
    상기 제1 최대 출력 휘도에 기초하여 입력 영상의 인접 픽셀 간 계조 차이에 대한 제1 히스토그램을 획득하는 단계;
    상기 제2 최대 출력 휘도에 기초하여 상기 입력 영상의 인접 픽셀 간 계조 차이에 대한 제2 히스토그램을 획득하는 단계;
    상기 제1 HVS 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제3 히스토그램을 획득하는 단계;
    상기 제2 HVS 인지 정보에 기초하여 상기 입력 영상의 인접 픽셀 간 휘도 차이에 대한 제4 히스토그램을 획득하는 단계; 및
    상기 제1 및 제3 히스토그램 정보에 기초하여 획득된 제1 값 및, 상기 제2 및 제4 히스토그램에 기초하여 획득된 제2 값 간 차이에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하는 단계;를 포함하는 제어 방법.
  11. 제10항에 있어서,
    상기 입력 영상에 상기 제2 최대 출력 휘도에 따른 가이드 톤 맵핑 커브를 적용하여 가이드 영상을 획득하는 단계; 및
    상기 가이드 영상의 인접 픽셀 간 계조 차이에 대한 제5 히스토그램을 획득하는 단계;를 포함하고,
    상기 입력 영상에 대한 휘도 값을 획득하는 단계는,
    상기 제1 값 및 제2 값 간 차이 및, 상기 제2 및 제5 히스토그램 간 차이에 기초하여 상기 제2 최대 출력 휘도에 대응되는 상기 입력 영상에 대한 휘도 값을 획득하는, 제어 방법.
  12. 제11항에 있어서,
    상기 입력 영상에 대한 휘도 값을 획득하는 단계는,
    상기 입력 영상의 각 픽셀의 계조 값에 반 비례하는 가중치를 상기 제2 및 제5 히스토그램 간 차이에 적용하여 상기 입력 영상에 대한 휘도 값을 획득하는, 제어 방법.
  13. 제10항에 있어서,
    상기 제2 히스토그램을 획득하는 단계는,
    상기 제2 최대 출력 휘도에 기초하여 상기 입력 영상의 인접 픽셀 간 계조 차이에 대한 복수의 제2 히스토그램을 획득하는 단계;를 포함하고,
    상기 입력 영상에 대한 휘도 값을 획득하는 단계는,
    상기 복수의 제2 히스토그램 각각에 포함된 복수의 원소 및 대응되는 제4 히스토그램에 포함된 복수의 원소 간 곱에 기초하여 복수의 제2 값을 획득하는 단계;
    상기 복수의 제2 값 각각 및 상기 제1 값 간 차이 값에 기초하여 상기 복수의 제2 히스토그램 중 하나를 선택하는 단계; 및
    상기 선택된 제2 히스토그램에 대응되는 제4 히스토그램에 기초하여 상기 입력 영상에 대한 휘도 값을 획득하는 단계;를 포함하는, 제어 방법.
  14. 제13항에 있어서,
    상기 제2 히스토그램을 획득하는 단계는,
    상기 입력 영상에 복수의 톤 맵핑 커브를 적용하여 복수의 영상을 획득하는 단계; 및
    상기 복수의 영상에 포함된 인접 픽셀 간 계조 차이에 기초하여 상기 복수의 제2 히스토그램을 획득하는 단계;를 포함하고,
    상기 입력 영상에 대한 휘도 값을 획득하는 단계는,
    상기 복수의 톤 맵핑 커브 중 상기 선택된 제2 히스토그램에 대응되는 톤 맵핑 커브를 식별하는 단계; 및
    상기 식별된 톤 맵핑 커브를 상기 입력 영상에 적용하여 상기 입력 영상에 대한 휘도 값을 획득하는 단계;를 포함하는, 제어 방법.
  15. 제10항에 있어서,
    상기 제3 히스토그램을 획득하는 단계는,
    상기 전자 장치에 저장된 영상의 계조 값 및 대응되는 휘도 값에 대한 맵핑 정보에 기초하여 상기 입력 영상에 포함된 복수의 픽셀 별 계조 값에 대응되는 휘도 값을 획득하는 단계; 및
    상기 제1 HVS 인지 정보 및 상기 획득된 휘도 값에 기초하여 상기 제3 히스토그램을 획득하는 단계;를 포함하고,
    상기 제4 히스토그램을 획득하는 단계는,
    상기 맵핑 정보에 기초하여 상기 입력 영상에 포함된 복수의 픽셀 별 계조 값에 대응되는 휘도 값을 획득하는 단계; 및
    상기 제2 HVS 인지 정보 및 상기 획득된 휘도 값에 기초하여 상기 제4 히스토그램을 획득하는 단계;를 포함하는, 제어 방법.
PCT/KR2019/001589 2018-09-14 2019-02-08 전자 장치 및 그 제어 방법 WO2020054927A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980060071.1A CN112740319B (zh) 2018-09-14 2019-02-08 电子设备及其控制方法
EP19859815.3A EP3813057A4 (en) 2018-09-14 2019-02-08 ELECTRONIC DEVICE AND CONTROL PROCEDURE FOR IT
US17/275,820 US11410283B2 (en) 2018-09-14 2019-02-08 Electronic device and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0110539 2018-09-14
KR1020180110539A KR102533723B1 (ko) 2018-09-14 2018-09-14 전자 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2020054927A1 true WO2020054927A1 (ko) 2020-03-19

Family

ID=69777839

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/001589 WO2020054927A1 (ko) 2018-09-14 2019-02-08 전자 장치 및 그 제어 방법

Country Status (5)

Country Link
US (1) US11410283B2 (ko)
EP (1) EP3813057A4 (ko)
KR (1) KR102533723B1 (ko)
CN (1) CN112740319B (ko)
WO (1) WO2020054927A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI774476B (zh) * 2021-07-19 2022-08-11 義隆電子股份有限公司 應用於顯示器的控制方法
KR102508051B1 (ko) * 2022-08-29 2023-03-09 주식회사 에스피텍 디스플레이 장치에 대한 감마 캘리브레이션 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110048811A (ko) * 2009-11-03 2011-05-12 중앙대학교 산학협력단 입력 영상의 동적 범위를 변환하는 방법 및 장치
KR101448494B1 (ko) * 2012-08-08 2014-10-15 돌비 레버러토리즈 라이쎈싱 코오포레이션 Hdr 이미지들을 위한 이미지 프로세싱
KR20160017387A (ko) * 2014-08-05 2016-02-16 삼성디스플레이 주식회사 디스플레이 제어 장치, 디스플레이 제어 방법, 및 디스플레이 장치
KR101633110B1 (ko) * 2009-12-01 2016-06-23 엘지디스플레이 주식회사 액정표시장치 및 그의 디밍 제어방법
KR20170129004A (ko) * 2016-05-16 2017-11-24 엘지전자 주식회사 영상 처리 장치 및 그의 영상 처리 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4599656A (en) * 1984-02-21 1986-07-08 International Business Machines Corporation Processing of gray scale image pels to facilitate data compression
JP3948229B2 (ja) * 2001-08-01 2007-07-25 ソニー株式会社 画像撮像装置及び方法
US8355030B2 (en) 2005-01-07 2013-01-15 Corel Corporation Display methods for high dynamic range images and user interfaces for the same
US8134646B2 (en) * 2006-05-24 2012-03-13 Kabushiki Kaisha Toshiba Video signal processing device and video signal processing method
CN101546426B (zh) * 2009-04-30 2011-06-22 上海交通大学 基于区域增强及区域提取的微弱发光图像处理方法
KR101653271B1 (ko) * 2009-12-02 2016-09-01 삼성전자주식회사 측면광을 판단하는 디지털 영상 신호 처리 방법, 상기 방법을 기록한 기록 매체 및 디지털 영상 신호 처리 장치
JP5884060B2 (ja) * 2010-08-26 2016-03-15 パナソニックIpマネジメント株式会社 映像表示制御装置
CN106204474B (zh) 2011-03-02 2019-05-03 杜比实验室特许公司 局部多等级色调映射运算器
KR101699919B1 (ko) 2011-07-28 2017-01-26 삼성전자주식회사 다중 노출 퓨전 기반에서 고스트 흐림을 제거한 hdr 영상 생성 장치 및 방법
CN103377468A (zh) * 2012-04-26 2013-10-30 上海竞天科技股份有限公司 图像处理装置及图像处理方法
KR102176398B1 (ko) 2013-06-28 2020-11-09 삼성전자주식회사 영상처리장치 및 영상처리방법
KR102247526B1 (ko) * 2015-07-10 2021-05-03 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US10129558B2 (en) 2015-09-21 2018-11-13 Qualcomm Incorporated Supplement enhancement information (SEI) messages for high dynamic range and wide color gamut video coding
US20170228594A1 (en) * 2016-02-05 2017-08-10 Fujitsu Limited Iris authentication apparatus
EP3220349A1 (en) 2016-03-16 2017-09-20 Thomson Licensing Methods, apparatus, and systems for extended high dynamic range ("hdr") hdr to hdr tone mapping
US10861384B1 (en) * 2019-06-26 2020-12-08 Novatek Microelectronics Corp. Method of controlling image data and related image control system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110048811A (ko) * 2009-11-03 2011-05-12 중앙대학교 산학협력단 입력 영상의 동적 범위를 변환하는 방법 및 장치
KR101633110B1 (ko) * 2009-12-01 2016-06-23 엘지디스플레이 주식회사 액정표시장치 및 그의 디밍 제어방법
KR101448494B1 (ko) * 2012-08-08 2014-10-15 돌비 레버러토리즈 라이쎈싱 코오포레이션 Hdr 이미지들을 위한 이미지 프로세싱
KR20160017387A (ko) * 2014-08-05 2016-02-16 삼성디스플레이 주식회사 디스플레이 제어 장치, 디스플레이 제어 방법, 및 디스플레이 장치
KR20170129004A (ko) * 2016-05-16 2017-11-24 엘지전자 주식회사 영상 처리 장치 및 그의 영상 처리 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3813057A4 *

Also Published As

Publication number Publication date
EP3813057A1 (en) 2021-04-28
EP3813057A4 (en) 2021-08-18
CN112740319B (zh) 2024-03-08
KR102533723B1 (ko) 2023-05-18
US11410283B2 (en) 2022-08-09
KR20200031470A (ko) 2020-03-24
CN112740319A (zh) 2021-04-30
US20220051378A1 (en) 2022-02-17

Similar Documents

Publication Publication Date Title
WO2018124784A1 (en) Display apparatus and display method
AU2017266815B2 (en) Operating method for display corresponding to luminance, driving circuit, and electronic device supporting the same
WO2016171433A1 (en) Display apparatus and method for controlling the same
WO2020040457A1 (ko) 디스플레이 장치 및 그 휘도 제어 방법
WO2018169311A1 (en) Operating method using gamma voltage corresponding to display configuration and electronic device supporting the same
WO2017010709A1 (en) Display apparatus and control method thereof
WO2019103431A1 (en) Apparatus and method for controlling media output level
WO2020197018A1 (en) Image processing apparatus and image processing method thereof
WO2021096233A1 (en) Electronic apparatus and control method thereof
WO2021157894A1 (ko) 표시 영역에 따른 감마 전압 운용 방법 및 이를 지원하는 전자 장치
WO2014168454A1 (en) Electronic device, display controlling apparatus and method thereof
WO2019203499A1 (ko) 전자 장치 및 전자 장치의 제어 방법
WO2018101655A1 (ko) 디스플레이장치 및 그 제어방법
EP3360322A1 (en) Electronic apparatus and controlling method thereof
WO2019226025A1 (ko) 디스플레이를 통해 어플리케이션의 콘텐트를 표시하는 방법 및 전자 장치
WO2018097506A1 (en) Display apparatus and control method thereof
WO2019022387A1 (en) DISPLAY APPARATUS AND METHOD OF CONTROLLING THE SAME
WO2019125001A1 (ko) 이미지의 특성에 기반하여 픽셀의 소스 구동을 제어하기 위한 전자 장치 및 전자 장치를 이용한 영상 출력 방법
WO2020153626A1 (en) Electronic apparatus and control method thereof
WO2020054927A1 (ko) 전자 장치 및 그 제어 방법
WO2021054511A1 (ko) 전자 장치 및 그 제어 방법
WO2021221273A1 (en) Display apparatus and control method thereof
WO2020231243A1 (en) Electronic device and method of controlling thereof
WO2023038234A1 (ko) 디스플레이 패널 및 그 동작 방법
WO2022124571A1 (ko) 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19859815

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019859815

Country of ref document: EP

Effective date: 20201209

NENP Non-entry into the national phase

Ref country code: DE