WO2023085795A1 - 영상표시기기 및 그 제어 방법 - Google Patents

영상표시기기 및 그 제어 방법 Download PDF

Info

Publication number
WO2023085795A1
WO2023085795A1 PCT/KR2022/017613 KR2022017613W WO2023085795A1 WO 2023085795 A1 WO2023085795 A1 WO 2023085795A1 KR 2022017613 W KR2022017613 W KR 2022017613W WO 2023085795 A1 WO2023085795 A1 WO 2023085795A1
Authority
WO
WIPO (PCT)
Prior art keywords
brightness
content
maximum
hdr
curve
Prior art date
Application number
PCT/KR2022/017613
Other languages
English (en)
French (fr)
Inventor
이재준
김태형
서승희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2023085795A1 publication Critical patent/WO2023085795A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • G09G3/3208Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED] organic, e.g. using organic light-emitting diodes [OLED]

Definitions

  • the present disclosure relates to an image display device for outputting a high dynamic range (HDR) image and a method for controlling the same.
  • HDR high dynamic range
  • An image display device is a device having a function of receiving, processing, and displaying a digital image, such as, for example, a digital TV and a monitor.
  • Digital images are generally composed of three RGB channels, and generally SDR (Standard Dynamic Range) images can express brightness in the range of 0-255 (8 bits) for each channel.
  • SDR Standard Dynamic Range
  • the SDR image has a narrow range of brightness that can be expressed in each channel, dark parts or bright parts are often not properly expressed.
  • images expressed in 16 bits or 32 bits for each channel are called HDR (High Dynamic Range) images.
  • the image display device may output the received image based on an Electro-Optical Transfer Function (EOTF) stored in the image display device.
  • EOTF Electro-Optical Transfer Function
  • the EOTF is a function defining a mutual conversion relationship between electrical information of an HDR image and optical brightness information when it is output.
  • the output brightness range according to the hardware performance of the video display device is narrower than the brightness range of the HDR image itself, if the EOTF for the HDR image is used as it is, the expressiveness of the HDR image (especially the bright part) output from the video display device Or, there is a problem that the liveliness may be reduced.
  • the present disclosure even if the output brightness range according to the hardware performance of the video display device is narrower than the brightness range of the HDR image itself, can maximize the expressive power or liveliness of the HDR image output from the video display device. Equipped with an EOTF for HDR image Its purpose is to provide a video display device and its control method.
  • a display a storage unit for storing a plurality of EOTF curves for displaying a content image for HDR, and a maximum output brightness of the display among the plurality of EOTF curves, and It is possible to provide a video display device including a control unit for controlling display of the content image using an EOTF curve corresponding to the maximum content brightness of the content image.
  • the plurality of EOTF curves may have different knee points and maximum content brightness points according to the maximum output brightness and the maximum content brightness.
  • Information about the maximum content brightness may be stored as metadata in the content image.
  • a first EOTF curve among the plurality of EOTF curves may include a first maximum output point according to the maximum content brightness equal to the maximum output brightness.
  • the first EOTF curve may be generated based on the EOTF standard curve.
  • a second EOTF curve among the plurality of EOTF curves may include a first knee point and a second maximum content brightness point according to the maximum content brightness greater than the maximum output brightness.
  • the second EOTF curve may be generated by reflecting a quadratic Bézier curve based on the first maximum output point, the first knee point, and the second maximum content brightness point to the first EOTF curve.
  • the controller may control a user interface for calibrating the plurality of EOTF curves to be displayed on the display.
  • the controller may control to provide a menu for setting the maximum output brightness of the display and a menu for calibrating each of the plurality of EOTF curves according to the set maximum output brightness through the user interface.
  • the control unit may control the calibrated EOTF curve to be displayed on the user interface as a preview.
  • storing a plurality of EOTF curves for displaying a content image for HDR, and corresponding to the maximum output brightness of the display and the maximum content brightness of the content image among the plurality of EOTF curves It is possible to provide a control method of a video display device including; displaying the content video using an EOTF curve.
  • the expressive power or liveliness of the HDR image output from the video display device can be maximized.
  • the EOTF for HDR video can be provided in the video display device.
  • FIG. 1 is a schematic block diagram of an image display device according to an embodiment of the present invention.
  • FIG 3 illustrates an EOTF curve for an HDR image according to an embodiment of the present disclosure.
  • FIG. 4 is a graph for explaining the maximum output brightness point and maximum content brightness point of FIG. 3 .
  • FIG. 5 is a table for explaining the knee points of FIG. 3 .
  • FIG. 6 illustrates an EOTF curve for an HDR image according to an embodiment of the present disclosure.
  • FIG. 7 is a graph for explaining the maximum output brightness point and the maximum content brightness point of FIG. 6 .
  • FIG. 8 is a table for explaining the knee points of FIG. 6 .
  • FIG. 10 is a graph for explaining the maximum output brightness point and maximum content brightness point of FIG. 9 .
  • FIG. 11 is a table for explaining the knee points of FIG. 9 .
  • FIG. 12 shows the 3-1 HDR curve and the 3-4 HDR curve of FIG. 9 .
  • FIG. 13 illustrates a process of generating an EOTF for an HDR image according to an embodiment of the present disclosure.
  • FIG. 14 illustrates a user interface for calibrating an EOTF curve for an HDR image according to an embodiment of the present disclosure.
  • these components may be configured as separate individual hardware modules or implemented as two or more hardware modules, and two or more components may be implemented as one hardware module, or may be implemented as software in some cases. is of course
  • the image display device may be a display device capable of outputting an image including a display panel.
  • the image display device may include a computer monitor, TV, projector, smart phone, laptop, digital signage, and the like.
  • a video display device 100 includes a broadcast receiving unit 105, an external device interface unit 135, a storage unit 140, a user input interface unit 150, It may include a control unit 170, a display unit 180, an audio output unit 185, a power supply unit 190, and a photographing unit (not shown).
  • a control unit 170 may be included in the video display device 100.
  • the video display device 100 is a computer monitor, at least one of the broadcast receiver 105, the audio output unit 183, and the capture unit may not be included.
  • the broadcast receiving unit 105 may include a tuner 110, a demodulation unit 120, and a network interface unit 130.
  • a tuner 110 may include a tuner 110, a demodulation unit 120, and a network interface unit 130.
  • the tuner 110 and the demodulation unit 120 may include the network interface unit 130.
  • the demodulator 120 may not include it.
  • the tuner 110 selects a radio frequency (RF) broadcast signal corresponding to a channel selected by a user or all pre-stored channels among radio frequency (RF) broadcast signals received through an antenna. Also, the selected RF broadcasting signal is converted into an intermediate frequency signal or a baseband video or audio signal.
  • RF radio frequency
  • the tuner 110 can process both digital broadcasting signals and analog broadcasting signals.
  • An analog baseband video or audio signal (CVBS/SIF) output from the tuner 110 may be directly input to the controller 170.
  • the tuner 110 may receive a single-carrier RF broadcast signal according to an Advanced Television System Committee (ATSC) method or a multi-carrier RF broadcast signal according to a Digital Video Broadcasting (DVB) method.
  • ATSC Advanced Television System Committee
  • DVD Digital Video Broadcasting
  • the tuner 110 sequentially selects RF broadcast signals of all broadcast channels stored through a channel storage function among RF broadcast signals received through an antenna and converts them into intermediate frequency signals or baseband video or audio signals. there is.
  • the demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.
  • the demodulator 120 when the digital IF signal output from the tuner 110 is of the ATSC method, the demodulator 120 performs, for example, 8-VSB (8-Vestigal Side Band) demodulation. Also, the demodulator 120 may perform channel decoding. To this end, the demodulation unit 120 includes a Trellis decoder, a de-interleaver, and a Reed Solomon decoder to perform trellis decoding, deinterleaving, and read Soloman decryption can be performed.
  • 8-VSB 8-Vestigal Side Band
  • the demodulator 120 when the digital IF signal output from the tuner 110 is of the DVB method, the demodulator 120 performs coded orthogonal frequency division modulation (COFDMA) demodulation. Also, the demodulator 120 may perform channel decoding. To this end, the demodulator 120 may include a convolution decoder, a deinterleaver, and a Reed-Soloman decoder to perform convolution decoding, deinterleaving, and Reed-Soloman decoding.
  • COFDMA coded orthogonal frequency division modulation
  • the demodulator 120 may output a stream signal TS after performing demodulation and channel decoding.
  • the stream signal may be a signal in which a video signal, an audio signal, or a data signal is multiplexed.
  • the stream signal may be an MPEG-2 Transport Stream (TS) in which an MPEG-2 standard video signal and a Dolby AC-3 standard audio signal are multiplexed.
  • the MPEG-2 TS may include a 4-byte header and a 184-byte payload.
  • the demodulation unit 120 described above may be separately provided according to the ATSC method and the DVB method. That is, it is possible to include an ATSC demodulation unit and a DVB demodulation unit.
  • a stream signal output from the demodulation unit 120 may be input to the control unit 170 .
  • the controller 170 After performing demultiplexing, video/audio signal processing, etc., the controller 170 outputs video to the display unit 180 and outputs audio to the audio output unit 185.
  • the external device interface unit 135 may connect the external device and the image display device 100 .
  • the external device interface unit 135 may include an A/V input/output unit (not shown) or a wireless communication unit (not shown).
  • the external device interface unit 135 may be connected to an external device such as a DVD (Digital Versatile Disk), a Blu-ray, a game device, a camera, a camcorder, a computer (laptop), and the like in a wired/wireless manner.
  • the external device interface unit 135 transmits a video, audio or data signal input from the outside to the control unit 170 of the image display device 100 through the connected external device.
  • a video, audio, or data signal processed by the controller 170 may be output to a connected external device.
  • the external device interface unit 135 may include an A/V input/output unit (not shown) or a wireless communication unit (not shown).
  • A/V input/output unit USB terminal, CVBS (Composite Video Banking Sync) terminal, component terminal, S-video terminal (analog), DVI, so that video and audio signals of external devices can be input to the video display device 100 (Digital Visual Interface) terminal, HDMI (High Definition Multimedia Interface) terminal, RGB terminal, D-SUB terminal, etc. may be included.
  • the wireless communication unit may perform short-range wireless communication with other electronic devices.
  • the video display device 100 for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Digital Living Network Alliance (DLNA) ), etc., can be networked with other electronic devices.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • DLNA Digital Living Network Alliance
  • the external device interface unit 135 may be connected to various set-top boxes through at least one of the above-described various terminals to perform input/output operations with the set-top boxes.
  • the external device interface unit 135 may receive an application or an application list in an adjacent external device and transmit the received application to the controller 170 or the storage unit 140 .
  • the network interface unit 130 provides an interface for connecting the video display device 100 to a wired/wireless network including the Internet network.
  • the network interface unit 130 may include, for example, an Ethernet terminal for connection to a wired network, and for connection to a wireless network, for example, a WLAN (Wireless LAN) (Wi-Fi Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) communication standards, and the like may be used.
  • WLAN Wireless LAN
  • Wibro Wireless broadband
  • Wimax Worldwide Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • the network interface unit 130 may transmit or receive data with other users or other electronic devices through a connected network or another network linked to the connected network.
  • some content data stored in the video display device 100 may be transmitted to other users pre-registered in the video display device 100 or to a user selected from among other electronic devices or to a selected electronic device.
  • the network interface unit 130 may access a predetermined web page through a connected network or another network linked to the connected network. That is, by accessing a predetermined web page through a network, data can be transmitted or received with a corresponding server.
  • content or data provided by a content provider or network operator may be received. That is, contents such as movies, advertisements, games, VOD, broadcasting signals, etc. and related information provided from a content provider or a network provider can be received through a network.
  • firmware update information and an update file provided by a network operator may be received. It may also transmit data to the Internet or to a content provider or network operator.
  • the network interface unit 130 may select and receive a desired application among applications open to the public through a network.
  • the network interface unit 130 may transmit or receive predetermined data with a user terminal connected to a network with the video display device when a game application is executed on the video display device.
  • predetermined data may be transmitted or received with a server that stores game scores.
  • the storage unit 140 may store programs for processing and controlling each signal in the control unit 170, or may store signal-processed video, audio, or data signals.
  • the storage unit 140 may perform a function for temporarily storing video, audio, or data signals input from the external device interface unit 135 or the network interface unit 130 . Also, the storage unit 140 may store information about a predetermined broadcasting channel through a channel storage function.
  • the storage unit 140 may store applications or application lists input from the external device interface unit 135 or the network interface unit 130 .
  • the storage unit 140 may store unique information and game play information of a user terminal used as a game controller when a video display device provides a game application.
  • the storage unit 140 may be, for example, a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg SD or XD). memory, etc.), RAM, and ROM (EEPROM, etc.).
  • the video display device 100 may reproduce and provide content files (video files, still image files, music files, document files, application files, etc.) stored in the storage unit 140 to the user.
  • FIG 1 shows an embodiment in which the storage unit 140 is provided separately from the control unit 170, but the scope of the present invention is not limited thereto.
  • the storage unit 140 may be included in the control unit 170.
  • the user input interface unit 150 transmits a signal input by the user to the controller 170 or a signal from the controller 170 to the user.
  • the user input interface unit 150 may turn on/off power from the remote control device 200, select a channel, and display a screen according to various communication methods such as a radio frequency (RF) communication method and an infrared (IR) communication method.
  • RF radio frequency
  • IR infrared
  • a control signal such as setting may be received and processed, or a control signal from the control unit 170 may be processed to be transmitted to the remote control device 200.
  • the user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a setting key to the control unit 170 .
  • a local key such as a power key, a channel key, a volume key, and a setting key
  • the user input interface unit 150 transmits a control signal input from a sensing unit (not shown) that senses a user's gesture to the control unit 170 or senses a signal from the control unit 170. It can be transmitted to a sub (not shown).
  • the sensing unit may include a touch sensor, a voice sensor, a position sensor, a motion sensor, and the like.
  • the control unit 170 demultiplexes the input stream through the tuner 110 or the demodulation unit 120 or the external device interface unit 135 or processes the demultiplexed signals to output a signal for video or audio output. can be created and output.
  • An image signal processed by the controller 170 may be input to the display unit 180 and displayed as an image corresponding to the corresponding image signal.
  • the image signal processed by the control unit 170 may be input to an external output device through the external device interface unit 135 .
  • the audio signal processed by the controller 170 may be output as audio to the audio output unit 185 . Also, the voice signal processed by the control unit 170 may be input to an external output device through the external device interface unit 135 .
  • the controller 170 may include a demultiplexer, an image processor, and the like.
  • the controller 170 may control overall operations within the video display device 100 .
  • the controller 170 may control the tuner 110 to select (tuning) an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.
  • control unit 170 may control the image display device 100 according to a user command input through the user input interface unit 150 or an internal program. In particular, it is possible to connect to a network and download an application or application list desired by the user into the video display device 100 .
  • control unit 170 controls the tuner 110 to input a signal of a selected channel according to a predetermined channel selection command received through the user input interface unit 150 . Then, the video, audio or data signal of the selected channel is processed.
  • the controller 170 allows the channel information selected by the user to be output through the display unit 180 or the audio output unit 185 together with the processed video or audio signal.
  • control unit 170 receives an external device video playback command received through the user input interface unit 150 from an external device input through the external device interface unit 135, for example, a camera or a camcorder.
  • the video signal or audio signal can be output through the display unit 180 or the audio output unit 185.
  • the controller 170 may control the display unit 180 to display an image.
  • a broadcast image input through the tuner 110, an external input image input through the external device interface unit 135, an image input through the network interface unit, or an image stored in the storage unit 140 can be controlled to be displayed on the display unit 180.
  • the image displayed on the display unit 180 may be a still image or a moving image, and may be a 2D image or a 3D image.
  • the controller 170 may control to reproduce content.
  • the content at this time may be content stored in the video display device 100, received broadcasting content, or external input content input from the outside.
  • the content may be at least one of a broadcast image, an external input image, an audio file, a still image, a connected web screen, and a document file.
  • the controller 170 may control the display unit 180 to display the home screen according to a movement input to the home screen.
  • the home screen may include a plurality of card objects classified according to content sources.
  • the card object includes a card object representing a thumbnail list of broadcast channels, a card object representing a broadcast guide list, a card object representing a broadcast reservation list or a recording list, and a media list within the video display device or a device connected to the video display device. It may include at least one of card objects representing. In addition, at least one of a card object representing a list of connected external devices and a card object representing a list related to a call may be further included.
  • the home screen may further include an application menu including at least one executable application item.
  • control unit 170 may move and display the corresponding card object or move and display a card object that is not displayed on the display unit 180 on the display unit 180. .
  • the controller 170 may control an image corresponding to the corresponding card object to be displayed on the display unit 180 .
  • control unit 170 may control to display a received broadcasting image and an object representing information related to the broadcasting image in a card object displaying the broadcasting image.
  • the size of such a broadcast image can be controlled to be fixed by setting a lock.
  • the controller 170 controls to display a setup object for at least one setting of video setting in the video display device, audio setting, screen setting, reservation setting, pointer setting of the remote control device, and network setting in the home screen. can do.
  • controller 170 may control to display an object for a login, help, or exit item on one area of the home screen.
  • controller 170 may control to display an object representing the number of all card objects or the number of card objects displayed on the display unit 180 among all card objects in one area of the home screen.
  • the controller 170 may display the corresponding card object on the display unit 180 as a full screen.
  • the controller 170 focuses and displays a call-related card object among a plurality of card objects, or displays a call-related card object into the display unit 180. It can be controlled to move and display.
  • controller 170 may control to display an application or application list downloadable from within the video display device 100 or from an external network when entering the application view item.
  • the controller 170 may control to install and run applications downloaded from an external network along with various user interfaces. In addition, it is possible to control an image related to an executed application to be displayed on the display unit 180 according to a user's selection.
  • a channel browsing processor generating a thumbnail image corresponding to a channel signal or an external input signal may be further provided.
  • the channel browsing processing unit receives a stream signal (TS) output from the demodulation unit 120 or a stream signal output from the external device interface unit 135, extracts an image from the input stream signal, and generates a thumbnail image.
  • TS stream signal
  • the generated thumbnail image may be input to the controller 170 as it is or after being encoded.
  • the generated thumbnail image may be encoded in the form of a stream and input to the controller 170.
  • the controller 170 may display a thumbnail list including a plurality of thumbnail images on the display unit 180 using the input thumbnail images. Meanwhile, thumbnail images in the thumbnail list may be sequentially or simultaneously updated. Accordingly, the user can easily grasp the contents of a plurality of broadcasting channels.
  • the display unit 180 converts the video signal, data signal, OSD signal processed by the control unit 170 or the video signal or data signal received from the external device interface unit 135 into R, G, and B signals, respectively. generate drive signals.
  • the display unit 180 may be a PDP, LCD, OLED, flexible display, 3D display, or the like.
  • the display unit 180 may be configured as a touch screen and used as an input device in addition to an output device.
  • the audio output unit 185 receives a signal processed by the controller 170, for example, a stereo signal, a 3.1-channel signal, or a 5.1-channel signal, and outputs the signal as audio.
  • the audio output unit 185 may be implemented with various types of speakers.
  • a sensing unit having at least one of a touch sensor, a voice sensor, a position sensor, and a motion sensor may be further provided in the image display device 100.
  • a signal detected by the sensing unit may be transmitted to the control unit 170 through the user input interface unit 150 .
  • a photographing unit (not shown) for photographing the user may be further provided.
  • Image information photographed by a photographing unit (not shown) may be input to the controller 170 .
  • the controller 170 may detect a user's gesture by individually or combining an image captured by a photographing unit (not shown) or a detected signal from a sensing unit (not shown).
  • the power supply unit 190 supplies corresponding power throughout the video display device 100 .
  • control unit 170 which can be implemented in the form of a system on chip (SOC)
  • the display unit 180 for displaying images
  • the audio output unit 185 for outputting audio.
  • the power supply unit 190 may include a converter (not shown) that converts AC power into DC power.
  • a converter not shown
  • an inverter capable of PWM operation may be further provided for variable luminance or dimming driving.
  • the remote control device 200 transmits user input to the user input interface unit 150 .
  • the remote control device 200 may use Bluetooth, radio frequency (RF) communication, infrared (IR) communication, ultra wideband (UWB), ZigBee, or the like.
  • RF radio frequency
  • IR infrared
  • UWB ultra wideband
  • ZigBee ZigBee
  • the remote control device 200 may receive a video, audio, or data signal output from the user input interface unit 150, display it on the remote control device 200, or output voice or vibration.
  • the above-described video display device 100 is a fixed type, such as digital broadcasting of ATSC method (8-VSB method), digital broadcasting of DVB-T method (COFDM method), digital broadcasting of ISDB-T method (BST-OFDM method), etc. It may be a digital broadcasting receiver capable of receiving at least one of the above.
  • the block diagram of the video display device 100 shown in FIG. 1 is a block diagram for one embodiment of the present invention.
  • Each component of the block diagram may be integrated, added, or omitted according to specifications of the video display device 100 that is actually implemented. That is, if necessary, two or more components may be combined into one component, or one component may be subdivided into two or more components.
  • functions performed in each block are for explaining an embodiment of the present invention, and the specific operation or device does not limit the scope of the present disclosure.
  • FIG. 2 shows an EOTF standard curve for HDR video.
  • 2 shows an HDR PQ standard curve according to the HDR PQ function as an example of the EOTF standard curve.
  • the X-axis represents the brightness of the HDR content image
  • the Y-axis represents the brightness of the output image of the video display device.
  • the HDR PQ standard curve (H) is standardized in the SMPTE standard to follow a logarithmic curve such that the darkest part of the HDR image is output at 0 nits and the brightest part is output at 10000 nits.
  • video display devices generally available on the market can only output images of around 1000 nits at maximum brightness at maximum.
  • the maximum output brightness of the display panel of the video display device ie, maximum panel brightness
  • the content video is output according to the HDR PQ standard curve (H) according to the video display device
  • the first video in the content Images produced to be brighter than the brightness L1 are all saturated and displayed.
  • the maximum output brightness of the display panel of the video display device is 400 nits and the content video is displayed according to the HDR PQ standard curve (H)
  • the relationship between the content video brightness and the output video brightness of the video display device is a first curve (C1).
  • the maximum output brightness of the display panel of the video display device is 500 nits and the content video is output according to the HDR PQ standard curve (H)
  • the content is higher than the second video brightness (L2) in the video display device. All bright images are saturated and cannot help but be displayed.
  • the relationship between the content video brightness and the output video brightness of the video display device is a second curve (C2).
  • the third video brightness (L3) in the content All brighter parts are forced to be displayed as saturated.
  • the maximum output brightness of the display panel of the video display device is 700 nits and the content video is displayed according to the HDR PQ standard curve (H)
  • the relationship between the content video brightness and the output video brightness of the video display device is a third curve (C3).
  • the HDR PQ standard curve is the maximum output brightness of the video display device and the maximum content brightness of content to be displayed in the video display device. It needs to be properly modified and used according to.
  • FIG. 3 illustrates an EOTF curve for an HDR image according to an embodiment of the present disclosure.
  • an HDR PQ curve according to an HDR PQ function is exemplarily shown as an example of an EOTF.
  • the X-axis represents the brightness of the HDR content image
  • the Y-axis represents the brightness of the output image of the video display device.
  • the maximum output brightness of the video display device is the first maximum output brightness (eg, 400 nits).
  • a plurality of HDR PQ curves may be generated for the video display device 100 having the first maximum output brightness.
  • one of the plurality of HDR PQ curves may be selected according to the maximum content brightness of the content image to be displayed on the video display device 100 and used to output the content image to the video display device 100.
  • the maximum content brightness may be stored as metadata in the content image. Accordingly, when the content image is displayed on the video display device 100 , information about the maximum content brightness of the content image may be provided to the video display device 100 . Then, the control unit 170 of the video display device 100 selects an HDR PQ curve corresponding to the maximum content brightness from among the plurality of HDR PQ curves and displays the content image according to the selected HDR PQ curve.
  • HDR PQ curves C1-1, C1-2, C1-3, C1-4, C1-5) are illustrated for the first maximum output brightness. Fewer or more HDR PQ curves may have been created.
  • the 1-1 HDR PQ curve (C1-1) is for the case where the maximum content brightness of the content video is equal to the first maximum output brightness (eg, 400 nits) as the first maximum content brightness (eg, 400 nits). .
  • the maximum content brightness of the content video is equal to the maximum output brightness of the video display device 100, the content at the first maximum content brightness even if the first curve C1 according to the HDR PQ standard curve H is followed. An image can be displayed without being saturated in the image display device 100 . Accordingly, the 1-1 HDR PQ curve C1-1 may be the same as the first curve C1 of FIG. 2 .
  • a first maximum output brightness point PP1 may be defined by comparing the 1-1 HDR PQ curve C1-1 with the HDR PQ standard curve H.
  • the 1-1 HDR PQ curve C1-1 may be clipped for a content image brightness brighter than the first maximum output brightness point PP1.
  • the first maximum output brightness point PP1 may also be understood as a maximum content brightness point described later in the 1-1 HDR PQ curve C1-1, that is, the 1-1 maximum content brightness point CP1-1. .
  • the 1-2nd HDR PQ curve C1-2 is for a case where the maximum content brightness of the content image is the second maximum content brightness (eg, 1000 nits). If the 1-2nd HDR PQ curve (C1-2) is compared with the 1-1st HDR PQ curve (C1-1), the 1-2nd knee point (K1-2) and the 1-2nd maximum content Brightness points CP1-2 may be defined.
  • the 1-2nd HDR PQ curve (C1-2) is the 1-1st HDR PQ curve (C1-1) (or the HDR PQ standard curve ( H)), and may be clipped for a content image brightness brighter than the 1-2nd maximum content brightness point CP1-2.
  • the 1-3 HDR PQ curve C1-3 is for a case where the maximum content brightness of the content image is the third maximum content brightness (eg, 2000 nits). Comparing the 1-3 HDR PQ curve (C1-3) with the 1-1 HDR PQ curve (C1-1), the 1-3 lap point (K1-3) and the 1-3 maximum content brightness point ( CP1-3) may be defined.
  • the 1-3 HDR PQ curve (C1-3) diverges from the 1-1 HDR PQ curve (C1-1) (or the HDR PQ standard curve (H)) from the 1-3 lap point (K1-3). It can be clipped for a content image brightness brighter than the 1-3th maximum content brightness point CP1-3.
  • the 1-3 lap points K1-3 may be formed at an output image brightness lower than the 1-2 lap point K1-2, and the 1-3 maximum content brightness points CP1-3 are the first -2 It may be formed at a content image brightness brighter than the maximum content brightness point CP1-2.
  • the 1-4th HDR PQ curve C1-4 is for a case where the maximum content brightness of the content image is the fourth maximum content brightness (eg, 4000 nits). Comparing the 1-4th HDR PQ curve (C1-4) with the 1-1st HDR PQ curve (C1-1), the 1-4th knee point (K1-4) and the 1-4th maximum content brightness point ( CP1-4) can be defined.
  • the 1-4th HDR PQ curve (C1-4) diverges from the 1-1st HDR PQ curve (C1-1) (or the HDR PQ standard curve (H)) from the 1-4th knee point (K1-4). It can be clipped for content image brightness brighter than the 1st to 4th maximum content brightness points CP1 to 4 .
  • the 1-4 lap points K1-4 may be formed at an output image brightness lower than the 1-3 lap points K1-3, and the 1-4 maximum content brightness points CP1-4 are the first -3 It may be formed at a content image brightness brighter than the maximum content brightness point CP1-3.
  • the 1-5th HDR PQ curve C1-5 is for a case where the maximum content brightness of the content image is the fifth maximum content brightness (eg, 10000 nits). If the 1-5th HDR PQ curve (C1-5) is compared with the 1-1st HDR PQ curve (C1-1), the 1-5th knee point (K1-5) and the 1-5th maximum content brightness point ( CP1-5) may be defined.
  • the 1-5th HDR PQ curve (C1-5) diverges from the 1-1st HDR PQ curve (C1-1) (or the HDR PQ standard curve (H)) from the 1-5th knee point (K1-5).
  • the 1-5 lap points (K1-5) may be formed at an output image brightness lower than the 1-4 lap points (K1-4), and the 1-5 maximum content brightness points (CP1-5) are the first -4 It may be formed at a content image brightness brighter than the maximum content brightness point (CP1-4).
  • FIG. 4 is a graph for explaining the maximum output brightness point and maximum content brightness point of FIG. 3 .
  • FIG. 4 shows the HDR PQ standard curve H and the first curve C1 described in FIG. 2 .
  • Four HDR PQ points HP4 and a fifth HDR PQ point HP5 may be displayed.
  • FIG. 5 is a table for explaining the knee points of FIG. 3 .
  • each maximum content brightness (MaxcLL: Maximum Content Light Level) of the content video ) may be defined as a percentage of the first maximum output brightness.
  • the 1-1 lap point (K1-1) is 100% of the first maximum output brightness. . This may be understood as having virtually no knee points. Alternatively, the 1-1 lap point K1-1 may be understood as the same as the first maximum output brightness point PP1.
  • the 1-2 lap point (K1-2) is 62.5% of the first maximum output brightness
  • the content image has the third maximum content brightness ( 2000 nits)
  • the 1st-3rd lap points (K1-3) are 60% of the first maximum output brightness
  • the 1st-4th lap points (K1-3) when the content video has the 4th maximum content brightness (4000nits) (K1-4) is 50% of the first maximum output brightness
  • the 1-5 lap points (K1-5) are the first maximum output brightness.
  • the values were obtained through repeated clinical trials, and as a result of the clinical trials, when the content images having the 1st to 5th maximum content brightness are displayed on the video display device 100 having the first maximum output brightness, the user received the highest output brightness.
  • the maximum content brightness of the content image may not correspond to any of the first maximum content brightness (400 nits) to the fifth maximum content brightness (10000 nits).
  • the knee point may be defined as shown in (5-2) of FIG.
  • the 1-1 lap point (not shown) is the first maximum content brightness. 100% of the output brightness and the content image has the maximum content brightness corresponding to the second maximum content brightness range (more than 400 nits and less than 1000 nits), the 1-2 lap point (K1-2) is the first maximum output brightness 62.5% of the brightness, and the content image has the maximum content brightness corresponding to the third maximum content brightness range (more than 1000 nits and less than 2000 nits), the 1-3 lap points (K1-3) are the first maximum output brightness 60% of , and the content image has a maximum content brightness corresponding to the fourth maximum content brightness range (more than 2000 nits and less than 4000 nits), the 1-4 lap points (K1-4) are the first maximum output brightness 50%, and when the content image has the maximum content brightness corresponding to the 5th maximum content brightness (more than 4000 nits and less than 10000 nits), the
  • the EOTF curve for HDR image for the case where the maximum output brightness of the video display device 100 is the first maximum output brightness (400 nits) has been reviewed.
  • an EOTF curve for an HDR image for a case where the maximum output brightness of the video display device 100 is the second maximum output brightness (eg, 500 nits) has been examined.
  • FIG. 6 illustrates an EOTF curve for an HDR image according to an embodiment of the present disclosure.
  • an HDR PQ curve according to an HDR PQ function is exemplarily shown as an example of an EOTF.
  • the X-axis represents the brightness of the HDR content image
  • the Y-axis represents the brightness of the output image of the video display device.
  • the maximum output brightness of the video display device is the second maximum output brightness (500 nits).
  • a plurality of HDR PQ curves may be generated for the video display device 100 having the second maximum output brightness.
  • one of the plurality of HDR PQ curves may be selected according to the maximum content brightness of the content image to be displayed on the video display device 100 and used to output the content image to the video display device 100.
  • the maximum content brightness may be stored as metadata in the content image. Accordingly, when the content image is displayed on the video display device 100 , information about the maximum content brightness of the content image may be provided to the video display device 100 . Then, the control unit 170 of the video display device 100 selects an HDR PQ curve corresponding to the maximum content brightness from among the plurality of HDR PQ curves and displays the content image according to the selected HDR PQ curve.
  • HDR PQ curves (C2-1, C2-2, C2-3, C2-4, C2-5) are illustrated for the second maximum output brightness. Fewer or more HDR PQ curves may have been created.
  • the 2-1 HDR PQ curve (C2-1) is for a case where the maximum content brightness of the content video is the sixth maximum content brightness (500 nits) and is equal to the second maximum output brightness (500 nits).
  • the maximum content brightness of the content video is equal to the maximum output brightness of the video display device 100
  • the content at the sixth maximum content brightness even if the second curve C2 according to the HDR PQ standard curve H is followed.
  • An image can be displayed without being saturated in the image display device 100 .
  • the 2-1 HDR PQ curve C2-1 may be the same as the second curve C2 of FIG. 2 .
  • the second maximum output brightness point PP2 can be defined.
  • the 2-1 HDR PQ curve C2-1 may be clipped for a content image brightness brighter than the second maximum output brightness point PP2.
  • the second maximum output brightness point PP2 may also be understood as the maximum content brightness point in the 2-1 HDR PQ curve C2-1, that is, the 2-1 maximum content brightness point CP2-1.
  • the 2-2nd HDR PQ curve C2-2 is for a case where the maximum content brightness of the content image is the second maximum content brightness (1000 nits). If the 2-2nd HDR PQ curve (C2-2) is compared with the 2-1st HDR PQ curve (C2-1), the 2-2nd knee point (K2-2) and the 2-2nd maximum content A brightness point CP2-2 may be defined.
  • the 2-2nd HDR PQ curve (C2-2) is the 2-1st HDR PQ curve (C2-1) (or the HDR PQ standard curve ( H)), and may be clipped for a content image brightness brighter than the 2-2nd maximum content brightness point CP2-2.
  • the 2-3 HDR PQ curve C2-3 is for a case where the maximum content brightness of the content video is the third maximum content brightness (2000 nits). Comparing the 2-3 HDR PQ curve (C2-3) with the 2-1 HDR PQ curve (C2-1), the 2-3 knee point (K2-3) and the 2-3 maximum content brightness point ( CP2-3) can be defined.
  • the 2-3rd HDR PQ curve (C2-3) diverges from the 2-1st HDR PQ curve (C2-1) (or the HDR PQ standard curve (H)) from the 2-3rd knee point (K2-3) It can be clipped for content image brightness brighter than the 2-3rd maximum content brightness point CP2-3.
  • the 2-3 lap point (K2-3) can be formed at an output image brightness lower than the 2-2 lap point (K2-2), and the 2-3 maximum content brightness point (CP2-3) is the second -2 It may be formed at a content image brightness brighter than the maximum content brightness point CP2-2.
  • the 2-4th HDR PQ curve (C2-4) is for a case where the maximum content brightness of the content image is the fourth maximum content brightness (4000 nits). If the 2-4th HDR PQ curve C2-4 is compared with the 2-1st HDR PQ curve C2-1, the 2-4th knee point K2-4 and the 2-4th maximum content brightness point ( CP2-4) can be defined.
  • the 2-4th HDR PQ curve (C2-4) diverges from the 2-1st HDR PQ curve (C2-1) (or the HDR PQ standard curve (H)) from the 2-4th knee point (K2-4). It can be clipped for content image brightness brighter than the 2-4th maximum content brightness point CP2-4.
  • the 2-4 lap point (K2-4) may be formed at an output image brightness lower than the 2-3 lap point (K2-3), and the 2-4 maximum content brightness point (CP2-4) is the second -3 It may be formed at a content image brightness brighter than the maximum content brightness point (CP2-3).
  • the 2-5th HDR PQ curve C2-5 is for a case where the maximum content brightness of the content image is the fifth maximum content brightness (eg, 10000 nits). If the 2-5th HDR PQ curve (C2-5) is compared with the 2-1st HDR PQ curve (C2-1), the 2-5th knee point (K2-5) and the 2-5th maximum content brightness point ( CP2-5) can be defined.
  • the 2-5th HDR PQ curve (C2-5) diverges from the 2-1st HDR PQ curve (C2-1) (or the HDR PQ standard curve (H)) from the 2-5th knee point (K2-5). It can be clipped for content image brightness brighter than the 2-5th maximum content brightness point CP2-5.
  • the 2-5th lap point (K2-5) may be formed at an output image brightness lower than the 2-4th lap point (K2-4), and the 2-5th maximum content brightness point (CP2-5) is the second -4 It can be formed at a content image brightness brighter than the maximum content brightness point (CP2-4).
  • FIG. 7 is a graph for explaining the maximum output brightness point and the maximum content brightness point of FIG. 6 .
  • FIG. 7 shows the HDR PQ standard curve H and the second curve C2 described in FIG. 2 .
  • HDR PQ standard curve (H) As shown in FIG. 7, on the HDR PQ standard curve (H), the sixth maximum content brightness (500 nits), the second maximum content brightness (1000 nits), the third maximum content brightness (2000 nits), and the fourth The 6th HDR PQ point (HP6), the 2nd HDR PQ point (HP2), the 3rd HDR PQ point (HP3) corresponding to the maximum content brightness (4000 nits) and the 5th maximum content brightness (10000 nits), respectively, Four HDR PQ points HP4 and a fifth HDR PQ point HP5 may be displayed.
  • the Y-axis direction at each of the 6th HDR PQ point (HP6), the 2nd HDR PQ point (HP2), the 3rd HDR PQ point (HP3), the 4th HDR PQ point (HP4), and the 5th HDR PQ point (HP2) The points projected on the second curve C2 as , the second maximum output brightness point PP2, the 2-2 maximum content brightness point CP2-2, and the 2-3 maximum content brightness point described in FIG. (CP2-3), the 2-4th maximum content brightness point (CP2-4), and the 2-5th maximum content brightness point (CP2-5).
  • FIG. 8 is a table for explaining the knee points of FIG. 6 .
  • each maximum content brightness (MaxcLL: Maximum Content Light Level) of the content video ) may be defined as a percentage of the second maximum output brightness.
  • the 2-1 lap point K2-1 is 100% of the second maximum output brightness. . This may be understood as having virtually no knee points. Alternatively, the 2-1 lap point K2-1 may be understood as the same as the second maximum output brightness point PP2.
  • the 2-2 lap point (K2-2) is 50% of the second maximum output brightness
  • the content image has the third maximum content brightness ( 2000 nits)
  • the 2-3rd lap point (K2-3) is 45% of the second maximum output brightness
  • the 2-4th lap point (K2-3) is 45% of the 4th maximum content brightness (4000 nits).
  • (K2-4) is 40% of the second maximum output brightness
  • the 2-5 lap point (K2-5) is the second maximum output brightness. may be 35%.
  • the numerical values are obtained through repeated clinical trials, and as a result of clinical trials, the content images having the sixth maximum content brightness and the second to fifth maximum content brightness, respectively, in the image display device 100 having the second maximum output brightness.
  • the knee points that enable the user to view the content image most comfortably and clearly when displayed are derived.
  • the maximum content brightness of the content image may not correspond to any of the sixth maximum content brightness (500 nits), the second maximum content brightness (1000 nits) to the fifth maximum content brightness (10000 nits).
  • the knee point may be defined as shown in (8-2) of FIG. 8.
  • the 2-1 lap point (not shown) is the second maximum 100% of the output brightness and the content image has the maximum content brightness corresponding to the second maximum content brightness range (more than 500 nits and less than 1000 nits)
  • the 2-2 lap point (K2-2) is the second maximum output brightness 50% of the brightness
  • the content video has the maximum content brightness corresponding to the third maximum content brightness range (more than 1000 nits and less than 2000 nits)
  • the 2-3 lap point (K2-3) is the second maximum output brightness 45% of
  • the content image has a maximum content brightness corresponding to the fourth maximum content brightness range (more than 2000 nits and less than 4000 nits)
  • the 2-4 lap point (K2-4) is the second maximum output brightness 40%, and when the content image has the maximum content brightness corresponding to the fifth maximum content brightness (more than 4000 nits and less than 10000 nits), the 2-5 lap point (K2-
  • the EOTF curve for HDR image for the case where the maximum output brightness of the video display device 100 is the second maximum output brightness (500 nits) has been reviewed.
  • an EOTF curve for an HDR image for a case where the maximum output brightness of the video display device 100 is the third maximum output brightness (eg, 700 nits) has been examined.
  • FIG. 9 illustrates an EOTF curve for an HDR image according to an embodiment of the present disclosure.
  • an HDR PQ curve according to an HDR PQ function is exemplarily shown as an example of an EOTF.
  • the X-axis represents the brightness of the content image for HDR
  • the Y-axis represents the brightness of the output image of the video display device.
  • the maximum output brightness of the video display device is the third maximum output brightness (700 nits).
  • a plurality of HDR PQ curves may be generated for the video display device 100 having the third maximum output brightness.
  • one of the plurality of HDR PQ curves may be selected according to the maximum content brightness of the content image to be displayed on the video display device 100 and used to output the content image to the video display device 100.
  • the maximum content brightness may be stored as metadata in the content image. Accordingly, when the content image is displayed on the video display device 100 , information about the maximum content brightness of the content image may be provided to the video display device 100 . Then, the control unit 170 of the video display device 100 selects an HDR PQ curve corresponding to the maximum content brightness from among the plurality of HDR PQ curves and displays the content image according to the selected HDR PQ curve.
  • HDR PQ curves C3-1, C3-2, C3-3, C3-4, C3-5 are illustrated for the fifth maximum output brightness. Fewer or more HDR PQ curves may have been created.
  • the 3-1 HDR PQ curve (C3-1) is for a case where the maximum content brightness of the content image is the 7th maximum content brightness (700 nits) and is equal to the 3rd maximum output brightness (700 nits).
  • the maximum content brightness of the content video is equal to the maximum output brightness of the video display device 100, the content at the seventh maximum content brightness even if the third curve C3 according to the HDR PQ standard curve H is followed.
  • An image can be displayed without being saturated in the image display device 100 . Accordingly, the 3-1 HDR PQ curve C3-1 may be the same as the third curve C3 of FIG. 2 .
  • a third maximum output brightness point PP3 can be defined.
  • the 3-1 HDR PQ curve C3-1 may be clipped for a content image brightness brighter than the third maximum output brightness point PP3.
  • the third maximum output brightness point PP3 may also be understood as the maximum content brightness point in the 3-1 HDR PQ curve C3-1, that is, the 3-1 maximum content brightness point CP3-1.
  • the 3-2 HDR PQ curve (C3-2) is for a case where the maximum content brightness of the content image is the second maximum content brightness (1000 nits). If the 3-2nd HDR PQ curve (C3-2) is compared with the 3-1st HDR PQ curve (C3-1), the 3-2nd knee point (K3-2) and the 3-2nd maximum content A brightness point CP3-2 may be defined.
  • the 3-2nd HDR PQ curve (C3-2) is the 3-1st HDR PQ curve (C3-1) (or the HDR PQ standard curve ( H)), and may be clipped for a content image brightness brighter than the 3-2nd maximum content brightness point CP3-2.
  • the 3-3 HDR PQ curve (C3-3) is for a case where the maximum content brightness of the content image is the third maximum content brightness (2000 nits). Comparing the 3-3 HDR PQ curve (C3-3) with the 3-1 HDR PQ curve (C3-1), the 3-3 knee point (K3-3) and the 3-3 maximum content brightness point ( CP3-3) can be defined.
  • the 3-3 HDR PQ curve (C3-3) diverges from the 3-1 HDR PQ curve (C3-1) (or the HDR PQ standard curve (H)) from the 3-3 knee point (K3-3). It can be clipped for a content image brightness brighter than the 3-3rd maximum content brightness point CP3-3.
  • the 3-3 lap point (K2-3) may be formed at an output image brightness lower than the 3-2 lap point (K3-2), and the 3-3 maximum content brightness point (CP3-3) is the third -2 It may be formed at a content image brightness brighter than the maximum content brightness point (CP3-2).
  • the 3-4th HDR PQ curve (C3-4) is for a case where the maximum content brightness of the content image is the fourth maximum content brightness (4000 nits). Comparing the 3-4th HDR PQ curve (C3-4) with the 3-1st HDR PQ curve (C3-1), the 3-4th knee point (K3-4) and the 3-4th maximum content brightness point ( CP3-4) can be defined.
  • the 3-4th HDR PQ curve (C3-4) diverges from the 3-1st HDR PQ curve (C3-1) (or the HDR PQ standard curve (H)) from the 3-4th knee point (K3-4). It can be clipped for content image brightness brighter than the 3-4th maximum content brightness point CP3-4.
  • the 3-4 lap point (K3-4) can be formed at an output image brightness lower than the 3-3 lap point (K3-3), and the 3-4 maximum content brightness point (CP3-4) is the third -3 It may be formed at a content image brightness brighter than the maximum content brightness point (CP3-3).
  • the 3-5th HDR PQ curve C3-5 is for a case where the maximum content brightness of the content image is the fifth maximum content brightness (eg, 10000 nits). Comparing the 3-5th HDR PQ curve (C3-5) with the 3-1st HDR PQ curve (C3-1), the 3-5th knee point (K3-5) and the 3-5th maximum content brightness point ( CP3-5) can be defined.
  • the 3-5th HDR PQ curve (C3-5) diverges from the 3-1st HDR PQ curve (C3-1) (or the HDR PQ standard curve (H)) from the 3-5th knee point (K3-5). It can be clipped for a content image brightness brighter than the 3-5th maximum content brightness point CP3-5.
  • the 3-5 lap point (K3-5) can be formed at an output image brightness lower than the 3-4 lap point (K3-4), and the 3-5 maximum content brightness point (CP3-5) is the third -4 It can be formed at a content image brightness brighter than the maximum content brightness point (CP3-4).
  • FIG. 10 is a graph for explaining the maximum output brightness point and maximum content brightness point of FIG. 9 .
  • FIG. 10 shows the HDR PQ standard curve H and the third curve C3 described in FIG. 2 .
  • the 7th maximum content brightness (700 nits), the 2nd maximum content brightness (1000 nits), the 3rd maximum content brightness (2000 nits), and the 4th maximum content brightness (2000 nits) The 7th HDR PQ point (HP7), the 2nd HDR PQ point (HP2), the 3rd HDR PQ point (HP3) corresponding to the maximum content brightness (4000 nits) and the 5th maximum content brightness (10000 nits), respectively, Four HDR PQ points HP4 and a fifth HDR PQ point HP5 may be displayed.
  • the Y-axis direction at each of the 7th HDR PQ point (HP7), the 2nd HDR PQ point (HP2), the 3rd HDR PQ point (HP3), the 4th HDR PQ point (HP4), and the 5th HDR PQ point (HP2) The points projected on the third curve C3 as , the third maximum output brightness point (PP3), the 3-2nd maximum content brightness point (CP3-2), and the 3-3rd maximum content brightness point described in FIG. (CP3-3), a 3-4th maximum content brightness point (CP3-4), and a 3-5th maximum content brightness point (CP3-5).
  • FIG. 11 is a table for explaining the knee points of FIG. 9 .
  • the 3-1 lap point (not shown) is 100% of the third maximum output brightness. This may be understood as having virtually no knee points. Alternatively, the 3-1 lap point K3-1 may be understood as the same as the third maximum output brightness point PP3.
  • the 3-2 lap point (K3-2) is 50% of the third maximum output brightness
  • the content image has the third maximum content brightness ( 2000 nits)
  • the 3-3rd lap point (K3-3) is 45% of the third maximum output brightness
  • the 3-4th lap point (K3-3) is 45% of the 4th maximum content brightness (4000 nits).
  • (K3-4) is 40% of the third maximum output brightness
  • the 3-5 lap point (K3-5) is the third maximum output brightness. may be 30%.
  • the values were obtained through repeated clinical trials, and as a result of the clinical experiments, the content images having the 7th maximum content brightness and the 2nd to 5th maximum content brightness, respectively, in the image display device 100 having the 3rd maximum output brightness.
  • the knee points that enable the user to view the content image most comfortably and clearly when displayed are derived.
  • the maximum content brightness of the content video may not correspond to any of the seventh maximum content brightness (700 nits), the second maximum content brightness (1000 nits) to the fifth maximum content brightness (10000 nits).
  • the knee point may be defined as shown in (11-2) of FIG. 11.
  • the 3-1 lap point (not shown) is the 3rd maximum content brightness. 100% of the output brightness and the content video has the maximum content brightness corresponding to the second maximum content brightness range (more than 700 nits and less than 1000 nits), the 3-2 lap point (K3-2) is the third maximum output brightness 50% of the brightness, and the content image has the maximum content brightness corresponding to the third maximum content brightness range (more than 1000 nits and less than 2000 nits), the 3-3 lap point (K3-3) is the third maximum output brightness 45% of , and the content image has the maximum content brightness corresponding to the fourth maximum content brightness range (more than 2000 nits and less than 4000 nits), the 3-4 lap point (K3-4) is the third maximum output brightness 40%, and if the content video has the maximum content brightness corresponding to the 5th maximum content brightness (more than 4000 nits and less than 10000 n
  • the EOTF curve for an HDR image may be provided differently according to the maximum output brightness of the display panel of the video display device and the maximum content brightness of the content image, and for each EOTF curve for the HDR image, a knee point and It has been described that a maximum content brightness point can be defined.
  • FIG. 12 shows the 3-1 HDR curve and the 3-4 HDR curve of FIG. 9 .
  • the third maximum output brightness point PP3 may be defined in the 3-1 HDR curve C3-1.
  • the 3-4 lap point K3-4 and the 3-4 maximum content brightness point CP3-4 can be defined in the 3-4 HDR curve C3-4.
  • FIG. 13 illustrates a process of generating an EOTF for an HDR image according to an embodiment of the present disclosure.
  • Maximum output brightness for the video display device 100 may be defined [S131].
  • the maximum output brightness may be defined by at least one of performance of the display panel of the video display device 100 and user preference.
  • a plurality of maximum output brightness is defined for the video display device 100, and the video display device 100 may operate according to the maximum output brightness selected by a user among them.
  • the control unit 170 of the video display device 100 selects menus of “normal”, “high”, and “very high” to set maximum output brightness. It may be provided to the user through a user interface screen.
  • the controller 170 sets the maximum output brightness to a first maximum output brightness (eg, 400 nits) when the “normal” menu is selected, and the “high” menu is selected.
  • the maximum output brightness is set to a second maximum output brightness (eg, 500 nits)
  • the maximum output brightness is set to a third maximum output brightness ( For example, 700 nits).
  • the percentage of the maximum output brightness for the knee point of the EOTF for the HDR image may be determined [S132]. As described above, the percentage may be determined through clinical trials according to the maximum output brightness and the maximum content brightness.
  • a maximum content brightness point and a knee point corresponding to each maximum content brightness may be determined [S133].
  • an EOTF curve for an HDR image corresponding to each maximum content brightness may be generated based on the maximum content brightness point and the knee point [S134].
  • a plurality of EOTF curves for HDR images corresponding to all maximum output brightness and all maximum content brightness may be generated [S135].
  • the generated EOTF curve for the HDR image and data related thereto may be stored in the storage unit 140 of the image display device 100 .
  • the EOTF curve for the HDR image may be calibrated according to user preference. This will be further described with reference to FIG. 14 . 14 illustrates a user interface for calibrating an EOTF curve for an HDR image according to an embodiment of the present disclosure.
  • the control unit 170 of the video display device 100 is a user interface (1000) for calibrating the EOTF curve for an HDR image as shown in FIG. ) can be controlled to be displayed on the display 180.
  • the user may select one of “normal”, “high”, and “very high” menus in the maximum output brightness setting 1100 in the user interface 1000.
  • FIG. 14 illustrates that the “high” menu is selected and the maximum output brightness of the video display device 100 is set to the second maximum output brightness (500 nits).
  • the selected maximum output brightness and each maximum content brightness 1210 that is, the seventh maximum content brightness (Max), the second maximum content brightness (1000 nits), the th A plurality of lap points 1220 corresponding to each of the three maximum content brightness (2000 nits), the second maximum content brightness (1000 nits), and the third maximum content brightness (2000 nits) are displayed as percentages of the maximum output brightness.
  • a plurality of slide bars 1230 for respectively calibrating the plurality of knee points 1220 may be displayed.
  • the user may calibrate the knee point of the EOTF curve for the HDR image according to the maximum output brightness and the corresponding maximum content brightness through each slide bar (eg, through dragging the slide bar). By calibrating the knee point, the EOTF curve for the HDR image may be calibrated.
  • the calibrated EOTF curve for the HDR image may be displayed in the preview area 1300 of the user interface 1000 for preview by the user. Accordingly, the user can visually and conveniently check how calibrated the EOTF curve for the HDR image is while viewing the EOTF curve for the HDR image displayed in the preview area 1300 .
  • the calibrated EOTF curves for each HDR image can be applied in the video display device 100 .
  • the above-described present invention can be implemented as computer readable code on a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those implemented in the form of a carrier wave (eg, transmission over the Internet).
  • the computer may include a control unit 170 of the image display device and a control unit (not shown) of the remote control device.

Abstract

본 개시는, 영상표시기기의 하드웨어 성능에 따른 출력 밝기 범위가 HDR 영상 자체의 밝기 범위보다 협소하더라도 상기 영상표시기기에서 출력되는 HDR 영상의 표현력 또는 생동감을 최대한 살릴 수 있는 HDR 영상용 EOTF를 구비하는 영상표시기기 및 그 제어 방법에 관한 것이다. 본 발명의 일 측면에 따르면, 디스플레이, HDR용 컨텐츠 영상을 디스플레이하기 위한 복수의 EOTF 커브를 저장하는 저장부, 및 상기 복수의 EOTF 커브 중 상기 디스플레이의 최대 출력 밝기 및 상기 컨텐츠의 최대 컨텐츠 밝기에 해당하는 EOTF 커브를 이용하여 상기 컨텐츠 영상을 디스플레이하도록 제어하는 제어부를 포함하는 영상표시기기 등이 제공될 수 있다.

Description

영상표시기기 및 그 제어 방법
본 개시는 HDR(High Dynamic Range) 영상을 출력하기 위한 영상표시기기 및 그 제어 방법에 관한 것이다.
영상표시기기는, 예를 들면, 디지털 TV 및 모니터 등과 같이, 디지털 영상을 수신 및 처리하여 디스플레이하는 기능을 갖춘 장치이다.
디지털 영상은 일반적으로 RGB의 3채널로 구성되어 있고, 일반적으로 SDR(Standard Dynamic Range) 영상은 각 채널마다 0-255의 범위(8비트)로 밝기를 표현할 수 있다. 그러나 SDR 영상은 각 채널에서 표현할 수 있는 밝기의 범위가 좁기 때문에 어두운 부분이 제대로 표현되지 않거나, 밝은 부분이 제대로 표현이 되지 않을 때가 많다. 예컨대, 역광에서 촬영된 사진과 같이 어두운 부분과 밝은 부분 사이의 밝기 차이가 현저한 영상의 경우에는 명암 밸런스가 한 쪽으로 치우쳐지게 된다. 이에, 육안으로 보는 장면과 그것을 촬영한 SDR 영상 사이에는 큰 차이가 발생할 수 있다. 이러한 SDR 영상과 대비하여, 각 채널마다 16비트 또는 32비트로 표현하는 영상을 HDR(High Dynamic Range) 영상이라고 칭하며, HDR 영상은 보다 넓은 밝기 표현력을 가짐에 따라 보다 영상을 보다 현실감 있게 표현할 수 있는 장점이 있다.
영상표시기기는 영상을 입력 받는 경우 상기 영상표시기기에 저장되어 있는 EOTF(Electro-Optical Transfer Function; 전기-광학 전달 함수)에 기반하여 상기 입력 받은 영상을 출력할 수 있다. 상기 EOTF는 HDR 영상의 전기적인 정보와 이것이 출력될 때의 광학적인 밝기 정보간의 상호 변환 관계를 정의한 함수이다.
HDR 영상을 위한 EOTF로는, 현재 SMPTE(Society of Motion Picture and Television Engineers) 표준에 따른 PQ(Perceptual Quantizer) 함수와, ARIB(Association of Radio Industries and Businesses) 표준에 따른 HLG(Hybrid Log Gamma) 함수가 많이 사용되고 있다.
그러나, 상기 영상표시기기의 하드웨어 성능에 따른 출력 밝기 범위가 HDR 영상 자체의 밝기 범위보다 협소한 경우 상기 HDR 영상용 EOTF가 그대로 사용된다면 상기 영상표시기기에서 출력되는 HDR 영상(특히 밝은 부분)의 표현력 또는 생동감이 떨어질 수 있다는 문제점이 있다.
본 개시는, 영상표시기기의 하드웨어 성능에 따른 출력 밝기 범위가 HDR 영상 자체의 밝기 범위보다 협소하더라도 상기 영상표시기기에서 출력되는 HDR 영상의 표현력 또는 생동감을 최대한 살릴 수 있는 HDR 영상용 EOTF를 구비하는 영상표시기기 및 그 제어 방법을 제공하는 것을 목적으로 한다.
상기와 같은 목적을 달성하기 위해 본 개시의 일 측면에 따르면, 디스플레이, HDR용 컨텐츠 영상을 디스플레이하기 위한 복수의 EOTF 커브를 저장하는 저장부, 및 상기 복수의 EOTF 커브 중 상기 디스플레이의 최대 출력 밝기 및 상기 컨텐츠 영상의 최대 컨텐츠 밝기에 해당하는 EOTF 커브를 이용하여 상기 컨텐츠 영상을 디스플레이하도록 제어하는 제어부를 포함하는 영상표시기기를 제공할 수 있다.
상기 복수의 EOTF 커브는 상기 최대 출력 밝기 및 상기 최대 컨텐츠 밝기에 따라 서로 다른 무릎 포인트 및 최대 컨텐츠 밝기 포인트를 가질 수 있다.
상기 최대 컨텐츠 밝기에 관한 정보가 상기 컨텐츠 영상에 메타 데이터로서 저장될 수 있다.
상기 복수의 EOTF 커브 중 제 1 EOTF 커브는 상기 최대 출력 밝기와 같은 상기 최대 컨텐츠 밝기에 따른 제 1 최대 출력 포인트를 포함할 수 있다.
제 1 EOTF 커브는 EOTF 표준 커브에 기반하여 생성될 수 있다.
상기 복수의 EOTF 커브 중 제 2 EOTF 커브는 상기 최대 출력 밝기보다 큰 상기 최대 컨텐츠 밝기에 따른 제 1 무릎 포인트 및 제 2 최대 컨텐츠 밝기 포인트를 포함할 수 있다.
제 2 EOTF 커브는 제 1 최대 출력 포인트, 제 1 무릎 포인트 및 제 2 최대 컨텐츠 밝기 포인트에 기반한 2차 베지에 곡선이 제 1 EOTF 커브에 반영되어 생성될 수 있다.
상기 제어부는, 상기 복수의 EOTF 커브를 캘리브레이션하기 위한 유저인터페이스를 상기 디스플레이에 디스플레이하도록 제어할 수 있다.
상기 제어부는, 상기 디스플레이의 최대 출력 밝기를 설정하기 위한 메뉴와 상기 설정된 최대 출력 밝기에 따른 상기 복수의 EOTF 커브를 각각 캘리브레이션 하기 위한 메뉴를 상기 유저인터페이스를 통해 제공하도록 제어할 수 있다.
상기 제어부는, 상기 캘리브페이션된 EOTF 커브를 미리보기용으로서 상기 유저인터페이스에 디스플레이하도록 제어할 수 있다.
또한, 본 개시의 일 측면에 따르면, HDR용 컨텐츠 영상을 디스플레이하기 위한 복수의 EOTF 커브를 저장하는 단계, 및 상기 복수의 EOTF 커브 중 디스플레이의 최대 출력 밝기 및 상기 컨텐츠 영상의 최대 컨텐츠 밝기에 해당하는 EOTF 커브를 이용하여 상기 컨텐츠 영상을 디스플레이하는 단계;를 포함하는 영상표시기기의 제어 방법을 제공할 수 있다.
본 개시에 따른 영상표시기기 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 영상표시기기의 하드웨어 성능에 따른 출력 밝기 범위가 HDR 영상 자체의 밝기 범위보다 협소하더라도 상기 영상표시기기에서 출력되는 HDR 영상의 표현력 또는 생동감을 최대한 살릴 수 있는 HDR 영상용 EOTF가 영상표시기기에 구비되도록 할 수 있다는 장점이 있다.
또한, 본 개시의 실시 예들 중 적어도 하나에 의하면, 사용자가 자신의 기호에 맞게 상기 HDR 영상용 EOTF를 편리하게 캘리브레이션할 수 있는 유저 인터페이스를 제공할 수 있다는 장점이 있다.
도 1은 본 발명의 일실시예에 따른 영상표시기기의 개략적 블록도이다.
도 2는 HDR 영상용 EOTF 표준 커브를 도시한다.
도 3는 본 개시의 일실시예에 따른 HDR 영상용 EOTF 커브를 도시한다.
도 4는 도 3의 최대 출력 밝기 포인트 및 최대 컨텐츠 밝기 포인트를 설명하기 위한 그래프이다.
도 5는 도 3의 무릎 포인트를 설명하기 위한 표이다.
도 6는 본 개시의 일실시예에 따른 HDR 영상용 EOTF 커브를 도시한다.
도 7은 도 6의 최대 출력 밝기 포인트 및 최대 컨텐츠 밝기 포인트를 설명하기 위한 그래프이다.
도 8는 도 6의 무릎 포인트를 설명하기 위한 표이다.
도 9는 본 개시의 일실시예에 따른 HDR 영상용 EOTF 커브를 도시한다.
도 10은 도 9의 최대 출력 밝기 포인트 및 최대 컨텐츠 밝기 포인트를 설명하기 위한 그래프이다.
도 11는 도 9의 무릎 포인트를 설명하기 위한 표이다.
도 12는 도 9의 제 3-1 HDR 커브 및 제 3-4 HDR 커브를 도시한다.
도 13은 본 개시의 일실시예에 따른 HDR 영상용 EOTF의 생성 프로세스를 도시한다.
도 14는 본 개시의 일실시예에 따른 HDR 영상용 EOTF 커브를 캘리브레이션하기 위한 유저인터페이스를 도시한다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함을 고려하여 부여되는 것으로서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
또한 이들 구성요소들은 각각 별도의 개별 하드웨어 모듈로 구성되거나 둘 이상의 하드웨어 모듈로 구현될 수도 있고, 둘 이상의 구성요소들이 하나의 하드웨어 모듈로 구현될 수도 있으며, 경우에 따라서는 소프트웨어로도 구현될 수 있음은 물론이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
도 1은 본 발명의 일실시예에 따른 영상표시기기의 개략적 블록도이다. 상기 영상표시기기는 디스플레이 패널을 포함하는 영상 출력이 가능한 디스플레이 장치일 수 있다. 예를 들면, 상기 영상표시기기는, 컴퓨터용 모니터, TV, 프로젝터, 스마트폰, 랩탑, 디지털 사이니지 등을 포함할 수 있다.
도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시기기(100)는, 방송 수신부(105), 외부장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 디스플레이부(180), 오디오 출력부(185), 전원공급부(190), 및 촬영부(미도시)를 포함할 수 있다. 상기 영상표시기기(100)가 컴퓨터용 모니터인 경우 상기 방송수신부(105), 오디오 출력부(183), 및 상기 촬영부 중 적어도 하나를 포함하지 않을 수도 있다.
방송 수신부(105)는, 튜너(110), 복조부(120), 및 네트워크 인터페이스부(130)를 포함할 수 있다. 물론, 필요에 따라, 튜너(110)와 복조부(120)를 구비하면서 네트워크 인터페이스부(130)는 포함하지 않도록 설계하는 것도 가능하며, 반대로 네트워크 인터페이스부(130)를 구비하면서 튜너(110)와 복조부(120)는 포함하지 않도록 설계하는 것도 가능하다.
튜너(110)는, 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 모두 처리할 수 있다. 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.
또한, 튜너(110)는, ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너(110)는, 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다.
복조부(120)는, 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 예컨대, 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 예컨대, COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는, 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때, 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이부(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다.
외부장치 인터페이스부(135)는 외부 장치와 영상표시기기(100)를 접속할 수 있다. 이를 위해, 외부장치 인터페이스부(135)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
외부장치 인터페이스부(135)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(135)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시기기(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(135)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시기기(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.
무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시기기(100)는 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA (Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다.
또한, 외부장치 인터페이스부(135)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.
한편, 외부장치 인터페이스부(135)는, 인접하는 외부 장치 내의 어플리케이션 또는 어플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
네트워크 인터페이스부(130)는, 영상표시기기(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(130)는, 유선 네트워크와의 접속을 위해, 예를 들어 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, 예를 들어 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.
네트워크 인터페이스부(130)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. 특히, 영상표시기기(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 영상표시기기(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
한편, 네트워크 인터페이스부(130)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
또한, 네트워크 인터페이스부(130)는, 네트워크를 통해, 공중에 공개(open)된 어플리케이션들 중 원하는 어플리케이션을 선택하여 수신할 수 있다.
실시 예에 따라, 네트워크 인터페이스부(130)는, 영상표시기기에서 게임 어플리케이션을 실행하는 경우, 상기 영상표시기기와 네트워크 연결된 사용자 단말기와 소정의 데이터를 송신 또는 수신할 수 있다. 또한, 게임 스코어를 저장하는 서버와 소정의 데이터를 송신 또는 수신할 수 있다.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수도 있다.
또한, 저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(130)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
또한, 저장부(140)는, 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(130)로부터 입력되는 어플리케이션 또는 어플리케이션 목록을 저장할 수 있다.
또한, 실시 예에 따라, 저장부(140)는, 영상표시기기에서 게임 어플리케이션을 제공함에 있어서, 게임 컨트롤러로 사용된 사용자 단말기의 고유 정보 및 게임 플레이 정보를 저장할 수 있다.
저장부(140)는, 예를 들어 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시기기(100)는, 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 어플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수도 있다.
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다.
예를 들어, 사용자입력 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정키 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 사용자의 제스처를 센싱하는 센싱부(미도시)로부터 입력되는 제어 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센싱부(미도시)로 송신할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다.
제어부(170)는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(135)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
도 1에서는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다.
그 외, 제어부(170)는, 영상표시기기(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는, 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시기기(100)를 제어할 수 있다. 특히, 네트워크에 접속하여 사용자가 원하는 어플리케이션 또는 어플리케이션 목록을 영상표시기기(100) 내로 다운받을 수 있도록 할 수 있다.
예를 들어, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 그리고, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
다른 예로, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는, 영상을 표시하도록 디스플레이부(180)를 제어할 수 있다. 예를 들어, 튜너(110)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상을, 디스플레이부(180)에 표시하도록 제어할 수 있다. 이때, 디스플레이부(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는, 컨텐츠를 재생하도록 제어할 수 있다. 이때의 컨텐츠는, 영상표시기기(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠일 수 있다. 컨텐츠는, 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 중 적어도 하나일 수 있다.
한편, 본 발명의 실시예와 관련하여, 제어부(170)는, 홈 화면으로의 이동 입력에 따라, 디스플레이부(180)에 홈 화면을 표시하도록 제어할 수 있다.
홈 화면은, 컨텐츠 소스 별로 분류된 복수의 카드 오브젝트를 구비할 수 있다. 카드 오브젝트는, 방송 채널의 썸네일 리스트를 나타내는 카드 오브젝트, 방송 가이드 리스트를 나타내는 카드 오브젝트, 방송 예약 리스트 또는 녹화 리스트를 나타내는 카드 오브젝트, 상기 영상표시기기 내 또는 상기 영상표시기기에 접속된 장치 내의 미디어 리스트를 나타내는 카드 오브젝트 중 적어도 하나를 포함할 수 있다. 또한, 접속된 외부 장치 리스트를 나타내는 카드 오브젝트, 및 통화와 관련된 리스트를 나타내는 카드 오브젝트 중 적어도 하나를 더 포함할 수 있다.
또한, 홈 화면은, 실행 가능한 적어도 하나의 어플리케이션 항목을 구비하는 어플리케이션 메뉴를 더 구비할 수 있다.
한편, 제어부(170)는, 카드 오브젝트 이동 입력이 있는 경우, 해당 카드 오브젝트를 이동하여 표시하거나, 디스플레이부(180)에 표시되지 않는 카드 오브젝트를 디스플레이부(180)에 이동 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 홈 화면 내의 복수의 카드 오브젝트 중 소정 카드 오브젝트가 선택되는 경우, 해당 카드 오브젝트에 대응하는 영상을 디스플레이부(180)에 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 방송 영상을 표시하는 카드 오브젝트 내에, 수신되는 방송 영상과, 해당 방송 영상 관련 정보를 나타내는 오브젝트를 표시하도록 제어할 수 있다. 그리고, 이러한 방송 영상은 잠금 설정에 의해 그 크기가 고정되도록 제어할 수 있다.
한편, 제어부(170)는, 홈 화면 내에, 영상표시기기 내의 영상 설정, 오디오 설정, 화면 설정, 예약 설정, 원격제어장치의 포인터 설정, 네트워크 설정 중 적어도 하나의 설정을 위한 셋업 오브젝트를 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 홈 화면의 일 영역에, 로그인, 도움말 또는 나가기 항목에 대한 오브젝트를 표시하도록 제어할 수도 있다.
한편, 제어부(170)는, 홈 화면의 일 영역에, 전체 카드 오브젝트의 개수를 나타내거나 전체 카드 오브젝트 중 디스플레이부(180)에 표시되는 카드 오브젝트의 개수를 나타내는 오브젝트를 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 디스플레이부(180)에 표시되는 카드 오브젝트 중 소정 카드 오브젝트 내의 카드 오브젝트명이 선택되는 경우, 해당 카드 오브젝트를 전체화면으로서 디스플레이부(180)에 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 접속된 외부장치 또는 영상표시기기 내에서 착신 호가 수신되는 경우, 복수의 카드 오브젝트 중 통화 관련 카드 오브젝트를 포커싱하여 표시하거나, 디스플레이부(180) 내로 통화 관련 카드 오브젝트를 이동하여 표시하도록 제어할 수 있다.
한편, 제어부(170)는, 어플리케이션 보기 항목에 진입하는 경우, 영상표시기기(100) 내 또는 외부 네트워크로부터 다운로드 가능한 어플리케이션 또는 어플리케이션 목록을 표시하도록 제어할 수 있다.
제어부(170)는, 다양한 유저 인터페이스와 더불어, 외부 네트워크로부터 다운로드되는 어플리케이션을 설치 및 구동하도록 제어할 수 있다. 또한, 사용자의 선택에 의해, 실행되는 어플리케이션에 관련된 영상이 디스플레이부(180)에 표시되도록 제어할 수 있다.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다.
채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(135)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이부(180)에 표시할 수 있다. 한편, 이러한 썸네일 리스트 내의 썸네일 영상들은 차례로 또는 동시에 업데이트될 수 있다. 이에 따라 사용자는 복수의 방송 채널의 내용을 간편하게 파악할 수 있게 된다.
디스플레이부(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성한다.
디스플레이부(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등이 가능할 수 있다.
한편, 디스플레이부(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.
한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 영상표시기기(100)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(150)를 통해 제어부(170)로 전달될 수 있다.
한편, 사용자를 촬영하는 촬영부(미도시)가 더 구비될 수 있다. 촬영부(미도시)에서 촬영된 영상 정보는 제어부(170)에 입력될 수 있다.
제어부(170)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수도 있다.
전원 공급부(190)는, 영상표시기기(100) 전반에 걸쳐 해당 전원을 공급한다.
특히, 시스템 온 칩(System On Chip, SOC)의 형태로 구현될 수 있는 제어부(170)와, 영상 표시를 위한 디스플레이부(180), 및 오디오 출력을 위한 오디오 출력부(185)에 전원을 공급할 수 있다.
이를 위해, 전원 공급부(190)는, 교류 전원을 직류 전원으로 변환하는 컨버터(미도시)를 구비할 수 있다. 한편, 예를 들어, 디스플레이부(180)가 다수의 백라이트 램프를 구비하는 액정패널로서 구현되는 경우, 휘도 가변 또는 디밍(dimming) 구동을 위해, PWM 동작이 가능한 인버터(미도시)를 더 구비할 수도 있다.
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다.
또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 또는 진동을 출력할 수 있다.
상술한 영상표시기기(100)는, 고정형으로서 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다.
한편, 도 1에 도시된 영상표시기기(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시기기(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 개시의 권리범위를 제한하지 아니한다.
이하, 도 2를 참조하여, HDR 영상을 위한 EOTF 표준 커브에 대해 설명하겠다. 도 2는 HDR 영상용 EOTF 표준 커브를 도시한다. 도 2에서는 EOTF 표준 커브의 예시로서 HDR PQ 함수에 따른 HDR PQ 표준 커브가 도시되어 있다. 도 2에서 X축은 HDR용 컨텐츠 영상의 밝기를 나타내고, Y축은 영상표시기기의 출력 영상 밝기를 나타낸다.
상기 HDR PQ 표준 커브(H)는, HDR 영상의 제일 어두운 부분은 0 니트(Nit)로 출력되고 가장 밝은 부분은 10000 니트로 출력되도록 로그 곡선을 따르도록 SMPTE 표준에서 규격화되어 있다.
그런데, 일반적으로 시중에 출시되는 영상표시기기는 기껏해야 최대로 1000 니트 내외의 영상을 최대 밝기로 출력할 수 있을 뿐이다.
상기 영상표시기기의 디스플레이 패널의 최대 출력 밝기(즉, 최대 패널 밝기)가 400 니트이고 상기 HDR PQ 표준 커브(H)에 따라 컨텐츠 영상이 상기 영상표시기기에 따라 출력된다면, 상기 컨텐츠에서 제 1 영상 밝기(L1)보다 밝도록 제작된 영상은 모두 포화되어 디스플레이될 수 밖에 없다. 상기 영상표시기기의 디스플레이 패널의 최대 출력 밝기가 400 니트일 때 상기 HDR PQ 표준 커브(H)에 따라 컨텐츠 영상이 디스플레이되는 경우 컨텐츠 영상 밝기 및 상기 영상표시기기의 출력 영상 밝기 간의 관계는 제 1 커브(C1)으로 표시될 수 있다.
마찬가지로, 상기 영상표시기기의 디스플레이 패널의 최대 출력 밝기가 500 니트이고 상기 HDR PQ 표준 커브(H)에 따라 컨텐츠 영상이 상기 영상표시기기에 따라 출력된다면, 상기 컨텐츠에서 제 2 영상 밝기(L2)보다 밝은 영상은 모두 포화되어 디스플레이될 수 밖에 없다. 상기 영상표시기기의 디스플레이 패널의 최대 출력 밝기가 500 니트일 때 상기 HDR PQ 표준 커브(H)에 따라 컨텐츠 영상이 디스플레이되는 경우 컨텐츠 영상 밝기 및 상기 영상표시기기의 출력 영상 밝기 간의 관계는 제 2 커브(C2)으로 표시될 수 있다.
또한 마찬가지로, 상기 영상표시기기의 디스플레이 패널의 최대 출력 밝기가 700 니트이고 상기 HDR PQ 표준 커브(H)에 따라 컨텐츠 영상이 상기 영상표시기기에 따라 출력된다면, 상기 컨텐츠에서 제 3 영상 밝기(L3)보다 밝은 부분은 모두 포화되어 디스플레이될 수 밖에 없다. 상기 영상표시기기의 디스플레이 패널의 최대 출력 밝기가 700 니트일 때 상기 HDR PQ 표준 커브(H)에 따라 컨텐츠 영상이 디스플레이되는 경우 컨텐츠 영상 밝기 및 상기 영상표시기기의 출력 영상 밝기 간의 관계는 제 3 커브(C3)으로 표시될 수 있다.
따라서, 상기 HDR PQ 표준 커브가 그대로 상기 영상표시기기(100)에 적용된다면 상기 영상표시기기(100)에서 출력되는 HDR 영상(특히 밝은 부분)의 표현력 또는 생동감이 떨어질 수 있다는 문제점이 있다. 따라서, 상기 영상표시기기에서 출력되는 HDR 영상(특히 밝은 부분)의 표현력 또는 생동감을 살리기 위해 상기 HDR PQ 표준 커브가 상기 영상표시기기의 최대 출력 밝기 및 상기 영상표시기기에서 디스플레이될 컨텐츠의 최대 컨텐츠 밝기에 따라 적절히 변형되어 사용될 필요가 있다.
이에 대해 도 3을 더욱 참조하여 설명하겠다. 도 3는 본 개시의 일실시예에 따른 HDR 영상용 EOTF 커브를 도시한다. 도 3에서는 EOTF의 예시로서 HDR PQ 함수에 따른 HDR PQ 커브가 예시적으로 도시되어 있다. 도 3에서 X축은 HDR용 컨텐츠 영상의 밝기를 나타내고, Y축은 영상표시기기의 출력 영상 밝기를 나타낸다. 도 3에서는 상기 영상표시기기의 최대 출력 밝기가 제 1 최대 출력 밝기(예를 들면, 400니트)인 것으로 가정하겠다.
제 1 최대 출력 밝기를 갖는 상기 영상표시기기(100)를 위해 복수 개의 HDR PQ 커브가 생성되어 있을 수 있다. 예를 들면, 상기 영상표시기기(100)에서 디스플레이될 컨텐츠 영상의 최대 컨텐츠 밝기에 따라 상기 복수 개의 HDR PQ 커브 중에서 하나가 선택되어 상기 영상표시기기(100)에 상기 컨텐츠 영상의 출력을 위해 사용될 수 있다. 상기 최대 컨텐츠 밝기는 상기 컨텐츠 영상 내에 메타 데이터로서 저장되어 있을 수 있다. 따라서, 상기 컨텐츠 영상이 상기 영상표시기기(100)에서 디스플레이되는 경우 상기 컨텐츠 영상의 상기 최대 컨텐츠 밝기에 관한 정보가 상기 영상표시기기(100)에 제공될 수 있다. 그러면, 상기 영상표시기기(100)의 상기 제어부(170)는 상기 복수 개의 HDR PQ 커브 중에서 상기 최대 컨텐츠 밝기에 해당되는 HDR PQ 커브를 선택하고, 상기 선택된 HDR PQ 커브에 따라서 상기 컨텐츠 영상을 디스플레이할 수 있다.
도 3에서는 제 1 최대 출력 밝기를 위해 5개의 HDR PQ 커브(C1-1, C1-2, C1-3, C1-4, C1-5)가 예시되어 있다. 이보다 적거나 많은 HDR PQ 커브가 생성되어 있을 수 있다.
제 1-1 HDR PQ 커브(C1-1)은 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 1 최대 컨텐츠 밝기(예를 들면, 400니트)로서 제 1 최대 출력 밝기(400니트)와 동일한 경우를 위한 것이다. 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 상기 영상표시기기(100)의 최대 출력 밝기와 동일한 경우, 상기 HDR PQ 표준 커브(H)에 따른 제 1 커브(C1)를 따르더라도 제 1 최대 컨텐츠 밝기의 상기 컨텐츠 영상이 상기 영상표시기기(100)에서 포화됨 없이 디스플레이될 수 있다. 따라서, 제 1-1 HDR PQ 커브(C1-1)은 도 2의 제 1 커브(C1)와 동일할 수 있다. 제 1-1 HDR PQ 커브(C1-1)를 상기 HDR PQ 표준 커브(H)와 대비하면, 제 1 최대 출력 밝기 포인트(PP1)가 정의될 수 있다. 제 1-1 HDR PQ 커브(C1-1)는 제 1 최대 출력 밝기 포인트(PP1)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 1 최대 출력 밝기 포인트(PP1)은 제 1-1 HDR PQ 커브(C1-1)에 있어서 후술되는 최대 컨텐츠 밝기 포인트, 즉 제 1-1 최대 컨텐츠 밝기 포인트(CP1-1)로도 이해될 수도 있다.
제 1-2 HDR PQ 커브(C1-2)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 2 최대 컨텐츠 밝기(예를 들면, 1000니트)인 경우를 위한 것이다. 제 1-2 HDR PQ 커브(C1-2)를 제 1-1 HDR PQ 커브(C1-1)와 대비하면, 제 1-2 무릎(knee) 포인트(K1-2) 및 제 1-2 최대 컨텐츠 밝기 포인트(CP1-2)가 정의될 수 있다. 제 1-2 HDR PQ 커브(C1-2)는 제 1-2 무릎 포인트(K1-2)보다 밝은 컨텐츠 영상 밝기부터 제 1-1 HDR PQ 커브(C1-1)(또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 1-2 최대 컨텐츠 밝기 포인트(CP1-2)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다.
제 1-3 HDR PQ 커브(C1-3)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 3 최대 컨텐츠 밝기(예를 들면, 2000니트)인 경우를 위한 것이다. 제 1-3 HDR PQ 커브(C1-3)를 제 1-1 HDR PQ 커브(C1-1)와 대비하면, 제 1-3 무릎 포인트(K1-3) 및 제 1-3 최대 컨텐츠 밝기 포인트(CP1-3)가 정의될 수 있다. 제 1-3 HDR PQ 커브(C1-3)는 제 1-3 무릎 포인트(K1-3)부터 제 1-1 HDR PQ 커브(C1-1) (또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 1-3 최대 컨텐츠 밝기 포인트(CP1-3)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 1-3 무릎 포인트(K1-3)는 제 1-2 무릎 포인트(K1-2)보다 낮은 출력 영상 밝기에서 형성될 수 있고, 제 1-3 최대 컨텐츠 밝기 포인트(CP1-3)는 제 1-2 최대 컨텐츠 밝기 포인트(CP1-2)보다 밝은 컨텐츠 영상 밝기에서 형성될 수 있다.
제 1-4 HDR PQ 커브(C1-4)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 4 최대 컨텐츠 밝기(예를 들면, 4000니트)인 경우를 위한 것이다. 제 1-4 HDR PQ 커브(C1-4)를 제 1-1 HDR PQ 커브(C1-1)와 대비하면, 제 1-4 무릎 포인트(K1-4) 및 제 1-4 최대 컨텐츠 밝기 포인트(CP1-4)가 정의될 수 있다. 제 1-4 HDR PQ 커브(C1-4)는 제 1-4 무릎 포인트(K1-4)부터 제 1-1 HDR PQ 커브(C1-1)(또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 1-4 최대 컨텐츠 밝기 포인트(CP1-4)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 1-4 무릎 포인트(K1-4)는 제 1-3 무릎 포인트(K1-3)보다 낮은 출력 영상 밝기에서 형성될 수 있고, 제 1-4 최대 컨텐츠 밝기 포인트(CP1-4)는 제 1-3 최대 컨텐츠 밝기 포인트(CP1-3)보다 밝은 컨텐츠 영상 밝기에서 형성될 수 있다.
제 1-5 HDR PQ 커브(C1-5)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 5 최대 컨텐츠 밝기(예를 들면, 10000니트)인 경우를 위한 것이다. 제 1-5 HDR PQ 커브(C1-5)를 제 1-1 HDR PQ 커브(C1-1)와 대비하면, 제 1-5 무릎 포인트(K1-5) 및 제 1-5 최대 컨텐츠 밝기 포인트(CP1-5)가 정의될 수 있다. 제 1-5 HDR PQ 커브(C1-5)는 제 1-5 무릎 포인트(K1-5)부터 제 1-1 HDR PQ 커브(C1-1)(또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 1-5 최대 컨텐츠 밝기 포인트(CP1-5)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 1-5 무릎 포인트(K1-5)는 제 1-4 무릎 포인트(K1-4)보다 낮은 출력 영상 밝기에서 형성될 수 있고, 제 1-5 최대 컨텐츠 밝기 포인트(CP1-5)는 제 1-4 최대 컨텐츠 밝기 포인트(CP1-4)보다 밝은 컨텐츠 영상 밝기에서 형성될 수 있다.
도 3의 제 1 최대 출력 밝기 포인트(PP1), 제 1-2 최대 컨텐츠 밝기 포인트(CP1-2), 제 1-3 최대 컨텐츠 밝기 포인트(CP1-3), 제 1-4 최대 컨텐츠 밝기 포인트(CP1-4), 및 제 1-5 최대 컨텐츠 밝기 포인트(CP1-5)에 대해 도 4를 더욱 참조하여 설명하겠다. 도 4는 도 3의 최대 출력 밝기 포인트 및 최대 컨텐츠 밝기 포인트를 설명하기 위한 그래프이다.
도 4에서는 도 2에서 설명된 상기 HDR PQ 표준 커브(H) 및 제 1 커브(C1)을 도시하고 있다.
도 4에 도시된 바와 같이 상기 HDR PQ 표준 커브(H) 상에, 제 1 최대 컨텐츠 밝기(400니트), 제 2 최대 컨텐츠 밝기(1000니트), 제 3 최대 컨텐츠 밝기(2000니트), 제 4 최대 컨텐츠 밝기(4000니트), 및 제 5 최대 컨텐츠 밝기(10000니트)에 각각 대응되는 제 1 HDR PQ 포인트(HP1), 제 2 HDR PQ 포인트(HP2), 제 3 HDR PQ 포인트(HP3), 제 4 HDR PQ 포인트(HP4), 및 제 5 HDR PQ 포인트(HP5)가 표시될 수 있다.
제 1 HDR PQ 포인트(HP1), 제 2 HDR PQ 포인트(HP2), 제 3 HDR PQ 포인트(HP3), 제 4 HDR PQ 포인트(HP4), 및 제 5 HDR PQ 포인트(HP2) 각각에서 Y 축 방향으로 제 1 커브(C1) 상에 투사되는 점들이, 도 3에서 설명한 제 1 최대 출력 밝기 포인트(PP1), 제 1-2 최대 컨텐츠 밝기 포인트(CP1-2), 제 1-3 최대 컨텐츠 밝기 포인트(CP1-3), 제 1-4 최대 컨텐츠 밝기 포인트(CP1-4), 및 제 1-5 최대 컨텐츠 밝기 포인트(CP1-5)일 수 있다.
도 3의 제 1-2 무릎 포인트(K1-2), 제 1-3 무릎 포인트(K1-3), 제 1-4 무릎 포인트(K1-4), 및 제 1-5 무릎 포인트(K1-5)에 대해 도 5를 더욱 참조하여 설명하겠다. 도 5는 도 3의 무릎 포인트를 설명하기 위한 표이다.
도 5의 (5-1)에 도시된 바와 같이, 상기 영상표시기기의 최대 출력 밝기가 제 1 최대 출력 밝기(400니트)인 경우, 상기 컨텐츠 영상의 각 최대 컨텐츠 밝기(MaxcLL: Maximum Content Light Level)에 따른 무릎 포인트가 제 1 최대 출력 밝기의 백분율로 정의될 수 있다.
도 5의 (5-1)에서는 상기 컨텐츠 영상이 제 1 최대 컨텐츠 밝기(400니트)를 갖는 경우 제 1-1 무릎 포인트(K1-1)는 제 1 최대 출력 밝기의 100%인 것이 예시되어 있다. 이는 사실상 무릎 포인트가 없는 것으로 이해될 수도 있다. 또는, 제 1-1 무릎 포인트(K1-1)는 제 1 최대 출력 밝기 포인트(PP1)와 같은 것으로 이해될 수 있다.
그리고, 상기 컨텐츠 영상이 제 2 최대 컨텐츠 밝기(1000니트)를 갖는 경우 제 1-2 무릎 포인트(K1-2)는 제 1 최대 출력 밝기의 62.5%이고, 상기 컨텐츠 영상이 제 3 최대 컨텐츠 밝기(2000니트)를 갖는 경우 제 1-3 무릎 포인트(K1-3)는 제 1 최대 출력 밝기의 60%이고, 상기 컨텐츠 영상이 제 4 최대 컨텐츠 밝기(4000니트)를 갖는 경우 제 1-4 무릎 포인트(K1-4)는 제 1 최대 출력 밝기의 50%이고, 상기 컨텐츠 영상이 제 5 최대 컨텐츠 밝기(10000니트)를 갖는 경우 제 1-5 무릎 포인트(K1-5)는 제 1 최대 출력 밝기의 40%일 수 있다. 상기 수치는 반복된 임상 실험을 통해 구해진 것으로서, 임상 실험 결과 제 1 내지 5 최대 컨텐츠 밝기를 각각 갖는 상기 컨텐츠 영상들이 제 1 최대 출력 밝기를 갖는 상기 영상표시기기(100)에서 디스플레이되는 경우 사용자가 가장 편안하고 선명하게 상기 컨텐츠 영상을 볼 수 있도록 하는 상기 무릎 포인트들이 도출되었다.
상기 컨텐츠 영상이 상기 영상표시기기(100)에서 디스플레이되는 경우 상기 컨텐츠 영상의 상기 최대 컨텐츠 밝기에 관한 정보가 상기 영상표시기기(100)에 제공될 수 있음은 전술한 바와 같다. 그런데, 상기 컨텐츠 영상의 상기 최대 컨텐츠 밝기가 제 1 최대 컨텐츠 밝기(400니트) 내지 제 5 최대 컨텐츠 밝기(10000니트) 중 어느 것에도 해당하지 않을 수 있다.
따라서, 도 5의 (5-2)에 도시된 바와 같이 상기 무릎 포인트가 정의될 수도 있다.
즉, 도 5의 (5-2)에서는, 상기 컨텐츠 영상이 제 1 최대 컨텐츠 밝기 범위(400니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 1-1 무릎 포인트(미도시)는 제 1 최대 출력 밝기의 100%이고, 상기 컨텐츠 영상이 제 2 최대 컨텐츠 밝기 범위(400니트 초과 1000니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 1-2 무릎 포인트(K1-2)는 제 1 최대 출력 밝기의 62.5%이고, 상기 컨텐츠 영상이 제 3 최대 컨텐츠 밝기 범위(1000니트 초과 2000 니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 1-3 무릎 포인트(K1-3)는 제 1 최대 출력 밝기의 60%이고, 상기 컨텐츠 영상이 제 4 최대 컨텐츠 밝기 범위(2000니트 초과 4000니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 1-4 무릎 포인트(K1-4)는 제 1 최대 출력 밝기의 50%이고, 상기 컨텐츠 영상이 제 5 최대 컨텐츠 밝기(4000니트 초과 10000니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 1-5 무릎 포인트(K1-5)는 제 1 최대 출력 밝기의 40%일 수 있음이 예시되어 있다.
이상에서는 상기 영상표시기기(100)의 최대 출력 밝기가 제 1 최대 출력 밝기(400니트)인 경우를 위한 HDR 영상용 EOTF 커브에 대해 살펴 보았다. 이하에서는 도 6을 참조하여 상기 영상표시기기(100)의 최대 출력 밝기가 제 2 최대 출력 밝기(예를 들면, 500니트)인 경우를 위한 HDR 영상용 EOTF 커브에 대해 살펴 보았다.
도 6는 본 개시의 일실시예에 따른 HDR 영상용 EOTF 커브를 도시한다. 도 6에서는 EOTF의 예시로서 HDR PQ 함수에 따른 HDR PQ 커브가 예시적으로 도시되어 있다. 도 6에서 X축은 HDR용 컨텐츠 영상의 밝기를 나타내고, Y축은 영상표시기기의 출력 영상 밝기를 나타낸다. 도 6에서는 상기 영상표시기기의 최대 출력 밝기가 제 2 최대 출력 밝기(500니트)인 것으로 가정하겠다.
제 2 최대 출력 밝기를 갖는 상기 영상표시기기(100)를 위해 복수 개의 HDR PQ 커브가 생성되어 있을 수 있다. 예를 들면, 상기 영상표시기기(100)에서 디스플레이될 컨텐츠 영상의 최대 컨텐츠 밝기에 따라 상기 복수 개의 HDR PQ 커브 중에서 하나가 선택되어 상기 영상표시기기(100)에 상기 컨텐츠 영상의 출력을 위해 사용될 수 있다. 상기 최대 컨텐츠 밝기는 상기 컨텐츠 영상 내에 메타 데이터로서 저장되어 있을 수 있다. 따라서, 상기 컨텐츠 영상이 상기 영상표시기기(100)에서 디스플레이되는 경우 상기 컨텐츠 영상의 상기 최대 컨텐츠 밝기에 관한 정보가 상기 영상표시기기(100)에 제공될 수 있다. 그러면, 상기 영상표시기기(100)의 상기 제어부(170)는 상기 복수 개의 HDR PQ 커브 중에서 상기 최대 컨텐츠 밝기에 해당되는 HDR PQ 커브를 선택하고, 상기 선택된 HDR PQ 커브에 따라서 상기 컨텐츠 영상을 디스플레이할 수 있다.
도 6에서는 제 2 최대 출력 밝기를 위해 5개의 HDR PQ 커브(C2-1, C2-2, C2-3, C2-4, C2-5)가 예시되어 있다. 이보다 적거나 많은 HDR PQ 커브가 생성되어 있을 수 있다.
제 2-1 HDR PQ 커브(C2-1)은 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 6 최대 컨텐츠 밝기(500니트)로서 제 2 최대 출력 밝기(500니트)와 동일한 경우를 위한 것이다. 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 상기 영상표시기기(100)의 최대 출력 밝기와 동일한 경우, 상기 HDR PQ 표준 커브(H)에 따른 제 2 커브(C2)를 따르더라도 제 6 최대 컨텐츠 밝기의 상기 컨텐츠 영상이 상기 영상표시기기(100)에서 포화됨 없이 디스플레이될 수 있다. 따라서, 제 2-1 HDR PQ 커브(C2-1)은 도 2의 제 2 커브(C2)와 동일할 수 있다. 제 2-1 HDR PQ 커브(C2-1)를 상기 HDR PQ 표준 커브(H)와 대비하면, 제 2 최대 출력 밝기 포인트(PP2)가 정의될 수 있다. 제 2-1 HDR PQ 커브(C2-1)는 제 2 최대 출력 밝기 포인트(PP2)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 2 최대 출력 밝기 포인트(PP2)은 제 2-1 HDR PQ 커브(C2-1)에 있어서 최대 컨텐츠 밝기 포인트, 즉 제 2-1 최대 컨텐츠 밝기 포인트(CP2-1)로도 이해될 수도 있다.
제 2-2 HDR PQ 커브(C2-2)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 2 최대 컨텐츠 밝기(1000니트)인 경우를 위한 것이다. 제 2-2 HDR PQ 커브(C2-2)를 제 2-1 HDR PQ 커브(C2-1)와 대비하면, 제 2-2 무릎(knee) 포인트(K2-2) 및 제 2-2 최대 컨텐츠 밝기 포인트(CP2-2)가 정의될 수 있다. 제 2-2 HDR PQ 커브(C2-2)는 제 2-2 무릎 포인트(K2-2)보다 밝은 컨텐츠 영상 밝기부터 제 2-1 HDR PQ 커브(C2-1) (또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 2-2 최대 컨텐츠 밝기 포인트(CP2-2)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다.
제 2-3 HDR PQ 커브(C2-3)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 3 최대 컨텐츠 밝기(2000니트)인 경우를 위한 것이다. 제 2-3 HDR PQ 커브(C2-3)를 제 2-1 HDR PQ 커브(C2-1)와 대비하면, 제 2-3 무릎 포인트(K2-3) 및 제 2-3 최대 컨텐츠 밝기 포인트(CP2-3)가 정의될 수 있다. 제 2-3 HDR PQ 커브(C2-3)는 제 2-3 무릎 포인트(K2-3)부터 제 2-1 HDR PQ 커브(C2-1) (또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 2-3 최대 컨텐츠 밝기 포인트(CP2-3)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 2-3 무릎 포인트(K2-3)는 제 2-2 무릎 포인트(K2-2)보다 낮은 출력 영상 밝기에서 형성될 수 있고, 제 2-3 최대 컨텐츠 밝기 포인트(CP2-3)는 제 2-2 최대 컨텐츠 밝기 포인트(CP2-2)보다 밝은 컨텐츠 영상 밝기에서 형성될 수 있다.
제 2-4 HDR PQ 커브(C2-4)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 4 최대 컨텐츠 밝기(4000니트)인 경우를 위한 것이다. 제 2-4 HDR PQ 커브(C2-4)를 제 2-1 HDR PQ 커브(C2-1)와 대비하면, 제 2-4 무릎 포인트(K2-4) 및 제 2-4 최대 컨텐츠 밝기 포인트(CP2-4)가 정의될 수 있다. 제 2-4 HDR PQ 커브(C2-4)는 제 2-4 무릎 포인트(K2-4)부터 제 2-1 HDR PQ 커브(C2-1) (또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 2-4 최대 컨텐츠 밝기 포인트(CP2-4)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 2-4 무릎 포인트(K2-4)는 제 2-3 무릎 포인트(K2-3)보다 낮은 출력 영상 밝기에서 형성될 수 있고, 제 2-4 최대 컨텐츠 밝기 포인트(CP2-4)는 제 2-3 최대 컨텐츠 밝기 포인트(CP2-3)보다 밝은 컨텐츠 영상 밝기에서 형성될 수 있다.
제 2-5 HDR PQ 커브(C2-5)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 5 최대 컨텐츠 밝기(예를 들면, 10000니트)인 경우를 위한 것이다. 제 2-5 HDR PQ 커브(C2-5)를 제 2-1 HDR PQ 커브(C2-1)와 대비하면, 제 2-5 무릎 포인트(K2-5) 및 제 2-5 최대 컨텐츠 밝기 포인트(CP2-5)가 정의될 수 있다. 제 2-5 HDR PQ 커브(C2-5)는 제 2-5 무릎 포인트(K2-5)부터 제 2-1 HDR PQ 커브(C2-1) (또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 2-5 최대 컨텐츠 밝기 포인트(CP2-5)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 2-5 무릎 포인트(K2-5)는 제 2-4 무릎 포인트(K2-4)보다 낮은 출력 영상 밝기에서 형성될 수 있고, 제 2-5 최대 컨텐츠 밝기 포인트(CP2-5)는 제 2-4 최대 컨텐츠 밝기 포인트(CP2-4)보다 밝은 컨텐츠 영상 밝기에서 형성될 수 있다.
도 6의 제 2 최대 출력 밝기 포인트(PP2), 제 2-2 최대 컨텐츠 밝기 포인트(CP2-2), 제 2-3 최대 컨텐츠 밝기 포인트(CP2-3), 제 2-4 최대 컨텐츠 밝기 포인트(CP2-4), 및 제 2-5 최대 컨텐츠 밝기 포인트(CP2-5)에 대해 도 7을 더욱 참조하여 설명하겠다. 도 7은 도 6의 최대 출력 밝기 포인트 및 최대 컨텐츠 밝기 포인트를 설명하기 위한 그래프이다.
도 7에서는 도 2에서 설명된 상기 HDR PQ 표준 커브(H) 및 제 2 커브(C2)을 도시하고 있다.
도 7에 도시된 바와 같이 상기 HDR PQ 표준 커브(H) 상에, 제 6 최대 컨텐츠 밝기(500니트), 제 2 최대 컨텐츠 밝기(1000니트), 제 3 최대 컨텐츠 밝기(2000니트), 제 4 최대 컨텐츠 밝기(4000니트), 및 제 5 최대 컨텐츠 밝기(10000니트)에 각각 대응되는 제 6 HDR PQ 포인트(HP6), 제 2 HDR PQ 포인트(HP2), 제 3 HDR PQ 포인트(HP3), 제 4 HDR PQ 포인트(HP4), 및 제 5 HDR PQ 포인트(HP5)가 표시될 수 있다.
제 6 HDR PQ 포인트(HP6), 제 2 HDR PQ 포인트(HP2), 제 3 HDR PQ 포인트(HP3), 제 4 HDR PQ 포인트(HP4), 및 제 5 HDR PQ 포인트(HP2) 각각에서 Y 축 방향으로 제 2 커브(C2) 상에 투사되는 점들이, 도 6에서 설명한 제 2 최대 출력 밝기 포인트(PP2), 제 2-2 최대 컨텐츠 밝기 포인트(CP2-2), 제 2-3 최대 컨텐츠 밝기 포인트(CP2-3), 제 2-4 최대 컨텐츠 밝기 포인트(CP2-4), 및 제 2-5 최대 컨텐츠 밝기 포인트(CP2-5)일 수 있다.
도 6의 제 2-2 무릎 포인트(K2-2), 제 2-3 무릎 포인트(K2-3), 제 2-4 무릎 포인트(K2-4), 및 제 2-5 무릎 포인트(K2-5)에 대해 도 8을 더욱 참조하여 설명하겠다. 도 8는 도 6의 무릎 포인트를 설명하기 위한 표이다.
도 8의 (8-1)에 도시된 바와 같이, 상기 영상표시기기의 최대 출력 밝기가 제 2 최대 출력 밝기(500니트)인 경우, 상기 컨텐츠 영상의 각 최대 컨텐츠 밝기(MaxcLL: Maximum Content Light Level)에 따른 무릎 포인트가 제 2 최대 출력 밝기의 백분율로 정의될 수 있다.
도 8의 (8-1)에서는 상기 컨텐츠 영상이 제 6 최대 컨텐츠 밝기(500니트)를 갖는 경우 제 2-1 무릎 포인트(K2-1)는 제 2 최대 출력 밝기의 100%인 것이 예시되어 있다. 이는 사실상 무릎 포인트가 없는 것으로 이해될 수도 있다. 또는 제 2-1 무릎 포인트(K2-1)는 제 2 최대 출력 밝기 포인트(PP2)와 같은 것으로 이해될 수 있다.
그리고, 상기 컨텐츠 영상이 제 2 최대 컨텐츠 밝기(1000니트)를 갖는 경우 제 2-2 무릎 포인트(K2-2)는 제 2 최대 출력 밝기의 50%이고, 상기 컨텐츠 영상이 제 3 최대 컨텐츠 밝기(2000니트)를 갖는 경우 제 2-3 무릎 포인트(K2-3)는 제 2 최대 출력 밝기의 45%이고, 상기 컨텐츠 영상이 제 4 최대 컨텐츠 밝기(4000니트)를 갖는 경우 제 2-4 무릎 포인트(K2-4)는 제 2 최대 출력 밝기의 40%이고, 상기 컨텐츠 영상이 제 5 최대 컨텐츠 밝기(10000니트)를 갖는 경우 제 2-5 무릎 포인트(K2-5)는 제 2 최대 출력 밝기의 35%일 수 있다. 상기 수치는 반복된 임상 실험을 통해 구해진 것으로서, 임상 실험 결과 제 6 최대 컨텐츠 밝기 및 제 2 내지 5 최대 컨텐츠 밝기를 각각 갖는 상기 컨텐츠 영상들이 제 2 최대 출력 밝기를 갖는 상기 영상표시기기(100)에서 디스플레이되는 경우 사용자가 가장 편안하고 선명하게 상기 컨텐츠 영상을 볼 수 있도록 하는 상기 무릎 포인트들이 도출되었다.
상기 컨텐츠 영상이 상기 영상표시기기(100)에서 디스플레이되는 경우 상기 컨텐츠 영상의 상기 최대 컨텐츠 밝기에 관한 정보가 상기 영상표시기기(100)에 제공될 수 있음은 전술한 바와 같다. 그런데, 상기 컨텐츠 영상의 상기 최대 컨텐츠 밝기가 제 6 최대 컨텐츠 밝기(500니트) 및 제 2 최대 컨텐츠 밝기(1000니트) 내지 제 5 최대 컨텐츠 밝기(10000니트) 중 어느 것에도 해당하지 않을 수 있다.
따라서, 도 8의 (8-2)에 도시된 바와 같이 상기 무릎 포인트가 정의될 수도 있다.
즉, 도 8의 (8-2)에서는, 상기 컨텐츠 영상이 제 6 최대 컨텐츠 밝기 범위(500니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 2-1 무릎 포인트(미도시)는 제 2 최대 출력 밝기의 100%이고, 상기 컨텐츠 영상이 제 2 최대 컨텐츠 밝기 범위(500니트 초과 1000니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 2-2 무릎 포인트(K2-2)는 제 2 최대 출력 밝기의 50%이고, 상기 컨텐츠 영상이 제 3 최대 컨텐츠 밝기 범위(1000니트 초과 2000 니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 2-3 무릎 포인트(K2-3)는 제 2 최대 출력 밝기의 45%이고, 상기 컨텐츠 영상이 제 4 최대 컨텐츠 밝기 범위(2000니트 초과 4000니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 2-4 무릎 포인트(K2-4)는 제 2 최대 출력 밝기의 40%이고, 상기 컨텐츠 영상이 제 5 최대 컨텐츠 밝기(4000니트 초과 10000니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 2-5 무릎 포인트(K2-5)는 제 2 최대 출력 밝기의 35%일 수 있음이 예시되어 있다.
이상에서는 상기 영상표시기기(100)의 최대 출력 밝기가 제 2 최대 출력 밝기(500니트)인 경우를 위한 HDR 영상용 EOTF 커브에 대해 살펴 보았다. 이하에서는 도 9을 참조하여 상기 영상표시기기(100)의 최대 출력 밝기가 제 3 최대 출력 밝기(예를 들면, 700니트)인 경우를 위한 HDR 영상용 EOTF 커브에 대해 살펴 보았다.
도 9는 본 개시의 일실시예에 따른 HDR 영상용 EOTF 커브를 도시한다. 도 6에서는 EOTF의 예시로서 HDR PQ 함수에 따른 HDR PQ 커브가 예시적으로 도시되어 있다. 도 9에서 X축은 HDR용 컨텐츠 영상의 밝기를 나타내고, Y축은 영상표시기기의 출력 영상 밝기를 나타낸다. 도 9에서는 상기 영상표시기기의 최대 출력 밝기가 제 3 최대 출력 밝기(700니트)인 것으로 가정하겠다.
제 3 최대 출력 밝기를 갖는 상기 영상표시기기(100)를 위해 복수 개의 HDR PQ 커브가 생성되어 있을 수 있다. 예를 들면, 상기 영상표시기기(100)에서 디스플레이될 컨텐츠 영상의 최대 컨텐츠 밝기에 따라 상기 복수 개의 HDR PQ 커브 중에서 하나가 선택되어 상기 영상표시기기(100)에 상기 컨텐츠 영상의 출력을 위해 사용될 수 있다. 상기 최대 컨텐츠 밝기는 상기 컨텐츠 영상 내에 메타 데이터로서 저장되어 있을 수 있다. 따라서, 상기 컨텐츠 영상이 상기 영상표시기기(100)에서 디스플레이되는 경우 상기 컨텐츠 영상의 상기 최대 컨텐츠 밝기에 관한 정보가 상기 영상표시기기(100)에 제공될 수 있다. 그러면, 상기 영상표시기기(100)의 상기 제어부(170)는 상기 복수 개의 HDR PQ 커브 중에서 상기 최대 컨텐츠 밝기에 해당되는 HDR PQ 커브를 선택하고, 상기 선택된 HDR PQ 커브에 따라서 상기 컨텐츠 영상을 디스플레이할 수 있다.
도 9에서는 제 5 최대 출력 밝기를 위해 5개의 HDR PQ 커브(C3-1, C3-2, C3-3, C3-4, C3-5)가 예시되어 있다. 이보다 적거나 많은 HDR PQ 커브가 생성되어 있을 수 있다.
제 3-1 HDR PQ 커브(C3-1)은 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 7 최대 컨텐츠 밝기(700니트)로서 제 3 최대 출력 밝기(700니트)와 동일한 경우를 위한 것이다. 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 상기 영상표시기기(100)의 최대 출력 밝기와 동일한 경우, 상기 HDR PQ 표준 커브(H)에 따른 제 3 커브(C3)를 따르더라도 제 7 최대 컨텐츠 밝기의 상기 컨텐츠 영상이 상기 영상표시기기(100)에서 포화됨 없이 디스플레이될 수 있다. 따라서, 제 3-1 HDR PQ 커브(C3-1)은 도 2의 제 3 커브(C3)와 동일할 수 있다. 제 3-1 HDR PQ 커브(C3-1)를 상기 HDR PQ 표준 커브(H)와 대비하면, 제 3 최대 출력 밝기 포인트(PP3)가 정의될 수 있다. 제 3-1 HDR PQ 커브(C3-1)는 제 3 최대 출력 밝기 포인트(PP3)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 3 최대 출력 밝기 포인트(PP3)은 제 3-1 HDR PQ 커브(C3-1)에 있어서 최대 컨텐츠 밝기 포인트, 즉 제 3-1 최대 컨텐츠 밝기 포인트(CP3-1)로도 이해될 수도 있다.
제 3-2 HDR PQ 커브(C3-2)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 2 최대 컨텐츠 밝기(1000니트)인 경우를 위한 것이다. 제 3-2 HDR PQ 커브(C3-2)를 제 3-1 HDR PQ 커브(C3-1)와 대비하면, 제 3-2 무릎(knee) 포인트(K3-2) 및 제 3-2 최대 컨텐츠 밝기 포인트(CP3-2)가 정의될 수 있다. 제 3-2 HDR PQ 커브(C3-2)는 제 3-2 무릎 포인트(K3-2)보다 밝은 컨텐츠 영상 밝기부터 제 3-1 HDR PQ 커브(C3-1) (또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 3-2 최대 컨텐츠 밝기 포인트(CP3-2)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다.
제 3-3 HDR PQ 커브(C3-3)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 3 최대 컨텐츠 밝기(2000니트)인 경우를 위한 것이다. 제 3-3 HDR PQ 커브(C3-3)를 제 3-1 HDR PQ 커브(C3-1)와 대비하면, 제 3-3 무릎 포인트(K3-3) 및 제 3-3 최대 컨텐츠 밝기 포인트(CP3-3)가 정의될 수 있다. 제 3-3 HDR PQ 커브(C3-3)는 제 3-3 무릎 포인트(K3-3)부터 제 3-1 HDR PQ 커브(C3-1) (또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 3-3 최대 컨텐츠 밝기 포인트(CP3-3)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 3-3 무릎 포인트(K2-3)는 제 3-2 무릎 포인트(K3-2)보다 낮은 출력 영상 밝기에서 형성될 수 있고, 제 3-3 최대 컨텐츠 밝기 포인트(CP3-3)는 제 3-2 최대 컨텐츠 밝기 포인트(CP3-2)보다 밝은 컨텐츠 영상 밝기에서 형성될 수 있다.
제 3-4 HDR PQ 커브(C3-4)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 4 최대 컨텐츠 밝기(4000니트)인 경우를 위한 것이다. 제 3-4 HDR PQ 커브(C3-4)를 제 3-1 HDR PQ 커브(C3-1)와 대비하면, 제 3-4 무릎 포인트(K3-4) 및 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4)가 정의될 수 있다. 제 3-4 HDR PQ 커브(C3-4)는 제 3-4 무릎 포인트(K3-4)부터 제 3-1 HDR PQ 커브(C3-1) (또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 3-4 무릎 포인트(K3-4)는 제 3-3 무릎 포인트(K3-3)보다 낮은 출력 영상 밝기에서 형성될 수 있고, 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4)는 제 3-3 최대 컨텐츠 밝기 포인트(CP3-3)보다 밝은 컨텐츠 영상 밝기에서 형성될 수 있다.
제 3-5 HDR PQ 커브(C3-5)는 상기 컨텐츠 영상의 최대 컨텐츠 밝기가 제 5 최대 컨텐츠 밝기(예를 들면, 10000니트)인 경우를 위한 것이다. 제 3-5 HDR PQ 커브(C3-5)를 제 3-1 HDR PQ 커브(C3-1)와 대비하면, 제 3-5 무릎 포인트(K3-5) 및 제 3-5 최대 컨텐츠 밝기 포인트(CP3-5)가 정의될 수 있다. 제 3-5 HDR PQ 커브(C3-5)는 제 3-5 무릎 포인트(K3-5)부터 제 3-1 HDR PQ 커브(C3-1) (또는 상기 HDR PQ 표준 커브(H))에서 분기될 수 있고, 제 3-5 최대 컨텐츠 밝기 포인트(CP3-5)보다 밝은 컨텐츠 영상 밝기에 대해 클립핑(clipping)될 수 있다. 제 3-5 무릎 포인트(K3-5)는 제 3-4 무릎 포인트(K3-4)보다 낮은 출력 영상 밝기에서 형성될 수 있고, 제 3-5 최대 컨텐츠 밝기 포인트(CP3-5)는 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4)보다 밝은 컨텐츠 영상 밝기에서 형성될 수 있다.
도 9의 제 3 최대 출력 밝기 포인트(PP3), 제 3-2 최대 컨텐츠 밝기 포인트(CP3-2), 제 3-3 최대 컨텐츠 밝기 포인트(CP3-3), 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4), 및 제 3-5 최대 컨텐츠 밝기 포인트(CP3-5)에 대해 도 10을 더욱 참조하여 설명하겠다. 도 10은 도 9의 최대 출력 밝기 포인트 및 최대 컨텐츠 밝기 포인트를 설명하기 위한 그래프이다.
도 10에서는 도 2에서 설명된 상기 HDR PQ 표준 커브(H) 및 제 3 커브(C3)을 도시하고 있다.
도 10에 도시된 바와 같이 상기 HDR PQ 표준 커브(H) 상에, 제 7 최대 컨텐츠 밝기(700니트), 제 2 최대 컨텐츠 밝기(1000니트), 제 3 최대 컨텐츠 밝기(2000니트), 제 4 최대 컨텐츠 밝기(4000니트), 및 제 5 최대 컨텐츠 밝기(10000니트)에 각각 대응되는 제 7 HDR PQ 포인트(HP7), 제 2 HDR PQ 포인트(HP2), 제 3 HDR PQ 포인트(HP3), 제 4 HDR PQ 포인트(HP4), 및 제 5 HDR PQ 포인트(HP5)가 표시될 수 있다.
제 7 HDR PQ 포인트(HP7), 제 2 HDR PQ 포인트(HP2), 제 3 HDR PQ 포인트(HP3), 제 4 HDR PQ 포인트(HP4), 및 제 5 HDR PQ 포인트(HP2) 각각에서 Y 축 방향으로 제 3 커브(C3) 상에 투사되는 점들이, 도 9에서 설명한 제 3 최대 출력 밝기 포인트(PP3), 제 3-2 최대 컨텐츠 밝기 포인트(CP3-2), 제 3-3 최대 컨텐츠 밝기 포인트(CP3-3), 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4), 및 제 3-5 최대 컨텐츠 밝기 포인트(CP3-5)일 수 있다.
도 9의 제 3-2 무릎 포인트(K3-2), 제 3-3 무릎 포인트(K3-3), 제 3-4 무릎 포인트(K3-4), 및 제 3-5 무릎 포인트(K3-5)에 대해 도 11을 더욱 참조하여 설명하겠다. 도 11은 도 9의 무릎 포인트를 설명하기 위한 표이다.
도 11의 (11-1)에서는 상기 컨텐츠 영상이 제 7 최대 컨텐츠 밝기(700니트)를 갖는 경우 제 3-1 무릎 포인트(미도시)는 제 3 최대 출력 밝기의 100%인 것이 예시되어 있다. 이는 사실상 무릎 포인트가 없는 것으로 이해될 수도 있다. 또는 제 3-1 무릎 포인트(K3-1)는 제 3 최대 출력 밝기 포인트(PP3)와 같은 것으로 이해될 수 있다.
그리고, 상기 컨텐츠 영상이 제 2 최대 컨텐츠 밝기(1000니트)를 갖는 경우 제 3-2 무릎 포인트(K3-2)는 제 3 최대 출력 밝기의 50%이고, 상기 컨텐츠 영상이 제 3 최대 컨텐츠 밝기(2000니트)를 갖는 경우 제 3-3 무릎 포인트(K3-3)는 제 3 최대 출력 밝기의 45%이고, 상기 컨텐츠 영상이 제 4 최대 컨텐츠 밝기(4000니트)를 갖는 경우 제 3-4 무릎 포인트(K3-4)는 제 3 최대 출력 밝기의 40%이고, 상기 컨텐츠 영상이 제 5 최대 컨텐츠 밝기(10000니트)를 갖는 경우 제 3-5 무릎 포인트(K3-5)는 제 3 최대 출력 밝기의 30%일 수 있다. 상기 수치는 반복된 임상 실험을 통해 구해진 것으로서, 임상 실험 결과 제 7 최대 컨텐츠 밝기 및 제 2 내지 5 최대 컨텐츠 밝기를 각각 갖는 상기 컨텐츠 영상들이 제 3 최대 출력 밝기를 갖는 상기 영상표시기기(100)에서 디스플레이되는 경우 사용자가 가장 편안하고 선명하게 상기 컨텐츠 영상을 볼 수 있도록 하는 상기 무릎 포인트들이 도출되었다.
상기 컨텐츠 영상이 상기 영상표시기기(100)에서 디스플레이되는 경우 상기 컨텐츠 영상의 상기 최대 컨텐츠 밝기에 관한 정보가 상기 영상표시기기(100)에 제공될 수 있음은 전술한 바와 같다. 그런데, 상기 컨텐츠 영상의 상기 최대 컨텐츠 밝기가 제 7 최대 컨텐츠 밝기(700니트) 및 제 2 최대 컨텐츠 밝기(1000니트) 내지 제 5 최대 컨텐츠 밝기(10000니트) 중 어느 것에도 해당하지 않을 수 있다.
따라서, 도 11의 (11-2)에 도시된 바와 같이 상기 무릎 포인트가 정의될 수도 있다.
즉, 도 8의 (8-2)에서는, 상기 컨텐츠 영상이 제 7 최대 컨텐츠 밝기 범위(700니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 3-1 무릎 포인트(미도시)는 제 3 최대 출력 밝기의 100%이고, 상기 컨텐츠 영상이 제 2 최대 컨텐츠 밝기 범위(700니트 초과 1000니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 3-2 무릎 포인트(K3-2)는 제 3 최대 출력 밝기의 50%이고, 상기 컨텐츠 영상이 제 3 최대 컨텐츠 밝기 범위(1000니트 초과 2000 니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 3-3 무릎 포인트(K3-3)는 제 3 최대 출력 밝기의 45%이고, 상기 컨텐츠 영상이 제 4 최대 컨텐츠 밝기 범위(2000니트 초과 4000니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 3-4 무릎 포인트(K3-4)는 제 3 최대 출력 밝기의 40%이고, 상기 컨텐츠 영상이 제 5 최대 컨텐츠 밝기(4000니트 초과 10000니트 이하)에 해당하는 최대 컨텐츠 밝기를 갖는 경우 제 3-5 무릎 포인트(K3-5)는 제 3 최대 출력 밝기의 30%일 수 있음이 예시되어 있다.
이상에서는 상기 영상표시기기의 상기 디스플레이 패널의 상기 최대 출력 밝기 및 컨텐츠 영상의 최대 컨텐츠 밝기에 따라 HDR 영상용 EOTF 커브가 다르게 구비될 수 있음이 설명되었고, 각 HDR 영상용 EOTF 커브에 대해 무릎 포인트 및 최대 컨텐츠 밝기 포인트가 정의될 수 있음이 설명되었다. 이하에서는 각 HDR 영상용 EOTF 커브에서 무릎 포인트 및 최대 컨텐츠 밝기 포인트 사이의 곡선은 어떻게 정의될 수 있는지에 대해 도 12를 더욱 참조하여 설명하겠다. 도 12는 도 9의 제 3-1 HDR 커브 및 제 3-4 HDR 커브를 도시한다.
각 HDR 영상용 EOTF 커브에서 무릎 포인트 및 최대 컨텐츠 밝기 포인트 사이의 곡선에 대해 앞서 설명한 제 3-4 HDR 커브(C3-4)를 예시로 설명하겠다. 이는 다른 HDR 커브에도 적용될 수 있음은 물론이다.
상기 영상표시기기(100)의 최대 출력 밝기가 제 3 최대 출력 밝기(700니트)인 경우, 제 3-1 HDR 커브(C3-1)에서 제 3 최대 출력 밝기 포인트(PP3)가 정의될 수 있고, 제 3-4 HDR 커브(C3-4)에서 제 3-4 무릎 포인트(K3-4) 및 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4)가 정의될 수 있음은 앞서 설명한 바와 같다.
제 3 최대 출력 밝기 포인트(PP3), 제 3-4 무릎 포인트(K3-4), 및 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4)의 세 점을 이용한 2차 베지에 곡선(Quadractic Bezier Curve)에 기반하여, 제 3-4 무릎 포인트(K3-4) 및 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4) 사이의 곡선(B3-4)이 제 3-4 HDR 커브(C3-4)에서 정의될 수 있다. 상기 2차 베지에 곡선을 위한 예시적 수학식은 아래와 같다.
Figure PCTKR2022017613-appb-img-000001
여기서
Figure PCTKR2022017613-appb-img-000002
,
Figure PCTKR2022017613-appb-img-000003
, 및
Figure PCTKR2022017613-appb-img-000004
는 각각 제 3-4 무릎 포인트(K3-4), 제 3 최대 출력 밝기 포인트(PP3), 및 제 3-4 최대 컨텐츠 밝기 포인트(CP3-4)에 대응될 수 있다. 상기 방정식이 변형되어 사용될 수도 있다.
이하, 도 13을 참조하여, 상기 영상표시기기(100)을 위한 HDR 영상용 EOTF의 생성 프로세스에 대해 설명하겠다. 도 13은 본 개시의 일실시예에 따른 HDR 영상용 EOTF의 생성 프로세스를 도시한다.
상기 영상표시기기(100)를 위한 최대 출력 밝기가 정의될 수 있다[S131]. 상기 최대 출력 밝기는 상기 영상표시기기(100)의 상기 디스플레이 패널의 성능 및 사용자 선호도 중 적어도 하나에 의해 정의될 수 있다.
상기 영상표시기기(100)를 위해 복수 개의 최대 출력 밝기가 정의되고, 이들 중에서 사용자에 의해 선택되는 한 최대 출력 밝기에 따라 상기 영상표시기기(100)가 동작할 수도 있다. 예를 들면, 상기 영상표시기기(100)의 상기 제어부(170)는 최대 출력 밝기 설정을 위해 “보통(normal)”, “높음(high)”, 및 “매우 높음(very high)”의 메뉴들을 유저인터페이스 화면을 통해 사용자에게 제공할 수 있다. 상기 제어부(170)는, 상기 “보통(normal)” 메뉴가 선택되는 경우 상기 최대 출력 밝기를 제 1 최대 출력 밝기(예를 들면, 400니트)로 설정하고, 상기 “높음(high)” 메뉴가 선택되는 경우 상기 최대 출력 밝기를 제 2 최대 출력 밝기(예를 들면, 500니트)로 설정하고, 상기 “매우 높음(very high)” 메뉴가 선택되는 경우 상기 최대 출력 밝기를 제 3 최대 출력 밝기(예를 들면, 700니트)로 설정할 수 있다.
그 다음, 상기 HDR 영상용 EOTF의 무릎 포인트를 위한 상기 최대 출력 밝기의 백분율이 정해질 수 있다[S132]. 상기 백분율은 상기 최대 출력 밝기 및 상기 최대 컨텐츠 밝기에 따라 임상 실험을 통해 정해질 수 있음이 전술한 바와 같다.
그 다음, 상기 HDR PQ 표준 커브(H) 및 상기 최대 출력 밝기에 기반하여, 각 최대 컨텐츠 밝기에 해당하는 최대 컨텐츠 밝기 포인트와 무릎 포인트가 결정될 수 있다[S133].
그 다음, 상기 최대 컨텐츠 밝기 포인트와 상기 무릎 포인트에 기반하여 각 최대 컨텐츠 밝기에 해당하는 HDR 영상용 EOTF 커브가 생성될 수 있다[S134].
이와 같은 방식으로, 모든 최대 출력 밝기 및 모든 최대 컨텐츠 밝기에 해당하는 복수의 HDR 영상용 EOTF 커브가 생성될 수 있다[S135]. 상기 생성된 HDR 영상용 EOTF 커브 및 이와 관련된 데이터는 상기 영상표시기기(100)의 상기 저장부(140)에 저장될 수 있다.
상기 영상표시기기(100)에서 상기 HDR 영상용 EOTF 커브가 사용자의 선호에 따라 캘리브레이션될 수도 있다. 이에 대해 도 14를 더욱 참조하여 설명하겠다. 도 14는 본 개시의 일실시예에 따른 HDR 영상용 EOTF 커브를 캘리브레이션하기 위한 유저인터페이스를 도시한다.
상기 영상표시기기(100)의 상기 제어부(170)는 상기 사용자 인터페이스부(150)를 통한 소정의 사용자 입력에 반응하여 도 14에 도시된 바와 같은 HDR 영상용 EOTF 커브를 캘리브레이션하기 위한 유저인터페이스(1000)를 상기 디스플레이(180)에 디스플레이하도록 제어할 수 있다.
먼저, 사용자는 상기 유저인터페이스(1000)에서 최대 출력 밝기 설정(1100)에서 “보통(normal)”, “높음(high)”, 및 “매우 높음(very high)”의 메뉴들 중 하나를 선택할 수 있다. 도 14에서는 상기 “높음(high)” 메뉴가 선택되어 상기 영상표시기기(100)의 상기 최대 출력 밝기가 제 2 최대 출력 밝기(500니트)로 설정되는 것이 예시되어 있다.
상기 유저인터페이스(1000)의 EOTF 캘리브레이션 설정(1200)에서는 상기 선택된 최대 출력 밝기 및 각 최대 컨텐츠 밝기(1210), 즉, 제 7 최대 컨텐츠 밝기(Max), 제 2 최대 컨텐츠 밝기(1000 니트), 제 3 최대 컨텐츠 밝기(2000 니트), 제 2 최대 컨텐츠 밝기(1000 니트), 제 3 최대 컨텐츠 밝기(2000 니트) 각각에 대응되는 복수의 무릎 포인트들(1220)이 상기 최대 출력 밝기의 백분율로서 표시될 수 있다. 그리고, EOTF 캘리브레이션 설정(1200)에서는 상기 복수의 무릎 포인트들(1220)을 각각 캘리브레이션하기 위한 복수의 슬라이드 바들(1230)이 디스플레이될 수 있다. 사용자는 각 슬라이드 바를 통해(예를 들면, 슬라이드 바 드래그를 통해) 상기 최대 출력 밝기 및 해당 최대 컨텐츠 밝기에 따른 해당 HDR 영상용 EOTF 커브의 무릎 포인트를 캘리브레이션할 수 있다. 상기 무릎 포인트가 캘리브레이션됨으로써 상기 HDR 영상용 EOTF 커브가 캘리브레이션될 수 있다.
상기 캘리브레이션된 HDR 영상용 EOTF 커브는 사용자의 미리보기 용으로서 상기 유저인터페이스(1000)의 프리뷰 영역(1300)에서 디스플레이될 수 있다. 따라서, 사용자는 상기 프리뷰 영역(1300)에서 디스플레이되는 HDR 영상용 EOTF 커브를 보면서 상기 HDR 영상용 EOTF 커브가 얼마나 캘리브레이션되는지를 시각적으로 편리하게 확인할 수 있다.
각 HDR 영상용 EOTF 커브의 캘리브레이션이 행해진 후 상기 유저인터페이스(1000)의 진행(proceed) 메뉴(1400)가 선택됨으로써 상기 캘리브레이션된 각 HDR 영상용 EOTF 커브가 상기 영상표시기기(100)에서 적용될 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 영상표시기기의 제어부(170) 및 원격제어장치의 제어부(미도시)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 디스플레이;
    HDR용 컨텐츠 영상을 디스플레이하기 위한 복수의 EOTF 커브를 저장하는 저장부; 및
    상기 복수의 EOTF 커브 중 상기 디스플레이의 최대 출력 밝기 및 상기 컨텐츠 영상의 최대 컨텐츠 밝기에 해당하는 EOTF 커브를 이용하여 상기 컨텐츠 영상을 디스플레이하도록 제어하는 제어부;를 포함하는 영상표시기기.
  2. 제 1 항에 있어서,
    상기 복수의 EOTF 커브는 상기 최대 출력 밝기 및 상기 최대 컨텐츠 밝기에 따라 서로 다른 무릎 포인트 및 최대 컨텐츠 밝기 포인트를 갖는 것을 것을 특징으로 하는 영상표시기기.
  3. 제 1 항에 있어서,
    상기 최대 컨텐츠 밝기에 관한 정보가 상기 컨텐츠 영상에 메타 데이터로서 저장된 것을 특징으로 하는 영상표시기기.
  4. 제 2 항에 있어서,
    상기 복수의 EOTF 커브 중 제 1 EOTF 커브는 상기 최대 출력 밝기와 같은 상기 최대 컨텐츠 밝기에 따른 제 1 최대 출력 포인트를 포함하는 것을 특징으로 하는 영상표시기기.
  5. 제 4 항에 있어서,
    제 1 EOTF 커브는 EOTF 표준 커브에 기반하여 생성되는 것을 특징으로 하는 영상표시기기.
  6. 제 5 항에 있어서,
    상기 복수의 EOTF 커브 중 제 2 EOTF 커브는 상기 최대 출력 밝기보다 큰 상기 최대 컨텐츠 밝기에 따른 제 1 무릎 포인트 및 제 2 최대 컨텐츠 밝기 포인트를 포함하는 것을 특징으로 하는 영상표시기기.
  7. 제 6 항에 있어서,
    제 2 EOTF 커브는 제 1 최대 출력 포인트, 제 1 무릎 포인트 및 제 2 최대 컨텐츠 밝기 포인트에 기반한 2차 베지에 곡선이 제 1 EOTF 커브에 반영되어 생성되는 것을 특징으로 하는 영상표시기기.
  8. 제 1 항에 있어서, 상기 제어부는
    상기 복수의 EOTF 커브를 캘리브레이션하기 위한 유저인터페이스를 상기 디스플레이에 디스플레이하도록 제어하는 것을 특징으로 하는 영상표시기기.
  9. 제 8 항에 있어서, 상기 제어부는,
    상기 디스플레이의 최대 출력 밝기를 설정하기 위한 메뉴와 상기 설정된 최대 출력 밝기에 따른 상기 복수의 EOTF 커브를 각각 캘리브레이션 하기 위한 메뉴를 상기 유저인터페이스를 통해 제공하도록 제어하는 것을 특징으로 하는 영상표시기기.
  10. 제 9 항에 있어서, 상기 제어부는,
    상기 캘리브페이션된 EOTF 커브를 미리보기용으로서 상기 유저인터페이스에 디스플레이하도록 제어하는 것을 특징으로 하는 영상표시기기.
  11. HDR용 컨텐츠 영상을 디스플레이하기 위한 복수의 EOTF 커브를 저장하는 단계; 및
    상기 복수의 EOTF 커브 중 디스플레이의 최대 출력 밝기 및 상기 컨텐츠 영상의 최대 컨텐츠 밝기에 해당하는 EOTF 커브를 이용하여 상기 컨텐츠 영상을 디스플레이하는 단계;를 포함하는 영상표시기기의 제어 방법.
  12. 제 11 항에 있어서,
    상기 복수의 EOTF 커브는 상기 최대 출력 밝기 및 상기 최대 컨텐츠 밝기에 따라 서로 다른 무릎 포인트 및 최대 컨텐츠 밝기 포인트를 갖는 것을 것을 특징으로 하는 영상표시기기의 제어 방법.
  13. 제 11 항에 있어서,
    상기 최대 컨텐츠 밝기에 관한 정보가 상기 컨텐츠 영상에 메타 데이터로서 저장된 것을 특징으로 하는 영상표시기기의 제어 방법.
  14. 제 12 항에 있어서,
    상기 복수의 EOTF 커브 중 제 1 EOTF 커브는 상기 최대 출력 밝기와 같은 상기 최대 컨텐츠 밝기에 따른 제 1 최대 출력 포인트를 포함하는 것을 특징으로 하는 영상표시기기의 제어 방법.
  15. 제 14 항에 있어서,
    제 1 EOTF 커브는 EOTF 표준 커브에 기반하여 생성되는 것을 특징으로 하는 영상표시기기의 제어 방법.
  16. 제 15 항에 있어서,
    상기 복수의 EOTF 커브 중 제 2 EOTF 커브는 상기 최대 출력 밝기보다 큰 상기 최대 컨텐츠 밝기에 따른 제 1 무릎 포인트 및 제 2 최대 컨텐츠 밝기 포인트를 포함하는 것을 특징으로 하는 영상표시기기의 제어 방법.
  17. 제 16 항에 있어서,
    제 2 EOTF 커브는 제 1 최대 출력 포인트, 제 1 무릎 포인트 및 제 2 최대 컨텐츠 밝기 포인트에 기반한 2차 베지에 곡선이 제 1 EOTF 커브에 반영되어 생성되는 것을 특징으로 하는 영상표시기기의 제어 방법.
  18. 제 11 항에 있어서,
    상기 복수의 EOTF 커브를 캘리브레이션하기 위한 유저인터페이스를 상기 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 영상표시기기의 제어 방법.
  19. 제 18 항에 있어서,
    상기 디스플레이의 최대 출력 밝기를 설정하기 위한 메뉴와 상기 설정된 최대 출력 밝기에 따른 상기 복수의 EOTF 커브를 각각 캘리브레이션 하기 위한 메뉴가 상기 유저인터페이스를 통해 제공되는 것을 특징으로 하는 영상표시기기의 제어 방법.
  20. 제 19 항에 있어서,
    상기 캘리브페이션된 EOTF 커브를 미리보기용으로서 상기 유저인터페이스에 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 영상표시기기의 제어 방법.
PCT/KR2022/017613 2021-11-15 2022-11-10 영상표시기기 및 그 제어 방법 WO2023085795A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210156957 2021-11-15
KR10-2021-0156957 2021-11-15

Publications (1)

Publication Number Publication Date
WO2023085795A1 true WO2023085795A1 (ko) 2023-05-19

Family

ID=86336279

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/017613 WO2023085795A1 (ko) 2021-11-15 2022-11-10 영상표시기기 및 그 제어 방법

Country Status (1)

Country Link
WO (1) WO2023085795A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237850A (ja) * 2010-05-06 2011-11-24 Konica Minolta Business Technologies Inc 画像処理装置、プログラム及び画像処理方法
JP2016213809A (ja) * 2015-05-12 2016-12-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
KR20180047582A (ko) * 2016-10-31 2018-05-10 엘지디스플레이 주식회사 하이 다이나믹 레인지 영상 처리 방법 및 영상 처리 모듈과 그를 이용한 표시 장치
KR20190056752A (ko) * 2017-11-17 2019-05-27 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 영상 제공 장치
US20200236334A1 (en) * 2017-09-13 2020-07-23 Panasonic Intellectual Property Management Co., Ltd. Video display device and video display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237850A (ja) * 2010-05-06 2011-11-24 Konica Minolta Business Technologies Inc 画像処理装置、プログラム及び画像処理方法
JP2016213809A (ja) * 2015-05-12 2016-12-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
KR20180047582A (ko) * 2016-10-31 2018-05-10 엘지디스플레이 주식회사 하이 다이나믹 레인지 영상 처리 방법 및 영상 처리 모듈과 그를 이용한 표시 장치
US20200236334A1 (en) * 2017-09-13 2020-07-23 Panasonic Intellectual Property Management Co., Ltd. Video display device and video display method
KR20190056752A (ko) * 2017-11-17 2019-05-27 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 영상 제공 장치

Similar Documents

Publication Publication Date Title
WO2015026017A1 (en) Display apparatus and operation method thereof
WO2019035657A1 (en) IMAGE DISPLAY APPARATUS
WO2014163279A1 (en) Image display device and control method thereof
WO2012005421A1 (ko) 애플리케이션 확장 방법 및 그 방법을 이용한 영상표시기기
WO2019098778A1 (en) Display apparatus, method for controlling the same and image providing apparatus
WO2021033796A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2019198899A1 (en) Multimedia device for processing video signal and control method thereof
WO2016098992A1 (ko) 디스플레이 디바이스 및 그 제어 방법
WO2011136402A1 (ko) 영상표시기기 및 그 동작방법
WO2019194457A1 (en) Electronic apparatus, method of controlling the same and recording medium thereof
WO2019235766A1 (en) Mobile terminal adjusting image quality of display, and method of operating the same
WO2019221423A1 (ko) 전자장치, 그 제어방법 및 기록매체
WO2023085795A1 (ko) 영상표시기기 및 그 제어 방법
EP3433850A1 (en) Image display apparatus
WO2020045834A1 (en) Electronic apparatus and control method thereof
WO2019112218A1 (ko) 디스플레이 장치, 및 그 제어 방법
WO2022092534A1 (ko) 디스플레이 장치 및 그의 로컬 디밍 제어 방법
WO2021085672A1 (ko) 디스플레이 장치 및 이의 제어 방법
WO2020130185A1 (ko) 유기 발광 다이오드 표시 장치
WO2023075095A1 (ko) 영상표시기기 및 그 제어 방법
WO2012150731A1 (en) Object control using heterogeneous input method
WO2021029469A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2023068400A1 (ko) 가변 차광 패널을 구비한 투명 디스플레이, 이를 포함하는 영상표시기기 및 그 제어 방법
WO2021010529A1 (ko) 디스플레이 장치
WO2019172478A1 (ko) 표시장치와 그 영상 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22893214

Country of ref document: EP

Kind code of ref document: A1