WO2016104990A1 - 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법 - Google Patents

컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법 Download PDF

Info

Publication number
WO2016104990A1
WO2016104990A1 PCT/KR2015/013324 KR2015013324W WO2016104990A1 WO 2016104990 A1 WO2016104990 A1 WO 2016104990A1 KR 2015013324 W KR2015013324 W KR 2015013324W WO 2016104990 A1 WO2016104990 A1 WO 2016104990A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
information
image
image quality
specific
Prior art date
Application number
PCT/KR2015/013324
Other languages
English (en)
French (fr)
Inventor
강우석
김봉조
박세혁
민종술
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US15/528,272 priority Critical patent/US10638131B2/en
Priority to EP15873517.5A priority patent/EP3240291A4/en
Priority to CN201580070269.XA priority patent/CN107113464B/zh
Publication of WO2016104990A1 publication Critical patent/WO2016104990A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • H04N21/8405Generation or processing of descriptive data, e.g. content descriptors represented by keywords
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Definitions

  • the present invention relates to a content providing apparatus, a display apparatus, and a control method thereof, and more particularly, to a content providing apparatus, a display apparatus, and a control method for performing an image quality improving process.
  • the display apparatus decodes the received image and decodes the image, and analyzes the image characteristics of the reconstructed image to perform image quality processing such as noise removal, detail, contrast, color enhancement, and gamma to output the image. .
  • the display apparatus may not know the intended image quality characteristics when the image is produced, and thus the image may be distorted or excessively emphasized by performing the image quality processing in a set manner for each display apparatus.
  • the present invention has been made to solve the above-described problem, and an object of the present invention is to provide a content providing device, a display device, and a control method for performing an image quality improvement process in consideration of the image quality of an original image.
  • a content providing device includes a communication unit for communicating with an external device, an image processing unit for generating a compressed image by processing an input original image, and converting the original image into an image quality characteristic. And a controller configured to control the communication unit to classify the at least one region based on the at least one region, detect region-specific characteristic information from each region, and transmit the detected region-specific characteristic information to the external device together with the compressed image. .
  • the controller may divide the original image into pixel units, and divide the original image into at least one area by grouping the pixels based on pixel information of each of the pixels.
  • the region-specific characteristic information may include region-specific segmentation information for determining the divided regions, region-specific image quality information related to image quality characteristics of each region, and image quality distortion generated at boundaries between the region. And at least one of per-zone boundary information, region-specific intention information about preset image quality characteristics in each region, and region-specific semantic information for recognizing each region.
  • the region-specific classification information may include information about a region to which each pixel constituting the original image belongs among the divided regions, and the information about the region to which each pixel belongs may be a characteristic parameter for each region. And information about pixel coordinates constituting each of the regions.
  • the controller may be further configured to classify the compressed image into regions corresponding to the divided regions of the original image based on the image quality characteristics, and detect the region-specific characteristic information of the compressed image from the divided regions of the compressed image.
  • the feature information for each region of the detected compressed image may be transmitted.
  • the controller may generate and transmit synchronization information for synchronization between the compressed image and the region-specific characteristic information.
  • the display device comprises a plurality of configuration of the compressed image based on the display unit, the region-specific characteristic information of the original image and the compressed image of the original image and the region-specific characteristic information And a controller for dividing the pixels into at least one region, performing image quality improvement on each of the divided regions, and controlling the display unit to display the image having been processed.
  • the region-specific characteristic information may include region-specific segmentation information for determining each segmented region of the original image, region-specific image quality information related to image quality characteristics of each region of the original image, and each region of the original image. At least one of region-specific boundary information regarding image quality distortion occurring at a boundary, region intention information about preset image quality characteristics in each region of the original image, and region semantic information for recognizing each region of the original image It may include.
  • the controller may determine which area each of the plurality of pixels constituting the compressed image is included in, based on the region-specific information, and determine the image quality information for each region, the boundary information for each region, and the intention information for each region. And an image quality improvement process for each region of the compressed image based on at least one of the semantic information for each region.
  • the receiving unit may receive characteristic information for each region of the compressed image, and the controller may perform an image quality improvement process on the compressed image based on region-specific characteristic information of the original image and region characteristic information of the compressed image. can do.
  • the receiving unit receives synchronization information for synchronization between the compressed image and the characteristic information for each region, and the controller performs synchronization between the region-specific characteristic information and the compressed image based on the synchronization information, and the region.
  • the compressed image may be improved in quality based on the star characteristic information.
  • control method of the content providing apparatus to generate a compressed image by processing the input original image, the original image is divided into at least one area based on the quality characteristics, Detecting the region-specific characteristic information from each region and transmitting the detected region-specific characteristic information to the external device together with the compressed image.
  • the detecting may include dividing the original image into pixel units and grouping the pixels into at least one area based on pixel information of each of the pixels.
  • the region-specific characteristic information may include region-specific segmentation information for determining the divided regions, region-specific image quality information related to image quality characteristics of each region, and image quality distortion generated at boundaries between the region. And at least one of per-zone boundary information, region-specific intention information about preset image quality characteristics in each region, and region-specific semantic information for recognizing each region.
  • the region-specific classification information may include information about a region to which each pixel constituting the original image belongs among the divided regions, and the information about the region to which each pixel belongs may be a characteristic parameter for each region. And information about pixel coordinates constituting each of the regions.
  • the detecting may be performed by dividing the compressed image into regions corresponding to the divided regions of the original image based on the image quality characteristics, and the region-specific characteristic information of the compressed image from the divided regions of the compressed image.
  • the detecting and transmitting may include transmitting characteristic information for each region of the detected compressed image.
  • control method of the content providing apparatus may further include generating and transmitting synchronization information for synchronization between the compressed image and the characteristic information for each region.
  • control method of the display device comprises the steps of receiving the characteristic information for each region of the original image and the compressed image of the original image, a plurality of constituting the compressed image based on the characteristic information for each region Dividing the pixels of the pixels into at least one region, performing image quality enhancement processing on each of the divided regions, and displaying the image quality enhanced image.
  • the region-specific characteristic information may include region-specific segmentation information for determining each segmented region of the original image, region-specific image quality information related to image quality characteristics of each region of the original image, and each region of the original image. At least one of region-specific boundary information regarding image quality distortion occurring at a boundary, region intention information about preset image quality characteristics in each region of the original image, and region semantic information for recognizing each region of the original image It may include.
  • the performing of the image quality improving process may include determining which region each of the plurality of pixels constituting the compressed image is included in, based on the region-specific classification information, and determining the image quality information for each region and the boundary information for each region.
  • the image quality improvement process may be performed for each region of the compressed image based on at least one of the intention information for each region and semantic information for each region.
  • the display apparatus may perform image quality improvement processing close to the original level. It becomes possible.
  • FIG. 1 is a block diagram illustrating a configuration of a content providing device according to an exemplary embodiment.
  • FIG. 2 is a diagram illustrating region division according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating pixels of respective regions according to an exemplary embodiment.
  • FIG. 4 is a block diagram illustrating a detailed configuration of a content providing apparatus according to an exemplary embodiment.
  • FIG. 5 is a view for explaining a specific processing procedure of the content providing apparatus according to an embodiment of the present invention.
  • FIG. 6 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment.
  • control unit 630 is a diagram illustrating a detailed configuration of the control unit 630 according to an embodiment of the present invention.
  • FIG. 8 is a diagram for describing a processing process of a display apparatus, according to an exemplary embodiment.
  • FIG. 9 is a diagram illustrating a configuration of a system for image quality improvement processing according to an embodiment of the present invention.
  • FIG. 10 is a view for explaining a process performed in the intermediate transmission step according to an embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a control method of a content providing device according to an exemplary embodiment.
  • FIG. 12 is a flowchart illustrating a control method of a display apparatus according to an exemplary embodiment.
  • FIG. 1 is a block diagram illustrating a configuration of a content providing device according to an exemplary embodiment.
  • the content providing apparatus 100 includes a communicator 110, an image processor 120, and a controller 130.
  • the content providing device 100 may be implemented as various types of electronic devices such as a broadcast transmission device, a set top box, a TV, a desktop PC, a notebook computer, and the like.
  • the communication unit 110 may communicate with an external device.
  • the external device refers to a device for receiving and displaying an image transmitted from the content providing device 100 and image related information, which will be described later.
  • the communication unit 110 may communicate with an external device, for example, a wired / wireless LAN (Local Area Network), WAN, Ethernet, Bluetooth, Zigbee, Universal Serial Bus (USB), Communication can be performed using various communication methods such as IEEE 1394 and Wifi.
  • the communication unit 110 may include a chip or an input port corresponding to each communication method.
  • the communication unit 150 may include a wired LAN card (not shown) and an input port (not shown).
  • the image processor 120 may process the input original image to generate a compressed image.
  • the original image may be input through the communication unit 110 or may be obtained from a storage medium such as a USB memory.
  • the controller 130 divides the original image into at least one region based on the image quality characteristics, detects region-specific characteristic information from each region, and transmits the detected region-specific characteristic information to the external device along with the compressed image. 110 can be controlled.
  • the controller 130 may classify the original image in pixel units and group the pixels into at least one area based on pixel information of each pixel. This will be described in detail with reference to FIG. 2.
  • FIG. 2 is a diagram illustrating region division according to an exemplary embodiment.
  • the original image 210 is composed of a plurality of pixels.
  • the original image 210 may include various objects.
  • objects such as a sky, a building, a lawn, a land, and a person are included in the original image 210.
  • objects such as sky, buildings, lawns, land, and people have different image quality characteristics.
  • objects such as lawns have image quality characteristics with fine detail information at relatively high frequencies, as their boundaries do not need to be clearly expressed, whereas objects such as buildings or people may be perceived by the viewer. It has an image quality characteristic with bold detail information at a relatively low frequency in that the boundary must be clearly expressed so that it can be represented.
  • the controller 130 may classify the pixels into at least one or more areas based on pixel information of each pixel constituting the original image 210, that is, image quality characteristics of each pixel.
  • the controller 130 may have similar color information and image quality based on the fact that the pixels constituting the lawn have image quality characteristics similar to each other, including green color-based color information, and having fine detail information of a relatively high frequency.
  • the pixels may be grouped into one region based on the characteristic.
  • the control unit 130 is based on similar color information and image quality characteristics based on the similarity between the pixels constituting the building having image quality characteristics including gray color information and relatively low frequency thick detail information. Pixels can be grouped into one region.
  • the controller 130 groups the plurality of pixels constituting the original image 210 into pixels having similar color information and image quality characteristics to at least one or more regions 221, 222, 223, 224, and 225. can do.
  • the lower image 220 of FIG. 2 shows that each pixel constituting the original image 210 is divided into a plurality of regions 221, 222, 223, 224, and 225 by grouping based on the pixel information. Accordingly, the original image 210 may be divided into a plurality of regions 221, 222, 223, 224, and 225 having different image quality characteristics.
  • the controller 130 is described as grouping a plurality of pixels constituting the original image 210 into at least one area based on similar color information and image quality characteristics.
  • the criterion for grouping a plurality of pixels into at least one region is not limited thereto, and it is natural that the plurality of pixels may be grouped into at least one region through various criteria.
  • FIG. 3 is a diagram illustrating pixels of respective regions according to an exemplary embodiment.
  • the controller 130 groups at least one region 221, 222, 223, and 224 by grouping a plurality of pixels constituting the original image 210 with pixels having similar color information and image quality characteristics.
  • the controller 130 may include pixels 222-1, 222-2, 223-1, and 224 constituting each of the regions 221, 222, 223, 224, and 225.
  • -1, 225-1) may be transmitted to an external device to determine which area the pixel belongs to. Detailed descriptions thereof will be provided later.
  • the controller 130 may detect region-specific characteristic information from the regions 221, 222, 223, 224, and 225.
  • the region-specific characteristic information may include region-specific classification information for determining each divided region, region-specific image quality information regarding image quality characteristics of each region, region-specific boundary information regarding image quality distortion occurring at the boundary between regions, and each It may include at least one of region intention information about preset image quality characteristics in the region and region semantic information for recognizing each region.
  • the region-specific classification information includes information about an area to which each pixel constituting the original image belongs among each of the divided areas, which is included in which area for each pixel constituting the image at a minimum cost in the receiving display apparatus. It can be used as evidence data to judge.
  • the information about the region to which each pixel belongs includes at least one of information about characteristic parameters for each region and information about pixel coordinates constituting each region.
  • the information on the characteristic parameter of each region may include statistical characteristic values such as color centroid value and color variance value of pixels constituting each region
  • the information about pixel coordinates constituting each region may include It may include geometric characteristic values such as boundary coordinates, center coordinates, maximum region coordinates, and minimum region coordinates of the region.
  • the information about the characteristic parameter for each region relates to the color value and color change statistics of the pixels constituting each region, and the receiving display apparatus is configured to change the color value and color variation of each pixel constituting the original image.
  • the statistics value it is possible to determine that pixels having similar color values and color change statistics values are in the same area, thereby determining which area each pixel belongs to.
  • the information about the pixel coordinates constituting each region includes the coordinates of the pixels forming the boundary of each region, the coordinates of the pixels forming the center of each region, the coordinates of the pixels forming the largest region, and the coordinates of the pixels forming the smallest region. And the like, and the reception-side display apparatus may directly determine in which region each pixel belongs to based on the coordinates of the pixels.
  • the region-specific classification information may include temporal characteristic values such as the disappearance of the region and the generation flag, which may be used to maintain the consistency of the region-specific image quality in the display apparatus.
  • the centroid and variance values of one pixel 221-1 constituting the region 221 corresponding to an object such as the sky mainly mean blue, and correspond to an object such as a building.
  • the centroid and variance values of one pixel 222-1 constituting the region 222 are mainly gray, and one pixel 223-1 constituting the region 223 corresponding to an object such as a lawn. Means mainly green.
  • the centroid and variance values of one pixel 224-1 constituting the area 224 corresponding to an object such as a person mainly mean flesh color, and constitute an area 225 corresponding to an object such as land.
  • the centroid and variance values of one pixel 225-1 are mainly ocher.
  • the controller 130 receives the centroid and variance values of the pixels constituting the regions 221, 222, 223, 224, and 225 corresponding to the objects of the sky, the building, the lawn, the person, and the earth.
  • the receiving side display apparatus displays the regions 221, 222, 223, 224, and 225 in which the pixels correspond to the objects of the sky, the building, the lawn, the person, and the earth, based on the centroid and variance values of the pixels. It is possible to determine which of these areas.
  • the controller 130 has coordinates (20, 50) of one pixel 221-1 constituting the area 221 corresponding to an object such as the sky, and an area 222 corresponding to an object such as a building.
  • the coordinate values of one pixel 222-1 constituting) are (25, 40), and the coordinate value of one pixel 223-1 constituting the region 223 corresponding to an object such as a lawn is ( 30, 20, and a coordinate value of one pixel 224-1 constituting an area 224 corresponding to an object such as a person is (20, 25), and an area 225 corresponding to an object such as the ground
  • the receiving side display apparatus each pixel 221-1, 222-1, 223-1. , 224-1, and 225-1) can determine the exact position and which area.
  • the image quality information of each region is related to the image quality characteristics of each region, such as noise information such as random noise size and location and size of blocking artifact, detail information such as size and textureness size by frequency level, and edge Gradient profile information for each area to apply super resolution for property restoration, texture database index information for each area for example-based super resolution application for texture restoration, flicker information for temporal flickering size for each area, average motion vector for each area, motion uniformity, etc. It may include at least one of motion information and depth information such as an average depth and an average depth vector for each region.
  • the noise information such as the size of the random noise of each region and the location and size of the blocking artifact may be the basis data for performing noise reduction according to the noise characteristics of the region. For example, since the area 221 corresponding to the object such as the sky should not have a lot of noise, the noise should be removed a lot, and the area 223 corresponding to the object such as the lawn is not a problem even if there is some noise. As the noise removal may be reduced, the Nosie information about each region may include basis data for enabling noise reduction according to the noise characteristics of each region.
  • Detail information is used to enable detail enhancement to match the frequency characteristics of each area in the receiving display device
  • Gradient Profile information is used to restore the original edge property of each area by applying Gradient-based Super Resolution in the receiving display device.
  • the Texture Database Index information enables selective reference of a predefined texture database on the receiving display device to restore the original texture for each region by applying Example-based Super Resolution.
  • the flicker information can selectively remove only the region where the temporary flicker exists in the receiving display device, and the motion information can improve the accuracy of the motion estimation in the receiving display device.
  • depth information may be improved by increasing contrast / detail automatically according to depth in the display apparatus.
  • the boundary information for each region is related to the image quality distortion occurring at the boundary between each region.
  • the size of Halo generated at the boundary between regions, the size of contour generated at the boundary between regions, and the size of Ringing / Mosquito Artifact generated at the boundary between regions It may include at least one of information about.
  • the boundary information for each region may be evidence data for adaptively removing according to the type and size of artifact generated at the boundary of each region.
  • the intention information for each region relates to preset image quality characteristics in each region, which are intended by the creator of the original image.
  • the image quality is improved by removing noise and improving the detail of the region 223 corresponding to an object such as a lawn and the region 224 corresponding to an object such as a person.
  • the processing is performed, so that an image different from the intention of the producer is output.
  • the controller 130 may be maintained by setting the image quality characteristic reflecting the intention of the producer to a preset image quality characteristic.
  • the intention information for each region includes appropriate / minimum / maximum brightness values of each region, visual saliency of each region, outfocus level of each region, type and size of noise specifically intended and inserted in each region, and each region. May include at least one of information about a specific color hue value specifically intended for the.
  • the information on the appropriate / minimum / maximum brightness value of each area may be used to prevent excessive enhancement, and the information on the visual importance of each area may differ from the area emphasis process according to the visual importance of each area.
  • the information on the outfocus level of each area may be used to maintain a preset outfocus area.
  • information about the type and size of noise specifically intended and inserted in each region, and specific color hue values specifically intended in each region may also be used to maintain the intended color and noise for each region.
  • the semantic information for each region is for recognizing each region and means information on the cognitive meaning of each region, and may include object recognition values such as sky, buildings, lawns, people, and land as shown in FIG. 2. have.
  • the information on the cognitive meaning of each region may be evidence data that enables a specialized process to be performed on a region that is recognized as a region having a specific meaning.
  • the region-specific characteristic information essentially includes region-specific classification information, and may include region-specific image quality information, region-specific boundary information, region-specific intention information, and region-specific semantic information.
  • controller 130 may control the communication unit 110 to transmit the detected region-specific characteristic information to the external device together with the compressed image as described above.
  • the controller 130 classifies the compressed image into regions corresponding to the divided regions of the original image based on the image quality characteristics, detects the characteristic information for each region of the compressed image from each of the divided regions of the compressed image, and detects the detected image. Region information of each region of the compressed image may be transmitted.
  • the controller 130 may transmit the region-specific characteristic information of the original image detected from each region of the original image, the region-specific characteristic information of the compressed image detected from each region of the compressed image, and the compressed image to the external device.
  • the receiving side display apparatus detects the characteristic information of each region of the compressed image in advance and transmits it to the mobile terminal apparatus in a content providing apparatus in order to perform a low throughput or rapid processing without a delay like the mobile terminal apparatus.
  • the mobile terminal device does not need to detect the region-specific characteristics of the compressed image based on the region-specific characteristic information of the compressed image and the original image and perform image quality improvement processing based on the region-specific characteristics of the detected compressed image.
  • An image quality improvement process may be performed based on region-specific characteristic information of the compressed image.
  • the controller 130 detects characteristic information for each region of the compressed image from each divided region of the compressed image, and the characteristic information for each region of the compressed image includes color centroid values, color variance values, etc. of pixels constituting each region. Segmentation information including at least one of statistical characteristic values, geometric characteristic values such as boundary coordinates of each region, center coordinates, maximum region coordinates, and minimum region coordinates, and temporal characteristic values such as region destruction and generation flags. Can be.
  • the characteristic information of each region of the compressed image includes noise information such as the size of random noise and the location and size of blocking artifact, detail information such as the size and textureness of each frequency level, and flicker of the temporal flickering size.
  • Quality information for each region including at least one of the information may be included.
  • the region-specific characteristic information of the compressed image includes region-specific information including at least one of information about the size of Halo generated at the boundary between regions, the size of the contour generated at the boundary between regions, and the size of ringing / mosquito artifact generated at the boundary between regions. It may include boundary information.
  • the controller 130 may generate and transmit synchronization information for synchronization between the compressed image and the feature information for each region. Accordingly, the receiving side display apparatus may perform synchronization between the received compressed image and the feature information for each region, and may perform an image quality improvement process on the compressed image based on the feature information for each region.
  • FIG. 4 is a block diagram illustrating a detailed configuration of a content providing device according to an exemplary embodiment.
  • the controller 130 of the content providing apparatus 100 includes an area classification module 131, an area characteristic analysis module 132, and an area information coding module 133.
  • the area classification module 131 detects area-specific classification information from at least one or more areas in which the original image is divided, and the detected area-specific information is defined by each pixel in the area determination module of the receiving display apparatus. It may be evidence data to determine whether the area.
  • the area classification module 131 analyzes pixels and structure information, etc. constituting the image to create a probability model that can distinguish the areas, and divides the image into at least one area by using the created probability model. Can be done.
  • the region characteristic analysis module 132 integrates the characteristic information of each region constituting the original image and the region intention information input from the outside by using the region-specific classification information.
  • the area information coding module 133 may detect the area-specific classification information and the remaining area-specific property information (area-quality information, area-specific boundary information, area intention information, and area-specific meaning information) detected by the area separation module 131. Integrate to perform coding.
  • FIG. 5 is a view for explaining a specific processing procedure of the content providing apparatus according to an embodiment of the present invention.
  • the image processing unit 120 when the original image is input to the content providing apparatus 100, the image processing unit 120 generates a compressed image by performing encoding / scaling, etc., and the controller 130 includes region classification modeling 520, An area-by-pixel determination 530 and area information analysis 540 of the original image are performed.
  • controller 130 may optionally perform deformation region information analysis 560 on the compressed image. Thereafter, the controller 130 may perform encoding 550 by integrating the analyzed region information of the original image and the transformed region information analyzed for the compressed image.
  • the controller 130 integrates 570 the region information and the compressed image of the original image or the compressed image, and transmits it through one transmission channel 580 or transmits a plurality of channels (A, B) 590.
  • the controller 130 may transmit synchronization information for synchronization between the compressed image and the area information.
  • FIG. 6 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment.
  • the display apparatus 600 includes a display 610, a receiver 620, and a controller 630.
  • the display unit 610 may display an image, and for this, a liquid crystal display (LCD), an organic light emitting diode (OLED), a plasma display panel (PDP), or the like. It can be implemented as.
  • LCD liquid crystal display
  • OLED organic light emitting diode
  • PDP plasma display panel
  • the receiver 620 may receive region-specific characteristic information of the original image and a compressed image of the original image.
  • the controller 630 divides the plurality of pixels constituting the compressed image into at least one region based on the characteristic information for each region, divides the image into at least one region, and performs image quality improvement processing for each divided region,
  • the display unit 610 is controlled to display.
  • the region-specific characteristic information includes region-specific classification information for determining each segmented region of the original image, region-specific image quality information regarding image quality characteristics of each region of the original image, and image quality generated at the boundary between each region of the original image. It may include at least one of region-specific boundary information on distortion, region intention information on preset image quality characteristics in each region of the original image, and region-specific semantic information for recognizing each region of the original image.
  • the controller 630 determines in which area each of the plurality of pixels constituting the compressed image is included based on the area-specific information, and determines the image quality information for each region, boundary information for each region, intention information for each region, and meaning for each region. An image quality improvement process may be performed for each region of the compressed image based on at least one of the information. Referring to FIG. 7, the configuration of the controller 630 will be described in detail.
  • control unit 630 is a diagram illustrating a detailed configuration of the control unit 630 according to an embodiment of the present invention.
  • the controller 630 includes an area information decoding module 631, a synchronization module 632, an image decoding module 633, an area determination module 634, and an area characteristic based processing module 635. .
  • the area information decoding module 631 decodes the received area information
  • the image decoding module 633 decodes the received image
  • the synchronization module 632 performs synchronization between the area information and the image frame.
  • the region determination module 634 determines which region each of the plurality of pixels constituting the compressed image is included in based on the region-specific classification information, and the region characteristic based processing module 635 is included in the received region-specific characteristic information.
  • the image quality improvement process may be performed based on at least one of region quality information, region boundary information, region intention information, and region meaning information.
  • each of the pixels 221-1, 222-1, 223-1, 224-1, and 225-1 has a plurality of areas 221, 222, 223, and the like.
  • the area characteristic based processing module 635 determines which area is included in the area 224 and 225, and the area characteristic based processing module 635 receives the area-specific image quality information, the area boundary information, the area intention information, and the area semantic information.
  • the image quality improvement process may be performed for each region differently based on at least one of
  • FIG. 8 is a diagram for describing a processing process of a display apparatus, according to an exemplary embodiment.
  • the receiver 620 of the display apparatus 100 receives image and feature information for each region, and the controller 630 determines an area for each pixel based on region-specific classification information among the region-specific feature information.
  • Region characteristic-based image processing 820 is performed based on at least one of region quality information, region boundary information, region intention information, and region meaning information included in region characteristic information.
  • the controller 630 generates a final output image by performing specialized image processing 830 for each device.
  • the receiver 620 of the display apparatus 600 may receive region-specific characteristic information of the compressed image, and the controller 630 may determine region-specific characteristic information and the compressed image of the original image. An image quality improvement process may be performed on the compressed image based on the region-specific characteristic information.
  • the display apparatus 600 when the display apparatus 600 is a mobile terminal apparatus, when the content providing apparatus 100 detects the characteristic information for each region of the compressed image in advance and transmits the characteristic information to the display apparatus 600, the display apparatus ( The control unit 630 of 600 may perform image quality improvement on the compressed image without having to separately detect the region-specific characteristic information of the compressed image based on the region-specific characteristic information of the original image and the region-specific characteristic information of the compressed image. Can be.
  • the receiver 620 receives synchronization information for synchronization between the compressed image and the feature information for each region, and the controller 630 performs synchronization between the feature information for each region and the compressed image based on the synchronization information, and the feature for each region. Based on the information, the compressed image may be improved in quality.
  • FIG. 9 is a diagram illustrating a configuration of a system for image quality improvement processing according to an embodiment of the present invention.
  • a system for improving image quality includes a content providing device 100 and a display device 600.
  • the content providing apparatus 100 and the display apparatus 600 may be connected in a single channel or multi-channel.
  • FIG. 10 is a diagram for describing a process performed in an intermediate transmission step according to an embodiment of the present invention.
  • characteristics of an image may be changed again due to tanscoding, scaling, network balancing, and the like.
  • the modified image information extracted by the content providing apparatus 100 may be updated with new information.
  • the third service provider determines the pixel-by-pixel area determination 1010 based on the area-specific information.
  • the modified region information update 1020 is performed by reflecting the changed characteristics of the image, the updated information and the image are integrated 1030, and the image and the information are transmitted 1040 through the channel.
  • the display apparatus 600 may receive all the information about the characteristics of the image changed in the intermediate transmission step, thereby performing a more accurate image quality improvement process.
  • FIG. 11 is a flowchart illustrating a control method of a content providing device according to an exemplary embodiment.
  • a compressed image is generated by image processing an input original image (S1110).
  • the original image may be divided into at least one or more regions based on the image quality characteristics, and the region-specific characteristic information may be detected from each region.
  • the detecting may include dividing the original image into pixel units and grouping the pixels into at least one area based on pixel information of each pixel.
  • the region-specific characteristic information may include region-specific classification information for determining each divided region, region-specific image quality information regarding image quality characteristics of each region, region-specific boundary information regarding image quality distortion occurring at the boundary between the regions, and each And at least one of intention information for each region regarding preset image quality characteristics in the region and meaning information for each region for recognizing each region.
  • the region-specific classification information includes information on a region to which each pixel constituting the original image belongs among the divided regions, and the information on the region to which each pixel belongs, includes information on characteristic parameters of each region and each region. It includes at least one of the information about the pixel coordinates constituting the.
  • the detected region-specific characteristic information may be transmitted to the external device together with the compressed image (S1130).
  • the detecting may include classifying the compressed image into regions corresponding to the divided regions of the original image based on the image quality characteristics, and detecting and transmitting region-specific characteristic information of the compressed image from each of the divided regions of the compressed image.
  • the step may transmit region-specific characteristic information of the detected compressed image.
  • control method of the content providing apparatus may further include generating and transmitting synchronization information for synchronization between the compressed image and the characteristic information for each region.
  • FIG. 12 is a flowchart illustrating a control method of a display apparatus according to an exemplary embodiment.
  • the region-specific characteristic information of the original image and the compressed image of the original image are received (S1210).
  • the plurality of pixels constituting the compressed image are grouped based on the region-specific characteristic information into at least one region, and the image quality improvement process is performed for each divided region (S1220).
  • the region-specific characteristic information may include region-specific classification information for determining each segmented region of the original image, region-specific image quality information regarding image quality characteristics of each region of the original image, and a boundary generated between each region of the original image. And at least one of region-specific boundary information on image quality distortion, region intention information on preset image quality characteristics in each region of the original image, and region-specific semantic information for recognizing each region of the original image.
  • the performing of the image quality improvement process may include determining which regions each of the plurality of pixels constituting the compressed image are included in, based on the region-specific classification information, and determine image quality information for each region, boundary information for each region, and intention information for each region. And image quality improvement processing for each region of the compressed image based on at least one of region-specific semantic information.
  • the image is processed to improve the image quality (S1230).
  • a non-transitory computer readable medium may be provided in which a program for sequentially performing a control method according to the present invention is stored.
  • a program for generating a compressed image by processing an input original image, dividing the original image into at least one region based on image quality characteristics, and detecting characteristic information for each region from each region may be performed.
  • a stored non-transitory computer readable medium may be provided.
  • a plurality of pixels constituting the compressed image may be grouped into at least one region based on the characteristic information of each region, and the image enhancement process may be performed for each of the divided regions.
  • a non-transitory computer readable medium may be provided in which a program for performing the displaying step is stored.
  • the non-transitory readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like.
  • a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.
  • each device may further include a processor such as a CPU, a microprocessor, and the like for performing the above-described various steps.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

컨텐츠 제공 장치가 개시된다. 컨텐츠 제공 장치는 외부 장치와 통신을 수행하는 통신부, 입력된 원본 이미지를 이미지 처리하여 압축 이미지를 생성하는 이미지 처리부 및 원본 이미지를 화질 특성에 기초하여 적어도 하나 이상의 영역으로 구분하고, 각 영역으로부터 영역별 특성 정보를 검출하며, 검출된 영역별 특성 정보를 압축 이미지와 함께 외부 장치로 전송하도록 통신부를 제어하는 제어부를 포함한다. 이에 따라, 이미지를 전송하기 전 제작 및 인코딩 단계에서 화질 개선에 필요한 정보들을 추출하여 압축 이미지와 함께 전송함으로써, 디스플레이 장치는 원본 수준에 근접한 화질 개선 처리를 수행할 수 있게 된다.

Description

컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법
본 발명은 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법에 관한 것으로, 보다 상세하게는 화질 개선 처리를 수행하기 위한 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있다. 특히, TV, 휴대폰, PC, 노트북 PC, PDA 등과 같은 각종 디스플레이 장치들은 대부분의 일반 가정에서도 많이 사용되고 있다.
디스플레이 장치들의 사용이 늘면서 좀 더 다양한 기능에 대한 사용자 니즈(needs)도 증대되었다. 이에 따라, 사용자 니즈에 부합하기 위한 각 제조사들의 노력도 커져서, 종래에 없던 새로운 기능을 갖춘 제품들이 속속 등장하고 있다.
이에 따라, 디스플레이 장치에서 수행되는 기능들도 다양해지게 되었다. 특히, 디스플레이 장치는 수신된 영상에 대하여 디코딩을 수행하여 복원하고, 복원된 영상에 대해 영상 특성을 분석하여 noise 제거, detail, contrast, color 향상 및 gamma와 같은 화질 처리를 수행하여 영상을 출력하게 된다.
그러나, 이러한 종래의 화질 처리 방식은 원본 영상에 대한 정보를 전혀 모르기 때문에 원본과 비교할 때 오류가 많으며, 예측에 의한 부정확한 화질 처리 방식이라는 문제점이 있다.
또한, 디스플레이 장치는 영상의 제작 시 의도된 화질 특성을 알 수 없어, 각 디스플레이 장치마다 설정된 방식대로 화질 처리를 수행함으로써 영상이 왜곡되거나 과도하게 강조되는 부작용이 있을 수 있다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 원본 이미지의 화질을 고려하여 화질 개선 처리를 수행하는 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법을 제공함에 있다.
이러한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치는 외부 장치와 통신을 수행하는 통신부, 입력된 원본 이미지를 이미지 처리하여 압축 이미지를 생성하는 이미지 처리부 및 상기 원본 이미지를 화질 특성에 기초하여 적어도 하나 이상의 영역으로 구분하고, 상기 각 영역으로부터 영역별 특성 정보를 검출하며, 상기 검출된 영역별 특성 정보를 상기 압축 이미지와 함께 상기 외부 장치로 전송하도록 상기 통신부를 제어하는 제어부를 포함한다.
여기서, 상기 제어부는, 상기 원본 이미지를 픽셀 단위로 구분하고, 상기 픽셀들 각각의 픽셀 정보에 기초하여 상기 픽셀들을 그룹핑하여 상기 적어도 하나 이상의 영역으로 구분할 수 있다.
또한, 상기 영역별 특성 정보는, 상기 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 상기 각 영역의 화질 특성에 관한 영역별 화질 정보, 상기 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 상기 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 상기 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 영역별 구분 정보는, 상기 구분된 각 영역 중 상기 원본 이미지를 구성하는 각 픽셀이 속한 영역에 관한 정보를 포함하고, 상기 각 픽셀이 속한 영역에 관한 정보는, 상기 각 영역별 특성 파라미터에 관한 정보 및 상기 각 영역을 구성하는 픽셀 좌표에 관한 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어부는, 상기 압축 이미지를 상기 화질 특성에 기초하여 상기 원본 이미지의 구분된 영역과 대응되는 영역으로 구분하고, 상기 압축 이미지의 구분된 각 영역으로부터 상기 압축 이미지의 영역별 특성 정보를 검출하며, 상기 검출된 압축 이미지의 영역별 특성 정보를 전송할 수 있다.
또한, 상기 제어부는, 상기 압축 이미지와 상기 영역별 특성 정보 간의 동기화를 위한 동기화 정보를 생성하여 전송할 수 있다.
한편, 본 발명의 일 실시 예에 따른 디스플레이 장치는 디스플레이부, 원본 이미지의 영역별 특성 정보 및 상기 원본 이미지의 압축 이미지를 수신하는 수신부 및 상기 영역별 특성 정보에 기초하여 상기 압축 이미지를 구성하는 복수의 픽셀을 그룹핑하여 적어도 하나 이상의 영역으로 구분하고 상기 구분된 각 영역별로 화질 개선 처리를 수행하며, 상기 화질 개선 처리된 이미지를 디스플레이하도록 상기 디스플레이부를 제어하는 제어부를 포함한다.
여기서, 상기 영역별 특성 정보는, 상기 원본 이미지의 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 상기 원본 이미지의 각 영역의 화질 특성에 관한 영역별 화질 정보, 상기 원본 이미지의 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 상기 원본 이미지의 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 상기 원본 이미지의 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어부는, 상기 영역별 구분 정보에 기초하여 상기 압축 이미지를 구성하는 복수의 픽셀 각각이 어느 영역에 포함되는지 판단하고, 상기 영역별 화질 정보, 상기 영역별 경계 정보, 상기 영역별 의도 정보 및 상기 영역별 의미 정보 중 적어도 하나에 기초하여 상기 압축 이미지의 각 영역별로 화질 개선 처리를 수행할 수 있다.
또한, 상기 수신부는, 상기 압축 이미지의 영역별 특성 정보를 수신하며, 상기 제어부는, 상기 원본 이미지의 영역별 특성 정보 및 압축 이미지의 영역 특성 정보에 기초하여 상기 압축 이미지에 대해 화질 개선 처리를 수행할 수 있다.
상기 수신부는, 상기 압축 이미지와 상기 영역별 특성 정보 간의 동기화를 위한 동기화 정보를 수신하며, 상기 제어부는, 상기 동기화 정보에 기초하여 상기 영역별 특성 정보와 상기 압축 이미지 간의 동기화를 수행하고, 상기 영역별 특성 정보에 기초하여 상기 압축 이미지를 화질 개선 처리할 수 있다.
한편, 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 제어 방법은 입력된 원본 이미지를 이미지 처리하여 압축 이미지를 생성하는 단계, 상기 원본 이미지를 화질 특성에 기초하여 적어도 하나 이상의 영역으로 구분하고, 상기 각 영역으로부터 영역별 특성 정보를 검출하는 단계 및 상기 검출된 영역별 특성 정보를 상기 압축 이미지와 함께 외부 장치로 전송하는 단계를 포함한다.
여기서, 상기 검출하는 단계는, 상기 원본 이미지를 픽셀 단위로 구분하고, 상기 픽셀들 각각의 픽셀 정보에 기초하여 상기 픽셀들을 그룹핑하여 상기 적어도 하나 이상의 영역으로 구분할 수 있다.
또한, 상기 영역별 특성 정보는, 상기 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 상기 각 영역의 화질 특성에 관한 영역별 화질 정보, 상기 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 상기 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 상기 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 영역별 구분 정보는, 상기 구분된 각 영역 중 상기 원본 이미지를 구성하는 각 픽셀이 속한 영역에 관한 정보를 포함하고, 상기 각 픽셀이 속한 영역에 관한 정보는, 상기 각 영역별 특성 파라미터에 관한 정보 및 상기 각 영역을 구성하는 픽셀 좌표에 관한 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 검출하는 단계는, 상기 압축 이미지를 상기 화질 특성에 기초하여 상기 원본 이미지의 구분된 영역과 대응되는 영역으로 구분하고, 상기 압축 이미지의 구분된 각 영역으로부터 상기 압축 이미지의 영역별 특성 정보를 검출하고, 상기 전송하는 단계는, 상기 검출된 압축 이미지의 영역별 특성 정보를 전송할 수 있다.
한편, 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 제어 방법은 상기 압축 이미지와 상기 영역별 특성 정보 간의 동기화를 위한 동기화 정보를 생성하여 전송하는 단계를 더 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른 디스플레이 장치의 제어 방법은 원본 이미지의 영역별 특성 정보 및 상기 원본 이미지의 압축 이미지를 수신하는 단계, 상기 영역별 특성 정보에 기초하여 상기 압축 이미지를 구성하는 복수의 픽셀을 그룹핑하여 적어도 하나 이상의 영역으로 구분하고, 상기 구분된 각 영역별로 화질 개선 처리를 수행하는 단계 및 상기 화질 개선 처리된 이미지를 디스플레이하는 단계를 포함한다.
여기서, 상기 영역별 특성 정보는, 상기 원본 이미지의 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 상기 원본 이미지의 각 영역의 화질 특성에 관한 영역별 화질 정보, 상기 원본 이미지의 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 상기 원본 이미지의 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 상기 원본 이미지의 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 화질 개선 처리를 수행하는 단계는, 상기 영역별 구분 정보에 기초하여 상기 압축 이미지를 구성하는 복수의 픽셀 각각이 어느 영역에 포함되는지 판단하고, 상기 영역별 화질 정보, 상기 영역별 경계 정보, 상기 영역별 의도 정보 및 상기 영역별 의미 정보 중 적어도 하나에 기초하여 상기 압축 이미지의 각 영역별로 화질 개선 처리를 수행할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 이미지를 전송하기 전 제작 및 인코딩 단계에서 화질 개선에 필요한 정보들을 추출하여 압축 이미지와 함께 전송함으로써, 디스플레이 장치는 원본 수준에 근접한 화질 개선 처리를 수행할 수 있게 된다.
도 1은 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 구성을 나타낸 블럭도이다.
도 2는 본 발명의 일 실시 예에 따른 영역 구분에 관한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 각 영역별 픽셀을 나타낸 도면이다.
도 4는 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 상세한 구성을 도시한 블럭도이다.
도 5는 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 구체적인 처리 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 도시한 블럭도이다.
도 7은 본 발명의 일 실시 예에 따른 제어부(630)의 상세한 구성을 도시한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 디스플레이 장치의 처리 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 화질 개선 처리를 위한 시스템의 구성을 도시한 도면이다.
도 10은 본 발명의 일 실시 예에 따른 중간 전송 단계에서 이루어지는 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 12는 본 발명의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
-
이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관계 등에 따라 달라질 수 있다. 그러므로, 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 구성을 나타낸 블럭도이다.
도 1에 따르면, 컨텐츠 제공 장치(100)는 통신부(110), 이미지 처리부(120) 및 제어부(130)를 포함한다. 여기서, 컨텐츠 제공 장치(100)는 방송 송신 장치, 셋탑 박스, TV, 테스크탑 PC, 노트북 등과 같은 다양한 형태의 전자 장치로 구현될 수 있다.
통신부(110)는 외부 장치와 통신을 수행할 수 있다. 여기서, 외부 장치는 컨텐츠 제공 장치(100)가 전송하는 이미지 및 이미지 관련 정보를 수신하여 디스플레이 하는 장치를 의미하며 이에 대해서는 후술하기로 한다.
또한, 통신부(110)는 외부 장치와 통신을 수행하는데 있어서, 예를 들어 유/무선 LAN(Local Area Network), WAN, 이더넷, 블루투스(Bluetooth), 지그비(Zigbee), USB(Universal Serial Bus), IEEE 1394, 와이파이(Wifi) 등 다양한 통신 방식을 이용하여 통신을 수행할 수 있다. 이를 위해, 통신부(110)는 각 통신 방식에 대응되는 칩 또는 입력 포트 등을 구비할 수 있다. 예를 들어, 유선 LAN 방식으로 통신을 수행하는 경우, 통신부(150)는 유선 LAN 카드(미도시) 및 입력 포트(미도시)를 구비할 수 있다.
이미지 처리부(120)는 입력된 원본 이미지를 이미지 처리하여 압축 이미지를 생성할 수 있다. 예를 들어, 원본 이미지는 통신부(110)를 통해 입력될 수도 있으나, USB 메모리와 같은 저장 매체로부터 획득될 수도 있다.
제어부(130)는 원본 이미지를 화질 특성에 기초하여 적어도 하나 이상의 영역으로 구분하고, 각 영역으로부터 영역별 특성 정보를 검출하며, 검출된 영역별 특성 정보를 압축 이미지와 함께 외부 장치로 전송하도록 통신부(110)를 제어할 수 있다.
구체적으로, 제어부(130)는 원본 이미지를 픽셀 단위로 구분하고, 픽셀들 각각의 픽셀 정보에 기초하여 픽셀들을 그룹핑하여 적어도 하나 이상의 영역으로 구분할 수 있다. 도 2를 참조하여 상세히 설명하기로 한다.
도 2는 본 발명의 일 실시 예에 따른 영역 구분에 관한 도면이다.
도 2를 참조하면, 원본 이미지(210)는 복수의 픽셀들로 구성되어 있다. 여기서, 원본 이미지(210)는 다양한 오브젝트들을 포함할 수 있는데, 예를 들어, 도 2에서는 하늘, 건물, 잔디밭, 땅, 사람 등의 오브젝트들이 원본 이미지(210) 내에 포함되어 있다.
그리고, 하늘, 건물, 잔디밭, 땅, 사람 등의 오브젝트들은 각각 서로 다른 화질 특성을 갖는다. 예를 들어, 잔디밭과 같은 오브젝트들은 그 경계가 명확하게 표현되지 않아도 되는 점에서, 상대적으로 높은 주파수의 세밀한 디테일 정보를 갖는 화질 특성을 갖는 반면에, 건물이나 사람과 같은 오브젝트들은 시청자가 인지할 수 있도록 그 경계가 명확하게 표현되어야 한다는 점에서, 상대적으로 낮은 주파수의 굵은 디테일 정보를 갖는 화질 특성을 갖는다.
이에 따라, 제어부(130)는 원본 이미지(210)를 구성하는 픽셀들 각각의 픽셀 정보 즉, 픽셀 각각의 화질 특성에 기초하여 픽셀들을 그룹핑하여 적어도 하나 이상의 영역으로 구분할 수 있다.
예를 들면, 제어부(130)는 잔디밭을 구성하는 픽셀들은 서로 유사하게 그린색 계열의 컬러 정보를 포함하고 상대적으로 높은 주파수의 세밀한 디테일 정보를 갖는 화질 특성을 갖고 있음에 기초하여 유사한 컬러 정보 및 화질 특성에 기초하여 픽셀들을 하나의 영역으로 그룹핑할 수 있다. 또한, 제어부(130)는 건물을 구성하는 픽셀들은 서로 유사하게 회색 계열의 컬러 정보를 포함하고 상대적으로 낮은 주파수의 굵은 디테일 정보를 갖는 화질 특성을 갖고 있음에 기초하여 유사한 컬러 정보 및 화질 특성에 기초하여 픽셀들을 하나의 영역으로 그룹핑할 수 있다.
이렇게 하여 제어부(130)는 원본 이미지(210)를 구성하는 복수의 픽셀들을 서로 유사한 컬러 정보 및 화질 특성을 갖는 픽셀들끼리 그룹핑하여 적어도 하나 이상의 영역(221, 222, 223, 224, 225)으로 그룹핑할 수 있다.
도 2의 하단 이미지(220)는 원본 이미지(210)를 구성하는 각각의 픽셀들이 각 픽셀 정보에 기초하여 그룹핑됨으로써 복수의 영역(221, 222, 223, 224, 225)으로 구분된 것을 나타내며, 이에 따라, 원본 이미지(210)는 서로 다른 화질 특성을 갖는 복수의 영역(221, 222, 223, 224, 225)으로 구분되어 표시될 수 있다.
한편, 도 2와 관련하여 제어부(130)는 원본 이미지(210)를 구성하는 복수의 픽셀들을 서로 유사한 컬러 정보 및 화질 특성에 기초하여 적어도 하나의 영역으로 그룹핑하는 것으로 설명하였으나, 제어부(130)가 복수의 픽셀들을 적어도 하나의 영역으로 그룹핑하는 기준은 이에 한정되지 아니하며, 다양한 기준을 통해 복수의 픽셀들을 적어도 하나의 영역으로 그룹핑할 수 있음은 당연하다.
또한, 도 3은 본 발명의 일 실시 예에 따른 각 영역별 픽셀을 나타낸 도면이다.
도 2에서 설명한 바와 같이, 제어부(130)는 원본 이미지(210)를 구성하는 복수의 픽셀들을 서로 유사한 컬러 정보 및 화질 특성을 갖는 픽셀들끼리 그룹핑하여 적어도 하나 이상의 영역(221, 222, 223, 224, 225)으로 그룹핑할 수 있고, 이와 관련하여, 제어부(130)는 각 영역(221, 222, 223, 224, 225)을 구성하는 픽셀들(222-1, 222-2, 223-1, 224-1, 225-1)에 관한 정보를 외부 장치로 전송하여 외부 장치가 픽셀 별로 어느 영역에 속하는지를 판단할 수 있게 한다. 이와 관련하여 상세한 설명은 후술하기로 한다.
한편, 제어부(130)는 각 영역(221, 222, 223, 224, 225)으로부터 영역별 특성 정보를 검출할 수 있다.
여기서, 영역별 특성 정보는 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 각 영역의 화질 특성에 관한 영역별 화질 정보, 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함할 수 있다.
여기서, 영역별 구분 정보는 구분된 각 영역 중 원본 이미지를 구성하는 각 픽셀이 속한 영역에 관한 정보를 포함하며, 이는 수신측 디스플레이 장치에서 최소한의 비용으로 이미지를 구성하는 픽셀 별로 어느 영역에 속하는지 판단하는 근거 데이터로서 사용될 수 있다.
특히, 각 픽셀이 속한 영역에 관한 정보는, 각 영역별 특성 파라미터에 관한 정보 및 각 영역을 구성하는 픽셀 좌표에 관한 정보 중 적어도 하나를 포함한다. 예를 들어, 각 영역별 특성 파라미터에 관한 정보는 각 영역을 구성하는 픽셀들의 color centroid 값, color variance 값 등의 통계적 특성 값을 포함할 수 있고, 각 영역을 구성하는 픽셀 좌표에 관한 정보는 각 영역의 경계 좌표, 중심 좌표, 최대 영역 좌표, 최소 영역 좌표 등의 기하학적 특성 값을 포함할 수 있다.
구체적으로, 각 영역별 특성 파라미터에 관한 정보는 각 영역을 구성하는 픽셀들의 color 값 및 color 변화의 통계치에 관한 것으로서, 수신측 디스플레이 장치는 원본 이미지를 구성하는 각각의 픽셀들의 color 값 및 color 변화의 통계치를 비교하여 유사한 color 값 및 color 변화의 통계치를 갖는 픽셀들끼리 동일한 영역인 것으로 판단할 수 있게 됨으로써, 각각의 픽셀들이 어느 영역에 속하는지 판단할 수 있다.
한편, 각 영역을 구성하는 픽셀 좌표에 관한 정보는 각 영역의 경계를 이루는 픽셀들의 좌표, 각 영역의 중심부를 이루는 픽셀들의 좌표, 가장 큰 영역을 이루는 픽셀들의 좌표, 가장 작은 영역을 이루는 픽셀들의 좌표 등을 포함하며, 수신측 디스플레이 장치는 이러한 픽셀들의 좌표에 기초하여 직접 각 픽셀들이 어느 영역에 속하는지 판단할 수 있다.
또한, 영역별 구분 정보는 영역의 소멸, 생성 플래그 등의 시간적 특성 값을 포함할 수 있으며, 이는 수신측 디스플레이 장치에서 영역별 화질의 일관성을 유지하는데 사용될 수 있다.
도 3을 참조하여 설명하면, 하늘과 같은 오브젝트에 대응되는 영역(221)을 구성하는 하나의 픽셀(221-1)의 centroid 값과 variance 값은 주로 파란색을 의미하고, 건물과 같은 오브젝트에 대응되는 영역(222)을 구성하는 하나의 픽셀(222-1)의 centroid 값과 variance 값은 주로 회색을 의미하며, 잔디밭과 같은 오브젝트에 대응되는 영역(223)을 구성하는 하나의 픽셀(223-1)은 주로 녹색을 의미한다. 또한, 사람과 같은 오브젝트에 대응되는 영역(224)을 구성하는 하나의 픽셀(224-1)의 centroid 값과 variance 값은 주로 살색을 의미하고, 땅과 같은 오브젝트에 대응되는 영역(225)을 구성하는 하나의 픽셀(225-1)의 centroid 값과 variance 값은 주로 황토색을 의미한다.
이와 같이, 제어부(130)는 하늘, 건물, 잔디밭, 사람, 땅의 오브젝트 각각에 대응되는 영역(221, 222, 223, 224, 225)을 구성하는 픽셀들의 centroid 값과 variance 값을 수신측 디스플레이 장치에 전송하면, 수신측 디스플레이 장치는 픽셀들의 centroid 값과 variance 값에 기초하여 각각의 픽셀들이 하늘, 건물, 잔디밭, 사람, 땅의 오브젝트 각각에 대응되는 영역(221, 222, 223, 224, 225) 중 어느 영역에 속하는지 판단할 수 있게 된다.
한편, 제어부(130)는 하늘과 같은 오브젝트에 대응되는 영역(221)을 구성하는 하나의 픽셀(221-1)의 좌표값이 (20, 50)이고, 건물과 같은 오브젝트에 대응되는 영역(222)을 구성하는 하나의 픽셀(222-1)의 좌표값이 (25, 40)이며, 잔디밭과 같은 오브젝트에 대응되는 영역(223)을 구성하는 하나의 픽셀(223-1)의 좌표값은 (30, 20)이고, 사람과 같은 오브젝트에 대응되는 영역(224)을 구성하는 하나의 픽셀(224-1)의 좌표값은 (20, 25)이며, 땅과 같은 오브젝트에 대응되는 영역(225)을 구성하는 하나의 픽셀(225-1)의 좌표값은 (27, 10)임을 직접 수신측 디스플레이 장치에 전송함으로써, 수신측 디스플레이 장치는 각각의 픽셀(221-1, 222-1, 223-1, 224-1, 225-1)의 정확한 위치 및 어느 영역에 속하는지를 판단할 수 있다.
또한, 영역별 화질 정보는 각 영역의 화질 특성에 관한 것으로, 영역별 Random Noise의 크기 및 Blocking Artifact의 발생 위치와 크기 등의 Noise 정보, 영역별 Frequency Level별 크기 및 Textureness 크기 등의 Detail 정보, Edge 특성 복원용 Super Resolution 적용을 위한 영역별 Gradient Profile 정보, Texture 복원용 Example-based Super Resolution 적용을 위한 영역별 Texture Database Index 정보, 영역별 Temporal Flickering 크기의 Flicker 정보, 영역별 평균 Motion Vector, Motion 균일도 등의 Motion 정보 및 영역별 평균 Depth, 평균 Depth Vector 등의 Depth 정보 중 적어도 하나를 포함할 수 있다.
여기서, 영역별 Random Noise의 크기 및 Blocking Artifact의 발생 위치와 크기 등의 Noise 정보는 영역별 Noise 특성에 맞는 Noise Reduction을 수행할 수 있는 근거 데이터가 될 수 있다. 예를 들어, 하늘과 같은 오브젝트에 대응되는 영역(221)은 Noise가 많으면 안되므로, Noise 제거를 많이 해야 하고, 잔디밭과 같은 오브젝트에 대응되는 영역(223)은 Noise가 좀 있어도 크게 문제가 되지 않으므로, Noise 제거를 적게 해도 되는 것과 같이, 각 영역에 관한 Nosie 정보는 각 영역별 Noise 특성에 맞는 Noise Reduction이 가능하게 하는 근거 데이터들을 포함할 수 있다.
Detail 정보는 수신측 디스플레이 장치에서 영역별 Frequency 특성에 맞는 detail enhancement가 가능하도록 하고, Gradient Profile 정보는 수신측 디스플레이 장치에서 Gradient-based Super Resolution 적용을 통한 영역별 원본 Edge 특성을 복원하는 데 사용되며, Texture Database Index 정보는 수신측 디스플레이 장치에서 미리 정의된 Texture Database의 선택적 참조를 가능하게 하여 Example-based Super Resolution 적용을 통한 영역별 원본 Texture 복원이 가능하도록 한다.
또한, Flicker 정보는 수신측 디스플레이 장치에서 Temporal Flicker가 존재하는 영역만 선택적으로 제거할 수 있도록 하며, Motion 정보는 수신측 디스플레이 장치에서 Motion Estimation의 정확도를 향상시킬 수 있다. 또한, Depth 정보는 수신측 디스플레이 장치에서 깊이에 따른 Contast/Detail 자동 향상으로 입체감을 향상시킬 수 있다.
한편, 영역별 경계 정보는 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 것으로, 영역 간 경계에서 발생한 Halo의 크기, 영역 간 경계에서 발생한 Contour의 크기, 영역 간 경계에서 발생한 Ringing/Mosquito Artifact의 크기에 관한 정보 중 적어도 하나를 포함할 수 있다.
여기서, 영역별 경계 정보는 영역별 경계에서 발생한 Artifact 종류와 크기에 따라 적응적으로 제거하기 위한 근거 데이터가 될 수 있다.
한편, 영역별 의도 정보는 각 영역에서의 기 설정된 화질 특성에 관한 것으로, 이는 원본 이미지의 제작자가 의도한 화질 특성이다. 예를 들어, 도 2에서 잔디밭과 같은 오브젝트에 대응되는 영역(223)에 대해 제작자가 아웃 포커싱 효과 및 블러링 효과를 삽입하고 사람과 같은 오브젝트에 대응되는 영역(224)을 상대적으로 명확하게 한 경우, 수신측 디스플레이 장치는 이러한 제작자의 의도를 정확하게 파악할 수 없어, 잔디밭과 같은 오브젝트에 대응되는 영역(223)과 사람과 같은 오브젝트에 대응되는 영역(224)을 모두 Noise 제거하고 Detail을 향상시키는 화질 개선 처리를 수행하게 되며, 이에 따라, 제작자의 의도와 다른 이미지가 출력되게 된다.
따라서, 이러한 제작자의 의도가 반영된 화질 특성들은 변경되지 않고 유지되어야할 필요성이 있으므로, 제어부(130)는 이러한 제작자의 의도가 반영된 화질 특성을 기 설정된 화질 특성으로 설정하여 유지될 수 있게 한다.
구체적으로, 영역별 의도 정보는 각 영역의 적정/최소/최대 밝기 값, 각 영역의 시각적 중요도(Saliency), 각 영역의 Outfocus Level, 각 영역에서 특별히 의도되어 삽입된 Noise의 종류 및 크기 및 각 영역에서 특별히 의도된 특정 Color Hue 값 등에 관한 정보 중 적어도 하나를 포함할 수 있다.
여기서, 각 영역의 적정/최소/최대 밝기 값에 관한 정보는 과도한 Enhance를 방지하기 위하여 사용될 수 있고, 각 영역의 시각적 중요도(Saliency)에 관한 정보는 각 영역의 시각적 중요도에 따라 영역 강조 처리를 상이하게 하는데 사용될 수 있으며, 각 영역의 Outfocus Level에 관한 정보는 기 설정된 Outfocus 영역을 유지하는데 사용될 수 있다. 마찬가지로, 각 영역에서 특별히 의도되어 삽입된 Noise의 종류 및 크기 및 각 영역에서 특별히 의도된 특정 Color Hue 값에 관한 정보도 각 영역별로 의도된 색 및 Noise를 유지하기 위해 사용될 수 있다.
한편, 영역별 의미 정보는 각 영역을 인식하기 위한 것으로 각 영역의 인지적 의미에 대한 정보를 의미하며, 도 2에서와 같이 하늘, 건물, 잔디밭, 사람, 땅 등과 같은 객체 인지 값을 포함할 수 있다.
그리고, 각 영역의 인지적 의미에 대한 정보는 특정 의미의 영역으로 판된된 영역에 대해 특화된 처리를 수행할 수 있도록 하는 근거 데이터가 될 수 있다.
한편, 영역별 특성 정보는 영역별 구분 정보는 필수적으로 포함하되, 영역별 화질 정보, 영역별 경계 정보, 영역별 의도 정보 및 영역별 의미 정보는 선택적으로 포함될 수 있다.
또한, 제어부(130)는 상술한 바와 같이 검출된 영역별 특성 정보를 압축 이미지와 함께 외부 장치로 전송하도록 통신부(110)를 제어할 수 있다.
또한, 제어부(130)는 압축 이미지를 화질 특성에 기초하여 원본 이미지의 구분된 영역과 대응되는 영역으로 구분하고, 압축 이미지의 구분된 각 영역으로부터 압축 이미지의 영역별 특성 정보를 검출하며, 검출된 압축 이미지의 영역별 특성 정보를 전송할 수 있다.
구체적으로, 제어부(130)는 원본 이미지의 각 영역으로부터 검출된 원본 이미지의 영역별 특성 정보, 압축 이미지의 각 여역으로부터 검출된 압축 이미지의 영역별 특성 정보 및 압축 이미지를 외부 장치로 전송할 수 있다.
예를 들어, 수신측 디스플레이 장치가 모바일 단말 장치와 같이 프로세서의 처리량이 작거나, 딜레이 없이 신속한 처리를 하기 위하여 컨텐츠 제공 장치에서 압축 이미지의 영역별 특성 정보를 미리 검출하여 모바일 단말 장치로 전송하게 되면, 모바일 단말 장치는 압축 이미지와 원본 이미지의 영역별 특성 정보에 기초하여 압축 이미지의 영역별 특성을 검출하고 검출된 압축 이미지의 영역별 특성에 기초하여 화질 개선 처리를 수행해야할 필요 없이, 바로 수신된 압축 이미지의 영역별 특성 정보에 기초하여 화질 개선 처리를 수행할 수 있다.
여기서, 제어부(130)는 압축 이미지의 구분된 각 영역으로부터 압축 이미지의 영역별 특성 정보를 검출하는데, 압축 이미지의 영역별 특성 정보는 각 영역을 구성하는 픽셀들의 color centroid 값, color variance 값 등의 통계적 특성 값, 각 영역의 경계 좌표, 중심 좌표, 최대 영역 좌표, 최소 영역 좌표 등의 기하학적 특성 값 및 영역의 소멸, 생성 플래그 등의 시간적 특성 값 중 적어도 하나를 포함하는 영역별 구분 정보를 포함할 수 있다.
또한, 압축 이미지의 영역별 특성 정보는 영역별 Random Noise의 크기 및 Blocking Artifact의 발생 위치와 크기 등의 Noise 정보, 영역별 Frequency Level별 크기 및 Textureness 크기 등의 Detail 정보 및 영역별 Temporal Flickering 크기의 Flicker 정보 중 적어도 하나를 포함하는 영역별 화질 정보를 포함할 수 있다.
또한, 압축 이미지의 영역별 특성 정보는 영역 간 경계에서 발생한 Halo의 크기, 영역 간 경계에서 발생한 Contour의 크기, 영역 간 경계에서 발생한 Ringing/Mosquito Artifact의 크기에 관한 정보 중 적어도 하나를 포함하는 영역별 경계 정보를 포함할 수 있다.
또한, 제어부(130)는 압축 이미지와 영역별 특성 정보 간의 동기화를 위한 동기화 정보를 생성하여 전송할 수 있다. 이에 따라, 수신측 디스플레이 장치는 수신된 압축 이미지와 영역별 특성 정보 간의 동기화를 수행하고, 영역별 특성 정보에 기초하여 압축 이미지에 대한 화질 개선 처리를 수행할 수 있게 된다.
한편, 도 4는 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 상세한 구성을 도시한 블럭도이다.
도 4를 참조하면, 컨텐츠 제공 장치(100)의 제어부(130)는 영역 구분 모듈(131), 영역 특성 분석 모듈(132) 및 영역 정보 코딩 모듈(133)을 포함한다.
여기서, 영역 구분 모듈(131)은 원본 이미지가 구분된 적어도 하나 이상의 영역으로부터 영역별 구분 정보를 검출하고, 검출된 영역별 구분 정보는 추후 설명할 수신측 디스플레이 장치의 영역 판단 모듈에서 각 픽셀이 어느 영역인지 판단하는 근거 데이터가 될 수 있다.
구체적으로, 영역 구분 모듈(131)은 이미지를 구성하는 픽셀과 구조 정보 등을 분석하여 영역을 구분할 수 있는 확률 모델을 만드는 단계 및 만들어진 확률 모델을 활용하여 이미지를 적어도 하나 이상의 영역으로 구분하는 단계를 수행할 수 있다.
그리고, 영역 특성 분석 모듈(132)은 영역별 구분 정보를 활용하여 원본 이미지를 구성하는 각 영역에 대한 특성 정보와 외부로부터 입력되는 영역별 의도 정보를 통합한다.
그리고 영역 정보 코딩 모듈(133)은 영역 구분 모듈(131)에서 검출된 영역별 구분 정보와 나머지 영역별 특성 정보(영역별 화질 정보, 영역별 경계 정보, 영역별 의도 정보 및 영역별 의미 정보)를 통합하여 코딩을 수행할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 구체적인 처리 과정을 설명하기 위한 도면이다.
도 5를 참조하면, 원본 이미지가 컨텐츠 제공 장치(100)로 입력되면, 이미지 처리부(120)는 인코딩/Scaling 등을 수행하여 압축 이미지를 생성하고, 제어부(130)는 영역 구분 모델링(520), 픽셀별 영역 판단(530) 및 원본 이미지의 영역 정보 분석(540)을 수행한다.
그리고, 제어부(130)는 선택적으로, 압축 이미지에 대한 변형 영역 정보 분석(560)을 수행할 수도 있다. 이후, 제어부(130)는 원본 이미지의 분석된 영역 정보 및 압축 이미지에 대해 분석된 변형 영역 정보를 통합하여 인코딩(550)을 수행할 수 있다.
그리고, 제어부(130)는 원본 이미지 또는 압축 이미지에 대한 영역 정보와 압축 이미지를 통합(570)하고, 이를 하나의 전송 채널(580)을 통해 전송하거나 복수의 채널(A, B)(590)를 통해 각각 압축 이미지와 영역 정보를 분리하여 전송할 수도 있다. 이때, 제어부(130)는 압축 이미지와 영역 정보 간의 동기화를 위한 동기화 정보를 함께 전송할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 도시한 블럭도이다.
도 6을 참조하면, 디스플레이 장치(600)는 디스플레이부(610), 수신부(620) 및 제어부(630)를 포함한다.
디스플레이부(610)는 이미지를 디스플레이할 수 있으며, 이를 위해 액정 표시 장치(Liquid Crystal Display,LCD), 유기 전기 발광 다이오드(Organic Light Emiiting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel,PDP) 등으로 구현될 수 있다.
수신부(620)는 원본 이미지의 영역별 특성 정보 및 원본 이미지의 압축 이미지를 수신할 수 있다.
그리고, 제어부(630)는 영역별 특성 정보에 기초하여 압축 이미지를 구성하는 복수의 픽셀을 그룹핑하여 적어도 하나 이상의 영역으로 구분하고 구분된 각 영역별로 화질 개선 처리를 수행하며, 화질 개선 처리된 이미지를 디스플레이하도록 디스플레이부(610)를 제어한다.
여기서, 영역별 특성 정보는 원본 이미지의 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 원본 이미지의 각 영역의 화질 특성에 관한 영역별 화질 정보, 원본 이미지의 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 원본 이미지의 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 원본 이미지의 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함할 수 있다.
또한, 제어부(630)는 영역별 구분 정보에 기초하여 압축 이미지를 구성하는 복수의 픽셀 각각이 어느 영역에 포함되는지 판단하고, 영역별 화질 정보, 영역별 경계 정보, 영역별 의도 정보 및 영역별 의미 정보 중 적어도 하나에 기초하여 압축 이미지의 각 영역별로 화질 개선 처리를 수행할 수 있다. 도 7을 참조하여, 제어부(630)의 구성에 대해 상세히 설명하기로 한다.
도 7은 본 발명의 일 실시 예에 따른 제어부(630)의 상세한 구성을 도시한 도면이다.
도 7을 참조하면, 제어부(630)는 영역 정보 디코딩 모듈(631), 동기화 모듈(632), 이미지 디코딩 모듈(633), 영역 판단 모듈(634) 및 영역 특성 기반 처리 모듈(635)를 포함한다.
영역 정보 디코딩 모듈(631)은 수신된 영역 정보를 디코딩하고, 이미지 디코딩 모듈(633)은 수신된 이미지를 디코딩하며, 동기화 모듈(632)은 영역 정보와 이미지 프레임 간의 동기화를 수행한다.
영역 판단 모듈(634)은 영역별 구분 정보에 기초하여 압축 이미지를 구성하는 복수의 픽셀 각각이 어느 영역에 포함되는지 판단하고, 영역 특성 기반 처리 모듈(635)은 수신된 영역별 특성 정보에 포함된 영역별 화질 정보, 영역별 경계 정보, 영역별 의도 정보 및 영역별 의미 정보 중 적어도 하나에 기초하여 화질 개선 처리를 수행할 수 있다.
예를 들어, 영역 판단 모듈(634)은 도 3과 같이 각각의 픽셀(221-1, 222-1, 223-1, 224-1, 225-1)이 복수의 영역(221, 222, 223, 224, 225) 중 어느 영역에 포함되는지 판단하고, 영역 특성 기반 처리 모듈(635)은 수신된 영역별 특성 정보에 포함된 영역별 화질 정보, 영역별 경계 정보, 영역별 의도 정보 및 영역별 의미 정보 중 적어도 하나에 기초하여 각 영역별로 상이하게 화질 개선 처리를 수행할 수 있다.
도 8은 본 발명의 일 실시 예에 따른 디스플레이 장치의 처리 과정을 설명하기 위한 도면이다.
도 8을 참조하면, 디스플레이 장치(100)의 수신부(620)는 이미지 및 영역별 특성 정보를 수신하고, 제어부(630)는 영역별 특성 정보 중 영역별 구분 정보에 기초하여 픽셀별 영역 판단(810)을 수행하고, 영역별 특성 정보에 포함된 영역별 화질 정보, 영역별 경계 정보, 영역별 의도 정보 및 영역별 의미 정보 중 적어도 하나에 기초하여 영역 특성 기반 영상 처리(820)를 수행한다. 그리고, 제어부(630)는 각 디바이스별 특화 영상 처리(830)를 수행하여 최종 출력 영상을 생성하게 된다.
한편, 본 발명의 일 실시 예에 따른 디스플레이 장치(600)의 수신부(620)는 압축 이미지의 영역별 특성 정보를 수신할 수 있으며, 제어부(630)는 원본 이미지의 영역별 특성 정보 및 압축 이미지의 영역별 특성 정보에 기초하여 압축 이미지에 대해 화질 개선 처리를 수행할 수 있다.
즉, 앞서 설명한 바와 같이, 디스플레이 장치(600)가 모바일 단말 장치인 경우, 컨텐츠 제공 장치(100)에서 미리 압축 이미지의 영역별 특성 정보를 검출하여 디스플레이 장치(600)로 전송하는 경우에 디스플레이 장치(600)의 제어부(630)는 원본 이미지의 영역별 특성 정보 및 압축 이미지의 영역별 특성 정보에 기초하여 따로 압축 이미지의 영역별 특성 정보를 검출할 필요없이 바로 압축 이미지에 대한 화질 개선 처리를 수행할 수 있다.
또한, 수신부(620)는 압축 이미지와 영역별 특성 정보 간의 동기화를 위한 동기화 정보를 수신하며, 제어부(630)는 동기화 정보에 기초하여 영역별 특성 정보와 압축 이미지 간의 동기화를 수행하고, 영역별 특성 정보에 기초하여 압축 이미지를 화질 개선 처리할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 화질 개선 처리를 위한 시스템의 구성을 도시한 도면이다.
도 9를 참조하면, 화질 개선 처리를 위한 시스템은 컨텐츠 제공 장치(100) 및 디스플레이 장치(600)를 포함한다. 그리고, 컨텐츠 제공 장치(100)와 디스플레이 장치(600) 간에는 단일 채널 또는 멀티 채널로 연결될 수 있다.
컨텐츠 제공 장치(100)와 디스플레이 장치(600)의 각 세부 구성에 대해서는 이미 설명하였으므로 자세한 설명은 생략하기로 한다.
한편, 도 10은 본 발명의 일 실시 예에 따른 중간 전송 단계에서 이루어지는 과정을 설명하기 위한 도면이다.
구체적으로, 중간 전송 단계에서 제3의 서비스 사업자에 의한 재전송이 이루어지는 경우 tanscoding, scaling, network balancing 등으로 영상의 특성이 다시 변경될 수 있다.
이러한 경우, 컨텐츠 제공 장치(100)에서 추출된 변형 영상 정보는 새로운 정보로 업데이트될 수 있는데, 구체적으로, 제3의 서비스 사업자에 의해 영역별 구분 정보에 기초하여 픽셀별 영역 판단(1010)을 수행하고, 변경된 영상의 특성을 반영하여 변형 영역 정보 업데이트(1020)를 수행하며, 업데이트된 정보와 영상을 통합(1030)하고, 채널을 통해 영상과 정보를 전송(1040)한다.
이에 따라, 디스플레이 장치(600)는 중간 전송 단계에서 변경된 영상의 특성에 관한 정보를 모두 수신할 수 있게 되며, 이에 따라 더욱 정확한 화질 개선 처리를 수행할 수 있게 된다.
도 11은 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 11에 도시된 방법을 참조하면, 입력된 원본 이미지를 이미지 처리하여 압축 이미지를 생성한다(S1110).
그리고, 원본 이미지를 화질 특성에 기초하여 적어도 하나 이상의 영역으로 구분하고, 각 영역으로부터 영역별 특성 정보를 검출할 수 있다(S1120).
여기서, 검출하는 단계는, 원본 이미지를 픽셀 단위로 구분하고, 픽셀들 각각의 픽셀 정보에 기초하여 픽셀들을 그룹핑하여 적어도 하나 이상의 영역으로 구분할 수 있다.
또한, 영역별 특성 정보는 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 각 영역의 화질 특성에 관한 영역별 화질 정보, 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함한다.
또한, 영역별 구분 정보는 구분된 각 영역 중 원본 이미지를 구성하는 각 픽셀이 속하는 영역에 관한 정보를 포함하고, 각 픽셀이 속한 영역에 관한 정보는, 각 영역별 특성 파라미터에 관한 정보 및 각 영역을 구성하는 픽셀 좌표에 관한 정보 중 적어도 하나를 포함한다.
또한, 검출된 영역별 특성 정보를 압축 이미지와 함께 외부 장치로 전송할 수 있다(S1130).
여기서, 검출하는 단계는, 압축 이미지를 화질 특성에 기초하여 원본 이미지의 구분된 영역과 대응되는 영역으로 구분하고, 압축 이미지의 구분된 각 영역으로부터 압축 이미지의 영역별 특성 정보를 검출하고, 전송하는 단계는, 검출된 압축 이미지의 영역별 특성 정보를 전송할 수 있다.
한편, 본 발명의 일 실시 예에 따른 컨텐츠 제공 장치의 제어 방법은 압축 이미지와 영역별 특성 정보 간의 동기화를 위한 동기화 정보를 생성하여 전송하는 단계를 더 포함할 수 있다.
도 12는 본 발명의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 12에 도시된 방법을 참조하면, 원본 이미지의 영역별 특성 정보 및 원본 이미지의 압축 이미지를 수신한다(S1210).
이후, 영역별 특성 정보에 기초하여 압축 이미지를 구성하는 복수의 픽셀을 그룹핑하여 적어도 하나 이상의 영역으로 구분하고, 구분된 각 영역별로 화질 개선 처리를 수행한다(S1220).
여기서, 영역별 특성 정보는, 원본 이미지의 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 원본 이미지의 각 영역의 화질 특성에 관한 영역별 화질 정보, 원본 이미지의 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 원본 이미지의 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 원본 이미지의 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함한다.
또한, 화질 개선 처리를 수행하는 단계는, 영역별 구분 정보에 기초하여 압축 이미지를 구성하는 복수의 픽셀 각각이 어느 영역에 포함되는지 판단하고, 영역별 화질 정보, 영역별 경계 정보, 영역별 의도 정보 및 영역별 의미 정보 중 적어도 하나에 기초하여 압축 이미지의 각 영역별로 화질 개선 처리를 수행할 수 있다.
또한, 화질 개선 처리된 이미지를 디스플레이한다(S1230).
한편, 본 발명에 따른 제어 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
일 예로, 입력된 원본 이미지를 이미지 처리하여 압축 이미지를 생성하는 단계 및 원본 이미지를 화질 특성에 기초하여 적어도 하나 이상의 영역으로 구분하고, 각 영역으로부터 영역별 특성 정보를 검출하는 단계를 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
또한, 일 예로, 영역별 특성 정보에 기초하여 압축 이미지를 구성하는 복수의 픽셀을 그룹핑하여 적어도 하나 이상의 영역으로 구분하고, 구분된 각 영역별로 화질 개선 처리를 수행하는 단계 및 화질 개선 처리된 이미지를 디스플레이하는 단계를 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 컨텐츠 제공 장치 및 디스플레이 장치에 대해 도시한 상술한 블록도에서는 버스(bus)를 미도시하였으나, 컨텐츠 제공 장치 및 디스플레이 장치에서 각 구성요소 간의 통신은 버스를 통해 이루어질 수도 있다. 또한, 각 디바이스에는 상술한 다양한 단계를 수행하는 CPU, 마이크로 프로세서 등과 같은 프로세서가 더 포함될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
-
-

Claims (15)

  1. 외부 장치와 통신을 수행하는 통신부;
    입력된 원본 이미지를 이미지 처리하여 압축 이미지를 생성하는 이미지 처리부; 및
    상기 원본 이미지를 화질 특성에 기초하여 적어도 하나 이상의 영역으로 구분하고, 상기 각 영역으로부터 영역별 특성 정보를 검출하며, 상기 검출된 영역별 특성 정보를 상기 압축 이미지와 함께 상기 외부 장치로 전송하도록 상기 통신부를 제어하는 제어부;를 포함하는 컨텐츠 제공 장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 원본 이미지를 픽셀 단위로 구분하고, 픽셀들 각각의 픽셀 정보에 기초하여 상기 픽셀들을 그룹핑하여 상기 적어도 하나 이상의 영역으로 구분하는 것을 특징으로 하는 컨텐츠 제공 장치.
  3. 제2항에 있어서,
    상기 영역별 특성 정보는,
    상기 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 상기 각 영역의 화질 특성에 관한 영역별 화질 정보, 상기 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 상기 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 상기 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 컨텐츠 제공 장치.
  4. 제3항에 있어서,
    상기 영역별 구분 정보는,
    상기 구분된 각 영역 중 상기 원본 이미지를 구성하는 각 픽셀이 속한 영역에 관한 정보를 포함하고,
    상기 각 픽셀이 속한 영역에 관한 정보는,
    상기 각 영역별 특성 파라미터에 관한 정보 및 상기 각 영역을 구성하는 픽셀 좌표에 관한 정보 중 적어도 하나를 포함하는 컨텐츠 제공 장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 압축 이미지를 상기 화질 특성에 기초하여 상기 원본 이미지의 구분된 영역과 대응되는 영역으로 구분하고, 상기 압축 이미지의 구분된 각 영역으로부터 상기 압축 이미지의 영역별 특성 정보를 검출하며, 상기 검출된 압축 이미지의 영역별 특성 정보를 전송하는 것을 특징으로 하는 컨텐츠 제공 장치.
  6. 제1항에 있어서,
    상기 제어부는,
    상기 압축 이미지와 상기 영역별 특성 정보 간의 동기화를 위한 동기화 정보를 생성하여 전송하는 것을 특징으로 하는 컨텐츠 제공 장치.
  7. 디스플레이부;
    원본 이미지의 영역별 특성 정보 및 상기 원본 이미지의 압축 이미지를 수신하는 수신부; 및
    상기 영역별 특성 정보에 기초하여 상기 압축 이미지를 구성하는 복수의 픽셀을 그룹핑하여 적어도 하나 이상의 영역으로 구분하고 상기 구분된 각 영역별로 화질 개선 처리를 수행하며, 상기 화질 개선 처리된 이미지를 디스플레이하도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 디스플레이 장치.
  8. 제7항에 있어서,
    상기 영역별 특성 정보는,
    상기 원본 이미지의 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 상기 원본 이미지의 각 영역의 화질 특성에 관한 영역별 화질 정보, 상기 원본 이미지의 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 상기 원본 이미지의 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 상기 원본 이미지의 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 디스플레이 장치.
  9. 제8항에 있어서,
    상기 제어부는,
    상기 영역별 구분 정보에 기초하여 상기 압축 이미지를 구성하는 복수의 픽셀 각각이 어느 영역에 포함되는지 판단하고, 상기 영역별 화질 정보, 상기 영역별 경계 정보, 상기 영역별 의도 정보 및 상기 영역별 의미 정보 중 적어도 하나에 기초하여 상기 압축 이미지의 각 영역별로 화질 개선 처리를 수행하는 것을 특징으로 하는 디스플레이 장치.
  10. 제9항에 있어서,
    상기 수신부는,
    상기 압축 이미지의 영역별 특성 정보를 수신하며,
    상기 제어부는,
    상기 원본 이미지의 영역별 특성 정보 및 압축 이미지의 영역 특성 정보에 기초하여 상기 압축 이미지에 대해 화질 개선 처리를 수행하는 것을 특징으로 하는 디스플레이 장치.
  11. 제7항에 있어서,
    상기 수신부는,
    상기 압축 이미지와 상기 영역별 특성 정보 간의 동기화를 위한 동기화 정보를 수신하며,
    상기 제어부는,
    상기 동기화 정보에 기초하여 상기 영역별 특성 정보와 상기 압축 이미지 간의 동기화를 수행하고, 상기 영역별 특성 정보에 기초하여 상기 압축 이미지를 화질 개선 처리하는 것을 특징으로 하는 디스플레이 장치.
  12. 입력된 원본 이미지를 이미지 처리하여 압축 이미지를 생성하는 단계;
    상기 원본 이미지를 화질 특성에 기초하여 적어도 하나 이상의 영역으로 구분하고, 상기 각 영역으로부터 영역별 특성 정보를 검출하는 단계; 및
    상기 검출된 영역별 특성 정보를 상기 압축 이미지와 함께 외부 장치로 전송하는 단계;를 포함하는 컨텐츠 제공 장치의 제어 방법.
  13. 제12항에 있어서,
    상기 검출하는 단계는,
    상기 원본 이미지를 픽셀 단위로 구분하고, 픽셀들 각각의 픽셀 정보에 기초하여 상기 픽셀들을 그룹핑하여 상기 적어도 하나 이상의 영역으로 구분하는 것을 특징으로 하는 컨텐츠 제공 장치의 제어 방법.
  14. 제13항에 있어서,
    상기 영역별 특성 정보는,
    상기 구분된 각 영역을 판단하기 위한 영역별 구분 정보, 상기 각 영역의 화질 특성에 관한 영역별 화질 정보, 상기 각 영역 사이의 경계에서 발생하는 화질 왜곡에 관한 영역별 경계 정보, 상기 각 영역에서의 기 설정된 화질 특성에 관한 영역별 의도 정보 및 상기 각 영역을 인식하기 위한 영역별 의미 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 컨텐츠 제공 장치의 제어 방법.
  15. 원본 이미지의 영역별 특성 정보 및 상기 원본 이미지의 압축 이미지를 수신하는 단계;
    상기 영역별 특성 정보에 기초하여 상기 압축 이미지를 구성하는 복수의 픽셀을 그룹핑하여 적어도 하나 이상의 영역으로 구분하고, 상기 구분된 각 영역별로 화질 개선 처리를 수행하는 단계; 및
    상기 화질 개선 처리된 이미지를 디스플레이하는 단계;를 포함하는 디스플레이 장치의 제어 방법.
PCT/KR2015/013324 2014-12-23 2015-12-07 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법 WO2016104990A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/528,272 US10638131B2 (en) 2014-12-23 2015-12-07 Content providing apparatus, display apparatus, and control method therefor
EP15873517.5A EP3240291A4 (en) 2014-12-23 2015-12-07 Content providing apparatus, display apparatus and control method therefor
CN201580070269.XA CN107113464B (zh) 2014-12-23 2015-12-07 内容提供装置、显示装置及其控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0187237 2014-12-23
KR1020140187237A KR102091072B1 (ko) 2014-12-23 2014-12-23 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2016104990A1 true WO2016104990A1 (ko) 2016-06-30

Family

ID=56150959

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/013324 WO2016104990A1 (ko) 2014-12-23 2015-12-07 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법

Country Status (5)

Country Link
US (1) US10638131B2 (ko)
EP (1) EP3240291A4 (ko)
KR (1) KR102091072B1 (ko)
CN (1) CN107113464B (ko)
WO (1) WO2016104990A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561890A (zh) * 2020-12-18 2021-03-26 深圳赛安特技术服务有限公司 图像清晰度的计算方法、装置和计算机设备

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108197567B (zh) * 2017-12-29 2021-08-24 百度在线网络技术(北京)有限公司 用于图像处理的方法、装置和计算机可读介质
KR102663537B1 (ko) * 2019-01-31 2024-05-08 삼성전자 주식회사 전자 장치 및 이미지 처리 방법
US11032576B2 (en) * 2019-06-10 2021-06-08 Microsoft Technology Licensing, Llc Selectively enhancing compressed digital content
CN111861908B (zh) * 2020-06-29 2024-06-14 维沃移动通信有限公司 图像处理方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090107907A (ko) * 2008-04-10 2009-10-14 삼성전자주식회사 메타 데이터에 기초한 디지털 이미지 개선 방법 및 화상형성장치
WO2011010834A2 (ko) * 2009-07-21 2011-01-27 삼성전자 주식회사 디스플레이 장치 및 그 디스플레이 방법
US20110285813A1 (en) * 2009-01-27 2011-11-24 Telefonaktiebolaget Lm Ericsson (Publ) Depth and Video Co-Processing
WO2014007450A1 (ko) * 2012-07-06 2014-01-09 삼성전자주식회사 깊이 영상 처리 장치 및 방법
US20140055497A1 (en) * 2012-01-10 2014-02-27 SK Planet Co., Ltd Image providing system, apparatus for same, and image providing method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050117798A1 (en) * 2003-12-02 2005-06-02 Eastman Kodak Company Method and apparatus for modifying a portion of an image frame in accordance with colorimetric parameters
JP2006279454A (ja) 2005-03-29 2006-10-12 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラム、および記録媒体
US8913831B2 (en) * 2008-07-31 2014-12-16 Hewlett-Packard Development Company, L.P. Perceptual segmentation of images
EP2187350A1 (en) 2008-11-05 2010-05-19 Thomson Licensing Method and device for assessing image quality degradation
EP2199981A1 (en) 2008-12-09 2010-06-23 Koninklijke Philips Electronics N.V. Image segmentation
JP5899120B2 (ja) 2010-03-03 2016-04-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. カラーレジームを定義する装置及び方法
CA2839345A1 (en) * 2011-06-14 2012-12-20 Zhou Wang Method and system for structural similarity based rate-distortion optimization for perceptual video coding
KR101285811B1 (ko) 2011-08-23 2013-07-12 광운대학교 산학협력단 홀로그래픽 영상의 공간 스케일러블 코딩 장치 및 방법
US20130170555A1 (en) 2011-12-28 2013-07-04 Broadcom Corporation Adapting transform coefficient scaling in video/image coding to block features identified in the transform domain
US9516351B2 (en) 2012-07-13 2016-12-06 Koninklijke Philips N.V. HDR image encoding and decoding methods and devices
KR20140063125A (ko) 2012-11-16 2014-05-27 삼성전자주식회사 영역에 따라 다른 계수를 적용하여 화질을 개선하는 영상 처리 방법 및 그 장치
KR101347956B1 (ko) 2013-07-29 2014-01-10 주식회사 리버스톤미디어 초고화질 영상의 병렬처리에 의한 스트림 변환 및 복원 시스템 그리고 이를 이용한 초고화질 영상의 스트림 변환 및 복원 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090107907A (ko) * 2008-04-10 2009-10-14 삼성전자주식회사 메타 데이터에 기초한 디지털 이미지 개선 방법 및 화상형성장치
US20110285813A1 (en) * 2009-01-27 2011-11-24 Telefonaktiebolaget Lm Ericsson (Publ) Depth and Video Co-Processing
WO2011010834A2 (ko) * 2009-07-21 2011-01-27 삼성전자 주식회사 디스플레이 장치 및 그 디스플레이 방법
US20140055497A1 (en) * 2012-01-10 2014-02-27 SK Planet Co., Ltd Image providing system, apparatus for same, and image providing method
WO2014007450A1 (ko) * 2012-07-06 2014-01-09 삼성전자주식회사 깊이 영상 처리 장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3240291A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561890A (zh) * 2020-12-18 2021-03-26 深圳赛安特技术服务有限公司 图像清晰度的计算方法、装置和计算机设备

Also Published As

Publication number Publication date
KR102091072B1 (ko) 2020-03-19
CN107113464B (zh) 2021-03-02
US20170339408A1 (en) 2017-11-23
US10638131B2 (en) 2020-04-28
EP3240291A1 (en) 2017-11-01
EP3240291A4 (en) 2017-11-22
CN107113464A (zh) 2017-08-29
KR20160076769A (ko) 2016-07-01

Similar Documents

Publication Publication Date Title
WO2016104990A1 (ko) 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법
WO2020138680A1 (en) Image processing apparatus and image processing method thereof
US10869086B2 (en) Dynamic video overlays
WO2014148829A1 (en) Method and apparatus for processing an image based on detected information
WO2020226317A1 (en) Image processing apparatus and image processing method thereof
WO2020197018A1 (en) Image processing apparatus and image processing method thereof
EP3707906A1 (en) Electronic apparatus and control method thereof
WO2021101087A1 (en) Electronic apparatus and controlling method thereof
WO2018225932A1 (en) Systems and methods for stereo content detection
WO2016036073A1 (ko) 디스플레이 장치, 시스템 및 그 제어 방법
WO2019168264A1 (ko) 전자 장치 및 그 제어 방법
WO2021020670A1 (en) Electronic device and control method thereof
AU2018323576B2 (en) Display apparatus and image processing method thereof
WO2019045499A1 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM
WO2020046041A1 (en) Electronic device for high-speed compression processing of feature map of cnn utilizing system and controlling method thereof
WO2019054698A1 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM
EP3061258A1 (en) Display apparatus and channel map managing method thereof
WO2018080204A1 (ko) 영상처리장치, 영상처리방법 및 컴퓨터 판독가능 기록 매체
WO2020138630A1 (en) Display apparatus and image processing method thereof
WO2023085865A1 (ko) 디스플레이 장치 및 그 동작방법
WO2021085882A1 (en) Electronic apparatus and control method thereof
WO2019147028A1 (ko) 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
WO2020111387A1 (ko) 영상 처리 장치 및 그 영상 처리 방법
WO2024053849A1 (ko) 전자 장치 및 그 영상 처리 방법
WO2024154925A1 (ko) 전자 장치 및 그 영상 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15873517

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015873517

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE