KR102465841B1 - System for changing SDR content to HDR10+ content using deep learning - Google Patents

System for changing SDR content to HDR10+ content using deep learning Download PDF

Info

Publication number
KR102465841B1
KR102465841B1 KR1020220100221A KR20220100221A KR102465841B1 KR 102465841 B1 KR102465841 B1 KR 102465841B1 KR 1020220100221 A KR1020220100221 A KR 1020220100221A KR 20220100221 A KR20220100221 A KR 20220100221A KR 102465841 B1 KR102465841 B1 KR 102465841B1
Authority
KR
South Korea
Prior art keywords
content
hdr10
deep learning
sdr
engine unit
Prior art date
Application number
KR1020220100221A
Other languages
Korean (ko)
Inventor
정상우
장정진
이창준
임태성
Original Assignee
주식회사 고업
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고업 filed Critical 주식회사 고업
Priority to KR1020220100221A priority Critical patent/KR102465841B1/en
Application granted granted Critical
Publication of KR102465841B1 publication Critical patent/KR102465841B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Abstract

The present invention relates to a system for changing SDR content to HDR10+ content using deep learning that converts SDR video content into HDR10+ video content using an artificial neural network learned through comparison between SDR original content generated for the same video content, HDR10+ original content, and content obtained by converting HDR10+ original content to SDR.

Description

딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템 {System for changing SDR content to HDR10+ content using deep learning}System for changing SDR content to HDR10+ content using deep learning}

본 발명은 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템에 관한 것으로, 더욱 상세하게는 동일한 영상 콘텐츠에 대해 생성된 SDR 원본 콘텐츠, HDR10+ 원본 콘텐츠 및 HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 비교를 통해 학습된 인공 신경망을 이용하여 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 변환하는 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템에 관한 것이다.The present invention relates to a system for changing HDR10+ content of SDR content using deep learning, and more specifically, SDR original content generated for the same video content, HDR10+ original content, and HDR10+ original content converted to SDR. It relates to an HDR10+ content change system of SDR content using deep learning that converts SDR image content into HDR10+ image content using a learned artificial neural network.

불과 몇 년 전까지만 해도, 모든 비디오는 표준 동적 범위(standard dynamic range, SDR)로도 불리는 소위 저 동적 범위(low dynamic range, LDR) 철학에 따라 인코딩되었다. 이것은 캡처되는 장면이 무엇이었든, 표준화된 정의에 의하면 코드의 최대값(전형적으로 8 비트 루마(luma) Y'=255; 또는 아날로그 디스플레이 구동을 위한 100% 전압)이 표준 협약에 의하면 100 니트(nit)인 피크 명도(peak brightness, PB)(즉, 렌더링할 수 있는 가장 밝은 백색)를 갖는 디스플레이에 대응, 즉 그 위에 렌더링되어야 한다는 것을 의미하였다.Until just a few years ago, all video was encoded according to the so-called low dynamic range (LDR) philosophy, also called standard dynamic range (SDR). This means that no matter what scene is being captured, by standardized definition the maximum value of the code (typically 8-bit luma Y'=255; or 100% voltage to drive an analog display) is 100 nits by the standard convention. .

최근에는 디스플레이 장치의 진화에 따라 더 넓고 풍부한 명암(HDR) 및 색상 표현력(10-bit)을 가진 고품질의 디바이스들이 출현하고 있다. 이러한 새로운 디스플레이 기술을 효과적으로 활용하기 위한 노력의 일환으로 HDR(High Dynamic Range, 하이 다이내믹 레인지) 영상 전송을 위한 신규 기술 표준들이 등장하고 있는데, 그 중 기본이 되는 표준이 2015년 8월 27일에 발표된 HDR10 표준이다.Recently, with the evolution of display apparatuses, high-quality devices with wider and richer contrast (HDR) and color expression (10-bit) are emerging. As part of an effort to effectively utilize these new display technologies, new technology standards for HDR (High Dynamic Range) image transmission are emerging, among which the basic standard was announced on August 27, 2015. HDR10 standard.

HDR10+은 삼성과 아마존 비디오를 주축으로 개발된 표준이자, 기존 HDR10의 단점을 보완한 표준으로, 최근 들어 대부분의 방송사에서 UHD SDR 콘텐츠를 중심으로 제작 및 제공하며, VOD 운용 플랫폼 제작사는 HDR10+ 콘텐츠를 중심으로 제작 및 제공하는 서비스를 확대해 나가는 추세이다.HDR10+ is a standard developed based on Samsung and Amazon video, and a standard that supplements the shortcomings of the existing HDR10. Recently, most broadcasters mainly produce and provide UHD SDR content, while VOD operating platform producers focus on HDR10+ content. There is a trend to expand the services produced and provided by

하지만, 종래에는 고가의 장비와 라이선스 비용 문제로 인해 중소 기업들은 HDR10+ 콘텐츠 제작이 어렵다는 한계가 있다.However, conventionally, there is a limit in that it is difficult for small and medium-sized companies to produce HDR10+ content due to expensive equipment and license cost problems.

한편, 전술한 배경 기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background art is technical information that the inventor possessed for the derivation of the present invention or acquired in the process of derivation of the present invention, and it cannot be said that it is necessarily a known technique disclosed to the general public before the filing of the present invention. .

한국등록특허 제10-1695348호Korean Patent Registration No. 10-1695348

본 발명의 일측면은 동일한 영상 콘텐츠에 대해 생성된 SDR 원본 콘텐츠, HDR10+ 원본 콘텐츠 및 HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 비교를 통해 학습된 인공 신경망을 이용하여 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 변환하는 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템을 제공한다.One aspect of the present invention is to convert SDR video content into HDR10+ video content using an artificial neural network learned through comparison between SDR original content, HDR10+ original content, and HDR10+ original content generated for the same video content. HDR10+ content change system for SDR content using deep learning.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템은, 동일한 영상 콘텐츠에 대해 생성된 SDR 원본 콘텐츠, HDR10+ 원본 콘텐츠 및 HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 비교를 통해 학습된 인공 신경망을 이용하여 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 변환한다.HDR10+ content change system of SDR content using deep learning according to an embodiment of the present invention learns through comparison between SDR original content, HDR10+ original content, and HDR10+ original content generated for the same video content, and content converted to SDR Converts SDR video content to HDR10+ video content using an artificial neural network.

상기 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템은, HDR10+ content change system of SDR content using the deep learning,

학습용 영상 콘텐츠에 대한 SDR 원본 콘텐츠와, HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 차이점을 도출하는 제1 딥러닝 알고리즘을 생성하는 제1 딥러닝 엔진부;a first deep learning engine unit for generating a first deep learning algorithm for deriving a difference between the SDR original content for the video content for training and the content obtained by converting the HDR10+ original content into SDR;

상기 학습용 영상 콘텐츠에 대한 SDR 원본 콘텐츠와 HDR10+ 원본 콘텐츠 간 차이점을 도출하는 제2 딥러닝 알고리즘을 생성하는 제2 딥러닝 엔진부;a second deep learning engine unit for generating a second deep learning algorithm for deriving a difference between the SDR original content and the HDR10+ original content for the video content for training;

상기 학습용 영상 콘텐츠에 대한 HDR10+ 원본 콘텐츠와, HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 차이점을 도출하는 제3 딥러닝 알고리즘을 생성하는 제3 딥러닝 엔진부; 및a third deep learning engine unit for generating a third deep learning algorithm for deriving a difference between the HDR10+ original content for the video content for training and the content obtained by converting the HDR10+ original content into SDR; and

상기 제1 딥러닝 알고리즘, 상기 제2 딥러닝 알고리즘 및 상기 제3 딥러닝 알고리즘에 기초하여 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 변환하기 위한 변환 모델링을 생성하는 통합 모델링부;를 포함한다.and an integrated modeling unit for generating transformation modeling for converting SDR image content into HDR10+ image content based on the first deep learning algorithm, the second deep learning algorithm, and the third deep learning algorithm.

상기 제1 딥러닝 엔진부, 상기 제2 딥러닝 엔진부 및 상기 제3 딥러닝 엔진부는, 비교 대상인 두 영상 콘텐츠의 동일한 n번째 프레임을 서로 비교하여 차이점을 도출하고,The first deep learning engine unit, the second deep learning engine unit, and the third deep learning engine unit derive a difference by comparing the same n-th frame of two image contents to be compared with each other,

상기 픽셀값은, 밝기값, 명암값, 색심도값 및 색역값 중 어느 하나인 것을 특징으로 하며,The pixel value is characterized in that any one of a brightness value, a contrast value, a color depth value, and a color gamut value,

상기 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템은,HDR10+ content change system of SDR content using the deep learning,

상기 통합 모델링부를 통해 변환된 HDR10+ 영상 콘텐츠와 학습용 영상 콘텐츠에 대한 HDR10+ 원본 콘텐츠 간 차이점을 도출하고, 도출된 차이점에 기초하여 변환 모델링을 보정하는 제4 딥러닝 엔진부;를 더 포함한다.A fourth deep learning engine unit for deriving a difference between the HDR10+ image content converted through the integrated modeling unit and the HDR10+ original content for the learning image content, and correcting the transformation modeling based on the derived difference; further includes.

상술한 본 발명의 일측면에 따르면, 머신러닝을 이용한 소프트웨어적 변환 툴을 이용하여 기존에 생성된 SDR 영상 콘텐츠를 HDR10+ 표준으로 변환이 가능하기에 고가의 장비 없이도 저렴한 비용으로 고화질의 콘텐츠를 생성할 수 있다.According to one aspect of the present invention described above, it is possible to convert the previously generated SDR image content to the HDR10+ standard using a software conversion tool using machine learning, so it is possible to generate high-quality content at a low cost without expensive equipment. can

도 1 및 도 2는 본 발명의 일 실시예에 따른 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템의 개략적인 구성이 도시된 블록도이다.
도 3 및 도 4는 도 2에 도시된 제1 딥러닝 엔진부의 구체적인 기능을 설명하기 위한 도면이다.
도 5는 도 2에 도시된 제2 딥러닝 엔진부의 구체적인 기능을 설명하기 위한 도면이다.
도 6은 도 2에 도시된 제3 딥러닝 엔진부의 구체적인 기능을 설명하기 위한 도면이다.
도 7은 도 2에 도시된 제4 딥러닝 엔진부의 구체적인 기능을 설명하기 위한 도면이다.
1 and 2 are block diagrams showing a schematic configuration of an HDR10+ content change system for SDR content using deep learning according to an embodiment of the present invention.
3 and 4 are diagrams for explaining specific functions of the first deep learning engine unit shown in FIG. 2 .
FIG. 5 is a view for explaining a specific function of the second deep learning engine unit shown in FIG. 2 .
FIG. 6 is a view for explaining a specific function of the third deep learning engine unit shown in FIG. 2 .
7 is a view for explaining a specific function of the fourth deep learning engine unit shown in FIG. 2 .

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0012] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0014] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0016] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scope equivalents to those claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1 및 도 2는 본 발명의 일 실시예에 따른 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템의 개략적인 구성이 도시된 개념도이다.1 and 2 are conceptual diagrams illustrating a schematic configuration of an HDR10+ content change system for SDR content using deep learning according to an embodiment of the present invention.

본 발명에 따른 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템은 동일한 영상 콘텐츠에 대해 생성된 SDR 원본 콘텐츠, HDR10+ 원본 콘텐츠 및 HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 비교를 통해 학습된 인공 신경망을 이용하여 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 변환하는 것을 목적으로 한다.The HDR10+ content change system of SDR content using deep learning according to the present invention uses an artificial neural network learned through comparison between SDR original content, HDR10+ original content, and HDR10+ original content created for the same video content. It aims to convert SDR video content to HDR10+ video content.

구체적으로, 본 발명의 일 실시예에 따른 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템은 제1 딥러닝 엔진부(100), 제2 딥러닝 엔진부(200), 제3 딥러닝 엔진부(300), 통합 모델링부(400) 및 제4 딥러닝 엔진부(500)를 포함한다.Specifically, the HDR10+ content change system of SDR content using deep learning according to an embodiment of the present invention is a first deep learning engine unit 100, a second deep learning engine unit 200, a third deep learning engine unit ( 300 ), an integrated modeling unit 400 , and a fourth deep learning engine unit 500 .

여기서, 제1 딥러닝 엔진부(100), 제2 딥러닝 엔진부(200) 및 제3 딥러닝 엔진부(300)는 인공 신경망의 학습을 위해 입력되는 학습용 영상 콘텐츠를 이용하여 제1 딥러닝 알고리즘, 제2 딥러닝 알고리즘 및 제3 딥러닝 알고리즘을 각각 생성한다.Here, the first deep learning engine unit 100 , the second deep learning engine unit 200 , and the third deep learning engine unit 300 use image content for learning input for learning of the artificial neural network to perform first deep learning An algorithm, a second deep learning algorithm, and a third deep learning algorithm are generated, respectively.

학습용 영상 콘텐츠는 레퍼런스 콘텐츠 선정시 동일한 카테고리(영화, 드라마, 스포츠, 게임, 애니메이션, 뮤직비디오 등)의 영상이면서 SDR, HDR10+로 구분 적용된 데이터 셋으로 구성될 수 있다.When selecting the reference content, the video content for learning may be composed of a data set that has the same category (movie, drama, sports, game, animation, music video, etc.) and is divided into SDR and HDR10+.

또한, 본 발명에 따른 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템은 HDR10+ 제작된 게임, 애니메이션, 영화 콘텐츠를 대량으로 캡쳐한 데이터 셋을 생성하여, 손실 함수를 이용해 HDR10+ 데이터 셋을 SDR 데이터 샛으로 생성한다. 이하에서는 이와 같이 생성된 SDR 데이터 셋을 HDR10+ 영상 콘텐츠에서 SDR로 변환된 영상 콘텐츠로 정의하여 설명하기로 한다.In addition, the HDR10+ content change system for SDR content according to the present invention generates a data set that captures a large amount of HDR10+ produced game, animation, and movie content, and generates an HDR10+ data set as an SDR data set using a loss function. Hereinafter, the SDR data set generated in this way will be defined and described as image content converted from HDR10+ image content to SDR.

예를 들어, 학습을 위한 콘텐츠가 영상 콘텐츠가 드라마인 경우, SDR 규격에 따른 영상인 SDR 영상 콘텐츠(제1 학습용 영상 콘텐츠), HDR10+규격에 따른 영상인 HDR10+ 영상 콘텐츠(제2 학습용 영상 콘텐츠)를 생성하고, 손실함수를 이용하여 HDR10+ 영상 콘텐츠(제2 학습용 영상 콘텐츠)를 SDR 규격으로 변환한 영상인 HDR10+ 영상 콘텐츠에서 SDR로 변환된 영상 콘텐츠(제3 학습용 영상 콘텐츠)를 해당 드라마 영상에 대한 데이터 셋으로 설정할 수 있다.For example, if the video content for learning is a drama, SDR video content (first learning video content) that is an image according to the SDR standard, HDR10+ video content (second learning video content) that is an image according to the HDR10+ standard Create and use a loss function to convert HDR10+ video content (video content for second learning) to SDR standard, which is an image converted from HDR10+ video content to SDR (video content for third training), as data for the corresponding drama video It can be set to three.

통합 모델링부(400)는 제1 딥러닝 알고리즘, 제2 딥러닝 알고리즘 및 제3 딥러닝 알고리즘에 기초하여 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 변환하기 위한 변환 모델링을 생성한다.The integrated modeling unit 400 generates transformation modeling for converting SDR image content into HDR10+ image content based on the first deep learning algorithm, the second deep learning algorithm, and the third deep learning algorithm.

제4 딥러닝 엔진부(500)는 통합 모델링부(400)에 의해 변환된 HDR10+ 영상 콘텐츠를 이용하여 변환 모델링을 학습(보정)함으로써 변환 모델링의 신뢰성을 향상시킬 수 있다.The fourth deep learning engine unit 500 may improve the reliability of transformation modeling by learning (correcting) transformation modeling using the HDR10+ image content converted by the integrated modeling unit 400 .

이하에서는 이러한 본 발명에 따른 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템을 구성하는 각각의 구성요소들에 대하여 상세히 설명하기로 한다.Hereinafter, each component constituting the HDR10+ content change system of SDR content using deep learning according to the present invention will be described in detail.

먼저, 제1 딥러닝 엔진부(100)는 도 3에 도시된 바와 같이 학습용 영상 콘텐츠에 대한 SDR 원본 콘텐츠와, HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 차이점을 도출하는 제1 딥러닝 알고리즘을 생성한다.First, as shown in FIG. 3 , the first deep learning engine unit 100 generates a first deep learning algorithm for deriving a difference between the SDR original content for the video content for training and the content obtained by converting the HDR10+ original content into SDR. do.

제1 딥러닝 엔진부(100)는 영상의 픽셀 단위로 밝기, 명암, 색심도(color depth), 색역(color gumut) 중 어느 하나를 픽셀값으로 설정하며, 각 콘텐츠의 동일한 위치의 픽셀을 중심으로 소정 크기의 윈도우(예컨대 3x3)로 설정하여 주변부 픽셀의 값을 활용하여 분석 후 HDR10+ 콘텐츠 변화시 값 적용에 활용한다.The first deep learning engine unit 100 sets any one of brightness, contrast, color depth, and color gumut as a pixel value in units of pixels of the image, and centers the pixel at the same position of each content. It is set to a window of a predetermined size (eg 3x3) and analyzed using the values of the peripheral pixels, and then used to apply the values when changing HDR10+ content.

예를 들어, 도 4의 (a)에 도시된 바와 같이 SDR 콘텐츠의 중심 픽셀값이 50이면서 주변 값이 아래와 같다면, 딥러닝 엔진에 적용된 학습 모델을 통해 HDR10+ 컨텐츠는 도 4의 (b)와 같이 변환될 수 있다.For example, if the central pixel value of the SDR content is 50 and the peripheral values are as follows as shown in FIG. can be converted together.

학습 모델은 비교 대상이 되는 픽셀의 값(밝기, 명암, 색심도, 색역 등)에 모두 활용이 가능하며, 또한 주변부 픽셀의 활용한 학습의 경우 SDR -> HDR10+ 뿐 아니라 반대의 경우에도 적용이 가능하다.The learning model can be used for all pixel values (brightness, contrast, color depth, color gamut, etc.) to be compared do.

제1 딥러닝 엔진부(100)는 인공 신경망을 이용하여 SDR 원본 콘텐츠의 n번째 프레임과, HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠의 n번째 프레임을 전체 비교하여 차이점을 추출한다.The first deep learning engine unit 100 compares the n-th frame of the original SDR content with the n-th frame of the content converted from the HDR10+ original content into SDR by using an artificial neural network to extract a difference.

도 5를 참조하면, 제2 딥러닝 엔진부(200)는 상기 학습용 영상 콘텐츠에 대한 SDR 원본 콘텐츠와 HDR10+ 원본 콘텐츠 간 차이점을 도출하는 제2 딥러닝 알고리즘을 생성한다.Referring to FIG. 5 , the second deep learning engine unit 200 generates a second deep learning algorithm for deriving a difference between the SDR original content and the HDR10+ original content for the video content for training.

제2 딥러닝 엔진부(200)는 영상의 픽셀 단위로 밝기, 명암, 색심도(color depth), 색역(color gumut) 중 어느 하나를 픽셀값으로 설정하며, 각 콘텐츠의 동일한 위치의 픽셀을 중심으로 소정 크기의 윈도우(예컨대 3x3)로 설정하여 주변부 픽셀의 값을 활용하여 분석 후 콘텐츠 변화시 값 적용에 활용한다.The second deep learning engine unit 200 sets any one of brightness, contrast, color depth, and color gumut as a pixel value in units of pixels of the image, and centers the pixel at the same position of each content. Set to a window of a predetermined size (eg 3x3) and use the value of the peripheral pixel to apply the value when the content is changed after analysis.

제2 딥러닝 엔진부(200)는 인공 신경망을 이용하여 SDR 원본 콘텐츠의 n번째 프레임과, HDR10+ 원본 콘텐츠의 n번째 프레임을 전체 비교하여 차이점을 추출한다.The second deep learning engine unit 200 compares the nth frame of the original SDR content and the nth frame of the HDR10+ original content using an artificial neural network to extract a difference.

도 6을 참조하면, 제3 딥러닝 엔진부(300)는 상기 학습용 영상 콘텐츠에 대한 HDR10+ 원본 콘텐츠와, HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 차이점을 도출하는 제3 딥러닝 알고리즘을 생성한다.Referring to FIG. 6 , the third deep learning engine unit 300 generates a third deep learning algorithm for deriving a difference between the HDR10+ original content for the video content for training and the content obtained by converting the HDR10+ original content into SDR.

제3 딥러닝 엔진부(300)는 영상의 픽셀 단위로 밝기, 명암, 색심도(color depth), 색역(color gumut) 중 어느 하나를 픽셀값으로 설정하며, 각 콘텐츠의 동일한 위치의 픽셀을 중심으로 소정 크기의 윈도우(예컨대 3x3)로 설정하여 주변부 픽셀의 값을 활용하여 분석 후 콘텐츠 변화시 값 적용에 활용한다.The third deep learning engine unit 300 sets any one of brightness, contrast, color depth, and color gumut as a pixel value in units of pixels of the image, and centers the pixel at the same position of each content. Set to a window of a predetermined size (eg 3x3) and use the value of the peripheral pixel to apply the value when the content is changed after analysis.

제3 딥러닝 엔진부(300)는 인공 신경망을 이용하여 HDR10+ 원본 콘텐츠의 n번째 프레임과 HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠의 n번째 프레임을 전체 비교하여 차이점을 추출한다.The third deep learning engine unit 300 compares the nth frame of the HDR10+ original content with the nth frame of the HDR10+ original content converted to SDR by using an artificial neural network to extract a difference.

통합 모델링부(400)는 상기 제1 딥러닝 알고리즘, 상기 제2 딥러닝 알고리즘 및 상기 제3 딥러닝 알고리즘에 기초하여 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 변환하기 위한 변환 모델링을 생성한다.The integrated modeling unit 400 generates transformation modeling for converting SDR image content into HDR10+ image content based on the first deep learning algorithm, the second deep learning algorithm, and the third deep learning algorithm.

이러한 통합 모델링부(400)에 의해 구축된 변환 모델링을 통해, 사용자는 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 간편하게 변환할 수 있으며, 고가의 장비를 사용하지 않고도 저렴하게 HDR10+ 영상 콘텐츠를 생성할 수 있다.Through the conversion modeling built by the integrated modeling unit 400, the user can easily convert SDR video content into HDR10+ video content, and can generate HDR10+ video content inexpensively without using expensive equipment.

도 7을 참조하면, 제4 딥러닝 엔진부(500)는 통합 모델링부(400)에 의해 구축된 변환 모델링을 학습(보정)하기 위해, SDR 원본 콘텐츠가 상기 통합 모델링부(400)를 통해 변환된 HDR10+ 영상 콘텐츠와, 학습용 데이터 셋 구축 시 수집된 HDR10+ 원본 콘텐츠 간 차이점을 도출하는 제4 딥러닝 알고리즘을 생성한다.Referring to FIG. 7 , the fourth deep learning engine unit 500 converts the SDR original content through the integrated modeling unit 400 to learn (correct) the transformation modeling built by the integrated modeling unit 400 . A fourth deep learning algorithm is created that derives the difference between the HDR10+ video content and the HDR10+ original content collected when building the training data set.

제4 딥러닝 엔진부(500)는 SDR 원본 콘텐츠가 상기 통합 모델링부(400)를 통해 변환된 HDR10+ 영상 콘텐츠의 n번째 프레임과, 학습용 데이터 셋 구축 시 수집된 HDR10+ 원본 콘텐츠의 n번째 프레임을 전체 비교하여 차이점을 추출한다.The fourth deep learning engine unit 500 converts the nth frame of the HDR10+ image content in which the SDR original content is converted through the integrated modeling unit 400 and the nth frame of the HDR10+ original content collected when building the training data set. Compare and extract differences.

일 실시예에서, 제4 딥러닝 엔진부(500)는 상기 통합 모델링부(400)를 통해 변환된 HDR10+ 영상 콘텐츠의 n번째 프레임과, 학습용 데이터 셋 구축 시 수집된 HDR10+ 원본 콘텐츠의 n번째 프레임에서 동일한 픽셀의 픽셀값들을 비교하여 차이값을 산출하되, 산출된 차이값이 미리 설정된 기준값 이상이 픽셀을 추출한다.In one embodiment, the fourth deep learning engine unit 500 includes the nth frame of the HDR10+ image content converted through the integrated modeling unit 400 and the nth frame of the HDR10+ original content collected when building the training data set. A difference value is calculated by comparing pixel values of the same pixel, and a pixel is extracted with a calculated difference value equal to or greater than a preset reference value.

제4 딥러닝 엔진부(500)는 산출된 차이값이 미리 설정된 기준값 이상이 픽셀이 미리 설정된 기준개수 이상으로 확인되면, 추출된 픽셀의 픽셀 좌표를 검색함과 동시에, 추출된 픽셀을 특징점으로 설정한다.The fourth deep learning engine unit 500 searches for pixel coordinates of the extracted pixels and sets the extracted pixels as feature points when the calculated difference value is greater than or equal to a preset reference number or more. do.

제4 딥러닝 엔진부(500)는 설정된 복수의 특징점을 연결한 특징도형을 생성하고, 생성된 특징도형의 특징을 나타내는 특징정보를 추출한다. 즉, 제4 딥러닝 엔진부(500)는 특징도형의 꼭지점의 위치 및 개수, 각 변의 길이, 꼭지점을 중심으로 하는 각도, 전체 면적 등에 대한 정보를 특징정보로 추출한다.The fourth deep learning engine unit 500 generates a feature figure connecting a plurality of set feature points, and extracts feature information indicating the characteristics of the generated feature figure. That is, the fourth deep learning engine unit 500 extracts information about the position and number of vertices of the feature figure, the length of each side, the angle centered on the vertex, the total area, etc. as feature information.

제4 딥러닝 엔진부(500)는 상기 통합 모델링부(400)를 통해 변환된 HDR10+ 영상 콘텐츠의 n번째 프레임에서, 상술한 단계에서 특징점으로 설정된 픽셀들을 추출하고, 추출된 픽셀을 비교점으로 설정한다. 제4 딥러닝 엔진부(500)는 설정된 복수의 비교점을 연결한 비교도형을 생성하고, 생성된 비교도형의 특징을 나타내는 비교정보를 추출한다. 제4 딥러닝 엔진부(500)는 추출된 특징정보 및 비교정보에 기초하여 변환 모델을 보정한다.The fourth deep learning engine unit 500 extracts pixels set as feature points in the above-described step from the nth frame of the HDR10+ image content converted through the integrated modeling unit 400, and sets the extracted pixels as comparison points do. The fourth deep learning engine unit 500 generates a comparison figure connecting a plurality of set comparison points, and extracts comparison information indicating characteristics of the generated comparison figure. The fourth deep learning engine unit 500 corrects the transformation model based on the extracted feature information and comparison information.

한편, 제1 딥러닝 엔진부(100), 제2 딥러닝 엔진부(200), 제3 딥러닝 엔진부(300) 및 제4 딥러닝 엔진부(500)에서 사용되는 인공 신경망은, 도 8에 도시된 바와 같이 입력층, 은닉층 및 출력층으로 구성되는 심층 신경망의 형태일 수 있으나, 이에 한정되는 것은 아니다.On the other hand, the artificial neural network used in the first deep learning engine unit 100 , the second deep learning engine unit 200 , the third deep learning engine unit 300 , and the fourth deep learning engine unit 500 is shown in FIG. 8 . It may be in the form of a deep neural network composed of an input layer, a hidden layer, and an output layer as shown in, but is not limited thereto.

또한, 상술한 설명에 있어 차이점을 추출, 도출한다는 것은 비교 대상인 두 영상 콘텐츠의 동일한 n번째 프레임을 구성하는 픽셀값의 차이를 의미하며, 상술한 바와 같이 픽셀값은 밝기값, 명암값, 색심도값 및 색역값 중 적어도 하나인 것을 특징으로 한다.In addition, in the above description, extracting and deriving a difference means a difference between pixel values constituting the same nth frame of two image contents to be compared, and as described above, pixel values are brightness value, contrast value, and color depth. It is characterized in that it is at least one of a value and a color gamut value.

즉, 차이점에 대한 데이터를 축적하여, 축적된 데이터를 통해 각 프레임간 유사성 및 차이성에 대한 정보를 분석 시에 활용할 수 있다.That is, by accumulating data on differences, information on similarities and differences between frames can be utilized for analysis through the accumulated data.

몇몇 실시예에서, 본 발명에 따른 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템은 딥러닝 알고리즘 설계시 SDR를 HDR로 변환하는 방법 중 Inverse tone mapping(역 톤 매핑)과 HDR를 SDR로 변환하는 방법 중 Tone mapping(톤 매핑)을 활용할 수 있다.In some embodiments, the HDR10+ content change system of SDR content using deep learning according to the present invention is a method of converting SDR to HDR when designing a deep learning algorithm. Inverse tone mapping and a method of converting HDR to SDR Tone mapping can be used.

일 실시예에서, 톤 매핑 방법은 표시 패널에 표시될 영상 프레임에 상응하는 데이터 신호로부터 휘도 신호를 추출하고, 데이터 신호로부터 추출된 휘도 신호에 기초하여 영상 프레임의 전계조 휘도 평균, 저계조 휘도 평균 및 고계조 휘도 평균을 계산하며, 영상 프레임의 전계조 휘도 평균, 저계조 휘도 평균 및 고계조 휘도 평균에 기초하여 톤 맵핑 함수를 계산함으로써 톤 맵핑 커브(GTM)를 도출할 수 있다.In an embodiment, the tone mapping method extracts a luminance signal from a data signal corresponding to an image frame to be displayed on a display panel, and based on the luminance signal extracted from the data signal, a full grayscale luminance average and a low grayscale luminance average of the image frame and calculating the high grayscale luminance average, and calculating the tone mapping function based on the full grayscale luminance average, the low grayscale luminance average, and the high grayscale luminance average of the image frame, thereby deriving a tone mapping curve (GTM).

영상 프레임에 상응하는 데이터 신호는 RGB 신호인 경우, 도 1의 영상-적응 톤 맵핑 방법은 RGB 신호를 YCbCr 신호로 변환하고, YCbCr 신호에서 휘도 신호 즉, Y 신호를 추출할 수 있다.When the data signal corresponding to the image frame is an RGB signal, the image-adaptive tone mapping method of FIG. 1 may convert the RGB signal into a YCbCr signal and extract a luminance signal, that is, a Y signal from the YCbCr signal.

이후, 영상 프레임의 전계조 휘도 평균을 표시 패널에 포함된 모든 화소들의 화소 휘도(즉, 해당 영상 프레임에서 해당 화소가 구현할 휘도)들의 평균으로 계산할 수 있다. 이때, 표시 패널에 포함된 화소들을 화소 휘도가 영상 프레임의 전계조 휘도 평균보다 큰 고계조 휘도 화소들과 화소 휘도가 영상 프레임의 전계조 휘도 평균보다 작은 저계조 휘도 화소들로 구분한다. 영상 프레임의 저계조 휘도 평균을 표시 패널에 포함된 화소들 중 저계조 휘도 화소들의 화소 휘도들의 평균으로 계산하고, 영상 프레임의 고계조 휘도 평균을 표시 패널에 포함된 화소들 중 고계조 휘도 화소들의 화소 휘도들의 평균으로 계산한 후 영상 프레임의 전계조 휘도 평균, 저계조 휘도 평균 및 고계조 휘도 평균에 기초하여 톤 맵핑 함수를 계산함으로써 톤 맵핑 커브(GTM)를 도출할 수 있다.Thereafter, the average of all grayscale luminances of the image frame may be calculated as the average of the pixel luminances of all pixels included in the display panel (ie, luminances to be realized by the corresponding pixel in the corresponding image frame). In this case, the pixels included in the display panel are divided into high grayscale luminance pixels having a pixel luminance greater than the full grayscale luminance average of the image frame and low grayscale luminance pixels having a pixel luminance lower than the full grayscale luminance average of the image frame. The average of the low grayscale luminance of the image frame is calculated as the average of the pixel luminances of the low grayscale luminance pixels among the pixels included in the display panel, and the high grayscale luminance average of the image frame is calculated as the high grayscale luminance average of the high grayscale luminance pixels among the pixels included in the display panel. After calculating as the average of the pixel luminances, the tone mapping curve GTM may be derived by calculating the tone mapping function based on the full grayscale luminance average, the low grayscale luminance average, and the high grayscale luminance average of the image frame.

다음으로, 데이터 신호와 이전 영상 프레임에 상응하는 이전 데이터 신호를 비교하여 상기 영상 프레임과 상기 이전 영상 프레임 사이에 장면 전환이 발생한 것인지 여부를 판단한다.Next, it is determined whether a scene change has occurred between the image frame and the previous image frame by comparing the data signal with the previous data signal corresponding to the previous image frame.

이때, 장면 전환이 발생하지 않은 것으로 판단되면, 상기 이전 영상 프레임에 적용된 이전 톤 맵핑 커브 및 상기 톤 맵핑 커브에 기초하여 최종 톤 맵핑 커브를 생성하고, 장면 전환이 발생한 것으로 판단되면, 상기 톤 맵핑 커브를 상기 최종 톤 맵핑 커브로 결정한다.At this time, if it is determined that a scene change has not occurred, a final tone mapping curve is generated based on the previous tone mapping curve applied to the previous image frame and the tone mapping curve, and if it is determined that the scene change has occurred, the tone mapping curve is determined as the final tone mapping curve.

마지막으로, 영상 프레임에 상기 최종 톤 맵핑 커브를 적용하여 톤 맵핑을 수행하는 것을 특징으로 한다.Finally, the tone mapping is performed by applying the final tone mapping curve to the image frame.

또한, 본 발명에 따른 역 톤 매핑 방법은, 적어도 하나 이상의 분리필터를 이용하여 상기 저명암비 영상을 복수의 서브계층 저명암비 영상으로 분리하고, 각 서브계층 저명암비 영상을 복수의 패치로 분할하고, 각 패치의 영상 카테고리를 결정한 후 각 영상 카테고리별로 학습된 변환행렬에 따라 상기 각 패치를 고명암비 영상 패치로 변환하여 상기 고명암비 영상을 생성하는 단계를 통해 수행될 수 있다.In addition, the inverse tone mapping method according to the present invention divides the low-contrast image into a plurality of sub-layer low-contrast images using at least one separation filter, and divides each sub-layer low-contrast image into a plurality of patches, After determining the image category of each patch, the step of generating the high-contrast image by converting each patch into a high-contrast image patch according to a transformation matrix learned for each image category may be performed.

이와 같은 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such technology may be implemented as an application or implemented in the form of program instructions that may be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium are specially designed and configured for the present invention, and may be known and available to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, and a magneto-optical medium such as a floppy disk. media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the following claims. will be able

100: 제1 딥러닝 엔진부
200: 제2 딥러닝 엔진부
300: 제3 딥러닝 엔진부
400: 통합 모델링부
500: 제4 딥러닝 엔진부
100: first deep learning engine unit
200: second deep learning engine unit
300: third deep learning engine unit
400: integrated modeling unit
500: fourth deep learning engine unit

Claims (3)

동일한 영상 콘텐츠에 대해 생성된 SDR 원본 콘텐츠, HDR10+ 원본 콘텐츠 및 HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 비교를 통해 학습된 인공 신경망을 이용하여 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 변환하는, 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템에 있어서,
상기 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템은,
학습용 영상 콘텐츠에 대한 SDR 원본 콘텐츠와, HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 차이점을 도출하는 제1 딥러닝 알고리즘을 생성하는 제1 딥러닝 엔진부;
상기 학습용 영상 콘텐츠에 대한 SDR 원본 콘텐츠와 HDR10+ 원본 콘텐츠 간 차이점을 도출하는 제2 딥러닝 알고리즘을 생성하는 제2 딥러닝 엔진부;
상기 학습용 영상 콘텐츠에 대한 HDR10+ 원본 콘텐츠와, HDR10+ 원본 콘텐츠를 SDR로 변환한 콘텐츠 간 차이점을 도출하는 제3 딥러닝 알고리즘을 생성하는 제3 딥러닝 엔진부; 및
상기 제1 딥러닝 알고리즘, 상기 제2 딥러닝 알고리즘 및 상기 제3 딥러닝 알고리즘에 기초하여 SDR 영상 콘텐츠를 HDR10+ 영상 콘텐츠로 변환하기 위한 변환 모델링을 생성하는 통합 모델링부;를 포함하되,
상기 제1 딥러닝 엔진부, 상기 제2 딥러닝 엔진부 및 상기 제3 딥러닝 엔진부는, 비교 대상인 두 영상 콘텐츠의 동일한 n번째 프레임을 서로 비교하여 차이점을 도출하고,
상기 픽셀값은, 밝기값, 명암값, 색심도값 및 색역값 중 어느 하나인 것을 특징으로 하며,
상기 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템은,
상기 통합 모델링부를 통해 변환된 HDR10+ 영상 콘텐츠와 학습용 영상 콘텐츠에 대한 HDR10+ 원본 콘텐츠 간 차이점을 도출하고, 도출된 차이점에 기초하여 변환 모델링을 보정하는 제4 딥러닝 엔진부;를 더 포함하며,
상기 제4 딥러닝 엔진부는,
상기 통합 모델링부를 통해 변환된 HDR10+ 영상 콘텐츠의 n번째 프레임과, HDR10+ 원본 콘텐츠의 n번째 프레임의 픽셀값들일 비교하여 차이값이 산출하되, 산출된 차이값이 미리 설정된 기준값 이상인 픽셀을 추출하여 추출된 픽셀이 기준개수 이상으로 검출되면, 추출된 픽셀을 특징점으로 설정하고,
설정된 복수의 특징점을 연결한 특징도형을 생성하여, 생성된 특징도형의 특징을 나타내는 특징정보를 추출하고, 추출된 특징정보에 기초하여 변환 모델링을 보정하는, 딥러닝을 이용한 SDR 콘텐츠의 HDR10+ 콘텐츠 변경 시스템.
Deep learning that converts SDR video content into HDR10+ video content using an artificial neural network learned through comparison between SDR original content, HDR10+ original content, and HDR10+ original content created for the same video content In the HDR10+ content change system of SDR content,
HDR10+ content change system of SDR content using the deep learning,
a first deep learning engine unit for generating a first deep learning algorithm for deriving a difference between the SDR original content for the video content for training and the content obtained by converting the HDR10+ original content into SDR;
a second deep learning engine unit for generating a second deep learning algorithm for deriving a difference between the SDR original content and the HDR10+ original content for the video content for training;
a third deep learning engine unit for generating a third deep learning algorithm for deriving a difference between the HDR10+ original content for the video content for training and the content obtained by converting the HDR10+ original content into SDR; and
An integrated modeling unit for generating transformation modeling for converting SDR image content into HDR10+ image content based on the first deep learning algorithm, the second deep learning algorithm, and the third deep learning algorithm; including,
The first deep learning engine unit, the second deep learning engine unit, and the third deep learning engine unit derive a difference by comparing the same n-th frame of two image contents to be compared with each other,
The pixel value is characterized in that any one of a brightness value, a contrast value, a color depth value, and a color gamut value,
HDR10+ content change system of SDR content using the deep learning,
A fourth deep learning engine unit for deriving a difference between the HDR10+ image content converted through the integrated modeling unit and the HDR10+ original content for the learning image content, and correcting the transformation modeling based on the derived difference; further comprising,
The fourth deep learning engine unit,
The difference value is calculated by comparing the pixel values of the nth frame of the HDR10+ video content converted through the integrated modeling unit and the nth frame of the HDR10+ original content, and the calculated difference value is greater than or equal to a preset reference value. If more than the reference number of pixels is detected, the extracted pixel is set as a feature point,
HDR10+ content change of SDR content using deep learning, which generates a feature figure connecting a plurality of set feature points, extracts feature information indicating the characteristics of the generated feature figure, and corrects transformation modeling based on the extracted feature information system.
삭제delete 삭제delete
KR1020220100221A 2022-08-10 2022-08-10 System for changing SDR content to HDR10+ content using deep learning KR102465841B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220100221A KR102465841B1 (en) 2022-08-10 2022-08-10 System for changing SDR content to HDR10+ content using deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220100221A KR102465841B1 (en) 2022-08-10 2022-08-10 System for changing SDR content to HDR10+ content using deep learning

Publications (1)

Publication Number Publication Date
KR102465841B1 true KR102465841B1 (en) 2022-11-10

Family

ID=84101880

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220100221A KR102465841B1 (en) 2022-08-10 2022-08-10 System for changing SDR content to HDR10+ content using deep learning

Country Status (1)

Country Link
KR (1) KR102465841B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101695348B1 (en) 2016-08-03 2017-01-11 라인 가부시키가이샤 Apparatus for providing service based messenger and method using the same
KR20200142035A (en) * 2018-04-09 2020-12-21 돌비 레버러토리즈 라이쎈싱 코오포레이션 HDR image representation using neural network mapping

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101695348B1 (en) 2016-08-03 2017-01-11 라인 가부시키가이샤 Apparatus for providing service based messenger and method using the same
KR20200142035A (en) * 2018-04-09 2020-12-21 돌비 레버러토리즈 라이쎈싱 코오포레이션 HDR image representation using neural network mapping

Similar Documents

Publication Publication Date Title
Wu et al. A novel reversible data hiding method with image contrast enhancement
CN111292264B (en) Image high dynamic range reconstruction method based on deep learning
AU2009201252B2 (en) Colour correcting foreground colours for visual quality improvement
JP6019270B1 (en) Guided color grading for extended dynamic range
JP4370387B2 (en) Apparatus and method for generating label object image of video sequence
JP3740065B2 (en) Object extraction device and method based on region feature value matching of region-divided video
EP2149098B1 (en) Deriving video signatures that are insensitive to picture modification and frame-rate conversion
CN101202926B (en) System, medium, and method with noise reducing adaptive saturation adjustment
TWI408619B (en) Image contrast enhancement apparatus and method thereof
US20180025477A1 (en) Metadata-based image processing method and apparatus
US20220245775A1 (en) Tone mapping method and electronic device
KR101366596B1 (en) Method and system of immersive generation for two-dimension still image and factor dominating method, image content analysis method and scaling parameter prediction method for generating immersive
US9075876B2 (en) Search method for video clip
CN113518185A (en) Video conversion processing method and device, computer readable medium and electronic equipment
US10445865B1 (en) Method and apparatus for converting low dynamic range video to high dynamic range video
JP2007312386A (en) Apparatus and method for correcting picture quality of video apparatus
CN113596573A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN107220934A (en) Image rebuilding method and device
KR102465841B1 (en) System for changing SDR content to HDR10+ content using deep learning
CN113781321A (en) Information compensation method, device, equipment and storage medium for image highlight area
CN111147924B (en) Video enhancement processing method and system
KR20070122409A (en) Video content detector
US10764471B1 (en) Customized grayscale conversion in color form processing for text recognition in OCR
CN111738964A (en) Image data enhancement method based on modeling
US8712161B2 (en) Image manipulating system and method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant