RU2790178C2 - Multirange encoding of video with expanded dynamic range - Google Patents

Multirange encoding of video with expanded dynamic range Download PDF

Info

Publication number
RU2790178C2
RU2790178C2 RU2021100192A RU2021100192A RU2790178C2 RU 2790178 C2 RU2790178 C2 RU 2790178C2 RU 2021100192 A RU2021100192 A RU 2021100192A RU 2021100192 A RU2021100192 A RU 2021100192A RU 2790178 C2 RU2790178 C2 RU 2790178C2
Authority
RU
Russia
Prior art keywords
image
dynamic range
luminance
function
hdr
Prior art date
Application number
RU2021100192A
Other languages
Russian (ru)
Other versions
RU2021100192A (en
Inventor
Ренатус Йозефус ВАН ДЕР ВЛЁТЕН
Рутгер НЕЙЛАНД
Йоханнес Изебранд ТИХЕЛАР
Original Assignee
Конинклейке Филипс Н.В.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Конинклейке Филипс Н.В. filed Critical Конинклейке Филипс Н.В.
Publication of RU2021100192A publication Critical patent/RU2021100192A/en
Application granted granted Critical
Publication of RU2790178C2 publication Critical patent/RU2790178C2/en

Links

Images

Abstract

FIELD: image encoding.
SUBSTANCE: invention relates to methods and devices for encoding of images with an expanded dynamic range. Encoder (900) of video with an expanded dynamic range is made with the possibility of reception through image input (920) of an input image (MsterHDR) with an expanded dynamic range, which has the first maximum pixel luminosity (PB_C_H50). At the same time, the encoder is made with the possibility of reception through metadata input (921) of the main brightness display function (FL_50t1), which determines the relationship between normalized brightness of the input image with an expanded dynamic range and normalized brightness of the corresponding image (Im_LDR) with a standard dynamic range, having the maximum pixel luminosity of preferably 100 nits. In this case, the encoder contains metadata input (923) for reception of the second maximum pixel luminosity (PB_CH). The encoder additionally contains HDR function generation block (901) made with the possibility of use of a standardized algorithm for conversion of the main brightness display function (FL_50t1) into an adapted brightness display function (F_H2hCI), which links normalized brightness of the input image with an expanded dynamic range with normalized brightness of an image with an intermediate dynamic range (hereinafter – IDR), which differs in the maximum possible luminosity equal to the second maximum pixel luminosity (PB_CH); IDR image calculation block (902) made with the possibility of use of the adapted brightness display function (F_H2hCI) to brightness of pixels of the input image (MsterHDR) with an expanded dynamic range to obtain brightness of pixels of IDR image; and IDR display function generator (903) made with the possibility of reception, based on the main brightness display function (FL_50t1) and the adapted brightness display function (F_H2hCI), of a channel brightness display function (F_I2sCI), which determines, as output data, corresponding normalized brightness of the image (Im_LDR) with a standard dynamic range, when corresponding normalized brightness of IDR image is set as input data. In this case, the encoder additionally outputs IDR image, the second maximum pixel luminosity (PB_CH) as the first metadata, the channel brightness display function (F_I2sCI) as the second metadata, and the first maximum pixel luminosity (PB_C_H50) as the third metadata.
EFFECT: provision of encoding of images with an expanded dynamic range with adapted brightness data for displays with different capacities of display of a dynamic range of image brightness.
13 cl, 28 dwg

Description

ОБЛАСТЬ ТЕХНИКИ FIELD OF TECHNOLOGY

Изобретение относится к способам и устройствам кодирования изображений с расширенным динамическим диапазоном и, в частности, видео, представляющего собой временные последовательности изображений, которые могут быть сжаты в соответствии с методами сжатия, такими как стандарт высокоэффективного кодирования видео (HEVC), разработанный экспертной группой по движущимся изображениям (MPEG) (например, телевизионные передачи), в частности, с использованием изображения (изображений) со вторым динамическим диапазоном (для передачи на декодер) с целью представления (основного) изображения (изображений) с первым динамическим диапазоном, изменение динамического диапазона которого предусматривает изменение светимостей пикселей изображения (например, от первого нормализованного до 1,0 значения до второго нормализованного до 1,0 значения) с помощью функций, подлежащих совместной передаче с изображением (изображениями) со вторым динамическим диапазоном, как правило, в виде метаданных.The invention relates to methods and apparatus for encoding images with a high dynamic range and, in particular, video, which is a time sequence of images that can be compressed in accordance with compression methods such as the High Efficiency Video Coding (HEVC) standard developed by the Motion Picture Expert Group (MPEG) images (e.g. television broadcasts), in particular using the image(s) with a second dynamic range (for transmission to a decoder) in order to present the (main) image(s) with a first dynamic range, the dynamic range change of which provides for changing the luminances of image pixels (eg, from a first value normalized to 1.0 to a second value normalized to 1.0) with functions to be co-transmitted with the second dynamic range image(s), typically as metadata.

УРОВЕНЬ ТЕХНИКИBACKGROUND OF THE INVENTION

Около 5 лет назад были представлены новые методы кодирования видео с расширенным динамическим диапазоном (HDR) (приведшие, например, к появлению специальных дисков Blu-ray HDR, которые должны воспроизводиться на телевизорах «UltraHD Premium» на 1000 нит).About 5 years ago, new High Dynamic Range (HDR) video coding methods were introduced (leading, for example, to special Blu-ray HDR discs that must be played on "UltraHD Premium" TVs at 1000 nits).

Этот новый способ технической обработки изображений во многих отношениях технически контрастирует с унаследованным кодированием видео, который до этого момента использовался для кодирования всех видео на протяжении последних 50 лет и который в настоящее время называется кодированием видео со стандартным динамическим диапазоном (SDR) (также известным как кодирование видео с узким динамическим диапазоном (LDR)). Для представления изображения необходимы кодированные в цифровом формате представления цветов пикселей, и функция определения кода яркости SDR (также известная как оптико-электрическая передаточная функция (OETF)) из рекомендации Rec. 709 могла кодировать (с использованием 8 или 10-битовых слов яркости) динамический диапазон светимостей только около 1000:1 вследствие ее формы, приблизительно похожей на функцию квадратного корня (яркость: Y = sqrt(Светимость L)). Однако это идеально подходило для кодирования изображений, подлежащих отображению на дисплеях того времени, которые обладают стандартными возможностями воспроизведения яркости (для всех дисплеев в то время) приблизительно от 0,1 до 100 нит, причем последнее значение представляет собой так называемую пиковую яркость (PB), также известную как максимальная светимость.This new way of technically processing images is in many ways technically in contrast to the legacy video coding that has been used to encode all videos for the past 50 years up to this point, and which is now called standard dynamic range (SDR) video coding (also known as video coding). low dynamic range (LDR) video). Image representation requires digitally encoded representations of pixel colors, and the SDR luminance code determination function (also known as the opto-electrical transfer function (OETF)) from Rec. The 709 could encode (using 8 or 10-bit luma words) a luminosity dynamic range of only about 1000:1 due to its roughly square root shape (luminance: Y=sqrt(Luminance L)). However, this was ideally suited for encoding images to be displayed on displays of the time, which have standard luminance reproduction capabilities (for all displays at the time) of approximately 0.1 to 100 nits, the latter being the so-called peak luminance (PB) , also known as maximum luminosity.

В силу того, что функция определения кода яркости из рекомендации Rec. 709 не может математически описывать огромный диапазон светимостей изображения HDR-сцены (например, от 0,001 нит до 10000 нит требуемой пиковой яркости PB_C кодирования изображения), исследователи HDR изначально решили эту проблему, разработав новое распределение HDR-кода, которое было гораздо более логарифмическим по форме, с тем чтобы можно было закодировать гораздо больше светимостей (поскольку зрительной системе требуется меньшая точность, т.е. меньшее количество кодовых значений для более ярких областей по сравнению с более темными областями, отсюда следует, что, распределяя, например, 50 кодов из 2^8 = 256 (где «^» обозначает степенную функцию) для каждой декады светимостей, уже можно кодировать динамический диапазон 100000:1). Это представляет собой простой «естественный» способ кодирования цветов HDR-изображения с использованием функции так называемого перцептивного квантователя (PQ), стандартизированного в SMPTE 2084.Due to the fact that the function of determining the brightness code from the recommendation of Rec. 709 cannot mathematically describe the huge range of HDR scene image luminances (e.g. 0.001 nits to 10000 nits of required peak image coding PB_C brightness), HDR researchers initially addressed this problem by developing a new HDR code distribution that was much more logarithmic in shape , so that many more luminosities can be encoded (because the visual system requires less precision, i.e., fewer code values for brighter areas compared to darker areas, it follows that by distributing, for example, 50 codes out of 2 ^8 = 256 (where "^" denotes a power function) for each decade of luminosities, it is already possible to encode a dynamic range of 100000:1). This is a simple "natural" way to encode the colors of an HDR image using the so-called perceptual quantizer (PQ) function standardized in SMPTE 2084.

Можно наивно полагать, что это все, что нужно для кодирования и декодирования HDR-изображений, но все не так просто; поэтому и появились дополнительные подходы к кодированию, в частности, ранее разработанный подход к кодированию и обработке HDR-видео, предложенный настоящим заявителем.It might be naive to think that this is all it takes to encode and decode HDR images, but it's not that simple; therefore, additional approaches to encoding have appeared, in particular, the previously developed approach to encoding and processing HDR video proposed by the present applicant.

На ФИГ. 1 обобщены некоторые важные аспекты, позволяющие получить достаточное представление о том, что задействовано и необходимо при кодировании HDR-видео.FIG. 1 summarizes some of the important aspects to get a good idea of what is involved and needed in HDR video coding.

Предположим, что на левой стороне имеется диапазон светимостей всех возможных (PQ-декодированных) светимостей HDR вплоть до PB_C = 5000 нит. Предположим на мгновение, что для того, чтобы это изображение выглядело идеально, как требуется, все объектные пиксели того, что мы будем называть основным HDR-изображением, созданы на компьютере (как действовать, например, в случае с камерой вещательного телевидения пояснено ниже с помощью ФИГ. 2). Проблема с естественным HDR-кодеком (который просто предлагает технологию для кодирования светимостей вплоть до 10000 нит, т.е. вплоть до 5000 нит, как требуется в этом примере) заключается в том, что если потребитель также имеет дорогой дисплей с пиковой яркостью (PB_D) отображения 5000 нит (и если он просматривает изображение в стандартных условиях среды просмотра), он может смотреть видео в точности так, как задумал создатель (например, кинорежиссер), но если у него другой дисплей (например, с PB_D = 750 нит или PB_D = 100 нит), то имеется следующая нерешенная и также нетривиальная проблема: как отобразить изображение с PB_C 5000 нит на дисплее с PB_D 750 нит? Кажется, что эта проблема не имеет простого элегантного решения. Применение точного отображения светимости будет идеально отображать все объекты со светимостью вплоть до 750 нит, но при этом осекать все более яркие объектные пиксели до одной и той же PB_D = 750 нит, в результате чего многие объекты изображения окажутся в области белых пятен, что, конечно, не выглядит красиво. Можно подумать, что решением является линейное масштабирование "контента", или содержимого, (деление всех светимостей HDR на 5000/750, что является так называемым подходом к отображению «белого контента на белом дисплее»), но тогда более темные объекты, такие как человек в темной области пещеры в примере изображения ImSCN3 сцены со светимостями HDR (0,05 нит), которые также могут быть слишком низкими для дисплеев с меньшим динамическим диапазоном, приобретают не воспринимаемую низкую светимость на дисплее на 750 нит (0,05*750/5000 = 0,0075 нит).Assume that on the left side there is a luminosity range of all possible (PQ-decoded) HDR luminosities up to PB_C = 5000 nits. Suppose for a moment that in order to make this image look perfect as required, all the object pixels of what we will call the main HDR image are created on a computer (how to proceed, for example, in the case of a broadcast television camera is explained below with FIG 2). The problem with the native HDR codec (which simply offers the technology to encode luminances up to 10,000 nits, i.e. up to 5,000 nits as required in this example) is that if the consumer also has an expensive display with peak brightness (PB_D ) display of 5000 nits (and if he is viewing the image in standard viewing environment conditions), he can watch the video exactly as the creator intended (for example, a filmmaker), but if he has a different display (for example, with PB_D = 750 nits or PB_D = 100 nits), then there is the following unsolved and also non-trivial problem: how to display an image with PB_C 5000 nits on a display with PB_D 750 nits? There doesn't seem to be a simple elegant solution to this problem. Applying accurate luminance mapping will perfectly render all objects with luminance up to 750 nits, but will cut off all brighter object pixels to the same PB_D = 750 nits, resulting in many objects in the image in the area of white spots, which, of course doesn't look pretty. One might think that the solution is to linearly scale the "content" or content (dividing all HDR luminances by 5000/750, which is the so-called "white content on white display" approach), but then darker objects such as a human in the dark area of the cave in the ImSCN3 image example, scenes with HDR luminosities (0.05 nits), which can also be too low for lower dynamic range displays, acquire an imperceptible low luminosity on a 750 nits display (0.05*750/5000 = 0.0075 nits).

На ФИГ. 1 также показано, что разные HDR-изображения разных типичных HDR-сцен могут иметь совершенно разные требования относительно того, как «сжимать» различные (по возможности, в «произвольных» положениях светимости в диапазоне DR_2 светимостей HDR) светимости HDR до гораздо меньших, например, динамического диапазона DR_1 светимостей LDR.FIG. 1 also shows that different HDR images of different typical HDR scenes can have quite different requirements as to how to "compress" different (if possible, at "arbitrary" luminance positions in the DR_2 range of HDR luminosities) HDR luminosities to much smaller ones, for example , dynamic range DR_1 of LDR luminosities.

Светимости в реальном мире могут варьироваться, например, когда объекты в помещении и на открытом воздухе одновременно присутствуют на виде в отношении: контраст освещения (illumination_contrast) * контраст при отражении объектом (object_reflection_contrast) = (1:100)*(1:100), и хотя светимости на изображении, представляющем сцену, как правило, необязательно будут идентичны исходным светимостям сцены, для хорошего репрезентативного HDR-изображения можно было бы ожидать, что светимости пикселей могут достигать по меньшей мере 1000 нит, начиная с минимума, составляющего по меньшей мере 0,1 нит или меньше (следовательно, DR_im >= 10,000:1). Кроме того, хорошие HDR-изображения могут быть в большей степени связаны с умным распределением различных светимостей объектов по диапазону светимостей, чем с самим физическим динамическим диапазоном (не говоря уже о неправильном понимании того, что все определяется количеством битов - это не соответствует действительности для нелинейных функций определения кода яркости, поскольку 10-битовое изображение яркости может с таким же успехом быть как некоторым HDR-изображением, так и SDR-изображением).Luminances in the real world can vary, for example, when indoor and outdoor objects are simultaneously present in the view in relation to: lighting contrast (illumination_contrast) * object reflection contrast (object_reflection_contrast) = (1:100)*(1:100), and while the luminances in an image representing the scene will generally not necessarily be identical to the original scene luminosities, for a good representative HDR image one would expect pixel luminances to be at least 1000 nits, starting from a minimum of at least 0 .1 nit or less (hence DR_im >= 10,000:1). In addition, good HDR images may have more to do with cleverly distributing different object luminosities over a luminosity range than with the physical dynamic range itself (not to mention the misunderstanding that everything is determined by the number of bits - this is not true for non-linear luminance code definition functions, since a 10-bit luma image could just as well be some HDR image as well as an SDR image).

На ФИГ. 1 показана пара типичных иллюстративных примеров множества возможных HDR-сцен, которые HDR-система будущего (например, подключенная к дисплею с PB_D 1000 нит), возможно, должна будет уметь правильно обрабатывать, в частности, посредством отображения подходящих светимостей для всех объектов/пикселей на изображении.FIG. 1 shows a couple of typical illustrative examples of the many possible HDR scenes that an HDR system of the future (e.g. connected to a display with a PB_D of 1000 nits) may need to be able to handle correctly, in particular by displaying appropriate luminosities for all objects/pixels on the image.

Например, ImSCN1 - это изображение освещенной солнцем сцены на открытом воздухе из вестерна (которое в основном содержит яркие области, ярче среднего, что соответствовало бы изображению тусклого дня, причем эти области в идеале должны воспроизводиться ярче, чем на дисплее на 100 нит, чтобы обеспечивать более солнечный вид, чем в дождливый день, например, со средней светимостью, скажем, 400 нит). ImSCN2, с другой стороны, представляет собой совершенно другой вид изображения, а именно изображение ночной сцены, на котором преобладают темные области (и, например, их хорошая видимость), причем то, что делает это изображение HDR-изображением, а не просто темным SDR-изображением, - это также наличие ярких пикселей в пятнах под уличными фонарями и, возможно, в освещенных окнах домов, и даже наличие очень ярких пикселей (например, 3000 нит) на поверхностях ламп уличных фонарей.For example, ImSCN1 is an image of a sunlit outdoor scene from a western (which mostly contains bright areas that are brighter than average, which would correspond to a dim day image, and these areas should ideally be reproduced brighter than a 100 nit display to provide a sunnier view than on a rainy day, for example, with an average luminosity of, say, 400 nits). ImSCN2, on the other hand, is a completely different kind of image, namely a night scene image that is dominated by dark areas (and, for example, their good visibility), and what makes this image an HDR image and not just a dark SDR -image, is also the presence of bright pixels in spots under street lamps and possibly in illuminated windows of houses, and even the presence of very bright pixels (for example, 3000 nits) on the surfaces of lamps of street lamps.

Что делает такое изображение ImSCN1 «солнечным» по сравнению с темным изображением ImSCN2? Необязательно относительные светимости, по меньшей мере, не в парадигме SDR (светимости пикселей будут во всем диапазоне от 0,1 до 100 нит, возможно, для обоих изображений, хотя пространственное распределение таких светимостей и, в частности, гистограмма могут отличаться). Что отличает воспроизведение HDR-изображения от того, каким оно всегда было в эпоху SDR, которая закончилась всего пару лет назад, так это то, что SDR представлял собой такой ограниченный динамический диапазон (около PB = 100 нит, и минимальный уровень черного MB приблизительно от 0,1 до 1 нит), и что в основном в SDR могли быть показаны только собственные отражательные способности объектов (которые находились бы в диапазоне от 90% для хорошего белого до 1% для хорошего черного). Это было бы хорошо для распознавания объектов (имеющих конкретную степень яркости вследствие их отражения и, конечно же, их цветности) при равномерном технически контролируемом освещении, однако в естественных сценах встречается не так много красивых вариаций в самом освещении, которые могут оказывать воздействие на зрителей (солнечный луч, выходящий из окна, или плазма, исходящая от ведьмы). Если это позволяет дисплей, а значит, и технология кодирования и обработки изображений, то можно было бы, прогуливаясь по лесу, действительно видеть, как солнце светит сквозь деревья, т.е. вместо просто несколько более желтоватой картины как на SDR-дисплее хотелось бы видеть яркую и разноцветную освещенную солнцем одежду, когда человек выходит из тени на солнце. И, по этой же причине, огонь и взрывы должны иметь оптимальное визуальное воздействие, по меньшей мере, насколько позволяет PB_D.What makes such an ImSCN1 image "sunny" compared to a dark ImSCN2 image? Optionally, relative luminosities, at least not in the SDR paradigm (pixel luminosities will be in the entire range from 0.1 to 100 nits, possibly for both images, although the spatial distribution of such luminosities and, in particular, the histogram may differ). What makes HDR image reproduction different from what it always was in the SDR era, which ended just a couple of years ago, is that SDR represented such a limited dynamic range (about PB = 100 nits, and a minimum MB black level of about 0.1 to 1 nit) and that basically only the intrinsic reflectances of objects (which would be in the range of 90% for good white to 1% for good black) could be shown in SDR. This would be good for recognizing objects (having a specific degree of brightness due to their reflection and, of course, their chromaticity) under uniform technically controlled lighting, but in natural scenes there are not many beautiful variations in the lighting itself that can affect viewers ( a sunbeam coming out of a window, or plasma coming from a witch). If the display allows it, and hence the technology of coding and image processing, then it would be possible, walking through the forest, to really see how the sun shines through the trees, i.e. instead of just a slightly more yellowish picture as on an SDR display, one would like to see bright and multi-colored sunlit clothes when a person steps out of the shadows into the sun. And, for the same reason, fire and explosions should have optimal visual impact, at least as far as PB_D allows.

В SDR можно делать изображение ночной сцены несколько темнее, чем изображение обычной освещенной сцены, как это видно на гистограмме яркости, но не слишком сильно, иначе оно будет просто отображаться как слишком темное и неприятное (возможно, даже в значительной степени невидимое) изображение (именно поэтому было достигнуто соглашение о том, чтобы делать изображения ночных сцен по-прежнему относительно яркими, но синими). Кроме того, на телевизоре на 100 нит или при кодировании на 100 нит просто нет места для чего-то слишком яркого. Таким образом, нужно было показывать объекты независимо от их освещения, и в то же время нельзя было точно показывать все иногда очень контрастные освещения сцены, которые могли произойти. На практике это означало, что очень яркая солнечная сцена должна быть воспроизведена с приблизительно такими же светимостями дисплея (0-100 нит), что и тусклая сцена дождливого дня или даже ночная сцена.In SDR, it is possible to make an image of a night scene somewhat darker than an image of a normal lit scene, as seen in the brightness histogram, but not too much, otherwise it will simply be displayed as too dark and unpleasant (perhaps even largely invisible) image (namely therefore, an agreement was reached to keep images of night scenes still relatively bright, but blue). Also, on a 100 nit TV or 100 nit encoding, there's simply no room for anything too bright. Thus, it was necessary to show objects regardless of their lighting, and at the same time it was impossible to accurately show all the sometimes very contrasting scene lighting that could occur. In practice, this meant that a very bright sunny scene had to be reproduced with approximately the same display luminosities (0-100 nits) as a dim rainy day or even a night scene.

В реальной жизни человеческое зрение также может адаптироваться к доступному количеству света, но не так сильно (большинство людей в реальной жизни все же понимают, когда начинает темнеть, или что они находятся в более темной или довольно яркой среде). И не следует забывать, что телевидение, показывающее изображения, представляет собой не симуляцию адаптированного глаза, а, скорее всего, симуляцию реальных условий среды, насколько это возможно с учетом условий просмотра и других технических ограничений. Таким образом, хотелось бы отображать изображения со всеми видимыми локальными и также временными световыми эффектами, которые можно художественно воплощать на изображениях для получения гораздо более реалистичных воспроизводимых изображений, по меньшей мере, если целевой зритель имеет в наличии HDR-дисплей. То, какая именно светимость была бы подходящей, скажем, для светового меча в темной комнате, оставим на усмотрение специалиста по цветовой градировке, создающего основную (основные) градуировку (градуировки) (для простоты изложения идеи изобретения в данной заявке будем предполагать, что изображения с различным динамическим диапазоном, по меньшей мере два с самым разным динамическим диапазоном создаются человеком-специалистом по градуировке, но точно так же изображения могут быть созданы автоматическим программным обеспечением), и данная заявка будет сосредоточена на необходимых технических компонентах для создания и обработки таких изображений для различных участников рынка с потенциально разными потребностями.In real life, human vision can also adapt to the amount of light available, but not as much (most people in real life still understand when it starts to get dark, or that they are in a darker or fairly bright environment). And it should not be forgotten that television showing images is not a simulation of an adapted eye, but rather a simulation of real environmental conditions, as far as possible, given viewing conditions and other technical limitations. Thus, one would like to display images with all visible local and also temporal lighting effects that can be artistically embodied in images to produce much more realistic reproducible images, at least if the target viewer has an HDR display. What kind of luminosity would be suitable for, say, a lightsaber in a dark room, we will leave to the discretion of a color grading specialist who creates the main (main) graduation (s) (for simplicity of presenting the idea of the invention in this application, we will assume that images with different dynamic range, at least two with very different dynamic range are created by a human grading specialist, but similarly, images can be created by automatic software), and this application will focus on the necessary technical components for creating and processing such images for various market participants with potentially different needs.

На левой оси на ФИГ. 1 показаны светимости объектов, как хотелось бы их видеть (например) в основной HDR-градуировке с PB_C 5000 нит при непосредственном отображении на (эталонном) дисплее с PB_D 5000 нит (т.е. специалист по градуировке изображений создает изображение при условии, что обычный домашний высококачественный HDR-телевизор будет иметь PB_D 5000 нит, и он сможет фактически присутствовать в представлении такой домашней комнаты для просмотра и осуществлять градуировку на таком дисплее для градуировки). Если желательно передать не просто приблизительную иллюзию исходной HDR-сцены, которая была захвачена, а реальное ощущение того, что ковбой находится в яркой освещенной солнцем среде, необходимо задать и сделать эти светимости пикселей достаточно яркими, например, равными в среднем приблизительно 500 нит.On the left axis in FIG. 1 shows the luminosities of objects as one would like to see them (for example) in a basic HDR grading with PB_C 5000 nits when directly displayed on a (reference) display with PB_D 5000 nits a home HDR HDR TV will have a PB_D of 5000 nits and it will be able to actually be present in the view of that home viewing room and calibrate on that grading display). If it is desired to convey not just the approximate illusion of the original HDR scene that was captured, but the actual feeling of the cowboy being in a bright, sunlit environment, these pixel luminosities must be set and made sufficiently bright, e.g., averaging approximately 500 nits.

Для ночной сцены желательны в основном низкие светимости, но главный герой на мотоцикле должен быть хорошо распознаваемым, т.е. не слишком темным (например, приблизительно 5 нит), и в то же время могут быть пиксели с довольно высокой светимостью, например, пиксели уличных фонарей, например, имеющие приблизительно 3000 нит на дисплее на 5000 нит или приблизительно пиковую яркость на любом HDR-дисплее (например, с PB_D 1000 нит). На третьем примерном изображении ImSCN3 показано, что теперь также возможно на HDR-дисплеях: можно одновременно воспроизводить много (семантически более важных, чем просто лампа, т.е. с большим количеством деталей внутри области, например, освещенные солнцем деревья) очень ярких и много важных очень темных пикселей. На изображении ImSCN3 показано, что в качестве типичного и относительно сложного для обработки изображения HDR-сцены можно рассматривать темную пещеру с отверстием, через которое можно видеть солнечную внешнюю среду. Для этой сцены может потребоваться сделать освещенные солнцем объекты, такие как дерево, несколько менее яркими, чем в сцене, которая нацелена на создание впечатления только яркого солнечного пейзажа, например, приблизительно 400 нит, который должен быть более согласован с по существу темным персонажем внутри пещеры. При необходимости специалисту по цветовой градуировке может потребоваться оптимально координировать светимости всех объектов (уже на основном HDR-изображении с PB_HDR = 5000 нит), чтобы ничего не выглядело неуместно темным или ярким и была хороший контраст, например, человек, стоящий в темноте в этой пещере, может кодироваться на основном градуированном HDR-изображении с использованием приблизительно 0,05 нит.For a night scene, mostly low luminosities are desirable, but the main character on a motorcycle must be well recognizable, i.e. not too dark (e.g. approximately 5 nits) while there may be pixels with fairly high luminosity, e.g. street light pixels, e.g. having approximately 3000 nits on a 5000 nits display or approximately peak brightness on any HDR display (e.g. with PB_D 1000 nits). The third sample image of ImSCN3 shows what is now also possible on HDR displays: it is possible to simultaneously display many (semantically more important than just a lamp, i.e. with more detail within the area, such as sunlit trees) very bright and many important very dark pixels. The ImSCN3 image shows that a typical and relatively difficult to process image of an HDR scene can be considered a dark cave with a hole through which one can see the sunny environment. This scene may need to make sunlit objects such as a tree somewhat less bright than in a scene that aims to give the impression of only a bright sunny landscape, for example, approximately 400 nits, which should be more consistent with the essentially dark character inside the cave . If necessary, the color grading specialist may need to optimally coordinate the luminosities of all objects (already in the main HDR image with PB_HDR = 5000 nits) so that nothing looks out of place dark or bright and there is good contrast, for example, a person standing in the dark in this cave , can be encoded on the main graduated HDR image using approximately 0.05 nits.

После создания этого основного HDR-изображения возникает следующий художественный вопрос (даже до его формулирования при задействовании технологии): как это изображение должно быть повторно градуировано в изображения с разным динамическим диапазоном, например, по меньшей мере унаследованное SDR-изображение с PB_C 100 нит.Once this basic HDR image is created, the following artistic question arises (even before it is formulated when the technology is involved): how this image should be re-graded into images with different dynamic range, for example, at least a legacy SDR image with a PB_C of 100 nits.

Это помогает разобраться в том, когда заданы взаимосвязи между светимостями, поэтому мы будем поступать так в этой заявке, когда будет удобно. В действительности, с технической точки зрения, светимости будут кодироваться как яркости через функцию распределения кода яркости, также известную как оптико-электрическая передаточная функция (OETF), и, следовательно, можно также сформулировать все взаимосвязи между светимостями, например, функцию для вычисления выходной светимости L_out из входной светимости L_in, также в виде взаимосвязей между эквивалентными яркостями.This helps to understand when relationships between luminosities are given, so we will do so in this application when it is convenient. In fact, from a technical point of view, luminosities will be encoded as luminances via a luminance code distribution function, also known as an opto-electrical transfer function (OETF), and hence one can also formulate all relationships between luminosities, for example, a function to calculate the output luminosity L_out from input luminosity L_in, also as relationships between equivalent luminances.

Возможно, это немного сбивает с толку, но можно также выразить светимости нормализованным (т.е. с использованием максимальной нормализованной светимости, равной 1,0) способом и определить все действия в отношении таких нормализованных светимостей. Это дает преимущество в том, что (при условии, что оба цвета пикселей изображения определены в одном и том же наборе основных цветов RGB) нормализованная цветовая HDR-гамма точно перекрывает цветовую LDR-гамму, и, следовательно, можно отображать изменения светимости в этой единственной нормализованной цветовой гамме. Очевидно, что относительное положение нормализованной светимости LDR, которая должна отображаться с точно такой же абсолютной светимостью, что и светимость HDR, которая задана в диапазоне светимостей HDR с PB_C = 5000 нит, будет иметь другую относительную высоту (т.е. затем можно показать в таком представлении гаммы отображение светимости для конкретной светимости пикселя HDR, необходимой при создании соответствующей светимости пикселя LDR-изображения, как относительное/нормализованное изменение высоты в этой нормализованной гамме). Взаимосвязь между абсолютной и относительной светимостями является простой: L_norm = L_abs/PB_C, где PB_C - любая максимальная светимость кодирования, например, 5000 нит для HDR-кодирования и, согласно стандартному соглашению, 100 нит для SDR.This may be a bit confusing, but it is also possible to express the luminosities in a normalized (i.e., using the maximum normalized luminosity of 1.0) way and define all actions on those normalized luminosities. This has the advantage that (assuming both image pixel colors are defined in the same set of RGB primaries) the normalized HDR gamut exactly overlaps the LDR gamut, and thus luminosity changes can be displayed in that single normalized colors. Obviously, the relative position of the normalized LDR luminosity, which should be displayed at exactly the same absolute luminosity as the HDR luminosity, which is given in the HDR luminosity range with PB_C = 5000 nits, will have a different relative height (i.e. can then be shown in such a gamut representation, a mapping of the luminosity for a particular HDR pixel luminosity needed to generate the corresponding LDR image pixel luminosity as a relative/normalized height change in that normalized gamut). The relationship between absolute and relative luminosities is simple: L_norm = L_abs/PB_C where PB_C is any maximum encoding luminosity, eg 5000 nits for HDR encoding and 100 nits for SDR by standard convention.

Последнее, что важно усвоить из ФИГ. 1 (поскольку вся технология должна работать соответствующим образом), заключается в том, что в зависимости от того, с каким типом объекта (т.е. светимостями его пикселей) в каком виде HDR-сцены приходится иметь дело, можно использовать разные высокоуровневые подходы к тому, как повторно градуировать, т.е. преобразовывать указанную (указанные) светимость (светимости) пикселей.The last thing that is important to learn from FIG. 1 (because the whole technology should work accordingly) is that depending on what type of object (i.e., the luminosities of its pixels) in what kind of HDR scene you have to deal with, you can use different high-level approaches to how to recalibrate, i.e. convert the specified luminosity(s) of the pixels.

Например, объект в темноте, такой как мотоциклист, может быть воспроизведен путем выравнивания абсолютной светимости (что предусматривает соответствующее изменение масштабирования для нормализованной светимости) для всего повторно градуированного изображения, в частности, исходного основного HDR-изображения слева, соответствующего SDR-изображения справа и любого изображения со средним динамическим диапазоном (MDR) между ними, например, показанного с PB_C = PB_MDR = 800 нит, которое оптимизировано (с использованием правильных светимостей объекта) для непосредственного отображения на дисплее с PB_D 800 нит (например, для потребителя, который приобрел такой дисплей и получает HDR-изображения с PB_C 5000 нит, например, от своего кабельного провайдера или через спутниковую телевизионную приставку, или из Интернета и т.д.). Это имеет смысл, потому что создатель контента хочет передать темную атмосферу, в которой мотоцикл просто виден, и было бы плохо делать его ярче на более ярком дисплее просто по той причине, что такой дисплей может это делать, поскольку он имеет больший диапазон светимостей, заканчивающийся более высокой PB_D, для отображения всех светимостей объектов в сцене.For example, an object in the dark, such as a motorcyclist, can be reproduced by equalizing the absolute luminosity (which involves a corresponding rescaling for normalized luminosity) for the entire regraded image, in particular the original HDR main image on the left, the corresponding SDR image on the right, and any an image with a medium dynamic range (MDR) in between, such as one shown with PB_C = PB_MDR = 800 nits, which is optimized (using the correct object luminosities) for direct display on a display with a PB_D of 800 nits (for example, for a consumer who has purchased such a display and receives HDR images with PB_C 5000 nits, for example, from your cable provider or via a satellite set-top box, or from the Internet, etc.). This makes sense because the content creator wants to convey a dark atmosphere in which the bike is just visible, and it would be bad to make it brighter on a brighter display for the simple reason that such a display can do this, since it has a larger range of luminosities, ending higher PB_D, to display all the luminosities of objects in the scene.

Такой объект, как солнце, вероятно, будет следовать совершенно иной философии, а именно способу отображения белого на белом, при котором ему всегда дается максимально возможное значение в любом представлении изображения, т.е. PB_C. Очевидно, что другие виды объектов могут подчиняться другим видам правил, и можно было бы продолжать еще долго (например, ковбой будет соответствовать философии масштабируемого умеренного серого цвета), но для читателя достаточно понять, что должна быть технология, которая обеспечивает почти «произвольное» распределение всех светимостей пикселей, а не, например, фиксированное, подобное тому, что диктуют простые технологии.An object like the sun would probably follow a completely different philosophy, namely a way of displaying white on white that always gives it the highest possible value in any representation of the image, i.e. PB_C. Obviously, other kinds of objects may obey other kinds of rules, and one could go on and on (e.g. a cowboy would fit the scalable moderate gray philosophy), but it's enough for the reader to understand that there must be a technology that provides an almost "arbitrary" distribution of all pixel luminosities, and not, for example, a fixed one, similar to what simple technologies dictate.

Хотя ФИГ. 1 упрощенно восполняет пробелы в создании универсального HDR-изображения (охватывающего такие различные технически ограниченные применения, как фильмы, реальное спортивное вещание и т.д.), для разработчиков HDR-технологии все еще остается открытым вопрос о том, как кодировать HDR-изображения, а также как преобразовывать HDR-изображения, чтобы иметь возможность оптимально отображать их на любом дисплее с меньшей PB_D, чем закодированная PB_C (т.е. самый яркий пиксель, который может появиться на видео хотя бы один раз). Захват изображений HDR-сцены, а также, что немаловажно, художественное оформление и освещение HDR-сцены также являются техническим навыком, но в настоящей заявке нет необходимости фокусироваться на этом аспекте.Although FIG. 1 simply fills in the gaps in creating a generic HDR image (covering various technically limited applications such as movies, real sports broadcasting, etc.), it is still an open question for developers of HDR technology how to encode HDR images, and how to convert HDR images to be able to display them optimally on any display with a lower PB_D than the encoded PB_C (i.e. the brightest pixel that can appear at least once in a video). Capturing images of an HDR scene and, not least, decorating and lighting an HDR scene are also technical skills, but it is not necessary to focus on this aspect in this application.

Простейший вариант заключается в том, чтобы просто закодировать светимости HDR-пикселей (игнорируя сложность адаптации дисплея (DA), т.е. то, как отображать изображение с PB_C1 в изображение для менее функционального дисплея). Проблема состояла в том, что в рекомендации Rec. 709 для OETF предусмотрена возможность кодирования только динамического диапазона светимостей 1000:1, т.е. необходимо было изобрести новую OETF для HDR (или, по сути, обратную ей EOTF). На рынок был выведен первый HDR-кодек под названием HDR10, который, например, используется для создания новых дисков Blu-ray HDR с черными лентами, и он использует в качестве OETF функцию более логарифмической формы, называемую функцией перцептивного квантователя (PQ), которая стандартизирована в SMPTE 2084 и которая позволяет задавать яркости для светимостей от 1/10000 нит до 10000 нит, что достаточно для практического производства HDR-видео. Кроме того, у него есть хорошее свойство, заключающееся в том, что коды яркости, которые он создает, соответствуют тому, как работает человеческое зрение (вид перцептивных значений серого, которые головной мозг использует для определения разных светимостей в сцене, что является хорошим свойством как для эффективной повторной градуировки конкретных серых объектов, так и для эффективного представления светимостей, как это делает мозг). После вычисления яркостей имелась только 10-битовая плоскость пикселей (или, скорее, только две 3-битовые плоскости цветности Cb и Cr), которые можно классически обрабатывать дальше последовательно, «как если бы» они были SDR-изображением с математической точки зрения, например, сжатым MPEG (это важное ограничение, поскольку оно позволяет избежать перепроектирования и повторного развертывания нескольких ранее существовавших технологий в общем конвейере обработки видео).The simplest option is to just encode the HDR pixel luminosities (ignoring the complexity of Display Adaptation (DA), i.e. how to map an image from PB_C1 to an image for a less capable display). The problem was that the Rec. 709 for OETF, it is possible to encode only the dynamic range of luminosities of 1000:1, i.e. it was necessary to invent a new OETF for HDR (or, in fact, its inverse EOTF). The first HDR codec called HDR10 was brought to market, which is used for example to create new Blu-ray HDR discs with black tapes, and it uses as OETF a more logarithmic function called the Perceptual Quantizer (PQ) function, which is standardized in SMPTE 2084 and which allows you to set the brightness for luminances from 1/10000 nits to 10000 nits, which is enough for the practical production of HDR video. Also, it has the good property that the luminance codes it generates match how human vision works (the kind of perceptual gray values that the brain uses to determine the different luminances in a scene, which is a nice property as for efficient regrading of specific gray objects, and for efficient representation of luminosities, as the brain does). After calculating the luminances, there was only a 10-bit pixel plane (or rather, only two 3-bit chrominance planes Cb and Cr), which can classically be processed further sequentially, "as if" they were an SDR image from a mathematical point of view, for example , compressed by MPEG (this is an important limitation because it avoids the redesign and redeployment of several pre-existing technologies in a common video processing pipeline).

Значительная техническая трудность, связанная с изображениями HDR10, по-прежнему заключается в том, как правильно отображать их на менее функциональных дисплеях (например, c функциональностью менее PB_C 2000 нит, для которой был создан HDR-контент). Если, например, просто отображать прямолинейно белое на белое (максимальный белый цвет кодированного изображения, также известный как пиковая яркость PB_C кодирования, например, в пиковую яркость PB_D SDR-дисплея), наиболее интересные (более темные) части изображения с PB_C = 1000 нит, как правило, выглядели в 10 раз темнее, что означало бы, что ночная сцена на изображении ImSCN2 станет недоступной для просмотра. Из-за логарифмического характера OETF PQ изображения HDR10 доступны для просмотра (когда они просто воспроизводятся как яркости, т.е. декодируются с неправильной EOTF), но имеют неприглядно ухудшенную контрастность, из-за чего они выглядят, среди прочего, размытыми и имеют неправильную яркость.A significant technical difficulty with HDR10 images still lies in how to properly display them on less capable displays (eg, those with less than PB_C 2000 nits functionality for which HDR content was created). If, for example, one simply maps rectilinearly white to white (the maximum white color of the encoded image, also known as the peak luminance PB_C of the encoding, for example, to the peak luminance PB_D of an SDR display), the most interesting (darker) parts of the image with PB_C = 1000 nits, would typically look 10 times darker, which would mean that the night scene in the ImSCN2 image would become unviewable. Due to the logarithmic nature of OETF PQ, HDR10 images are viewable (when they are simply rendered as luma, i.e. decoded with the wrong EOTF), but have an unsightly degraded contrast ratio, causing them to look, among other things, washed out and have the wrong brightness.

Простая система для создания HDR-видеоконтента, например, в сценарии широковещательной передачи, поясняется с помощью ФИГ. 2. Как и прежде, подробности распределения нелинейных кодов яркости или цветов пикселей R'G'B' пока не рассматриваются с целью упрощения толкования (так называемый оптико-оптический подход: OOTF, с нормальными (абсолютными) светимостями во всей последовательности). С помощью экспозиции (EXP) камеры (201) можно выбрать, какие светимости объекта точно записываются и при каком относительном значении (поскольку камера функционирует как измеритель относительной светимости для всех пространственных положений или, скорее, как относительный колориметр, обеспечивающий триплеты RGB). Поскольку и датчик камеры, и N-битовое математическое представление цветового компонента практически имеют конечный диапазон, начиная с минимального значения и заканчивая максимальным значением, имеет смысл экспонировать не детали солнца, которое соответствует миллиарду нит, а отсекать по меньшей мере эти значения светимости или RGB до их максимума. В по существу неограниченном диапазоне выбор экспозиции может быть «скорректирован» путем последующего повторного отображения светимости, но в любом случае этот факт показывает читателю, что не существует «естественного» очевидного отображения светимостей сцены в подлежащие отображению светимости (это сопоставление светимостей известно как колориметрия, связанная с дисплеем, и является на самом деле тем, что в конечном итоге имеет значение). Изображение LIN_HDR с линейной светимостью обычно сначала подвергается отображению (202) OOTF. Оно существовало в некоторой степени уже в эпоху SDR и направлено на исправление того факта, что человеческое зрение в обычно более темной среде просмотра в вечерней гостиной, в которой смотрят телевизор, требует более высокой контрастности для аналогичного визуального восприятия, в связи с чем OOTF, как правило, является мягкой гамма-функцией. Однако особенно при отображении сцены со значительным динамическим диапазоном на типичном дисплее (205) с меньшим динамическим диапазоном (даже если это высококачественный эталонный монитор на 4000 нит) может потребоваться некоторая художественная оптимизация различной светимости объектных пикселей путем применения потенциально произвольной кривой, которая в данном документе называется градуировкой, с помощью блока 203 градуировки. В особенности для высококачественной продукции в режиме офлайн могут требоваться значительные усилия по градуировке, чтобы создавать так называемое творческое видение или взглянуть на основное HDR-изображение MAST_HDR (которое, согласно настоящему изобретению, все еще подлежит дальнейшей технической обработке, например, предпочтительно кодированию). Результирующее изображение при этом выглядит оптимально и может быть отправлено через какое-либо соединение 204 для передачи изображений на дисплей 205, на котором человек-специалист по градуировке может проверить, соответствует ли уже изображение желаемому, или продолжить настройку по меньшей мере одной функции отображения светимости через блок 206 управления пользовательским интерфейсом (например, пульт управления градуировкой). Эта произвольная градуировка формирует основной вид - не путать с произвольной повторной градуировкой (вторичным видом) для получения, например, как можно более оптимального соответствующего SDR-изображения, которое может называться основным SDR-изображением (например, при формировании части философии кодирования видео, как описано ниже). Хотя читателю была пояснена всего лишь еще одна простая топология, читатель сможет понять, что на практике могут быть разные фактические варианты осуществления в зависимости, например, от того, идет ли реальная широковещательная передача только с использованием одной HDR-камерой или набора объединенных SDR- и HDR-камер, или с использованием предварительно определенного HDR-изображения и соответствующего повторно градуированного основного SDR-изображения, которые теперь необходимо совместно кодировать в соответствии с принципами кодирования (например, принципами ETSI1 или ETSI2 - см. ниже) и т.д.A simple system for creating HDR video content, such as in a broadcast scenario, is explained with FIG. 2. As before, the details of the distribution of non-linear luminance codes or colors of R'G'B' pixels are not yet considered in order to simplify interpretation (the so-called opto-optical approach: OOTF, with normal (absolute) luminosities in the entire sequence). With the exposure (EXP) of the camera (201), it is possible to choose which object luminosities are accurately recorded and at what relative value (because the camera functions as a relative luminosity meter for all spatial positions, or rather as a relative colorimeter providing RGB triplets). Since both the camera sensor and the N-bit mathematical representation of the color component have a practically finite range, from the minimum value to the maximum value, it makes sense not to expose the details of the sun, which corresponds to a billion nits, but to cut off at least these luminosity or RGB values to their maximum. Over an essentially unrestricted range, exposure selection can be "corrected" by subsequent remapping of the luminosity, but in any case this fact shows the reader that there is no "natural" obvious mapping of scene luminosities into the luminosities to be displayed (this mapping of luminosities is known as colorimetry associated with the display, and is really what matters in the end). The LIN_HDR image with linear luminosity is usually first subjected to OOTF mapping (202). It has existed to some extent already in the SDR era and aims to correct the fact that human vision in the usually darker viewing environment in the evening living room where TV is watched requires higher contrast for a similar visual experience, therefore OOTF, as is usually a soft gamma function. However, especially when displaying a high dynamic range scene on a typical lower dynamic range (205) display (even if it is a high quality 4000 nit reference monitor), some artistic optimization of the varying luminosity of object pixels may be required by applying a potentially arbitrary curve, referred to herein as graduation, using the block 203 graduation. Especially for high-quality offline productions, significant grading efforts may be required to create a so-called creative vision or look at the main HDR image MAST_HDR (which, according to the present invention, is still subject to further technical processing, for example, preferably encoding). The resulting image then looks optimal and can be sent via any image connection 204 to the display 205 where the human calibrator can check if the image already matches the desired one or continue to adjust at least one luminance display function via a user interface control unit 206 (for example, a calibration control panel). This arbitrary grading forms the main view - not to be confused with the arbitrary re-grading (secondary view) to obtain, for example, the best possible corresponding SDR picture, which can be called the main SDR picture (for example, when forming part of the video coding philosophy, as described below). While just another simple topology has been explained to the reader, the reader will be able to appreciate that there may be different actual implementations in practice depending on, for example, whether the actual broadcast is using only one HDR camera or a set of combined SDR and HDR cameras, or using a pre-defined HDR image and a corresponding re-graded SDR main image, which now need to be jointly encoded according to coding principles (eg ETSI1 or ETSI2 principles - see below), etc.

Как уже было пояснено с помощью ФИГ. 1, заявитель осознал, что, поскольку существует математическая взаимосвязь повторной градуировки между различными возможными повторно градуированными MDR-изображениями, начиная с основного HDR, при условии, что можно технически прагматически захватить эти функции, фактически можно кодировать целый спектр разных функций динамического диапазона посредством отправки только одной из них и по меньшей мере одной функции отображения светимости для создания другого изображения из фактически отправленного. Впервые эта возможность и вытекающая из нее техническая концепция кодирования были описаны в WO2011107905.As already explained with FIG. 1, Applicant has realized that since there is a mathematical re-grading relationship between the various possible re-graded MDR images starting from the main HDR, provided one can technically capture these features pragmatically, it is actually possible to encode a whole range of different dynamic range features by sending only one of them and at least one luminosity display function for creating another image from the one actually sent. For the first time this possibility and the technical concept of coding resulting from it were described in WO2011107905.

Было обнаружено, что имеет смысл задавать функцию F_L отображения светимости для преобразования светимостей основного HDR-изображения (например, с PB_C 5000 нит) в светимости SDR-изображения, т.е. побуждать специалиста по градуировке определять необходимый способ реализации повторной градуировки между наиболее экстремальными представлениями изображения, а затем повторно вычислять адаптированные для дисплея функции F_L_DA отображения светимости для вычисления промежуточной светимости пикселей MDR-изображения, соответствующей любой возможной светимости изображения M_HDR с PB_C 5000 нит.It has been found that it makes sense to define a luminosity mapping function F_L to convert the luminances of the main HDR image (for example, with PB_C 5000 nits) to the luminosities of the SDR image, i.e. cause the calibrator to determine the necessary way to implement re-grading between the most extreme image representations, and then recalculate the display-adapted luminance mapping functions F_L_DA to calculate an intermediate pixel luminance of the MDR image corresponding to any possible luminance of the M_HDR image with a PB_C of 5000 nits.

Как впоследствии было стандартизовано заявителем, есть два логических варианта для фактической передачи изображения (в качестве единственного изображения для всего спектра повторно градуированных изображений с разным динамическим диапазоном, в частности, с конечной точкой PB_C, поскольку зачастую можно предположить, что нижняя конечная точка MB будет приблизительно фиксированной, например, равной 0,01 нит) любому приемнику: основного HDR-изображения или соответствующего SDR-изображения (следует остановиться на секунду, чтобы понять, что в этой ситуации вместо HDR-изображений фактически передаются простые SDR-изображения, и из-за функции F_L также фактически передаются HDR-изображения, потому что L_HDR_reconstructed = F_L_inverse[L_SDR]).As subsequently standardized by the Applicant, there are two logical options for actually transmitting an image (as a single image for the entire spectrum of re-graded images with different dynamic range, in particular with a PB_C endpoint, since it can often be assumed that the lower MB endpoint will be approximately fixed, e.g. 0.01 nits) to either the main HDR image or the corresponding SDR image (you should stop for a second to understand that in this situation, instead of HDR images, simple SDR images are actually transmitted, and due to the F_L function is also actually being passed HDR images, because L_HDR_reconstructed = F_L_inverse[L_SDR]).

Второй вариант кодирования, который весьма полезен, когда техническое ограничение заключается в том, что многие унаследованные дисплеи должны использоваться без искажений (на самом деле старый SDR-дисплей просто получает SDR-изображение, и, не требуя знания о том, что в нем также закодировано HDR-изображение, он может напрямую отображать SDR-изображение и сразу же получать очень хорошее SDR-воспроизведение HDR-сцены, на самом деле настолько хорошо, насколько дисплей может отображать такую ​​HDR-сцену), был стандартизирован сначала в ETSI TS 103 433-1 (следует обратить внимание на -1; в дальнейшем будет использовано сокращение ETSI1). Следует отметить, что существуют технические ограничения, такие как необходимость обратимости цветов SDR-изображения, чтобы иметь возможность с достаточной точностью восстанавливать исходное основное HDR-изображение на любой принимающей стороне, что было частью технического рассмотрения, ведущего к этому заданному стандартному подходу к (де)кодированию.The second encoding option, which is quite useful when the technical limitation is that many legacy displays must be used without distortion (in fact, the old SDR display simply receives an SDR image, and without requiring knowledge of what is also encoded in it HDR image, it can directly display the SDR image and immediately get a very good SDR reproduction of the HDR scene, actually as good as the display can display such an HDR scene), was standardized first in ETSI TS 103 433 -1 (note -1; abbreviation ETSI1 will be used in the following). It should be noted that there are technical limitations, such as the need for the colors of an SDR image to be reversible in order to be able to reconstruct the original HDR main image at any receiving end with sufficient fidelity, which was part of the technical consideration leading to this given standard approach to (de) coding.

ETSI TS 103 433-2 (ETSI2) является альтернативой кодирования, при которой основное HDR-изображение фактически передается приемникам и при которой функция (функции) F_L (фактически, как будет показано ниже, несмотря на то, что в целях пояснения можно рассматривать систему так, как будто была использована одна глобальная функция F_L для всех светимостей пикселей в переданном изображении, по техническим причинам используется набор применяемых впоследствии функций отображения) служит (служат) для вычисления изображений с целью оптимального отображения на дисплеях с PB_D < PB_C_master (т.е. для так называемой адаптации дисплея). Различные потребители могут выбирать, какую систему они хотят использовать, например, оператор кабельного телевидения, передающий HDR ETSI2, будет предоставлять своим пользователям телевизионную приставку (STB), которая будет осуществлять декодирование и оптимизирование для любого дисплея, который имеется в наличии у пользователя дома.ETSI TS 103 433-2 (ETSI2) is an encoding alternative in which the main HDR image is actually transmitted to the receivers and in which the F_L function(s) (in fact, as will be shown below, although for purposes of explanation one can think of the system as , as if one global function F_L was used for all luminances of pixels in the transferred image, for technical reasons a set of subsequently applied display functions is used) serves to calculate images for optimal display on displays with PB_D < PB_C_master (i.e. for so-called display adaptation). Different consumers can choose which system they want to use, for example, a cable TV operator transmitting HDR ETSI2 will provide its users with a set-top box (STB) that will decode and optimize for any display that the user has at home.

На ФИГ. 3 сначала приведен общий обзор компонентов типичной системы (кодер + декодер) для передачи HDR-видео с одним изображением и функциями, не ограничиваясь типичной системой типа SDR-связи с целью пояснения базовых концепций.FIG. 3 first provides an overview of the components of a typical system (encoder + decoder) for transmitting HDR video with a single image and functions, not limited to a typical SDR communication type system, in order to explain the basic concepts.

Преобразователь 302 цвета получает в качестве входных данных изображений MAST_HDR (например, в том виде, в котором они были захвачены камерой и градуированы системой, показанной на ФИГ. 2, а затем переданы через некоторую профессиональную систему передачи видео на кодер 321 на стороне телевещателя, который, например, будет передавать телевизионные программы по беспроводной связи или через телевизионную кабельную сеть) от источника 301 изображения. Затем применяется набор функций F_ct цветового преобразования (в этом примере, в частности, определяемый автоматическим программным обеспечением для градуировки, таким как технология заявителя для автоматического преобразования HDR в SDR, которая задает функции F_ct на основе характеристик изображения, таких как гистограмма и т.д.; конкретные детали можно оставить без внимания в материалах данной заявки, поскольку для этого требуется просто наличие таких оптимизированных функций для любого изображения или набора последовательных во времени изображений), содержащий по меньшей мере функцию F_L отображения светимости, чтобы получать соответствующие светимости SDR для светимостей пикселей основного HDR-изображения (MAST_HDR). Для простоты понимания читатель может в целях упрощения предположить, что F_L является функцией отображения светимости в 4-й степени (L_out_SDR = power(L_in_HDR; ¼)) для получения нормализованных до 1,0 выходных светимостей SDR пикселей в выходном SDR-изображении Im_LDR с PB_C 100 нит (т.е. диапазон светимостей справа на ФИГ. 1).The color converter 302 receives as input the MAST_HDR images (for example, as they were captured by the camera and graduated by the system shown in FIG. 2, and then transmitted through some professional video transmission system to the encoder 321 on the side of the broadcaster, which , for example, will transmit television programs over a wireless connection or through a television cable network) from the source 301 of the image. A set of color conversion functions F_ct is then applied (in this example, specifically defined by automatic grading software such as Applicant's technology for automatic HDR to SDR conversion, which defines the F_ct functions based on image characteristics such as histogram, etc. ; specific details can be ignored in the materials of this application, since it simply requires the presence of such optimized functions for any image or set of images sequential in time) containing at least a luminance mapping function F_L in order to obtain the corresponding SDR luminosities for the luminosities of the pixels of the main HDR images (MAST_HDR). For ease of understanding, the reader may, for the sake of simplicity, assume that F_L is a luminance mapping function to the 4th power (L_out_SDR = power(L_in_HDR; ¼)) to obtain normalized to 1.0 output SDR luminances of pixels in the output SDR image Im_LDR with PB_C 100 nits (i.e., the range of luminosities on the right in FIG. 1).

Поскольку теперь существует «нормальное» SDR-изображение, его можно сжать с помощью стандартной методики сжатия видео, например, стандарта MPEG, такого как HEVC или MPEG2, или аналогичного стандарта, такого как AV1, причем сжатие выполняется компрессором 303 видео.Since there is now a "normal" SDR image, it can be compressed using a standard video compression technique, such as an MPEG standard such as HEVC or MPEG2, or a similar standard such as AV1, with the compression performed by the video compressor 303.

Поскольку приемники должны быть способны восстанавливать основное HDR-изображение из принятого соответствующего сжатого SDR-изображения Im_COD, помимо фактических пиксельных изображений, которые подлежат передаче, также функции F_ct отображения цвета должны поступать в компрессор видео. Без ограничений можно предположить, что эти функции сохраняются в метаданных, например, с помощью механизма SEI (информации для дополнительной оптимизации) или аналогичной методики. Наконец, модуль 304 форматирования делает все необходимое для форматирования (размещения в блоки данных и т.д.) видеопотока для любой среды 305 технической связи, например, выполняет форматирование для хранения на диске Blu-ray или для связи DVB через спутник и т.д. (подробности этого могут быть найдены специалистом в соответствующих областях техники и не имеют отношения к пониманию идей настоящего изобретения).Since the receivers must be able to reconstruct the main HDR image from the received corresponding compressed SDR image Im_COD, in addition to the actual pixel images to be transmitted, also the color mapping functions F_ct must be fed to the video compressor. Without limitation, it can be assumed that these functions are stored in the metadata, for example, using the SEI (Supplemental Optimization Information) mechanism or a similar technique. Finally, the formatter 304 does everything necessary to format (package into data blocks, etc.) the video stream for any technical communication environment 305, such as formatting for storage on a Blu-ray disc or for DVB communication via satellite, etc. . (the details of this can be found by a person skilled in the relevant fields of technology and are not relevant to understanding the ideas of the present invention).

После распаковки MPEG в видеоприемнике 320, выполняемой блоком 307 распаковки видео (после прохождения через блок 306 обратного форматирования), SDR-изображение может интерпретироваться приемником с помощью применением стандартной EOTF из рекомендации Rec. 709 (с целью получения изображения для SDR-дисплея), но приемник может также декодировать принятое изображение Im_COD иначе для получения восстановленного HDR-изображения Im_RHDR.After the MPEG decompression in the video receiver 320, performed by the video decompressor 307 (after passing through the reverse formatter 306), the SDR image can be interpreted by the receiver using the standard EOTF from Rec. 709 (in order to obtain an image for an SDR display), but the receiver may also decode the received Im_COD image differently to obtain a reconstructed HDR image Im_RHDR.

Это выполняется преобразователем 308 цвета, который выполнен с возможностью преобразования SDR-изображения в виде распакованного Im_RLDR в изображение любого динамического диапазона, отличного от SDR (т.е. с PB_C выше 100 нит и, как правило, по меньшей мере в 6 раз выше). Например, исходное основное изображение Im_RHDR c 5000 нит может быть восстановлено путем применения обратных цветовых преобразований IF_ct из цветовых преобразований F_ct, используемых на стороне кодирования для создания Im_LDR из MAST_HDR (которые были приняты в метаданных и переданы преобразователю 308 цвета). Или может содержаться блок 309 адаптации дисплея, который преобразует SDR-изображение Im_RLDR в другой динамический диапазон, например, изображение Im3000nit, которое оптимально градуировано в случае, если дисплей 310 представляет собой дисплей с PB 3000 нит, или изображение с PB 1500 нит или 1000 нит для соответствующих дисплеев с более низкой PB_D и т.д. Без каких-либо ограничений было сделано предположение, что декодер видео и преобразователь цвета находятся в одном видеоприемнике 320. Опытный читатель может понять, что аналогичным образом можно спроектировать множество разных топологий, например, с функциональной возможностью декодирования, реализованной в телевизионной приставке, подлежащей подсоединению к дисплею, который просто функционирует как примитивный дисплей для принятых предварительно оптимизированных изображений или который выполняет дальнейшие цветовые преобразования изображения и т.д.This is performed by color converter 308, which is configured to convert an Im_RLDR decompressed SDR image to an image of any non-SDR dynamic range (i.e. with a PB_C above 100 nits and typically at least 6 times higher) . For example, the original main image Im_RHDR with 5000 nits can be recovered by applying the inverse color transforms IF_ct from the color transforms F_ct used on the encoding side to create Im_LDR from MAST_HDR (which were received in the metadata and passed to the color converter 308). Or, a display adaptor 309 may be included that converts the SDR image Im_RLDR to a different dynamic range, such as an Im3000nit image that is optimally graduated if the display 310 is a 3000 nit PB display, or a 1500 nit or 1000 nit PB image. for corresponding displays with lower PB_D etc. It has been assumed, without limitation, that the video decoder and the color converter reside in the same video receiver 320. The experienced reader can appreciate that many different topologies can be designed in the same way, for example, with the decoding functionality implemented in the set-top box to be connected to a display that simply functions as a primitive display for pre-optimized images received, or that performs further color transformations of the image, and so on.

На ФИГ. 4 кратко изложены принципы технологии заявителя для отображения светимости и цвета, стандартизированной в ETSI2 (на самом деле эта технология подробно описывает преобразователь 302 цвета, который в общем виде был представлен на ФИГ. 3 в соответствии с философией декодирования ETSI2 (или аналогично философией кодирования ETSI1)), поскольку ее необходимо знать для понимания некоторых из более конкретных методик в вариантах осуществления настоящей заявки.FIG. 4 summarizes the principles of Applicant's technology for displaying luminosity and color standardized in ETSI2 (in fact, this technology details the color converter 302, which was generally presented in FIG. 3 in accordance with the ETSI2 decoding philosophy (or similar to the ETSI1 coding philosophy) ) as it is necessary to know to understand some of the more specific techniques in the embodiments of the present application.

Предполагается, что входными данными являются цвета пикселей YCbCr, заданные с помощью PQ (т.е. попиксельные цветовые компоненты яркости Y и цветности Cb и Cr). Сначала яркость линеаризуется до нормальных линейных светимостей L_in блоком 401 применения EOTF, который должен использовать EOTF PQ из SMPTE 2084. Затем весь процесс повторной градуировки для получения выходного цвета SDR-пикселя из входного цвета HDR-пикселя может быть снова определен с использованием нормальных (универсально заданных посредством физических SI и CIE) светимостей. После этого обработка светимости может выполняться процессором 401 светимости, который реализует полное отображение F_L по желанию, но с помощью разумно выбранных подблоков (эти блоки 402, 403 и т.д. были технически спроектированы так, чтобы соответствовать потребностям различных HDR-применений, таким как автоматическая градуировка, простота градуировки человеком, сложность конструкции ИС и т.д.).The input data is assumed to be YCbCr pixel colors given by PQ (ie, per-pixel color components of Y luma and Cb and Cr chrominance). First, the luminance is linearized to normal linear luminances L_in by the EOTF applicator 401, which must use the EOTF PQ from SMPTE 2084. Then, the entire recalibration process to obtain the SDR pixel output color from the HDR pixel input color can be determined again using the normal (universally defined through the physical SI and CIE) luminosities. Thereafter, luminosity processing can be performed by the luminance processor 401, which implements the full F_L mapping as desired, but with wisely chosen sub-blocks (these blocks 402, 403, etc. have been technically designed to meet the needs of various HDR applications such as automatic calibration, ease of human calibration, complexity of IC design, etc.).

Сначала блок униформизации светимости применяет преобразование с фиксированной кривой, форма которой зависит только от пиковой яркости PB_C_H входного HDR-изображения (например, PB_C_H = 5000 нит), используя одну зависимую от PB кривую из семейства кривых, заданных как:First, the luminosity uniformizer applies a fixed-curve transformation whose shape depends only on the peak brightness PB_C_H of the input HDR image (for example, PB_C_H = 5000 nits), using one PB-dependent curve from a family of curves defined as:

Y’HP = log(1+(RHO-1)*power(L_in/PB_C_H; 1/(2,4)))/log(RHO) [Ур. 1]Y'HP = log(1+(RHO-1)*power(L_in/PB_C_H; 1/(2,4)))/log(RHO) [Lv. 1]

гдеWhere

RHO = 1+32*power(PB_C_H/10000; 1/2,4) [Ур. 2]RHO = 1+32*power(PB_C_H/10000; 1/2.4) [Lv. 2]

Эта кривая отображает все светимости в перцепционно однородные серые яркости Y’HP. Если PB_C_HDR = 10000 нит, то эта кривая точно соответствует кривой PQ из SMPTE 2084, которая, как известно, является перцепционно однородной. Для входных изображений с более низкой PB_C_HDR кривая хорошо масштабируется (на самом деле она представляет собой под-кривую, заканчивающуюся, например, в 3000 нит на кривой 10000 нит в абсолютном смысле), что приводит к менее крутой кривой логарифмической гаммы для самых темных цветов в нормализованном представлении оси входной/выходной светимости [0-1,0]/[0-1,0]. Другими словами, остальная часть обработки уже происходит, будучи хорошо предварительно нормализованной.This curve maps all luminosities to perceptually uniform gray Y'HP luminances. If PB_C_HDR = 10000 nits, then this curve exactly matches the PQ curve from SMPTE 2084, which is known to be perceptually uniform. For input images with lower PB_C_HDR, the curve scales well (actually it is a sub-curve ending, for example, at 3000 nits on a 10000 nits curve in an absolute sense), resulting in a less steep log-gamma curve for the darkest colors in normalized representation of the input/output luminosity axis [0-1.0]/[0-1.0]. In other words, the rest of the processing is already in progress, being well pre-normalized.

Впоследствии блок 403 смещения уровня черного-белого может при желании применять некоторое добавочное смещение WLO уровня белого и некоторое смещение BLO уровня черного.Subsequently, the black-white level shifter 403 may optionally apply some additional white level shift WLO and some black level shift BLO.

Полезность смещения уровня белого можно понять, исходя из следующего. Предположим, что создатель контента градуирует свои изображения в системе, настроенной на PB_C = 4000 нит (например, его эталонный монитор для градуировки имеет PB_D 4000 нит), однако во всем видео он фактически никогда не создает изображение с более высокой максимальной яркостью пикселей, чем, например, 1500 нит (максимум для видео, который отличается от кодируемого максимума PB_D). Затем, поскольку динамический диапазон светимостей SDR сам по себе достаточно мал, имеет смысл повторно масштабировать входной HDR, удаляя неиспользуемые значения 1500-4000 нит (поскольку используются динамически регулируемые отображения светимости, которые можно оптимизировать для каждого изображения/видео в любой момент времени). 1500/4000 соответствует нормализованной (входной) светимости HDR, равной 0,375, поэтому это значение может быть отображено в максимум масштабированной яркости Y’HPS HDR путем деления на 2,6.The usefulness of white level offset can be understood from the following. Suppose a content creator calibrates their images on a system set to PB_C = 4000 nits (for example, their reference monitor for grading has a PB_D of 4000 nits), however throughout the video, they actually never produce an image with a higher maximum pixel brightness than, eg 1500 nits (maximum for video, which is different from the encoded maximum of PB_D). Then, since the dynamic range of SDR luminances is quite small on its own, it makes sense to rescale the input HDR by removing the unused values of 1500-4000 nits (because it uses dynamically adjusted luminance mappings that can be optimized for each image/video at any given time). 1500/4000 corresponds to a normalized (input) HDR luminance of 0.375, so this value can be mapped to the maximum Y'HPS HDR scaled luminance by dividing by 2.6.

Если быть точнее, согласно стандарту ETSI2, выполняется следующее вычисление:To be more precise, according to the ETSI2 standard, the following calculation is performed:

Y’HPS = (Y’HP-BLO)/(1-WLO-BLO) [Ур. 3]Y'HPS = (Y'HP-BLO)/(1-WLO-BLO) [Lv. 3]

При этом WLO и BLO передаются в метаданных, совместно передаваемых или ассоциируемых с принятыми видеоизображениями.In this case, WLO and BLO are transmitted in the metadata jointly transmitted or associated with the received video images.

Смещение уровня черного полезно для получения более контрастного вида для соответствующих повторно градуированных SDR-изображений, но следует помнить, что принятые ESTI1-изображения должны оставаться обратно отображаемыми в HDR-изображение, т.е. не должно быть потеряно слишком много деталей черных пикселей (именно поэтому имеется параллельный ограничитель усиления, не показанный на ФИГ. 4).Black level offset is useful for obtaining a more contrasty look for the corresponding re-graded SDR images, but remember that the received ESTI1 images must remain mapped back to the HDR image, i.e. too much black pixel detail should not be lost (which is why there is a parallel gain limiter not shown in FIG. 4).

В принципе, можно упрощенно интерпретировать смещение уровня черного как установку некоторого «черного» цвета HDR на 0,0 в SDR, или, точнее говоря, через блок 403, готовящийся к отображению светимости HDR в светимость SDR (т.е. с нормализованными светимостями все еще в HDR, а именно с относительным распределением, используемым для получения хорошего вида на HDR-дисплее и плохого, еще не оптимизированного вида на SDR-дисплее).In principle, one can simplistically interpret the black level offset as setting some HDR "black" color to 0.0 in SDR, or more specifically, through block 403 preparing to map HDR luminosity to SDR luminosity (i.e. with normalized luminances all still in HDR, namely with the relative distribution used to get a good look on an HDR display and a bad, not yet optimized look on an SDR display).

Затем грубый преобразователь 404 динамического диапазона применяет первичное преобразование светимости для получения светимостей SDR (т.е. с хорошим первым перераспределением светимостей объектов, чтобы получить разумный вид на SDR-дисплеях). Для этого ETSI2 использует кривую, которая состоит из линейного отрезка с регулируемым наклоном для самых низких нормализованных светимостей HDR (наклон этого отрезка называется усилением тени), еще одной линейной сжимаемой части для самых высоких нормализованных входных светимостей Y'HPS HDR (с параметром управления наклоном, называемым усиление бликов) и управляемой параболической части, сглаживающей их вместе, предлагая хороший внешний SDR-вид для средних тонов (с параметром управления, называемым ширина среднего тона, а также математическими соотношениями, которые можно увидеть в стандарте и которые в этой заявке только повторно объяснены (как можно более простым и понятным образом) в той степени, которая необходима для понимания новых вариантов осуществления изобретения в соответствии с настоящими идеями). Таким образом, выходные яркости Y’CL этого грубого преобразователя 404 динамического диапазона сначала задаются в диапазоне SDR или статистике распределения относительной яркости SDR.Coarse dynamic range converter 404 then applies a primary luminosity transform to obtain SDR luminosities (ie, with a good first redeployment of object luminances to get a reasonable look on SDR displays). To do this, ETSI2 uses a curve that consists of a linear segment with adjustable slope for the lowest normalized HDR luminosities (the slope of this segment is called shadow gain), another linear compressible part for the highest normalized Y'HPS HDR input luminances (with a slope control parameter, called highlight boost) and a controlled parabolic part that smooths them together, offering a nice looking SDR look for the midtones (with a control parameter called midtone width, as well as mathematical relationships that can be seen in the standard and which in this application are only re-explained (as simple and understandable as possible) to the extent necessary to understand new embodiments of the invention in accordance with the present ideas). Thus, the Y′CL output luminances of this coarse dynamic range converter 404 are first given in the SDR range or SDR relative luminance distribution statistics.

Техническое (и художественное) предложение для создателя контента этого блока 404 заключается в том, что специалист по градуировке может отлично оптимизировать то, насколько ярким он должен делать самые темные пиксели, за счет (из-за ограниченного диапазона светимостей SDR) внутриобъектовой контрастности других объектов, содержащих более яркие пиксели, но он может совместно настроить, например, усиление бликов. Усиление тени можно воспринимать, например, следующим образом: человек со светимостью 0,05 нит, стоящий в темных затененных областях пещеры. Если бы он был отображен на SDR-дисплее с критерием белого на белом, т.е. с нормализованной функцией отображения, которая является тождественной функцией с углом наклона 45 градусов, являющимся диагональю графика нормализованной функции светимости, то было бы обнаружено, что его нормализованная светимость в HDR составляет 0,05/5000 и остается равной нормализованной светимости из-за тождественного отображения для грубо отображенных светимостей SDR, т.е. после того, как они становятся абсолютными, эти пиксели должны отображаться на SDR-дисплее с (1/100000)*100, т.е. с минимумом черного (управляющим сигналом «0») на этом дисплее и быть невидимыми. Следовательно, необходимо значительно усилить такие ​​светимости уже в более логарифмических униформизированных значениях относительного серого для HDR и SDR или представлении яркостей, чтобы получить светимости SDR, которые достаточно заметны и приводят к различимости текстур объекта внутри объекта-человека (например, светимости пикселей человека в диапазоне 0,3-1,2 нит, отображаемые на SDR-дисплее). Поэтому, в зависимости от того, насколько глубоко человек попал в диапазон светимостей HDR (который, как было сказано выше, будет зависеть от того, как комбинация таких факторов, как построение HDR-сцены, освещение сцены, экспозиция камеры и художественная основная HDR-градуировка, была выбрана создателем контента), кодер (например, человек-специалист по градуировке, создающий подходящую часть F_L, которая является этим первым выбором грубого отображения светимости для повторной градуировки основных входных данных HDR в оптимальные или подходящие соответствующие светимости пикселей SDR) будет выбирать подходящее усиление тени для обработки указанных самых темных пикселей этого конкретного изображения (т.е. оптимизированное под контент изображения). Следует отметить, что на самом деле в ETSI усиление SG тени определяется как поправка для автоматического масштабирования на основе отношения пиковых яркостей входного и выходного изображений - по меньшей мере их представлений яркости. В соответствии с философией равной яркости, имеет смысл усиливать светимости, представленные в нормализованном диапазоне яркостей, которые соответствует, например, только PB_C 200 нит (или, скорее, значению согласно приведенным выше уравнениям 1 и 2:The technical (and artistic) suggestion for the content creator of this block 404 is that the grading specialist can perfectly optimize how bright he should make the darkest pixels, at the expense (due to the limited luminosity range of SDR) of the intra-object contrast of other objects, containing brighter pixels, but it can co-adjust, for example, glare enhancement. The intensification of the shadow can be perceived, for example, as follows: a person with a luminosity of 0.05 nits, standing in the dark shaded areas of the cave. If it were to be displayed on an SDR display with a white-on-white criterion, i.e. with a normalized mapping function that is the identity function with a 45 degree slope being the diagonal of the plot of the normalized luminosity function, it would be found that its normalized luminosity in HDR is 0.05/5000 and remains equal to the normalized luminosity due to the identity mapping for roughly mapped SDR luminosities, i.e. after they become absolute, these pixels should be displayed on the SDR display with (1/100000)*100, i.e. with a minimum of black (control signal "0") on this display and be invisible. Therefore, it is necessary to greatly enhance such luminosities already in more logarithmic uniformized relative gray values ​​for HDR and SDR or luminosity representation in order to obtain SDR luminosities that are sufficiently noticeable and lead to distinguishability of object textures within a human object (for example, the luminosity of human pixels in range of 0.3-1.2 nits shown on the SDR display). Therefore, depending on how deep one gets into the HDR luminosity range (which, as mentioned above, will depend on how the combination of factors such as HDR scene building, scene lighting, camera exposure, and artistic basic HDR grading , has been chosen by the content creator), the encoder (e.g., a human scaler creating a suitable F_L part that is this first choice of coarse luminosity mapping to recalibrate the main HDR input into optimal or appropriate corresponding SDR pixel luminosities) will select the appropriate gain shadows to handle the specified darkest pixels of that particular image (i.e. content-optimized image). It should be noted that ETSI actually defines the shadow gain SG as a correction for automatic scaling based on the ratio of the peak brightnesses of the input and output images - at least their brightness representations. In line with the philosophy of equal brightness, it makes sense to boost luminosities represented in a normalized range of brightnesses that correspond to, for example, only PB_C 200 nits (or rather the value according to Equations 1 and 2 above:

Y'HP = Y'200 = v(PB_C_H/200; RHO(200)), где v является приведенным выше псевдо-логарифмическим уравнением 1), начиная с нормализованных светимостей HDR в виде: L_200 = Y’200*L_HDR. Однако это обычно приводит к слишком яркому и низко-контрастному изображению, в связи с чем специалист по градуировке может использовать коррекцию усиления экспозиции: SG = expgain*Y'200, что будет являться фактором затемнения, возвращающим SG к диагональному значению 1,0 и добавляющим немного темноты обратно в SDR-изображение (обычно он не выбирает expgain = 1/Y'200, потому что тогда нормализованные яркости SDR будут равны нормализованным яркостям HDR и снова будут слишком низкими; например, SG будет в диапазоне между 1,0 и 1,8).Y'HP = Y'200 = v(PB_C_H/200; RHO(200)), where v is the pseudo-log equation 1 above, starting with normalized HDR luminosities as: L_200 = Y'200*L_HDR. However, this usually results in an image that is too bright and low-contrast, so the calibrator can use exposure gain correction: SG = expgain*Y'200, which will be a dimming factor that returns SG to a diagonal value of 1.0 and adds some darkness back into the SDR image (generally it doesn't choose expgain = 1/Y'200 because then the normalized SDR luminances will be equal to the normalized HDR luminances and again too low; for example, SG will be in the range between 1.0 and 1, 8).

Этот вид кривой реализует нелинейную «пружину» сжатия светимости для сжатия множества светимостей HDR из потенциально гораздо большего динамического диапазона (DR) светимостей в гораздо меньший DR SDR. Поскольку не используется фиксированная кривая, которая «в среднем никогда не должна быть слишком не правдоподобной», но при этом кодер может применять уже оптимизированную кривую, результирующее SDR-изображение не будет плохим для многих HDR-сцен (не все HDR-сцены одинаково сложны, например, иногда имеется просто слабая затененная область рядом с равномерно освещенной солнцем областью, и тогда, хотя самые простые системы будут создавать проблемы, такие как отсечение до белого, не слишком сложное интеллектуальное отображение HDR в SDR, такое как трехчастная кривая блока 404, как правило, будет уже хорошо справляться с созданием подходящего повторно градуированного SDR-изображения для основного HDR-изображения (например, того, которое выходит из HDR-камеры создателя контента, захватывающей реальное событие).This kind of curve implements a non-linear luminosity compression "spring" to compress multiple HDR luminosities from a potentially much larger dynamic range (DR) of luminosities into a much smaller DR SDR. Since no fixed curve is used, which "on average should never be too implausible", but the encoder can apply an already optimized curve, the resulting SDR image will not be bad for many HDR scenes (not all HDR scenes are equally complex, for example, sometimes there is just a faint shaded area next to a uniformly sunlit area, and then while the simplest systems will create problems such as clipping to white, not too complex HDR-to-SDR smart mapping, such as the block 404 three-part curve, will typically , will already do a good job of producing a suitable re-graded SDR image for the main HDR image (for example, the one coming out of a content creator's HDR camera capturing a real event).

Однако некоторые другие сцены могут быть более сложными, и некоторые создатели контента могут также иметь более высокий уровень профессиональных задач при точной настройке своего художественного контента (например, голливудский кинорежиссер или оператор-постановщик (DOP)).However, some other scenes may be more complex, and some content creators may also have a higher level of professional challenge when fine-tuning their feature content (for example, a Hollywood film director or director of photography (DOP)).

Поэтому, следующий блок, т.е. блок 405 применения настраиваемой кривой, позволяет создателю контента (опять же, будь то человек или интеллектуальное автоматическое средство с различными правилами, закодированными в его алгоритме) применять настраиваемую и, по возможности, имеющую произвольную форму функцию F_L_CU отображения светимости для точной градуировки к предварительно градуированным яркостям Y’CL, получая в результате градуированные яркости Y'GL LDR (единственное требование к функции состоит в том, чтобы она не была убывающей и, как правило, была монотонно возрастающей, и, как правило, по меньшей мере выбиралась в соответствии с ETSI2 для отображения входного значения 1,0 в выходное значение 1,0). На практике форма этой функции F_L_CU может быть передана декодерам либо как набор параметров, определяющих ее форму, например, коэффициентов полинома, либо как LUT и т.д.Therefore, the next block, i.e. a custom curve application block 405, allows the content creator (again, be it a human or an intelligent automatic vehicle with various rules encoded in its algorithm) to apply a customizable and optionally arbitrarily shaped luminance mapping function F_L_CU for precise grading to pre-graded luminances Y'CL, resulting in graduated Y'GL LDR luminances (the only requirement for the function is that it is non-decreasing and is typically monotonically increasing, and is typically at least chosen according to ETSI2 for mapping input value 1.0 to output value 1.0). In practice, the form of this F_L_CU function can be passed to decoders either as a set of parameters defining its form, such as polynomial coefficients, or as a LUT, etc.

Такая точная градуировка может потребоваться, потому что зрительная система имеет сложный способ определения впечатлений от оттенков серого в воспринимаемом объекте изображения, и/или потому что сжатие большого диапазона светимостей HDR в ограниченный DR SDR может иногда требовать некоторой смекалки, и/или потому что создатель контента открыто желает внести некоторую дополнительную художественную особенность в эту настраиваемую кривую F_L_CU (форма которой затем будет определяться, как правило, компьютерным аппаратным обеспечением другого цветового интерфейса пользователя и подключенным программным обеспечением на стороне кодирования, которые не показаны на фигурах). Фактически, с одной стороны, можно сказать, что все MDR-изображения должны быть некоторым сжатым представлением всей информации (исключительно) в основном HDR-изображении, но, с другой стороны (поскольку это может дать довольно слабое впечатление от изображений, например, со слишком слабой контрастностью, словно на них смотрят сквозь туман) другое важное требование для создания контента может заключаться в том, чтобы все изображения вплоть до SDR-изображения выглядели - с учетом их более ограниченных возможностей DR - как можно более реалистично, наподобие HDR-сцены, или по меньшей мере настолько красиво, насколько это возможно. Человеческое зрение очень нелинейное и высокоорганизованное, и оно может быстро уловить, когда использовалась слишком простая функция. Таким образом, создатель контента может разумно использовать настраиваемую функцию F_L_CU в дополнение к функции F_C грубого сжатия светимости, чтобы преуспеть в создании практически невозможного SDR-изображения, которое по-прежнему выглядит как можно лучше в сравнении с HDR-сценой и, предпочтительно, так же как и HDR-сцена (например, снижение яркости некоторого поддиапазона светимостей пикселей с целью лишь небольшого улучшения контрастности между объектами, например, для яркости витражного окна в сравнении с интерьером церкви, или визуальной контрастности внутри и снаружи помещений на SDR-изображении, или с целью оптимизации цветности в сравнении со светимостью для некоторых объектов в сцене, выбирая специальную локальную форму кривой F_L_CU, и т.д.).Such precise grading may be required because the visual system has a complex way of determining grayscale impressions in the perceived subject of an image, and/or because compressing a large range of HDR luminances into a limited DR SDR may sometimes require some ingenuity, and/or because the content creator openly desires to add some additional artistic flair to this custom F_L_CU curve (the shape of which will then be determined, typically by computer hardware of a different color user interface and connected software on the encoding side, which are not shown in the figures). In fact, on the one hand, it can be said that all MDR images should be some compressed representation of all information (exclusively) in the main HDR image, but, on the other hand (because this can give a rather weak impression of images, for example, with too low contrast, as if they are being looked at through fog) another important requirement for content creation might be that all images up to and including the SDR image look - given their more limited DR capabilities - as realistic as possible, like an HDR scene, or at least as pretty as it gets. Human vision is very non-linear and highly organized, and it can quickly catch when a function that is too simple has been used. Thus, a content creator can intelligently use the custom F_L_CU function in addition to the coarse luminosity compression F_C function to succeed in creating an almost impossible SDR image that still looks as good as possible compared to the HDR scene and preferably the same. as well as an HDR scene (for example, reducing the brightness of a certain sub-range of pixel luminances in order to only slightly improve the contrast between objects, for example, for the brightness of a stained-glass window in comparison with the interior of a church, or the visual contrast between inside and outside rooms in an SDR image, or with the goal of optimizing chroma versus luminosity for some objects in the scene, choosing a special local shape for the F_L_CU curve, etc.).

С целью просвещения читателя и предоставления ему минимально необходимого понимания настраиваемой функции отображения светимости, на ФИГ. 6 показан один простой пример изображения «Человек-тень».For the purpose of enlightening the reader and providing him with the minimum necessary understanding of the customizable luminosity display function, FIG. 6 shows one simple example of a "Shadow Man" image.

На ФИГ. 6A показано геометрически то, что можно видеть на изображении, а на ФИГ. 6B - функциональная взаимосвязь между светимостями L_HDR и L_SDR. На изображении показана темная космическая станция (DRKSPST), через которую движется робот 602. В определенный момент времени представления изображения он сталкивается с человеком-тенью 601, который в цветовом отношении определяется как набор очень ярких HDR-пикселей с небольшой разницей в светимости между различными пикселями, составляющими тело человека-тени. Это происходит потому, что он находится за окном в ярко освещенной среде с туманной атмосферой. Туман добавляет компонент к светимостям, исходящим от тела человека-тени (например, его одежды), формируя окончательные светимости в направлении зрителя на HDR-изображении, например, L_штаны = 20 нит + L_туман = 4500 нит = 4520 нит, L_рубашка = 50 нит + L_туман = 4800 нит = 4850 нит и т.д. Проблема использования функции грубого отображения светимости со слишком малым наклоном для самых ярких пикселей заключается в том, что человек-тень может стать недостаточно контрастно различимым и плохо заметным на изображениях с меньшим динамическим диапазоном, таких как SDR-изображение. Решение состоит в задании функции F_L_CU таким образом, чтобы она локально имела больший наклон во входной области светимостей HDR 4500-5000 нит, что приводило бы к большему поддиапазону RS светимостей SDR для человека-тени, делая его и его детали, например, галстук, который он носит, более заметными в тумане даже на SDR-изображении. Можно понять, что существует гораздо больше ситуаций, в которых может быть выгодно обладать также некоторой возможностью дополнительного управления повторной градуировкой, а не только функцией F_C грубого отображения.FIG. 6A shows geometrically what can be seen in the image, and FIG. 6B is a functional relationship between the L_HDR and L_SDR luminosities. The image shows a dark space station (DRKSPST) that robot 602 is moving through. At a certain time in the image presentation, it encounters shadow man 601, which is color-coded as a set of very bright HDR pixels with little difference in luminosity between different pixels. , which make up the body of a human-shadow. This is because he is outside a window in a brightly lit environment with a hazy atmosphere. The fog adds a component to the luminosities emanating from the shadow man's body (for example, his clothes), forming the final luminosities in the direction of the viewer in the HDR image, for example, L_pants = 20 nits + L_fog = 4500 nits = 4520 nits, L_shirt = 50 nits + L_fog = 4800 nits = 4850 nits etc. The problem with using the coarse luminosity mapping function with too little slope for the brightest pixels is that the shadow person can become low contrast and hard to see in images with a lower dynamic range, such as an SDR image. The solution is to set the F_L_CU function so that it locally has a larger slope in the HDR luminosity input region of 4500-5000 nits, which would result in a larger RS subrange of SDR luminosities for the shadow man, making him and his details, for example, a tie, which it wears, more visible in the fog even in the SDR image. It can be understood that there are many more situations in which it may be advantageous to also have some additional recalibration control capability, and not just the coarse mapping function F_C.

Возвращаясь к ФИГ.4, после определения соответствующих (равномерному визуальному представлению) яркостей SDR блок 406 линеаризации преобразует их в (нормализованные) яркости Ls SDR. По этой причине, он применяет инверсию к приведенному выше уравнению 1, но, поскольку на этот раз должна быть получена светимость SDR, используется RHO, соответствующее PB_C_S = 100 нит (которая вводится в блок 406), а не 5000 нит, которые использовались для перцепционной униформизации в начале последовательности обработки светимости.Returning to FIG. 4, after determining the appropriate (uniform visual representation) SDR luminances, the linearizer 406 converts them into (normalized) SDR luminances Ls. For this reason, it applies an inversion to Equation 1 above, but since the SDR luminosity is to be obtained this time, the RHO corresponding to PB_C_S = 100 nits (which is entered in block 406) is used rather than the 5000 nits that was used for the perceptual uniformization at the beginning of the luminosity processing sequence.

Цвета, конечно же, являются не одномерными (если только речь не идет об ахроматических изображениях с оттенками серого), что значительно усложняет преобразование и кодирование динамического диапазона, но в любом случае для этого требуется канал параллельной обработки для цветностей Cb и Cr пикселей, чтобы получить более подходящие соответствующие цветности SDR или фактически, как показано на ФИГ. 4, в конечном итоге подходящие цвета RGB SDR в качестве выходных цветовых компонентов Rs, Gs и Bs.Colors are of course non-one-dimensional (unless we are talking about achromatic grayscale images), which makes the dynamic range conversion and encoding much more difficult, but in any case, this requires a parallel processing channel for the Cb and Cr chrominances of the pixels to get more suitable corresponding SDR chromaticities, or in fact, as shown in FIG. 4, ultimately suitable RGB SDR colors as output color components Rs, Gs and Bs.

Канал 450 хроматической обработки ETSI2 выполняет следующую обработку (которая вкратце снова поясняется в той степени, в которой это необходимо). Входные цветности Cb и Cr пикселей аналогичным образом умножаются на значение F_C [Y] умножителем 452, получая в результате выходные цветности Cb*, Cr*. Проблема состоит в том, чтобы всегда получать подходящие выходные цветности с учетом существующего множества трудностей: цветовая гамма неправильной формы для реализуемых цветов (см. пояснение на ФИГ. 5), нелинейность математической модели и, в других случаях, зрительной системы человека и т.д. Кроме того, как будет показано ниже в вариантах осуществления настоящего изобретения, на рынке появляется все больше желаний, что ведет к еще более сложным системам обработки HDR.The ETSI2 chromatic processing channel 450 performs the following processing (which is briefly explained again to the extent necessary). The input pixel chromaticities Cb and Cr are similarly multiplied by the F_C[Y] value by the multiplier 452, resulting in the output chromaticities Cb*, Cr*. The challenge is to always get the right output chromaticities, taking into account the existing many difficulties: irregularly shaped color gamut for realizable colors (see explanation in FIG. 5), non-linearity of the mathematical model and, in other cases, the human visual system, etc. . In addition, as will be shown below in the embodiments of the present invention, there are more and more desires in the market, leading to even more complex HDR processing systems.

ETSI2 использует определитель 451 обработки насыщенности, который может загружать, например, LUT, определяющую выходные значения, которые должны быть отправлены в умножитель, в зависимости от того, какое значение Y яркости имел входной пиксель. И вновь, создатель контента может по своему усмотрению определять/оптимизировать форму этой функции определения множителя насыщенности в зависимости от яркости - по меньшей мере, до необходимой степени, потому что, как будет видно далее, иногда требуется изобретательная математическая цветовая модель для определения этой LUT F_C[Y].ETSI2 uses a saturation processing determiner 451 that can load, for example, a LUT that determines the output values to be sent to the multiplier, depending on what luminance Y value the input pixel had. Again, it is up to the content creator to define/optimize the shape of this saturation multiplier vs. luminance function - at least to the extent necessary, because, as will be seen later, an ingenious mathematical color model is sometimes required to define this LUT F_C [Y].

Блок 453 применения матрицы просто преобразует цветовые характеристики Cb, Cr в соответствующее нормализованное представление RGB (математическая модель этой операции не интересна в рамках настоящей заявки, и заинтересованный читатель сможет найти ее в ETSI2 в сочетании с ETSI1).Matrix application block 453 simply converts the Cb, Cr color characteristics to the corresponding normalized RGB representation (the mathematical model for this operation is not of interest within the scope of this application, and the interested reader can find it in ETSI2 in combination with ETSI1).

Можно определить реальный триплет RGB, умножив нормализованные значения R/Lh и другие значения «без светимости HDR» на нормализованное значение Ls, вычисленное в канале 401 обработки светимости. Следует отметить, что результирующие значения RN, GN и BN фактически являются по-прежнему нормализованными светимостями, а не абсолютными светимостями SDR (Rs и т.д.), при этом они являются «SDR-правильными» нормализованными светимостями, потому что теперь учитывают то, какую светимость получили цвета SDR (Ls).It is possible to determine the actual RGB triplet by multiplying the normalized R/Lh values and other "no HDR luminosity" values by the normalized Ls value calculated in the luminosity processing channel 401 . It should be noted that the resulting values of RN, GN and BN are in fact still normalized luminosities, and not absolute SDR luminosities (Rs, etc.), while they are "SDR-correct" normalized luminosities, because they now take into account that , what luminosity the SDR colors (Ls) received.

Чтобы читатель быстрее разобрался с этой возможно изначально немного сложной концепцией для того, кто не является специалистом в области колориметрии, ФИГ. 5 поясняет, что происходит в нормализованной (универсальной, т.е. гаммы SDR и HDR хорошо перекрываются при нормализации, как описано выше, но, конечно же, необходимо сместить цвета HDR с тем, чтобы они стали подходящими цветами SDR, даже если преобразование не было очень разумным и оптимизированным для потребностей текущего изображения HDR-сцены, а состояло просто в приравнивании абсолютной светимости SDR ко входной абсолютной светимости HDR) цветовой гамме YCbCr.In order for the reader to quickly understand this perhaps initially slightly complex concept for someone who is not a specialist in the field of colorimetry, FIG. 5 explains what happens in normalized (universal, i.e. SDR and HDR gamuts overlap well when normalized as described above, but of course HDR colors must be shifted so that they become suitable SDR colors, even if the conversion is not was very reasonable and optimized for the needs of the current image of the HDR scene, but consisted simply of equating the SDR absolute luminance to the HDR input absolute luminance) YCbCr color gamut.

Чистое преобразование светимости будет происходить в вертикальном направлении, поэтому обычно светимость HDR или ее соответствующую яркость Y (т.е. ColHDR) перемещают вверх в оптимальное новое положение (ColSDR), потому что для отображения светимости HDR в светимость SDR кривая F_L на графике нормализованных осей всегда будет оказываться выше диагонали (т.е. входные нормализованные светимости или яркости HDR с конкретной координатой x также имеют в качестве координаты y высоту диагонали в положении координаты x, и нормализованная выходная светимость SDR функции, которая всегда лежит выше этой диагонали, поэтому, всегда будет давать более высокое нормализованное выходное значение). То, какая фактическая (абсолютная) светимость SDR соответствует этому нормализованному значению Y яркости, определяется первым применением EOTF к нормализованной светимости (что выполнялось блоком 406, потому что обрабатываемые яркости от Y'HP вплоть до Y'GL были определены путем применения соответствующей EOTF в уравнении 1), и эти нормализованные светимости просто умножаются на 100 множителем 455 (например, 0,7*100 = 70 нит). Т.е. теперь читатель видит, что, используя эти принципы, можно определить все необходимое: от входного цвета HDR-изображения, в частности, его яркости Y, заданной PQ (например, сохраненной на диске Blu-ray HDR), вплоть до абсолютной светимости SDR соответствующего пикселя, который должен отображаться на SDR-дисплее, чтобы показать оптимальное соответствующее SDR-изображение для входного HDR-изображения (и результирующее декодирование SDR-изображения из принятого HDR-изображения).The net luminosity conversion will be in the vertical direction, so usually the HDR luminosity or its corresponding Y luminosity (i.e. ColHDR) is moved up to the optimal new position (ColSDR) because to map HDR luminosity to SDR luminosity the F_L curve on the normalized axes plot will always be above the diagonal (i.e. the input normalized luminosities or HDR luminances at a particular x coordinate also have as the y coordinate the height of the diagonal at the x coordinate position, and the normalized output luminosity of the SDR function, which always lies above that diagonal, therefore, always will produce a higher normalized output value). Which actual (absolute) SDR luminosity corresponds to this normalized luminance Y value is determined by first applying the EOTF to the normalized luminosity (which was done by block 406 because the processed luminances from Y'HP through Y'GL were determined by applying the appropriate EOTF in the equation 1), and these normalized luminosities are simply multiplied by 100 by a factor of 455 (for example, 0.7*100 = 70 nits). Those. the reader can now see that, using these principles, one can determine everything from the input color of an HDR image, specifically its PQ-specified luminosity Y (e.g. stored on a Blu-ray HDR disc), all the way to the absolute SDR luminosity of the corresponding pixel , which must be displayed on the SDR display to show the optimal corresponding SDR image for the input HDR image (and the resulting decoding of the SDR image from the received HDR image).

Исходя из вышесказанного, читатель теперь понимает базовую отправную точку HDR-кодирования, по меньшей мере, в соответствии с философией кодирования заявителя, стандартизированной в ETSI. Для большинства потребитель выбор ETSI1 или ETSI2 (и затем всего того, что происходит технически) будет достаточным для их целей, т.е. снабжения их рынка красивыми HDR-изображениями (конечно же, им все равно нужно будет создавать эти красивые HDR-изображения на основе определения хорошей формы, по меньшей мере, функции F_C и, предпочтительно, также функции F_L_CU, или, по меньшей мере, когда эти функции не оптимизируются вручную, в соответствии с их собственными художественными пожеланиями, приобретать и использовать автоматическое средство заявителя, которое автоматически генерирует довольно красивый вид для каждого типа HDR-изображения, а также последующие формы функций кодека). Например, потребители, которые пойдут на полную модернизацию с целью получения перспективного высококачественного универсального HDR, могут развернуть ETSI2-систему, а участники рынка, которые больше ценят либо свои SDR-изображения, либо потребители SDR могут развернуть свою HDR-систему как ETSI1-систему (это может также подлежать различным обсуждениям в зависимости от того, кто задействован в последовательности обработки HDR-видео, например, создатель контента или оператор системы кабельного телевидения, и может быть задействовано транскодирование и т.д.).Based on the foregoing, the reader now understands the basic starting point of HDR encoding, at least in accordance with the Applicant's coding philosophy as standardized in ETSI. For most consumers, choosing ETSI1 or ETSI2 (and then whatever happens technically) will be sufficient for their purposes, ie. supplying their market with beautiful HDR images (of course, they will still need to create these beautiful HDR images based on the good shape definition of at least the F_C function and preferably also the F_L_CU function, or at least when these functions are not manually optimized, according to their own artistic wishes, acquire and use the applicant's automatic tool, which automatically generates a fairly beautiful look for each type of HDR image, as well as subsequent forms of codec functions). For example, consumers who will go for a complete upgrade to a promising high quality universal HDR system can deploy an ETSI2 system, and market participants who value either their SDR images more or SDR consumers can deploy their HDR system as an ETSI1 system ( this may also be subject to different discussions depending on who is involved in the HDR video processing sequence, e.g. content creator or cable TV system operator, and transcoding may be involved, etc.).

Однако существует еще одна потребность на рынке или предложение на рынке для потребителей, которые не хотят развертывать ETSI1 или ETSI2 в точном соответствии со стандартом. Было бы разумно, чтобы в случае, если бы кто-то решил передавать HDR-изображения в качестве единственных изображений, представляющих собой весь спектр изображений, необходимых для всех различных дисплеев с PB_D, этот кто-то передавал сами основные HDR-изображения (например, с PB_C 5000 нит) не только потому, что эти изображения уже доступны, но и также в силу наилучшего качества представления изображений HDR-сцены (на самом деле они являются «сокровищем» создателя контента, т.е. изображениями, которые он специально создал и утвердил, а также часто являются отправной точкой фильма с творческим видением; или же тем единственным, что он активно создавал, в случае, когда остальная часть повторной градуировки работает автоматически согласно выбранной технологии). Однако особенно в ближайшие годы, на рынке будет складываться ситуация, при которой может пригодиться другой дополнительный подход. К сожалению, не все доступные на рынке телевизоры (или в общем устройства для декодирования или обработки видео), которые не являются примитивными унаследованными SDR-дисплеями (т.е. неспособными выполнять все математические вычисления, связанные с HDR-декодированием, адаптацией дисплея и т.д.), всегда будут автоматически являться телевизорами с функциональными возможностями ETSI2 (или ETSI1). На рынке существует ряд телевизоров, которые применяют совершенно другой подход к кодированию и отображению HDR, например, в соответствии с недавно стандартизированным подходом гибридной логарифмической гаммы. Или, например, некоторые телевизоры могут декодировать только HDR-изображения, кодированные с использованием яркостей PQ, но ничего больше. Возможно, некоторые телевизоры могут использовать только этот подход, поэтому, вероятно, лучшее, что они могут сделать, - это вообще не обрабатывать входящее HDR-видео ETSI2. Точно так же на рынке могут быть некоторые телевизоры, которые не следуют какой-либо стандартной философии, по меньшей мере, в отношении адаптации дисплея, т.е. повторной градуировки, например, принятого изображения с 2000 нит, например, в изображение с 900 нит для дисплея с PB_D 900 нит. Такому телевизору потребовалась бы способность декодирования, чтобы понять, какие цвета пикселей и, в частности, светимости содержатся в принятом изображении, но он мог бы использовать свой собственный эвристический алгоритм (для отображения тонов), чтобы определить, как создать изображение с 900 нит. Недостатком, по меньшей мере с точки зрения создателя контента, который хотел бы, чтобы каждый потребитель мог смотреть его фильм в таком же хорошем качестве, в как он изначально создал его, является то, что такая вариативность создаст высокую степень неопределенности в отношении того, что телевизор конкретной марки сделает с любым принятым HDR-изображением. Например, простое переосмысление отображения HDR-изображений, произошедшее в недавнем прошлом, привело к абсолютному воспроизведению светимостей HDR-изображений. Оно означает, что все светимости HDR-изображения вплоть до 900 нит отображаются с точно такой же светимостью, что и закодирована в изображении, но все более высокие светимости ограничиваются максимально возможным белым цветом дисплея (т.е. PB_D). Для примера изображения, такого как космическая станция по ФИГ. 7, это могло бы означать, что некоторые части Земли отсечены до неприглядного белого пятна (там, где Солнце затмевает Землю справа). Несмотря на, что этот телевизор в какой-то степени по-прежнему будет отличным HDR-телевизором, потому что он будет показывать в хорошем качестве яркие синие цвета большей части Земли, видимые через верхний смотровой портал космической станции, прекрасно контрастирующий с темным интерьером, по меньшей мере одна часть изображения будет выглядеть некрасиво (а некоторые другие сцены могут иметь гораздо более серьезные дефекты, по меньшей мере, на некоторых телевизорах, например, отсечение каждой детали изображения за пределами пещеры по ФИГ. 1 или базара и т.д.). Использование другого упрощенного переосмысления отображения тонов, например, линейного сжатия светимостей наподобие стратегии «белого на белом», может привести к нескольким другим проблемам. В чатснотси, хотя такая система могла бы функционировать и создавать какое-то HDR-изображение для конечного зрителя (например, в нашей ETSI2-системе такой телевизор мог бы использовать только функцию PQ блока 401, но игнорировать все другие метаданные функции отображения светимости и последующие последовательные отображения 402, 403 светимости и т.д., которые в ESTI2 реализуют функциональную возможность адаптации дисплея), результаты не будут ни лучшего визуального качества, ни - что, вероятно, хуже - предсказуемыми.However, there is another market need or market offering for customers who don't want to deploy ETSI1 or ETSI2 exactly to the standard. It would make sense that in the event that someone decides to transmit HDR images as the only images representing the full range of images needed for all the various displays with PB_D, that someone transmits the main HDR images themselves (for example, with PB_C 5000 nits) not only because these images are already available, but also due to the best quality representation of HDR scene images (in fact, they are the "treasure" of the content creator, i.e. images that he specifically created and approved, and is also often the starting point of a film with a creative vision; or the only one he actively created, in the case where the rest of the recalibration works automatically according to the chosen technology). However, especially in the coming years, there will be situations in the market where a different complementary approach may come in handy. Unfortunately, not all televisions available on the market (or video decoding or processing devices in general) that are not primitive legacy SDR displays (i.e. unable to perform all the mathematical calculations associated with HDR decoding, display adaptation, etc.) .d.) will always automatically be TVs with ETSI2 (or ETSI1) functionality. There are a number of TVs on the market that take a completely different approach to HDR encoding and display, such as following the recently standardized hybrid log gamut approach. Or, for example, some TVs can only decode HDR images encoded using PQ luminances, but nothing else. Perhaps some TVs can only use this approach, so probably the best they can do is not process incoming ETSI2 HDR video at all. Similarly, there may be some TVs on the market that do not follow any standard philosophy, at least in terms of display adaptation, i.e. re-grading, for example, a received image with 2000 nits, for example, into an image with 900 nits for a display with PB_D 900 nits. Such a TV would need decoding capability to understand what pixel colors and, in particular, luminosities are contained in the received image, but it could use its own heuristic algorithm (for tone mapping) to determine how to create a 900 nit image. The disadvantage, at least from the point of view of a content creator who would like every consumer to be able to watch his film in the same good quality as he originally created it, is that such variability will create a high degree of uncertainty as to what a specific brand TV will do with any accepted HDR image. For example, a simple rethinking of HDR image display in the recent past has resulted in an absolute reproduction of HDR image luminosities. It means that all HDR image luminances up to 900 nits are displayed at exactly the same luminosity as encoded in the image, but all higher luminosities are limited to the display's maximum possible white color (i.e. PB_D). For an example image such as the space station of FIG. 7, this could mean that some parts of the Earth are cut off to an unsightly white spot (where the Sun eclipses the Earth from the right). While this TV will still be a great HDR TV to some extent, because it will show in good quality the vibrant blues of most of the Earth as seen through the space station's top viewing portal, contrasting beautifully with the dark interior, but at least one part of the image will look ugly (and some other scenes may have much more severe defects, at least on some TVs, such as clipping of every detail of the image outside the cave of FIG. 1 or the bazaar, etc.). Using another simplified rethinking of tone mapping, such as linear compression of luminosities like a white-on-white strategy, can lead to several other problems. In private, although such a system could function and produce some kind of HDR image for the end viewer (for example, in our ETSI2 system, such a TV could use only the PQ function of block 401, but ignore all other metadata of the luminance display function and subsequent serial displays 402, 403, luminosity, etc., which in ESTI2 implement the display adaptation functionality), the results will be neither better visual quality nor - probably worse - predictable.

Это привело к новой топологии кодирования, основанной на втором типе HDR-изображения в дополнение к основному HDR-изображению, а именно так называемому изображению с промежуточным динамическим диапазоном (IDR), которое впервые было описано в WO2016020189. Преимущество состоит в том, что можно задать такое вторичное HDR-изображение (кодированное IDR-изображение, которое будет передаваться приемникам вместо основного HDR-изображения в классической философии ETSI2-кодека) с PB_C, которая находится в диапазоне многих действующих телевизоров (например, 1000 нит или 750 нит; хотя можно также использовать 500 нит с той же методикой, или, может быть, даже PB_IDR с 400 нит). Но все равно можно сделать любой желаемый основной HDR с PB_MHDR, соответствующий художественным предпочтениям или на самом деле техническим ограничениям (например, доступный монитор для градуировки). Идея состоит в том, что какая бы методика переосмысления отображения (включая отображение тонов) ни использовалась в телевизоре, она должна быть плавной в том смысле, что обработка не должна слишком сильно отклоняться от принятого изображения, если PB_D близка к PB_IDR, т.е. пиковой яркости принятого IDR-изображения. Например, даже телевизор, который настолько примитивен, что просто отсекает все светимости пикселей выше PB_D, не должен отсекать слишком сильно (например, не всю Землю или Солнце за пределами пещеры на изображении). И создатель контента возвращает назад некоторый контроль, потому что даже если, с одной стороны, он желает создавать красивые сверхъяркие области изображения, например, со средним значением приблизительно 4000 нит, на основном изображении с PB_C_H 5000 нит, он может управлять способом, которым он повторно градуирует эти области на IDR-изображении, чтобы они оказывались, например, достаточно ниже 1000 нит, так что даже примитивный телевизор на 800 нит должен отсекать только самые яркие и визуально наименее деструктивные пиксели, например, только солнечные лучи в примере с космической станцией по ФИГ. 7. Таким образом, для обеспечения этого нового подхода необходима некоторая новая технология.This has led to a new coding topology based on a second type of HDR image in addition to the main HDR image, namely the so-called intermediate dynamic range (IDR) image, which was first described in WO2016020189. The advantage is that one can define a secondary HDR picture (an IDR encoded picture that will be sent to receivers instead of the main HDR picture in the classic ETSI2 codec philosophy) with a PB_C that is in the range of many current TVs (e.g. 1000 nits or 750 nits; though you could also use 500 nits with the same technique, or maybe even PB_IDR with 400 nits). But it's still possible to make any desired primary HDR with PB_MHDR, as long as it suits artistic preferences or really technical constraints (e.g. an available monitor for grading). The idea is that whatever display rethinking technique (including tone mapping) is used in the TV should be smooth in the sense that the processing should not deviate too much from the received image if PB_D is close to PB_IDR, i.e. the peak brightness of the received IDR image. For example, even a TV set that is so primitive that it simply cuts off all pixel luminosities above PB_D should not cut off too much (for example, not all of the Earth or Sun outside the cave in the image). And the content creator takes back some control, because even if, on the one hand, he wants to create beautiful super-bright areas of the image, for example, with an average of approximately 4000 nits, on the main image with a PB_C_H of 5000 nits, he can control the way he re graduates these areas in the IDR image so that they are, for example, sufficiently below 1000 nits, so that even a primitive 800 nit TV should only cut off the brightest and visually least destructive pixels, for example, only the sun's rays in the space station example of FIG. . 7. Thus, some new technology is needed to provide this new approach.

На ФИГ. 7 показано, как философия кодека из WO 2016020189 обеспечивает подход к адаптации канала (поскольку передаваемое по каналу изображение является IDR-изображением, то можно сказать, что конкретный канал связи выполнен с возможностью отправки, например, изображений с PB_CH 1000 нит). Пример снова выбран так, чтобы он был интересен для пояснения некоторых основных концепций. Следует понимать одну вещь: хотя может быть полезно, если все изображения с разной PB_C в диапазоне являются именно тем или, по меньшей мере, очень близки к тому, что сделал бы создатель контента, если бы он градуировал каждое из них по отдельности и без ограничений в любой технической системе, это не обязательно всегда так, особенно для IDR-изображения. Здесь может быть предусмотрено некоторое послабление (с другой стороны, также могут возникать споры относительно того, когда и почему конкретная градуировка изображения категории X HDR-сцены по сравнению с категорией Y является оптимальной, и какое отклонение кажется достаточным отклонением; например, можно представить себе, что светимость пикселей уличного фонаря менее критична, чем светимость пикселей лица, особенно если предполагается, что оно наполовину скрыто в темноте, и также уже потому, что в реальной жизни любой уличный фонарь вполне может быть все равно немного ярче или менее ярким).FIG. 7 shows how the codec philosophy of WO 2016020189 provides an approach to channel adaptation (since the image transmitted over the channel is an IDR image, it can be said that a particular communication channel is configured to send, for example, images with a PB_CH of 1000 nits). The example is again chosen to be interesting for explaining some of the basic concepts. One thing to be aware of though, it can be helpful if all images with different PB_Cs in the range are exactly what, or at least very close to, what a content creator would do if they graduated each one individually and without restriction in any technical system, this is not necessarily always the case, especially for an IDR image. There may be some relaxation here (on the other hand, there may also be disputes as to when and why a particular image grading of category X of an HDR scene compared to category Y is optimal, and what deviation seems to be sufficient deviation; for example, one can imagine, that the pixel luminosity of a street light is less critical than the pixel luminance of a face, especially if it is assumed to be half-hidden in darkness, and also because in real life any street light may well be a little brighter or less bright anyway).

WO 2016020189 раскрывает средство для определения функций (разных функций), используя IDR-изображение в качестве некоторой средней точки, т.е. вверх по направлению к основному HDR-изображению, которое должно быть восстановлено из IDR-изображения, принятого приемниками, и вниз, чтобы выполнить адаптацию дисплея для любого MDR-дисплея с PB_D<PB_IDR. С такой технологией основной диапазон HDR можно было бы выбирать всегда фиксированным как диапазон PB_C 10000 нит, который является диапазоном, связанным с функцией PQ.WO 2016020189 discloses a means for defining functions (different functions) using an IDR image as a midpoint, i. up towards the main HDR image to be reconstructed from the IDR image received by the receivers, and down to perform display adaptation for any MDR display with PB_D<PB_IDR. With such a technology, the main HDR range could be chosen to always be fixed as the PB_C range of 10000 nits, which is the range associated with the PQ function.

Видно, что могут быть снова использованы разные соображения о том, как преобразовывать различные возможные светимости, которые могут значительно отличаться на левой и правой сторонах от выбранного IDR-изображения. Это вызвано тем, что на самом деле концептуально может выполняться что-то иное. Слева формируется вторичное («меньшее») HDR-изображение из основного HDR-изображения. Таким образом, одно из соображений может заключаться в том, что это IDR-изображение должно быть «таким же хорошим» (несмотря на более низкую PB_IDR), как и основное HDR-изображение (и как тогда элегантно разрешить это кажущееся противоречие?). Справа происходит сжимание в сторону еще меньшей PB_MDR (что может быть значительным для некоторой высокой степени сложности, подразумевая, среди прочего, наличие множества критических объектов, распределенных по всему диапазону светимостей, и изображений с высокой PB_C_H), т.е., по-видимому, имеется другая задача формирования адаптированного для дисплея изображения. Таким образом, можно представить себе, что это могло бы привести к (совершенно) другой технической обработке, в частности, к функциям отображения светимости с разными формами/конфигурациями с учетом нашего представления об отображении «изображение + светимость».It can be seen that again different considerations can be used on how to transform the different possible luminosities, which may differ significantly on the left and right sides from the selected IDR image. This is because something else might actually be conceptually done. On the left, a secondary ("smaller") HDR image is formed from the main HDR image. So one consideration might be that this IDR image should be "as good" (despite a lower PB_IDR) as the main HDR image (and how then to elegantly resolve this seeming contradiction?). On the right, there is compression towards even lower PB_MDR (which can be significant for some high degree of complexity, implying, among other things, the presence of many critical objects distributed over the entire luminosity range and images with high PB_C_H), i.e., apparently , there is another task of forming an image adapted for the display. Thus, one can imagine that this could lead to a (completely) different technical processing, in particular, luminance display functions with different shapes/configurations, given our idea of image + luminance display.

В этом примере светимости темной космической станции могут быть отображены на любом приемлемом телевизоре (по меньшей мере, теоретически), поскольку они темнее 60 нит. Но сначала более яркие пиксели должны быть весьма аккуратно сжаты до IDR-изображения, и тогда, чем меньшее сжатие было выполнено в первой части, тем большее сжатие нужно выполнить в отношении SDR-изображения. И снова могли бы быть разные критерии для примерных двух ярких объектов: ярко-голубой Земли по сравнению с гораздо более ярким, но почти бесцветным Солнцем и его лучами. Как показывают поддиапазоны светимостей, соответственно, в основном диапазоне (BE) светимостей HDR-изображения и диапазоне (Be2) светимостей IDR для яркого земного объекта, в идеале этот создатель контента может пожелать, чтобы максимальная яркость Земли никогда не превышала, например, 750 нит, независимо от характеристики PB_C любого изображения или дисплея (потому что в противном случае Земля может начать слишком сильно светиться и выглядеть нереалистично). Однако то, как должны выглядеть светимости Солнца, зависит от нескольких факторов, не только художественных предпочтений, но и количества светимостей, оставшейся для кодирования солнечного объекта выше 750 нит на выбранном IDR-изображении (с PB_IDR 800 нит) (конечно, в некоторых ситуациях отправитель контента может выбрать другое более высокое значение PB_IDR, но в данном случае было предположено, что любое устройство, подключенное на принимающей стороне к каналу связи, всегда ожидает PB_IDR 800 нит для любого видеоконтента, будь то голливудский фильм или новостная программа). Окончательно выбранная функция F_H2h отображения светимости для создания светимостей IDR-изображения из светимостей основного HDR-изображения для всех этих самых ярких пикселей в виде поднабора показана двумя стрелками: было принято решение определить общее действие сжатия для двух объектов вместе, что также несколько снижает светимости наименее ярких земных объектов. Это пример ситуации, когда идеальная желательная повторная градуировка создателя контента не выполняется безупречно на 100% (потому что, возможно, это связано с некоторыми другими техническими трудностями), но IDR-изображение в достаточной степени подходит большинству людей. На самом деле это не имеет особого значения, если пиксели Земли на IDR-изображении лишь немного темнее, и, возможно, этого можно было бы ожидать даже для HDR-изображения более низкого качества. Но важным моментом является то, что это IDR-изображение может по-прежнему соответствовать всем требованиям исходной философии ETSI2 (и в то же время с помощью этого дополнительного этапа кодека также выполняется требование, чтобы примитивные дисплеи с PB_D приблизительно 800 нит не могли слишком сильно ухудшать принятое IDR-изображение перед его отображением): все MDR-изображения вплоть до основного SDR-изображения по желанию создателя контента могут по-прежнему формироваться приемниками с использованием функций преобразования светимости на правой стороне, и (даже с затемненными яркими пикселями земного объекта) основное HDR-изображение с PB_C 2000 нит или PB_C 10000 нит можно восстановить путем инвертирования функции F_H2h (которая сама по себе также может быть оптимизирована для каждого изображения или набора последовательных изображений, кодирующих конкретный кадр фильма, в соответствии с его техническими и/или художественными потребностями).In this example, the luminosities of a dark space station can be displayed on any acceptable TV (at least in theory) as long as they are darker than 60 nits. But first, the brighter pixels must be compressed quite neatly into an IDR image, and then the less compression was done in the first part, the more compression needs to be done with respect to the SDR image. Again, there could be different criteria for the approximate two bright objects: a bright blue Earth versus a much brighter but almost colorless Sun and its rays. As shown by the luminosity subranges, respectively, in the main range (BE) of the HDR image luminosities and the range (Be2) of the IDR luminosities for a bright earth object, ideally this content creator may wish that the maximum brightness of the Earth never exceeds, for example, 750 nits, regardless of the PB_C characteristic of any image or display (because otherwise the Earth may start to glow too much and look unrealistic). However, how the luminosities of the Sun should look depends on several factors, not only artistic preference, but also the amount of luminosity left to encode a solar object above 750 nits in the selected IDR image (with PB_IDR 800 nits) (of course, in some situations, the sender content may choose another higher PB_IDR value, but in this case it was assumed that any device connected on the receiving side to the communication channel always expects a PB_IDR of 800 nits for any video content, be it a Hollywood movie or a news program). The final selected luminosity mapping function F_H2h to create the IDR image luminosities from the main HDR image luminosities for all of these brightest pixels is shown as a subset by two arrows: it was decided to define an overall squeezing action for the two objects together, which also slightly reduces the luminosities of the least bright earth objects. This is an example of a situation where the content creator's ideal desired regrading is not 100% perfect (because it may be due to some other technical difficulty), but the IDR image is adequate for most people. It doesn't really matter much if the Earth's pixels are only slightly darker in the IDR image, and this might be expected even for a lower quality HDR image. But the important point is that this IDR image can still meet all the requirements of the original ETSI2 philosophy (and at the same time, with this additional codec step, the requirement is also fulfilled that primitive displays with a PB_D of approximately 800 nits cannot degrade too much received IDR image before displaying it): all MDR images up to the main SDR image can still be generated by the receivers using the luminance transform functions on the right side, at the request of the content creator, and (even with the bright pixels of the earth object darkened) the main HDR -an image with a PB_C of 2000 nits or a PB_C of 10000 nits can be reconstructed by inverting the F_H2h function (which itself can also be optimized for each image or set of consecutive images encoding a particular movie frame, according to its technical and/or artistic needs).

Двумя документами, заслуживающими обсуждения в силу их неактуальности (потому что разные технические аспекты не следует путать), а не их важности (но из-за потенциальной путаницы они заслуживают обсуждения), являются следующие: US 20160307602 и EP2689392 (также опубликованный как WO 2012127401), которые оба относятся к так называемой «оптимизации дисплея», а не к структуре парадигмы кодирования видеоизображений. Это основное отличие для специалистов в данной области техники поясняется с помощью ФИГ. 23, на которой показан типичный пример всей последовательности обработки видео. Предполагается, что на стороне 2301 создания контента осуществляется захват HDR-сцены с помощью камеры 2302 в режиме реального времени (или ранее записанной HDR-сцены). Человек-специалист по градуировке (или колорист) определяет, например, среди прочего, основную градуировку захваченной HDR-сцены (т.е. относительное положение светимостей пикселей различных объектов изображения в динамическом диапазоне светимостей для основного HDR-изображения, который заканчивается максимально представимым значением, например, PB_C_H50 = 5000 нит, и начинается с некоторого небольшого значение черного, например, MB_C_H50 = 0,001 нит, которое в данном обсуждении можно считать приравненным к нулю: например, для космической станции он изменяет путем обработки изображения захваченные исходной камерой данные так, чтобы пиксели Солнца имели 4500 нит, ярко-синий цвет Земли соответствовал, например, 200 нит и т.д.). Во-вторых, специалист по градуировке в нашем подходе обычно хочет указывать по меньшей мере одну функцию отображения светимости (на практике такая функция отображения светимости может иметь разную форму для последовательных изображений HDR-видео, и в наших стандартах ETSI даже было пояснено, как это может быть технически достаточно удобным для задания нескольких функций даже для одного моментального видеоизображения, но эти дополнительные сложности не требуются для разъяснения нынешнего изобретательского вклада в данную область техники), которая, как правило, будет функцией, определяющей то, как нормализованные до PB_C_H50 5000 нит светимости основного HDR должны быть повторно градуированы в нормализованные до 100 нит светимости LDR, т.е. FL_50t1.Two documents worth discussing due to their irrelevance (because different technical aspects should not be confused) rather than their importance (but due to potential confusion they deserve discussion) are the following: US 20160307602 and EP2689392 (also published as WO 2012127401) , which both refer to so-called "display optimization" and not to the structure of the video coding paradigm. This main difference for those skilled in the art is illustrated with the help of FIG. 23, which shows a typical example of the entire video processing sequence. It is assumed that the content creation side 2301 is capturing an HDR scene with the camera 2302 in real time (or a previously recorded HDR scene). The human grading specialist (or colorist) determines, for example, among other things, the basic grading of the captured HDR scene (i.e. the relative position of the luminosities of the pixels of the various image objects in the dynamic range of luminosities for the main HDR image, which ends with the maximum representable value, for example, PB_C_H50 = 5000 nits, and starts with some small black value, for example, MB_C_H50 = 0.001 nits, which in this discussion can be considered equal to zero: for example, for a space station, it changes by image processing the data captured by the source camera so that the pixels The suns had 4500 nits, the bright blue color of the Earth corresponded to, for example, 200 nits, etc.). Secondly, the calibrator in our approach usually wants to specify at least one luminance mapping function (in practice, such a luminance mapping function can have a different shape for sequential HDR video images, and our ETSI standards have even explained how this can be technically convenient enough to specify multiple functions even for a single video snapshot, but these additional complexities are not needed to explain the current inventive contribution to the art), which will typically be a function specifying how PB_C_H50 normalized 5000 nit luminosities of the main HDR must be re-calibrated to normalized to 100 nits LDR luminosity, i.e. FL_50t1.

Третьим важным аспектом тогда является методика кодирования для кодирования основного HDR-изображения, которое должно быть передано одному или более приемникам (с помощью по меньшей мере одной методики кодирования). В начале исследования HDR-видео и, соответственно, в более простых версиях, стандартизированных заявителем, это было бы относительно простое кодирование, такое как, например, LDR-изображение с 100 нит, которое затем имеет отличную обратную совместимость, чтобы его можно было показывать непосредственно в хорошим общем виде на старых LDR-телевизорах, которые не имеют возможности или не сконфигурированы для обработки HDR. Подход к кодированию, раскрытый в WO2016020189, и принципы настоящего изобретения являются примером более продвинутого подхода второго поколения, который является более сложным, но может удовлетворить дополнительные пожелания в некоторых конкретных технических экосистемах для передачи и обработки HDR-видео. Градуировка, выполняемая, например, человеком-специалистом 2304 по градуировке (в случае, если она не автоматизирована, как зачастую бывает в реальных вещательных программах) осуществляется на устройстве 2303 для градуировки (которое обычно содержит несколько инструментов для изменения светимостей пикселей, однако в целях настоящего пояснения можно предположить, что оно состоит из элементов предоставления пользовательского интерфейса для задания формы FL_50t1 и передачи такой формы функции (например, в виде метаданных, содержащих несколько параметров, определяющих форму функции)).The third important aspect then is the coding technique for coding the main HDR image to be transmitted to one or more receivers (using at least one coding technique). At the beginning of HDR video research, and accordingly in the simpler versions standardized by the applicant, this would be a relatively simple encoding, such as for example a 100 nit LDR image, which then has excellent backward compatibility so that it can be shown directly in good general terms on older LDR TVs that do not have the capability or are not configured for HDR processing. The coding approach disclosed in WO2016020189 and the principles of the present invention are an example of a more advanced second generation approach that is more complex but may satisfy additional desires in some specific technical ecosystems for HDR video transmission and processing. The calibration, for example, performed by a human calibration specialist 2304 (in case it is not automated, as is often the case in real broadcast programs) is carried out on the calibration device 2303 (which usually contains several tools for changing pixel luminosities, however, for the purposes of this explanation, it can be assumed that it consists of elements of providing a user interface for specifying the form FL_50t1 and passing this form of the function (for example, in the form of metadata containing several parameters that determine the form of the function)).

Хотя кодер 2305 видео (который будет выполнять, без каких-либо ограничений предполагая, что его входное основное HDR-изображение представляет собой набор светимостей для всех пикселей, все методики реализации фактического кодирования основного HDR-изображения, т.е., например, получать 8-битовую, 10-битовую или 12-битовую пиксельную матрицу типичных цветовых триплетов пикселей YCbCr вместе с метаданными, описывающими всю дополнительную информацию, такую как функции отображения светимости, заданные в зависимости от того, какая методика кодирования была выбрана), в принципе, может входить в состав устройства 2303 для градуировки, он был показан как подключаемое дополнительное устройство. Это представляет собой упрощение для читателя, достаточное для разъяснения настоящего изобретения, в котором обобщены различные практические варианты, например, захват (и, возможно, градуировка) происходит на внешней передвижной телевизионной станции, а кодирование, возможно, происходит на какой-то промежуточной ретрансляционной станции связи, например, после того, как в сигнал были внедрены местные рекламные ролики и т.д. (в этой связи также может быть задействована гармонизация различного контента изображения, но детали этого не требуются подробно объяснять). Важно понимать то, что происходит на стороне создания (см., например, разницу между доставкой и распространением), что можно определить как формальное завершение, когда окончательно закодированный видеосигнал передается некоторому потребителю, например, с помощью спутниковой антенны 2306 и спутника 2340 связи (или любого эквивалентного канала передачи видео, например, через Интернет и т.д.).Although the video encoder 2305 (which will perform, without any restrictions, assuming that its input HDR main image is a set of luminances for all pixels, all techniques for implementing the actual encoding of the HDR main image, i.e., for example, to obtain 8 -bit, 10-bit, or 12-bit pixel matrix of typical YCbCr pixel color triplets, together with metadata describing all additional information, such as luminance mapping functions given depending on which coding technique has been chosen), could in principle be included part of the 2303 calibration device, it was shown as a plug-in accessory. This is a simplification for the reader, sufficient to explain the present invention, which summarizes various practical options, for example, capture (and possibly calibration) occurs at an external mobile television station, and encoding possibly occurs at some intermediate relay station communications, for example, after local commercials have been embedded in the signal, etc. (harmonization of different image content may also be involved in this connection, but the details of this need not be explained in detail). It is important to understand what happens on the production side (see, for example, the difference between delivery and distribution), which can be defined as the formal completion when the finally encoded video signal is transmitted to some consumer, for example, using a satellite dish 2306 and a communication satellite 2340 (or any equivalent video transmission channel, such as over the Internet, etc.).

На принимающей стороне обычно имеются потребительские устройства в доме конечного потребителя, такие как, например, спутниковая телевизионная приставка или любое эквивалентное устройство 2352 декодирования и окончательной обработки, подключенное на входной стороне к местной спутниковой тарелке 2351, а на выходной стороне - к HDR-дисплею 2353, который может иметь различные возможности отображения, например, с PB_D 1000 ни или 700 нит, или 2500 нит. Хотя может оказаться, что телевизионной приставке достаточно выполнить только декодирование снова для получения подлежащих отображению значений светимости с помощью декодера 2381, который затем выполняет операции, обратные операциям кодера, как правило, это будет полезно только в ограниченном числе ситуаций. Обычно оптимизатор 2382 дисплея выполняет процесс оптимизации дисплея, который заключается в очередном изменении абсолютного соответствующим образом нормализованного распределения светимости (либо, например, принятого LDR-изображения, либо декодированного основного HDR-изображения, например, с 5000 нит), поскольку основное изображение могло быть закодировано, например, для PB_C_H50 5000 нит, т.е. потенциально содержать пиксели со светимостью 2000 нит, хотя HDR-дисплей конкретного потребителя может, например, отображать только вплоть до 700 нит (свой самый белый отображаемый цвет).The receiving side typically has consumer devices in the end user's home, such as, for example, a satellite set-top box or any equivalent decoding and finishing device 2352 connected on the input side to the local satellite dish 2351 and on the output side to the HDR display 2353 , which can have different display capabilities, for example with a PB_D of 1000 nits, or 700 nits, or 2500 nits. While it may be that the set top box only needs to do the decoding again to obtain the luminance values to be displayed by the decoder 2381, which then performs the inverse of the encoder operations, this will generally only be useful in a limited number of situations. Typically, the display optimizer 2382 performs a display optimization process which consists of next changing the absolute appropriately normalized luminance distribution (either the received LDR picture, for example, or the decoded HDR main picture, for example, with 5000 nits), since the main picture may have been encoded , for example, for PB_C_H50 5000 nits, i.e. potentially contain pixels with a luminosity of 2000 nits, although a particular consumer's HDR display may, for example, only display up to 700 nits (its whitest display color).

Таким образом, с одной стороны, существуют значительные технические различия между оборудованием (и философией его технологического проектирования и т.д.) с обеих сторон, например, заключающиеся в том, что создающая/кодирующая/передающая сторона будет иметь только кодер 2370 видео для кодирования основного HDR-видео (MsterHDR) в качестве некоторого полученного канальным кодированием IDR-изображения с промежуточным динамическим диапазоном, в то время как принимающая сторона может также отображать и оптимизировать восстановленное HDR-изображение (RecHDR) с 5000 нит на оптимизированном дисплее, например, изображение ImDA с PB_C 700 нит, оптимально подходящее для подключенного дисплея с PB_D 700 нит. Техническую разницу между ними можно увидеть в том, что оптимизацию дисплея можно выполнять как (необязательную) постобработку, тогда как кодирование/декодирование представляет собой исключительно технологию восстановления изображения, обычно не требующую каких-либо инструкций по оптимизации отображения. Устройствами (и процессами управления и т.д.) на обеих сторонах обычно также занимаются совершенно разные квалифицированные специалисты. Устройства для создания контента могут разрабатываться производителями профессионального видеооборудования и управляться инженерами вещания и т.д. Телевизионные приставки и телевизоры обычно производятся производителями бытовой электроники, например, азиатского происхождения.Thus, on the one hand, there are significant technical differences between the equipment (and its technological design philosophy, etc.) on both sides, for example, that the creating / encoding / transmitting side will only have a video encoder 2370 for encoding main HDR video (MsterHDR) as some channel-encoded IDR image with intermediate dynamic range, while the receiving side can also display and optimize the reconstructed HDR image (RecHDR) with 5000 nits on an optimized display, such as an ImDA image with PB_C 700 nits, optimal for connected display with PB_D 700 nits. The technical difference between the two can be seen in that display optimization can be done as (optional) post-processing, while encoding/decoding is purely an image restoration technique, usually without any display optimization instructions. Devices (and control processes, etc.) on both sides are also usually handled by completely different skilled people. Content creation devices may be designed by professional video equipment manufacturers and controlled by broadcast engineers, etc. Set-top boxes and televisions are usually made by consumer electronics manufacturers, such as those of Asian origin.

US 20160307602 представляет собой первый патентный документ заявителя, посвященный оптимизации отображения. Вкратце, идея заключается в том, что создатель контента может предлагать основные правила и алгоритмы для способа реализации повторной градуировки для различных (по меньшей мере двух) режимов, которые могут существовать на изображении (причем режим представляет собой концепцию, которая одновременно является набором пикселей на изображении и необходимым способом реализации повторной градуировки для этих пикселей при наличии различных дисплеев с различным динамическим диапазоном). Хотя это поначалу позволило установить связь между пожеланиями создателей контента и фактическим отображением в месте конечного потребления, в действительности именно в этом месте конечного потребления должен происходить контролируемый способ реализации адаптации дисплея. И в идеале производитель телевизионной приставки или телевизора, если, по меньшей мере, адаптация дисплея происходит на этом телевизоре, в значительной степени будет следовать тому, что создатель контента определил как хороший способ реализации для различных объектов режима на видеоизображениях (например, кто-то, выходящий из темной области, не становится ни слишком видимым, ни слишком невидимым на дисплеях с любыми возможностями, даже на LDR-дисплеях с PB_D 100 нит), потому что это именно то, что требуется для этого контента, а не слепо делать что-либо самостоятельно. Но это несомненно ОКОНЧАТЕЛЬНЫЙ способ реализации, который должен быть выполнен на стороне потребления, и он полностью не зависит от того, как поставщик технологии передачи видео хочет разработать или, соответственно, любой разработчик хочет развернуть любую конкретную философию видеокодеков. Также не следует путать его с какой-либо ситуативной технологией отображения тонов хотя бы уже потому, что такое отображение обычно не будет обратимым - свойство, которым должно обладать кодирование посредством IDR-изображения с более узким динамическим диапазоном.US 20160307602 is Applicant's first patent document on display optimization. Briefly, the idea is that a content creator can propose ground rules and algorithms for a way to implement regrading for different (at least two) modes that may exist in an image (with a mode being a concept that is both a set of pixels in an image). and the necessary way to implement re-grading for these pixels in the presence of different displays with different dynamic range). Although this initially made it possible to establish a link between the wishes of the content creators and the actual display at the end-use location, in reality it is at this end-use location that a controlled way of implementing display adaptation should take place. And ideally, a set-top box or TV manufacturer, if at least display adaptation occurs on that TV, will largely follow what the content creator has determined is a good way to implement for various mode objects on video images (for example, someone coming out of the dark area doesn't get too visible or too invisible on displays of any capability, even LDR displays with PB_D 100 nits), because that's exactly what this content requires, rather than blindly doing anything on one's own. But this is clearly the FINAL way of implementation to be done on the consumer side, and is completely independent of how the video transmission technology provider wants to design or, accordingly, any developer wants to deploy any particular video codec philosophy. It should also not be confused with any ad hoc tone mapping technology, if only because such a mapping would typically not be reversible, a property that encoding with a lower dynamic range IDR image should have.

WO 2012127401 также описывает раннюю технологию эпохи HDR для определения способа реализации оптимизации отображения, которая может быть осуществлена с помощью различных вариантов осуществления структуры DATGRAD, которая определяет, как различный контент изображения должен быть повторно градуирован для разных возможностей динамического диапазона светимостей. Эта структура DATGRAD будет использоваться для формирования любого необходимого изображения со средним динамическим диапазоном (MDR) для PB_D MDR-дисплея между кодируемой пиковой яркостью PB_C основного HDR (т.е. PB_C_H50 в текущей системе обозначений) и PB_C LDR 100 нит согласно спецификации минимально необходимой повторной градуировки (см. стр. 16 в WO2012127401). Получение MDR-изображения оптимально выполняется не только с использованием требований повторной градуировки изображения, закодированных в структуре данных DATGRAD, но и также с использованием конкретных аспектов просмотра со стороны дисплея, таких как, например, яркость среды просмотра или окончательные настройки предпочтений зрителя (см. стр. 5 в WO2012127401).WO 2012127401 also describes early HDR era technology for defining a way to implement display optimization, which can be done with various implementations of the DATGRAD structure that defines how different image content should be re-graded for different luminosity dynamic range capabilities. This DATGRAD structure will be used to generate any required Medium Dynamic Range (MDR) image for a PB_D MDR display between the core HDR PB_C encoded peak luminance (i.e. PB_C_H50 in the current notation) and a PB_C LDR of 100 nits as per the minimum required replay specification. graduations (see page 16 in WO2012127401). The acquisition of an MDR image is optimally performed not only using the image re-grading requirements encoded in the DATGRAD data structure, but also using specific aspects of viewing from the display side, such as, for example, the brightness of the viewing environment or the final settings of the viewer's preferences (see page .5 in WO2012127401).

Должно быть ясно, что, изначально основываясь на таких идеях, но при этом не используя никакие дополнительные довольно специфические значения, специалист в данной области техники не преуспеет в перепроектировании кодеков.It should be clear that, initially based on such ideas, but without using any additional rather specific values, a person skilled in the art will not succeed in redesigning codecs.

Помимо различий в создании конкретных функций по сравнению с тем, что уже существует в уровне техники, но, что более важно, самой инновационной структуры/парадигмы кодека, также необходимо упомянуть, что фактическая передача второго значения PB_C (самого высокого значения основного контента наряду с нижнем из фактически передаваемого IDR-изображения) также отличается от (необязательной) характеризации типа, которая может использоваться согласно WO2016020189. Помимо того факта, что эти два понятия не являются в буквальном смысле одним и тем же, нумерованный объект может иметь разную роль, особенно если смотреть на детали этой парадигмы в сравнении с идеями настоящего изобретения. Такая характеризация в WO2016020189 может быть полезна в случае, например, когда имеются две функции отображения светимости для повторной градуировки вверх. Тогда может быть полезно выбрать, какая из них должна получать что-то похожее на точную реконструкцию основного HDR-изображения на стороне создания контента. Но такая информация не является ни строго необходимой, ни обязательной для применения в уровне техники. Можно использовать функцию повышающей градуировки, извлекаемую из основного HDR-изображения, чтобы получать вместо восстановленного изображения с 5000 нит восстановленное изображение с 4000 или 6000 нит. Поскольку промежуточное изображение имеет две стороны, функция понижающей градуировки обычно представляет собой ту, что содержит существенный контент изображения (в особенности контент, который должен отображаться достаточно ярко и достоверно на всех дисплеях с PB_D), но при этом функция повышающей градуировки будет особенно отличаться таким образом, чтобы она определяла характер повторной градуировки для очень ярких объектов (например, автомобильных фар, солнечных зайчиков и т.д.). Это типичные объекты/эффекты воздействия HDR, которые, однако, в любом случае не воспроизводятся правильно, поскольку именно в верхней области диапазона светимостей дисплеи с различными функциональными возможностями различаются больше всего. Следовательно, создание восстановленного изображения с PB_C 4000 нит из, например, IDR-изображения с 600 нит может приводить к тому, что некоторые автомобильные фары будут незначительно темными по сравнению с их идеальным значением светимости (даже если такое значение могло бы быть представлено в диапазоне светимостей 4000 нит), но оно все равно будет довольно красивым HDR-изображением, если просто применить, например, полилинейную нормализованную функцию повторной градуировки в системе осей [0-1]/[0-1], где горизонтальная ось представляет собой нормализованные до PB_C светимости IDR-изображения, а вертикальная ось соответствует тому, что выбрано в качестве вычисленной PB_C восстановленного HDR-изображения, которая не так уж сильно далека от (возможно, неизвестной, а лишь предполагаемой) PB_C основного HDR. В нашей настоящей технологии активно передается, по существу, значение светимости PB_C_H50, потому что оно также используется в алгоритме декодера.In addition to the differences in the creation of specific functions compared to what already exists in the state of the art, but more importantly, the most innovative codec structure/paradigm, it is also necessary to mention that the actual transmission of the second PB_C value (the highest value of the main content along with the lower from the actually transmitted IDR picture) is also different from the (optional) type characterization that can be used according to WO2016020189. Apart from the fact that these two concepts are not literally the same, the numbered object can have a different role, especially when looking at the details of this paradigm in comparison with the ideas of the present invention. Such a characterization in WO2016020189 can be useful in the case, for example, when there are two luminosity mapping functions for re-grading upwards. Then it can be useful to choose which one should get something like an exact reconstruction of the main HDR image on the content creation side. But such information is neither strictly necessary nor mandatory for use in the prior art. You can use the upscaling function extracted from the main HDR image to get a 4000 or 6000 nit reconstructed image instead of a 5000 nit reconstructed image. Since the intermediate image has two sides, the downscaling function is usually one that contains significant image content (especially content that should be displayed brightly enough and faithfully on all displays with PB_D), but the upscaling function will be particularly different in this way to determine the nature of the re-grading for very bright objects (eg car headlights, sunbeams, etc.). These are typical HDR objects/effects, which, however, are not reproduced correctly anyway, since it is in the upper region of the luminosity range that displays with different functionality differ the most. Therefore, creating a reconstructed image with PB_C 4000 nits from, for example, an IDR image with 600 nits may result in some car headlights being slightly dark compared to their ideal luminance value (even though such a value could be represented in the luminosity range 4000 nits), but it will still be a pretty nice HDR image if you just apply e.g. a polylinear normalized re-grading function on the [0-1]/[0-1] axis system, where the horizontal axis is PB_C normalized luminosities IDR images, and the vertical axis corresponds to what is chosen as the calculated PB_C of the reconstructed HDR image, which is not too far from the (perhaps unknown, but only estimated) PB_C of the main HDR. In our present technology, essentially the luminosity value PB_C_H50 is actively transmitted because it is also used in the decoder algorithm.

Изобретатели настоящей патентной заявки хотели ограничить общий IDR-подход рядом способов, в частности, вокруг уже разработанных сегодня философии и систем (интегральных схем, телевизоров, телевизионных приставок) ETSI2-кодирования.The inventors of this patent application wished to limit the general IDR approach in a number of ways, in particular around the ETSI2 coding philosophy and systems already developed today (ICs, TVs, set-top boxes).

РАСКРЫТИЕ СУЩНОСТИ ИЗОБРЕТЕНИЯDISCLOSURE OF THE INVENTION

Изобретатели уделили внимание ряду технических особенностей. С одной стороны, они хотели бы, чтобы их система была совместима с уже развернутыми ETSI2-декодерами. Следовательно, если, например, было передано IDR-изображение с 1500 нит (причем ETSI2-декодер ничего не знает о принципах построения IDR, вследствие чего он предполагает, что это было просто исходное основное HDR-изображение HDR-сцены), тогда вместе с ним должна передаваться функция F_L_IDR отображения светимости (и вся другая информация об отображении цвета в соответствии с ETSI2), которая является функцией F_I2s по ФИГ. 7 и которая выполняет правильную адаптацию дисплея. Следовательно, независимо от того, использовалась ли дополнительная IDR-технология или нет, ETSI2-декодер, также известный как SLHDR2, должен быть способен нормально создавать все MDR-изображения вплоть до SDR-изображения, и они должны (в идеале) выглядеть так, как того желал создатель контента. В идеале любой новый декодер согласно настоящим принципам, который будем называть декодером SLHDR2PLUS, должен также точно или, по меньшей мере, приблизительно обеспечивать одинаковый внешний вид для всех изображений от IDR до SDR (т.е. по меньшей мере одно из IDR- и SDR-изображений предпочтительно не должно отклоняться слишком сильно от MDR-изображения, которое могло бы быть тем результатом, который специалист по градуировке или, говоря в общем, создатель контента хотел бы или, по меньшей мере, согласился бы увидеть). С другой стороны, очень важным критерием является то, что основной HDR может быть почти идеально восстановлен (хотя, возможно, с несколькими незначительными ошибками округления, которые набегают, например, при применении дискретного косинусного преобразования (DCT) в отношении IDR-изображения в фазе сжатия MPEG с целью передачи, что будет приводить к очень незначительным приемлемым ошибкам восстановления основного HDR на принимающей стороне). Конечно, могут использоваться некоторые системы с некоторым послаблением в отношении качества восстановления основного HDR (некоторые поставщики контента могут рассматривать IDR-изображение как более важное, по меньшей мере, в случае применения какого-либо временного аспекта, например, при широковещательной передаче или даже при однократной трансляции ограниченной аудитории, а не, например, с целью хранения, например, на дисках Blu-ray), но в целом, по меньшей мере, одна основная сторона, участвующая в последовательности обработки видео, сочтет важным возможность идеального восстановления основного HDR-изображения (которая отличается от попыток создания вслепую вида с немного более расширенным динамическим диапазоном, начиная с IDR).The inventors paid attention to a number of technical features. On the one hand, they would like their system to be compatible with the ETSI2 decoders already deployed. Therefore, if, for example, an IDR image with 1500 nits was transmitted (and the ETSI2 decoder knows nothing about the principles of constructing IDR, as a result of which it assumes that this was just the original main HDR image of an HDR scene), then along with it the luminance mapping function F_L_IDR (and all other color mapping information according to ETSI2), which is the F_I2s function of FIG. 7 and which performs the correct display adaptation. Therefore, whether additional IDR technology was used or not, an ETSI2 decoder, also known as SLHDR2, should be able to normally produce all MDR pictures up to and including the SDR picture, and they should (ideally) look like that's what the content creator wanted. Ideally, any new decoder according to the present principles, which we will call the SLHDR2PLUS decoder, should also exactly or at least approximately provide the same appearance for all images from IDR to SDR (i.e. at least one of IDR- and SDR -images should preferably not deviate too much from the MDR image, which might be the result that the grading specialist or, more generally, the content creator would like or at least agree to see). On the other hand, a very important criterion is that the underlying HDR can be almost perfectly reconstructed (albeit with perhaps a few minor rounding errors that are introduced, for example, when applying the Discrete Cosine Transform (DCT) on an IDR image in the compression phase MPEG for the purpose of transmission, which will result in very small acceptable errors in the restoration of the main HDR at the receiving end). Of course, some systems can be used with some relaxation in terms of the quality of the restoration of the main HDR (some content providers may consider the IDR image to be more important, at least if some temporal aspect is applied, for example, in broadcast or even in a single broadcast to a limited audience, and not, for example, for the purpose of storage, for example, on Blu-ray discs), but in general, at least one main party involved in the video processing sequence will find it important to be able to perfectly restore the main HDR image ( which is different from blindly trying to create a slightly higher dynamic range look starting with IDR).

Наконец, хотя видно, что для осуществления обслуживания без необходимости перепроектирования и повторного развертывания ETSI2-декодеров необходимо совместно передавать функцию F_I2s (т.е. предпочтительно повторно использовать схему (де)кодирования системы SLHDR2 по максимуму, но при этом, по меньшей мере, видеосигналы, включая их функции отображения светимости и цвета, должны все еще соответствовать стандартизированному определению, чтобы, помимо прочего, унаследованные системы SLHDR2 знали, что они получают, за исключением некоторых метаданных, которые им не требуются и могут быть проигнорированы), желание специалиста по градуировке контента обычно может заключаться в определении своих функций отображения светимости (и цвета) между созданным им основным HDR и некоторой соответствующей ему версией SDR (т.е. PB_C 100 нит) (которую он, например, мог создать с помощью системы, показанной на ФИГ. 4). Таким образом, функция F_Mt1 (см. ФИГ. 10) не является ни функцией F_H2h, ни функцией F_I2s по ФИГ. 7, а скорее функцией, которая охватывает все усилия по повторной градуировке между основным HDR и основным SDR (т.е. эта F_Mt1 определяет потребности повторной градуировки изображения HDR-сцены между самыми разными представлениями динамического диапазона указанной HDR-сцены). Таким образом, необходима методика элегантного соотнесения этих двух ситуаций, в частности, в рамках философии парадигмы ETSI2 или вокруг нее (например, способ SLHDR2PLUS декодирования дает в результате такие же виды MDR-изображения, как и дисплей ETSI2-приемника, адаптирующийся к принимаемым IDR-изображениям и функциям D_I2s; для каждого момента времени одна или более функций частично выполняет повторную градуировку между входным изображением динамического диапазона для этого момента времени и желаемым выходным изображением динамического диапазона для этого момента времени).Finally, although it can be seen that in order to perform service without the need to redesign and redeploy ETSI2 decoders, it is necessary to share the F_I2s function (i.e., it is preferable to reuse the (de)coding scheme of the SLHDR2 system to the maximum, but at least the video signals , including their luminosity and color mapping functions, must still conform to the standardized definition so that, among other things, legacy SLHDR2 systems know what they are receiving, except for some metadata that they do not require and can be ignored), the desire of a content grading specialist can usually be to define its own luminosity (and color) mapping functions between the main HDR he created and some corresponding version of the SDR (i.e. PB_C 100 nits) (which he, for example, could create using the system shown in FIG. 4 ). Thus, the F_Mt1 function (see FIG. 10) is neither the F_H2h function nor the F_I2s function of FIG. 7, but rather a function that covers all re-grading efforts between main HDR and main SDR (i.e., this F_Mt1 determines the need for re-grading an HDR scene image between the most different representations of the dynamic range of said HDR scene). Thus, a technique is needed to elegantly correlate these two situations, in particular within or around the philosophy of the ETSI2 paradigm (for example, the SLHDR2PLUS decoding method results in the same types of MDR images as an ETSI2 receiver display adapting to the received IDR- images and functions D_I2s; for each point in time, one or more functions partially recalibrate between the input dynamic range image for that point in time and the desired output dynamic range image for that point in time).

Как будет показано ниже, это можно реализовать несколькими способами в соответствии с разными взглядами различных изобретателей, в зависимости от того, какой именно тип системы желателен, а также какое желательное условие ограничения следует ослабить больше, а какое - меньше (также учитывая специфические практические технические факторы, например, какое количество циклов или транзисторов потребовалось бы для различных вариантов выбора, что может сделать некоторые варианты более желательными, чем другие, но нам не нужно углубляться в эти детали в рамках настоящей патентной заявки).As will be shown below, this can be implemented in several ways according to the different views of various inventors, depending on which type of system is desired, as well as which desired constraint condition should be relaxed more and which should be relaxed less (also considering specific practical technical factors , for example, how many cycles or transistors would be required for different choices, which may make some choices more desirable than others, but we don't need to go into those details within the scope of this patent application).

Однако есть некоторые базовые основополагающие принципы, которые используются во всех подходах. По меньшей мере, два способа принятия решения можно резюмировать с помощью ФИГ. 8. Приемники принимают IDR-изображение (которое должно быть каким-то образом восстановлено в HDR-изображение Mster, в этом примере с PB_C = 4000 нит), и они также обладают функцией F_I2s. Но они должны для каждой светимости IDR как-то найти функцию F_ ?? для вычисления необходимой соответствующей нормализованной и, следовательно, абсолютной основной светимости HDR (которая будет точно восстанавливать этот основной HDR в том виде, в котором он был изначально, но изображение (изображения) которого никогда не передавалось (передавались)). Можно либо создать новую систему цветового преобразования декодера SLHDR2PLUS, которая может определять необходимую функцию (но которая, по меньшей мере, согласно ее обрабатывающим интегральным схемам (ИС) или программным ядром, остается такой же, как показана на ФИГ. 4, с наличием канала обработки светимости со своими особенностями (по меньшей мере, используются некоторые из подблоков) и каналом хроматической обработки), или можно также попытаться применить всю находчивость в отношении кодера так, чтобы можно было использовать стандартный подход к цветовому преобразованию при ETSI2-кодировании в исходном виде (если не считать того, что его новизна будет заключаться в его новом программном обеспечении для восстановления исходного HDR с 4000 нит посредством приема метаданных этой второй, желаемой пиковой яркости PB_C_H50, что обычно включает в себя загрузку соответствующих LUT полной или частичной обработки светимости и цветности), независимо от того, настроена ли она для экстраполяции, а не для адаптации отображения изображений с меньшим значением PB_D, чем значение PB_IDR. Оба подхода и их варианты осуществления потребуют некоторых общих новых технических компонентов и подпадают под общую новую философию кодирования SLHDR2PLUS.However, there are some basic fundamental principles that are used in all approaches. At least two decision methods can be summarized with FIG. 8. The receivers receive an IDR image (which must somehow be restored to an HDR Mster image, in this example with PB_C = 4000 nits) and they also have the F_I2s feature. But they must somehow find the function F_ for each IDR luminosity?? to calculate the required corresponding normalized and therefore absolute HDR core luminosity (which will exactly restore that HDR core as it was originally, but whose image(s) were never transmitted(s)). One can either create a new SLHDR2PLUS decoder color conversion system that can define the desired function (but which, at least according to its processing integrated circuits (ICs) or software core, remains the same as shown in FIG. 4, with the presence of a processing channel luminosity with its features (at least some of the sub-blocks are used) and chromatic processing channel), or you can also try to apply all the ingenuity in relation to the encoder so that you can use the standard approach to color conversion in ETSI2 encoding in the native form (if not to think that its novelty will lie in its new software to restore the original HDR from 4000 nits by receiving the metadata of this second, desired peak brightness PB_C_H50, which usually involves loading the corresponding LUTs of full or partial processing of luminance and chrominance), regardless on whether it is configured for extrapolation, and not to adapt the display of images with a smaller PB_D value than the PB_IDR value. Both approaches and their implementations will require some common new technical components and fall under the overall new SLHDR2PLUS coding philosophy.

Исходя из показанной на ФИГ. 9 базовой конструкции кодера 900 SLHDR2PLUS (которая будет объяснена подробнее ниже), являющегося разновидностью общего IDR-кодера, можно увидеть разницу с обычным HDR-кодированием, в частности, ETSI2-кодированием HDR-видео: теперь в метаданных совместно закодированы две пиковые яркости, а именно, во-первых, «нормальная» пиковая яркость (которая должна называться пиковой яркостью PB_CH канала, т.е. пиковой яркостью принятого IDR-изображения, какая бы технология не использовалась для него, т.е. каким бы не был уровень пиковой яркости, который выглядит оптимальным для создателя, владельца или транскодера контента, и какой бы математический технический метод не использовался для вычисления светимостей IDR-пикселей), указывающая, какова максимальная кодируемая светимость переданного и позже принятого видео, т.е. IDR-изображения (IDR-изображений) [это то, что увидел бы обычный ETSI2-декодер, игнорируя все другие новые подходы]. Но, во-вторых, теперь также есть пиковая яркость исходного основного HDR-изображения (HDR-изображений), а именно, пиковая яркость PB_C_H50 контента (например, 5000 нит). Вторая PB_C_H50 могла бы быть определена в некоторых вариантах осуществления за много месяцев до создания IDR-изображения, когда были созданы основные HDR-изображения (например, на основе съемки действий камерой, в компьютере и т.д.), а PB_CH может быть задана в качестве внешнего входного сигнала в кодер 900 с помощью множества разных возможных средств во время канального кодирования (например, оператор кабельного телевидения может иметь фиксированное значение, заданное в памяти, которое может обновляться ежегодно, чтобы отражать текущее среднее состояние HDR-дисплеев его клиента, или оптимизированная PB_CH может быть вычислена с учетом также некоторой светимости или других характеристик изображения для по меньшей мере одного изображения видео или связанных с ним метаданных, даже теоретически метаданных, специально предусмотренных для управления последующим IDR-перекодированием и т.д.). Совместная передача (единственной) пиковой яркости полезна для HDR-кодирования, по меньшей мере, в отношении ETSI2-системы (в которой имелось только то, что в свое время считалось единственно необходимым, а именно пиковая яркость принятых изображений), но с учетом полной прозрачности использования для унаследованных ETSI2-декодеров, которые, как сказано, должны иметь PB_CH (в противном случае они не смогут выполнять свои обычные вычисления с целью адаптации дисплея). PB_C_H50, с другой стороны, необходима для того, чтобы вообще можно было вычислить функцию F_ ?? по ФИГ. 8 и в итоге, используя эту функцию, желаемое основное восстановленное HDR-изображение из принятого IDR-изображения.Based on shown in FIG. 9 of the basic design of the SLHDR2PLUS encoder 900 (which will be explained in more detail below), which is a variation of the general IDR encoder, you can see the difference with conventional HDR coding, in particular ETSI2 HDR video coding: two peak brightnesses are now jointly encoded in the metadata, and namely, firstly, the “normal” peak brightness (which should be called the peak brightness of the PB_CH channel, i.e. the peak brightness of the received IDR image, whatever technology is used for it, i.e. whatever the peak brightness level , which looks optimal for the creator, owner or transcoder of the content, and whatever mathematical technical method is used to calculate the IDR pixel luminances), indicating what is the maximum encoded luminosity of the transmitted and later received video, i.e. IDR images (IDR images) [this is what a regular ETSI2 decoder would see, ignoring all other new approaches]. But secondly, there is now also the peak brightness of the original main HDR image(s), namely the peak brightness of PB_C_H50 content (eg 5000 nits). The second PB_C_H50 could be determined in some embodiments many months before the creation of the IDR image, when the main HDR images were created (for example, based on camera action, in a computer, etc.), and PB_CH could be set to as an external input to the encoder 900 through many different possible means during channel encoding (for example, a cable TV operator may have a fixed value set in memory that may be updated annually to reflect the current average condition of their customer's HDR displays, or an optimized PB_CH may also be calculated considering some luminosity or other image characteristics for at least one video image or associated metadata, even in theory metadata specifically provided to control subsequent IDR transcoding, etc.). (Single) peak luminance co-transmission is useful for HDR coding, at least with respect to the ETSI2 system (which had only what was once thought to be the only thing needed, namely the peak luminance of received images), but with full transparency use for legacy ETSI2 decoders which are said to have a PB_CH (otherwise they would not be able to do their normal display adaptation calculations). PB_C_H50, on the other hand, is necessary in order to be able to calculate the function F_ ?? according to FIG. 8 and finally, using this function, the desired reconstructed HDR main image from the received IDR image.

Таким образом, это сразу показывает отличие потока данных унаследованного ETSI2-кодирования видео, и унаследованные ETSI2-декодеры не будут знать эти дополнительные метаданные и просто проигнорируют их, потому что ETSI2-декодерам не требуется определять какие-либо изображения с PB_C выше, чем PB_C_H, которую они принимают в метаданных, указывающих максимально возможную светимость в принятом ими изображении (поскольку в соответствии с подлинной философией ETSI2 принятое изображение всегда является изображением наилучшего качества; на самом деле им было бы основное HDR-изображение высочайшего качества, созданное создателем контента). Но, как показано на ФИГ. 11, общий декодер SLHDR2PLUS не только принимает и считывает значение PB_C_H50, но и также использует его для восстановления изображения REC_M_HDR, которое является почти идеальной реконструкцией основного HDR-изображения, созданного создателем контента (в действительности такой декодер будет использовать значение PB_C_H50 для вычисления необходимой функции (функций) F_ ?? из принятой функции (функций) F_I2sCI). Этот декодер может также с успехом выводить изображения с более низкой PB_C, например, изображение MDR_300 с PB_C 400 нит, но можно выбрать использование стандартного вычислительного ядра ETSI2 для таких изображений с более низкой PB_C, чем PB_CH, или можно выполнить вычисление в варианте осуществления нового вычислительного ядра SLHDR2PLUS (но для точного восстановления изображений с более высокой PB, а не PB_CH, определенно необходимы новые наработки, поскольку это не может быть выполнено легко с помощью технологии ETSI2).So this immediately shows the difference in the data stream of legacy ETSI2 video encoding, and legacy ETSI2 decoders will not know this extra metadata and will simply ignore it, because ETSI2 decoders are not required to define any pictures with a PB_C higher than PB_C_H, which they accept in metadata indicating the maximum possible luminosity in the image they receive (because according to the true ETSI2 philosophy, the received image is always the best quality image; in fact, it would be the main HDR image created by the content creator). But, as shown in FIG. 11, the SLHDR2PLUS generic decoder not only receives and reads the PB_C_H50 value, but also uses it to reconstruct the REC_M_HDR image, which is an almost perfect reconstruction of the main HDR image created by the content creator (in reality, such a decoder will use the PB_C_H50 value to calculate the necessary function ( functions) F_?? from the received function(s) F_I2sCI). This decoder may also successfully output pictures with a lower PB_C, such as an MDR_300 picture with a PB_C of 400 nits, but one may choose to use the standard ETSI2 compute core for such pictures with a lower PB_C than PB_CH, or one may perform the computation in an embodiment of a new compute SLHDR2PLUS core (but to accurately restore images with a higher PB rather than PB_CH, new developments are definitely needed, since this cannot be done easily with ETSI2 technology).

Таким образом, задачи, которые должны быть решены с помощью новой технологии, реализуются кодером (900) видео с расширенным динамическим диапазоном, выполненным с возможностью приема через вход (920) для изображения входного изображения (MsterHDR) с расширенным динамическим диапазоном, которое имеет первую максимальную светимость (PB_C_H50) пикселей, для которой кодер имеет первый вход (922) для метаданных, и выполненным с возможностью приема через второй вход (921) для метаданных основной функции (FL_50t1) отображения яркости, причем функция отображения яркости определяет взаимосвязь между нормализованными яркостями входного изображения с расширенным динамическим диапазоном и нормализованными яркостями соответствующего изображения (Im_LDR) с узким динамическим диапазоном, имеющего максимальную светимость пикселей LDR, предпочтительно равную 100 нит, отличающимся тем, что дополнительно содержит третий вход (923) для метаданных для приема второй максимальной светимости (PB_CH) пикселей, при этом кодер дополнительно отличается тем, что содержит:Thus, the tasks to be solved by the new technology are realized by a high dynamic range video encoder (900) capable of being received via an input (920) for a high dynamic range input image (MsterHDR) image that has a first maximum luminosity (PB_C_H50) of pixels, for which the encoder has a first input (922) for metadata, and capable of being received via a second input (921) for metadata of the main luminance mapping function (FL_50t1), wherein the luminance mapping function determines the relationship between the normalized luminances of the input image with extended dynamic range and normalized brightnesses of the corresponding image (Im_LDR) with a narrow dynamic range, having a maximum luminance of LDR pixels, preferably equal to 100 nits, characterized in that it additionally contains a third input (923) for metadata for receiving the second maximum luminance (PB_CH) of pixels , while the encoder is additionally different in that it contains:

- блок (901) генерирования HDR-функции, выполненный с возможностью применения стандартизированного алгоритма для преобразования основной функции (FL_50t1) отображения яркости в адаптированную функцию (F_H2hCI) отображения яркости, которая связывает нормализованные яркости входного изображения с расширенным динамическим диапазоном с нормализованными светимостями изображения (IDR) с промежуточным динамическим диапазоном, которое отличается максимально возможной светимостью, равной второй максимальной светимости (PB_CH) пикселей;- an HDR function generating unit (901) configured to apply a standardized algorithm for converting the main luminance mapping function (FL_50t1) into an adapted luminance mapping function (F_H2hCI) that relates the normalized luminances of an extended dynamic range input image to the normalized image luminosities (IDRs) ) with an intermediate dynamic range, which is characterized by a maximum possible luminance equal to the second maximum luminance (PB_CH) of the pixels;

- блок (902) вычисления IDR-изображения, выполненный с возможностью применения адаптированной функции (F_H2hCI) отображения яркости к яркостям пикселей входного изображения (MsterHDR) с расширенным динамическим диапазоном для получения яркостей пикселей изображения (IDR) с промежуточным динамическим диапазоном, которое выводится этим блоком; и- an IDR image calculation block (902), configured to apply an adapted function (F_H2hCI) of mapping brightness to pixel brightnesses of the input image (MsterHDR) with an extended dynamic range to obtain the pixel brightnesses of the image (IDR) with an intermediate dynamic range, which is output by this block ; And

- генератор (903) функции отображения IDR, выполненный с возможностью получения на основе основной функции (FL_50t1) отображения яркости и адаптированной функции (F_H2hCI) отображения яркости функции (F_I2sCI) отображения яркости канала, которая задает в качестве выходных данных соответствующие нормализованные яркости изображения (Im_LDR) с узким динамическим диапазоном, когда в качестве входных данных заданы соответствующие нормализованные яркости изображения (IDR) с промежуточным динамическим диапазоном, которые, в свою очередь, соответствуют соответствующим яркостям входного изображения (MsterHDR) с расширенным динамическим диапазоном; при этом кодер дополнительно отличается тем, что содержит:- an IDR mapping function generator (903) configured to obtain, based on the main luminance mapping function (FL_50t1) and the adapted luminance mapping function (F_H2hCI), of the channel luminance mapping function (F_I2sCI) that outputs the corresponding normalized image luminances (Im_LDR) ) with a narrow dynamic range, when the corresponding normalized image luminances (IDR) with an intermediate dynamic range are given as input, which, in turn, correspond to the corresponding luminances of the input image (MsterHDR) with an extended dynamic range; while the encoder is additionally different in that it contains:

- выход (930) для изображения для вывода изображения (IDR) с промежуточным динамическим диапазоном;- an output (930) for an image output image (IDR) with an intermediate dynamic range;

- первый выход (932) для метаданных для вывода второй максимальной светимости (PB_CH) пикселей;- the first output (932) for metadata to output the second maximum luminosity (PB_CH) pixels;

- второй выход (931) для метаданных для вывода функции (F_I2sCI) отображения яркости канала и- the second output (931) for metadata to output the function (F_I2sCI) display the brightness of the channel and

- третий выход (933) для метаданных для вывода первой максимальной светимости (PB_C_H50) пикселей.- the third output (933) for metadata to output the first maximum luminosity (PB_C_H50) pixels.

Во-первых, следует обратить внимание на то, что, хотя чисто теоретически показано, что имеется отдельный вход для каждого необходимого элемента данных настоящего кодера, специалисту будет понятно, что на практике один или более из этих входов (и аналогично для выходов) могут быть одинаковыми, в зависимости от того, какая технология видеовхода может рассматриваться (например, некоторые более ранние HDMI-входы для изображений не могут обрабатывать динамически изменяющиеся - т.е. потенциально разные для каждого видеоизображения во временной последовательности - основные функции (FL_50t1) отображения яркости, и в этом случае эти данные могут передаваться синхронно, например, через соединение по технологии Wi-Fi и т.д.). То, как вводятся различные входные данные, также может зависеть от того, где они генерируются, т.е. в какой или к какой другой системе подсоединен кодер (что может зависеть от того, требуется ли кодирование в реальном времени одновременно с захватом события камерой, или более позднее кодирование для некоторой системы передачи видео, такой, например, как система кабельного телевидения, которая в любое время принимает все данные от создателя исходного контента, чтобы оптимально распространять их с учетом ограничений или задач этой конкретной кабельной системы и т.д.).First, it should be noted that while it is purely theoretically shown that there is a separate input for each required data element of the present encoder, one skilled in the art will appreciate that in practice one or more of these inputs (and similarly for the outputs) may be the same, depending on which video input technology can be considered (for example, some older HDMI image inputs cannot handle dynamically changing - i.e. potentially different for each video image in time sequence - basic functions (FL_50t1) of displaying brightness, in which case this data can be transmitted synchronously, for example, via a Wi-Fi connection, etc.). How various inputs are entered may also depend on where they are generated, i.e. in which or which other system the encoder is connected (which may depend on whether real-time encoding is required at the same time as the camera captures the event, or later encoding for some video transmission system, such as a cable television system, which at any time time takes all the data from the original content creator in order to optimally distribute it, taking into account the limitations or objectives of this particular cable system, etc.).

Можно без задуманных ограничений предположить, что изображение MsterHDR незадолго до этого было градуировано человеком-специалистом по цветовой градуировке с использованием программного обеспечения для цветовой градуировки на компьютере, и что он задал функции FL_50t1, которые определяют соответствующее изображение с более узким динамическим диапазоном, обычно SDR-изображение с 100 нит (хотя в настоящее время нижний предел спектра повторно градуированных изображений, согласно типовому соглашению, соответствует изображению с PB_C 100 нит, поэтому маловероятно, что оно изменится; такое самое нижнее из трех изображений, т.е. LDR-изображение, может иметь максимальную светимость LDR в будущих вариантах осуществления, которая не соответствуют точно 100 нит, а, возможно, составляет число k, умноженное на 100 нит, например, предпочтительно, чтобы k было вплоть до 3х, т.е. максимальная яркость LDR в этом варианте осуществления настоящей системы составляет 300 нит), что соответствует изображению MsterHDR (причем SDR-изображение предпочтительно выглядит как можно более похоже на изображение MsterHDR с учетом значительно более низкого динамического диапазона светимостей), которое обычно, по меньшей мере, приемлемо передает желаемые виды для визуального и оптимального воспроизведения, например, необходимой киноистории (также разные применения видео могут иметь разные задачи, такие как разные цветовые критерии, возможно, предусматривающие разные технические ограничения в отношении функций FL_50t1).It can be assumed, without conceivable limitations, that the MsterHDR image was recently graded by a human color grading specialist using color grading software on a computer, and that he specified the FL_50t1 functions that define the corresponding image with a narrower dynamic range, typically SDR- image with 100 nits (although currently the lower end of the spectrum of re-graded images, according to the model convention, corresponds to the image with PB_C 100 nits, so it is unlikely to change; such the lowest of the three images, i.e. the LDR image, may have a maximum LDR luminosity in future embodiments that does not correspond exactly to 100 nits, but possibly a number k times 100 nits, for example, it is preferable that k be up to 3x, i.e. the maximum LDR luminance in this embodiment implementation of the present system is 300 nits), which corresponds to the image MsterHDR (whereby the SDR image preferably looks as similar as possible to the MsterHDR image, given the much lower dynamic range of luminances), which usually at least adequately conveys the desired views for visual and optimal reproduction of, for example, the necessary movie story (also various applications videos may have different objectives, such as different color criteria, possibly with different technical limitations regarding FL_50t1 functions).

Значение PB_CH несколько отличается от других метаданных тем, что фактически является установкой для кодирования промежуточного динамического диапазона. Так что оно может или не может исходить от специалиста по градуировке. Оно может, например, быть фиксированным значением для конкретной системы кодирования видео (например, системы спутникового вещания), которое может, например, извлекаться из постоянной памяти, подключенной к кодеру или входящей в его состав. При доставке через Интернет возможно и то, что это значение PB_CH может передаваться как нечто желательное конечному потребителю, для которого создаются IDR-изображения. Например, потребитель с мобильным дисплеем плохого качества может запрашивать просто изображение с PB_IDR 500 нит, которое должно быть вычислено сервером на другой стороне Интернета, например, сервером компании «видео по запросу», тогда как другой потребитель может запросить версию с PB_IDR 1000 нит, и в таком случае запрошенное значение PB_CH = PB_IDR будет введено в кодер.The value of PB_CH is somewhat different from other metadata in that it is actually a setting for intermediate dynamic range coding. So it may or may not come from a calibrator. It may, for example, be a fixed value for a particular video coding system (eg, a satellite broadcast system), which may, for example, be retrieved from a permanent memory connected to or included in the encoder. In Internet delivery, it is also possible that this PB_CH value may be conveyed as something desired by the end user for whom the IDR images are generated. For example, a consumer with a poor quality mobile display might just request an image with a PB_IDR of 500 nits to be computed by a server on the other side of the Internet, such as a video-on-demand company's server, while another consumer might request a version with a PB_IDR of 1000 nits, and in such a case, the requested value PB_CH = PB_IDR will be injected into the encoder.

Таким образом, хотя на стороне кодирования было изображение MsterHDR самого высокого качества (фактически с самой высокой PB_C), они будет соответствовать не тому изображению, которое принимают приемники (дополняющие декодеры), а, скорее, IDR-изображению (и им нужно будет точно восстанавливать изображение MsterHDR посредством вычисления изображения REC_M_HDR). Технологии лучше всего реализовать, формулируя все как нормализованное до яркостей 0,0-1,0. В действительности, когда речь идет о функции отображения яркости, это фактически также эквивалентно функцию отображения светимости (вследствие взаимосвязи между яркостями и их соответствующими светимостями, например, обычно светимостями, которые должны отображаться), но, строго говоря, с технической точки зрения наши вычисления предпочтительно касаются функций отображения яркости, предпочтительно учитывая униформизированное с психо-визуальной точки зрения определение яркости, задаваемое с помощью предложенной Philips v-функции (см. уравнения 1 в сочетании с уравнением 2).So while there was the highest quality MsterHDR image on the encoding side (in fact with the highest PB_C), they will not correspond to the image that the receivers (complementing decoders) receive, but rather the IDR image (and they will need to accurately reconstruct MsterHDR image by calculating the REC_M_HDR image). The techniques are best implemented by formulating everything as normalized to brightnesses of 0.0-1.0. In fact, when it comes to the luminance display function, this is in fact also equivalent to the luminance display function (due to the relationship between luminances and their respective luminosities, e.g. usually the luminosities to be displayed), but strictly speaking, from a technical point of view, our calculations are preferable relate to luminance display functions, preferably considering a psycho-visually uniform definition of luminance given by the Philips v-function (see Equations 1 in conjunction with Equation 2).

Как объяснялось выше, наш подход к обработке HDR-видео, в частности, кодирование не просто одного или двух по-разному повторно градуированных изображений с разным динамическим диапазоном и конкретной пиковой яркостью, а всего спектра соответствующих разных повторных градуировок DR, заключается в установлении соотношения между различными возможными нормализованными яркостями, которые могут иметь пиксели таких по меньшей мере двух связанных изображений, например, 0,2 на изображении_1, что соответствует 0,4 на изображении_2 и т.д. Это то, что определяют функции отображения яркости между одной ситуацией, т.е. повторной градуировкой одной разновидности, и любой другой выбранной ситуацией.As explained above, our approach to HDR video processing, in particular encoding not just one or two differently re-graded images with different dynamic range and specific peak brightness, but the entire spectrum of corresponding different DR re-gradeds, is to establish a relationship between different possible normalized brightnesses that the pixels of such at least two linked images can have, for example, 0.2 in image_1, which corresponds to 0.4 in image_2, and so on. This is what defines the brightness mapping functions between the same situation, i.e. re-grading of one variety, and any other chosen situation.

Под стандартизованным алгоритмом подразумевается то, что должен быть какой-то фиксированный способ соотнесения первого набора возможных функций (которые могут иметь много разных форм и определений) со вторым набором соответствующих функций. Другими словами, это просто означает, что в некоторых технологиях связи (или даже во всех из них) разработчик кодера и декодера задал способ, который однозначно определяет, как преобразовывать форму (обычно по осям, которые нормализованы до 1,0) любой входной функции в форму выходной функции. Таких алгоритмов может быть множество, вследствие чего в принципе разработчик кодека может решить, что ему может потребоваться передавать порядковый номер любого такого алгоритма - например, согласованный номер 3 алгоритма - в декодер и т.д., но обычно в такой сложности нет необходимости, так как наш способ будет работать идеально и максимально просто за счет лишь предварительного согласования одного фиксированного стандартизированного алгоритма преобразования функции, например, того, что описан далее во вспомогательной математической модели.What is meant by a standardized algorithm is that there must be some fixed way of relating the first set of possible functions (which may have many different forms and definitions) to the second set of corresponding functions. In other words, it simply means that in some communication technologies (or even in all of them), the encoder and decoder designer has specified a way that unambiguously specifies how to transform the shape (usually along axes that are normalized to 1.0) of any input function into the form of the output function. There may be many such algorithms, so in principle the codec designer may decide that he may need to pass the sequence number of any such algorithm - for example, agreed algorithm number 3 - to the decoder, etc., but usually this complexity is not necessary, since how our method will work ideally and as simply as possible due to only preliminary agreement on one fixed standardized function transformation algorithm, for example, what is described below in the auxiliary mathematical model.

Для быстрого понимания читателем ниже приведен простой пример такого алгоритма. Предположим, что входные функции являются степенными функциями: power(x_in; P), тогда алгоритм может получить соответствующие функции power(x_in; P-1). Путем инверсии исходные функции также могут быть повторно выведены при приеме соответствующих функций (с помощью алгоритма +1).For a quick understanding by the reader, a simple example of such an algorithm is given below. Assume that the input functions are power functions: power(x_in; P), then the algorithm can obtain the corresponding functions power(x_in; P-1). By inversion, the original features can also be re-inferred when the corresponding features are received (using the +1 algorithm).

Не следует заблуждаться насчет того, что сам стандартизованный алгоритм обычно не передается приемникам, а передаются только итоговые соответствующие выходные функции. Именно поэтому он является стандартизированным или предварительно согласованным, т.е. должен быть задан так, чтобы декодер мог знать, что произошло на стороне кодирования. То, как это было согласовано, не так важно для понимания патентуемой технологии. Например, может быть 5 разных заданных алгоритмов, и оператор кабельного телевидения может выбирать кодирование с помощью алгоритма 3 и предоставлять своим клиентам телевизионные приставки, соответствующим образом настроенные на декодирование с помощью заданного алгоритма 3 (даже если STB может быть перенастроена в некоторых случаях для другой видеосвязи, например, с помощью алгоритма 4; но изменения алгоритма, как правило, не потребуются, хотя могут представлять интерес изменения PB_CH, например, для разных кабельных каналов).One should not be mistaken that the standardized algorithm itself is usually not passed to the receivers, but only the resulting corresponding output functions are passed. That is why it is standardized or pre-agreed, ie. must be set so that the decoder can know what happened on the encoding side. How it was agreed is not so important for understanding the technology being patented. For example, there may be 5 different predefined algorithms, and a cable TV operator may choose to encode with algorithm 3 and provide their customers with set-top boxes appropriately configured to decode with predetermined algorithm 3 (even though the STB may be reconfigured in some cases for a different video connection). eg with algorithm 4; but algorithm changes will not normally be required, although PB_CH changes may be of interest, eg for different cable channels).

Следует также уделить пристальное внимание тому факту, что обычно приемникам передается не соответствующая адаптированная функция F_H2hCI отображения яркости, а передается еще одна, затем дополнительно извлекаемая функция (F_I2sCI) отображения яркости канала, при этом декодеру также необходимо каким-то образом пересмотреть это двойное извлечение. Фактически полное отображение повторной градуировки разделено на две части, поэтому, если первая часть стандартизирована, вторая часть также определена, вследствие чего инверсия этого IDR-кодирования декодерами может быть (хотя это и сложно) рассматриваться как вероятно возможная (что делает возможными структуру и правильное функционирование нового кодека SLHDR2PLUS).Careful attention should also be paid to the fact that it is not usually the corresponding adapted luminance mapping function F_H2hCI that is sent to the receivers, but another, then additionally extracted channel luminance mapping function (F_I2sCI), whereby the decoder also needs to somehow reconsider this double extraction. In fact, the complete regrading mapping is divided into two parts, so if the first part is standardized, the second part is also defined, whereby the inversion of this IDR coding by decoders can be (albeit difficultly) considered as plausibly possible (which makes the structure and correct functioning possible). new codec SLHDR2PLUS).

Разъясним эту концепцию стандартизированного алгоритма изменения функции, зависящей от кодируемой пиковой яркости, немного подробнее с помощью ФИГ. 24. Итак, слева показано, что могут быть различные события появления функции FL_50t1, разработанной специалистом по градуировке или автоматическим средством определения функции повторной градуировки на стороне создания контента. Например, FL_50t1_1 могла быть определена для HDR-сцены, в которой есть довольно глубокие черные цвета с происходящими важными действиями, которым необходимо придать значительную яркость, чтобы они были в достаточной степени видны на дисплеях с более узким динамическим диапазоном, но самые яркие части не так существенны - такие, например, как уличные фонари, - и могут быть представлены с одной почти максимальной белой светимостью на любом дисплее (или на изображении, рассчитанным для этого, т.е. содержащим именно те абсолютные светимости, которые должны воспроизводиться на этом дисплее, или, точнее, обычно коды яркостей, в которых закодированы эти светимости). В отличие от этого, FL_50t1_2 была создана для изображения или снимка из последовательных изображений, который содержит другой тип HDR-сцены, в которой есть как важный объект (или, точнее говоря, режим) с меньшей яркостью, так и объект с более высокой яркостью, что привело к специально настроенным формам кривой повторной градуировки по обе стороны от «середины». FL_50t1_3 представляет собой еще одну возможную входную функцию в стандартизованном алгоритме, применяемом блоком 901 генерирования HDR-функции, которая может, например, появляться в случае дневной сцены с очень ярким контентом (и не слишком высокой основной PB_C) и некоторыми локальными более темными областями, такими, например, как вход в храм на уличной сцене в Индии.Let us explain this concept of a standardized algorithm for changing the function depending on the encoded peak brightness in a little more detail with the help of FIG. 24. So, on the left, it is shown that there can be various occurrence events of the FL_50t1 function developed by the calibration specialist or the automatic recalibration function determination tool on the content creation side. For example, FL_50t1_1 could be defined for an HDR scene that has fairly deep blacks with important action going on that needs to be brightened enough to be sufficiently visible on displays with a narrower dynamic range, but the brightest parts are not as bright. significant - such as, for example, street lamps - and can be represented with one almost maximum white luminosity on any display (or on an image calculated for this, i.e. containing exactly those absolute luminosities that should be reproduced on this display, or, more precisely, usually the luminosity codes in which these luminosities are encoded). In contrast, FL_50t1_2 was created for an image or snapshot of sequential images that contains a different type of HDR scene, in which there is both an important object (or more precisely, a mode) with a lower brightness, and an object with a higher brightness, which resulted in specially tuned re-grading curve shapes on either side of the "middle". FL_50t1_3 is another possible input function in the standardized algorithm applied by the HDR function generation block 901, which may, for example, appear in the case of a daytime scene with very bright content (and not too high main PB_C) and some local darker areas such as , such as the entrance to a temple on a street scene in India.

Для любой из этих трех ситуаций и бесчисленного множества других ситуаций блок 901 будет определять выходную функцию. Свойство этого алгоритма состоит в том, что эта функция будет иметь аналогичную форму, но будет ближе к диагональной (потому что, если исходная функция представляет собой повторную градуировку, например, между изображением с PB_C Х нит и соответствующим - достаточно похожим, насколько позволяют возможности, - изображением с PB_C2 Y нит, скажем, изображением с 100 нит, то повторная градуировка с X на изображение с PB_C Z нит, где Z, например, лежит посередине между X и Y, потребует аналогичной повторной градуировки, но в меньшей степени; если бы было необходимо отобразить X на X, то потребовалось бы тождественное преобразование, соответствующее диагонали).For any of these three situations, and countless other situations, block 901 will define an output function. The property of this algorithm is that this function will have a similar shape, but will be closer to diagonal (because if the original function is a regrading, for example, between an image with PB_C X nits and the corresponding one - similar enough, as far as possible, - an image with PB_C2 Y nits, say a 100 nit image, then re-grading from X to an image with PB_C Z nits, where Z, for example, lies midway between X and Y, would require a similar re-grading, but to a lesser extent; if it was necessary to map X to X, then the identity transformation corresponding to the diagonal would be required).

Существует ряд способов, с помощью которых можно задать такой стандартизованный алгоритм для однозначного получения выходных функций F_H2hCI_1, F_H2hCI_2 и F_H2hCI_3 отображения светимости, соответствующих соответствующим входным функциям, и детали этого на самом деле не являются существенным элементом настоящего изобретения, за исключением того факта, что необходимо иметь некоторый стандартизированный алгоритм, который ведет себя соответственно. Например, обычно можно задавать некоторую метрику (количественную оценку зависимости PB_C_CH от выбранной кодируемой максимальной светимости PB_C_CH IDR-изображения), которую можно использовать для смещения точек y(x) входной функции для любой нормализованной входной светимости по направлению к диагонали каким-то образом (например, в основном равномерно или неравномерно и т.д.). Хотя можно также смещать по вертикали, довольно хорошо работающий предпочтительный вариант осуществления, как подробно описано ниже, предполагает смещение таких функциональных точек по траекториям, ортогональным к диагонали от [0,0] до [1,1].There are a number of ways in which such a standardized algorithm can be defined to unambiguously obtain the output luminance mapping functions F_H2hCI_1, F_H2hCI_2 and F_H2hCI_3 corresponding to the respective input functions, and the details of this are not really an essential element of the present invention, except for the fact that it is necessary have some standardized algorithm that behaves accordingly. For example, it is usually possible to define some metric (quantifying the dependence of PB_C_CH on the selected encoded maximum PB_C_CH IDR image luminance) that can be used to shift the points y(x) of the input function for any normalized input luminance towards the diagonal in some way (e.g. , mostly evenly or unevenly, etc.). While it is also possible to move vertically, a preferred embodiment that works quite well, as detailed below, involves shifting such function points along paths orthogonal to the diagonal from [0,0] to [1,1].

Согласно предпочтительному варианту осуществления, кодер (900) видео с расширенным динамическим диапазоном отличается тем, что стандартизованный алгоритм блока (901) генерирования HDR-функции применяет сжатие к диагонали основной функции (FL_50t1) отображения яркости для получения адаптированной функции (F_H2hCI) отображения яркости, причем сжатие включает в себя масштабирование всех выходных значений яркости функции с использованием коэффициента масштабирования, который зависит от первой максимальной светимости (PB_C_H50) пикселей и второй максимальной светимости (PB_CH) пикселей.According to a preferred embodiment, the high dynamic range video encoder (900) is characterized in that the standardized algorithm of the HDR function generation unit (901) applies compression to the diagonal of the main luminance mapping function (FL_50t1) to obtain an adapted luminance mapping function (F_H2hCI), wherein compression includes scaling all output luminance values of the function using a scaling factor that depends on the first maximum luminance (PB_C_H50) of the pixels and the second maximum luminance (PB_CH) of the pixels.

Могут быть по-разному определенные функции F_L50t1 (определение функции para, приведенное ниже, является одним из примеров), и они могут масштабироваться различными способами с помощью стандартизованного алгоритма, но обычно будет задействовано масштабирование, зависящее от начальной PB_C_H50 и целевого значения PB_CH = PB_IDR. Это можно выполнить с помощью разных метрик, но со временем заявитель обнаружил, что удобно задавать коэффициент масштабирования на основе унифицированных с психо-визуальной точки зрения значений и соотношений пиковых яркостей, отправляя их через v-функцию, т.е. задавая коэффициент масштабирования на основе на выходных значений яркости v-функции, соответствующих двум пиковым яркостям (и, возможно, третьей PB_C SDR-изображения).There may be variously defined F_L50t1 functions (the para function definition below is one example) and they may be scaled in various ways by a standardized algorithm, but scaling will typically be involved depending on the initial PB_C_H50 and the target PB_CH = PB_IDR. This can be done with different metrics, but over time, the applicant has found it convenient to set the scaling factor based on psycho-visually unified peak brightness values and ratios, sending them through a v-function, i.e. specifying a scaling factor based on the output luminance values of the v-function corresponding to the two peak luminances (and possibly the third PB_C SDR image).

Согласно предпочтительному варианту осуществления, кодер (900) видео с расширенным динамическим диапазоном содержит ограничитель (1804), выполненный с возможностью повторного определения наклона функции (F_I2sCI) отображения яркости канала для поддиапазона нормализованных яркостей, содержащих самую яркую нормализованную яркость, равную 1,0. Это не требуется для многих вариантов осуществления, но, в частности, представляет собой полезный способ обработки конкретного выбора кодирования HG_COD усилений бликов в функциях para, который был стандартизован в ETSI2, в связи с чем этот конкретный вариант осуществления полезен для обеспечения полной совместимости со всем этим.According to a preferred embodiment, the extended dynamic range video encoder (900) comprises a limiter (1804) configured to re-determine the slope of the channel luminance mapping function (F_I2sCI) for a subband of normalized luminances containing the brightest normalized luminance equal to 1.0. This is not required for many implementations, but in particular it is a useful way to handle the particular choice of encoding HG_COD flare gains in para functions that has been standardized in ETSI2, and therefore this particular implementation is useful for ensuring full compatibility with all of this. .

Соответствующая зеркальная технология для кодера, фактически отменяющая всю обработку кодирования за счет возможности повторного извлечения всей необходимой информации (даже если такая информация фактически не была передана), представляет собой декодер (1100) видео с расширенным динамическим диапазоном, имеющий вход (1110) для изображения для приема изображения (IDR) с промежуточным динамическим диапазоном, которое имеет вторую максимальную светимость (PB_CH) пикселей, которая ниже на мультипликативный коэффициент, предпочтительно равный 0,8 или меньше, чем первая максимальная светимость (PB_C_H50) пикселей основного изображения (MsterHDR) с расширенным динамическим диапазоном, причем вторая максимальная светимость (PB_CH) пикселей принимается через второй вход (1112) для метаданных, при этом декодер имеет первый вход (1111) для метаданных для приема функции (F_I2sCI) отображения яркости, которая задает преобразование всех возможных нормализованных яркостей изображения (IDR) с промежуточным динамическим диапазоном в соответствующие нормализованные яркости изображения (Im_LDR) с узким динамическим диапазоном и с максимальной светимостью пикселей LDR, причем декодер отличается тем, что имеет третий вход (1113) для метаданных для приема первой максимальной светимости (PB_C_H50) пикселей, и декодер содержит:The corresponding mirror technology for the encoder, effectively canceling all encoding processing by being able to re-extract all the necessary information (even if such information was not actually transmitted), is a high dynamic range video decoder (1100) having an image input (1110) for receiving an intermediate dynamic range (IDR) image that has a second maximum luminance (PB_CH) of pixels that is lower by a multiplicative factor, preferably equal to 0.8 or less than the first maximum luminance (PB_C_H50) of the pixels of the main image (MsterHDR) with extended dynamic range, wherein the second maximum luminosity (PB_CH) of the pixels is received via the second input (1112) for metadata, the decoder having the first input (1111) for metadata for receiving a luminance mapping function (F_I2sCI) that specifies a transformation of all possible normalized image luminances (IDR ) from the interval accurate dynamic range to the corresponding normalized image luminances (Im_LDR) with a narrow dynamic range and maximum luminance of LDR pixels, wherein the decoder is characterized in that it has a third input (1113) for metadata for receiving the first maximum luminance (PB_C_H50) of pixels, and the decoder comprises:

- блок (1104) определения функции светимости, выполненный с возможностью применения стандартизированного алгоритма для преобразования функции (F_I2sCI) отображения яркости в декодирующую функцию (F_ENCINV_H2I) отображения яркости, которая определяет, в качестве выходных данных для любой возможной входной нормализованной яркости пикселя изображения (IDR) с промежуточным динамическим диапазоном, соответствующую нормализованную яркость HDR основного изображения (MsterHDR) с расширенным динамическим диапазоном, причем стандартизованный алгоритм использует значения первой максимальной светимости (PB_C_H50) пикселей и второй максимальной светимости (PB_CH) пикселей; и- a luminance function determiner (1104) configured to apply a standardized algorithm for converting a luminance mapping function (F_I2sCI) into a luminance mapping decoding function (F_ENCINV_H2I) that determines, as output for any possible input, normalized image pixel luminance (IDR) with an intermediate dynamic range corresponding to the normalized HDR brightness of the main image (MsterHDR) with extended dynamic range, and the standardized algorithm uses the values of the first maximum luminance (PB_C_H50) of the pixels and the second maximum luminance (PB_CH) of the pixels; And

- преобразователь (1102) цвета, выполненный с возможностью последовательного применения к введенным нормализованным яркостям изображения (IDR) с промежуточным динамическим диапазоном декодирующей функции (F_ENCINV_H2I) отображения яркости для получения нормализованных восстановленных яркостей (L_RHDR) пикселей восстановленного основного HDR-изображения (REC_M_HDR); при этом декодер дополнительно имеет выход (1120) для изображения для вывода восстановленного основного HDR-изображения (REC_M_HDR). Максимальная светимость LDR снова предпочтительно является стандартизированной светимостью SDR 100 нит, хотя можно мысленно разработать аналогично функционирующие дополнительные варианты, в которых изображение с узким (т.е. самым узким) динамическим диапазоном (т.е. с максимальной светимостью) в передаваемом спектре повторно градуированных изображений является, например, изображением с 200 нит.- a color converter (1102) configured to sequentially apply to the input normalized image luminances (IDR) with an intermediate dynamic range of the luminance mapping decoding function (F_ENCINV_H2I) to obtain normalized reconstructed luminances (L_RHDR) of pixels of the reconstructed main HDR image (REC_M_HDR); wherein the decoder further has a picture output (1120) for outputting the reconstructed HDR main picture (REC_M_HDR). The maximum LDR luminance is again preferably the standardized SDR luminance of 100 nits, although it is possible to conceive of similarly functioning further options in which the image with the narrowest (i.e., the narrowest) dynamic range (i.e., the maximum luminosity) in the transmitted spectrum of the re-graded image is, for example, an image with 200 nits.

Таким образом, изображение MsterHDR на самом деле не принимается как изображение, а все же оно однозначно определяется принятыми данными (поэтому, хотя формально это изображение MsterHDR является соответствующим основным изображением, которое существовало в соответствующем месте расположения согласованного кодера, и декодер только восстанавливает почти идентично изображение REC_M_HDR из принятого IDR-изображения, различные функции действительно определяют свойства изображения MsterHDR даже в любом месте выполнения декодирования). Разные потребители могут выбирать различные значения как PB_C_H50, так и PB_IDR. Первое может быть выбрано создателем контента по различным причинам, например, потому что он приобрел градуирующий монитор на 4000 нит, или потому что ему нравится придавать своему основному контенту конкретное лучшее качество (например, создавать/задавать все с PB_C не менее 10000 нит), или потому что конкретные виды изображений требуют определенного качества, например, PB_C_H50, по меньшей мере, по мнению создателя (например, зрелищное шоу фейерверков, световое шоу или поп-концерт может заслуживать более высокую PB_C_H50, чем, например, достаточно равномерно освещенный теннисный матч или режим чтения новостей).Thus, the MsterHDR image is not actually received as an image, and yet it is uniquely determined by the received data (so although formally this MsterHDR image is the corresponding main image that existed at the corresponding location of the matched encoder, and the decoder only reconstructs an almost identical image REC_M_HDR from the received IDR picture, the various functions actually determine the properties of the MsterHDR picture even at any point in the decoding execution). Different consumers may choose different values for both PB_C_H50 and PB_IDR. The former may be chosen by the content creator for various reasons, such as because they have purchased a 4000 nit graduation monitor, or because they like to give their main content a particular better quality (e.g. create/set everything with a PB_C of at least 10000 nits), or because certain types of images require a certain quality, such as PB_C_H50, at least in the opinion of the creator (for example, a spectacular fireworks show, light show, or pop concert may deserve a higher PB_C_H50 than, for example, a sufficiently evenly lit tennis match or mode news reading).

Значение PB_IDR может быть выбрано на основе разных технических соображений, например, оценки типичного клиента компании, занимающейся предоставлением видеосвязи, и, как уже было сказано, компания предоставления связи зачастую может не совпадать с компанией-создателем контента.The value of PB_IDR may be chosen based on various technical considerations, such as evaluating a typical customer of a video communication company, and as already mentioned, the communication provider may often not be the same as the content creator company.

Как правило, не имеет большого смысла создавать повторно градуированный IDR-контент, который отличается менее чем на 20% по PB_C (т.е. на коэффициент 0,8, хотя в принципе значения PB_C могут быть и ближе друг к другу, например, с коэффициентом 0,9), но зачастую в большинстве случаев между значениями PB_C будет множитель 2 или более (например, основной материал с 2000 нит, отправленный при некоторой PB_CH ниже 1000 нит, например, 800, 700 или 600 нит, но обычно выше 500 нит). PB_C_H50 в месте выполнения декодирования обычно аналогично другим метаданным и, в частности, значению PB_CH, поэтому обычно оно принимается как метаданные, связанные с видеоданными, например, как неограничивающие сообщения SEI или специальные пакеты в протоколе видеосвязи и т.д. (будь то одна логическая структура данных или несколько структур, в зависимости от того, что лучше всего подходит для каждого стандартизованного или нестандартного протокола видеосвязи; это является незначительной деталью представленной новой технологии). Поскольку декодер использовал стандартизованный алгоритм, чтобы в конечном итоге получить IDR-изображение и его совместимые с ETSI2 метаданные, для декодера и непосредственно в нем может быть разработан соответствующий стандартизированный алгоритм, который в конечном итоге определяет необходимую функцию F_ENCINV_H2I отображения яркости для восстановления яркостей пикселей изображения REC_M_HDR (независимо от того, что затем делается с этим изображением; причем его отображение является типичным применением, а, например, сохранение на записывающем устройстве с жестким диском является другим применением).As a general rule, it doesn't make much sense to create re-graded IDR content that differs by less than 20% in PB_C (i.e. by a factor of 0.8, although in principle PB_C values can be closer to each other, for example, with factor of 0.9), but often in most cases there will be a factor of 2 or more between the PB_C values (e.g. a base material with 2000 nits sent at some PB_CH below 1000 nits, for example 800, 700 or 600 nits, but usually above 500 nits ). PB_C_H50 at the decoding execution site is usually similar to other metadata and in particular to the PB_CH value, so it is usually received as metadata associated with video data, such as non-limiting SEI messages or special packets in a video communication protocol, etc. (whether it be a single logical data structure or multiple structures, whichever is best for each standardized or non-standardized video communication protocol; this is a minor detail of the new technology presented). Since the decoder used a standardized algorithm to ultimately obtain the IDR image and its ETSI2 compliant metadata, an appropriate standardized algorithm can be developed for and within the decoder that ultimately determines the necessary luma mapping function F_ENCINV_H2I to restore the pixel luminances of the REC_M_HDR image (regardless of what is then done with this image; its display is a typical application, and, for example, saving to a hard disk recorder is another application).

Согласно интересному варианту осуществления, декодер (1100) видео с расширенным динамическим диапазоном отличается тем, что стандартизованный алгоритм блока (1104) определения функции светимости вычисляет коэффициент масштабирования, который зависит от первой максимальной светимости (PB_C_H50) пикселей и второй максимальной светимости (PB_CH) пикселей. Как уже упоминалось, это надлежащим образом может быть выполнено различными способами, но унифицированные с психо-визуальной точки зрения коэффициенты масштабирования на основе v-функции весьма удобны на практике для хорошо контролируемой обработки HDR-изображений и удовлетворения различных даже критических художественных потребностей, при этом также сохраняя контроль над технологической сложностью.According to an interesting embodiment, the extended dynamic range video decoder (1100) is characterized in that the standardized algorithm of the luminance function determiner (1104) calculates a scaling factor that depends on the first maximum luminance (PB_C_H50) of the pixels and the second maximum luminance (PB_CH) of the pixels. As already mentioned, this can suitably be done in a variety of ways, but psycho-visually unified v-function based scaling factors are very practical for well-controlled HDR processing and satisfy various even critical artistic needs, while also while maintaining control over technological complexity.

Согласно полезному варианту осуществления, декодер (1100) видео с расширенным динамическим диапазоном имеет функцию (F_I2sCI) отображения яркости, определяемую отображением яркости, которое состоит из первого линейного отрезка, имеющего первый наклон (SG_gr) для диапазона нормализованных низких яркостей, второго линейного отрезка, имеющего второй наклон (HG_gr) для диапазона нормализованных высоких яркостей, и параболического отрезка для яркостей между указанными двумя диапазонами. Соответствующая математическая модель включает в себя, среди прочего, решение уравнения второго порядка для получения необходимого адаптированного для канала усиления бликов с целью выполнения восстановления. Это полезный подход к повторной градуировки HDR первого порядка, который подходит для рынков с не самыми высокими потребностями в управлении цветами пикселей, таких как, например, телевизионное вещание в режиме реального времени (в отличие, например, от полного управления цветом, которое иногда используется, например, в фильмах-блокбастерах). Как упомянуто ниже, в некоторых дополнительных разделенных вариантах осуществления это может выполняться либо единственным компонентом, полностью задающим функцию F_L50t1 и все извлекаемые функции (например, передаваемые функции вместе с IDR-изображением: F_I2S), либо это также может быть частичным определением этой функции повторной градуировки, например, определением общей повторной градуировки вместе с настраиваемой функцией, как показано на ФИГ. 4.According to a useful embodiment, the extended dynamic range video decoder (1100) has a luminance mapping function (F_I2sCI) defined by a luminance mapping that consists of a first line segment having a first slope (SG_gr) for the range of normalized low luminances, a second linear segment having a second slope (HG_gr) for the range of normalized high brightnesses, and a parabolic bar for brightnesses between the specified two ranges. The corresponding mathematical model includes, inter alia, solving a second-order equation to obtain the necessary channel-adapted glare amplification to perform the reconstruction. This is a useful approach to first-order HDR re-grading, and is suitable for markets with less demanding pixel color management, such as real-time television broadcasting (as opposed to, for example, full color management, which is sometimes used, such as blockbuster films). As mentioned below, in some further decoupled embodiments, this may either be a single component specifying the entire F_L50t1 function and all retrieved functions (e.g., functions passed along with the IDR picture: F_I2S), or it may also be a partial definition of this recalibration function. , for example, defining a common recalibration along with a custom function, as shown in FIG. 4.

Согласно полезному варианту осуществления, декодер (1100) видео с расширенным динамическим диапазоном имеет преобразователь (1102) цвета, выполненный с возможностью вычисления яркостей пикселей изображения (MDR_300) со средним динамическим диапазоном, обладающего максимальной светимостью (PB_MDR) пикселей, которая не равна значениям 100 нит, первой максимальной светимости (PB_C_H50) пикселей и второй максимальной светимости (PB_CH) пикселей, причем декодер имеет выход (1122) для изображения для вывода изображения (MDR_300) со средним динамическим диапазоном. Хотя восстановление изображения REC_M_HDR может быть всем, что требуется для некоторых устройств на некоторых субрынках (причем, возможно, к восстановленному изображению применяются все виды других преобразований), предпочтительно, если в некоторых вариантах осуществления наш декодер SLHDR2PLUS мог бы помимо простого восстановления основного HDR-изображения также вычислять соответствующие изображения с другой PB_C, например, MDR-изображение, непосредственно отображаемое на каком-либо дисплее с любой PB_D. При этом также будут использоваться математические принципы настоящего изобретения, например, как пояснено с помощью ФИГ. 16, или любым эквивалентным способом.According to a useful embodiment, the extended dynamic range video decoder (1100) has a color converter (1102) configured to calculate pixel luminances of an average dynamic range image (MDR_300) having a maximum pixel luminosity (PB_MDR) that is not equal to 100 nits. , a first maximum luminance (PB_C_H50) of pixels, and a second maximum luminance (PB_CH) of pixels, wherein the decoder has an image output (1122) for outputting an image (MDR_300) with a medium dynamic range. Although REC_M_HDR image restoration may be all that is required for some devices in some sub-markets (and possibly all sorts of other transformations are applied to the restored image), it would be preferable if, in some embodiments, our SLHDR2PLUS decoder could, in addition to simply restoring the main HDR image also calculate the corresponding images from another PB_C, for example, an MDR image directly displayed on some display from any PB_D. This will also use the mathematical principles of the present invention, for example, as explained using FIG. 16, or in any equivalent way.

Согласно другому полезному варианту осуществления, декодер (1100) видео с расширенным динамическим диапазоном имеет выход (1121) для метаданных для вывода функции (F_L_subsq) отображения яркости, которая определяет для всех нормализованных яркостей восстановленного основного HDR-изображения (REC_M_HDR) или, альтернативно, изображения (MDR_300) со средним динамическим диапазоном соответствующие яркости изображения, имеющего другую максимальную светимость пикселей, причем эта другая максимальная светимость пикселей предпочтительно составляет 100 нит или равна значению выше или ниже, чем максимальное значение светимости, соответственно, восстановленного основного HDR-изображения (REC_M_HDR) или, альтернативно, изображения (MDR_300) со средним динамическим диапазоном. Может получиться так, что принятое IDR-изображение восстановлено в виде изображения REC_M_HDR не для прямого отображения на примитивном контрольном дисплее, а для отправки в некоторую систему, выполняющую дальнейшие колориметрические вычисления. Тогда полезно, чтобы декодер по этому варианту осуществления также мог выводить подходящую функцию отображения яркости, а именно обычно функцию отображения яркости, которая связана с выводимым изображением, например, изображением REC_M_HDR (как правило, связанным с тем, что входные нормализованные яркости этой заданной функции являются нормализованными яркостями изображения, которое выводится совместно, а выходные значения функции являются нормализованными яркостями некоторого основного изображения, которое обычно является SDR-изображением, поскольку оно стандартизовано, чтобы иметь PB_C = 100 нит, что обычно является самым низким качеством, которое можно было бы пожелать в эпоху HDR; причем это не исключает того, что кто-то может захотеть применить идеи настоящего изобретения с PB_C для выходной ординаты, определяющей совместно передаваемую функцию, например, 80 или 50 нит).According to another useful embodiment, the high dynamic range video decoder (1100) has an output (1121) for metadata for outputting a luminance mapping function (F_L_subsq) that determines, for all normalized luminances, a reconstructed HDR main picture (REC_M_HDR) or, alternatively, an image (MDR_300) with a medium dynamic range corresponding to the luminances of an image having a different maximum pixel luminance, this other maximum pixel luminance being preferably 100 nits or equal to a value higher or lower than the maximum luminance value of the reconstructed HDR main image (REC_M_HDR), respectively, or , alternatively, images (MDR_300) with medium dynamic range. It may happen that the received IDR image is reconstructed as a REC_M_HDR image not for direct display on a primitive control display, but for sending to some system that performs further colorimetric calculations. It is then useful that the decoder of this embodiment can also output a suitable luminance mapping function, namely typically a luminance mapping function that is associated with an output image, such as a REC_M_HDR image (generally associated with the fact that the input normalized luminances of this given function are the normalized brightnesses of the image that is being output together, and the output values of the function are the normalized brightnesses of some main image, which is usually an SDR image since it is standardized to have PB_C = 100 nits, which is usually the lowest quality one could wish for in HDR era; this does not preclude that one may want to apply the ideas of the present invention with PB_C for the output ordinate defining the jointly transmitted function, for example, 80 or 50 nits).

Все, что сформулировано выше для устройств (или частей или комплексов устройств), может быть эквивалентно сформулировано в виде сигналов, изделий памяти, содержащих изображения, таких как диски Blu-ray, способов и т.д., например:Whatever is stated above for devices (or parts or sets of devices) can be equivalently expressed as signals, memory products containing images such as Blu-ray discs, methods, etc., for example:

- в виде способа кодирования видео с расширенным динамическим диапазоном для принятого входного изображения (MsterHDR) с расширенным динамическим диапазоном, которое имеет первую максимальную светимость (PB_C_H50) пикселей, при этом способ включает прием основной функции (FL_50t1) отображения яркости, причем функция отображения яркости определяет взаимосвязь между нормализованными яркости входного изображения с расширенным динамическим диапазоном и нормализованными яркостями соответствующего изображения (Im_LDR) с узким динамическим диапазоном, имеющего максимальную светимость пикселей LDR, предпочтительно представляющую собой значение, равное 100 нит, при этом способ отличается тем, что кодирование дополнительно включает прием второй максимальной светимости (PB_CH) пикселей, причем кодирование включает:as a method for encoding a high dynamic range video for a received input image (MsterHDR) with a high dynamic range that has a first maximum luminosity (PB_C_H50) of pixels, the method including receiving a main luminance mapping function (FL_50t1), wherein the luminance mapping function determines the relationship between the normalized luminances of an input high dynamic range image and the normalized luminances of a corresponding low dynamic range image (Im_LDR) having a maximum LDR pixel luminance preferably a value of 100 nits, the method being characterized in that the encoding further comprises receiving a second maximum luminosity (PB_CH) pixels, and the encoding includes:

- применение стандартизированного алгоритма для преобразования основной функции (FL_50t1) отображения яркости в адаптированную функцию (F_H2hCI) отображения яркости, которая связывает нормализованные яркости входного изображения с расширенным динамическим диапазоном с нормализованными светимостями изображения (IDR) с промежуточным динамическим диапазоном, которое отличается максимально возможной светимостью, равной второй максимальной светимости (PB_CH) пикселей;- application of a standardized algorithm for converting the main luminance mapping function (FL_50t1) into an adapted luminance mapping function (F_H2hCI) that relates the normalized luminances of an extended dynamic range input image to the normalized image luminances (IDR) with an intermediate dynamic range that differs in the maximum possible luminosity, equal to the second maximum luminosity (PB_CH) of the pixels;

- применение адаптированной функции (F_H2hCI) отображения яркости к яркостям пикселей входного изображения (MsterHDR) с расширенным динамическим диапазоном для получения яркостей пикселей изображения (IDR) с промежуточным динамическим диапазоном;- applying an adapted function (F_H2hCI) of mapping brightness to input image pixel brightnesses (MsterHDR) with extended dynamic range to obtain image pixel brightnesses (IDR) with intermediate dynamic range;

- получение на основе основной функции (FL_50t1) отображения яркости и адаптированной функции (F_H2hCI) отображения яркости функции (F_I2sCI) отображения яркости канала, которая определяет в качестве выходных данных соответствующие нормализованные яркости изображения (Im_LDR) с узким динамическим диапазоном, когда в качестве входных данных используются соответствующие нормализованные яркости изображения (IDR) с промежуточным динамическим диапазоном, которые, в свою очередь, соответствуют соответствующим яркостям входного изображения (MsterHDR) с расширенным динамическим диапазоном;- based on the main luminance mapping function (FL_50t1) and the adapted luminance mapping function (F_H2hCI) of the channel luminance mapping function (F_I2sCI), which determines as output the corresponding normalized image luminances (Im_LDR) with a narrow dynamic range, when as input the corresponding normalized image luminances (IDR) with intermediate dynamic range are used, which, in turn, correspond to the corresponding luminances of the input image (MsterHDR) with extended dynamic range;

- вывод изображения (IDR) с промежуточным динамическим диапазоном и- image output (IDR) with an intermediate dynamic range and

- вывод второй максимальной светимости (PB_CH) пикселей, функции (F_I2sCI) отображения яркости канала и первой максимальной светимости (PB_C_H50) пикселей.- output of the second maximum luminosity (PB_CH) of the pixels, the function (F_I2sCI) of the display of the channel brightness and the first maximum luminosity (PB_C_H50) of the pixels.

- или в виде способа декодирования видео с расширенным динамическим диапазоном для принятого изображения (IDR) с промежуточным динамическим диапазоном, при этом изображение имеет вторую максимальную светимость (PB_CH) пикселей, которая ниже на мультипликативный коэффициент, предпочтительно 0,8 или меньше, чем первая максимальная светимость (PB_C_H50) пикселей основного изображения (MsterHDR) с расширенным динамическим диапазоном, причем вторая максимальная светимость (PB_CH) пикселей принимается в виде метаданных изображения с промежуточным динамическим диапазоном, при этом способ декодирования также включает прием в метаданных функции (F_I2sCI) отображения яркости, которая определяет преобразование всех возможных нормализованных яркостей изображения (IDR) с промежуточным динамическим диапазоном в соответствующие нормализованные яркости изображения (Im_LDR) с узким динамическим диапазоном и с максимальной светимостью LDR пикселей, причем способ декодирования отличается тем, что принимается первая максимальная светимость (PB_C_H50) пикселей, а также тем, что включает:- or in the form of a method for decoding video with an extended dynamic range for a received image (IDR) with an intermediate dynamic range, while the image has a second maximum luminance (PB_CH) of pixels, which is lower by a multiplicative factor, preferably 0.8 or less than the first maximum luminosity (PB_C_H50) of the main image (MsterHDR) pixels with extended dynamic range, wherein the second maximum luminance (PB_CH) of the pixels is received as intermediate dynamic range image metadata, the decoding method also includes receiving in the metadata of a luminance display function (F_I2sCI) which defines the transformation of all possible normalized image luminances (IDR) with an intermediate dynamic range into the corresponding normalized image luminances (Im_LDR) with a narrow dynamic range and maximum luminance of the LDR pixels, and the decoding method differs in that it takes the first maximum luminosity (PB_C_H50) of pixels, as well as those that include:

- применение стандартизированного алгоритма для преобразования функции (F_I2sCI) отображения яркости в декодирующую функцию (F_ENCINV_H2I) отображения яркости, которая определяет в качестве выходных данных для любой возможной входной нормализованной яркости пикселя изображения (IDR) с промежуточным динамическим диапазоном соответствующую нормализованную яркость HDR основного изображения (MsterHDR) с расширенным динамическим диапазоном, причем стандартизованный алгоритм использует значения первой максимальной светимости (PB_C_H50) пикселей и второй максимальной светимости (PB_CH) пикселей;- application of a standardized algorithm for converting the luminance mapping function (F_I2sCI) into a luminance mapping decoding function (F_ENCINV_H2I), which determines as output for any possible input normalized image pixel luminance (IDR) with an intermediate dynamic range the corresponding normalized luminance HDR of the main image (MsterHDR ) with an extended dynamic range, the standardized algorithm using the values of the first maximum luminance (PB_C_H50) of the pixels and the second maximum luminance (PB_CH) of the pixels;

- применение к нормализованным яркостям изображения (IDR) с промежуточным динамическим диапазоном декодирующей функции (F_ENCINV_H2I) отображения яркости для получения нормализованных восстановленных яркостей (L_RHDR) пикселей восстановленного основного HDR-изображения (REC_M_HDR) иapplying to the normalized image luminances (IDR) with intermediate dynamic range the luminance mapping decoding function (F_ENCINV_H2I) to obtain normalized reconstructed luminances (L_RHDR) of the pixels of the reconstructed main HDR image (REC_M_HDR), and

- вывод восстановленного основного HDR-изображения (REC_M_HDR).- output of the restored main HDR image (REC_M_HDR).

На ФИГ. 25 хорошо показаны настоящий закодированный сигнал (2501) SLHDR2PLUS HDR-изображения, т.е., например, матрица цветов 2502 пикселей размером 4kx2k (YCbCr или любое цветовое представление, которое может быть преобразовано в необходимое представление YCbCr с помощью известных колориметрических уравнений препроцессором [не показан]), и необходимые метаданные: функция F_I2sCI отображения светимости и два значения PB_C. В случае, если этот сигнал HDR-изображения передается и принимается стандартным декодером 2510 SLHDR2, поскольку F_I2sCI является нормальной функцией, этот декодер предполагал бы выполнение повторной градуировки из своей пиковой яркости принятого изображения (PB_CH, в данном примере, равной 800 нит) в любую более низкую пиковую яркость, и он может оптимизировать отображение, например, для подключенного дисплея со средним динамическим диапазоном на 350 нит, вычисляя Im350 путем оптимизации дисплея (что, как уже говорилось, не является ключевым аспектом этой заявки, и это возможно только как один из начальных критериев проектирования при переходе к новой парадигме кодеков, и для оптимизации отображения можно использовать, например, способ, раскрытый в US 20160307602, или аналогичный способ). Но теперь также стало возможным то, что любой, у кого есть декодер 2520 SLHDR2PLUS, например, недавно развернутый оператором кабельного телевидения, решившим внедрить эту услугу и т.п., может создавать другие изображения с PB_C выше значения PB_CH, например, выполнять восстановление примерного основного HDR-изображения с 5000 нит (т.е. выходного изображения Im5000) или любого адаптированного для дисплея изображения с яркостью между PB_C_H50 и PB_CH, или потенциально даже выше PB_C_H50, наподобие адаптированного для дисплея изображения Im1250 и т.д.FIG. 25 well shows the real encoded signal (2501) SLHDR2PLUS HDR image, i.e., for example, a color matrix of 2502 pixels of size 4kx2k (YCbCr or any color representation that can be converted to the desired representation of YCbCr using known colorimetric equations by the preprocessor [not shown]), and the necessary metadata: a luminosity mapping function F_I2sCI and two PB_C values. In the event that this HDR image signal is transmitted and received by a standard SLHDR2 decoder 2510, since F_I2sCI is a normal function, this decoder would expect to recalibrate from its received image peak luminance (PB_CH, in this example, equal to 800 nits) to any more low peak brightness, and it can optimize display for example for a connected display with 350 nits MDR by calculating Im350 by optimizing the display (which, as said, is not a key aspect of this application, and is only possible as one of the initial design criteria when moving to a new codec paradigm, and to optimize the display, you can use, for example, the method disclosed in US 20160307602, or a similar method). But now it is also possible that anyone with a 2520 SLHDR2PLUS decoder, such as one recently deployed by a cable operator who decides to implement this service, etc., can create other pictures with a PB_C higher than the PB_CH value, for example, perform restoration of an approximate a main HDR image with 5000 nits (i.e. Im5000 output image) or any display-adapted image with brightness between PB_C_H50 and PB_CH, or potentially even higher than PB_C_H50, like Im1250 display-adapted image, etc.

Интересными вариантами осуществления декодеров, касающимися обработки цветности, среди прочих, являются следующие:Interesting decoder embodiments relating to chrominance processing, among others, are the following:

- декодер (1100) видео с расширенным динамическим диапазоном, в котором блок (1104) определения функции светимости выполнен с дополнительной возможностью определения исходной характеристической кривой (2801) усиления насыщенности в зависимости от характеристической кривой (2804) усиления насыщенности канала и функции (F_I2sCI) отображения яркости канала.- an extended dynamic range video decoder (1100), in which the luminance function determiner (1104) is configured to additionally determine the original saturation gain characteristic curve (2801) depending on the channel saturation gain characteristic curve (2804) and the mapping function (F_I2sCI) channel brightness.

- декодер (1100) видео с расширенным динамическим диапазоном, в котором исходная характеристическая кривая (2804) усиления насыщенности дополнительно зависит от функции (FSNL) корректировки положения насыщенности, которая соответствует уравнению, включающему в себя степенную функцию для значения нормализованных яркостей. Нормализованными яркостями, которые лучше всего использовать для этого, являются нормализованные яркости, заданные, например, делением на пиковую яркость PB_C_MHDR основного HDR-изображения, например, 5000 нит.- a wide dynamic range video decoder (1100) in which the original saturation gain characteristic curve (2804) further depends on a saturation position correction function (FSNL) that corresponds to an equation including a power function for the normalized brightness value. The normalized luminances best used for this are the normalized luminances given, for example, by dividing by the peak brightness PB_C_MHDR of the main HDR image, eg 5000 nits.

То же самое соответствует на стороне кодера, среди прочего, кодеру (900) видео с расширенным динамическим диапазоном, в котором блок (901) генерирования HDR-функции выполнен с возможностью определения характеристической кривой усиления насыщенности в зависимости от исходной характеристической кривой (2801) усиления насыщенности и адаптированной функции (F_H2hCI) отображения яркости. Точно так же способы обработки цвета выполняются в любом техническом устройстве, например, интегральной схеме декодирования в абонентской телевизионной приставке и т.п., или на мобильном телефоне, или интегральной схеме кодера в производственном устройстве во внешнем канале вещания, или окончательном кодере или транскодере в помещении оператора кабельного телевидения, или выполняются на сервере поставщика видеоконтента через Интернет или поставщика контента в кинотеатры и т.д.The same corresponds on the encoder side to, among other things, a high dynamic range video encoder (900), in which the HDR function generation unit (901) is configured to determine a saturation gain characteristic curve depending on the original saturation gain characteristic curve (2801). and an adapted luminance display function (F_H2hCI). In the same way, color processing methods are performed in any technical device, for example, a decoding integrated circuit in a set-top box, etc., or on a mobile phone, or an encoder integrated circuit in a production device in an external broadcast channel, or a final encoder or transcoder in at the premises of a cable television operator, or are performed on the server of an Internet video content provider or a cinema content provider, etc.

КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS

Эти и другие аспекты способа и устройства согласно настоящему изобретению будут очевидны из реализаций и вариантов осуществления, описанных ниже, и объяснены со ссылкой на них, а также со ссылкой на сопроводительные чертежи, которые служат просто в качестве неограничительных конкретных иллюстраций, поясняющих более общие концепции, и на которых пунктирные линии используются для обозначения того, что компонент является необязательным, причем компоненты, показанные без пунктирных линий, не обязательно являются существенными. Пунктирные линии также могут использоваться для обозначения тех элементов, которые считаются существенными, но скрыты внутри объекта, или для обозначения нематериальных вещей, таких, например, как выборы объектов/областей (и обозначения того, как они могут отображаться на дисплее).These and other aspects of the method and apparatus according to the present invention will be apparent from the implementations and embodiments described below and explained with reference to them, as well as with reference to the accompanying drawings, which serve simply as non-limiting specific illustrations explaining more general concepts, and in which dotted lines are used to indicate that a component is optional, where components shown without dashed lines are not necessarily essential. Dashed lines can also be used to indicate elements that are considered essential but hidden within an object, or to indicate intangible things such as object/area selections (and indicate how they might be displayed).

На чертежах:On the drawings:

На ФИГ. 1 схематично показан ряд типичных цветовых преобразований, которые происходят, когда изображение с расширенным динамическим диапазоном оптимально отображается в соответствующее оптимально подвергнутое цветовой градуировке и похоже выглядящее (настолько похоже, насколько желательно и возможно, с учетом различий в первом и втором динамических диапазонах DR_1 и DR_2, соответственно) изображение с более узким динамическим диапазоном, например, изображение со стандартным динамическим диапазоном и с максимальной яркостью 100 нит, которое в случае обратимости (режим 2) также бы соответствовало отображению SDR-изображения, принимаемого приемниками (декодерами), причем SDR-изображение фактически кодирует HDR-сцену;FIG. 1 schematically shows a number of typical color transformations that occur when a high dynamic range image is optimally mapped to a corresponding optimally color-graded and similar looking (as similar as desired and possible, given the differences in first and second dynamic ranges DR_1 and DR_2, respectively) an image with a narrower dynamic range, for example, an image with a standard dynamic range and a maximum brightness of 100 nits, which, in the case of reversibility (mode 2), would also correspond to the display of an SDR image received by receivers (decoders), and the SDR image is actually encodes an HDR scene;

На ФИГ. 2 показано, как может выглядеть система захвата HDR-изображений;FIG. 2 shows what an HDR imaging system might look like;

На ФИГ.3 поясняется возможный способ передачи HDR-изображений в виде некоторых изображений с конкретной (разной) пиковой яркостью и совместно передаваемых в метаданных функций отображения светимости, обычно определяемых как функции отображения яркости, например, в виде унаследованных SDR-изображений Im_LDR, например, согласно предпочтительному подходу заявителя, на высоком концептуальном уровне, чтобы предоставить вступительные пояснения читателям, плохо знакомым с технологией;FIG. 3 explains a possible way of transmitting HDR images as some images with a specific (different) peak luminance and luminance mapping functions, commonly defined as luminance mapping functions, conveyed in metadata together, for example, as legacy SDR images Im_LDR, for example, according to the Applicant's preferred approach, at a high conceptual level, to provide introductory explanations for readers new to the technology;

На ФИГ. 4 показаны различные дополнительные особенности кодирования HDR-изображений в соответствии с конкретным подходом заявителя, стандартизованным в ETSI2, аспекты которого необходимы для понимания различных особенностей различных идей нового подхода к кодеку SLHDR2PLUS, изложенного ниже;FIG. 4 shows various additional features of HDR image coding in accordance with Applicant's specific approach standardized in ETSI2, aspects of which are necessary to understand the various features of the various ideas of the new SLHDR2PLUS codec approach outlined below;

На ФИГ. 5 поясняется, как цветовые преобразования и, в частности, преобразования яркости при повторной градуировке работают в цветовой гамме YCbCr;FIG. 5 explains how color transforms, and in particular regraded luminance transforms, work in the YCbCr color gamut;

На ФИГ. 6 более подробно пояснена наша концепция настраиваемой кривой, с объяснением ее полезного применения;FIG. 6 explains our concept of a tuned curve in more detail, with an explanation of its useful application;

На ФИГ. 7 поясняется базовое представление о кодировании с промежуточным динамическим диапазоном (IDR) и передаче исходного основного HDR-изображения, а также о концепции, которая не должна сбивать с толку и которая используется для изображений со средним динамическим диапазоном (MDR), которые обычно вычисляются из любого принятого изображения, чтобы оптимизировать его для отображения на любом доступном конкретном дисплее с пиковой яркостью PB_D дисплея, например, на конкретном HDR-телевизоре, который был куплен любым конечным потребителем, намеревающимся просматривать принимаемое HDR-видео;FIG. 7 explains a basic understanding of intermediate dynamic range (IDR) coding and transmission of the original HDR main image, as well as a concept that should not be confusing and is used for medium dynamic range (MDR) images, which are usually calculated from any the received image to optimize it for display on any available specific PB_D peak brightness display, such as a specific HDR TV that has been purchased by any end user intending to view received HDR video;

На ФИГ. 8 дополнительно поясняется, как следует подойти к рассмотрению проблемы IDR, в частности, к ее решению конкретным автоматически выполняемым в декодерах способом, и в частности, если хотя бы некоторые из декодеров, потенциально принимающих контент, являются уже присутствующими на рынке декодерами, совместимыми с ETSI2 и, возможно, нелегко обновляемыми с помощью новой технологии SLHDR2PLUS (например, потому что владелец телевизора или STB не обновляет его);FIG. 8 further explains how the IDR problem should be approached, in particular, its solution in a specific way automatically performed in decoders, and in particular if at least some of the decoders potentially receiving content are ETSI2 compliant decoders already on the market. and possibly not easily updated with the new SLHDR2PLUS technology (eg because the owner of the TV or STB does not update it);

На ФИГ. 9 показана общая конструкция технических частей, которые обычно необходимы для нового кодера SLHDR2PLUS, раскрытого в настоящей заявке;FIG. 9 shows the general design of the technical parts that are typically needed for the new SLHDR2PLUS encoder disclosed in this application;

На ФИГ. 10 поясняются некоторые базовые технические аспекты, связанные с последовательным получением кодером различных соответствующих функций отображения яркости, которые, в частности, поясняются на примере функции para отображения яркости;FIG. 10 explains some basic technical aspects related to sequentially obtaining by the encoder of various corresponding luminance mapping functions, which are, in particular, illustrated by the example of the luminance mapping function para;

На ФИГ. 11 показана возможная типичная высокоуровневая конструкция нового декодера SLHDR2PLUS, который следует некоторым идеям вариантов осуществления для описанных ниже различных возможностей реализации передачи видео SLHDR2PLUS;FIG. 11 shows a possible exemplary high-level design of a new SLHDR2PLUS decoder that follows some of the embodiment ideas for the various SLHDR2PLUS video transmission implementations described below;

На ФИГ. 12 дополнительно поясняются некоторые аспекты смещения черного и белого, когда оно выбирается создателем контента в его основных функциях отображения яркости, определяющих потребности в повторной градуировке для его видеоконтента в соответствии с его представлением;FIG. 12 further explains some aspects of the black and white offset when it is selected by the content creator in its main luminance mapping functions, determining re-grading needs for its video content according to its presentation;

На ФИГ. 13 описаны технические принципы предпочтительного подхода к фиксированному алгоритму получения адаптированной для канала версии функции para в соответствии с принципом диагонального масштабирования;FIG. 13 describes the technical principles of a preferred approach to a fixed algorithm for obtaining a channel-adapted version of the para function in accordance with the principle of diagonal scaling;

На ФИГ. 14 пояснены некоторые аспекты обратной кривой для функции para, так называемой функции abcara;FIG. 14 explains some aspects of the inverse curve for the para function, the so-called abcara function;

На ФИГ. 15 подробно описаны некоторые аспекты декодера SLHDR2PLUS;FIG. 15 details some aspects of the SLHDR2PLUS decoder;

На ФИГ. 16 пояснен полезный способ реализации адаптации дисплея с целью вычисления MDR-изображения для любого конкретного дисплея с PB_D в сочетании с новыми техническими принципами кодирования SLHDR2PLUS, раскрытыми в настоящей заявке;FIG. 16 illustrates a useful way to implement display adaptation to compute an MDR image for any particular PB_D display in conjunction with the new SLHDR2PLUS coding techniques disclosed in this application;

На ФИГ. 17 пояснены некоторые дополнительные аспекты канальной адаптации смещений черного и белого (BLO и WLO) для дополнения и упрощения приведенной ниже математической модели, а также обеспечения общего физико-технического обоснования;FIG. 17 explains some additional aspects of channel adaptation of black and white offsets (BLO and WLO) to complement and simplify the mathematical model below, as well as provide a general physical and technical justification;

На ФИГ. 18 показан другой вариант осуществления кодирования SLHDR2PLUS (или на самом деле несколько идей для различных комбинаций вариантов осуществления, поясняемых одной фигурой), который, в частности, полезен, поскольку закодированные изображения могут быть напрямую декодированы стандартными уже развернутыми ETSI2-декодерами;FIG. 18 shows another embodiment of SLHDR2PLUS encoding (or indeed several ideas for various combinations of embodiments explained in one figure), which is particularly useful since encoded pictures can be directly decoded by standard ETSI2 decoders already deployed;

На ФИГ. 19 поясняется, как определять соответствующие версии исходной основной настраиваемой кривой для различных зависимых представлений изображения с пиковой яркостью (будь то входное или выходное изображение), например, IDR-изображения с совместной спецификацией настраиваемой кривой для точной настройки грубо отображенных яркостей IDR с целью получения точных окончательных яркостей SDR, например, как хотелось бы специалисту по градуировке для создателя фильма;FIG. 19 explains how to determine the appropriate versions of the original master tuning curve for different dependent peak brightness image representations (whether input or output image), for example, IDR images with a joint tuning curve specification to fine-tune coarsely mapped IDR luminances in order to obtain accurate final SDR luminances, for example, as a filmmaker's grading specialist would like;

На ФИГ. 20 показаны основополагающие технические принципы подхода по ФИГ. 18 в отношении спектра повторно градуированных изображений;FIG. 20 shows the underlying technical principles of the FIG. 18 for the spectrum of re-graded images;

На ФИГ. 21 поясняется экстраполяция адаптации функции отображения яркости (например, функции para) за пределы самого высокого значения начального изображения (соответствующего единичному преобразованию или диагонали на графике), а также взаимосвязь между конкретной выбранной формой функции para и соответствующей функцией abcara;FIG. 21 explains the extrapolation of adapting a luminance display function (eg, the para function) beyond the highest value of the initial image (corresponding to a unit transform or a diagonal in a graph), as well as the relationship between a particular chosen form of the para function and the corresponding abcara function;

На ФИГ. 22 схематично поясняется, как конкретный вариант осуществления ограничения усиления бликов для функции para работает с повторной градуировкой светимости между входными и выходными нормализованными яркостями;FIG. 22 schematically illustrates how a particular embodiment of the flare gain limitation for the para function works with luminance recalibration between input and output normalized luminances;

На ФИГ. 23 схематично показана вся последовательность передачи и обработки HDR с целью четко указать на разницу между кодированием видео и оптимизацией отображения (причем кодирование относится к самому определению изображений как таковых, а оптимизация отображения - просто к оптимизации отображения на любом конкретном дисплее с конкретными функциональными возможностями динамического диапазона, которая является все еще свободно настраиваемой, предпочтительно принимая во внимание потребности в повторной градуировке различных, возможно, совершенно разных и довольно сложных изображений HDR-сцены);FIG. Figure 23 is a schematic of the entire HDR transmission and processing flow to clearly point out the difference between video encoding and display optimization (with encoding referring to the very definition of images as such, while display optimization simply refers to optimizing display on any particular display with specific dynamic range functionality). , which is still freely configurable, preferably taking into account the re-grading needs of different, possibly quite different and rather complex HDR scene images);

На ФИГ. 24 дополнительно поясняется, как будет работать стандартизованный алгоритм изменения функции, который будет принимать любую форму входной функции, полученную, например, специалистом по градуировке для создателя контента, чтобы указывать, как нормализованная светимость динамического диапазона с первой пиковой яркостью должна быть отображена в нормализованные светимости представления изображения со второй пиковой яркостью, и как из этой входной функции может быть однозначно вычислена функция для отображения между другим представлением, в частности, с нижней третьей пиковой яркостью, и вторым представлением для любой заданной входной функции;FIG. 24 further explains how a standardized function change algorithm would work, which would take any form of input function given, for example, by a scaler for a content creator, to indicate how the normalized dynamic range luminosity with the first peak luminance should be mapped to the normalized presentation luminances. images with a second peak brightness, and how a function can be uniquely calculated from this input function to display between another representation, in particular, with a lower third peak brightness, and a second representation for any given input function;

На ФИГ. 25 схематично показано, как описываемый в настоящей заявке механизм кодирования видео SLHDR2PLUS и сигнал хорошо совместимы с унаследованными декодерами SLHDR2, но при этом предложены дополнительные возможности для развернутых декодеров SLHDR2PLUS;FIG. 25 schematically shows how the SLHDR2PLUS video coding engine and signal described in this application is well compatible with legacy SLHDR2 decoders, while offering additional capabilities for deployed SLHDR2PLUS decoders;

На ФИГ. 26 схематически обобщена в виде блоков вся приведенная ниже математическая модель декодирования для восстановления всех необходимых функций отображения светимости с целью выполнения всей необходимой обработки по декодированию светимости, чтобы получить требуемое изображение из принятого IDR-изображения;FIG. 26 schematically summarizes in block form all of the following decoding mathematical model for restoring all necessary luminance mapping functions to perform all necessary luminance decoding processing to obtain a desired image from a received IDR image;

На ФИГ. 27 схематично поясняется прекрасный прагматический подход к численному получению специально настроенной версии настраиваемой кривой, если таковая имеется; иFIG. 27 schematically illustrates an excellent pragmatic approach to numerically obtaining a specially tuned version of the tuned curve, if any; And

На ФИГ. 28 поясняется удобный на практике подход к обработке пиксельных цветностей в подходе SLHDR2PLUS.FIG. 28 explains a practical approach to handling pixel chromaticities in the SLHDR2PLUS approach.

ОСУЩЕСТВЛЕНИЕ ИЗОБРЕТЕНИЯIMPLEMENTATION OF THE INVENTION

На ФИГ. 9 в общих чертах показан новый кодер 900 SLHDR2PLUS. На входе он получает основное HDR-изображение (например, изображение MsterHDR с PB_C 5000 нит), которое читатель, не теряя общности, может рассматривать как созданное во время или приблизительно во время кодирования человеком-специалистом по цветовой градуировке с использованием программного обеспечения для цветовой градуировки, например, начиная с захваченного камерой HDR-изображения в формате RAW (причем изображение MsterHDR оптимизируется, например, для типичной вечерней темной среды просмотра телевидения, т.е. в отношении его средней окружающей светимости и т.д.; настоящие технологии также могут работать с другими или переменными средами, но это скорее вопрос адаптации дисплея, а не новые способы создания или кодирования HDR-изображений). Специалист по градуировке также создал по меньшей мере одну хорошую функцию FL_50t1 понижающей градуировки светимости, чтобы преобразовать основное HDR-изображение с 5000 нит в соответствующее хорошо выглядящее SDR-изображение (т.е. с обычной PB_C 100 нит), и он сделал это посредством подмены некоторых частичных аспектов повторной градуировки в блоках 403, 404 и 405, а также посредством некоторой хорошей цветовой коррекции F_C[Y] в соответствии с блоком 451 хроматической обработки, которую он проверил на своем эталонном SDR-мониторе (другие способы, например, при широковещательной передаче реальных событий, могут предусматривать вычисление применимых форм функции «на лету», и тогда может быть какой-то директор, который смотрит на результат в целом или даже не делает этого, но принцип заключается в том, что возникает хорошая функция FL_50t1 либо только из одного из частичных блоков, либо вследствие общего функционирования всех блоков и т.д.).FIG. 9 is an overview of the new SLHDR2PLUS encoder 900. As input, it receives a basic HDR image (e.g., an MsterHDR image with a PB_C of 5000 nits), which the reader, without loss of generality, can consider as being created at or about the time of encoding by a human color grading specialist using color grading software , for example, starting from a RAW HDR image captured by the camera (whereby the MsterHDR image is optimized, for example, for a typical evening dark TV viewing environment, i.e. in relation to its average ambient luminosity, etc.; the present technologies can also work with different or variable environments, but this is more a matter of display adaptation rather than new ways of creating or encoding HDR images). The scaler also created at least one good luminosity downgrading function FL_50t1 to convert a 5000 nit HDR base image to a corresponding good looking SDR image (i.e. with a regular 100 nit PB_C), and he did this by substituting some partial aspects of the re-grading in blocks 403, 404 and 405, as well as some good color correction F_C[Y] in accordance with the chromatic processing block 451, which he checked on his reference SDR monitor (other methods, for example, when broadcasting real events, may involve calculating applicable forms of the function on the fly, and then there may be some director who looks at the result as a whole or even does not, but the principle is that a good FL_50t1 function arises either from just one from partial blocks, or due to the general functioning of all blocks, etc.).

Эта функция FL_50t1 также должна быть введена в качестве начальной информации для нового кодера 900. Статические метаданные PB_C_H50 пиковой яркости (для всего фильма или всей широковещательной передачи) также вводятся, поскольку они будут использоваться, но при этом также выводятся кодером в виде итогового сигнала кодирования IDR-видео (IDR+F_I2sCI+PB_CH+PB_C_H50, при этом изображение обычно сжато или не сжато в соответствии с некоторым подходящим стандартом видеосвязи, например, HEVC, и другие метаданные могут передаваться в соответствии с любым доступным или конфигурируемым механизмом передачи метаданных, начиная от сообщений MPEG SEI и заканчивая выделенными Интернет-пакетами и т.д.).This function FL_50t1 must also be entered as seed information for the new encoder 900. Static peak luminance metadata PB_C_H50 (for the entire movie or the entire broadcast) is also entered as it will be used, but is also output by the encoder as the resulting IDR coding signal -video (IDR+F_I2sCI+PB_CH+PB_C_H50, wherein the image is typically compressed or uncompressed according to some suitable video communication standard, e.g. HEVC, and other metadata can be transmitted according to any available or configurable metadata transfer mechanism, ranging from MPEG SEI to dedicated Internet packages, etc.).

Блок 901 генерирования HDR-функции будет вычислять функцию F_H2hCI отображения светимости из HDR в IDR, которая необходима для вычисления IDR-изображения из изображения MsterHDR, и ему потребуется выбирать PB_CH IDR, которую, как предполагается, он получает из некоторого другого входа (например, она могла быть выбрана оператором кабельного телевидения и содержаться где-нибудь в памяти для загрузки с помощью конфигурационного программного обеспечения); предположим, что PB_CH равна 1000 нит (исключительно в целях пояснения; обычно это значение будет в пару раз выше, чем PB_C SDR, например, в 4 раза выше, при этом технические аспекты немного различаются по особенностям вариантов осуществления в зависимости от того, какое значение выбрано).The HDR function generating unit 901 will calculate the HDR to IDR luminance mapping function F_H2hCI that is needed to calculate the IDR image from the MsterHDR image, and will need to select the PB_CH IDR that it is supposed to get from some other input (for example, it may have been selected by the cable operator and held somewhere in memory for download by configuration software); let's assume that PB_CH is 1000 nits (for explanation purposes only; usually this value will be a couple of times higher than PB_C SDR, for example, 4 times higher, with technical aspects slightly different in particular implementations depending on which value selected).

На ФИГ. 10 показано, как может функционировать этот блок 901 генерирования HDR-функции.FIG. 10 shows how this HDR function generating block 901 can function.

Предположим, специалист по градуировке задал некоторую функцию (здесь, в поясняющем примере, линейно-параболически-линейную функцию - или вкратце функцию para - которую заявитель использует в соответствии со стандартизированной философией ETSI-кодеков, чтобы выполнить первую и без того в значительной степени хорошую повторную балансировку яркостей преобладающих областей изображения (например, это придает достаточную видимость темным участкам на SDR-изображении за счет совместно контролируемого сжатия областей с наиболее высокими светимостями).Assume that the calibrator has defined some function (here, in an illustrative example, a linear-parabolic-linear function - or the para function for short - that the applicant uses in accordance with the standardized ETSI codec philosophy, in order to perform the first and already pretty good repeated balancing the brightness of the dominant areas of the image (for example, this gives sufficient visibility to dark areas in the SDR image due to jointly controlled compression of the areas with the highest luminosities).

Такая функция соотносит входные яркости (в психо-визуальном уравновешенном представлении путем преобразования светимостей пикселей в соответствии с приведенными выше уравнениями 1 и 2) самого низкого поддиапазона яркостей (L<Ld) с необходимыми выходными светимостями посредством линейной взаимосвязи с контролируемым наклоном SG_gr, оптимально выбранным для этого HDR-изображения специалистом по градуировке:Such a function correlates the input luminances (in the psycho-visual balanced representation by converting the pixel luminosities according to Equations 1 and 2 above) of the lowest luminance sub-range (L<Ld) to the desired output luminances through a linear relationship with a controlled slope SG_gr optimally chosen for this HDR image by a grading specialist:

Ln_XDR = SG_gr*Ln_Mster_HDR, если (Ln_Mster_HDR<Ld) [Ур. 4]Ln_XDR = SG_gr*Ln_Mster_HDR if (Ln_Mster_HDR<Ld) [Lv. 4]

(где Ln_Mstr_HDR и Ln_XDR, соответственно, являются яркостями - т.е. униформизированными с психо-визуальной точки зрения представлениями соответствующих светимостей пикселей - входного основного HDR-изображения, предварительно градуированного как оптимальное начальное изображение специалистом по градуировке, а Ln_XDR является обобщением нескольких выходных яркостей изображений с разным динамическим диапазоном и, в частности, пиковой яркости PB_C, которые все показаны на одной нормализованной вертикальной оси в целях пояснения концепций, лежащих в основе настоящего изобретения и его вариантов осуществления). В частности, когда специалист по градуировке начинает повторно градуировать соответствующее оптимальное SDR-изображение для своего уже оптимально градуированного изображения Mster_HDR, XDR будет разновидностью SDR, а соответствующая форма функции отображения светимости показана как F_Mt1 [здесь используется сокращенное обозначение xty, чтобы указать, функция отображает яркости от некоторого начального значения x PB_C до некоторого конечного значения y PB_C, причем x и y могут либо в общем обозначать PB_C изображения, как «M» для «Master», либо численно указывать примерное значение, у которого затем отбрасываются два нуля, т.е., например, «50» означает «5000», а «1» означает «100» нит].(where Ln_Mstr_HDR and Ln_XDR, respectively, are the luminances - i.e. psycho-visually uniformized representations of the respective pixel luminosities - of an input HDR master image pre-graded as an optimal initial image by a grader, and Ln_XDR is a generalization of multiple output luminances images with different dynamic range and, in particular, peak brightness PB_C, which are all shown on the same normalized vertical axis for the purpose of explaining the concepts underlying the present invention and its embodiments). In particular, when the grader starts to re-calibrate the corresponding optimal SDR image for his already optimally graded Mster_HDR image, XDR will be a variant of SDR, and the corresponding form of the luminance mapping function is shown as F_Mt1 [here, the abbreviation xty is used to indicate whether the function displays brightness from some initial value x PB_C to some final value y PB_C, where x and y can either generically denote the PB_C of the image, as "M" for "Master", or numerically indicate an approximate value, which then discards two zeros, i.e. ., for example, "50" means "5000" and "1" means "100" nits].

Точно так же для входных яркостей Ln_Mster_HDR выше, чем Lb, снова существует управляемая линейная взаимосвязь:Similarly, for input luminances Ln_Mster_HDR higher than Lb, there is again a controlled linear relationship:

Ln_SDR = HG_gr*Ln_Mster_HDR+(1-HG_gr), если (Ln_Mster_HDR>Lb) [Ур. 5]Ln_SDR = HG_gr*Ln_Mster_HDR+(1-HG_gr) if (Ln_Mster_HDR>Lb) [Lv. 5]

Параболическая часть функции para между Ld = mx-WP и Lb = mx+WP имеет функциональное определение L_XDR = a*x^2+b*x+c, из которого можно вычислить коэффициенты a, b и c путем вычисления точки, где пересекаются линейные касательные к кривой, идущие из ее экстремальных значений, а затем ее абсциссы mx (как определено в стандарте ETSI1; mx = (1-HG)/(SG-HG)).The parabolic part of the para function between Ld = mx-WP and Lb = mx+WP has the function definition L_XDR = a*x^2+b*x+c, from which the coefficients a, b and c can be computed by calculating the point where the linear tangents to the curve coming from its extreme values, and then its abscissa mx (as defined in the ETSI1 standard; mx = (1-HG)/(SG-HG)).

Общая мысль, лежащая в основе изобретения, заключается в следующем (и ее можно объяснить в мультипликативном представлении). Любую основную светимость HDR можно преобразовать в саму себя, применив тождественное преобразование (диагональ). Если в конце спектра повторно градуированных изображений, т.е. для создания соответствующей светимости SDR (XDR = SDR), необходимо получить выходную светимость L_SDR = F_Mt1(Ln_M), где Ln_M является некоторым конкретным значением светимостей Ln_Mstr_HDR, тогда это можно рассматривать как мультипликативное усиление входной светимости L_SDR = b_SDR(Ln_M)*Ln_M. Если теперь можно определить некоторую промежуточную функцию F_Mt1_ca, то окончательная обработка представляет собой последовательное применение двух функций F_IDRt1(F_Mt1_ca(Ln_Mster_HDR)), при этом F_IDRt1 выполняет окончательное отображение светимости в светимость SDR любого пикселя (или объекта), начиная с уже вычисленной светимости пикселей IDR (полученной из основной светимости HDR). Используя мультипликативные члены, можно сказать, что L_SDR = b_IDR*b_ca*Ln_M, где два усиления соответствуют промежуточной функции (или функции адаптации канала), а оставшаяся функция повторной градуировки (которая оказывается функцией, которая передается вместе с IDR-изображением для выполнения кодирования HDR-видео, совместимого со стандартом ETSI2). Следует отметить, что эти коэффициенты усиления сами по себе являются функциями Ln_Mster_HDR (или фактически любой связанной с ними промежуточной яркости).The general idea behind the invention is as follows (and can be explained in multiplicative terms). Any HDR base luminosity can be converted to itself by applying the identity transformation (diagonal). If at the end of the spectrum of re-graded images, i.e. to create the corresponding SDR luminosity (XDR = SDR), it is necessary to obtain the output luminosity L_SDR = F_Mt1(Ln_M), where Ln_M is some specific value of the Ln_Mstr_HDR luminosities, then this can be considered as a multiplicative gain of the input luminosity L_SDR = b_SDR(Ln_M)*Ln_M. If now it is possible to determine some intermediate function F_Mt1_ca, then the final processing is the sequential application of two functions F_IDRt1(F_Mt1_ca(Ln_Mster_HDR)), while F_IDRt1 performs the final mapping of the luminosity to the SDR luminosity of any pixel (or object), starting from the already calculated luminosity of the IDR pixels (derived from the main HDR luminosity). Using the multiplicative terms, we can say that L_SDR = b_IDR*b_ca*Ln_M, where the two gains correspond to the intermediate function (or channel adaptation function), and the remaining re-grading function (which turns out to be the function that is transmitted along with the IDR image to perform HDR encoding -video compatible with the ETSI2 standard). It should be noted that these gains are themselves functions of Ln_Mster_HDR (or in fact any intermediate brightness associated with them).

В таком случае было удобно, если бы отсутствовала необходимость передачи каких-либо дополнительных функций (которые, например, могут быть потеряны, если управление метаданными является несовершенным и т.д.).In such a case, it would be convenient if there was no need to transfer any additional functions (which, for example, may be lost if metadata management is imperfect, etc.).

Поэтому, может быть полезно, если философия SLHDR2PLUS использует заранее согласованный фиксированный способ преобразования функции F_Mt1 специалиста по градуировке (т.е. механизм для любой формы функции, которую он желает использовать) в адаптированную для канала функцию, соответствующую PB_IDR (т.е. значению, которое также обычно передается приемникам в виде PB_CH в соответствии с подходом к ETSI2-кодированию). Можно показать, что тогда нет необходимости в совместной передачи в метаданных, связанных с IDR-изображениями, функции F_H2h повышающей градуировки, потому что она фиксирована и известна декодерам, поэтому обратная F_ ??, вероятно, может быть вычислена из принятой функции F_I2s, как будет фактически показано далее (если PB_C_H50 также передается приемникам). Новизна декодера заключается в новом подходе к получению изображений с PB_C>PB_IDR. В принципе может подойти любой фиксированный подход к получению функции F_Mt1_ca из основной F_Mt1 при условии, что он является математически обратимым или, по меньшей мере, декодируемым в соответствии с требованиями, но желательно выбирать подход видового класса, в котором повторная градуировка из HDR в IDR выполняется (т.е. форма F_Mt1_ca получается) так, чтобы ее дальнейшая деформация для получения MDR-изображений была совместима с тем, что получается на основе стандарта ETSI2 (в принципе ETSI2-изображения стандартизированы только между PB_C и 100 нит, поэтому можно начать с требования приблизительного равенства видов изображений, т.е. все светимости и цвета пикселей, для всех изображений динамического диапазона между PB_IDR и 100 нит, но можно также попытаться наложить на решение, которое должно быть получено, технические ограничения, состоящие в том, что изображения, получаемые повышающей градуировкой из принятого IDR-изображения в основное HDR-изображение, т.е. с помощью F_ ??, которая должна быть вычислена декодером SLHDR2PLUS, должны иметь тот же вид, который был бы получен адаптацией ETSI2-дисплея, который должен был принимать, например, изображения Mster_HDR с PB_C 5000 нит, и общую функцию F_Mt1 повторного отображения светимости.Therefore, it may be useful if the SLHDR2PLUS philosophy uses a pre-agreed fixed way of converting the scaler's F_Mt1 function (i.e., a mechanism for whatever form of function he wishes to use) into a channel-adapted function corresponding to PB_IDR (i.e., the value , which is also typically sent to receivers as a PB_CH in accordance with the ETSI2 coding approach). It can be shown that there is then no need to co-transmit in the metadata associated with IDR pictures the upgrading function F_H2h because it is fixed and known to decoders, so the inverse F_?? can probably be computed from the received function F_I2s, as will be actually shown below (if PB_C_H50 is also transmitted to receivers). The novelty of the decoder lies in a new approach to obtaining images from PB_C>PB_IDR. In principle, any fixed approach to deriving the F_Mt1_ca function from the underlying F_Mt1 may be suitable, provided that it is mathematically reversible, or at least decodable as required, but it is desirable to choose a view class approach in which regrading from HDR to IDR is performed (i.e. the shape of F_Mt1_ca is obtained) so that its further deformation to obtain MDR images is compatible with what is obtained based on the ETSI2 standard (in principle, ETSI2 images are only standardized between PB_C and 100 nits, so you can start with the requirement approximate equality of image views, i.e. all luminances and pixel colors, for all images of dynamic range between PB_IDR and 100 nits, but one can also try to impose on the solution to be obtained technical limitations in that the images obtained upgradation from the received IDR image to the main HDR image, i.e. using F_ ??, to to be computed by the SLHDR2PLUS decoder should have the same form as would be obtained by adapting an ETSI2 display that was to receive, for example, Mster_HDR images with a PB_C of 5000 nits, and a common luminosity remapping function F_Mt1.

Сначала будет пояснено, как может быть спроектирована такая предпочтительная адаптация канала (т.е. вычисление F_Mt1_ca или F_H2hCI, показанное на ФИГ. 9; и соответствующее IDR-изображение (IDR-изображения)), которая полезна для нескольких подходов/вариантов осуществления SLHDR2PLUS.First, it will be explained how such a preferred channel adaptation (i.e., calculation of F_Mt1_ca or F_H2hCI shown in FIG. 9; and corresponding IDR picture(s)) can be designed which is useful for several SLHDR2PLUS approaches/embodiments.

На ФИГ. 12a показано смещение WLO_gr уровня белого, оптимально выбранное специалистом по градуировке (или автоматическим средством), а также, если имеется, смещение (BLO_gr) уровня черного, которые соответствуют блоку 403 по ФИГ. 4.FIG. 12a shows the white level offset WLO_gr optimally selected by the calibrator (or automatic tool) and, if present, the black level offset (BLO_gr), which correspond to block 403 of FIG. 4.

Пока можно предположить, что это единственная настройка динамического диапазона, т.е. операция отображения светимости для получения SDR-изображения из начального изображения Mster_HDR (это отображение «белое на белом» и «черное на черном» является довольно примитивным преобразованием динамического диапазона, которое дает низкокачественные LDR-изображения, которые уже не имеют правильной средней яркости или средней визуальной контрастности, не говоря уже о дескрипторах более высокого качества результирующего изображения, которые являются желательными; но это хороший этап, если рассматривать его как первый этап в последовательности повторной градуировки в соответствии с подходом заявителя, и сначала нужно пояснить этот этап и саму адаптацию канала). Идея состоит в том, что, если (несмотря на возможность кодирования яркостей вплоть до PB_HDR = 5000 нит) в действительности нет светимостей пикселей выше значения MXH на в настоящий момент подлежащем отображению изображении (или кадре изображений в видео той же сцены, в случае, если кто-то решит отображать ту же самую функцию для всех этих последовательных во времени изображений), тогда имеет смысл отображать это наивысшее значение MXH в максимальный код яркости в SDR (т.е., например, 1024, что соответствует светимости 100 нит). Любой другой подход к отображению (например, отображение «белого в HDR на белое в SDR») сделает все фактически представленные светимости еще ниже, и это не оптимально, учитывая, что диапазон светимостей SDR и так достаточно мал, при этом он должен оптимально содержать соответствующую эмуляцию большого диапазона светимостей HDR.So far, we can assume that this is the only dynamic range setting, i.e. luminosity mapping operation to obtain an SDR image from the initial Mster_HDR image (this white-on-white and black-on-black mapping is a rather primitive dynamic range transformation that produces low-quality LDR images that no longer have the correct average brightness or average visual contrast ratio, not to mention the higher quality descriptors of the resulting image, which are desirable; but this is a good step if considered as the first step in the re-grading sequence according to Applicant's approach, and this step and the channel adaptation itself need to be explained first). The idea is that if (despite the ability to encode luminances up to PB_HDR = 5000 nits) there are in fact no pixel luminances higher than the MXH value in the image currently to be displayed (or a frame of images in the video of the same scene, in case someone decides to map the same function for all of these time-sequential images), then it makes sense to map this highest MXH value to the maximum brightness code in SDR (i.e. 1024, corresponding to luminance of 100 nits, for example). Any other mapping approach (for example mapping "white in HDR to white in SDR") will make all the actual luminosities even lower, and this is not optimal, given that the range of SDR luminosities is already quite small, while it should optimally contain the corresponding emulation of a wide range of HDR luminosities.

Тогда возникает вопрос, следует ли регулировать это значение WLO для IDR-изображения (как видно на ФИГ. 12b, самая высокая яркость на промежуточных изображениях может уже приближаться к PB_IDR, при этом все еще есть окончательный переход к отображению на 1,0 для подвергнутого повторной градуировки SDR-изображения; это отображение также может быть эквивалентно показано в нормализованном диапазоне светимостей HDR-изображения с 5000 нит, что обозначено посредством «ON»). При первом подходе в этом нет необходимости (поскольку есть некоторая свобода в том, как разработать алгоритм вычисления функции F_Mt1_ca), но в случае ее масштабирования можно использовать следующий подход.The question then arises as to whether this WLO value for the IDR image should be adjusted (as seen in FIG. 12b, the highest brightness in the intermediate images may already be approaching PB_IDR while still having a final transition to display at 1.0 for the re-rendered grading the SDR image; this display can also be shown equivalently in the normalized luminance range of the HDR image with 5000 nits, which is indicated by "ON"). With the first approach, this is not necessary (because there is some freedom in how to develop an algorithm for calculating the function F_Mt1_ca), but in case of scaling it, the following approach can be used.

Чтобы иметь возможность масштабировать функцию отображения светимости, необходимо определить коэффициент масштабирования для такого горизонтального масштабирования, которым в данном случае являются ее параметры WLO_ca и, аналогично, масштабированный BLO_gr (обозначен как «BLO_ca»). Если нужно, чтобы этот параметр масштабировался линейно с PB_IDR, тогда ограничения должны заключаться в том, что действие выполняется полностью, т.е. смещение имеет его максимальную величину BLO_gr, когда PB_IDR = PB_SDR. С другой стороны, для HDR-изображения BLO или WLO должно быть равно нулю, так как ничего не требуется корректировать, поскольку у нас есть тождественное преобразование для отображения Mster_HDR с 5000 нит в Mster_HDR с 5000 нит.In order to be able to scale the luminosity mapping function, it is necessary to define a scaling factor for such horizontal scaling, which in this case are its WLO_ca parameters and, similarly, the scaled BLO_gr (denoted as "BLO_ca"). If you want this parameter to scale linearly with PB_IDR, then the constraints should be that the action is performed in full, i.e. the offset has its maximum value BLO_gr when PB_IDR = PB_SDR. On the other hand, for an HDR image, BLO or WLO should be zero, since nothing needs to be adjusted since we have the same transformation to map Mster_HDR with 5000 nits to Mster_HDR with 5000 nits.

Следовательно, можно сформулировать такое определение параметров:Therefore, we can formulate the following definition of parameters:

WLO_ca = scaleHor*WLO_gr (0 <= ScaleHor <= 1)WLO_ca = scaleHor*WLO_gr (0 <= ScaleHor <= 1)

BLO_ca = scaleHor*BLO_gr [Ур. 6]BLO_ca = scaleHor*BLO_gr [Lv. 6]

Тогда возникает вопрос, как определить ScaleHor.The question then becomes how to define ScaleHor.

На ФИГ. 12b показан спектр изображений с разным динамическим диапазоном, точнее говоря, с разной PB_C, которые скомпонованы по горизонтальной оси. Они расположены вдоль воспринимаемых положений пиковой яркости PB_C каждого изображения. Таким образом, мы помещаем их в положение с абсциссой v(PB_C), где v является функцией из уравнения 1, причем значение PB_C используется для параметра L_in, и значение RHO из уравнения 2 вычисляется для максимальной яркости изображения Mster_HDR, которое было подвергнуто градуировке (т.е., например, RHO составляет 25 для изображения Mster_HDR с PB_C 5000 нит). Если также на оси ординат отложены яркости L, параметризованные в соответствии с функцией v (на вертикальной оси) с тем же RHO = 25, тогда значения PB_C точно следуют прямой линии, и определения и вычисления могут быть выполнены в этой парадигме. Например, можно спроецировать яркости для пиковых яркостей PB_C любого промежуточного изображения на основную (5000 нит) ось яркости. Использовано обозначение «P_I1oI2», означающее значение яркости, соответствующее применению v-функции с пиковой яркостью (которая является нормальной светимостью) изображения I1, когда оно представлено в диапазоне яркостей изображения I2. Так, например, P_IoH является яркостью для пиковой яркости выбранного IDR-изображения в диапазоне яркостей Mster_HDR, а P_SoH является яркостью 100 нит (следует отметить, что 1,0 в этом диапазоне соответствует PB_C изображения Mster_HDR, так что положение, например, 100 нит, например, 0,5, будет варьироваться в зависимости от выбранного представления изображения Mster_HDR, в связи с чем уравнения 1 и 2 представляют собой семейство кривых, параметризованных посредством RHO).FIG. 12b shows a spectrum of images with different dynamic range, more precisely, with different PB_C, which are arranged along the horizontal axis. They are located along the perceived positions of the peak brightness PB_C of each image. Thus, we put them in position with abscissa v(PB_C), where v is a function from Equation 1, where the PB_C value is used for the L_in parameter, and the RHO value from Equation 2 is calculated for the maximum brightness of the Mster_HDR image that has been graduated (t i.e., for example, RHO is 25 for an Mster_HDR image with a PB_C of 5000 nits). If the luminances L are also plotted on the y-axis, parameterized according to the function v (on the vertical axis) with the same RHO = 25, then the PB_C values exactly follow a straight line, and definitions and calculations can be performed in this paradigm. For example, it is possible to project the luminances for the peak luminances PB_C of any intermediate image onto the main (5000 nits) luminance axis. The notation "P_I1oI2" is used, meaning a luminance value corresponding to applying the v-function with the peak luminance (which is the normal luminance) of the image I1 when it is represented in the luminance range of the image I2. So, for example, P_IoH is the brightness for the peak brightness of the selected IDR image in the Mster_HDR brightness range, and P_SoH is the brightness of 100 nits (note that 1.0 in this range corresponds to the PB_C of the Mster_HDR image, so a position of, for example, 100 nits, for example, 0.5 will vary depending on the chosen image representation Mster_HDR, and therefore equations 1 and 2 are a family of curves parameterized by RHO).

Тогда подходящей функцией для ScaleHor будет та, что начинается с 1-P_IoH. Эта функция действительно будет увеличиваться по мере уменьшения PB_IDR, т.е. чем правее мы выбираем наше представление IDR-изображения для изображения MsterHDR. И она будет давать 0 в случае, если P_IoH = 1, что происходит, когда выбрано IDR-изображение с 5000 нит (чисто для теоретического объяснения уравнения scaleHor, потому что это не имеет смысла с технической точки зрения). Однако это уравнение не равно 1,0, когда IDR = SDR, поэтому требуется масштабировать его с коэффициентом k.Then the appropriate function for ScaleHor would be one that starts with 1-P_IoH. This function will indeed increase as PB_IDR decreases, i.e. the further to the right we select our IDR image representation for the MsterHDR image. And it will give 0 if P_IoH = 1, which happens when an IDR image with 5000 nits is selected (purely for the theoretical explanation of the scaleHor equation, because it doesn't make sense from a technical point of view). However, this equation does not equal 1.0 when IDR = SDR, so it needs to be scaled by a factor k.

Можно проверить, что нормализация верна, если k = 1-P_SoH (что находится в противоречии со значением переменной P_IoH, соответствующим различным положениям IDR фиксированного значения), в связи с чем:It can be checked that the normalization is correct if k = 1-P_SoH (which is in conflict with the value of the variable P_IoH corresponding to the various fixed value IDR positions), so:

ScaleHor = (1-P_IoH)/(1-P_SoH) [Ур. 7]ScaleHor = (1-P_IoH)/(1-P_SoH) [Lv. 7]

Определение правильной функции para (см. ФИГ. 4, блок 404) для преобразования канала является более сложным и поясняется с помощью ФИГ. 13.Determining the correct para function (see FIG. 4, block 404) for channel mapping is more complex and is explained using FIG. 13.

В этом случае изобретатели решили выполнить преобразование функции в диагональном направлении, ортогональном диагонали ([0,0]-[1,1]) единичной матрицы. Она должна быть преобразована с эквивалентным выбором параметров в нормальном представлении системы координат Mster_HDR/XDR для всех функциональных повторных градуировок.In this case, the inventors decided to transform the function in a diagonal direction orthogonal to the diagonal ([0,0]-[1,1]) of the identity matrix. It must be transformed with an equivalent choice of parameters in the normal representation of the Mster_HDR/XDR coordinate system for all functional recalibrations.

Базовое масштабирование задается в системе осей, повернутой на 45 градусов, которая изменяет диагональ на горизонтальную ось (см. ФИГ. 13a). Можно видеть функцию Fx, которая, например, является повернутой функцией para. Имеет смысл масштабировать любое значение dY для точки на повернутой диагонали, т.е. на новой оси x (на которой dX соответствует некоторой абсциссе, т.е. яркости L_Mster_HDR в исходной системе осей), с помощью коэффициента La/K, где K является полным действием функции, т.е. полным значением dY, и значение dY_ca масштабирования будет соответствовать (La/K)*dY в этой повернутой системе.The base scaling is set in the axis system rotated by 45 degrees, which changes the diagonal to the horizontal axis (see FIG. 13a). You can see the Fx function, which is, for example, the rotated para function. It makes sense to scale any dY value for a point on the rotated diagonal, i.e. on the new x-axis (on which dX corresponds to some abscissa, i.e. the brightness L_Mster_HDR in the original axis system), by the coefficient La/K, where K is the full action of the function, i.e. the full value of dY, and the scaling value dY_ca will correspond to (La/K)*dY in this rotated system.

Зададим sc_r = La/K, где La = 1/P_IoH и K = 1/P_SoH (следует отметить, что значение яркости I2 на оси I1 может быть переформулировано как значение яркости I1 на оси I2, в частности, например, 1/P_IoH = P_HoI; например, если P_IoH = 0,7, это означает, что PB_Mstr_HDR будет придерживаться 1/0,7 выше PB_IDR).We set sc_r = La/K, where La = 1/P_IoH and K = 1/P_SoH (it should be noted that the brightness value I2 on the I1 axis can be reformulated as the brightness value I1 on the I2 axis, in particular, for example, 1/P_IoH = P_HoI; for example, if P_IoH = 0.7, that means PB_Mstr_HDR will stick to 1/0.7 above PB_IDR).

Теперь нужно вычислить эквивалентное вертикальное масштабирование sc* в отношении диагонали sc_r.Now we need to calculate the equivalent vertical scaling sc* with respect to the diagonal sc_r.

Это можно сделать, применив математическую модель обратного вращения (фактически, сначала задав K и La для 1,0 вместо 1,4), перенеся представление по ФИГ. 13a на диагональ по ФИГ. 13b. Это приводит в результате использования матрицы поворота (любых x_r, y_r в диагональной системе, например, 1, dY, повернутых к основному представлению) к следующему:This can be done by applying a mathematical model of reverse rotation (in fact, by first setting K and La to 1.0 instead of 1.4), transferring the representation of FIG. 13a on the diagonal of FIG. 13b. This results in the use of a rotation matrix (any x_r, y_r in the diagonal system, e.g. 1, dY rotated to the main representation) to the following:

[x1, y1] = [cos(pi/4) -sin(pi/4); sin(pi/4) cos(pi/4)]*[1, P_HoI = 1/La][x1, y1] = [cos(pi/4) -sin(pi/4); sin(pi/4) cos(pi/4)]*[1, P_HoI = 1/La]

[x2, y2] = [cos(pi/4) -sin (pi/4); sin(pi/4) cos(pi/4)]*[1, P_HoS = 1/K] [Ур. 8][x2, y2] = [cos(pi/4) -sin(pi/4); sin(pi/4) cos(pi/4)]*[1, P_HoS = 1/K] [Lv. 8]

Следует отметить, что из-за диагонального масштабирования координаты x и y изменятся, но SG и HG, а также любое другое изменение масштабируемой точки в любом случае задаются как наклоны, а не углы.Note that due to diagonal scaling, the x and y coordinates will change, but SG and HG, and any other change in the scaled point, are given as slopes, not angles, anyway.

Поворот, начинающийся с линии от (0,0) на ФИГ. 13b до квадрата, представляющего собой диагонально масштабированную точку функции отображения яркости, к линии от (0,0) до круга, являющегося исходной точкой функции отображения светимости, или наоборот, можно найти, разделив наклоны по любому фиксированному значению абсциссы, например (изменению угла соответствует вертикальное изменение нормализованного коэффициента sc* масштабирования):A rotation starting from a line from (0,0) in FIG. 13b to a square representing the diagonally scaled point of the luminance mapping function, to a line from (0,0) to a circle being the origin of the luminance mapping function, or vice versa, can be found by dividing the slopes by any fixed value of the abscissa, for example (a change in angle corresponds to vertical change of the normalized scaling factor sc*):

sc* = (y2/x2)/(y1/x1) = [(1+1/K)/(1-1/K)]/[(1+1/La)/(1-1/La)] = [(K+1)/(K-1)]/[(La+1)/(La-1)] = [(La-1)*(K+1)]/[(La+1)*(K-1)] [Ур. 8]sc* = (y2/x2)/(y1/x1) = [(1+1/K)/(1-1/K)]/[(1+1/La)/(1-1/La)] = [(K+1)/(K-1)]/[(La+1)/(La-1)] = [(La-1)*(K+1)]/[(La+1)* (K-1)] [Lv. 8]

Затем необходимо вычислить фактическое расстояние n по оси ординат, соответствующее полному вертикальному масштабированию (sc* = 1), и это можно выполнить, осознав, что из-за угла 45 градусов, задействованного в диагональном масштабировании, mip является средней точкой, имеющей расстояние Fd под ней до диагонали и над ней до точки (mx, my) пересечения двух линейных отрезков функции para. Отсюда, n = Fd равно половине дифференциальной крутизны SG-1 при mx, т.е. mx*(SG-1)/2.The actual y-distance n corresponding to full vertical scaling (sc* = 1) must then be calculated, and this can be done by recognizing that, due to the 45 degree angle involved in the diagonal scaling, mip is the midpoint having a distance Fd under it to the diagonal and above it to the point (mx, my) of the intersection of two linear segments of the para function. Hence, n = Fd is equal to half of the differential slope of SG-1 at mx, i.e. mx*(SG-1)/2.

После этого необходимо вычислить смещенную точку (mxca, myca) пересечения, которая выглядит следующим образом:After that, you need to calculate the offset point (mxca, myca) of the intersection, which looks like this:

mxca = mx+d = mx+[mx*(SG-1)/2]*(1-sc*)mxca = mx+d = mx+[mx*(SG-1)/2]*(1-sc*)

myca = my-d = SG*mx-(mxca-mx) = -mxca+mx*(SG+1) [Ур. 9]myca = my-d = SG*mx-(mxca-mx) = -mxca+mx*(SG+1) [Lv. 9]

Определив местоположение новой точки, можно, наконец, вычислить адаптированное для канала усиление (SG_ca, см. ФИГ. 10) тени и адаптированное для канала усиление HG_ca бликов:With the location of the new point determined, one can finally compute the channel-adapted shadow gain (SG_ca, see FIG. 10) and the channel-adapted highlight gain HG_ca:

SG_ca = myca/mxcaSG_ca = myca/mxca

HG_ca = (myca-1)/(mxca-1) [Ур. 10]HG_ca = (myca-1)/(mxca-1) [Lv. 10]

Наконец, для параболического среднего отрезка есть несколько подходов/вариантов осуществления.Finally, there are several approaches/options for the parabolic middle segment.

В одном подходе, который на практике дает неплохие визуальные результаты, берется WP_ca = WP_gr, где WP_gr является исходной шириной параболического отрезка, оптимизированной специалистом по градуировке или автоматическим средством создателя контента, определяющим взаимосвязь между основным HDR-изображением и основным SDR-изображением, а WP_ca является шириной для адаптированной для канала функции para. Другой подход состоит в том, чтобы задавать WP_ca = v(abs(sc*), 100)*WP_gr, причем v-функция снова задается посредством приведенных выше уравнений 1 и 2.One approach that gives good visual results in practice is to take WP_ca = WP_gr, where WP_gr is the original width of the parabolic segment, optimized by a scaler or content creator's automatic tool that determines the relationship between the main HDR image and the main SDR image, and WP_ca is the width for the channel-adapted para function. Another approach is to define WP_ca = v(abs(sc*), 100)*WP_gr, with the v-function being again given by Equations 1 and 2 above.

При наличии эту доступную технологию можно использовать для формулирования подходящего определения IDR для SLHDR2PLUS.If available, this available technology can be used to formulate a suitable IDR definition for SLHDR2PLUS.

Возвращаясь к ФИГ. 10, приведенные выше уравнения определяют, как можно однозначно задать функцию F_Mt1_ca, например, для выбранной PB_IDR 1000 нит, начиная, например, с основного HDR-изображение с 5000 нит. Если эта функция определяется блоком 901 генерирования HDR-функции, она может быть выведена как F_H2hCI и отправлена в качестве входных данных для блока 902 вычисления IDR-изображения. Этот блок будет применять эту функцию ко всем светимостям пикселей изображения MsterHDR, которое он принимает как входное изображение [L_IDR = F_H2hCI(L_MsterHDR) = F_Mt1_ca(L_MsterHDR)], чтобы получать соответствующие светимости пикселей IDR-изображения, и он будет выводить IDR-изображение.Returning to FIG. 10, the above equations define how the F_Mt1_ca function can be uniquely set, for example, for a selected PB_IDR of 1000 nits, starting from, for example, a main HDR image with 5000 nits. If this function is determined by block 901 generate HDR function, it can be output as F_H2hCI and sent as input to block 902 calculate IDR image. This block will apply this function to all the pixel luminances of the MsterHDR image it receives as input image [L_IDR = F_H2hCI(L_MsterHDR) = F_Mt1_ca(L_MsterHDR)] to obtain the corresponding pixel luminosities of the IDR image, and it will output the IDR image.

Теперь все еще остается вопрос, какую функцию отображения светимости следует добавить в метаданных к IDR-изображению, чтобы оно выглядело так, как если бы это было обычное ETSI2-изображение (т.е. чтобы любой унаследованный ETSI2-декодер мог нормально его декодировать, выводя SDR-изображение или любое MDR-изображение так, как оно должно выглядеть).Now the question still remains what luminance mapping function should be added to the metadata of an IDR image so that it looks like it is a normal ETSI2 image (i.e. so that any legacy ETSI2 decoder can decode it normally, outputting SDR image or any MDR image as it should look).

Эта вторичная функция F_I2sCI отображения светимости IDR, которая также будет функцией para, может быть задана следующим образом (и она будет вычисляться генератором 903 функции отображения IDR). Усиление тени для IDR-изображения SG_IDR можно рассматривать как остаточное умножение (или наклон) после перехода от Mster_HDR к IDR-изображению (т.е. оставшееся относительное увеличение яркости для получения SDR-изображения, начиная с IDR-изображения):This secondary IDR luminance mapping function F_I2sCI, which will also be a para function, can be defined as follows (and it will be calculated by the IDR mapping function generator 903). The shadow enhancement for the IDR image SG_IDR can be thought of as the residual multiplication (or slope) after the transition from Mster_HDR to the IDR image (i.e. the remaining relative increase in brightness to obtain an SDR image starting from the IDR image):

Y_out(x_in) = SG_gr*x_in; = F_I2sCI(L_IDR = SG_ca*x_in)Y_out(x_in) = SG_gr*x_in; = F_I2sCI(L_IDR = SG_ca*x_in)

Также известно, что такое же отображение линейных отрезков функции para для самых темных пикселей применяется к новым входным значениям яркости IDR:We also know that the same line segment mapping of the para function for the darkest pixels is applied to the new input IDR brightness values:

Y_out = SG_IDR*L_IDRY_out = SG_IDR*L_IDR

Отсюда:From here:

SG_gr = SG_IDR*SG_ca [Ур. 11]SG_gr = SG_IDR*SG_ca [Lv. eleven]

(например, если взять входное значение x_in = L_Mster_HDR = 0,2, то оно отображается по диагонали в L_IDR = 0,3 = (0,3/0,2)*x_in, которое, наконец, отображается в Y_out = 0,4 = k*0,3, где k = 0,4/0,3; Y_out = SG_gr*0,2 = (0,4)*0,2 = (0,4/0,3)*(0,3/0,2)*0,2).(for example, if you take the input value x_in = L_Mster_HDR = 0.2, then it is mapped diagonally to L_IDR = 0.3 = (0.3/0.2)*x_in, which is finally mapped to Y_out = 0.4 = k*0.3 where k = 0.4/0.3 Y_out = SG_gr*0.2 = (0.4)*0.2 = (0.4/0.3)*(0.3 /0.2)*0.2).

Таким образом, из уравнения 11 следует следующий способ вычисления необходимой SG_IDR (при условии, что был использован фиксированный подход к определению SG_ca, как описано выше):Thus, Equation 11 implies the following way to calculate the required SG_IDR (assuming a fixed approach to determining SG_ca has been used as described above):

SG_IDR = SG_gr/SG_ca [Ур. 12]SG_IDR = SG_gr/SG_ca [Lv. 12]

По аналогии:Similarly:

HG_IDR = HG_gr/HG_ca [Ур. 13]HG_IDR = HG_gr/HG_ca [Lv. 13]

При этом HG_gr снова является оптимальным усилением бликов, определяемым создателем контента, определяющим взаимосвязь между видом основного SDR-изображения и видом основного HDR-изображения (т.е. его распределение яркостей), а HG_ca является адаптированным для канала усилением бликов, соответствующим исходному усилению HG_gr бликов.Here, HG_gr is again the optimal specular gain defined by the content creator defining the relationship between the view of the main SDR image and the view of the main HDR image (i.e. its brightness distribution), and HG_ca is the channel-adapted specular gain corresponding to the original gain HG_gr glare.

Следует отметить, что базовая регулировка усиления тени может быть определена относительно ожидаемого простого усиления тени, исходя из разницы в пиковой яркости между SDR-изображением и IDR-изображением, следующим образом: ShadBst = SG_IDR/P_IoS. Как сказано, P_IoS является максимальной кодируемой светимостью IDR-изображения, когда она представлена ​​на нормализованной оси яркости SDR-изображения, т.е., например, 7,0.It should be noted that the basic shadow gain control can be determined relative to the expected simple shadow gain based on the difference in peak brightness between the SDR image and the IDR image as follows: ShadBst = SG_IDR/P_IoS. As said, P_IoS is the maximum encoded luminosity of an IDR image when it is represented on the normalized luma axis of an SDR image, i.e. 7.0 for example.

Следует отметить, что существуют некоторые практические варианты осуществления, в которых усиление бликов не может быть больше заранее определенного числа (таким способом, каким стандарт ETSI кодирует усиления бликов), и в этом случае требуется дальнейшее повторное вычисления усиления бликов, см. ниже, но это не обязательно для всех вариантов осуществления. Это можно реализовать, например, следующим образом:It should be noted that there are some practical implementations in which the glare gain cannot be greater than a predetermined number (in the way that the ETSI standard encodes the glare gains), in which case further recalculation of the glare gain is required, see below, but this not necessary for all embodiments. This can be implemented, for example, as follows:

Если HG_IDR>KLIM, то HG_IDR_adj = KLIM, [Ур. 14] If HG_IDR>KLIM, then HG_IDR_adj = KLIM, [Lv. 14]

причем KLIM предпочтительно равно 0,5.wherein KLIM is preferably 0.5.

В самом деле, если допустить, что специалист по градуировке сделал HG_gr близким к максимальному значению 0,5, а соответствующее HG_ca (которое в качестве более мягкого отображения должно иметь HG_ca ближе к диагонали, т.е. быть больше, чем HG_gr), например, равным 0,75, тогда можно обнаружить, что результат деления составляет 0,67, что выше максимального значения, которое может передаваться в соответствии со стандартизованным чистым видеосигналом HDR ETSI2. Решение, например, состоит в том, чтобы заново определить меньшее HG_gr так, чтобы HG_IDR не было выше 0,5, т.е. стандартизованного максимума. Это снова потребует значительных вычислений, учитывая все аспекты повторной градуировки, как будет показано ниже. Другой вариант, например, заключается в том, чтобы сделать сигнал «метаданные + IDR» совместимым посредством ограничения HG_IDR значением 0,5, при этом передавая в качестве дополнительных метаданных точное неограниченное HG_IDR. HG_gr обычно будет зависеть не только от PB_C изображения Mster_HDR, но и также и от того, какой тип объектов изображения находится на изображении (например, яркие цветные объекты, которые достаточно важны, чтобы не выполнять слишком сильное сжатие их светимостей, причем крайним примером является изображение яркой планеты рядом с мощным солнцем, которое градуируется с помощью множества очень высоких значений яркости L_Mster_HDR и нескольких низких яркостей). HG_ca обычно будет зависеть, среди прочего, от того, насколько близко выбранная PB_IDR к PB_Mster_HDR.Indeed, if we assume that the calibrator made HG_gr close to the maximum value of 0.5, and the corresponding HG_ca (which, as a softer mapping, should have HG_ca closer to the diagonal, i.e. be greater than HG_gr), for example equal to 0.75, then it can be found that the division result is 0.67, which is higher than the maximum value that can be transmitted according to the ETSI2 standardized pure HDR video signal. The solution, for example, is to redefine a smaller HG_gr so that HG_IDR is not higher than 0.5, i.e. standardized maximum. This again requires significant computation, considering all aspects of recalibration, as will be shown below. Another option, for example, is to make the metadata + IDR signal compatible by limiting HG_IDR to 0.5 while passing the exact unrestricted HG_IDR as additional metadata. HG_gr will usually depend not only on the PB_C of the Mster_HDR image, but also on what type of image objects are in the image (e.g. bright colored objects that are important enough not to compress their luminosities too much, with the image being an extreme example a bright planet near a powerful sun that is calibrated with many very high L_Mster_HDR brightness values and a few low brightness values). HG_ca will typically depend on, among other things, how close the selected PB_IDR is to PB_Mster_HDR.

Кроме того, предположим, что WP_IDR = WP_gr [Ур. 15]Also, suppose WP_IDR = WP_gr [Lv. 15]

Как было сказано, возможны и другие варианты осуществления, но с целью упрощения пояснения принципов будет использовано вышеприведенное предположение.As has been said, other embodiments are possible, but for the purpose of simplifying the explanation of the principles, the above assumption will be used.

С помощью уравнений 6 были вычислены соответствующие адаптированные для канала значения смещения уровня черного и смещения уровня белого (при условии, что такие смещения были определены создателем контента). Теперь остается вычислить (кодером видео IDR) соответствующие значения BLO_IDR и WLO_IDR.Using Equations 6, the corresponding channel-adapted black offset and white offset values were calculated (assuming such offsets were defined by the content creator). It now remains to calculate (by the IDR video encoder) the corresponding BLO_IDR and WLO_IDR values.

Сначала в предпочтительном способе кодирования вычисляется значение glim:First, the glim value is calculated in the preferred encoding:

glim = {log[1+(rhoSDR-1)*power((0,1/100); 1/2,4)]/log(rhoSDR)}/{log[1+(rhoHDR-1)*power(1/PB_Mster_HDR; 1/2,4)]/log(rhoHDR)} [Ур. 16]glim = {log[1+(rhoSDR-1)*power((0.1/100); 1/2.4)]/log(rhoSDR)}/{log[1+(rhoHDR-1)*power( 1/PB_Mster_HDR;1/2,4)]/log(rhoHDR)} [Lv. 16]

где rhoSDR = 1+32*power(100/10000; 1/2,4), иwhere rhoSDR = 1+32*power(100/10000; 1/2.4), and

rhoHDR = 1+32*power(PB_Mster_HDR/10000; 1/2,4).rhoHDR = 1+32*power(PB_Mster_HDR/10000; 1/2.4).

Это позволит упростить адаптацию BLO, поскольку на самом деле в стандартном подходе ETSI1 и ETSI2 к HDR-кодированию имеется параллель с последовательностью обработки светимости (т.е. между блоками 402-406 по ФИГ. 4 и блоками 1502-1506 по ФИГ. 15), причем на фигурах для простоты понимания поясняются только частичные последовательные этапы повторной градуировки в подходе заявителя, а также линейный ограничитель усиления, применяющий линейную кривую с углом glim к перцептивной Y'HP и выполняющий сравнение со значением Y'GL, вычисленным с помощью поясненных блоков, и выбирающий максимальное из двух значений, вычисленных параллельно (это, в частности, важно для обратимости ETSI1, чтобы можно было восстанавливать самые низкие яркости HDR).This will simplify the adaptation of BLO, since in fact there is a parallel with the luminosity processing sequence in the standard ETSI1 and ETSI2 approach to HDR coding (i.e. between blocks 402-406 of FIG. 4 and blocks 1502-1506 of FIG. 15) , with the figures explaining for ease of understanding only partial successive recalibration steps in Applicant's approach, as well as a linear gain limiter applying a linear curve with angle glim to the perceptual Y'HP and performing a comparison with the Y'GL value calculated using the explained blocks, and choosing the maximum of two values computed in parallel (this is particularly important for the reversibility of ETSI1 so that the lowest HDR luminances can be recovered).

Теперь можно показать, что благодаря действию этого ограничителя значения BLO можно легко адаптировать для канала с помощью следующего уравнения:It can now be shown that, due to the action of this limiter, the BLO values can be easily adapted to the channel using the following equation:

BLO_IDR = BLO_gr*glim [Ур. 17]BLO_IDR = BLO_gr*glim [Lv. 17]

glim, как показано выше, зависит от конкретного выбора PB_Mster_HDR и может, например, быть равным 0,6.glim, as shown above, depends on the particular choice of PB_Mster_HDR and may, for example, be equal to 0.6.

Это проиллюстрировано на ФИГ. 17. На ФИГ. 17b показано увеличение самых низких яркостей при отображении яркости полного диапазона, показанном на ФИГ. 17а. Различные функции снова показаны на нормализованном графике, которые соответствуют различным входным PB_C и выходным PB_C.This is illustrated in FIG. 17. In FIG. 17b shows the increase in the lowest luminances in the full range luminance display shown in FIG. 17a. The different functions are again shown in the normalized plot, which correspond to different input PB_Cs and output PB_Cs.

FL_gr представляет собой функцию, созданную создателем контента для отображения, например, Mster_HDR с 4000 нит в SDR с 4000 нит. Пунктирная кривая FL_ca представляет собой адаптацию канала для получения, например, IDR с 500 нит из Mster_HDR. Пунктирная кривая FL_IDR представляет собой кривую для отображения яркостей IDR в яркости SDR. На увеличенном графике на ФИГ. 17b видно, что кривая FL_gr имеет резкий перегиб при входном значении около 0,03, где срабатывает параллельный ограничитель усиления (т.е. его линейное выходное значение y = glim*Y'HP выбирается в качестве выходного значения функции для низких входных значений яркости вместо значения Y'GL, получаемого в результате функционирования всех блоков в последовательности, как показано на ФИГ. 4 (полное описание схемы см. на ФИГ. 4, относящейся к стандарту ETSI1)).FL_gr is a function created by the content creator to display, for example, a 4000 nit Mster_HDR to a 4000 nit SDR. The dotted curve FL_ca represents the channel adaptation to obtain, for example, a 500 nit IDR from Mster_HDR. The dotted curve FL_IDR is a curve for mapping IDR luminances to SDR luminances. On the enlarged graph in FIG. 17b shows that the FL_gr curve has a sharp kink at an input value of about 0.03 where the parallel gain limiter kicks in (i.e. its linear output value y = glim*Y'HP is chosen as the output value of the function for low input luminance values instead of the Y'GL value resulting from the operation of all the blocks in the sequence as shown in FIG 4 (for a complete description of the circuit, see FIG 4 related to the ETSI1 standard)).

Значение BLO любой кривой представляет собой пересечение с горизонтальной осью, которое произошло бы, если бы не было ограничения усиления, т.е., например, BLO_gr, показанного посредством продления локального наклона выше значения 0,3 кривой FL_gr, как показано пунктирной линией.The BLO value of any curve represents the intersection with the horizontal axis that would occur if there were no gain limitation, ie, for example, BLO_gr, shown by extending the local slope above the 0.3 value of the FL_gr curve, as shown by the dotted line.

В рамках настоящей заявки достаточно знать, что можно также продлевать кривую FL_IDR для получения значения BLO_IDR (следует отметить, что есть значение glim_IDR, которое будет использоваться в стандарте ETSI2 и которое отличается от glim_gr), и что это более низкое значение BLO_IDR можно найти как glim*BLO_gr (следует отметить, что единственное значение glim, вычисление которого необходимо для SLHDR2PLUS, это то, которое показано на ФИГ. 17b как glim_gr).For the purposes of this application, it is sufficient to know that one can also extend the FL_IDR curve to obtain a BLO_IDR value (note that there is a glim_IDR value to be used in the ETSI2 standard that is different from glim_gr), and that this lower BLO_IDR value can be found as glim *BLO_gr (Note that the only glim value that needs to be computed for SLHDR2PLUS is the one shown in FIG. 17b as glim_gr).

Затем для получения WLO_IDR выполняются следующие вычисления.The following calculations are then performed to obtain the WLO_IDR.

На ФИГ. 17a также показано, что существует три разных WLO, а именно WLO_gr, изначально созданное специалистом по градуировке в качестве его основной стратегии отображения из HDR в SDR (также показано как «ON» на ФИГ. 12b), WLO_ca, адаптированного для канала, при котором кривая FL_ca пересекает верхнюю горизонтальную линию и которое является отображением яркости WLO_gr на ось яркости IDR (что можно представить с помощью представлений, подобных показанным на ФИГ. 12, где MXH проецируется на MXI), и, наконец, есть также WLO_IDR, которое является WLO, остающимся для преобразования яркостей IDR в SDR (которое не совпадает с масштабированным WLO_ca, потому что определение нормализованной оси абсцисс для яркости изменяется, начиная со связанной PB_C = 5000 для WLO_gr и WLO_ca, поскольку входное изображение для повторной градуировки с помощью этих функций представляет собой Mster_HDR с 5000 нит, и заканчивая PB_C = 1000 нит для связанных с IDR определений при потребностях в повторной градуировке в силу того, что в этом совместимом с ETSI2 представлении начальное изображение для получения других изображений из того, что принято, является, например, IDR-изображением с PB_C 1000 нит).FIG. 17a also shows that there are three different WLOs, namely WLO_gr, originally created by the scaler as his main mapping strategy from HDR to SDR (also shown as "ON" in FIG. 12b), WLO_ca adapted for the channel, in which the FL_ca curve intersects the upper horizontal line and which is the WLO_gr luminance mapping onto the IDR luminance axis (which can be represented with representations like those shown in FIG. 12 where MXH is projected onto MXI), and finally there is also WLO_IDR which is WLO, remaining for the IDR to SDR luminance conversion (which is not the same as the scaled WLO_ca because the definition of the normalized abscissa for luminance changes starting from the associated PB_C = 5000 for WLO_gr and WLO_ca because the input image for regrading with these functions is Mster_HDR with 5000 nits, ending with PB_C = 1000 nits for IDR-related definitions for force recalibration needs that in this ETSI2 compliant representation, the start image for deriving other images from what is received is, for example, an IDR image with a PB_C of 1000 nits).

На ФИГ. 17c увеличен масштаб этого верхнего угла (около [1,1]) графика функции. Значение WLO_IDR следует из использования значения WLO_gr в качестве входного значения для кривой FL_ca, как показано круговой проекцией из (нормализованной) позиции на оси ординат в позицию на оси абсцисс. На ФИГ. 12b видно, что позиция MXI действительно является нормализованной позицией на оси яркости IDR, которая отображается в яркость SDR, равную 1,0, вследствие чего она соответствует по определению WLO_IDR.FIG. 17c zoomed in on this top corner (about [1,1]) of the function graph. The value of WLO_IDR results from using the value of WLO_gr as input to the FL_ca curve, as shown by a circular projection from the (normalized) position on the y-axis to the position on the abscissa. FIG. 12b, it can be seen that the MXI position is indeed a normalized position on the IDR luminance axis, which maps to an SDR luminance of 1.0, whereby it conforms to the definition of WLO_IDR.

На первый взгляд можно подумать, что если кривая отображения, через которую значение WLO впоследствии поступает на сторону кодирования, является функцией para (см. на Фиг.4 отображение посредством блока 404 после блока 403), то обычно будет задействован именно верхний линейный отрезок функции para.At first glance, one might think that if the mapping curve, through which the WLO value subsequently enters the encoding side, is a para function (see in Fig. 4 mapping by block 404 after block 403), then it is usually the upper linear segment of the para function that will be involved. .

Однако в зависимости от того, как задана функция para, любая ее часть может быть задействована (существуют даже настройки, при которых просто специальное значение SG функции para задает очень высокую точку пересечения, теоретически перемещающуюся выше 1,0, вследствие чего поведение функции в этом случае вплоть до самых высоких яркостей определяется только наклоном усиления тени, что приводит к линейной кривой, которая полезна для повторной градуировки в SDR HDR-изображения, содержащего в основном очень высокие яркости, как, например, планета-пустыня, освещенная 5 солнцами в научно-фантастическом фильме). Следовательно, требуется довольно сложное вычисление в случае, когда необходимо проверить, какой из трех отрезков функции para является применимым, при этом предпочтительная математическая реализация выглядит следующим образом:However, depending on how the para function is set, any part of it can be involved (there are even settings where just the special SG value of the para function sets a very high crossover point, theoretically moving above 1.0, causing the function to behave in this case up to the highest luminances is only determined by the shadow gain slope, resulting in a linear curve that is useful for regrading in an SDR HDR image containing mostly very high luminances, such as a desert planet illuminated by 5 suns in a sci-fi movie). Therefore, a fairly complex calculation is required in the case where it is necessary to check which of the three segments of the para function is applicable, while the preferred mathematical implementation is as follows:

WLO_co = 255*WLO_ca/510WLO_co = 255*WLO_ca/510

BLO_co = 255*BLO_ca/2040BLO_co = 255*BLO_ca/2040

Xh = (1-HG_ca)/(SG_ca-HG_ca)+WP_caXh = (1-HG_ca)/(SG_ca-HG_ca)+WP_ca

WW = (1-WLO_gr*255/510-BLO_co)/(1-WLO_co-BLO-co)WW = (1-WLO_gr*255/510-BLO_co)/(1-WLO_co-BLO-co)

IF WW>= Xh, ТО WLO_IDR = HG_ca*(1-WW)*510/255 [верхний линейный отрезок]IF WW>= Xh, TO WLO_IDR = HG_ca*(1-WW)*510/255 [upper line segment]

ELSE {ELSE {

Xs = (1-HG_ca)/(SG_ca-HG_ca)-WP_caXs = (1-HG_ca)/(SG_ca-HG_ca)-WP_ca

IF WW>XsIF WW>Xs

{[входное значение, т.е. WLO_gr, должно отображаться через параболическую подчасть функции para, адаптированной для канала]{[input value, i.e. WLO_gr, should be rendered via a parabolic subpart of the channel-adapted para function]

A = -0,5*(SG_ca-HG_ca/(2*WP_ca))A = -0.5*(SG_ca-HG_ca/(2*WP_ca))

B = (1-HG_ca)/(2*WP_ca)+(SG_ca+HG_ca)/2B = (1-HG_ca)/(2*WP_ca)+(SG_ca+HG_ca)/2

C = -[(SG_ca-HG_ca)*(2*WP_ca)-2*(1-HG_ca)]^2 / (8*(SG_ca-HG_ca)*2*WP_ca)C = -[(SG_ca-HG_ca)*(2*WP_ca)-2*(1-HG_ca)]^2 / (8*(SG_ca-HG_ca)*2*WP_ca)

WLO_IDR = (1-(A*WW*WW+B*WW+C))*510/255WLO_IDR = (1-(A*WW*WW+B*WW+C))*510/255

}}

ELSE [в особых случаях, когда применяется подчасть функции para для усиления тени]ELSE [in special cases where a subpart of the para function is used to enhance the shadow]

WLO_IDR = (1-SG_ca*WW)*510/255WLO_IDR = (1-SG_ca*WW)*510/255

}}

Эти параметры SG_IDR, HG_IDR, WP_IDR, BLO_IDR, WLO_IDR (и при необходимости аналогичные дополнительные параметры для настраиваемой кривой) являются параметрами, которые характеризуют и, следовательно, выводятся как функция F_I2sCI (то, действительно ли выводятся эти параметры, характеризующие форму этой необходимой кривой с целью выполнения адаптации дисплея, или выводится LUT, характеризующая функцию, зависит только от выбора варианта осуществления; главное, чтобы правильная форма функции F_I2sCI отображения светимости в нормализованной до 1,0 системе осей передавалась совместно с IDR-изображением (IDR-изображениями) в виде метаданных).These parameters SG_IDR, HG_IDR, WP_IDR, BLO_IDR, WLO_IDR (and, if necessary, similar additional parameters for the custom curve) are parameters that characterize and are therefore output as a function of F_I2sCI (whether or not these parameters characterizing the shape of this desired curve with the purpose of performing display adaptation, or whether the LUT characterizing the function is output depends only on the choice of implementation; the main thing is that the correct form of the luminance display function F_I2sCI in a normalized to 1.0 axis system is transmitted along with the IDR image (IDR images) in the form of metadata ).

Кодер теперь характеризуется в соответствии с новым подходом SLHDR2PLUS. Тогда возникает вопрос, как должен быть спроектирован декодер. Надо понимать, что этот декодер теперь получит только функцию F_I2sCI, поэтому он должен каким-то образом вычислять функцию F_ ??, необходимую для восстановления исходного изображения Mster_HDR из принятого IDR-изображения. В этом подходе SLHDR2PLUS к кодированию это была бы функция, обратная функции F_H2hCI, используемой в кодере для генерирования яркостей IDR, но такая функция все равно должна подаваться вычислению.The encoder is now characterized according to the new SLHDR2PLUS approach. The question then becomes how the decoder should be designed. It should be understood that this decoder will now only receive the F_I2sCI function, so it must somehow calculate the F_?? function needed to reconstruct the original Mster_HDR image from the received IDR image. In this SLHDR2PLUS approach to encoding, this would be the inverse function of the F_H2hCI function used in the encoder to generate the IDR luminances, but such a function must still be fed to the calculation.

В показанном на ФИГ. 11 в общем виде декодере 1100 видео SLHDR2PLUS блок 1104 определения функции светимости должен вычислять F_ ?? функцию на основе только информации, которую он принимает, т.е. F_I2sCI, а также двух пиковых яркостей PB_CH и PB_C_H50. Как только эта функция определена, ее можно применять для восстановления исходных светимостей Mster_HDR, применяя ее (в преобразователе 1102 цвета) к принятым яркостям IDR: L_REC_M_HDR = F_??(L_IDR), из которых могут быть вычислены соответствующие светимости HDR посредством применения уравнений, которые обратны уравнениям 1 и 2, к этим яркостям L_REC_M_HDR. Наконец, восстановленное основное HDR-изображение (REC_M_HDR) может быть выведено преобразователем 1102 цвета в любом желаемом формате, например, в цветовом представлении YCbCr на основе PQ и т.д. Декодер 1100 может в предпочтительных вариантах осуществления также быть выполнен с возможностью вычисления любого адаптированного для дисплея изображения, например, MDR_300 в случае, если подключенный дисплей с PB_D 300 нит должен снабжаться лучшим эквивалентом принимаемого HDR-изображения, и это может быть выполнено либо с помощью математической модели SLHDR2PLUS, либо просто с помощью обычного ETSI2-декодирования, поскольку соответствующее изображение (IDR) и функция (F_I2sCI) отображения светимости уже доступны в качестве входных данных в преобразователе 1102 цвета).In the shown in FIG. 11 in the general view of the SLHDR2PLUS video decoder 1100, the luminance function determiner 1104 must calculate F_ ?? function based only on the information it receives, i.e. F_I2sCI, as well as two peak brightnesses PB_CH and PB_C_H50. Once this function is defined, it can be used to reconstruct the original Mster_HDR luminosities by applying it (in the color mapper 1102) to the received IDR luminances: L_REC_M_HDR = F_??(L_IDR), from which the corresponding HDR luminosities can be calculated by applying the equations that are inverse to equations 1 and 2, to these L_REC_M_HDR luminances. Finally, the reconstructed HDR main image (REC_M_HDR) can be output by the color converter 1102 in any desired format, such as PQ-based YCbCr color representation, etc. Decoder 1100 may in preferred embodiments also be configured to compute any display adapted image, e.g. MDR_300, in case the connected display with a PB_D of 300 nits is to be provided with a better equivalent of the received HDR image, and this may be done either by mathematical SLHDR2PLUS model, or simply using conventional ETSI2 decoding, since the corresponding image (IDR) and luminance mapping function (F_I2sCI) are already available as input to the color converter 1102).

На ФИГ. 14 показано, что именно в функции para используется для восстановления изображения REC_M_HDR из принятого IDR-изображения (аналогичные вычисления будут выполнены для WLO и BLO, а также для настраиваемых точек формы кривой, где это применимо (следует отметить, что, как обсуждается ниже, некоторые варианты осуществления не будут применять философию настраиваемой кривой между Mster_HDR и IDR, а только технологию понижающей градуировки SDR, т.е. между IDR и SDR).FIG. 14 shows what exactly is used in the para function to reconstruct the REC_M_HDR image from the received IDR image (similar calculations will be performed for WLO and BLO, and for custom curve shape points where applicable (note that, as discussed below, some embodiments will not apply a tailor-made curve philosophy between Mster_HDR and IDR, but only SDR downscaling technology, i.e. between IDR and SDR).

Теперь необходимо вычислить новое усиление тени (SG_REC) и новое усиление (HG_REC) бликов для восстановления основного HDR, а также вычислить обратное параболическое уравнение для параболического отрезка, чтобы найти необходимую форму F_L_RHDR функции para для отображения светимости при восстановлении (следует отметить, что просто в целях иллюстрации обратная функция отображения светимости из SDR в Mster_HDR также показана на этом нормализованном графике пунктирной линией; следует отметить, что из-за свойства обратной функции отображения SDR в HDR, усиление тени этой кривой SG_RM равно 1/SG_gr и т.д.).Now it is necessary to calculate the new shadow gain (SG_REC) and the new highlight gain (HG_REC) to restore the main HDR, and also calculate the inverse parabolic equation for the parabolic segment to find the necessary form F_L_RHDR of the para function to display the luminosity when restored (it should be noted that it is simple in for purposes of illustration, the inverse luminosity mapping function from SDR to Mster_HDR is also shown in this normalized plot as a dotted line, note that due to the property of the inverse mapping function of SDR to HDR, the shadow gain of this SG_RM curve is 1/SG_gr etc.).

На ФИГ. 15 сначала поясняются некоторые аспекты типичной топологии базовых вычислений декодера 1502. Как можно видеть, это примерно та же структура, что и у кодера, несмотря на то, что он выполняет повторную градуировку в противоположном направлении (восстановление REC_M_HDR из IDR), что удобно, поскольку при необходимости можно легко переконфигурировать такую ​​топологию вычислений. Если блок 1501 отображения светимости получает полную LUT (всех частичных последовательных действий по повторной градуировке), он действительно будет функционировать таким же образом, как и кодер.FIG. 15 first explains some aspects of a typical basic computation topology of the decoder 1502. As can be seen, this is roughly the same structure as the encoder, despite the fact that it recalibrates in the opposite direction (recovery of REC_M_HDR from IDR), which is convenient because such a computing topology can be easily reconfigured if necessary. If the luminosity mapper 1501 receives the full LUT (of all partial recalibration steps), it will indeed function in the same manner as the encoder.

Конечно, необходимо сформировать некоторые отличия, чтобы декодер выполнял правильную повторную градуировку при восстановлении HDR. Во-первых, L_in теперь будет нормализованной светимостью IDR, а выходная светимость Lh будет нормализованной светимостью, которая корректно масштабируется, например, для воспроизведения на дисплее с PB_D 5000 нит. Также ясно, что последний множитель, который дает цвета (Rs, Gs, Bs) пикселей изображения REC_M_HDR, теперь умножается на значение PB_C_H50, принятое в метаданных. Фактически, внешний цикл вычисления перцептуализации, выполняемый блоком 1502 перцептуализации и блоком 1506 линеаризации, применяет значения PB_CH и PB_C_H50, соответственно, в уравнениях 1, 2 и обратных им уравнениях. Также следует отметить, что теперь порядок различных частичных повторных градуировок в той степени, в которой они присутствуют, является обратным: сначала воспринимаемая яркость Y'IP IDR точно градуируется обратной настраиваемой кривой в блоке 1503 точной градуировки, давая в результате повторно градуированные яркости Y'IPG IDR. После этого первое отображение на ось яркости HDR (т.е. в соответствующие перераспределенные яркости для соответствующего правильного вида HDR, фактически, вид Mster_HDR с PB_C_H50 5000 нит) выполняется блоком 1504 грубого отображения светимости, который применяет обратную функцию para по ФИГ. 14, которую все еще необходимо правильно вычислить, и он даст в результате исходные яркости Y'HC HDR. Наконец, блок 1505 обратного смещения черного и белого будет создавать правильные нормализованные яркости (Y’HR) REC_M_HDR, которые должны использоваться в дальнейших вычислениях с использованием цветностей, чтобы получать полный трехмерный цвет для каждого пикселя. Как было пояснено, блок 1504 будет обычно получать вычисленное SG_REC и т.д. (или LUT-версию функции отображения яркости, которая должна применяться в соответствии с этими тремя значениями). Следует отметить, что если различные значения PW оставались идентичными, тогда WP_REC снова будет WP_gr. Блок 1505 аналогичным образом будет получать смещение черного и белого для восстановления Mster_HDR (WLO_REC, BLO_REC). Нижняя часть основного блока, выполняющего хроматическую обработку (процессор 1550 цветности), будет аналогична топологии кодера по ФИГ. 4, за исключением загрузки правильной C_LUT F_C [Y] в блок 1551 определения хроматической обработки (см. поясняющие это вычисление ниже).Of course, some differences need to be generated in order for the decoder to perform the correct recalibration when HDR is restored. First, L_in will now be the normalized IDR luminosity and the output luminosity Lh will be the normalized luminosity that scales correctly, for example, to display on a display with a PB_D of 5000 nits. It is also clear that the last multiplier, which gives the colors (Rs, Gs, Bs) of the pixels of the REC_M_HDR image, is now multiplied by the PB_C_H50 value adopted in the metadata. In fact, the outer perceptualization calculation loop, performed by the perceptualizer 1502 and the linearizer 1506, applies the values of PB_CH and PB_C_H50, respectively, to Equations 1, 2, and their inverses. It should also be noted that the order of the various partial recalibrations, to the extent that they are present, is now reversed: first, the perceived luminance Y'IP IDR is finely calibrated by the inverse tuning curve in fine grading block 1503, resulting in recalibrated Y'IPG luminances. IDR. Thereafter, the first mapping to the HDR luma axis (i.e., to the respective redistributed luminances for the respective correct HDR view, in fact, the Mster_HDR view with PB_C_H50 5000 nits) is performed by coarse luminance mapping block 1504, which applies the inverse para function of FIG. 14, which still needs to be computed correctly, and will result in the original Y'HC HDR luminances. Finally, the black and white inverse bias block 1505 will produce the correct normalized luminances (Y'HR) REC_M_HDR to be used in further chromaticity calculations to obtain the full 3D color for each pixel. As explained, block 1504 will typically receive the computed SG_REC, and so on. (or a LUT version of the brightness mapping function to be applied according to those three values). It should be noted that if the various PW values remained identical, then WP_REC would again be WP_gr. Block 1505 will similarly obtain the black and white offset to restore Mster_HDR (WLO_REC, BLO_REC). The lower part of the main chromatic processing unit (color processor 1550) will be similar to the encoder topology of FIG. 4, except for loading the correct C_LUT F_C [Y] into the chromatic processing determination block 1551 (see below for explanations of this calculation).

Теперь вопрос заключается в том, можно ли и каким образом вычислить параметры функций, которые должны применяться в декодере, запрограммированном для восстановления Mster_HDR из IDR (такая ситуация не возникала раньше при декодировании HDR-видео).Now the question is whether and how to calculate the parameters of the functions that should be used in a decoder programmed to recover Mster_HDR from IDR (this situation did not occur before when decoding HDR video).

Например, можно понять подход к усилению тени.For example, you can understand the approach to enhancing the shadow.

Перед вычислением SG_REC можно поинтересоваться, может ли быть определено общее усиление SG_RM тени от SDR до Mster_HDR, и на основании этого можно тогда с помощью деления в уравнении 12 определить SG_REC.Before calculating SG_REC, one may wonder if the total shadow enhancement SG_RM from SDR to Mster_HDR can be determined and based on this, SG_REC can then be determined by dividing in Equation 12.

Итак, SG_IDR = SG_gr/SG_ca.So SG_IDR = SG_gr/SG_ca.

Также можно показать, что SG_ca = (mx/mxca)*(SG_gr+1)-1.It can also be shown that SG_ca = (mx/mxca)*(SG_gr+1)-1.

Это можно заметить, исходя из того, что myca = SG_ca*mxca (по определению нижнего линейного отрезка адаптированной для канала функции para), а также myca = my-d = mx*SG_gr+(mx-mxca).This can be seen based on the fact that myca = SG_ca*mxca (by definition of the lower linear segment of the para function adapted for the channel), and also myca = my-d = mx*SG_gr+(mx-mxca).

Второе соотношение mxca/mx получается путем деления верхнего из уравнений 9 на mx.The second ratio mxca/mx is obtained by dividing the top of equations 9 by mx.

Поскольку, подставив первое соотношение во второе (удалив часть mx/mxca), можно записать SG_ca через SG_gr, теперь между SG_IDR и SG_gr формируется окончательная взаимосвязь:Since, by substituting the first relation into the second (removing the mx/mxca part), one can write SG_ca through SG_gr, the final relationship is now formed between SG_IDR and SG_gr:

SG_ca = (SG_gr+1)/[(SG_gr-1)*(1-sc*)/2+1]-1.SG_ca = (SG_gr+1)/[(SG_gr-1)*(1-sc*)/2+1]-1.

Откуда:Where:

SG_IDR = SG_gr/{(SG_gr+1)/[(SG_gr-1)*(1-sc*)/2+1]-1} [Ур. 18]SG_IDR = SG_gr/{(SG_gr+1)/[(SG_gr-1)*(1-sc*)/2+1]-1} [Lv. 18]

Это уравнение теперь может быть решено для неизвестного SG_gr, учитывая известное (принятое) SG_IDR (а sc* было вычислено только из пиковых яркостей, которые также известны, поскольку принимаются как PB_CH, т.е. PB_IDR, так и PB_C_H50, и PB_SDR обычно составляет 100 нит, но иначе оно также может быть помещено в метаданные сигнала).This equation can now be solved for the unknown SG_gr given the known (received) SG_IDR (and sc* was calculated only from the peak luminances, which are also known since both PB_CH, i.e. PB_IDR and PB_C_H50 are received, and PB_SDR is usually 100 nits, but otherwise it could also be placed in the signal's metadata).

Используя SG_IDR = y и SG_gr = x для упрощенной записи, получим тогда, что:Using SG_IDR = y and SG_gr = x for simplified notation, we then get that:

y = [(x-1)*(1-sc*)*x/2+x]/[x-(x-1)*(1-sc*)/2].y = [(x-1)*(1-sc*)*x/2+x]/[x-(x-1)*(1-sc*)/2].

Следовательно: x^2+x*(y-1)*[(sc*+1)/(sc*-1)]-y = 0 [Ур. 19]Therefore: x^2+x*(y-1)*[(sc*+1)/(sc*-1)]-y = 0 [Eq. 19]

[эти коэффициенты (называемые ниже A’, B’, C’), являющиеся функциями y и sc*, будут использоваться ниже для решения квадратного уравнения в общей системе уравнений для восстановления светимостей изображения Mster_HDR].[these coefficients (called below A', B', C'), which are functions of y and sc*, will be used below to solve the quadratic equation in the general system of equations for reconstructing the luminosities of the Mster_HDR image].

Для определения всех параметров, задающих форму реконструирующей функции отображения светимости, следующие уравнения обычно могут быть использованы в одном из вариантов осуществления (это восстанавливает функцию, обратную той, которая использовалась для формирования IDR-изображения на стороне кодера). Сначала определяется правильная функция para, из которой впоследствии вычисляются смещения черного и белого.To determine all the parameters shaping the luminance mapping reconstructing function, the following equations can typically be used in one of the embodiments (this reconstructs the reverse function of that used to generate the IDR image on the encoder side). First, the correct para function is determined, from which the black and white offsets are subsequently calculated.

rhoSDR снова вычисляется, как указано выше, а rhoCH вычисляется как:rhoSDR is again calculated as above and rhoCH is calculated as:

rhoCH = 1+32*power(PB_CH/10000; 1/2,4)rhoCH = 1+32*power(PB_CH/10000; 1/2.4)

mu = log[1+(rhoSDR-1)*power(PB_CH/PB_SDR; 1/2,4)]/log(rhoSDR)mu = log[1+(rhoSDR-1)*power(PB_CH/PB_SDR; 1/2,4)]/log(rhoSDR)

K, La и sc* вычисляются, как указано выше, с K = P_HoS и La = P_HoI.K, La and sc* are calculated as above with K = P_HoS and La = P_HoI.

A’= 1A'= 1

B ’= (SG_IDR-1)*(sc*+1)/(sc*-1)B '= (SG_IDR-1)*(sc*+1)/(sc*-1)

C ’= -SG_IDRC'=-SG_IDR

Как только на стороне декодера удалось определить необходимые параметры всех требуемых функций (т.е. из других принятых доступных параметров SG_IDR и т.д.), остальная часть декодирования выполняется на основе того, что возможность обратимости, заключающаяся в простом применении обратной (обратных) кривой (кривых) кодирования, например, функции para, подобной той, что показана на ФИГ. 14 (которой придана подходящая форма путем вычисления соответствующих определяющих параметров 1/SG_REC и т.д.), будет отменять действие функции para IDR-кодирования, как показано на ФИГ. 10, т.е. определять повторное IDR-декодирование в отношении яркостей Mster_HDR и т.д.).Once it has been possible at the decoder side to determine the necessary parameters of all required functions (i.e., from other received available SG_IDR parameters, etc.), the rest of the decoding is performed on the basis that the possibility of reversibility, which is simply the application of the reverse (reverse) coding curve(s), for example, a para function like that shown in FIG. 14 (which has been appropriately shaped by calculating the respective defining parameters 1/SG_REC, etc.) will override the para IDR encoding function as shown in FIG. 10, i.e. determine IDR re-decoding with respect to Mster_HDR luminances, etc.).

Отсюда следует, что:From this it follows that:

SG_gr = [-B’+SQRT(B’^2-4*A’*C’)]/2*A’,SG_gr = [-B'+SQRT(B'^2-4*A'*C')]/2*A',

где ^2 означает квадратную степень.where ^2 means square power.

SG_REC = SG_gr/SG_IDR [Ур. 20]SG_REC = SG_gr/SG_IDR [Lv. 20]

Таким образом, обратное усиление (1/SG_REC) тени для адаптации канала уже известно.Thus, the inverse gain (1/SG_REC) of the shadow for channel adaptation is already known.

Аналогичным образом можно вычислить необходимое усиление бликов.Similarly, the required glare amplification can be calculated.

A’’ = (SG_REC*HG_IDR-SG_gr)*(SG_gr+1)/(SG_REC+1)A'' = (SG_REC*HG_IDR-SG_gr)*(SG_gr+1)/(SG_REC+1)

B’’ = SG_gr-HG_IDR-(SG_REC*HG_IDR-1)*(SG_gr+1)/(SG_REC+1)B'' = SG_gr-HG_IDR-(SG_REC*HG_IDR-1)*(SG_gr+1)/(SG_REC+1)

C’’ = HG_IDR-1C'' = HG_IDR-1

MxRec = [-B’’+SQRT(B’’^2-4*A’’*C’’)]/2*A’’MxRec = [-B''+SQRT(B''^2-4*A''*C'')]/2*A''

IF MxRec = 1, ТО HG_REC = 0IF MxRec = 1, THEN HG_REC = 0

ELSE = HG_REC = max[0, (MxRec*SG_gr-1)/(MxRec-1)]ELSE = HG_REC = max[0, (MxRec*SG_gr-1)/(MxRec-1)]

Поскольку функция para определяется из ее параметров, после их вычисления определяется необходимая функция para.Since the para function is defined from its parameters, after they have been evaluated, the required para function is determined.

Для получения BLO_REC и WLO_REC используются следующие уравнения:The following equations are used to obtain BLO_REC and WLO_REC:

mx = (1-HG_gr)/(SG_gr-HG_gr)mx = (1-HG_gr)/(SG_gr-HG_gr)

mxca = mx*(SG_gr-1)*(1-sc*)/2+mxmxca = mx*(SG_gr-1)*(1-sc*)/2+mx

myca = mx*(SG_gr+1)-mxcamyca = mx*(SG_gr+1)-mxca

SG_ca = myca/mxcaSG_ca = myca/mxca

IF mxca = 1, ТО HG_ca = 0, ELSE HG_ca = max[0, (myca-1)/(mxca-1)]IF mxca = 1, THEN HG_ca = 0, ELSE HG_ca = max[0, (myca-1)/(mxca-1)]

ScaleHor = (1-1/La)/(1-1/K)ScaleHor = (1-1/La)/(1-1/K)

RHO = 1+32*power(PB_C_H50/10000; 1/2,4)RHO = 1+32*power(PB_C_H50/10000; 1/2.4)

glim = {log[1+(rhoSDR-1)*(0,1/100)^(1/2,4)]/log(rhoSDR)}/{log[1+(RHO-1)*(1/PB_C_H50)^(1/2,4)]/log(RHO)}; [как и прежде, то же glim, которое используется кодером, потому что в подходе ETSI это фиксированный параллельный обходной путь в механизме Im_PB_C_1 <> Im_PB_C_2, причем эти два изображения определены как повторно градуированные, начиная с одной и той же PB_C_1, и в этом конкретном подходе SLHDR2PLUS являются, соответственно, изображениями Mster_HDR и IDR]glim = {log[1+(rhoSDR-1)*(0.1/100)^(1/2.4)]/log(rhoSDR)}/{log[1+(RHO-1)*(1/ PB_C_H50)^(1/2,4)]/log(RHO)}; [as before, the same glim that is used by the encoder, because in the ETSI approach it is a fixed parallel workaround in the Im_PB_C_1 <> Im_PB_C_2 mechanism, with these two images defined as re-graded starting from the same PB_C_1, and in this specific SLHDR2PLUS approach are, respectively, the Mster_HDR and IDR images]

BLO_gr = BLO_IDR/glim [уравнение, обратное уравнению 17, поэтому его относительно легко определить, не прибегая к уравнениям более высокого порядка, и впоследствии нужно только применять фиксированный механизм адаптации канала для получения необходимого WLO_REC, который равен WLO_ca, используемому при кодировании, но теперь будет инвертирован, причем сложение становится вычитанием]BLO_gr = BLO_IDR/glim [reciprocal equation of equation 17, so it is relatively easy to determine without resorting to higher order equations, and subsequently it is only necessary to apply a fixed channel adaptation mechanism to obtain the necessary WLO_REC, which is equal to the WLO_ca used in encoding, but now will be inverted, with addition becoming subtraction]

BLO_REC = BLO_ca = BLO_REC*ScaleHorBLO_REC = BLO_ca = BLO_REC*ScaleHor

После этого WLO_REC вычисляется путем проецирования его через функцию para, как это было выполнено в принципе кодирования, для последующего инвертирования.After that, WLO_REC is calculated by projecting it through the para function, as was done in the encoding principle, for subsequent inversion.

IF HG_ca = 0 WLO_REC = 0IF HG_ca = 0 WLO_REC = 0

ELSEELSE

{{

BLO_co = 255*BLO_ca/2040BLO_co = 255*BLO_ca/2040

Xh = (1-HG_REC)/(SG_REC-HG_REC)+WP_RECXh = (1-HG_REC)/(SG_REC-HG_REC)+WP_REC

Xh_REC = HG_REC*Xh+1-HG_RECXh_REC = HG_REC*Xh+1-HG_REC

WW_REC = 1-WLO_IDR*255/510WW_REC = 1-WLO_IDR*255/510

IF WW_REC>=Xh_REC, ТО WCA = 1-(1-WW_REC)/HG_RECIF WW_REC>=Xh_REC THEN WCA = 1-(1-WW_REC)/HG_REC

ELSEELSE

Xs = (1-HG_REC)/(SG_REC-HG_REC)-WP_RECXs = (1-HG_REC)/(SG_REC-HG_REC)-WP_REC

Xsca = SG_REC*XsXsca = SG_REC*Xs

IF WW_REC>XscaIF WW_REC>Xsca

{{

A’’’= -0,5*(SG_REC-HG_REC)/(2*WP_REC)A'''= -0.5*(SG_REC-HG_REC)/(2*WP_REC)

B’’’= (1-HG_REC)/(2*WP_REC)+(SG_REC+HG_REC)/2B'''= (1-HG_REC)/(2*WP_REC)+(SG_REC+HG_REC)/2

C’’’= -[(SG_REC-HG_REC)*(2*WP_REC)-2*(1-HG_REC)]^2/[8*(SG_REC-HG_REC)*(2*WP_RE)]C'''= -[(SG_REC-HG_REC)*(2*WP_REC)-2*(1-HG_REC)]^2/[8*(SG_REC-HG_REC)*(2*WP_RE)]

WCA = (-B’’’+SQRT(B’’’^2-4*A’’’*{C’’’-WW_REC})/(2*A’’’)WCA = (-B'''+SQRT(B'''^2-4*A'''*{C'''-WW_REC})/(2*A''')

WCA = min(WCA, 1)WCA = min(WCA, 1)

}}

ELSE WCA = WW_REC/SG_RECELSE WCA=WW_REC/SG_REC

WLO_REC = (1-WCA)*(1-BLO_co)/[(1-WCA*ScaleHor)*(510/255)]WLO_REC = (1-WCA)*(1-BLO_co)/[(1-WCA*ScaleHor)*(510/255)]

Следует отметить, что в то время как BLO действительно является чисто аддитивным вкладом с точки зрения отображения, WLO преобразуется в мультипликативное масштабирование до максимума (например, на ФИГ. 4):It should be noted that while BLO is indeed a purely additive contribution in terms of display, WLO is converted to multiplicative scaling to the maximum (for example, in FIG. 4):

Y’HPS = (Y’HP-BLO)/(1-BLO-WLO) [Ур. 21]Y'HPS = (Y'HP-BLO)/(1-BLO-WLO) [Lv. 21]

Вся эта информация обычно может быть содержаться в одной LUT обработки светимости, которая относится, например, к перцепционной области от Y’IP до Y’HR (или, еще лучше, в общей LUT, которая определяет Lh для каждого значения L_in). Это восстановит изображение REC_M_HDR.All of this information can usually be contained in a single luminosity processing LUT that refers to, for example, the perceptual region Y'IP to Y'HR (or better yet, a common LUT that specifies Lh for each value of L_in). This will restore the REC_M_HDR image.

Как упоминалось выше, также полезно, если декодер может напрямую выводить адаптированное для дисплея изображение, например, MDR_300.As mentioned above, it is also useful if the decoder can directly output a display-adapted image, such as MDR_300.

Для этого может использоваться следующая технология, поясненная на ФИГ. 16 (где используются два частичных LUT, на практике наиболее полезно просто загрузить одну LUT, называемую P_LUT, поскольку верхний канал вычисления светимости проходит через предпочтительные основные блоки вычисления, например, процессор цвета на каждый пиксель в специализированной ИС декодирования, обычно воплощенной просто как LUT. Значения яркости Y_IDR вводятся (например, обычно кодируются с помощью YCbCr на основе PQ), и они преобразуются блоком 1601 линеаризации в нормализованные светимости L_in. Блок 1602 перцептуализации функционирует, как пояснено выше (см. уравнения 1 и 2), и использует значение RHO для пиковой яркости PB_IDR IDR, например, 1000 нит. Это дает в результате перцептуализированные яркости Y’IP IDR. Блок 1603 отображения светимости восстанавливает основное HDR-изображение, как пояснено выше, т.е. он получает все вычисленные параметры, определяющие реконструирующую функцию F_L_REC отображения светимости из IDR в MsterHDR, или обычно LUT формы этой функции. Это дает в результате восстановленные яркости Y’HPR Mster_HDR. Это изображение является хорошей основой для вычисления изображений с более узким динамическим диапазоном/низкой пиковой яркостью PB_C. В основном это работает как механизм ETSI2 при условии, что применяются правильные функции. Эти функции могут быть масштабированы из F_L_IDR, совместно передаваемой как метаданные, или вычислены из восстановленной функции F_50t1, которая является реконструкцией того, что создатель контента определил на своей стороне как оптимальную функцию вычисления основного SDR-изображения из изображения Mster_HDR. Затем эта функция F_50t1 может быть преобразована в соответствующую функцию F_L_DA адаптации дисплея, например, для PB_D 300 нит, в соответствии с принципами, определенными в стандарте ETSI2 (читатель отсылается к этому стандарту для получения подробностей). Она загружается в блок 1604 отображения светимости из HDR в MDR, если таковой имеется. На практике единственную P_LUT будет содержать полное действие F_L_REC, а затем F_L_DA.For this, the following technology, illustrated in FIG. 16 (where two partial LUTs are used, it is most useful in practice to simply load one LUT, called P_LUT, since the upper luminance calculation channel passes through the preferred main calculation units, e.g., a per-pixel color processor in a dedicated decoding IC, usually implemented simply as a LUT. Y_IDR luminance values are input (eg, typically encoded with YCbCr based on PQ) and these are converted into normalized L_in luminosities by a linearizer 1601. The perceptualizer 1602 functions as explained above (see Equations 1 and 2) and uses the RHO value for peak luminance PB_IDR IDR, for example, 1000 nits This results in the perceived luminances Y'IP IDR The luminance mapping unit 1603 reconstructs the main HDR image as explained above, i.e. it obtains all calculated parameters defining the reconstructive mapping function F_L_REC luminosity from IDR to MsterHDR, or usually the LUT form of this function. t as a result of the restored brightness Y'HPR Mster_HDR. This image is a good basis for computing images with a narrower dynamic range/low PB_C peak brightness. It basically works like an ETSI2 mechanism, provided that the correct functions are applied. These functions may be scaled from the F_L_IDR shared as metadata, or computed from the reconstructed F_50t1 function, which is a reconstruction of what the content creator has determined at its end to be the optimal function for calculating the main SDR image from the Mster_HDR image. This F_50t1 function can then be mapped to the corresponding display adaptation function F_L_DA, for example for PB_D 300 nits, according to the principles defined in the ETSI2 standard (the reader is referred to this standard for details). It is loaded into HDR to MDR luminosity mapper 1604, if any. In practice, a single P_LUT will contain the full action F_L_REC and then F_L_DA.

Наконец, полученные относительные светимости MDR отправляются в первый умножитель 454 по ФИГ.4, чтобы выполнить ту же самую обработку (также с использованием правильной сопровождающей функции F_C [Y]).Finally, the obtained MDR relative luminosities are sent to the first multiplier 454 of FIG. 4 to perform the same processing (also using the correct companion function F_C[Y]).

Наконец, необходимо вычислить соответствующую C_LUT (F_C [Y] на ФИГ. 4 или ФИГ. 15, соответственно), которая придает повторно градуированным выходным цветам светимости их соответствующие цветности (чтобы иметь как можно более близкий вид к изображению Mster_HDR, т.е. цветности пикселей выходного изображения и изображения Mster_HDR должны быть, насколько это возможно, примерно идентичными с учетом отличного меньшего динамического диапазона).Finally, it is necessary to calculate the corresponding C_LUT (F_C[Y] in FIG. 4 or FIG. 15, respectively) that illuminates the re-calibrated output colors with their respective chroma (to have as close as possible to the Mster_HDR image, i.e., the chroma pixels of the output image and the Mster_HDR image should be as nearly identical as possible, given the excellent lower dynamic range).

C_LUT для восстановления Mster_HDR выглядит следующим образом (другие вычисления C-LUT при повторной градуировке выполняются согласно аналогичным принципам, например, принимая во внимание принципы ETSI2).The C_LUT for Mster_HDR recovery is as follows (other C-LUT calculations in recalibration are performed according to similar principles, for example, taking into account the principles of ETSI2).

Сначала вычисляется CP-LUT, которая является обратным вышеупомянутой P_LUT, которая была применена в кодере для отображения изображения Mster_HDR в IDR-изображение (поэтому в декодере эта обратная коррекция цветности будет использоваться для обратного преобразования из принятых цветностей Cb и Cr IDR-изображения в восстановленные цветности Mster_HDR).First, a CP-LUT is computed which is the inverse of the above P_LUT that was applied in the encoder to map the Mster_HDR image to an IDR image (so the decoder will use this inverse chroma correction to deconvert from the received Cb and Cr chroma of the IDR image to the reconstructed chroma mster_HDR).

Затем C_LUT для восстановления Mster-HDR может быть вычислена как:Then the C_LUT for Mster-HDR recovery can be calculated as:

XH = v(PB_M_HDR; 10000)XH = v(PB_M_HDR; 10000)

XS = v(PB_SDR = 100; 10000)XS = v(PB_SDR = 100; 10000)

XD = v(PB_D; 10000)XD = v(PB_D; 10000)

XC = v(PB_CH; 10000)XC = v(PB_CH; 10000)

При этом v снова является функцией v(x, RHO), задаваемой вышеприведенными уравнениями 1 и 2.Here, v is again the function of v(x, RHO) given by Equations 1 and 2 above.

CfactCH = 1-(XC-XS)/(XH-XS)CfactCH = 1-(XC-XS)/(XH-XS)

CfactCA = 1-(XD-XS)/(XH-XS)CfactCA = 1-(XD-XS)/(XH-XS)

C_LUT[Y} = [1+CfactCA*power(CP_LUT [Y]; 2,4)]/[Y*{1+CfactCH*power(CP_LUT[Y]; 2,4)}] [Ур. 22]C_LUT[Y} = [1+CfactCA*power(CP_LUT [Y]; 2,4)]/[Y*{1+CfactCH*power(CP_LUT[Y]; 2,4)}] [Lv. 22]

Целевая PB_D дисплея может быть задана равной PB_Mster_HDR для восстановления, и в этом случае только разделитель остается в качестве определителя C_LUT. В практическом варианте осуществления степень 2,4 также может быть включена в LUT как, например, CPP_LUT = power(CP_LUT [Y]; 2,4), которая может упростить некоторые вычисления в некоторых вариантах осуществления.The target display PB_D may be set equal to the PB_Mster_HDR for recovery, in which case only the delimiter remains as the C_LUT qualifier. In a practical embodiment, a power of 2.4 may also be included in the LUT, such as CPP_LUT = power(CP_LUT[Y]; 2.4), which may simplify some calculations in some embodiments.

Выше было сказано, что в некоторых практических вариантах осуществления (для текущей совместимости определения метаданных ETSI2) кодера SLHDR2PLUS повторно вычисляет HG_gr для совместимых значений HG_IDR. Это можно сделать следующим образом.It has been said above that in some practical embodiments (for current ETSI2 metadata definition compatibility) the SLHDR2PLUS encoder recalculates HG_gr for compatible HG_IDR values. This can be done in the following way.

Например, метаданные могли зарезервировать 8-битовое кодовое слово для HG функции para, т.е. в этом случае, поскольку IDR-изображение + его метаданные должны быть сигналом, совместимым с ETSI2, вопрос состоит в том, подойдет ли необходимый HG_IDR в выделенном коде. Стандарт обычно использует функцию распределения кода для преобразования физически необходимого HG_IDR в некоторый HG_COD: HG_COD в [0,255] = F_COD[HG_IDR]. Например, FCOD может составлять 128*(4*HG_IDR), что означает, что максимум 255 соответствует максимуму HG_IDR 0,5.For example, the metadata could reserve an 8-bit codeword for the HG para function, i.e. in this case, since the IDR image + its metadata must be an ETSI2 compliant signal, the question is whether the required HG_IDR will fit in the dedicated code. The standard usually uses a code allocation function to convert a physically necessary HG_IDR to some HG_COD: HG_COD in [0,255] = F_COD[HG_IDR]. For example, the FCOD may be 128*(4*HG_IDR), which means that a maximum of 255 corresponds to a maximum HG_IDR of 0.5.

Необходимо убедиться, что IDR-изображение сформировано таким образом, что HG_IDR просто «вписывается» в диапазон кода, т.е. в прагматическом варианте осуществления это можно реализовать, отчасти адаптируя HG_gr специалиста по градуировке (так чтобы избежать переполнения с использованием фиксированной адаптации канала и основанного на ней определения метаданных IDR).You need to make sure that the IDR image is formed in such a way that the HG_IDR simply "fits" into the code range, i.e. in a pragmatic embodiment, this can be implemented by somewhat adapting the HG_gr of the scaler (so as to avoid overflow using fixed channel adaptation and the IDR metadata definition based on it).

Расчеты для этого (необязательного) варианта осуществления могут, например, быть такими:The calculations for this (optional) embodiment could, for example, be:

Установите HG_IDR = (254*2)/(255*4);Set HG_IDR = (254*2)/(255*4);

Экспозиция = тень/4+0,5 [при этом тень является кодификацией ETSI2 для усиления SG_gr тени]Exposure = shadow/4+0.5 [with shadow being the ETSI2 encoding for shadow enhancement SG_gr]

SG_gr = K*экспозицияSG_gr = K*exposure

A = SG_gr*(HG_IDR-1)-0,5*(SG_gr-1)*(1-sc*)*(HG_IDR+SG_gr)A = SG_gr*(HG_IDR-1)-0.5*(SG_gr-1)*(1-sc*)*(HG_IDR+SG_gr)

B = SG_gr-HG_IDR+1+0,5*(SG_gr-1)*(1-sc*)*(HG_IDR+1)B = SG_gr-HG_IDR+1+0.5*(SG_gr-1)*(1-sc*)*(HG_IDR+1)

C = HG_IDR-1C=HG_IDR-1

MxLM = [-B+sqrt(B*B-4*A*C)]/(2*A)MxLM = [-B+sqrt(B*B-4*A*C)]/(2*A)

IF MxLM = 1, ТО HG_gr_LM = 0IF MxLM = 1, TO HG_gr_LM = 0

ELSE HG_gr_LM = max[0, (MxLM*SG_gr-1)/(MxLM-1)]ELSE HG_gr_LM = max[0, (MxLM*SG_gr-1)/(MxLM-1)]

Где HG_gr_LM представляет собой скорректированное значение HG_gr. Остальная часть алгоритма будет работать, как описано выше, как если бы специалист по градуировке выбрал оптимальное значение HG_gr_LM с самого начала.Where HG_gr_LM is the adjusted value of HG_gr. The rest of the algorithm will work as described above, as if the calibrator had chosen the optimal HG_gr_LM value from the start.

Здесь подробно описан один метод решения проблемы разработки нового кодека SLHDR2PLUS. Существуют альтернативные способы в зависимости от сделанного технического выбора, в частности, от того, какие аспекты считаются ключевыми, в отношении каких других аспектов можно сделать послабление.One method for solving the problem of developing a new SLHDR2PLUS codec is described in detail here. There are alternative ways depending on the technical choice made, in particular which aspects are considered key, which other aspects can be relaxed.

Вышеприведенная математическая модель определяет совершенно новый способ реализации HDR-декодера, вне зависимости от того, поддерживает ли он, по меньшей мере, базовый подход к вычислениям, совместимый с подходами ETSI1 и ETSI2: в частности, хотя функции P-LUT и C_LUT разной формы будут вычисляться, как показано выше (несмотря на то, что на ФИГ. 4 и ФИГ. 15 подробно описана физико-техническая философия, лежащая в основе того, как работает наш подход к кодированию HDR, а также почему на практике вся обработка яркости, которая эквивалентна обработке светимости [в одномерном цветовом аспекте обе они связаны через нелинейное зависимое от изображения функциональное преобразование] в канале 401 обработки яркости, соответственно 1501, выполняется путем загрузки правильной общей формы функции отображения яркости P_LUT, и аналогично для C-LUT, называемой F_C [Y], в блоках 451 и 1551, соответственно), топология вычислений является повторно используемой, что является очень полезным свойством для потребителей (они должны купить ИС, например, STB, один раз, и ее можно переконфигурировать для различных новых философий кодирования, перепрограммировав обработку метаданных, но при этом сохранив механизм попиксельного цветового преобразования).The above mathematical model defines a completely new way to implement an HDR decoder, whether or not it supports at least a basic computational approach compatible with ETSI1 and ETSI2 approaches: in particular, although the P-LUT and C_LUT functions of different shapes will computed as shown above (although FIG. 4 and FIG. 15 detail the physico-technical philosophy behind how our HDR coding approach works, and why, in practice, all luma processing that is equivalent to luminance processing [in the one-dimensional color aspect, both of them are related through a non-linear image-dependent functional transformation] in the luminance processing channel 401, respectively 1501, is performed by loading the correct general form of the luminance mapping function P_LUT, and similarly for the C-LUT called F_C [Y] , in blocks 451 and 1551, respectively), the computational topology is reusable, which is a very useful property for consumers (they have to buy an IC, such as STB, once, and it can be reconfigured for various new coding philosophies, reprogramming the metadata processing, but retaining the per-pixel color conversion engine).

Можно также разработать технологию кодирования IDR, которая повторно использует ту же самую математическую модель ETSI2-декодирования во всех подробностях (т.е. последовательность частичных повторных градуировок 1503-1505), просто указав ETSI2-декодеру соответствующую экстраполяцию вместо его обычной задачи по снижающей градуировке принятого изображения, причем дисплей адаптирует его к отображению с PB_D<PB_IDR. Следует подчеркнуть, что это не «слепая» экстраполяция, которая дает «просто любой» вид изображения с более расширенным динамическим диапазоном, соответствующий виду (т.е., в частности, статистическому распределению относительных яркостей или абсолютных светимостей пикселей IDR) IDR-изображения, а на самом деле создает «автоматически» с помощью этого способа кодирования выходное HDR-изображение, которое выглядит как можно ближе к исходному изображению Mster_HDR на стороне создания контента (которое также в таких вариантах осуществления все еще фактически не принимается, равно как и не принимаются его метаданные, например, SG_gr). Это, конечно, по умолчанию не так просто и требует правильного подхода на стороне кодирования контента. Для декодера в вариантах осуществления этой философии принятая вторичная пиковая яркость PB_C_H50 используется при программировании основного попиксельного декодера так же, как если бы это была желаемая яркость PB_D дисплея (которая тогда, например, в 5 раз выше, чем PB_IDR).It is also possible to develop an IDR coding technique that reuses the same ETSI2 decoding math model in full detail (i.e., the sequence of partial recalibrations 1503-1505) by simply instructing the ETSI2 decoder to appropriate extrapolation instead of its usual task of degrading the received image, and the display adapts it to display with PB_D<PB_IDR. It should be emphasized that this is not a "blind" extrapolation that gives "just any" kind of image with a higher dynamic range, corresponding to the kind (i.e., in particular, the statistical distribution of the relative brightnesses or absolute luminances of IDR pixels) of an IDR image, but actually creates "automatically" with this encoding method an output HDR image that looks as close as possible to the original Mster_HDR image on the content creation side (which also in such embodiments is still not actually received, nor is it metadata, such as SG_gr). This, of course, is not so simple by default and requires a proper approach on the content encoding side. For the decoder in embodiments of this philosophy, the received secondary peak luminance PB_C_H50 is used in programming the main per pixel decoder just as if it were the desired display luminance PB_D (which is then, for example, 5 times higher than PB_IDR).

На ФИГ. 18 поясняется этот подход (блок-схема того, как математическая модель кодера работает концептуально). Кроме того, для простоты предположим (хотя эти варианты выбора не обязательно связаны с этим примером), что свобода выбора фиксированного алгоритма адаптации канала была определена так, чтобы выполнять только преобразование функции para, связывающее Mster_HDR и IDR, при этом оставляя любые BLO и WLO (если это еще уместно для текущего изображения или кадра изображений) и настраиваемую кривую для вторичного преобразования, т.е. повторной градуировки из IDR в SDR, и передавая метаданные, принадлежащие совместимому с ETSI2 IDR-сигналу, приемникам (будь то унаследованные ETSI2-приемники или приемники декодирования SLHDR2PLUS).FIG. 18 explains this approach (a flowchart of how the encoder math model works conceptually). Also, for simplicity, assume (although these choices are not necessarily related to this example) that the freedom to choose a fixed channel adaptation algorithm has been defined to perform only the para function transformation linking Mster_HDR and IDR, while leaving any BLOs and WLOs ( if it is still appropriate for the current image or image frame) and a custom curve for the secondary transformation, i.e. recalibration from IDR to SDR, and passing the metadata belonging to the ETSI2 compatible IDR signal to receivers (whether legacy ETSI2 receivers or SLHDR2PLUS decoding receivers).

Для начала нам понадобятся несколько вводных определений:First, we need some introductory definitions:

Обратной для кривой para, показанной на ФИГ. 10, т.е. кривой, у которой форма определяется согласно стандарту ETSI так, как сформулировано в вышеприведенных уравнениях 4 и 5, и параболическая средняя часть задается как a*x^2+b*x+c, является кривая, которую в этом документе для краткости назовем abcara. Согласно разделу 7 ETSI1 (восстановление HDR-сигнала), она определяется как:The inverse of the para curve shown in FIG. 10, i.e. a curve whose shape is defined according to the ETSI standard as formulated in Equations 4 and 5 above, and whose parabolic middle part is given as a*x^2+b*x+c, is a curve, which in this document will be called abcara for brevity. According to section 7 of ETSI1 (HDR signal recovery), it is defined as:

L_out = 1/SG*L_in (если 0<=L_in<=xS)L_out = 1/SG*L_in (if 0<=L_in<=xS)

L_out = -b/2a+sqrt(b^2-4*a*(c-L_in))/2a (если xS<L_in<xH)L_out = -b/2a+sqrt(b^2-4*a*(c-L_in))/2a (if xS<L_in<xH)

L_out = 1/HG*(L_in-1)+1 (если xH<=L_in) [Ур. 23]L_out = 1/HG*(L_in-1)+1 (if xH<=L_in) [Lv. 23]

При этом xS и xH являются точками, в которых линейные отрезки переходят в параболический средний отрезок, в соответствии с тем, как функция para была определена для кодирования (или любого другого использования).In this case, xS and xH are the points where the linear segments go to the parabolic middle segment, in accordance with how the para function was defined for encoding (or any other use).

Основной принцип того, на что нацелен вариант осуществления кодера видео по ФИГ. 18, показан на ФИГ. 20 (в этом примере для пояснения была выбрана примерная PB_C 500 нит IDR, но без намерения указать, что этот способ каким-то образом ограничивается или лучше подходит для более низкой PB_IDR).The basic principle of what the embodiment of the video encoder of FIG. 18 is shown in FIG. 20 (in this example, an exemplary PB_C of 500 nits IDR has been chosen for clarification, but without the intention of indicating that this method is somehow limited or better suited to a lower PB_IDR).

Если у нас есть фиксированный механизм (в декодере, совместимом с ETSI2, или унаследованном ETSI2-декодере) для экстраполяции от IDR к более высоким PB_C, чем PB_IDR (с использованием такой настройки PB_C, как если бы это была пиковая яркость дисплея), то также можно было бы разработать кодер, который инвертирует этот процесс, т.е. создает IDR-изображение, используя инверсию F_ENCINV_H2I подходящим образом адаптированной экстраполирующей функции F_E_I2S отображения светимости (адаптированной из функции F_I2S, которая соответствует спецификации ETSI2, принятой приемниками IDR-сигнала, т.е. IDR-изображение + метаданные, включая функцию F_I2S), а затем добавляет правильные метаданные, которые, как сказано, представляли бы собой F_I2S, и которые должны быть получены из общей функции F_H2S отображения светимости (например, F_50t1), созданной создателем контента, например, специалистом по градуировке, или автоматическим средством в любом промежуточном процессе кодирования в реальном времени и т.д.If we have a fixed mechanism (either in an ETSI2 compliant decoder or a legacy ETSI2 decoder) to extrapolate from IDR to higher PB_Cs than PB_IDR (using the PB_C setting as if it were peak display brightness), then also one could develop an encoder that inverts this process, i.e. creates an IDR image using the F_ENCINV_H2I inversion of a suitably adapted luminance mapping extrapolation function F_E_I2S (adapted from the F_I2S function that conforms to the ETSI2 specification adopted by IDR signal receivers, i.e. IDR image + metadata including the F_I2S function), and then adds the correct metadata, which is said to be F_I2S, and which must be derived from a generic luminosity mapping function F_H2S (e.g. F_50t1) created by a content creator, e.g. a scaler, or an automated tool in any intermediate encoding process in real time, etc.

Соотношения также можно сформулировать в мультипликативном представлении:Relations can also be formulated in multiplicative representation:

L_SDR = m_F_I2S*m_F_ENCINV_H2I*L_HDR = m_F_I2S*L_IDRL_SDR = m_F_I2S*m_F_ENCINV_H2I*L_HDR = m_F_I2S*L_IDR

L_HDR = m_F_E_I2S*L_IDRL_HDR = m_F_E_I2S*L_IDR

При этом m_F_I2S или, скорее, m_F_I2S(L_HDR) является соответствующим множителем, необходимым для реализации повторной градуировки светимости для любого выбранного значения L_HDR, соответствующего форме функции отображения светимости F_I2S, и аналогично для других множителей.Here, m_F_I2S or rather m_F_I2S(L_HDR) is the appropriate multiplier needed to implement luminosity recalibration for any selected L_HDR value corresponding to the shape of the F_I2S luminance mapping function, and similarly for other multipliers.

Таким образом, необходимо объяснить, что функция, обратная функции para, действующей от HDR к IDR, т.е. функция abcara, действующая от IDR к HDR, имеет тот же эффект, что и некоторые функции para, экстраполированные до PB_HDR (начиная с любой L_IDR).Thus, it is necessary to explain that the function inverse to the para function acting from HDR to IDR, i.e. the abcara function acting from IDR to HDR has the same effect as some para functions extrapolated to PB_HDR (starting from any L_IDR).

Чтобы понять это несколько лучше, используем ФИГ. 21. В обычном режиме интерполяции из более высокого входного значения PB_C изображения (т.е. при работе с любыми нормализованными входными светимостями L_in_X, которые соответствуют фактическим светимостям через PB_Ch, которая выше, чем PB_D нормализованных выходных светимостей изображения) в более низкое значение PB_D исходная функция para F_H2S специалиста по градуировке (принятая в метаданных посредством стандартной последовательности видеосвязи с кодированием ESTI2) масштабировалась бы по диагонали, следуя стрелке по направлению к диагонали [0,0]-[1,1], давая в результате F_ENCIV_H2I (которая теперь соответствует визуально унифицированному отношению псевдологарифмического расстояния PB_IDR/PB_HDR к PB_SDR/PB_HDR, т.е., например, v(100/5000)/v(500; 5000) = 0,54/0,72 [где v(x; y) является функцией из уравнения 1 с абсциссой x и RHO, соответствующим y через уравнение 2]). Можно представить себе, что продолжение подобной повторной градуировки, от ситуации с любой более высокой PB_D к ситуации с любой более низкой PB_D, используя отображение тождественной обработки PB_HDR в PB_HDR, привело бы к тому, что кривые стали бы круто спадающими, фактически для кривых отображения светимости типа функции para они стали бы с математической точки зрения функциями abcara. Действительно, необходимая функция F_E_I2S для экстраполяции любого принятого IDR-изображения (на основе начальной функции F_H2S отображения светимости, принятой в метаданных, с использованием механизма адаптации дисплея из главы 7.3 ETSI2) была бы зеркальной функцией, полученной путем зеркального отображения по диагонали F_ENCINV_H2I (и наоборот).To understand this somewhat better, use FIG. 21. In normal interpolation mode from a higher image input value PB_C (i.e. when working with any normalized input luminances L_in_X that match the actual luminosities via PB_Ch that is higher than the PB_D of the normalized output image luminances) to a lower value PB_D of the original the para F_H2S function of the calibrator (received in the metadata via the standard ESTI2 encoded video link sequence) would be scaled diagonally, following the arrow towards the [0,0]-[1,1] diagonal, resulting in F_ENCIV_H2I (which now matches visually unified ratio of the pseudo-log distance PB_IDR/PB_HDR to PB_SDR/PB_HDR, i.e., for example, v(100/5000)/v(500; 5000) = 0.54/0.72 [where v(x; y) is a function from equation 1 with abscissa x and RHO corresponding to y through equation 2]). It can be imagined that continuing to recalibrate like this, from any higher PB_D situation to any lower PB_D situation, using PB_HDR to PB_HDR identity processing mapping, would result in the curves falling off steeply, in fact for luminosity mapping curves. of the para function type, they would mathematically become abcara functions. Indeed, the required function F_E_I2S to extrapolate any received IDR image (based on the initial luminance mapping function F_H2S received in the metadata using the display adaptation mechanism from ETSI2 chapter 7.3) would be the mirror function obtained by diagonally mirroring F_ENCINV_H2I (and vice versa ).

Следовательно, учитывая, что кто-то хочет повторно использовать стандартные механизмы вычислений ETSI2 для реализации функциональности SLHDR2PLUS, остается только определить соответствующий кодер, как пояснено на ФИГ. 18.Therefore, given that one wants to reuse the standard ETSI2 calculation mechanisms to implement SLHDR2PLUS functionality, it remains only to determine the appropriate encoder, as explained in FIG. 18.

Например, SG для F_ENCINV_H2I соответствует определению функции abcara: 1/SG*L_in_X.For example, the SG for F_ENCINV_H2I corresponds to the abcara function definition: 1/SG*L_in_X.

Исход из SG_COD (т.е. задаваемой ETSI кодификации вышеупомянутого физико-математического усиления SG тени), получаем (SG_COD = SGC*255/2 с учетом ETSI1 ур. C23 экспозиция = SGC/4+0,5 с учетом C24 expgain = v(PB_HDR = 5000/PB_target = 500; PB_target) с учетом ур. C27 SG = expgain*экспозиция):The outcome from SG_COD (i.e. the ETSI-specified codification of the above physical and mathematical gain SG of the shadow), we get (SG_COD = SGC*255/2, taking into account ETSI1 level C23 exposure = SGC/4+0.5, taking into account C24 expgain = v (PB_HDR = 5000/PB_target = 500; PB_target) based on C27 SG = expgain*exposure):

1 / [(SGC/4+0,5)*v(5000/500; 500)] = (X/4+0,5)*v(500/5000; 500) [Ур. 24]1 / [(SGC/4+0.5)*v(5000/500; 500)] = (X/4+0.5)*v(500/5000; 500) [Lv. 24]

Вышеприведенное уравнение подлежит решению для нахождения неизвестного параметра X управления усилением тени функции para (т.е. X является SG для F_ENCINV_H2I).The above equation is to be solved to find the unknown para parameter shadow gain control parameter X (ie, X is SG for F_ENCINV_H2I).

Т.е. декодер определяет для любого выбора F_H2S специалистом по градуировке, на что будет похожа форма F_E_I2S (с использованием алгоритма ETSI2 7.3), но нам нужно интерпретировать это как функцию abcara ETSI1, чтобы можно было связать эту функцию abcara с соответствующей необходимой обратной функцией para F_ENCINV_H2I с тем, чтобы, в конечном итоге, использовать в новом кодере SLHDR2PLUS соответствующую функцию para для вычисления светимостей IDR-изображения (в первом предпочтительном варианте осуществления этого подхода к конкретной разновидности общего подхода SLHDR2PLUS, т.е. производные вычисления функций отображения светимости с использованием второй пиковой яркости; смещения белого и черного будут игнорироваться в этой разновидности, по меньшей мере, в поддиапазоне HDR<>IDR, потому что они будут применимы к поддиапазону HDR<>SDR другого спектра изображений с PB_C, как показано на ФИГ. 7).Those. the decoder determines, for any choice of F_H2S by the scaler, what the form F_E_I2S will look like (using the ETSI2 7.3 algorithm), but we need to interpret this as an ETSI1 abcara function so that we can associate this abcara function with the appropriate inverse function para F_ENCINV_H2I so that to eventually use the appropriate para function in the new SLHDR2PLUS encoder to calculate the luminosities of an IDR image (in the first preferred embodiment of this approach to a specific variation of the general SLHDR2PLUS approach, i.e. derived calculation of luminance mapping functions using the second peak luminance ; white and black offsets will be ignored in this flavor, at least in the HDR<>IDR sub-band, because they will be applicable to the HDR<>SDR sub-band of another image spectrum with PB_C, as shown in FIG. 7).

На практике кодер функционирует в другом порядке (но с соблюдением тех же соотношений, чтобы система оставалась совместимой с ETSI2). Блок 1801 адаптации канала вычисляет (на основе принятой формы функции F50t1) функцию para, необходимую для преобразования яркостей L_HDR в, например, яркости PB_C L_IDR 500 нит (можно использовать математическую модель адаптации канала вышеописанного предыдущего варианта осуществления, но при этом игнорировать адаптацию WLO и BLO, т.е. функция para просто действует между двумя представлениями яркости 0-1,0 без каких-либо смещений, а просто за счет применяя только функции para). Блок 1802 инверсии вычисляет соответствующую функцию abcara, используя инверсию уравнения 24 (т.е. когда 1/X слева вычисляется с учетом известного SGC в правой части уравнения). Это именно то отображение, которое будет восстанавливать яркости пикселей L_HDR из принятых яркостей L_IDR. Допуская, например, что WP остается постоянным в последовательности определения кодека, блок 1802 инверсии, следовательно, будет вычислять усиление SG_abc тени и усиление HG_abc бликов для функции abcara. Нижний канал, выполняющий управление метаданными, в конечном итоге должен будет вычислять F_L_IDR (= F_I2S), поэтому блок 1803 адаптации определяет необходимую функцию F_I2S отображения (в частности, ее SG_IDR и HG_IDR), применяя в обратном направлении алгоритм ETSI2 7.3 (реализуя оставшееся преобразование F_I2S из полного преобразования F_H2S, если частичная повторная градуировка светимости уже была выполнена для яркостей IDR-изображения с помощью F_ENCINV_H2I).In practice, the encoder functions in a different order (but with the same relationships to keep the system ETSI2 compliant). The channel adaptation block 1801 calculates (based on the received form of function F50t1) the para function needed to convert L_HDR luminances to, for example, PB_C L_IDR luminances of 500 nits (you can use the channel adaptation mathematical model of the above previous embodiment, but ignore WLO and BLO adaptation , i.e. the para function simply operates between two brightness representations 0-1.0 without any offsets, but simply by applying only the para functions). The inversion block 1802 calculates the corresponding function abcara using the inversion of Equation 24 (ie, when 1/X on the left is computed given the known SGC on the right side of the equation). This is the mapping that will reconstruct the L_HDR pixel luminances from the received L_IDR luminances. Assuming, for example, that WP remains constant in the codec determination sequence, inversion block 1802 will therefore calculate shadow gain SG_abc and highlight gain HG_abc for function abcara. The lower channel performing metadata management will eventually need to calculate F_L_IDR (= F_I2S), so adaptation block 1803 determines the necessary mapping function F_I2S (in particular its SG_IDR and HG_IDR) by applying the ETSI2 7.3 algorithm backwards (implementing the remaining F_I2S transformation from the full F_H2S conversion if partial luminosity regrading has already been done for IDR image luminances with F_ENCINV_H2I).

Как уже упоминалось выше, в некоторых сценариях может случиться так, что значение HG_IDR оказываться выше того, что может быть закодировано в соответствии с ETSI2 как HG_COD. Что можно сделать в таком сценарии, так это ограничить указанное значение HG_IDR до его максимума и вернуться по последовательности к тому, что это означает, в частности, какой другой исходной функции F_H2S специалиста по градуировке это бы соответствовало. Затем все вычисления могут быть перезапущены из этой ситуации, и это именно то, что необязательные блоки, показанные пунктирными линиями, выполняют в одной линии последовательной обработки.As mentioned above, in some scenarios it may happen that the value of HG_IDR is higher than what can be encoded according to ETSI2 as HG_COD. What can be done in such a scenario is to limit the indicated value of HG_IDR to its maximum and revert back in sequence to what it means, in particular, what other original calibrator's F_H2S function would this correspond to. Then all calculations can be restarted from this situation, and this is exactly what the optional blocks shown in dashed lines do in one line of sequential processing.

На ФИГ. 22 поясняется, что ограничитель 1804 используется для изменения формы кривой отображения светимости. Пунктирной линией показана начальная F_H2S и то, как из нее с помощью фиксированного алгоритма адаптации канала может быть получена функция F_ENCINV_H2I, а также как может быть получена (исходная) оставшаяся функция F_I2S_or частичной повторной градуировки (исходная F_IDR в случае, если не было никаких дополнительных конкретных ограничений в ETSI2, которые, как в настоящее время сформулировано, требуют более подробного подхода к конкретному варианту осуществления, как поясняется сейчас). HG_IDR_or этой функции, учитывая, что это совершенно новый подход к кодированию видео HDR, может не соответствовать определению HG_COD, т.е. требовать значение выше его 8-битового максимума 255, который может передаваться в кодированном видеосигнале HDR, совместимом с ETSI2. Следовательно, HG_IDR_or должен быть понижен максимум до ограниченного все еще кодируемого значения HG_IDR_LIM (которое в текущих вариантах осуществления ETSI2 равно 2,0, но это не является фундаментальным ограничением подхода). Это создает функцию para, которая имеет линейный отрезок для бликов несколько ближе к верхней горизонтальной границе (L_out_X = 1,0), что соответствует несколько более ярким IDR-изображениям, но это не является фундаментальной проблемой (как было упомянуто выше, существует некоторая возможность послабления в системе для проектирования различных вариантов). Это будет означать, что области с наивысшей светимостью на изображении HDR-сцены получат менее контрастное IDR-представление (хотя исходный основной HDR является полностью восстанавливаемым, и вид SDR и все повторные градуировки MDR также будут выглядеть хорошо), но это не является реальной проблемой, так как градуировка выполняется из более высоких основных PB_C HDR, и это соответствует тому, что, например, находится в диапазоне 3000-5000 нит, который обычно имеют лампы и т.п., которые могут иметь небольшое ухудшение (поскольку в любом случае всегда требуется некоторое ухудшающее отображение, и это отчасти ожидается для таких сверхъярких областей). Второй блок 1805 адаптации канала затем снова применит всю вышеупомянутую математическую модель, но теперь учитывая ситуацию с ограниченной HG_IDR (так что сначала может быть вычислена эквивалентная F_H2S, что, как сказано в этой категории вариантов осуществления, может быть выполнено путем экстраполяции ограниченной F_I2S_LIM до PB_D = PB_Mster_HDR, после чего можно снова применить адаптацию канала).FIG. 22, it is explained that the limiter 1804 is used to change the shape of the luminosity display curve. The dashed line shows the initial F_H2S and how the F_ENCINV_H2I function can be derived from it using the fixed channel adaptation algorithm, and also how the (original) remaining F_I2S_or partial recalibration function (original F_IDR in case there were no additional specific restrictions in ETSI2, which are currently formulated to require a more detailed approach to a specific implementation option, as explained now). The HG_IDR_or of this function, given that this is a completely new approach to HDR video coding, may not match the HG_COD definition, i.e. require a value above its 8-bit maximum of 255 that can be carried in ETSI2 compliant HDR encoded video. Therefore, HG_IDR_or must be lowered to a maximum of the still encoded value HG_IDR_LIM (which is 2.0 in current ETSI2 implementations, but this is not a fundamental limitation of the approach). This creates a para function that has a linear cut for the highlights a little closer to the upper horizontal border (L_out_X = 1.0), which corresponds to slightly brighter IDR images, but this is not a fundamental problem (as mentioned above, there is some room for easing in the system for designing various options). This will mean that the areas with the highest luminosity in the HDR scene image will get a lower contrast IDR representation (although the original primary HDR is fully recoverable, and the SDR view and all MDR regradings will also look good), but this is not a real problem, since the graduation is done from the higher main HDR PB_Cs and this corresponds to being in the range of 3000-5000 nits, for example, which lamps and the like usually have, which may have a slight degradation (because in any case it is always required some degrading mapping, and this is partly expected for such superbright regions). The second channel adaptation block 1805 will then again apply all of the above mathematical model, but now considering the limited HG_IDR situation (so that an equivalent F_H2S can be calculated first, which, as said in this category of embodiments, can be done by extrapolating the limited F_I2S_LIM to PB_D = PB_Mster_HDR, after which channel adaptation can be applied again).

Эта результирующая F_H2I_LIM (т.е. отображение яркостей L_HDR в яркости L_IDR) теперь может быть применена блоком 1806 отображения светимости пикселей изображения, чтобы пиксель за пикселем определять все яркости IDR (или фактически все цвета YCbCr IDR, используя также хроматическую обработку ETSI2, т.е. заданная в ней C_LUT, соответствующая форме функции отображения яркости F_H2I_LIM). Наконец, блок 1807 определения метаданных IDR вычисляет полный набор метаданных для реализации повторной градуировки на основе метаданных, совместимых с ETSI2, в отношении изображений с более низкой PB_C (для любой PB_D дисплея), т.е. ниже, чем PB_IDR (или путем экстраполяции выше, чем PB_IDR). Итак, снова SG_IDR, HG_IDR и WP_IDR определяются согласно любой из возможных комбинаций, образующих вариант осуществления, как объяснено выше. Теперь также определяются BLO_IDR и WLO_IDR (как объяснено выше, конкретная яркость на оси яркости Mster_HDR может быть отображена в 1,0 на оси яркости SDR, и это может быть переформулировано как отображение подходящим образом масштабированной яркости IDR, т.е. определение WLO_IDR, и аналогично для BLO_IDR).This resulting F_H2I_LIM (i.e. mapping L_HDR luminances to L_IDR luminances) can now be applied by image pixel luminance mapper 1806 to determine, pixel by pixel, all IDR luminances (or in fact all YCbCr IDR colors using also ETSI2 chromatic processing, i.e. e. C_LUT set therein, corresponding to the shape of the luminance display function F_H2I_LIM). Finally, the IDR metadata determiner 1807 computes a complete set of metadata to implement regrading based on ETSI2 compliant metadata for lower PB_C images (for any display PB_D), i.e. lower than PB_IDR (or by extrapolation higher than PB_IDR). So, again SG_IDR, HG_IDR and WP_IDR are defined according to any of the possible combinations forming the embodiment as explained above. BLO_IDR and WLO_IDR are now also defined (as explained above, a particular brightness on the Mster_HDR brightness axis can be mapped to 1.0 on the SDR brightness axis, and this can be reformulated as a display of a suitably scaled IDR brightness, i.e., a WLO_IDR definition, and similar for BLO_IDR).

Наконец, настраиваемая кривая может быть оптимизирована для новой ситуации метаданных IDR с помощью настраиваемого блок 1808 оптимизации кривой (в случае использования настраиваемых кривых, потому что в некоторых вариантах осуществления доступной на субрынках технологии кодеков, такой, например, как широковещательная передача в реальном времени, возможно, было решено никогда не использовать настраиваемые кривые, и тогда применяется предыдущая математическая модель «функция para + смещения»).Finally, the custom curve can be optimized for the new IDR metadata situation using the custom curve optimizer 1808 (in the case of custom curves, because in some implementations of codec technology available in sub-markets, such as real-time broadcasting, it is possible , it was decided never to use custom curves, and then the previous math model "para + offset function" is applied).

На ФИГ. 19 поясняется, как работает адаптация настраиваемой кривой. Она всегда состоит из двух концептуальных компонентов (применяемых напрямую только в одном направлении или в обратном направлении). Первый компонент можно понять, сосредоточив внимание на объекте: предположим на мгновение, что одна из контрольных точек настраиваемой кривой с множеством линейных отрезков соответствует паре брюк (так что конкретная нормализованная яркость xo1I L_in_S является, например, средней яркостью всех пикселей брюк). Преобразование используется, например, для осветления этих пикселей брюк (вокруг конкретной одной из контрольных точек и в ней), чтобы вывести нормализованные яркости, которые, по мнению специалиста по градуировке (или автоматического программного обеспечения), лучше яркостей для этих брюк. Также на ФИГ. 4 видно, что в подходе ETSI это происходит как последний (необязательный) этап кодирования с точной градуировкой в кодере (блоке 405) и, соответственно, первый этап в декодере. Так что, фактически, это преобразование яркости в действительности определяется в области яркости SDR (после грубого преобразования яркости из HDR в SDR в отношении функции пара + смещения, если таковое имеется).FIG. 19 explains how the custom curve adaptation works. It always consists of two conceptual components (applied directly in only one direction or in the opposite direction). The first component can be understood by focusing on an object: suppose for a moment that one of the control points of an adjustable curve with many line segments corresponds to a pair of trousers (so a particular normalized brightness xo1I L_in_S is, for example, the average brightness of all the pixels of the trousers). A transform is used, for example, to lighten those pixels of the pants (around and in a particular one of the control points) to output normalized luminances that the grading technician (or automatic software) thinks are better than the luminances for those trousers. Also in FIG. 4, it can be seen that in the ETSI approach this occurs as the last (optional) step of fine-scale coding in the encoder (block 405) and, accordingly, the first step in the decoder. So, in fact, this luma transform is actually defined in the SDR luminance domain (after a rough luminance transform from HDR to SDR with respect to the pair+offset function, if any).

Таким образом, можно предположить, что для любой яркости требуется преобразование (для этого объекта!), которое можно записать в мультипликативном представлении как L_out = m(L_in_SDR)*L_in_SDR.Thus, we can assume that for any brightness a transformation is required (for this object!), which can be written in multiplicative representation as L_out = m(L_in_SDR)*L_in_SDR.

Необходимое мультипликативное изменение яркости (в процентах) может быть другим для любого другого изображения, например, IDR-изображения, но на что можно положиться, так это на то, что коррекция точной градуировки соответствует конкретному «объекту», для которого необходима повторная оценка (даже если настраиваемая кривая используется по причине другого одного из ее преимуществ в дополнение к конкретной точной градуировке объекта, например, улучшения формы кривой отображения светимости при грубой градуировке, это физически все еще можно интерпретировать как такое объектно-ориентированное улучшение, будь то путем определения набора виртуальных объектов, соответствующих некоторому поддиапазону яркости). Таким образом, если отслеживать объекты в другом диапазоне яркости DR, нормализованное значение абсциссы может измениться, но не основная сущность объекта (например, у человека на мотоцикле нормализованная яркость в HDR, а именно 5/5000, отличается от той, что в SDR, а именно 5/100). Таким образом, мы должны повторно вычислить функцию для этого нового нормализованного распределения позиций яркости (это можно сделать для любого количества промежуточных функций отображения светимости при частичной повторной градуировке, даже вверх и вниз по различным частичным каналам, как бы сложно ни хотелось спроектировать вариант осуществления кодирования видео HDR). Таким образом, на ФИГ. 19a это показано в общем виде: исходная яркость xo1I объекта SDR (например, конечная точка линейного отрезка настраиваемой кривой) перемещается в xo1N (это могло произойти, например, путем применения функции abcara, являющейся инверсией F_I2S по ФИГ. 20). То же самое происходит с другими точками, например, с точкой отрезка пятиугольника (обычно можно предположить, что имеется достаточно хорошо разбросанных точек отрезка, например, 16, из которых, например, 10 могут быть автоматически установлены программным обеспечением для градуировки, если специалист по градуировке, например, применяет грубую линейную настраиваемую повторную градуировку в отношении относительно большого поддиапазона более низких яркостей). Таким образом, сместив все эти точки, теперь можно на основе исходной кривой CC_gr блока градуировки метаданных основного контента (F_H2S с CC в диапазоне яркости SDR) определить промежуточную кривую CC_XRM, применяя исходные смещения CC_gr, т.е. L_out_SDR = CC_gr[L_in_S], где значения L_in_S были исходными значениями xo1I и т.д. (но теперь значения L_out применяются к повторно отображенным позициям яркости IDR xo1N (давая в результате пунктирную кривую). Конечно, это не будут подходящие множители отображения из HDR в IDR (или, точнее, из IDR в IDR), поэтому коррекция выполняется на этапе 2, как показано на ФИГ. 19b.The required multiplicative change in brightness (percentage) may be different for any other image, such as an IDR image, but what you can rely on is that the fine grading correction corresponds to the specific "object" for which re-evaluation is needed (even if a custom curve is used for another one of its benefits in addition to specific fine object grading, such as improving the shape of the luminosity mapping curve at coarse grading, it can still physically be interpreted as such an object-oriented improvement, be it by defining a set of virtual objects corresponding to some brightness subrange). Thus, if you track objects in a different DR brightness range, the normalized abscissa value may change, but not the main essence of the object (for example, for a person on a motorcycle, the normalized brightness in HDR, namely 5/5000, differs from that in SDR, but exactly 5/100). So we have to recalculate the function for this new normalized luminance position distribution (this can be done for any number of intermediate partial regrading luminance mapping functions, even up and down the different partial channels, no matter how difficult it is to design a video coding implementation HDR). Thus, in FIG. 19a shows this in a general way: the original brightness xo1I of the SDR object (for example, the end point of the linear segment of the adjustable curve) is moved to xo1N (this could happen, for example, by applying the function abcara, which is the inverse of F_I2S of FIG. 20). The same happens with other points, such as the segment point of a pentagon (usually it can be assumed that there are sufficiently well-scattered segment points, for example 16, of which, for example, 10 can be automatically set by the calibration software if the calibration specialist , for example, applies coarse linear tunable recalibration over a relatively large sub-range of lower brightnesses). Thus, having shifted all these points, it is now possible, based on the original CC_gr curve of the main content metadata grading block (F_H2S with CC in the SDR luminance range), to determine the intermediate CC_XRM curve by applying the original CC_gr offsets, i.e. L_out_SDR = CC_gr[L_in_S], where the L_in_S values were the original xo1I values, and so on. (but now the L_out values are applied to the remapped IDR xo1N luminance positions (resulting in a dotted curve). Of course, these will not be appropriate display multipliers from HDR to IDR (or more precisely from IDR to IDR), so the correction is done in step 2 as shown in FIG 19b.

Как снова можно видеть на ФИГ. 19b, мультипликативную точную коррекцию можно интерпретировать как масштабируемый процесс, который переключается между отсутствием коррекции (яркости пикселей Mster_HDR уже верны по умолчанию, потому что это изображение было оптимально подвергнуто градуировке создателем контента в самом начале) и полной коррекции для наиболее сильно отличающегося (от Mster_HDR) изображения с PB_C в спектре подвергнутых повторной градуировке изображений, которое в подходе заявителя обычно представляет собой SDR-изображение с 100 нит (в котором полная коррекция для конкретного пикселя, например, составляет mso1, что может быть записана как абсолютное смещение, а также как мультипликативная коррекция yio1 = mso1*xso1 (любую форму yio1 = F_L(xso1) кривой отображения яркости можно сформулировать как кривую зависимых от яркости значений умножения).As can again be seen in FIG. 19b, multiplicative fine-tuning can be interpreted as a scalable process that switches between no correction (Mster_HDR pixel brightnesses are already correct by default, because this image was optimally graded by the content creator at the very beginning) and full correction for the most strongly different (from Mster_HDR) images with PB_C in the spectrum of re-graded images, which in Applicant's approach is typically a 100 nit SDR image (in which the total correction for a particular pixel is, for example, mso1, which can be written as an absolute offset as well as a multiplicative correction yio1 = mso1*xso1 (any form yio1 = F_L(xso1) of the luminance mapping curve can be formulated as a curve of luminance dependent multiplication values).

Поскольку мультипликативное представление коррекции можно сформулировать как смещения от диагонали, где yio1 = xso1, можно ввести коэффициент вертикального масштабирования:Since the multiplicative representation of the correction can be formulated as offsets from the diagonal, where yio1 = xso1, we can introduce a vertical scaling factor:

ScaleVer = max[(1-La)/(1-K); 0] [Ур. 25]ScaleVer = max[(1-La)/(1-K); 0] [Lv. 25]

с вышеопределенными La и K.with La and K as defined above.

Необходимые адаптированные значения настраиваемой кривой затем находятся как:The required adapted values of the tuning curve are then found as:

yiDA = Min[(yio1-xso1)*ScaleVer+xio1; 1] [Ур. 26]yiDA = Min[(yio1-xso1)*ScaleVer+xio1; 1] [Lv. 26]

и вычисление выполняется для всех значений xso1.and the calculation is performed for all xso1 values.

На ФИГ. 27 показан другой способ определения конечных точек отрезка настраиваемой кривой точной градуировки технически элегантным для декодеров образом. Уже было описано, как можно пересчитать параметры кривой para для грубой градуировки (и, если присутствует смещение черного и/или белого, но сейчас упростим это объяснение, сосредоточив внимание на функции para). Предположим, что функция para выполняет грубую градуировку из любого начального динамического диапазона в конечный динамический диапазон, например, динамический диапазон LDR. Смещение черного и белого может учитывать нормализованные расхождения диапазона, если таковые необходимы, поэтому настраиваемая кривая просто меняет позиционирование относительных светимостей определенных режимов по нормализованным осям. Следовательно, кривая будет начинаться в точке (0,0) и, соответственно, заканчиваться в точке (1,1), и между ними будут точки соединения отрезков, в данном примере 2 точки определения формы кривой (например, (x1, y1)). Также имеет смысл, чтобы в любом представлении и его повторной градуировке количество линейных отрезков и точек было одинаковым, поскольку природа режимов не меняется (режим самых темных цветов, например, в помещении, может заканчиваться другой (как правило, перцептуально однородной) нормализованной яркостью, например, на изображении с PB_C 200 нит в сравнении с изображением с PB_C 1500 нит, но тот факт, что существуют два режима - в помещении и на улице - не изменяется при повторной градуировке).FIG. 27 shows another way to determine the endpoints of a segment of a fine-scaled tuning curve in a technically elegant way for decoders. It has already been described how the parameters of the para curve can be recalculated for coarse grading (and if black and/or white offset is present, but for now let's simplify this explanation by focusing on the para function). Assume that the para function performs a coarse grading from any initial dynamic range to a final dynamic range, such as the LDR dynamic range. Black and white shifting can take into account normalized range differences if needed, so the custom curve simply changes the positioning of the relative luminosities of certain modes along the normalized axes. Therefore, the curve will start at the point (0,0) and, accordingly, end at the point (1,1), and between them there will be points of connection of the segments, in this example 2 points for defining the shape of the curve (for example, (x1, y1)) . It also makes sense that in any representation and its regrading, the number of line segments and points should be the same, since the nature of the modes does not change (the mode of the darkest colors, for example, indoors, may end up with a different (usually perceptually uniform) normalized brightness, for example , in the image with PB_C 200 nits compared to the image with PB_C 1500 nits, but the fact that there are two modes - indoor and outdoor - does not change when recalibrating).

Следовательно, для переопределения формы полилинейной функции повторной градуировки нужно только найти соответствующие конечные точки (xnew, ynew).Therefore, to redefine the form of the multilinear regrading function, one only needs to find the appropriate endpoints (xnew, ynew).

Можно использовать другое свойство, которое должно быть выполнено (в идеале), а именно: будет ли производиться прямая повторная градуировка основного HDR-изображения с помощью функции FL_50t1 общего диапазона (которая в этом случае будет состоять из двух последовательно применяемых функций: общей функции para 2710 и полной полилинейной функция 2711), или повторная градуировка выполняется в два этапа, сначала из основного изображения с 5000 нит в IDR-изображение с 700 нит (опять же с использованием двух функций: гарнирующей функции para 2701 IDR и генерирующей полилинейной функции 2702 IDR), а затем оттуда выполняется понижающая градуировка до LDR-изображения с 100 нит (с помощью функции para 2703 канала и полилинейной функции 2704 канала), и результат должен быть таким же: то же LDR-изображение, потому что это LDR-изображение, которое всегда следует формировать для основного HDR-изображения, т.е. то, которое создатель контента закодировал и передал (с помощью форм функции отображения светимости с понижающей градуировкой). Другими словами, какая бы из всех возможных входных нормализованных яркостей x1_MH HDR не была выбрана, окончательная выходная яркость LDR должна быть такой же. Следовательно, это также будет верно для входных яркостей, которые отображаются (через предыдущие отображения) в координату x полилинейной функции канала: x1_CH_L. Это можно использовать для пересчета отрезков, поскольку при равенстве координат y ординаты нужно только вычислять x_new для конкретного отрезка соответствующей полилинейной настраиваемой кривой в другом динамическом диапазоне.It is possible to use another property that should be satisfied (ideally), namely whether the main HDR image will be directly regraded using the general range function FL_50t1 (which in this case will consist of two functions applied in succession: the general function para 2710 and full polyline function 2711), or re-grading is done in two steps, first from the main image with 5000 nits to the IDR image with 700 nits (again using two functions: garnishing function para 2701 IDR and generating multilinear function 2702 IDR), and then downgrading to a 100 nit LDR image from there (using the para 2703 channel function and the 2704 channel polylinear function) and the result should be the same: the same LDR image, because it is the LDR image that always follows generate for the main HDR image, i.e. the one that the content creator encoded and transmitted (using the forms of the downgraded luminosity mapping function). In other words, whichever of all possible x1_MH HDR normalized input luminances is chosen, the final LDR output luminance must be the same. Therefore, this will also be true for input luminances that are mapped (via previous mappings) to the x-coordinate of the multilinear channel function: x1_CH_L. This can be used to recalculate segments, since if the y-coordinates of the ordinate are equal, you only need to calculate x_new for a specific segment of the corresponding polylinear custom curve in a different dynamic range.

Таким образом, на стороне кодирования можно для любого входного значения x1_MH вычислять адаптированное для канала значение Y_CHA, применяя масштабированный стандартизованный алгоритм. Это значение Y_CHA будет формировать соответствующую входную координату x для следующего блока, которая переходит в функцию para, определяемую для канала с PB_C, уравнения для которой были приведены выше. Значение yi_CH уже известно, поскольку оно равно значению y1_L для общей повторной градуировки из 5000 нит в 100 нит, что, конечно, на стороне кодирования, в отличие от стороны декодирования, известно напрямую (было сделано специалистом по градуировке, например). Проделав это для всех точек полилинейной функции, можно получить все ее характеризующие параметры, которые будут записаны в видеосигнал (как часть F_I2sCI).Thus, on the coding side, for any input value x1_MH, it is possible to calculate a channel-adapted Y_CHA value using a scaled standardized algorithm. This Y_CHA value will form the corresponding input x coordinate for the next block, which goes into the para function defined for the channel with PB_C, the equations for which were given above. The value of yi_CH is already known, since it is equal to the value of y1_L for a total recalibration from 5000 nits to 100 nits, which of course is known directly on the encoding side, as opposed to the decoding side (done by the calibrator, for example). By doing this for all points of the multilinear function, you can get all its characterizing parameters that will be recorded in the video signal (as part of F_I2sCI).

На стороне декодера снова можно использовать то же обоснование, чтобы прийти к несколько иному алгоритму, поскольку теперь необходимо вычислить некоторые неизвестные параметры. Итак, теперь необходимо вычислить значения x1_ML, соответствующие принятым, следовательно, известным значениям x1_CH_L, потому что первым этапом было восстановление общей функции (функций) повторной градуировки. Как правило, функции имеют цифровую точность, например, 256 квантованных значений x (т.е. не конкретные, например, две или три точки между отрезками, а все точки, а также точки на линиях между ними), поэтому можно просто численно построить таблицу LUT для всех точек настраиваемой кривой, поскольку она была настроена, т.е. y1_L этой кривой известно, а необходимое x1_ML соответствует x1_CH_L.On the decoder side, the same rationale can again be used to arrive at a slightly different algorithm, since some unknown parameters now need to be computed. So, now it is necessary to calculate the x1_ML values corresponding to the accepted, hence known, x1_CH_L values, because the first step was to restore the general recalibration function(s). As a rule, functions have digital precision, for example, 256 quantized x values (i.e. not specific, for example, two or three points between the segments, but all points, as well as points on the lines between them), so you can simply numerically build a table LUT for all points of the custom curve as it has been tuned, i.e. y1_L of this curve is known, and the required x1_ML corresponds to x1_CH_L.

Отображая яркость LDR в яркость IDR, получим x1_CH для любого yi_CH, и это значение может быть отображено обратно через функцию para 2703. Также можно определить, какое из всех возможных значений x1_MH соответствует этому значению Y_CHA, если известна функция para 2701 и полилинейная функция 2702. Из вышеизложенного можно понять, как вычислить функцию para 2701 из метаданных функции, принятых на стороне декодера, как объяснено выше. Нам неизвестна полилинейная функция 2702 (пока), но в данный момент она не нужна. Потому что известно, что настраиваемая кривая 2702 также подчиняется уравнению вертикального масштабирования стандартизованного алгоритма. Любое протестированное X1_MH может быть преобразовано в соответствующее X_CHA, и соответствующее (и необходимое) значение Y_CHA следует из: Y_CHA = (y1_L-x1_ML)*scaleVer+X_CHA, а x1_ML можно вычислить из x1_MH, применив общую функцию para 2710.By mapping LDR luminance to IDR luminance, we get x1_CH for any yi_CH, and this value can be mapped back via the para 2703 function. It is also possible to determine which of all possible x1_MH values corresponds to this Y_CHA value if the para 2701 function and the 2702 polylinear function are known. From the above, it can be understood how to calculate the para 2701 function from the function metadata received at the decoder side, as explained above. We don't know about multiline function 2702 (yet), but we don't need it at the moment. Because the tuned curve 2702 is also known to obey the vertical scaling equation of the standardized algorithm. Any tested X1_MH can be converted to the corresponding X_CHA and the corresponding (and required) Y_CHA value follows from: Y_CHA = (y1_L-x1_ML)*scaleVer+X_CHA and x1_ML can be computed from x1_MH by applying the para 2710 generic function.

Следовательно, можно найти ровно одно соответствующее значение x1_MH, соответственно, для значения x1_ML, которое будет восстанавливать полную полилинейную функцию 2711. Поскольку тогда известна общая повторная градуировка и повторная градуировка части канала, оставшаяся повторная градуировка, т.е. между основным изображением с 5000 нит и IDR-изображением с 700 нит, также может быть определена; отсюда, все декодируется, т.е. функции определены, и может начаться обработка всех цветов пикселей IDR-изображения, как поясняется на ФИГ. 26.Therefore, exactly one corresponding x1_MH value can be found, respectively, for the x1_ML value, which will reconstruct the complete multilinear function 2711. between the main image with 5000 nits and the IDR image with 700 nits can also be determined; from here, everything is decoded, i.e. functions have been determined, and processing of all pixel colors of the IDR image can begin, as explained in FIG. 26.

На ФИГ. 26 снова концептуально поясняется в обобщенном виде (чтобы обеспечить лучшую степень понимания для читателя) все то, что опытный читатель уже мог найти в приведенных выше подробных объяснениях. Верхние блоки канала имеют отношение к перерасчету метаданных, т.е. к различным этапам определений различных функций отображения светимости (нижний блок 2650 и т.д. - это те блоки, которые выполняют фактическую обработку цвета пикселей). Теперь хорошо видно двухэтапное вычисление, соответствующее применению стандартизированного алгоритма в функциональном блоке 901 HDR, а именно определение функции генератора 903 функции отображения IDR в кодере, но теперь со стороны декодера SLHDR2PLUS видео. Как объяснялось, декодеры получают функцию F_I2sCI, которая определяет способ реализации повторной градуировки светимости между принятым выбранным IDR-изображением с его пиковой яркостью PB_CH канала и градуировкой при 100 нит. Но нам нужно определить функцию большего диапазона между 100 нит и пиковой яркостью основного HDR-изображения, например, PB_C_H50 = 6000 нит, т.е. функцию FL_50t1 (или, точнее говоря, функцию, имеющую обратную форму по сравнению с той, которая используется на стороне кодирования), которую будет использовать вычислитель 2601 исходной функции. Но это еще не было достигнуто, нам требуется декодировать нормализованные светимости IDR (или, точнее говоря, в нашей типичной топологии декодирования перцепционно унифицированные нормализованные яркости пикселей) в восстановленные светимости основного HDR-изображения. Таким образом, ни исходно принятая функция F_I2sCI, ни функция FL_50t1 не определяет повторную градуировку между основным изображением с PB_C_H50, выраженной в нит, и изображением с 100 нит, ни также IDR-изображение с PB_CH, выраженной в нит, ни одно из двух других, в связи с чем нам нужно определить функцию F_IDRt50, которая будет применяться к принятым яркостям пикселей IDR для получения (перцепционно унифицированных) восстановленных яркостей YpMstr пикселей основного HDR-изображения, что и будет делать блок 2602 определения реконструирующей функции. Была показана возможность адаптации дисплея в виде блока 2603 вычисления функции оптимизации отображения, показанного пунктирной линии, потому что, как было сказано, хотя он, как правило, также будет задействован в наших полнофункциональных ИС декодирования SLHDR2PLUS, он в принципе является необязательным для декодирования SLHDR2PLUS. Пиковая яркость PB_CH канала будет использоваться для преобразования нормально закодированных (например, 10-битовых YCbCr) светимостей пикселей IDR в перцепционно однородные яркости YpIDR пикселей IDR, на основе которых, как правило, будет выполняться реконструктивное отображение светимости в наших предпочтительных ИС SLHDR2PLUS (хотя специалист в данной области техники понимает, как можно воплотить принципы настоящего изобретения в альтернативных схемах или программном обеспечении, которые не применяют перцепционную униформизацию или другой способ и т.д.). С этой целью блок 2650 перцепционной униформизации применяет уравнения 1 и 2 с PB_C_H = PB_CH. Блок 2651 повышающего отображения светимости восстанавливает яркости основного HDR-изображения, просто применяя определенную функцию, т.е. YpMstr = F_IDRt50(YpIDR). В случае, если адаптация дисплея необходима для создания, например, изображения с PB_C 350 нит, блок 2652 оптимизации отображения просто применяет для этого определенную функцию оптимизации отображения, давая в результате оптимизированные для отображения яркости пикселей: Yglim = F_DO(YpMstr). Их можно преобразовать в фактические нормализованные светимости L пикселей с помощью блока 2653 линеаризации, который применяет обратные уравнения 1 и 2, но теперь с помощью, например, PB_C_DO 350 нит при оптимизации отображения вместо PB_CH. Наконец, как правило, при необходимости может быть дополнительный генератор 2654 кода яркости, который применяет перцепционный квантователь EOTF из SMPTE 2084 для получения выходных яркостей YPQ в популярном формате HDR10.FIG. 26 again conceptually explains in a generalized way (to provide a better degree of understanding for the reader) everything that the experienced reader could already find in the above detailed explanations. The upper blocks of the channel are related to the recalculation of metadata, i.e. to various steps in the definitions of various luminance display functions (lower block 2650, etc. are those blocks that perform the actual pixel color processing). The two-step calculation is now clearly visible, corresponding to the application of the standardized algorithm in the HDR function block 901, namely the determination of the IDR mapping function generator function 903 in the encoder, but now from the SLHDR2PLUS video decoder side. As explained, the decoders receive the F_I2sCI function, which defines how to implement luminance recalibration between the received selected IDR picture with its PB_CH channel peak luminance and the 100 nit graduation. But we need to define a larger range function between 100 nits and the peak brightness of the main HDR image, for example, PB_C_H50 = 6000 nits, i.e. function FL_50t1 (or, more specifically, a function that has an inverse form compared to that used on the encoding side), which will be used by the calculator 2601 of the original function. But this has not yet been achieved, we need to decode the normalized IDR luminances (or more precisely, in our typical decoding topology, perceptually unified normalized pixel luminances) into the reconstructed luminosities of the main HDR image. Thus, neither the originally received F_I2sCI function nor the FL_50t1 function defines a re-grading between the main picture with PB_C_H50 expressed in nits and the picture with 100 nits, nor the IDR picture with PB_CH expressed in nits, neither of the other two, therefore, we need to define a function F_IDRt50 that will be applied to the received IDR pixel intensities to obtain (perceptually unified) reconstructed pixel intensities YpMstr of the main HDR image, which is what the reconstructor function definition block 2602 will do. It has been shown that the display can be adapted in the form of a display optimization function calculator 2603, shown in dotted line, because, as said, although it will generally also be used in our full-featured SLHDR2PLUS decoding ICs, it is in principle optional for SLHDR2PLUS decoding. The peak luminance of the PB_CH channel will be used to convert normally encoded (e.g., 10-bit YCbCr) IDR pixel luminances into perceptually uniform IDR pixel luminances YpIDR, from which luminance reconstruction will typically be performed in our preferred SLHDR2PLUS ICs (although one skilled in the art understands how the principles of the present invention can be implemented in alternative circuitry or software that does not use perceptual uniformization or other method, etc.). To this end, perceptual uniformization block 2650 applies Equations 1 and 2 with PB_C_H = PB_CH. The luminance up-mapping unit 2651 restores the luminances of the main HDR image simply by applying a specific function, i. e. YpMstr = F_IDRt50(YpIDR). In the event that display adaptation is necessary to create, for example, an image with a PB_C of 350 nits, the display optimizer 2652 simply applies a certain display optimization function to do so, resulting in display-optimized brightness pixels: Yglim = F_DO(YpMstr). These can be converted to the actual normalized L pixel luminosities with a linearizer 2653 that applies inverse equations 1 and 2, but now with, for example, PB_C_DO 350 nits in display optimization instead of PB_CH. Finally, there can typically be an optional luma code generator 2654 that uses the perceptual EOTF quantizer from SMPTE 2084 to produce YPQ output luminances in the popular HDR10 format, if desired.

На ФИГ. 28 приводится примерная спецификация обработки цветности (т.е. влияющая на насыщенность цветов пикселей, а не на светимости). Предположим, что используется топология устройства обработки (например, обычно интегральная схема внутри некоторого, например, потребительского устройства), показанная на ФИГ. 15, при которой обработка цветности (умножитель) должна получить соответствующее мультипликативное значение для каждого пикселя, или, точнее говоря, каждый возможный цвет YCbCr пикселя. Это значение определяется блоком 1551 определения хроматической обработки с помощью функции, которая позволяет представлять другое значение для разных значений яркости пикселя, т.е. разрешает изменение дифференциальной насыщенности в цветовой гамме, т.е., в частности, по высоте Y цветовой гаммы.FIG. 28 provides an exemplary chrominance processing specification (i.e. affecting pixel color saturation rather than luminosity). Assume that a processing device topology is used (eg, typically an integrated circuit within some, eg, consumer device) shown in FIG. 15, in which the chrominance processing (multiplier) should obtain the corresponding multiplicative value for each pixel, or more specifically, each possible YCbCr color of a pixel. This value is determined by the chromatic processing determination block 1551 with a function that allows a different value to be represented for different pixel brightness values, i.e. allows changing the differential saturation in the color range, i.e., in particular, along the Y height of the color range.

На ФИГ. 28 показан пример такой функции F_C (Xi), где Xi теперь является нормализованным представлением Y на шкале, заканчивающейся, например, на 1,0, которая обычно характеризует фиксированное значение 10 000 нит. Она представляет собой состоящую из нескольких линейных отрезков кривую (приведенную исключительно в качестве неограничивающего примера), которая определяет для нескольких возможных яркостей пикселей коэффициент насыщенности (Ys = F_C(Xs), например, 0,33). В этом примере значение 1/2 означает тождество цветности, т.е. ни усиление, ни уменьшение насыщенности. В этом конкретном примере значения ниже 0,5 определяют усиление цветности, а значения выше - уменьшение насыщенности; следовательно, ясно, что эта конкретная характеристическая кривая F_C (Xi) усиления насыщенности, которую, например, создатель контента или автоматические средство создания контента может свободно выбирать с любой формой в зависимости от потребностей конкретной HDR-сцены и ее изображений (например, ночная улица с красочными знаками TL или огненный взрыв, требующий другой оптимальной настройки цветности для преобразования изображения с первым динамическим диапазоном светимости в оптимально соответствующее выходное изображение с другим вторым динамическим диапазоном светимости), уменьшает насыщенность для более ярких объектов, чтобы они, например, соответствовали верхней части гаммы.FIG. 28 shows an example of such a function F_C(Xi), where Xi is now a normalized representation of Y on a scale ending, for example, in 1.0, which typically represents a fixed value of 10,000 nits. It is a multilinear curve (given solely as a non-limiting example) that defines a saturation factor (Ys=F_C(Xs), eg 0.33) for several possible pixel brightnesses. In this example, the value 1/2 means chromaticity identity, i.e. neither boost nor desaturate. In this particular example, values below 0.5 indicate a chroma boost, and values above a decrease in saturation; therefore, it is clear that this particular saturation enhancement characteristic curve F_C(Xi), which, for example, a content creator or automatic content creator can freely choose with any shape depending on the needs of a particular HDR scene and its images (for example, a night street with colorful characters TL or a fire explosion requiring a different optimal chroma setting to convert an image with a first luminosity dynamic range to an optimally matched output image with a different second luminance dynamic range) reduces the saturation for brighter objects to match the upper gamut, for example.

В этом примере сделано предположение, что наше исходное основное HDR-изображение имело кодируемую пиковую яркость или максимальную возникающую светимость пикселей 4000 нит, что соответствует некоторому нормализованному однородному значению PQ: PQ_4000 = 0,9.In this example, it is assumed that our original main HDR image had an encoded peak luminance or maximum emerging pixel luminance of 4000 nits, which corresponds to some normalized uniform PQ value: PQ_4000 = 0.9.

Поскольку в этом основном HDR-изображении нет ничего выше 4000 нит, значения усиления насыщенности выше 4000 нит, в принципе, указывать не нужно, но можно, например, указать их, чтобы они оставались постоянными и равными значению Ys3 в 4000 нит. Видно, что исходная характеристическая кривая усиления насыщенности, обозначенная маленькими буквами «s», определяется точками (Xs1, Ys1), (Xs2, Ys2) и т.д., при этом координата X является нормализованной яркостью (на перцепционно унифицированной оси, используя в этом примере SMPTE 2084 EOTF), а координата Y представляет собой применимый мультипликативный коэффициент усиления для этого значения X, т.е. 0,88, умножаемый на Cb и Cr аналогичным образом.Since there is nothing above 4000 nits in this main HDR image, saturation gain values above 4000 nits generally do not need to be specified, but you can, for example, specify them to remain constant and equal to the Ys3 value of 4000 nits. It can be seen that the original saturation enhancement characteristic curve, denoted by small letters "s", is defined by the points (Xs1, Ys1), (Xs2, Ys2), etc., with the X coordinate being the normalized brightness (on a perceptually unified axis, using in example SMPTE 2084 EOTF) and the y-coordinate is the applicable multiplicative gain for that X value, i.e. 0.88 multiplied by Cb and Cr in the same way.

Эта начальная ситуация и исходная функция 2801 усиления насыщенности определяют, как следует обрабатывать цветности пикселей при переходе от первого эталонного динамического диапазона, в данном случае, HDR PB_C 4000 нит, ко второму эталонному динамическому диапазону, который в этом примере соответствует типичному изображению PB_C_SDR с 100 нит с его яркостями и цветностями Cb, Cr пикселей.This initial situation and the initial saturation gain function 2801 determine how the pixel chromaticities should be handled when moving from the first reference dynamic range, in this case HDR PB_C 4000 nits, to the second reference dynamic range, which in this example corresponds to a typical PB_C_SDR image with 100 nits with its brightnesses and chromaticities of Cb, Cr pixels.

Задача SLHDR2PLUS снова состоит в том, чтобы представить это фактически как отдельную обработку, связанную с PB_C канала, например, если PB_CH = 600 нит, нужно найти характеристическую кривую 2804 усиления насыщенности канала, которая соответствует исходной характеристической кривой 2801 усиления насыщенности в том смысле, что она применяет такое же изменение цветности цветов, как если бы нам пришлось начинать с IDR-изображения канала связи, соответствующего исходному основному HDR-изображению.The task of SLHDR2PLUS again is to represent this as effectively a separate processing associated with the channel PB_C, for example, if PB_CH = 600 nits, one should find a channel saturation gain characteristic curve 2804 that corresponds to the original saturation gain characteristic curve 2801 in the sense that it applies the same chroma change as if we had to start with an IDR link image corresponding to the original main HDR image.

Другими словами, если кто-то отображает любой пиксель основного HDR-изображения (Y_HDR, Cb_HDR, Cr_HDR) в любой вторичный цвет динамического диапазона, например, пиксель SDR (Y_SDR, Cb_SDR, Cr_SDR), или соответствующий цвет пикселя для MDR-изображения с 250 нит с целью оптимального управления дисплеем с PB_D 250 нит (Y_MDR2, Cb_ MDR2, Cr_ MDR2), т.е. поскольку это предусматривает определенные и, как правило, совместно передаваемые в виде метаданных функцию (функции) отображения яркости и исходную функцию F_C, то нужно получить точно такие же или, по меньшей мере, хорошо соответствующий (соответствующие) цвет (цвета) пикселей, например, (Y_MDR2, Cb_ MDR2, Cr_ MDR2), если начинать с цветов (Y_CDR6, Cb_ CDR6, Cr_ CDR6) изображения канала, а затем применять соответствующую характеристическую кривую 2804 усиления насыщенности канала (т.е. эта функция затем может быть загружена в блоке 1551 определения хроматической обработки, и само устройство может начать массовую обработку входящих пикселей); а также правильное отображение яркости канала, как подробно объяснено в различных возможных вариантах осуществления выше.In other words, if one maps any pixel in the main HDR image (Y_HDR, Cb_HDR, Cr_HDR) to any secondary dynamic range color, such as an SDR pixel (Y_SDR, Cb_SDR, Cr_SDR), or the corresponding pixel color for an MDR image with 250 nits for optimal display management with PB_D 250 nits (Y_MDR2, Cb_ MDR2, Cr_ MDR2), i.e. since this involves defined and generally metadata-transmitted luminance mapping function(s) and the original F_C function, it is necessary to obtain exactly the same, or at least well-matched, pixel color(s), e.g. (Y_MDR2, Cb_ MDR2, Cr_ MDR2) if you start with the colors (Y_CDR6, Cb_ CDR6, Cr_ CDR6) of the channel image, and then apply the corresponding channel saturation gain characteristic curve 2804 (i.e., this function can then be loaded in block 1551 chromatic processing definitions, and the device itself can start bulk processing of incoming pixels); as well as correctly displaying the channel luminance, as explained in detail in the various possible embodiments above.

И что еще более интересно, декодеры, снабженные этими функциями отображения яркости и цветности, связанными с PB_C канала, должны быть способны восстанавливать исходную ситуацию (в частности, определять исходную характеристическую кривую усиления насыщенности по принятой характеристической кривой усиления насыщенности канала), например, восстанавливать HDR-изображение и т.д. или даже выполнять любое отображение вверх или вниз в любой вторичный динамический диапазон (MDR), но начиная с принятого IDR-изображения и его цветов пикселей (и предпочтительно с использованием той же топологии обработки пикселей, предпочтительно, как показанная на ФИГ. 15).And more interestingly, decoders equipped with these luminance and chrominance mapping functions associated with the channel PB_C should be able to recover the original situation (in particular, determine the original saturation gain characteristic curve from the received channel saturation gain characteristic curve), e.g., recover HDR -image, etc. or even perform any mapping up or down to any secondary dynamic range (MDR) but starting from the received IDR image and its pixel colors (and preferably using the same pixel processing topology, preferably as shown in FIG. 15).

На стороне кодирования IDR-изображение для передачи по каналу может быть сформировано, например, путем выполнения отображения изображения PB_C_master_HDR с 4000 нит в изображение с PB_CH 600 нит для нормализованных яркостей, как поясняется с помощью любого из вышеупомянутых вариантов осуществления в части отображения яркости (см., например, F_H2hCI по ФИГ. 9). Это показано горизонтальным перемещением на расстоянии PL(Xs2) исходной точки 2802 отрезка основной функции до точки 2803 адаптированного для канала отрезка (эффект только этого сдвига показан тонкой пунктирной кривой, которая просто показана но технически не используется). Поскольку отображение из IDR-изображения с 600 нит в изображение с 100 нит реализует только часть полной обработки цветности из 4000 в 100 нит, кодеру все еще необходимо вычислять новые выходные значения Y для точек, соответствующих вертикальному сдвигу (например, точки 2805 адаптированного для канала значения усиления цветности, которая соответствует кружку над ней, т.е. имеет то же значение Xc).On the encoding side, an IDR image for channel transmission may be generated, for example, by performing mapping of a 4000 nit PB_C_master_HDR image to a 600 nit PB_CH image for normalized luminances, as explained by any of the above embodiments in the luminance mapping part (see , for example, F_H2hCI of FIG. 9). This is shown by horizontally moving a distance PL(Xs2) of the main function bar origin point 2802 to the channel-adapted bar point 2803 (the effect of this shift alone is shown by a thin dashed curve, which is simply shown but not technically used). Since the mapping from a 600 nit IDR image to a 100 nit image implements only part of the full chroma processing from 4000 to 100 nits, the encoder still needs to calculate new output Y values for the points corresponding to the vertical shift (e.g., point 2805 of the channel-adapted value amplification of the chromaticity that corresponds to the circle above it, i.e. has the same Xc value).

Функция усиления насыщенности должна быть изменена в первую очередь для того, чтобы отображать основное изображение в представление канала (например, PB_C_MHDR = 4000 нит в PB_CH = 600 нит), и это в соответствии с данным примером предпочтительно выполняется следующим образом:The saturation enhancement function must be changed in the first place in order to map the main image to the channel view (for example, PB_C_MHDR = 4000 nits in PB_CH = 600 nits), and this according to this example is preferably done as follows:

Сначала рассчитывается коэффициент модификации согласноFirst, the modification factor is calculated according to

MF = 1-(invPQ[PB_CH]-invPQ[PB_SDR]/(invPQ [PB_ C_MHDR]-invPQ[PB_SDR) [Ур. 27]),MF = 1-(invPQ[PB_CH]-invPQ[PB_SDR]/(invPQ [PB_C_MHDR]-invPQ[PB_SDR) [Lv. 27]),

с PB_SDR = 100 нит в данном примере, а invPQ представляет собой сокращение для обратной функции PQ EOTF, стандартизированной в SMPTE 2084.with PB_SDR = 100 nits in this example, and invPQ is an abbreviation for the inverse PQ EOTF function standardized in SMPTE 2084.

Затем вычисляется адаптированная для канала функция g(Xn), которая определяется как:The channel-adapted function g(Xn) is then computed and is defined as:

g(Xn) = F_C[Xn]*MF+(1-MF)/Rs [Ур. 28]g(Xn) = F_C[Xn]*MF+(1-MF)/Rs [Lv. 28]

где Rs является константой, которая обычно выбирается равной 2,0, и где Xn является любым возможным нормализованным представлением яркости на PQ-шкале для яркости пикселя, как показано на ФИГ. 28.where Rs is a constant that is typically chosen to be 2.0, and where Xn is any possible normalized representation of the brightness on the PQ scale for the brightness of a pixel, as shown in FIG. 28.

Новая LUT для обработки, которая должна быть загружена в блок 1551 определения хроматической обработки, может, например, в предпочтительном варианте осуществления определяться какThe new processing LUT to be loaded into the chromatic processing determination block 1551 may, for example, be defined in the preferred embodiment as

F_C_chadap[Xn] = Min{LC0; (1+MF*POWER[Xn; 2,4])/(Xn*Max[Rs/255; Rs*g(Xn)])*S} [Ур. 29]F_C_chadap[Xn] = Min{LC0; (1+MF*POWER[Xn; 2,4])/(Xn*Max[Rs/255; Rs*g(Xn)])*S} [Lv. 29]

При этом F_C_chadap представляет собой адаптированную функцию усиления насыщенности, соответствующую F_C создателя исходного контента для основного HDR-контента, но для конкретной PB_CH и соответствующего изображения с промежуточным динамическим диапазоном, LC0 является константой, которая, например, предпочтительно равна 1/8, POWER обозначает степенную функцию, Rs является другой константой, которая предпочтительно равна 2, и S является константой, зависящей от количества битов, которые использует длина слова кодов яркости, S = 1/(POWER [2; длина слова]), например, 1/1023 для 10-битовых входных изображений.Wherein, F_C_chadap is an adapted saturation gain function corresponding to the F_C of the original content creator for the main HDR content, but for a particular PB_CH and the corresponding intermediate dynamic range image, LC0 is a constant, which is preferably 1/8 for example, POWER denotes a power function, Rs is another constant, which is preferably equal to 2, and S is a constant depending on the number of bits that the word length of the luma codes uses, S = 1/(POWER [2; word length]), for example, 1/1023 for 10 -bit input images.

Что интересно, так это степенная функция в числителе в уравнении 29. Это пример хорошо работающей функции для коррекции нелинейности в поведении насыщенности, возникающей из-за кодификации яркостей и цветностей в области, определяемой PQ (так же отличающейся от нормального поведения функции квадратного корня, как и в свое время исходное определение YCbCr в SDR/MPEG).What is interesting is the power function in the numerator in Equation 29. This is an example of a well-functioning function for correcting for non-linearity in saturation behavior resulting from the codification of luminances and chroma in the region defined by PQ (as different from the normal behavior of the square root function as and at one time the original definition of YCbCr in SDR/MPEG).

Этап модификации первого способа является только отправной точкой для дальнейшего вычисления характеристической кривой 2804 усиления насыщенности (фактически, это «половина» преобразования из 4000 нит в 600 нит - начиная с исходной спецификации от 4000 до 100 нит - но на самом деле нас интересует характеристическая кривая 2804 усиления насыщенности от 600 до 100 нит, в связи с чем необходимо разделить общее действие на две части и, имея на первом этапе модификации уже вычисленную первую часть, теперь вычислим оставшуюся часть всего набора).The modification step of the first method is only the starting point for further calculation of the saturation gain characteristic curve 2804 (actually, this is the "half" of the conversion from 4000 nits to 600 nits - starting from the original specification from 4000 to 100 nits - but what we are really interested in is the characteristic curve 2804 saturation gain from 600 to 100 nits, in connection with which it is necessary to divide the total action into two parts and, having already calculated the first part at the first stage of modification, we now calculate the remaining part of the entire set).

Чтобы получить кривую 2804, кодер SLHDR2PLUS должен сделать две вещи.To obtain a 2804 curve, the SLHDR2PLUS encoder must do two things.

Во-первых, ему необходимо вычислить новые точки определения для линейных отрезков кривой 2804 F_C_chacomm[Xc] (или аналогично с непрерывным представлением кривой F_C), отслеживая такие точки посредством отображения яркости.First, he needs to calculate new definition points for the linear segments of the F_C_chacomm[Xc] curve 2804 (or similarly with the continuous representation of the F_C curve), tracking such points by displaying the brightness.

Другими словами, каждая исходная точка (из исходной кривой F_C 4000-100 нит, поставляемой с метаданными), например, Xs2 необходимо отобразить в новую нормализованную точку Xc2 и т.д.In other words, each seed point (from the original 4000-100 nit F_C curve supplied with the metadata), eg Xs2, needs to be mapped to a new normalized Xc2 point, and so on.

Это выполняется посредством применения отображения PL (Xs2) общей яркости, как это было определено в любой ситуации варианта осуществления, описанной выше, т.е. кривая PL является кривой F_H2hCI по ФИГ. 9.This is done by applying the overall luminance mapping PL(Xs2) as determined in any situation of the embodiment described above, i.e. the PL curve is the F_H2hCI curve of FIG. 9.

Например, если отображение яркости было определено только с помощью функции para, будет использоваться подходящим образом деформированная функция para (согласно приведенным выше уравнениям) для отображения позиций нормализованных яркостей PB_C_MHDR 4000 нит [обозначенных нижним индексом «s» на ФИГ. 28] в соответствующие позиции нормализованных яркостей PB_CH 600 нит [обозначенных нижним индексом «c» на ФИГ. 28]. Если отображение яркости также включало в себя смещение белого и/или настраиваемую форму кривой и т.д., все это необходимо аналогичным образом отрегулировать для ситуации с 600 нит и рассчитать соответствующие позиции (Xc…) нормализованных яркостей 600 нит, откуда начинается определение кривой 2804.For example, if the luminance mapping was only determined using the para function, a suitably deformed para function (according to the above equations) will be used to display the positions of the PB_C_MHDR 4000 nit normalized luminances [denoted by the subscript "s" in FIG. 28] to the respective positions of the normalized luminances PB_CH 600 nits [indicated by the subscript "c" in FIG. 28]. If the luminance mapping also included a white offset and/or a custom curve shape, etc., all of these would need to be similarly adjusted for the 600 nit situation and the corresponding positions (Xc…) of the 600 nit normalized luminances would be calculated, from where curve definition 2804 starts .

Но регулировка цветности для всех этих (повторно определенных) позиций Хс требует выполнения только оставшейся части коррекции от 600 нит (или любой другой PB_CH IDR) до самого низкого опорного уровня динамического диапазона, который, как правило, составляет PB_SDR 100 нит.But adjusting the chroma for all of these (redefined) Xc positions requires only the remainder of the correction from 600 nits (or any other PB_CH IDR) to the lowest dynamic range reference level, which is typically a PB_SDR of 100 nits.

Значения Yc вычисляются согласноYc values are calculated according to

Yc = Ys/{Rs*(Ys*MF+(1-MF)/Rs)} [Ур. 30]Yc = Ys/{Rs*(Ys*MF+(1-MF)/Rs)} [Lv. thirty]

Следует отметить, что Ys = F_C[Xs].It should be noted that Ys = F_C[Xs].

Следует отметить, что это объясняет только завершение более важной части кривой, а именно ситуации:It should be noted that this only explains the completion of the more important part of the curve, namely the situation:

Xs<=invPQ[PB_C_MHDR]; для нормализованных PQ-яркостей выше, например, значения 0,9, соответствующего примерной PB_C_MHDR = 4000 нит, предпочтительно использовать следующее уравнение для сохранения правильного соотношения масштабирования:Xs<=invPQ[PB_C_MHDR]; for normalized PQ luminances above, for example a value of 0.9 corresponding to an approximate PB_C_MHDR = 4000 nits, it is preferable to use the following equation to maintain the correct scaling ratio:

Xc = Xs*invPQ[PB_CH]/invPQ[PB_C_MHDR] [Ур. 31]Xc = Xs*invPQ[PB_CH]/invPQ[PB_C_MHDR] [Lv. 31]

Значения Yc для этих верхних значений Xc будут вычисляться аналогичным образом или поддерживаться постоянными при последнем значимом значении, если эта часть кривой не используется на практике.The Yc values for these upper Xc values will be calculated in the same way or kept constant at the last significant value if this part of the curve is not used in practice.

Наконец, обычно может быть использовано некоторое округление до некоторого уровня квантования, например:Finally, some rounding to some level of quantization can usually be used, for example:

(Xcr, Ycr) = round[255*(Xc, Yc)]/255 [Ур. 32](Xcr, Ycr) = round[255*(Xc, Yc)]/255 [Lv. 32]

Декодеру SLHDR2PLUS необходимо восстанавливать исходные пары (Xs, Ys) из переданных и принятых пар (Xc, Yc), а именно пар (Xcr, Ycr) определения кривой F_C_chacomm[Xc] (т.е. характеристической кривой 2804 усиления насыщенности канала). Поэтому применяются два обратных этапа кодера.The SLHDR2PLUS decoder needs to recover the original pairs (Xs, Ys) from the transmitted and received pairs (Xc, Yc), namely the pairs (Xcr, Ycr) of defining the F_C_chacomm[Xc] curve (i.e., channel saturation gain characteristic curve 2804). Therefore, two reverse encoder steps are applied.

Сначала декодеру необходимо повторно отобразить точки определения линейного отрезка кривой усиления насыщенности из их позиций Xc в позиции Xs. Выше было показано, как вычислять отображение яркости из IDR, например, позиций яркости PB_CH 600 нит в исходные позиции яркостей основного HDR-изображения, начиная с функции отображения яркости, адаптированной для канала, которая принята в метаданных, совместно переданных с IDR-изображениями.First, the decoder needs to remap the definition points of the linear segment of the saturation gain curve from their Xc positions to the Xs position. It has been shown above how to calculate the luminance mapping from IDR, for example, PB_CH luminance positions of 600 nits, to the original luminance positions of the main HDR image, starting from the channel-adapted luminance mapping function which is adopted in the metadata co-transmitted with the IDR images.

Будем вызывать эту операцию в области PQ (как показано на ФИГ. 28, значения Xs и Xc определены в области PQ с применением SMPTE 2084):We will call this operation in the PQ region (as shown in FIG. 28, the values of Xs and Xc are determined in the PQ region using SMPTE 2084):

Xs = PQICA(Xc) [Ур. 33]Xs = PQICA(Xc) [Eq. 33]

c формой этой обратной функции адаптации канала снова в зависимости, среди прочего, от того, какое определение функции отображения яркости использовалось, например, одна только функция para, а не, например, функция para совместно с настраиваемой кривой, и, с другой стороны, конкретных значений параметров, таких как ShadowGain, определяющих конкретную функцию para, которая применима к HDR-сцене исследования пещеры и т.д. (все это было подробно изучено для различных вариантов осуществления выше).with the form of this inverse channel adaptation function again depending, among other things, on which definition of the luminance mapping function was used, for example, the para function alone, and not, for example, the para function together with the adjustable curve, and, on the other hand, specific parameter values such as ShadowGain defining the particular para function that applies to the HDR cave exploration scene, etc. (all of which have been explored in detail for the various embodiments above).

В этой ситуации корректировка снова выглядит следующим образом:In this situation, the adjustment again looks like this:

Если Xc>invPQ(PB_CH), то Xs = Xc*invPQ[PB_C_MHDR]/invPQ[PB_CH] [Ур.34]If Xc>invPQ(PB_CH), then Xs = Xc*invPQ[PB_C_MHDR]/invPQ[PB_CH] [Lv.34]

Необходимые значения Ys вычисляются согласно:The required Ys values are calculated according to:

Ys = (MF-1)*Yc/(Rs*MF*Yc-1) [Ур. 35]Ys = (MF-1)*Yc/(Rs*MF*Yc-1) [Eq. 35]

Наконец, снова может быть задействовано округление, например, с шагом 1/255.Finally, rounding can again be involved, for example in increments of 1/255.

Наконец, хотя это полезно для восстановления только исходных цветов (Y, Cb, Cr) основного HDR-изображения из принятого IDR-изображения, является предпочтительным, если декодер SLHDR2PLUS может немедленно осуществлять преобразование в (т.е. вычислять соответствующие цвета, например, (Y_MDR2, Cb_ MDR2, Cr_ MDR2)) любое необходимое изображение со средним динамическим диапазоном для оптимального управления дисплеем с PB_D_MDR, например, 250 или 400 нит, и делать это, конечно же, за один раз, т.е. начиная с адаптированных для канала цветов (Y_CDR6, Cb_ CDR6, Cr_ CDR6) IDR; т.е., например, путем загрузки соответствующих функций (или LUT и т.д.) обработки яркости и функции F_C_MDR определения множителя цветности в топологию обработки цвета пикселей, как показано на ФИГ. 15.Finally, although it is useful for recovering only the original colors (Y, Cb, Cr) of the main HDR image from the received IDR image, it is preferable if the SLHDR2PLUS decoder can immediately convert to (i.e. calculate the corresponding colors, for example, ( Y_MDR2, Cb_ MDR2, Cr_ MDR2)) any required medium dynamic range image for optimal display control with PB_D_MDR, for example 250 or 400 nits, and do this of course in one go, i.e. starting with channel-adapted colors (Y_CDR6, Cb_CDR6, Cr_CDR6) IDR; i.e., for example, by loading the respective luminance processing functions (or LUTs, etc.) and the chrominance multiplier determination function F_C_MDR into the pixel color processing topology as shown in FIG. 15.

С этой целью может быть выгодно применено конкретное из уравнений 29, которое задает функцию F_C.To this end, the particular one of Equations 29 which defines the F_C function can be advantageously applied.

И числитель, и знаменатель должны быть адаптированы к новой ситуации, т.е. новому отображению цветности из PB_CH в PB_MDR, причем последняя, например, равна 250, когда дисплею на 250 нит необходимо поставить оптимальное оптимизированное для отображения изображение (того, что когда-то было исходным основным HDR-изображением, и, если говорить о декодере, соответствующего входящего IDR-изображения с 600 нит, причем ни одно из этих двух изображений еще не является хорошим для отображения на дисплее на 250 нит).Both the numerator and the denominator must be adapted to the new situation, i.e. new chrominance mapping from PB_CH to PB_MDR, the latter being 250, for example, when a 250 nit display needs to deliver an optimal display-optimized image (of what was once the original HDR main image, and, speaking of a decoder, corresponding an incoming IDR image at 600 nits, neither of which is yet good for display on a 250 nit display).

Для этого сначала вычисляются два коэффициента модификации:For this, two modification coefficients are first calculated:

MF_ch = 1-(invPQ[PB_CH]-invPQ[PB_SDR]/(invPQ[PB_ C_MHDR]-invPQ [PB_SDR) [Ур. 36]MF_ch = 1-(invPQ[PB_CH]-invPQ[PB_SDR]/(invPQ[PB_C_MHDR]-invPQ [PB_SDR) [Lv. 36]

MF_do = 1-(invPQ[PB_MDR]-invPQ[PB_SDR]/(invPQ[PB_ C_MHDR]-invPQ[PB_SDR) [Ур. 37]MF_do = 1-(invPQ[PB_MDR]-invPQ[PB_SDR]/(invPQ[PB_C_MHDR]-invPQ[PB_SDR) [Lvl 37]

Если CPL [Xc] является функцией отображения яркости, которая определяется следующим образом:If CPL[Xc] is the luminance display function, which is defined as follows:

Для каждой нормализованной входной яркости Xc, определенной с PB_CH:For each normalized input luminance Xc defined with PB_CH:

Сначала применить EOTF PQ, затем преобразовать в перцепционную область с помощью предложенной Philips функции перцептуализатора (PPF) с параметром RHO для значения PB_CH, после этого применить форму функции отображения яркости из PB_CH обратно в PB_C_MHDR, как было описано в соответствии с любым из возможных вариантов осуществления и форм функции создателя контента, далее преобразовать в линейную область, используя инверсию предложенной Philips функции перцептуализатора (PPF), но теперь с параметром RHO для значения PB_C_MHDR, и, наконец, использовать обратную EOTF PQ в соответствии с SMPTE 2084, что даст в результате соответствующее значение CPL[Xc].First apply EOTF PQ, then transform to perceptual domain using Philips Proposed Perceptualizer Function (PPF) with RHO parameter for PB_CH value, then apply luma mapping function form from PB_CH back to PB_C_MHDR as described in accordance with any of the possible implementations and shapes of the content creator function, then convert to linear domain using the inverse of the Philips Proposed Perceptualizer Function (PPF) but now with the RHO parameter set to PB_C_MHDR, and finally use the inverse EOTF PQ according to SMPTE 2084, which will result in the corresponding CPL[Xc] value.

Тогда функция CLY[Xc] вычисляется как:Then the CLY[Xc] function is calculated as:

CLY[Xc] = (1+MF_do*POWER[CPL[Xc]; 2,4])/(1+MF_ch*POWER[CPL[Xc]; 2,4]) [Ур. 38]CLY[Xc] = (1+MF_do*POWER[CPL[Xc]; 2.4])/(1+MF_ch*POWER[CPL[Xc]; 2.4]) [Lv. 38]

Это включает в себя корректировку старой (больше не применимой) ситуации этой части функции (обычно C_LUT) определения множителей цветности, которую будем называть функцией (FSNL) корректировки позиции насыщенности для новой ситуации этого уравнения с целью оптимизации отображения.This includes adjusting the old (no longer applicable) situation of this part of the function (usually C_LUT) to determine the chroma multipliers, which we will call the saturation position adjustment (FSNL) function for the new situation of this equation, in order to optimize the display.

Затем две g-функции вычисляются следующим образом:The two g-functions are then computed as follows:

Gch[Xn] = F_C_[CPL [Xc]]*MF_ch+(1-MF_ch)/Rs;Gch[Xn] = F_C_[CPL[Xc]]*MF_ch+(1-MF_ch)/Rs;

Gdo[Xn] = F_C_[CPL [Xc]]*MF_do+(1-MF_do)/Rs [Ур. 39]Gdo[Xn] = F_C_[CPL [Xc]]*MF_do+(1-MF_do)/Rs [Lv. 39]

(причем F_C_ [CPL [Xc]] представляет собой множитель цветности создателя исходного контента, дающий в результате исходную функцию 2801 усиления насыщенности, вычисленную из F_C_ chacomm[Xc], являющейся кривой регулировки цветности, принятой декодером SLHDR2PLUS в метаданных, т.е. соответствующей кривой 2804, т.е. как выполняется, например, в соответствии с вышеуказанным вычислением точек (Xs, Ys)).(wherein F_C_[CPL[Xc]] is the original content creator's chroma multiplier resulting in the original saturation gain function 2801 calculated from F_C_chacomm[Xc] being the chroma adjustment curve received by the SLHDR2PLUS decoder in the metadata, i.e. corresponding to curve 2804, i.e. as performed, for example, in accordance with the above calculation of points (Xs, Ys)).

Наконец, C-LUT, дающая в результате подходящие множители цветности для оптимизации отображения IDR в MDR, вычисляется как:Finally, the C-LUT resulting in suitable chroma multipliers for optimizing IDR-to-MDR mapping is computed as:

F_C_DO[Xn] = CLY[Xc]*max{Rs/255; Rs*Gch[Xn]}/max{Rs/255; Rs*Gdo[Xn]} [Ур. 40]F_C_DO[Xn] = CLY[Xc]*max{Rs/255; Rs*Gch[Xn]}/max{Rs/255; Rs*Gdo[Xn]} [Lv. 40]

Эта функция F_C_DO[Xn] может быть непосредственно загружена в блок 1551 перед поступлением нового входящего изображения, чтобы запустить процессор цвета пикселей для получения правильно отображаемого оптимизированного MDR-изображения вовремя с целью отображения или т.п., например, хранения (специалист в данной области техники понимает, что возможны и другие варианты реализации, но тогда все вычисления нужно модифицировать соответствующим образом).This function F_C_DO[Xn] can be directly loaded into block 1551 before a new incoming image arrives to start a pixel color processor to obtain a properly displayed optimized MDR image in time for display or the like, such as storage (one skilled in the art the technician understands that other implementations are possible, but then all calculations need to be modified accordingly).

Хотя некоторые варианты осуществления/идеи были представлены для разъяснения некоторых аспектов, которые могут быть изменены, по отдельности или совместно, можно понять, что несколько дополнительных вариантов могут быть сформированы на основе тех же базовых принципов: повторное получение уравнений отображения яркости из разных метаданных изображения с промежуточным динамическим диапазоном, принятых в соответствии с видеосвязью HDR ETSI2 или аналогичным образом, с целью восстановления основного HDR-изображения, которое было оптимально подвергнуто градуировке в месте создания контента. Алгоритмические компоненты, раскрытые в данном документе, могут (полностью или частично) быть реализованы на практике как аппаратные средства (например, части специализированной ИС) или как программное обеспечение, работающее на специальном цифровом сигнальном процессоре или универсальном процессоре и т.д.Although some embodiments/ideas have been presented to clarify certain aspects that may be modified, individually or collectively, it can be appreciated that several additional embodiments may be generated based on the same basic principles: re-deriving luminance mapping equations from different image metadata with intermediate dynamic range received in accordance with ETSI2 HDR video link or similar, in order to restore the main HDR image that has been optimally graded at the point of content creation. The algorithmic components disclosed herein may be (in whole or in part) implemented as hardware (eg, parts of a dedicated IC) or as software running on a dedicated digital signal processor or general purpose processor, etc.

Специалисту в данной области техники должно быть понятно из представленного выше описания, какие компоненты могут быть необязательными улучшениями и могут быть реализованы в сочетании с другими компонентами, и как (необязательные) этапы способов соответствуют соответствующим средствам устройств, и наоборот. Термин ʺустройствоʺ в этой заявке используется в самом широком смысле, а именно как группа средств, позволяющих реализовать конкретную цель, и, следовательно, может быть, например, (небольшой схемной частью) ИС или специализированным устройством (например, устройством с дисплеем) или частью сетевой системы и т.д. Термин ʺкомпоновкаʺ также предусматривает использование в самом широком смысле, поэтому она может содержать, среди прочего, одно устройство, часть устройства, совокупность (частей) взаимодействующих устройств и т.д.One skilled in the art should understand from the description above which components may be optional enhancements and may be implemented in combination with other components, and how the (optional) method steps correspond to the corresponding device features, and vice versa. The term "device" is used in this application in its broadest sense, namely as a group of means enabling a specific purpose to be realized, and therefore can be, for example, a (small circuit part) of an IC or a dedicated device (e.g. a device with a display) or part of a network systems, etc. The term "arrangement" is also intended to be used in its broadest sense, so it may include, among other things, a single device, a part of a device, a set of cooperating device(s), and so on.

Термин ʺкомпьютерный программный продуктʺ должен пониматься как охватывающий любую физическую реализацию совокупности команд, позволяющих процессору общего или специального назначения после последовательности этапов загрузки (которые могут включать в себя промежуточные этапы преобразования, такие как перевод на промежуточный язык и окончательный язык процессора) вводить команды в процессор и исполнять любую из характерных функций изобретения. В частности, компьютерный программный продукт может быть реализован как данные на носителе, таком как диск или лента, данные, присутствующие в памяти, данные, передаваемые через сетевое соединение, проводное или беспроводное, или программный код на бумаге. Помимо программного кода, характеристические данные, необходимые для программы, также могут быть воплощены как компьютерный программный продукт.The term "computer program product" is to be understood as encompassing any physical implementation of a set of instructions enabling a general purpose or special purpose processor, after a sequence of loading steps (which may include intermediate transformation steps such as translation into an intermediate language and the final language of the processor), to enter instructions into the processor and perform any of the characteristic functions of the invention. In particular, a computer program product may be embodied as data on a medium such as a disk or tape, data present in memory, data transmitted over a network connection, wired or wireless, or program code on paper. In addition to the program code, the characteristic data required for the program may also be embodied as a computer program product.

Некоторые этапы, необходимые для работы способа, могут уже присутствовать в функциональности процессора вместо описанных в компьютерном программном продукте, такие как этапы ввода и вывода данных.Some of the steps required for the operation of the method may already be present in the functionality of the processor instead of those described in the computer program product, such as data input and output steps.

Следует отметить, что вышеупомянутые варианты осуществления иллюстрируют, а не ограничивают изобретение. Там, где специалист может легко осуществить отображение представленных примеров на другие области пунктов формулы изобретения, все эти опции не были упомянуты в подробностях в целях краткости изложения. Помимо комбинаций элементов изобретения, как скомбинировано в формуле изобретения, возможны и другие комбинации элементов. Любая комбинация элементов может быть реализована в одном специализированном элементе.It should be noted that the above embodiments illustrate and do not limit the invention. Where one skilled in the art can easily map the presented examples to other areas of the claims, all of these options have not been mentioned in detail for the sake of brevity. In addition to combinations of elements of the invention, as combined in the claims, other combinations of elements are possible. Any combination of elements can be implemented in one specialized element.

Никакая ссылочная позиция в скобках в формуле изобретения не предназначена для ограничения пункта формулы изобретения. Слово ʺсодержитʺ не исключает наличия элементов или аспектов, не перечисленных в пункте формулы изобретения. Форма единственного числа для элемента не исключает присутствия множества таких элементов.No reference position in brackets in the claims is intended to limit a claim. The word "comprises" does not exclude the presence of elements or aspects not listed in a claim. The singular form for an element does not preclude the presence of multiple such elements.

Используемый жаргон и сокращения:Jargon and abbreviations used:

PB_C: максимальная кодируемая светимость изображения, обычно указываемая для любой ситуации, причем «C» означает кодирование (не путать с битовой глубиной), например, HDR-изображение может иметь PB_C_HDR = 4000 нит (которая также определяет все относительные светимости ниже, потому что L_norm = L/PB_C, где L_norm является нормализованной светимостью, лежащей между 0,0 и 1,0PB_C: maximum encoded image luminosity, usually specified for any situation, with "C" meaning encoding (not to be confused with bit depth), e.g. an HDR image can have PB_C_HDR = 4000 nits (which also defines all relative luminances below because L_norm = L/PB_C where L_norm is the normalized luminosity lying between 0.0 and 1.0

PB_D: максимальная отображаемая светимость (также известная как пиковая яркость) любого дисплея, например, текущие HDR-дисплеи обычно имеют PB_D, равное 1000 нит (но в настоящее время можно также получить значения вплоть до 600 нит или вплоть до 2000 и даже 4000 нит, а в будущем PB_D может быть выше).PB_D: The maximum displayable luminosity (also known as peak brightness) of any display, for example current HDR displays typically have a PB_D of 1000 nits (but nowadays you can also get values up to 600 nits or up to 2000 and even 4000 nits, and in the future PB_D may be higher).

IDR (промежуточный динамический диапазон): механизм для представления изображения, которое изначально (т.е. основное изображение) было определено с PB_C1, например, 10000 нит, фактически как вторичное HDR-изображение с PB_C2<PB_C1 (например, как правило, коэффициент 2 или еще ниже, а PB_C2 обычно >= 500 нит).IDR (Intermediate Dynamic Range): A mechanism for representing an image that was originally (i.e., the main image) defined with PB_C1, e.g., 10000 nits, actually as a secondary HDR image with PB_C2<PB_C1 (i.e., typically a factor of 2 or even lower, and PB_C2 is usually >= 500 nits).

MDR (средний динамический диапазон; конечно, не путать с IDR): изображение с PB_C_MDR, обычно лежащее между PB_C принятого HDR-изображения (PB_C_H) и PB_C_SDR = 100 нит (по согласованному определению в области обработки видео), причем значение PB_C_MDR задано равным PB_D любого дисплея (таким образом входящее HDR-изображение, которое имеет неправильный динамический диапазон и, следовательно, что более важно, неправильное относительное статистическое распределение нормализованных яркостей относительно друг друга, может быть оптимально подвергнуто повторной градуировке для конкретного доступного дисплея с возможностями более низкого динамического диапазона, т.е. PB_D<PB_C_H).MDR (Medium Dynamic Range; certainly not to be confused with IDR): An image with PB_C_MDR, typically lying between the PB_C of the received HDR image (PB_C_H) and PB_C_SDR = 100 nits (as agreed upon in the video processing field), with PB_C_MDR set to PB_D any display (thus an incoming HDR image that has an incorrect dynamic range, and therefore, more importantly, an incorrect relative statistical distribution of normalized brightnesses relative to each other, can be optimally recalibrated for a particular available display with lower dynamic range capabilities, i.e. PB_D<PB_C_H).

Para: специфическая очень прагматически полезная функция для отображения яркостей, определенных в первом диапазоне нормализованных яркостей, соответствующем PB_C1, в нормализованные посредством PB_C2, причем функция определена в данном документе выше с помощью уравнений 4 и 5 и параболическим промежуточным отрезком или формально в ETSI TS 103 433-1 V1.2.1 (2017-08) [сокращенно ETSI1], см. стр. 70 Ур. С-20.Para: a specific very pragmatically useful function for mapping luminances defined in the first range of normalized luminances corresponding to PB_C1 to normalized by PB_C2, the function being defined in this document above with Equations 4 and 5 and a parabolic intermediate or formally in ETSI TS 103 433 -1 V1.2.1 (2017-08) [abbreviated as ETSI1], see page 70 S-20.

Abcara: обратная функция для любой функции para (т.е. с параметрами, однозначно определяющими ее форму), обратную форму которой также можно интуитивно найти, переставив ось (но иногда ее необходимо вычислить математически).Abcara: An inverse function for any para function (i.e. with parameters that uniquely define its form), whose inverse form can also be intuitively found by rearranging the axis (but sometimes it needs to be calculated mathematically).

WLO (смещение уровня белого): нормализованная яркость в диапазоне нормализованных яркостей первого изображения (im1), которая отображается на 1,0 в диапазоне нормализованных яркостей второго изображения, при этом PB_C_im1>PB_C_im2. В этой заявке есть несколько разных WLO для различных изображений с разной PB_C при определении процесса кодирования, поэтому, чтобы их легко различать, они содержат суффиксы, например, WLO_gr.WLO (white level shift): normalized brightness in the normalized brightness range of the first image (im1), which is mapped to 1.0 in the normalized brightness range of the second image, with PB_C_im1>PB_C_im2. In this application, there are several different WLOs for different images with different PB_Cs when defining the encoding process, so to make them easy to distinguish, they contain suffixes, for example, WLO_gr.

BLO (смещение уровня черного): нормализованная яркость в диапазоне нормализованных яркостей первого изображения, которая отображается на 0,0 в диапазоне нормализованных яркостей второго изображения, при этом PB_C_im1> PB_C_im2. В этой заявке есть несколько разных BLO для различных изображений с разной PB_C при определении процесса кодирования, поэтому, чтобы их легко различать, они содержат суффиксы, например, BLO_IDR.BLO (Black Level Offset): The normalized brightness in the normalized brightness range of the first image, which is mapped to 0.0 in the normalized brightness range of the second image, with PB_C_im1>PB_C_im2. In this application, there are several different BLOs for different images with different PB_C when defining the encoding process, so to make them easy to distinguish, they contain suffixes, for example, BLO_IDR.

P_LUT: полное отображение (состоящее из частичных повторных градуировок в нашем подходе к кодеку, как объяснено с помощью ФИГ. 4), необходимое для преобразования любой возможной нормализованной яркости первого изображения в соответствующую нормализованную яркость второго изображения, при этом PB_C_im1 != PB_C_im2 (как правило, они отличаются, по меньшей мере, на множитель 1,02). Поскольку P_LUT [L], которое обычно зависит от контента изображения, и, например, оптимизируется интеллектуальным автоматическим средством анализа изображений или человеком, изменяет относительное распределение нормализованных яркостей, т.е. гистограмму, это ключевой аспект преобразования динамического диапазона, например, того, который задействован в определении IDR-изображения, что является ключевым в нынешней философии нового HDR-кодека.P_LUT: the full mapping (consisting of the partial recalibrations in our codec approach as explained with FIG. 4) needed to convert any possible normalized luminance of the first image to the corresponding normalized luminance of the second image, with PB_C_im1 != PB_C_im2 (generally , they differ by at least a factor of 1.02). Since P_LUT[L], which is usually dependent on the content of the image, and, for example, is optimized by an intelligent automatic image analyzer or by a human, changes the relative distribution of the normalized luminances, i.e. histogram is a key aspect of dynamic range transformation, such as that involved in defining an IDR image, which is key to the current philosophy of the new HDR codec.

C_LUT: зависимое от яркости пикселя отображение хроматичности (также известной как цветность) цветов пикселей, которое вместе с P_LUT завершает цветовое преобразование (YCbCr_out = T[Y_cbCr_in]).C_LUT: A pixel-luminance dependent mapping of the chromaticity (also known as chrominance) of pixel colors, which, together with P_LUT, completes the color transformation (YCbCr_out = T[Y_cbCr_in]).

Предложенная Philips функция перцептуализатора (PPF): функция (определенная в уравнении 1), предназначенная для параметрического преобразования светимостей, определенных в диапазоне от 0 до PB_C, в перцептуально однородные светимости, при этом значение PB_C через параметр RHO является параметром управления формой функции PPF и, следовательно, распределением визуально однородных кодирующих яркостей для различных входных светимостей.Philips Proposed Perceptualizer Function (PPF): A function (defined in Equation 1) to parametrically convert luminosities defined in the range 0 to PB_C into perceptually uniform luminosities, where the PB_C value via the RHO parameter is the shape control parameter of the PPF and, hence, a distribution of visually uniform encoding luminances for different input luminosities.

Claims (30)

1. Кодер (900) видео с расширенным динамическим диапазоном, выполненный с возможностью приема через вход (920) для изображения входного изображения (MsterHDR) с расширенным динамическим диапазоном, которое имеет первую максимальную светимость (РВ_С_Н50) пикселей, для которой кодер имеет первый вход (922) для метаданных, и выполненный с возможностью приема через второй вход (921) для метаданных основной функции (FL_50tl) отображения яркости, которая определяет взаимосвязь между нормализованными яркостями входного изображения с расширенным динамическим диапазоном и нормализованными яркостями соответствующего изображения (Im_LDR) с узким динамическим диапазоном, имеющего максимальную светимость пикселей LDR, предпочтительно равную 100 нит, отличающийся тем, что дополнительно содержит третий вход (923) для метаданных для приема второй максимальной светимости (РВ_СН) пикселей, которая ниже, чем первая максимальная светимость (РВ_С_Н50) пикселей, при этом кодер дополнительно отличается тем, что содержит1. Encoder (900) video with extended dynamic range, configured to receive through the input (920) for the image of the input image (MsterHDR) with extended dynamic range, which has a first maximum luminance (PB_C_H50) pixels, for which the encoder has a first input ( 922) for metadata, and capable of being received via a second input (921) for metadata of a luminance mapping main function (FL_50tl) that defines a relationship between the normalized luminances of the input high dynamic range image and the normalized luminances of the corresponding low dynamic range image (Im_LDR). , having a maximum LDR pixel luminosity, preferably equal to 100 nits, characterized in that it additionally contains a third input (923) for metadata for receiving a second maximum luminance (PB_CH) of pixels, which is lower than the first maximum luminance (PB_C_H50) of pixels, while the encoder further differs in that what contains блок (901) генерирования HDR-функции, выполненный с возможностью применения стандартизированного алгоритма для преобразования основной функции (FL_50tl) отображения яркости в адаптированную функцию (F_H2hCI) отображения яркости, которая связывает нормализованные яркости входного изображения с расширенным динамическим диапазоном с нормализованными светимостями изображения (IDR) с промежуточным динамическим диапазоном, которое отличается максимально возможной светимостью, равной второй максимальной светимости (РВ_СН) пикселей;an HDR function generating unit (901) configured to apply a standardized algorithm for converting the main luminance mapping function (FL_50tl) into an adapted luminance mapping function (F_H2hCI) that relates the normalized luminances of an extended dynamic range input image to the normalized image luminances (IDR) with an intermediate dynamic range, which is characterized by a maximum possible luminance equal to the second maximum luminance (PB_CH) of the pixels; блок (902) вычисления IDR-изображения, выполненный с возможностью применения адаптированной функции (F_H2hCI) отображения яркости к яркостям пикселей входного изображения (MsterFIDR) с расширенным динамическим диапазоном для получения яркостей пикселей изображения (IDR) с промежуточным динамическим диапазоном, которое выводит этот блок; иan IDR image calculation unit (902), configured to apply an adapted function (F_H2hCI) of luminance to input image pixel luminances (MsterFIDR) with extended dynamic range to obtain pixel luminances of an intermediate dynamic range image (IDR) that the block outputs; And генератор (903) функции отображения IDR, выполненный с возможностью получения на основе основной функции (FL_50tl) отображения яркости и адаптированной функции (F_H2hCI) отображения яркости функции (F_I2sCI) отображения яркости канала, которая задает в качестве выходных данных соответствующие нормализованные яркости изображения (Im_LDR) с узким динамическим диапазоном, когда в качестве входных данных заданы соответствующие нормализованные яркости изображения (IDR) с промежуточным динамическим диапазоном, которые, в свою очередь, соответствуют соответствующим яркостям входного изображения (MsterHDR) с расширенным динамическим диапазоном; при этом кодер дополнительно отличается тем, что содержит:an IDR mapping function generator (903) configured to obtain, based on the main luminance mapping function (FL_50tl) and the adapted luminance mapping function (F_H2hCI) of the channel luminance mapping function (F_I2sCI), which outputs the corresponding normalized image luminances (Im_LDR) with a narrow dynamic range, when the corresponding normalized image luminances (IDR) with an intermediate dynamic range are given as input, which, in turn, correspond to the corresponding luminances of the input image (MsterHDR) with an extended dynamic range; while the encoder is additionally different in that it contains: выход (930) для изображения для вывода изображения (IDR) с промежуточным динамическим диапазоном;an image output (930) for image output (IDR) with an intermediate dynamic range; первый выход (932) для метаданных для вывода второй максимальной светимости (РВ_СН) пикселей;a first metadata output (932) for outputting a second maximum luminosity (PB_CH) of pixels; второй выход (931) для метаданных для вывода функции (F_I2sCI) отображения яркости канала иthe second output (931) for metadata to output the function (F_I2sCI) display the brightness of the channel and третий выход (933) для метаданных для вывода первой максимальной светимости (РВ_С_Н50) пикселей.a third output (933) for metadata for outputting the first maximum luminosity (PB_C_H50) of pixels. 2. Кодер (900) видео с расширенным динамическим диапазоном по п. 1, отличающийся тем, что стандартизированный алгоритм блока (901) генерирования HDR-функции применяет сжатие в направлении диагонали основной функции (FL_50tl) отображения яркости для получения адаптированной функции (F_H2hCI) отображения яркости, причем сжатие включает в себя масштабирование всех выходных значений яркости функции с коэффициентом масштабирования, который зависит от первой максимальной светимости (РВ_С_Н50) пикселей и второй максимальной светимости (РВ_СН) пикселей.2. The encoder (900) of the video with an extended dynamic range according to claim 1, characterized in that the standardized algorithm of the block (901) for generating the HDR function applies compression in the diagonal direction of the main function (FL_50tl) of the luminance display to obtain an adapted function (F_H2hCI) of the display luminance, wherein the compression includes scaling all output luminance values of the function with a scaling factor that depends on the first maximum luminance (PB_C_H50) of the pixels and the second maximum luminance (PB_CH) of the pixels. 3. Кодер (900) видео с расширенным динамическим диапазоном по одному из приведенных выше пунктов для кодера, который содержит ограничитель (1804), выполненный с возможностью повторного определения крутизны функции (F_I2sCI) отображения яркости канала для поддиапазона нормализованных яркостей, содержащего самую яркую нормализованную яркость, равную 1,0.3. Encoder (900) video with extended dynamic range according to one of the above items for the encoder, which contains a limiter (1804), configured to re-determine the steepness of the function (F_I2sCI) map luminance of the channel for the subrange of normalized luminances containing the brightest normalized luminance , equal to 1.0. 4. Кодер (900) видео с расширенным динамическим диапазоном по одному из приведенных выше пунктов для кодера, в котором блок (901) генерирования HDR-функции выполнен с возможностью определения характеристической кривой усиления насыщенности в зависимости от исходной характеристической кривой (2801) усиления насыщенности и адаптированной функции (F_H2hCI) отображения яркости.4. Encoder (900) video with extended dynamic range according to one of the above paragraphs for the encoder, in which the block (901) generating HDR functions is configured to determine the characteristic curve of saturation gain depending on the original characteristic curve (2801) of saturation gain and adapted function (F_H2hCI) display brightness. 5. Декодер (1100) видео с расширенным динамическим диапазоном, имеющий вход (1110) для изображения для приема изображения (IDR) с промежуточным динамическим диапазоном, которое имеет вторую максимальную светимость (РВ_СН) пикселей, которая ниже на мультипликативный коэффициент, предпочтительно равный 0,8 или меньше, чем первая максимальная светимость (РВ_С_Н50) пикселей основного изображения (MsterHDR) с расширенным динамическим диапазоном, причем вторая максимальная светимость (РВ_СН) пикселей принимается через второй вход (1112) для метаданных, при этом декодер имеет первый вход (1111) для метаданных для приема функции (F_I2sCI) отображения яркости, которая определяет преобразование всех возможных нормализованных яркостей изображения (IDR) с промежуточным динамическим диапазоном в соответствующие нормализованные яркости изображения (Im_LDR) с узким динамическим диапазоном и с максимальной светимостью пикселей LDR, причем декодер отличается тем, что содержит третий вход (1113) для метаданных для приема первой максимальной светимости (РВ_С_Н50) пикселей, при этом декодер содержит5. An extended dynamic range video decoder (1100) having an image input (1110) for receiving an intermediate dynamic range (IDR) image that has a second maximum luminance (PB_CH) of pixels that is lower by a multiplicative factor, preferably equal to 0, 8 or less than the first maximum luminance (PB_C_H50) of the pixels of the main image (MsterHDR) with extended dynamic range, and the second maximum luminance (PB_CH) of the pixels is received through the second input (1112) for metadata, while the decoder has the first input (1111) for metadata for receiving a luminance mapping function (F_I2sCI) that defines the transformation of all possible normalized image luminances (IDR) with an intermediate dynamic range into the corresponding normalized image luminances (Im_LDR) with a narrow dynamic range and with a maximum luminance of the LDR pixels, the decoder being characterized in that contains the third input (1113) for met data for receiving the first maximum luminosity (РВ_С_Н50) pixels, while the decoder contains блок (1104) определения функции светимости, выполненный с возможностью применения стандартизированного алгоритма для преобразования функции (F_I2sCI) отображения яркости в декодирующую функцию (F_ENCINV_H2I) отображения яркости, которая определяет в качестве выходных данных для любой возможной входной нормализованной яркости пикселя изображения (IDR) с промежуточным динамическим диапазоном соответствующую нормализованную яркость HDR основного изображения (MsterHDR) с расширенным динамическим диапазоном, причем стандартизированный алгоритм использует значения первой максимальной светимости (РВ_С_Н50) пикселей и второй максимальной светимости (РВ_СН) пикселей; иa luminance function determiner (1104) configured to apply a standardized algorithm for converting a luminance mapping function (F_I2sCI) into a luminance mapping decoding function (F_ENCINV_H2I) that determines as output for any possible input normalized image pixel luminance (IDR) with an intermediate dynamic range corresponding to the normalized HDR brightness of the main image (MsterHDR) with extended dynamic range, and the standardized algorithm uses the values of the first maximum luminance (PB_C_H50) of the pixels and the second maximum luminance (PB_CH) of the pixels; And преобразователь (1102) цвета, выполненный с возможностью последовательного применения к введенным нормализованным яркостям изображения (IDR) с промежуточным динамическим диапазоном декодирующей функции (F_ENCINV_H2I) отображения яркости для получения нормализованных восстановленных яркостей (L_RHDR) пикселей восстановленного основного HDR-изображения (RECMHDR); причем декодер дополнительно содержит выход (1120) для изображения для вывода восстановленного основного HDR-изображения (REC_M_HDR).a color converter (1102) configured to sequentially apply to the input normalized image luminances (IDR) with an intermediate dynamic range of the luminance mapping decoding function (F_ENCINV_H2I) to obtain normalized reconstructed luminances (L_RHDR) of pixels of the reconstructed main HDR image (RECMHDR); wherein the decoder further comprises a picture output (1120) for outputting the reconstructed HDR main picture (REC_M_HDR). 6. Декодер (1100) видео с расширенным динамическим диапазоном по п. 5, отличающийся тем, что стандартизированный алгоритм блока (1104) определения функции светимости вычисляет коэффициент масштабирования, который зависит от первой максимальной светимости (РВ С Н50) пикселей и второй максимальной светимости (РВ_СН) пикселей.6. The extended dynamic range video decoder (1100) according to claim 5, characterized in that the standardized algorithm of the luminance function determiner (1104) calculates a scaling factor that depends on the first maximum luminance (PB WITH H50) pixels and the second maximum luminance (PB_CH) pixels. 7. Декодер (1100) видео с расширенным динамическим диапазоном по одному из приведенных выше пунктов для декодера, в котором функция (F_I2sCI) отображения яркости определена отображением яркости, которое состоит из первого линейного отрезка, имеющего первую крутизну (SG_gr) для диапазона низких нормализованных яркостей, второго линейного отрезка, имеющего вторую крутизну (HG_gr) для диапазона высоких нормализованных яркостей, и параболического отрезка для яркостей между указанными двумя диапазонами.7. The extended dynamic range video decoder (1100) according to one of the above for a decoder in which the luminance mapping function (F_I2sCI) is defined by a luminance mapping that consists of a first linear segment having a first steepness (SG_gr) for a range of low normalized luminances , a second linear segment having a second steepness (HG_gr) for the range of high normalized brightnesses, and a parabolic segment for brightnesses between these two ranges. 8. Декодер (1100) видео с расширенным динамическим диапазоном по одному из приведенных выше пунктов для декодера, в котором преобразователь (1102) цвета выполнен с возможностью вычисления яркостей пикселей изображения (MDR_300) со средним динамическим диапазоном, имеющего максимальную светимость (PB_MDR) пикселей, которая не равна значениям максимальной светимости LDR, первой максимальной светимости (РВ_С_Н50) пикселей и второй максимальной светимости (РВ_СН) пикселей, причем декодер содержит выход (1122) для изображения для вывода изображения (MDR_300) со средним динамическим диапазоном.8. The extended dynamic range video decoder (1100) according to one of the above paragraphs for the decoder, in which the color converter (1102) is configured to calculate the brightness of the pixels of an image (MDR_300) with an average dynamic range having a maximum luminosity (PB_MDR) of pixels, which is not equal to the values of the maximum luminance of the LDR, the first maximum luminance (PB_C_H50) of the pixels and the second maximum luminance (PB_CH) of the pixels, and the decoder contains an output (1122) for an image to output an image (MDR_300) with an average dynamic range. 9. Декодер (1100) видео с расширенным динамическим диапазоном по одному из приведенных выше пунктов для декодера, который имеет выход (1121) для метаданных для вывода функции (F_L_subsq) отображения яркости, которая определяет для всех нормализованных яркостей восстановленного основного HDR-изображения (REC_M_HDR) или, альтернативно, изображения (MDR_300) со средним динамическим диапазоном соответствующие яркости изображения, имеющего другую максимальную светимость пикселей, причем указанная другая максимальная светимость пикселей предпочтительно равна 100 нит или значению выше или ниже максимального значения светимости, соответственно, восстановленного основного HDR-изображения (REC_M_HDR) или, альтернативно, изображения (MDR_300) со средним динамическим диапазоном.9. High dynamic range video decoder (1100) according to one of the above items for a decoder that has a metadata output (1121) for outputting a luminance mapping function (F_L_subsq) that determines for all normalized luminances of the reconstructed HDR main image (REC_M_HDR ) or alternatively, an image (MDR_300) with a medium dynamic range corresponding to the brightness of an image having a different maximum pixel luminance, said different maximum pixel luminance preferably being 100 nits or a value above or below the maximum luminance value, respectively, of the reconstructed HDR main image ( REC_M_HDR) or alternatively images (MDR_300) with medium dynamic range. 10. Декодер (1100) видео с расширенным динамическим диапазоном по одному из приведенных выше пунктов для декодера, в котором блок (1104) определения функции светимости выполнен с дополнительной возможностью определения исходной характеристической кривой (2801) усиления насыщенности в зависимости от характеристической кривой (2804) усиления насыщенности канала и функции (F_I2sCI) отображения яркости канала.10. Decoder (1100) video with extended dynamic range according to one of the above paragraphs for the decoder, in which the block (1104) determine the luminance function is made with the additional ability to determine the original characteristic curve (2801) gain saturation depending on the characteristic curve (2804) channel saturation gain; and a function (F_I2sCI) to display the channel luminance. 11. Декодер (1100) видео с расширенным динамическим диапазоном по одному из пп. 8, 9 или 10 для декодера, в котором исходная характеристическая кривая усиления насыщенности дополнительно зависит от функции (FSNL) корректировки положения насыщенности, которая соответствует уравнению, включающему в себя степенную функцию для значения нормированных яркостей.11. Decoder (1100) video with extended dynamic range according to one of paragraphs. 8, 9, or 10 for a decoder in which the original saturation gain characteristic curve further depends on a saturation position correction function (FSNL) that corresponds to an equation including a power function for the normalized luminance value. 12. Способ кодирования видео с расширенным динамическим диапазоном для принятого входного изображения (MsterHDR) с расширенным динамическим диапазоном, которое имеет первую максимальную светимость (РВ_С_Н50) пикселей, включающий прием основной функции (FL_50t1) отображения яркости, которая определяет взаимосвязь между нормализованными яркостями входного изображения с расширенным динамическим диапазоном и нормализованными яркостями соответствующего изображения (Im_LDR) с узким динамическим диапазоном, имеющего максимальную светимость пикселей LDR, предпочтительно имеющую значение, равное 100 нит, отличающийся тем, что кодирование дополнительно включает прием второй максимальной светимости (РВ_СН) пикселей, при этом кодирование включает12. A method for encoding a high dynamic range video for a received high dynamic range input image (MsterHDR) that has a first maximum luminance (PB_C_H50) of pixels, comprising receiving a main luminance mapping function (FL_50t1) that determines a relationship between the normalized luminances of the input image with extended dynamic range and normalized luminances of a corresponding low dynamic range (Im_LDR) image having a maximum LDR pixel luminance preferably having a value of 100 nits, characterized in that the encoding further comprises receiving a second maximum luminance (PB_CH) of the pixels, wherein the encoding includes применение стандартизированного алгоритма для преобразования основной функции (FL_50t1) отображения яркости в адаптированную функцию (F_H2hCI) отображения яркости, которая связывает нормализованные яркости входного изображения с расширенным динамическим диапазоном с нормализованными яркостями изображения (IDR) с промежуточным динамическим диапазоном, которое отличается максимально возможной светимостью, равной второй максимальной светимости (РВ_СН) пикселей;application of a standardized algorithm to convert the main luminance mapping function (FL_50t1) into an adapted luminance mapping function (F_H2hCI) that relates the normalized luminances of an extended dynamic range input image to normalized image luminances (IDR) with an intermediate dynamic range that differs by the maximum possible luminance equal to second maximum luminosity (PB_CH) pixels; применение адаптированной функции (F_H2hCI) отображения яркости к яркостям пикселей входного изображения (MsterHDR) с расширенным динамическим диапазоном для получения яркостей пикселей изображения (IDR) с промежуточным динамическим диапазоном;applying an adapted function (F_H2hCI) of mapping luminance to input image pixel luminances (MsterHDR) with extended dynamic range to obtain image pixel luminances (IDR) with intermediate dynamic range; получение на основе основной функции (FL_50tl) отображения яркости и адаптированной функции (F_H2hCI) отображения яркости функции (F_I2sCI) отображения яркости канала, которая определяет в качестве выходных данных соответствующие нормализованные яркости изображения (Im_LDR) с узким динамическим диапазоном, когда в качестве входных данных заданы соответствующие нормализованные яркости изображения (IDR) с промежуточным динамическим диапазоном, которые, в свою очередь, соответствуют соответствующим яркостям входного изображения (MsterHDR) с расширенным динамическим диапазоном;based on the main function (FL_50tl) of the luminance mapping and the adapted luminance mapping function (F_H2hCI) of the channel luminance mapping function (F_I2sCI) that determines the corresponding normalized image luminances (Im_LDR) with a narrow dynamic range as output when given as input corresponding normalized image luminances (IDR) with intermediate dynamic range, which, in turn, correspond to the corresponding luminances of the input image (MsterHDR) with extended dynamic range; вывод изображения (IDR) с промежуточным динамическим диапазоном иimage output (IDR) with intermediate dynamic range and вывод второй максимальной светимости (РВ_СН) пикселей, функции (F_I2sCI) отображения яркости канала и первой максимальной светимости (РВ_С_Н50) пикселей.outputting the second maximum luminance (PB_CH) of the pixels, the channel luminance display function (F_I2sCI) and the first maximum luminance (PB_C_H50) of the pixels. 13. Способ декодирования видео с расширенным динамическим диапазоном для принятого изображения (IDR) с промежуточным динамическим диапазоном, которое имеет вторую максимальную светимость (РВ_СН) пикселей, которая ниже на мультипликативный коэффициент, предпочтительно равный 0,8 или меньше, чем первая максимальная светимость (РВ_С_Н50) пикселей основного изображения (MsterHDR) с расширенным динамическим диапазоном, причем вторую максимальную светимость (РВ_СН) пикселей принимают как метаданные изображения с промежуточным динамическим диапазоном, при этом способ декодирования также включает прием в метаданных функции (F_I2sCI) отображения яркости, которая определяет преобразование всех возможных нормализованных яркостей изображения (IDR) промежуточным динамическим диапазоном в соответствующие нормализованные яркости изображения (Im_LDR) с узким динамическим диапазоном и с максимальной светимостью пикселей LDR, при этом способ декодирования отличается тем, что включает прием первой максимальной светимости (РВ_С_Н50) пикселей, а также тем, что включает13. An extended dynamic range video decoding method for an intermediate dynamic range received image (IDR) that has a second maximum luminance (PB_CH) of pixels that is lower by a multiplicative factor, preferably equal to 0.8 or less than the first maximum luminance (PB_C_H50). ) pixels of the main image (MsterHDR) with extended dynamic range, and the second maximum luminance (PB_CH) of the pixels is received as metadata of the image with an intermediate dynamic range, while the decoding method also includes receiving in the metadata of the luminance display function (F_I2sCI) that determines the transformation of all possible normalized image luminances (IDR) with an intermediate dynamic range into the corresponding normalized image luminances (Im_LDR) with a narrow dynamic range and with a maximum luminosity of the LDR pixels, while the decoding method differs in that it includes receiving the first maximum luminosity (РВ_С_Н50) pixels, as well as those that include применение стандартизированного алгоритма для преобразования функции (F_I2sCI) отображения яркости в декодирующую функцию (F_ENCINV_H2I) отображения яркости, которая определяет в качестве выходных данных для любой возможной входной нормализованной яркости пикселя изображения (IDR) промежуточным динамическим диапазоном соответствующую нормализованную яркость HDR основного изображения (MsterHDR) с расширенным динамическим диапазоном, причем стандартизированный алгоритм использует значения первой максимальной светимости (РВ_С_Н50) пикселей и второй максимальной светимости (РВ_CH) пикселей;application of a standardized algorithm to convert a luminance mapping function (F_I2sCI) into a luminance mapping decoder function (F_ENCINV_H2I) that determines as output for any possible input normalized image pixel luminance (IDR) with intermediate dynamic range the corresponding normalized main image luminance HDR (MsterHDR) with extended dynamic range, wherein the standardized algorithm uses the values of the first maximum luminance (PB_C_H50) of the pixels and the second maximum luminance (PB_CH) of the pixels; применение декодирующей функции (F_ENCINV_H2I) отображения яркости к нормализованным яркостям изображения с промежуточным динамическим диапазоном (IDR) для получения нормализованных восстановленных яркостей (L_RHDR) пикселей восстановленного основного HDR-изображения (REC_M_HDR) иapplying a luminance mapping decoding function (F_ENCINV_H2I) to normalized intermediate dynamic range (IDR) image luminances to obtain normalized reconstructed luminances (L_RHDR) pixels of the reconstructed HDR main image (REC_M_HDR), and вывод восстановленного основного HDR-изображения (REC_M_HDR).output of the restored main HDR image (REC_M_HDR).
RU2021100192A 2018-09-05 2019-08-22 Multirange encoding of video with expanded dynamic range RU2790178C2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18192636.1 2018-09-05
EP19176732.6 2019-05-27
EP19187932.9 2019-07-23

Publications (2)

Publication Number Publication Date
RU2021100192A RU2021100192A (en) 2022-07-12
RU2790178C2 true RU2790178C2 (en) 2023-02-15

Family

ID=

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015180854A1 (en) * 2014-05-28 2015-12-03 Koninklijke Philips N.V. Methods and apparatuses for encoding an hdr images, and methods and apparatuses for use of such encoded images
WO2016020189A1 (en) * 2014-08-08 2016-02-11 Koninklijke Philips N.V. Methods and apparatuses for encoding hdr images
US9288489B2 (en) * 2011-04-28 2016-03-15 Koninklijke Philips N.V. Apparatuses and methods for HDR image encoding and decoding
RU2607981C2 (en) * 2011-03-24 2017-01-11 Конинклейке Филипс Н.В. Devices and methods for image graduations analyzing
RU2016105156A (en) * 2013-07-18 2017-08-23 Конинклейке Филипс Н.В. METHODS AND DEVICES FOR CREATING CODE DISPLAY FUNCTIONS FOR CODING HDR IMAGES, AND METHODS AND DEVICES FOR USING SUCH CODED IMAGES
WO2017153376A1 (en) * 2016-03-07 2017-09-14 Koninklijke Philips N.V. Encoding and decoding hdr videos

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2607981C2 (en) * 2011-03-24 2017-01-11 Конинклейке Филипс Н.В. Devices and methods for image graduations analyzing
US9288489B2 (en) * 2011-04-28 2016-03-15 Koninklijke Philips N.V. Apparatuses and methods for HDR image encoding and decoding
RU2016105156A (en) * 2013-07-18 2017-08-23 Конинклейке Филипс Н.В. METHODS AND DEVICES FOR CREATING CODE DISPLAY FUNCTIONS FOR CODING HDR IMAGES, AND METHODS AND DEVICES FOR USING SUCH CODED IMAGES
WO2015180854A1 (en) * 2014-05-28 2015-12-03 Koninklijke Philips N.V. Methods and apparatuses for encoding an hdr images, and methods and apparatuses for use of such encoded images
WO2016020189A1 (en) * 2014-08-08 2016-02-11 Koninklijke Philips N.V. Methods and apparatuses for encoding hdr images
WO2017153376A1 (en) * 2016-03-07 2017-09-14 Koninklijke Philips N.V. Encoding and decoding hdr videos

Similar Documents

Publication Publication Date Title
JP6596125B2 (en) Method and apparatus for creating a code mapping function for encoding of HDR images, and method and apparatus for use of such encoded images
JP6615251B2 (en) Method and apparatus for encoding HDR images, and method and apparatus for use of such encoded images
RU2686642C2 (en) Methods and devices for coding of hdr images
RU2728516C2 (en) Hdr video encoding and decoding
JP6009539B2 (en) Apparatus and method for encoding and decoding HDR images
CN112640471B (en) High dynamic range video encoder, decoder, encoding method and decoding method
JP6619888B2 (en) HDR video encoding and decoding
US20210272497A1 (en) Optimized decoded high dynamic range image saturation
WO2019170465A1 (en) Versatile dynamic range conversion processing
JP2019506817A (en) Processing multiple HDR image sources
RU2790178C2 (en) Multirange encoding of video with expanded dynamic range
EP3621307A1 (en) Multi-range hdr video coding
TWI843747B (en) Multi-range hdr video coding
JP2022541884A (en) Adjusting display optimization behavior for HDR images
TW202034692A (en) Multi-range hdr video coding
JP7300070B2 (en) Improved HDR color handling for saturated colors
JP2024517241A (en) Display-optimized HDR video contrast adaptation
JP2024517242A (en) Display-optimized ambient HDR video adaptation
JP2024519606A (en) Display-optimized HDR video contrast adaptation
JP2024516300A (en) Content-optimized ambient light HDR video adaptation
CN118318243A (en) Optimizing display of HDR images