RU2818525C2 - High dynamic range video content type metadata - Google Patents

High dynamic range video content type metadata Download PDF

Info

Publication number
RU2818525C2
RU2818525C2 RU2022100011A RU2022100011A RU2818525C2 RU 2818525 C2 RU2818525 C2 RU 2818525C2 RU 2022100011 A RU2022100011 A RU 2022100011A RU 2022100011 A RU2022100011 A RU 2022100011A RU 2818525 C2 RU2818525 C2 RU 2818525C2
Authority
RU
Russia
Prior art keywords
video content
metadata
content
display
video
Prior art date
Application number
RU2022100011A
Other languages
Russian (ru)
Other versions
RU2022100011A (en
Inventor
Робин АТКИНС
Пер Йонас А. КЛИТТМАРК
Original Assignee
Долби Лабораторис Лайсэнзин Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Долби Лабораторис Лайсэнзин Корпорейшн filed Critical Долби Лабораторис Лайсэнзин Корпорейшн
Publication of RU2022100011A publication Critical patent/RU2022100011A/en
Application granted granted Critical
Publication of RU2818525C2 publication Critical patent/RU2818525C2/en

Links

Abstract

FIELD: physics.
SUBSTANCE: group of inventions relates to video playback on a target display. Method includes receiving a digital video bitstream containing metadata, including one or more category fields indicating the category of the video content of the digital video bitstream, and a reference mode flag indicating whether the one or more category fields condition the target display to select display settings for displaying video content in the reference mode. If the flag indicates the selection by the target display of the display settings for displaying the video content in the reference mode, then determining a display mode which corresponds to a certain category of video content, applying display settings of the determined display mode to the target display and displaying the video content.
EFFECT: providing automatic determination of a display mode which corresponds to a certain category of video content.
11 cl, 15 dwg

Description

ПЕРЕКРЕСТНАЯ ССЫЛКА НА РОДСТВЕННЫЕ ЗАЯВКИCROSS REFERENCE TO RELATED APPLICATIONS

[1] Данная заявка заявляет приоритет предварительной заявки на патент США №62/868,070, поданной 28 июня 2019 г., и заявки на европейский патент №19183269.0, поданной 28 июня 2019 г., каждая из которых включена в настоящий документ посредством ссылки во всей полноте.[1] This application claims priority to U.S. Provisional Patent Application No. 62/868,070, filed June 28, 2019, and European Patent Application No. 19183269.0, filed June 28, 2019, each of which is incorporated herein by reference throughout completeness.

ОБЛАСТЬ ТЕХНИКИTECHNICAL FIELD

[2] Настоящее изобретение в целом относится к изображениям. Более конкретно, вариант осуществления настоящего изобретения относится к метаданным типа видеосодержимого.[2] The present invention relates generally to images. More specifically, an embodiment of the present invention relates to video content type metadata.

ПРЕДПОСЫЛКИ ИЗОБРЕТЕНИЯBACKGROUND OF THE INVENTION

[3] В настоящем документе термин «динамический диапазон» может относиться к способности зрительной системы человека воспринимать диапазон интенсивности (например, освещенности, яркости) в изображении, например от самых темных черных (тени) до самых светлых белых (наиболее ярких) участков изображения. В этом смысле динамический диапазон соответствует «относящейся к сцене» интенсивности. Динамический диапазон может также относиться к способности дисплейного устройства в достаточной мере или приблизительно воспроизводить диапазон интенсивности конкретной ширины. В этом смысле динамический диапазон соответствует «относящейся к отображению» интенсивности. За исключением случаев, когда точно задано, что конкретный смысл имеет конкретное значение в любом месте в описании в данном документе, следует подразумевать, что термин может быть использован в любом смысле, например взаимозаменяемо.[3] As used herein, the term "dynamic range" may refer to the ability of the human visual system to perceive a range of intensities (eg, illuminance, brightness) in an image, such as from the darkest blacks (shadows) to the lightest whites (highlights) of an image. In this sense, dynamic range corresponds to "scene-related" intensity. Dynamic range may also refer to the ability of a display device to sufficiently or approximately reproduce a specific width range of intensity. In this sense, dynamic range corresponds to "display-related" intensity. Unless specifically stated to have a particular meaning anywhere in the description herein, it is intended that a term may be used in any sense, such as interchangeably.

[4] В данном документе термин «расширенный динамический диапазон» (high dynamic range, HDR) относится к ширине динамического диапазона, которая охватывает приблизительно 14 15 порядков величины зрительной системы человека. На практике динамический диапазон, в котором человек может одновременно воспринимать пространственную ширину в диапазоне интенсивности, может быть немного сокращен относительно HDR. В настоящем документе термины «увеличенный динамический диапазон» (enhanced dynamic range, EDR) или «визуальный динамический диапазон» (visual dynamic range, VDR) могут по отдельности или взаимозаменяемо относиться к динамическому диапазону, который одновременно воспринимается зрительной системой человека. В настоящем документе EDR может относиться к динамическому диапазону, который охватывает от пяти до шести порядков величины. Таким образом, хотя возможна несколько более узкая ширина в отношении относящегося к настоящей сцене HDR, тем не менее EDR представляет ширину широкого динамического диапазона и может также называться HDR.[4] As used herein, the term “high dynamic range” (HDR) refers to the width of the dynamic range, which covers approximately 14 to 15 orders of magnitude of the human visual system. In practice, the dynamic range over which a person can simultaneously perceive spatial width across a range of intensity may be reduced slightly relative to HDR. As used herein, the terms “enhanced dynamic range” (EDR) or “visual dynamic range” (VDR) may individually or interchangeably refer to the dynamic range that is simultaneously perceived by the human visual system. As used herein, EDR may refer to a dynamic range that spans five to six orders of magnitude. Thus, although a slightly narrower width may be possible with respect to actual scene-specific HDR, EDR nonetheless represents wide dynamic range width and may also be referred to as HDR.

[5] На практике изображения содержат один или более цветовых компонентов (например, яркость Y и цветность Cb и Cr), при этом каждый цветовой компонент представлен с точностью до n бит на пиксель (например, n=8). При использовании линейного яркостного кодирования изображения, в которых n<8 (например, цветные 24-битные изображения JPEG) рассматриваются как изображения стандартного динамического диапазона, тогда как изображения, в которых n>8, могут быть рассмотрены как изображения увеличенного динамического диапазона. EDR- и HDR-изображения также могут быть сохранены и распределены с использованием высокоточных (например, 16-битных) форматов с плавающей запятой, таких как формат файла OpenEXR, разработанный компанией «Industrial Light and Magic».[5] In practice, images contain one or more color components (eg, luminance Y and chrominance Cb and Cr), with each color component represented to the nearest n bits per pixel (eg, n=8). When using linear luma coding, images in which n<8 (for example, color 24-bit JPEG images) are considered to be standard dynamic range images, while images in which n>8 may be considered to be high dynamic range images. EDR and HDR images can also be stored and distributed using high-precision (e.g., 16-bit) floating point formats, such as the OpenEXR file format developed by Industrial Light and Magic.

[6] Большая часть потребительских настольных дисплеев поддерживает яркость от 200 до 300 кд/м, или нитов. Большая часть потребительских HDTV имеет диапазон от 300 до 1000 кд/м. Таким образом, такие традиционные дисплеи являются типичными представителями низкого динамического диапазона (low dynamic range, LDR), также называемого стандартным динамическим диапазоном (standard dynamic range, SDR), относительно HDR или EDR. Поскольку доступность EDR-содержимого растет вследствие развития как оборудования захвата (например, камер), так и EDR-дисплеев (например, профессионального контрольного монитора PRM-4200 от компании «Dolby Laboratories))), EDR-содержимое может быть отсортировано по цвету и отображено на EDR-дисплеях, которые поддерживают более широкие динамические диапазоны (например, от 1000 нитов до 5000 нитов или более).[6] Most consumer desktop displays support brightness between 200 and 300 cd/m, or nits. Most consumer HDTVs range from 300 to 1000 cd/m. Thus, such traditional displays are typical representatives of low dynamic range (LDR), also called standard dynamic range (SDR), relative to HDR or EDR. As the availability of EDR content increases due to developments in both capture equipment (such as cameras) and EDR displays (such as the PRM-4200 Professional Reference Monitor from Dolby Laboratories), EDR content can be color sorted and displayed on EDR displays that support wider dynamic ranges (for example, 1000 nits to 5000 nits or more).

[7] В настоящем документе термин «метаданные» относится к любой вспомогательной информации, которая передается как часть кодированного битового потока и помогает декодеру представлять декодированное изображение. Такие метаданные могут включать, но без ограничения, информацию о цветовом пространстве или гамме, параметры исходного дисплея и параметры вспомогательного сигнала, например описанные в настоящем документе.[7] As used herein, the term "metadata" refers to any supporting information that is carried as part of the encoded bitstream and helps the decoder present the decoded image. Such metadata may include, but is not limited to, color space or gamma information, source display parameters, and auxiliary signal parameters, such as those described herein.

[8] В настоящем документе термин «управление дисплеем» включает, но без ограничения, обработку (например, отображение тона и гаммы), применяемую для отображения входного видеосигнала первого динамического диапазона (например, одна тысяча нитов) на дисплей второго динамического диапазона (например, пятьсот нитов).[8] As used herein, the term “display control” includes, but is not limited to, processing (e.g., tone and gamma mapping) applied to map a first dynamic range video input signal (e.g., one thousand nits) to a second dynamic range display (e.g., five hundred nits).

[9] Подходы, описанные в данном разделе, являются подходами, которые могут быть выполнены, но необязательно подходами, которые были ранее предложены или выполнены. Следовательно, если не указано иное, не следует предполагать, что любой из подходов, описанных в данном разделе, расценивается как известный уровень техники только лишь вследствие их включения в данный раздел. Аналогично на основе данного раздела не следует полагать, что недостатки, определенные относительно одного или более подходов, были учтены в известном уровне техники, если не указано иное.[9] The approaches described in this section are approaches that can be performed, but not necessarily approaches that have been previously proposed or performed. Therefore, unless otherwise noted, it should not be assumed that any of the approaches described in this section are considered prior art simply because of their inclusion in this section. Likewise, based on this section, it should not be assumed that disadvantages identified with respect to one or more approaches have been addressed in the prior art unless otherwise indicated.

СУЩНОСТЬ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION

[10] Аппарат и способы согласно настоящему изобретению предоставляют решения проблемы сохранения творческого замысла видео в декодере или целевом дисплее. Согласно варианту осуществления настоящего изобретения битовый поток видео включает метаданные, которые передают в декодер или целевой дисплей тип видеосодержимого, находящегося в битовом потоке. Эти метаданные могут включать многочисленные поля, которые обозначают характеристики видеосодержимого, такие как тип содержимого и подтип содержимого, которые обусловливают применение целевым дисплеем соответствующего режима дисплея со связанными настройками дисплея. Целевой дисплей может применять дополнительные регулировки к отдельным настройкам дисплея на основании полей в метаданных, которые определяют, например, желаемую белую точку, использовать или не использовать видео в эталонном режиме, желаемую резкость, желаемое шумоподавление, желаемое шумоподавление MPEG, желаемое преобразование частоты кадров, желаемый средний уровень яркости изображения и желаемый цвет. Ряд полей в метаданных добавляют с определенной иерархией. Иерархия полей обусловливает дополнительное уточнение настроек дисплея, которые уже были отрегулированы полем, относящимся к более высокому уровню иерархии. Например, тип содержимого может обусловливать базовую регулировку конкретных настроек дисплея на первом уровне иерархии. При выборе более конкретного подтипа содержимого на втором уровне иерархии часть настроек дисплея дополнительно регулируются в соответствии с особенностями выбранного подтипа содержимого. На третьем уровне иерархии поля обусловливают индивидуальные регулировки конкретных настроек дисплея. Эти метаданные предназначены для обеспечения не требующей усилий маркировки создателями создаваемого ими содержимого. В зависимости от прилагаемого усилия создатели содержимого могут применять базовые регулировки, просто выбирая соответствующий тип содержимого и необязательно подтип содержимого. Вместе с тем, они также могут применять дополнительные регулировки на индивидуальном уровне, которые влияют непосредственно на конкретные настройки дисплея на целевом дисплее.[10] The apparatus and methods of the present invention provide solutions to the problem of storing the creative intent of a video in a decoder or target display. According to an embodiment of the present invention, the video bitstream includes metadata that conveys to the decoder or target display the type of video content found in the bitstream. This metadata may include numerous fields that indicate characteristics of the video content, such as content type and content subtype, that cause the target display to use the appropriate display mode with associated display settings. The target display can apply additional adjustments to individual display settings based on fields in the metadata that specify, for example, desired white point, whether or not to use video in reference mode, desired sharpness, desired noise reduction, desired MPEG noise reduction, desired frame rate conversion, desired the average brightness level of the image and the desired color. A number of fields in the metadata are added with a specific hierarchy. The hierarchy of fields causes additional refinement of display settings that have already been adjusted by a field belonging to a higher level of the hierarchy. For example, the content type may determine the basic adjustment of specific display settings at the first level of the hierarchy. When you select a more specific content subtype at the second level of the hierarchy, some of the display settings are further adjusted in accordance with the characteristics of the selected content subtype. At the third level of the hierarchy, fields determine individual adjustments to specific display settings. This metadata is intended to allow creators to effortlessly label the content they create. Depending on the effort involved, content creators can apply basic adjustments by simply selecting the appropriate content type and optionally a content subtype. However, they can also apply additional adjustments at the individual level that directly affect specific display settings on the target display.

[11] Метаданные позволяют иметь несколько точек, в которых метаданные могут быть добавлены к видеосодержимому. Для идентификации того, определены ли метаданные исходным создателем содержимого, метаданные содержат флаг эталонного режима, который может быть установлен в значение ИСТИНА или ЛОЖЬ. Флаг эталонного режима устанавливают в значение ИСТИНА, если метаданные добавил исходный создатель содержимого, тем самым указывая, что применение метаданных на целевом дисплее сохраняет творческий замысел. Флаг устанавливают в значение ЛОЖЬ, если метаданные добавил кто-то другой, а не исходный создатель содержимого.[11] Metadata allows for multiple points at which metadata can be added to video content. To identify whether the metadata is defined by the original content creator, the metadata contains a reference mode flag that can be set to TRUE or FALSE. The reference mode flag is set to TRUE if the metadata was added by the original content creator, thereby indicating that the application of metadata on the target display preserves creative intent. The flag is set to FALSE if the metadata was added by someone other than the original content creator.

[12] Согласно первому аспекту настоящего изобретения представлен способ генерирования битового потока цифрового видео из видеосодержимого, при этом способ включает: обеспечение доступа к множеству видеокадров видеосодержимого; генерирование метаданных со сведениями о содержимом для видеосодержимого; и генерирование битового потока видео на основании видеосодержимого и метаданных со сведениями о содержимом, при этом метаданные со сведениями о содержимом включают: одно или более полей категории, указывающих категорию видеосодержимого битового потока цифрового видео, при этом одно или более полей категории обусловливают выбор целевым дисплеем настроек дисплея для отображения видеосодержимого в режиме дисплея, соответствующем категории видеосодержимого, и флаг эталонного режима, указывающий на то, следует ли применять одно или более полей категории для обусловливания выбора целевым дисплеем настроек дисплея для отображения видеосодержимого в эталонном режиме, причем эталонный режим представляет собой режим дисплея, имеющий определенные настройки дисплея, при этом способ включает установку одного или более полей категории в метаданных со сведениями о содержимом согласно категории видеосодержимого и установку флага эталонного режима в метаданных со сведениями о содержимом для указания того, указывают или нет одно или более полей категории эталонный режим, при этом, когда метаданные со сведениями о содержимом генерируются создателем видеосодержимого, флаг эталонного режима устанавливают в первое логическое значение, указывающее, что одно или более полей категории следует использовать в эталонном режиме и в режиме, не являющемся эталонным, и когда метаданные со сведениями о содержимом генерируются третьей стороной, флаг эталонного режима устанавливают во второе логическое значение, указывающее, что одно или более полей категории следует игнорировать в эталонном режиме и использовать в режиме, не являющемся эталонным.[12] According to a first aspect of the present invention, there is provided a method for generating a digital video bitstream from video content, the method including: providing access to a plurality of video frames of the video content; generate content information metadata for video content; and generating a video bitstream based on the video content and the content information metadata, wherein the content information metadata includes: one or more category fields indicating the category of the video content of the digital video bitstream, wherein the one or more category fields cause the target display to select settings a display for displaying video content in a display mode corresponding to the video content category, and a reference mode flag indicating whether one or more category fields should be applied to cause the target display to select display settings for displaying video content in the reference mode, wherein the reference mode is a display mode having certain display settings, the method including setting one or more category fields in the content information metadata according to a category of the video content and setting a reference mode flag in the content information metadata to indicate whether or not the one or more category fields indicate a reference mode , wherein when content information metadata is generated by a video content creator, the reference mode flag is set to the first Boolean value indicating that one or more category fields should be used in reference mode and in non-reference mode, and when content information metadata content are generated by a third party, the reference mode flag is set to a second Boolean value indicating that one or more category fields should be ignored in reference mode and used in non-reference mode.

В предпочтительном варианте настоящего изобретения одно или более полей категории в метаданных со сведениями о содержимом содержат по меньшей мере одно из типа видеосодержимого и подтипа видеосодержимого.In a preferred embodiment of the present invention, one or more category fields in the content information metadata comprise at least one of a video content type and a video content subtype.

В другом предпочтительном варианте настоящего изобретения установка одного или более полей категории в метаданных со сведениями о содержимом включает: прием метаданных спецификации Tech 3293 метаданных ядра Европейского вещательного союза и применение отображения из принятых метаданных спецификации Tech 3293 метаданных ядра Европейского вещательного союза в одно или более полей категории.In another preferred embodiment of the present invention, setting one or more category fields in the content information metadata comprises: receiving Tech 3293 specification metadata of European Broadcasting Union core metadata and applying a mapping from the received Tech 3293 specification metadata of European Broadcasting Union core metadata to one or more category fields .

В другом предпочтительном варианте настоящего изобретения метаданные со сведениями о содержимом дополнительно включают: одно или более полей регулировки, указывающих желаемые регулировки настроек дисплея для видеосодержимого целевого дисплея при отображении видеосодержимого на целевом дисплее, при этом одно или более полей регулировки обусловливают регулировку целевым дисплеем по меньшей мере части выбранных настроек дисплея для отображения видеосодержимого в режиме дисплея, тем самым уточняя применяемый режим дисплея регулируемыми настройками дисплея.In another preferred embodiment of the present invention, the content information metadata further includes: one or more adjustment fields indicating desired display setting adjustments for the video content of the target display when the video content is displayed on the target display, wherein the one or more adjustment fields cause the target display to adjust at least part of the selected display settings to display video content in display mode, thereby specifying the applied display mode by adjustable display settings.

В другом предпочтительном варианте настоящего изобретения одно или более полей регулировки в метаданных со сведениями о содержимом указывают по меньшей мере одно из следующего: желаемую белую точку видеосодержимого, желаемую резкость видеосодержимого, желаемое шумоподавление видеосодержимого, желаемое шумоподавление MPEG видеосодержимого, желаемое преобразование частоты кадров видеосодержимого, средний уровень яркости изображения видеосодержимого и желаемый цвет видеосодержимого.In another preferred embodiment of the present invention, one or more adjustment fields in the content information metadata indicate at least one of the following: desired video content white point, desired video content sharpness, desired video content noise reduction, desired MPEG video content noise reduction, desired video content frame rate conversion, average The brightness level of the video content image and the desired color of the video content.

В другом предпочтительном варианте настоящего изобретения одно или более полей регулировки устанавливают в метаданных со сведениями о содержимом посредством операций, включающих: прием метаданных спецификации Tech 3293 метаданных ядра Европейского вещательного союза и применение отображения из принятых метаданных спецификации Tech 3293 метаданных ядра Европейского вещательного союза в одно или более полей регулировкиIn another preferred embodiment of the present invention, one or more adjustment fields are set in the content information metadata by operations including: receiving Tech 3293 specification metadata of European Broadcasting Union core metadata and applying a mapping from the received Tech 3293 specification metadata of European Broadcasting Union core metadata into one or more adjustment fields

Согласно второму аспекту настоящего изобретения представлен способ воспроизведения видеосодержимого на целевом дисплее в эталонном режиме, причем эталонный режим представляет собой режим дисплея, имеющий определенные настройки дисплея, этот способ включает: прием битового потока цифрового видео, содержащего видеосодержимое и метаданные со сведениями о содержимом, при этом эти метаданные со сведениями о содержимом включают: одно или более полей категории, указывающих категорию видеосодержимого битового потока цифрового видео, и флаг эталонного режима, указывающий на то, следует ли применять одно или более полей категории для обусловливания выбора целевым дисплеем настроек дисплея для отображения видеосодержимого в эталонном режиме, декодирование видеосодержимого на декодере, извлечение флага эталонного режима из метаданных со сведениями о содержимом, если флаг эталонного режима устанавливают в первое логическое значение, указывающее, что метаданные со сведениями о содержимом генерируются создателем видеосодержимого: применение одного или более полей категории метаданных со сведениями о содержимом для определения категории видеосодержимого, определение режима дисплея, который соответствует определенной категории видеосодержимого, применение настроек дисплея определенного режима дисплея к целевому дисплею и отображение видеосодержимого; если флаг эталонного режима устанавливают во второе логическое значение, указывающее, что метаданные со сведениями о содержимом генерируются третьей стороной: отображение видеосодержимого без применения метаданных со сведениями о содержимом, которые включают одно или более полей категории.According to a second aspect of the present invention, there is provided a method for reproducing video content on a target display in a reference mode, wherein the reference mode is a display mode having certain display settings, the method comprising: receiving a digital video bitstream containing the video content and metadata with information about the content, wherein this content information metadata includes: one or more category fields indicating the category of the video content of the digital video bitstream, and a reference mode flag indicating whether one or more category fields should be applied to cause the target display to select display settings for displaying the video content in reference mode, decoding video content at the decoder, extracting the reference mode flag from the content information metadata if the reference mode flag is set to the first Boolean value indicating that the content information metadata is generated by the creator of the video content: applying one or more information metadata category fields about content to determine a category of video content, determine a display mode that corresponds to a certain category of video content, apply the display settings of a certain display mode to the target display, and display the video content; if the reference mode flag is set to a second Boolean value indicating that the content information metadata is generated by a third party: display video content without applying content information metadata that includes one or more category fields.

В предпочтительном варианте настоящего изобретения одно или более полей категории в метаданных со сведениями о содержимом содержат по меньшей мере одно из типа видеосодержимого и подтипа видеосодержимого.In a preferred embodiment of the present invention, one or more category fields in the content information metadata comprise at least one of a video content type and a video content subtype.

В другом предпочтительном варианте настоящего изобретения метаданные со сведениями о содержимом дополнительно включают: одно или более полей регулировки, указывающих желаемые регулировки настроек дисплея для видеосодержимого целевого дисплея при отображении видеосодержимого на целевом дисплее, при этом одно или более полей регулировки обусловливают регулировку целевым дисплеем по меньшей мере части выбранных настроек дисплея для отображения видеосодержимого в режиме дисплея, тем самым уточняя применяемый режим дисплея регулируемыми настройками дисплея.In another preferred embodiment of the present invention, the content information metadata further includes: one or more adjustment fields indicating desired display setting adjustments for the video content of the target display when the video content is displayed on the target display, wherein the one or more adjustment fields cause the target display to adjust at least part of the selected display settings to display video content in display mode, thereby specifying the applied display mode by adjustable display settings.

В другом предпочтительном варианте настоящего изобретения одно или более полей регулировки в метаданных со сведениями о содержимом указывают по меньшей мере одно из следующего: желаемую белую точку видеосодержимого, желаемую резкость видеосодержимого, желаемое шумоподавление видеосодержимого, желаемое шумоподавление MPEG видеосодержимого, желаемое преобразование частоты кадров видеосодержимого, средний уровень яркости изображения видеосодержимого и желаемый цвет видеосодержимого.In another preferred embodiment of the present invention, one or more adjustment fields in the content information metadata indicate at least one of the following: desired video content white point, desired video content sharpness, desired video content noise reduction, desired MPEG video content noise reduction, desired video content frame rate conversion, average The brightness level of the video content image and the desired color of the video content.

Согласно третьему аспекту настоящего изобретения представлен машиночитаемый носитель, содержащий команды, которые при исполнении процессором выполняют способ по первому аспекту настоящего изобретения.According to a third aspect of the present invention, there is provided a computer-readable medium comprising instructions that, when executed by a processor, perform the method of the first aspect of the present invention.

ОПИСАНИЕ ГРАФИЧЕСКИХ МАТЕРИАЛОВDESCRIPTION OF GRAPHIC MATERIALS

[13] На фиг. 1 изображен пример процесса последовательности для доставки видео, показывающий различные этапы от захвата видео до отображения видеосодержимого.[13] In FIG. 1 depicts an example sequence process for video delivery, showing the various steps from video capture to display of video content.

[14] На фиг. 2 изображен пример использования раскрытого флага метаданных в виде таблицы.[14] In FIG. Figure 2 shows an example of using an expanded metadata flag in the form of a table.

[15] На фиг. 3 изображен пример использования флага эталонного режима (RM) L11 в виде блок-схемы.[15] In FIG. Figure 3 shows an example of the use of the reference mode (RM) flag L11 in block diagram form.

[16] На фиг. 4A-AD изображен пример деталей раскрытых метаданных в виде таблицы.[16] In FIG. 4A-AD depicts an example of the disclosed metadata details in tabular form.

[17] На фиг. 5 изображен пример деталей типа содержимого в раскрытых метаданных в виде таблицы.[17] In FIG. 5 depicts an example of content type details in the exposed metadata in tabular form.

[18] На фиг. 6 изображен пример типичных настроек режима изображения в раскрытых метаданных в виде таблицы.[18] In FIG. 6 shows an example of typical picture mode settings in the disclosed metadata in tabular form.

[19] На фиг. 7 изображен пример деталей подтипа содержимого в раскрытых метаданных в виде таблицы.[19] In FIG. 7 depicts an example of content subtype details in the disclosed metadata in tabular form.

[20] На фиг. 8 изображен пример деталей желаемой белой точки в раскрытых метаданных в виде таблицы.[20] In FIG. 8 depicts an example of the details of the desired white point in the disclosed metadata in tabular form.

[21] На фиг. 9 изображен пример деталей желаемой резкости в раскрытых метаданных в виде таблицы.[21] In FIG. Figure 9 shows an example of the details of the desired sharpness in the disclosed metadata in tabular form.

[22] На фиг. 10 изображен пример деталей желаемого шумоподавления в раскрытых метаданных в виде таблицы.[22] In FIG. 10 depicts an example of the details of the desired noise reduction in the disclosed metadata in tabular form.

[23] На фиг. 11 изображен пример деталей желаемого шумоподавления MPEG в раскрытых метаданных в виде таблицы.[23] In FIG. 11 depicts an example of the details of the desired MPEG noise reduction in the disclosed metadata in tabular form.

[24] На фиг. 12 изображен пример деталей преобразования частоты кадров в раскрытых метаданных в виде таблицы.[24] In FIG. 12 depicts an example of frame rate conversion details in the disclosed metadata in tabular form.

[25] На фиг. 13 изображен пример деталей среднего уровня яркости изображения в раскрытых метаданных в виде таблицы.[25] In FIG. 13 shows an example of the details of the average image brightness level in the disclosed metadata in tabular form.

[26] На фиг. 14 изображен пример деталей желаемого цвета в раскрытых метаданных в виде таблицы.[26] In FIG. 14 shows an example of desired color details in the disclosed metadata in tabular form.

[27] На фиг. 15 изображен пример отображения сервера воспроизведения вещания в виде таблицы.[27] In FIG. 15 shows an example of displaying the broadcast playback server in the form of a table.

ОПРЕДЕЛЕНИЯDEFINITIONS

[28] Во всем настоящем описании «эталонный режим» (RM) определяется как состояние воспроизведения целевого дисплея, где целевой дисплей представляет видеосодержимое в полном соответствии с исходным творческим замыслом. Это состояние воспроизведения может быть достигнуто настройкой целевого дисплея в определенном режиме дисплея со связанными настройками дисплея. Настройки дисплея определенного режима дисплея могут быть дополнительно отрегулированы для сохранения исходного творческого замысла.[28] Throughout this specification, “reference mode” (RM) is defined as a rendering state of a target display where the target display presents video content in full accordance with the original creative intent. This playback state can be achieved by setting the target display to a specific display mode with associated display settings. The display settings of a specific display mode can be further adjusted to maintain the original creative intent.

[29] Преобразование частоты кадров обозначает преобразование между разными частотами видеокадров (например, из 60 кадров в секунду в 120 кадров в секунду и т.п.). Преобразование частоты кадров представляет собой дублирование потенциально включающее оценку движения и компенсацию движения или уменьшение кадров для отображения содержимого на видеоустройстве с другой частотой кадров.[29] Frame rate conversion refers to the conversion between different video frame rates (eg, from 60 frames per second to 120 frames per second, etc.). Frame rate conversion is duplication potentially involving motion estimation and motion compensation or frame reduction to display content on a video device at a different frame rate.

[30] Перцепционное квантование (Perceptual Quantization, PQ) является эффективным способом кодирования изображений с расширенным динамическим диапазоном (HDR). Каждая последовательная пара кодовых значений отличается чуть менее чем на воспринимаемый шаг во всем динамическом диапазоне, обеспечивая очень эффективное использование кодовых значений. Примеры использования кодирования и декодирования с помощь PQ могут быть найдены в отчете ITU-R ВТ. 2390, «High dynamic range television for production and international programme exchange (Телевидение с расширенным динамическим диапазоном для производства и международного обмена программами)», ITU, 2016 г. Альтернативы использования PQ включают использование параметров сигнала традиционного формата «гамма» и гибридного формата логарифм-гамма (HLG).[30] Perceptual Quantization (PQ) is an efficient way to encode high dynamic range (HDR) images. Each successive pair of code values differs by slightly less than a perceptible step across the entire dynamic range, providing very efficient use of the code values. Examples of using PQ encoding and decoding can be found in the ITU-R BT report. 2390, “High dynamic range television for production and international program exchange,” ITU, 2016. Alternatives to using PQ include using traditional gamma and hybrid logarithmic signal parameters. gamma (HLG).

ПОДРОБНОЕ ОПИСАНИЕDETAILED DESCRIPTION

[31] В настоящем документе описаны метаданные типа видеосодержимого для расширенного динамического диапазона (HDR). В следующем описании в целях пояснения изложены многочисленные конкретные подробности для обеспечения полного понимания настоящего изобретения. Однако будет понятно, что заявляемый в данном случае предмет изобретения может быть реализован на практике без этих конкретных подробностей. В других примерах широко известные структуры и устройства не описаны в мельчайших подробностях, чтобы избежать излишнего усложнения, запутывания, затруднения понимания настоящего изобретения.[31] This document describes video content type metadata for high dynamic range (HDR). In the following description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of the present invention. However, it will be understood that the subject matter of the invention as claimed herein may be practiced without these specific details. In other examples, well-known structures and devices are not described in great detail in order to avoid unnecessary complexity, confusion, and difficulty in understanding the present invention.

[32] На фиг. 1 изображен пример процесса последовательности 100 для доставки видео, показывающий различные этапы от захвата видео до отображения видеосодержимого. Последовательность видеокадров 102 захватывают или генерируют с использованием блока 105 генерирования изображений. Видеокадры 102 могут быть захвачены цифровым способом (например, посредством цифровой видеокамеры) или сгенерированы компьютером (например, с использованием компьютерной анимации) для предоставления видеоданных 107. Альтернативно видеокадры 102 могут быть захвачены на пленке кинокамерой, в этом случае пленку переводят в цифровой формат для предоставления видеоданных 107. На этапе ПО производства видеоданные 107 редактируют для предоставления потока 112 видеопроизводства.[32] In FIG. 1 depicts an example process sequence 100 for video delivery, showing the various steps from capturing video to displaying video content. A sequence of video frames 102 is captured or generated using an image generating unit 105. Video frames 102 may be captured digitally (eg, through a digital video camera) or computer generated (eg, using computer animation) to provide video data 107. Alternatively, video frames 102 may be captured on film by a movie camera, in which case the film is converted to digital format to provide video data 107. In the production software stage, the video data 107 is edited to provide a video production stream 112.

[33] Видеоданные потока 112 видеопроизводства затем предоставляют на процессор в блоке 115 постпроизводства для редактирования в постпроизводстве. Блок 115 редактирования в постпроизводстве может включать регулирование или модификацию цветов или яркости в конкретных областях изображения для повышения качества изображения или получения определенного визуального вида для изображения в соответствии с творческим замыслом создателя видео. Это иногда называют «цветоустановкой» или «цветокоррекцией». В блоке 115 постпроизводства может быть выполнено и другое редактирование (например, выбор сцен и определение последовательностей, обрезка изображений, добавление сгенерированных на компьютере визуальных специальных эффектов и т.п.) для получения окончательной версии 117 производства для дистрибуции. Во время редактирования в постпроизводстве блока 115 постпроизводства видеоизображения просматривают на эталонном дисплее 125.[33] The video data of the video production stream 112 is then provided to the processor in the post production block 115 for post production editing. The post-production editing block 115 may include adjusting or modifying colors or brightness in specific areas of the image to enhance the quality of the image or to achieve a specific visual appearance for the image in accordance with the creative intent of the video creator. This is sometimes called "color setting" or "color correction". Other editing (eg, scene selection and sequencing, cropping images, adding computer-generated visual special effects, etc.) may be performed in post-production block 115 to produce the final production version 117 for distribution. During editing in post production unit 115, video images are viewed on reference display 125.

[34] После постпроизводства в блоке 115 постпроизводства видеоданные окончательной версии 117 могут быть доставлены в кодер 120 для доставки ниже по потоку в устройства декодирования и воспроизведения, такие как телевизоры, приставки, кинотеатры и т.п.В некоторых вариантах осуществления кодер 120 может содержать кодеры звука и видео, такие как определены ATSC, DVB, DVD, Blu-Ray и другими форматами доставки, чтобы генерировать кодированный битовый поток 122. В приемнике кодированный битовый поток 122 декодируют посредством декодера 130, чтобы генерировать декодированный сигнал 132, представляющий идентичные видеоданные или близкую аппроксимацию видеоданных, которые соответствуют окончательной версии 117. Приемник может быть подключен к целевому дисплею 151, который может обладать полностью отличающимися от эталонного дисплея 125 характеристиками. В этом случае блок 135 управления дисплеем может быть использован для отображения динамического диапазона декодированного сигнала 132 в характеристики целевого дисплея 151 посредством генерирования сигнала 137, отображаемого на дисплей. Целевой дисплей 151 может представлять собой эталонный монитор, компьютерный монитор или дисплей, телевизор (TV), устанавливаемый на голове дисплей, виртуальный ретинальный дисплей и т.п.[34] After post-production in post-production block 115, the video data of the final version 117 may be delivered to encoder 120 for delivery downstream to decoding and playback devices such as televisions, set-top boxes, movie theaters, and the like. In some embodiments, encoder 120 may include audio and video encoders, such as those defined by ATSC, DVB, DVD, Blu-Ray and other delivery formats, to generate a coded bitstream 122. At the receiver, the coded bitstream 122 is decoded by a decoder 130 to generate a decoded signal 132 representing identical video data or a close approximation of the video data that corresponds to the final version 117. The receiver may be connected to the target display 151, which may have completely different characteristics from the reference display 125. In this case, the display control unit 135 may be used to map the dynamic range of the decoded signal 132 to the characteristics of the target display 151 by generating a signal 137 displayed on the display. The target display 151 may be a reference monitor, a computer monitor or display, a television set (TV), a head-mounted display, a virtual retinal display, or the like.

[35] Dolby Vision™ представляет собой полный комплекс, позволяющий создавать и распространять содержимое, созданное с помощью расширенного динамического диапазона и широкой цветовой гаммы. Управление дисплеем Dolby Vision соответствует возможностям данного телевизора благодаря использованию ряда алгоритмов для отображения сигнала на любой пользовательский телевизор Dolby Vision. Это создает для зрителя оптимальное и плавное восприятие видео.[35] Dolby Vision™ is a complete package that enables the creation and distribution of content created with high dynamic range and wide color gamut. Dolby Vision display control matches the capabilities of this TV by using a number of algorithms to map the signal to any user's Dolby Vision TV. This creates an optimal and smooth video experience for the viewer.

[36] Полный комплекс, позволяющий создавать и распространять содержимое с расширенным динамическим диапазоном и широкой цветовой гаммой, такой как Dolby Vision, наряду с видеоданными включает и метаданные. Например, в Dolby Vision существуют разные уровни метаданных, которые имеют названия от уровня 1 (L1) до уровня 10 (L10). Примеры описания таких метаданных описаны в публикации WIPO WO 2019/050972 «Топе-curve optimization method and associated video» под именем R. Atkins et al., которая полностью включена в настоящий документ посредством ссылки. Битовый поток цифрового видео и способы генерирования битового потока цифрового видео и воспроизведения видеосодержимого согласно настоящему изобретению предоставляют решения задачи сохранения творческого замысла в декодере или целевом дисплее, а также предоставляют решение для идентификации категории видеосодержимого в декодере или целевом дисплее для регулирования настроек дисплея согласно идентифицированной категории видеосодержимого.[36] A complete package that enables the creation and distribution of high dynamic range and wide color content, such as Dolby Vision, and includes metadata as well as video data. For example, in Dolby Vision there are different levels of metadata, which are named from level 1 (L1) to level 10 (L10). Examples of descriptions of such metadata are described in WIPO WO 2019/050972 “Top-curve optimization method and associated video” by R. Atkins et al., which is incorporated herein by reference in its entirety. The digital video bitstream and methods for generating a digital video bitstream and reproducing video content according to the present invention provide solutions to the problem of storing creative intent in a decoder or target display, and also provide a solution for identifying a category of video content in a decoder or target display for adjusting display settings according to the identified category of video content .

[37] Новый набор метаданных представлен в комплексе для создания и распространения видео с расширенным динамическим диапазоном и широкой цветовой гаммой, таком как Dolby Vision, именуемый, без ограничения, в настоящем документе как уровень 11 (L11), посредством которого задают намерение создателей содержимого в отношении характеристик воспроизведения видеосодержимого на декодере или целевом дисплее. Метаданные L11 позволяют передавать творческий замысел создателя содержимого в декодер или целевой дисплей. Эти метаданные со сведениями о содержимом указывают лучший способ представления содержимого целевым дисплеем. Метаданные L11 включают множество полей для обеспечения не требующей усилий маркировки создателем создаваемого им содержимого.[37] A new set of metadata is introduced in a complex for the creation and distribution of high dynamic range and wide color gamut video, such as Dolby Vision, referred to herein as Layer 11 (L11) by which content creators intend to regarding the playback characteristics of video content on the decoder or target display. L11 metadata allows the content creator's creative intent to be conveyed to the decoder or target display. This content information metadata indicates the best way for the target display to present the content. L11 metadata includes a variety of fields to provide effortless creator tagging of the content they create.

[38] Следует понимать, что битовый поток цифрового видео и способы генерирования битового потока цифрового видео и воспроизведения видеосодержимого согласно настоящему изобретению являются в целом применимыми для комплексов для создания и распространения видео с расширенным динамическим диапазоном и широкой цветовой гаммой, а термин «L11» используется в настоящем документе исключительно для наглядности и не предназначен для ограничения раскрытых в настоящем документе битового потока цифрового видео и способов генерирования битового потока цифрового видео и воспроизведения видеосодержимого.[38] It should be understood that the digital video bitstream and methods for generating a digital video bitstream and reproducing video content according to the present invention are generally applicable to complexes for creating and distributing high dynamic range and wide color gamut video, and the term "L11" is used contained herein are for illustrative purposes only and are not intended to limit the digital video bitstream and methods for generating a digital video bitstream and playing video content disclosed herein.

[39] Целевые дисплеи, такие как телевизоры, имеют разные режимы дисплея, но выбор режима дисплея зависит от пользователя. Например, когда пользователь смотрит художественный фильм, он/она может изменить режим дисплея в телевизоре. Однако большинство пользователей недостаточно опытны или не считают, что стоит тратить время на изменение режима дисплея каждый раз, когда они просматривают различные типы содержимого. Выбор определенного режима дисплея обусловливает применение целевым дисплеем настроек дисплея, которые связаны с выбранным режимом дисплея.[39] Target displays such as televisions have different display modes, but the choice of display mode depends on the user. For example, when a user is watching a feature film, he/she can change the display mode of the TV. However, most users are not experienced enough or don't think it's worth the time to change the display mode every time they view different types of content. Selecting a particular display mode causes the target display to apply display settings that are associated with the selected display mode.

[40] Настоящее изобретение предусматривает аппарат и способ автоматической идентификации категории видеосодержимого, в результате чего целевой дисплей может производить умное определение режима дисплея, который должен быть включен. Настоящее изобретение предусматривает аппарат и способ добавления в видеосодержимое сведений путем введения метаданных L11. Кроме того, настоящее изобретение позволяет определять наилучший способ представления видеосодержимого на целевом дисплее, так что целевому дисплею нет необходимости угадывать категорию видеосодержимого, так же как и пользователю нет необходимости угадывать категорию видеосодержимого. Более того, заявляемый в данном случае предмет изобретения позволяет пользователю и целевому дисплею не выполнять никаких действий во время воспроизведения видеосодержимого. Целевой дисплей просто выполняет то, что ему указывают сделать метаданные L11.[40] The present invention provides an apparatus and method for automatically identifying a category of video content, whereby a target display can intelligently determine a display mode to be turned on. The present invention provides an apparatus and method for adding information to video content by introducing L11 metadata. In addition, the present invention allows the determination of the best way to present video content on a target display such that the target display does not need to guess the category of the video content, just as the user does not need to guess the category of the video content. Moreover, the subject matter of the invention claimed here allows the user and the target display to not perform any actions while playing video content. The target display simply does what the L11 metadata tells it to do.

[41] В настоящее время целевые дисплеи выполняют обработку видеосодержимого на основании предположений, однако это не очень точный процесс. Имея метаданные со сведениями о содержимом, целевой дисплей уведомляется о правильной обработке видеосодержимого. Это гарантирует, что процесс принятия решения в целевом дисплее является информированным и что каждый раз достигается правильный результат. Например, целевой дисплей получает информацию из метаданных L11 о том, что содержимое относится к спорту, поэтому целевой дисплей во время воспроизведения переключается в режим дисплея, который соответствует спортивному содержимому, так, что связанные настройки дисплея режима дисплея устанавливаются соответственно.[41] Currently, target displays process video content based on guesswork, but this is not a very accurate process. With metadata containing information about the content, the target display is notified to process the video content correctly. This ensures that the decision process in the target display is informed and that the correct result is achieved every time. For example, the target display receives information from the metadata L11 that the content relates to sports, so the target display during playback is switched to a display mode that corresponds to the sports content, so that the associated display settings of the display mode are set accordingly.

[42] Согласно варианту осуществления настоящего изобретения битовый поток видео включает метаданные, которые сообщают на целевой дисплей категорию видеосодержимого, находящегося в битовом потоке. Эти метаданные могут включать многочисленные поля, которые указывают на характеристики видеосодержимого, такие как тип содержимого и подтип содержимого. Кроме того, выбранная категория видеосодержимого может быть уточнена прямым указанием регулировок конкретных настроек дисплея, таких как желаемая белая точка, использовать или нет видео в эталонном режиме, желаемая резкость, желаемое шумоподавление, желаемое шумоподавление MPEG, желаемое преобразование частоты кадров (FRC), желаемый средний уровень яркости изображения (APL) и желаемый цвет. Ряд полей в метаданных L11 добавлен с определенной иерархией.[42] According to an embodiment of the present invention, the video bitstream includes metadata that communicates to the target display the category of video content contained in the bitstream. This metadata may include numerous fields that indicate characteristics of the video content, such as content type and content subtype. In addition, the selected category of video content can be refined by directly specifying adjustments to specific display settings, such as desired white point, whether or not to use video in reference mode, desired sharpness, desired noise reduction, desired MPEG noise reduction, desired frame rate conversion (FRC), desired average image brightness level (APL) and desired color. A number of fields in L11 metadata have been added with a specific hierarchy.

[43] Метаданные L11 предназначены для обеспечения не требующей усилий маркировки создателями создаваемого ими содержимого: 1) Самый простой способ для создателя содержимого - это ничего не делать, что вызывает поведение по умолчанию; 2) Второй самый простой способ для создателя содержимого это сообщить на целевой декодер или целевой дисплей категорию содержимого, к которой относится видео, например художественный фильм, игра или спорт. В зависимости от этой информации метаданных целевой дисплей, такой как телевизор, выполняет высокоуровневое определение режима дисплея, например телевизор переключается в режим художественного фильма, игры или спорта. Телевизор осуществляет поиск надлежащих детальных настроек дисплея режима дисплея, которые соответствуют этим категориям соответственно; 3) Наконец, метаданные L11 позволяют создателю содержимого дополнительно указывать детали настроек дисплея на целевом дисплее, которые приводят к уточнению выбранного режима дисплея. Например, создатель содержимого может задать подтип содержимого, например, в случае спортивного содержимого, указать, является ли данный вид спорта зимним видом спорта или водным видом спорта. Более того, создатель содержимого может задать, например, что видеосодержимое будет лучше смотреться на целевом дисплее с преобразованием частоты кадров, выставленным в высокое значение. Метаданные L11 являются иерархическими, что позволяет при недостатке информации устанавливать тип содержимого или подтип содержимого в значение по умолчанию. Кроме того, метаданные L11 позволяют заменять эти значения по умолчанию метаданными от случая к случаю.[43] L11 metadata is designed to allow creators to effortlessly mark the content they create: 1) The easiest way for a content creator to do nothing, which triggers the default behavior; 2) The second easiest way is for the content creator to tell the target decoder or target display the content category that the video belongs to, such as a feature film, game, or sports. Depending on this metadata information, the target display, such as a TV, makes a high-level determination of the display mode, such as the TV switching to a feature film, game, or sports mode. The TV searches for the appropriate detailed display mode display settings that correspond to these categories respectively; 3) Finally, L11 metadata allows the content creator to further specify details of the display settings on the target display, which lead to refinement of the selected display mode. For example, the content creator can specify a content subtype, for example, in the case of sports content, whether the sport is a winter sport or a water sport. Moreover, the content creator can specify, for example, that video content will look better on the target display with frame rate conversion set to a high value. L11 metadata is hierarchical, allowing the content type or content subtype to be set to a default value if there is insufficient information. Additionally, L11 metadata allows these default values to be replaced with metadata on a case-by-case basis.

[44] Метаданные L11 могут быть заданы не только создателями содержимого, они также могут быть заданы на уровне приложения. Например, если интеллектуальный проигрыватель Blu-Ray выполняет воспроизведение с потокового сервиса видеофильмов, такого как Netflix® (Netflix® является зарегистрированным торговым знаком компании «Netflix Inc.»), интеллектуальный проигрыватель Blu-Ray может установить метаданные под настройки для фильмов или сериалов; если интеллектуальный проигрыватель Blu-Ray выполняет воспроизведение из игры, он может маркировать содержимое как игру; если он выполняет воспроизведение из телевизионной приставки, он может устанавливать его на спорт или любое другое содержимое. Таким образом, метаданные L11 позволяют задавать тип видеосодержимого другим субъектам, помимо исходного создателя содержимого. В этом смысле для сохранения творческого замысла важно не просто предоставить метаданные со сведениями о содержимом, но также предоставить указание того, как эти метаданные были созданы, например создателем содержимого или посредниками.[44] Not only can L11 metadata be specified by content creators, it can also be specified at the application level. For example, if the Smart Blu-Ray Player is playing a movie streaming service such as Netflix® (Netflix® is a registered trademark of Netflix Inc.), the Smart Blu-Ray Player may set metadata to the settings for the movies or TV series; If the Smart Blu-Ray Player is playing from a game, it may label the content as a game; if he is playing from a set-top box, he can set it to sports or any other content. Thus, L11 metadata allows the type of video content to be specified by entities other than the original content creator. In this sense, to preserve creative intent, it is important to not just provide metadata about the content, but also provide an indication of how the metadata was created, such as by the content creator or intermediaries.

[45] Метаданные L11 позволяют иметь несколько точек, в которых метаданные L11 могут быть добавлены в видеосодержимое. В варианте осуществления для указания источника метаданных L11 метаданные L11 содержат флаг эталонного режима (который также называется флагом эталонного режима L11 или для краткости флагом L11 RM), который может быть установлен в значения ИСТИНА или ЛОЖЬ. Исходный создатель содержимого может добавлять метаданные L11 с конкретной целью, например, создатель содержимого создал игру и хочет, чтобы игра воспроизводилась так, чтобы игра выглядела более синей и выглядела очень четко на целевом дисплее. Создатель содержимого затем может установить флаг L11 RM в значение ИСТИНА, тем самым подразумевая, что даже если целевой дисплей находится в режиме самого высокого качества, ему следует применить метаданные со сведениями о содержимом для сохранения творческого замысла.[45] L11 metadata allows for multiple points at which L11 metadata can be added to video content. In an embodiment, to indicate the source of the L11 metadata, the L11 metadata includes a reference mode flag (also called the L11 reference mode flag or L11 RM flag for short), which can be set to TRUE or FALSE. The original content creator may add L11 metadata for a specific purpose, for example, the content creator has created a game and wants the game to play in a way that makes the game appear bluer and look very sharp on the target display. The content creator can then set the L11 RM flag to TRUE, thereby implying that even if the target display is in the highest quality mode, it should apply content information metadata to preserve creative intent.

[46] С другой стороны, если содержимое относится, например, к игре, и метаданные L11 были добавлены на последующих стадиях третьей стороной, например при автоматической обработке изображения, флаг L11 RM будет установлен в значение ЛОЖЬ, подразумевая, что если целевой дисплей находится в режиме самого высокого качества, ему не следует применять метаданные L11, поскольку метаданные L11 были добавлены кем-то другим, а не создателем содержимого, поэтому целевой дисплей не будет сохранят замысел исходного создателя содержимого. Установка флага L11 RM в значение ЛОЖЬ указывает на то, что замысел создателя содержимого был изменен. Применение флага L11 RM таким образом обеспечивает неизменность метаданных, в то время как их использование может быть модифицировано в зависимости от состояния флага. Например, если видеосодержимое воспроизводится в эталонном режиме, в котором для сохранения первоначального замысла создателя выполняется большой объем обработка и является важным самое высокое качество, то во время воспроизведения флаг L11 RM используется для того, чтобы сообщать на целевой дисплей, следует или не следует в эталонном режиме использовать метаданные со сведениями о содержимом: i) метаданные со сведениями о содержимом следует использовать в эталонном режиме, если метаданные были созданы исходным создателем содержимого (состояние флага установлено в значение ИСТИНА); ii) метаданные со сведениями о содержимом не следует использовать в эталонном режиме, если метаданные были созданы на последующих стадиях кем-то другим, а не исходным создателем содержимого (состояние флага установлено в значение ЛОЖЬ). Это является одним из ключевых аспектов настоящего изобретения. Это придает важность тому, должен или нет целевой дисплей принимать во внимание метаданные со сведениями о содержимом, если зритель намерен просматривать видеосодержимое в эталонном режиме.[46] On the other hand, if the content relates to, for example, a game, and L11 metadata was added at subsequent stages by a third party, such as during automatic image processing, the L11 RM flag will be set to FALSE, implying that if the target display is in highest quality mode, it should not apply L11 metadata because the L11 metadata was added by someone other than the content creator, so the target display will not preserve the original content creator's intent. Setting the L11 RM flag to FALSE indicates that the content creator's intent has been changed. Using the L11 RM flag in this way ensures that the metadata is immutable, while its use can be modified depending on the state of the flag. For example, if video content is played in reference mode, in which a lot of processing is done to preserve the creator's original intent and the highest quality is important, then during playback the L11 RM flag is used to tell the target display whether or not to follow the reference mode. mode use content information metadata: i) content information metadata should be used in reference mode if the metadata was created by the original content creator (the flag is set to TRUE); ii) Content information metadata should not be used in reference mode if the metadata was created in subsequent stages by someone other than the original content creator (flag set to FALSE). This is one of the key aspects of the present invention. This makes it important whether or not the target display should take content information metadata into account if the viewer intends to view video content in reference mode.

[47] Использование флага L11 RM дополнительно изображено на фиг. 2 в виде таблицы 200. В этой приведенной в качестве примера таблице «использование метаданных в эталонном режиме» (210) относится к состоянию целевого дисплея во время воспроизведения. Эта таблица далее иллюстрирует сценарии, описанные в предыдущем абзаце: 1) В первой строке таблицы (220) метаданные отсутствуют, поэтому метаданные не могут быть использованы в эталонном режиме или в режиме, не являющемся эталонным (230); 2) Во второй строке (240) метаданные L11 имеются, однако флаг L11 RM имеет значение ЛОЖЬ, таким образом, для сохранения творческого замысла целевой дисплей получает команду не использовать метаданные L11 в эталонном режиме. Целевой дисплей все еще может использовать метаданные L11 во время обработки, когда он находится в режиме, не являющемся эталонным; 3) В третьей строке (260) метаданные L11 имеются и флаг L11 RM имеет значение ИСТИНА, поэтому целевой дисплей получает команду, что он может использовать метаданные L11 в эталонном режиме и во всех других режимах, не являющихся эталонными.[47] The use of the L11 RM flag is further illustrated in FIG. 2 as a table 200. In this exemplary table, “reference mode metadata usage” (210) refers to the state of the target display during playback. This table further illustrates the scenarios described in the previous paragraph: 1) There is no metadata in the first row of the table (220), so the metadata cannot be used in reference or non-reference mode (230); 2) The second line (240) has L11 metadata, but the L11 RM flag is FALSE, so to preserve creative intent, the target display is instructed not to use L11 metadata in reference mode. The target display can still use L11 metadata during processing when it is in a non-reference mode; 3) In the third line (260), L11 metadata is present and the L11 RM flag is TRUE, so the target display is commanded that it can use L11 metadata in reference mode and all other non-reference modes.

[48] На фиг. 3 изображен пример использования флага L11 RM в виде блок-схемы 300. Декодер или целевой дисплей сначала проверяет, имеются (310) ли метаданные L11 в видеосодержимом. Если ответ отрицательный, декодер или целевой дисплей больше ничего не должны делать (320). Если ответ положительный, то декодер или целевой дисплей проверяет (330), имеет флаг L11 RM значение ИСТИНА или ЛОЖЬ. Если флаг имеет значение ЛОЖЬ и пользователю важно сохранение творческого замысла, то метаданные L11 не следует (340) использовать в эталонном режиме. Если флаг имеет значение ЛОЖЬ и пользователю не важно сохранение творческого замысла, то метаданные L11 можно (360) использовать в режиме, не являющемся эталонным, целевого дисплея. Если флаг L11 RM имеет значение ИСТИНА, декодер или целевой дисплей может (350) использовать метаданные как в эталонном режиме, так и в режиме, не являющемся эталонным.[48] In FIG. 3 depicts an example of the use of the L11 RM flag in the form of a block diagram 300. The decoder or target display first checks whether L11 metadata is present 310 in the video content. If the answer is no, the decoder or target display does not have to do anything else (320). If the answer is yes, then the decoder or target display checks (330) whether the L11 RM flag is TRUE or FALSE. If the flag is FALSE and the user cares about preserving creative intent, then L11 metadata should not (340) be used in reference mode. If the flag is FALSE and the user does not care about preserving the creative intent, then L11 metadata can (360) be used in a non-reference mode of the target display. If the L11 RM flag is TRUE, the decoder or target display may (350) use metadata in both reference mode and non-reference mode.

[49] Следующие фигуры с их соответствующими таблицами иллюстрируют примеры вариантов осуществления полей метаданных L11 и примеры значений, используемых для заполнения этих полей.[49] The following figures with their corresponding tables illustrate example embodiments of L11 metadata fields and example values used to populate these fields.

[50] На фиг. 4А^ГО изображен пример деталей метаданных L11 в виде таблицы. На фиг. 4А в таблице 400А представлены метаданные L11, имеющие тип (410) содержимого и подтип (412) содержимого. На фиг. 4 В в таблице 400 В представлены биты для белой точки (420), для флага (422) RM и для будущего использования (424). На фиг. 4С в таблице 400С представлены биты для резкости (430), шумоподавления (432), шумоподавления (434) MPEG и преобразования (436) частоты кадров. На фиг. 4D в таблице 400D представлены биты для яркости (440), для цвета (442) и для будущего использования (444).[50] In FIG. 4A^GO shows an example of L11 metadata details in tabular form. In fig. 4A, table 400A presents L11 metadata having a content type (410) and a content subtype (412). In fig. 4 The 400V table provides bits for the white point (420), for the RM flag (422), and for future use (424). In fig. 4C, table 400C provides bits for sharpening (430), noise reduction (432), MPEG noise reduction (434), and frame rate conversion (436). In fig. 4D, table 400D provides bits for brightness (440), for color (442), and for future use (444).

[51] На фиг. 5 изображен пример дополнительных деталей типа содержимого в виде таблицы. Таблица 500 описывает разновидности типов (510) содержимого в метаданных L11. Метаданные L11 используют небольшую полезную нагрузку, например 4 бита, которые обновляются для каждой сцены. Зарезервированные значения (550) предназначены для будущих типов содержимого и по умолчанию будут иметь значение «О» для устройств воспроизведения, у которых отсутствует определение этого поля метаданных, для сохранения неизменности текущего стандартного пользовательского восприятия.[51] In FIG. Figure 5 shows an example of additional content type details in table form. Table 500 describes the varieties of content types (510) in L11 metadata. L11 metadata uses a small payload, such as 4 bits, which is updated for each scene. The reserved values (550) are for future content types and will default to "O" for playout devices that do not have this metadata field defined, to keep the current default user experience unchanged.

[52] На фиг. 6 изображен пример типичных категорий L11, каждая из которых соответствует конкретному режиму дисплея, содержащему ряд настроек дисплея, в виде таблицы. Таблица 600 заполняется на этапе настройки перцепционного квантователя (PQ) при сотрудничестве владельца комплекса для создания и распространения содержимого, такого как Dolby, с изготовителем комплектного оборудования (OEM) целевых дисплеев, а также необязательно создателем содержимого.[52] In FIG. Figure 6 shows an example of typical L11 categories, each of which corresponds to a specific display mode containing a number of display settings, in table form. Table 600 is populated during the perceptual quantizer (PQ) configuration step, with the collaboration of the owner of the content creation and distribution complex, such as Dolby, with the original equipment manufacturer (OEM) of the target displays, and optionally the content creator.

[53] На фиг. 7 изображен пример деталей подтипа содержимого L11 в виде таблицы. Метаданные L11 используют дополнительные 4 бита, которые обновляются для каждой сцены. Подтип (720) содержимого модифицирует поведение по умолчанию относительно типа (510) содержимого путем дополнительного уточнения типа содержимого, что заставляет целевой дисплей регулировать конкретные настройки дисплея, связанные с выбранным подтипом содержимого. Это позволяет изготовителю комплектного оборудования дополнительно производить тонкую настройку алгоритмов постобработки для обеспечения возможности дифференциации. Создатель содержимого может просто заполнить таблицу значением «0», если захочет.[53] In FIG. 7 shows an example of L11 content subtype details in table form. L11 metadata uses an additional 4 bits that are updated for each scene. The content subtype (720) modifies the default behavior of the content type (510) by further qualifying the content type, which causes the target display to adjust the specific display settings associated with the selected content subtype. This allows the OEM to further fine-tune post-processing algorithms to enable differentiation. The content creator can simply fill the table with the value "0" if he wants.

[54] На фиг. 8 изображен пример деталей желаемой белой точки метаданных L11 в виде таблицы. В таблице 800 определяется представляемая белая точка изображения. Белая точка может быть или обойдена посредством системного уровня подключаемого аудио-модуля (API) или может быть применена в рамках управления дисплеем (DM) Dolby, в случае чего целевой дисплей будет откалиброван до собственной температуры. Установка «0» для значения по умолчанию будет использовать белую точку по умолчанию для типа содержимого. Желаемая белая точка (810) фильтруется в целевом дисплее во время воспроизведения для предотвращения внезапных изменений.[54] In FIG. 8 shows an example of the details of the desired metadata white point L11 in tabular form. The table 800 determines the white point of the image to be represented. The white point can either be bypassed through the audio plug-in API (API) system layer, or can be applied as part of Dolby display management (DM), in which case the target display will be calibrated to its own temperature. Setting the default value to "0" will use the default white point for the content type. The desired white point (810) is filtered in the target display during playback to prevent sudden changes.

[55] На фиг. 9 изображен пример деталей желаемой резкости в метаданных L11 в виде таблицы. В таблице 900 определяется алгоритм усиления деталей / резкости на целевом дисплее. Установка «0» для значения по умолчанию будет использовать настройку по умолчанию для этого типа содержимого. «ВЫКЛ.» соответствует отсутствию добавленной резкости. При необходимости размер изображений изменяют с использованием билинейной интерполяции. «ВЫСОКАЯ» соответствует максимальному усилению резкости. Настройка между «ВЫКЛ.» и «ВЫСОКАЯ» управляет силой резкости. При применении этой таблицы переход между настройками резкости должен быть плавным. Желаемая резкость (910) фильтруется на целевом дисплее во время воспроизведения для предотвращения внезапных изменений.[55] In FIG. Figure 9 shows an example of the details of the desired sharpness in the L11 metadata in tabular form. Table 900 defines the algorithm for enhancing detail/sharpness on the target display. Setting the default value to "0" will use the default setting for that content type. "OFF" corresponds to no added sharpness. If necessary, the images are resized using bilinear interpolation. “HIGH” corresponds to maximum sharpening. Setting between "OFF" and “HIGH” controls the sharpness. When applying this table, the transition between sharpness settings should be smooth. The desired sharpness (910) is filtered on the target display during playback to prevent sudden changes.

[56] На фиг. 10 изображен пример деталей желаемого шумоподавления в метаданных L11 в виде таблицы. В таблице 1000 определяется алгоритм шумоподавления для случайного шума. Установка «0» для значения по умолчанию будет использовать настройку по умолчанию для типа содержимого. «ВЫКЛ.» соответствует отсутствию шумоподавления. «ВЫСОКОЕ» соответствует максимальному шумоподавлению. Настройка между «ВЫКЛ.» и «ВЫСОКОЕ» управляет силой шумоподавления. При применении этой таблицы переход между разными настройками должен быть плавным. Желаемое шумоподавление (1010) фильтруется на целевом дисплее во время воспроизведения для предотвращения внезапных изменений.[56] In FIG. 10 shows an example of the details of the desired noise reduction in the L11 metadata in tabular form. Table 1000 defines a noise reduction algorithm for random noise. Setting the default value to "0" will use the default setting for the content type. "OFF" corresponds to no noise reduction. “HIGH” corresponds to maximum noise reduction. Setting between "OFF" and “HIGH” controls the strength of the noise reduction. When using this table, the transition between different settings should be smooth. The desired noise reduction (1010) is filtered on the target display during playback to prevent sudden changes.

[57] На фиг. 11 изображен пример деталей желаемого шумоподавления MPEG в метаданных L11 в виде таблицы. В таблице 1100 определяется алгоритм шумоподавления для шума сжатия. Установка «0» для значения по умолчанию будет использовать настройку по умолчанию для типа содержимого. «ВЫКЛ.» соответствует отсутствию шумоподавления. «ВЫСОКОЕ» соответствует максимальному шумоподавлению. Настройка между «ВЫКЛ.» и «ВЫСОКОЕ» управляет силой шумоподавления. При применении этой таблицы переход между разными настройками должен быть плавным. Желаемое шумоподавление (1110) MPEG фильтруется на целевом дисплее во время воспроизведения для предотвращения внезапных изменений.[57] In FIG. 11 depicts an example of the details of the desired MPEG noise reduction in L11 metadata in tabular form. Table 1100 defines a denoising algorithm for compression noise. Setting the default value to "0" will use the default setting for the content type. "OFF" corresponds to no noise reduction. “HIGH” corresponds to maximum noise reduction. Setting between "OFF" and “HIGH” controls the strength of the noise reduction. When using this table, the transition between different settings should be smooth. The desired MPEG noise reduction (1110) is filtered on the target display during playback to prevent sudden changes.

[58] На фиг. 12 изображен пример деталей преобразования частоты кадров (FRC) в метаданных L11 в виде таблицы. В таблице 1200 определяется алгоритм преобразования частоты кадров. Установка «0» для значения по умолчанию будет использовать настройку по умолчанию FRC для типа содержимого. «ВЫКЛ.» соответствует отсутствию преобразования частоты кадров. Кадры будут дублироваться только при необходимости. «ВЫСОКОЕ» соответствует максимальному преобразованию частоты кадров. Кадры будут плавно интерполироваться до максимальной частоты обновления целевого дисплея. Настройка между «ВЫКЛ.» и «ВЫСОКОЕ» управляет силой FRC. Кадры будут интерполированы на дробную величину между исходной точкой и средней точкой. При применении этой таблицы переход между разными настройками FRC должен быть плавным (то есть без черных кадров). Как следствие, полный обход FRC не может быть вызван L11, так как обычно это приводит к появлению черных кадров. Существуют механизмы для запроса FRC, такие как автоматический режим низкой задержки (ALLM) в HDMI 2.1. Желаемое преобразование (1210) частоты кадров фильтруется на целевом дисплее во время воспроизведения для предотвращения внезапных изменений.[58] In FIG. 12 shows an example of frame rate conversion (FRC) details in L11 metadata in tabular form. Table 1200 defines the frame rate conversion algorithm. Setting the default value to "0" will use the default FRC setting for the content type. "OFF" corresponds to no frame rate conversion. Frames will be duplicated only when necessary. "HIGH" corresponds to maximum frame rate conversion. Frames will be smoothly interpolated to the maximum refresh rate of the target display. Setting between "OFF" and "HIGH" controls the FRC strength. Frames will be interpolated by a fractional amount between the origin and the midpoint. When applying this table, the transition between different FRC settings should be smooth (i.e. no black frames). As a consequence, full FRC bypass cannot be caused by L11, as it usually results in black frames. There are mechanisms for requesting FRC, such as Auto Low Latency Mode (ALLM) in HDMI 2.1. The desired frame rate conversion (1210) is filtered on the target display during playback to prevent sudden changes.

[59] На фиг. 13 изображен пример деталей среднего уровня яркости изображения (APL) для метаданных L11 в виде таблицы. В таблице 1300 определяется средний уровень яркости изображения. Установка «0» для значения по умолчанию будет использовать настройку по умолчанию для типа содержимого. «НИЗКАЯ» соответствует немного более темной яркости. «СРЕДНЯЯ» соответствует средней яркости. «ВЫСОКАЯ» соответствует максимальной яркости. При применении этой таблицы переход между разными настройками должен быть плавным. Желаемый средний уровень (1310) яркости изображения фильтруется на целевом дисплее во время воспроизведения для предотвращения внезапных изменений.[59] In FIG. 13 shows an example of average image luminance level (APL) details for L11 metadata in tabular form. Table 1300 determines the average brightness level of the image. Setting the default value to "0" will use the default setting for the content type. "LOW" corresponds to a slightly darker brightness. "MEDIUM" corresponds to medium brightness. “HIGH” corresponds to maximum brightness. When using this table, the transition between different settings should be smooth. The desired average level (1310) of image brightness is filtered on the target display during playback to prevent sudden changes.

[60] На фиг. 14 изображен пример деталей желаемого цвета в метаданных L11 в виде таблицы. В таблице 1400 определяется насыщенность цвета. Установка «0» для значения по умолчанию будет использовать настройку по умолчанию для типа содержимого. «НИЗКАЯ» соответствует немного более низкой насыщенности. «СРЕДНЯЯ» соответствует средней насыщенности. «ВЫСОКАЯ» соответствует максимальной насыщенности. При применении этой таблицы переход между разными настройками должен быть плавным. Желаемая насыщенность (1410) цвета фильтруется на целевом дисплее во время воспроизведения для предотвращения внезапных изменений.[60] In FIG. 14 shows an example of the desired color details in the L11 metadata in tabular form. Table 1400 determines color saturation. Setting the default value to "0" will use the default setting for the content type. "LOW" corresponds to slightly lower saturation. “MEDIUM” corresponds to medium saturation. “HIGH” corresponds to maximum saturation. When using this table, the transition between different settings should be smooth. The desired color saturation (1410) is filtered on the target display during playback to prevent sudden changes.

[61] Теперь дополнительно описываются настройки по умолчанию в метаданных L11. К примеру, когда целевой дисплей находится в интеллектуальном режиме, таком как Dolby Smart Mode, видеосодержимое без метаданных L11 может по умолчанию соответствовать значению «ПО УМОЛЧАНИЮ» (например, на фиг. 5 тип содержимого =0). «Все остальное» (например, на фиг. 5 тип содержимого =6) может рассматриваться как «средняя лучшая настройка» для всего содержимого (например, спорт, драма, сериалы, рекламные ролики, игры и художественные фильмы). Во время постпроизводства (115) студия может проверять качество выпускаемого продукта в разных режимах дисплея (например, живой, кинотеатр / художественный фильм и т.д.). Если студия устанавливает свой воспроизводящий дисплей (125) в режим «домашний кинотеатр» для просмотра своего содержимого, это не обязательно может обеспечивать тот же зрительский опыт, что и у того, кто использует интеллектуальный режим с L11, установленными в «кинотеатр». То же самое верно для режимов игры, спорта и стандартного режима. Это может происходить из-за того, что два дисплея могут отличаться в том, как они определяют свою белую точку или другие параметры калибровки.[61] Default settings in L11 metadata are now further described. For example, when the target display is in a smart mode such as Dolby Smart Mode, video content without L11 metadata may default to "DEFAULT" (eg, in FIG. 5, content type =0). “Everything else” (e.g., in Fig. 5, content type =6) can be considered as the “average best setting” for all content (e.g., sports, drama, TV series, commercials, games, and feature films). During post-production (115), the studio can check the quality of the released product in different display modes (eg, live, cinema/feature film, etc.). If a studio sets its playback display (125) to "home theater" mode to view its content, it may not necessarily provide the same viewing experience as someone using smart mode with the L11s set to "cinema." The same is true for Game, Sports and Standard modes. This may occur because the two displays may differ in how they determine their white point or other calibration parameters.

[62] Теперь описывается генерирование метаданных L11. К примеру, если L11 не задан в содержимом, устройства для создания изображений могут заполнять поля, чтобы конфигурировать целевое дисплейное устройство в желаемый режим. Кроме того, если L11 не заданы в содержимом, поля для конфигурирования целевого дисплейного устройства могут быть заполнены на уровне приложения (арр). Например, в варианте осуществления игровые приложения для PS4/Xbox настроены на игру, приложения для проигрывателя Blu-Ray и Netflix настроены на кинотеатр или спортивное приложение NBC настроено на спорт. Более того, авторский инструментарий также может заполнять поля для конфигурирования целевого дисплейного устройства. В этом случае авторский инструментарий разрешает и активирует раскрывающееся меню для типа содержимого. Голливудские студии всегда настроены на кинотеатр. Вещательные компании настроены на «Все остальное», если они явным образом не охватывают спорт или кинотеатр.[62] The generation of L11 metadata is now described. For example, if L11 is not specified in the content, imaging devices may fill in the fields to configure the target display device to the desired mode. Additionally, if L11 is not specified in the content, fields for configuring the target display device may be filled in at the application level (app). For example, in an embodiment, the PS4/Xbox gaming applications are set to game, the Blu-Ray player and Netflix applications are set to cinema, or the NBC sports application is set to sports. Moreover, the authoring toolkit can also fill in fields to configure the target display device. In this case, the authoring toolkit allows and activates the drop-down menu for the content type. Hollywood studios are always in the mood for cinema. Broadcasters are set on "Everything Else" unless they explicitly cover sports or cinema.

[63] Один пример отображения сервера воспроизведения вещания предоставлен на фиг. 15 в виде таблицы. В таблице 1500 изображено генерирование метаданных L11 из спецификации Tech 3293 (1410) метаданных ядра (EBUCore) Европейского вещательного союза (EBU), путем отображения метаданных L11 из спецификации Tech 3293 метаданных ядра EBU (смотри Tech 3293, «EBU Core metadata set (EBUCore)», спецификация v1.9, MIM-AI, EBU, январь 2019 г.).[63] One display example of a broadcast playback server is provided in FIG. 15 in the form of a table. Table 1500 depicts the generation of L11 metadata from the European Broadcasting Union (EBU) core metadata specification Tech 3293 (1410) by mapping the L11 metadata from the Tech 3293 EBU core metadata specification (see Tech 3293, "EBU Core metadata set (EBUCore) ", specification v1.9, MIM-AI, EBU, January 2019).

[64] Теперь описывается реализация воспроизведения L11 на целевом дисплее. К примеру, пользователь выбирает на целевом дисплее интеллектуальный режим, такой как Dolby Smart Mode™, который также может быть заводским по умолчанию. При изменении типа содержимого целевой дисплей продолжает оставаться в интеллектуальном режиме. Изменения метаданных происходят плавно, то есть отсутствует мерцание содержимого изображений. Пользователь может в любое время переключиться в унаследованные режимы изображений.[64] An implementation of L11 playback on a target display is now described. For example, the user selects a smart mode on the target display, such as Dolby Smart Mode™, which may also be the factory default. When you change the content type, the target display remains in smart mode. Metadata changes occur smoothly, meaning there is no flickering of image content. The user can switch to legacy image modes at any time.

[65] Следующие описания дополнительных вариантов осуществления будут сосредоточены на различиях между ними и ранее описанным вариантом осуществления. Следовательно, признаки, которые являются общими для обоих вариантов осуществления, будут опущены в следующем описании, и поэтому предполагается, что признаки ранее описанного варианта осуществления реализованы или по меньшей мере могут быть реализованы в дополнительном варианте осуществления, если его следующее описание не требует иного.[65] The following descriptions of additional embodiments will focus on the differences between them and the previously described embodiment. Accordingly, features that are common to both embodiments will be omitted in the following description, and it is therefore assumed that the features of the previously described embodiment are implemented or at least can be implemented in the additional embodiment unless the following description requires otherwise.

[66] В другом варианте осуществления настоящего изобретения флаг RM применяется в большем количестве ситуаций, а не только во время воспроизведения. Например, если метаданные не представляют творческий замысел, аппарат и способы согласно этому варианту осуществления позволяют кому-либо на последующих стадиях (кодеру, распространителю, устройству воспроизведения) после создателя модифицировать, создавать и/или переписывать метаданные. Однако, если метаданные представляют творческий замысел, метаданные не разрешается модифицировать на последующих стадиях.[66] In another embodiment of the present invention, the RM flag is used in more situations, not just during playback. For example, if the metadata does not represent creative intent, the apparatus and methods of this embodiment allow someone downstream (encoder, distributor, playback device) after the creator to modify, create, and/or rewrite the metadata. However, if the metadata represents creative intent, the metadata is not permitted to be modified at subsequent stages.

[67] В альтернативном варианте осуществления настоящего изобретения включают больше информации о том, кто заполнил метаданные. Аппарат и способы согласно этому варианту осуществления позволяют использовать большее количество битов для поля флага RM. К примеру, информация, такая как стадия создания и распространения содержимого, а также название компании, которая заполнила метаданные L11, может храниться во флаге RM. Эта информация может быть прикреплена к содержимому и метаданным. Эта информация может быть использована для понимания того, как интерпретировать и применять метаданные. Некоторые примеры представляют собой: i) применение или неприменения метаданных в устройстве воспроизведения в зависимости от идентификации того, кто заполнил метаданные, и приоритетов воспроизведения; ii) разрешение или отсутствие разрешения для различных участников распространения, включая, например, Dolby и его партнеров, дополнительно модифицировать, улучшать или переписывать метаданные на различных стадиях создания и распространения содержимого в зависимости от того, кто их заполнял; iii) раскрытие или отсутствие раскрытия некоторых метаданных в зависимости от того, кто их заполнял, и от того, где потенциально раскрываются метаданные (например, раскрытие типа содержимого в визуальном графическом пользовательском интерфейсе (GUI) потребителя).[67] In an alternative embodiment of the present invention, more information about who completed the metadata is included. The apparatus and methods of this embodiment allow more bits to be used for the RM flag field. For example, information such as the stage of content creation and distribution, as well as the name of the company that populated the L11 metadata, can be stored in the RM flag. This information can be attached to content and metadata. This information can be used to understand how to interpret and apply metadata. Some examples are: i) the application or non-application of metadata in the reproducing device depending on the identification of who filled out the metadata and the reproducing priorities; ii) allowing, or not allowing, various distribution participants, including, for example, Dolby and its partners, to further modify, enhance, or rewrite metadata at various stages of content creation and distribution, depending on who completed it; iii) the disclosure or non-disclosure of some metadata depending on who completed it and where the metadata is potentially disclosed (for example, disclosure of the content type in the consumer's visual graphical user interface (GUI).

[68] В еще одном альтернативном варианте осуществления настоящего изобретения в формат содержимого, который концептуально подобен цепочке блоков, участники последующих стадий могут прикреплять дополнительные и/или альтернативные наборы или записи метаданных L11. В этом случае крайне важно знать, кто заполнил каждый набор или запись. Например, сервис по предоставлению содержимого может иметь свой предпочтительный вид, определенный одним непротиворечивым набором метаданных L11 для всего своего содержимого, тогда как другой набор метаданных L11 будет поддерживаться для каждой части содержимого, как определено исходным создателем содержимого. Это позволит получать различный потребительский опыт в зависимости от того, какой набор метаданных L11 используется. Расширенный флаг RM для каждого набора метаданных L11 будет передавать информацию о решении относительно того, какой набор метаданных L11 использовать.[68] In yet another alternative embodiment of the present invention, in a content format that is conceptually similar to a blockchain, participants in subsequent stages may attach additional and/or alternative L11 metadata sets or records. In this case, it is critical to know who completed each set or entry. For example, a content service may have its preferred view defined by one consistent set of L11 metadata for all of its content, while a different set of L11 metadata will be maintained for each piece of content, as defined by the original content creator. This will allow for a different consumer experience depending on which set of L11 metadata is used. The extended RM flag for each L11 metadata set will convey decision information regarding which L11 metadata set to use.

[69] Был описан ряд вариантов осуществления настоящего изобретения. Однако будет понятно, что различные модификации могут быть осуществлены без отступления от объема настоящего изобретения. Соответственно, другие варианты осуществления изобретения находятся в пределах объема представленной далее формулы изобретения.[69] A number of embodiments of the present invention have been described. However, it will be understood that various modifications may be made without departing from the scope of the present invention. Accordingly, other embodiments of the invention are within the scope of the following claims.

[70] Изложенные выше примеры представлены для специалистов в данной области в качестве полного раскрытия и описания того, как создавать и использовать варианты осуществления настоящего изобретения, и не предназначены для ограничения объема того, что автор/авторы изобретения рассматривают в качестве своего изобретения.[70] The above examples are provided to those skilled in the art as a complete disclosure and description of how to make and use embodiments of the present invention, and are not intended to limit the scope of what the inventor/s consider their invention to be.

[71] Предполагается, что модификации вышеописанных вариантов осуществления методов и систем, раскрытых в настоящем документе, являющихся очевидными для специалистов в данной области, находятся в пределах объема следующей формулы изобретения. Все патенты и публикации, упомянутые в описании, указывают на уровни квалификации специалистов в той области, к которой относится настоящее изобретение. Все ссылки, процитированные в данном описании, ссылкой включены в настоящее описание в той же степени, как если бы каждая из ссылок была включена в данное описание отдельно в своей полноте.[71] It is intended that modifications to the above-described embodiments of the methods and systems disclosed herein that will be apparent to those skilled in the art are within the scope of the following claims. All patents and publications mentioned in the description indicate the levels of skill of specialists in the field to which the present invention relates. All references cited herein are incorporated by reference herein to the same extent as if each reference were incorporated separately herein in its entirety.

[72] Необходимо понимать, что настоящее изобретение не ограничивается конкретными способами или системами, которые, разумеется, могут различаться. Также необходимо понимать, что используемая в настоящем документе терминология не служит цели описания только конкретных вариантов осуществления и не предназначена для ограничения. Как используются в данном описании и в прилагаемой формуле изобретения, формы существительного единственного числа включают объекты, на которые производится ссылка, и во множественном числе, если содержание явно не предписывает иного. Термин «несколько» включает два или более объекта, на которые производится ссылка, если содержание в явном виде не предписывает иного. Если не определено иное, все технические и научные термины, используемые в настоящем документе, имеют тот же смысл, что и обычно понимаемый специалистами в области, к которой относится настоящее изобретение.[72] It should be understood that the present invention is not limited to specific methods or systems, which, of course, may vary. It should also be understood that the terminology used herein is not intended to describe only specific embodiments and is not intended to be limiting. As used in this specification and in the accompanying claims, the singular forms of a noun include the entities referred to and the plural, unless the content clearly states otherwise. The term “multiple” includes two or more referenced entities unless the content expressly states otherwise. Unless otherwise defined, all technical and scientific terms used herein have the same meaning as commonly understood by those skilled in the art to which the present invention relates.

[73] Способы и системы, описанные в настоящем изобретении, могут быть реализованы как аппаратное обеспечение, программное обеспечение, встроенное программное обеспечение или их комбинация. Признаки, описанные как блоки, модули или компоненты, могут быть реализованы вместе или по отдельности с использованием комбинации аппаратного обеспечения, программного обеспечения и встроенного программного обеспечения. Программная часть способов настоящего изобретения может включать машиночитаемый носитель, который содержит команды (например, исполняемую программу), которые при исполнении по меньшей мере частично выполняют описанные способы. Машиночитаемый носитель может включать, например, оперативное запоминающее устройство (RAM) и/или постоянное запоминающее устройство (ROM). Команды могут исполняться процессором (например, процессором обработки цифровых сигналов (DSP), интегрированной микросхемой специального назначения (ASIC), логической матрицей с эксплуатационным программированием (FPGA)).[73] The methods and systems described in the present invention may be implemented as hardware, software, firmware, or a combination thereof. Features described as blocks, modules or components may be implemented together or separately using a combination of hardware, software and firmware. The software portion of the methods of the present invention may include a computer-readable medium that contains instructions (eg, an executable program) that, when executed, at least partially perform the described methods. A computer-readable medium may include, for example, random access memory (RAM) and/or read-only memory (ROM). The instructions may be executed by a processor (eg, digital signal processor (DSP), application-specific integrated circuit (ASIC), field programmable gate array (FPGA)).

[74] Различные аспекты настоящего изобретения можно понять из следующих пронумерованных примерных вариантов осуществления (ППВО):[74] Various aspects of the present invention can be understood from the following numbered exemplary embodiments (NEX):

ППВО 1. Способ генерирования битового потока цифрового видео с метаданными, в котором метаданные включают флаг, указывающий на сохранение творческого замысла, этот способ включает:VPVO 1. A method of generating a digital video bitstream with metadata, wherein the metadata includes a flag indicating preservation of the creative intent, the method comprising:

установку одного или более дополнительных полей в метаданных для указания типа содержимого битового потока цифрового видео, иsetting one or more additional fields in the metadata to indicate the content type of the digital video bitstream, and

установку флага в метаданных для указания того, необходимо или нет использовать одно или более дополнительных полей, когда битовый поток цифрового видео декодируют в эталонном режиме, в котором битовый поток цифрового видео необходимо проигрывать и/или отображать согласно исходному творческому замыслу.setting a flag in the metadata to indicate whether or not one or more additional fields need to be used when the digital video bitstream is decoded in a reference mode in which the digital video bitstream is to be played and/or displayed according to the original creative intent.

ППВО 2. Способ по ППВО 1, в котором одно или более дополнительных полей в метаданных содержат по меньшей мере одно из следующего: тип видеосодержимого, подтип видеосодержимого, желаемую белую точку видеосодержимого, желаемую резкость видеосодержимого, желаемое шумоподавление видеосодержимого, желаемое шумоподавление MPEG видеосодержимого, желаемое преобразование частоты кадров видеосодержимого, средний уровень яркости изображения видеосодержимого и желаемый цвет видеосодержимого.VPVO 2. The method according to VPOP 1, wherein one or more additional fields in the metadata comprise at least one of the following: a video content type, a video content subtype, a desired video content white point, a desired video content sharpness, a desired video content noise reduction, a desired MPEG video content noise reduction, a desired conversion of the frame rate of the video content, the average brightness level of the image of the video content, and the desired color of the video content.

ППВО 3. Способ по ППВО 2, в котором, если метаданные генерируются создателем видеосодержимого, флаг устанавливают в первое логическое значение, а если метаданные генерируются третьей стороной, то флаг устанавливают во второе логическое значение.VPVO 3. Method according to VPVO 2, in which if the metadata is generated by the creator of the video content, the flag is set to the first Boolean value, and if the metadata is generated by a third party, then the flag is set to the second Boolean value.

ППВО 4. Способ по ППВО 2, в мотором метаданные генерируются создателем видеосодержимого, автоматическим устройством обработки изображений или на уровне приложения.VPVO 4. Method according to VPVO 2, in the engine metadata is generated by the video content creator, automatic image processing device or at the application level.

ППВО 5. Способ по любому из ППВО 1^4, в котором метаданные генерируются создателем видеосодержимого, автоматическим устройством обработки изображений или на уровне приложения.VPVO 5. A method as in any one of VPVO 1^4, wherein the metadata is generated by a video content creator, an automated image processing engine, or at the application level.

ППВО 6. Способ по любому из ППВО 15, в котором, если метаданные генерируются создателем видеосодержимого, флаг устанавливают в первое логическое значение, а если метаданные генерируются третьей стороной, то флаг устанавливают во второе логическое значение.VPVO 6. The method as in any one of VPOP 15, wherein if the metadata is generated by the creator of the video content, the flag is set to the first Boolean value, and if the metadata is generated by a third party, then the flag is set to the second Boolean value.

ППВО 7. Способ по любому из ППВО 1-6, в котором для генерирования метаданных используют отображение из других метаданных.DPVO 7. A method according to any one of DPVO 1-6, in which a mapping from other metadata is used to generate metadata.

ППВО 8. Способ по ППВО 7, в котором другие метаданные представляют собой спецификацию Tech 3293 метаданных ядра Европейского вещательного союза.DPVO 8. A method according to DPVO 7, in which the other metadata is the Tech 3293 specification of the European Broadcasting Union core metadata.

ППВО 9. Способ воспроизведения видеосодержимого с метаданными, в котором метаданные включают флаг, указывающий на сохранение творческого замысла, этот способ включает:VPVO 9. A method of reproducing video content with metadata, wherein the metadata includes a flag indicating preservation of creative intent, the method comprising:

прием видеосодержимого на декодере, иreceiving video content on the decoder, and

подачу на декодер, на основании состояния флага, команд о том, необходимо или нет использовать одно или более дополнительных полей, когда видеосодержимое декодируют в эталонном режиме, в котором битовый поток цифрового видео необходимо проигрывать и/или отображать согласно исходному творческому замыслу.providing to the decoder, based on the state of the flag, commands as to whether or not one or more additional fields are to be used when the video content is decoded in a reference mode in which the digital video bitstream is to be played and/or displayed according to the original creative intent.

ППВО 10. Способ по ППВО 9, в котором, если флаг установлен в первое логическое значение, то на декодер подают команду использовать метаданные для определения типа видеосодержимого в эталонном режиме и в режиме, не являющемся эталонным.VPVO 10. The method according to VPVO 9, in which, if the flag is set to the first logical value, then the decoder is commanded to use metadata to determine the type of video content in the reference mode and in the non-reference mode.

ППВО 11. Способ по ППВО 9, в котором если флаг установлен во второе логическое значение, то на декодер подают команду игнорировать метаданные в эталонном режиме и использовать метаданные в режиме, не являющемся эталонным.PPVO 11. Method according to PPVO 9, in which if the flag is set to the second logical value, then the decoder is commanded to ignore metadata in the reference mode and use metadata in a non-reference mode.

ППВО 12. Способ по любому из ППВО 9 11, в котором метаданные содержат по меньшей мере одно из следующего: тип видеосодержимого, подтип видеосодержимого, желаемую белую точку видеосодержимого, желаемую резкость видеосодержимого, желаемое шумоподавление видеосодержимого, желаемое шумоподавление MPEG видеосодержимого, желаемое преобразование частоты кадров видеосодержимого, средний уровень яркости изображения видеосодержимого и желаемый цвет видеосодержимого.VPVO 12. The method according to any one of VPVO 9 to 11, wherein the metadata contains at least one of the following: a type of video content, a subtype of video content, a desired white point of the video content, a desired sharpness of the video content, a desired noise reduction of the video content, a desired MPEG noise reduction of the video content, a desired frame rate conversion video content, the average image brightness level of the video content, and the desired color of the video content.

ППВО 13. Битовый поток цифрового видео, содержащий:PPVO 13. Digital video bitstream containing:

видеосодержимое иvideo content and

метаданные, включающие флаг, указывающий на творческий замысел, причем метаданные имеют одно или более дополнительных полей для указания типа содержимого битового потока цифрового видео,metadata including a flag indicating creative intent, wherein the metadata has one or more additional fields to indicate the content type of the digital video bitstream,

при этомwherein

флага в метаданных указывает на то, необходимо или нет использовать одно или более дополнительных полей, когда битовый поток цифрового видео декодируют в эталонном режиме, в котором битовый поток цифрового видео необходимо проигрывать и/или отображать согласно исходному творческому замыслу.a flag in the metadata indicates whether or not one or more additional fields need to be used when the digital video bitstream is decoded in a reference mode in which the digital video bitstream is to be played and/or displayed according to the original creative intent.

ППВО 14. Битовый поток цифрового видео по ППВО 13, в котором одно или более дополнительных полей в метаданных содержат по меньшей мере одно из следующего: тип видеосодержимого, подтип видеосодержимого, желаемую белую точку видеосодержимого, желаемую резкость видеосодержимого, желаемое шумоподавление видеосодержимого, желаемое шумоподавление MPEG видеосодержимого, желаемое преобразование частоты кадров видеосодержимого, средний уровень яркости изображения видеосодержимого и желаемый цвет видеосодержимого.VPVO 14. The digital video bitstream of VPVO 13, wherein one or more additional fields in the metadata comprise at least one of the following: video content type, video content subtype, desired video content white point, desired video content sharpness, desired video content noise reduction, desired MPEG noise reduction video content, the desired frame rate conversion of the video content, the average image brightness level of the video content, and the desired color of the video content.

ППВО 15. Способ указания использования или отсутствия использования метаданных в битовом потоке видео, включающий:VPVO 15. A method of indicating the use or non-use of metadata in a video bitstream, including:

предоставление битового потока цифрового видео по ППВО 13 или ППВО 14;provision of a digital video bitstream via PPVO 13 or PPVO 14;

установку флага в первое логическое значение, если метаданные генерируются создателем видеосодержимого, и во второе логическое значение, если метаданные генерируются третьей стороной.setting the flag to the first boolean value if the metadata is generated by the video content creator, and to the second boolean value if the metadata is generated by a third party.

ППВО 16. Способ воспроизведения битового потока видео с расширенным динамическим диапазоном, включающий:PPVO 16. A method for reproducing a video bitstream with extended dynamic range, including:

предоставление битового потока цифрового видео по ППВО 13 или ППВО 14 иprovision of digital video bitstream via PPVO 13 or PPVO 14 and

подачу на видеодекодер команд использовать метаданные для определения типа видеосодержимого в эталонном режиме и в режиме, не являющемся эталонным, если флаг установлен в первое логическое значение.sending commands to the video decoder to use metadata to determine the type of video content in the reference mode and in a non-reference mode if the flag is set to the first logical value.

ППВО 17. Способ воспроизведения битового потока видео с расширенным динамическим диапазоном, включающий:PPVO 17. A method for reproducing a video bitstream with extended dynamic range, including:

предоставление битового потока цифрового видео по ППВО 13 или ППВО 14 иprovision of digital video bitstream via PPVO 13 or PPVO 14 and

подачу на видеодекодер команд игнорировать метаданные в эталонном режиме и использовать метаданные в режиме, не являющемся эталонным, если флаг установлен во второе логическое значение.sending commands to the video decoder to ignore metadata in the reference mode and use metadata in a non-reference mode if the flag is set to the second logical value.

ППВО 18. Машиночитаемый носитель, содержащий команды, которые при исполнении выполняют этапы способов согласно любому из ППВО 1-12 или ППВО 15-17.PPVO 18. A machine-readable medium containing commands that, when executed, perform steps of methods according to any of PPVO 1-12 or PPVO 15-17.

Claims (40)

1. Способ генерирования битового потока цифрового видео из видеосодержимого, при этом способ включает:1. A method for generating a digital video bitstream from video content, the method comprising: обеспечение доступа к множеству видеокадров видеосодержимого;providing access to multiple video frames of video content; генерирование метаданных со сведениями о содержимом для видеосодержимого; иgenerate content information metadata for video content; And генерирование битового потока видео на основании видеосодержимого и метаданных со сведениями о содержимом, при этомgenerating a video bitstream based on the video content and content information metadata, wherein эти метаданные со сведениями о содержимом включают:This content information metadata includes: одно или более полей категории, указывающих категорию видеосодержимого битового потока цифрового видео, при этом одно или более полей категории обусловливают выбор целевым дисплеем настроек дисплея для отображения видеосодержимого в режиме дисплея, соответствующем категории видеосодержимого, иone or more category fields indicating a category of video content of the digital video bitstream, wherein the one or more category fields cause the target display to select display settings for displaying the video content in a display mode corresponding to the category of the video content, and флаг эталонного режима, указывающий на то, следует ли применять одно или более полей категории для обусловливания выбора целевым дисплеем настроек дисплея для отображения видеосодержимого в эталонном режиме, причем эталонный режим представляет собой режим дисплея, имеющий определенные настройки дисплея, при этом способ включает:a reference mode flag indicating whether one or more category fields should be applied to cause the target display to select display settings for displaying video content in the reference mode, wherein the reference mode is a display mode having certain display settings, the method including: установку одного или более полей категории в метаданных со сведениями о содержимом согласно категории видеосодержимого иsetting one or more category fields in the content information metadata according to the category of the video content, and установку флага эталонного режима в метаданных со сведениями о содержимом для указания того, указывают или нет одно или более полей категории эталонный режим,setting a reference mode flag in the content information metadata to indicate whether or not one or more of the category fields indicate reference mode, при этом, когда метаданные со сведениями о содержимом генерируются создателем видеосодержимого, флаг эталонного режима устанавливают в первое логическое значение, указывающее, что одно или более полей категории следует использовать в эталонном режиме и в режиме, не являющемся эталонным, и когда метаданные со сведениями о содержимом генерируются третьей стороной, флаг эталонного режима устанавливают во второе логическое значение, указывающее, что одно или более полей категории следует игнорировать в эталонном режиме и использовать в режиме, не являющемся эталонным.wherein, when the content information metadata is generated by the video content creator, the reference mode flag is set to the first Boolean value indicating that one or more category fields should be used in reference mode and in non-reference mode, and when the content information metadata generated by a third party, the reference mode flag is set to a second Boolean value indicating that one or more category fields should be ignored in reference mode and used in non-reference mode. 2. Способ по п. 1, отличающийся тем, что одно или более полей категории в метаданных со сведениями о содержимом содержат по меньшей мере одно из типа видеосодержимого и подтипа видеосодержимого.2. The method of claim 1, wherein the one or more category fields in the content information metadata comprise at least one of a video content type and a video content subtype. 3. Способ по п. 1, отличающийся тем, что установка одного или более полей категории в метаданных со сведениями о содержимом включает:3. The method according to claim 1, characterized in that setting one or more category fields in the content information metadata includes: прием метаданных спецификации Tech 3293 метаданных ядра Европейского вещательного союза иacceptance of Tech 3293 specification metadata of the European Broadcasting Union core metadata and применение отображения из принятых метаданных спецификации Tech 3293 метаданных ядра Европейского вещательного союза в одно или более полей категории.applying a mapping from accepted Tech 3293 specification metadata to European Broadcasting Union core metadata into one or more category fields. 4. Способ по любому из пп. 1-3, отличающийся тем, что метаданные со сведениями о содержимом дополнительно включают:4. Method according to any one of paragraphs. 1-3, characterized in that the metadata with information about the content additionally includes: одно или более полей регулировки, указывающих желаемые регулировки настроек дисплея для видеосодержимого целевого дисплея при отображении видеосодержимого на целевом дисплее,one or more adjustment fields indicating desired display setting adjustments for the video content of the target display when the video content is displayed on the target display, при этом одно или более полей регулировки обусловливают регулировку целевым дисплеем по меньшей мере части выбранных настроек дисплея для отображения видеосодержимого в режиме дисплея, тем самым уточняя применяемый режим дисплея регулируемыми настройками дисплея.wherein the one or more adjustment fields cause the target display to adjust at least a portion of the selected display settings to display video content in the display mode, thereby specifying the applicable display mode by the adjustable display settings. 5. Способ по п. 4, отличающийся тем, что одно или более полей регулировки в метаданных со сведениями о содержимом указывают по меньшей мере одно из следующего: желаемую белую точку видеосодержимого, желаемую резкость видеосодержимого, желаемое шумоподавление видеосодержимого, желаемое шумоподавление MPEG видеосодержимого, желаемое преобразование частоты кадров видеосодержимого, средний уровень яркости изображения видеосодержимого и желаемый цвет видеосодержимого.5. The method of claim 4, wherein the one or more adjustment fields in the content information metadata indicate at least one of the following: a desired white point of the video content, a desired sharpness of the video content, a desired noise reduction of the video content, a desired MPEG noise reduction of the video content, a desired conversion of the frame rate of the video content, the average brightness level of the image of the video content, and the desired color of the video content. 6. Способ по п. 4, отличающийся тем, что одно или более полей регулировки устанавливают в метаданных со сведениями о содержимом посредством операций, включающих:6. The method of claim 4, wherein one or more adjustment fields are set in the content information metadata through operations including: прием метаданных спецификации Tech 3293 метаданных ядра Европейского вещательного союза иacceptance of Tech 3293 specification metadata of the European Broadcasting Union core metadata and применение отображения из принятых метаданных спецификации Tech 3293 метаданных ядра Европейского вещательного союза в одно или более полей регулировки.applying a mapping from accepted Tech 3293 specification metadata to European Broadcasting Union core metadata into one or more adjustment fields. 7. Способ воспроизведения видеосодержимого на целевом дисплее в эталонном режиме, причем эталонный режим представляет собой режим дисплея, имеющий определенные настройки дисплея, этот способ включает:7. A method for playing video content on a target display in a reference mode, wherein the reference mode is a display mode having certain display settings, the method including: прием битового потока цифрового видео, содержащего видеосодержимое и метаданные со сведениями о содержимом, при этом эти метаданные со сведениями о содержимом включают:receiving a digital video bitstream containing video content and content information metadata, wherein the content information metadata includes: одно или более полей категории, указывающих категорию видеосодержимого битового потока цифрового видео, иone or more category fields indicating the category of the video content of the digital video bitstream, and флаг эталонного режима, указывающий на то, следует ли применять одно или более полей категории для обусловливания выбора целевым дисплеем настроек дисплея для отображения видеосодержимого в эталонном режиме,a reference mode flag indicating whether one or more category fields should be applied to cause the target display to select display settings for displaying video content in reference mode, декодирование видеосодержимого на декодере,decoding video content on the decoder, извлечение флага эталонного режима из метаданных со сведениями о содержимом,extracting the reference mode flag from content information metadata, если флаг эталонного режима устанавливают в первое логическое значение, указывающее, что метаданные со сведениями о содержимом генерируются создателем видеосодержимого:if the reference mode flag is set to the first boolean value indicating that the content information metadata is generated by the video content creator: применение одного или более полей категории метаданных со сведениями о содержимом для определения категории видеосодержимого,applying one or more content information metadata category fields to determine the category of video content, определение режима дисплея, который соответствует определенной категории видеосодержимого,determining the display mode that corresponds to a specific category of video content, применение настроек дисплея определенного режима дисплея к целевому дисплею иapplying the display settings of a specific display mode to the target display, and отображение видеосодержимого;display of video content; если флаг эталонного режима устанавливают во второе логическое значение, указывающее, что метаданные со сведениями о содержимом генерируются третьей стороной:if the reference mode flag is set to a second boolean value indicating that the content information metadata is generated by a third party: отображение видеосодержимого без применения метаданных со сведениями о содержимом, которые включают одно или более полей категории.Display video content without applying content information metadata that includes one or more category fields. 8. Способ по п. 7, отличающийся тем, что одно или более полей категории в метаданных со сведениями о содержимом содержат по меньшей мере одно из типа видеосодержимого и подтипа видеосодержимого.8. The method of claim 7, wherein the one or more category fields in the content information metadata comprise at least one of a video content type and a video content subtype. 9. Способ по п. 7 или 8, отличающийся тем, что метаданные со сведениями о содержимом дополнительно включают:9. The method according to claim 7 or 8, characterized in that the metadata with information about the content additionally includes: одно или более полей регулировки, указывающих желаемые регулировки настроек дисплея для видеосодержимого целевого дисплея при отображении видеосодержимого на целевом дисплее,one or more adjustment fields indicating desired display setting adjustments for the video content of the target display when the video content is displayed on the target display, при этом одно или более полей регулировки обусловливают регулировку целевым дисплеем по меньшей мере части выбранных настроек дисплея для отображения видеосодержимого в режиме дисплея, тем самым уточняя применяемый режим дисплея регулируемыми настройками дисплея.wherein the one or more adjustment fields cause the target display to adjust at least a portion of the selected display settings to display video content in the display mode, thereby specifying the applicable display mode by the adjustable display settings. 10. Способ по п. 9, отличающийся тем, что одно или более полей регулировки в метаданных со сведениями о содержимом указывают по меньшей мере одно из следующего: желаемую белую точку видеосодержимого, желаемую резкость видеосодержимого, желаемое шумоподавление видеосодержимого, желаемое шумоподавление MPEG видеосодержимого, желаемое преобразование частоты кадров видеосодержимого, средний уровень яркости изображения видеосодержимого и желаемый цвет видеосодержимого.10. The method of claim 9, wherein the one or more adjustment fields in the content information metadata indicate at least one of the following: a desired white point of the video content, a desired sharpness of the video content, a desired noise reduction of the video content, a desired MPEG noise reduction of the video content, a desired conversion of the frame rate of the video content, the average brightness level of the image of the video content, and the desired color of the video content. 11. Машиночитаемый носитель, содержащий команды, которые при исполнении процессором выполняют способ по любому из пп. 1-6.11. A computer-readable medium containing instructions that, when executed by a processor, perform the method according to any one of claims. 1-6.
RU2022100011A 2019-06-28 2020-06-26 High dynamic range video content type metadata RU2818525C2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP19183269.0 2019-06-28
US62/868,070 2019-06-28

Publications (2)

Publication Number Publication Date
RU2022100011A RU2022100011A (en) 2023-07-10
RU2818525C2 true RU2818525C2 (en) 2024-05-02

Family

ID=

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090064267A1 (en) * 2007-08-30 2009-03-05 Samsung Electronics Co., Ltd. Method and system for automatically adjusting content rendering device according to content genre
US20110080522A1 (en) * 2009-10-06 2011-04-07 Robert Hardacker Use of metadata in video to establish tv settings
WO2011103258A2 (en) * 2010-02-22 2011-08-25 Dolby Laboratories Licensing Corporation Video display control using embedded metadata
US20170006351A1 (en) * 2013-07-17 2017-01-05 Visible World, Inc. Systems and methods for content presentation management
US20170201794A1 (en) * 2014-07-07 2017-07-13 Thomson Licensing Enhancing video content according to metadata
US20180376194A1 (en) * 2017-06-23 2018-12-27 Samsung Electronics Co., Ltd. Electronic apparatus, display apparatus and control method thereof
RU2686658C1 (en) * 2015-08-06 2019-04-30 Гугл Ллс Methods, systems, and media for providing video content, only suitable for audio playback

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090064267A1 (en) * 2007-08-30 2009-03-05 Samsung Electronics Co., Ltd. Method and system for automatically adjusting content rendering device according to content genre
US20110080522A1 (en) * 2009-10-06 2011-04-07 Robert Hardacker Use of metadata in video to establish tv settings
WO2011103258A2 (en) * 2010-02-22 2011-08-25 Dolby Laboratories Licensing Corporation Video display control using embedded metadata
US20170006351A1 (en) * 2013-07-17 2017-01-05 Visible World, Inc. Systems and methods for content presentation management
US20170201794A1 (en) * 2014-07-07 2017-07-13 Thomson Licensing Enhancing video content according to metadata
RU2686658C1 (en) * 2015-08-06 2019-04-30 Гугл Ллс Methods, systems, and media for providing video content, only suitable for audio playback
US20180376194A1 (en) * 2017-06-23 2018-12-27 Samsung Electronics Co., Ltd. Electronic apparatus, display apparatus and control method thereof

Similar Documents

Publication Publication Date Title
US11423523B2 (en) Apparatus and method for dynamic range transforming of images
US11183143B2 (en) Transitioning between video priority and graphics priority
JP6698081B2 (en) Method for encoding, video processor, method for decoding, video decoder
US11019302B2 (en) Frame rate conversion metadata
JP2022174254A (en) Scalable systems for controlling color management including varying levels of metadata
KR102653767B1 (en) Video content type metadata for high dynamic range
US20170251167A1 (en) Conversion method and conversion apparatus
RU2818525C2 (en) High dynamic range video content type metadata
Pouli et al. Hdr content creation: creative and technical challenges
CN115699178A (en) Computing dynamic metadata for editing HDR content
Luštica Live HDR Workflow
Borg et al. Content-Dependent Metadata for Color Volume Transformation of High Luminance and Wide Color Gamut Images
CN118044189A (en) Encoding and decoding multi-intent images and video using metadata