RU2678483C1 - Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном - Google Patents
Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном Download PDFInfo
- Publication number
- RU2678483C1 RU2678483C1 RU2017130927A RU2017130927A RU2678483C1 RU 2678483 C1 RU2678483 C1 RU 2678483C1 RU 2017130927 A RU2017130927 A RU 2017130927A RU 2017130927 A RU2017130927 A RU 2017130927A RU 2678483 C1 RU2678483 C1 RU 2678483C1
- Authority
- RU
- Russia
- Prior art keywords
- image
- input
- color depth
- denotes
- values
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 57
- 238000013139 quantization Methods 0.000 claims abstract description 46
- 230000008569 process Effects 0.000 claims abstract description 23
- 230000000873 masking effect Effects 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims description 30
- 230000003044 adaptive effect Effects 0.000 claims description 28
- 238000009826 distribution Methods 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 8
- 238000013459 approach Methods 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 230000008447 perception Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 3
- 239000000126 substance Substances 0.000 abstract 1
- 238000005286 illumination Methods 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 11
- 238000004519 manufacturing process Methods 0.000 description 8
- 230000006978 adaptation Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 230000003945 visual behavior Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/156—Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/98—Adaptive-dynamic-range coding [ADRC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Изобретение относится к области квантизации изображений. Технический результат – обеспечение улучшенной перцепционной квантизации изображений с высоким динамическим диапазоном. Способ перцепционной квантизации изображений содержит этапы, на которых получают процессором доступ к входному изображению с входной глубиной цвета; применяют к входному изображению процесс формирования шумовой маски для формирования изображения шумовой маски; формируют гистограмму шумовой маски на основе входного изображения и изображения шумовой маски; применяют функцию отношения уровня маскирующего шума к глубине цвета для одного или более интервалов гистограммы шумовой маски с целью формирования значений минимальной глубины цвета для одного или более интервалов; формируют функцию сопоставления кодового слова на основе значений входной глубины цвета, минимальной глубины цвета и целевой глубины цвета; и применяют функцию сопоставления кодового слова к входному изображению для формирования выходного изображения с целевой глубиной цвета, которая ниже входной глубины цвета. 4 н. и 18 з.п. ф-лы, 10 ил.
Description
ПЕРЕКРЕСТНАЯ ССЫЛКА НА РОДСТВЕННЫЕ ЗАЯВКИ
[0001] Данная заявка испрашивает преимущество приоритета по предварительной заявке на патент США № 62/126,925, поданной 2 марта 2015 г., которая включена в настоящий документ путем ссылки во всей своей полноте.
ОБЛАСТЬ ТЕХНИКИ
[0002] Настоящее изобретение в целом относится к изображениям. В частности, вариант осуществления настоящего изобретения относится к контент-адаптивной перцепционной квантизации изображений с высоким динамическим диапазоном.
[0003] ПРЕДПОСЫЛКИ СОЗДАНИЯ ИЗОБРЕТЕНИЯ
[0004] Используемый в настоящем документе термин «динамический диапазон» (ДД) может относиться к способности зрительной системы человека (ЗСЧ) воспринимать диапазон интенсивности (например, освещенность, яркость) на изображении, например от самых темных тонов (темных участков) до самых ярких белых тонов (ярких участков). В этом смысле ДД относится к «отнесенной к сцене» интенсивности. ДД может также относится к способности устройства отображения в достаточной мере или приблизительно воспроизводить диапазон интенсивности определенной ширины. В этом смысле ДД относится к «отнесенной к отображению» интенсивности. Если в любом месте приведенного здесь описания нет явного указания определенного значения для придания конкретного смысла, то следует понимать, что этот термин может использоваться в обоих смыслах, т. е. взаимозаменяемо.
[0005] Используемый в настоящем документе термин «высокий динамический диапазон» (ВДД) относится к ширине ДД, который занимает около 14–15 порядков величины диапазона зрительной системы человека (ЗСЧ). На практике ДД, в котором человек может одновременно воспринимать широкий сегмент диапазона интенсивности, может быть несколько обрезан в зависимости от ВДД. Используемые в настоящем документе термины «улучшенный динамический диапазон» (УДД) или «динамический диапазон зрения» (ДДЗ) могут по отдельности или взаимозаменяемо относится к ДД, который может восприниматься в пределах сцены или изображения зрительной системой человека (ЗСЧ), в том числе за счет движений глаз, способствующих в некоторой степени изменениям адаптации к свету по всей сцене или изображению. Используемый в настоящем документе термин «УДД» может относиться к ДД, который занимает от 5 до 6 порядков величины. Поэтому, хотя УДД, возможно, несколько уже относительно фактической сцены, называемой ВДД, он, тем не менее, представляет большую ширину ДД и тоже может называться ВДД.
[0006] На практике изображения включают в себя один или более компонентов цвета (например, яркость Y и цветность Cb и Cr), при этом каждый компонент цвета представляется с точностью n-бит на пиксель (например, n = 8). При использовании линейного кодирования освещенности изображения с n ≤ 8 (например, цветные 24-битовые изображения JPEG) считаются изображениями стандартного динамического диапазона, тогда как изображения с n > 8 могут рассматриваться как изображения улучшенного динамического диапазона. Изображения УДД и ВДД могут также храниться и распределяться с применением высокоточных (например, 16-битовых) форматов с плавающей запятой, таких как файловый формат OpenEXR, разработанный компанией Industrial Light and Magic.
[0007] Эталонная электрооптическая передаточная функция (ЭОПФ) для данного дисплея характеризует взаимосвязь между значениями цвета (например, освещенностью) входного видеосигнала и значениями цвета экрана вывода (например, освещенностью экрана). Например, рекомендация ITU Rec. ITU-R BT. 1886, «Reference electro-optical transfer function for flat panel displays used in HDTV studio production», (03/2011), которая включена в настоящий документ путем ссылки во всей своей полноте, определяет эталонную ЭОПФ для плоскопанельных дисплеев, основанную на измеряемых характеристиках катодно-лучевой трубки (КЛТ). В условиях видеопотока информация об ЭОПФ обычно встраивается в битовый поток в виде метаданных. Используемый в настоящем документе термин «метаданные» относится к любой вспомогательной информации, которая передается как часть кодированного битового потока и помогает декодеру преобразовывать изображение для просмотра. Такие метаданные могут включать в себя, без ограничений, информацию о цветовом пространстве или палитре, эталонные параметры отображения и вспомогательные параметры сигнала вроде тех, которые описаны в настоящем документе.
[0008] Большинство потребительских настольных дисплеев в настоящее время поддерживают освещенность от 200 до 300 кд/м2 или нитов. Большинство потребительских ТВЧ работают в диапазоне от 300 до 500 нитов, причем новые модели достигают 1000 нитов (кд/м2). Поэтому такие обычные дисплеи служат типичным образцом более низкого динамического диапазона (НДД), называемого также стандартным динамическим диапазоном (СДД), по сравнению с ВДД или УДД. Поскольку доступность содержимого ВДД растет благодаря достижениям в области оборудования для захвата изображений (например, камеры) и в области дисплеев ВДД (например, профессиональный контрольный монитор PRM-4200 производства компании Dolby Laboratories), содержимое ВДД может быть подвергнуто цветовому грейдингу и отображено на дисплеях ВДД, которые поддерживают более высокие динамические диапазоны (например, от 1000 нитов до 5000 нитов или более). Такие дисплеи можно определить с помощью альтернативных ЭОПФ, которые поддерживают высокую предельную освещенность (например, от 0 до 10 000 нитов). Пример такой ЭОПФ определен в стандарте SMPTE ST 2084:2014 «High Dynamic Range EOTF of Mastering Reference Displays», который включен в настоящий документ путем ссылки во всей своей полноте. В целом, без ограничения, способы настоящего изобретения относятся к любым динамическим диапазонам выше, чем СДД. Авторы настоящего изобретения понимают потребность в улучшенных методиках перцепционной квантизации изображений с высоким динамическим диапазоном.
[0009] Подходы, описанные в этом разделе, представляют собой подходы, которыми могли заниматься, но не обязательно подходы, которые были ранее задуманы или осуществлены. Поэтому, если не указано иное, следует полагать, что любой из подходов, описанных в этом разделе, квалифицируется как относящийся к предшествующему уровню техники просто в силу их включения в этот раздел. Аналогичным образом, проблемы, выявленные в отношении одного или более подходов, не следует считать уже признанными на каком-либо предшествующем уровне техники на основе этого раздела, если не указано иное.
[0010] КРАТКОЕ ОПИСАНИЕ ГРАФИЧЕСКИХ МАТЕРИАЛОВ
[0011] Вариант осуществления настоящего изобретения показан посредством примеров, а не посредством ограничения, на фигурах сопроводительных чертежей, на которых номера позиций относятся к аналогичным элементам и которые представляют собой следующее:
[0012] на ФИГ. 1A изображен пример процесса для конвейера доставки видео;
[0013] на ФИГ. 1B изображен пример процесса для сжатия данных с помощью контент-адаптивной квантизации или изменения формы в соответствии с вариантом осуществления настоящего изобретения;
[0014] на ФИГ. 2 изображен пример процесса для контент-адаптивной перцепционной квантизации в соответствии с вариантом осуществления настоящего изобретения;
[0015] на ФИГ. 3 изображен пример процесса для формирования шумовой маски в соответствии с вариантом осуществления настоящего изобретения;
[0016] на ФИГ. 4 изображена основанная на сцене гистограмма шумового маскирования в соответствии с вариантом осуществления настоящего изобретения;
[0017] на ФИГ. 5 изображен пример функции сопоставления, которая сопоставляет уровни шумового маскирования с требуемой глубиной цвета сигнала в соответствии с вариантом осуществления настоящего изобретения;
[0018] на ФИГ. 6A и ФИГ. 6B изображены примеры рассчитанных нормализованных распределений кодовых слов в соответствии с вариантами осуществления настоящего изобретения;
[0019] на ФИГ. 6C изображен пример сопоставления адаптивной перцепционной квантизации в соответствии с вариантом осуществления настоящего изобретения; и
[0020] на ФИГ. 7 изображен пример процесса для сопоставления кодового слова в соответствии с вариантом осуществления настоящего изобретения.
ОПИСАНИЕ ПРЕДСТАВЛЕННЫХ В КАЧЕСТВЕ ПРИМЕРА ВАРИАНТОВ ОСУЩЕСТВЛЕНИЯ
[0021] В настоящем документе описаны контент-адаптивные методики для перцепционной квантизации изображений с высоким динамическим диапазоном (ВДД). В следующем описании в целях пояснения многочисленные конкретные описания приведены для того, чтобы обеспечить полное понимание настоящего изобретения. Однако будет понятно, что варианты осуществления настоящего изобретения могут быть реализованы без учета таких подробных сведений. В других случаях во избежание излишнего затруднения понимания настоящего изобретения хорошо известные структуры и устройства не описаны в исчерпывающих подробностях.
Общее описание
[0022] Примеры вариантов осуществления, описанные в настоящем документе, относятся к адаптивной перцепционной квантизации изображений. Процессор контент-адаптивного квантизатора принимает входное изображение с входной глубиной цвета. К входному изображению применяется процесс формирования шумовой маски для создания изображения шумовой маски, которое характеризует каждый пиксель входного изображения с точки зрения его значимости для восприятия. На основе входного изображения и изображения шумовой маски формируется гистограмма шумовой маски. К гистограмме шумовой маски применяется функция отношения уровня маскирующего шума к глубине цвета, чтобы сформировать значения минимальной глубины цвета для каждого интервала гистограммы шумовой маски. На основе значений входной глубины цвета, целевой глубины цвета и минимальной глубины цвета формируется функция сопоставления кодового слова. К входному изображению применяется функция сопоставления кодового слова, чтобы сформировать выходное изображение с целевой глубиной цвета, которая ниже входной глубины цвета.
[0023]
Пример конвейера обработки доставки видео
[0024] На ФИГ. 1A изображен пример процесса обычного конвейера (100) доставки видео, показывающий различные стадии — от захвата видео до отображения видеоконтента. С помощью блока (105) формирования изображения захватывается или создается последовательность видеокадров (102). Видеокадры (102) могут быть захвачены в цифровом виде (например, с помощью цифровой камеры) или сформированы компьютером (например, с помощью компьютерной анимации) для обеспечения видеоданных (107). В альтернативном варианте осуществления видеокадры (102) могут быть захвачены на пленку пленочной камерой. Для обеспечения видеоданных (107) пленка преобразуется в цифровой формат. На фазе (110) производства видеоданные (107) редактируют для обеспечения производственного потока (112) видео.
[0025] Затем видеоданные производственного потока (112) поступают в процессор блока (115) для постпроизводственного редактирования. Блок (115) постпроизводственного редактирования может включать в себя регулировку или изменение цветов или яркости в определенных областях изображения для улучшения качества изображения или достижения конкретного внешнего вида изображения в соответствии с творческими намерениями создателя видео. Иногда это называют «цветоустановкой» или «цветовым грейдингом». Чтобы получить окончательную версию (117) продукции для тиражирования, в блоке (115) может быть выполнено другое редактирование (например, выбор сцены и задание последовательности, обрезание изображения, добавление сформированных компьютером специальных эффектов и т. д.) Во время постпроизводственного редактирования (115) видеоизображения просматривают на контрольном дисплее (125).
[0026] После постпроизводства (115) видеоданные конечной продукции (117) могут быть доставлены в блок (120) кодирования для подачи далее по цепочке на устройства декодирования и воспроизведения, такие как телевизионные приемники, телеприставки, кинотеатры и т. п. В некоторых вариантах осуществления блок (120) кодирования может включать в себя аудио- и видеокодеры, например определяемые форматами передачи ATSC, DVB, DVD, Blu-Ray и т. д., для формирования кодированного битового потока (122). В приемнике кодированный битовый поток (122) декодируется блоком (130) декодирования для формирования декодированного сигнала (132), который идентичен сигналу (117) или является его хорошим приближением. Приемник может быть подсоединен к целевому дисплею (140), характеристики которого могут абсолютно отличаться от характеристик контрольного дисплея (125). В этом случае можно использовать блок (135) управления отображением для сопоставления динамического диапазона декодированного сигнала (132) и характеристик целевого дисплея (140) путем формирования сопоставленного дисплею сигнала (137).
[0027] Квантизация сигнала
[0028] В настоящее время большинство цифровых интерфейсов для передачи видео, таких как последовательный цифровой интерфейс (Serial Digital Interface, SDI), ограничено 12 битами на пиксель в расчете на компонент. Более того, большинство стандартов сжатия, таких как H.264 (или AVC) и H.265 (или HEVC), ограничено 10 битами на пиксель в расчете на компонент. Поэтому для поддержки контента ВДД с динамическим диапазоном от приблизительно 0,001 до 10 000 кд/м2 (или нитов) в рамках существующих инфраструктур и стандартов сжатия требуется эффективное кодирование и/или квантизация.
[0029] Используемый в настоящем документе термин «ПК» означает перцепционную квантизацию амплитуды яркости. Зрительная система человека реагирует на повышение уровней освещенности весьма нелинейным образом. На способность человека видеть стимул влияют освещенность этого стимула, размер стимула, пространственные частоты, составляющие стимул, и уровень освещенности, к которому адаптировались глаза в конкретный момент времени при просмотре стимула. В предпочтительном варианте осуществления функция перцепционного квантизатора сопоставляет линейные входные уровни серого с выходными уровнями серого, которые лучше соответствуют порогам контрастной чувствительности зрительной системы человека. Примеры функций сопоставления ПК (или ЭОПФ) описаны в стандарте SMPTE ST 2084:2014 «High Dynamic Range EOTF of Mastering Reference Displays», который включен в настоящий документ путем ссылки во всей своей полноте, где с учетом фиксированного размера стимула для каждого уровня освещенности (т. е. уровня стимула) минимальный видимый шаг контраста при этом уровне освещенности выбирают в соответствии с наиболее чувствительным уровнем адаптации и наиболее чувствительной пространственной частотой (согласно моделям ЗСЧ). По сравнению с обычной гамма-кривой, которая представляет кривую реакции физического устройства с катодно-лучевой трубкой (КЛТ) и в то же время может иметь очень грубое сходство с тем, как реагирует зрительная система человека, кривая ПК имитирует фактическую зрительную реакцию зрительной системы человека с помощью относительно простой функциональной модели.
[0030] Например, согласно стандарту SMPTE ST 2084, при 1 кд/м2 одно значение 12-битового кода соответствует относительному изменению приблизительно на 0,0048 кд/м2; однако при 1000 кд/м2 одно значение 12-битового кода соответствует относительному изменению приблизительно на 2,24 кд/м2. Эта нелинейная квантизация необходима для приспособления к нелинейной контрастной чувствительности зрительной системы человека (ЗСЧ).
[0031] Другой пример перцепционно-квантизированной ЭОПФ представлен в документе «Chromaticity based color signals for wide color gamut and high dynamic range», by J. Stessen et al., ISO/IEC JTC1/SC29/WG11 MPEG2014/M35065, Oct. 2014, который включен в настоящий документ путем ссылки во всей своей полноте.
[0032] Контрастная чувствительность ЗСЧ зависит не только от освещенности, но также и от характеристик маскирования содержимого изображения (в особенности от шума и текстуры), как и от состояния адаптации ЗСЧ. Другими словами, из-за артефактов квантизации, обусловленных текстурой и шумовой маской, в зависимости от уровня шума или характеристик текстуры изображения содержимое изображения может быть квантизировано с более крупными шагами квантизации по сравнению с предполагаемыми ПК или гамма-квантизаторами. Квантизация ПК описывает лучшее, что может сделать ЗСЧ, и что имеет место при отсутствии шума или маскирования на изображении. Тем не менее на многих изображениях (кадрах видео) присутствует значительное маскирование.
[0033] Для повышения уровня квантизации и получения возможности представления изображений ВДД при 10 или менее битах на компонент цвета, помимо шума и маскирования текстуры, могут быть также учтены другие характеристики зрительного поведения, такие как блики оптической системы и локальная адаптация. Используемые в настоящем документе термины «контент-адаптивная ПК» или «адаптивная ПК», для краткости, означают способы адаптивного регулирования перцепционно квантизированных изображений на основе их содержимого.
[0034] На ФИГ. 1B изображен пример процесса для адаптивной ПК в соответствии с вариантом осуществления. При наличии входных кадров (117) блок (150) прямого изменения формы анализирует вход и ограничения кодирования, затем формирует функции сопоставления кодового слова, которые сопоставляют входные кадры (117) и повторно квантизированные выходные кадры (152). Например, вход (117) может быть гамма-кодированным или ПК-кодированным в соответствии с определенной ЭОПФ. В некоторых вариантах осуществления информация о процессе изменения формы может сообщаться расположенным далее по цепочке устройствам (таким как декодеры) с помощью метаданных. После кодирования (120) и декодирования (130) декодированные кадры (132) могут быть обработаны блоком (160) обратного изменения формы, который преобразовывает повторно квантизированные кадры (132) обратно в исходный домен ЭОПФ (например, гамма или ПК) для дальнейшей обработки далее по цепочке, такой как процесс (135) управления отображением, обсужденный ранее. В некоторых вариантах осуществления функция (160) обратного изменения формы может быть объединена с деквантизатором в декодере (130), например, как часть деквантизатора в видеодекодере AVC или HEVC.
[0035] Адаптивная ПК
[0036] На ФИГ. 2 изображен пример процесса для контент-адаптивной перцепционной квантизации в соответствии с вариантом осуществления настоящего изобретения. Как показано на ФИГ. 2, при наличии последовательности изображений (например, видеокадров) (117) блок (205) используется для формирования шумовой маски с целью создания изображения шумовой маски, которое характеризует каждый пиксель входного изображения с точки зрения его значимости для восприятия. На этапе (210) изображение шумовой маски в сочетании с исходными данными изображения используется для формирования гистограммы шумовой маски. Блок (215) оценивает число минимальных битов, необходимых для каждого интервала гистограммы, сформированной на этапе (210), и, наконец, блок (220) кодирования кодового слова рассчитывает функцию сопоставления для преобразования входного сигнала (117) в его квантизированный выходной сигнал. Каждый из этих этапов описан более подробно далее.
[0037] Формирование шумовой маски
[0038] Основная идея адаптивной ПК состоит в распределении меньшего числа битов в областях изображения с наличием шума или высокой текстуры и большего числа битов в областях изображения, которые воспринимаются как не содержащие шума или более гладкие. При наличии входного изображения (117) блок (205) формирования шумовой маски создает и оценивает маскирующий шум для каждого пикселя изображения. В некоторых вариантах осуществления вход (117) может быть уже кодированным с помощью гамма- или ПК-квантизатора. В некоторых вариантах осуществления входное изображение (117) может быть в линейном пространстве. На ФИГ. 3 изображен пример процесса формирования шумовой маски в соответствии с вариантом осуществления. Некоторые другие варианты осуществления могут формировать шумовые маски с применением известных в данной области техники альтернативных способов измерения локальной энтропии изображений, таких как фильтрация по энтропии методом скользящего окна, фильтрация по стандартному отклонению методом скользящего окна или фильтрация по диапазону методом скользящего окна.
[0039] Пусть — это p-й пиксель подвергающегося квантизации компонента цвета (например, освещенности) в j-ом кадре входной последовательности (117), нормализованный относительно [0 1). Пусть и — это минимальное и максимальное значения пикселя в этом кадре, или
[0042] Как показано на ФИГ. 3, в блоке (305) к кадру Ij изображения применяется первый фильтр нижних частот. В варианте осуществления этот фильтр имитирует характеристики зрительной системы человека. В зависимости от имеющихся вычислительных возможностей этот фильтр может меняться от очень простого фильтра, вроде прямоугольного фильтра или фильтра Гаусса, до более сложных групп фильтров, например реализующих преобразование Cortex. В варианте осуществления первый фильтр может быть двухмерным фильтром Гаусса с опорным диапазоном rL и дисперсией (например, rL = 9 и = 3 или rL = 33 и = 4). Тогда его выход (L) можно выразить как
[0044] где символ обозначает свертку. Учитывая выход первого фильтра, высокочастотные компоненты входного кадра могут быть выделены в блоке (310) как
Затем выход блока (310) может быть отфильтрован еще раз вторым фильтром нижних частот (315), чтобы сформировать шумовую маску (H). Это делается для удовлетворения точности низкой фазы маскирования ЗСЧ (то есть в нулевых пересечениях маскирующего сигнала все еще присутствует маскирование). В варианте осуществления второй ФНЧ может также быть фильтром Гаусса с опорным диапазоном rH и дисперсией (например, rH = 9, = 3). Тогда шумовую маску (H) можно выразить как
[0046] В варианте осуществления параметры первого и второго фильтров нижних частот могут быть одинаковыми. В предпочтительном варианте осуществления с целью улучшения эффективности вычислений первый и второй фильтры нижних частот выполнены с возможностью отделения. В варианте осуществления может быть использован дополнительный блок (320) для распознавания пикселей Hjp, которые можно игнорировать в последующей обработке, так как они могут вносить систематическую ошибку в процесс адаптивной квантизации. Например, если изображение включает в себя рамку «почтовый ящик» (то есть черные пиксели, которые могут обрамлять исходное изображение, чтобы оно удовлетворяло определенному размеру кадра или соотношению сторон), то относящиеся к почтовому ящику пиксели можно игнорировать. Значения, относящиеся к границам изображения или границам почтового ящика, тоже можно игнорировать, так как выход фильтров нижних частот предполагает, что данные на этих границах заполняются постоянными значениями, которые будут генерировать более низкие значения шума. Пусть Ωj — это набор всех действительных рассматриваемых пикселей, тогда конечную выходную шумовую маску (322) можно выразить как
[0048] Формирование гистограммы шумовой маски
[0049] Пусть BI — это глубина цвета входного изображения (117) (например, BI = 16), и пусть , тогда динамический диапазон от 0 до K - 1 можно разбить на M интервалов с равными значениями интервалов пикселей W, то есть W = K / M. В варианте осуществления для j-го кадра можно сформировать гистограмму шума bj(m), где m — m-й интервал гистограммы (m = 0, 1, 2,…M - 1), следующим образом.
[0051] b) Среди этих пикселей выбрать минимальный Hj(i), поскольку, как описано ранее, вертикальная проекция маскирования не является двухмерной картой.
[0052] Или учитывая, что
[0055] Отметим, что иногда определенные интервалы могут быть пустыми, так как в диапазоне пикселей этого интервала могло не оказаться никаких пикселей изображения. Индексы этих интервалов можно отметить, и их состояние рассмотрим позже.
[0056] Значения адаптивной ПК могут быть скорректированы на уровне кадра или на уровне сцены. Используемые в настоящем документе термины «сцена» или «снимок» для видеопоследовательности могут относиться к серии последовательных кадров в видеосигнале, совместно использующих похожие характеристики цвета и динамического диапазона. Ввиду последовательного характера предсказания видео в большинстве форматов сжатия видео, возможно, предпочтительно регулировать параметры квантизации только на границах, которые совпадают с типичными границами видеокодера, такими как смены сцен или новые группы кадров (ГК). Следовательно, при наличии сцены с F кадрами и гистограмм шумового маскирования bj(m), основанных на кадрах, можно вывести основанную на сцене гистограмму шумового маскирования b(m) как
[0058] В варианте осуществления в предположении, что верхняя граница шума составляет 1, интервалам шума, для которых не существует значений пикселя на всей сцене, можно присвоить максимально возможное значение уровня шума, равное 1. В некоторых вариантах осуществления отсутствующие интервалы можно также интерполировать по соседним интервалам. Для j = 1, 2,…, F основанные на сцене максимальное и минимальное значения пикселя можно также сформировать как
[0061] На ФИГ. 4 изображен пример основанной на сцене гистограммы маскирования шумом в случае сцены ВДД для BI = 16 и M = 64 интервала. В этом примере темные области включают в себя более высокие уровни маскирующего шума, чем средние тона и яркие участки.
[0062] Расчет глубины цвета на интервал гистограммы
[0063] При наличии уровня шума bm для каждого интервала в гистограмме шумовой маски следующим шагом будет определение числа битов, которые необходимо распределить каждому интервалу. В варианте осуществления такое сопоставление может быть определено на основании результатов экспериментального исследования с участием пользователей. Например, в одном таком исследовании пользователям показывали для оценки тестовые изображения, квантизированные по различным глубинам цвета, причем перед квантизацией к изображениям добавляли гауссов шум. В качестве примера на ФИГ. 5 изображены результаты исследования с участием пользователей, в котором использовались фильтры Гаусса с rL = 9 и = 3. Например, для уровня шумовой маски 2-10 необходимая глубина цвета составляет 8 бит. Как и ожидалось, ФИГ. 5 показывает, что области изображения с более высокими уровнями маскирующего шума могут достигать полной визуальной прозрачности при меньших глубинах цвета. И наоборот, чем более гладкое изображение, тем большая глубина цвета необходима для точного представления без потерь для восприятия.
[0064] Рассмотрим набор пар данных (, i = 1, 2, 3,…, N, где для i-го входного уровня шума было определено (например, с помощью исследований с участием пользователей или иных методик), что соответствующая минимальная глубина цвета равна . В варианте осуществления эти пары могут быть выражены как функция отношения маскирующего шума к глубине цвета
[0068] В варианте осуществления сопоставление может быть рассчитано с помощью таблицы подстановки. В варианте осуществления сопоставление (220) кодового слова, возможно, будет удобнее выполнять на основе числа необходимых кодовых слов в пределах интервала гистограммы, а не путем непосредственного использования данных глубины цвета. Этот случай изучен в следующем разделе.
[0069] Формирование сопоставления кодового слова
[0070] Пусть BT — это целевая глубина цвета для повторно квантизированного сигнала (152) (например, BT = 10 бит/пиксель в расчете на компонент цвета), тогда выход будет сопоставляться с помощью кодовых слов. В варианте осуществления диапазон кодовых слов нормализуется по единице, поэтому пусть
[0072] обозначает число нормализованных кодовых слов на интервал m. Например, если Qm = 9, BI = 16 и BT = 10, то Dm = 2-17.
[0073] Пусть
[0075] обозначает число нормализованных кодовых слов на вход i , тогда di можно считать нижней границей для числа необходимых кодовых слов на входное кодовое слово. Общее число нормализованных кодовых слов для всех входных кодовых слов, D, ограничивается 1, или
[0077] На ФИГ. 6A изображен пример графика числа нормализованных кодовых слов (di (605)), которые рассчитаны для одного видеокадра при BI = 16 (входные кодовые слова заключаются в пределах от 0 до 65 535). График показывает также число нормализованных кодовых слов при простом усечении с 16 бит либо до 9 наиболее значимых бит (610), либо до 10 наиболее значимых бит (615). Как показано на ФИГ. 6A, простого усечения до 10 бит недостаточно, чтобы удовлетворить требования по глубине цвета для определенных входных пикселей в диапазоне светлых тонов.
[0078] Пусть U = 1 - D — это число неиспользуемых нормализованных кодовых слов. Эти неиспользуемые кодовые слова необходимо переназначить входным кодовым словам в соответствии с заданным критерием. В варианте осуществления, без ограничения, может быть использована любая одна из следующих схем распределения (или их сочетание).
[0079] i) Пропорциональное распределение
[0080] По этому критерию для входа vL ≤ i ≤ vH дополнительные слова назначаются на основе существующего распределения, или
[0083] ii) Распределение с постоянным смещением
[0084] По этому критерию избыточные кодовые слова распределяются равномерно, или для входа vL ≤ i ≤ vH,
[0086] iii) Распределение на основе гистограммы
[0087] Пусть hi — это гистограмма исходного входного изображения, то есть для vL ≤ i ≤ vH hi = k означает, что среди P пикселей существуют k пикселей со значением i. Тогда по этому критерию кодовые слова назначаются согласно значениям гистограммы, или для входа vL ≤ i ≤ vH
[0089] В качестве варианта можно разделить входной диапазон на M поддиапазонов (например, для M = 3, черные, средние и светлые тона), и рассчитать гистограмму Hm (m = 1, 2, …, M), обозначающую общее число входных пикселей в m-ом поддиапазоне, тогда для i, принадлежащего m-му поддиапазону пикселей
[0091] iv) Распределение на основе скаляра
[0092] Его можно рассматривать как комбинацию основанного на гистограмме распределения (например, рассмотрим гистограмму только с двумя интервалами, один — для темных тонов, другой — для светлых тонов) и распределения с постоянным смещением. Пусть α — это параметр между 0 и 1, означающий относительную важность «темных тонов» в сравнении со «светлыми» тонами, тогда для входа vL ≤ i ≤ vH, согласно этому критерию
[0094] Если U = 0, то перераспределение кодовых слов невозможно. При таком сценарии, который будет обсуждаться также позже, кодер может решить либо увеличить целевую глубину цвета, добавив шум к входному изображению для эффективного сокращения распределения di, либо ничего не делать и положиться на декодер и фильтрацию при постобработке для снижения наблюдаемого шума квантизации. Оставшиеся этапы обработки могут быть выполнены непосредственно на данных ; однако в варианте осуществления эти данные могут быть сглажены фильтром нижних частот, например (2N + 1)-отводным усредняющим фильтром, в целях улучшения производительности.
[0095] Пусть
[0097] и
[0099] где , k = -N, -N + 1, …, N — коэффициенты фильтра для сглаживающего фильтра (например, . В варианте осуществления длина этого фильтра достаточно большая, чтобы охватывать по меньшей мере размер двух последовательных интервалов гистограммы шумовой маски (например, N = W). Более крупные фильтры будут сглаживать лучше, но требуют большей вычислительной мощности.
[0100] На ФИГ. 6B изображен пример графика данных (620), представляющих сглаженные данные , рассчитанные по схеме распределения с постоянным смещением. В некоторых случаях сумма значений может превышать 1, следовательно, эти значения необходимо повторно нормализовать, поскольку
[0103] Значения si должны по-прежнему удовлетворять ограничению нижней границей, а именно:
[0105] Если
[0107] то в j-ом кадре для данного входного пикселя (i (0, - 1) конечное нормализованное повторно квантизированное значение можно выразить как
[0109] В варианте осуществления значения FL(i) могут быть сохранены в предварительной рассчитанной таблице подстановки (LUT). В альтернативном варианте осуществления значения могут быть также сопоставлены с денормализованными значениями в диапазоне от 0 до - 1. Пример сопоставления (630) FL(i) на основе данных (620) показан на ФИГ. 6C.
[0110] На ФИГ. 7 изображен пример обобщенных этапов процесса (220) сопоставления кодовых слов. При наличии в качестве входных данных требуемой глубины цвета на интервал гистограммы шума (Qm) (217), входной глубины цвета (BI) и целевой глубины цвета (BT) на этапе (705) производится расчет нижней границы нормализованного числа требуемых кодовых слов на ввод Ijp = i согласно уравнению (12). На этапе (710) любые неиспользованные кодовые слова перераспределяются в соответствии с любой из ряда схем перераспределения, например, как описано уравнениями (14–17). Необязательно, на этапе (715) перераспределенные данные фильтруются (например, см. уравнение (18)) для формирования сглаженного нормализованного числа кодовых слов, которые на этапе (720) используются для формирования конечного сопоставления кодовых слов на основе функции накопительной суммы.
[0111] Адаптивная квантизация на основе кадра
[0112] Как обсуждалось ранее, согласно уравнению (7), в варианте осуществления адаптивная квантизация может основываться на данных гистограммы маскирования шумом, собранных по всем многочисленным кадрам сцены. Сбор данных по всем многочисленным кадрам может вносить значительную задержку, которая может быть неприемлемой в условиях, когда адаптивную квантизацию необходимо выполнять в масштабе реального времени. В другом варианте осуществления сопоставление (или изменение формы) кодовых слов может быть выполнено с использованием данных из первого кадра сцены; однако сопоставление можно периодически корректировать для компенсации небольших колебаний в пределах кадров сцены. Такой процесс описан с помощью псевдокода в таблице 1.
[0113] Таблица 1. Адаптивная квантизация на основе кадра
[0114]
//
Flag_New_LUT = 1; // Принудительное формирование нового кодового слова
for( j = 0 ; j < F; j ++ ) { // проход по каждому кадру
// если требуемая глубина цвета в текущем кадре превышает допуск в текущей LUT
// или мин. либо макс. значение выходит за пределы заданного допустимого отклонения, то
// необходимо создать новую LUT для кодовых слов
Flag_New_LUT = 1
}
if(Flag_New_LUT == 1) { // необходимо создать новую LUT
Flag_New_LUT = 0
}
}
[0115] Обратное изменение формы
[0116] В некоторых вариантах осуществления может быть применено обратное изменение (160) формы для обращения воздействия прямого изменения (150) формы. В варианте осуществления таблица подстановки для обратной квантизации может быть построена следующим образом.
[0117] a) Для каждого кодового слова в квантизированном домене (sc) определить все входные слова (vi), для которых FL(vi) = sc. Обозначим эту группу как; далее следующее.
[0119] Например, в варианте осуществления, без ограничения, BL(sc) можно построить как среднее значение всех кодовых слов, которые принадлежат , или
тогда
где — это число элементов во множестве . Если = 0 для любых значений sc, то в варианте осуществления эти значения можно интерполировать из соседних ненулевых значений.
[0121] Альтернативные варианты осуществления
[0122] Как описано ранее, в одном варианте осуществления предлагаемая адаптивная квантизация может быть выполнена перед этапом (120) кодирования (сжатия), чтобы удовлетворить связанные с глубиной цвета ограничения существующих кодеков. После квантизации данные, относящиеся к функции (630) сопоставления изменения формы (например, функции обратного сопоставления), могут быть внедрены как метаданные (например, как коэффициенты многосегментной линейной функции, или полиномиальной функции 2-го порядка, или как таблица подстановки), чтобы обеспечить выполнение декодером обратного сопоставления. Или же, если нет удовлетворительной функции изменения формы, которая может работать в пределах ограничений целевой глубины цвета, в варианте осуществления можно, как известно в данной области техники, добавить шум или псевдослучайный сигал к исходным гладким областям изображения, чтобы улучшить маскирование ошибок квантизации. Такой шум можно добавить в соответствии с выходом этапа (210) формирования гистограммы шумовой маски.
[0123] В некоторых вариантах осуществления процесс контент-адаптивной перцепционной квантизации можно дополнительно адаптировать и корректировать в соответствии с информацией, полученной декодером. Например, если расположенное ниже по цепочке устройство подсоединено к дисплею с датчиками для измерения интенсивности окружающего света или расстояния просмотра, такая информация может быть отправлена вверх по цепочке в кодер с целью корректировки либо фильтров для формирования шумовой маски (205), либо других параметров процесса адаптивной квантизации (например, этапа перераспределения). Например, если окружающий свет сильный, то для темных областей требуется меньше этапов квантизации.
[0124] В некоторых вариантах осуществления вместо выполнения ввода шума или псевдослучайного сигнала на стадии кодера эта операция может быть выполнена в декодере на основе информации метаданных, посланных кодером (например, гистограммы шумовой маски).
[0125] Как будет понятно специалистам в области обработки изображений, предлагаемые методики контент-адаптивной квантизации могут быть применены к самым разным другим приложениям для обработки изображений, которые снижают требования к глубине цвета путем применения аддитивного шума, псевдослучайного сигнала или обрезания битов.
[0126]
Пример реализации компьютерной системы
[0127] Варианты осуществления настоящего изобретения могут быть реализованы с помощью компьютерной системы, систем, выполненных в виде электронных цепей и компонентов, устройства на интегральной схеме (ИС), такого как микроконтроллер, программируемой пользователем вентильной матрицы (ППВМ) или иного выполненного с возможностью конфигурирования или программирования логического устройства (ПЛУ), процессора с дискретным временем или процессора цифровой обработки сигналов (ПЦОС), специализированной интегральной схемы (СИС) и/или аппарата, который включает в себя одну или более таких систем, устройств или компонентов. Компьютер и/или ИС могут выполнять или исполнять команды или управлять командами, относящимися к адаптивной перцепционной квантизации изображений с улучшенным динамическим диапазоном, таким образом, как описано в настоящем документе. Компьютер и/или ИС могут рассчитывать любые из разнообразных параметров или значений, которые относятся к процессам адаптивной перцепционной квантизации, описанным в настоящем документе. Варианты осуществления изображения и видео могут быть реализованы в виде оборудования, программного обеспечения, встроенного программного обеспечения и их различных комбинаций.
[0128] Определенные реализации изобретения включают в себя процессоры вычислительных машин, которые исполняют программные команды, заставляющие процессор выполнять способ настоящего изобретения. Например, один или более процессоров в дисплее, кодер, телеприставка, транскодер и т. п. могут реализовывать способы, относящиеся к адаптивной перцепционной квантизации изображений ВДД, как описано выше, путем исполнения программных команд в памяти для программ, доступной процессорам. Изобретение также может быть выполнено в виде программного продукта. Программный продукт может включать в себя любой нетранзиторный носитель, который содержит набор машиночитаемых сигналов, содержащих команды, исполнение которых процессором данных заставляет процессор данных выполнять способ настоящего изобретения. Согласно изобретению, программные продукты могут быть в любой из самых разных форм. Программные продукты могут включать в себя, например, физический носитель, такой как магнитный накопитель данных, в том числе гибкие дискеты, накопители на жестком диске, оптические накопители данных, в том числе CD ROM, DVD, электронные накопители данных, в том числе ПЗУ, флэш-ОЗУ и т.п. Машиночитаемые сигналы в программном продукте могут быть, необязательно, сжаты или зашифрованы.
[0129] Если не указано иное, при упоминании выше компонента (например, программного модуля, процессора, узла, устройства, схемы и т. д.) ссылку на этот компонент (в том числе ссылку на «средства») следует понимать как включение в качестве эквивалента этого компонента любого компонента, который выполняет функцию описываемого компонента (например, который функционально эквивалентен), включая компоненты, которые не равносильны по структуре описываемой структуре, выполняющей функцию в иллюстрируемых примерах вариантов осуществления изобретения.
[0130]
Эквиваленты, расширения, альтернативы и прочие положения
[0131] Таким образом, описаны примеры вариантов осуществления, которые относятся к эффективной перцепционной квантизации изображений ВДД. В приведенном выше описании варианты осуществления настоящего изобретения были описаны со ссылкой на многочисленные конкретные подробности, которые могут меняться в зависимости от реализации. Поэтому единственным и исключительным указателем того, что представляет собою изобретение и подразумевается заявителями в качестве изобретения, является набор пунктов формулы изобретения, изданных на основе данной заявки, в той конкретной форме, в которой издана эта формула изобретения, включая любое последующее исправление. Любые определения, в явной форме изложенные в настоящем документе для терминов, содержащихся в такой формуле изобретения, имеют преимущественную силу для таких терминов, используемых в формуле изобретения. Таким образом, никакое ограничение, элемент, свойство, характерный признак, преимущество или атрибут, не изложенный в явной форме в формуле изобретения, никоим образом не должен ограничивать объем этой формулы изобретения. Соответственно, описание и графические материалы следует рассматривать в иллюстративном, а не в ограничивающем смысле.
Claims (60)
1. Способ перцепционной квантизации изображений с помощью процессора, при этом способ содержит этапы, на которых:
получают процессором доступ к входному изображению (117) с входной глубиной цвета;
применяют к входному изображению процесс (205) формирования шумовой маски для формирования изображения шумовой маски, при этом изображение шумовой маски характеризует пиксели входного изображения с точки зрения их значимости для восприятия относительно шума квантизации маски;
формируют гистограмму (212) шумовой маски на основе входного изображения и изображения шумовой маски;
применяют функцию (215) отношения уровня маскирующего шума к глубине цвета для одного или более интервалов гистограммы шумовой маски с целью формирования значений минимальной глубины цвета для одного или более интервалов;
формируют функцию (220) сопоставления кодового слова на основе значений входной глубины цвета, минимальной глубины цвета и целевой глубины цвета; и
применяют функцию сопоставления кодового слова к входному изображению для формирования выходного изображения с целевой глубиной цвета, которая ниже входной глубины цвета.
2. Способ по п. 1, в котором процесс формирования шумовой маски содержит этапы, на которых:
применяют первый фильтр (305) к входному изображению для формирования первого фильтрованного изображения (L);
формируют второе изображение путем расчета абсолютного значения разности между входным изображением и первым фильтрованным изображением; и
формируют изображение (H) шумовой маски путем применения второго фильтра ко второму изображению.
3. Способ по п. 2, в котором первый фильтр представляет собой фильтр Гаусса нижних частот.
4. Способ по п. 2, в котором второй фильтр представляет собой фильтр Гаусса нижних частот.
5. Способ по п. 2, дополнительно содержащий этап, на котором
применяют процесс выбора пикселей для изображения шумовой маски с целью устранения пикселей, которые считаются несущественными для процесса квантизации.
6. Способ по п. 1, в котором формирование гистограммы шумовой маски содержит этапы, на которых:
рассчитывают динамический диапазон входного изображения на основе входной глубины цвета;
разбивают динамический диапазон на M поддиапазонов, при этом M является целым числом больше 1;
для i-го поддиапазона:
идентифицируют все пиксели входного изображения, которые имеют значения пикселя в пределах i-го поддиапазона;
для каждого пикселя в i-м поддиапазоне:
определяют его соответствующее значение шумовой маски в изображении шумовой маски;
определяют минимальное из значений шумовой маски для всех пикселей в i-м поддиапазоне; и
назначают i-му интервалу в гистограмме шумовой маски минимальные значения шумовой маски для пикселей в i-м поддиапазоне.
7. Способ по п. 1, в котором входное изображение представляет собой изображение высокого динамического диапазона, кодированное в соответствии с гамма-кодированием или кодированием с перцепционной квантизацией амплитуды яркости (ПК), как определено в стандарте SMPTE ST 2084.
8. Способ по п. 1, в котором функция отношения уровня маскирующего шума к глубине цвета формируется в соответствии с результатами исследования восприятия пользователями.
9. Способ по п. 1, в котором формирование функции сопоставления кодового слова дополнительно содержит этапы, на которых:
формируют нижнюю границу нормализованного числа требуемых кодовых слов в целевой глубине цвета на основе значений минимальной глубины цвета, входной глубины цвета и целевой глубины цвета;
распределяют неиспользованные нормализованные кодовые слова по всему динамическому диапазону входного изображения в соответствии со схемой распределения, чтобы сформировать обновленные нормализованные числа требуемых кодовых слов; и
формируют функцию сопоставления кодового слова путем расчета накопительной суммы обновленных нормализованных чисел требуемых кодовых слов.
10. Способ по п. 9, дополнительно содержащий этап, на котором фильтруют обновленные нормализованные числа требуемых кодовых слов с помощью фильтра нижних частот перед формированием функции сопоставления кодового слова.
11. Способ по п. 10, в котором фильтр нижних частот представляет собой (2N + 1)-отводный усредняющий фильтр, при этом N — положительное целое число.
12. Способ по п. 9, в котором схема распределения представляет собой схему пропорционального распределения, где для i-го значения входного пикселя
13. Способ по п. 9, в котором схема распределения представляет собой схему распределения с постоянным смещением, где для i-го значения входного пикселя
при этом обозначает обновленное нормализованное число значений кодовых слов, d i обозначает нормализованное число требуемых кодовых слов, если D обозначает сумму значений d i , то U = 1 - D, v H обозначает максимальное значение входного пикселя, а v L обозначает минимальное значение входного пикселя.
14. Способ по п. 9, в котором схема распределения представляет собой схему распределения на основе гистограммы, где для i-го значения входного пикселя
при этом обозначает обновленное нормализованное число значений кодовых слов, d i обозначает нормализованное число требуемых кодовых слов, h i обозначает число пикселей входного изображения со значением, равным i, если D обозначает сумму значений d i , то U = 1 - D, а P обозначает общее число рассматриваемых пикселей входного изображения.
15. Способ по п. 9, в котором схема распределения представляет собой схему распределения на основе скаляра, где для i-го значения входного пикселя
при этом обозначает обновленное нормализованное число значений кодовых слов, d i обозначает нормализованное число требуемых кодовых слов, если D обозначает сумму значений d i , то U = 1 - D, α — это скалярная величина между 0 и 1, v H обозначает максимальное значение входного пикселя, а v L обозначает минимальное значение входного пикселя.
16. Способ по п. 9, в котором формирование функции сопоставления кодового слова для значения входного пикселя i содержит расчет
при этом значения s k выводятся на основе обновленного нормализованного числа значений кодовых слов.
17. Способ по п. 16, в котором формирование выходного изображения содержит расчет:
при этом для пикселя I p = i входного изображения s p обозначает соответствующий нормализованный квантизированный выходной пиксель, v H обозначает максимальное значение входного пикселя, а v L обозначает минимальное значение входного пикселя.
18. Способ по п. 1, в котором значения минимальной глубины цвета рассчитываются на основе значений минимальной глубины цвета, вычисленных по нескольким последовательным кадрам видеосцены, которая включает входное изображение.
19. Способ по п. 9, дополнительно содержащий этап, на котором
в случае определения того, что целевая глубина цвета не может быть удовлетворена за счет этапа распределения, добавляют шум или псевдослучайный сигнал к входному изображению в соответствии с изображением шумовой маски и формируют новую нижнюю границу нормализованного числа требуемых кодовых слов взамен нижней границы нормализованного числа требуемых кодовых слов.
20. Система адаптивной квантизации, содержащая:
процессор для приема входных кадров и формирования повторно квантизированных кадров в соответствии со способом по п. 1;
процессор для кодирования повторно квантизированных кадров для формирования кодированных кадров;
процессор для декодирования кодированных кадров для формирования декодированных кадров; и
процессор для формирования выходных кадров путем применения функции обратного изменения формы к декодированным кадрам.
21. Аппарат для перцепционной квантизации изображений, содержащий процессор и выполненный с возможностью выполнения одного из способов, изложенных в пп. 1–19.
22. Нетранзиторный машиночитаемый носитель данных с хранящейся на нем исполнимой компьютером инструкцией для выполнения способа в соответствии с любым из пп. 1–19.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562126925P | 2015-03-02 | 2015-03-02 | |
US62/126,925 | 2015-03-02 | ||
PCT/US2016/020230 WO2016140954A1 (en) | 2015-03-02 | 2016-03-01 | Content-adaptive perceptual quantizer for high dynamic range images |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2678483C1 true RU2678483C1 (ru) | 2019-01-29 |
Family
ID=55910328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2017130927A RU2678483C1 (ru) | 2015-03-02 | 2016-03-01 | Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном |
Country Status (8)
Country | Link |
---|---|
US (1) | US10419762B2 (ru) |
EP (1) | EP3266208B1 (ru) |
JP (1) | JP6484347B2 (ru) |
KR (1) | KR101939012B1 (ru) |
CN (1) | CN107409213B (ru) |
BR (1) | BR112017018893B1 (ru) |
RU (1) | RU2678483C1 (ru) |
WO (1) | WO2016140954A1 (ru) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2780495C1 (ru) * | 2019-05-28 | 2022-09-26 | Долби Лэборетериз Лайсенсинг Корпорейшн | Сообщение параметров квантования |
US11856232B2 (en) | 2019-05-28 | 2023-12-26 | Dolby Laboratories Licensing Corporation | Quantization parameter signaling |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6374614B2 (ja) | 2015-03-20 | 2018-08-15 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 信号再整形近似 |
US10015491B2 (en) | 2015-04-06 | 2018-07-03 | Dolby Laboratories Licensing Corporation | In-loop block-based image reshaping in high dynamic range video coding |
US10735755B2 (en) | 2015-04-21 | 2020-08-04 | Arris Enterprises Llc | Adaptive perceptual mapping and signaling for video coding |
US10701359B2 (en) | 2015-06-30 | 2020-06-30 | Dolby Laboratories Licensing Corporation | Real-time content-adaptive perceptual quantizer for high dynamic range images |
WO2017015564A1 (en) | 2015-07-22 | 2017-01-26 | Arris Enterprises Llc | System for coding high dynamic range and wide color gamut sequences |
JP6608067B2 (ja) * | 2015-09-23 | 2019-11-20 | アリス エンタープライジズ エルエルシー | 映像復号化器における高ダイナミックレンジ適応演算 |
US10311558B2 (en) | 2015-11-16 | 2019-06-04 | Dolby Laboratories Licensing Corporation | Efficient image processing on content-adaptive PQ signal domain |
US10165275B2 (en) | 2016-01-26 | 2018-12-25 | Dolby Laboratories Licensing Corporation | Content-adaptive reshaping for high dynamic range images |
US10032262B2 (en) | 2016-02-02 | 2018-07-24 | Dolby Laboratories Licensing Corporation | Block-based content-adaptive reshaping for high dynamic range images |
US10223774B2 (en) | 2016-02-02 | 2019-03-05 | Dolby Laboratories Licensing Corporation | Single-pass and multi-pass-based polynomial approximations for reshaping functions |
CN108885783B (zh) * | 2016-03-23 | 2022-02-15 | 杜比实验室特许公司 | 编码和解码可逆制作质量单层视频信号 |
US10397586B2 (en) | 2016-03-30 | 2019-08-27 | Dolby Laboratories Licensing Corporation | Chroma reshaping |
US10645403B2 (en) | 2016-05-19 | 2020-05-05 | Dolby Laboratories Licensing Corporation | Chroma reshaping for high dynamic range images |
GB201611253D0 (en) | 2016-06-29 | 2016-08-10 | Dolby Laboratories Licensing Corp | Efficient Histogram-based luma look matching |
WO2018049335A1 (en) * | 2016-09-09 | 2018-03-15 | Dolby Laboratories Licensing Corporation | Coding of high dynamic range video using segment-based reshaping |
US10575028B2 (en) | 2016-09-09 | 2020-02-25 | Dolby Laboratories Licensing Corporation | Coding of high dynamic range video using segment-based reshaping |
JP6740866B2 (ja) * | 2016-11-07 | 2020-08-19 | 株式会社デンソー | 画像出力装置 |
JP6876822B2 (ja) | 2017-03-21 | 2021-05-26 | ドルビー ラボラトリーズ ライセンシング コーポレイション | ルミナンス情報を用いた量子化パラメーター予測 |
WO2019032876A1 (en) | 2017-08-09 | 2019-02-14 | Sharkninja Operating Llc | COOKING DEVICE AND COMPONENTS THEREOF |
US10609372B2 (en) | 2017-09-29 | 2020-03-31 | Dolby Laboratories Licensing Corporation | Up-conversion to content adaptive perceptual quantization video signals |
MX2020008499A (es) * | 2018-02-14 | 2020-09-25 | Dolby Laboratories Licensing Corp | Reconfiguracion de imagenes en codificacion de video usando la optimizacion de tasa-distorsion. |
WO2020068666A1 (en) | 2018-09-24 | 2020-04-02 | Dolby Laboratories Licensing Corporation | Image denoising in sdr to hdr image conversion |
EP3861729A1 (en) * | 2018-10-03 | 2021-08-11 | Dolby Laboratories Licensing Corporation | Reducing banding artifacts in backward-compatible hdr imaging |
WO2020131494A1 (en) * | 2018-12-19 | 2020-06-25 | Dolby Laboratories Licensing Corporation | Image debanding using adaptive sparse filtering |
US11356623B2 (en) | 2020-06-01 | 2022-06-07 | City University Of Hong Kong | System and method for processing an image |
EP4172981A1 (en) * | 2020-06-30 | 2023-05-03 | Dolby Laboratories Licensing Corporation | Systems and methods for ambient light compensation using pq shift |
WO2022195537A1 (en) * | 2021-03-17 | 2022-09-22 | The Trustees Of Princeton University | Microlens amplitude masks for flying pixel removal in time-of-flight imaging |
WO2022245695A1 (en) | 2021-05-21 | 2022-11-24 | Dolby Laboratories Licensing Corporation | Patch-based reshaping and metadata for volumetric video |
CN115908157A (zh) * | 2021-09-30 | 2023-04-04 | 想象技术有限公司 | 渲染3d场景的图像 |
WO2023215108A1 (en) | 2022-05-05 | 2023-11-09 | Dolby Laboratories Licensing Corporation | Stereoscopic high dynamic range video |
CN116385316B (zh) * | 2023-06-01 | 2023-08-08 | 深圳市嘉润原新显科技有限公司 | 多目标图像动态捕捉方法及相关装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013086169A1 (en) * | 2011-12-06 | 2013-06-13 | Dolby Laboratories Licensing Corporation | Device and method of improving the perceptual luminance nonlinearity - based image data exchange across different display capabilities |
US20130321673A1 (en) * | 2012-05-31 | 2013-12-05 | Apple Inc. | Systems and Methods for Determining Noise Statistics of Image Data |
WO2014107255A1 (en) * | 2013-01-02 | 2014-07-10 | Dolby Laboratories Licensing Corporation | Backward-compatible coding for ultra high definition video signals with enhanced dynamic range |
WO2014160705A1 (en) * | 2013-03-26 | 2014-10-02 | Dolby Laboratories Licensing Corporation | Encoding perceptually-quantized video content in multi-layer vdr coding |
RU2533855C2 (ru) * | 2009-03-06 | 2014-11-20 | Конинклейке Филипс Электроникс Н.В. | Способ преобразования входных данных изображения в выходные данные изображения, блок преобразования изображения для преобразования входных данных изображения в выходные данные изображения, устройство обработки изображения, устройство отображения |
WO2014204865A1 (en) * | 2013-06-17 | 2014-12-24 | Dolby Laboratories Licensing Corporation | Adaptive reshaping for layered coding of enhanced dynamic range signals |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU544259B2 (en) * | 1980-04-16 | 1985-05-23 | Sony Corporation | Detecting + correcting errors in digital video signals |
JPH02131038A (ja) | 1988-11-10 | 1990-05-18 | Pioneer Electron Corp | 信号伝送装置 |
US6058211A (en) | 1995-07-07 | 2000-05-02 | Imec Vzw | Data compression method and apparatus |
KR100355375B1 (ko) | 1995-11-01 | 2002-12-26 | 삼성전자 주식회사 | 영상부호화장치에있어서양자화간격결정방법및회로 |
KR100316764B1 (ko) | 1996-01-19 | 2002-02-28 | 윤종용 | 시감특성을 이용한 영상 부호화방법 및 장치 |
KR100203695B1 (ko) | 1996-03-22 | 1999-06-15 | 전주범 | 물체 기반 부호화에 있어서의 텍스쳐 분류를 위한 전처리 장치 |
US6807298B1 (en) | 1999-03-12 | 2004-10-19 | Electronics And Telecommunications Research Institute | Method for generating a block-based image histogram |
KR100344807B1 (ko) | 2000-01-12 | 2002-07-20 | 엘지전자주식회사 | 영상 신호 보정 장치 및 방법 |
KR100750138B1 (ko) | 2005-11-16 | 2007-08-21 | 삼성전자주식회사 | 인간의 시각 특성을 이용한 영상의 부호화, 복호화 방법 및장치 |
US8503536B2 (en) | 2006-04-07 | 2013-08-06 | Microsoft Corporation | Quantization adjustments for DC shift artifacts |
US7639893B2 (en) | 2006-05-17 | 2009-12-29 | Xerox Corporation | Histogram adjustment for high dynamic range image mapping |
US8711926B2 (en) | 2007-02-08 | 2014-04-29 | Qualcomm Incorporated | Distortion estimation for quantized data |
JP4155328B2 (ja) | 2007-03-29 | 2008-09-24 | 株式会社日立製作所 | 映像表示装置 |
KR101350853B1 (ko) * | 2007-06-29 | 2014-01-13 | 톰슨 라이센싱 | 이미지들에서 아티팩트들을 감소시키기 위한 장치 및 방법 |
US8064517B1 (en) | 2007-09-07 | 2011-11-22 | Zenverge, Inc. | Perceptually adaptive quantization parameter selection |
JP2009224854A (ja) | 2008-03-13 | 2009-10-01 | Toshiba Corp | 画像符号化装置及び方法 |
US8189933B2 (en) | 2008-03-31 | 2012-05-29 | Microsoft Corporation | Classifying and controlling encoding quality for textured, dark smooth and smooth video content |
KR101256806B1 (ko) * | 2008-09-30 | 2013-04-22 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 고 휘도 및 고 동적 범위 디스플레이들에 대한 이미지 프로세싱에서 적응형 감마를 적용하는 시스템들 및 방법들 |
WO2010069366A1 (en) | 2008-12-17 | 2010-06-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Adaptive quantization based on spatial activity histogram |
US8761268B2 (en) | 2009-04-06 | 2014-06-24 | Intel Corporation | Selective local adaptive wiener filter for video coding and decoding |
US10897625B2 (en) | 2009-11-20 | 2021-01-19 | Texas Instruments Incorporated | Block artifact suppression in video coding |
KR101751270B1 (ko) | 2010-01-25 | 2017-07-11 | 고려대학교 산학협력단 | 이미지 처리장치 및 방법 |
JP2012022021A (ja) * | 2010-07-12 | 2012-02-02 | Sony Corp | 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム |
WO2012079237A1 (zh) | 2010-12-16 | 2012-06-21 | 北京航空航天大学 | 一种图像压缩中利用人眼视觉模型的小波系数量化方法 |
JP5960731B2 (ja) * | 2011-03-02 | 2016-08-02 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 局所マルチスケールトーンマッピングオペレータ |
TWI690211B (zh) * | 2011-04-15 | 2020-04-01 | 美商杜比實驗室特許公司 | 高動態範圍影像的解碼方法、其處理器非暫態可讀取媒體及電腦程式產品 |
TWI575933B (zh) | 2011-11-04 | 2017-03-21 | 杜比實驗室特許公司 | 階層式視覺動態範圍編碼中之層分解技術 |
MX337802B (es) | 2011-11-29 | 2016-03-18 | Thomson Licensing | Enmascaramiento de textura para medicion de calidad de video. |
KR20130078569A (ko) | 2011-12-30 | 2013-07-10 | 광운대학교 산학협력단 | 관심영역 기반의 화질 향상을 위한 스크린 콘텐츠 비디오 부호화/복호화 방법 및 그 장치 |
TR201911093T4 (tr) | 2012-03-26 | 2019-08-21 | Koninklijke Philips Nv | Hdr görüntü kodlamaya ve kod çözmeye yönelik parlak bölge tabanlı aparatlar ve yöntemler. |
EP2748792B1 (en) | 2012-08-08 | 2016-12-21 | Dolby Laboratories Licensing Corporation | Image processing for hdr images |
JP5639228B2 (ja) * | 2013-06-18 | 2014-12-10 | トムソン ライセンシングThomson Licensing | 重み付け符号化する方法及びシステム |
US9936199B2 (en) | 2014-09-26 | 2018-04-03 | Dolby Laboratories Licensing Corporation | Encoding and decoding perceptually-quantized video content |
-
2016
- 2016-03-01 CN CN201680013230.9A patent/CN107409213B/zh active Active
- 2016-03-01 EP EP16720208.4A patent/EP3266208B1/en active Active
- 2016-03-01 RU RU2017130927A patent/RU2678483C1/ru active
- 2016-03-01 BR BR112017018893-7A patent/BR112017018893B1/pt active IP Right Grant
- 2016-03-01 KR KR1020177024378A patent/KR101939012B1/ko active IP Right Grant
- 2016-03-01 US US15/555,047 patent/US10419762B2/en active Active
- 2016-03-01 WO PCT/US2016/020230 patent/WO2016140954A1/en active Application Filing
- 2016-03-01 JP JP2017546223A patent/JP6484347B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2533855C2 (ru) * | 2009-03-06 | 2014-11-20 | Конинклейке Филипс Электроникс Н.В. | Способ преобразования входных данных изображения в выходные данные изображения, блок преобразования изображения для преобразования входных данных изображения в выходные данные изображения, устройство обработки изображения, устройство отображения |
WO2013086169A1 (en) * | 2011-12-06 | 2013-06-13 | Dolby Laboratories Licensing Corporation | Device and method of improving the perceptual luminance nonlinearity - based image data exchange across different display capabilities |
US20130321673A1 (en) * | 2012-05-31 | 2013-12-05 | Apple Inc. | Systems and Methods for Determining Noise Statistics of Image Data |
WO2014107255A1 (en) * | 2013-01-02 | 2014-07-10 | Dolby Laboratories Licensing Corporation | Backward-compatible coding for ultra high definition video signals with enhanced dynamic range |
WO2014160705A1 (en) * | 2013-03-26 | 2014-10-02 | Dolby Laboratories Licensing Corporation | Encoding perceptually-quantized video content in multi-layer vdr coding |
WO2014204865A1 (en) * | 2013-06-17 | 2014-12-24 | Dolby Laboratories Licensing Corporation | Adaptive reshaping for layered coding of enhanced dynamic range signals |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2780495C1 (ru) * | 2019-05-28 | 2022-09-26 | Долби Лэборетериз Лайсенсинг Корпорейшн | Сообщение параметров квантования |
US11856232B2 (en) | 2019-05-28 | 2023-12-26 | Dolby Laboratories Licensing Corporation | Quantization parameter signaling |
Also Published As
Publication number | Publication date |
---|---|
WO2016140954A1 (en) | 2016-09-09 |
JP6484347B2 (ja) | 2019-03-13 |
CN107409213B (zh) | 2020-10-30 |
KR20170113608A (ko) | 2017-10-12 |
US10419762B2 (en) | 2019-09-17 |
CN107409213A (zh) | 2017-11-28 |
US20180041759A1 (en) | 2018-02-08 |
BR112017018893B1 (pt) | 2023-05-09 |
EP3266208B1 (en) | 2019-05-08 |
EP3266208A1 (en) | 2018-01-10 |
JP2018509708A (ja) | 2018-04-05 |
KR101939012B1 (ko) | 2019-01-15 |
BR112017018893A2 (pt) | 2018-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2678483C1 (ru) | Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном | |
US10032262B2 (en) | Block-based content-adaptive reshaping for high dynamic range images | |
JP6846442B2 (ja) | ハイダイナミックレンジ画像のためのクロマ再構成 | |
US10015491B2 (en) | In-loop block-based image reshaping in high dynamic range video coding | |
CN109416832B (zh) | 高效的基于直方图的亮度外观匹配 | |
CN108885783B (zh) | 编码和解码可逆制作质量单层视频信号 | |
EP3176749B1 (en) | Efficient image processing on content-adaptive pq signal domain | |
US10701359B2 (en) | Real-time content-adaptive perceptual quantizer for high dynamic range images | |
US10223774B2 (en) | Single-pass and multi-pass-based polynomial approximations for reshaping functions | |
US10165275B2 (en) | Content-adaptive reshaping for high dynamic range images | |
WO2017201139A1 (en) | Chroma reshaping for high dynamic range images | |
US11895416B2 (en) | Electro-optical transfer function conversion and signal legalization |