RU2678483C1 - Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном - Google Patents

Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном Download PDF

Info

Publication number
RU2678483C1
RU2678483C1 RU2017130927A RU2017130927A RU2678483C1 RU 2678483 C1 RU2678483 C1 RU 2678483C1 RU 2017130927 A RU2017130927 A RU 2017130927A RU 2017130927 A RU2017130927 A RU 2017130927A RU 2678483 C1 RU2678483 C1 RU 2678483C1
Authority
RU
Russia
Prior art keywords
image
input
color depth
denotes
values
Prior art date
Application number
RU2017130927A
Other languages
English (en)
Inventor
Ян ФРЁЛИХ
Гуань-Мин СУ
Робин АТКИНС
Скотт ДЕЙЛИ
Джон Скотт МИЛЛЕР
Original Assignee
Долби Лэборетериз Лайсенсинг Корпорейшн
Долби Интернэшнл Аб
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Долби Лэборетериз Лайсенсинг Корпорейшн, Долби Интернэшнл Аб filed Critical Долби Лэборетериз Лайсенсинг Корпорейшн
Application granted granted Critical
Publication of RU2678483C1 publication Critical patent/RU2678483C1/ru

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

Изобретение относится к области квантизации изображений. Технический результат – обеспечение улучшенной перцепционной квантизации изображений с высоким динамическим диапазоном. Способ перцепционной квантизации изображений содержит этапы, на которых получают процессором доступ к входному изображению с входной глубиной цвета; применяют к входному изображению процесс формирования шумовой маски для формирования изображения шумовой маски; формируют гистограмму шумовой маски на основе входного изображения и изображения шумовой маски; применяют функцию отношения уровня маскирующего шума к глубине цвета для одного или более интервалов гистограммы шумовой маски с целью формирования значений минимальной глубины цвета для одного или более интервалов; формируют функцию сопоставления кодового слова на основе значений входной глубины цвета, минимальной глубины цвета и целевой глубины цвета; и применяют функцию сопоставления кодового слова к входному изображению для формирования выходного изображения с целевой глубиной цвета, которая ниже входной глубины цвета. 4 н. и 18 з.п. ф-лы, 10 ил.

Description

ПЕРЕКРЕСТНАЯ ССЫЛКА НА РОДСТВЕННЫЕ ЗАЯВКИ
[0001] Данная заявка испрашивает преимущество приоритета по предварительной заявке на патент США № 62/126,925, поданной 2 марта 2015 г., которая включена в настоящий документ путем ссылки во всей своей полноте.
ОБЛАСТЬ ТЕХНИКИ
[0002] Настоящее изобретение в целом относится к изображениям. В частности, вариант осуществления настоящего изобретения относится к контент-адаптивной перцепционной квантизации изображений с высоким динамическим диапазоном.
[0003] ПРЕДПОСЫЛКИ СОЗДАНИЯ ИЗОБРЕТЕНИЯ
[0004] Используемый в настоящем документе термин «динамический диапазон» (ДД) может относиться к способности зрительной системы человека (ЗСЧ) воспринимать диапазон интенсивности (например, освещенность, яркость) на изображении, например от самых темных тонов (темных участков) до самых ярких белых тонов (ярких участков). В этом смысле ДД относится к «отнесенной к сцене» интенсивности. ДД может также относится к способности устройства отображения в достаточной мере или приблизительно воспроизводить диапазон интенсивности определенной ширины. В этом смысле ДД относится к «отнесенной к отображению» интенсивности. Если в любом месте приведенного здесь описания нет явного указания определенного значения для придания конкретного смысла, то следует понимать, что этот термин может использоваться в обоих смыслах, т. е. взаимозаменяемо.
[0005] Используемый в настоящем документе термин «высокий динамический диапазон» (ВДД) относится к ширине ДД, который занимает около 14–15 порядков величины диапазона зрительной системы человека (ЗСЧ). На практике ДД, в котором человек может одновременно воспринимать широкий сегмент диапазона интенсивности, может быть несколько обрезан в зависимости от ВДД. Используемые в настоящем документе термины «улучшенный динамический диапазон» (УДД) или «динамический диапазон зрения» (ДДЗ) могут по отдельности или взаимозаменяемо относится к ДД, который может восприниматься в пределах сцены или изображения зрительной системой человека (ЗСЧ), в том числе за счет движений глаз, способствующих в некоторой степени изменениям адаптации к свету по всей сцене или изображению. Используемый в настоящем документе термин «УДД» может относиться к ДД, который занимает от 5 до 6 порядков величины. Поэтому, хотя УДД, возможно, несколько уже относительно фактической сцены, называемой ВДД, он, тем не менее, представляет большую ширину ДД и тоже может называться ВДД.
[0006] На практике изображения включают в себя один или более компонентов цвета (например, яркость Y и цветность Cb и Cr), при этом каждый компонент цвета представляется с точностью n-бит на пиксель (например, n = 8). При использовании линейного кодирования освещенности изображения с n ≤ 8 (например, цветные 24-битовые изображения JPEG) считаются изображениями стандартного динамического диапазона, тогда как изображения с n > 8 могут рассматриваться как изображения улучшенного динамического диапазона. Изображения УДД и ВДД могут также храниться и распределяться с применением высокоточных (например, 16-битовых) форматов с плавающей запятой, таких как файловый формат OpenEXR, разработанный компанией Industrial Light and Magic.
[0007] Эталонная электрооптическая передаточная функция (ЭОПФ) для данного дисплея характеризует взаимосвязь между значениями цвета (например, освещенностью) входного видеосигнала и значениями цвета экрана вывода (например, освещенностью экрана). Например, рекомендация ITU Rec. ITU-R BT. 1886, «Reference electro-optical transfer function for flat panel displays used in HDTV studio production», (03/2011), которая включена в настоящий документ путем ссылки во всей своей полноте, определяет эталонную ЭОПФ для плоскопанельных дисплеев, основанную на измеряемых характеристиках катодно-лучевой трубки (КЛТ). В условиях видеопотока информация об ЭОПФ обычно встраивается в битовый поток в виде метаданных. Используемый в настоящем документе термин «метаданные» относится к любой вспомогательной информации, которая передается как часть кодированного битового потока и помогает декодеру преобразовывать изображение для просмотра. Такие метаданные могут включать в себя, без ограничений, информацию о цветовом пространстве или палитре, эталонные параметры отображения и вспомогательные параметры сигнала вроде тех, которые описаны в настоящем документе.
[0008] Большинство потребительских настольных дисплеев в настоящее время поддерживают освещенность от 200 до 300 кд/м2 или нитов. Большинство потребительских ТВЧ работают в диапазоне от 300 до 500 нитов, причем новые модели достигают 1000 нитов (кд/м2). Поэтому такие обычные дисплеи служат типичным образцом более низкого динамического диапазона (НДД), называемого также стандартным динамическим диапазоном (СДД), по сравнению с ВДД или УДД. Поскольку доступность содержимого ВДД растет благодаря достижениям в области оборудования для захвата изображений (например, камеры) и в области дисплеев ВДД (например, профессиональный контрольный монитор PRM-4200 производства компании Dolby Laboratories), содержимое ВДД может быть подвергнуто цветовому грейдингу и отображено на дисплеях ВДД, которые поддерживают более высокие динамические диапазоны (например, от 1000 нитов до 5000 нитов или более). Такие дисплеи можно определить с помощью альтернативных ЭОПФ, которые поддерживают высокую предельную освещенность (например, от 0 до 10 000 нитов). Пример такой ЭОПФ определен в стандарте SMPTE ST 2084:2014 «High Dynamic Range EOTF of Mastering Reference Displays», который включен в настоящий документ путем ссылки во всей своей полноте. В целом, без ограничения, способы настоящего изобретения относятся к любым динамическим диапазонам выше, чем СДД. Авторы настоящего изобретения понимают потребность в улучшенных методиках перцепционной квантизации изображений с высоким динамическим диапазоном.
[0009] Подходы, описанные в этом разделе, представляют собой подходы, которыми могли заниматься, но не обязательно подходы, которые были ранее задуманы или осуществлены. Поэтому, если не указано иное, следует полагать, что любой из подходов, описанных в этом разделе, квалифицируется как относящийся к предшествующему уровню техники просто в силу их включения в этот раздел. Аналогичным образом, проблемы, выявленные в отношении одного или более подходов, не следует считать уже признанными на каком-либо предшествующем уровне техники на основе этого раздела, если не указано иное.
[0010] КРАТКОЕ ОПИСАНИЕ ГРАФИЧЕСКИХ МАТЕРИАЛОВ
[0011] Вариант осуществления настоящего изобретения показан посредством примеров, а не посредством ограничения, на фигурах сопроводительных чертежей, на которых номера позиций относятся к аналогичным элементам и которые представляют собой следующее:
[0012] на ФИГ. 1A изображен пример процесса для конвейера доставки видео;
[0013] на ФИГ. 1B изображен пример процесса для сжатия данных с помощью контент-адаптивной квантизации или изменения формы в соответствии с вариантом осуществления настоящего изобретения;
[0014] на ФИГ. 2 изображен пример процесса для контент-адаптивной перцепционной квантизации в соответствии с вариантом осуществления настоящего изобретения;
[0015] на ФИГ. 3 изображен пример процесса для формирования шумовой маски в соответствии с вариантом осуществления настоящего изобретения;
[0016] на ФИГ. 4 изображена основанная на сцене гистограмма шумового маскирования в соответствии с вариантом осуществления настоящего изобретения;
[0017] на ФИГ. 5 изображен пример функции сопоставления, которая сопоставляет уровни шумового маскирования с требуемой глубиной цвета сигнала в соответствии с вариантом осуществления настоящего изобретения;
[0018] на ФИГ. 6A и ФИГ. 6B изображены примеры рассчитанных нормализованных распределений кодовых слов в соответствии с вариантами осуществления настоящего изобретения;
[0019] на ФИГ. 6C изображен пример сопоставления адаптивной перцепционной квантизации в соответствии с вариантом осуществления настоящего изобретения; и
[0020] на ФИГ. 7 изображен пример процесса для сопоставления кодового слова в соответствии с вариантом осуществления настоящего изобретения.
ОПИСАНИЕ ПРЕДСТАВЛЕННЫХ В КАЧЕСТВЕ ПРИМЕРА ВАРИАНТОВ ОСУЩЕСТВЛЕНИЯ
[0021] В настоящем документе описаны контент-адаптивные методики для перцепционной квантизации изображений с высоким динамическим диапазоном (ВДД). В следующем описании в целях пояснения многочисленные конкретные описания приведены для того, чтобы обеспечить полное понимание настоящего изобретения. Однако будет понятно, что варианты осуществления настоящего изобретения могут быть реализованы без учета таких подробных сведений. В других случаях во избежание излишнего затруднения понимания настоящего изобретения хорошо известные структуры и устройства не описаны в исчерпывающих подробностях.
Общее описание
[0022] Примеры вариантов осуществления, описанные в настоящем документе, относятся к адаптивной перцепционной квантизации изображений. Процессор контент-адаптивного квантизатора принимает входное изображение с входной глубиной цвета. К входному изображению применяется процесс формирования шумовой маски для создания изображения шумовой маски, которое характеризует каждый пиксель входного изображения с точки зрения его значимости для восприятия. На основе входного изображения и изображения шумовой маски формируется гистограмма шумовой маски. К гистограмме шумовой маски применяется функция отношения уровня маскирующего шума к глубине цвета, чтобы сформировать значения минимальной глубины цвета для каждого интервала гистограммы шумовой маски. На основе значений входной глубины цвета, целевой глубины цвета и минимальной глубины цвета формируется функция сопоставления кодового слова. К входному изображению применяется функция сопоставления кодового слова, чтобы сформировать выходное изображение с целевой глубиной цвета, которая ниже входной глубины цвета.
[0023]
Пример конвейера обработки доставки видео
[0024] На ФИГ. 1A изображен пример процесса обычного конвейера (100) доставки видео, показывающий различные стадии — от захвата видео до отображения видеоконтента. С помощью блока (105) формирования изображения захватывается или создается последовательность видеокадров (102). Видеокадры (102) могут быть захвачены в цифровом виде (например, с помощью цифровой камеры) или сформированы компьютером (например, с помощью компьютерной анимации) для обеспечения видеоданных (107). В альтернативном варианте осуществления видеокадры (102) могут быть захвачены на пленку пленочной камерой. Для обеспечения видеоданных (107) пленка преобразуется в цифровой формат. На фазе (110) производства видеоданные (107) редактируют для обеспечения производственного потока (112) видео.
[0025] Затем видеоданные производственного потока (112) поступают в процессор блока (115) для постпроизводственного редактирования. Блок (115) постпроизводственного редактирования может включать в себя регулировку или изменение цветов или яркости в определенных областях изображения для улучшения качества изображения или достижения конкретного внешнего вида изображения в соответствии с творческими намерениями создателя видео. Иногда это называют «цветоустановкой» или «цветовым грейдингом». Чтобы получить окончательную версию (117) продукции для тиражирования, в блоке (115) может быть выполнено другое редактирование (например, выбор сцены и задание последовательности, обрезание изображения, добавление сформированных компьютером специальных эффектов и т. д.) Во время постпроизводственного редактирования (115) видеоизображения просматривают на контрольном дисплее (125).
[0026] После постпроизводства (115) видеоданные конечной продукции (117) могут быть доставлены в блок (120) кодирования для подачи далее по цепочке на устройства декодирования и воспроизведения, такие как телевизионные приемники, телеприставки, кинотеатры и т. п. В некоторых вариантах осуществления блок (120) кодирования может включать в себя аудио- и видеокодеры, например определяемые форматами передачи ATSC, DVB, DVD, Blu-Ray и т. д., для формирования кодированного битового потока (122). В приемнике кодированный битовый поток (122) декодируется блоком (130) декодирования для формирования декодированного сигнала (132), который идентичен сигналу (117) или является его хорошим приближением. Приемник может быть подсоединен к целевому дисплею (140), характеристики которого могут абсолютно отличаться от характеристик контрольного дисплея (125). В этом случае можно использовать блок (135) управления отображением для сопоставления динамического диапазона декодированного сигнала (132) и характеристик целевого дисплея (140) путем формирования сопоставленного дисплею сигнала (137).
[0027] Квантизация сигнала
[0028] В настоящее время большинство цифровых интерфейсов для передачи видео, таких как последовательный цифровой интерфейс (Serial Digital Interface, SDI), ограничено 12 битами на пиксель в расчете на компонент. Более того, большинство стандартов сжатия, таких как H.264 (или AVC) и H.265 (или HEVC), ограничено 10 битами на пиксель в расчете на компонент. Поэтому для поддержки контента ВДД с динамическим диапазоном от приблизительно 0,001 до 10 000 кд/м2 (или нитов) в рамках существующих инфраструктур и стандартов сжатия требуется эффективное кодирование и/или квантизация.
[0029] Используемый в настоящем документе термин «ПК» означает перцепционную квантизацию амплитуды яркости. Зрительная система человека реагирует на повышение уровней освещенности весьма нелинейным образом. На способность человека видеть стимул влияют освещенность этого стимула, размер стимула, пространственные частоты, составляющие стимул, и уровень освещенности, к которому адаптировались глаза в конкретный момент времени при просмотре стимула. В предпочтительном варианте осуществления функция перцепционного квантизатора сопоставляет линейные входные уровни серого с выходными уровнями серого, которые лучше соответствуют порогам контрастной чувствительности зрительной системы человека. Примеры функций сопоставления ПК (или ЭОПФ) описаны в стандарте SMPTE ST 2084:2014 «High Dynamic Range EOTF of Mastering Reference Displays», который включен в настоящий документ путем ссылки во всей своей полноте, где с учетом фиксированного размера стимула для каждого уровня освещенности (т. е. уровня стимула) минимальный видимый шаг контраста при этом уровне освещенности выбирают в соответствии с наиболее чувствительным уровнем адаптации и наиболее чувствительной пространственной частотой (согласно моделям ЗСЧ). По сравнению с обычной гамма-кривой, которая представляет кривую реакции физического устройства с катодно-лучевой трубкой (КЛТ) и в то же время может иметь очень грубое сходство с тем, как реагирует зрительная система человека, кривая ПК имитирует фактическую зрительную реакцию зрительной системы человека с помощью относительно простой функциональной модели.
[0030] Например, согласно стандарту SMPTE ST 2084, при 1 кд/м2 одно значение 12-битового кода соответствует относительному изменению приблизительно на 0,0048 кд/м2; однако при 1000 кд/м2 одно значение 12-битового кода соответствует относительному изменению приблизительно на 2,24 кд/м2. Эта нелинейная квантизация необходима для приспособления к нелинейной контрастной чувствительности зрительной системы человека (ЗСЧ).
[0031] Другой пример перцепционно-квантизированной ЭОПФ представлен в документе «Chromaticity based color signals for wide color gamut and high dynamic range», by J. Stessen et al., ISO/IEC JTC1/SC29/WG11 MPEG2014/M35065, Oct. 2014, который включен в настоящий документ путем ссылки во всей своей полноте.
[0032] Контрастная чувствительность ЗСЧ зависит не только от освещенности, но также и от характеристик маскирования содержимого изображения (в особенности от шума и текстуры), как и от состояния адаптации ЗСЧ. Другими словами, из-за артефактов квантизации, обусловленных текстурой и шумовой маской, в зависимости от уровня шума или характеристик текстуры изображения содержимое изображения может быть квантизировано с более крупными шагами квантизации по сравнению с предполагаемыми ПК или гамма-квантизаторами. Квантизация ПК описывает лучшее, что может сделать ЗСЧ, и что имеет место при отсутствии шума или маскирования на изображении. Тем не менее на многих изображениях (кадрах видео) присутствует значительное маскирование.
[0033] Для повышения уровня квантизации и получения возможности представления изображений ВДД при 10 или менее битах на компонент цвета, помимо шума и маскирования текстуры, могут быть также учтены другие характеристики зрительного поведения, такие как блики оптической системы и локальная адаптация. Используемые в настоящем документе термины «контент-адаптивная ПК» или «адаптивная ПК», для краткости, означают способы адаптивного регулирования перцепционно квантизированных изображений на основе их содержимого.
[0034] На ФИГ. 1B изображен пример процесса для адаптивной ПК в соответствии с вариантом осуществления. При наличии входных кадров (117) блок (150) прямого изменения формы анализирует вход и ограничения кодирования, затем формирует функции сопоставления кодового слова, которые сопоставляют входные кадры (117) и повторно квантизированные выходные кадры (152). Например, вход (117) может быть гамма-кодированным или ПК-кодированным в соответствии с определенной ЭОПФ. В некоторых вариантах осуществления информация о процессе изменения формы может сообщаться расположенным далее по цепочке устройствам (таким как декодеры) с помощью метаданных. После кодирования (120) и декодирования (130) декодированные кадры (132) могут быть обработаны блоком (160) обратного изменения формы, который преобразовывает повторно квантизированные кадры (132) обратно в исходный домен ЭОПФ (например, гамма или ПК) для дальнейшей обработки далее по цепочке, такой как процесс (135) управления отображением, обсужденный ранее. В некоторых вариантах осуществления функция (160) обратного изменения формы может быть объединена с деквантизатором в декодере (130), например, как часть деквантизатора в видеодекодере AVC или HEVC.
[0035] Адаптивная ПК
[0036] На ФИГ. 2 изображен пример процесса для контент-адаптивной перцепционной квантизации в соответствии с вариантом осуществления настоящего изобретения. Как показано на ФИГ. 2, при наличии последовательности изображений (например, видеокадров) (117) блок (205) используется для формирования шумовой маски с целью создания изображения шумовой маски, которое характеризует каждый пиксель входного изображения с точки зрения его значимости для восприятия. На этапе (210) изображение шумовой маски в сочетании с исходными данными изображения используется для формирования гистограммы шумовой маски. Блок (215) оценивает число минимальных битов, необходимых для каждого интервала гистограммы, сформированной на этапе (210), и, наконец, блок (220) кодирования кодового слова рассчитывает функцию сопоставления для преобразования входного сигнала (117) в его квантизированный выходной сигнал. Каждый из этих этапов описан более подробно далее.
[0037] Формирование шумовой маски
[0038] Основная идея адаптивной ПК состоит в распределении меньшего числа битов в областях изображения с наличием шума или высокой текстуры и большего числа битов в областях изображения, которые воспринимаются как не содержащие шума или более гладкие. При наличии входного изображения (117) блок (205) формирования шумовой маски создает и оценивает маскирующий шум для каждого пикселя изображения. В некоторых вариантах осуществления вход (117) может быть уже кодированным с помощью гамма- или ПК-квантизатора. В некоторых вариантах осуществления входное изображение (117) может быть в линейном пространстве. На ФИГ. 3 изображен пример процесса формирования шумовой маски в соответствии с вариантом осуществления. Некоторые другие варианты осуществления могут формировать шумовые маски с применением известных в данной области техники альтернативных способов измерения локальной энтропии изображений, таких как фильтрация по энтропии методом скользящего окна, фильтрация по стандартному отклонению методом скользящего окна или фильтрация по диапазону методом скользящего окна.
[0039] Пусть
Figure 00000001
 — это p-й пиксель подвергающегося квантизации компонента цвета (например, освещенности) в j-ом кадре входной последовательности (117), нормализованный относительно [0 1). Пусть
Figure 00000002
и
Figure 00000003
 — это минимальное и максимальное значения пикселя в этом кадре, или
[0040]
Figure 00000004
,
[0041]
Figure 00000005
. (1)
[0042] Как показано на ФИГ. 3, в блоке (305) к кадру Ij изображения применяется первый фильтр нижних частот. В варианте осуществления этот фильтр имитирует характеристики зрительной системы человека. В зависимости от имеющихся вычислительных возможностей этот фильтр может меняться от очень простого фильтра, вроде прямоугольного фильтра или фильтра Гаусса, до более сложных групп фильтров, например реализующих преобразование Cortex. В варианте осуществления первый фильтр может быть двухмерным фильтром Гаусса
Figure 00000006
с опорным диапазоном rL и дисперсией
Figure 00000007
(например, rL = 9 и
Figure 00000008
= 3 или rL = 33 и
Figure 00000008
= 4). Тогда его выход (L) можно выразить как
[0043]
Figure 00000009
, (2)
[0044] где символ
Figure 00000010
обозначает свертку. Учитывая выход первого фильтра, высокочастотные компоненты входного кадра могут быть выделены в блоке (310) как
[0045]
Figure 00000011
. (3)
Затем выход блока (310) может быть отфильтрован еще раз вторым фильтром нижних частот (315), чтобы сформировать шумовую маску (H). Это делается для удовлетворения точности низкой фазы маскирования ЗСЧ (то есть в нулевых пересечениях маскирующего сигнала все еще присутствует маскирование). В варианте осуществления второй ФНЧ может также быть фильтром Гаусса с опорным диапазоном rH и дисперсией
Figure 00000012
(например, rH = 9,
Figure 00000012
= 3). Тогда шумовую маску (H) можно выразить как
Figure 00000013
. (4)
[0046] В варианте осуществления параметры первого и второго фильтров нижних частот могут быть одинаковыми. В предпочтительном варианте осуществления с целью улучшения эффективности вычислений первый и второй фильтры нижних частот выполнены с возможностью отделения. В варианте осуществления может быть использован дополнительный блок (320) для распознавания пикселей Hjp, которые можно игнорировать в последующей обработке, так как они могут вносить систематическую ошибку в процесс адаптивной квантизации. Например, если изображение включает в себя рамку «почтовый ящик» (то есть черные пиксели, которые могут обрамлять исходное изображение, чтобы оно удовлетворяло определенному размеру кадра или соотношению сторон), то относящиеся к почтовому ящику пиксели можно игнорировать. Значения, относящиеся к границам изображения или границам почтового ящика, тоже можно игнорировать, так как выход фильтров нижних частот предполагает, что данные на этих границах заполняются постоянными значениями, которые будут генерировать более низкие значения шума. Пусть Ωj — это набор всех действительных рассматриваемых пикселей, тогда конечную выходную шумовую маску (322) можно выразить как
[0047]
Figure 00000014
. (5)
[0048] Формирование гистограммы шумовой маски
[0049] Пусть BI — это глубина цвета входного изображения (117) (например, BI = 16), и пусть
Figure 00000015
, тогда динамический диапазон от 0 до K - 1 можно разбить на M интервалов с равными значениями интервалов пикселей W, то есть W = K / M. В варианте осуществления для j-го кадра можно сформировать гистограмму шума bj(m), где m — m-й интервал гистограммы (m = 0, 1, 2,…M - 1), следующим образом.
[0050] a) В исходном изображении определить все пиксели (
Figure 00000016
) со значениями пикселя в диапазоне
Figure 00000017
.
[0051] b) Среди этих пикселей выбрать минимальный Hj(i), поскольку, как описано ранее, вертикальная проекция маскирования не является двухмерной картой.
[0052] Или учитывая, что
[0053]
Figure 00000018
,
[0054]
Figure 00000019
. (6)
[0055] Отметим, что иногда определенные интервалы могут быть пустыми, так как в диапазоне пикселей этого интервала могло не оказаться никаких пикселей изображения. Индексы этих интервалов можно отметить, и их состояние рассмотрим позже.
[0056] Значения адаптивной ПК могут быть скорректированы на уровне кадра или на уровне сцены. Используемые в настоящем документе термины «сцена» или «снимок» для видеопоследовательности могут относиться к серии последовательных кадров в видеосигнале, совместно использующих похожие характеристики цвета и динамического диапазона. Ввиду последовательного характера предсказания видео в большинстве форматов сжатия видео, возможно, предпочтительно регулировать параметры квантизации только на границах, которые совпадают с типичными границами видеокодера, такими как смены сцен или новые группы кадров (ГК). Следовательно, при наличии сцены с F кадрами и гистограмм шумового маскирования bj(m), основанных на кадрах, можно вывести основанную на сцене гистограмму шумового маскирования b(m) как
[0057]
Figure 00000020
. (7)
[0058] В варианте осуществления в предположении, что верхняя граница шума составляет 1, интервалам шума, для которых не существует значений пикселя на всей сцене, можно присвоить максимально возможное значение уровня шума, равное 1. В некоторых вариантах осуществления отсутствующие интервалы можно также интерполировать по соседним интервалам. Для j = 1, 2,…, F основанные на сцене максимальное и минимальное значения пикселя можно также сформировать как
[0059]
Figure 00000021
,
[0060]
Figure 00000022
. (8)
[0061] На ФИГ. 4 изображен пример основанной на сцене гистограммы маскирования шумом в случае сцены ВДД для BI = 16 и M = 64 интервала. В этом примере темные области включают в себя более высокие уровни маскирующего шума, чем средние тона и яркие участки.
[0062] Расчет глубины цвета на интервал гистограммы
[0063] При наличии уровня шума bm для каждого интервала в гистограмме шумовой маски следующим шагом будет определение числа битов, которые необходимо распределить каждому интервалу. В варианте осуществления такое сопоставление может быть определено на основании результатов экспериментального исследования с участием пользователей. Например, в одном таком исследовании пользователям показывали для оценки тестовые изображения, квантизированные по различным глубинам цвета, причем перед квантизацией к изображениям добавляли гауссов шум. В качестве примера на ФИГ. 5 изображены результаты исследования с участием пользователей, в котором использовались фильтры Гаусса с rL = 9 и
Figure 00000023
 = 3. Например, для уровня шумовой маски 2-10 необходимая глубина цвета составляет 8 бит. Как и ожидалось, ФИГ. 5 показывает, что области изображения с более высокими уровнями маскирующего шума могут достигать полной визуальной прозрачности при меньших глубинах цвета. И наоборот, чем более гладкое изображение, тем большая глубина цвета необходима для точного представления без потерь для восприятия.
[0064] Рассмотрим набор пар данных (
Figure 00000024
, i = 1, 2, 3,…, N, где для i-го входного уровня шума
Figure 00000025
было определено (например, с помощью исследований с участием пользователей или иных методик), что соответствующая минимальная глубина цвета равна
Figure 00000026
. В варианте осуществления эти пары могут быть выражены как функция отношения маскирующего шума к глубине цвета
[0065]
Figure 00000027
. (9)
[0066] Например, без ограничения, при использовании простой линейной интерполяции для
Figure 00000028
,
[0067]
Figure 00000029
. (10)
[0068] В варианте осуществления сопоставление
Figure 00000027
может быть рассчитано с помощью таблицы подстановки. В варианте осуществления сопоставление (220) кодового слова, возможно, будет удобнее выполнять на основе числа необходимых кодовых слов в пределах интервала гистограммы, а не путем непосредственного использования данных глубины цвета. Этот случай изучен в следующем разделе.
[0069] Формирование сопоставления кодового слова
[0070] Пусть BT — это целевая глубина цвета для повторно квантизированного сигнала (152) (например, BT = 10 бит/пиксель в расчете на компонент цвета), тогда выход будет сопоставляться с помощью
Figure 00000030
кодовых слов. В варианте осуществления диапазон кодовых слов нормализуется по единице, поэтому пусть
[0071]
Figure 00000031
(11)
[0072] обозначает число нормализованных кодовых слов на интервал m. Например, если Qm = 9, BI = 16 и BT = 10, то Dm = 2-17.
[0073] Пусть
[0074]
Figure 00000032
(12)
[0075] обозначает число нормализованных кодовых слов на вход i
Figure 00000033
, тогда di можно считать нижней границей для числа необходимых кодовых слов на входное кодовое слово. Общее число нормализованных кодовых слов для всех входных кодовых слов, D, ограничивается 1, или
[0076]
Figure 00000034
. (13)
[0077] На ФИГ. 6A изображен пример графика числа нормализованных кодовых слов (di (605)), которые рассчитаны для одного видеокадра при BI = 16 (входные кодовые слова заключаются в пределах от 0 до 65 535). График показывает также число нормализованных кодовых слов при простом усечении с 16 бит либо до 9 наиболее значимых бит (610), либо до 10 наиболее значимых бит (615). Как показано на ФИГ. 6A, простого усечения до 10 бит недостаточно, чтобы удовлетворить требования по глубине цвета для определенных входных пикселей в диапазоне светлых тонов.
[0078] Пусть U = 1 - D — это число неиспользуемых нормализованных кодовых слов. Эти неиспользуемые кодовые слова необходимо переназначить входным кодовым словам в соответствии с заданным критерием. В варианте осуществления, без ограничения, может быть использована любая одна из следующих схем распределения (или их сочетание).
[0079] i) Пропорциональное распределение
[0080] По этому критерию для входа vL ≤ i ≤ vH дополнительные слова назначаются на основе существующего распределения, или
[0081]
Figure 00000035
, (14)
[0082] где
Figure 00000036
 — обновленное число нормализованных значений кодовых слов.
[0083] ii) Распределение с постоянным смещением
[0084] По этому критерию избыточные кодовые слова распределяются равномерно, или для входа vL ≤ i ≤ vH,
[0085]
Figure 00000037
. (15)
[0086] iii) Распределение на основе гистограммы
[0087] Пусть hi — это гистограмма исходного входного изображения, то есть для vL ≤ i ≤ vH hi = k означает, что среди P пикселей существуют k пикселей со значением i. Тогда по этому критерию кодовые слова назначаются согласно значениям гистограммы, или для входа vL ≤ i ≤ vH
[0088]
Figure 00000038
. (16a)
[0089] В качестве варианта можно разделить входной диапазон на M поддиапазонов (например, для M = 3, черные, средние и светлые тона), и рассчитать гистограмму Hm (m = 1, 2, …, M), обозначающую общее число входных пикселей в m-ом поддиапазоне, тогда для i, принадлежащего m-му поддиапазону пикселей
[0090]
Figure 00000039
. (16b)
[0091] iv) Распределение на основе скаляра
[0092] Его можно рассматривать как комбинацию основанного на гистограмме распределения (например, рассмотрим гистограмму только с двумя интервалами, один — для темных тонов, другой — для светлых тонов) и распределения с постоянным смещением. Пусть α — это параметр между 0 и 1, означающий относительную важность «темных тонов» в сравнении со «светлыми» тонами, тогда для входа vL ≤ i ≤ vH, согласно этому критерию
[0093]
Figure 00000040
. (17)
[0094] Если U = 0, то перераспределение кодовых слов невозможно. При таком сценарии, который будет обсуждаться также позже, кодер может решить либо увеличить целевую глубину цвета, добавив шум к входному изображению для эффективного сокращения распределения di, либо ничего не делать и положиться на декодер и фильтрацию при постобработке для снижения наблюдаемого шума квантизации. Оставшиеся этапы обработки могут быть выполнены непосредственно на данных
Figure 00000036
; однако в варианте осуществления эти данные могут быть сглажены фильтром нижних частот, например (2N + 1)-отводным усредняющим фильтром, в целях улучшения производительности.
[0095] Пусть
[0096]
Figure 00000041
= 0 для i < vL и i > vH
[0097] и
[0098]
Figure 00000042
в противном случае, (18)
[0099] где
Figure 00000043
, k = -N, -N + 1, …, N — коэффициенты фильтра для сглаживающего фильтра (например,
Figure 00000044
. В варианте осуществления длина этого фильтра достаточно большая, чтобы охватывать по меньшей мере размер двух последовательных интервалов гистограммы шумовой маски (например, N = W). Более крупные фильтры будут сглаживать лучше, но требуют большей вычислительной мощности.
[0100] На ФИГ. 6B изображен пример графика данных
Figure 00000045
 (620), представляющих сглаженные данные
Figure 00000036
, рассчитанные по схеме распределения с постоянным смещением. В некоторых случаях сумма значений
Figure 00000045
может превышать 1, следовательно, эти значения необходимо повторно нормализовать, поскольку
[0101]
Figure 00000046
,
[0102]
Figure 00000047
. (19)
[0103] Значения si должны по-прежнему удовлетворять ограничению нижней границей, а именно:
[0104]
Figure 00000048
для vL ≤ i ≤ vH. (20)
[0105] Если
[0106]
Figure 00000049
, (21)
[0107] то в j-ом кадре для данного входного пикселя
Figure 00000050
(i
Figure 00000051
(0,
Figure 00000052
- 1) конечное нормализованное повторно квантизированное значение
Figure 00000053
можно выразить как
[0108]
Figure 00000054
. (22)
[0109] В варианте осуществления значения FL(i) могут быть сохранены в предварительной рассчитанной таблице подстановки (LUT). В альтернативном варианте осуществления значения
Figure 00000055
могут быть также сопоставлены с денормализованными значениями в диапазоне от 0 до
Figure 00000056
- 1. Пример сопоставления (630) FL(i) на основе данных (620) показан на ФИГ. 6C.
[0110] На ФИГ. 7 изображен пример обобщенных этапов процесса (220) сопоставления кодовых слов. При наличии в качестве входных данных требуемой глубины цвета на интервал гистограммы шума (Qm) (217), входной глубины цвета (BI) и целевой глубины цвета (BT) на этапе (705) производится расчет нижней границы нормализованного числа требуемых кодовых слов на ввод Ijp = i согласно уравнению (12). На этапе (710) любые неиспользованные кодовые слова перераспределяются в соответствии с любой из ряда схем перераспределения, например, как описано уравнениями (14–17). Необязательно, на этапе (715) перераспределенные данные
Figure 00000036
фильтруются (например, см. уравнение (18)) для формирования сглаженного нормализованного числа кодовых слов, которые на этапе (720) используются для формирования конечного сопоставления кодовых слов на основе функции накопительной суммы.
[0111] Адаптивная квантизация на основе кадра
[0112] Как обсуждалось ранее, согласно уравнению (7), в варианте осуществления адаптивная квантизация может основываться на данных гистограммы маскирования шумом, собранных по всем многочисленным кадрам сцены. Сбор данных по всем многочисленным кадрам может вносить значительную задержку, которая может быть неприемлемой в условиях, когда адаптивную квантизацию необходимо выполнять в масштабе реального времени. В другом варианте осуществления сопоставление (или изменение формы) кодовых слов может быть выполнено с использованием данных из первого кадра сцены; однако сопоставление можно периодически корректировать для компенсации небольших колебаний в пределах кадров сцены. Такой процесс описан с помощью псевдокода в таблице 1.
[0113] Таблица 1. Адаптивная квантизация на основе кадра
[0114]
// выберите пороги
Figure 00000057
,
Figure 00000058
и
Figure 00000059
(небольшие числа, например 0,3).
//
Figure 00000060
= {0};
Figure 00000061
= K = 
Figure 00000052
;
Figure 00000062
= -1;
Flag_New_LUT = 1; // Принудительное формирование нового кодового слова
for( j = 0 ; j < F; j ++ ) { // проход по каждому кадру
расчет уровня шума
Figure 00000063
для кадра j //См. уравнение (6)
получение экстремальных значений (
Figure 00000064
,
Figure 00000065
)
получение кривой
Figure 00000066
для кадра j // См. уравнение (12)
// если требуемая глубина цвета в текущем кадре превышает допуск в текущей LUT
// или мин. либо макс. значение выходит за пределы заданного допустимого отклонения, то
// необходимо создать новую LUT для кодовых слов
if((
Figure 00000067
) || (
Figure 00000068
) || (
Figure 00000069
) ){
Flag_New_LUT = 1
}
if(Flag_New_LUT == 1) { // необходимо создать новую LUT
установить нижнее экстремальное значение с допуском
Figure 00000070
установить верхнее экстремальное значение с допуском
Figure 00000071
с помощью текущей кривой
Figure 00000066
построить
Figure 00000072
построить прямую LUT
Figure 00000073
// см. уравнение (21)
Flag_New_LUT = 0
}
}
[0115] Обратное изменение формы
[0116] В некоторых вариантах осуществления может быть применено обратное изменение (160) формы для обращения воздействия прямого изменения (150) формы. В варианте осуществления таблица подстановки для обратной квантизации может быть построена следующим образом.
[0117] a) Для каждого кодового слова в квантизированном домене (sc) определить все входные слова (vi), для которых FL(vi) = sc. Обозначим эту группу как
Figure 00000074
; далее следующее.
[0118] b) Построить функцию (BL(sc) обратного изменения формы как функцию от
Figure 00000075
.
[0119] Например, в варианте осуществления, без ограничения, BL(sc) можно построить как среднее значение всех кодовых слов, которые принадлежат
Figure 00000075
, или
если
Figure 00000076
 > 0,
тогда
[0120]
Figure 00000077
, (23)
где
Figure 00000078
 — это число элементов во множестве
Figure 00000075
. Если
Figure 00000078
 = 0 для любых значений sc, то в варианте осуществления эти значения можно интерполировать из соседних ненулевых значений.
[0121] Альтернативные варианты осуществления
[0122] Как описано ранее, в одном варианте осуществления предлагаемая адаптивная квантизация может быть выполнена перед этапом (120) кодирования (сжатия), чтобы удовлетворить связанные с глубиной цвета ограничения существующих кодеков. После квантизации данные, относящиеся к функции (630) сопоставления изменения формы (например, функции обратного сопоставления), могут быть внедрены как метаданные (например, как коэффициенты многосегментной линейной функции, или полиномиальной функции 2-го порядка, или как таблица подстановки), чтобы обеспечить выполнение декодером обратного сопоставления. Или же, если нет удовлетворительной функции изменения формы, которая может работать в пределах ограничений целевой глубины цвета, в варианте осуществления можно, как известно в данной области техники, добавить шум или псевдослучайный сигал к исходным гладким областям изображения, чтобы улучшить маскирование ошибок квантизации. Такой шум можно добавить в соответствии с выходом этапа (210) формирования гистограммы шумовой маски.
[0123] В некоторых вариантах осуществления процесс контент-адаптивной перцепционной квантизации можно дополнительно адаптировать и корректировать в соответствии с информацией, полученной декодером. Например, если расположенное ниже по цепочке устройство подсоединено к дисплею с датчиками для измерения интенсивности окружающего света или расстояния просмотра, такая информация может быть отправлена вверх по цепочке в кодер с целью корректировки либо фильтров для формирования шумовой маски (205), либо других параметров процесса адаптивной квантизации (например, этапа перераспределения). Например, если окружающий свет сильный, то для темных областей требуется меньше этапов квантизации.
[0124] В некоторых вариантах осуществления вместо выполнения ввода шума или псевдослучайного сигнала на стадии кодера эта операция может быть выполнена в декодере на основе информации метаданных, посланных кодером (например, гистограммы шумовой маски).
[0125] Как будет понятно специалистам в области обработки изображений, предлагаемые методики контент-адаптивной квантизации могут быть применены к самым разным другим приложениям для обработки изображений, которые снижают требования к глубине цвета путем применения аддитивного шума, псевдослучайного сигнала или обрезания битов.
[0126]
Пример реализации компьютерной системы
[0127] Варианты осуществления настоящего изобретения могут быть реализованы с помощью компьютерной системы, систем, выполненных в виде электронных цепей и компонентов, устройства на интегральной схеме (ИС), такого как микроконтроллер, программируемой пользователем вентильной матрицы (ППВМ) или иного выполненного с возможностью конфигурирования или программирования логического устройства (ПЛУ), процессора с дискретным временем или процессора цифровой обработки сигналов (ПЦОС), специализированной интегральной схемы (СИС) и/или аппарата, который включает в себя одну или более таких систем, устройств или компонентов. Компьютер и/или ИС могут выполнять или исполнять команды или управлять командами, относящимися к адаптивной перцепционной квантизации изображений с улучшенным динамическим диапазоном, таким образом, как описано в настоящем документе. Компьютер и/или ИС могут рассчитывать любые из разнообразных параметров или значений, которые относятся к процессам адаптивной перцепционной квантизации, описанным в настоящем документе. Варианты осуществления изображения и видео могут быть реализованы в виде оборудования, программного обеспечения, встроенного программного обеспечения и их различных комбинаций.
[0128] Определенные реализации изобретения включают в себя процессоры вычислительных машин, которые исполняют программные команды, заставляющие процессор выполнять способ настоящего изобретения. Например, один или более процессоров в дисплее, кодер, телеприставка, транскодер и т. п. могут реализовывать способы, относящиеся к адаптивной перцепционной квантизации изображений ВДД, как описано выше, путем исполнения программных команд в памяти для программ, доступной процессорам. Изобретение также может быть выполнено в виде программного продукта. Программный продукт может включать в себя любой нетранзиторный носитель, который содержит набор машиночитаемых сигналов, содержащих команды, исполнение которых процессором данных заставляет процессор данных выполнять способ настоящего изобретения. Согласно изобретению, программные продукты могут быть в любой из самых разных форм. Программные продукты могут включать в себя, например, физический носитель, такой как магнитный накопитель данных, в том числе гибкие дискеты, накопители на жестком диске, оптические накопители данных, в том числе CD ROM, DVD, электронные накопители данных, в том числе ПЗУ, флэш-ОЗУ и т.п. Машиночитаемые сигналы в программном продукте могут быть, необязательно, сжаты или зашифрованы.
[0129] Если не указано иное, при упоминании выше компонента (например, программного модуля, процессора, узла, устройства, схемы и т. д.) ссылку на этот компонент (в том числе ссылку на «средства») следует понимать как включение в качестве эквивалента этого компонента любого компонента, который выполняет функцию описываемого компонента (например, который функционально эквивалентен), включая компоненты, которые не равносильны по структуре описываемой структуре, выполняющей функцию в иллюстрируемых примерах вариантов осуществления изобретения.
[0130]
Эквиваленты, расширения, альтернативы и прочие положения
[0131] Таким образом, описаны примеры вариантов осуществления, которые относятся к эффективной перцепционной квантизации изображений ВДД. В приведенном выше описании варианты осуществления настоящего изобретения были описаны со ссылкой на многочисленные конкретные подробности, которые могут меняться в зависимости от реализации. Поэтому единственным и исключительным указателем того, что представляет собою изобретение и подразумевается заявителями в качестве изобретения, является набор пунктов формулы изобретения, изданных на основе данной заявки, в той конкретной форме, в которой издана эта формула изобретения, включая любое последующее исправление. Любые определения, в явной форме изложенные в настоящем документе для терминов, содержащихся в такой формуле изобретения, имеют преимущественную силу для таких терминов, используемых в формуле изобретения. Таким образом, никакое ограничение, элемент, свойство, характерный признак, преимущество или атрибут, не изложенный в явной форме в формуле изобретения, никоим образом не должен ограничивать объем этой формулы изобретения. Соответственно, описание и графические материалы следует рассматривать в иллюстративном, а не в ограничивающем смысле.

Claims (60)

1. Способ перцепционной квантизации изображений с помощью процессора, при этом способ содержит этапы, на которых:
получают процессором доступ к входному изображению (117) с входной глубиной цвета;
применяют к входному изображению процесс (205) формирования шумовой маски для формирования изображения шумовой маски, при этом изображение шумовой маски характеризует пиксели входного изображения с точки зрения их значимости для восприятия относительно шума квантизации маски;
формируют гистограмму (212) шумовой маски на основе входного изображения и изображения шумовой маски;
применяют функцию (215) отношения уровня маскирующего шума к глубине цвета для одного или более интервалов гистограммы шумовой маски с целью формирования значений минимальной глубины цвета для одного или более интервалов;
формируют функцию (220) сопоставления кодового слова на основе значений входной глубины цвета, минимальной глубины цвета и целевой глубины цвета; и
применяют функцию сопоставления кодового слова к входному изображению для формирования выходного изображения с целевой глубиной цвета, которая ниже входной глубины цвета.
2. Способ по п. 1, в котором процесс формирования шумовой маски содержит этапы, на которых:
применяют первый фильтр (305) к входному изображению для формирования первого фильтрованного изображения (L);
формируют второе изображение путем расчета абсолютного значения разности между входным изображением и первым фильтрованным изображением; и
формируют изображение (H) шумовой маски путем применения второго фильтра ко второму изображению.
3. Способ по п. 2, в котором первый фильтр представляет собой фильтр Гаусса нижних частот.
4. Способ по п. 2, в котором второй фильтр представляет собой фильтр Гаусса нижних частот.
5. Способ по п. 2, дополнительно содержащий этап, на котором
применяют процесс выбора пикселей для изображения шумовой маски с целью устранения пикселей, которые считаются несущественными для процесса квантизации.
6. Способ по п. 1, в котором формирование гистограммы шумовой маски содержит этапы, на которых:
рассчитывают динамический диапазон входного изображения на основе входной глубины цвета;
разбивают динамический диапазон на M поддиапазонов, при этом M является целым числом больше 1;
для i-го поддиапазона:
идентифицируют все пиксели входного изображения, которые имеют значения пикселя в пределах i-го поддиапазона;
для каждого пикселя в i-м поддиапазоне:
определяют его соответствующее значение шумовой маски в изображении шумовой маски;
определяют минимальное из значений шумовой маски для всех пикселей в i-м поддиапазоне; и
назначают i-му интервалу в гистограмме шумовой маски минимальные значения шумовой маски для пикселей в i-м поддиапазоне.
7. Способ по п. 1, в котором входное изображение представляет собой изображение высокого динамического диапазона, кодированное в соответствии с гамма-кодированием или кодированием с перцепционной квантизацией амплитуды яркости (ПК), как определено в стандарте SMPTE ST 2084.
8. Способ по п. 1, в котором функция отношения уровня маскирующего шума к глубине цвета формируется в соответствии с результатами исследования восприятия пользователями.
9. Способ по п. 1, в котором формирование функции сопоставления кодового слова дополнительно содержит этапы, на которых:
формируют нижнюю границу нормализованного числа требуемых кодовых слов в целевой глубине цвета на основе значений минимальной глубины цвета, входной глубины цвета и целевой глубины цвета;
распределяют неиспользованные нормализованные кодовые слова по всему динамическому диапазону входного изображения в соответствии со схемой распределения, чтобы сформировать обновленные нормализованные числа требуемых кодовых слов; и
формируют функцию сопоставления кодового слова путем расчета накопительной суммы обновленных нормализованных чисел требуемых кодовых слов.
10. Способ по п. 9, дополнительно содержащий этап, на котором фильтруют обновленные нормализованные числа требуемых кодовых слов с помощью фильтра нижних частот перед формированием функции сопоставления кодового слова.
11. Способ по п. 10, в котором фильтр нижних частот представляет собой (2N + 1)-отводный усредняющий фильтр, при этом N — положительное целое число.
12. Способ по п. 9, в котором схема распределения представляет собой схему пропорционального распределения, где для i-го значения входного пикселя
Figure 00000079
,
при этом
Figure 00000080
обозначает обновленное нормализованное число значений кодовых слов, d i обозначает нормализованное число требуемых кодовых слов, D обозначает сумму значений d i и = 1 - D.
13. Способ по п. 9, в котором схема распределения представляет собой схему распределения с постоянным смещением, где для i-го значения входного пикселя
Figure 00000081
,
при этом
Figure 00000080
обозначает обновленное нормализованное число значений кодовых слов, d i обозначает нормализованное число требуемых кодовых слов, если D обозначает сумму значений d i , то = 1 - D, v H обозначает максимальное значение входного пикселя, а v L обозначает минимальное значение входного пикселя.
14. Способ по п. 9, в котором схема распределения представляет собой схему распределения на основе гистограммы, где для i-го значения входного пикселя
Figure 00000082
,
при этом
Figure 00000080
обозначает обновленное нормализованное число значений кодовых слов, d i обозначает нормализованное число требуемых кодовых слов, h i обозначает число пикселей входного изображения со значением, равным i, если D обозначает сумму значений d i , то = 1 - D, а P обозначает общее число рассматриваемых пикселей входного изображения.
15. Способ по п. 9, в котором схема распределения представляет собой схему распределения на основе скаляра, где для i-го значения входного пикселя
Figure 00000083
,
при этом
Figure 00000080
обозначает обновленное нормализованное число значений кодовых слов, d i обозначает нормализованное число требуемых кодовых слов, если D обозначает сумму значений d i , то = 1 - D, α — это скалярная величина между 0 и 1, v H обозначает максимальное значение входного пикселя, а v L обозначает минимальное значение входного пикселя.
16. Способ по п. 9, в котором формирование функции сопоставления кодового слова для значения входного пикселя i содержит расчет
Figure 00000084
,
при этом значения s k выводятся на основе обновленного нормализованного числа значений кодовых слов.
17. Способ по п. 16, в котором формирование выходного изображения содержит расчет:
Figure 00000085
при этом для пикселя I p  i входного изображения s p обозначает соответствующий нормализованный квантизированный выходной пиксель, v H обозначает максимальное значение входного пикселя, а v L обозначает минимальное значение входного пикселя.
18. Способ по п. 1, в котором значения минимальной глубины цвета рассчитываются на основе значений минимальной глубины цвета, вычисленных по нескольким последовательным кадрам видеосцены, которая включает входное изображение.
19. Способ по п. 9, дополнительно содержащий этап, на котором
в случае определения того, что целевая глубина цвета не может быть удовлетворена за счет этапа распределения, добавляют шум или псевдослучайный сигнал к входному изображению в соответствии с изображением шумовой маски и формируют новую нижнюю границу нормализованного числа требуемых кодовых слов взамен нижней границы нормализованного числа требуемых кодовых слов.
20. Система адаптивной квантизации, содержащая:
процессор для приема входных кадров и формирования повторно квантизированных кадров в соответствии со способом по п. 1;
процессор для кодирования повторно квантизированных кадров для формирования кодированных кадров;
процессор для декодирования кодированных кадров для формирования декодированных кадров; и
процессор для формирования выходных кадров путем применения функции обратного изменения формы к декодированным кадрам.
21. Аппарат для перцепционной квантизации изображений, содержащий процессор и выполненный с возможностью выполнения одного из способов, изложенных в пп. 1–19.
22. Нетранзиторный машиночитаемый носитель данных с хранящейся на нем исполнимой компьютером инструкцией для выполнения способа в соответствии с любым из пп. 1–19.
RU2017130927A 2015-03-02 2016-03-01 Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном RU2678483C1 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562126925P 2015-03-02 2015-03-02
US62/126,925 2015-03-02
PCT/US2016/020230 WO2016140954A1 (en) 2015-03-02 2016-03-01 Content-adaptive perceptual quantizer for high dynamic range images

Publications (1)

Publication Number Publication Date
RU2678483C1 true RU2678483C1 (ru) 2019-01-29

Family

ID=55910328

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2017130927A RU2678483C1 (ru) 2015-03-02 2016-03-01 Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном

Country Status (8)

Country Link
US (1) US10419762B2 (ru)
EP (1) EP3266208B1 (ru)
JP (1) JP6484347B2 (ru)
KR (1) KR101939012B1 (ru)
CN (1) CN107409213B (ru)
BR (1) BR112017018893B1 (ru)
RU (1) RU2678483C1 (ru)
WO (1) WO2016140954A1 (ru)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2780495C1 (ru) * 2019-05-28 2022-09-26 Долби Лэборетериз Лайсенсинг Корпорейшн Сообщение параметров квантования
US11856232B2 (en) 2019-05-28 2023-12-26 Dolby Laboratories Licensing Corporation Quantization parameter signaling

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6374614B2 (ja) 2015-03-20 2018-08-15 ドルビー ラボラトリーズ ライセンシング コーポレイション 信号再整形近似
US10015491B2 (en) 2015-04-06 2018-07-03 Dolby Laboratories Licensing Corporation In-loop block-based image reshaping in high dynamic range video coding
US10735755B2 (en) 2015-04-21 2020-08-04 Arris Enterprises Llc Adaptive perceptual mapping and signaling for video coding
US10701359B2 (en) 2015-06-30 2020-06-30 Dolby Laboratories Licensing Corporation Real-time content-adaptive perceptual quantizer for high dynamic range images
WO2017015564A1 (en) 2015-07-22 2017-01-26 Arris Enterprises Llc System for coding high dynamic range and wide color gamut sequences
JP6608067B2 (ja) * 2015-09-23 2019-11-20 アリス エンタープライジズ エルエルシー 映像復号化器における高ダイナミックレンジ適応演算
US10311558B2 (en) 2015-11-16 2019-06-04 Dolby Laboratories Licensing Corporation Efficient image processing on content-adaptive PQ signal domain
US10165275B2 (en) 2016-01-26 2018-12-25 Dolby Laboratories Licensing Corporation Content-adaptive reshaping for high dynamic range images
US10032262B2 (en) 2016-02-02 2018-07-24 Dolby Laboratories Licensing Corporation Block-based content-adaptive reshaping for high dynamic range images
US10223774B2 (en) 2016-02-02 2019-03-05 Dolby Laboratories Licensing Corporation Single-pass and multi-pass-based polynomial approximations for reshaping functions
CN108885783B (zh) * 2016-03-23 2022-02-15 杜比实验室特许公司 编码和解码可逆制作质量单层视频信号
US10397586B2 (en) 2016-03-30 2019-08-27 Dolby Laboratories Licensing Corporation Chroma reshaping
US10645403B2 (en) 2016-05-19 2020-05-05 Dolby Laboratories Licensing Corporation Chroma reshaping for high dynamic range images
GB201611253D0 (en) 2016-06-29 2016-08-10 Dolby Laboratories Licensing Corp Efficient Histogram-based luma look matching
WO2018049335A1 (en) * 2016-09-09 2018-03-15 Dolby Laboratories Licensing Corporation Coding of high dynamic range video using segment-based reshaping
US10575028B2 (en) 2016-09-09 2020-02-25 Dolby Laboratories Licensing Corporation Coding of high dynamic range video using segment-based reshaping
JP6740866B2 (ja) * 2016-11-07 2020-08-19 株式会社デンソー 画像出力装置
JP6876822B2 (ja) 2017-03-21 2021-05-26 ドルビー ラボラトリーズ ライセンシング コーポレイション ルミナンス情報を用いた量子化パラメーター予測
WO2019032876A1 (en) 2017-08-09 2019-02-14 Sharkninja Operating Llc COOKING DEVICE AND COMPONENTS THEREOF
US10609372B2 (en) 2017-09-29 2020-03-31 Dolby Laboratories Licensing Corporation Up-conversion to content adaptive perceptual quantization video signals
MX2020008499A (es) * 2018-02-14 2020-09-25 Dolby Laboratories Licensing Corp Reconfiguracion de imagenes en codificacion de video usando la optimizacion de tasa-distorsion.
WO2020068666A1 (en) 2018-09-24 2020-04-02 Dolby Laboratories Licensing Corporation Image denoising in sdr to hdr image conversion
EP3861729A1 (en) * 2018-10-03 2021-08-11 Dolby Laboratories Licensing Corporation Reducing banding artifacts in backward-compatible hdr imaging
WO2020131494A1 (en) * 2018-12-19 2020-06-25 Dolby Laboratories Licensing Corporation Image debanding using adaptive sparse filtering
US11356623B2 (en) 2020-06-01 2022-06-07 City University Of Hong Kong System and method for processing an image
EP4172981A1 (en) * 2020-06-30 2023-05-03 Dolby Laboratories Licensing Corporation Systems and methods for ambient light compensation using pq shift
WO2022195537A1 (en) * 2021-03-17 2022-09-22 The Trustees Of Princeton University Microlens amplitude masks for flying pixel removal in time-of-flight imaging
WO2022245695A1 (en) 2021-05-21 2022-11-24 Dolby Laboratories Licensing Corporation Patch-based reshaping and metadata for volumetric video
CN115908157A (zh) * 2021-09-30 2023-04-04 想象技术有限公司 渲染3d场景的图像
WO2023215108A1 (en) 2022-05-05 2023-11-09 Dolby Laboratories Licensing Corporation Stereoscopic high dynamic range video
CN116385316B (zh) * 2023-06-01 2023-08-08 深圳市嘉润原新显科技有限公司 多目标图像动态捕捉方法及相关装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013086169A1 (en) * 2011-12-06 2013-06-13 Dolby Laboratories Licensing Corporation Device and method of improving the perceptual luminance nonlinearity - based image data exchange across different display capabilities
US20130321673A1 (en) * 2012-05-31 2013-12-05 Apple Inc. Systems and Methods for Determining Noise Statistics of Image Data
WO2014107255A1 (en) * 2013-01-02 2014-07-10 Dolby Laboratories Licensing Corporation Backward-compatible coding for ultra high definition video signals with enhanced dynamic range
WO2014160705A1 (en) * 2013-03-26 2014-10-02 Dolby Laboratories Licensing Corporation Encoding perceptually-quantized video content in multi-layer vdr coding
RU2533855C2 (ru) * 2009-03-06 2014-11-20 Конинклейке Филипс Электроникс Н.В. Способ преобразования входных данных изображения в выходные данные изображения, блок преобразования изображения для преобразования входных данных изображения в выходные данные изображения, устройство обработки изображения, устройство отображения
WO2014204865A1 (en) * 2013-06-17 2014-12-24 Dolby Laboratories Licensing Corporation Adaptive reshaping for layered coding of enhanced dynamic range signals

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU544259B2 (en) * 1980-04-16 1985-05-23 Sony Corporation Detecting + correcting errors in digital video signals
JPH02131038A (ja) 1988-11-10 1990-05-18 Pioneer Electron Corp 信号伝送装置
US6058211A (en) 1995-07-07 2000-05-02 Imec Vzw Data compression method and apparatus
KR100355375B1 (ko) 1995-11-01 2002-12-26 삼성전자 주식회사 영상부호화장치에있어서양자화간격결정방법및회로
KR100316764B1 (ko) 1996-01-19 2002-02-28 윤종용 시감특성을 이용한 영상 부호화방법 및 장치
KR100203695B1 (ko) 1996-03-22 1999-06-15 전주범 물체 기반 부호화에 있어서의 텍스쳐 분류를 위한 전처리 장치
US6807298B1 (en) 1999-03-12 2004-10-19 Electronics And Telecommunications Research Institute Method for generating a block-based image histogram
KR100344807B1 (ko) 2000-01-12 2002-07-20 엘지전자주식회사 영상 신호 보정 장치 및 방법
KR100750138B1 (ko) 2005-11-16 2007-08-21 삼성전자주식회사 인간의 시각 특성을 이용한 영상의 부호화, 복호화 방법 및장치
US8503536B2 (en) 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US7639893B2 (en) 2006-05-17 2009-12-29 Xerox Corporation Histogram adjustment for high dynamic range image mapping
US8711926B2 (en) 2007-02-08 2014-04-29 Qualcomm Incorporated Distortion estimation for quantized data
JP4155328B2 (ja) 2007-03-29 2008-09-24 株式会社日立製作所 映像表示装置
KR101350853B1 (ko) * 2007-06-29 2014-01-13 톰슨 라이센싱 이미지들에서 아티팩트들을 감소시키기 위한 장치 및 방법
US8064517B1 (en) 2007-09-07 2011-11-22 Zenverge, Inc. Perceptually adaptive quantization parameter selection
JP2009224854A (ja) 2008-03-13 2009-10-01 Toshiba Corp 画像符号化装置及び方法
US8189933B2 (en) 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
KR101256806B1 (ko) * 2008-09-30 2013-04-22 돌비 레버러토리즈 라이쎈싱 코오포레이션 고 휘도 및 고 동적 범위 디스플레이들에 대한 이미지 프로세싱에서 적응형 감마를 적용하는 시스템들 및 방법들
WO2010069366A1 (en) 2008-12-17 2010-06-24 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive quantization based on spatial activity histogram
US8761268B2 (en) 2009-04-06 2014-06-24 Intel Corporation Selective local adaptive wiener filter for video coding and decoding
US10897625B2 (en) 2009-11-20 2021-01-19 Texas Instruments Incorporated Block artifact suppression in video coding
KR101751270B1 (ko) 2010-01-25 2017-07-11 고려대학교 산학협력단 이미지 처리장치 및 방법
JP2012022021A (ja) * 2010-07-12 2012-02-02 Sony Corp 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム
WO2012079237A1 (zh) 2010-12-16 2012-06-21 北京航空航天大学 一种图像压缩中利用人眼视觉模型的小波系数量化方法
JP5960731B2 (ja) * 2011-03-02 2016-08-02 ドルビー ラボラトリーズ ライセンシング コーポレイション 局所マルチスケールトーンマッピングオペレータ
TWI690211B (zh) * 2011-04-15 2020-04-01 美商杜比實驗室特許公司 高動態範圍影像的解碼方法、其處理器非暫態可讀取媒體及電腦程式產品
TWI575933B (zh) 2011-11-04 2017-03-21 杜比實驗室特許公司 階層式視覺動態範圍編碼中之層分解技術
MX337802B (es) 2011-11-29 2016-03-18 Thomson Licensing Enmascaramiento de textura para medicion de calidad de video.
KR20130078569A (ko) 2011-12-30 2013-07-10 광운대학교 산학협력단 관심영역 기반의 화질 향상을 위한 스크린 콘텐츠 비디오 부호화/복호화 방법 및 그 장치
TR201911093T4 (tr) 2012-03-26 2019-08-21 Koninklijke Philips Nv Hdr görüntü kodlamaya ve kod çözmeye yönelik parlak bölge tabanlı aparatlar ve yöntemler.
EP2748792B1 (en) 2012-08-08 2016-12-21 Dolby Laboratories Licensing Corporation Image processing for hdr images
JP5639228B2 (ja) * 2013-06-18 2014-12-10 トムソン ライセンシングThomson Licensing 重み付け符号化する方法及びシステム
US9936199B2 (en) 2014-09-26 2018-04-03 Dolby Laboratories Licensing Corporation Encoding and decoding perceptually-quantized video content

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2533855C2 (ru) * 2009-03-06 2014-11-20 Конинклейке Филипс Электроникс Н.В. Способ преобразования входных данных изображения в выходные данные изображения, блок преобразования изображения для преобразования входных данных изображения в выходные данные изображения, устройство обработки изображения, устройство отображения
WO2013086169A1 (en) * 2011-12-06 2013-06-13 Dolby Laboratories Licensing Corporation Device and method of improving the perceptual luminance nonlinearity - based image data exchange across different display capabilities
US20130321673A1 (en) * 2012-05-31 2013-12-05 Apple Inc. Systems and Methods for Determining Noise Statistics of Image Data
WO2014107255A1 (en) * 2013-01-02 2014-07-10 Dolby Laboratories Licensing Corporation Backward-compatible coding for ultra high definition video signals with enhanced dynamic range
WO2014160705A1 (en) * 2013-03-26 2014-10-02 Dolby Laboratories Licensing Corporation Encoding perceptually-quantized video content in multi-layer vdr coding
WO2014204865A1 (en) * 2013-06-17 2014-12-24 Dolby Laboratories Licensing Corporation Adaptive reshaping for layered coding of enhanced dynamic range signals

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2780495C1 (ru) * 2019-05-28 2022-09-26 Долби Лэборетериз Лайсенсинг Корпорейшн Сообщение параметров квантования
US11856232B2 (en) 2019-05-28 2023-12-26 Dolby Laboratories Licensing Corporation Quantization parameter signaling

Also Published As

Publication number Publication date
WO2016140954A1 (en) 2016-09-09
JP6484347B2 (ja) 2019-03-13
CN107409213B (zh) 2020-10-30
KR20170113608A (ko) 2017-10-12
US10419762B2 (en) 2019-09-17
CN107409213A (zh) 2017-11-28
US20180041759A1 (en) 2018-02-08
BR112017018893B1 (pt) 2023-05-09
EP3266208B1 (en) 2019-05-08
EP3266208A1 (en) 2018-01-10
JP2018509708A (ja) 2018-04-05
KR101939012B1 (ko) 2019-01-15
BR112017018893A2 (pt) 2018-04-24

Similar Documents

Publication Publication Date Title
RU2678483C1 (ru) Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном
US10032262B2 (en) Block-based content-adaptive reshaping for high dynamic range images
JP6846442B2 (ja) ハイダイナミックレンジ画像のためのクロマ再構成
US10015491B2 (en) In-loop block-based image reshaping in high dynamic range video coding
CN109416832B (zh) 高效的基于直方图的亮度外观匹配
CN108885783B (zh) 编码和解码可逆制作质量单层视频信号
EP3176749B1 (en) Efficient image processing on content-adaptive pq signal domain
US10701359B2 (en) Real-time content-adaptive perceptual quantizer for high dynamic range images
US10223774B2 (en) Single-pass and multi-pass-based polynomial approximations for reshaping functions
US10165275B2 (en) Content-adaptive reshaping for high dynamic range images
WO2017201139A1 (en) Chroma reshaping for high dynamic range images
US11895416B2 (en) Electro-optical transfer function conversion and signal legalization